Algebra Lineare e Geometria Analitica Volume I E. Abbena, A.M. Fino, G.M. Gianella 12 marzo 2011
2
3
Prefazione Con l’attivazione delle lauree triennali, i corsi universitari hanno sub` sub`ıto ıto una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto al primo anno del Corso di Laurea in Fisica presso l’Universit a` di Torino, costituisce ora un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e nello Spazio e per tutte tutte quelle parti di Algebra Algebra Lineare di base trattate trattate in campo reale. Esso Esso si present presentaa in due volum volumii di agevo agevole le consul consultaz tazion ione: e: il primo primo dedica dedicato to alla alla parte parte teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni, per lo pi` piu` tratti tratti dai testi d’esame. d’esame. La suddi suddivis vision ionee in capito capitoli li del secondo secondo volume volume si riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume. Il testo e` di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ diverso per stile ed impostazione dagli usuali testi universitari del settore, al fine di sostenere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore all’Universit` all’Universita. a` . In quasi tutti i capitoli del primo volume `e stato inserito un paragrafo dal titolo “Per saperne di pi` piu” u` ” non solo per soddisfare la curiosit curiosita` del Lettore ma con il preciso obiettivo di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree Triennali e Magistrali. Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro, saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base per la maggior parte delle discipline scientifiche, rendendola appassionante. La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico versione 7. Alcuni Alcuni esercizi proposti sono particolarment particolarmentee adatti ad essere Mathematica, versione risolti con Mathematica o con Maple. Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi e-mail:
[email protected], annamaria.fi
[email protected],
[email protected].
4
II di copertina: copertina: Ringraziamenti Ringraziamenti Grazie ai Colleghi di Geometria del Dipartimento di Matematica dell’Universit a` di Torino per il loro prezioso contributo. Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti grafici grafici.. Grazie Grazie ai Proff. Proff. Sergio Sergio Console Console,, Federi Federica ca Galluzzi Galluzzi,, Sergio Sergio Garbier Garbiero o e Mario Mario Valenzano per aver letto il manoscritto. Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dell’Universit` sita` di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa esperienza.
5
IV di copertina Gli autori Elsa Abbena , professore associato di Geometria presso la Facolt a` di Scienze Matematiche Fisiche e Naturali dell’Universit a` di Torino, svolge la sua attivit a` di ricerca su argomenti di geometria differenzi differenziale. ale. Ha tenuto innumerevoli innumerevoli corsi di algebra e di geometria dei primi anni della Laurea Triennale presso vari corsi di Laurea. Facolt a` di Scienze Matematiche Anna Fino, professore associato di Geometria presso la Facolt` Fisiche e Naturali dell’Universit a` di Torino, svolge la sua attivit a` di ricerca su argomenti di geometria geometria differenziale differenziale e complessa. Ha tenuto per vari anni un corso di geometria e algebra algebra lineare presso il corso di Laurea in Fisica. Gian Mario Gianella , professore associato di Geometria presso la Facolt`a di Scienze Matematiche Fisiche e Naturali dell’Universit a` di Torino, svolge la sua attivit a` di ricerca su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e pi` piu` recentemente recentemente della teoria teoria dei numeri. numeri. Ha tenuto innumerevoli innumerevoli corsi di geometria dei primi anni della Laurea Triennale presso vari corsi di Laurea.
L’opera Con l’attivazione delle lauree triennali, i corsi universitari hanno sub` sub`ıto ıto una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto al primo anno del Corso di Laurea in Fisica presso l’Universit a` di Torino, costituisce ora un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e nello Spazio e per tutte tutte quelle parti di Algebra Algebra Lineare di base trattate trattate in campo reale. Esso Esso si present presentaa in due volum volumii di agevo agevole le consul consultaz tazion ione: e: il primo primo dedica dedicato to alla alla parte parte teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni, per lo pi`u tratti tratti dai testi d’esame. d’esame. La suddi suddivis vision ionee in capito capitoli li del secondo secondo volume volume si riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.
6
Indice 1
2
Sistemi Lineari 1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15 15
1.2
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.2.1
Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . .
29
Matrici e Determinanti 2.1 2.1 Somm Sommaa di matr matric icii e prod prodot otto to di un nume numero ro real realee per per una una matr matric icee . . . .
33 33
2.2
Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.2. 2.2.1 1
I sist sistem emii linea ineari ri in not notazio azione ne mat matrici ricial alee . . . . . . . . . . . . . .
40
2.3
La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
2.4
La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . . . . .
42
2.5
Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . . . . .
44
2.6
Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . . . . .
46
2.6. 2.6.1 1
50
2.7
La traccia di una matrice quadrata
. . . . . . . . . . . . . . . . . . . .
55
2.8
Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
2.8.1 2.8.1
I Teoremi eoremi di Laplac Laplacee Un’a Un’alt ltra ra defin definiz izio ione ne di rang rango o di una una matr matric icee . . . . . . . . . . .
64
2.8. 2.8.2 2
Calc Calcol olo o dell dellaa matr matric icee inv inversa ersa,, seco second ndo o meto metodo do . . . . . . . . . .
67
2.8.3
Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . .
69
Per Per sape sapern rnee di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
Calcolo Vettoriale 3.1 Definizione di vettore . . . . . . . . . . . . . . . . . . . . . . . . . . .
75 75
3.2
Somma di vettori
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
3.3 3.3
Il prod rodotto di un numero reale per un vett ettore ore . . . . . . . . . . . . . . .
82
3.4
Dipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . . . . . .
84
2.9 2.9
3
Calc Calcol olo o dell dellaa matr matric icee inv inversa ersa,, prim primo o meto metodo do . . . . . . . . . . .
7
8
INDICE
3.5 3.5
Il camb cambia iame ment nto o di base base in V 3 . . . . . . . . . . . . . . . . . . . . . . .
3.6
Angolo tra due vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.7
Operazioni non lineari tra vettori . . . . . . . . . . . . . . . . . . . . . 101
97
3.7.1
Il prodotto scal calare di due vettori ori
. . . . . . . . . . . . . . . . . 101
3.7. 3.7.2 2
Il prod prodot ottto vett ettoria oriale le di due due vett ettori ori . . . . . . . . . . . . . . . . 113 113
3.7.3
Il prodotto misto sto di tre vettori ori . . . . . . . . . . . . . . . . . . . 120
3.8
Cambia Cambiamen menti ti di basi basi ortono ortonorma rmali li in V 3 e in V 2 . . . . . . . . . . . . . . 124
3.9
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.10 3.10
Per Per sape saperne rne di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 3.10.1 Un’al ’altra defin efinizione di vettore . . . . . . . . . . . . . . . . . . 131 3.10.2 Ulteriori Ulteriori propriet proprieta` dell dellee oper operaz azio ioni ni tra vett ettori ori . . . . . . . . . . 132 132
4
Spazi Vettoriali e Sottospazi Vettoriali 4.1
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2
Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3
5
13 5
4.2.1
Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . 139
4.2. 4.2.2 2
Inte Inters rsez ezio ione ne e somm sommaa di sott sottos ospa pazi zi vett vettor oria iali li . . . . . . . . . . . 143 143
Generatori, basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . 149 4.3.1
Base di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 149
4.3.2
Basi e somma diretta . . . . . . . . . . . . . . . . . . . . . . . 162
4.3.3
Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . 166
4.3.4
Il cambiamento di base . . . . . . . . . . . . . . . . . . . . . . 176
4.3.5
Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 178
4.4
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 180
4.5 4.5
Per Per sape sapern rnee di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 4.5. 4.5.1 1
Equa Equazi zion onii vetto ettori rial alii e teor teorem emaa del del rang rango o . . . . . . . . . . . . . 188 188
4.5. 4.5.2 2
Equi Equiva vale lenz nzaa tra tra due due defin definiz izio ioni ni di rang rango o di una una matr matric icee . . . . . 193 193
4.5.3 4.5.3
Spazi Spazi vetto vettoria riali li comple complessi ssi,, matri atrici ci herm hermit itia iane ne e ant anti-he i-herm rmiitian tianee . . . . . . . . . . . . . . . 195 195
Spazi Vettoriali Euclidei 2 01 5.1 Definizione di prodotto scalare . . . . . . . . . . . . . . . . . . . . . . 201 5.2
Norma di un vettore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
5.3
Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.4
Il complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 218
5.5
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 223
9
INDICE
6
7
5.5. 5.5.1 1
Per Per saper saperne ne di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . 226
5.5.2
Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 226
Applicazioni Lineari
235
6.1
Matric Matricee associa associata ta ad un’app un’applic licazi azione one lineare lineare Equazio zioni di un’ap ’applicazione lineare . . . . . . . . . . . . . . . . . . . 238
6.2 6.2
Cambiame amenti di base e applicazioni lineari . . . . . . . . . . . . . . . . 246
6.3 6.3
Imma Immagi gine ne e cont contro roim imma magi gine ne di sott sottos ospa pazi zi vett vettor oria iali li . . . . . . . . . . . 248 248
6.4
Operazioni tra applicazioni lineari
6.5
Sottospazi vettoriali invarianti . . . . . . . . . . . . . . . . . . . . . . . 265
6.6
Applic Applicazi azione one lineare lineare aggiun aggiunta ta Endomorfismi autoaggiunti . . . . . . . . . . . . . . . . . . . . . . . . 268
6.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.8 6.8
Per Per sape sapern rnee di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
. . . . . . . . . . . . . . . . . . . . 260
6.8.1 6.8.1
Forme Forme linear linearii – dualit dualit`a` . . . . . . . . . . . . . . . . . . . . . . 276
6.8.2 6.8.2
Cambia Cambiamen mento to di base base in V ∗ . . . . . . . . . . . . . . . . . . . . 279
6.8.3
Spazio vettoriale biduale . . . . . . . . . . . . . . . . . . . . . 281
6.8. 6.8.4 4
Dual Dualit it`a` nel nel caso caso degl deglii spaz spazii vetto ettori rial alii eucl euclid idei ei . . . . . . . . . . 285 285
6.8. 6.8.5 5
Trasp raspos ostta di un’a un’app ppllicaz icaziione one linea ineare re . . . . . . . . . . . . . . . 286 286
6.8. 6.8.6 6
Endo Endomo morfis rfismi mi auto autoag aggi giun unti ti e matr matric icii hermi hermiti tian anee . . . . . . . . . 290 290
6.8. 6.8.7 7
Isom Isomet etri rie, e, simi simili litu tudi dini ni,, tras trasfor forma mazi zion onii unit unitari ariee . . . . . . . . . . 291 291
Diagonalizzazione
301
7.1 7.1
Auto Autov valor alorii e auto autov vett ettori ori di un endo endom morfis orfismo mo . . . . . . . . . . . . . . . 301 301
7.2 7.2
Dete Determ rmin inaz azio ione ne degl deglii auto autov valor alorii e degl deglii auto autosp spaz azii . . . . . . . . . . . . 305 305
7.3
Endomo Endomorfism rfismii diagona diagonaliz lizzab zabili ili Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 312
7.4
Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7.5
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 321
7.6 7.6
Per Per sape sapern rnee di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 7.6.1
Diagonalizzaz zazione simultanea . . . . . . . . . . . . . . . . . . . 326
7.6.2
Il Teor eorema di Cayley–H y–Hamilton . . . . . . . . . . . . . . . . . . 331
7.6.3
Teorema spettrale spettrale e endomo endomorfismi rfismi autoaggiunt autoaggiuntii Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 334
7.6.4
Autoval Autovalori ori delle isometrie, isometrie, similitudi similitudini, ni, trasformazioni unitarie . . . . . . . . . . . . . . . . . . . . . . 338
10
8
Forme Bilineari e Forme Quadratiche 8.1
Forme bilineari simmetriche 8.1. 8.1.1 1
9
INDICE
341
. . . . . . . . . . . . . . . . . . . . . . . 341
Matr Matric icee assoc associa iata ta ad una una forma forma bili biline neare are simm simmet etri rica ca . . . . . . . 344 344
8.2
Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
8.3
Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . . . . . 353
8.4
Classificazione di una forma quadrat ratica . . . . . . . . . . . . . . . . . . 364
8.5
Forme canoniche
8.6
La segnatura di una forma quadratica . . . . . . . . . . . . . . . . . . . 376
8.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 381
8.8 8.8
Per Per sape sapern rnee di pi` u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
8.8.1 8.8.1
Forme Forme biline bilineari ari simmet simmetric riche he ed endomo endomorfis rfismi mi autoag autoaggiu giunti nti . . . 389
8.8. 8.8.2 2
Form Formee bili biline neari ari simm simmet etri riche che e spaz spazio io vett vettor oria iale le dual dualee . . . . . . 392 392
8.8. 8.8.3 3
Altr Altrii meto metodi di di class classifi ificaz cazio ione ne di una una forma forma quad quadra rati tica ca
8.8.4 8.8.4
Il determ determina inante nte come come forma forma p -lineare
. . . . . . . . . . . . . . 398
Geometria Analitica nel Piano 9.1
. . . . . 393 393
405
Il riferi riferimen mento to cartes cartesian iano, o, general generalit it`a` . . . . . . . . . . . . . . . . . . . . 405 9.1.1
Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 408
9.1.2
Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 408
9.1.3
Baricentro di un triangolo . . . . . . . . . . . . . . . . . . . . . 408
9.2
Luoghi geometrici del piano . . . . . . . . . . . . . . . . . . . . . . . . 409
9.3
Riferimento polare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
9.4
Traslazione degli assi . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
9.5
Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
9.6
9.7 9.7
9.5. 9.5.1 1
Curv Curvaa simm simmet etri rica ca rispe rispett tto o all’ all’ass assee dell dellee ordin ordinat atee . . . . . . . . . 417 417
9.5. 9.5.2 2
Curv Curvaa simm simmet etri rica ca risp rispet etto to all’ all’as asse se dell dellee asci asciss ssee
9.5. 9.5.3 3
Curv Curvaa sim simmet metrica rica risp rispet etto to all’ all’or oriigine gine . . . . . . . . . . . . . . . 418 418
. . . . . . . . . 418 418
Retta nel piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 9.6. 9.6.1 1
Ret Retta per per un punt punto o para paralllel lela ad un vetto ettore re . . . . . . . . . . . . 421 421
9.6. 9.6.2 2
Ret Retta per per un punt punto o ort ortogon ogonal alee ad un vett ettore ore . . . . . . . . . . . 422 422
9.6.3
Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 424
9.6.4
Rette particolari . . . . . . . . . . . . . . . . . . . . . . . . . . 426
9.6.5
Il coefficient coefficientee angolare angolare ed il suo legame legame con a, a, b, c . . . . . . . . 426
Paral Paralle leli lism smo, o, orto ortogo gona nali litta` , angoli e distanze . . . . . . . . . . . . . . . 428 9.7. 9.7.1 1
Cond Condiizion zionee di para parall llel eliismo smo tra tra ret rette . . . . . . . . . . . . . . . . 428 428
11
INDICE
9.7.2 9.7.2
Condiz Condizion ionee di perpen perpendic dicola olarit rit`a` tra rette . . . . . . . . . . . . . . 429
9.7.3
Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 431
9.7. 9.7.4 4
Posi Posizi zion onee reci recipr proc ocaa di due due ret rette nel nel pian piano o
9.7.5
Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 434
. . . . . . . . . . . . 431 431
9.8
Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
9.9
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 438
9.10 9.10
Per sape saperne rne di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 9.10.1 Rette immaginarie . . . . . . . . . . . . . . . . . . . . . . . . . 441
10 Riduzione a Forma Canonica delle Coniche 10.1
La circonferenza nel piano
445
. . . . . . . . . . . . . . . . . . . . . . . . 445
10.1.1 10.1.1 Posizi Posizione one recipr reciproca oca tra una retta retta e una circonf circonferen erenza za . . . . . . . 447 10.1 10.1.2 .2 Rett Rettaa tang tangen ente te ad una una cir circo conf nfere erenz nzaa in in un un suo suo punt punto o . . . . . . . 449 449 10.1.3 Posizione Posizione reciproca reciproca di due circonferen circonferenze ze Circonferenza per tre punti . . . . . . . . . . . . . . . . . . . . 452 10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . 453 10.2
Le coniche coniche:: definiz definizion ionee e propri propriet et`a` focali . . . . . . . . . . . . . . . . . 459 10.2.1 L’ellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 10.2.2 L’iperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 10.2 10.2.3 .3 Iper Iperbo bole le equi equila late tera ra rife riferi rita ta agli agli asin asinto toti ti . . . . . . . . . . . . . . 474 474 10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . . . . . . . . . 481
10. 10.3
Le con coniche: luoghi geo geometrici di punti . . . . . . . . . . . . . . . . . . 485
10.4
Le coniche coniche:: equazio equazioni ni di secondo secondo grado, grado, ridu riduzi zion onee dell dellee coni conich chee in form formaa cano canoni nica ca . . . . . . . . . . . . . . . . 492 492
10.5
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 508
10.6 10.6
Per sape saperne rne di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512 10.6 10.6.1 .1 Pote Potenz nzaa di un punt punto o risp rispet etto to ad una una circ circon onfer feren enza za . . . . . . . . 512 512 10.6 10.6.2 .2 Equa Equazi zion onii para param metri etrich chee dell dellee coni conich chee
. . . . . . . . . . . . . . 514 514
10.6.3 Le coniche in forma polare . . . . . . . . . . . . . . . . . . . . 516 10.6 10.6.4 .4 Rett Rettaa tang tangen ente te ad una una coni conica ca in un suo suo punt punto o . . . . . . . . . . . 517 517
11 Geometria Analitica nello Spazio 521 11. 11.1 Il rif riferi erimento cartesiano nello spazio zio . . . . . . . . . . . . . . . . . . . 521 11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 522 11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 523
12
INDICE
11.1 11.1.3 .3 Bari Barice cent ntro ro di un tria triang ngol olo o e di un tetr tetrae aedr dro o . . . . . . . . . . . . 523 523 11.1 11.1.4 .4 Area Area di un tria triang ngol olo o e volum olumee di un tetr tetrae aedr dro o 11.2 11.2
. . . . . . . . . . 523 523
Rapp Rappre rese sent ntaz aziione one di un pian piano o nell nello o spaz spaziio . . . . . . . . . . . . . . . . 524 524 11.2 11.2.1 .1 Pian Piano o per per un punt punto o orto ortogo gona nale le ad un vett vettor oree . . . . . . . . . . . 524 524 11.2 11.2.2 .2 Pian Piano o per per un punt punto o para parall llel elo o a due due vetto ettori ri
. . . . . . . . . . . . 526 526
11.2.3 Piano per per tre punti non allineati . . . . . . . . . . . . . . . . . . 529 11.3 11.3
Rapp Rappre rese sent ntaz aziione one del della rett rettaa nel nello spaz spazio io . . . . . . . . . . . . . . . . . 531 531 11.3 11.3.1 .1 Rett Rettaa per per un punt punto o para parall llel elaa ad un vett vettor oree
. . . . . . . . . . . . 531 531
11.3.2 Retta per due punti distinti . . . . . . . . . . . . . . . . . . . . 534 11.3.3 Posizione Posizione reciproca reciproca di due piani piani Ret Retta come come inter nterse sezi zion onee di due due pian pianii . . . . . . . . . . . . . . . 536 536 11.4
Posiz sizioni rec recipro proche tra ret rette e piani ani . . . . . . . . . . . . . . . . . . . 538 11.4.1 Posizione rec recipro proca di tre piani . . . . . . . . . . . . . . . . . . 539 11.4 11.4.2 .2 Posi Posizi zion onee reci recipr proc ocaa tra tra ret retta e pian piano o
. . . . . . . . . . . . . . . 541 541
11.4 11.4.3 .3 Posi Posizi zion onee reci recipr proc ocaa di due due rett rettee nell nello o spaz spazio io . . . . . . . . . . . 543 543 11.5
Fasci di piani
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545
11.6
Distanze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548 11.6.1 Distanza di un punto da un piano . . . . . . . . . . . . . . . . . 549 11.6.2 Distanza di un punto da una retta . . . . . . . . . . . . . . . . . 551 11.6.3 Minima Minima distanza distanza tra due rette rette sghembe. sghembe. Perp Perpen endi dico cola lare re comu comune ne a due due rett rettee sghe sghemb mbee . . . . . . . . . . . 551 551 11.6.4 Angolo tra due rette . . . . . . . . . . . . . . . . . . . . . . . . 556 11.6.5 Angolo tra retta e piano . . . . . . . . . . . . . . . . . . . . . . 556 11.6.6 Angolo tra due piani . . . . . . . . . . . . . . . . . . . . . . . . 556
11.7 11.7
Sfer Sferaa e posi posizi zion onee reci recipr proc ocaa con con ret rette e pian pianii . . . . . . . . . . . . . . . 559 559 11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 11.7 11.7.2 .2 Posi Posizi zion onee reci recipr proc ocaa tra tra pian piano o e sfer sferaa . . . . . . . . . . . . . . . 560 560 11.7 11.7.3 .3 Posi Posizi zion onee reci recipr proc ocaa tra tra ret retta e sfer sferaa . . . . . . . . . . . . . . . . 563 563
11.8
La circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . 565
11.9
Posizio Posizione ne reciproc reciprocaa tra tra due sfere sfere Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570
11.10 Coordinate polari sferiche . . . . . . . . . . . . . . . . . . . . . . . . . 579 11.11 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 583 11.12 11.12 Per saperne saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592 11.12.1 Baricen centro geometr etrico di punti . . . . . . . . . . . . . . . . . . 592
13
INDICE
11.1 11.12. 2.2 2 Pote Potenz nzaa di un punt punto o risp rispet etto to ad una una sfer sferaa . . . . . . . . . . . . . 594 594 11.12.3 Sfere in dimens ensione quattro . . . . . . . . . . . . . . . . . . . . 598
12 Coni, Cilindri, Superfici di Rotazione e Quadriche 12.1 12.1 Cenn Cennii sull sullaa rapp rappre rese sent ntaz azio ione ne di curv curvee e supe superfi rfici ci . . . . 12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.1 Cono tangente ad una sfera . . . . . . . . . . . 12.2 12.2.2 .2 Proi Proiez ezio ione ne di una una curv curvaa da un punt punto o su un pian piano o 12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
601 601 601 603 614 616 616 618
12.3 12.3.1 .1 Cili Cilind ndri ri con con assi assi paral paralle leli li agli agli assi assi coor coordi dina nati ti . . . . . . . . . . . 622 622 12.3 12.3.2 .2 Cili Cilind ndro ro circ circos oscr crit itto to ad una una sfer sferaa . . . . . . . . . . . . . . . . . 628 628 12.3.3 Proiezione Proiezione di una curva curva su un piano piano secondo una direzion direzionee assegnata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632 12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . 634 12.4
Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
12.5
Cenni su superfici rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 649
12.6
Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652 12.6.1 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . . . . . 668 12.6.2 L’iperboloide ad una falda
. . . . . . . . . . . . . . . . . . . . 668
12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . 676 12.7
Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . . . . 680
12.8 12.8
Per sape saperne rne di pi` piu` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 690 12.8 12.8.1 .1 Pian Piano o tang tangen ente te ad una una quad quadri rica ca in un suo suo punt punto o . . . . . . . . . 690 690
Bibliografia
6 97
Indice dei Simboli
699
Indice Analitico
702
14
INDICE
Capitolo 1 Sistemi Lineari In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un sistema lineare e si enuncia il Teorema di Rouch´e–Capelli i cui dettagli e la dimostrazione sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli esercizi `e il campo dei numeri reali R .
1.1
Equazioni lineari
Definizione 1.1 Un’equazione lineare nelle incognite x 1 , x2 , . . . , xn e` un’espressione del tipo:
a1 x1 + a2 x2 + . . . + an xn = b,
(1.1)
dove i numeri reali ai , i = 1, 2, . . . , n , sono detti coefficienti e il numero reale b prende il nome di termine noto. L’equazione si dice lineare in quanto ogni incognita x i compare a primo grado.
Definizione 1.2 Una soluzione dell’equazione lineare (1.1) `e una n -upla di numeri reali:
(x01 , x02 , . . . , x0n ) che, sostituita alle incognite x 1 , x2 , . . . , xn , verifica l’equazione, cio`e:
a1 x01 + a2 x02 + . . . + an x0n = b. Risolvere un’equazione significa determinarne tutte le soluzioni. 15
Sistemi Lineari
16
Esempio 1.1 L’equazione lineare nelle incognite x 1 , x2 , x3 , x4 :
2x1 + 3x2
− x + 4x = 5 3
4
ammette infinite soluzioni, che dipendono da 3 parametri reali, date da:
x1 = t 1 x2 = t 2 x3 = 5 + 2t1 + 3t2 + 4t3 x4 = t 3 ,
−
oppure, equivalentemente, l’insieme delle soluzioni
∈ R;
t1 , t2 , t3
S e` dato da:
S = {(x , x , x , x ) = (t , t , −5 + 2t + 3t + 4t , t ) | t , t , t ∈ R}. 1
2
3
4
1
2
1
2
3
3
1
2
3
Si osservi che, risolvendo l’equazione rispetto ad un’altra incognita, si ottiene lo stesso insieme di soluzioni (solo rappresentato in modo diverso).
Definizione 1.3 L’equazione lineare (1.1) si dice omogenea se il termine noto b e` nullo. ` chiaro che un’equazione lineare e` omogenea se e solo se ammette la soluzione nulla, E cio`e la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, un’equazione lineare omogenea pu`o ammettere anche soluzioni non nulle, come nell’esempio seguente.
Esempio 1.2 L’equazione lineare omogenea nelle incognite x, y :
2x
− 3y = 0
ammette infinite soluzioni che dipendono da un’incognita libera, date da:
2 (x, y) = t, t , t 3
∈ R.
Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0 .
1.2
Sistemi lineari
Un sistema lineare di m equazioni in n incognite x1 , x2 , . . . , xn e` un insieme di equazioni lineari del tipo:
a11 x1 + a12 x2 + . . . . . . + a1nxn = b 1 a21 x1 + a22 x2 + . . . . . . + a2nxn = b 2
(1.2)
.. .
am1 x1 + am2 x2 + . . . . . . + amnxn = b m ,
∈ R, b ∈ R.
aij
i
Capitolo 1
17
I coefficienti a ij , i = 1, 2, . . . , m, j = 1, 2, . . . , n , sono dotati di due indici per agevolare il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga), in questo caso i , indica il numero dell’equazione in cui il coefficiente compare, il secondo indice (indice di colonna), in questo caso j , stabilisce il numero dell’incognita di cui aij e` il coefficiente. Per esempio a23 e` il coefficiente della terza incognita nella seconda equazione. I termini noti bi , i = 1, 2, . . . , m , hanno solo un’indice essendo unicamente riferiti al numero dell’equazione in cui compaiono. Il sistema considerato e` lineare in quanto ogni equazione che lo compone e` lineare. Analogamente al caso delle equazioni, un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo, cio`e se b i = 0 , per ogni i = 1, 2, . . . , m . Anche in questo caso vale la seguente definizione.
Definizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite `e una n -upla di numeri reali:
(x01 , x02 , . . . , x0n ) che, sostituita ordinatamente alle incognite, verifica tutte le equazioni del sistema, cio`e:
a11 x01 + a12 x02 + . . . . . . + a1n x0n = b 1 a21 x01 + a22 x02 + . . . . . . + a2n x0n = b 2 .. .
am1 x01 + am2 x02 + . . . . . . + amnx0n = b m .
Risolvere un sistema lineare significa determinarne tutte le soluzioni. ` chiaro che ogni sistema lineare e` omogeneo se e solo se ammette la soluzione nulla E (0, 0, . . . , 0), formata da tutti zeri.
Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti e` incompatibile. Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si dar a` ampio spazio al metodo di riduzione di Gauss in quanto piu` veloce (anche dal punto di vista computazionale). L’idea di base del metodo di Gauss e` quella di trasformare il sistema lineare di partenza in un altro sistema lineare ad esso equivalente ma molto pi u` semplice, tenendo conto della seguente definizione.
Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
Sistemi Lineari
18
Prima di iniziare la trattazione teorica si consideri il seguente esempio.
Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite usando il metodo di riduzione:
x + y = 4 2x 3y = 7.
−
Il sistema lineare dato e` equivalente a:
ossia:
x + y = 4 2(x + y) (2x
−
− 3y) = 2 · 4 − 7,
x + y = 4 5y = 1
che ammette come unica soluzione (19/5, 1/5) . Il metodo usato per risolvere l’esempio precedente e` conseguenza del seguente teorema.
Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate:
1. scambiare tra loro due equazioni, 2. moltiplicare un’equazione per un numero reale diverso da zero, 3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltiplicata per un qualsiasi numero reale si ottiene un sistema lineare equivalente a quello di partenza.
` ovvio che scambiando tra loro due equazioni si ottiene un sistema Dimostrazione E lineare equivalente a (1.2). Per la seconda operazione, si dimostra che il sistema lineare (1.2) `e equivalente al sistema lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un numero reale λ = 0 . Si osservi che se tale sostituzione avviene per la i -esima equazione e` sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri termini si prova che (1.2) `e equivalente al sistema lineare:
λ(a11 x1 + a12 x2 + . . . . . . + a1nxn ) = λb 1 a21 x1 + a22 x2 + . . . . . . + a2nxn = b 2
(1.3)
.. .
am1 x1 + am2 x2 + . . . . . . + amnxn = b m ,
Per la dimostrazione si deve procedere in due passi.
λ = 0.
Capitolo 1
19
1. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2). Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3). 2. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3). Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2).
1. La dimostrazione e` ovvia e vale per ogni numero reale λ = 0 . ` sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha: 2. E
λ(a11 x01 + a12 x02 + . . . . . . + a1n x0n) = λb 1 ,
essendo λ = 0 si possono dividere ambo i membri dell’identit a` precedente per λ , da cui segue la tesi. Per dimostrare l’equivalenza nel caso dell’operazione 3. si procede allo stesso modo.
Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:
x + y = 4 2x 3y = 7,
−
x + y = 4 0(2x 3y) + 2(x + y) = 0 7 + 2 4.
−
·
·
Infatti non e` consentito sostituire alla seconda equazione il prodotto di se stessa per il numero 0 , anche se si mantiene inalterata la prima equazione. Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coefficienti del sistema lineare e non sulle incognite. Ci o` suggerisce di sostituire ad un sistema lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene illustrato ora questo procedimento mediante l’Esempio 1.3. Al sistema lineare:
si associa la tabella:
con le due righe:
R1 =
1 1
|
x + y = 4 2x 3y = 7
−
1 2
−
4 ,
1 3
4 7
R2 =
2
−3 |
7
(1.4)
Sistemi Lineari
20
e le tre colonne:
C 1 =
1 2
C 2 =
,
1 3
C 3 =
,
−
4 7
.
Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si sottrae il prodotto di due volte la prima, cio e` R 2 R2 2R1 , ottenendo cos`ı:
−→ −
− −
1 0
1 5
4 1
,
che corrisponde al sistema lineare ridotto:
x + y = 4 5y = 1.
−
−
Bench´e la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncer a` la definizione formale pi`u avanti. La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei coefficienti e termini noti . Il tratto verticale prima dell’ultima sua colonna intende solo distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trattazione generale delle matrici e` rimandata al capitolo successivo, introducendo ora solo ` evidente che il numero delle righe della matrice completa alcune nozioni elementari. E associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare, il numero delle colonne `e pari al numero delle incognite aumentato di una unit a` , che corrisponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr. Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere, rispettivamente con le seguenti notazioni:
←→ R , = 0, R −→ λR , λ ∈ R, λ = j, R −→ R + λR , λ ∈ R, i
1. Ri 2. 3.
j
i i
i
i
j
dove R i e R j indicano rispettivamente la i –esima riga e la j –esima riga. In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e n colonne:
A =
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
am1 am2
.. .
···
amn
(1.5)
Capitolo 1
21
|
detta matrice dei coefficienti, e una matrice (A B) di m righe e n + 1 colonne:
|
(A B) =
detta matrice completa .
a11 a21
a12 . . . a1n a22 . . . a2n
.. .
.. .
.. .
···
am1 am2
amn
b1 b2 .. .
bm
Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x + y + 2z = 9 2x + 4y 3z = 1 3x + 6y 5z = 0
− −
la matrice completa (formata da tre righe e quattro colonne) `e:
1 2 3
1 4 6
− − −→ → − 2 3 5
9 1 0
.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
−→ R → R − 2R R → R − 3R 2
2
1
3
3
1
1 0 0
1 2 3
− − − − −− − − 2 7 11
da cui si perviene al sistema lineare:
9 17 27
2R3
R3
3R2
1 0 0
1 2 0
− − − − 2 7 1
x + y + 2z = 9 2y 7z = 17 z = 3,
che ammette una sola soluzione:
−
x = 1 y = 2 z = 3.
Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
x1 + x2 x3 = 1 2x1 + 2x2 + x3 = 0 x1 + x2 + 2x3 = 1
−
9 17 3
,
Sistemi Lineari
22
la matrice completa e` :
1 2 1
−1
1 2 1
1 2
− 1 0 1
.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
−→ R → R − 2R R → R − R 2
2
3
3
1
1
1 0 0
1 0 0
− −− →−→ − − 1 3 3
1 2 2
R3
R3
R2
1 0 0
1 0 0
da cui si perviene al sistema lineare:
− − 1 3 0
1 2 0
,
x1 + x2 x3 = 1 3x3 = 2,
−
che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore chiarezza si pone x 2 uguale ad un parametro t che quindi puo` assumere ogni valore reale:
x1 =
1 3
− t
x2 = t x3 =
− 23 ,
t
∈ R.
Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:
− −− − − − − − − −→ − → → − x1 + x2 = 1 2x1 + x2 + 3x3 = 2 x1 + 2x2 + 3x3 = 1
la matrice completa e` :
1 2 1
1 1 2
0 3 3
1 2 1
.
Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:
−→
→ R + 2R → R + R
R2 R3
2 3
1
1
1 0 0
1 3 3
0 3 3
1 0 2
R2 R3
(1/3)R2 R3 R2
1 0 0
1 1 0
0 1 0
− − 1 0 2
Capitolo 1
23
da cui si perviene al sistema lineare:
che `e chiaramente incompatibile.
−
x1 + x2 = 1 x2 + x3 = 0 0= 2
−
Gli esempi studiati impongono la definizione formale della matrice associata all’ultimo sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto equivalente a quello di partenza.
Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste un elemento non nullo al di sotto del quale vi sono tutti zeri. Esempio 1.8 La matrice:
−
1 1 1
2 0 0
0 1 0
1 1 1
2 0 1
1 0 1
e` ridotta per righe, mentre la matrice:
−
−
non lo e` . Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto.
Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso associata e` ridotta per righe. Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare e` ridotta per righe ma non lo `e la matrice completa, e` sufficiente operare sulla colonna dei termini noti per pervenire ad una matrice completa ridotta per righe, per esempio:
|
(A B) =
1 0 0 0
2 1 0 0
− 3 2 0 0
1 2 3 4
−→
→ 4R − 3R
R4
3
4
1 0 0 0
2 1 0 0
− 3 2 0 0
1 2 3 0
.
Sistemi Lineari
24
Invece, la matrice completa di un sistema lineare pu o` essere ridotta per righe senza che necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:
|
(A B) =
1 2 3 7 6 5 9 8 0
4 0 0
e` una matrice ridotta per righe, ma il sistema lineare associato non `e ridotto perch´e la matrice dei coefficienti non `e ridotta per righe. Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che seguono e anche dall’Osservazione 1.1, sar`a chiaro che tra tutte le matrici complete ridotte per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti e` ridotta per righe. Si possono allora presentare queste possibilit a` : a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ridotta per righe ed e` uguale al numero delle incognite, quindi l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero non nullo, allora il sistema lineare ridotto associato e` compatibile e ha una sola soluzione. b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ed e` minore del numero delle incognite; l’ultima riga non nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il sistema lineare ridotto `e compatibile e ammette infinite soluzioni che dipendono da almeno un’incognita libera. c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della matrice completa ridotta per righe `e maggiore (di una unit`a) del numero delle righe non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare ridotto associato e` incompatibile.
Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in modo elementare, di distinguere le situazioni prima esposte.
Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non nulle.
Capitolo 1
25
Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta per righe da essa ottenuta. Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da tutti zeri `e 0 . In letteratura, le notazioni pi`u comuni per indicare il rango di una matrice sono rank(A) = rg(A) = r (A) = rk (A) = ρ(A) . Si user`a la notazione rank(A) . ` evidente che affinch`e la Definizione 1.10 abbia senso e` necessario Osservazione 1.3 E dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici ridotte ottenute hanno lo stesso rango. In realt`a, la Definizione 1.10 esprime il metodo di calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata `e necessario enunciare un’altra definizione di rango di una matrice e ci o` sar`a fatto nel Paragrafo 4.3 dopo aver introdotto nozioni adesso premature. I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel modo seguente:
|
a. rank(A) = rank(A B) = 3 ; il rango delle due matrici e` uguale e coincide con il numero delle incognite;
|
b. rank(A) = rank(A B) = 2 ; il rango delle due matrici e` uguale ma e` inferiore di una unit`a al numero delle incognite;
|
c. rank(A) = 3, rank(A B) = 4 ; i due ranghi sono diversi, il sistema lineare e` incompatibile. Si e` cos`ı “quasi” dimostrato il seguente teorema.
Teorema 1.2 – Teorema di Rouch´e–Capelli – Un sistema lineare in n incognite `e com patibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A B). In particolare, se rank(A) = rank(A B) = n , il sistema lineare ha un’unica soluzione. Se rank(A) = rank(A B) = k < n , il sistema lineare ammette infinite soluzioni che dipendono da n k incognite libere.
|
−
|
|
Si osservi, infatti, che il Teorema di Rouch´e–Capelli e` banalmente dimostrato solo nel caso dei sistemi lineari ridotti; per completare la dimostrazione `e necessario, come gi`a osservato, enunciare un’altra definizione di rango di una matrice e provare che le operazioni di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).
Sistemi Lineari
26
Osservazione 1.4 Un sistema lineare omogeneo e` sempre compatibile, percio` e` solo interessante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ci o` dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un sistema lineare omogeneo e` sufficiente ridurre per righe la matrice dei coefficienti (questo caso sar`a esaminato in dettaglio nel Paragrafo 1.2.1). Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m righe e n colonne, rank(A) m, si dimostrer`a formalmente che il rango della matrice dei coefficienti di un sistema lineare `e un numero inferiore o uguale al minore tra il numero delle equazioni e il numero delle incognite, cio e` rank(A) m e rank(A) n .
≤
≤
≤
Osservazione 1.6 Al piu` il rango della matrice completa differisce di una unit a` dal rango della matrice dei coefficienti, cio e` rank(A B) rank(A) + 1 .
| ≤
Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni di un sistema lineare si pu`o procedere in modo leggermente diverso da quando si e` visto finora. Quando si perviene alla matrice completa ridotta per righe, anzich´e scrivere il sistema lineare ridotto associato si pu`o, in modo equivalente, procedere allo stesso calcolo mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo di riduzione di Gauss introdotto in precedenza, `e molto efficace quando si ha una sola soluzione, ma puo` presentare alcune difficolt`a di calcolo negli altri casi. Viene ora illustrato con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio 1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colonne. Pertanto ha senso considerare la sua diagonale principale, cio`e l’insieme formato da tutti gli elementi aii , i = 1, 2, 3 (tale nozione sar`a ripresa e riformulata con maggiore propriet`a di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti e` ridotta per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la diagonale principale.
− − − − −→ → → −
1 0 0
R2 R1
1 2 0
2
7 1
9
17
3
R2 + (7/2)R3 R1 2R3
−→ R → (1/2)R R → −R 2
2
3
3
1
1
0
0
1
0
0
0
1
3 2 3
1 0 0
− − −→ → −
R1
1
2
9
1
7 2
17 2
0
1
3
R1
R2
1
0
0
0
1
0
0
0
1
1 2 3
.
Capitolo 1
27
Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema lineare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite nell’ultima colonna, che dipende dal metodo di riduzione seguito.
Esercizio 1.1 Discutere e risolvere, al variare del parametro a lineare di tre equazioni in tre incognite:
∈ R , il seguente sistema
−
x + 2y 3z = 4 3x y + 5z = 2 4x + y + ( 14 + a2 )z = 2 + a.
−
−
|
Si procede con la riduzione per righe della matrice completa (A B) , riporSoluzione tando solo i passaggi essenziali.
|
(A B) =
1 0 0
2 7 7
1 3 4
2 1 1
−
−3
− 14 − −2 + a
2
−3
5 14 + a2
−
−−
4 10 14 + a
−→ → − → − −→ 4 2 2+a
R2 R3
R2 R3
1 0 0
→ R − R
R3
3
3R1 4R1
2
−
2 7 0
−3
−
14 16 + a2
−− 4 10 4+a
La matrice dei coefficienti A e` ridotta per righe, quindi si presentano i seguenti casi: 1. rank(A) = 3 se e solo se a 2
− 16 = 0 ossia se e solo se a ∈/ {−4, 4} ; 2. rank(A) = 2 se e solo se a = −4 oppure a = 4 . Per determinare le soluzioni del sistema lineare si devono considerare tre casi:
∈ {− }
|
4, 4 , poich´e rank(A) = 3 anche rank(A B) = 3 . Il sistema lineare e` 1. a / compatibile e ammette una sola soluzione, che si determina o a partire dal sistema lineare ridotto associato, oppure procedendo all’ulteriore riduzione della matrice completa prima ottenuta nel modo seguente:
−→ 1 R → −16 + a R 3
2
3
1
2
0
7
0
0
−3 −14 1
4 10
−4 + a (4 + a)(−4 + a)
−→ 1 R → R 7 2
2
.
Sistemi Lineari
28
1
2
−3
4
0
1
−2
10 7
0
0
1 4+a
1
−→ R → R − 2R 1
1
2
−→
→ R + 2R → R + 3R
R2 R1
2
3
1
3
1
0
0
25 + 8a 7(4 + a)
0
1
0
54 + 10a 7(4 + a)
0
0
1
1 4+a
1
2
0
19 + 4a 4+a
0
1
0
54 + 10a 7(4 + a)
0
0
1
1 4+a
.
In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite.
−
2. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice completa (A B) si ha:
|
1 0 0
2 7 0
−3 −14 0
− 4 10 8
|
da cui segue che rank(A) = 2 mentre rank(A B) = 3 , il sistema lineare `e quindi incompatibile. 3. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice completa (A B) si ha:
|
1
2
0
7
0
0
−3 −14 0
4 10 0
−→ 1 R → R 7 2
2
|
1
2
0
1
0
0
−3 −2
10 7
0
0
4
,
da cui segue che rank(A) = rank(A B) = 2 ( 2 < 3 , con 3 numero delle
Capitolo 1
29
incognite) il sistema lineare `e, quindi, compatibile e ammette infinite soluzioni:
x =
8 7
y =
10 + 2t 7
− t
z = t,
t
∈ R.
Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel modo seguente:
(x,y,z ) =
− 8 7
10 + 2t, t = t, 7
8 10 , , 0 + t( 1, 2, 1), 7 7
−
t
∈ R,
mettendo cos`ı meglio in evidenza la dipendenza dall’incognita libera z = t . Si osservi inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del sistema lineare.
1.2.1
Sistemi lineari omogenei
Si ricordi che un sistema lineare omogeneo e` un sistema lineare avente tutti i termini noti uguali a zero, cio`e del tipo:
a11 x1 + a12 x2 + . . . . . . + a1nxn = 0 a21 x1 + a22 x2 + . . . . . . + a2nxn = 0
(1.6)
.. .
∈ R,
am1 x1 + am2 x2 + . . . . . . + amnxn = 0,
aij
|
la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A B) e` :
|
(A B) =
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
am1 am2
.. .
···
amn
0 0 .. .
0
;
quindi il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A B) . Infatti, come si e` gi`a osservato, un sistema lineare omogeneo ammette ` molto interessante distinguere il caso in cui si ha una sempre almeno la soluzione nulla. E sola soluzione da quello con infinite soluzioni:
|
Sistemi Lineari
30
1. se il rango di A coincide con il numero delle incognite, allora esiste solo la soluzione (0, 0, . . . , 0); 2. se il rango di A e` un numero k strettamente minore del numero delle incognite n , allora esistono infinite soluzioni che dipendono da n k incognite libere.
−
Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque incognite:
−
x3 + x4 + x5 = 0 x1 x2 + 2x3 3x4 + x5 = 0 x1 + x2 2x3 x5 = 0 2x1 + 2x2 x3 + x5 = 0
−
−
−
ha come matrice dei coefficienti:
A =
−
0 1 1 2
−
−
0 1 1 2
−
− −
1 2 2 1
−
1 3 0 0
− 1 1 1 1
.
Procedendo alla sua riduzione per righe (si osservi che `e inutile ridurre per righe la matrice completa) si ha:
−→ R ↔ R R ↔ R 3
1
2
3
−
1 0 1 2
−→ R → −(1/3)R R → (1/3)R 3
4
−→ R → R − R 4
4
2
1 0 0 0
1 0 0 0 1 0 0 0
1 1 1
−
− 1 0 0 0
−1
0 1 3 0
1 2 1
−
3
4
−2
1 0 1 2
−2
0 1 1 0
1 0 1
−2
1 0 0
0 1 1 1
−
−→ R → R + R R → R − 2R 3
3
4
4
− −1
1
1
1 0 0 0
1 0 0 0
−2
1 0 3
−1
0 1 3 0
1 0 3
−
1 0 1
1 1 0 0
.
−
Si deduce che rank(A) = 3 , esistono, quindi, infinite soluzioni che dipendono da 5 3 = 2 incognite libere. Il sistema lineare ridotto associato e` :
−
−
x1 + x2 2x3 x5 = 0 x3 + x4 + x5 = 0 x4 = 0
(1.7)
Capitolo 1
le cui soluzioni sono:
31
− − −
x1 = t1 t2 x2 = t 2 x3 = t1 x4 = 0 x5 = t 1 , t1 , t2
∈ R.
Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si pu`o scrivere come:
− − t , t , −t , 0, t ) t (−1, 0, −1, 0, 1) + t (−1, 1, 0, 0, 0) | t , t ∈ R
(x1 , x2 , x3 , x4 , x5 ) = ( t1 =
2
2
1
1
1
2
1
2
.
Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qualsiasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti. Tale sistema lineare (1.6) `e anche detto il sistema lineare omogeneo associato a (1.2).
Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del sistema lineare omogeneo associato (1.6). Dimostrazione Sia (x∗1 , x∗2 , . . . , x∗n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn ) una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica immediatamente che (x1 + x∗1 , x2 + x∗2 , . . . , xn + x∗n ) e` ancora una soluzione di (1.2). Viceversa, se (x1 , x2 , . . . , xn ) e (x1 , x2 , . . . , xn ) sono due soluzioni qualsiasi di (1.2), delle quali (x1 , x2 , . . . , xn ) e` quella generale e (x1 , x2 , . . . , xn ) e` una soluzione particolare, allora `e facile verificare che (x1 x1 , x2 x2 , . . . , xn xn ) e` soluzione del sistema lineare omogeneo associato (1.6).
−
−
−
Esempio 1.11 Si consideri il sistema lineare:
−
−
x1 + x2 2x3 x5 = 5 x3 + x4 + x5 = 4 x4 = 3
(1.8)
che ha come sistema lineare omogeneo associato (1.7). L’insieme delle sue soluzioni e` :
− t − t , t , 1 − t , 3, t ) = (7, 0, 1, 3, 0) + t (−1, 0, −1, 0, 1) + t (−1, 1, 0, 0, 0) | t , t ∈ R
(x1 , x2 , x3 , x4 , x5 ) = (7
1
1
2
2
1
1
2
1
2
.
Sistemi Lineari
32
Si osservi che (7, 0, 1, 3, 0) e` una soluzione particolare del sistema lineare dato, mentre:
−
−
−
t1 ( 1, 0, 1, 0, 1) + t2 ( 1, 1, 0, 0, 0), al variare di t1 e t2 in R, e` la generica soluzione del sistema lineare omogeneo (1.7) associato. Analogamente, si verifichi per esercizio che il sistema lineare seguente:
−
−
x1 + x2 2x3 x5 = 1 x3 + x4 + x5 = 2 x4 = 1,
−
che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come insieme di soluzioni:
− t − t , t , 3 − t , −1, t ) = (7, 0, 3, −1, 0) + t (−1, 0, −1, 0, 1) + t (−1, 1, 0, 0, 0) | t , t ∈ R
(x1 , x2 , x3 , x4 , x5 ) = (7
1
1
2
2
1
1
2
1
2
.
Capitolo 2 Matrici e Determinanti Scopo di questo capitolo e` quello di formalizzare il concetto di matrice gi a` introdotto nel capitolo precedente e studiare le propriet`a essenziali dell’insieme delle matrici che costituisce un valido esempio di spazio vettoriale, struttura algebrica che sar a` definita nel Capitolo 4.
2.1
Somma di matrici e prodotto di un numero reale per una matrice
Definizione 2.1 Una matrice di m righe e di n colonne , ad elementi reali, e` una tabella del tipo:
A =
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
am1 am2
.. .
···
∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
con a ij
amn
,
(2.1)
Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’insieme della matrici di m righe ed n colonne sar`a indicato con Rm,n o, talvolta, con ` anche scrivere come: R (m, n) . In forma sintetica la matrice (2.1) si pu o
M
A = (aij ),
1
≤ i ≤ m, 1 ≤ j ≤ n,
e a ij e` l’elemento della matrice A di posto (i, j) . 33
Matrici e Determinanti
34
Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una colonna, cio`e come elementi di R 1,1 . Quindi R e` effettivamente uguale a R 1,1 . Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono quadrate e tale numero si dice ordine della matrice. Per esempio:
A =
1 2 3 4
e` una matrice quadrata di ordine 2 .
Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga . Per esempio:
A = e` una matrice riga.
1 2 3 4
∈
R1,4
Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna . Per esempio:
A =
e` una matrice colonna.
1 2 3 4
∈
R4,1
Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del prodotto cartesiano:
Rn = (x1 , x2 , . . . , xn ) xi
| ∈ R, i = 1, 2, . . . , n}
{
possono essere visti come matrici riga o colonna. Quindi Rn pu`o essere identificato sia con R 1,n sia con R n,1 .
Esempio 2.5 La matrice (aij ) Rm,n , con tutti gli elementi aij = 0 , si dice matrice nulla e si indica con O , da non confondersi con il numero 0 R . E` evidente che la matrice nulla `e l’unica matrice ad avere rango zero (cfr. Oss. 1.2).
∈
∈
Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n , tutti gli elementi del tipo aii , al variare di i da 1 a n , costituiscono la diagonale principale. Rivestiranno in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi
Capitolo 2
35
elementi tutti nulli al di fuori della diagonale principale cio e` a ij = 0 se i = j . L’insieme delle matrici diagonali di ordine n sar`a indicato con:
D(R
n,n
)=
a11 0 . . . 0 a22 . . .
0 0
.. .
.. .
..
.. .
0
0
. . . ann
.
|
∈ R, i = 1, 2, . . . , n
aii
.
∈ R
Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unit `a I ossia la matrice diagonale avente tutti 1 sulla diagonale principale:
I =
e la matrice quadrata nulla O tutti gli elementi uguali a 0 .
∈ R
n,n
1 0 ... 0 0 1 ... 0 .. .
.. .
..
.
.. .
0 0 ... 1
(2.2)
n,n
,
, intendendosi come tale la matrice quadrata avente
La definizione che segue stabilisce la relazione di uguaglianza tra matrici.
Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se:
1. hanno lo stesso numero di righe e di colonne, cio`e A e B appartengono entrambe allo stesso insieme R m,n ,
2. gli elementi di posto uguale coincidono, cio`e: aij = bij ,
i = 1, 2, . . . , m, j = 1, 2, . . . , n .
Si introducono ora le definizioni di somma di matrici e di prodotto di un numero reale per una matrice sull’insieme R m,n .
Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe appartenenti a R m,n , la matrice A + B Rm,n data da:
∈
A + B = (aij + bij ). Esempio 2.8 Date le matrici:
A =
1 3
2 4
,
B=
0 2
−
5 7
Matrici e Determinanti
36
la loro somma `e la matrice:
1 7 1 11
A + B =
.
Se A e B non appartengono allo stesso insieme Rm,n , non e` possibile definire la loro somma. Ad esempio non `e definita la somma della matrice A con la matrice:
C =
0 1
−
3 5
2 6
.
Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono le propriet a` di seguito elencate:
1. A + B = B + A,
∈ R
m,n
A, B
A, B, C Rm,n (propriet a` associativa).
∈
2. A + (B + C ) = (A + B) + C, 3. O + A = A + O = A,
−
4. A + ( A) = O,
A
A
∈R
(propriet a` commutativa).
∈R
m,n
m,n
(esistenza dell’elemento neutro).
(esistenza dell’opposto).
` lasciata per esercizio ed e` la naturale conseguenza del fatto che la E Dimostrazione somma di numeri reali soddisfa le stesse propriet a` . L’elemento neutro per la somma di matrici e` la matrice nulla O R m,n introdotta nell’Esempio 2.5, l’opposto della matrice A= (aij ) Rm,n e` la matrice A Rm,n cos`ı definita A = ( aij ) .
∈
∈ − ∈
−
−
Osservazione 2.2 Un insieme con un’operazione che verifichi le propriet`a del teorema precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le propriet`a 2., 3., 4. Pertanto ( Rm,n, +) con l’operazione di somma di matrici ha la struttura di gruppo commutativo. Definizione 2.4 Si definisce prodotto di un numero reale λ per una matrice A = (aij ) di Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale λ , ossia:
λA = (λaij ), quindi λA e` ancora una matrice di R m,n .
A volte si usa il termine scalare per indicare il numero reale λ e il prodotto di un numero reale per una matrice `e anche detto quindi prodotto di uno scalare per una matrice.
Capitolo 2
Esempio 2.9 Se:
A = il prodotto 3A e` la matrice:
3A = L’opposto della matrice A e` dunque matrice nulla.
37
1 2 3 4
,
3 6 9 12
.
−A = (−1)A . Inoltre 0A = O , dove O indica la
Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti propriet a` che mettono in relazione la somma di matrici con la somma e il prodotto di numeri reali:
∈ R, A, B ∈ R (λ + µ)A = λA + µA, λ, µ ∈ R, A ∈ R (λµ)A = λ(µA), λ, µ ∈ R, A ∈ R ; 1A = A, A ∈ R .
1. λ(A + B) = λA + λB, 2. 3. 4.
Dimostrazione
m,n
λ
m,n
;
;
m,n
m,n
Si tratta di un semplice esercizio.
Osservazione 2.3 L’insieme delle matrici R m,n , considerato congiuntamente con le operazioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro propriet`a prima enunciate, d`a luogo ad una struttura algebrica che `e un esempio di spazio vettoriale. Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in modo intensivo a partire dal Capitolo 4. Si e` preferito, per ragioni didattiche, anteporre la descrizione degli esempi pi u` facili di spazi vettoriali alla loro stessa definizione. Questo e` il caso di Rm,n e nel prossimo capitolo la stessa idea sar`a applicata all’insieme dei vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola secondaria superiore e di dare la possibilit a` di affrontare pi`u agevolmente lo studio dei capitoli successivi.
Matrici e Determinanti
38
2.2
Il prodotto di matrici
La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustificazione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel Capitolo 6. A prescindere da argomenti piu` sofisticati, si introduce questa nuova operazione tra matrici che, anche se a prima vista appare singolare, e` comunque dotata di interessanti propriet`a, che rendono plausibile la seguente definizione.
Definizione 2.5 Il prodotto della matrice A = (aij ) di R m,n con la matrice B = (bij ) di Rn,p e` la matrice C = AB = (cij ) di R m,p i cui elementi sono dati da: n
cij = a i1 b1 j + ai2 b2 j + . . . + ain bnj =
aik bkj .
(2.3)
k=1
Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice prodotto avr`a il numero di righe del primo fattore e il numero di colonne del secondo fattore. Da questa definizione segue che il prodotto di due matrici non e` commutativo. A titolo di esempio, si calcoli il prodotto delle matrici:
A =
1 2 3 4 5 6
B=
,
1 0 3
−1
2 2 7
1 5
e si ricavino i primi due elementi della matrice C = (cij ) = AB
3 4 9
,
∈ R
2,4
:
c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi della prima colonna di B : c11 = 1 1 + 2 0 + 3 3 = 10.
·
·
·
c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi della seconda colonna di B : c12 = 1 ( 1) + 2 1 + 3 5 = 16 e cos`ı via.
·−
La matrice C e` dunque:
C =
·
10 16 27 38 22 31 60 86
·
.
Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di prodotto righe per colonne.
Capitolo 2
39
` chiaro che il prodotto di due matrici quadrate dello stesso ordine e` Osservazione 2.4 E ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in generale la propriet`a commutativa, per esempio date:
A = si ha:
mentre:
1 3
2 4
,
0 2
B =
AB =
4 7 8 15
BA =
3 4 11 16
1 3
.
Nel caso delle matrici quadrate di ordine 1 il prodotto `e ovviamente commutativo perch´e coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto e` commutativo, come si osserver`a nel Paragrafo 2.5.
Osservazione 2.5 Il prodotto di matrici ha singolari particolarit`a. Per esempio:
AB =
− 1 1
−
2 2
2 1
2 1
0 0
=
0 0
= O
2,2
∈ R
,
in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora necessariamente o a = 0 o b = 0 . Ovviamente se O Rm,n e` la matrice nulla e A Rn,p, B Rk,m allora:
∈
∈
∈
OA = O
∈ R
m,p
e
BO = O
∈ R
k,n
.
Esempio 2.10 Si osservi che, date:
A =
1 2 3 4
∈
R1,4 ,
B =
allora:
AB = (30) mentre:
BA =
1 2 3 4
1,1
∈R
2 3 4 4 6 8 6 9 12 8 12 16
1 2 3 4
∈
,
∈
R4,4 .
R4,1 ,
Matrici e Determinanti
40
Teorema 2.3 Per il prodotto di matrici valgono le seguenti propriet `a:
∈ R (propriet a` associativa); e A(B + C ) = AB + AC, A ∈ R , B, C ∈ R (X + Y )Z = XZ + Y Z, X, Y ∈ R , Z ∈ R (propriet a` distributive del
1. (AB)C = A(BC ),
A
∈R
m,n
∈ R
n,k
, B
p,m
2.
k,p
, C
m,n
m,n
n,k
prodotto rispetto alla somma. Si osservi la necessit `a di enunciare entrambe le propriet a` per la mancanza della propriet `a commutativa del prodotto);
3. (λA)B = λ(AB) = A(λB), 4. AI = IA = A,
A
λ
∈ R, A ∈ R
m,n
∈R
∈ R
n,k
, B
;
n,n
(le due uguaglianze occorrono solo nel caso delle matrici quadrate; la matrice unit `a I Rn,n e` l’elemento neutro rispetto al prodotto).
Dimostrazione Paragrafo 2.9.
∈
` lasciata per esercizio nei casi pi u` semplici, per gli altri si rimanda al E
` valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici E moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda al Paragrafo 4.5.
Teorema 2.4 Siano A 1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2
··· A ) ≤ min{rank(A ), rank(A ), . . . , rank(A )}, 1
n
2
n
(2.4)
quindi, in particolare, il rango del prodotto di matrici e` minore o uguale del rango di ciascun fattore.
` chiaro, anche se puo` sorprendere, che e` necessario porre il segno di Osservazione 2.6 E disuguaglianza in (2.4), come si pu`o per esempio notare dal fatto che:
0 1 0 0
0 1 0 0
0 0 0 0
=
,
infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0 .
2.2.1
I sistemi lineari in notazione matriciale
Usando la definizione di prodotto di matrici, si pu`o scrivere in modo compatto un generico sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:
A =
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
am1 am2
.. .
···
amn
∈
Rm,n
Capitolo 2
41
la matrice dei coefficienti,
X =
la matrice colonna delle incognite e:
B =
x1 x2 .. .
xn
b1 b2 .. .
bm
∈ ∈
Rn,1
Rm,1
la matrice colonna dei termini noti, allora il sistema lineare (1.2) si puo` scrivere, in notazione matriciale, come:
AX = B.
2.3
La matrice inversa
Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) appare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del caso dei numeri e` necessario prestare particolare attenzione alla definizione in quanto il prodotto di matrici non e` commutativo.
Definizione 2.6 Sia A Rn,n una matrice quadrata di ordine n . A si dice invertibile se esiste una matrice X Rn,n tale che:
∈ ∈
AX = X A = I ,
(2.5)
dove I indica la matrice unit `a di ordine n .
Teorema 2.5 Se A
∈R
n,n
e` invertibile, allora la matrice X, definita in (2.5), e` unica.
Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X che verificano la (2.5). Allora:
X = I X = (XA)X = X (AX ) = X I = X
∈R
n,n
Matrici e Determinanti
42
che e` assurdo. Si osservi che, nella dimostrazione, si e` usata la propriet`a associativa del prodotto di matrici. La matrice X cos`ı definita si dice matrice inversa di A e si indica con A −1 . Per la matrice inversa valgono le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio.
Teorema 2.6 1. (AB)−1 = B −1 A−1 , con A, B Rn,n matrici invertibili. 2. (A−1 )−1 = A , con A Rn,n matrice invertibile.
∈
∈
Osservazione 2.7 Segue dal punto 1. e dalle propriet`a del prodotto di matrici che l’insieme: GL(n, R) = A Rn,n A e` invertibile
{ ∈
|
}
e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare generale reale. Nei paragrafi successivi si affronter`a il problema di calcolare l’inversa di una matrice, di conseguenza, si tratter`a di capire, innanzi tutto, quando una matrice quadrata `e invertibile. Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio.
Esercizio 2.1 Determinare le condizioni affinch´e la matrice:
A =
a11 a12 a21 a22
sia invertibile e, in questi casi, calcolare A −1 . Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare AX = I :
a11 a12 a21 a22
x11 x12 x21 x22
=
1 0 0 1
di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della matrice X.
2.4
La trasposta di una matrice
Definizione 2.7 Data una matrice A Rm,n si definisce trasposta di A , e la si indica con t A la matrice di R n,m che si ottiene scambiando le righe con le colonne della matrice A , in simboli se A = (aij ) allora tA = (bij ) con b ij = a ji , i = 1, 2, . . . , m, j = 1, 2, . . . , n .
∈
Capitolo 2
Esempio 2.11 Se:
1 2 3 4 5 6
A = allora: t
1 4 2 5 3 6
A =
Se:
A = allora: t
43
.
1 2 3 4
1 2 3 4
A =
.
Osservazione 2.8 1. Si osservi che se una matrice e` quadrata, allora anche la sua trasposta e` una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla matrice di partenza, per esempio:
A =
− 1 1
−
2 0
1 2
t
,
A =
1 0
.
2. Se una matrice e` diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la matrice stessa.
Per la trasposta di una matrice valgono le seguenti propriet a` la cui dimostrazione `e lasciata per esercizio e si pu`o leggere nel Paragrafo 2.9.
Teorema 2.7 1.
t
(A + B) = tA + tB,
2. t (λA) = λ tA, 3. t (AB) = tB tA, 4. Se A
∈R
n,n
A
∈ R
A, B
∈ R , λ ∈ R. A ∈ R , B ∈ R
m,n
.
m,n
m,n
n,k
.
e` una matrice invertibile, allora ( tA)−1 = t (A−1 ) .
Matrici e Determinanti
44
2.5
Matrici quadrate di tipo particolare
1. L’insieme delle matrici matrici triangolari superiori di R n,n definito da:
T (R
n,n
)=
a11 a12 . . . . . . . . . a1n 0 a22 . . . . . . . . . a2n .. .
.. .
..
0
0
. . . akk . . . akn
.. .
0
.. .
0
.. .
.
...
.. .
..
0
. . . ann
.
.. .
∈
∈
Rn,n aij
|
R ; (2.6)
si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n , allora a ij = 0 ` facile osservare che la somma di due matrici triangolari superiori e` se i > j . E ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero reale per una matrice triangolare superiore. Molto pi`u sorprendente e` il fatto che il prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, `e ancora una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice (Rn,n) C = (cij ) R n,n prodotto delle matrici triangolari superiori A = (aij ) e B = (bij ) (Rn,n) . Per semplicit`a si calcola ora solo l’elemento c21 della matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3) si ha:
∈
∈ T
∈ T
c21 = a21 b11 + a22 b21 + . . . a2nbn1 = 0b11 + a22 0 + . . . + a2n0 = 0, in quanto a ij = 0 e b ij = 0 se i > j . Si possono definire in modo analogo le matrici triangolari inferiori , con propriet`a simili a quelle descritte nel caso delle matrici triangolari superiori. Come `e gi a` stato osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore `e molto semplice. 2. L’insieme delle matrici diagonali (Rn,n ) introdotte nell’Esempio 2.6. La caratteristica principale di tali matrici e` la loro analogia con il campo dei numeri reali, infatti il prodotto di due matrici diagonali e` ancora una matrice diagonale, avente ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangolari superiori sia matrici triangolari inferiori. Quindi una matrice diagonale e` ridotta per righe, di conseguenza, il suo rango e` pari al numero degli elementi non nulli della diagonale principale. Nel caso di rango massimo, la matrice diagonale e` invertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei
D
Capitolo 2
45
corrispettivi elementi della matrice data, ossia se:
A =
a11 0 0 a22
, con a11 = 0, a22 = 0, allora A
−1
=
1 0 a− 11 1 0 a− 22
,
la verifica di queste affermazioni e` lasciata per esercizio. 3. L’insieme delle matrici simmetriche di R n,n definito da:
S (R
n,n
{ ∈ R | A = A}; n,n
)= A
t
(2.7)
scrivendo esplicitamente la definizione si ottiene che una matrice simmetrica e` del tipo:
A =
a11 a12 . . . a1n a12 a22 . . . a2n .. .
.. .
..
.. .
.
a1n a2n . . . ann
in altri termini, una matrice A = (aij )
aij = a ji ,
∈R
n,n
;
e` simmetrica se e solo se:
i, j = 1, 2, . . . , n ,
e ci`o giustifica la sua denominazione. Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che il prodotto di due matrici simmetriche non e` , in generale, una matrice simmetrica. Per esempio:
A =
1 1
−
−1
2
,
B =
3 1
1 1
−
,
AB =
2 1
− −
2 3
.
Per esercizio si individuino le condizioni necessarie e sufficienti affinch´e il prodotto di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A e` una matrice simmetrica invertibile, la sua inversa `e ancora una matrice simmetrica, (cfr. Teor. 2.7, punto 4. ). Le matrici diagonali sono ovviamente simmetriche e una matrice triangolare superiore o inferiore e` simmetrica se e solo se `e diagonale. Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari simmetriche (cfr. Cap. 8).
Matrici e Determinanti
46
4. L’insieme delle matrici antisimmetriche di R n,n definito da:
A(R
n,n
{ ∈ R | A = − A}; n,n
)= A
t
(2.8)
scrivendo esplicitamente la definizione si ottiene che una matrice antisimmetrica e` del tipo:
A =
− −
0 a12 .. .
a1n
in altri termini, una matrice A = (aij
aij =
a12 0 .. .
ji ,
.
.. .
...
0
..
−a )∈R
−a
. . . a1n . . . a2n
2n n,n
;
e` antisimmetrica se e solo se:
i, j = 1, 2, . . . , n ,
quindi, in particolare, aii = 0, i = 1, 2, . . . , n . Per esercizio si calcoli la somma di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica. 5. L’insieme delle matrici ortogonali di R n,n definito da:
{ ∈ R | A A = I },
O(n) = A
n,n
t
(2.9)
con I matrice unit`a di ordine n . Usando il fatto che, in modo equivalente alla definizione, A e` ortogonale se A tA = I , si verifichi per esercizio che ogni matrice ortogonale A e` invertibile con inversa A −1 = tA . Si verifichi inoltre che la trasposta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto di due matrici ortogonali e` ortogonale. Si stabilisca se la somma di due matrici ortogonali e` una matrice ortogonale e se il prodotto di una matrice ortogonale per un numero reale e` una matrice ortogonale. Le matrici ortogonali saranno di importanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le loro propriet`a saranno dimostrate nel Teorema 5.7.
2.6
Le equazioni matriciali
Per equazione matriciale si intende un’equazione la cui incognita e` una matrice. Se si escludono gli esempi banali di equazioni lineari (ogni numero reale pu`o essere considerato come una matrice), come gi a` studiato nel Paragrafo 2.2.1, risolvendo un generico sistema lineare, si ha un esempio di equazione matriciale AX = B con A in Rm,n, X in Rn,1 ,
Capitolo 2
47
B in R m,1 , dove X e` la matrice incognita e A e B sono note. In questo paragrafo verr`a preso in esame lo studio di un’equazione del tipo:
AX = B
(2.10)
con A Rm,n, X Rn,p, B Rm,p . L’incognita X = (xij ) dell’equazione matriciale e` , quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np elementi x ij di X.
∈
∈
∈
Si osservi che, se si e` in grado di risolvere l’equazione (2.10), si e` anche in grado di risolvere un’equazione matriciale del tipo:
Y C = D
(2.11)
con incognita Y , infatti operando con la trasposta su ambo i membri di (2.11) si ha: t
C t Y = tD,
cio`e ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che l’incognita della nuova equazione sar`a t Y. Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np incognite. Infatti posto:
A =
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
.. .
am1 am2 . . . amn
B =
∈ b11 b21 .. .
Rm,n,
X =
∈
x11 x12 . . . x1 p x21 x22 . . . x2 p .. .
.. .
.. .
xn1 xn2 . . . xnp
b12 . . . b1 p b22 . . . b2 p .. .
.. .
∈
Rn,p ,
Rm,p,
bm1 bm2 . . . bmp
la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e np incognite x ij :
a11 x11 + a12 x21 + . . . + a1nxn1 = b 11 a11 x12 + a12 x22 + . . . + a1nxn2 = b 12 .. .
a11 x1 p + a12 x2 p + . . . + a1n xnp = b1 p .
(2.12)
Matrici e Determinanti
48
In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo in evidenza le righe di X e di B nel modo seguente:
X =
x11 x12 . . . x1 p x21 x22 . . . x2 p .. .
.. .
=
.. .
xn1 xn2 . . . xnp
X 1 X 2 .. .
X n
, B=
il sistema lineare (2.12) si pu o` scrivere come:
b11 b21 .. .
b12 . . . b1 p b22 . . . b2 p .. .
.. .
bm1 bm2 . . . bmp
=
B1 B2
,
.. .
Bm
a11 X 1 + a12 X 2 + . . . + a1n X n = B1 . Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che l’equazione matriciale (2.10) equivale al sistema lineare di equazioni matriciali:
a11 X 1 + a12 X 2 + . . . + a1n X n = B1 a21 X 1 + a22 X 2 + . . . + a2n X n = B2 .. .
am1 X 1 + am2 X 2 + . . . + amnX n = Bm ,
con incognite le righe X 1 , X 2 , . . . , Xn della matrice X e termini noti le righe B 1 , B2 , . . . , Bm della matrice B . Si noti, quindi, che il sistema lineare ottenuto `e dello stesso tipo dei sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della matrice, ossia sono elementi di R p al posto di essere numeri reali. Per il Teorema di Rouch´e–Capelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e solo se il rango della matrice dei coefficienti A e il rango della matrice completa (A B) coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:
|
|
(A B) =
Si distinguono tre casi:
a11 a21 .. .
a12 . . . a1n a22 . . . a2n .. .
.. .
am1 am2 . . . amn
b11 b21 .. .
b12 . . . b1 p b22 . . . b2 p .. .
.. .
bm1 bm2 . . . bmp
.
| 2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione; 3. rank(A) = rank(A | B) = k < n : esistono infinite soluzioni che dipendono da n − k elementi di R . 1. rank(A) = rank(A B) : non esistono soluzioni;
p
Capitolo 2
49
Esempio 2.12 Per determinare le soluzioni dell’equazione matriciale AX = B , con:
A =
2 1 0
3 0 3
− 1 1 1
,
1 0 1
B =
2 1 0
− 2 1 4
,
|
si procede con la riduzione per righe della matrice completa (A B), per esempio nel modo seguente:
|
(A B) =
2 1 0
−
3 0 3
1 1 1
1 0 1
2 1 0
− 2 1 4
−→
→ 2R − R
R2
2
1
|
2 0 0
− − − 3 3 3
1 1 1
1 1 1
2 0 0
− 2 4 4
da cui si deduce che rank(A) = rank(A B) = 2 , si ottengono cos`ı infinite soluzioni che dipendono da un elemento qualsiasi (a,b,c) di R 3 . Ponendo:
∈ X 1 X 2 X 3
X =
|
R3,3
la matrice (A B) ridotta per righe d`a luogo al sistema lineare ridotto:
2X 1 + 3X 2 + X 3 = (1, 2, 2) 3X 2 + X 3 = ( 1, 0, 4)
−
−
−
le cui soluzioni sono:
e, quindi:
− −
−
−
X 1 = (1 3a, 1 3b, 3 3c) X 2 = (a,b,c) X 3 = ( 1 + 3a, 3b, 4 + 3c),
− − 1
X =
−
−
3a 1 3b a b 1 + 3a 3b
3
−
− 3c
c 4 + 3c
(a,b,c)
,
∈R
(a,b,c)
3
3
∈R .
Esempio 2.13 Per determinare le soluzioni dell’equazione matriciale X A = B, con:
A =
1 1 1
0 1 0
−1
0 0
,
B =
1 0
−1
1
0 1
,
si osserva che da X A = B , calcolando la trasposta delle matrici del primo e del secondo membro, si ha tA tX = tB , pertanto ci si riconduce ad un’equazione matriciale dello stesso tipo di quella studiata nell’esempio precedente. Ponendo:
,
Matrici e Determinanti
50
∈ Y 1 Y 2 Y 3
t
X = Y =
R3,2
segue che l’equazione tAY = tB e` equivalente al sistema lineare:
−
Y 1 + Y 2 + Y 3 = (1, 0) Y 2 = ( 1, 1) Y 1 = (0, 1),
che ha come unica soluzione:
−
−
−
Y 1 = (0, 1), e, quindi:
X =
2.6.1
Y 2 = ( 1, 1),
−1
0 1
−
2 0
1
Y 3 = (2, 0)
.
Calcolo della matrice inversa, primo metodo
Come immediata conseguenza del paragrafo precedente si procede al calcolo dell’eventuale matrice inversa di una matrice quadrata A = (aij ) Rn,n risolvendo l’equazione matriciale:
∈
AX = I . Si deve, quindi, ridurre per righe la matrice completa:
|
(A I ) =
a11 a12 . . . a1n a21 a22 . . . a2n .. .
.. .
..
.
.. .
an1 an2 . . . ann
1 0 ... 0 0 1 ... 0 .. .
.. .
..
.
.. .
0 0 ... 1
.
` evidente che rank(A I ) = n perch´e la matrice (A I ) e` ridotta per righe in quanto E I e` ridotta per righe e rank(I ) = n, quindi si ottiene l’importante teorema di seguito enunciato.
|
Teorema 2.8 Una matrice quadrata A
∈R
n,n
|
e` invertibile se e solo se rank(A) = n.
Dimostrazione Se esiste l’inversa A −1 di A allora l’equazione matriciale AX = I ha un’unica soluzione e, quindi, dal Teorema di Rouch´e–Capelli segue rank(A) = n .
Capitolo 2
51
Il viceversa non pu`o essere dimostrato a questo punto del corso, si rimanda al Paragrafo 4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X Rn,n tale che AX = I (per il Teorema di Rouch´e–Capelli, cfr. Teor. 1.2), ma per dimostrare che anche XA = I e dedurre quindi che X = A−1 si deve risolvere l’equazione matriciale tA tX = I . Pertanto e` necessario dimostrare che anche tA ha lo stesso rango di A , e ci`o sar`a oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y, entrambe appartenti a R n,n , tali che AX = I e Y A = I allora segue X = Y infatti:
∈
Y = Y I = Y (AX ) = (Y A)X = I X = X. Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n segue che esiste una sola matrice Z Rn,n tale che tA Z = I . Considerando la trasposta delle matrici a primo e a secondo membro dell’ultima uguaglianza si ha tZA = I , quindi, dall’osservazione precedente si ottiene tZ = X = A −1 .
∈
Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sar`a spiegato nel Paragrafo 2.8.2.
Esercizio 2.2 Supponendo che esista, determinare l’inversa della matrice:
A =
0 1 0 2
0 0 1 1
−
−
2 0 3 5
0 1 0 3
.
|
Soluzione Si procede alla riduzione per righe della matrice (A I ) , il calcolo del rango di A e` contenuto in questo procedimento:
0
0
2
0
1
0
0
0
1
0
0
1
0
1
0
0
0
−1
3
0
0
0
1
0
2
1
5
−3
0
0
0
1
−→ R ↔ R R ↔ R 1
3
2
1
1
1
0 1
0
0
3
0
0
0
1
0
0
0 2
0
1
0
0
0
2
1 5
−3
0
0
0
1
0
0 0
−1
Matrici e Determinanti
52
−→ R → −R R → (1/2)R R → R − 2R 2
2
3
3
4
4
1
4
2
−→ R → R − 8R 4
4
0
0
1
0
1
0
0
0
1
−3
0
0
0
−1
0
0
0
1
0
1 2
0
0
0
0
1
5
−5
0
−2
0
1
−→ R → R − R 4
1
3
1
0
0
1
0
1
0
0
0
1
−3
0
0
0
−1
0
0
0
1
0
1 2
0
0
0
0
0
8
−5
0
−2
1
1
1
0
0
1
0
1
0
0
1
−3
0
0
0
−1
0
1 2
0
0
1
0
0
0
0
0
−5 −4 −2
1
0
0
.
0
1
A questo punto dell’esercizio si deduce che rank(A) = 4 , pertanto la matrice A e` invertibile. Per calcolare direttamente l’inversa conviene procedere riducendo ulteriormente l’ultima matrice ottenuta, come descritto nell’Esempio 1.9 del Capitolo 1. Dall’ultimo passaggio segue:
−→ R → (−1/5)R 4
4
1
0
0
1
0
1
0
0
0
1
−3
0
0
0
−1
0
0
0
1
0
1 2
0
0
0
0
0
0
1
4 5
2 5
− 15 − 15
Capitolo 2
−→ R → R − R R → R + 3R 1
1
2
4
2
3
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
53
−
4 5 3 2 1 2 4 5
− − −
3 5 0
1 5
1 5
1
0
.
0 2 5
0
0
1 5
1 5
Si legge cos`ı nell’ultimo passaggio, a destra, l’espressione di A −1 , infatti le operazioni di riduzione che iniziano dalla matrice completa (A I ) , essendo rank(A)=rank(A I ) = n, non possono far altro che portare a (I A−1 ) . In altri termini, moltiplicando a sinistra per A−1 l’equazione matriciale AX = I si ottiene I X = A −1 .
|
|
|
Esercizio 2.3 Data la matrice:
A =
−3 0 −1
1 h 1 0
1 0 0 0
0
2 0 0 h
,
h
∈ R,
stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A−1 quando possibile.
Soluzione Si procede, come nell’esercizio precedente, alla riduzione per righe della matrice completa (A I ) .
|
1 h 1 0
−3 0 −1
0
−
1 3 0 3h 0 2 0 0
−
1 3 0 2 0 3h 0 0
− − − − − − − − − − − − 1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
−→ → → −− −→ ↔ −→ → −
1 0 0 0
2 0 0 h
1 h 1 0
2 2h 2 h
1 h 1 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 h 0
2 2 2h h
1 1 h 0
0 0 1 0
0 1 0 0
0 0 0 1
R2 R3
R2 R3
R2
R3
R3
2R3
hR1 R1
3hR2
Matrici e Determinanti
54
1 0 0 0
−3
1 1 h 0
−
2 0 0
− − 2 2 2h h
1 1 h 0
0 0 2 0
0 1 3h 0
0 0 0 1
−
,
a questo punto si deduce che rank(A) = 4 se e solo se h = 0 , quindi solo in questo caso esiste A −1 . Si assume perci`o h = 0 e si procede con la riduzione per ottenere la matrice inversa:
−→
→ (1/2)R R → (1/h)R R → (1/h)R R2
− − − − − − − −
2
3
3
4
4
−→ R → R − 2R R → R + R R → R − 2R 3
3
2
2
1
1
4
4
4
2
2
1
1
3
1
2
1
0
0
0
0
1
1 2
1
1 2
0
1 2
0
0
0
1
2
1
2 h
−3
0
0
0
0
1
0
0
0
1 h
1
3
1
0
1
0
0
− h2
0
1
1 2
0
1 2
0
1 2
1 h
0
0
1
0
1
2 h
0
0
0
1
0
0
−→ R → R + (1/2)R R → R − R
−3 − h2 1 h
0
−
2 h
3
0
−1
0
−3 −
2 h
1
3
0
0 0
0
1
0
0 0
1 h
3
3
1
0
0
1
0 1
2 h
0
0
0
1 0
0
0
1 h
,
Capitolo 2
R1
−→
→ R + 3R 1
2
55
1
0
0
0 0
1 h
0
1
0
0 0
1 h
0
0
1
0 1
2 h
0
0
0
1 0
0
0
0
−1
0
−3 −
2 h 1 h
0
,
A−1 si legge a destra nell’ultimo passaggio di riduzione. Il teorema che segue e` un corollario del Teorema 2.4, lo stesso risultato si otterr a` , con metodi diversi, nel Capitolo 7.
1. Se A
Teorema 2.9
∈R
m,n
e Q
∈R
n,n
e` una matrice invertibile, allora:
rank(AQ) = rank(A). 2. Se A
∈R
m,n
∈ R
e P
m,m
e` una matrice invertibile, allora:
rank(P A) = rank(A). 3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n , allora:
rank(A) = rank(P −1AP ). ` sufficiente dimostrare 1. , lo stesso metodo si pu o` applicare a 2. e da Dimostrazione E 1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da:
rank(AQ)
−1
≤ rank(A) = rank(A(QQ
)) = rank((AQ)Q−1 )
≤ rank(AQ),
da cui la tesi.
2.7
La traccia di una matrice quadrata
Definizione 2.8 Sia A una matrice quadrata, di ordine n , ad elementi reali. Si definisce traccia di A , e si indica con tr(A) la somma degli elementi della sua diagonale principale. Se A = (aij ) allora: n
tr(A) = a11 + a22 + . . . + ann =
i=1
aii .
Matrici e Determinanti
56
Le propriet`a della traccia di una matrice quadrata sono elencate nel seguente teorema.
Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti propriet `a:
1. tr(A + B) = tr(A) + tr(B), 2. tr(λA) = λ tr(A), 3. tr(A B) = tr(B A), 4. tr( tA) = tr(A) ,
∈ R
∈ R.
per ogni A, B
n,n
Dimostrazione
` quasi un esercizio ed `e riportata nel Paragrafo 2.9. E
, per ogni λ
Come immediata conseguenza del punto 3. del teorema precedente, si ottiene:
tr(P −1A P ) = tr(A),
(2.13)
per ogni A Rn,n e per ogni matrice invertibile P di Rn,n , propriet`a che sar`a molto importante nel Capitolo 7.
∈
Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla e` uguale a zero, cos`ı come e` uguale a zero la traccia di una matrice antisimmetrica.
2.8
Il determinante
Scopo di questo paragrafo e` quello di associare ad ogni matrice quadrata un particolare numero reale detto determinante della matrice in modo da dimostrare il seguente teorema.
Teorema 2.11 Una matrice quadrata A e` invertibile se e solo se il suo determinante non e` uguale a zero. Si introdurr`a la definizione di determinante in modo “sperimentale” senza troppo rigore matematico; per una discussione precisa e per la dimostrazione di tutte le propriet a` si rimanda al Paragrafo 8.8. Il determinante di una matrice quadrata `e una funzione:
det : Rn,n che verifica queste prime propriet`a.
−→ R,
A
−→ det(A)
Capitolo 2
57
1. Se a e` un numero reale, quindi identificabile con la matrice quadrata A = (a) di ordine 1 , allora det(A) = a . 2. Se A =
a11 a12 a21 a22
, allora det(A) = a 11 a22
−a
12 a21 .
Il determinante di una matrice quadrata `e anche spesso indicato con due tratti verticali che sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha:
a11 a12 a21 a22
= a 11 a22
−a
12 a21 .
Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata di ordine 2 , si nota che compaiono due addendi, ciascuno dei quali e` il prodotto di due fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde alle due permutazioni di (1, 2) : (1, 2) e (2, 1). La prima permutazione (pari) impone il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno negativo all’addendo a 12 a21 . Si puo` cos`ı indovinare la regola per calcolare il determinante di una matrice quadrata qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle matrici di ordine 3 . L’esempio che segue riassume, nel caso particolare dell’ordine 3 , la teoria dei determinanti delle matrici di ordine n che verr`a successivamente esposta. Si consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le propriet a` generali dei determinanti che verranno man mano elencate. ` noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3 Esempio 2.14 E sono 3! = 6 , tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3) , (3, 1, 2) , (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3) . Pi`u precisamente, se a partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si e` effettuato uno scambio che comporta un segno negativo associato alla permutazione (2, 1, 3) , effettuati due scambi si ha segno positivo e cos`ı via. Per meglio visualizzare le permutazioni e contare il numero degli scambi intermedi in modo da ottenere il segno della permutazione finale e` utile la classica notazione del calcolo combinatorio:
1
2
3
↓
↓
↓
σ(1) = 2 σ(2) = 1 σ(3) = 3, dove σ indica una permutazione di 1, 2, 3 e non e` altro che una funzione biiettiva dall’insieme 1, 2, 3 in s´e.
{
}
Matrici e Determinanti
58
Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2 , “si indovina” lo sviluppo del determinante di una matrice quadrata di ordine 3 , ponendo:
a11 a12 a13 a21 a22 a23 a31 a32 a33
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31
−a
11 a23 a32
=
−a
13 a22 a31
−a
12 a21 a33
(σ)a1σ(1) a2σ(2) a3σ(3) ,
σ
dove σ indica una qualsiasi permutazione dei numeri 1, 2, 3 e (σ) e` il suo segno. Si osserva che, per costruzione, ogni addendo a1σ(1) a2σ(2) a3σ(3) contiene un elemento appartenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna di A, perch´e σ e` una biiezione. Si pu`o cos`ı enunciare la definizione di determinante di una matrice quadrata di ordine n .
Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n e` dato da: (2.14) det(A) = (σ)a1σ(1) a2σ(2) . . . anσ(n) ,
σ
dove σ indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e (σ) e` il suo segno.
Osservazione 2.10 Come gi`a osservato nell’Esempio 2.14, in ogni addendo della somma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna della matrice A, inoltre ogni addendo di (2.14) e` il prodotto di n elementi della matrice quadrata A appartenenti ad ogni riga e ad ogni colonna di A . Dalla Definizione 2.9 si deducono le seguenti propriet a` .
Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure una colonna) formata da tutti 0 , allora det(A) = 0 .
2. Per ogni matrice quadrata A , det(A) = det( tA) . 3. Se A = (aij )
∈R
n,n
e` una matrice triangolare superiore allora:
det(A) = a 11 a22 . . . ann, la stessa propriet a` vale nel caso di una matrice triangolare inferiore.
Capitolo 2
59
Dimostrazione 1. E` ovvia conseguenza della Definizione 2.9 e anche dell’Osservazione 2.10.
2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2 , il caso generale `e una generalizzazione di questo ragionamento. Come gi`a osservato:
det(A) = a11 a22
−a
12 a21 ,
mentre:
det( tA) =
a11 a21 a12 a22
= a11 a22
−a
21 a12 = a 11 a22
−a
12 a21 =
det(A);
infatti il determinante della matrice trasposta si ottiene semplicemente applicando la propriet`a commutativa del prodotto ad ogni addendo della somma precedente.
3. Si dimostra per semplicit`a la propriet`a solo nel caso di A Lettore per esercizio la dimostrazione nel caso generale. Sia:
A =
a11 a12 a13 0 a22 a23 0 0 a33 0 0 0
dalla definizione di determinante (2.14) si ha:
det(A) =
a14 a24 a34 a44
∈R
4,4
, lasciando al
,
(σ)a1σ(1) a2σ(2) a3σ(3) a4σ(4) .
σ
Se a 44 = 0 l’ultima riga `e formata da tutti zeri e pertanto det(A) = 0 , da cui la tesi. Se a44 = 0 , l’unico elemento non nullo dell’ultima riga e` a44 , quindi la formula precedente si riduce a:
det(A) =
(σ)a1σ(1) a2σ(2) a3σ(3) a44 ,
(2.15)
σ
con σ permutazione dei numeri 1, 2, 3 . Di nuovo, l’unico elemento non nullo di tale somma, appartenente alla terza riga, e` a 33 , quindi (2.15) si riduce a:
det(A) =
(σ)a1σ(1) a2σ(2) a33 a44
σ
con σ permutazione dei numeri 1, 2 . Procedendo allo stesso modo si perviene alla tesi.
Matrici e Determinanti
60
` di importanza fondamentale il teorema che segue. E
Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora:
rank(A) = n
⇐⇒ det(A) = 0
rank(A) < n
⇐⇒ det(A) = 0.
e, in modo equivalente:
La dimostrazione e` ovvia se la matrice ridotta per righe e` triangolare Dimostrazione superiore. In questo caso il determinante `e dato dal prodotto degli elementi della diagonale principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice ridotta per righe puo` essere trasformata in una matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). Anche questo fatto e` ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire si rimanda all’esercizio seguente che illustra, in un caso particolare, la procedura.
Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:
A = ridotta per righe e il cui rango `e 4 .
1 1 5 1
2 2 0 0
3 0 0 0
4 3 2 0
Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice A nel modo seguente:
1 1 5 1
2 2 0 0
3 0 0 0
−→ R → −R R → −R R → −R R ↔ R 2
2
3
3
4
4
2
3
−→
4 3 2 0
4
2
2
3
3
4
4
1 2 3 4 0 19 15 18 0 0 3 1 0 2 3 4
→ 3R − 27R
R4
−→ R → R − R R → R − 5R R → R − R
3
1
1
1
1 0 0 0
−→
2 0 19 2
3 3 15 3
− − − − −
→ 19R − 2R
R4
1 2 3 4 0 19 15 18 0 0 3 1 0 0 0 93
,
4
2
− − − 4 1 18 4
1 2 3 4 0 19 15 18 0 0 3 1 0 0 27 40
Capitolo 2
61
ottenendo cos`ı una matrice triangolare superiore che ha, ovviamente, ancora rango 4 .
Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni propriet`a relativa al calcolo del determinante dimostrata per le righe di una matrice quadrata e` anche valida per le colonne. Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata qualsiasi.
1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una Teorema 2.14 matrice quadrata A per un numero reale λ , allora il determinante di A viene moltiplicato per λ. 2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A, allora il determinante di A cambia di segno. 3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo. 4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante nullo.
5. Se alla riga R i di una matrice quadrata A si sostituisce la particolare combinazione lineare Ri +λR j (dove R j indica una riga parallela a Ri , i = j ) il determinante di A non cambia, analoga propriet `a vale per le colonne.
Dimostrazione
1. E` ovvio dalla definizione di determinante.
2. E` conseguenza della definizione di determinante e del fatto che lo scambio di due righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio, nel caso della matrice quadrata di ordine 2 si ha:
invece:
a21 a22 a11 a12
a11 a12 a21 a22
= a21 a12
= a 11 a22
−a
−a
22 a11 =
12 a21 ,
−a
11 a22 +
a12 a21 .
3. Segue dalla propriet`a precedente, infatti scambiando due righe (colonne) uguali di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio det(A) = a , dopo lo scambio det(A) = a (per la propriet`a precedente), ma poich´e la matrice non cambia allora a = a , da cui la tesi.
−
−
Matrici e Determinanti
62
4. Segue da 1. e da 3. 5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza le sue righe e l’operazione richiesta R i Ri + λR j , i = j :
→
R1 .. .
Ri + λR j .. .
R j .. .
Rn
=
R1 .. .
Ri .. .
R j .. .
Rn
+λ
R1 .. .
R j .. .
R j .. .
Rn
.
L’uguaglianza precedente `e una evidente conseguenza della definizione di determinante, quindi la tesi segue dalla terza propriet a` .
Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue.
Teorema 2.15 Sia A una matrice quadrata di ordine n allora:
rank(A) = n
⇐⇒ det(A) = 0
rank(A) < n
⇐⇒ det(A) = 0.
e, in modo equivalente:
Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma triangolare superiore:
A =
Soluzione
1 3 2 1
−1
1 2 0
−
2 1 2 1
− 1 2 1 1
Per esempio si pu`o procedere come segue:
.
Capitolo 2
− − − − − 1 3 2 1
1 1 2 0
1 0 0 0
1 4
2 1 2 1
1 4 4 1
2 3 2 1
1 0 0 0
1 4 0 0
− 1 2 1 1
2 3 1 1
1 1 2 0
−→ C ↔ C 1
− 1 3 3 1
− −
2
1 3 2 1
−→ R → R − R R → R − (1/4)R 3
3
4
4
− 1 3 0 7
2
2
−→ R → R − R 4
4
63
3
−
2 1 2 1
1 2 1 1
−
−
1 0 0
1 4 0
0
0
− − 1 4
2 3 1 1 4
−
1 0 0 0
1 4 0 0
−→
→ R + R → R + 2R
R2 R3
2
1
3
− 1 3 0 7 4
2 3 1 0
1
−→ R → −R R → 4R 3
3
4
− 1 3 0 7
4
=
−7.
Il teorema che segue stabilisce importanti propriet`a del determinante in relazione al prodotto di una matrice per uno scalare e al prodotto di matrici.
Teorema 2.16
1. det(λA) = λn det(A),
A
∈R
2. Teorema di Binet: det(AB) = det(A) det(B),
∈ R; A, B ∈ R
n,n
,λ
n,n
;
3. Se A e` una matrice invertibile, allora det(A−1 ) = det(A)−1 . ` ovvia dalla Definizione 2.4 di prodotto di un numero reale per Dimostrazione 1. E una matrice e dalla Definizione 2.9 di determinante.
2. Si tratta di una propriet a` sorprendente e di difficile dimostrazione. E` vera nel caso di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari superiori `e ancora una matrice dello stesso tipo e che il determinante di una matrice triangolare superiore e` il prodotto degli elementi della diagonale principale (analogamente e` anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si dimostrer`a questa propriet`a nel caso di matrici quadrate con particolari propriet`a (le matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriver a` ad una dimostrazione nel caso generale.
3. E` una conseguenza del Teorema di Binet applicato a AA−1 = I con I matrice unit`a. Si ha det(A)det(A−1 ) = det(I ) = 1 da cui la tesi. Osservazione 2.12 1. Si deduce, dalla propriet a` 3. del teorema precedente, che:
Matrici e Determinanti
64
se A
∈R
n,n
e` invertibile, allora det(A) = 0 ;
nel paragrafo che segue si dimostrer`a anche il viceversa.
2. In generale, se A, B sono matrici di R n,n allora det(A + B) = det(A) + det(B).
Infatti si considerino le matrici:
A = per le quali det(A) =
− 1 3
2 4
,
1 4
B =
2 5
−2, det(B) = 13 , ma: 2 7
A + B =
0 9
e det(A + B) = 18.
Esercizio 2.6 Dimostrare che se A e` una matrice antisimmetrica di ordine dispari, allora det(A) = 0 .
2.8.1
I Teoremi di Laplace Un’altra definizione di rango di una matrice
Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 descritto nell’Esempio 2.14 e lo si trasformi applicando le propriet a` commutativa e distributiva del prodotto rispetto alla somma di numeri reali nel modo seguente:
a11 a12 a13 a21 a22 a23 a31 a32 a33
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a13 a22 a31 a12 a21 a33
−a
=
−a
−
− a (a a − a a ) − a +a (a a − a a ) 11
22 33
13
21 32
−
= a11
a22 a23 a32 a33
= a31
a12 a13 a22 a23
=
a12
23 32
12 (a21 a33
22 31
− −
a12
a32
a21 a23 a31 a33 a11 a13 a21 a23
11 a23 a32
23 a31 )
−
a21 a23 a a + a22 11 13 a31 a33 a31 a33
+ a13
a21 a22 a31 a32
+ a33
a11 a12 a21 a22
a32
a11 a13 . a21 a23
Capitolo 2
65
L’espressione precedente permette di indovinare una regola di calcolo del determinante per le matrici di ordine qualsiasi. Per fare ci o` `e necessario introdurre alcune definizioni.
Definizione 2.10 Sia A = (aij ) Rn,n ; si definisce minore dell’elemento a ij il determinante M ij della matrice di ordine n 1 che si ottiene da A togliendo l’ i -esima riga e la j -esima colonna.
∈
−
La definizione precedente si estende in modo naturale alla seguente.
Definizione 2.11 Un minore di ordine k, (k < m, k < n, k = 0) di una matrice A di Rm,n e` il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si ottiene da A togliendo m k righe e n k colonne.
−
−
Esempio 2.16 Data la matrice:
A =
il minore M 12 e` :
M 12 =
1
2
5
6
− − 3
4
7
8
9
10 11
12
1
−2
5
7
9 11 1
3
Un minore di ordine 2 della matrice A e` :
1 2 5 6
3
,
4
8
12
= 64.
4
=
−4,
infatti e` il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la quarta riga e la terza e la quarta colonna della matrice A . A partire dalla matrice A quanti ` evidente invece che i minori di ordine 1 di A sono 16 e minori di ordine 2 si trovano? E sono gli elementi di A .
Definizione 2.12 Sia A = (aij ) Rn,n ; si definisce cofattore o complemento algebrico dell’elemento a ij il numero A ij definito da:
∈
Aij = ( 1)i+ j M ij .
−
Matrici e Determinanti
66
Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a 12 e` A 12 =
−M
12 =
−64 .
L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante di una matrice quadrata di ordine qualsiasi.
Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata A = (aij ) Rn,n e` dato da:
∈
n
det(A) =
n
aik Aik =
k=1
ahj Ahj ,
(2.16)
h=1
per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n . In altri termini, il determinante della matrice quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula precedente e` la i -esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende dalla riga scelta. L’ultimo membro di (2.16) afferma che tale propriet `a vale anche per la j -esima colonna.
` un calcolo che segue da (2.14), allo stesso modo con cui e` stato E Dimostrazione condotto nell’Esempio 2.15.
Esempio 2.18 Per calcolare il determinante della matrice, oggetto dell’Esercizio 2.5, si pu`o usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli:
det(A) =
=
− − − − − − − − − − − − − − − − − − − − − − − − − − − − 3 2 1
1 2 1
3
+
2
=
1 1 2
2 1 1 + 2 1 1
2 1
1 1
2 1
1 1
2
1 1
2 1
2
2 1 2
2 2 1
2 1
1 2 1
1 1 1
1 2 3 1
2 1 1
1 2 +2 1 1
2 1
2 1
1 2 + 1 1
2 1
3 1
2 3 + 1 1
1 3 2
1 1 2
1 2 1
1 2 1
1 1
1 3 2
1 1 2
2 1 , 2
si lascia la conclusione al Lettore, osservando per`o che la determinazione dello stesso determinante condotta nell’Esercizio 2.5 e` stata molto pi u` agevole.
Capitolo 2
67
Teorema 2.18 – Secondo Teorema di Laplace – In una matrice quadrata A = (aij ) di Rn,n la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una riga (o una colonna) parallela `e zero, in formule: n
n
aik A jk =
k=1
ahiAhj = 0,
h=1
i = j.
(2.17)
` evidente conseguenza della seconda propriet`a del Teorema 2.14, inDimostrazione E fatti (2.17) si pu`o interpretare come lo sviluppo del determinante di un matrice in cui, nel primo caso, la riga j -esima coincide con la riga i -esima e nel secondo caso, la colonna j -esima coincide con la colonna i -esima. Utilizzando la nozione di determinante e di minore si pu o` enunciare una seconda definizione di rango di una matrice A Rm,n , equivalente a quella gi`a introdotta (cfr. Def. 1.10). La dimostrazione dell’equivalenza tra le due definizioni di rango e` rimandata al Paragrafo 4.5.
∈
Definizione 2.13 Il rango di una matrice A minore non nullo di A .
∈
Rm,n e` pari al massimo ordine di un
Esempio 2.19 Si consideri la matrice:
A =
1 2 1 2 2 4 2 4 0 1 0 1
che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe. Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A di ordine 3 e` uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due righe proporzionali. Invece:
2 4 0 1
=2
da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.
2.8.2
Calcolo della matrice inversa, secondo metodo
In questo paragrafo si introdurr`a un altro metodo di calcolo della matrice inversa A −1 di una matrice data A , facendo uso della nozione di determinante. Per questo scopo si inizia con la definizione di una matrice particolare associata ad una qualsiasi matrice quadrata.
Matrici e Determinanti
68
Definizione 2.14 Data A Rn,n , si consideri la matrice B = (Aij ) Rn,n avente ordinatamente come elementi i cofattori di A , la trasposta di tale matrice prende il nome di aggiunta di A e si indica con adj(A) .
∈
∈
Esempio 2.20 Data:
A = la sua aggiunta `e:
− − 1 1 0
2 2 1
3 5 2
−1 4 2 −8 − −1 4
adj(A) =
1 2 1
.
Teorema 2.19 Sia A una matrice quadrata di ordine n , se det(A) = 0 allora esiste l’inversa di A e:
A−1 =
1 adj(A). det(A)
Dimostrazione Sia:
B = (bij ) =
1 adj(A), det(A)
il teorema e` dimostrato se AB = (cij ) = I , in altri termini se cij = δ ij , dove δ ij e` il simbolo di Kronecker, ossia δ ii = 1 e δ ij = 0, i = j . Si calcola:
n
1 cii = aik bki = det(A) k=1
n
aik Aik =
k=1
1 det(A) = 1; det(A)
la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i = j si ha invece: n
cij =
k=1
aik bkj
1 = det(A)
n
aik A jk = 0,
k=1
per il Secondo Teorema di Laplace 2.18.
Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13 permettono di concludere che, nel caso di una matrice quadrata A Rn,n :
∈
−1
∃A ⇐⇒ det(A) = 0 ⇐⇒ rank(A) = n.
Capitolo 2
69
` agevole applicare il metodo di calcolo della matrice inversa appena Esempio 2.21 E introdotto nel caso di una matrice quadrata di ordine 2 , infatti se:
A =
e det(A) = 0 allora:
A−1
1 = det(A)
a11 a12 a21 a22
−a
a22 a21
−
12
a11
.
Esempio 2.22 Considerata la matrice A dell’Esercizio 2.2, se ne determini l’inversa usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice aggiunta. Si ottiene:
A−1 =
1 1 adj(A) = det(A) 10
−
8 15 5 8
6 0 0 4
2 10 0 2
− −
− 2 0 0 2
.
Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n , segue: (2.18) A adj(A) = det(A)I, dove I indica la matrice unit a` di Rn,n . Si osservi che la formula (2.18) vale per ogni matrice A , anche se non e` invertibile.
2.8.3
Il Teorema di Cramer
` conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere E i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle incognite, cio`e del tipo:
a11 x1 + a12 x2 + . . . . . . + a1nxn = b 1 a21 x1 + a22 x2 + . . . . . . + a2nxn = b 2
(2.19)
.. .
an1 x1 + an2 x2 + . . . . . . + annxn = b n.
La matrice dei coefficienti A = (aij ) Rn,n e` quadrata. Se det(A) = 0 segue dal Teorema di Rouch´e–Capelli 1.2 che il sistema lineare (2.19) e` compatibile. In notazione matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a:
∈
AX = B,
(2.20)
Matrici e Determinanti
70
dove X R n,1 e` la matrice delle incognite e B R n,1 e` la matrice colonna dei termini noti. Poich´e det(A) = 0 , A e` invertibile e quindi `e possibile moltiplicare a sinistra ambo i membri di (2.20) per A −1 , ottenendo cos`ı:
∈
∈
X = A −1 B. Dal Teorema 2.19, sostituendo l’espressione di A −1 , si ha:
X =
x1 x2 .. .
xn
=
1 det(A)
da cui, uguagliando, si ricava:
1 det(A)
x1 =
In generale si ha:
xi =
1 det(A)
A11 A21 . . . An1 A12 A22 . . . An2 .. .
.. .
..
.. .
.
A1n A2n . . . Ann
b1 a12 . . . a1n b2 a22 . . . a2n .. .
.. .
..
.. .
.
bn an2 . . . ann
a11 a12 . . . b1 . . . a1n a21 a22 . . . b2 . . . a2n .. .
.. .
.. .
.. .
.. .
.. .
.. .
.. .
an1 an2 . . . bn . . . ann
,
b1 b2 .. .
bn
.
i = 1, 2, . . . , n ,
(2.21)
dove l’ i -esima colonna coincide con quella dei termini noti.
Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equa zioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la i -esima incognita si ottiene dalla formula (2.21). Esempio 2.23 Dato il sistema lineare:
−
2x1 x2 + x3 = 0 3x1 + 2x2 5x3 = 1 x1 + 3x2 2x3 = 4,
− −
Capitolo 2
71
il determinante della matrice A dei coefficienti e` dato da:
det(A) =
2 3 1
−1
2 3
− − 1 5 2
= 28 = 0.
Quindi esiste una sola soluzione che puo` essere determinata usando il Teorema di Cramer nel modo seguente:
x1 =
1 28
0 1 4
−1
2 3
− −
1 5 , 2
1 28
x2 =
2 3 1
0 1 4
− −
1 5 , 2
x3 =
1 28
2 3 1
−1
2 3
0 1 . 4
Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile e` applicabile il Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in R m,n , X in R n,1 , B in R m,1 e sia r = rank(A B) = rank(A) . Riducendo eventualmente per righe la matrice completa iniziale (A B) e scambiando opportunamente le righe si puo` ottenere una nuova matrice:
|
(A B ) =
|
|
a11
a12 . . . a1n
ar1
ar2 . . . arn
.. . .. .
.. .
.. .
.. .
.. .
am1 am2 . . . amn
b1 .. .
br .. .
bm
tale che le prime r righe di A formino una matrice di rango r . Equivalentemente non e` restrittivo supporre che dalle prime r righe di A sia possibile estrarre una matrice quadrata C di ordine r e di rango r . Infatti, se cos`ı non fosse si avrebbe rank(A) = rank(A ) r 1 , perch´e ogni matrice quadrata di ordine r estratta da A avrebbe determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A diverse da quelle di C si ottiene la matrice completa (C B ) di un nuovo sistema lineare con r incognite e con det(C ) = 0 , equivalente a quello di partenza. Quest’ultima affermazione e` vera perch´e le operazioni di riduzione per righe trasformano il sistema lineare in un altro ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette infinite soluzioni che dipendono da n r incognite libere che sono, con questo metodo, proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n r incognite libere. Segue un esempio di ci`o che e` stato appena osservato.
≤ −
|
−
−
Esempio 2.24 Si consideri il sistema lineare:
−
x + 3y + z = 1 x + 2y z = 0,
−
−
(2.22)
Matrici e Determinanti
72
osservato che il rango della matrice dei coefficienti:
A =
1 1
3 2
−
−
1 1
e` 2 e assunta z come incognita libera, in questo caso la matrice C citata nell’osservazione precedente `e:
C = Il sistema lineare (2.22) si pu`o scrivere:
1 1
3 2
−
.
− −
x + 3y = 1 z x + 2y = z.
−
(2.23)
Ma a (2.23) `e applicabile il Teorema di Cramer perch e´ :
−
1 1
La soluzione e` :
x =
2.9
− −
1 z 3 z 2 5
=
−z − 25 ,
−
3 2
= 5.
y =
−1− z
1 1
z
5
=
− 15 , z ∈ R.
Per saperne di pi`u
In questo paragrafo sono riportate le dimostrazioni di alcune propriet`a che nel paragrafo precedente sono state lasciate al Lettore per esercizio.
Esercizio 2.7 Si dimostri che:
(AB)C = A(BC ), Soluzione Siano A = (aij ) Allora AB = (dij ) Rm,p e:
∈
∈R
m,n
A
∈R
m,n
, B = (bij )
∈ R
∈ R . , C = (c ) ∈ R n,p
, B
∈R
n,p
p,l
, C
ij
p,l
n
dij =
aik bkj .
k=1
Quindi (AB)C = (eij )
∈R
m,l
, con:
p
eij =
h=1
p
dih chj =
p
n
n
aik bkh chj =
h=1
k=1
h=1 k=1
aik bkh chj
.
Capitolo 2
73
che e` l’espressione del generico elemento della matrice a primo membro. Per il secondo membro si ha B C = (f ij ) Rn,l , con:
∈
p
f ij =
bih chj
h=1
e A(BC ) = (gij )
∈R
m,l
, dove:
n
gij =
p
n
aik f kj =
k=1
n
aik
=
bkh chj
k=1
p
h=1
aik bkh chj ,
k=1 h=1
da cui segue la tesi.
Esercizio 2.8 Si dimostri che: t
(AB) = tB tA,
∈R
Soluzione Date la matrici A = (aij ) R n,p matrice C = AB = (cij ) Rn,m, dove:
∈
∈
∈ R . e B = (b ) ∈ R n,p
A
p,m
, B
ij
p,m
, il loro prodotto e` la
p
cij =
aik bkj .
k=1
La matrice a primo membro t (AB) = (dij ) di R m,n ha elementi del tipo: p
dij = c ji =
a jk bki .
k =1
La matrice tA = (eij ) di R p,n ha elementi del tipo eij = a ji . La matrice tB = (f ij ) di Rm,p ha elementi del tipo f ij = b ji . La matrice prodotto tB tA = (gij ) di Rm,n ha elementi del tipo: p
gij =
p
f ik ekj =
k=1
da cui segue la tesi.
p
bki a jk =
k=1
Esercizio 2.9 Si dimostri che:
(tA)−1 = t (A−1 ), per ogni matrice invertibile A
∈R
n,n
.
k=1
a jk bki ,
Matrici e Determinanti
74
Soluzione
Si tratta di dimostrare che t (A−1 ) e` l’inversa di tA , infatti: t
(A−1 ) tA = t (A A −1 ) = t I = I .
Esercizio 2.10 Si dimostri che:
tr(A B) = tr(B A),
∈ R
A, B
n,n
Date le matrici A = (aij ) Soluzione Rn,n e B = (bij ) diagonale principale del prodotto AB sono:
∈
.
∈ R
n,n
, gli elementi della
n
cii =
aih bhi ,
h=1
quindi:
n
tr(A B) =
n
cll =
l=1
alh bhl .
h,l=1
Siano d ii gli elementi della diagonale principale del prodotto BA , si ha: n
dii =
bik aki ,
k=1
la traccia di B A diventa: n
tr(B A) =
n
dmm =
m=1
da cui, confrontando con (2.24), segue la tesi.
m,k=1
bmk akm
(2.24)
Capitolo 3 Calcolo Vettoriale Il calcolo vettoriale elementare e` l’argomento di base per lo studio dell’algebra lineare e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno strumento prezioso per la matematica applicata e la fisica in particolare. In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano e dello spazio, cos`ı come sono solitamente trattate nel primo biennio della scuola secondaria superiore. Vale a dire si assume che il Lettore abbia familiarit`a con i concetti di: punto, retta, piano e le loro reciproche posizioni, nonch e´ le loro principali propriet`a. Saranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole dell’alfabeto A, B , . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere minuscole dell’alfabeto greco α, β , . . . , i piani. La retta (intesa come retta di punti) sar a` indicata con S 1 , il piano (inteso come piano di punti) con S 2 , lo spazio, inteso come spazio di punti, con S 3 . Gli spazi S 1 , S 2 , S 3 sono esempi di spazi affini rispettivamente di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non `e inserita in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno spazio formato da vettori sar a` introdotto in questo capitolo e poi definito formalmente nel capitolo successivo Per il momento si raccomanda di non pensare al significato formale dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari impartite nelle scuole secondarie su questi spazi. Man mano che si proceder a` con lo studio dell’algebra lineare, si preciseranno in modo corretto le terminologie comunemente usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le definizioni delle funzioni trigonometriche elementari e le loro principali propriet a` .
3.1
Definizione di vettore
Definizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio ambiente S 3 . Ad AB si associa la direzione , quella della retta r , il verso , ad esempio, 75
Calcolo Vettoriale
76
quello da A verso B e la lunghezza indicata con AB e detta norma o lunghezza di AB . Un segmento di questo tipo si dice segmento orientato e sar a` indicato con la simbologia AB . La totalit `a di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la stessa lunghezza di AB , prende il nome di vettore x e sar a` generalmente indicato con le lettere minuscole in grassetto.
−→
Riassumendo, ad ogni vettore x si associano tre entit`a:
direzione di x verso di x norma di x indicata con x .
Per definizione, la norma di ogni vettore `e un numero reale positivo, eventualmente nullo. Se il vettore x e` individuato dai punti A e B dello spazio, per indicarlo si potranno usare, indifferentemente, le seguenti notazioni: x, AB , B A , [AB] . Inoltre AB e` detto un rappresentante del vettore x; per abbreviare si scriver`a:
−→ − −→ x = AB.
−→
Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esempio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli, abbiano la stessa lunghezza e lo stesso verso, cio`e x = AB = CD .
−→ −−→
Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o e` l’unico vettore di norma uguale a zero ed ha direzione e verso indeterminati.
Se x = 1, x si dice versore. Sar`a molto utile il concetto di versore in quanto permetter a` di individuare agevolmente l’unit`a di misura. Se si fissa un punto O nello spazio S 3 e si identifica, di conseguenza, ogni vettore x con il punto P dato da x = OP allora lo spazio S 3 coincide con l’insieme dei vettori dello spazio che si indica con V 3 , analogamente, S 2 (fissato il punto O ) si identifica con l’insieme dei vettori V 2 di un piano e S 1 con l’insieme dei vettori V 1 di una retta. Il significato dei numeri 1, 2, 3 in V 1 , V 2 , V 3 sar`a discusso ampiamente in questo capitolo. Si osservi inoltre che, se non viene fissato il punto O, V 1 si pu`o interpretare geometricamente come una qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V 2 invece si puo` visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad esso appartenenti. I vettori per cui non `e indicato il punto di applicazione prendono anche il nome di vettori liberi. V 1 e V 2 vengono, rispettivamente, chiamati retta vettoriale e piano vettoriale.
−→
Nel Paragrafo 3.10 viene data una formulazione pi u` rigorosa della Definizione 3.1; per quello che segue, per`o, e` sufficiente che il Lettore abbia un’idea intuitiva di questo concetto.
Capitolo 3
77
Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla ` molto importante somma di vettori e dal prodotto di un numero reale per un vettore. E osservare che queste operazioni (ovviamente con una definizione diversa da quella che sar`a di seguito presentata) sono gi`a state introdotte nell’insieme delle matrici, nel capitolo precedente. Sar`a sorprendente notare che per le operazioni tra vettori saranno valide le stesse propriet`a dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo sar`a dedicato allo studio assiomatico degli insiemi su cui `e possibile definire operazioni di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle matrici R m,n e gli insiemi dei vettori V 3 , V 2 , V 1 sono esempi.
3.2
Somma di vettori
Definizione 3.2 La somma in V 3 e` l’operazione:
+ : V 3
× V −→ V , 3
3
(x, y)
−→ x + y, −→ −−→ −→
dove il vettore x + y e` cos`ı definito: fissato un punto O di S 3 , siano OA e OB due segmenti orientati rappresentanti di x e y , rispettivamente, allora x + y = OC , dove OC e` il segmento orientato che si determina con la regola del parallelogramma, illustrata nella Figura 3.1 .
−→
B
y
O
C
xy
x
A
Figura 3.1: Somma di due vettori
1. La definizione di somma di vettori `e ben data. Vale a dire, facenOsservazione 3.1 do riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del
Calcolo Vettoriale
78
−→
parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La situazione geometrica e` illustrata nella Figura 3.2 , la dimostrazione di questa affermazione, che segue in modo elementare dalle propriet`a dei parallelogrammi, e` lasciata al Lettore. 2. Per definizione x + y e` complanare a x e a y, dove con il temine complanare si indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di conseguenza l’operazione di somma di vettori `e ben definita anche in V 2 e anche in V 1 . Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro somma x + y e` ancora un vettore parallelo ad x e a y, la cui norma e` pari alla somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y e` la differenza delle norme di x e y. Il verso di x + y e` concorde con il verso del vettore addendo di norma maggiore. L’evidente situazione geometrica e` illustrata nella Figura 3.3 . Questo fatto si esprime anche dicendo che V 2 e V 1 sono chiusi rispetto all’operazione di somma di vettori. 3. Il punto C e` il simmetrico di O rispetto al punto medio del segmento AB, (cfr. Fig. 3.1 ).
−
4. Per ogni vettore x (non nullo) esiste l’opposto x, che e` il vettore parallelo ad x avente la stessa norma di x ma verso opposto. Quindi:
−
x + ( x) = o . Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con il vettore nullo stesso.
Teorema 3.1 Per la somma di vettori in V 3 valgono le seguenti propriet `a:
∈ V (propriet a` commutativa); (x + y) + z = x + (y + z), x, y, z ∈ V (propriet a` associativa); ∃ o ∈ V | x + o = x, x ∈ V (esistenza dell’elemento neutro); ∀x ∈ V , ∃ −x ∈ V | x + (−x) = o (esistenza dell’opposto).
1. x + y = y + x, 2. 3. 4.
x, y
3
3
3
3
3
3
Inoltre:
5.
− ≤ x
y
x+y
≤ x + y,
∈ V .
x, y
3
Capitolo 3
B
79
C xy
y
x
O
A
B' xy
y
x
O'
C'
A'
Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti
x
y
x y
xy xy
Figura 3.3: Somma di due vettori paralleli
Calcolo Vettoriale
80
Dimostrazione La dimostrazione segue dalla definizione di somma di vettori e dalle propriet`a dei parallelogrammi ed `e lasciata al Lettore. L’elemento neutro `e il vettore nullo o e l’opposto del vettore x coincide con il vettore x prima definito. Si osservi che le due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli.
−
1. Dati due vettori x e y la loro somma x + y si pu`o ottenere Osservazione 3.2 mediante la regola della poligonale, cio e` scelti due segmenti orientati consecutivi x = AB, y = BC , risulta x + y = AC .
−→
−−→
−→
2. La propriet`a associativa permette di estendere la definizione di somma di vettori a n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x 1 + x2 + . . . + xn si pu`o rappresentare agevolmente, tenendo conto dell’osservazione precedente, con il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamente, che rappresentano i vettori addendi. La situazione geometrica e` illustrata nella Figura 3.4 . ` molto importante osservare che le propriet`a della somma di vettori coincidono 3. E con le propriet`a della somma di numeri reali, in questo caso il vettore nullo `e il numero 0 . In un certo senso, questo e` un motivo che autorizza la denominazione “somma” all’operazione tra vettori appena introdotta. Dal punto di vista “sperimentale”, invece, la definizione di somma di vettori e` giustificata dal comportamento fisico della composizione di due forze applicate nello stesso punto. 4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia: x
− y = x + (−y).
La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresentata dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia per esercizio la rappresentazione grafica della differenza di due vettori paralleli. 5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari con x, esistono e sono unici due vettori x 1 ed x2 in quelle direzioni, tali che: x = x 1 + x2 . L’operazione prende il nome di decomposizione di un vettore lungo due direzioni assegnate. 6. Si osservi che (V 3 , + ) con l’operazione di somma di vettori ha la struttura di gruppo commutativo (cfr. Oss. 2.2).
Capitolo 3
81
x4
x3 x1
x2
x3
x4
x2
x1
Figura 3.4: Somma di quattro vettori
y
x
y
xy
Figura 3.5: Differenza di due vettori
Calcolo Vettoriale
82
3.3
Il prodotto di un numero reale per un vettore
L’operazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o moltiplicata per un numero reale qualsiasi. D’altra parte, questa operazione `e in un certo senso singolare dal punto di vista algebrico perch e´ gli elementi che concorrono alla sua definizione appartengono ad insiemi diversi. Inoltre, si pu`o considerare come l’operazione analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4.
Definizione 3.3 Il prodotto di un numero reale λ per un vettore x
R
× V −→ V , 3
3
(λ, x)
∈ V e` l’operazione: 3
−→ λx,
dove il vettore λx (detto anche prodotto dello scalare λ per x ) e` definito nel modo seguente:
1. se λ = 0 o x = o , allora λ x = o .
2. Se λ = 0 e x = o si pone λ x = y , dove: la direzione di y coincide con la direzione di x ; il verso di y e` concorde con quello di x se λ > 0 , discorde se λ < 0;
y = |λ|x , dove |λ| indica il valore assoluto del numero reale λ . Osservazione 3.3 Dalla definizione segue che λ x = o se e solo se λ = 0 oppure x = o . Per la dimostrazione si veda l’Esercizio 4.23 . Sono valide le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio.
Teorema 3.2
1. λ(x + y) = λ x + λy,
3. λ(µx) = (λµ)x, x
∈ R, x, y ∈ V ; 3
∈ R, x ∈ V ; λ, µ ∈ R, x ∈ V ;
2. (λ + µ)x = λ x + µx,
4. 1 x = x ,
λ
λ, µ
3
3
∈ V . 3
Osservazione 3.4 L’insieme V 3 con le operazioni di somma di vettori e le relative quattro propriet`a e di prodotto di un numero reale per un vettore e le relative quattro propriet`a, e` un esempio di spazio vettoriale su R . La definizione assiomatica di spazio vettoriale e` rimandata al capitolo successivo. Allo stesso modo, anche V 2 e V 1 sono esempi di spazi vettoriali. In realt`a, V 2 e V 1 sono esempi di sottospazi vettoriali di V 3 perch´e sono chiusi
Capitolo 3
83
rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e y in V 2 e per ogni λ R si ha che x + y V 2 e λ x V 2 (analogamente per V 1 ). Inoltre, in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti ad un piano vettoriale qualsiasi) si pu o` pensare che V 1 V 2 V 3 .
∈
∈
∈
⊂ ⊂
Seguono alcune definizioni e propriet`a di tipo teorico, che saranno riprese in modo completo nel capitolo successivo. Si e` deciso di inserire in questo contesto ci o` che segue, anche se i risultati che si ottengono saranno conseguenza della teoria pi u` generale degli spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V 3 e` possibile rappresentare graficamente le nozioni man mano introdotte, aiutando cos`ı la loro comprensione.
∈
Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V 3 , si dice che un vettore x V 3 e` combinazione lineare di v 1 , v2 , . . . , vk se esistono k numeri reali x 1 , x2 , . . . , xk tali che: x = x 1 v1 + x2 v2 + . . . + xk vk . I numeri reali x 1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare .
Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo pi`u accurato dal punto di vista algebrico, le nozioni, gi a` introdotte in modo geometricamente intuitivo, di retta vettoriale e di piano vettoriale.
Definizione 3.5 Dato un vettore x = o , la retta vettoriale generata da x e` l’insieme:
L(x) = {λx | λ ∈ R}. Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y e` l’insieme:
L(x, y) = {λx + µy | λ, µ ∈ R}. L
L
Osservazione 3.5 Segue in modo evidente dalla definizione che (x, y) = (y, x) . Non ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde, usualmente usate per indicare che e` importante l’ordine dei vettori; e` una convenzione usare questa notazione anche se non e` corretta. Scopo del prossimo paragrafo e` mettere in relazione le nozioni algebriche e geometriche enunciate nelle definizioni precedenti.
Calcolo Vettoriale
84
3.4
Dipendenza lineare e basi
Dalla Definizione 3.5 segue che il parallelismo e la complanarit`a tra vettori possono essere letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due diverse situazioni geometriche e` necessario introdurre la seguente definizione.
Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V 3 , essi si dicono linearmente indipendenti se l’unica loro combinazione lineare uguale al vettore nullo `e quella con coefficienti tutti nulli, vale a dire:
x1 v1 + x2 v2 + . . . + xk vk = o
{
⇒
=
x1 = x 2 = . . . = x k = 0.
(3.1)
}
L’insieme v1 , v2 , . . . , vk di vettori linearmente indipendenti si dice libero. Di conseguenza k vettori v1 , v2 , . . . , vk di V 3 si dicono linearmente dipendenti se esiste almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli, cio`e se si ha: x1 v1 + x2 v2 + . . . + xk vk = o con almeno uno tra i coefficienti x 1 , x2 , . . . , xk non nullo.
Osservazione 3.6
1. Si osservi che in (3.1) vale anche l’implicazione opposta.
{ }
2. L’insieme x e` libero se e solo se x = o . Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile, ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la dimostrazione si rimanda al Paragrafo 4.3.
Teorema 3.3 I vettori v1 , v2 , . . . , vk di V 3 sono linearmente dipendenti se e solo se almeno uno di essi si pu o` esprimere come combinazione lineare dei rimanenti. 1. Se x = 2y, allora λx + µ y = o con λ = 1, µ = Esempio 3.1 vettori x e y sono linearmente dipendenti.
−2. Pertanto i
2. Il vettore nullo o e` linearmente dipendente con ogni altro vettore x in quanto:
λo + 0x = o , per ogni λ R , quindi anche per valori non nulli di λ . In particolare, l’insieme contenente solo il vettore nullo o non `e libero.
∈
{ }
Capitolo 3
L
85
3. Gli elementi di (x) sono tutti linearmente dipendenti tra di loro, ma la stessa propriet`a non vale per (x, y), si vedr`a infatti nel Teorema 3.4 che due vettori non paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi banale da considerazioni geometriche elementari.
L
Il teorema che segue conclude lo studio del parallelismo e della complanarit a` tra vettori mediante la dipendenza lineare.
1. Due vettori x e y di V 3 sono linearmente dipendenti se e solo se Teorema 3.4 sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale. 2. Tre vettori x , y e z di V 3 sono linearmente dipendenti se e solo se sono complanari, ossia se e solo se appartengono allo stesso piano vettoriale.
3. Quattro vettori di V 3 sono sempre linearmente dipendenti. Segue subito dal teorema appena enunciato che: 1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale
V 1 e` 1 . 2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale
V 2 e` 2 . 3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale
V 3 e` 3 . Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice!
1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono Dimostrazione il vettore nullo, o uno solo dei due `e il vettore nullo, allora sono linearmente dipendenti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3 si ha che esiste un numero reale λ per cui x = λ y il cui valore assoluto `e dato da:
|λ| = xy e il segno di λ e` positivo se x e y hanno verso concorde, altrimenti e` negativo. Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa, se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il Teorema 3.3.
Calcolo Vettoriale
86
K
C z
B y O
x
H
A
Figura 3.6: Complanarit`a di tre vettori
C D v3 x v2
O
B
H
v1
A
Figura 3.7: Dipendenza lineare di quattro vettori
Capitolo 3
87
2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linearmente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipendenti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti orientati che li rappresentano, aventi tutti l’estremo O in comune (la situazione geometrica e` descritta nella Figura 3.6 ) si ha:
−→ −−→ −→ OA = x , OB = y , OC = z . Essendo i tre vettori complanari, i punti O, A, B,C appartengono allo stesso piano. Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4. ), individuando i punti H sulla retta OA e K sulla retta OB ; si ottiene:
−→ −−→ −−→ OC = OH + OK,
−−→
(3.2)
−−→
ma OH e` il rappresentante di un vettore parallelo a x e OK e` il rappresentante di un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre vettori dati. Il viceversa e` lasciato per esercizio.
3. Siano v 1 , v2 , v3 , x quattro vettori di V 3 . Si supponga che v 1 , v2 , v3 non siano complanari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla Figura 3.7 , si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rappresentanti dei quattro vettori dati, aventi tutti un estremo in O . I punti O, A, B,C non sono complanari, mentre i punti O,A, B individuano un piano π . Si supponga, inoltre, che D non appartenga a π (in caso contrario il teorema sarebbe dimostrato). Si tracci dal punto D la parallela alla retta OC che incontra il piano π in H . Per costruzione: (3.3) OD = OH + HD.
−→
−−→
−−→
−→
−−→
−−→ −−→ −−→
Decomponendo il vettore OH nelle direzioni dei vettori v 1 e v 2 , si individuano tre numeri reali x 1 , x2 , x3 che permettono di riscrivere la (3.3) come: x = x 1 v1 + x2 v2 + x3 v3 ,
(3.4)
e, quindi, segue la tesi. La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente indipendenti assegnati, ottenuta per costruzione nella dimostrazione dell’ultimo punto del teorema precedente, e` in realt`a unica, come afferma il teorema che segue.
Teorema 3.5 In V 3 , dati tre vettori linearmente indipendenti v1 , v2 , v3 , ogni vettore x di V 3 si scrive in modo unico come combinazione lineare dei tre vettori dati.
Calcolo Vettoriale
88
` sufficiente dimostrare l’unicit`a della decomposizione (3.4). Si supDimostrazione E ponga che esistano altri numeri reali y 1 , y2 , y3 tali che:
(x1 , x2 , x3 ) = (y1 , y2 , y3 ) e per cui: x = y 1 v1 + y2 v2 + y3 v3 .
(3.5)
Uguagliando (3.4) e (3.5) segue: o = (x1
− y )v + (x − y )v + (x − y )v . 1
1
2
2
2
3
3
3
Poich´e v1 , v2 , v3 sono linearmente indipendenti, si ha x 1 = y 1 , x2 = y 2 , x3 = y 3 . Il teorema che segue riformula i risultati precedenti nei casi particolari di V 2 e di V 1 .
1. Dati due vettori linearmente indipendenti v1 , v2 di un piano vettoTeorema 3.6 riale V 2 , ogni vettore x di V 2 determina in modo unico la coppia di numeri reali (x1 , x2 ) tale che: (3.6) x = x 1 v1 + x2 v2 . 2. Dato un vettore v1 non nullo in una retta vettoriale V 1 , ogni vettore x determina in modo unico il numero reale x 1 tale che: x = x 1 v1 .
∈
V 1
(3.7)
Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V 3 e` individuata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano vettoriale V 2 e` sufficiente scegliere due vettori linearmente indipendenti per individuare tutti i vettori di V 2 e nel caso di una retta vettoriale V 1 e` sufficiente scegliere un qualsiasi vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo che segue.
Definizione 3.7 1. Si dice base di V 3 una qualsiasi terna ordinata di vettori linearmente indipendenti. Si dice dimensione di V 3 il numero dei vettori di una base e si indica con dim(V 3 ) = 3 .
2. Si dice base di un piano vettoriale V 2 una qualsiasi coppia ordinata di vettori linearmente indipendenti di V 2 . Si dice dimensione di V 2 il numero dei vettori di una base e si indica con dim(V 2 ) = 2 .
Capitolo 3
89
3. Si dice base di una retta vettoriale V 1 un suo qualsiasi vettore non nullo. Si dice dimensione di V 1 il numero dei vettori di una base e si indica con dim(V 1 ) = 1 .
B
Una base di V 3 verr`a indicata con la notazione = (v1 , v2 , v3 ) . In questo caso l’ordine con cui si scrivono i vettori e` importante perch´e determina l’ordine con cui si scrivono i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base di un piano vettoriale V 2 sar`a = (v1 , v2 ) e una base di una retta vettoriale V 1 sar`a = ( v1 ) .
B
B
x b v
3
v
2
a
v1 Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari
Osservazione 3.7 In V 3 , in V 2 e in V 1 esistono infinite basi ma il numero dei vettori che le compongono e` sempre pari alla dimensione dei rispettivi spazi vettoriali. Osservazione 3.8 Dati tre vettori complanari (non paralleli) v 1 , v2 , v3 si ha che ogni vettore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti modi diversi rispetto ai tre vettori dati. Per esempio e` sufficiente scegliere una direzione arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una direzione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cos`ı via (cfr. Oss. 3.2 punto 5. ). La situazione geometrica e` descritta nella Figura 3.8 in cui si e` posto, per esempio, a = v 1 + v2 e x = λ a + µv3 ed inoltre si e` posto b = v 2 + v3 e x = ν b + ϕv1 , dove λ, µ, ν, ϕ sono opportuni numeri reali.
Calcolo Vettoriale
90
I Teoremi 3.5 e 3.6 permettono di introdurre la seguente definizione.
B
Definizione 3.8 Fissata una base = (v1 , v2 , v3 ) di V 3 , per ogni vettore x di V 3 gli elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti le componenti di x rispetto alla base . In modo analogo la formula (3.6) definisce le componenti di un generico vettore x del piano vettoriale V 2 rispetto alla base = (v1 , v2 ) di V 2 e la formula (3.7) definisce la componente di un generico vettore x di una retta vettoriale V 1 rispetto alla base = (v1 ) .
B
B
B
B
= (v1 , v2 , v3 ) , si e` definita una Osservazione 3.9 Nel caso di V 3 , fissata una base 3 corrispondenza biunivoca tra V 3 e R che associa ad ogni vettore x le sue componenti. Spesso si scrive, con un abuso di notazione: x = (x1 , x2 , x3 ) o, in forma matriciale, con: x =
x1 x2 x3
.
Si vedr`a, infatti, in seguito, come sia pi u` conveniente nei calcoli utilizzare una matrice colonna di R 3,1 per indicare le componenti di un vettore di V 3 , che `e preferibile chiamare X per distinguerla dal vettore x:
X =
x1 x2 x3
.
Analoghe considerazioni valgono per i casi particolari di V 2 e di V 1 . Il teorema che segue, la cui dimostrazione e` un facile esercizio, permette di calcolare la somma di due vettori e il prodotto di un numero reale per un vettore mediante le componenti.
Teorema 3.7 In V 3 , dati i vettori x = x1 v1 + x2 v2 + x 3 v3 , y = y1 v1 + y 2 v2 + y3 v3 , scritti rispetto alla base = (v1 , v2 , v3 ), si ha:
B
x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 ,
λx = (λx1 )v1 + (λx2 )v2 + (λx3 )v3 , con λ R ; cio`e le componenti della somma di due vettori si ottengono semplicemente sommando le rispettive componenti, mentre le componenti del vettore λx si ottengono
∈
Capitolo 3
91
moltiplicando λ per ogni componente di x . In notazione matriciale, al vettore x + y si associa la matrice colonna delle sue componenti rispetto alla base :
X + Y =
x1 + y1 x2 + y2 x3 + y3
B
.
Al vettore λ x si associa la matrice colonna delle sue componenti rispetto alla base
λX =
λ x1 λ x2 λ x3
B :
.
Analoghe affermazioni valgono anche nel caso di un piano vettoriale V 2 e di una retta vettoriale V 1 .
Osservazione 3.10 1. Il vettore nullo o e` l’unico vettore di V 3 avente componenti tutte nulle o = (0, 0, 0) , rispetto ad una qualsiasi base di V 3 .
B
2. I vettori di una base = (v1 , v2 , v3 ) di V 3 hanno componenti, rispetto alla stessa base : v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).
B
3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un vettore segue l’assoluta concordanza tra le definizioni di somma di matrici e di prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la somma di vettori in componenti e il prodotto di un numero reale per un vettore, in componenti definite in questo capitolo. Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare dei vettori mediante le loro componenti. Si far`a uso delle nozioni di rango di una matrice e del Teorema di Rouch´e–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi lineari.
B
1. In V 3 , fissata una base = (v1 , v2 , v3 ), si considerino i vettori x = Esempio 3.2 x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x e` parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se e` possibile determinare un numero reale λ tale che: y = λ x.
Calcolo Vettoriale
92
Scrivendo questa relazione mediante le componenti dei due vettori segue:
y1 = λx1 y2 = λx2 y3 = λx3
e, in termini matriciali, equivale a richiedere che:
rank
x1 x2 x3 y1 y2 y3
−
≤
1.
−
Per esempio i vettori x = (1, 2, 3) e y = (2, 4, 6) sono paralleli, mentre i vettori x e z = (1, 0, 3) non lo sono. Il rango della matrice:
x1 x2 x3 y1 y2 y3
e` pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore nullo. Il rango di questa matrice `e 0 se e solo se x = y = o . 2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono linearmente dipendenti, ossia per esempio se esistono i numeri reali λ e µ per cui: z = λ x + µy.
(3.8)
B = (v , v , v ) di V , si indichino con:
Fissata una base
1
2
3
x = (x1 , x2 , x3 ),
3
y = (y1 , y2 , y3 ),
z = (z 1 , z 2 , z 3 )
le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste componenti, equivale al sistema lineare:
z 1 = λx1 + µy1 z 2 = λx2 + µy2 z 3 = λx3 + µy3
e in termini matriciali equivale a:
rank
x1 x2 x3 y1 y2 y3 z 1 z 2 z 3
≤
2.
Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta e` proprio 2 , invece se i vettori x e y sono paralleli, allora anche il vettore z e` ad essi parallelo e il rango della matrice vale 1 . Il rango `e 0 se e solo se x = y = z = o .
Capitolo 3
B = (v , v , v ), sono dati i vettori: b = (4, 1, 0), c = (2, −5, 2),
Esercizio 3.1 In V 3 , rispetto ad una base a = (1, 3,
93
−1),
1
2
3
come sono posizionati questi tre vettori nello spazio vettoriale V 3 ?
Soluzione Si consideri la matrice A , quadrata di ordine tre, le cui righe sono date dalle componenti dei tre vettori:
A = riducendo A per righe si ha:
A =
1 4 2
−
−1
3 1 5
0 2
1 4 2
3 1 5
−1
0 2
−
−→
,
→ R + 2R
R3
3
1
1 4 4
3 1 1
−1
0 0
.
Quindi rank(A) = 2 e ci`o implica che i tre vettori sono complanari (infatti sono linearmente dipendenti). Poich´e i vettori a e b non sono paralleli (infatti sono linearmente indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due numeri reali λ e µ tali che: c = λ a + µb. Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al sistema lineare:
−
λ + 4µ = 2 3λ + µ = 5 λ = 2
la cui soluzione `e (λ =
−
−2, µ = 1), e perci`o c = −2a + b.
Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere riassunti nel seguente teorema.
Teorema 3.8 Sia
B = (v , v , v ) una base di V , si considerino vettori: 1
2
3
x = (x1 , x2 , x3 ),
3
y = (y1 , y2 , y3 ),
scritti in componenti rispetto alla base
z = (z 1 , z 2 , z 3 )
B.
1. Un vettore non nullo x in V 3 e` linearmente indipendente se e solo se, indicata con A la matrice avente come unica riga le componenti di x : A =
x1 x2 x3
,
si ha rank(A) = 1 . Equivalentemente x = o se e solo se rank(A) = 0 .
Calcolo Vettoriale
94
2. Due vettori x e y di V 3 sono linearmente indipendenti se e solo se, indicata con A la matrice avente come righe le componenti dei due vettori:
A =
x1 x2 x3 y1 y2 y3
,
si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se x = y = o , allora rank(A) = 0 e viceversa.
3. Tre vettori x, y, z sono linearmente indipendenti in V 3 (vale a dire formano una base di V 3 ) se e solo se, indicata con A la matrice quadrata avente come righe le componenti dei tre vettori:
A = si ha:
rank(A) = 3
x1 x2 x3 y1 y2 y3 z 1 z 2 z 3
,
(3.9)
−1
⇐⇒ ∃A ⇐⇒ det(A) = 0.
Equivalentemente, i vettori x , y, z sono linearmente dipendenti se e solo se:
rank(A) < 3. Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo) sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o .
Dimostrazione La dimostrazione segue dall’Esempio 3.2. In alternativa, per dimostrare l’ultimo punto si pu o` anche procedere esplicitando, mediante le componenti dei vettori, la relazione: λ1 x + λ2 y + λ3 z = o , con λ 1 , λ2 λ3
∈ R , che equivale al sistema lineare omogeneo:
λ1 x1 + λ2 y1 + λ3 z 1 = 0 λ1 x2 + λ2 y2 + λ3 z 2 = 0 λ1 x3 + λ2 y3 + λ3 z 3 = 0.
Affinch´e i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo deve ammettere la sola soluzione nulla. Questo accade se e solo se:
Capitolo 3
rank
95
x1 y1 z 1 x2 y2 z 2 x3 y3 z 3
= 3.
Si osservi che la matrice ottenuta `e la trasposta della matrice A in (3.9). Si dovr`a attendere la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti seguiti per pervenire alla tesi. Il risultato, in realt a` , e` intuitivamente accettabile, tenendo conto che det(A) = det( tA) .
B = (v , v , v ), sono dati i vettori: u = (2, −1, 1), u = (h, 1, −1),
Esercizio 3.2 In V 3 , rispetto ad una base
1
2
3
−h), stabilire per quali valori di h ∈ R essi formano una base di V . u1 = (1, 0,
2
3
3
I tre vettori dati formano una base di V 3 se e solo se sono linearmente Soluzione indipendenti, ossia se la matrice A :
A =
− ∈ {− }
1 2 h
−h − 1 −1 0 1 1
ha det(A) = 0 . Poich´e det(A) = h(2 + h) si ha che i vettori u1 , u2 , u3 formano una 2, 0 . base di V 3 se e solo se h /
B = (v , v , v ), sono dati i vettori: v = 2v + v − v , w = v + 2 v + v ,
Esercizio 3.3 In V 3 , rispetto ad una base u = v 1
− v + 3v , 2
3
1
1
2
2
3
3
1
2
3
dimostrare che costituiscono una base di V 3 .
Soluzione
Si tratta di dimostrare che il rango della matrice:
A = e` 3 . Riducendola per righe si ha:
A =
−1
1 2 1
−→ R → R − R 3
3
2
1 2 1
−1
1 2
− 3 1 1
−→ − → → − 3 1 1
1 2
R2 R3
1 3 0
1 0 0
R2 + R1 R3 + 2R1
3 2 5
,
1 3 3
−1
0 0
3 2 7
Calcolo Vettoriale
96
da cui la tesi.
B = (v , v , v ), sono dati i vettori: v = v + v , w = v + v − 2v .
Esercizio 3.4 In V 3 , rispetto ad una base u = 2v1 + v2
−v , 3
1
1
2
3
3
1
2
3
Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come combinazione lineare dei rimanenti.
Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali λ, µ e ν e la si ponga uguale al vettore nullo:
λu + µv + ν w = o . Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base , si ha: λ(2v1 + v2 v3 ) + µ(v1 + v3 ) + ν (v1 + v2 2v3 )
B
−
−
−
− 2ν )v = o. Si e` cos`ı ottenuta una combinazione lineare dei vettori della base B che e` uguale al vettore nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti = (2λ + µ + ν )v1 + (λ + ν )v2 + ( λ + µ
3
di tale combinazione lineare devono essere nulli, ossia:
− − − − −→ → − − − 2λ + µ + ν = 0 λ + ν = 0 λ + µ 2ν = 0.
Il sistema lineare omogeneo cos`ı ottenuto ha matrice dei coefficienti:
A =
Riducendo A per righe si ha:
A =
−
2 1 1
−→
1 0 1
1 1 2
→ R + 3R
R3
3
2
2 1 1
R3
2 1 0
1 0 0
1 0 1
1 1 2
R3
1 1 0
R1
.
2 1 3
1 0 0
− 1 1 3
,
ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date da (λ, λ, λ), λ R. I vettori u , v, w sono perci`o linearmente dipendenti e quindi, posto per esempio λ = 1, si ottiene u = v + w. Come gi`a osservato nella dimostrazione del Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u , v, w.
−
∈
Capitolo 3
97
Il cambiamento di base in V 3
3.5
Il problema del cambiamento di base in V 3 consiste nel determinare la relazione che intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse, precedentemente assegnate.
= (v1 , v2 , v3 ) e = (v1 , v2 , v3 ) di V 3 . Ogni vettore x Siano date due basi scrive in componenti, rispetto alla due basi, nella forma:
B
B
x = x 1 v1 + x2 v2 + x3 v3 = x 1 v1 + x2 v2 + x3 v3 .
∈ V
si
3
(3.10)
Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:
X =
x1 x2 x3
,
X =
x1 x2 x3
(3.11)
B
le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base nota quando sono note le componenti dei suoi vettori rispetto alla base , ossia:
In altri termini, la base
B
B
v1 = p 11 v1 + p21 v2 + p31 v3 v2 = p 12 v1 + p22 v2 + p32 v3 v3 = p 13 v1 + p23 v2 + p33 v3 .
e`
(3.12)
e` nota quando `e assegnata la matrice:
P =
p11 p12 p13 p21 p22 p23 p31 p32 p33
.
P e` invertibile perch´e le sue colonne sono le componenti di vettori linearmente indipendenti. La matrice P prende il nome di matrice del cambiamento di base da a ed e` spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza
B B
la sua interpretazione geometrica. La scelta di porre in colonna, anzich e´ in riga, le componenti dei vettori della base rende i calcoli piu` agevoli. Le equazioni (3.12) in forma matriciale diventano: v1 v1 t v2 = P v2 . v3 v3
B
Sostituendo questa espressione in (3.10) si ha: x =
x1 x2 x3
v1 v2 v3
=
x1 x2 x3
v1 v2 v3
=
x1 x2 x3
t
P
v1 v2 v3
.
Calcolo Vettoriale
98
Dal Teorema 3.5 segue:
x1 x2 x3
=
x1 x2 x3
t
P,
da cui, considerando la trasposta di ambo i membri:
x1 x2 x3
x1 x2 x3
= P
.
Usando le notazioni di (3.11) si ottiene:
X = P X , che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di base da a .
B B
` chiaro che se si esprimono i vettori della base in compo1. E Osservazione 3.11 nenti rispetto alla base si ottiene la matrice inversa P −1 , infatti le equazioni del cambiamento di base da a sono X = P −1 X.
B
B B B
2. Si pu`o trattare in modo analogo il problema del cambiamento di base nel caso del piano vettoriale V 2 . La matrice del cambiamento di base sar`a una matrice invertibile di ordine 2 . 3. Nel caso della retta vettoriale V 1 ogni numero reale non nullo esprime la componente del vettore della base = (v1 ) rispetto alla base = (v1 ) . Se per esempio 2 , mentre le equazioni del cambiamento di base si v1 = 2v1 , allora P = riducono all’unica equazione: x1 = 2x1 o x 1 = 1/2 x1 . Infatti:
B
B
x = x 1 v1 = x 1 v1 =
1 x1 2v1 . 2
B = (v , v , v ), sono dati i vettori: u = 2v + v + v , v = −v + 2 v + v , w = v − v − 2v , z = −v − 2v + v .
Esercizio 3.5 In V 3 , rispetto ad una base 1
1
Verificare che base .
B
B
2
2
3
3
1
2
3
1
2
3
1
2
3
= (u, v, w) e` una base di V 3 e trovare le componenti di z rispetto alla
Capitolo 3
99
Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono, rispettivamente, le componenti dei vettori u, v, w.
P =
2 5 3
−→ − → − → −→ → −
2 1 1
−1
−1
1 1 1
0 0
1 1 2
2 1
R2 + 2R1 R3 + R1
R2 R3
R3 + R2
R3
−1
2 5 8
1 1 0
0 0
.
Allora rank(P ) = 3 , quindi i vettori u, v, w sono linearmente indipendenti. La matrice P e` pertanto la matrice del cambiamento di base dalla base alla base . Si devono determinare le componenti x 1 , x2 , x3 del vettore z rispetto alla base , ossia:
B
B
B
z = x 1 u + x2 v + x3 w. Si tratta di risolvere l’equazione matriciale X = P X , dove:
− − − − −− − − −→ − − − → − →−→ → − − − − − →−→ − →−→ − − − −→ − − → − − → − − X =
1 2 1
,
x1 x2 x3
X =
,
che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da a :
B B
2x1 x2 + x3 = 1 x1 + 2x2 x3 = 2 x1 + x2 2x3 = 1.
Riducendo per righe la matrice completa si ha:
− − − − − − 2 1 1
1 2 1
1 1 2
2 5 8
1 0 0
1 1 0
3 5 2
1 0 0
1 2 1
R2 R3
1 4 4
0 1 0
R3
3 4 1
R1 R2
2 5 3
R2 + 2R1 R3 + R1
(1/4)R3
2R1 + 3R3 2R2 5R3
2 5 2
1 0 0
1 1 1
1 4 0
1 0 0
1 1 0
1 4 1
0 0 2
2 0 0
0 2 0
R3
R1
3 3 1
R3 + R2
R1
.
R2
Calcolo Vettoriale
100
Si perviene alla soluzione:
Allora: z =
3.6
x1 =
− 12
x2 =
− 32
x3 =
− 32 .
− 12 u − 32 v − 32 w.
Angolo tra due vettori
Nei paragrafi precedenti si sono considerati solo il parallelismo e la complanarit`a di vettori ma non l’angolo che questi formano; per esempio non e` stata trattata l’ortogonalit a` tra vettori. Per prendere in considerazione quest’aspetto geometrico e` necessario introdurre la nozione precisa di angolo tra due vettori nel modo seguente.
−→
−−→
Definizione 3.9 In V 3 , considerati due vettori non nulli x = OA , y = OB , scelti i rispettivi rappresentanti con l’estremo O in comune, si definisce angolo xy tra i due vettori x e y l’angolo convesso θ = xy di vertice O e compreso tra i segmenti OA , OB . Di conseguenza 0 θ π. La situazione geometrica e` illustrata nella Figura 3.9. Inoltre:
≤ ≤
• se θ = 0 o se θ = π i vettori x e y si dicono paralleli. • Se θ = π2 i vettori x e y si dicono ortogonali (o perpendicolari). • L’angolo tra il vettore nullo o e un qualunque altro vettore pu o` assumere qualsiasi valore, vale a dire il vettore nullo si pu o` considerare parallelo e ortogonale ad ogni altro vettore.
Si osservi che se θ = 0 i due vettori x e y hanno verso concorde, mentre se θ = π il verso e` discorde. Nel Paragrafo 3.7.2 si dimostrer`a che la definizione geometrica di parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo θ = 0 o θ = π, coincide con la dipendenza lineare dei due vettori.
Capitolo 3
101
B
y
Θ
O
x
A
Figura 3.9: Angolo tra i due vettori x e y
3.7
Operazioni non lineari tra vettori
In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V 3 che coinvolgono la nozione di angolo, e precisamente: 1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale); 2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore); 3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale). Esse sono dette non lineari perch´e prevedono operazioni con le componenti dei vettori che non sono di primo grado.
3.7.1
Il prodotto scalare di due vettori
Il prodotto scalare, introdotto in questo paragrafo, e` una particolare operazione tra due vettori mediante la quale sar a` possibile calcolare la norma di ogni vettore e individuare l’angolo tra essi formato. Inoltre, la sua particolare espressione permetter`a di estenderla anche al caso di spazi vettoriali di dimensione superiore a tre, ma questo argomento sar`a trattato nel Capitolo 5.
·
Definizione 3.10 Il prodotto scalare x y di due vettori x e y in V 3 in V 3 e` la funzione:
· : V × V −→ R 3
3
Calcolo Vettoriale
102
cos`ı definita:
·
y cos(xy).
x y = x
(3.13)
Osservazione 3.12 1. La definizione di prodotto scalare di due vettori, appena introdotta, coinvolge solo la lunghezza dei due vettori dati e l’angolo da essi formato, quindi pu`o essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V 2 . Vale a dire: : V 2 V 2 R, x y = x y cos(xy).
·
× −→
·
2. Per definizione, il risultato del prodotto scalare di due vettori pu`o essere un numero reale qualsiasi il cui segno e` esclusivamente legato all’ampiezza dell’angolo tra i due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha:
≤ θ < π2 se e solo se x · y > 0; π < θ ≤ π se e solo se x · y < 0; 2 π se θ = allora x · y = 0. 2
a. 0 b. c.
·
Se, invece, uno almeno dei due vettori x e y e` il vettore nullo, allora x y = 0. 3. Da (3.13), ponendo x = y , si ottiene la formula che permette di calcolare la norma del vettore x: x = x x.
√ ·
4. Da (3.13) segue l’espressione del coseno dell’angolo tra due vettori non nulli x e y, in funzione del valore del loro prodotto scalare e delle loro norme:
cos(xy) =
· . xy x y
Il teorema che segue, la cui dimostrazione `e una semplice conseguenza delle osservazioni precedenti, e` per`o estremamente importante perch´e esprime una condizione equivalente all’ortogonalit`a di due vettori.
Teorema 3.9 Due vettori di V 3 sono ortogonali se e solo se il loro prodotto scalare e` uguale a zero, in formule: x
⊥ y ⇐⇒
·
x y = 0,
∈ V .
x, y
3
Si procede ora con lo studio dell’interpretazione geometrica del numero reale che esprime il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.
Capitolo 3
103
B y
p
O
x
H
A
·
Figura 3.10: Vettore proiezione ortogonale di y su x con x y > 0
B y
H
p
O
x
A
·
Figura 3.11: Vettore proiezione ortogonale di y su x con x y < 0
Calcolo Vettoriale
104
Teorema 3.10 – Significato geometrico del prodotto scalare – Il prodotto scalare di due vettori di V 3 e` il prodotto della lunghezza di uno dei due vettori per la proiezione ortogonale con segno dell’altro vettore sul primo. Dimostrazione Segue da teoremi elementari di trigonometria. Dati due vettori x e y non nulli e non ortogonali (in caso contrario il prodotto scalare si annulla) `e necessario distinguere due casi:
π , 2 π b. θ = xy > . 2
a. θ = xy <
In entrambi i casi, considerando i vettori x e y rappresentati mediante segmenti orientati aventi un estremo in comune, ossia ponendo x = OA e y = OB si ha:
−→
·
−−→
x y = x OH,
(3.14)
dove H e` la proiezione ortogonale di B sulla retta OA . Pertanto il prodotto scalare di x e di y coincide con il prodotto della norma di x per la proiezione ortogonale di y su x. Nel primo caso OH e` proprio la lunghezza del segmento proiezione ortogonale di OB sulla retta OA , nel secondo caso OA e` l’opposto di tale lunghezza. La situazione geometrica e` illustrata nelle Figure 3.10 e 3.11. Da notare che i ruoli dei vettori x e y possono essere scambiati, nel senso che il loro prodotto scalare `e anche pari alla norma di y per la proiezione ortogonale, con segno, di x su y.
Teorema 3.11 – Vettore proiezione ortogonale – Dati due vettori x e y non nulli, il vettore proiezione ortogonale di y su x e` : p =
· x
x y 2
x.
(3.15)
Il vettore proiezione ortogonale di x su y e` :
p =
·
x y y. y 2
Il vettore proiezione ortogonale di y su x e` , quindi, un vettore parallelo a x , mentre il vettore proiezione ortogonale di x su y e` un vettore parallelo a y.
` una facile conseguenza del teorema precedente. Innanzi tutto e` eviDimostrazione E dente che x e y sono ortogonali se e solo se p = p = o . Se x e y non sono ortogonali,
Capitolo 3
105
allora la lunghezza (con segno) della proiezione ortogonale di x su y si ricava da (3.14) ed `e: x y OH = , x
·
che coincide con la norma, con segno, del vettore p . Tenendo conto che, per costruzione, p e` parallelo a x si ha la tesi. La situazione geometrica e` illustrata nelle Figure 3.10 e 3.11 . Il vettore p si ottiene in modo analogo a p scambiando i ruoli di x e di y. Rimane da determinare l’espressione del prodotto scalare tra due vettori usando le loro componenti, rispetto ad una base di V 3 fissata, ma per fare ci o` e` necessario ricavare le propriet`a del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero reale per un vettore.
Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti propriet `a:
· · x, y ∈ V , x · (y + y ) = x · y + x · y , λ(x · y) = (λx) · y = x · (λy),
1. x y = y x, 2. 3.
1
3
2
1
2
∈ V , λ ∈ R, x, y ∈ V .
x, y1 , y2
3
3
1. E` conseguenza immediata della definizione di prodotto scalare.
Dimostrazione
2. La dimostrazione si evince dalle Figure 3.12 e 3.13 . In entrambi i casi sono rappresentati i vettori con i punti indicati, in particolare y1 = AB e y2 = BC , quindi y1 + y2 = AC . Dal Teorema 3.10 segue:
−→
−→
·
x y1 = x AH,
·
x y2 = x HK,
·
−−→
x (y1 + y2 ) = x AK,
tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si perviene alla tesi.
3. Occorre distinguere tre casi: a. λ = 0 ; b. λ > 0 ; c. λ < 0 . I primi due casi sono molto semplici e vengono lasciati per esercizio. Se λ < 0 si ha:
(λx) y = (λx) y cos( (λx)y) = λ x y cos( (λx)y) =
·
| |
−|λ|xy cos(xy),
in quanto, essendo λ < 0, l’angolo formato dai vettori x e y e` supplementare dell’angolo formato dai vettori λ x e y.
Calcolo Vettoriale
106
C
y2
y 2
y 1
B y1 A
x H
K
·
Figura 3.12: x (y1 + y2 )
C
y 2
y
y2
1
H A
K y1 B
·
Figura 3.13: x (y1 + y2 )
x
Capitolo 3
Sia
107
B = (v , v , v ) una base di V . Dati i vettori: 1
2
3
3
x = x 1 v1 + x2 v2 + x3 v3 ,
y = y 1 v1 + y2 v2 + y3 v3
di V 3 , tenendo conto delle propriet`a dimostrate nel Teorema 3.12, il calcolo del loro prodotto scalare mediante le componenti, rispetto a , risulta essere:
B
3
·
x y =
·
xiy j vi v j
i,j =1
·
B
da cui segue che il valore di x y dipende dai prodotti scalari tra i vettori della base . In altri termini, per calcolare il prodotto scalare tra due vettori e` necessario conoscere, in modo preciso, l’angolo formato tra i vettori della base che si sta usando e la loro norma. Per rendere pi`u agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi.
Definizione 3.11 1. Una base per ogni i, j = 1, 2, 3 .
B = (v , v , v ) di V si dice ortogonale se v · v 1
2
3
3
i
j
=0
B = (i, j, k) di V si dice ortonormale se: a. i · j = i · k = j · k = 0 , b. i = j = k = 1, ossia i vettori della base B sono versori a due a due ortogonali. 3. Una base B = (i, j) di un piano vettoriale V si dice ortonormale se: a. i · j = 0 , b. i = j = 1, ossia i vettori della base B sono versori ortogonali. 4. Una base B = (i) di una retta vettoriale V si dice ortonormale se i = 1 , ossia 2. Una base
3
2
1
se `e formata da un versore.
1. Una base ortonormale e` , quindi, una base ortogonale i cui vetOsservazione 3.13 tori sono anche versori. ` evidente che sia nello spazio vettoriale V 3 sia in ogni piano vettoriale V 2 sia in 2. E ogni retta vettoriale V 1 esistono infinite basi ortonormali.
Calcolo Vettoriale
108
3. Le basi ortonormali nello spazio vettoriale V 3 possono essere schematizzate nei due grafici rappresentati nella Figura 3.14 . Si osservi che la definizione di base ortonormale in V 3 non permette di distinguere tra le due situazioni geometriche, per questo si dovr`a attendere il concetto di prodotto vettoriale, definito nel Paragrafo 3.7.2. 4. Le basi ortonormali in un piano vetttoriale V 2 possono essere schematizzate nei due grafici rappresentati nella Figura 3.15 . Si osservi che, anche in questo caso, la definizione di base ortonormale in V 2 non permette di distinguere tra le due situazioni geometriche.
j
j i i
k
k
Figura 3.14: Basi ortonormali in V 3
j
i i
j
Figura 3.15: Basi ortonormali in V 2
Capitolo 3
109
Usando la definizione di base ortonormale `e possibile semplificare il calcolo del prodotto scalare tra due vettori, come risulta dal teorema seguente.
Teorema 3.13 – Prodotto scalare in componenti – Sia male di V 3 e siano: x = x 1 i + x2 j + x3 k,
B = (i, j, k) una base ortonor-
y = y 1 i + y2 j + y3 k
due vettori di V 3 le cui componenti possono essere rappresentate dalle matrici colonne:
X =
x1 x2 x3
Y =
,
y1 y2 y3
.
Il prodotto scalare tra i vettori x e y e` dato da:
x y = x 1 y1 + x2 y2 + x3 y3 = tX Y.
·
La norma del vettore x e` :
x =
x21 +
x22 +
x23 =
√
tXX.
Il coseno dell’angolo formato dai vettori x e y e` :
x1 y1 + x2 y2 + x3 y3 = x21 + x22 + x23 y12 + y22 + y32
cos(xy) =
t
√ XX XY √ Y Y . t
t
Dimostrazione La dimostrazione segue in modo evidente dalle propriet`a del prodotto scalare e dalla definizione di base ortonormale. 1. Si pu`o ripetere il Teorema 3.13 nel caso particolare di un piaOsservazione 3.14 no vettoriale V 2 . Precisamente, se = ( i, j) e` una base ortonormale di un piano vettoriale V 2 e x = x 1 i + x2 j e y = y 1 i + y2 j sono due vettori di V 2 , allora:
B
· x =
x y = x 1 y1 + x2 y2 ,
x21 + x22 , x1 y1 + x2 y2 . x21 + x22 y12 + y22
cos(xy) =
Calcolo Vettoriale
110
B = (i, j, k) e un vettore x = x i + x j + x k si j · x = x , k · x = x .
2. In V 3 , dati una base ortonormale ha: i x = x 1 ,
·
1
2
2
3
3
Tenendo conto del significato geometrico del prodotto scalare, ne segue che le componenti di un vettore, rispetto ad una base ortonormale, coincidono con le lunghezze (con segno) delle proiezioni ortogonali del vettore lungo le rette vettoriali individuate dai vettori della base. La situazione geometrica `e illustrata nella Figura 3.16 . In formule si ha: x = (x i)i + (x j) j + (x k)k.
·
·
·
Calcolando, invece, il coseno degli angoli formati dal vettore x con i vettori della base ortonormale si ha:
B
cos(ix) =
x1
x
, cos( jx) =
x2
x
, cos(kx) =
x3
x .
I coseni appena determinati sono a volte indicati con il temine coseni direttori del vettore x per sottolineare che la direzione di x e` individuata dagli angoli formati da x con i tre vettori della base. Dall’espressione dei coseni direttori appena ricavata segue: cos2 (ix) + cos2 ( jx) + cos2 (kx) = 1. (3.16)
3. Il punto precedente si pu`o ripetere, in modo totalmente analogo, nel caso di un = (i, j) . In particolare la piano vettoriale V 2 , riferito ad una base ortonormale formula (3.16) si riduce a:
B
cos2 (ix) + cos2 ( jx) = 1, che coincide con la ben nota relazione di trigonometria piana sin2 α +cos2 α = 1 valida per un angolo α qualsiasi. La situazione geometrica e` illustrata nella Figura 3.17 .
B
Esercizio 3.6 In V 3 , rispetto ad una base ortonormale = (i, j, k), sono dati i vettori u = (2, 1, 3) e v = (0, 2, 3) , determinare il vettore x simmetrico di u rispetto a v. Soluzione Indicato con p il vettore proiezione ortogonale di u su v, il vettore x, simmetrico di u rispetto a v, e` tale che: x + u = 2p. Dall’espressione del vettore proiezione ortogonale (3.15) si ha: p =
· v
u v 2
v =
11 (0, 2, 3), 13
Capitolo 3
111
x x3
k
j
i
x1
x2
Figura 3.16: Componenti di x rispetto a
x2
B = (i, j, k)
x
j
i
x1
Figura 3.17: Componenti di x rispetto a
B = (i, j)
Calcolo Vettoriale ettoria le
112
quindi: x = 2p
Esercizio 3.7
−
31 27 2, , . 13 13
− u =
1. In V 3 , riferito ad una base ortonormale
(1, 2, 0), 0), a = (1,
B = (i, j, k), i vettori:
(0, 1, 1) b = (0,
possono rappresentare i lati di un rettangolo? 2. Determinare Determinare i vettor vettorii v paralleli alle altezze del parallelogramma individuato da a e da b . rappresentare i lati di un rettangolo rettangolo se e solo se Soluzione 1. I vettori a e b possono rappresentare sono ortogonali, ma a b = 2 , quindi a e b possono rappresentano rappresentano i lati di un
·
parallelogramma non rettangolo.
2. Si determina il vettore h rappresentato nella Figura 3.18 e si lascia al Lettore il calcolo calcolo degli altri vettori vettori che risolvono risolvono il problema. Per costruzione, costruzione, se p indica il vettore proiezione ortogonale di b su a si ha: p + h = b . Da (3.15) segue:
· a
b a
p =
2
da cui: h = b
b
p
a =
− p =
2 (1, (1, 2, 0) 5
−
2 1 , ,1 . 5 5
h
a 3 .7 Figura 3.18: Esercizio 3.
Capitolo 3
3.7.2
113
Il prodotto prodotto vettorial vettorialee di due vettori vettori
Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, e` un’operazione particolare tra due vettori che, a differenza del prodotto scalare, pu o` essere solo definita sullo spazio vettoriale V 3 . Esistono opportune generalizzazioni di questa operazione a spazi vettoriali di dimensione maggiore di 3 , ma solo in alcuni alcuni casi partico particolar lari. i. Lo studio studio di queste generalizzaz generalizzazioni ioni non e` immediato e richiede nozioni inserite spesso in corsi pi u` avanzati avanzati.. In realt realta` la definizione del prodotto vettoriale e` estremamente importante per descrivere in Fisica la rotazione dei corpi e il momento angolare. esterno) `e una funzione: funzione: Definizione 3.12 Il prodotto vettoriale (o esterno) `
∧ : V × V −→ −→ V , 3
3
3
(x, y)
− → x ∧ y.
∧ y (che si legge x vettoriale y o x esterno y ) `e cos` cos`ı definito: a. la norma di x ∧ y e` x ∧ y = x y sin(xy xy), b. la direzione di x ∧ y e` ortogonale al piano vettoriale individuato da x e da y, c. il verso di x ∧ y rispetta la cosiddetta regola della mano destra , ossia ponendo l’indice della mano destra parallelamente a x , il medio parallelamente a y, la direzione assunta naturalmente dal pollice coincide con il verso di x ∧ y.
Il vettore x
xy
y
x
Figura 3.19: Il prodotto vettoriale di x e di y
Calcolo Vettoriale ettoria le
114
3 .19 . La situazione geometrica e` rappresentata nella Figura 3. Osservazione 3.15 La definizione di prodotto vettoriale di due vettori x e y e` ancora valida se entrambi i vettori o uno solo dei due e` il vettore nullo. Infatti si ha subito che, in questo caso, x y = 0 , rendendo di conseguenza non rilevanti le definizioni di direzione e verso.
∧
Come si pu`o immediatamente dedurre dalla definizione di prodotto vettoriale e dall’osservazione precedente, il prodotto vettoriale di due vettori ha norma pari a zero non solo nel caso in cui uno dei due vettori sia il vettore nullo o entrambi i vettori siano il vettore nullo, infatti vale il seguente teorema la cui dimostrazione e` conseguenza evidente della definizione di prodotto vettoriale.
Teorema 3.14 Due vettori x , y di V 3 sono paralleli se e solo se il loro prodotto vettoriale e` uguale al vettore nullo; in formule: x
y ⇐⇒ x ∧ y = o. C
y
H A
x
B
∧ y
Figura 3.20: Significato geometrico di x
Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma assume un’interessante significato geometrico, vale, infatti, il seguente teorema.
Teorema eorema 3.15 – Significato geometrico geometrico della norma del prodotto prodotto vettoriale vettoriale – La norma del prodotto vettoriale di due vettori e` pari al doppio dell’area del triangolo individuato da due segmenti orientati, rappresentanti dei vettori dati, aventi un estremo in comune.
Capitolo 3
115
−→ −→ −→ −→
Dimostrazione Siano AB e AC rappresentanti rappresentanti dei vettori x vettori x e y rispettivamente. Con 3 .20 e tenendo conto che: riferimento alla Figura 3.
−→AC −→ sin( x ∧ y = AB BAC ) si ha la tesi. Tramite il prodotto vettoriale di due vettori `e possibile calcolare il vettore proiezione ortogonale di un vettore qualsiasi di V 3 su un piano vettoriale vettoriale,, precisament precisamentee si ha il seguente seguente teorema.
Teorema 3.16 – Vettore Vettore proiezione ortogonale su un piano vettoriale – Dati due vettori u, v di V 3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico vettore x di V 3 sul piano vettoriale individuato da u e da v e` dato da: p = x
− x·u(∧u ∧vv) (u ∧ v). 2
−→ −→ −→ −→ −−→
Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v rispettiv rispettivamente amente.. Sia AD rappresentante del vettore x . Dall Dallaa Figur Figuraa 3.21 segue che x = p + q. Ma il vettore q non e` altro che il vettore proiezione ortogonale di x su tesi `e conseguenza, quindi, del Teorema 3.11. u v . La tesi `
∧
vettorialee si considera considera una base ortogonale, non e` neOsservazione 3.16 Se in un piano vettorial cessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore proiezione ortogonale di ogni vettore di V 3 su tale piano. Siano, infatti, a e b due vettori ortogonali, ossia a ossia a b = 0, la proiezione ortogonale p ortogonale p di un generico vettore x di V 3 sul piano vettoriale individuato da a e da b e` data da:
·
p =
· a
x a 2
a+
· b
x b 2
b.
La formula appena citata e` facile conseguenza del Teorema 3.11, ma e` di grande importanza, perch´ perche´ si potr` potra` facilmente facilmente estendere estendere a spazi vettoriali vettoriali di dimensione dimensione superiore a 3 (cfr. Teor. 5.5).
Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti propriet ` propriet a: a` :
∧ y = −y ∧ x, x, y ∈ V , (λx) ∧ y = x ∧ (λy) = λ( λ (x ∧ y),
1. x 2.
3
x, y
∈ V , λ ∈ R , 3
Calcolo Vettoriale ettoria le
116
D
x
q
uv
C v p A
u
H
B
Figura 3.21: Vettore proiezione ortogonale su un piano vettoriale
Capitolo 3
3. x
∧ (y + z) = x ∧ y + x ∧ z,
Dimostrazione
x, y, z
117
∈ V . 3
1. E` ovvia conseguenza della definizione di prodotto vettoriale.
2. Occorre distinguere tre casi: a. λ = 0 ; b. λ > 0 ; c. λ < 0 . I primi due casi sono molto semplici e vengono vengono lasciati per esercizio. Se λ < 0 si deve dimostrare per esempio che:
(λx)
∧ y = λ = λ((x ∧ y),
∈ V .
x, y
3
Trattandosi di un’uguaglianza tra due vettori e` necessario dimostrare che i vettori a primo e a secondo membro abbiano la stessa lunghezza, la stessa direzione e lo stesso verso. verso. Per la lunghezza si ha:
(λx) ∧ y = (λx) y sin( xy) = |λ|x ∧ y. (λx)y) = |λ|x y sin(π sin(π − xy
Le verifiche riguardanti l’uguaglianza della direzione e del verso sono lasciate per esercizio. proprieta` e` proposta nell’Esercizio 3.10. 3. La dimostrazione di questa propriet`
Allo scopo di determinare determinare l’espressione l’espressione del prodotto vettoriale vettoriale in funzione funzione delle componenti dei due vettori e` necessario, come per il calcolo del prodotto scalare, fissare una base ortonormale ortonormale di V 3 , ma e` anche fondamentale, in questo caso, distinguere tra le due 14. Nel primo possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. caso si osserva che i j = k , nel secondo caso, invece, invece, i j = k . Si impone, quindi, la necessit` necessita` di introdurre la seguente definizione.
∧
Definizione 3.13
∧ −
B = (v , v , v ) di V si dice positiva se: ∧ v · v > 0 > 0..
1. Un base ortogonale v1
2. Un base ortogonale
1
2
2
3
3
3
B = (v , v , v ) di V si dice negativa se: v ∧ v · v < 0 < 0.. 1
2
3
1
3
2
3
Calcolo Vettoriale ettoria le
118
3. Una base ortonormale
B = (i, j, k) di V si dice positiva se: i ∧ j = k , 3
cio` cioe` se:
i
4. Una base ortonormale
∧ j · k = 1.
B = (i, j, k) di V si dice negativa se: i ∧ j = −k, 3
cio` cioe` se:
i
∧ j · k = −1.
osservi che la Definiz Definizion ionee 3.13 3.13 pu` puo` essere enunciata anche nel Osservazione 3.17 Si osservi caso di una base qualsiasi, non necessariamente ortogonale o ortonormale. Fissando una base ortonormale positiva ` positiva `e possibile ricavare in modo agevole l’espressione del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema.
Teorema eorema 3.18 – Prodotto vettoriale vettoriale in componenti componenti – Sia normale positiva di V 3 e siano:
= x 1 i + x2 j + x3 k, x = x
B = (i, j, k) una base orto-
= y 1 i + y2 j + y3 k y = y
due vettori di V 3 . Il prodotto vettoriale dei vettori x e y e` dato da:
x
∧ y =
−
x2 x3 i y2 y3
x1 x3 x1 x2 j j + k. y1 y3 y1 y2
(3.17)
B = (i, j, k) una base ortonormale positiva si ha: i ∧ j = k , k ∧ i = j , j ∧ k = i , j ∧ i = −k, i ∧ k = − j, k ∧ j = −i.
Dimostrazione Essendo
Inoltre dal Teorema 3.14 segue: i
∧ i = j ∧ j = k ∧ k = o.
Tenendo conto delle uguaglianze uguaglianze appena trascritte trascritte e applicando applicando le propriet` propriet`a del prodotto vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.
Capitolo 3
Osservazione 3.18 segue:
119
1. Si osservi osservi che che la formula formula (3.17) (3.17) potrebbe potrebbe essere essere scritt scrittaa come
x
∧ y =
i
j
k
x1 x2 x3 , y1 y2 y3
(3.18)
anch anchee se l’esp l’espre ressi ssion onee a secon secondo do memb membro ro ` `e priva priva di signifi significat cato o matema matematic tico, o, in quanquanto si indica il calcolo del determinante di un oggetto che non `e una matrice. D’altra parte e` molto piu` facile ricordare (3.18) anzich´ anziche´ (3.17). 2. Si osservi che dal Teorema Teorema 3.14 e dalla formula (3.17) (3.17) segue che, fissata una base ortonormale positiva = (i, j, k), due vettori:
B
x = x = x 1 i + x2 j + x3 k, sono paralleli se e solo se:
x2 x3 y2 y3
=
y = y = y 1 i + y2 j + y3 k
x1 x3 y1 y3
=
x1 x2 y1 y2
= 0. 0.
Ci` Cio` equivale a richiedere che le componenti dei due vettori siano a due a due proporzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior precisione si osservi che la condizione di dipendenza lineare letta sulle componenti di due vettori ` vettori `e stata a suo tempo ricavata rispetto ad una base qualsiasi di V 3 e non solamente solamente rispetto ad una base ortonormale ortonormale positiva. positiva. Infatti Infatti la dipendenza dipendenza lineare equivale al parallelismo di due vettori anche in dimensione superiore a 3 , come sar` sara` dimostrato nel Teorema 5.3.
Esercizio 3.8 Nel spazio vettoriale V 3 , rispetto ad una base positiva, sono dati i vettori: a = (2, (2, 1, 1), 1),
B = (i, j, k) ortonormale
b = (0, (0, 1, 1). 1).
Determinare tutti i vettori x di V 3 tali che la loro proiezione ortogonale sul piano vettoriale generato da a e da b sia il vettore a + b .
Soluzione
I vettori vettori richiesti sono dati da: x = (a + b) + λ a
dove: a
∧ b =
Di conseguenza:
i
j k
2 1 1 0 1 1
=
−
1 1 i 1 1
x = (a + b) + λ a
∧ b,
λ
∈ R,
2 1 2 1 j j + k = 0 1 0 1
∧ b = (2, (2, 2 − 2λ, 2 + 2λ 2 λ),
λ
−2 j + 2k.
∈ R.
Calcolo Vettoriale ettoria le
120
3.7.3
Il prodotto prodotto misto misto di tre vettori vettori
L’operazione tra vettori che segue, e che e` anche l’ultima proposta, non e` nuova ma e` definita tramite le operazioni di prodotto scalare e di prodotto vettoriale.
Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V 3 e` la funzione:
V 3
× V × V −→ −→ R 3
3
cos` cos`ı definita:
(x, y, z)
− → x ∧ y · z.
` chiaro dalla definizione appena scritta che le operazioni di prodotto vettoriale e di E prodotto scalare sono da eseguirsi nell’ordine indicato. Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti dello spazio vettoriale V 3 ha un importante significato geometrico, come si evince dal teorema che segue.
xy D
H z
y
C
A x B Figura 3.22: Significato geometrico del prodotto misto di tre vettori
Capitolo 3
121
Teorema eorema 3.19 3.19 – Significato Significato geometrico del prodotto prodotto misto – Il prodotto misto di tre vettori non complanari di V 3 e` pari a 6 volte il volume, con segno, del tetraedro individuato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in comune.
−→ −→ −→ −→ −−→
Dimostrazione Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori rispettivament amente. e. Essendo, Essendo, per ipotesi, i tre vettori considerati considerati linearmente linearmente indix, y, z rispettiv pendenti, si puo` supporre che il punto D non appartenga al piano individuato dai punti situazione geometrica geometrica `e rappresentata nella Figura 3. 3 .22. 22. Dalla definizione di A,B,C . La situazione prodotto scalare si ha:
(x
∧ y) · z = x ∧ yz cos((x ∧ y)z) = x ∧ yAH,
(3.19)
dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore z su x y . Come e` noto, il segno della lunghezza della proiezione ortogonale dipende dall’ampiezza dall’angolo che il vettore z forma con il vettore x y , ossia se questo angolo e` acuto il segno e` positivo (situazione geometrica descritta nella Figura 3.22 ), se l’angolo e` ottuso il segno e` negativo. negativo. Non si considera considera il caso dell’angolo dell’angolo retto perch´ perche, e´ , se cos` cos`ı fosse, il vettore z sarebbe complanare ai vettori x e y . Ricordando il significato geometrico geometrico della norma del prodotto vettoriale vettoriale di due vettori (cfr. (cfr. Teor. eor. 3.15) la formula formula (3.19) diventa: (x y) z = 2 ABC AH = 6 ABCD A BCD ,
∧
dove
A
ABC indica
∧
∧ ·
A
l’area del triangolo ABC AB C e
ABCD .
V
ABCD A BCD il
V
volume (con segno) del tetraedro
1. Dalla prima propriet` propriet`a del prodotto vettoriale del Teorema 3.17 Osservazione 3.19 e dalla prima propriet` proprieta` del prodotto scalare del Teorema 3.12 si ottengono le seguenti propriet`a del prodotto misto di tre vettori:
∧ y · z = z · x ∧ y x ∧ y · z = −y ∧ x · z. x
(3.20)
(3.21)
2. Si osservi che il segno del prodotto prodotto misto di tre vettori vettori x, y, z dipende dall’ordine in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore assoluto del prodotto misto dei tre vettori non cambia, qualunque sia l’ordine in cui i vettori sono considerati, infatti la medesima terna di vettori, qualunque sia l’ordine, individua lo stesso tetraedro. Nel caso in cui tre vettori di V 3 siano complanari allora vale il seguente teorema la cui dimostrazione e` una facile conseguenza delle definizioni e delle propriet`a del prodotto vettoriale e del prodotto scalare ed e` lasciata al Lettore.
Calcolo Vettoriale ettoria le
122
Teorema 3.20 Tre vettori di V 3 sono complanari se e solo se il loro prodotto misto si annulla. Il teorema che segue permette di calcolare il prodotto misto mediante le componenti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che l’annullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare.
Teorema eorema 3.21 – Prodotto misto in componenti – Sia male positiva di V 3 e siano:
= x 1 i + x2 j + x3 k, x = x
B = (i, j, k) una base ortonor-
= y 1 i + y2 j + y3 k, y = y
= z 1 i + z 2 j + z 3 k z = z
tre vettori di V 3 . Il prodotto prodotto misto di x, y, z e` dato da:
x
Dimostrazione ponenti si ha: x
∧y·z
=
=
∧ y · z =
x1 x2 x3 y1 y2 y3 . z 1 z 2 z 3
Dalle espressioni del prodotto vettoriale vettoriale e del prodotto scalare in com-
− −
x2 x3 i y2 y3
x2 x3 z y2 y3 1
·
x1 x3 x1 x2 j j + k y1 y3 y1 y2
(z 1 i + z 2 j + z 3 k)
x1 x3 x1 x2 z 2 + z , y1 y3 y1 y2 3
dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi.
Dal Teorema appena dimostrato e da tutte le propriet a` del calcolo del determinante di una matrice quadrata di ordine 3 , dimostrate nel Paragrafo 2.8, si ottengono le seguenti propriet` proprieta` del prodotto misto, alcune delle quali sono gi a` state ricavate in precedenza e la cui dimostrazione e` lasciata al Lettore per esercizio.
Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti propriet ` propriet a: a` :
∧ y · z = x · y ∧ z, x, y, z ∈ V ; x ∧ y · z = z ∧ x · y = y ∧ z · x, x, y, z ∈ V ; x ∧ y · z = 0 se e solo se i vettori x , y, z sono complanari.
1. x 2. 3.
3
3
Capitolo 3
123
Osservazione 3.20 La propriet` 1 . del Teorema 3.22 pu` proprieta` 1. puo` essere dimostrata, in generale, ` facile dimoindipendentemente dall’espressione in componenti dei tre vettori x, y, z . E strare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro, in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la propriet`a non esprime altro che il volume di questo tetraedro. Si perviene all’uguaglianza dei segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori x, y, z e` invariante per le loro permutazioni circolari. La dimostrazione completa si pu`o leggere, leggere, per esempio, esempio, in [7]. Esercizio 3.9 Nello spazio vettoriale V 3 , rispetto ad una base positiva, sono dati i vettori:
B = (i, j, k) , ortonormale
−2), 2), h, k ∈ R. Assegnati ad h e a k i valori cui c e` parallelo al vettore a ∧ b , calcolare le componenti √ per cui c a = (1, (1, 0, 1), 1),
−
b = ( 2, 1, 0), 0),
c = (h,k,
del vettore x di norma 3 , complanare ad a e a b e tale che il volume (con segno) del tetraedro di spigoli a, c, x sia uguale a 2 .
∧
−−
∧
che a b = i 2 j + k , quindi c quindi c e` parallelo a a a a b se Soluzione Si ricava facilmente che a (2, 4, 2) . Sia x = x 1 i + x2 j + x3 k, x e` complanare e solo se h = cui c = (2, Sia x = x h = 2 e k = 4 , da cui c ad a e a b se e solo se x a b = 0 ossia, in componenti, se e solo se:
∧ ·
− ∧ · √
−
−
x1 x2 x3 1 0 1 2 1 0
= 0. 0.
(3.22)
Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x e` 12, che, in componenti, equivale a: uguale a 2 se e solo se a c x = 12,
1 0 2 4 x1 x2
La norma del vettore x e` pari a
1 2 x3
= 12. 12.
(3.23)
3 se e solo se:
x21 + x22 + x23 = 3.
(3.24)
−
Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = ( 1, 1, 1) . distributiva Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la propriet a` distributiva del prodotto vettoriale rispetto alla somma di vettori: x
∧ (y + z) = x ∧ y + x ∧ z,
x, y, z
∈ V . 3
(3.25)
Calcolo Vettoriale ettoria le
124
Soluzione
Dimostrare la propriet` proprieta` (3.25) equivale a provare che:
· ∧ (y + z)] = a · (x ∧ y + x ∧ z),
a [x
x, y, z, a
∈ V ,
3
(3.26)
ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un generico vettore a di V 3 coincide con la proiezione ortogonale del vettore a secondo membro ` chiaro che ci` sullo stesso vettore a di V 3 . E cio` e` vero solo perch´ perche´ il vettore a pu` puo` variare tra tutti i vettori di V 3 , questa affermazione e` palesemente palesemente falsa, falsa, in caso contrario. contrario. Per verificare verificare (3.26) e` sufficiente procedere applicando ripetutamente le varie propriet a` del prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si ha: a [x (y + z)] = (a x) (y + z) = (a x) y + ( a x) z = a x y + a x z = a (x y + x z).
· ∧
3.8
∧ · ∧ · · ∧ · ∧
∧ · · ∧ ∧
Cambia Cambiamen menti ti di basi basi ortono ortonorma rmali li in V 3 e in V 2
Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due basi ortonormali.
Teorema 3.23 Sia = (i, j, k) una base ortonormale di V 3 , allora anche = ( i , j , k ) e` una base ortonormale di V 3 se e solo se la matrice P del cambiamento di base da a verifica la condizione: t (3.27) P P = I ,
B
B
B
B
dove I indica la matrice unit ` unit a` di ordine 3 .
Dimostrazione Sia P = ( pij ) la matrice del cambiamento di base ottenuta come descritto nel Paragrafo 3.5, vale a dire:
Se sia
B sia B
i = p 11 i + p21 j + p31 k j = p 12 i + p22 j + p32 k
(3.28)
k = p 13 i + p23 j + p33 k.
sono entrambe basi ortonormali allora: 2
2
2
2
2
2
i = j = k = i = j = k = 1 0. i · j = i · k = j · k = i · j = i · k = j · k = 0.
(3.29)
Capitolo 3
125
Le precedenti relazioni, scritte in componenti, equivalgono alle seguenti equazioni: 2
2 11
2 21
2 31
2
2 12
2 22
2 32
i = p + p + p + p + p = 1, j = p + p + p + p + p = 1, k = p + p + p + p + p = 1, + p p + p + p p = 0, i · j = j · i = p p + p + p p + p + p p = 0, i · k = k · i = p p + p j · k = k · j = p p + p + p p + p + p p = 0, 2
2 13
2 23
2 33
11 12
21 22
(3.30)
31 32
11 13
21 23
31 33
12 13
22 23
32 33
che equivalgono all’uguaglianza, elemento per elemento, delle matrici:
t
P P =
i i
· j · i k ·i
i j
· j · j k · j
i k
· j · k k ·k
Il viceversa si ottiene in modo analogo.
= I .
1. Si ricordi ricordi che le matric matricii P per cui vale la (3.27) prendono il Osservazione 3.21 nome nome di matrici matrici ortogona ortogonali li (cfr. (cfr. Par. Par. 2.5), 2.5), il Teore Teorema ma 3.23 ne giusti giustifica fica questa questa particolare particolare denominazione denominazione.. Allora Allora il Teorema Teorema 3.23 afferma afferma che le matrici ortogonali caratterizza caratterizzano no il cambiament cambiamento o di base tra basi ortonormali ortonormali.. Si osservi anche che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base ortonormale. 2. Applicando Applicando il Teorema Teorema di Binet (cfr. (cfr. Teor. eor. 2.16) a (3.27) si ha:
det(tP P ) (det(P )) ))2 = det(I det(I ) = 1, P ) = det(tP )det( P )det(P P )) = (det(P quindi:
det(P det(P )) =
±1.
Si perviene allo stesso risultato ricordando l’espressione in componenti del prodotto misto di tre vettori, infatti:
det(P det(P )) = i j k =
∧ ·
±1.
Quindi il cambiamento di base tra due basi ortonormali positive e` caratterizzato da una matrice ortogonale con determinante uguale a 1 , in caso contrario il determinante della matrice ortogonale `e 1 .
−
Calcolo Vettoriale
126
B
3. Si osservi che `e fondamentale richiedere nel Teorema 3.23 che entrambe le basi e siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se non fosse una base ortonormale (cfr. Teor. 3.13), anche se fosse ortonormale.
B
B
B
4. Il Teorema 3.23 e` valido anche nel caso del cambiamento di base tra due basi ortonormali in ogni piano vettoriale V 2 , si studier`a di seguito l’interpretazione geometrica in questo caso particolare. 5. Il Teorema 3.23 propone un’altra interpretazione del prodotto righe per colonne di matrici quadrate di ordine 3 e di ordine 2 ; infatti il prodotto di una riga per una colonna pu`o essere considerato come il prodotto scalare tra la riga e la colonna se i proprii elementi si interpretano come le componenti di un vettore rispetto ad una base ortonormale.
j i'
j'
Θ
i Figura 3.23: Cambiamento di basi ortonormali in V 2 , primo caso Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un piano vettoriale V 2 con lo scopo di determinare gli elementi della matrice ortogonale P = ( pij ) R2,2 che lo regola. Date due basi ortonormali = (i, j) e = (i , j ) la seconda base si pu`o ottenere dalla prima in uno dei modi rappresentati nelle Figure 3.23 , 3.24 , 3.25 . Si osservi che le prime due figure sono in realt`a dello stesso tipo e corrispondono ad una rotazione che la base compie per sovrapporsi alla base , invece nella terza figura la base deve effettuare un movimento di riflessione (non interno al piano vettoriale V 2 ) per sovrapporsi alla base .
∈
B
B
B
B
B
B
Capitolo 3
127
j j'
Θ
i
i'
Figura 3.24: Cambiamento di basi ortonormali in V 2 , secondo caso
j i'
j'
Θ
i Figura 3.25: Cambiamento di basi ortonormali in V 2 , terzo caso
Calcolo Vettoriale
128
Nel primo caso (cfr. Fig. 3.23 ) si ha:
i = cos θ i + sin θ j
− B B −
j = cos θ +
π π i + sin θ + j = 2 2
quindi la matrice del cambiamento di base da
a
cos θ sin θ
P =
sin θ i + cos θ j,
e` :
sin θ cos θ
.
(3.31)
Si osservi che det(P ) = 1 . In questo contesto, per mettere in evidenza la dipendenza della matrice P dall’angolo θ, e` preferibile usare la notazione:
P = R[θ]. Nel secondo caso (cfr. Fig. 3.24 ), con un procedimento analogo a quello appena descritto, si ottiene:
−
R[ θ] =
−
−
cos θ sin θ sin θ cos θ
,
(3.32)
anche in questo caso det(R[ θ]) = 1 . Si osservi che la matrice (3.32) corrisponde alla matrice (3.31) in cui al posto di θ si considera l’angolo θ .
−
Nel terzo caso (cfr. Fig. 3.25 ) si ha:
P = invece, in questo caso det(P ) =
cos θ sin θ
−
sin θ cos θ
.
(3.33)
−1.
Si conclude, quindi, in modo totalmente coerente con ci o` che si e` ottenuto nel caso dello spazio vettoriale V 3 , che il cambiamento di base tra due basi ortonormali positive nel piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e, in caso contrario tramite una matrice ortogonale con determinante pari a 1 .
−
Esercizio 3.11 Si dimostri che gli elementi di O(2) , ovvero le matrici ortogonali di ordine 2 , sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che O(1) = 1, 1 .
{− }
B
Esercizio 3.12 In un piano vettoriale V 2 , a partire da = (i, j), base ortonormale positiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo θ1
Capitolo 3
129
che conduce alla base ortonormale positiva = (i , j ) mediante la matrice ortogonale R[θ1 ] . A partire dalla base ortonormale positiva = (i , j ) si consideri la rotazione di angolo θ2 che conduce alla base ortonormale positiva = (i , j ) mediante la matrice ortogonale R[θ2 ] . Si dimostri che la matrice del cambiamento di base dalla base ortonormale positiva = (i, j) alla base ortonormale positiva = (i , j ) , corrispondente alla rotazione di angolo θ 1 + θ2 , e` la matrice prodotto R[θ1 ]R[θ2 ]. Si ripeta lo stesso esercizio dove, al posto delle rotazioni, si considerano riflessioni.
B
B
B B
B
3.9
Esercizi di riepilogo svolti
Esercizio 3.13 Nello spazio vettoriale V 3 si considerino i vettori x e y tali che:
x = 5, y = 7, x + y = 10. − y.
Determinare x
Soluzione
Applicando la definizione e le propriet`a del prodotto scalare si ha: 2
= (x + y) (x + y) = x
2
= (x
x + y
·
2
+ 2x y + y 2 ,
2
2
·
d’altra parte:
x − y
− y) · (x − y) = x − 2x · y + y
e quindi: 2
da cui:
2
x + y + x − y 2
x − y
= 2(25 + 49)
2
2
+ y )
= 2( x
− 100 = 48.
Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V 3 . Dimostrare che se z e` un vettore di V 3 ortogonale a ciascuno di essi allora z = o . Soluzione Osservato che ( u, v, w) e` una base di V 3 e` sufficiente dimostrare che se z e` ortogonale ad un generico vettore: x = λ u + µv + ν w
∈ R , allora z = o. Infatti si ha: z · x = z · (λu + µv + ν w ) = λ z · u + µ z · v + ν z · w = 0, in quanto, per ipotesi, z · u = z · v = z · w = 0 . In particolare z · z = z = 0 , quindi di V 3 , con λ, µ, ν
2
z = o .
Calcolo Vettoriale
130
Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V 3 sono non nulli e a due a due ortogonali, anche i vettori: a b, b c, c a
∧
∧
∧
sono non nulli e a due a due ortogonali.
Soluzione Per definizione di prodotto vettoriale di due vettori, a ad a sia a b, quindi `e parallelo a c, da cui: a
∧ b e` ortogonale sia
∧ b = λ c, ∧
∧
dove λ e` un numero reale non nullo. Analogamente si ha b c = µ a e c a = ν b con µ = 0, ν = 0. Pertanto a b, b c, c a sono non nulli e a due a due ortogonali essendo paralleli a vettori non nulli, a due a due ortogonali.
∧
∧
∧
∧
∧
∧
Esercizio 3.16 In V 3 , dimostrare che, se i vettori a b, b c, c a sono linearmente indipendenti anche i vettori a, b e c sono linearmente indipendenti. Soluzione Se i vettori a , b, c fossero linearmente dipendenti essi sarebbero complanari e quindi i vettori a b, b c, c a, per definizione di prodotto vettoriale, sarebbero paralleli che e` assurdo.
∧
∧
∧
B = (i, j, k), sono dati i h ∈ R.
Esercizio 3.17 In V 3 , rispetto ad una base ortonormale positiva vettori: a = ( h, 3h, 1), b = (0, 3, h), c = (1, 1, h),
−
1. Determinare i valori di h per cui a, b, c non formano una base di V 3 . 2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che: x
∧ a = b
e calcolarne le componenti.
Soluzione 1. I vettori a, b, c non formano una base di V 3 se sono linearmente dipendenti, ossia se la matrice:
A =
−
h 0 1
3h 3 1
1 h h
le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale a zero. Si ha che det(A) = h 2
− 3 , quindi i valori di h richiesti sono h = ±√ 3 .
Capitolo 3
2. Da x
∧ a = b si ha:
− − − − i
j
131
k
x1 x2 x3 h 3h 1
= 3 j + hk.
Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del vettore a secondo membro si perviene al sistema lineare:
x2 3hx3 = 0 x1 hx3 = 3 3hx1 + hx2 = h,
−
che non ammette soluzioni se h = 0 ; invece se h = 0 i vettori x = ( 3, 0, t), per ogni t R, verificano l’uguaglianza richiesta.
∈
3.10
Per saperne di pi`u
3.10.1
Un’altra definizione di vettore
In questo paragrafo viene introdotta una definizione di vettore pi u` rigorosa, che si basa sul concetto di relazione di equivalenza e di classi di equivalenza.
Definizione 3.15 Due segmenti orientati AB e CD dello spazio S 3 sono detti equipollenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica e` illustrata nella Figura 3.26. C
D
M
A
B
Figura 3.26: Segmenti orientati equipollenti Per indicare che i segmenti orientati AB e CD sono equipollenti si user`a la notazione
∼ CD.
AB
Calcolo Vettoriale
132
Teorema 3.24 La relazione di equipollenza e` una relazione di equivalenza. Dimostrazione
` sufficiente verificare che sono valide le seguenti propriet`a: E
∼ AB , per ogni coppia di punti A e B ;
1. la propriet`a riflessiva: AB
2. la propriet`a simmetrica: se dati i segmenti orientati AB e C D per cui AB allora C D AB ;
∼
∼ C D
3. la propriet`a transitiva: se dati i segmenti orientati AB , C D ed E F tali che
∼ CD e C D ∼ EF allora AB ∼ EF .
AB
La dimostrazione segue dalla definizione di equipollenza ed `e lasciata per esercizio. Di conseguenza, l’insieme dei segmenti orientati dello spazio viene suddiviso nelle classi di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza , ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e pu`o essere rappresentata da un qualsiasi segmento che ad essa appartiene. Allora si ha la seguente definizione.
Definizione 3.16 Le classi di equipollenza dello spazio S 3 sono dette vettori. ` chiaro che la definizione intuitiva di vettore introdotta all’inizio di questo capitolo E coincide con la definizione pi u` rigorosa di vettore appena enunciata.
3.10.2
Ulteriori propriet`a delle operazioni tra vettori
In questo paragrafo verranno riassunte alcune propriet`a delle operazioni tra vettori studiate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze importanti nello studio approfondito di argomenti di geometria e di fisica, possono essere omesse ad una prima lettura.
Teorema 3.25 Sono valide le seguenti propriet `a per il prodotto vettoriale e scalare tra vettori:
∧ y) ∧ z = (x · z) y − (y · z) x, x, y, z ∈ V ; (x ∧ y) ∧ (z ∧ w) = ( w · x ∧ y) z − (z · x ∧ y) w, x, y, z, w ∈ V ; (x ∧ y) · (z ∧ w) = ( x · z)(y · w) − (x · w)(y.z), x, y, z, w ∈ V ; (x ∧ y) ∧ z + (y ∧ z) ∧ x + (z ∧ x) ∧ y = o , x, y, z ∈ V .
1. (x 2. 3. 4.
3
3
3
3
Capitolo 3
133
Dimostrazione 1. Si supponga che x , y, z siano vettori di V 3 non complanari, negli altri casi si lascia per esercizio la dimostrazione dell’identit`a 1. Il vettore (x y) z e` ortogonale al vettore x y e quindi appartiene al piano vettoriale individuato da x e da y. Esistono pertanto due numeri reali λ, µ tali che:
∧ ∧
∧
(x
∧ y) ∧ z = λx + µy.
(3.34)
Se si moltiplicano ambo i membri di (3.34) scalarmente per z , si ottiene a primo membro:
(x
∧ y) ∧ z · z = (x ∧ y) · z ∧ z = 0
e a secondo membro:
·
·
λx z + µy z = 0, da cui segue che `e possibile determinare un numero reale ρ per cui:
λ =
−ρ(y · z),
·
µ = ρ(x z).
L’identit`a 1. e` dimostrata se si verifica che ρ non dipende dalla scelta dei vettori x, y, z. Supposto per assurdo che ρ dipenda, ad esempio, da z, si ponga:
(x
∧ y) ∧ z = ρ(z)[(x · z)y − (y · z)x].
(3.35)
Scelto un vettore arbitrario a di V 3 , moltiplicando scalarmente ambo i membri di (3.35) per a, si ha:
(z
∧ a) · (y ∧ x) = ρ(z)[(x · z)(y · a) − (y · z)(x · a)].
(3.36)
Scambiando nell’identit`a (3.36) i vettori z e a si ottiene:
·
· − (y · z)(x · a)] = ρ(a)[(x · z)(y · a) − (y · z)(x · a)].
ρ(z)[(x z)(y a)
Quindi si deduce che ρ(a) = ρ(z). In modo analogo si dimostra che ρ non dipende dai vettori x e w.
2. Segue da 1. sostituendo a z il vettore z w, rispettivamente.
∧ w e scambiando i ruoli di x e y con z e
3. Segue da 1. moltiplicando scalarmente ambo i membri per w. 4. Segue da 1. in modo immediato.
Calcolo Vettoriale
134
Osservazione 3.22 1. Siano x, y, z vettori di V 3 non complanari. L’identit`a 1. del Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che il vettore (x y) z appartiene al piano vettoriale individuato dai vettori x e y. ` evidente da questa identit`a che non vale, in generale, la propriet`a associativa del E prodotto vettoriale, infatti:
∧ ∧
(x
∧ y) ∧ z = x ∧ (y ∧ z),
∧ ∧
in quanto il vettore x (y z) appartiene al piano vettoriale individuato da y e da z che, in generale, non coincide con il piano vettoriale individuato da x e da y. 2. Se nell’identit`a 3. del Teorema 3.25 si pone x = z e y = w si ha: 2
2
2
2
x ∧ y = x y − (x · y) . ` di grande imLa relazione appena ottenuta e` nota come identit `a di Lagrange. E portanza nello studio delle propriet`a delle superfici nello spazio, (cfr. per esempio [11]), in quanto esprime la norma del prodotto vettoriale di due vettori solo ` anche doveroso osservare che l’identit`a di in termini del loro prodotto scalare. E Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza necessariamente considerare la dimostrazione dell’identit a` 3. 3. La relazione 4. del Teorema 3.25 prende il nome di identit `a di Jacobi e riveste un’importanza notevole nello studio delle algebre di Lie. Per maggiori approfondimenti sull’argomento si vedano per esempio [2] o [13].
Capitolo 4 Spazi Vettoriali e Sottospazi Vettoriali 4.1
Spazi vettoriali
In questo paragrafo viene introdotta la definizione di spazio vettoriale, concetto su cui si basa l’algebra lineare. Nel testo si studieranno, salvo avviso contrario, solo gli spazi vettoriali costruiti sul campo dei numeri reali, cio e` solo spazi vettoriali reali. Cenni sugli spazi vettoriali complessi sono stati inseriti nei paragrafi “Per saperne di pi u` ”. La definizione di spazio vettoriale trae origine dal ben noto esempio dell’insieme dei vettori V 3 nello spazio tridimensionale ordinario, trattato nel capitolo precedente. Si intende introdurre tale concetto in modo astratto con il duplice scopo di dimostrare teoremi dalle conseguenze fondamentali nel caso dello spazio vettoriale ordinario V 3 e di estendere tali nozioni a spazi vettoriali di dimensione superiore a tre.
Definizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o spazio vettoriale reale se sono definite su V le due operazioni seguenti: A. la somma:
× V −→ V,
+ : V
(x, y)
−→ x + y
rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le propriet `a:
∈ V (propriet a` commutativa); (x + y) + z = x + (y + z), x, y, z ∈ V (propriet a` associativa); ∃ o ∈ V | x + o = x, x ∈ V (esistenza dell’elemento neutro); ∀x ∈ V ∃ − x ∈ V | x + (−x) = o (esistenza dell’opposto);
1. x + y = y + x, 2. 3. 4.
x, y
135
Spazi Vettoriali e Sottospazi Vettoriali
136
B. il prodotto per numeri reali:
R
× V −→ V,
(λ, x)
−→ λx
per cui valgono le seguenti propriet a` :
∈ V, λ ∈ R ; (λ + µ)x = λ x + µx, x ∈ V, λ,µ ∈ R ; (λµ)x = λ(µx), x ∈ V, λ, µ ∈ R ; 1 x = x , x ∈ V .
1. λ(x + y) = λ x + λy, 2. 3. 4.
x, y
Gli elementi di V prendono il nome di vettori e saranno, in generale, indicati con le lettere minuscole in grassetto. Gli elementi di R prendono il nome di scalari , quindi il prodotto di un numero reale per un vettore e` spesso anche detto prodotto di uno scalare per un vettore. L’elemento neutro o di V e` detto vettore nullo , mentre il vettore x e` l’opposto del vettore x.
−
Osservazione 4.1 Si puo` introdurre una definizione analoga di spazio vettoriale ma costruito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri complessi C . Nel caso della definizione su C, lo spazio vettoriale si dice anche spazio vettoriale complesso. ` chiaro che il campo dei numeri reali R e` un esempio evidente di Osservazione 4.2 E spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del resto si otterrr`a come caso particolare dell’Esempio 4.3, ma R e` anche un esempio di spazio vettoriale sul campo dei numeri razionali Q .
Osservazione 4.3 Si osservi che le propriet`a B. 1. e B. 2. , a differenza di quanto accade per ( R, +, ) con l’usuale somma e prodotto di numeri reali, non possono essere chiamate propriet`a distributive del prodotto rispetto alla somma, in quanto esse coinvolgono elementi appartenenti ad insiemi diversi. Analogamente, la propriet`a B. 3. non e` la propriet`a associativa.
·
Verranno descritti di seguito gli esempi ritenuti pi u` significativi, si rimanda al Paragrafo 4.5 per ulteriori esempi ed esercizi.
Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio vettoriale appena definita. Gli insiemi dei vettori di una retta vettoriale V 1 , di un piano vettoriale V 2 e dello spazio vettoriale ordinario V 3 sono esempi di spazi vettoriali su R, rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore definite nel Capitolo 3 .
Capitolo 4
137
Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali, definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di somma di matrici e di prodotto di un numero reale per una matrice l a` definite. Esempio 4.3 L’esempio fondamentale:
Rn = (x1 , x2, . . . , xn) xi
| ∈ R, i = 1, 2, . . . , n}
{
e` un caso particolare dell’esempio precedente ma, visto il ruolo fondamentale che avr a` in tutto il testo, verr`a trattato a parte. La somma di due n -uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di R n e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn) = (x1 + y1 , x2 + y2 , . . . , xn + yn). Il vettore nullo di Rn e` dato dalla n -upla (0, 0,..., 0) e l’opposto del vettore (x1 , x2 , . . . , xn ) e` il vettore ( x1 , x2 , . . . , xn ) . Il prodotto di un numero reale λ per un elemento (x1 , x2 , . . . , xn ) di R n e` definito da:
− −
−
λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λ xn). Esempio 4.4 Il campo dei numeri razionali Q e` un esempio di spazio vettoriale su Q (ma non su R ), analogamente il campo dei numeri complessi C ha la struttura di spazio vettoriale su se stesso e anche su R . Si lascia per esercizio la spiegazione dettagliata di tali affermazioni. Esempio 4.5 L’insieme delle funzioni reali di variabile reale (R) = f : R un esempio di spazio vettoriale su R , dove la somma di due elementi f e g di definita da:
F
{
−→ R} e` F (R) e`
∈R e il prodotto di un numero reale λ per una funzione f ∈ F (R) e` : (λf )(x) = λ(f (x)), x ∈ R. Si verifica facilmente che il vettore nullo e` la funzione nulla O , definita da O (x) = 0 , con x ∈ R , l’opposto di f e` la funzione −f definita in modo evidente: (−f )(x) = −f (x), x ∈ R. Pi`u in generale, anche l’insieme delle funzioni F ( I , V ) = {F : I −→ V } da un insieme I qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in cui la somma di funzioni ed il prodotto di un numero reale per una funzione sono definite come nel caso di F (R) ma considerando le operazioni dello spazio vettoriale V . (f + g)(x) = f (x) + g(x),
x
Spazi Vettoriali e Sottospazi Vettoriali
138
Esempio 4.6 Sia R [x] l’insieme dei polinomi nella variabile x a coefficienti reali, ossia:
R[x] = a0 + a1 x + . . . + anxn n
| ∈ N, a ∈ R, i = 0, 1, . . . , n},
{
i
( N = 0, 1, 2, . . . indica l’insieme dei numeri naturali). Le usuali operazioni di somma di polinomi e di prodotto di un numero reale per un polinomio conferiscono a R[x] la struttura di spazio vettoriale reale. Il vettore nullo e` dato dal numero reale 0 e l’opposto del polinomio p(x) = a 0 + a1 x + a2 x2 + . . . + an xn e` il polinomio:
{
}
2
n
− p(x) = −a − a x − a x − . . . − a x . 0
1
2
n
Vale il seguente teorema, il cui enunciato `e naturalmente intuibile.
Teorema 4.1 In uno spazio vettoriale reale V si ha:
1. il vettore nullo o e` unico; 2. per ogni vettore x
∈ V l’opposto −x e` unico;
∈ V si ha x + y = x + z, allora y = z ; λx = o (con λ ∈ R e x ∈ V ) ⇐⇒ λ = 0 oppure x = o ; (−1)x = −x , per ogni x ∈ V.
3. se per x , y, z 4. 5.
Dimostrazione 4.5.
La dimostrazione, quasi un esercizio, si pu`o leggere nel Paragrafo
{ }
Osservazione 4.4 L’insieme o formato dal solo vettore nullo e` un esempio di spazio vettoriale reale. Si osservi che e` l’unico spazio vettoriale reale con un numero finito di elementi.
4.2
Sottospazi vettoriali
La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo paragrafo, intende estendere il concetto, gi`a considerato nel capitolo precedente, degli insiemi dei vettori di una retta vettoriale V 1 e di un piano vettoriale V 2 visti come sottoinsiemi dello spazio vettoriale V 3 .
Capitolo 4
4.2.1
139
Definizione ed esempi
W ⊆
Definizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme V e` un sottospazio vettoriale di V se e` uno spazio vettoriale rispetto alle stesse operazioni di V, ossia se `e chiuso rispetto alle operazioni di somma e di prodotto per scalari definite in V, vale a dire:
W
∀x, y ∈ W =⇒ x + y ∈ W , ∀λ ∈ R, ∀x ∈ W =⇒ λx ∈ W , che equivale a:
∀λ, µ ∈ R, ∀x, y ∈ W =⇒
∈ W .
λx + µy
1. Un sottoinsieme H di un gruppo G e` un sottogruppo se e` un Osservazione 4.5 gruppo con il prodotto definito in G . Pertanto, poich´e uno spazio vettoriale V e` un gruppo commutativo rispetto all’operazione di somma, un sottospazio vettoriale di V e` un sottogruppo di V .
W
2. Segue dalla Definizione 4.2 e dalla propriet`a 4. del Teorema 4.1 che il vettore nullo o di uno spazio vettoriale V deve necessariamente appartenere ad ogni sottospazio vettoriale di V .
W
Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e o . Essi coincidono se e solo se V = o . Tali sottospazi vettoriali si dicono improprii.
{}
{}
Esempio 4.8 L’insieme dei vettori ordinari di ogni piano vettoriale V 2 e` un sottospazio vettoriale dell’insieme dei vettori dello spazio V 3 . L’insieme dei vettori di una retta vettoriale V 1 e` un sottospazio vettoriale del piano vettoriale V 2 che la contiene e ogni retta vettoriale `e un sottospazio vettoriale di V 3 . Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R , l’insieme dei numeri razionali Q (spazio vettoriale su Q ) non `e un sottospazio vettoriale dello spazio vettoriale reale R , in quanto su Q non e` definito lo stesso prodotto per scalari di R . Infatti, il prodotto di un numero reale per un numero razionale non e` necessariamente razionale.
∈ R e f : R −→ R la funzione definita da f (x) = ax ; l’insieme: W = {f ∈ F (R) | a ∈ R} e` un sottospazio vettoriale dello spazio vettoriale reale F (R) introdotto nell’Esempio 4.5. Infatti se f , f ∈ W , allora per ogni λ, µ ∈ R , si ha che λf + µf ∈ W , poich´e Esempio 4.10 Sia a
a
a
a
a
b
λf a + µf b = f λa+µb . La verifica `e lasciata al Lettore per esercizio.
a
b
Spazi Vettoriali e Sottospazi Vettoriali
140
Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti reali, introdotto nell’Esempio 4.6. Sottospazi vettoriali notevoli di R [x] sono gli insiemi dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si indica con:
Rn [x] = a0 + a1 x + a2 x2 + . . . + anxn ai
| ∈ R, i = 0, 1, 2, . . . , n}
{
il sottospazio vettoriale dei polinomi di grado minore o uguale ad n . La verifica che Rn[x] sia un sottospazio vettoriale di R [x] e` lasciata per esercizio. In particolare, quindi, l’insieme R e` un sottospazio vettoriale di R [x] in quanto pu o` essere visto come l’insieme dei polinomi di grado zero. In generale, l’insieme dei polinomi di grado fissato n > 0 non e` un sottospazio vettoriale di R [x] , anche se e` un sottoinsieme di Rn [x] . Infatti, per esempio, l’insieme dei polinomi di grado 3 : 2
P = {a + a x + a x 0
1
2
+ a3 x3
∈ R [x] | a ∈ R, i = 0, 1, 2, 3, a = 0 } 3
3
i
non `e un sottospazio vettoriale di R 3 [x] in quanto non contiene il vettore nullo di R 3 [x]. Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello spazio vettoriale R n . Per capire meglio la teoria, si inizia con un esercizio.
Esercizio 4.1 Dati i seguenti sottoinsiemi di R 3 :
A = {(x , x , x ) ∈ R | 2x + 3x − x = 0}, B = {(x , x , x ) ∈ R | 2x + 3x − x = x + x = 0}, C = {(x , x , x ) ∈ R | 2x + 3x − x = 5}, D = {(x , x , x ) ∈ R | 2x + 3x − x = 0}, 1
2
3
1
2
3
1
2
3
1
2
3
3
3
3
3
1
2
3
1
2
3
1
2
3
2 1
2
2
3
3
dire quali sono sottospazi vettoriali di R 3 giustificando la risposta. e` un sottospazio vettoriale di R 3 . Infatti, siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) Soluzione due elementi di ossia tali che 2x1 + 3x2 x3 = 2y1 + 3y2 y3 = 0 , si verifica che la loro somma (x1 + y1 , x2 + y2 , x3 + y3 ) e` un elemento di , vale a dire:
A A
−
−
A
− (x + y ) = 0, che e` ovvia conseguenza dell’appartenenza ad A di (x , x , x ) e di (y , y , y ) . Analogamente si verifica che λ(x , x , x ) = (λx , λx , λx ) e` un elemento di A per ogni λ ∈ R e per ogni (x , x , x ) ∈ A . 2(x1 + y1 ) + 3(x2 + y2 )
3
3
1
1
1
2
3
2
3
1
2
3
2
3
1
2
3
Capitolo 4
141
Si dimostra in modo analogo che e` un sottospazio vettoriale di R 3 . ` facile osservare che E non e` un sottospazio vettoriale di R3 perch´e non contiene il vettore nullo di R 3 , in altri termini l’equazione lineare che definisce non `e omogenea.
B
C
C
D non `e un sottospazio vettoriale di R , pur contenendo il vettore nullo di R , infatti dati 0. (1, 0, 2), (2, 0, 8) ∈ D la loro somma (3, 0, 10) non appartiene a D in quanto 2 ·3 −10 = 3
3
2
L’esercizio precedente suggerisce il seguente risultato di carattere generale.
Esempio 4.12 – Esempio fondamentale di sottospazio vettoriale – L’insieme delle soluzioni di un sistema lineare omogeneo di m equazioni in n incognite e` un sottospazio vettoriale di Rn . La verifica, che e` conseguenza evidente dell’esempio precedente, puo` essere anche ottenuta procedendo in modo sintetico. Infatti, usando la notazione matriciale di un sistema lineare omogeneo AX = O , con A Rm,n, X Rn,1 , O Rm,1 (cfr. Par. 2.2.1), si ha che l’insieme delle soluzioni del sistema lineare omogeneo AX = O coincide con l’insieme:
∈
∈
∈
N (A) = {X ∈ R | AX = O }, dove si identifica R con R . Dati X , X ∈ N (A) , allora AX = AX = O . Si deve dimostrare che λX + µX ∈ N (A) per ogni λ, µ ∈ R , ma: n
n,1
1
n
1
2
1
2
2
A(λX 1 + µX 2 ) = λAX 1 + µAX 2 = O. Il sottospazio vettoriale catore) della matrice A
N (A) di R ∈R .
n
prende il nome di nullspace (o annullatore o nullifi-
m,n
{ }
Esercizio 4.2 Ogni sottospazio vettoriale, diverso da o , di uno spazio vettoriale reale contiene sempre un numero infinito di vettori? Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle matrici R m,n . Le verifiche sono lasciate per esercizio.
Esempio 4.13 Il sottoinsieme (Rn,n) di Rn,n (spazio vettoriale delle matrici quadrate di ordine n ) formato dalle matrici diagonali, definito in (2.2), e` un sottospazio vettoriale di R n,n .
D
Esempio 4.14 Il sottoinsieme (Rn,n ) di Rn,n delle matrici triangolari superiori, definite in (2.6), `e un sottospazio vettoriale di R n,n ; analoga affermazione vale per il sottoinsieme delle matrici triangolari inferiori.
T
Spazi Vettoriali e Sottospazi Vettoriali
142
Esempio 4.15 L’insieme delle matrici simmetriche (cfr. (2.7)):
S (R
n,n
{ ∈ R | A = A} , infatti se A , A ∈ S (R )= A
n,n
t
n,n ) si ha che tA1 = A1 e e` un sottospazio vettoriale di Rn,n 1 2 t A2 = A2 , allora t (A1 + A2 ) = tA1 + tA2 = A1 + A2 , la dimostrazione della chiusura rispetto al prodotto per un numero reale e` lasciata per esercizio.
Esempio 4.16 L’insieme delle matrici antisimmetriche (cfr. (2.8)):
A(R
n,n
{ ∈ R | A + A = O }
)= A
n,n
t
e` un sottospazio vettoriale di Rn,n (per la dimostrazione si procede in modo analogo all’esempio precedente).
Osservazione 4.6 Si osservi che l’insieme delle matrici ortogonali (cfr. (2.9)):
{ ∈ R | A A = I }
O(n) = A
n,n
t
non `e un sottospazio vettoriale di R n,n , perch´e non contiene il vettore nullo di R n,n .
Osservazione 4.7 Si osservi che l’insieme:
{A ∈ R | det(A) = 0} n,n
non `e un sottospazio vettoriale di R n,n , se n > 1. Perch´e?
Osservazione 4.8 Si osservi che l’insieme:
{A ∈ R | tr(A) = 0} n,n
e` un sottospazio vettoriale di R n,n , mentre l’insieme:
{A ∈ R | tr(A) = 2} n,n
non lo e` . dei polinomi divisibili per 3x 1 . Esempio 4.17 In R4 [x] si consideri l’insieme Si puo` verificare che e` un sottospazio vettoriale di R4 [x] . Infatti ogni polinomio e` della forma p(x) = (3x 1)q (x) , con q (x) polinomio di grado 3 . Quindi, p(x) per ogni p 1 (x) = (3x 1)q 1 (x), p2 (x) = (3x 1)q 2 (x) e per ogni λ, µ R , si ha:
∈ W
W −
W
−
λp1 (x) + µp2 (x) = =
−
− ∈ W λ(3x − 1)q (x) + µ(3x − 1)q (x) (3x − 1)(λq (x) + µq (x)) ∈ W . 1
2
1
2
≤
∈
Capitolo 4
4.2.2
143
Intersezione e somma di sottospazi vettoriali
W W
Dati due sottospazi vettoriali 1, 2 di uno spazio vettoriale reale V, si vuole stabilire se la loro intersezione insiemistica e la loro unione insiemistica siano ancora sottospazi vettoriali di V. Si inizia con il seguente teorema.
Teorema 4.2 L’intersezione insiemistica
W ∩ W e` un sottospazio vettoriale di V . 1
2
` immediata conseguenza delle definizioni di sottospazio vettoriale e E Dimostrazione di intersezione insiemistica.
Esempio 4.18 Si considerino i sottospazi vettoriali di R 3 :
W = {(x , x , x ) ∈ R | 3x + x + x = 0}, W = {(x , x , x ) ∈ R | x − x = 0}. 1
1
2
3
2
1
2
3
3
3
1
1
2
3
3
La loro intersezione e` il sottospazio vettoriale:
W ∩ W 1
2
= =
{(x , x , x ) ∈ R | 3x + x + x = x − x = 0} {(a, −4a, a) ∈ R | a ∈ R}. 1
2
3
3
1
2
3
1
3
3
Esempio 4.19 In V 3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base ortonormale positiva = (i, j, k), i sottospazi vettoriali:
B
W = L(i, j), W = L(i, k) 1
2
si intersecano nella retta vettoriale:
W ∩ W = L(i). 1
2
L
Si ricordi che la notazione (a) indica l’insieme di tutti i vettori che sono paralleli ad a, analogamente (a, b) indica l’insieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel Paragrafo 4.3 si generalizzer`a questa notazione.
L
Osservazione 4.9 L’unione insiemistica di due sottospazi vettoriali di uno spazio vettoriale V non e` , in generale, un sottospazio vettoriale di V, come si deduce dagli esempi prima citati. Infatti si ha:
W ∪ W non e` un sottospazio vettoriale di R perch´e, per −5) ∈ W insieme con (2, 3, 2) ∈ W non appartiene a
nell’Esempio 4.18 l’unione esempio, la somma di (1, 2, 1 2;
W ∪ W
1
3
2
1
2
nell’Esempio 4.19 il vettore v = (2i + 3 j)+(4k) non appartiene a somma di un vettore di 1 e di un vettore di 2 .
W
W
W ∪W , pur essendo 1
2
Spazi Vettoriali e Sottospazi Vettoriali
144
Esercizio 4.3 In quali casi l’unione di due sottospazi vettoriali di uno spazio vettoriale V e` un sottospazio vettoriale di V ? Gli esempi precedenti giustificano la seguente definizione.
W e W sottospazi vettoriali di uno spazio vettoriale reale V, si W e W l’insieme: W + W = {x + x | x ∈ W , x ∈ W }. Teorema 4.3 1. W + W e` un sottospazio vettoriale di V . 2. W + W e` il pi`u piccolo sottospazio vettoriale di V contenente W e W . Definizione 4.3 Dati definisce somma di
1
2
1
2
1
2
1
1
1
2
1
1
2
2
2
2
1
2
1. Segue dalle definizioni di somma di sottospazi vettoriali e di sotto-
Dimostrazione
spazio vettoriale.
2.
W ⊆ W + W in quanto i suoi elementi possono essere scritti come x + o , per ogni x ∈ W , considerando il vettore nullo o come elemento di W . Dimostrazione analoga per W . La somma W + W e` il piu` piccolo sottospazio vettoriale contenente sia W sia W perch´e ogni altro sottospazio vettoriale con questa propriet`a deve necessariamente contenere tutte le combinazioni lineari di elementi di W e di W e, quindi, deve contenere W + W . 1
1
2
1
2
2
1
1
1
2
2
2
1
2
La definizione di somma di due sottospazi vettoriali si estende in modo naturale a quella di pi`u di due sottospazi vettoriali.
W
Definizione 4.4 Siano i , i = 1, 2, . . . , k , sottospazi vettoriali di uno spazio vettoriale reale V . La loro somma `e data da:
W + W + . . . + W = {x + x + . . . + x | x ∈ W , i = 1, 2, . . . k}. 1
2
k
1
2
k
i
i
Anche in questo caso si pu`o dimostrare una propriet`a analoga al Teorema 4.3. Si presti particolare attenzione ai seguenti esempi.
Esempio 4.20 Si considerino i sottospazi vettoriali di R 3 :
W = {(x , x , 0) ∈ R | x , x ∈ R}, W = {(0, 0, x ) ∈ R | x ∈ R}. 1
2
1
3
2
3
3
1
3
2
Capitolo 4
145
3 Si verifica che 1 2 = o e 1 + 2 = R . Ogni elemento (x1 , x2 , x3 ) si scrive, in modo unico, come somma di un elemento di 1 e di un elemento di infatti:
W ∩ W { } W W
∈ R W ,
W
3
2
(x1 , x2 , x3 ) = (x1 , x2 , 0) + (0, 0, x3 ). Esempio 4.21 Si considerino i sottospazi vettoriali di R 3 :
W = {(x , x , 0) ∈ R | x , x ∈ R}, Z = {(x , 0, x ) ∈ R | x , x ∈ R}. Si verifica che W ∩ Z = { (x , 0, 0) ∈ R | x ∈ R} e W + Z = R . In questo caso, per esempio, (1, 2, 3) ∈ R si pu`o scrivere in infiniti modi diversi come somma di un elemento di W e di un elemento di Z , infatti: (1, 2, 3) = (a, 2, 0) + (b, 0, 3), con a, b ∈ R | a + b = 1. 1
1
2
1
1
2
3
2
3
3
1
3
1 3
1
1
2
3
1
1
2
3
2
Ci`o suggerisce la seguente definizione.
W W
Definizione 4.5 Siano 1 , 2 sottospazi vettoriali di uno spazio vettoriale reale V, la loro somma 1 + 2 si dice diretta e si scrive:
W W
W ⊕ W 1
2
∈ W ⊕ W si decompone in modo unico come x = x ∈ W .
se ogni vettore x x1 1 e x2
∈ W
1
2
1
+ x 2 , con
2
La precedente definizione si estende a pi`u di due sottospazi vettoriali nel modo seguente.
W
Definizione 4.6 Siano i , i = 1, 2, . . . k , sottospazi vettoriali di uno spazio vettoriale reale V ; la loro somma si dice diretta e si scrive:
W ⊕ W ⊕ . . . ⊕ W se ogni vettore x ∈ W ⊕ W ⊕ . . . ⊕ W si decompone in modo unico come: 1
1
2
2
k
k
x = x 1 + x2 + . . . + xk ,
∈ W , i = 1, 2, . . . k .
con xi
i
Sar`a utile la seguente definizione.
Spazi Vettoriali e Sottospazi Vettoriali
146
W W , sottospazi vettoriali di uno spazio vettoriale reale V, si dicono W ⊕ W = V.
Definizione 4.7 1 e supplementari in V se:
2
1
2
Osservazione 4.10 Dalla Definizione 3.5 segue che:
L(i) ⊕ L( j) ⊕ L(k) = L(i, j) ⊕ L(k) = L(i, j) ⊕ L( j + k) = . . . . . . . In V esistono infiniti sottospazi vettoriali supplementari di L(i, j). V 3 =
3
Teorema 4.4 Lo spazio vettoriale R n,n delle matrici quadrate di ordine n si decompone nel modo seguente:
Rn,n = (Rn,n)
S
⊕ A(R
n,n
),
dove (Rn,n ) indica il sottospazio vettoriale delle matrici simmetriche di Rn,n e (Rn,n ) e` il sottospazio vettoriale delle matrici antisimmetriche, definiti negli Esempi 4.15 e 4.16.
S
A
Dimostrazione
Segue dalla scrittura:
1 1 A = (A + tA) + (A 2 2
t
− A),
con A
e dal fatto che A + tA e` una matrice simmetrica, mentre A
∈R
n,n
t
− A e` antisimmetrica.
Il seguente teorema caratterizza la somma diretta di due sottospazi vettoriali.
W e W di uno spazio vettoriale W ∩W si riduce al solo vettore nullo.
Teorema 4.5 La somma di due sottospazi vettoriali reale V e` diretta se e solo se la loro intersezione 1 In formule:
1
2
2
W = W ⊕ W ⇐⇒ W = W + W e W ∩ W = {o}. Sia W = W + W , si vuole provare che W = W ⊕ W se e solo se Dimostrazione W ∩ W = {o}. Si supponga che la somma dei due sottospazi vettoriali W + W = W sia diretta. Allora ogni x ∈ W si scrive in modo unico come x + x , con x ∈ W e x ∈ W . Per assurdo, se esistesse un vettore non nullo y ∈ W ∩ W allora l’espressione: x = (x + y) + ( x − y) contraddirebbe l’ipotesi. Pertanto si ha W ∩ W = {o} . 1
2
1
1
1
2
1
2
2
1
2
2
1
1
2
1
1
1
2
1
2
2
2
1
2
2
Capitolo 4
147
W ∩ W = {o} e che per assurdo la somma W + W = W ∈ W = W + W tale che:
Viceversa, si supponga che 1 non sia diretta, ovvero che esista x
2
1
1
2
2
x = x 1 + x2 = y 1 + y2 ,
∈ W , x , y ∈ W e x = y oppure (o anche) x = y . Segue che − −x + y ∈ W ∩ W da cui si perviene ad una contraddizione dell’ipotesi W ∩ W = {o} . con x1 , y1 x1 y1 = 1
1
2
2
2
2
2
1
1
1
2
2
2
2
L’esempio che segue mostra che il teorema precedente non pu o` essere esteso in modo ovvio al caso della somma diretta di pi u` di due sottospazi vettoriali.
Esempio 4.22 In V 3 , rispetto ad una base ortonormale positiva rino i seguenti sottospazi vettoriali:
B = (i, j, k) , si conside-
W = L(i, j); W = L(i + k); W = L( j + k). ` chiaro che W ∩ W ∩ W = { o} , W ∩ W = W ∩ W = W ∩ W = { o} , e E W + W + W = V ma la loro somma W + W + W non `e diretta; per esempio: 1
2
1
1
2
2
3
3
1
3
i + j + k = [ai + (1
3
2
1
1
2
3
2
3
3
− a) j] + [(1 − a)i + (1 − a)k] + (a j + ak),
con a
∈ R,
contraddice la Definizione 4.6. Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di pi`u di due sottospazi vettoriali mediante le loro intersezioni, `e, infatti, il seguente.
Teorema 4.6 Sia V uno spazio vettoriale e siano di V , allora:
W , W , . . . , W sottospazi vettoriali 1
2
k
W = W ⊕ W ⊕ . . . ⊕ W ⇐⇒ W = W + W + . . . + W e W ∩ (W + W + . . . + W + . . . + W ) = {o}, i = 1, 2, . . . k , 1
2
i
W (
i indica
1
k
1
2
i
che si deve escludere il sottospazio vettoriale
2
k
k
W dalla somma). i
Per la dimostrazione si veda ad esempio [15].
Esercizio 4.4 Avvertenza Questo esercizio e` risolto a titolo di esempio per chiarire i concetti appena esposti. Nel paragrafo successivo verr`a introdotto un metodo pi`u rapido per risolvere problemi analoghi.
Spazi Vettoriali e Sottospazi Vettoriali
148
In R 4 si considerino i sottospazi vettoriali:
W = {(x , x , x , x ) ∈ R | x + 2x + 3x + x = 0}, W = {(x , x , x , x ) ∈ R | x + x = x + x = x − x + x = 0}, dimostrare che W ⊕ W = R . Soluzione Innanzi tutto si osservi che effettivamente W e W sono sottospazi vettoriali di R essendo definiti tramite sistemi lineari omogenei. La loro intersezione W ∩W coincide con l’insieme delle soluzioni del sistema lineare omogeneo formato da tutte le equazioni che definiscono W e da tutte le equazioni che definiscono W , nel nostro caso 1
1
2
3
4
2
1
2
3
4
1
4
1
4
2
1
3
2
4
1
3
1
2
3
4
2
1
2
4
1
1
si ha:
2
2
x1 + 2x2 + 3x3 + x4 = 0 x1 + x2 = 0 x1 + x3 = 0 x1 x2 + x3 = 0
−
le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei coefficienti:
A =
1 1 1 1
−
2 1 0 1
3 0 1 1
1 0 0 0
.
W ∩ W = {o} . Per dimostrare che W + W = R si devono scrivere esplicitamente le espressioni dei vettori di W e di W . Nel primo caso, risolvendo l’equazione che definisce W , si ottiene che (x , x , x , x ) ∈ W se: (x , x , x , x ) = (−2t − 3t − t , t , t , t ), con t , t , t ∈ R. Invece, risolvendo il sistema lineare che definisce W , si ha che (x , x , x , x ) ∈ W se: (x , x , x , x ) = (0, 0, 0, λ), con λ ∈ R. Si perviene alla tesi provando che un generico vettore (x , x , x , x ) ∈ R si pu`o scrivere come somma di un vettore di W e di un vettore di W , in altri termini dato (x , x , x , x ) esistono opportuni valori di t , t , t , λ ∈ R per cui: (x , x , x , x ) = ( −2t − 3t − t , t , t , t + λ). Si ricavano infatti t , t , t , λ ∈ R dalla scrittura stessa. Il Teorema 4.5 e il calcolo Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue 1
1
2
1
1
2
3
4
1
2
3
4
1
1
1
2
3
1
2
3
1
2
3
1
1
2
2
3
4
2
3
4
2
3
4
4
2
4
1
3
4
1
3
2
1
1
2
2
2
2
1
1
4
1
2
3
2
3
1
2
3
3
dell’intersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.
2
Capitolo 4
4.3
149
Generatori, basi e dimensione
In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V, alcune definizioni e propriet`a gi`a enunciate nel caso particolare di V 3 (cfr. Par. 3.4). Si e` scelto questo approccio da un lato perch´e si ritiene didatticamente utile iniziare lo studio di una teoria astratta e a volte ostica partendo dal caso, pi u` facile, dello spazio vettoriale V 3 , dall’altro perch´e si e` deciso di non far sempre riferimento al Capitolo 3 per rendere i due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.
4.3.1
Base di uno spazio vettoriale
Definizione 4.8 Dati k vettori v 1 , v2 , . . . , vk di uno spazio vettoriale reale V, si dice che un vettore x V e` combinazione lineare dei vettori v1 , v2 , . . . , vk se esistono k numeri reali x 1 , x2 , . . . xk tali che:
∈
x = x 1 v1 + x2 v2 + . . . + xk vk . I numeri reali x 1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare .
Fissati i vettori v1 , v2 , . . . , vk in V si vogliono considerare tutte le loro combinazioni lineari. Tale insieme indicato con:
L(v , v , . . . , v ), 1
2
k
o con v1 , v2 , . . . , vk , in inglese prende il nome di span di v1 , v2 , . . . , vk , di cui
{v , v , . . . , v } 1
2
k
` immediato dimostrare il seguente teorema. e` il sistema (o insieme) di generatori . E
L
Teorema 4.7 (v1 , v2 , . . . , vk ) e` un sottospazio vettoriale di V ed e` il piu` piccolo sottospazio vettoriale di V contenente i vettori v 1 , v2 , . . . , vk . Dimostrazione
` un esercizio che segue dalla definizione di sottospazio vettoriale. E
Osservazione 4.11 A differenza di ci`o che la notazione usata potrebbe far pensare, si osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dall’ordine in cui si considerano i vettori v1 , v2 , . . . , vk , cio`e ad esempio:
L(v , v , . . . , v ) = L(v , v , . . . , v ). 1
2
2
k
1
k
` consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale E anzich´e usare la notazione v1 , v2 , . . . , vk , che sarebbe piu` corretta dal punto di vista matematico.
L{
}
Spazi Vettoriali e Sottospazi Vettoriali
150
Esempio 4.23 In R4 , dati i due vettori v1 = (1, 0, 0, 2) e v2 = ( 1, 2, 0, 0) il piano vettoriale (v1 , v2 ) e` un sottospazio vettoriale di R 4 .
−
L
Definizione 4.9 Sia V uno spazio vettoriale reale e siano v 1 , v2 , . . . , vk vettori qualsiasi di V. Si dice che un sottospazio vettoriale di V ammette come sistema di generatori l’insieme dei vettori v1 , v2 , . . . , vk se:
{
W
}
W = L(v , v , . . . , v ). 1
2
k
Il teorema che segue, la cui dimostrazione `e un esercizio, permette di cambiare i generatori di un sottospazio vettoriale.
W L
Teorema 4.8 Dato = (v1 , v2 , . . . , vk ) , si possono aggiungere o sostituire pi`u generatori di con loro combinazioni lineari.
W
Ad esempio, come conseguenza del teorema precedente, si ottiene:
W = L(v , v , . . . , v , . . . , v , λv + µv ) = L(v , v , . . . , ˆv , . . . , v , v + λv ), per ogni λ, µ ∈ R e per ogni l,m,i, j nell’insieme {1, 2, . . . , k} e dove con il simbolo ˆ si indica che si `e tolto il vettore v dall’elenco dei generatori di W . v 1
2
i
k
i
l
1
m
2
i
k
i
j
i
Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene an= (v1 , v2 , . . . , vk ) ammette infiniti generatori e quindi ha infiniti sistemi di che che generatori.
W L
{ }
L { }
Osservazione 4.13 Nell’Esempio 4.23 l’insieme i, j `e un sistema di generatori di (i, j) ma anche 2i, 3i + 2 j e` un altro insieme di generatori di (i, j) e cos`ı via, ma i non e` un sistema di generatori di (i, j) .
{
}
L
L
Definizione 4.10 Uno spazio vettoriale reale V si dice finitamente generato se esistono m vettori v1 , v2 , . . . , vm di V per cui:
L(v , v , . . . , v ) = V. Analogamente, un sottospazio vettoriale W di uno spazio vettoriale reale 1
2
m
finitamente generato se esistono k vettori v1 , v2 , . . . , vk tali che:
L(v , v , . . . , v ) = W . 1
2
k
V si dice
Capitolo 4
151
Esempio 4.24 Lo spazio vettoriale dei numeri reali pu o` essere generato da un qualsiasi numero non nullo: R = (1) = (35) e quindi e` un esempio di spazio vettoriale reale finitamente generato. Analogamente, l’insieme dei numeri complessi C e` uno spazio vettoriale reale finitamente generato in quanto C = (1, i) , dove con i si indica l’unit`a immaginaria. D’altra parte C e` anche uno spazio vettoriale complesso finitamente generato perch´e, in questo caso, C = (1) .
L
L
L
L
Esempio 4.25 Rn e` finitamente generato, per esempio:
R3 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) = ((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)).
L
L
Esempio 4.26 R2,2 e` generato, per esempio, dalle matrici:
1 0 0 0
0 1 0 0
,
,
0 0 1 0
0 0 0 1
,
,
ma anche dalle matrici:
− 2 0 0 0
,
0 4 0 0
,
0 0 7 0
−
,
0 0 0 8
0 0 0 0
,
,
7 0
2 9
.
Osservazione 4.14 Si osservi che uno spazio vettoriale finitamente generato ammette un numero finito di generatori, ma cio` non significa che ogni suo sistema di generatori debba avere un numero finito di elementi. Le combinazioni lineari dei vettori che si considereranno nel testo saranno sempre somme finite. Le somme infinite, ossia le serie ed i problemi di convergenza che ne scaturiscono, sono invece studiati in Analisi Funzionale (cfr. per esempio [20]). Esempio 4.27 Lo spazio vettoriale R[x] dei polinomi a coefficienti in R e` un esempio di spazio vettoriale reale non finitamente generato. Infatti, se p1 (x), p2 (x), . . . , pk (x) sono k polinomi e d e` il loro massimo grado, allora ( p1 (x), p2 (x), . . . , pk (x)) non contiene polinomi di grado maggiore a d e quindi ( p1 (x), p2 (x), . . . , pk (x)) R[x], ` facile, invece, verificare che il sottospazio ma ( p1 (x), p2 (x), . . . , pk (x)) = R[x] . E vettoriale R n [x] dei polinomi di grado minore o uguale ad n e` finitamente generato:
L
L
L
⊂
Rn[x] = (1, x , x2 , . . . , xn ).
L
Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni reali di variabile reale (R) descritto nell’Esempio 4.5, non e` finitamente generato.
F
Spazi Vettoriali e Sottospazi Vettoriali
152
Esempio 4.29 Si consideri il sottospazio vettoriale di R 3 : 3
W = {(x , x , x ) ∈ R | 2x + 3x − x = x + x = 0} 1
2
3
1
2
3
2
3
introdotto nell’Esercizio 4.1 e se ne determini un sistema di generatori. A tale scopo si deve risolvere il sistema lineare omogeneo che definisce . Come descritto nel Paragrafo 1.2 si ottengono infinite soluzioni date da:
W
In altri termini, il generico vettore di (2, 1, 1) e` un generatore di .
−
W
x1 = 2t x2 = t x3 = t, t
−
∈ R.
W e` del tipo (2t, −t, t) = t(2, −1, 1), t ∈ R , ossia
In questo testo si studieranno solo spazi vettoriali finitamente generati, le definizioni e le propriet`a che seguono sono da considerarsi in questo contesto, anche se alcune di esse possono essere agevolmente riscritte nel caso di spazi vettoriali non finitamente generati, ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio approfondito degli spazi vettoriali non finitamente generati si pu o` far riferimento a testi di base di Analisi Funzionale (ad esempio [20]). Poich´e si vuole enunciare la definizione rigorosa di dimensione di uno spazio vettoriale V (finitamente generato), sono riprese e riformulate, in un contesto pi`u generale, alcune definizioni e propriet`a gi`a studiate nel capitolo precedente nel caso particolare dello spazio vettoriale V 3 .
Definizione 4.11 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi si dicono linearmente indipendenti se l’unica loro combinazione lineare uguale al vettore nullo ha coefficienti tutti nulli, vale a dire:
⇒
x1 v1 + x2 v2 + . . . + xk vk = o =
{
x1 = x 2 = . . . = x k = 0.
(4.1)
}
L’insieme v1 , v2 , . . . , vk di vettori linearmente indipendenti si dice libero. Di conseguenza, k vettori v1 , v2 , . . . , vk di V si dicono linearmente dipendenti se esiste almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli.
Osservazione 4.15 Si osservi che in (4.1) vale anche l’implicazione opposta. Prima di proporre alcuni esempi conviene dimostrare la seguente propriet`a, molto facile, ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.
Capitolo 4
153
Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V , essi sono linearmente dipendenti se e solo se almeno uno di essi si pu o` esprimere come combinazione lineare dei rimanenti. Si supponga che, per ipotesi, i vettori v 1 , v2 , . . . , vk siano linearmente Dimostrazione dipendenti, allora x 1 v1 + x2 v2 + . . . + xk vk = o , con x 1 = 0 (se il coefficiente non nullo non fosse x1 si potrebbe commutare in modo da porre al primo posto il coefficiente non nullo), e` perci`o possibile ricavare:
v1 =
− xx
2 1
v2
− . . . − xx
k
vk
1
da cui la tesi. Il viceversa e` lasciato per esercizio. La verifica degli esempi che seguono `e lasciata per esercizio.
I = {x} con x = o e` libero. Esempio 4.31 In V i vettori di una base ortonormale B = (i, j, k) sono linearmente indipendenti, lo stesso vale per ogni sottoinsieme non vuoto di B . Esempio 4.32 Se in un insieme di vettori I compare il vettore nullo, allora I non e` libero. L’insieme {o} non e` libero. Esempio 4.33 Se I e` un insieme libero di vettori, allora ogni sottoinsieme non vuoto di I e` libero. Esempio 4.34 Se I e` un insieme di vettori linearmente dipendenti allora ogni insieme che contiene I e` formato da vettori linearmente dipendenti. Esempio 4.30 Ogni insieme contenente un solo vettore 3
La definizione che segue estende la nozione di base gi a` data nel capitolo precedente nel caso particolare dello spazio vettoriale V 3 (cfr. Def. 3.7).
Definizione 4.12 Sia V uno spazio vettoriale reale, un insieme finito e ordinato di vettori = (v1 ,v2 ,...,vn ) di V prende il nome di base di V se:
B
1. 2.
B e` un insieme libero, B e` un sistema di generatori di V, ossia L(B) = V.
Osservazione 4.16 Si vedr`a che sar`a fondamentale l’ordine in cui sono considerati i vettori di una base.
Spazi Vettoriali e Sottospazi Vettoriali
154
B
Esempio 4.35 1. Una base ortonormale positiva = (i, j, k) e` un esempio di base di V 3 , in quanto verifica la definizione appena enunciata. 2. In R n una base e` data da
B = (e , e , . . . e ), dove: 1
e1 = (1, 0, . . . , 0),
2
n
e2 = (0, 1, . . . , 0),
...,
en = (0, 0, . . . , 1).
Questa base particolare, molto naturale, prende il nome di base standard o base canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna: (1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della particolare denominazione usata. Sempre in R4 se si considera, invece, la base = (f 1 , f 2 , f 3 , f 4 ) , dove:
B
f 1 = (2, 0, 0, 0),
f 2 = (0, 3, 0, 0),
si ha:
(1, 2, 3, 4) =
f 3 = (0, 0, 1, 0),
f 4 = (0, 0, 0, 4),
1 2 f 1 + f 2 + 3 f 3 + 1 f 4 2 3
che `e una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della precedente. 3. Analogamente al caso di R n , la base canonica dello spazio vettoriale delle matrici Rm,n e` formata, ordinatamente, dalle mn matrici E ij aventi il numero 1 al posto ij e 0 per ogni altro elemento. Nel caso particolare di R 2,3 la base canonica `e formata dalle 6 matrici seguenti:
E 11 =
E 21 =
1 0 0 0 0 0 0 0 0 1 0 0
,
E 12 =
,
E 22 =
0 1 0 0 0 0 0 0 0 0 1 0
,
E 13 =
,
E 23 =
0 0 1 0 0 0 0 0 0 0 0 1
quindi:
1 2 3 4 5 6
= E 11 + 2E 12 + 3E 13 + 4E 21 + 5E 22 + 6E 23 .
4. In R n [x] una base e` data dall’insieme
2
n
B = (1, x , x , . . . , x ).
Il teorema che segue caratterizza le basi di uno spazio vettoriale.
,
;
Capitolo 4
155
B
Teorema 4.10 1. Sia = (v1 , v2 , . . . , vn) una base dello spazio vettoriale reale V, allora ogni vettore x di V si decompone in modo unico come: x = x 1 v1 + x2 v2 + . . . + xn vn , con (x1 , x2 , . . . , xn )
{
∈R
n
(4.2)
.
}
2. Se v1 , v2 , . . . , vn e` un insieme di vettori di V tale che ogni vettore x di V si decomponga in modo unico rispetto a tali vettori come in (4.2), allora l’insieme v1 , v2 , . . . , vn e` una base di V .
{
}
La dimostrazione e` lasciata per esercizio. Il teorema appena enunciato conduce alla definizione di componenti di un vettore rispetto ad una base assegnata, nel modo seguente.
B
Definizione 4.13 Sia V uno spazio vettoriale di dimensione n. Fissata una base = (v1 , v2 , . . . , vn ) in V, per ogni vettore x di V i numeri reali x1 , x2 , . . . , xn individuati univocamente da (4.2), si dicono componenti di x rispetto alla base .
B
B
Osservazione 4.17 Fissata una base in uno spazio vettoriale V, con un abuso di linguaggio volto ad enfatizzare l’ordine delle componenti, si scriver`a che la n -upla di Rn (x1 , x2 , . . . , xn ) indica le componenti di x rispetto alla base . In modo equivalente, ogni vettore x di V si individua, rispetto alla base , con la matrice colonna X R n,1 data da:
B B B X =
B
x1 x2 .. .
xn
B
∈
.
in V, dati due vettori x e y di V le cui matrici Osservazione 4.18 Fissata una base colonne delle componenti, rispetto a , sono:
X =
x1 x2 .. .
,
xn
il vettore x + y ha componenti, rispetto a
X + Y =
:
Y =
x1 + y1 x2 + y2 .. .
xn + yn
y1 y2 .. .
yn
,
Spazi Vettoriali e Sottospazi Vettoriali
156
e il vettore λ x ( λ
∈ R ) ha componenti, rispetto a B : λX =
λx1 λx2 .. .
λxn
.
Si osservi, inoltre, l’assoluta coerenza tra le definizioni di somma di matrici e somma di vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale per un vettore. Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo naturale le seguenti domande: 1. in ogni spazio vettoriale esiste sempre almeno una base? 2. In caso affermativo, in uno spazio vettoriale quante basi esistono? 3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori contengono ciascuna? Nel caso particolare degli spazi vettoriali dei vettori ordinari V 3 , V 2 e V 1 , aiutati dalla visualizzazione geometrica, si conoscono gi`a le risposte alle precedenti domande (cfr. Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito all’altro i teoremi che caratterizzano la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro dimostrazioni.
Teorema 4.11 – Teorema di esistenza di una base – Sia V uno spazio vettoriale rea= w1 , w2 , . . . , wm un sistema di generatori di V. le finitamente generato e sia L’insieme contiene almeno una base di V .
G
G
{
}
Osservazione 4.19 Dal teorema precedente e dall’Osservazione 4.12 segue che, essendo possibile ottenere infiniti sistemi di generatori di V a partire da , esistono infinite basi in uno spazio vettoriale finitamente generato.
G
B }
Teorema 4.12 – Lemma di Steinitz – Sia = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale reale V e sia = u1 , u2 , . . . , u p un insieme libero di V, allora p n.
I {
≤
Teorema 4.13 – Teorema della dimensione – Tutte le basi di uno spazio vettoriale reale V finitamente generato hanno lo stesso numero di vettori.
Capitolo 4
157
Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei vettori appartenenti ad una base prende il nome di dimensione di V e si indica con dim(V ) .
{}
{}
Se V e` formato dal solo vettore nullo V = o , si pone dim( o ) = 0 . Dai teoremi elencati si ottiene in modo evidente il seguente teorema.
W un sottospazio vettoriale di uno spazio vettoriale reale V , allora: 1. se lo spazio vettoriale V e` finitamente generato anche W e` finitamente generato. 2. dim(W ) ≤ dim(V ). 3. dim(W ) = dim(V ) ⇐⇒ W = V.
Teorema 4.14 Sia
Esempio 4.36 Segue dall’Esempio 4.35 che:
• dim(R ) = n . • dim(R ) = mn . • dim(R [x]) = n + 1 . n
m,n
n
Per dimostrare il Teorema 4.11 `e necessario anteporre il seguente lemma tecnico.
I {
}
∈ I ∪ { }
Lemma 4.1 Sia = a1 , a2 , . . . , ak un insieme libero di V. Sia x V un vettore che non `e combinazione lineare dei vettori di , allora l’insieme x e` libero in V . Dimostrazione
I
Si procede per assurdo, i dettagli sono lasciati al Lettore.
La dimostrazione consiste in un numero finito di Dimostrazione del Teorema 4.11 passi applicati all’insieme , procedimento autorizzato dal fatto che e` finito. Si inizia supponendo che ogni vettore di sia diverso dal vettore nullo, in caso contrario si toglie il vettore nullo da . Primo passo: si considerano l’insieme 1 = w1 e i vettori rimanenti w i , i = 2, . . . , m . Se ogni vettore wi e` linearmente dipendente da w1 , ossia se esistono numeri reali λ i tali che wi = λi w1 , i = 2, . . . , m , allora 1 e` una base di V e il teorema e` dimostrato. In caso contrario si considera il primo vettore di che non verifica questa condizione. Sia, per esempio w2 / (w1 ) , si procede con il: secondo passo: si considera l’insieme libero (cfr. Lemma 4.1) 2 = w1 , w2 . Si presentano due possibilit`a: o ogni vettore rimanente in e` combinazione lineare dei vettori
G
G
∈L
G
G
I { } I G
G
I {
}
Spazi Vettoriali e Sottospazi Vettoriali
158
I
I
di 2 , allora 2 e` una base di V (quindi segue la tesi), oppure esiste almeno un vettore di che non `e combinazione lineare dei vettori di 2 , si suppone che sia w 3 ; in questo caso si procede con il:
G
I
terzo passo: si considera l’insieme libero (cfr. Lemma 4.1) procede come nel secondo passo.
I
3
{
}
= w1 , w2 , w3 e si
Il procedimento termina dopo un numero finito di passi, al pi u` m . Si e` cos`ı costruita ` evidente che procedendo con lo una base di V a partire dal primo vettore w1 di . E stesso metodo a partire da un altro vettore di o da un’altro insieme di generatori di V si ottengono infinite basi.
G
G
Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di metodo degli scarti successivi per il procedimento di calcolo che prevede. Esercizio 4.5 In (R3,3 ) , sottospazio vettoriale di R 3,3 delle matrici antisimmetriche, si consideri l’insieme = A1 , A2 , A3 , A4 , A5 , A6 , A7 con:
A G { A1 =
A3 =
A5 =
A7 = Si dimostri che
Soluzione
− − −
0 1 2
0 0 0 0 1 2 0 5 1
− −
}
1 0 3
2 3 0
0 0 5
0 5 0
−
− −1
0 0
2 0 0
5 0 2
1 2 0
A(R
3,3
,
,
,
0 0 1
A2 =
0 0 0
A4 =
A6 =
0 0 1 0 0 0
0 1 1
− − 1 1 0
0 0 0 1 0 4
−
,
,
1 4 0
(4.3)
,
.
G e` un insieme di generatori di A(R
3,3
) e se ne estragga una base.
Per rispondere al primo quesito si deve esprimere la generica matrice:
A = di
−
− −
− −
) come combinazione lineare:
0 a12 a13
a12 a13 0 a23 a23 0
−
A = λ1 A1 + λ2 A2 + λ3 A3 + λ4 A4 + λ5 A5 + λ6 A6 + λ7 A7
(4.4)
(4.5)
Capitolo 4
159
G
degli elementi di . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene al sistema lineare nelle incognite λ i , i = 1, 2, . . . , 7 :
− −
λ1 λ5 + λ6 + 5λ7 = a12 , 2λ1 + λ2 + 2λ5 λ6 + λ7 = a 13 , 3λ1 λ2 + 5λ3 + 4λ6 2λ7 = a23 ,
−
−
le cui soluzioni sono lasciate da determinare al Lettore per esercizio.
G si procede come nella dimostrazione del Teorema 4.11, si ha: primo passo: sia I = { A } . Si verifica subito che { A , A } e` un insieme libero in A(R ) , si passa quindi al: secondo passo: sia I = {A , A } . Si verifica che {A , A , A } e` un insieme libero, si procede, quindi, con il: terzo passo: sia I = {A , A , A } . Si verifica che ogni altro vettore di G e` combinazione lineare di I , si deduce, cos`ı che I e` una base di A(R ) . Tutte le verifiche sono lasciate Per estrarre una base da 1
1
1
2
3,3
2
3
1
1
2
2
3
3
1
2
3
3,3
3
al Lettore per esercizio.
Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5.
B ≤
C
Dimostrazione del Teorema 4.13 Siano = (v1 , v2 , . . . , vn ) e = (w1 , w2 , . . . , wm ) due basi di V, si tratta di dimostrare che n = m . Si consideri base di V e insieme libero di V , dal Teorema 4.12 segue che m n , invertendo i ruoli di e di si perviene alla tesi.
B
B
C
C
Osservazione 4.21 Si osservi l’importanza dell’ordine dei vettori della base che si riflette sull’ordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si pu`o scrivere indifferentemente come:
L
L la base B = (v , v , . . . , v ) e` diversa dalla base B = ( v , v , . . . , v ) . Come cambiano le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B ? V = (v1 , v2 , . . . , vn ) = (v2 , v1 , . . . , vn ),
1
2
n
2
1
n
1. A partire dalla scrittura di una matrice diagonale si verifica facilEsempio 4.37 mente che dim( (Rn,n )) e` n . Una sua base `e formata ordinatamente dalle matrici E ii , i = 1, 2, . . . , n , definite nell’Esempio 4.35.
D
2. A partire dalla scrittura di una matrice triangolare superiore, si verifica facilmente che dim( (Rn,n )) = n(n+1)/2 e una sua base e` data, ordinatamente, dalle matrici E ij con 1 i j n definite nell’Esempio 4.35.
T ≤ ≤ ≤
Spazi Vettoriali e Sottospazi Vettoriali
160
3. A partire dalla scrittura di una matrice simmetrica si verifica facilmente che:
n(n + 1) 2
dim( (Rn,n)) =
S
e una sua base `e:
.. .
.. .
..
0 1 ... 0 1 0 ... 0
,
.. .
.
.. .
0 0 ... 0
0 0 ... 0 0 1 ... 0 .. .
1 0 ... 0 0 0 ... 0
.. .
..
.
.. .
0 0 ... 0
.. .
..
.. .
.
0 0 ... 0
,...,
,...,
0 ... 0 0 .. .
..
.
.. .
.. .
0 ... 0 1 0 ... 1 0
,
.. .
.. .
..
.. .
.
,
1 0 ... 0
0 0 ... 0 0 0 ... 0 .. .
0 0 ... 1 0 0 ... 0
.. .
..
.
.. .
0 0 ... 1
.
4. A partire dalla scrittura di una matrice antisimmetrica si verifica facilmente che:
n(n
dim( (Rn,n)) =
A
e una sua base e` :
−
0 1 0 ... 0 1 0 0 ... 0 0 0 0 ... 0 .. .
.. .
.. .
0
0 0 ... 0
..
.
.. .
−
2
0 0 1 ... 0 0 0 0 ... 0 1 0 0 ... 0
,
.. .
.. .
.. .
0
0 0 ... 0
..
− 1)
.
.. .
,...,
0 0 ... 0 0 ... .. .
.. .
..
.
0 0 ... 0 0 ...
0 0 .. .
0 0 .. .
0 1 1 0
−
Si conclude con l’enunciato di un teorema che sar`a molto usato nel testo.
Teorema 4.15 – Teorema del completamento della base – Sia V uno spazio vettoriale di dimensione n e sia = (v1 , v2 , . . . , vn ) una sua base. Dato l’insieme libero:
B
I = {a , a , . . . , a }, k ≤ n, esiste una base B di V contenente tutti i vettori di I e n − k vettori di B . Si consideri l’insieme A = I ∪B , poich´e A contiene una base, allora Dimostrazione V = L (A) . Si applichi il Teorema 4.11 ad A partendo dai vettori di I , segue cos`ı la 1
tesi.
2
k
.
Capitolo 4
161
Esercizio 4.6 Nel sottospazio vettoriale (R3,3 ) delle matrici simmetriche di ordine 3 completare l’insieme libero = I 1 , I 2 , I 3 , con:
I 1 =
I {
1 2 0
2 0 0
0 0 0
S (R
3,3
S (R
A1 =
A4 =
1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0
A5 =
,
0 0 1
−
3,3
A2 =
,
0 1 0
− I 3 =
,
1 0 0
−1
0 0
) contenente ordinatamente le matrici:
0 1 0 1 0 0 0 0 0 0 0 0 0 0 1 0 1 0
A3 =
,
A6 =
,
allora si possono riscrivere (per comodit`a di calcolo) i vettori di nenti rispetto alla base . Si ha:
B
−
I 1 = (1, 2, 0, 0, 0, 0),
0 1 1
).
Si consideri la base di
1 0 0
I 2 =
,
fino ad ottenere una base di
Soluzione
S }
0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1
,
,
I tramite le loro compo−
I 2 = (1, 0, 0, 1, 0, 1),
I 3 = (0, 1, 1, 0, 0, 0).
Si applica il Teorema 4.11 all’insieme di generatori:
G = {I , I , I , A , A , A , A , A , A } partendo dagli elementi di I . Si ottiene che (I , I , I , A , A , A ) e` una base di S (R 1
2
3
1
2
1
3
2
4
3
5
1
6
4
3,3
5
).
I dettagli di calcolo sono lasciati al Lettore.
Nel caso di uno spazio vettoriale di dimensione n, come corollario dei teoremi precedenti si pu`o agevolmente dimostrare il seguente teorema.
1. Sia V uno spazio vettoriale reale di dimensione n. Un insieme Teorema 4.16 libero = v1 , v2 , . . . , vn di n vettori di V e` una base di V .
I {
}
2. Sia V uno spazio vettoriale reale di dimensione n. Un sistema di generatori
I = {v , v , . . . , v } di n vettori di V e` una base di V . Dimostrazione 1. L(v , v , . . . , v ) e` un sottospazio vettoriale di V di dimensione n , quindi per la propriet`a 3. del Teorema 4.14 si ha L(v , v , . . . , v ) = V. Pertanto 1
2
n
1
2
n
1
2
n
Spazi Vettoriali e Sottospazi Vettoriali
162
v1 , v2 , . . . , vn sono generatori di V .
L(v , v , . . . , v ) = V e dim(V ) = n . Applicando il Teorema 4.11 al sistema di generatori {v , v , . . . , v } di V si puo` estrarre da esso una base di V , ma, essendo dim(V ) = n, l’insieme {v , v , . . . , v } e` una base di V .
2. Per ipotesi
1
2
n
1
2
n
1
2
n
Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15) si pu`o agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio vettoriale di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) e` una base di , ( k < n ), allora si perviene ad un sottospazio vettoriale supplementare di completando l’insieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per esempio da: (a1 , a2 , . . . , ak , b1 , b2 , . . . , bn−k ).
W W
W
Infatti:
L(a , a , . . . , a ) ∩ L(b , b , . . . , b 1
L
2
1
k
2
n−k )
{}
= o
e (b1 , b2 , . . . , bn−k ) e` un sottospazio vettoriale di V supplementare di di quanto osservato sar`a trattato nell’Esercizio 4.12.
4.3.2
W . Un esempio
Basi e somma diretta
B = (v , v , . . . , v ) una sua base, ⊕ ⊕ L(v ),
Sia V uno spazio vettoriale di dimensione n e sia allora: (v2 ) . . . V = (v1 )
L
⊕L
1
2
n
n
oppure, per esempio:
L
V = (v1 , v2 )
⊕ L(v , v , v ) ⊕ . . . ⊕ L(v 3
4
n−1 , vn ).
5
Inoltre segue in modo evidente dalla definizione di somma di due o pi u` sottospazi vettoriali dello spazio vettoriale V che essa e` generata dall’unione dei medesimi, nel senso che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei sottospazi vettoriali addendi. Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare una base dello spazio vettoriale V (o pi`u in generale di un sottospazio vettoriale di V ) ) si decompone. a partire dalle basi dei sottospazi vettoriali in cui V (o
W
W
Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma diretta di k suoi sottospazi vettoriali:
V =
W ⊕ W ⊕ . . . ⊕ W , 1
2
k
Capitolo 4
163
allora e` possibile formare una base di V mediante l’unione dei vettori appartenenti ad una base di ciascuno dei sottospazi vettoriali i , i = 1, 2, . . . , k .
W Dimostrazione Siano dim(W ) = n , dim(W ) = n , . . . , dim(W ) = n le dimensioni dei sottospazi vettoriali considerati e siano B = (a , a , . . . , a ) una base di W , B = (a , a , . . . , a ) una base di W e cos`ı via fino a B = (a , a , . . . , a ) base di W . Per definizione di somma diretta e di base, ogni vettore di V si scrive in modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali W , 1
1
2
2
1
1
2
21
22
2n2
k
11
2
12
k
1n1
k1
k
k2
knk
k
i
i = 1, 2, . . . , k . Pertanto, l’insieme di vettori:
B ∪ B ∪ . . . ∪ B = {a 1
2
11 , a12 , . . . , a1n1 , a21 , a22 , . . . , a2n2 , . . . , ak1 , ak2 , . . . , aknk
k
}
e` una base dello spazio vettoriale V . Dal teorema precedente si ottiene il corollario di seguito enunciato.
W = W ⊕ W ⊕ . . . ⊕ W , allora: dim(W ) = dim(W ) + dim(W ) + . . . + dim(W ).
Corollario 4.1 Se
1
2
k
1
2
k
Esercizio 4.7 Vale il viceversa del Corollario 4.1? Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un sottospazio vettoriale di V con dim(V ) = n e dim( ) = k , k < n , un suo supple = V ) ha dimensione n k . Una base di pu`o essere mentare (tale che formata dai vettori che si aggiungono ad una base di per ottenere una base di V (cfr. Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di = V e = o . , supponendo ovviamente che
W W ⊕ W
W
W
W − W W { }
W
W
Nel caso della somma di due sottospazi vettoriali `e utile conoscere la formula che mette in relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma, per la dimostrazione si veda il Paragrafo 4.5.
Teorema 4.18 – Formula di Grassmann – Siano uno spazio vettoriale V , allora:
W e W due sottospazi vettoriali di 1
2
W + W ) = dim(W ) + dim(W ) − dim(W ∩ W ).
dim(
1
2
1
2
1
2
Esercizio 4.8 In R 5 si consideri il sottospazio vettoriale: 5
W = {(x , x , x , x , x ) ∈ R | x + x + 2x + x − x = 0}. 1
2
3
4
5
1
2
3
4
5
Spazi Vettoriali e Sottospazi Vettoriali
164
W nella somma diretta di due sottospazi vettoriali W e W . 2. Si scriva il vettore (−5, 2, −1, 3, −2) di W come somma di un vettore di W e di un vettore di W . 1. Si decomponga
1
2
1
2
Soluzione
1. Per esempio si controlla che i sottospazi vettoriali:
W = L((−1, 1, 0, 0, 0), (−2, 0, 1, 0, 0)), W = L((−1, 0, 0, 1, 0), (1, 0, 0, 0, 1)), 1
2
verificano la condizione richiesta, infatti la loro intersezione si riduce al vettore
W .
nullo e la loro somma riproduce
Quante sono le risposte possibili? Si provi ad elencarne almeno due diverse.
2. Dal calcolo diretto si ha:
−
−
−
−
−
−
( 5, 2, 1, 3, 2) = (0, 2, 1, 0, 0) + ( 5, 0, 0, 3, 2). Esercizio 4.9 In R 2,2 si considerino i sottospazi vettoriali:
W = 1
W = 2
∈ ∈
x1 x2 x3 x4
R2,2 x1 + x4 = x2 + x3 = 0 ,
x1 x2 x3 x4
R2,2 x1
|
| − x = x − x = 0 4
2
3
.
W ⊕ W = R . Per l’intersezione W ∩ W e` sufficiente osservare che la matrice dei coef-
Dimostrare che
1
2,2
2
Soluzione 1 ficienti del sistema lineare omogeneo:
2
x1 + x4 = x2 + x3 = x1 x4 = x2 x3 =
− −
0 0 0 0
W ⊕ W
ha determinante non nullo. Rimane da dimostrare che 1 2,2 facilmente che una generica matrice di R si puo` scrivere come:
x1 x2 x3 x4
1 = 2
−
x1 x4 x2 + x3
−
−
x2 x3 x1 + x4
−
1 + 2
2
= R2,2 . Si ottiene
x1 + x4 x2 + x3 x2 + x3 x1 + x4
e ci`o prova la decomposizione (unica) di un vettore di R 2,2 nella somma di due vettori di 1 e 2 , rispettivamente.
W W
Capitolo 4
165
Esercizio 4.10 In R 3,3 si considerino i sottospazi vettoriali:
D
W = 1
(R3,3 ),
W = 2
W = 3
Dimostrare che
0 a b 0 0 c 0 0 0
∈
x1 0 0 x2 x3 0 x4 x5 0
W ⊕ W ⊕ W = R 1
2
R3,3 a,b,c
R ,
|
∈ R | 2x − x = x + 3x = 0 3,3
3,3
3
∈
1
3
1
3
.
.
Soluzione Si pu`o verificare direttamente che ogni vettore di R 3,3 si decompone in modo unico come somma di un vettore di 1 insieme con un vettore di 2 insieme con un vettore di 3 .
W
W
W
Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale radice uguale a 2.
W dei polinomi aventi una
W nella somma diretta di due sottospazi vettoriali W e W . 2. Scrivere il polinomio −4 − 2x + x di W come somma di un polinomio di W e di un polinomio di W . Soluzione 1. Dal Teorema di Ruffini sui polinomi, si ha che ogni polinomio di W si 1. Decomporre
1
2
3
1
2
scrive come:
2
− 2)(a + a x + a x ), a , a , a ∈ R, quindi W = L(−2 + x, (−2 + x)x, (−2 + x)x ) e dim(W ) = 3 . Ad esempio si pu o` porre W = W ⊕ W , con: W = L(−2 + x, (−2 + x)x), W = L((−2 + x)x ). p(x) = (x
0
1
2
0
1
2
2
1
2
1
2
2
2. Si devono trovare i numeri reali λ i , i = 1, 2, 3 , tali che: 3
−4 − 2x + x
= λ1 ( 2 + x) + λ2 ( 2 + x)x + λ3 ( 2 + x)x2 .
−
−
−
Dall’uguaglianza dei coefficienti dei monomi di grado uguale segue:
λ1 = 2, 3
λ2 = 2,
λ3 = 1. 2
−4 − 2x + x = p (x) + p (x) , con p (x) = −4 − 2x + 2x ∈ W e p (x) = −2x + x ∈ W . Pertanto 2
2
3
1
2
2
1
1
Spazi Vettoriali e Sottospazi Vettoriali
166
H di R definito da: H = {(x , x , x , x ) ∈ R | x + x + x = x = 0}, 4
Esercizio 4.12 Dato il sottospazio vettoriale 1
2
3
4
4
1
2
4
3
si determinino due sottospazi vettoriali diversi entrambi supplementari di
H in R . 4
H
Risolvendo il sistema lineare omogeneo che definisce si ottiene che un Soluzione generico vettore di e` del tipo (t1 , t2 , 0, t1 t 2 ) con t1 , t2 R da cui segue che dim( ) = 2 ed i vettori a1 = (1, 0, 0, 1), a2 = (0, 1, 0, 1) formano una base di . Si verifica facilmente (usando il metodo degli scarti successivi descritto nella dimostrazione del Teorema 4.11) che, ad esempio, (a1 , a2 , e1 , e3 ), con e1 = (1, 0, 0, 0) e e3 = (0, 0, 1, 0), e` una base di R4 , ovvero che (e1 , e3 ) = R4 . Quindi un sottospazio vettoriale supplementare di in R 4 e` 1 = (e1 , e3 ) . Con un procedimento analogo si verifica che, ad esempio, (a1 , a2 , e3 , e4 ), con e4 = (0, 0, 0, 1), e` un’altra base di R4 . Si pu`o allora definire un altro sottospazio vettoriale, diverso dal precedente, supplementare di in R 4 , dato da 2 = (e3 , e4 ) .
H
H
H
− − −
H⊕L K L
H
H
−
∈
K L
Osservazione 4.24 Nel paragrafo seguente si introdurr`a il concetto di rango di una matrice che permetter`a di risolvere gli esercizi proposti in questo paragrafo in un altro modo, a volte piu` rapido.
4.3.3
Rango di una matrice
In questo paragrafo verr`a introdotta la definizione formale di rango di una matrice, mentre la Definizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo. Sia A = (aij ) vettori:
∈ R
m,n
una matrice di m righe e n colonne, le cui righe sono date dai
R1 = (a11 , a12 , . . . , a1n), R2 = (a21 , a22 , . . . , a2n), .. .
Rm = (am1 , am2 , . . . , amn). I vettori R i Rn , i = 1, 2, . . . , m , prendono il nome di vettori riga della matrice A ed il sottospazio vettoriale:
∈
R(A) = L(R , R , . . . , R ) e` lo spazio vettoriale delle righe di A . Per costruzione R(A) e` un sottospazio vettoriale 1
2
m
di R n , ed avendo m generatori, la sua dimensione sar`a al pi`u pari al minore tra i numeri m ed n .
Capitolo 4
167
Si ripete lo stesso discorso per le colonne di A . Siano:
C 1 = (a11 , a21 , . . . , am1 ), C 2 = (a12 , a22 , . . . , am2 ), .. .
C n = (a1n, a2n, . . . , amn) i vettori colonna di A . Il sottospazio vettoriale:
C (A) = L(C , C , . . . , C ) e` lo spazio vettoriale delle colonne di A . Per costruzione C (A) e` un sottospazio vettoriale 1
2
n
di Rm , ed avendo n generatori la sua dimensione sar`a al piu` pari al minore tra i numeri m ed n .
Osservazione 4.25 1. Per una matrice A Rm,n lo spazio vettoriale delle righe (A) e` un sottospazio vettoriale di Rn , mentre lo spazio vettoriale delle colonne (A) e` un sottospazio vettoriale di Rm , quindi (A) e (A) sono, in generale, spazi vettoriali diversi. Se m = n, (A) e (A) sono sempre spazi vettoriali diversi.
∈
R
C
R
2. Se A e` una matrice qualsiasi di R m,n , allora t A indica la trasposta della matrice A .
∈R Se A ∈ R Se A
n,n n,n
R C
C
t
t
R( A) = C (A), C ( A) = R(A), dove
R(A) = C(A) . e` una matrice antisimmetrica, allora R(−A) = R(A) = C (A) . e` una matrice simmetrica, allora
Vale il seguente teorema.
Teorema 4.19 – Teorema del Rango – Per ogni matrice A
R
∈R
m,n
si ha:
C
dim( (A)) = dim( (A)). Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovr a` aspettare il Capitolo 6 per una dimostrazione alternativa, molto pi`u sintetica. Il teorema appena enunciato giustifica la seguente fondamentale definizione.
Definizione 4.15 Si definisce rango di una matrice A Rm,n (e lo si indica con rank(A) ) la dimensione dello spazio vettoriale delle righe (o delle colonne) di A :
∈
R
C
rank(A) = dim( (A)) = dim( (A)).
Spazi Vettoriali e Sottospazi Vettoriali
168
Osservazione 4.26 Come conseguenza immediata del precedente teorema si ha anche che:
rank(A) = rank( tA),
A
∈R
m,n
,
e che rank(A) e` minore o uguale del minimo tra m e n .
Le propriet`a che seguono sono volte a dimostrare che la definizione di rango di una matrice, appena enunciata, coincide con la Definizione 1.10 data nel Capitolo 1. Si procede come segue. 1. Sia A una matrice ridotta per righe, si dimostrer a` che il numero delle righe non nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A. 2. Si dimostrer`a, inoltre, che il processo di riduzione di una matrice per righe descritto nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe di A , pur cambiando la matrice A . 3. A corretta conclusione, si devono aggiungere la definizione di matrice ridotta per colonne e il procedimento di riduzione per colonne.
Teorema 4.20 Se A Rm,n e` una matrice ridotta per righe, la Definizione 1.9 del Ca pitolo 1 coincide con la Definizione 4.15. Pertanto la definizione di rango di una matrice e` formulata in modo corretto.
∈
Dimostrazione Poich´e ogni matrice ridotta per righe puo` essere trasformata in una matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema 2.13), si puo` supporre che una matrice ridotta per righe A R m,n con k righe non nulle sia del tipo seguente:
∈
a11 a12 . . . . . . . . . a1n 0 a22 . . . . . . . . . a2n .. .
0 0 .. .
0
..
.. .
.
... ...
0 0
...
0
.. .
akk . . . akn 0 ... 0 ...
.. .
.. .
0
0
,
con a 11 a22 . . . akk = 0 . Si tratta ora di dimostrare che il numero k delle righe non nulle di A coincide con dim( (A)), cio e` che le prime k righe di A sono linearmente indipendenti in Rn . Il risultato e` quasi ovvio ed e` la conseguenza della particolare posizione delle componenti nulle nelle righe di A . Infatti, dall’equazione:
R
λ1 R1 + λ2 R2 + . . . + λk Rk = o
Capitolo 4
169
nelle incognite λ 1 , λ2 , . . . , λk , con:
R1 = (a11 , a12 , . . . , a1n ), R2 = (0, a22 , . . . , a2n), .. .
Rk = (0, . . . , 0, akk , . . . , akn ) eo
∈R
n
, si ottiene un sistema lineare omogeneo la cui prima equazione `e:
λ1 a11 = 0;
ma a 11 = 0 allora λ 1 = 0 . Sostituendo questo risultato nella seconda equazione:
λ1 a12 + λ2 a22 = 0 si ottiene λ2 = 0 e cos`ı via, da cui segue che le righe non nulle della matrice A ridotta per righe sono linearmente indipendenti.
Teorema 4.21 Le operazioni consentite per ridurre una matrice A cambiano la dimensione dello spazio vettoriale delle righe di A .
∈R
m,n
per righe non
Dimostrazione Si ricordino le operazioni, descritte nel Paragrafo 1.2, consentite per ridurre per righe una matrice, e precisamente:
←→ R ; = 0; R −→ λR , λ ∈ R, λ = j. R −→ R + λR , λ ∈ R, i
1. Ri 2. 3.
j
i i
i
i
j
Il teorema segue allora in modo evidente dal Teorema 4.8. Si puo` ripetere il procedimento di riduzione di una matrice sulle colonne, di conseguenza, dopo aver ridotto per colonne la matrice, il suo rango sar`a dato dal numero di colonne non nulle. Piu` precisamente si pu`o enunciare la seguente definizione.
Definizione 4.16 Una matrice A si dice ridotta per colonne se in ogni sua colonna non nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri. Esempio 4.38 La matrice seguente e` ridotta per colonne:
A =
1 1 2 5
0 1 3 6
0 0 4 7
.
Spazi Vettoriali e Sottospazi Vettoriali
170
Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vettoriale delle colonne di A ) si calcola riducendo la matrice A per colonne, in altri termini eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti:
←→ C : scambiare tra di loro due colonne; = 0 : moltiplicare tutti gli elementi di una colonna per un C −→ λC , λ ∈ R , λ
1. C i 2.
j
i
i
numero reale non nullo;
3. C i
−→ C + λC , λ ∈ R, i = j : sostituire ad una colonna una combinazione i
j
lineare di se stessa con una colonna parallela
e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta.
La dimostrazione e` un evidente esercizio.
Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale (A) , anche se si ottengono matrici ridotte per righe tra di loro diverse. Riducendo per righe una matrice A non cambia dim( (A)) ma cambia invece lo spazio vettoriale (A) . Analogamente, riducendo per colonne la matrice A non cambia dim( (A)) ma cambia (A) . In particolare, si osservi che riducendo per colonne la matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al sistema lineare dato.
R
R
C
C
R
Esercizio 4.13 Calcolare il rango della matrice:
A =
− −
1 1 1 1 3
−
2 1 2 1 1
− −1
0 4 1 2
,
riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta `e diversa dalla matrice ridotta per righe. Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla stessa matrice A coincidono?
Teorema 4.23 – Teorema di Nullit`a piu` Rango – Sia AX = O un sistema lineare omogeneo con matrice dei coefficienti A R m,n , incognite X R n,1 e con colonna dei termini noti la matrice nulla O Rm,1 . Sia (A) il sottospazio vettoriale di Rn delle soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora:
∈
∈
N
N
rank(A) + dim( (A)) = n.
∈
Capitolo 4
171
Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il sistema lineare omogeneo AX = O riducendo per righe la matrice A . Supponendo che rank(A) = k , non si perde in generalit a` (cfr. la dimostrazione del Teorema 2.13) se si assume di pervenire al seguente sistema lineare omogeneo ridotto:
a11 a12 . . . . . . . . . a1n 0 a22 . . . . . . . . . a2n .. .
0 0 .. .
0
..
.. .
.
... ...
0 0
...
0
.. .
.. .
.. .
akk . . . akn 0 ... 0 ...
.. .
.. .
0
0
x1 x2 .. .
xk xk+1 .. .
xn
=
0 0 .. .
0 0 .. .
0
Si ottengono cos`ı infinite soluzioni che dipendono da n
,
aii = 0, i = 1, 2, . . . , k .
− k incognite libere. Ponendo:
xk+1 = t 1 xk+2 = t 2 .. .
xn = t n−k ,
t1 , t2 , . . . , tn−k
∈ R,
sostituendo questi valori nella k -esima equazione si ha:
xk =
− aa
kk +1
t1
kk
− . . . − aa
kn
tn−k
kk
e cos`ı via per tutte le altre incognite. Di conseguenza il nullspace
N (A)
=
{t (b 1
N (A) risulta essere:
11 , b21 , . . . , bk1 , 1, 0, . . . , 0)
+t2 (b12 , b22 , . . . , bk2 , 0, 1, . . . , 0) +...
∈ R},
+tn−k (b1k−1 , b2k−1 , . . . , bkk−1 , 0, 0, . . . , 1), t1 , t2 , . . . , tn−k
dove i numeri reali b ij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare omogeneo, per esempio:
bk1 =
N (A)) = n − k .
Segue subito che dim(
− aa
kk +1 kk
.
Spazi Vettoriali e Sottospazi Vettoriali
172
Anche se la dimostrazione del teorema precedente e` ovvia, la sua importanza sar a` fondamentale nel resto del corso. La denominazione nullit `a deriva, come gi`a osservato in precedenza, dalla traduzione del termine “nullspace ”che indica in inglese il sottospazio vettoriale (A) .
N
La formulazione del Teorema di Nullit a` pi`u Rango appena presentato e` quella classica, che viene usata per le sue svariate applicazioni. In realt`a l’enunciato completo del teorema e` il seguente.
Teorema 4.24 – Teorema di Nullit`a piu` Rango – Sia AX = O un sistema lineare omogeneo con matrice dei coefficienti A Rm,n , incognite X Rn,1 e colonna dei termini noti O Rm,1 . Siano (A) lo spazio vettoriale delle righe di A , (A) lo spazio vettoriale delle colonne di A e (A) il sottospazio vettoriale di Rn delle soluzioni del sistema lineare omogeneo, allora:
∈
R N
∈
∈
C
R(A) ⊕ N (A) = R
n
e, equivalentemente,
C(A) ⊕ N ( A) = R t
Dimostrazione
m
.
Tenendo conto del Teorema 4.23 e` sufficiente dimostrare che:
R(A) ∩ N (A) = {o}. R ∩N
Per assurdo sia x = (x1 , x2 , . . . , xn ) un elemento non nullo di (A) (A) . Si supponga per esempio che x = R 1 + 2R2 , dove R1 e R 2 sono le prime due righe della matrice A . L’ipotesi non e` restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore x verifica tutte le equazioni del sistema lineare AX = O , in particolare, verifica anche l’equazione che si ottiene dalla somma della prima equazione del sistema lineare con il doppio della seconda, se A = (aij ) e X = (xi ) significa che:
(a11 + 2a21 )x1 + (a12 + 2a22 )x2 + . . . + (a1n + 2a2n )xn = 0. Sostituendo in tale equazione l’espressione di x segue:
(a11 + 2a21 )2 + (a12 + 2a22 )2 + . . . + (a1n + 2a2n)2 = 0, da cui x = o , che e` assurdo. La seconda affermazione del teorema si ottiene sostituendo ad A la sua trasposta. ` fondamentale osservare che, anche se fosse possibile, come nel Osservazione 4.28 E caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di (A) e di (A) . Nel Capitolo 6 si presenter`a un esempio di matrice in cui (A) (A) (cfr. Oss. 6.10).
C
C
⊆ N
R
Capitolo 4
173
Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice e` la possibilit`a di risolvere in modo piu` agevole alcuni degli esercizi gi`a proposti. Sia, infatti, = (v1 , v2 , . . . , vn) una base di V e siano w 1 , w2 , . . . , wk i generatori di un sottospazio vettoriale di V. Per trovare una base di si puo` procedere considerando la matrice k,n A R che ha come vettori riga i vettori wi , i = 1, 2, . . . , k , scritti in componenti rispetto alla base . Riducendo la matrice A per righe, segue che i vettori riga non nulli, della matrice ridotta per righe cos`ı ottenuta, costituiscono una base di e la dimensione di coincide con il rango della matrice A . Attenzione al fatto che se si riduce la matrice A per colonne i vettori riga della matrice ridotta per colonne non determinano pi u` una base di . Analogamente se 1 e 2 sono due sottospazi vettoriali di V di cui si conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una base di 1 + 2 si pu`o procedere scrivendo la matrice B che ha come vettori riga i vettori delle basi di 1 e di 2 , scritti in componenti ripetto ad una base di V. Riducendo la matrice B per righe si ha che il rango di B coincide con la dimensione di 1 + 2 e i vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base di 1 + 2 .
B
W
∈
W
B
W
W
W W W W
W W
W
W W
W W
H di R cos`ı definito: H = L((1, 2, 0, 1), (2, 4, −1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, −1, 0, 5)). Si riduce per righe la matrice A ottenuta ponendo in riga i generatori di H . Soluzione 4
Esercizio 4.14 Determinare una base del sottospazio vettoriale
Si ha:
A =
−→ R ↔ R 2
5
1 2 0 1 1
− 1 0 0 0 0
2 4 0 2 1
−
2 3 0 0 0
−
0 1 1 4 0
1 1 1 5 5
0 0 1 4 1
−
−→ R → R − 2R R → R − R R → R − R 2
1
4
4
1
5
5
1
− 1 4 1 4 1
2
−→ R → R − 4R R → R + R 4
5
4
5
H
3
3
1 0 0 0 0
2 0 0 0 3
0 1 1 4 0
−
− 1 0 0 0 0
−
2 3 0 0 0
− 1 1 1 4 4
0 0 1 0 0
1 4 1 0 0
,
da cui segue che rank(A) = 3 , quindi dim( ) = 3 e una sua base e` data dalle prime tre righe della matrice ridotta per righe ottenuta da A , cio`e dai vettori: z1 = (1, 2, 0, 1),
z2 = (0,
−3, 0, 4),
z3 = (0, 0, 1, 1).
Spazi Vettoriali e Sottospazi Vettoriali
174
Osservazione 4.30 Si consiglia di rifare gli esercizi precedentemente svolti usando il metodo proposto in questo paragrafo (Esercizi 4.5, 4.6, 4.9, 4.10).
Esercizio 4.15 Dato il sottospazio vettoriale di R 4 : 4
K = {(x , x , x , x ) ∈ R | x − x = x − x = 0}, determinare la dimensione e una base di H + K e H∩K , dove H e` il sottospazio vettoriale 1
2
3
4
1
2
1
3
definito nell’Esercizio 4.14.
K
Soluzione Una base di e` data ad esempio da ( w1 , w2 ) con w 1 = (1, 1, 1, 0) e w 2 = (0, 0, 0, 1) . Per trovare la dimensione e una base di + , si riduce per righe la matrice B ottenuta ponendo in riga i vettori z 1 , z2 , z3 , w1 , w2 :
B =
1 0 0 1 0
−
−→
2 3 0 1 0
0 0 1 1 0
→ 3R − R
R4
4
2
1 4 1 0 1 1 0 0 0 0
H K
−→ R → R − R 4
2 3 0 0 0
−
4
0 0 1 3 0
1
− 1 4 1 7 1
1 0 0 0 0
2 3 0 1 0
0 0 1 1 0
− −
−→ R → R − 3R 4
4
3
− − 1 4 1 1 1
1 0 0 0 0
2 3 0 0 0
0 0 1 0 0
−
1 4 1 10 1
.
+ = R 4 . Dalla Formula di Grassmann (cfr. Si vede che il rango di B e` 4 , cio`e che Teor. 4.18) si ha che dim( si puo` ) = 3 + 2 4 = 1 . Per trovare una base di procedere in questo modo. Un generico vettore di e` della forma:
H K −
H∩K
H∩K
H ∩ K
λ1 z1 + λ2 z2 + λ3 z3 = µ 1 w1 + µ2 w2 ,
(4.6)
con λ1 , λ2 λ3 , µ1 , µ2 R . Si deve perci`o risolvere il sistema lineare omogeneo nelle incognite (λ1 , λ2 , λ3 , µ1 , µ2 ) associato alla precedente equazione con la riduzione per righe della corrispondente matrice dei coefficienti:
∈
C =
1 2 0 1
0 3 0 4
−
0 0 1 1
−1 −1 −1
0
− 0 0 0 1
.
Capitolo 4
175
Si trovano infinite soluzioni:
1 10 λ1 = µ 1 , λ2 = µ1 , λ3 = µ 1 , µ2 = µ1 , 3 3
∈ R . Sostituendo tali valori in (4.6) si ottiene che:
con µ 1
10 w1 + w2 3
e` una base di
H ∩ K .
Esercizio 4.16 In R 3 [x] si considerino i polinomi:
p1 (x) = 1 + x2 ,
p2 (x) = x + x3 ,
p3 (x) = 2 + x + x3 .
I = { p (x), p (x), p (x)} e` libero. 2. Individuare una base di R [x] contenente I . Soluzione 1. Sia B = (1, x , x , x ) una base di R [x]. Rispetto a B , i polinomi dati 1. Verificare che l’insieme
1
2
3
3
2
3
3
hanno componenti:
p1 (x) = (1, 0, 1, 0),
p2 (x) = (0, 1, 0, 1),
p3 (x) = (2, 1, 0, 1).
Si consideri la matrice A di R 3,4 avente come righe le componenti dei tre polinomi e ne si calcoli il rango riducendola per righe:
A =
1 0 2
0 1 1
1 0 0
−→ R → R − R 3
3
0 1 1
2
−→ R → R − 2R
1 0 0
3
0 1 0
3
1
1 0 2
0 1 0
−
Segue che rank(A) = 3 e, quindi, la tesi.
2. Per ottenere una base di R3 [x] contenente
1 0 0
0 1 1
1 0 2
−
0 1 1
.
I e` sufficiente aggiungere ai polinomi
dati un polinomio in modo che i quattro polinomi siano linearmente indipendenti. Allora, e` sufficiente aggiungere all’ultima matrice ottenuta nel calcolo precedente una riga in modo tale che la matrice quadrata di ordine 4 cos`ı ottenuta sia ridotta per righe e abbia rango 4 , precisamente si ha:
1 0 0 0
0 1 0 0
1 0 2 0
−
0 1 0 1
,
quindi un polinomio (ma non `e l’unico) che risolve l’esercizio `e x 3 .
Spazi Vettoriali e Sottospazi Vettoriali
176
4.3.4
Il cambiamento di base
In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vettoriale reale qualsiasi V, estendendo a V l’analogo problema risolto nel caso dello spazio vettoriale dei vettori ordinari V 3 nel Paragrafo 3.5. Nello spazio vettoriale reale V, di dimensione n , si considerino due basi:
B = (v , v , . . . , v ), B 1
Si ponga:
La matrice:
2
n
= (v1 , v2 , . . . , vn ).
v1 = p 11 v1 + p21 v2 + . . . + pn1 vn , v2 = p 12 v1 + p22 v2 + . . . + pn2 vn , .. .
(4.7)
vn = p 1n v1 + p2n v2 + . . . + pnnvn .
P = M B,B = ( pij ), i , j = 1, 2, . . . , n ,
che e` cos`ı determinata, prende il nome di matrice del cambiamento di base da a , come precisato nella notazione M B,B . P e` ottenuta ponendo ordinatamente in colonna le componenti dei vettori della base rispetto ai vettori della base . La ragione della scelta delle colonne e` giustificata da una maggiore semplicit`a della formula finale (4.9) che si ottiene. P e` una matrice quadrata, ad elementi reali, di rango massimo ( rank(P ) = n ) e, quindi, per i Teoremi 2.16 e 2.8, P e` invertibile e det(P ) = 0 . Le equazioni (4.7) si possono scrivere, in notazione matriciale, come:
B B
B
B
v1 v2 .. . vn
∈
= tP
v1 v2 .. . vn
.
(4.8)
Considerato un qualsiasi vettore x V, il problema del cambiamento di base consiste nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi introdotte. Si supponga, quindi, che: x = x 1 v1 + x2 v2 + . . . + xn vn = x 1 v1 + x2 v2 + . . . + xn vn , vale a dire, in notazione matriciale:
x =
x1 x2 . . . xn
v1 v2 .. . vn
=
x1 x2 . . . xn
v1 v2 .. . vn
.
Capitolo 4
177
Sostituendo le equazioni (4.8) nell’uguaglianza precedente e tenendo conto dell’unicit`a delle componenti di un vettore rispetto alla base si perviene alle relazioni:
x1 x2 .. .
xn
che saranno spesso indicate come:
B
= P
x1 x2 .. .
xn
X = P X ,
(4.9)
dove X e X sono, rispettivamente, le matrici colonna delle componenti di x rispetto alla base e alla base . Tali relazioni prendono il nome di equazioni del cambiamento di a e risolvono il problema posto. base da
B
B
B B
e` P −1 , in quanto le Osservazione 4.31 La matrice del cambiamento di base da a equazioni del cambiamento di base, in questo caso, sono X = P −1 X .
B B
Esercizio 4.17
1. Verificare che:
B
=
S (R
2,2
e` una base di
1 2
−
−2
2 1
1 3
,
4 11
−11 −7
,
1
−1 − −5 4 1
).
2. Trovare le componenti della matrice:
A = rispetto alla base
Soluzione
−
B .
1. Sia:
B = S (R
2,2
1 0 0 0
0 1 1 0
,
0 0 0 1
,
B a B , ottenuta ponendo in colonna le componenti dei vettori di B rispetto a B , `e: una base di
) . La matrice del cambiamento di base da
P =
−
1 2 1
2 1 3
− − 4 1 5
.
Spazi Vettoriali e Sottospazi Vettoriali
178
Si verifica che det(P ) =
S (R
2,2
una base di
).
−52 , quindi i tre vettori dati formano, effettivamente,
2. Le componenti richieste sono la soluzione del sistema lineare:
− − 4 11 7
ossia x 1 = 4, x2 =
4.3.5
x1 x2 x3
= P
,
−2, x = 1 . 3
Iperpiani vettoriali
Definizione 4.17 Sia V uno spazio vettoriale reale di dimensione n . Ogni sottospazio vettoriale di V tale che dim( ) = n 1 prende il nome di iperpiano vettoriale di V .
W
W
−
Per definizione, quindi, un iperpiano vettoriale e` generato da n indipendenti di V .
Esempio 4.39 In R 4 l’iperpiano vettoriale a1 = (1, 0, 1, 4),
− 1 vettori linearmente
W generato dai vettori:
a2 = (0, 1, 1, 2),
a3 = (0, 0, 3, 4)
e` il sottospazio vettoriale di R 4 :
W
= =
{(x , x , x , x ) = k a + k a + k a , k , k , k ∈ R} {(k , k , k + 3k , 4k + 2k + 4k ) | k , k , k ∈ R}. 1
2
3
1
2
1
4
1 1
3
1
2 2
2
3 3
3
1
1
2
2
3
3
Vale il seguente teorema.
B
= (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimenTeorema 4.25 Sia sione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto alla base .
B
1. Tutte e sole le equazioni lineari omogenee in (x1 , x2 , . . . , xn) rappresentano, rispetto alla base , gli iperpiani vettoriali di V .
B
W
2. Ogni sottospazio vettoriale di V di dimensione k e` rappresentabile, rispetto alla base , mediante un sistema lineare omogeneo di n k equazioni nelle incognite (x1 , x2 , . . . , xn).
B
Dimostrazione
−
1. La dimostrazione `e lasciata per esercizio.
Capitolo 4
179
W , allora ogni vettore x di W e` del tipo: x = λ a + λ a + . . . + λ a , λ , λ , . . . , λ ∈ R.
2. Sia ( a1 , a2 , . . . , ak ) una base di 1 1
2 2
1
k k
2
k
(4.10)
Eliminando i parametri λ1 , λ2 , . . . , λk tra le n equazioni che si ottengono scrivendo in componenti l’equazione vettoriale (4.10) si perviene ad un sistema lineare omogeneo di n k equazioni nelle componenti (x1 , x2 , . . . , xn ).
−
Come immediata conseguenza del secondo punto del teorema precedente si ottiene il seguente corollario.
W , di dimensione k, di uno spazio vettoriale − k iperpiani vettoriali di V .
Corollario 4.2 Un sottospazio vettoriale V, di dimensione n, e` l’intersezione di n
Esempio 4.40 In R 4 , l’equazione lineare omogenea:
x1 + x2 + 3x3 + 2x4 = 0, rispetto alla base canonica = (e1 , e2 , e3 , e4 ) di R4 , individua l’iperpiano vettoriale generato, ad esempio, dai vettori:
B
−
( 1, 1, 0, 0),
−
( 3, 0, 1, 0),
−
( 2, 0, 0, 1).
Esercizio 4.18 Qual `e l’equazione dell’iperpiano vettoriale considerato nell’Esempio 4.39 rispetto alla base canonica di R 4 ?
W
se e solo se sono Soluzione I vettori a 1 , a2 , a3 , x = (x1 , x2 , x3 , x4 ) appartengono a linearmente dipendenti, ossia se la matrice quadrata, di ordine 4 , le cui righe sono le componenti dei quattro vettori, ha determinante nullo. L’equazione richiesta `e:
1 0 1 4 0 1 1 2 0 0 3 4 x1 x2 x3 x4
= 0.
La motivazione dell’ultimo passaggio `e lasciata al Lettore.
W
dei polinomi divisibili per Esempio 4.41 Nell’Esercizio 4.11 il sottospazio vettoriale 2 in R 3 [x] e` un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti (a0 , a1 , a2 , a3 ) di un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 R3 [x] rispetto alla base = (1, x , x2 , x3 ) e` data da p(2) = a0 + 2a1 + 4a2 + 8a3 = 0 .
∈
B
Esempio 4.42 In R n,n il sottospazio vettoriale:
W = {A ∈ R | tr(A) = 0}, n,n
dove tr(A) indica la traccia della matrice A , `e un iperpiano vettoriale di R n,n.
Spazi Vettoriali e Sottospazi Vettoriali
180
4.4
Esercizi di riepilogo svolti
Esercizio 4.19 In R 4 si considerino i vettori: a1 = (1, 1, 0, 0),
a2 = (0, 1, 0, 1),
a3 = (1, 3, 0, 2).
E = L(a ), E = L(a ), E = L(a ) ,
Posto
1
1
2
2
3
3
1. determinare i vettori che appartengono a somma non `e diretta.
H
E + E + E e verificare che la
=
1
2
3
H e scrivere v in due modi diversi E E E . Soluzione 1. H = {λ a + λ a + λ a | λ , λ , λ ∈ R} = {(λ + λ , λ + λ + 3λ , 0, λ + 2λ ) | λ , λ , λ ∈ R}. L’insieme {a , a , a } non `e libero in quanto a = a + 2 a . Quindi: L(a ) = L(a + 2a ) ⊂ L(a ) + L(a ), cio`e E ⊂ E + E . H non e` somma diretta di E , E , E . 2. Per definizione il vettore v appartiene ad H se esistono λ , λ , λ ∈ R tali che: 2. Dimostrare che v = (2, 5, 0, 3) e` un elemento di come combinazione lineare di vettori di 1 , 2 , 1 1
2 2
1
1
2
3
1
1
1
2
3
2
3
2
3
3
3
3
3
3 3
3
1
2
1
1
2
1
2
2
2
1
2
3
1
3
2
3
2 = λ 1 + λ3 5 = λ 1 + λ2 + 3λ3 3 = λ 2 + 2λ3 .
Risolvendo il sistema lineare si trova:
λ1 = 2
− t,
λ2 = 3
− 2t,
λ3 = t,
t
∈ R.
Ponendo, per esempio, t = 0 si ottiene v = 2a1 + 3 a2 , per t = 1 si ha: v = a 1 + a2 + a3 .
Esercizio 4.20 Data la matrice:
A =
− 6 4
−
9 6
,
1. dimostrare che i sottoinsiemi: 2,2
F = {X ∈ R | AX = X A},
2,2
G = {X ∈ R | AX = −XA}
sono sottospazi vettoriali di R 2,2 e trovare una base per ciascuno di essi.
Capitolo 4
181
F ∩ G e F + G .
2. Determinare una base per i sottospazi vettoriali 3. Data la matrice:
C =
−2 −3
0 h 0 h
,
h
∈ R,
stabilire per quale valore di h la matrice C appartiene al sottospazio vettoriale + . Assegnato ad h tale valore, trovare due matrici C 1 e C 2 in modo tale che C = C 1 + C 2 .
F G
∈ F
∈ G
1. Siano X 1 , X 2 matrici di R 2,2, appartenenti a , allora AX 1 = X 1 A e con AX 2 = X 2 A . e` un sottospazio vettoriale di R 2,2 se λ 1 X 1 + λ2 X 2 λ1 , λ2 numeri reali qualsiasi, ossia se:
F
Soluzione
F
∈ F
A(λ1 X 1 + λ2 X 2 ) = (λ1 X 1 + λ2 X 2 )A.
G e` un sottospa. Per determinare la dimensione e una base sia di F sia di G
La verifica e` un facile esercizio. In modo analogo si dimostra che
zio vettoriale di R e` necessario scrivere esplicitamente le equazioni che li definiscono. Ponendo: 2,2
X =
x1 x2 x3 x4
,
la condizione AX = X A equivale al sistema lineare omogeneo:
le cui soluzioni sono:
4x2 + 9x3 = 9x1 + 12x2 4x1 12x3 4x2 + 9x3 =
3λ1 + λ2 ,
F
− −
−
−
0 9x4 = 0 4x4 = 0 0,
9 λ1 , λ1 , λ2 , 4
F e` : 12 −9
∈ R,
λ 1 , λ2
quindi dim( ) = 2 e una base di
B =
4
0
,
Per determinare la dimensione e una base di
1 0
0 1
.
G si procede allo stesso modo, la
Spazi Vettoriali e Sottospazi Vettoriali
182
condizione AX =
−XA equivale al sistema lineare omogeneo: 12x + 4x − 9x = 0
le cui soluzioni sono:
1
2
3
9x1 + 9x4 = 0 4x1 + 4x4 = 0 4x2 9x3 12x4 = 0,
−
−
−
9 λ1 , 3λ1 + λ2 , λ2 , λ1 , 4
G
λ1 , λ2
∈ R,
G e` :
quindi dim( ) = 2 e una base di
C =
− 1 0
3 1
,
0 4
9 0
.
2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vettoriali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in riga le componenti dei vettori di e di si ha che il rango di tale matrice `e 3 e che una base di + e` :
B C
F G
D =
1 0
0 1
0 0
,
3 2
0 4
,
−
0 6
.
F∩G
Dalla formula di Grassmann segue che dim( ) = 1. Una generica matrice appartenente a tale intersezione si deve poter scrivere come:
λ1
12 4
−9
0
− + λ2
1 0
0 1
per qualche valore di λ1 , λ2 , µ1 , µ2 deriva ha infinite soluzioni date da:
λ1 =
−
1 0
= µ 1
3 1
+ µ2
9 0
(4.11)
∈ R. Il sistema lineare omogeneo che ne
1 µ1 , λ2 = µ 1 , 6
∈ R.
µ1
Sostituendo questo risultato a primo membro di (4.11) si ottiene:
F ∩ G =
0 4
− L −
6 4
9 6
.
Capitolo 4
183
F + C se la matrice quadrata di ordine 4 le cui righe sono date dalle componenti di C e dalle componenti degli elementi della base D
3. La matrice C appartiene a
ha determinante uguale a zero, ossia:
− − −
1 0 0 3 0 0 0 h 2
0 1 0 2 4 6 0 h 3
= 0,
da cui segue h = 5 . La matrice C e` dunque:
C =
0 0
3 2
e si decompone nella somma di infinite coppie di matrici C 1 modo seguente:
∈ F e C ∈ G nel 2
C = C 1 + C 2 =
λ1
12 4
−9
0
− + λ2
1 0
0 1
+ µ1
1 0
3 1
+ µ2
0 4
9 0
con λ1 , λ2 , µ1 , µ2 R . Il sistema lineare che segue da tale scrittura ammette infinite soluzioni che dipendono da un’incognita libera (essendo dim( ) = 1 ), la soluzione di questo sistema lineare e la conseguente determinazione di C 1 e di C 2 sono lasciate per esercizio.
∈
4.5
F∩G
Per saperne di pi`u
In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragrafi precedenti. Di grande importanza, invece, la parte finale del paragrafo, che e` in generale oggetto di corsi piu` avanzati di algebra lineare, dove vengono introdotti alcuni esempi di spazi vettoriali complessi. Si studia lo spazio vettoriale Cn,n delle matrici quadrate ad elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quello delle matrici hermitiane e quello delle matrici anti-hermitiane che sono l’analogo, in campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche. 1. Verificare che il campo dei numeri reali R dotato delle seguenti Esercizio 4.21 operazioni:
,
Spazi Vettoriali e Sottospazi Vettoriali
184
x ♦ y = λ x =
√ 3
3
x3 + y3 , λ x,
λ
∈ R, x,y ∈ R,
e` uno spazio vettoriale di dimensione 1 su R stesso. 2. Verificare se tale propriet`a e` ancora valida nel caso delle operazioni:
x λ
3
3
y = √ x + y , x = λ x, 3
λ
∈ R, x, y ∈ R.
Soluzione 1. Si verifica facilmente che ( R, ♦) e` un gruppo abeliano, con 0 elemento neutro e x opposto di x R . Anche la verifica delle quattro propriet`a del prodotto per scalari e` semplice. Inoltre R = (1) , in quanto ogni x R si puo` scrivere come x 3 1 .
−
∈
L
2. La definizione di prodotto per scalari λ propriet`a:
(λ + µ)
x non verifica, per esempio, la seguente
x = (λ x) (µ x),
infatti:
(λ + µ)
x =
mentre:
(λ
x) (µ x)
∈
λ + µ x,
√ λ x √ µ x = (√ λ) √ √ ( λ) + ( µ) x. 3
=
3
=
3
3
√
x3 + ( µ)3 x3
3
Esercizio 4.22 Si verifichi che lo spazio vettoriale (R) delle funzioni reali di variabile reale descritto nell’Esempio 4.5 non e` finitamente generato.
F
Soluzione Sia un sottoinsieme finito di R e si indichi con ( , R) lo spazio vettoriale delle funzioni f : R costruito in modo analogo all’Esempio 4.5. Tale spazio vettoriale e` finitamente generato, infatti una sua base e` data dall’insieme delle funzioni caratteristiche di :
S S
F S
S −→
X = {χ ∈ F (S , R) | s ∈ S}, s
dove:
χs (t) =
1, t = s, 0, t = s.
Capitolo 4
185
X genera F (S , R) , infatti per ogni f ∈ F (S , R) , f = Σ f (s)χ . Si controlla fa` evidente che con questo tipo di ragionamento si cilmente che X e` un insieme libero. E perviene ad un sistema di generatori di F (R) formato da infiniti elementi. s∈S
s
Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato. In V, spazio vettoriale reale, si ha: 1. il vettore nullo o e` unico; 2. per ogni vettore x
∈ V, l’opposto −x e` unico;
∈ V ; 4. λx = o ⇐⇒ λ = 0, oppure x = o , con λ ∈ R e x ∈ V ; 5. (−1)x = −x, per ogni x ∈ V. o . Allora o = o + o Soluzione 1. Per assurdo, siano o e o due vettori nulli, o = 3. se x + y = x + z, allora y = z , per ogni x, y, z
essendo o il vettore nullo, ma anche o + o = o essendo o il vettore nullo, da cui la tesi.
2. Per assurdo, siano x1 e x 2 due opposti di x, con x1 = x 2 , allora:
(x + x1 ) + x2 = o + x2 = x 2 , ma anche:
(x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = ( x + x2 ) + x1 = x 1 , da cui l’assurdo. 3. Segue in modo evidente dalla propriet`a precedente, infatti da x + y = x + z si ha: x + y x = x + z x da cui la tesi.
−
−
4. Si inizia con il dimostrare che 0 x = o e che λ o = o . Si ha:
0 x = (0 + 0) x = 0 x + 0 x, applicando la propriet`a precedente si ha 0 x = o . Analogamente:
λo = λ(o + o) = λo + λo, da cui λ o = o . Viceversa si dimostra che se λ x = o, allora, necessariamente λ = 0 oppure (non esclusivo) x = o. Nel punto precedente e` stato provato che 0 x = o,
Spazi Vettoriali e Sottospazi Vettoriali
186
supposto, quindi, λ = 0 , si prova che da λ x = o segue necessariamente x = o . Se λ = 0, allora esiste il suo inverso λ −1 . Da:
o = λ −1 o = λ −1 (λx) = (λ−1 λ)x = 1x segue la tesi.
−
5. La tesi consiste nel provare che x + ( 1)x = o , infatti:
−
1x + ( 1)x = (1
− 1)x = 0 x = o.
Esercizio 4.24 Dimostrare la Formula di Grassmann 4.18 di seguito riportata.
W e W sottospazi vettoriali di uno spazio vettoriale reale V , allora: dim(W + W ) = dim(W ) + dim(W ) − dim(W ∩ W ). Soluzione Siano dim(V ) = n, dim(W ) = l, dim(W ) = p , con l, p ≤ n . Si ponga dim(W ∩ W ) = k , dove k ≤ l, p . Si lasciano per esercizio i casi particolari k = l e k = p e si tratta solo il caso di k < l e k < p . Sia B = (a , a , . . . , a ) una base di W ∩ W . B e` , quindi, un insieme libero sia in W sia in W . Dal Teorema 4.15 segue Siano
1
2
1
2
1
2
1
1
1
2
2
1
1
2
2
1
2
k
2
che si possono costruire una base:
C = (a , . . . , a , b 1
di
W e una base:
k
k+1 , . . . , bl )
1
D = (a , . . . , a , c 1
k
k+1 , . . . , c p )
W . La tesi consiste, allora, nel dimostrare che: E = (a , . . . , a , b , . . . , b , c , . . . , c ) e` una base di W + W . Per costruzione E e` un sistema di generatori di W + W . Si deve quindi provare che E e` libero. A tale scopo si consideri la combinazione lineare a di
2
1
1
k
k+1
l
k+1
p
2
1
2
coefficienti reali:
α1 a1 + . . . + αk ak + β k+1 bk+1 + . . . + β l bl + γ k+1 ck+1 + . . . + γ p c p = o , (4.12)
∈ R. Sia: − . . . − γ c . c
con α 1 , . . . , αk , β k+1 , . . . , βl , γ k+1 , . . . , γ p c =
∈ W
−γ
k+1 k+1
p p
(4.13)
Per definizione c 2 , da (4.12) segue che c = α 1 a1 +. . .+αk ak +β k+1 bk+1 +. . .+β l bl , quindi c 1 , pertanto c 1 2 . Allora esistono opportuni coefficienti reali λi , i = 1, 2, . . . , k , tali che c = λ1 a1 + . . . + λk ak . Da (4.13) si ottiene:
∈ W
∈ W ∩ W
Capitolo 4
187
λ1 a1 + . . . + λk ak + γ k+1 ck+1 + . . . + γ p c p = o ,
(4.14)
D
ma i vettori che compaiono in (4.14) sono i vettori della base , pertanto sono linearmente indipendenti, da cui segue, tra l’altro, che γ k+1 = . . . = γ p = 0. Sostituendo in (4.12) e ricordando che la combinazione lineare rimasta e` formata dai vettori della base , si ha la tesi.
C
Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato.
B
Sia = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V e sia un insieme libero di V, allora p n.
≤
I = {u , u , . . . , u } 1
2
B
p
I
Soluzione Siano (λ1 , λ2 , . . . , λn ) le componenti di u 1 rispetto alla base . Poich´e e` un insieme libero, u1 = o , pertanto almeno una componente tra λi , i = 1, 2, . . . , n , non e` nulla; si supponga che sia λ 1 = 0 (in caso contrario si riordinano i vettori di in modo da porre al primo posto un coefficiente non nullo). Dalla relazione:
B
u1 = λ 1 v1 + λ2 v2 + . . . + λn vn
(4.15)
si ricava: 1 v1 = λ − 1 u1
−1
−λ
1
λ2 v2
−1
− ... − λ
1
λ n vn .
∈L
{
}
(u1 ,v2, . . . ,vn ) . Si vuole dimostrare che l’insieme u1 ,v2 , . . . ,vn In altri termini v1 e` una base di V . Si inizia con il provare che si tratta di un sistema di generatori di V . Da (4.15) segue che, per ogni x V, si ha:
∈
x = x1 v1 + x2 v2 + . . . + xn vn 1 1 = x1 (λ− λ− ... 1 u1 1 λ2 v2 = µ1 u1 + µ2 v2 + . . . + µn vn
−
− −λ
{
}
−1
1
λn vn ) + x2 v2 + . . . + xnvn
da cui la tesi. L’insieme v2 , v3 , . . . , vn e` libero essendo un sottoinsieme non vuoto di (cfr. Es. 4.33). Il vettore u1 non appartiene a (v2 , v3 , . . . , vn ) , quindi l’insieme u1 , v2 , . . . , vn e` libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla base , si `e ottenuta una nuova base 1 = (u1 , v2 , . . . , vn ) in cui si e` sostituito al primo vettore di il primo vettore di . Si itera questo procedimento, passando a considerare il vettore u2 e lo si esprime come combinazione lineare dei vettori di 1 . Si ha:
B { B
}
B
I
L
B
B
u2 = γ 1 u1 + γ 2 v2 + . . . + γ n vn . Di nuovo, essendo u 2 non nullo, esiste almeno una sua componente tra γ i , i = 1, 2, . . . , n , non nulla. Non pu`o succedere che sia γ 1 = 0 e gli altri γ i = 0, i = 2, . . . , n , perch´e i
Spazi Vettoriali e Sottospazi Vettoriali
188
vettori u1 , u2 sono linearmente indipendenti, pertanto si pu o` supporre γ 2 = 0 . Si ricava v2 in funzione dei vettori rimanenti e si dimostra che 2 = (u1 , u2 , v3 , . . . , vn ) e` una base di V in modo analogo al caso precedente. Si procede di nuovo con un terzo vettore di , questo tipo di ragionamento `e autorizzato dal fatto che e sono insiemi finiti. Il procedimento descritto si pu`o arrestare solo per due motivi:
B
I
B I
I e pertanto sono stati inseriti i vettori di I all’in-
a. si sono esauriti tutti i vettori di terno di , da cui segue la tesi;
B
B
b. si sono esauriti prima i vettori di e rimangono ancora dei vettori in contiene una base di V che `e assurdo, essendo libero.
I
4.5.1
I
I , segue che
Equazioni vettoriali e teorema del rango
Definizione 4.18 Dati i vettori a1 , a2 , . . . , am , b di uno spazio vettoriale reale V, la relazione: (4.16) x1 a1 + x2 a2 + . . . + xmam = b e` un’equazione vettoriale nell’incognita (x1 , x2 , . . . , xm )
∈R
m
.
Definizione 4.19 Una soluzione dell’equazione vettoriale (4.16) `e una m–upla:
(x01 , x02 , . . . , x0m )
∈R
m
che sostituita in (4.16) la verifica.
Esempio 4.43 Nei capitoli precedenti si sono incontrate pi u` volte equazioni vettoriali, per esempio la definizione di vettori linearmente indipendenti fa uso di un’equazione vettoriale di cui si chiede che ammetta solo la soluzione nulla. L’esempio precedente impone la seguente definizione.
Definizione 4.20 L’equazione vettoriale (4.16) si dice omogenea se b = o e o e` il vettore nullo di V . ` chiaro che un’equazione vettoriale omogenea ammette la soluzione Osservazione 4.32 E nulla (0, 0, . . . , 0) . L’equazione vettoriale (4.16) ammette solo la soluzione nulla se e solo se i vettori a 1 , a2 , . . . , ak sono linearmente indipendenti, ovviamente supponendo a priori che siano tutti diversi dal vettore nullo. Il teorema che segue determina le condizioni affinch´e un’equazione vettoriale ammetta soluzioni e propone anche il metodo per determinarle.
Capitolo 4
189
Teorema 4.26 – Teorema di Rouch´e–Capelli – L’equazione vettoriale (4.16) ammette soluzioni se e solo se:
L
L
dim( (a1 , a2 , . . . , am )) = dim( (a1 , a2 , . . . , am , b)).
L ≤
⊆L
Innanzi tutto si osservi che (a1 , a2 , . . . , am) Dimostrazione (a1 , a2 , . . . , am , b) e, se dim( (a1 , a2 , . . . , am )) = k, allora k dim( (a1 , a2 , . . . , am , b)) k + 1 . Si supponga che l’equazione (4.16) ammetta soluzioni, si deve dimostrare che:
L
L(a , a , . . . , a 1
m , b)
2
L
≤
⊆ L( a , a , . . . , a 1
m ).
2
Per ipotesi esiste una m –upla di numeri reali (x01 , x02 , . . . , x0m ) tale che:
x01 a1 + x02 a2 + . . . x0m am = b , da cui segue la tesi, (cfr. Teor. 4.8).
L
L
Viceversa, si supponga che dim( (a1 , a2 , . . . , am )) = dim( (a1 , a2 , . . . , am , b)) . Conviene distinguere due casi e analizzarli separatamente:
L L b. dim(L(a , a , . . . , a )) = dim( L(a , a , . . . , a , b)) = k < m . a. Se dim(L(a , a , . . . , a )) = dim( L(a , a , . . . , a , b)) = m , i vettori a , a , . . . , a costituiscono una base sia di L(a , a , . . . , a ) sia di L(a , a , . . . , a , b) , ala. dim( (a1 , a2 , . . . , am )) = dim( (a1 , a2 , . . . , am , b)) = m ; 1
2
1
1
m
2
2
1
m
1
m
m
2
1
m
2
1
m
2
2
m
lora il vettore b si esprime, in modo unico, come combinazione lineare dei vettori a1 , a2 , . . . , am e, quindi, l’equazione (4.16) ammette una sola soluzione data dalle componenti di b rispetto alla base ( a1 , a2 , . . . , am ) .
b. Dal Teorema 4.11 segue che esistono k vettori tra a1 , a2 , . . . , am che formano una base di (a1 , a2 , . . . , am ) . Si supponga che siano i primi k (in caso contrario si riordinano i vettori in modo da ottenere questo risultato), quindi (a1 , a2 , . . . , ak ) = (a1 , a2 , . . . , am ) , ma per ipotesi si ha anche che:
L
L
L
L(a , a , . . . , a ) = L(a , a , . . . , a 1
2
k
1
2
m , b).
Segue che esistono k scalari x 01 , x02 , . . . , x0k tali che: b = x 01 a1 + x02 a2 + . . . + x0k ak . Il teorema e` dimostrato perch´e la m –upla (x01 , x02 , . . . , x0k , 0, . . . , 0) Rm e` una soluzione dell’equazione vettoriale (4.16). In questo caso, esistono infinite soluzioni che dipendono da m k incognite libere, infatti scelti ad arbitrio gli scalari
∈
−
Spazi Vettoriali e Sottospazi Vettoriali
190
µk+1 , . . . , µm , il vettore b pertanto:
−µ
k+1 ak+1
−. . .−µ
m am appartiene
a
L(a , a , . . . , a ) 1
2
k
b = x 01 a1 + x02 a2 + . . . + x0k ak + µk+1 ak+1 + . . . + µm am da cui segue la tesi.
Osservazione 4.33 Il Lettore verifichi per esercizio (usando la definizione di rango di una matrice) che il Teorema di Rouch´e–Capelli appena dimostrato coincide con il Teorema di Rouch´e–Capelli 1.2 enunciato nel Paragrafo 1.2. Esercizio 4.26 Dimostrare il Teorema del Rango 4.19, di seguito riportato. Per ogni matrice A
∈R
m,n
si ha:
R
C
dim( (A)) = dim( (A)). Soluzione Sia:
A =
a11 a21 .. .
2
m
.. .
.. .
.. .
am1 am2 . . . amn
R(A) = L(R , R , . . . , R ) ⊆ R 1
a12 . . . a1n a22 . . . a2n
n
∈
Rm,n.
e` lo spazio vettoriale delle righe di A , dove:
R1 = (a11 , a12 , . . . , a1n) R2 = (a21 , a22 , . . . , a2n) .. .
Rm = (am1 , am2 , . . . , amn).
C(A) = L(C , C , . . . , C ) ⊆ R 1
2
n
m
e` lo spazio vettoriale delle colonne di A , dove:
C 1 = (a11 , a21 , . . . , am1 ) C 2 = (a12 , a22 , . . . , am2 ) .. .
C n = (a1n, a2n, . . . , amn).
C R
R
≤
Siano k = dim( (A)) e h = dim( (A)) . La tesi si ottiene dimostrando che k h, t infatti, per la disuguaglianza opposta e` sufficiente considerare A , per cui si ha (A) = ( tA) e (A) = ( tA) , applicando il fatto che k h a tA segue h k .
C
C
≤
≤
R
Capitolo 4
191
Si consideri il sistema lineare omogeneo AX = O avente A come matrice dei coefficienti, O Rm,1 matrice nulla dei termini noti e
∈
X =
x1 x2 .. .
xn
∈
Rn,1
matrice delle incognite. Dalla sua scrittura esplicita:
a11 x1 + a12 x2 + . . . + a1n xn = 0 a21 x1 + a22 x2 + . . . + a2n xn = 0 .. .
(4.17)
am1 x1 + am2 x2 + . . . + amnxn = 0
si deduce che esso `e equivalente all’equazione vettoriale:
x1 C 1 + x2 C 2 + . . . + xnC n = o , (o
∈R
m
C
) le cui soluzioni dipendono da k vettori di (A) linearmente indipendenti, dove
C
R
k = dim( (A)) , (cfr. Teor. 4.26). Essendo h = dim( (A)) , si supponga che le prime h righe di A siano linearmente indipendenti, questa non e` un’ipotesi restrittiva perch´e in caso contrario si puo` effettuare un cambiamento dell’ordine in cui sono considerate le righe. Si supponga, quindi, che l’insieme R1 , R2 , . . . , Rh sia libero. Dalla Definizione 1.6 e dal Teorema 1.1 segue che il sistema lineare (4.17) e` equivalente al sistema lineare omogeneo:
{
}
a11 x1 + a12 x2 + . . . + a1n xn = 0 a21 x1 + a22 x2 + . . . + a2n xn = 0 .. .
ah1 x1 + ah2 x2 + . . . + ahnxn = 0
che `e, a sua volta, equivalente all’equazione vettoriale:
x1 a1 + x2 a2 + . . . + xnan = o , dove: a1 = (a11 , a21 , . . . , ah1 ) a2 = (a12 , a22 , . . . , ah2 ) .. . an = (a1n , a2n , . . . , ahn).
(4.18)
Spazi Vettoriali e Sottospazi Vettoriali
192
Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue:
L
C
dim( (a1 , a2 , . . . , an )) = dim( (A)) = k ma
L(a , a , . . . , a ) ⊆ R , da cui la tesi. 1
2
h
n
Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato. Siano A 1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora:
rank(A1 A2
··· A ) ≤ min{rank(A ), rank(A ), . . . , rank(A )}. 1
n
2
n
` un esercizio osserSoluzione Si inizia con il dimostrare il teorema nel caso n = 2 . E vare che le colonne della matrice prodotto A1 A2 sono combinazione lineare delle colonne della matrice A1 e che le righe della matrice prodotto A1 A2 sono combinazione lineare delle righe della matrice A 2 . Per semplicit`a e per capire meglio quanto appena osservato si considera il caso del prodotto di due matrici quadrate di ordine 2 :
A1 A2 =
=
=
=
a1 a2 a3 a4
a1 b1 + a2 b3 a1 b2 + a2 b4 a3 b1 + a4 b3 a3 b2 + a4 b4
b1
a1 a3
a1
b1 b2
+ b3
+ a2
a2 a4
a1 a3
b2
+ b4
a2 a4
b3 b4
.
a3
Di conseguenza si ha:
b1 b2 b3 b4
b1 b2
+ a4
b3 b4
C(A A ) ⊆ C (A ), R(A A ) ⊆ R(A ) 1
2
1
1
2
2
e, quindi:
rank(A1 A2 )
≤ rank(A ), rank(A A ) ≤ rank(A ) 1
1
2
2
da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena ottenuto.
Capitolo 4
193
Esercizio 4.28 Discutere, al variare di h R , le soluzioni della seguente equazione vettoriale di R 4 : x1 a1 + x2 a2 + x3 a3 = b ,
∈
dove: a1 = (2,
−1, 0, 4),
−
a2 = ( 3, 2, 4, h),
a3 = (5,
−3, h, −1),
b = (14,
−8, h, −1).
` sufficiente trasformare l’equazione vettoriale assegnata nel sistema lineaE Soluzione re ad essa equivalente e risolvere quest’ultimo applicando i metodi descritti nel Capitolo 1. Si ha:
∈ {−2, 14} non esistono soluzioni; −h , x = 8 + h 8 + 3h se h = −2 o h = 14, la soluzione e` x = , x = 4+h 4+h 4+h se h /
1
2
3
L
−
2 3 5
R3
−1 2 −3 −→
0 4 h
→ R + R 3
L
−→ → − → − − − − − − − − − 4 h 1
2 0 0
2
2R2 + 3R1 2R3 5R1
R2 R3
1 0 1 8 0 8 + 2h
2 0 0
4 12 + 2h 10 + 2h
Quindi dim ( (a1 , a2 , a3 )) = 3 per ogni valore di h . Per
2 3 5 14
L
.
L(a , a , a ) e
Se si vuole, invece usare il Teorema 4.26 si pu o` procedere confrontando (a1 , a2 , a3 , b) . Per (a1 , a2 , a3 ) si ha:
L
1 2 3 8
0 4 h h
4 h 1 1
= h2
−1 1 −1
0 4 8 12 + 2h 2h 22
−
1
2
3
.
L(a , a , a , b) si ha: 1
2
3
− 12h − 28, −
per cui dim( (a1 , a2 , a3 , b)) = 3 se e solo se h = 2 o h = 14 . Pertanto l’equazione vettoriale e` compatibile solo se h = 2 o h = 14 . Sostituendo tali valori nei vettori dati si ottengono le soluzioni cercate.
4.5.2
−
Equivalenza tra due definizioni di rango di una matrice
In questo paragrafo si intende dimostrare l’equivalenza tra la definizione di rango di una matrice (cfr. Def. 4.15) inteso come dimensione dello spazio vettoriale delle righe o delle
Spazi Vettoriali e Sottospazi Vettoriali
194
colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite l’uso dei minori. A questo proposito si ricordano i fatti seguenti. Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di rango di A come la dimensione dello spazio vettoriale delle righe (A) (o dello spazio vettoriale delle colonne (A) ) e del Teorema di Nullit`a pi`u Rango (cfr. Teor. 4.24) si ha l’equivalenza tra le seguenti condizioni:
R
C
a. rank(A) < n ; b. i vettori riga di A sono linearmente dipendenti; c. i vettori colonna di A sono linearmente dipendenti; d. il sistema lineare omogeneo AX = O ha soluzioni non nulle; e. det(A) = 0. In generale nel caso di una matrice A provare il seguente teorema.
Teorema 4.27 Sia A
∈R
m,n
∈R
m,n
, non necessariamente quadrata, si pu`o
, le condizioni seguenti sono equivalenti:
1. rank(A) = r ; 2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine r + 1 sono uguali a zero; 3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine p > r sono nulli. Per dimostrare l’equivalenza delle tre affermazioni si proveranno le Dimostrazione seguenti implicazioni:
1.
⇒
=
2.
⇒
=
3.
⇒
=
1.
Innanzitutto, si osservi che se la matrice A ha un minore non nullo di ordine k allora le k righe corrispondenti a quelle del minore non nullo sono linearmente indipendenti. Per dimostrare l’implicazione 1. = 2. si supponga quindi che rank(A) = r. Sia B la sottomatrice quadrata di A ottenuta intersecando r righe linearmente indipendenti di A con r colonne linearmente indipendenti di A . Allora si ha rank(B) = dim( (B)) = r e pertanto det(B) = 0 , ovvero la matrice A ha un minore non nullo di ordine r . D’altra parte ogni minore di A di ordine r + 1 ha i vettori riga linearmente dipendenti e quindi
⇒
R
Capitolo 4
195
e` nullo per l’equivalenza tra le condizioni b. ed e. prima elencate. Infatti, se esistesse un minore di ordine r + 1 diverso da zero, allora la matrice A avrebbe rango r + 1 , in quanto avrebbe r + 1 righe linearmente indipendenti.
⇒ 3. e` una semplice conseguenza del Primo Teorema di Laplace (cfr. Per dimostrare l’implicazione 3. =⇒ 1. si supponga quindi che A abbia un minore L’implicazione 2. = Teor. 2.17).
non nullo di ordine r e che tutti i minori di ordine p > r siano nulli. Le righe corrispondenti ad un minore non nullo di A sono pertanto linearmente indipendenti e quindi dim(R(A)) r , ovvero rank(A) r . Se fosse rank(A) > r si avrebbe una riga linearmente indipendente con le righe di A corrispondenti a quelle del minore non nullo, allora si avrebbe una sottomatrice C R r+1,n di rango r + 1 . Per l’implicazione 1. = 2. si potrebbe allora estrarre dalla sottomatrice C (e quindi dalla matrice A ) un minore non nullo di ordine p > r , ma questo sarebbe assurdo.
≥
≥
∈
⇒
L’equivalenza tra le due definizioni di rango (cfr. Def. 4.15 e Def. 2.13) e` quindi una semplice conseguenza del teorema precedente.
4.5.3
Spazi vettoriali complessi, matrici hermitiane e anti-hermitiane
Come gi`a visto nell’Osservazione 4.1, si puo` definire uno spazio vettoriale complesso, ossia uno spazio vettoriale su C . Analogamente al caso degli spazi vettoriali reali anche nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente dipendenti e indipendenti, basi e dimensione. L’insieme dei numeri complessi C , con le usuali operazioni di somma e prodotto di numeri complessi, e` l’esempio piu` semplice di spazio vettoriale complesso, ma C puo` essere anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha dimensione 1 ed una sua base e` ad esempio (1) , mentre come spazio vettoriale reale C ha dimensione 2 ed una sua base e` ad esempio (1, i) (cfr. Es. 4.24). Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vettoriali complessi (cfr. Es. 4.3 e 4.2).
Esempio 4.44 L’insieme:
Cn = (x1 , x2 , . . . , xn ) x j
{
| ∈ C, j = 1, 2, . . . , n}
e` uno spazio vettoriale complesso. La somma di due n -uple di C n e` definita come:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn) = (x1 + y1 , x2 + y2 , . . . , xn + yn).
Spazi Vettoriali e Sottospazi Vettoriali
196
Il vettore nullo di C n e` la n -upla (0, 0,..., 0) e l’opposto del vettore (x1 , x2 , . . . , xn ) e` il vettore ( x1 , x2 , . . . , xn ) . Il prodotto di un numero complesso λ per un elemento di Cn e` definito da:
− −
−
λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λ xn).
Cn , come spazio vettoriale complesso, ha dimensione n e gli n vettori: e1 = (1, 0, . . . , , 0),
e2 = (0, 1, 0, . . . , 0),
...,
en = (0, 0, . . . , 1)
formano una base, detta base canonica o standard di C n .
Esempio 4.45 Pi`u in generale, se si indica con C m,n l’insieme delle matrici con m righe e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di prodotto di un numero complesso per una matrice come nel caso reale, e` facile verificare che Cm,n e` uno spazio vettoriale complesso. Il vettore nullo di Cm,n e` la matrice nulla. Lo spazio vettoriale C m,n , come spazio vettoriale complesso, ha dimensione mn ed una sua base e` data dalle mn matrici E ij aventi tutti gli elementi uguali a zero ad eccezione di quello di posto ij che vale 1 . Tale base `e chiamata base canonica di C m,n . Esercizio 4.29 Determinare una base e la dimensione di Cm,n , pensato come spazio vettoriale reale. Soluzione Ogni matrice Z = (z hk ) ad elementi complessi si pu o` scrivere come somma di due matrici reali A = (ahk ) e B = (bhk ) dello stesso ordine:
Z = A + iB ottenute, in modo naturale, dalla scrittura di ogni elemento Z come z hk = ahk + ib hk . ` evidente, quindi, che, come spazio vettoriale su R, dim Cm,n = 2mn . Si lascia per E esercizio la determinazione di una sua base. Se A C m,n , si indichi con A la matrice coniugata di A , ossia la matrice che ha come elementi i coniugati degli elementi di A . Se A Rm,n , cio`e se A e` reale, ovviamente A = A . Per la coniugata di una matrice valgono ovvie propriet`a che sono facile conseguenza dell’operazione di coniugio sui numeri complessi, e precisamente:
∈
∈
1. A + B = A + B,
4.
m,n
∈ C, A ∈ C ; AB = A B, A ∈ C , B ∈ C A = A, A ∈ C ;
2. λA = λ A, 3.
∈ C
A, B
m,n
λ
m,n
t
t
;
m,n
n,k
;
Capitolo 4
5. det(A) = det(A),
A
∈C
n,n
197
.
Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate complesse C n,n , che sono l’analogo, nel caso di R n,n , del sottospazio vettoriale delle matrici simmetriche (Rn,n ) e di quello delle matrici antisimmetriche (Rn,n ) (cfr. Es. 4.15 e 4.16). Precisamente, si definiscono l’insieme delle matrici hermitiane :
S
A
H(C
n,n
{ ∈C |
)= A
n,n
t
A = A
}
e l’insieme delle matrici anti-hermitiane :
AH(C
{ ∈ C | A = −A}. Chiaramente una matrice reale simmetrica A ∈ S (R ) e` hermitiana ed una matrice reale antisimmetrica A ∈ A(R ) e` anti-hermitiana. n,n
)= A
n,n
t
n,n
n,n
Ad esempio la matrice:
2 1
−
1+i 3 i
−
e` hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa propriet`a non e` casuale, infatti gli elementi sulla diagonale principale di una matrice hermitiana A sono necessariamente reali, in quanto devono coincidere, per definizione, con i proprii coniugati. Si pu o` verificare che la somma di due matrici hermitiane `e hermitiana e l’inversa di una matrice hermitiana invertibile e` hermitiana. Analoghe propriet`a valgono per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto AB di due matrici hermitiane A e B e` hermitiana solo se A e B commutano, cio`e se e solo se AB = BA .
Esercizio 4.30 Si verifichi che l’insieme delle matrici hermitiane (Cn,n ) , con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di dimensione n2 . Inoltre, si provi invece che (Cn,n) , con le operazioni di somma e prodotto per un numero complesso, non `e un sottospazio vettoriale complesso di C n,n.
H
H
Soluzione Siano A e B due matrici hermitiane, ossia tA = A e tB = B, si tratta di dimostrare che la matrice A + B e` hermitiana, infatti: t
Sia λ
(A + B) = tA + tB = A + B = (A + B).
∈ R , si deve dimostrare che λA e` una matrice hermitiana se A ∈ H(C
n,n
t
in quanto λ = λ .
(λA) = λ tA = λA = (λA),
) , infatti:
Spazi Vettoriali e Sottospazi Vettoriali
198
` evidente che questa propriet`a e` falsa se λ E C , quindi (Cn,n) e` uno spazio vettoriale reale ed e` un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale reale, ma non `e un sottospazio vettoriale complesso di C n,n inteso come spazio vettoriale complesso.
∈
H
Come gi`a accennato in precedenza, una matrice hermitiana A e` del tipo:
A =
a12 + ib12 . . . a1n + ib1n
a11 a12
− ib .. .
a1n
. . . a2n + ib2n
a22
12
.. .
− ib
a2n
1n
..
− ib
...
2n
,
.. .
.
ann
` quindi un esercizio dimostrare che dove a hk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E una base di (Cn,n) e` :
H
−
1 0 ... ... 0 0 0 ... ... 0 .. . .. .
.. . .. .
..
.
..
.. . .. .
.
0 0 ... ... 0
0 0 ... ... 0 0 1 ... ... 0 .. . .. .
.. . .. .
..
.
..
.. . .. .
.
,
,...,
0 0 ... ... 0
0 i . .. . .. 0 i 0 ... ... 0 .. . .. .
.. . .. .
0
0 ... ... 0
..
.
..
.. . .. .
.
0 1 ... ... 0 1 0 ... ... 0 .. . .. .
.. . .. .
..
.
..
.. . .. .
.
0 0 ... ... 0
−
,...,
..
.
..
.. . .. .
.
.. . .. .
0 ... ... 0 1 0 ... ... 1 0 0 0 .. . .. .
0 0 ... ... 1 0 0 ... ... 0 .. . .. .
,...,
0 ... ... 0 0 .. . .. .
,
..
.
..
.
.. . .. .
.. . .. .
..
.
..
H
−
..
.. . .. .
.
.. . .. .
.
.. . .. .
0 ... ... 0 0 0 ... ... 0 1
0 ... ... .. . .. .
..
.
..
.
0 ... ... 0 ... ...
Da questo segue che:
dim( (Cn,n)) =
.
0 ... ... 0 0
,...,
i 0 ... ... 0
..
1 0 ... ... 0
0 . .. . .. i 0 ... ... 0 .. . .. .
.. . .. .
n(n + 1) n(n 1) + = n 2 . 2 2
,
,
0 .. . .. .
0 .. . .. .
0 i i 0
−
.
Capitolo 4
199
Esercizio 4.31 Si verifichi che l’insieme delle matrici anti-hermitiane (Cn,n) , con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di (Cn,n) , con le operazioni di somma e dimensione n2 . Inoltre, si provi invece che prodotto per un numero complesso, non e` un sottospazio vettoriale complesso di C n,n . .
AH
AH
Soluzione In modo analogo all’esercizio precedente si dimostra che (Cn,n) e` un sottospazio vettoriale reale di C n,n ma non e` un sottospazio vettoriale complesso.
AH
` facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A e` del E tipo:
−
ib11
a12 + ib12
. . . a1n + ib1n
ib22
. . . a2n + ib2n
a12 + ib12
A =
−a
.. .
.. .
1n +
ib1n
−a
..
2n +
,
.. .
.
ib2n . . .
ibnn
` quindi un esercizio dimostrare che dove a hk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E (Cn,n) e` : una base di
AH
−
0 1 ... ... 0 1 0 ... ... 0 .. . .. .
.. . .. .
0
0 ... ... 0
..
.
..
i 0 ... ... 0 0 0 ... ... 0 .. . .. .
.. . .. .
..
.
..
.
.. . .. .
0 0 ... ... 0 0 i .. . . .. 0 i 0 ... ... 0 .. . .. .
.. . .. .
..
.
..
.
.. . .. .
0 0 ... ... 0
.
.. . .. .
−
0 0
,...,
0 ... ... 1 0 ... ... 0
.. . .. .
.. . .. .
..
.
.. . .. .
.. . .. .
..
.
..
.. . .. .
.
,
0 0 ... ... 0
,...,
.
1 0 ... ... 0
0 0 ... ... 0 0 i . .. . . . 0
,...
..
.. . .. .
.. . .. .
..
.
..
.
.. . .. .
i 0 ... ... 0
,
0 ... ... .. . .. .
..
.
..
.. . .. .
..
.
..
.
.. . .. .
.. . .. .
0 ... ... 0 0 0 ... ... 0 i
,...,
0 .. . .. .
.
0 ... ... 0 ... ...
0 ... ... 0 0
0 0 .. . . .. i 0 0 ... ... 0 .. . .. .
..
.
..
.
.. . .. .
0 1 1 0
−
,
0 ... ... 0 0 .. . .. .
0
.. . .. .
.. . .. .
0 ... ... 0 i 0 . .. . .. i 0
.
Spazi Vettoriali e Sottospazi Vettoriali
200
(Cn,n)) = n2 . Si osservi, inoltre, che una matrice A Da questo segue che dim( e` hermitiana se e solo se iA e` anti-hermitiana.
AH
∈C
n,n
` valido, in campo complesso, il seguente teorema, analogo al Teorema 4.4 dimostrato E nel caso delle matrici quadrate ad elementi reali.
Teorema 4.28 Lo spazio vettoriale reale C n,n si decompone nel modo seguente:
Cn,n =
H(C ) ⊕ AH(C n,n
n,n
).
Dimostrazione Si procede come nella dimostrazione del Teorema 4.4, tenendo conto che ogni matrice A Cn,n si decompone come:
∈
1 1 A = (A + tA) + (A 2 2 e che (A + tA)
∈ H(C
n,n
) e (A
− A) ∈ AH(C t
n,n
− A) t
).
Osservazione 4.34 In letteratura `e spesso usata la notazione:
A∗ = tA, pertanto una matrice A e` hermitiana se e solo se A = A∗ ed e` anti-hermitiana se e solo se A = A∗ . Per maggiori propriet`a ed esempi si veda per esempio [15].
−
Capitolo 5 Spazi Vettoriali Euclidei Lo scopo di questo capitolo e` quello di estendere il concetto di prodotto scalare, definito nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V 3 , agli spazi vettoriali di dimensione superiore a tre e, quindi, di introdurre le nozioni di perpendicolarit a` e di angolo in generale, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali di dimensione qualsiasi.
5.1
Definizione di prodotto scalare
Definizione 5.1 Sia V uno spazio vettoriale reale. Si definisce prodotto scalare su V la funzione:
· : V × V −→ R,
(x, y)
−→ x · y
per cui valgano le seguenti propriet a` :
·
·
∈ V ; (x + x ) · y = x · y + x · y, x, x , y ∈ V ; (λx) · y = λ(x · y) = x · (λy), λ ∈ R, x, y ∈ V ; x · x ≥ 0, x ∈ V e x · x = 0 ⇐⇒ x = o .
1. x y = y x, 2. 3. 4.
x, y
· ·
Uno spazio vettoriale reale V su cui `e definito un prodotto scalare “ ” prende il nome di spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, ) .
·
Esempio 5.1 Il prodotto scalare x y = x y cos(xy) definito nel Paragrafo 3.7.1 conferisce a V 3 la struttura di spazio vettoriale euclideo. 201
Spazi Vettoriali Euclidei
202
Esempio 5.2 Su Rn si definisce un prodotto scalare “naturale” che ricalca il calcolo in componenti (rispetto ad una base ortonormale) del prodotto scalare standard su V 3 , ricordato nell’esempio precedente. Precisamente si pone: n
·
(x1 , x2 , . . . , xn ) (y1 , y2 , . . . , yn) = x 1 y1 + x2 y2 + . . . + xn yn =
xi yi , (5.1)
i=1
per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) Rn . Si lascia per esercizio la verifica delle quattro propriet`a di definizione di prodotto scalare. Con la notazione matriciale:
∈
X =
la (5.1) si scrive come:
x1 x2
Y =
,
.. .
xn
y1 y2 .. .
yn
X Y = t X Y .
·
(5.2)
Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene cos`ı dotato della struttura di spazio vettoriale euclideo.
Esempio 5.3 Si consideri la funzione: 3
3
• : R × R −→ R, cos`ı definita:
•
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 . Si verifica facilmente che “ ” e` un altro prodotto scalare su R 3 , chiaramente diverso dal prodotto scalare standard.
•
L’esempio appena incontrato permette di affermare che, almeno su Rn , e` possibile definire infiniti prodotti scalari, quindi infinite strutture euclidee.
Esempio 5.4 Si consideri la funzione: 3
3
∗ : R × R −→ R, cos`ı definita:
∗
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = x 1 y1 + x2 y2
−x y . 3 3
Si osserva che “ ” non e` un prodotto scalare su R3 , per esempio (0, 0, 1) (0, 0, 1) = che contraddice il quarto assioma di definizione di prodotto scalare.
∗
∗
−1
Capitolo 5
203
Esempio 5.5 Si consideri la funzione:
: R3
3
× R −→ R,
cos`ı definita:
(x1 , x2 , x3 ) (y1 , y2 , y3 ) = x 1 y1 + x2 y2 . Anche “ ” non e` un prodotto scalare su R3 , per esempio (0, 0, 1) (0, 0, 1) = 0 che contraddice il quarto assioma di definizione di prodotto scalare. Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione finita, ammette almeno un prodotto scalare.
Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia una sua base. Esiste un prodotto scalare su V tale che: x y = tX Y,
·
B = (v , v , . . . , v ) 1
∈ V,
x, y
2
n
(5.3)
dove:
X =
x1 x2 .. .
xn
,
Y =
y1 y2 .. .
yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti, rispettivamente di x e y , rispetto alla base .
B
La dimostrazione `e lasciata al Lettore per esercizio. Dal teorema precedente segue che ogni spazio vettoriale reale e` uno spazio vettoriale euclideo e poich´e esistono infinite basi su uno spazio vettoriale, esistono anche infiniti prodotti scalari sullo stesso spazio vettoriale.
Esercizio 5.1 Verificare che la funzione:
· : R × R −→ R, m,n
m,n
definita da:
A B = tr(tA B), e` un prodotto scalare su R m,n.
·
(5.4)
Spazi Vettoriali Euclidei
204
Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nell’esempio precedente. Si vuole calcolarne l’espressione esplicita rispetto a due matrici A = (aij ) e B = (bij ) di R 2,2 . Si ha:
·
A B = tr
a11 a21 a12 a22
b11 b12 b21 b22
= a 11 b11 + a12 b12 + a21 b21 + a22 b22 .
Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti delle matrici A e B rispetto alla base canonica (E ij ), i,j = 1, 2 , di R2,2 , il precedente prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si pu`o verificare che la stessa propriet`a vale in generale su Rm,n , ovvero che il prodotto scalare (5.4) scritto in componenti rispetto alla base canonica (E ij ), i = 1, 2, . . . , m , j = 1, 2, . . . , n, corrisponde al prodotto scalare standard in R mn .
Esercizio 5.2 Posto:
p(x) = a 0 + a1 x + . . . + an xn,
q (x) = b 0 + b1 x + . . . + bn xn,
verificare che la funzione:
· : R [x] × R [x], n
n
definita da:
n
·
p(x) q (x) =
ai bi
(5.5)
i=0
e` un prodotto scalare sullo spazio vettoriale R n [x] dei polinomi di grado minore o uguale ad n . La funzione:
∗ : R [x] × R [x] −→ R, n
n
definita da:
n
∗
p(x) q (x) = definisce un prodotto scalare su R n [x] ?
5.2
ai bi
i=1
Norma di un vettore
·
Definizione 5.2 Sia (V, ) uno spazio vettoriale euclideo. Si definisce norma di un vettore x di V il numero reale positivo dato da:
x = √ x · x.
Capitolo 5
205
Si osservi che la precedente definizione ha senso perch´e, per il quarto assioma di definizione del prodotto scalare, x x 0 , per ogni x V.
· ≥
∈
Esempio 5.7 In V 3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un vettore x coincide con la sua usuale lunghezza. Esempio 5.8 Nello spazio vettoriale euclideo (R3 , ) , dotato del prodotto scalare standard, si ha:
x21 + x22 + x23 ,
x = per ogni x = (x1 , x2 , x3 )
·
∈R . 3
Esempio 5.9 Se si considera su R3 il prodotto scalare definito nell’Esempio 5.3 si ha che:
x = per ogni x = (x1 , x2 , x3 )
∈R . 3
3x21 + 4x22 + 5x23 ,
Esempio 5.10 Nello spazio vettoriale euclideo ( Rn , ) , dotato del prodotto scalare standard, si ha:
x = per ogni x = (x , x , . . . , x ) ∈ R . 1
2
n
n
·
x21 + x22 + . . . + x2n,
Esempio 5.11 Se su uno spazio vettoriale V su R di dimensione n , riferito ad una base = (v1 , v2 , . . . , vn ) , si considera il prodotto scalare (5.3), la norma del vettore x = x1 v1 + x2 v2 + . . . + xn vn e` data da:
B
x =
√
tX
X =
x21 + x22 + . . . + x2n .
Esempio 5.12 La norma della matrice A = (aij ) considerato nell’Esempio 5.6, `e:
A =
tr(tA A)
=
∈R
2,2
, rispetto al prodotto scalare
a211 + a212 + a221 + a222 .
Esempio 5.13 La norma del polinomio p(x) = a 0 + a1 x + . . . + an xn al prodotto scalare (5.5) e` : n
p(x) =
i=0
a2i .
∈ R [x] rispetto n
Spazi Vettoriali Euclidei
206
In generale, una funzione a valori reali prende il nome di “norma” solo se definisce un numero reale positivo che verifica propriet`a opportune, precisamente quelle enunciate nel teorema seguente.
· x −→ x
Teorema 5.2 Su uno spazio vettoriale euclideo (V, ) , la funzione:
· : V −→ R, verifica le seguenti propriet `a:
x ≥ 0, x ∈ V e x = 0 ⇐⇒ x = o . 2. λx = |λ|x, λ ∈ R, x ∈ V. 3. Teorema di Pitagora: x · y = 0 ⇐⇒ x + y = x + y . 4. Disuguaglianza di Cauchy–Schwarz: |x · y| ≤ xy, x, y ∈ V. 5. Disuguaglianza triangolare (o di Minkowski): x + y ≤ x + y, 1.
2
2
2
∈ V.
x, y
1. La dimostrazione `e lasciata al Lettore per esercizio.
Dimostrazione
2. La dimostrazione segue da (λx) (λx) = λ 2 x 2 .
·
3. Segue da: 2
(x + y)
·
2
+ 2x y + y 2 .
= (x + y) (x + y) = x
·
(5.6)
4. La disuguaglianza di Cauchy–Schwarz e` banalmente soddisfatta se uno dei vettori coincide con il vettore nullo. La si dimostra, quindi, nel caso in cui x e y siano entrambi diversi dal vettore nullo. Per ogni λ R si puo` considerare il polinomio di secondo grado in λ :
∈
2
λx + y
= (λx + y) (λx + y) = λ2 x
·
2
+ 2λ x y + y 2 .
·
Per il punto 1. si ha che:
λ2 x
2
·
2
≥0
+ 2λ x y + y
per ogni λ R e, quindi, il trinomio di secondo grado deve avere discriminante negativo, cio`e: (x y)2 0, x 2 y 2
∈
∈ V.
per ogni x, y
·
− ≤
Capitolo 5
207
5. Usando (5.6) e la disuguaglianza di Cauchy-Schwarz si ha: 2
2
x + y ≤ x per ogni x, y ∈ V .
2
y + y
+2 x
= ( x + y )2 ,
·
Considerati due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ), come conseguenza della disuguaglianza di Cauchy–Schwarz si ha che:
|x · y| ≤ 1 xy e quindi:
−1 ≤ xx· yy ≤ 1,
si pu`o allora enunciare la seguente definizione.
·
∈ V non
Definizione 5.3 Sia (V, ) uno spazio vettoriale euclideo. Dati due vettori x , y nulli, si definisce angolo tra i due vettori x e y l’angolo θ [0, π] tale che:
cos θ =
· . xy x y
∈
` necessario osservare che la nozione di angolo θ tra due vettori, 1. E Osservazione 5.1 appena introdotta, `e coerente con la definizione di angolo tra vettori considerata nel Paragrafo 3.6, cos`ı come lo e` la definizione di ortogonalit a` che segue. Inoltre, la nozione di angolo tra due vettori non dipende dall’ordine dei due vettori. 2. Come in V 3 , anche nel caso generale di uno spazio vettoriale euclideo V l’angolo tra il vettore nullo o e un qualunque altro vettore e` indeterminato, ossia puo` essere un qualsiasi angolo θ [0, π] .
∈
·
Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ) si dicono ortogonali o perpendicolari se l’angolo θ che essi determinano e` θ = π/2 . Il vettore nullo si considera ortogonale ad ogni altro vettore di V. Se θ = 0 o θ = π i due vettori si dicono paralleli. Di conseguenza, le nozioni di angolo e di ortogonalit`a permettono di introdurre gli usuali concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11 e 12) in spazi vettoriali euclidei di dimensione maggiore di 3 . Si vedr`a, per esempio, nell’osservazione che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare dei due vettori.
Spazi Vettoriali Euclidei
208
Osservazione 5.2 Fissati due vettori, la misura dell’angolo che essi determinano puo` cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori qualsiasi (non nulli e non paralleli) e` possibile definire un prodotto scalare che li renda ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), perch´e non si e` ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto non `e ancora chiaro come, in generale, sia possibile verificare facilmente che una funzio` per`o ne qualsiasi di dominio V V e codominio R sia o meno un prodotto scalare. E una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il teorema seguente.
×
·
Teorema 5.3 In uno spazio vettoriale euclideo (V, ) due vettori x e y , che individuano l’angolo θ , sono linearmente dipendenti se e solo θ = 0 o θ = π , cio`e se e solo se:
·
±xy.
x y =
La propriet`a e` banalmente vera se uno dei due vettori coincide con il Dimostrazione vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y sono linearmente dipendenti esiste λ R tale che y = λ x e la precedente uguaglianza e` verificata. Viceversa, si supponga che per una coppia di vettori non nulli x e y valga l’uguaglianza x y = x y (il caso con il segno negativo e` analogo), allora si ha:
∈
·
− − · − x
y
x
y
2
= =
x
y
x
y
x
y
x
y
· − 2 x · y + y · y = 0. x xy y x x 2
2
Dal quarto assioma di definizione del prodotto scalare segue: y = cio`e x e y sono linearmente dipendenti.
5.3
y x, x
Basi ortonormali
I naturali concetti geometrici di base ortogonale e ortonormale in V 3 , introdotti nel Paragrafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi con la seguente definizione.
Capitolo 5
209
·
Definizione 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n . Una base = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la condizione: vi v j = 0, i = j, i, j = 1, 2, . . . , n .
B
·
In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a due ortogonali.
B
= (e1 , e2 , . . . , en ) di V si dice ortonormale se i vettori che la definiscono Una base verificano entrambe le condizioni:
·
1. ei e j = 0, i = j , i, j = 1, 2, . . . , n ; 2.
e = 1 , i = 1, 2, . . . , n. i
In altri termini, una base si dice ortonormale se e` una base ortogonale ed ogni vettore che la compone ha norma uguale a 1 .
Esempio 5.14 In R 3 la base canonica ( e1 , e2 , e3 ), dove: e1 = (1, 0, 0),
e2 = (0, 1, 0),
e3 = (0, 0, 1),
e` ortonormale rispetto al prodotto scalare standard. Pi`u in generale, in R n la base canonica ( e1 , e2 , . . . , en ), dove: e1 = (1, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0),
...,
en = (0, . . . , 0, 1)
e` anch’essa ortonormale rispetto al prodotto scalare standard.
Esercizio 5.3 Si determini in R 3 una base ortonormale rispetto al prodotto scalare:
·
x y = 2x1 y1 + 3x2 y2 + 4x3 y3 .
(5.7)
` immediato verificare che i vettori della base canonica (e1 , e2 , e3 ) di R3 Soluzione E sono a due a due ortogonali e quindi verificano la condizione 1. della Definizione 5.5. Se si calcola la norma dei tre vettori, rispetto al prodotto scalare che si sta considerando, si ha: e1 = 2, e2 = 3, e3 = 2.
√ √
Quindi i vettori:
√
1 1 1 e1 , e2 , e3 2 2 3
√
formano una base ortonormale di R 3 dotato del prodotto scalare (5.7).
Spazi Vettoriali Euclidei
210
Esempio 5.15 In Rm,n la base canonica (E ij ) , i = 1, 2, . . . , m, j = 1, 2, . . . , n , e` una base ortonormale rispetto al prodotto scalare definito da (5.4). Esempio 5.16 In Rn [x] la base (1, x , . . . , xn ) e` ortonormale rispetto al prodotto scalare definito da (5.5). Se si scrive l’espressione del prodotto scalare in componenti rispetto ad una base ortonormale su uno spazio vettoriale euclideo di dimensione n , si ottiene la stessa espressione del prodotto scalare standard su Rn , come si puo` dedurre dal seguente teorema, la cui dimostrazione `e un facile esercizio.
·
Teorema 5.4 Sia (V, ) uno spazio vettoriale euclideo di dimensione n .
1. Se
B = (e , e , . . . , e ) e` una base ortonormale e: 1
2
n
x = x 1 e1 + x2 e2 + . . . + xn en ,
y = y 1 e1 + y2 e2 + . . . + yn en
sono due vettori qualsiasi di V , allora il loro prodotto scalare `e:
x y = x 1 y1 + x2 y2 + . . . + xn yn = tX Y,
·
(5.8)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate rispettivamente dalle componenti di x e y , rispetto alla base .
B
2. Se
B = (e , e , . . . , e ) e` una base di V tale che, per ogni coppia di vettori: 1
2
n
x = x 1 e1 + x2 e2 + . . . + xn en ,
y = y 1 e1 + y2 e2 + . . . + yn en
di V si ha:
x y = x 1 y1 + x2 y2 + . . . + xn yn = tX Y,
·
(5.9)
dove tX Y denota il prodotto della matrice riga e della matrice colonna formate rispettivamente dalle componenti di x e y , rispetto alla base , allora e` una base ortonormale.
B
B
Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema precedente si ha che se = (e1 , e2 , . . . , en ) e` una base di uno spazio vettoriale V, allora esiste su V un prodotto scalare che rende la base ortonormale. Tale prodotto scalare e` infatti semplicemente definito da (5.9). Nell’Esercizio 5.13 si determiner`a esplicitamente l’espressione del prodotto scalare che rende ortonormale una particolare base di R 3 .
B
B
Capitolo 5
211
Ora che si `e in grado di scrivere l’espressione in componenti del prodotto scalare rispetto ad una base ortonormale rimane da dimostrare l’esistenza di almeno una base ortonormale rispetto ad ogni prodotto scalare definito su V. A tale scopo e` necessario premettere il seguente lemma.
·
Lemma 5.1 Sia (V, ) uno spazio vettoriale euclideo di dimensione n . Un insieme k vettori di V : = v1 , v2 , . . . , vk
I {
I di
}
tale che:
≤ n ; 2. v = o , i = 1, 2, . . . , k ; j , i, j = 1, 2, . . . , k 3. v · v = 0 , i = e` un insieme libero. Se k = n allora I e` una base ortogonale di V . 1. k
i i
j
Occorre dimostrare che i vettori v 1 , v2 , . . . , vk sono linearmente indiDimostrazione pendenti, cio`e che l’unica loro combinazione lineare uguale al vettore nullo e` quella con coefficienti tutti uguali a 0 . Infatti, se si considera l’equazione vettoriale:
∈ R, i = 1, 2, . . . , k
λ1 v1 + . . . + λk vk = o ,
λi
e si moltiplicano scalarmente entrambi i membri per ogni vi , i = 1, 2, . . . , k , tenendo conto dell’ipotesi di ortogonalit`a dei vettori, si ha:
·
2
λi vi vi = λ i vi
= 0.
Dalla condizione 2. segue λ i = 0 , per ogni i = 1, 2, . . . , k .
·
Teorema 5.5 Sia (V, ) uno spazio vettoriale euclideo di dimensione n e sia:
B = (v , v , . . . , v ) 1
una sua base. A partire da
2
n
B e` possibile costruire una base ortonormale: B = (e , e , . . . , e )
1
2
n
di V tale che:
L(v , v , . . . , v ) = L(e , e , . . . , e ), 1
2
k
1
2
k
k = 1, 2, . . . , n .
Spazi Vettoriali Euclidei
212
Dimostrazione Per dimostrare il teorema si utilizza un metodo di calcolo per costruire una base ortonormale a partire da una base assegnata noto come il processo di ortonormalizzazione di Gram–Schmidt . Data una base seguente:
B = (v , v , . . . , v ) si procede con un numero finito di passi, nel modo 1
2
n
1. si sceglie come primo vettore della base ortonormale il versore: e1 = vers v1 =
v1 . v1
2. Per costruire il secondo vettore e 2 si considera il vettore a 2 = v 2 + λe1 , con λ R e si determina λ in modo tale che a2 sia ortogonale a e1 ossia a2 e1 = 0 . Si ottiene: λ = v2 e1 .
·
∈
− ·
Quindi: e2 = vers(v2
− (v · e ) e ) 2
1
1
e` un vettore di norma 1 e ortogonale a e1 .
3. Per costruire il terzo vettore e3 si considera il vettore a3 = v 3 + λ1 e1 + λ2 e2 , con λ1 , λ2 R e si impongono le due condizioni di ortogonalit a` :
∈
· ·
· ·
a3 e1 = 0 = v 3 e1 + λ1 , a3 e2 = 0 = v 3 e2 + λ2 .
Il terzo vettore e` quindi: e3 = vers(v3
− (v · e ) e − (v · e ) e ). 3
1
1
3
2
2
Iterando questo procedimento si ottiene un insieme di n vettori: ek = vers(vk
− (v · e ) e − . . . − (v · e 1
k
1
k
k−1 ) ek−1 ),
k = 1, 2, . . . , n ,
a due a due ortogonali e di norma uguale a 1 . Per il Lemma 5.1 , i vettori ( e1 , e2 , . . . , en ) costituiscono una base di V. Inoltre, ad ogni passo si ha:
L(v , v , . . . , v ) = L(e , e , . . . , e ), 1
2
k
1
2
k
k = 1, 2, . . . , n .
Osservazione 5.4 Se (e1 , e2 , . . . , en ) e` una base ortonormale dello spazio vettoriale euclideo (V, ) , ogni vettore v di V si pu`o esprimere come:
·
·
·
·
v = (v e1 ) e1 + ( v e2 ) e2 + . . . + (v en ) en .
Capitolo 5
213
Il vettore:
·
·
·
(v e1 ) e1 + ( v e2 ) e2 + . . . + (v ek ) ek , con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sottospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cos`ı, in dimensione maggiore di 3, la situazione geometrica descritta nell’Osservazione 3.16. Si osservi anche che si pu`o applicare il processo di ortonormalizzazione di Gram–Schmidt considerando come vettore e 1 il versore di uno qualunque dei vettori della base assegnata . Poich´e in ogni spazio vettoriale esistono infinite basi, si pu o` concludere che sullo spazio vettoriale euclideo (V, ) esistono infinite basi ortonormali, ed `e altrettanto chiaro che una base ortonormale rispetto ad un prodotto scalare non e` necessariamente ortonormale rispetto ad un altro prodotto scalare definito sullo stesso spazio vettoriale euclideo (cfr. Es. 5.3).
B
·
Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , ) , dotato del prodotto scalare standard, e` data la base = (v1 , v2 , v3 , v4 ) con:
·
B
v1 = (1, 2, 0, 0),
v2 = (0, 1,
−1, 0),
v3 = (0, 0, 1,
Determinare una base ortonormale di R 4 a partire da
−1),
v4 = (0, 0, 0, 5).
B .
Si applica il procedimento di ortonormalizzazione di Gram–Schmidt alla Soluzione base . Si pu`o iniziare con:
B
e1 =
1 √ v 5 (1, 2, 0, 0). v1
=
1
Il secondo vettore e2 e` dato dal versore di: v2 Quindi:
− (v
2
· − − √ √ − − √ − − √ − − e1 ) e1 = (0, 1,
e2 =
5 30
2 1 (1, 2, 0, 0) = 5 5
1, 0)
2 1 , , 1, 0 = 5 5
2 1 , , 15 30
Analogamente si considera come e3 il versore di: v3 dato da: e3 =
− (v · e ) e − (v · e ) e , 3
1
−
1
3
2 1 1 , , , 21 42 42
√ √
2
2
−
6 . 7
2 1 , , 1, 0 . 5 5 5 ,0 . 6
Spazi Vettoriali Euclidei
214
In modo analogo, a completamento della base ortonormale richiesta, si ottiene: e4 =
− √ √ √ √
2 1 1 1 , , , . 7 7 7 7
Ci si vuole ora occupare dello studio delle propriet`a della matrice del cambiamento di base tra due basi ortonormali definite su uno spazio vettoriale euclideo (V, ) . Vale l’importante teorema che segue, con l’avvertenza che, per capirne la dimostrazione, si deve far riferimento alle nozioni spiegate nel Paragrafo 4.3.4.
·
B
= (e1 , e2 , . . . , en ) una base ortonormale di uno spazio vettoriale Teorema 5.6 Sia euclideo V di dimensione n, allora = (e1 , e2 , . . . , en ) e` una base ortonormale di V se e solo se la matrice del cambiamento di base da a e` una matrice ortogonale di ordine n.
B
B B ·
In uno spazio vettoriale euclideo (V, ) di dimensione n si consideri Dimostrazione la matrice P del cambiamento di base dalla base ortonormale = (e1 , e2 , . . . , en ) ad = (e1 , e2 , . . . , en) di V. P e` una matrice invertibile che un’altra base ortonormale ha sulle colonne le componenti dei vettori ei , i = 1, 2, . . . , n , rispetto alla base e si t pu`o verificare che l’elemento di posto ij del prodotto P P e` dato dal prodotto scalare ei e j scritto in componenti rispetto alla base . Quindi tP P = I , cio`e P e` una matrice ortogonale di ordine n. Il viceversa segue in modo analogo.
B
B
B
·
B
Osservazione 5.5 Se P Rn,n e` una matrice ortogonale, ossia se tP P = I , allora t P = P −1 , moltiplicando ambo i membri per P segue P tP = I ; in altri termini anche la matrice tP e` ortogonale. Applicando la dimostrazione del Teorema 5.6 a tP si ha che non solo i vettori colonna ma anche i vettori riga della matrice P costituiscono una base ortonormale dello spazio vettoriale euclideo R n , rispetto al prodotto scalare standard. Per maggiori chiarimenti si veda il Teorema 5.7 in cui sono elencate tutte le propriet`a delle matrici ortogonali.
∈
Osservazione 5.6 Il Teorema 5.6 non `e pi u` valido se una delle due basi non `e ortonormale. La matrice P del cambiamento di base da una qualunque base (non ortonormale) ad una base ortonormale ottenuta da mediante il processo di ortonormalizzazione di Gram–Schmidt non e` una matrice ortogonale, come si pu o` osservare nell’esempio che segue.
B
B
Esempio 5.17 In R 3 si considerino i due prodotti scalari seguenti:
· x y = 3x y + 4x y + x y , x y = x 1 y1 + x2 y2 + x3 y3 , 1 1
2 2
3 3
Capitolo 5
215
B = (e , e , e ) con:
dove x = x 1 e1 + x2 e2 + x3 e3 , y = y 1 e1 + y2 e2 + y3 e3 e e1 = (1, 0, 0),
e2 = (0, 1, 0),
1
2
3
e3 = (0, 0, 1)
base canonica di R3 . e` una base ortonormale rispetto al prodotto scalare “ ” (cfr. Es. 5.14) ma non e` ortonormale rispetto al prodotto scalare “ ”. La base = (v1 , v2 , v3 ) con:
B
v1 =
√ √ 1 , 0, 0 , 3
v2 =
1 0, , 0 , 2
·
B
v3 = (0, 0, 1)
e` ortonormale rispetto al prodotto scalare “ ”, ma, ovviamente, la matrice:
1 3
0
0
0
1 2
0
0
0
1
P =
del cambiamento di base da
B a B
non `e ortogonale. Si osservi inoltre che se:
x = x 1 v1 + x2 v2 + x3 v3 ,
y = y 1 v1 + y2 v2 + y3 v3 ,
allora: x
B
essendo
y = x y + x y + x y 1 1
2 2
3 3
una base ortonormale rispetto al prodotto scalare “ ”.
Sia ( a1 , a2 , a3 ) una base di R 3 con: a1 = (1, 0, 2),
a2 = (1, 3, 4),
a3 = (0, 3, 4).
A partire da tale base, usando il processo di ortonormalizzazione di Gram–Schmidt si vogliono determinare una base ortonormale rispetto al prodotto scalare “ ” e una base ortonormale rispetto al prodotto scalare “ ”. Nel primo caso si ottiene la base:
·
C= La matrice:
√ √ − √ 1 2 , 0, , 5 5
4
7 5
,
√ 3 5 7
,
√ − 2
7 5
,
6 , 7
− 27 , 37
.
Spazi Vettoriali Euclidei
216
√ − √ − √ − 1 5
Q =
4
6 7
7 5
0
3 5 7
√ 25
2 √ 7 5
2 7
3 7
B
e` ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali e , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare “ ” si ottiene la base ortonormale = (v1 , v2 , v3 ) con:
C
C
v1 =
v3 =
√ √ − − − √ √ 1 2 , 0, , 7 7 2 , 11
v2 =
2 1 , 231 2
21 , 22
3 , 154
1 3 , . 2 22 22
La matrice R che ha sulle colonne le componenti della base non e` una matrice ortogonale, mentre lo deve essere la matrice del cambiamento di base da a , ottenuta dal prodotto P −1 R . Si lascia per esercizio sia la verifica dell’ortogonalit`a dell’ultima matrice sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato.
C
B C
Per le matrici ortogonali sono valide le seguenti propriet a` , alcune delle quali sono gi a` state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo.
Teorema 5.7
1. Il prodotto di due matrici ortogonali e` una matrice ortogonale.
2. La matrice identit `a I e` ortogonale. 3. L’inversa P −1 di una matrice ortogonale P e` ortogonale. 4. La trasposta tP di una matrice ortogonale P e` ortogonale.
∈ R
5. Una matrice P
n,n
e` ortogonale se e solo se le righe e le colonne di P sono le componenti di una base ortonormale in R n , rispetto al prodotto scalare standard.
6. Il determinante di una matrice ortogonale P vale Dimostrazione
±1 .
1. Se P e Q sono matrici ortogonali si ha: t
(P Q)P Q = tQ tP P Q = I
e quindi la matrice prodotto P Q e` ortogonale.
Capitolo 5
217
2. La verifica e` lasciata per esercizio. 3. Da tP = P −1 e dal Teorema 2.7 punto 4. segue che (tP )−1 = (P −1 )−1 da cui la tesi.
4. Da tP = P −1 segue che t (tP ) tP = P tP = P P −1 = I da cui la tesi. 5. La verifica e` lasciata per esercizio. 6. Per il Teorema 2.16 punto 2. si ha che det(tP P ) = det(tP )det(P ) = det(I ) = 1. Quindi (det(P ))2 = 1 . Osservazione 5.7 1. Non vale il viceversa del punto 6. del teorema precedente. Ad esempio, se si considera la matrice:
A =
1 1 0 1
si ha che il determinante di A e` 1 ma A non e` ortogonale. 2. Segue dai punti 1. , 2. e 3. che l’insieme O(n) delle matrici ortogonali di ordine n (cfr. (2.9)) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). Si osservi inoltre che il gruppo O(2) e` gi`a stato descritto nell’Esercizio 3.11. 3. Gli insiemi di matrici:
SL(n, R) = A
{ ∈ R | det(A) = 1} n,n
e:
{ ∈ O(n) | det(A) = 1} = O(n) ∩ SL(n, R)
SO(n) = A
(5.10)
sono entrambi gruppi rispetto al prodotto di matrici. SL(n, R) prende il nome di gruppo lineare speciale e S O(n) e` detto gruppo ortogonale speciale.
Osservazione 5.8 Si osservi che il valore del prodotto scalare di due vettori in uno spazio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calcolarlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale = (e1 , e2 , . . . , en) , rispetto ad un’altra base ortonormale = (e1 , e2 , . . . , en) si ha: x y = tX Y ,
B
B
·
dove X e Y indicano, rispettivamente, le matrici colonne delle componenti dei vettori x e y rispetto alla base ortonormale . Dalle equazioni del cambiamento di base si ha:
B
X = P X ,
Y = P Y ,
dove P e` la matrice ortogonale del cambiamento di base da
B a B , quindi:
x y = tX Y = t (P X )(P Y ) = tX (tP P ) Y = tX Y .
·
Spazi Vettoriali Euclidei
218
Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo vettore riga sia: a =
√ − √ 2 , 2
0,
2 . 2
Per determinare una matrice ortogonale con le caratteristiche richieste ocSoluzione corre completare l’insieme libero a a una base ortonormale ( a, b, c) di R 3 . Si pu`o, ad esempio, usando il Teorema 4.15, costruire la base = ( a, e1 , e2 ) con :
{ }
C
e1 = (1, 0, 0),
e2 = (0, 0, 1).
Per determinare una base ortonormale, `e sufficiente applicare il processo di ortonormalizzazione di Gram–Schmidt alla base , considerando:
C − (e · a)a) = vers(1, 0, 0) = e ,
b = vers(e1 c = vers(e2
1
1
− (e · a)a − (v · b)b) = vers 2
3
1 1 0, , . 2 2
La matrice ortogonale cercata `e ad esempio:
P =
5.4
0 1 0
√ 2
√ 2
2
2
− √ √ 0
0
2 2
2 2
.
Il complemento ortogonale
·
Siano (V, ) uno spazio vettoriale euclideo di dimensione n e vettoriale di dimensione k n.
≤
W un suo sottospazio
⊥ Definizione 5.6 Si dice complemento ortogonale di e lo si denota con il sottoinsieme di V formato da tutti i vettori di V ortogonali ad ogni vettore di , cio`e:
W
W W
⊥
W = {x ∈ V | x · y = 0, ∀y ∈ W}. Osservazione 5.9 Per definizione, il complemento ortogonale W di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, · ) e` unico. Inoltre, se W = {o} , allora W = V e se W = V allora W = {o} . ⊥
⊥
⊥
Capitolo 5
219
W , la condizione x · y = 0, per
Osservazione 5.10 Scelta una base (a1 , a2 , . . . , ak ) di ogni y , e` equivalente a:
∈ W
·
x ai = 0,
i = 1, 2, . . . , k .
Infatti si ha:
·
·
x (λ1 a1 + λ2 a2 + . . . + λk ak ) = x y = 0, per ogni λ i R , i = 1, 2, . . . , k . Ma questa condizione `e verificata se e solo se x ai = 0 , per ogni i = 1, 2, . . . , k .
∈
·
Il teorema che segue elenca le propriet`a fondamentali del complemento ortogonale di un sottospazio vettoriale.
·
Teorema 5.8 Sia (V, ) uno spazio vettoriale euclideo e sia toriale, allora:
1. 2. 3.
W un suo sottospazio vet-
⊥
W ⊆ V e` un sottospazio vettoriale di V ; W ⊕W = V ; (W ) = W . ⊥
⊥ ⊥
Dimostrazione
1. La dimostrazione e` lasciata al Lettore per esercizio.
2. Per dimostrare che + ⊥ = V si puo` procedere in questo modo. Sia dim(V ) = n, scelta una base (a1 , a2 , . . . , ak ) di si costruisce la matrice A R k,n avente come vettori riga le componenti dei vettori della base di , rispetto ad una base di (V, ) , cio`e tale che (A) = , si ottiene che A ha rango k e ortonormale ⊥ il suo nullspace (A) coincide con (cfr. Oss 5.10). Quindi dal Teorema 4.23 ⊥ ) + dim( ) = n = dim(V ). Dal Teorema 4.24 si ha anche segue che dim(
W W
B
W R W
·
W
W
∈
N W W che la somma dei due sottospazi vettoriali `e diretta. In aggiunta, si osservi che la verifica che W ∩W = {o} segue anche facilmente dal fatto che se x ∈ W ∩ W si ha che x · x = 0 e quindi x = o . ⊥
⊥
3. E` ovvia conseguenza di 2. Infatti: ⊥
⊥ ⊥
W ⊕ (W ) ma si ha anche che mento ortogonale.
⊥
= V
W ⊕ W = V e quindi segue la tesi per l’unicit a` del comple-
Spazi Vettoriali Euclidei
220
⊥ ` importante notare che Osservazione 5.11 E e` un sottospazio vettoriale di V supplementare di in V, ma mentre esistono infiniti sottospazi vettoriali di V supplementari di in V , il complemento ortogonale `e unico.
W
W
W
Esercizio 5.6 In (R3 , ) , dotato del prodotto scalare standard, determinare il comple⊥ mento ortogonale del sottospazio vettoriale:
·
W W = {(x , x , x ) ∈ R | x + x + x = 0}. 1
2
3
3
1
2
3
W e poi W e` , ad
Soluzione Per l’Osservazione 5.10 si pu`o prima determinare una base di l’insieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di esempio, data dai due vettori:
− a = (−1, 0, 1). Il complemento ortogonale di W e` formato da tutti i vettori y = (y , y , y ) ∈ R a1 = ( 1, 1, 0),
2
1
2
3
3
che
verificano le due condizioni:
Si vede che
⊥
W
· ·
y a1 = y a2 =
−y + y = 0 −y + y = 0. 1
2
1
3
corrisponde al nullspace della matrice:
A =
− −
1 1 0 1 0 1
,
R
cio`e al complemento ortogonale dello spazio vettoriale delle righe (A), si ottiene che ⊥ = ((1, 1, 1)) . Per ulteriori precisazioni sull’ultima osservazione si veda l’Esempio 5.18.
W L
⊥ e` formata Osservazione 5.12 Da notare che, nell’esercizio precedente, una base di dai vettori che hanno come componenti i coefficienti dell’equazione x1 + x 2 + x 3 = 0 che definisce . Si giustifichi teoricamente questo fatto, ma si presti particolare attenzione a non applicare questa regola nel caso in cui sia definito come l’insieme delle combinazioni lineari di alcuni vettori.
W
W
W
Esercizio 5.7 In R 2,2 si consideri il sottospazio vettoriale: 2,2
W = {A ∈ R | tr(A) = 0}. Si determinino due sottospazi vettoriali diversi supplementari di ortogonale, rispetto al prodotto scalare definito in (5.4).
W e il suo complemento
Capitolo 5
Soluzione quadrata,
W
Innanzi tutto si osservi che, per le propriet`a della traccia di una matrice ` facile ottenere che dim( ) = 3 e: e` un sottospazio vettoriale. E
W
W L − W L W L 1 0
=
pertanto
221
0 1
0 0
,
W e` un iperpiano vettoriale di R 1 0
1 =
2,2
0 1
1 0
W
0 0
,
(cfr. Def. 4.17). I sottospazi vettoriali:
0 0
2 =
,
sono diversi e entrambi supplementari di con 1 .
0 1
,
0 1
⊥
W ; il complemento ortogonale W
coincide
W W
Esercizio 5.8 Siano 1 e 2 sottospazi vettoriali di uno spazio vettoriale euclideo (V, ) di dimensione n . Dimostrare che:
·
W + W ) (W ∩ W ) (
1
2
1
2
⊥
⊥
⊥
⊥
W ∩ W , = W + W . =
1
2
⊥
⊥
1
2
W ⊆ W , allora dimostrare che: W ⊆ W .
Se invece
1
2
⊥
⊥
2
1
Esercizio 5.9 In R4 , rispetto al prodotto scalare standard, determinare la proiezione ortogonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale: 4
W = {(x , x , x , x ) ∈ R | x + x + x = 0}. 1
2
3
4
1
2
3
Soluzione Per risolvere questo esercizio si deve tener conto dell’Osservazione 5.4. Si tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale e` un . 4 iperpiano vettoriale di R generato dai vettori:
W W
a1 = (0, 0, 0, 1),
a2 = (1, 0,
−1, 0),
a3 = (0, 1,
−1, 0).
Applicando il processo di ortonormalizzazione di Gram–Schmidt si perviene alla base ortonormale di data dai vettori:
W
b1 = a 1 = (0, 0, 0, 1), b2 = vers(a2
b3 = vers(a3
− (a · b )b ) = 2
1
1
√
1 , 0, 2
− √
− (a · b )b − (a · b )b ) = 3
1
1
3
2
1 ,0 , 2
2
−√ √ −√ 1 2 , , 6 6
1 ,0 . 6
Spazi Vettoriali Euclidei
222
W e` dato da: p = (a · b )b + ( a · b )b + ( a · b )b = (0, 1, −1, 1). Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (R , · ) delle matrici quadrate di ordine n , dotato del prodotto scalare standard definito in (5.4), il complemento ortogonale del sottospazio vettoriale delle matrici simmetriche S (R ) e` il sottospazio vettoriale delle matrici antisimmetriche A(R ) . Soluzione Nel Teorema 4.4 si dimostra che R = S (R ) ⊕ A(R ). Per completare l’esercizio e` sufficiente verificare che ogni matrice simmetrica e` ortogonale ad ogni matrice antisimmetrica. Siano S ∈ S (R ) , S = O , e A ∈ A(R ) , A = O , dove con O ∈ R si indica la matrice nulla, allora S = S e A = −A , quindi, ricordando le Il vettore p proiezione ortogonale di a su 1
1
2
2
3
3
n,n
n,n
n,n
n,n
n,n
n,n
n,n
n,n
n,n
t
t
propriet`a della traccia di una matrice, si ha:
S A = tr( tS A) = tr(S A) = tr(A S ) =
t
· − tr( A S ) = −A · S, da cui segue S · A = 0 . Esempio 5.18 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia: B = (e , e , . . . , e ) una sua base ortonormale. Sia W = L(a , . . . , a ) un sottospazio vettoriale di V gene1
2
n
1
k
rato da k vettori linearmente indipendenti a1 , a2 , . . . , ak dati da:
a1 a2 .. . ak
=
a11 a12 . . . a1n a21 a22 . . . a2n .. .
.. .
ak1 ak2 . . . akn
e1 e2 .. . en
= A
e1 e2 .. . en
.
A e` dunque una matrice di R k,n di rango k . Come gi`a osservato nella dimostrazione del Teorema 5.8, il complemento ortogonale di e` formato dai vettori x di V la cui matrice X delle componenti e` soluzione del sistema lineare omogeneo AX = O, dove O Rn,1 ⊥ e` la matrice nulla. Pertanto il nullspace (A) di A coincide con . Se si indica con (A) lo spazio vettoriale delle righe di A e con (A) lo spazio vettoriale delle colonne di A (cfr. Cap. 4.3) segue:
W N
R
⊥
W
C
⊥
∈
t
R(A) = N (A), C(A) = N ( A). Si osservi che nel Teorema 4.24 era gi`a stato dimostrato che R(A) ⊕ N (A) = R C (A) ⊕ N ( A) = R . t
k
n
e che
Capitolo 5
5.5
223
Esercizi di riepilogo svolti
Esercizio 5.11 Siano: u1 = (1, 1, 1, 1),
−
u2 = ( 3, 1, 1, 1),
u3 = (0, 1, 1,
−2)
·
elementi di uno spazio vettoriale euclideo (V 4 , ) , riferiti ad una sua base ortonormale
B = (e , e , e , e ) . 1
2
3
4
1. Verificare che i vettori u1 , u2 , u3 sono a due a due ortogonali.
√
B
2. Trovare le componenti, rispetto a , di un vettore u4 , di norma 2 , formante un angolo acuto con e 2 e tale che la quaterna ( u1 , u2 , u3 , u4 ) sia una base ortogonale di V 4 .
Soluzione
1 . Si verifica subito che:
·
·
·
−
u1 u2 =
u1 u3 =
u2 u3 =
1 1 1 1
1 1 1 1
− − 3 1 1 1
= 0,
0 1 1 2
= 0,
0 1 1 2
3 1 1 1
= 0.
−
2. Sia u4 = (y1 , y2 , y3 , y4 ) il vettore da determinare. Affinch´e u4 sia ortogonale ai tre vettori dati, le sue componenti y 1 , y2 , y3 , y4 devono essere soluzioni del sistema lineare omogeneo con matrice associata A le cui righe sono le componenti dei vettori u 1 , u2 , u3 . Poich´e u 1 , u2 , u3 sono linearmente indipendenti, rank(A) = 3 . Le soluzioni di tale sistema lineare omogeneo sono:
(y1 = 0, y2 = t, y3 =
√
−t, y = 0), 4
t
∈ R.
La condizione u4 = 2 equivale all’equazione t2 = 1, vale a dire a t = 1 . Si ottengono cos`ı due vettori di componenti (0, 1, 1, 0) e (0, 1, 1, 0) . Il vettore u4 cercato e` il primo in quanto la seconda componente e` positiva, condizione equivalente al fatto che l’angolo tra u4 e e 2 sia acuto.
−
−
±
Spazi Vettoriali Euclidei
224
·
Esercizio 5.12 Sia (V, ) uno spazio vettoriale euclideo.
F
1. Verificare che l’insieme formato dai vettori di un iperpiano nali ad un vettore u di V e` un sottospazio vettoriale di V . 2. Nel caso in cui V abbia dimensione 4 e ortonormale, sono dati:
H che sono ortogo-
B = (e , e , e , e ) sia una sua base 1
2
3
4
H = {x = x e + x e + x e + x e ∈ V | 2x − x + x = 0} e u = (0, −1, 2, 1) , trovare una base ortogonale di F e completarla in modo da ottenere una base ortogonale di H . Soluzione 1. Se u e` ortogonale ad H (in particolare se u = o ) allora F = H . Se u non `e ortogonale ad H, F e` l’intersezione di H con l’iperpiano vettoriale H = L(u) ortogonale a u, quindi e` ancora un sottospazio vettoriale di V. 2. Poich´e u non e` ortogonale ad H , F = H ∩ H , dove H e` l’iperpiano vettoriale ortogonale a u , formato dai vettori x tali che x · u = 0 , pertanto: F = {x = x e + x e + x e + x e ∈ V | 2x − x + x = −x + 2x + x = 0}. Una base di F e` C = (a , a ) con a = (1, 4, 2, 0), a = (−1, 2, 0, 2) . Per ottenere una base ortogonale di F si puo` mantenere il vettore a e sostituire al vettore a il vettore b = a + λ a , determinando λ in modo tale che b · a = 0 . Si ha λ = −1/3 , da cui segue: 1 1
2 2
3 3
4 4
1
3
4
⊥
1 1
2 2
3 3
1
4 4
2
1
1
3
4
2
3
2
1
2
2
2
1
2
b2 =
4
−
4 2 , , 3 3
−
1
2 ,2 . 3
F
H
Per completare la base (a1 , b2 ) di ad una base ortogonale di e` sufficiente aggiungere un vettore b3 = (y1 , y2 , y3 , y4 ) appartenente ad e ortogonale a a1 e a b2 , ossia tale che:
− −
H
y1 + 4y2 + 2y3 = 0 4 2 y1 + y2 3 3
2y1
− 23 y + 2y = 0 3
4
y3 + y4 = 0,
da cui si ottiene b3 = ( 2t, 6t, 11t, 7t), t R , t = 0 . Assegnando al parametro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.
−
−
−
∈
Capitolo 5
225
Esercizio 5.13 In R3 si consideri il prodotto scalare x y , con x, y quale la base:
·
B
∈ R , rispetto al 3
= ((1, 1, 1), (0, 2, 1), (0, 0, 1))
risulti ortonormale. 1. Determinare la matrice A R3,3 che permette di esprimere in forma matriciale t XAY il prodotto scalare x y considerato, dove X e Y indicano le matrici colonne delle componenti del vettore x e del vettore y , rispetto alla base canonica di R 3 .
∈ ·
B
2. Verificare che i vettori a = (0, 1, 0) e b = (0, 1, 1) sono ortogonali rispetto al prodotto scalare considerato.
1. Rispetto alla base
Soluzione
B
il prodotto scalare in questione `e dato da: x y = tX Y
·
(5.11)
dove X e Y sono le matrici colonna delle componenti dei vettori x e y riferite a
B . Sia P ∈ GL(3, R) la matrice del cambiamento di base dalla base canonica B di R alla base B . Siano X = P X e Y = P Y le equazioni del cambiamento di base che determinano le relazioni tra le componenti dei vettori x e y rispetto a B e a B . Si ricava quindi:
3
X = P −1 X,
Y = P −1 Y
e, sostituendo in (5.11) si ottiene:
X Y =
t
=
t
t
(P −1 X )(P −1 Y ) = tX t (P −1 )P −1 Y
X ((tP )−1 P −1 )Y = tX (P tP )−1 Y.
Pertanto la matrice A cercata, che permette di esprimere il prodotto scalare richiesto rispetto alla base
B, e` : A = (P tP )−1 .
Tenendo conto che la matrice P, le cui colonne sono, ordinatamente, le componenti dei vettori di
B , e` data da: P =
1 0 0 1 2 0 1 1 1
,
Spazi Vettoriali Euclidei
226
si ricava:
A = (P tP )−1 =
3 2
0
0
1 2
− 12 − 12
− − 1 2 1 2
.
1
2. E` immediato verificare che i vettori a e b sono ortogonali rispetto a questo prodotto scalare, infatti si ha:
·
a b =
5.5.1
0 1 0
3 2
0
0
1 2
− −
− 12 − 12
1 2
0
1 2
1
1
1
= 0.
Per saperne di pi`u
Lo scopo di questo paragrafo `e quello di introdurre un “prodotto scalare” opportuno nel caso degli spazi vettoriali complessi in modo da potere, anche in questo contesto, definire il concetto di ortogonalit a` di due vettori.
5.5.2
Spazi vettoriali hermitiani
L’operazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale pu`o essere estesa mediante la seguente definizione agli spazi vettoriali complessi.
Definizione 5.7 Sia V uno spazio vettoriale su C . Si definisce prodotto hermitiano su V la funzione:
· : V × V −→ C,
(x, y)
−→ x · y,
per cui valgano le seguenti propriet a` :
·
· x, y ∈ V ; (x + x ) · y = x · y + x · y,
1. x y = y x 2.
1
2
1
2
x1 , x2 , y
∈ V ;
Capitolo 5
227
· · λ ∈ C, x, y ∈ V ; 4. x · x ≥ 0 , x ∈ V e x · x = 0 ⇐⇒ x = o , dove y · x indica il complesso coniugato di y · x. 3. (λx) y = λ(x y),
·
Uno spazio vettoriale complesso V su cui `e definito un prodotto hermitiano “ ” prende il nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica, in generale, con la scrittura (V, ) .
·
1. Come conseguenza delle Propriet`a 1. e 3. della Definizione 5.7
Osservazione 5.13 si ha:
·
·
·
·
·
x (λy) = (λy) x = λ(y x) = λ ( y x) = λ (x y),
λ
∈ C, x, y ∈ V.
Inoltre, dalle Propriet`a 1. , 2. e 3 della Definizione 5.7 si ottiene:
∈ C, x, y , y ∈ V. (5.12) 2. La Propriet`a 4. della Definizione 5.7 ha senso in quanto x · x = x · x e pertanto x · x e` un numero reale. ·
·
·
x (λ1 y1 + λ2 y2 ) = λ 1 (x y1 ) + λ2 (x y2 ),
λ1 , λ2
1
2
Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli gi a` dimostrati per gli spazi vettoriali euclidei.
Esempio 5.19 Sullo spazio vettoriale complesso Cn (cfr. Es. 4.44) si pu`o definire un prodotto hermitiano che, se ristretto a Rn , coincide con il prodotto scalare standard introdotto nell’Esempio 5.2. Precisamente si pone: n
·
(x1 , x2 , . . . , xn) (y1 , y2 , . . . , yn) = x 1 y1 + x2 y2 + . . . + xn yn =
xiyi, (5.13)
i=1
per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )
X =
la (5.13) si scrive come:
x1 x2 .. .
xn
∈C
n
,
. Con la notazione matriciale:
Y =
X Y = tX Y ,
·
y1 y2 .. .
yn
Spazi Vettoriali Euclidei
228
` un esercizio dimostrare che (5.13) dove Y indica la matrice complessa coniugata di Y . E e` un prodotto hermitiano che, spesso, prende il nome di prodotto hermitiano standard ` ancora un su Cn , che viene cos`ı dotato della struttura di spazio vettoriale hermitiano. E esercizio dimostrare che:
X Y = t X Y
·
e` un altro prodotto hermitiano su C n , che coincide con il prodotto scalare standard di R n , quando lo si riferisce a numeri reali. Ogni spazio vettoriale complesso, di dimensione finita, ammette almeno un prodotto hermitiano, vale infatti il seguente teorema.
Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base = (v1 , v2 , . . . ,vn ) di V , la funzione:
B
· : V × V −→ C, definita da: x y = tX Y ,
·
dove:
X =
x1 x2 .. .
xn
,
Y =
y1 y2 .. .
yn
e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti rispettivamente di x e y rispetto alla base , e` un prodotto hermitiano su V .
B
La dimostrazione `e un esercizio. La propriet`a 4. della Definizione 5.7 permette, come per gli spazi vettoriali euclidei, di definire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, ) . Infatti si definisce norma di un vettore x di V il numero reale positivo dato da:
·
x = √ x · x ed `e lasciata al Lettore la verifica della proprie a` :
λx = |λ|x, | |
x
∈ V, λ ∈ C,
dove λ indica il modulo del numero complesso λ .
Capitolo 5
229
Esempio 5.20 Nello spazio vettoriale hermitiano ( Cn , ) con il prodotto hermitiano standard (5.13), la norma di x e` data da:
·
n
x = | |
| | n
xi xi =
i=1
xi 2 ,
i=1
dove xi indica il modulo del numero complesso x i , i = 1, 2, . . . , n . Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro dimostrazione e` pi`u laboriosa rispetto a quella del caso euclideo. Precisamente, vale il teorema seguente.
· x −→ x
Teorema 5.10 Su uno spazio vettoriale hermitiano (V, ) , la funzione:
· : V −→ R, verifica le seguenti propriet `a:
2
·
2
2
⇐⇒ x + y = x + y . 2. Disuguaglianza di Cauchy–Schwarz: |x · y| ≤ xy, x, y ∈ V , dove |x · y| indica il modulo del numero complesso x · y . 3. Disuguaglianza triangolare: x + y ≤ x + y, x, y ∈ V. 1. Teorema di Pitagora: x y = 0
1. Segue da:
Dimostrazione
2
x + y
·
2
= (x + y) (x + y) = x
+ x y + x y + x 2 .
·
·
2. La disuguaglianza di Cauchy–Schwarz `e banalmente verificata se uno dei due vettori coincide con il vettore nullo. Si supponga, quindi, che x e y siano entrambi diversi dal vettore nullo. Si inizia la dimostrazione nel caso particolare y = 1 . Si ha:
0
2
≤ x − (x · y) y = (x − (x · y) y) · (x − (x · y) y) = x − (x · y)(x · y) − (x · y)(y · x) +(x · y)(x · y)y = x − 2|x · y| + |x · y| y = x − |x · y| . 2
2
2
2
2
2
2
2
Spazi Vettoriali Euclidei
230
| · | ≤
Quindi x y x se y = 1 . Se y = o, si puo` considerare il versore di y. Applicando allora la precedente disuguaglianza si ottiene:
· ≤ x
da cui la tesi.
y
x ,
y
3. La dimostrazione e` analoga a quella vista nel caso di uno spazio vettoriale euclideo se si tiene conto che:
·
·
·
(5.14) · ≤ 2|x · y|. Infatti, dato un numero complesso z = a + ib , con a, b ∈ R e a = Re(z ), dove x y + y x = x y + x y
Re(z ) indica la parte reale di z , si ha:
|z |
2
= z z = a2 + b2
2
≥a
= (Re(z ))2 .
D’altra parte 2 Re(z ) = z + z da cui:
≤ 2|z |,
2Re(z ) = z + z ossia la (5.14).
·
Considerati due vettori x e y non nulli di uno spazio vettoriale hermitiano (V, ), dalla disuguaglianza di Cauchy–Schwarz segue che:
|x · y| ≤ 1, xy ·
ma ci`o significa solo che il modulo del numero complesso ( x y)/( x y ) e` minore o uguale a 1. Pertanto non e` possibile nel caso degli spazi vettoriali hermitiani introdurre il concetto di angolo tra due vettori nello stesso modo in cui e` stato definito per gli spazi vettoriali euclidei. Nonostante ci o` , sugli spazi vettoriali hermitiani, come nel caso reale, si pu`o introdurre il concetto di ortogonalit`a . Pi`u precisamente, due vettori x e y di uno spazio vettoriale hermitiano (V, ) si dicono ortogonali se x y = 0 . Di conseguenza, e` valida anche in questo caso la definizione di base ortogonale e ortonormale e continua a valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su uno spazio vettoriale hermitiano `e in generale chiamata base unitaria.
·
·
Esempio 5.21 La base canonica (e1 , e2 , . . . en ) di Cn e` una base unitaria dello spazio vettoriale hermitiano ( Cn , ) con il prodotto hermitiano standard (5.13).
·
Capitolo 5
231
Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spazio vettoriale hermitiano (V, ) utilizzando il processo di ortonormalizzazione di Gram– Schmidt (che vale anche nel caso complesso) si pu o` costruire una base unitaria a partire da una base di V. La dimostrazione e` analoga a quella vista per il Teorema 5.5, facendo attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non `e simmetrico, ossia non vale la relazione x y = y x, x, y V , ma vale la propriet a` 1. della Definizione 5.7.
·
·
· ∀ ∈
Osservazione 5.14 La disuguaglianza di Cauchy–Schwarz pu`o essere dimostrata in molti modi diversi. Si propone di seguito una seconda versione della dimostrazione precedente, che, anche se pi`u lunga, e` interessante per la sua interpretazione geometrica. Infatti, sorprendentemente, anche se in uno spazio vettoriale hermitiano non e` definito l’angolo tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si definisce il vettore: x y w = x y, y 2
− ·
che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale a y in quanto w e` la differenza di x con la sua proiezione ortogonale su y. Anche in questo caso si dimostra che w y = 0 , infatti:
·
·
w y =
− · · x
x y y y 2
0
2
2
≥ 0 si ha:
Dal fatto che w
· − xy·y y · y = 0.
y = x y
≤ w · w = w · x =
− · · x y
x
2
y
y
2
2
2
x y − |y · x| x = y 2
,
ossia la tesi. Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo `e valido in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento di base deve verificare la relazione: tP
P = I .
Si pu`o allora introdurre l’insieme delle matrici unitarie di C n,n definito da:
{ ∈ C | P P = I },
U (n) = P
n,n
t
Spazi Vettoriali Euclidei
232
che e` l’analogo, nel caso complesso, dell’insieme O(n) delle matrici ortogonali (cfr. (2.9)). Si osservi che dalla relazione tP P = I si ottiene tP P = I e P −1 = tP . Inoltre, una matrice unitaria ad elementi reali e` ovviamente ortogonale ed una matrice ortogonale, considerata come matrice complessa, `e unitaria. Per le matrici unitarie valgono le seguenti propriet`a.
Teorema 5.11
1. Il prodotto di due matrici unitarie `e una matrice unitaria.
2. La matrice identit `a I e` unitaria. 3. L’inversa P −1 di una matrice unitaria P e` unitaria. 4. La trasposta tP di una matrice unitaria P e` unitaria. 5. Una matrice P
∈C
n,n
e` unitaria se e e solo se le righe e le colonne di P sono le componenti di una base ortonormale di Cn , rispetto al prodotto hermitiano standard.
6. Il determinante di una matrice unitaria P e` un numero complesso di modulo 1 . La dimostrazione, analoga a quella vista per il Teorema 5.7, e` lasciata al Lettore per esercizio.
Osservazione 5.15 Segue dalle propriet`a 1. , 2. , 3. del Teorema 5.11 che l’insieme delle matrici unitarie U (n) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). U (n) prende il nome di gruppo unitario. Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha:
{ ∈ C | z z = 1},
U (1) = z
si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 10 si vedr a` un’inter` meno semplice individuare le matrici unitarie di pretazione geometrica di tale insieme. E ordine 2 . Si dimostra che sono tutte e sole le matrici:
A = λ
z 1 z 2
z 2 z 1
−
dove λ, z 1 , z 2 sono numeri complessi tali che: 2
|λ| = 1, |z | + |z | 1
2
2
= 1.
Nel Capitolo 11 si vedr`a un’interessante rappresentazione geometrica dell’insieme degli elementi di U (2) aventi determinante 1 .
Capitolo 5
·
233
W
Siano (V, ) uno spazio vettoriale hermitiano di dimensione n e un suo sottospazio vettoriale di dimensione k n . Come nel caso degli spazi vettoriali euclidei si pu o` ⊥ definire il complemento ortogonale di per cui valgono le stesse propriet`a del caso reale (cfr. Teor. 5.8).
≤
W W
Si conclude il capitolo osservando che la norma di un vettore individua il prodotto scalare o hermitiano che la definisce. Infatti e` un facile esercizio dimostrare che in uno spazio vettoriale euclideo reale V vale la formula:
·
x y =
1 2
x+y
2
2
2
− x − y
,
∈ V.
x, y
Pi`u complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano:
·
x y =
1 ( tx + y 2
2
i + ( x + iy 2
2
2
− x − y ) 2
2
2
− x − y ),
(5.15) x, y
∈ V.
234
Spazi Vettoriali Euclidei
Capitolo 6 Applicazioni Lineari Lo scopo di questo capitolo e` quello di introdurre la nozione di applicazione lineare tra due spazi vettoriali, mettendoli cos`ı in relazione l’un l’altro e in modo da poter definire, come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale.
Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o omomorfismo o trasformazione lineare da V in W una funzione f : V W che verifica le seguenti propriet `a:
−→
f (x + y) = f (x) + f (y), f (λx) = λf (x), per ogni x e y in V e per ogni λ in R , o, equivalentemente:
f (λx + µy) = λf (x) + µf (y), per ogni x e y in V e per ogni λ e µ in R .
Lo spazio vettoriale V prende il nome di dominio di f, mentre lo spazio vettoriale W e` il codominio di f ; f (x) W e` detto vettore immagine di x V mediante f. Se w = f (x) allora il vettore x V e` detto vettore controimmagine di w W mediante f .
∈
∈
∈
∈
−→
Definizione 6.2 Sia f : V V un’applicazione lineare in cui il dominio e il codominio coincidono, allora f e` detta endomorfismo o operatore lineare o trasformazione lineare di V . Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la verifica dell’eventuale linearit`a. 235
Applicazioni Lineari
236
Esempio 6.1 La funzione:
id : V
−→ V,
x
−→ x,
detta applicazione lineare identica o identit a` , `e un’endomorfismo.
Esempio 6.2 La funzione:
O : V
−→ W,
x
−→ o
W ,
dove oW indica il vettore nullo di W, e` un’applicazione lineare, detta applicazione lineare nulla. Se W = V, l’endomorfismo O : V oV , prende il nome di V, x endomorfismo nullo.
−→
−→
Esempio 6.3 La funzione:
f : R2
−→ R,
(x, y)
−→ 3x + 2y
e` un’applicazione lineare.
Esempio 6.4 La funzione:
f : R2
−→ R,
(x, y)
−→ 3x + 2y + 5
non `e un’applicazione lineare.
Esempio 6.5 La funzione:
f : R2
−→ R,
(x, y)
2
−→ x
+ 2y
non `e un’applicazione lineare.
Esempio 6.6 La funzione:
−→ R,
f : V 3
x
−→ a · x
·
con “ ” prodotto scalare su V 3 e a vettore fissato di V 3 , e` lineare. Se a = o allora f (a) = 0 , cio`e f e` l’applicazione lineare nulla.
Esempio 6.7 La funzione:
−→ V ,
f : V 3
∧
3
x
−→ a ∧ x,
con “ ” prodotto vettoriale e a vettore fissato di V 3 , e` un endomorfismo. Se a = o allora f (a) = o , ossia f e` l’endomorfismo nullo.
Capitolo 6
237
Esempio 6.8 La funzione:
f : Rn,n
−→ R,
A
−→ det(A),
dove det(A) e` il determinante della matrice A, non `e un’applicazione lineare se n > 1.
Esempio 6.9 La funzione:
f : Rn,n
−→ R,
A
−→ tr(A),
dove tr(A) e` la traccia della matrice A, e` un’applicazione lineare.
Esempio 6.10 Se lo spazio vettoriale V e` dato dalla somma diretta di due sottospazi vettoriali 1 e 2 , V = 1 2 , allora dalla Definizione 4.5 si ha che ogni vettore x di V si decompone in modo unico come x = x1 + x2 , con x1 1 e x2 2 . Le funzioni: x1 e f 2 : V x2 f 1 : V V, x V, x
W W
W ⊕ W
∈ W ∈ W −→ −→ −→ −→ sono applicazioni lineari e prendono il nome di proiezioni di V su W e su W rispettivamente. In particolare, se W e` un sottospazio vettoriale di uno spazio vettoriale euclideo (V, · ) , si ha che V = W ⊕ W , dove W indica il complemento ortogonale di W , allora ogni vettore x di V si decompone in modo unico come x = x + x , con x ∈ W e x ∈ W . L’applicazione lineare: p : V −→ V, x −→ x prende il nome di proiezione ortogonale su W . 1
⊥
⊥
W ⊥
W
W ⊥
2
W
⊥
W
Esempio 6.11 La funzione:
−→ V ,
f : V 2
2
(x1 , x2 )
−→ (−x , x ), 1
2
dove (x1 , x2 ) sono le componenti di un qualsiasi vettore di un piano vettoriale V 2 rispetto ad una base ortonormale positiva = (i, j) (cfr. Cap. 3), e` un endomorfismo di V 2 . Si tratta dell’applicazione lineare che associa ad ogni vettore di V 2 il suo simmetrico rispetto a j.
B
Esempio 6.12 La funzione:
−→ V ,
f : V 3
3
(x1 , x2 , x3 )
−→ (x , x , −x ), 1
2
3
dove (x1 , x2 , x3 ) sono le componenti di un qualsiasi vettore dello spazio vettoriale V 3 rispetto ad una base ortonormale positiva = (i, j, k) (cfr. Cap. 3), `e un endomorfismo di V 3 . Si tratta dell’applicazione lineare che associa ad ogni vettore di V 3 il suo simmetrico rispetto al piano vettoriale generato da i e da j.
B
Applicazioni Lineari
238
Esempio 6.13 La funzione:
f : Rn
−→ R , n
−→ AX,
X
dove X Rn (ma e` considerata come matrice colonna di Rn,1 ) e A endomorfismo di R n . Pi`u in generale:
∈
f : Rn
∈ R
n
con X
e A
∈R
m,n
−→ R
m
,
∈
Rn,n, e` un
−→ AX,
X
, e` anch’essa un’applicazione lineare.
La dimostrazione del seguente teorema `e lasciata per esercizio.
Teorema 6.1 Sia f : V si ha:
−→ W un’applicazione lineare tra due spazi vettoriali V e W,
1. f (oV ) = o W , dove oV indica il vettore nullo di V e oW indica il vettore nullo di W ;
−
2. f ( x) =
−f (x),
x
∈ V ;
3. f (λ1 x1 + λ2 x2 + . . . + λk xk ) = λ 1 f (x1 ) + λ2 f (x2 ) + . . . + λk f (xk ),
∈ R, x ∈ V, i = 1, 2, . . . , k .
λi
6.1
i
Matrice associata ad un’applicazione lineare Equazioni di un’applicazione lineare
Il paragrafo inizia con la dimostrazione del teorema pi u` importante sulle applicazioni lineari, in cui si chiarisce come si possa assegnare un’applicazione lineare tra due spazi ` fondamentale osservare, infatti, che il teorema seguente vettoriali di dimensione finita. E e` valido solo nel caso in cui il dominio sia finitamente generato.
Teorema 6.2 – Teorema fondamentale delle applicazioni lineari – Sia V uno spa= (v1 , v2 , . . . , vn) una sua base. Dato zio vettoriale reale di dimensione n e sia un insieme a1 , a2 , . . . , an di n vettori di uno spazio vettoriale W, esiste ed e` unica l’applicazione lineare:
{
B
}
f : V
−→ W
tale che:
f (vi ) = a i,
i = 1, 2, . . . , n .
Capitolo 6
239
In altri termini: per assegnare un’applicazione lineare tra due spazi vettoriali V e W, di cui almeno V di dimensione finita, e` sufficiente conoscere le immagini, mediante la funzione f , dei vettori di una base di V .
∈ V, si definisce f ponendo:
Sia x = x 1 v1 + x2 v2 + . . . + xn vn
Dimostrazione
f (x) = x 1 a1 + x2 a2 + . . . + xn an . La dimostrazione del teorema si ottiene dai quattro punti seguenti: 1. f e` una funzione, infatti il vettore f (x) e` definito per ogni vettore x di V ed e` univocamente determinato, per l’esistenza e l’unicit`a delle componenti di x rispetto alla base .
B
2. Dalla definizione di f si ha f (vi ) = a i , i = 1, 2, . . . , n . Per esempio, f (v1 ) = a 1 in quanto v1 = (1, 0, . . . , 0) rispetto alla base , e cos`ı via.
B
3. Per dimostrare la linearit`a di f si deve verificare che:
f (λx + µy) = λf (x) + µf (y),
∈ V, λ,µ ∈ R.
x, y
La tesi segue dalla definizione di f , ponendo: x = x 1 v1 + x2 v2 + . . . + xn vn ,
y = y 1 v1 + y2 v2 + . . . + yn vn .
Poich´e:
λx + µy = (λx1 + µy1 )v1 + (λx2 + µy2 )v2 + . . . + (λxn + µyn )vn, un semplice calcolo prova che:
f (λx+µy) = (λx1 +µy1 )a1 +(λx2 +µy2 )a2 +. . .+(λxn +µyn)an = λf (x)+µf (y). 4. L’applicazione lineare f e` unica. Infatti, se esistesse un’altra applicazione lineare g : V W, tale che g(vi ) = a i , i = 1, 2, . . . , n, allora si avrebbe:
−→
g(x) = g(x1 v1 + x2 v2 + . . . + xn vn) = x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn ) = x1 a1 + x2 a2 + . . . + xnan, per ogni x
∈ V, ci o` implicherebbe g(x) = f (x) , per ogni x ∈ V e quindi g = f .
Applicazioni Lineari
240
Dal Teorema 6.2 segue che definire un’applicazione lineare tra due spazi vettoriali di dimensione finita equivale a conoscere le immagini degli elementi di una base del dominio. Siano, quindi, V uno spazio vettoriale reale di dimensione n e = (v1 , v2 , . . . , vn ) una sua base, e W uno spazio vettoriale reale di dimensione m e = ( w1 , w2 , . . . , wm ) una sua base. Si intende definire l’applicazione lineare f : V W ponendo:
B C −→
f (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm f (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm
(6.1)
.. . f (vn ) = a1nw1 + a2n w2 + . . . + amnwm ,
∈ R , i = 1, 2, . . . , m , j = 1, 2, . . . , n, che equivale ad assegnare la matrice:
con a ij
A =
a11 a21
a12 . . . a1n a22 . . . a2n
.. .
.. .
.. .
am1 am2 . . . amn
∈
Rm,n
B
ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base espresse rispetto alla base . La matrice A prende il nome di matrice associata all’applicazione lineare f rispetto alle basi e e si indica come:
C
B C
A = M B,C (f ). La scelta di porre in colonna le componenti e` una convenzione, che si ripercuote fortemente sulle considerazioni successive.
B
C
Osservazione 6.1 1. Fissata una base nel dominio V e una base nel codominio W, segue dal Teorema 6.2 che la matrice A = M B,C (f ) determina in modo univoco l’applicazione lineare f : V W.
−→
−→
2. Da notare, quindi, che la matrice A associata all’applicazione lineare f : V W (rispetto ad una qualsiasi coppia di basi scelta) ha un numero di righe pari alla dimensione del codominio W e un numero di colonne pari alla dimensione del dominio V.
−→ B C
3. Se V = W, la matrice associata all’endomorfismo f : V V, rispetto ad una base di V, e` la matrice quadrata A = M B,B (f ). Attenzione al fatto che si puo` anche in questo caso considerare una matrice M B,C (f ) con = , che, ovviamente, sar`a diversa dalla matrice A , come si vedr`a nell’Esempio 6.14.
B
Capitolo 6
241
In notazione matriciale le relazioni (6.1) si scrivono come:
f (v1 ) f (v2 )
.. . f (vn)
= tA
w1 w2 .. . wm
.
(6.2)
Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f (x) mediante la matrice A . Sia:
X =
x1 x2 .. .
xn
la matrice colonna delle componenti di x rispetto alla base
B . Si ponga:
f (x) = y 1 w1 + y2 w2 + . . . + ym wm , se si indica con:
Y =
y1 y2 .. .
ym
la matrice colonna delle componenti di f (x) rispetto alla base
f (x) = t Y
Per la linearit`a di f si ha:
w1 w2 .. . wm
C , allora:
.
f (x) = f (x1 v1 + x2 v2 + . . . + xn vn ) = x1 f (v1 ) + x2 f (v2 ) + . . . + xnf (vn )
=
t
X
f (v1 ) f (v2 )
.. . f (vn )
.
(6.3)
Applicazioni Lineari
242
Da (6.3) e da (6.2) segue:
f (x) = t Y
w1 w2 .. . wm
= tX
f (v1 ) f (v2 )
.. . f (vn )
= tX tA
w1 w2 .. . wm
,
ossia, per l’unicit`a delle componenti di un vettore rispetto ad una base, si ottiene: t
Y = tX tA
e quindi:
Y = A X,
B
(6.4)
che `e il legame cercato tra le componenti, rispetto alla base , di un vettore x del dominio V e le componenti della sua immagine f (x), rispetto alla base . Il sistema lineare, di m equazioni nelle n incognite (x1 , x2 , . . . , xn) , associato all’equazione matriciale (6.4) prende il nome di sistema lineare delle equazioni dell’applicazione lineare f , rispetto alle basi e .
C
B C
Gli esempi che seguono mettono in luce la fondamentale importanza della matrice associata ad un’applicazione lineare e delle sue equazioni.
Esempio 6.14 La matrice associata all’identit`a:
id : V
−→ V,
B
x
−→ x,
rispetto ad una qualsiasi base = (v1 , v2 , . . . , vn ) di V, e` la matrice unit a` I di ordine n (cfr. Es. 6.1). Se si considera un’altra base = (v1 , v2 , . . . , vn ) di V, si ha, invece, che la matrice associata all’identit a` rispetto alla base nel dominio e alla base nel codominio, M B,B (id), coincide con la matrice del cambiamento di base da a . Infatti, id( v j ) = v j , per ogni j = 1, 2, . . . , n , e quindi per costruzione la matrice M B,B (id) ha sulle colonne le componenti dei vettori v j della base rispetto alla base . Sia P = M B,B la matrice del cambiamento di base da a (cfr. Par. 4.3.4), allora:
B
B
B B B B
B B
B
M B,B (id) = P−1 . Ponendo:
id(x) = id(x1 v1 + x 2 v2 + . . . + xn vn ) = x1 v1 + x 2 v2 + . . . + xn vn segue che le equazioni dell’applicazione lineare id in questo caso sono:
X = P −1 X,
Capitolo 6
243
dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla base e con X la matrice colonna delle componenti del vettore id(x) rispetto alla base . Si osservi che le equazioni dell’endomorfismo id coincidono con le equazioni del cambiamento di base da a . In altri termini la matrice associata all’identit a` e` la matrice unit`a se e solo se essa e` scritta rispetto alla stessa base nel dominio e nel codominio.
B B
B B
Esempio 6.15 La matrice associata all’endomorfismo nullo:
O : V rispetto ad una qualsiasi base (cfr. Es. 6.2).
−→ V,
x
−→ o,
B di V, e` la matrice nulla O di ordine n se dim(V ) = n B di R , dell’endomorfismo: (x,y,z ) −→ (2x + 3y,y, 3x − 2z )
Esempio 6.16 Le equazioni, rispetto alla base canonica
f : R3
3
−→ R ,
sono:
3
x = 2x + 3y y = y z = 3x 2z,
(6.5)
−
dove (x , y , z ) = f ((x,y,z )) . Quindi la matrice associata all’applicazione lineare f, rispetto alla base canonica di R 3 , e` :
A =
2 0 3
−
3 1 0
0 0 2
.
Di conseguenza, l’immagine del vettore (2, 0, 3) si calcola mediante il prodotto:
2 0 3
3 1 0
−
0 0 2
2 0 3
oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y,z , rispettivamente.
Esempio 6.17 Si consideri di nuovo l’Esempio 6.7. In V 3 , spazio vettoriale dei vettori = (i, j, k) , si definisce l’endomorfiordinari riferito ad una base ortonormale positiva smo: a x, f : V 3 V 3 , x
−→
B −→ ∧
con a vettore di V 3 . La matrice associata ad f , rispetto alla base nata in due modi:
B, pu`o essere determi-
Applicazioni Lineari
244
1. si calcola f (x) , ponendo x = x 1 i + x2 j + x3 k e a = a 1 i + a2 j + a3 k. Si ha:
−
− a x ) j + (−a x + a x )k, allora la matrice associata ad f, rispetto alla base B , e` : 0 −a a 0 −a a A = . −a a 0 f (x) = ( a3 x2 + a2 x3 )i + (a3 x1
1 3
2 1
3
2
3
1
2
1
1 2
Si osservi che A e` una matrice antisimmetrica.
B
2. Si pu`o pervenire alla matrice A calcolando le immagini dei vettori della base e mettendo sulle colonne, rispettivamente, le componenti di f (i) , f ( j) , f (k), di nuovo rispetto alla base .
B
Se a e` il vettore nullo, allora A coincide con la matrice nulla O fismo nullo.
∈ R
3,3
e f e` l’endomor-
B del dominio e C del codominio, la matrice −→ R definita da:
Esempio 6.18 Rispetto alle basi canoniche associata all’applicazione lineare f : R3
f ((a,b,c)) =
2,2
a a+b 0 a+b+c
e` la matrice appartenente a R 4,3 data da:
A =
1 1 1 0
0 1 1 0
0 0 1 0
.
Da notare che le equazioni dell’applicazione lineare f , rispetto alle basi
con:
a = a b = a + b c = a + b + c d = 0
f ((a,b,c)) =
a b c d
.
B e C , sono:
Capitolo 6
245
Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio e nel codominio. Esercizio 6.2 In R 3 , rispetto alla base canonica = (e1 , e2 , e3 ) , `e dato l’endomorfismo f tale che: f (e1 ) f (e2 ) f (e3 ) = o 2f (e1 ) f (e2 ) = 3e1 + 2 e2 e3 f (e1 ) + f (e2 ) = 3e1 e2 + 2 e3 ,
B
−
− −
−
−
−
determinare la matrice A = M B,B (f ) associata ad f rispetto alla base canonica e scrivere le equazioni di f .
B di R
3
Soluzione Si osservi che si ottiene la matrice A risolvendo il sistema lineare di equazioni vettoriali assegnato e si osservi anche che la soluzione esiste ed e` unica se e solo se la matrice dei coefficienti di tale sistema lineare ha rango massimo. Si proceda, quindi, con la riduzione per righe della matrice completa:
−
1 2 1
−1 −1 −1 0 1
da cui si ha:
quindi:
0
0 3 3
0 2 1
−
− 0 1 2
−→ R → R + R 3
3
2
1 2 1
−1 −1 −1 0
f (e1 ) = (6, 1, 1) 2f (e1 ) f (e2 ) = (3, 2, 1) f (e1 ) f (e2 ) f (e3 ) = (0, 0, 0),
− −
−
−
f (e1 ) = 6e1 + e2 + e3 f (e2 ) = 9e1 + 3 e3 f (e3 ) = 3e1 + e2 2e3 ,
−
di conseguenza la matrice cercata e` :
A =
6 1 1
−
−3 1 −2
9 0 3
con f ((x1 , x2 , x3 )) = (y1 , y2 , y3 ) .
.
B di R , sono: y = 6x + 9x − 3x y = x + x y = x + 3x − 2x , 3
Le equazioni di f , rispetto alla base canonica
1
1
2
1
3
1
2
3
3
2
3
0
0
0 3 6
0 2 1
− 0 1 1
Applicazioni Lineari
246
6.2
Cambiamenti di base e applicazioni lineari
Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite cambiando base sia nel dominio sia nel codominio. Si ricordi ci o` che e` stato dimostrato nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e base = (v1 , v2 , . . . , vn ) , con dim(W ) = m e base = (w1 , w2 , . . . , wm ), si indichi con A = M B,C (f ) R m,n la matrice associata ad un’applicazione lineare f : V W, n,1 rispetto alle basi e . Sia X R la matrice colonna delle componenti di un generico vettore x di V, rispetto alla base , allora la matrice colonna Y delle componenti del vettore f (x) , rispetto alla base , e` data dall’equazione (6.4):
B
∈ B C
C
−→
∈ B C
Y = AX. Si inizia con l’effettuare un cambiamento di base in V. Sia = (v1 , v2 , . . . , vn ) un’altra base di V, indicata con X Rn,1 la matrice colonna delle componenti del vettore x, rispetto alla base , le equazioni del cambiamento di base sono:
B
B
∈
X = P X ,
(6.6)
dove P e` la matrice invertibile di ordine n del cambiamento di base da a . Si effettua anche un cambiamento di base in W. Sia = (w1 , w2 , . . . , wm ) un’altra base di W, m,1 indicata con Y R la matrice colonna delle componenti del vettore f (x) , rispetto alla base , le equazioni del cambiamento di base sono:
C
B B
C
∈
Y = QY ,
(6.7)
dove Q e` la matrice invertibile di ordine m del cambiamento di base da a . Di conseguenza, indicata con A = M B ,C (f ) Rm,n la matrice associata ad f, rispetto alle basi e , le equazioni di f , rispetto a tali basi, sono:
B C
C C
∈
Y = A X .
(6.8)
Scopo di questo paragrafo `e quello di individuare la relazione che intercorre tra le matrici A e A . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha:
QY = AP X da cui, tenendo conto che la precedente uguaglianza e` valida per ogni X
A = Q−1AP
∈R
n,1
, segue: (6.9)
che stabilisce il legame cercato tra le matrici A e A associate all’applicazione lineare f .
Capitolo 6
247
−→
Osservazione 6.2 Le matrici associate ad una applicazione lineare f : V W tra due spazi vettoriali V e W sono infinite, in quanto le basi di V e di W sono infinite. Due matrici A e A , entrambe appartenenti a R m,n, rappresentano la stessa applicazione lineare se e solo se esistono una matrice invertibile P Rn,n e una matrice invertibile Q Rm,m per le quali vale la relazione (6.9).
∈
∈
−→
Nel caso particolare di un endomorfismo f : V V ed effettuando un solo cambiamento di base nello spazio vettoriale V, cio`e considerando nel dominio e nel codominio lo stesso cambiamento di base, la (6.9) si riduce a:
A = P −1AP.
(6.10)
Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una particolare denominazione, come stabilisce la definizione che segue.
Definizione 6.3 Due matrici quadrate A e A , entrambe di ordine n , si dicono simili se esiste una matrice invertibile P di ordine n tale che A = P −1AP. Le matrici simili sono legate dalle seguenti propriet`a.
Teorema 6.3 Matrici simili hanno:
1. determinante uguale, 2. traccia uguale. Dimostrazione
1. Segue dal Teorema 2.16, punto 2.
` gi`a stato dimostrato in (2.13) nel Capitolo 2. 2. E
Esercizio 6.3 In R 4 sono dati i vettori:
− −2), v = (0, 1, 0, −1), dopo aver verificato che essi costituiscono una base C di R , si consideri l’endomorfismo v1 = (1, 2, 0, 1),
v2 = (1, 0, 1, 0),
v3 = ( 1, 0, 0,
4
4
g di R 4 cos`ı definito:
−v + v , g(v ) = v . Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica B di R . g(v1 ) = v 1 ,
4
g(v2 ) = 2v1 + v2 ,
g(v3 ) =
2
3
4
3
Applicazioni Lineari
248
C
Soluzione La matrice P, ottenuta mettendo in colonna le componenti dei vettori di rispetto alla base , e` la matrice del cambiamento di base da a se e solo se ha rango 4 , infatti si ha che:
B
P =
1 2 0 1
−1
1 0 1 0
−
0 0 2
− 0 1 0 1
e det(P ) = 1 . La matrice associata a g rispetto alla base
A = M C ,C (g) =
1 0 0 0
2 1 0 0
B C
−
0 1 1 0
C e` : 0 0 1 0
.
Da (6.10) segue che la matrice A associata a g , rispetto alla base canonica ottiene dal prodotto:
B di R , si 4
A = P A P −1 .
6.3
Immagine e controimmagine di sottospazi vettoriali
−→
Sia f : V W un’applicazione lineare tra due spazi vettoriali reali V e W. In questo paragrafo si intendono studiare l’immagine mediante f di un generico sottospazio vettoriale di V e la controimmagine mediante f di un generico sottospazio vettoriale di W. Si inizia con la seguente definizione.
H
K
−→
Definizione 6.4 Sia f : V W un’applicazione lineare tra due spazi vettoriali V e W e sia un sottospazio vettoriale di V , il sottoinsieme di W :
H
H {
∈ W | x ∈ H} prende il nome di immagine del sottospazio vettoriale H mediante f . f ( ) = f (x)
` molto facile e intuitivo il teorema che segue, la cui dimostrazione `e lasciata al LetE tore per esercizio ed e` una conseguenza delle definizioni di sottospazio vettoriale e di immagine di un sottospazio vettoriale.
H ⊆
H −→
Teorema 6.4 Sia V un sottospazio vettoriale di V, allora l’insieme f ( ), immagine del sottospazio vettoriale mediante un’applicazione lineare f : V W, e` un sottospazio vettoriale dello spazio vettoriale W.
H
Capitolo 6
H
249
≤
H
Se dim(V ) = n e dim( ) = h con h n , data una base (a1 , a2 , . . . , ah ) di , allora ogni vettore x di si esprime come x = x 1 a1 + x2 a2 + . . . + xh ah , con x 1 , x2 , . . . , xh numeri reali. Di conseguenza, per la linearit a` di f , si ha:
H
f (x) = x 1 f (a1 ) + x2 f (a2 ) + . . . + xhf (ah )
H
da cui segue che i vettori f (a1 ), f (a2 ), . . . , f ( ah ) sono generatori di f ( ) . In altri termini:
H ≤ h.
dim(f ( ))
H
Per determinare una base di f ( ) e` sufficiente estrarre una base dal suo sistema di generatori f (a1 ), f (a2 ), . . . , f ( ah ) .
{
Esercizio 6.4 Sia f : R3
−→ R
4
}
l’applicazione lineare definita da:
f ((x1 , x2 , x3 )) = (x1 + x2 , 2x1 + x2 + x3 , x1 + x3 , x2
− x ), 3
H H = {(x , x , x ) ∈ R | x + x + x = 0}. Si verifica che dim(H) = 2 e, rispetto alla base canonica di R , una base di
calcolare una base e la dimensione di f ( ) , dove: 1
2
3
3
1
2
3
3
Soluzione e` data da ( a1 , a2 ), con:
H
a1 = (1, 0,
−1),
a2 = (0, 1,
−1),
H
allora f ( ) e` generato dai vettori:
f (a1 ) = (1, 1, 0, 1),
−
f (a2 ) = (1, 0, 1, 2),
scritti rispetto alla base canonica di R 4 . Si tratta di due vettori linearmente indipendenti, pertanto costituiscono una base di f ( ) e dim(f ( )) = 2 .
H H Data l’applicazione lineare f : V −→ W tra due spazi vettoriali V e W, come caso particolare di immagine di un sottospazio vettoriale di V si puo` considerare il sottospazio vettoriale di W dato da f (V ) , ci`o suggerisce la seguente definizione.
Definizione 6.5 Si definisce sottospazio immagine e si indica con im f il sottospazio vettoriale f (V ) di W.
≤ dim(W ) e, in modo naturale, si ha il seguente teorema. Teorema 6.5 Un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W e` In generale dim(im f )
suriettiva se e solo se im f = W.
Applicazioni Lineari
250
−→ W e se dim(V ) = n, data una base B = (v , v , . . . , v ) im f = L(f (v ), f (v ), . . . , f ( v ))
Osservazione 6.3 Se f : V di V, allora:
1
1
2
2
n
n
quindi:
dim(im f )
C
≤ dim(V ).
Se dim(W ) = m e = (w1 , w2 , . . . , wm ) e` una base di W, indicata con A la matrice di Rm,n associata ad f rispetto alle basi e , dal Paragrafo 6.1 segue che:
B C
C
dim(im f ) = dim( (A)) = rank(A),
C
dove (A) indica lo spazio vettoriale delle colonne della matrice A . Vale anche l’evidente ma importante teorema di seguito enunciato.
Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso rango. In particolare matrici simili hanno lo stesso rango. 1. f : V
Osservazione 6.4
−→ W e` suriettiva se e solo se: rank(A) = dim(W )
dove A e` una qualsiasi matrice associata ad f . 2. Non esiste alcuna applicazione lineare suriettiva da R 2 in R 3 . Perch´e?
Esercizio 6.5 Si calcoli im f, dove f : R3 nell’Esercizio 6.4. Soluzione
riducendo A per colonne si ottiene:
1 2 1 0
1 1 0 1
R4 e` l’applicazione lineare definita
La matrice associata ad f , rispetto alle basi canoniche di R 3 e di R 4 , e` :
− − 1 2 1 0
A =
−→
− 0 1 1 1
−→ C → C − C 2
2
1
1 2 1 0
1 1 0 1
0 1 1 1
− −→ → − 0 1 1 1
0 1 1 1
;
C 3
C 3 + C 2
1 2 1 0
− −
0 1 1 1
0 0 0 0
quindi rank(A) = 2 da cui dim(im f ) = 2 . Una base di im f e` data dalle due colonne non nulle della matrice ridotta per colonne, ossia im f = ((1, 2, 1, 0), (0, 1, 1, 1)) .
L
− −
Capitolo 6
251
Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad un’applicazione lineare f : V W si ottiene una matrice A , ridotta per righe, tale che rank(A) = rank(A ) = dim(im f ) ma in generale lo spazio vettoriale (A) delle colonne di A e` diverso dallo spazio vettoriale (A ) delle colonne di A . Pertanto ci si deve ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve ridurre la matrice A per colonne e non per righe.
−→
C
C
Si intende ora discutere il problema analogo al calcolo dell’immagine di un sottospazio vettoriale del dominio di un’applicazione lineare, ma relativo ad un sottospazio vettoriale del codominio. Si deve pertanto enunciare la seguente definizione.
K
−→
Definizione 6.6 Sia f : V W un’applicazione lineare tra i due spazi vettoriali V di W mediante f il e W. Si definisce controimmagine di un sottospazio vettoriale sottoinsieme di V dato da:
K
f −1 ( ) = x
K { ∈ V | f (x) ∈ K}, vale a dire l’insieme delle controimmagini di tutti i vettori di K . Anche in questo caso si puo` dimostrare un teorema analogo al Teorema 6.4.
Teorema 6.7 La controimmagine f −1 ( ) di un sottospazio vettoriale sottospazio vettoriale di V .
K
K di W e` un
Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che e` necessario dimostrare che per ogni x1 , x2 f −1 ( ) e per ogni λ, µ R si ha:
∈
K
∈
−1
∈ f (K).
λx1 + µx2
Ci`o significa che si deve dimostrare che f (λx1 + µx2 ) e` un vettore di di f segue: f (λx1 + µx2 ) = λf (x1 ) + µf (x2 ).
K. Per la linearit`a
Poich´e x1 , x2 f −1 ( ), le loro immagini f (x1 ) e f (x2 ) appartengono a , cos`ı come la loro somma e il loro prodotto per numeri reali, essendo un sottospazio vettoriale di W .
∈
K
K
K
Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione usata) il sottospazio vettoriale f −1 ( ) con la funzione inversa f −1 (se esiste) di f che sar`a definita nel Paragrafo 6.4.
K
Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con im f ) . tutto il dominio? Invece e` evidente che f −1 ( ) = f −1 (
K
K∩
Applicazioni Lineari
252
Esercizio 6.7 Data l’applicazione lineare f : R 3 calcoli la controimmagine del sottospazio vettoriale
−→ R introdotta nell’Esercizio 6.4 si K di R definito da: K = {(y , y , y , y ) ∈ R | y + y = 0}. 1
2
3
4
4
4
4
1
2
K e` dato da:
Soluzione
Il sottospazio vettoriale
K = {(t , −t , t , t ) | t , t , t ∈ R}, quindi i vettori x ∈ R la cui immagine appartiene a K sono le soluzioni dell’equazione 1
1
2
3
1
2
3
3
matriciale AX = Y , con A matrice associata ad f (rispetto alle basi canoniche di R3 e di R4 ), X matrice colonna delle componenti di x rispetto alla base canonica di R 3 e Y matrice colonna delle componenti, rispetto alla base canonica di R 4 , del generico vettore di . In questo caso si ha:
K
− − −→ → − →
1 2 1 0
R3 R4
1 1 0 1
0 1 1 1
t1 t1 t2 t3
R3 R2 R4 + R2
1 0 0 0
−→ R → R − 2R R → R − R 2
2
3
3
1 1 0 0
− 0 1 0 0
1
1
t1 3t1 2t1 + t2 t3 3t1
−
1 0 0 0
− −
1 1 1 1
−− − 0 1 1 1
t1 3t1 t2 t1 t3
da cui si ottiene che il sistema lineare e` compatibile se e solo se:
ossia se t 2 =
−2t
1
e t 3 = 3t1
2t1 + t2 = 0, 3t1 + t3 = 0,
− con t ∈ R. 1
Si controlli, per esercizio, che le condizioni ottenute coincidono con l’imporre che i vettori
−
(t1 , t1 , t2 , t3 ) appartengano a matrice ridotta per righe:
K ∩ im f. Risolvendo il sistema lineare associato alla
1 0 0 0
1 1 0 0
− 0 1 0 0
t1 3t1 0 0
Capitolo 6
si ottiene:
da cui segue:
253
−
x1 = t 1 λ x2 = λ x3 = 3t1 + λ,
∈ R,
−
λ, t1
f −1 ( ) = (( 1, 1, 1), (1, 0, 3)).
K L −
−
Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato sostituendo nell’equazione di : y 1 + y2 = 0 le equazioni di f :
K
da cui segue:
y1 = x 1 + x2 y2 = 2x1 + x2 + x3 , y3 = x 1 + x3 , y4 = x 2 x3 ,
−
3x1 + 2x2 + x3 = 0
che `e l’equazione di f −1 ( ), rispetto alla base canonica di R 3 .
K
Estremamente importante e` il caso particolare della controimmagine del sottospazio vettoriale improprio oW del codominio, per cui vale la seguente definizione.
{ }
−→
Definizione 6.7 Il nucleo di un’applicazione lineare f : V W tra due spazi vettoriali V e W e` il sottospazio vettoriale di V controimmagine del sottospazio vettoriale oW del codominio W e si indica con:
{ }
{ ∈ V | f (x) = o }.
ker f = x
W
Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema 6.7.
{}
Esempio 6.19 Nel caso dell’identit`a, definita nell’Esempio 6.1, si ha che ker id = o e
im id = V.
Esempio 6.20 Nel caso dell’applicazione nulla, definita nell’Esempio 6.2, ker O = V e im O = oW .
{ }
Esempio 6.21 L’applicazione lineare definita nell’Esempio 6.6 ha come nucleo il piano vettoriale ortogonale al vettore a, cio`e ker f = (a)⊥ , mentre im f = R .
L
Applicazioni Lineari
254
Il calcolo del sottospazio vettoriale im f costituisce un test per valutare l’eventuale suriettivit`a dell’applicazione lineare f . Lo studio di ker f , invece, e` legato all’iniettivit a` di f , e precisamente vale il seguente teorema.
−→
Teorema 6.8 Sia f : V W un’applicazione lineare tra gli spazi vettoriali V e W, f e` iniettiva se e solo se ker f = oV .
{ } Se ker f = {o } si tratta di dimostrare che f e` iniettiva, ossia che se Dimostrazione f (x) = f (y) , con x, y ∈ V allora x = y . Ma da f (x) = f (y) segue, per la linearit`a di f , che f (x − y) = o , cio`e x − y = o da cui la tesi. Viceversa, se f e` iniettiva e se si suppone che x ∈ ker f , allora f (x) = f (o ) = o , da V
W
V
V
W
cui x = o V .
Per il calcolo esplicito di ker f, si consideri la matrice A = M B,C (f ) associata al= (v1 , v2 , . . . , vn ) di V e l’applicazione lineare f : V W , rispetto alle basi = (w1 , w2 , . . . , wm ) di W. Per definizione, un vettore x V appartiene a ker f se f (x) = o W , che, usando le equazioni dell’applicazione lineare f scritte rispetto alle basi e , equivale a:
−→
C B C
B
∈
AX = O,
(6.11)
dove X indica la matrice colonna delle componenti di x rispetto alla base e O Rn,1 e` la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare omogeneo (6.11). Dal Teorema 4.23 segue:
B
dim(ker f ) = dim(V )
− rank(A).
∈
(6.12)
Esempio 6.22 Si calcoli ker f nel caso dell’applicazione lineare introdotta nell’Esercizio 6.4 e studiata anche nell’Esercizio 6.5. Riducendo per righe la matrice A associata ad f , rispetto alle basi canoniche di R 3 e R 4 , si ha:
A =
− −→ → − →
R3 R4
1 2 1 0
1 1 0 1
0 1 1 1
R3 R2 R4 + R2
−→ R → R − 2R R → R − R 1 0 0 0
2
2
3
3
−
1 1 0 0
1
1
0 1 0 0
1 0 0 0
1 1 1 1
− −
− 0 1 1 1
−
da cui si ottiene che rank(A) = 2 = dim(im f ) , mentre dim(ker f ) = 1 = 3 2 . Risolvendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima
Capitolo 6
255
L −
ottenuta segue che ker f = (( 1, 1, 1)) . Si ricordi che, per determinare esplicitamente im f , si deve ridurre la matrice A per colonne, come spiegato nell’Esercizio 6.5.
Esercizio 6.8 Sia f : R3
−→ R
3
l’endomorfismo definito da:
f (e1 ) = 2e1 f (e2 ) = e 1 + e2 + e3 f (e3 ) = e1 + e2 e3 ,
−
−
B = (e , e , e ) base canonica di R . Calcolare ker f e im f .
con
1
Soluzione
2
3
3
La matrice associata ad f , rispetto alla base canonica
A =
2 0 0
1 1 1
−1 1 −1
B di R , e` : 3
.
Poich´e det(A) = 4 , il rango di A e` 3 , quindi dim(im f ) = 3 , ossia im f = R3 e dim(ker f ) = 0 , da cui ker f = o . Quindi f e` sia iniettiva sia suriettiva.
−
{}
Il teorema che segue stabilisce che l’iniettivit a` di un’applicazione lineare f e` equivalente al fatto che dim(f ( )) = dim( ) , per ogni sottospazio vettoriale del dominio.
H
H
H
−→
Teorema 6.9 L’applicazione lineare f : V W tra due spazi vettoriali V e W e` iniettiva se e solo se l’immagine di ogni insieme libero di V e` un insieme libero di W.
−→
{
}
Dimostrazione Sia f : V W un’applicazione lineare iniettiva e sia a1 , a2 , . . . , ak un insieme di vettori linearmente indipendenti di V, si tratta di dimostrare che l’insieme di vettori f (a1 ), f (a2 ), . . . , f ( ak ) di W e` libero. La tesi segue dalla definizione di vettori linearmente indipendenti e dal Teorema 6.8. Infatti, se si considera la combinazione lineare: λ1 f (a1 ) + λ2 f (a2 ) + . . . + λk f (ak ) = o W ,
{
}
∈ R , per la linearit`a di f si ha:
con λ 1 , λ2 , . . . , λk
f (λ1 a1 + λ2 a2 + . . . + λk ak ) = o W e, quindi, per l’iniettivit a` di f segue λ 1 = λ 2 = . . . = λ k = 0 . Viceversa, sia x = oV , allora x e` un insieme libero in V e quindi per ipotesi anche l’insieme f (x) e` un insieme libero. Pertanto f (x) = oW , da cui segue che necessariamente ker f = oV , quindi la tesi.
{
}
{ }
{ }
Applicazioni Lineari
256
−→
Definizione 6.8 Dati due spazi vettoriali V e W, un’applicazione lineare f : V W che sia biiettiva (cio e` iniettiva e suriettiva) prende il nome di isomorfismo tra V e W. Se e` possibile definire un isomorfismo tra due spazi vettoriali, questi si dicono isomorfi. Un endomorfismo f : V V biiettivo prende il nome di automorfismo di V .
−→
Il teorema che segue stabilisce un’importante relazione tra le dimensioni di ker f e di V ed il rango di una qualunque matrice associata all’applicazione lineare f : V W, ottenendo in questo modo un’altra dimostrazione del Teorema del Rango 4.19.
−→
Teorema 6.10 – Teorema del Rango – Sia f : V due spazi vettoriali V e W, allora:
−→ W un’applicazione lineare tra
dim(ker f ) + dim(im f ) = dim(V ).
≤
Dimostrazione Si supponga che dim(V ) = n e dim(ker f ) = h n . Se h = 0 e se h = n il teorema e` dimostrato (perch´e?). Sia dunque h < n e sia (a1 , a2 , . . . , ah ) una base di ker f . Usando il Teorema 4.15 si completi tale insieme libero di vettori fino ad ottenere la base di V (a1 , a2 , . . . , ah , b1 , b2 , . . . , bn−h ) . Dall’Osservazione 6.3 si ha che:
{f (a ), f (a ), . . . , f ( a ), f (b ), f (b ), . . . , f ( b 1
2
h
1
2
}
n−h )
e` un sistema di generatori di im f . Poich´e f (a1 ) = oW , f (a2 ) = oW , . . . , f ( ah ) = oW , la tesi segue se si dimostra che = f (b1 ), f (b2 ), . . . , f ( bn−h ) e` un insieme libero di W e, quindi, una base di im f . Per provare l’indipendenza lineare dei vettori di si pone:
C {
}
C
λ1 f (b1 ) + λ2 f (b2 ) + . . . + λn−h f (bn−h ) = o W , con λ i
∈ R, i = 1, 2, . . . , n − h, ossia: f (λ1 b1 + λ2 b2 + . . . + +λn−h bn−h ) = o W ,
da cui segue che il vettore λ 1 b1 + λ2 b2 + . . . + +λn−h bn−h appartiene a ker f, come tale si pu`o scrivere come combinazione lineare dei vettori della base ( a1 , a2 , . . . , ah ) di ker f . Dall’espressione esplicita di tale combinazione lineare e dal fatto che ( a1 , a2 , . . . , ah , b1 , b2 , . . . , bn−h ) e` una base di V segue che λ 1 = λ 2 = . . . = λ n−h = 0, ovvero la tesi.
Osservazione 6.8 Si osservi che, nelle ipotesi del teorema precedente,
N
dim(ker f ) = dim( (A)) = n
− dim(R(A)),
dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di W, (A) e` il nullspace di A e (A) indica lo spazio vettoriale delle righe di A. Dal
N
R
Capitolo 6
257
C
C(A) spazio vettoriale delle colonne di A, segue dim(R(A)) = dim(C (A)), vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A ∈ R pu`o sempre essere considerata come associata ad un’applicazione lineare f : R −→ R , rispetto alle basi fatto che dim(im f ) = dim( (A)), con quindi che:
m,n
n
m
canoniche di R n e di R m .
Nel caso particolare di un endomorfismo di V, tutti i risultati man mano ottenuti si possono riassumere nel seguente teorema, la cui dimostrazione `e lasciata per esercizio.
−→
1. Sia f : V Teorema 6.11 W un’applicazione lineare tra due spazi vettoriali V e W con dim(V ) = dim(W ), allora f e` iniettiva se e solo se f e` suriettiva.
−→
2. Sia f : V W un’applicazione lineare tra due spazi vettoriali V e W con dim(V ) = dim(W ), allora:
{ }
a. f e` un isomorfismo se e solo se ker f = oV . b. f e` un isomorfismo se e solo se im f = W.
−→ V un endomorfismo di uno spazio vettoriale reale V , allora: f e` un automorfismo se e solo se ker f = {o }.
3. Sia f : V a.
V
b. f e` un automorfismo se e solo se im f = V.
Osservazione 6.9 Il teorema precedente, il Teorema 6.8 e l’Osservazione 6.4 possono essere riscritti in termini di una qualsiasi matrice associata ad un’applicazione lineare f nel modo seguente.
−→ W un’applicazione lineare tra due spazi vettoriali V e W, con dim(V ) = n e sia B = (v , v , . . . , v ) una base di V. Sia dim(W ) = m e sia C = (w , w , . . . , w ) una base di W. Si indichi con A ∈ R la matrice M (f ) associata a f , rispetto alle basi B e C, allora: ⇐⇒ f e` iniettiva, rank(A) = n ⇐⇒ f e` suriettiva. rank(A) = m 2. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n. Sia B = (v , v , . . . , v ) una base di V e sia C = ( w , w , . . . , w ) una base di W. Si indichi con A ∈ R la matrice quadrata M (f ) associata a f , rispetto alle basi B e C, allora: ⇐⇒ det(A) = 0 ⇐⇒ f e` un isomorfismo. rank(A) = n 1. Sia f : V
1
1
2
2
n
m,n
m
B ,C
1
1
B ,C
2
n
2
n
n,n
Applicazioni Lineari
258
−→
3. Sia f : V V un’endomorfismo di uno spazio vettoriale V , con dim(V ) = n e = (v1 , v2 , . . . , vn) base di V. Si indichi con A Rn,n la matrice quadrata con M B,B (f ) associata a f , rispetto alla base , allora:
B
∈
B
⇐⇒
rank(A) = n
det(A) = 0
⇐⇒
f e` un automorfismo.
A completamento, invece, dello studio della controimmagine di un sottospazio vettoriale mediante un’applicazione lineare, e` utile risolvere il seguente esercizio la cui soluzione `e lasciata al Lettore.
−→
Esercizio 6.9 Sia f : V W un’applicazione lineare tra due spazi vettoriali V e W. Sia un sottospazio vettoriale di W allora:
K
−1
⊆ f (K); 2. se K ⊆ im f allora dim(f (K)) = dim(ker f ) + dim(K); 3. in generale dim(f (K ∩ im f )) = dim(ker f ) + dim(K ∩ im f ). 1. ker f
−1
−1
L’ultimo teorema di questo paragrafo stabilisce la condizione necessaria e sufficiente affinch´e due spazi vettoriali siano isomorfi.
Teorema 6.12 Due spazi vettoriali sono isomorfi se e solo se essi hanno la stessa dimensione. Dimostrazione Il fatto che due spazi vettoriali isomorfi abbiano la stessa dimensione segue in modo evidente dai teoremi precedenti. Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n , il teorema `e dimostrato se si `e in grado di definire un isomorfismo tra di essi. Fissate dunque una base = (v1 , v2 , . . . , vn ) in V e una base = (w1 , w2 , . . . , wn ) in W, si definisca f : V W ponendo:
B −→
C
f (v1 ) = w 1 ,
f (v2 ) = w 2 ,
...,
f ( vn ) = w n,
f e` un isomorfismo in quanto im f = W .
−→
Osservazione 6.10 Si osservi che, anche nel caso di un endomorfismo f : V V dalla relazione dim(ker f ) + dim(im f ) = dim(V ) non segue ker f im f = V. Si consideri, per esempio, un endomorfismo f di V tale che f 2 = O con O : V V endomorfismo 2 2 nullo, dove f e` la composizione f f definita da f (x) = f (f (x)) (cfr. Par. 6.4). Anche
⊕
◦
−→
Capitolo 6
259
se non e` ancora stato formalmente introdotto il concetto di composizione di applicazioni im f e x V tali che f (x) = x , lineari la sua definizione e` molto naturale. Dati x applicando f ad ambo i membri dell’ultima uguaglianza, segue f 2 (x) = f (x ) = o, quindi im f ker f . Sia A una matrice associata a f rispetto ad una base di V, poich´e im f = (A) (dove (A) indica lo spazio vettoriale generato dalle colonne di A ) e ker f = (A) (dove (A) indica il nullspace di A ), si e` costruito un esempio in cui (A) (A) . Si tratta, infatti, di un esercizio che completa la trattazione del Teorema 4.24.
∈
⊆ C N C ⊆ N
∈
C N
Esempio 6.23 Usando le stesse notazioni del Paragrafo 4.3.4, si considerino due basi = (v1 , v2 , . . . , vn) e = (v1 , v2 , . . . , vn ) in uno spazio vettoriale V. Come gi`a osservato nell’Esempio 6.14, la matrice M B,B (id) associata all’identi`a di V rispetto alla base nel dominio e alla base nel codominio e` la matrice del cambiamento di base da a (attenzione allo scambio dell’ordine delle due basi!) Invece se si considera l’applicazione lineare:
B
B
B B B
B
p : V
−→ V,
i
−→ v ,
vi
i = 1, 2, . . . , n ,
si ottiene, dalla sua definizione, che p e` un automorfismo di V (cfr. Teor. 6.12). La matrice ad essa associata, rispetto alla base sia nel dominio sia nel codomino, e` la matrice del cambiamento di base P = M B,B , ottenuta, infatti, ponendo in colonna le componenti dei vettori della base rispetto ai vettori della base . Si osservi, invece, che la matrice associata all’applicazione lineare p rispetto alla base nel dominio e alla base nel codominio e` la matrice unit`a I di ordine n anche se p non e` l’applicazione lineare identica. Si vuole in questo esempio approfondire il legame tra le equazioni del cambiamento di base da a e le equazioni dell’automorfismo p , riferite alla matrice P ad esso associata. Si ricordi che (cfr. Par. 4.3.4), dato un vettore x di V le sue componenti:
B
B
B B
B
B B
X =
scritte rispetto alla base
x1 x2 .. .
xn
B, e le sue componenti: X =
scritte rispetto alla base
x1 x2 .. .
xn
,
,
B , sono legate dalle equazioni del cambiamento di base: X = P X .
(6.13)
Applicazioni Lineari
260
D’altra parte, l’immagine del vettore x mediante l’automorfismo p e` il vettore:
p(x) =
y1 y2 . . . yn
tale che:
v1 v2 .. . vn
Y = P X, dove:
Y =
y1 y2 .. .
yn
(6.14)
.
Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto:
p(x) = y1 v1 + y2 v2 + . . . + yn vn = p(x1 v1 + x2 v2 + . . . + xn vn ) = x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn) = x1 v1 + x2 v2 + . . . + xn vn , ossia (x1 , x2 , . . . , xn ) sono le componenti di p(x) rispetto alla base sono le componenti di p(x) rispetto alla base .
B
6.4
B
e (y1 , y2 , . . . , yn )
Operazioni tra applicazioni lineari
In questo paragrafo si inizia con il dimostrare che l’insieme delle applicazioni lineari tra due spazi vettoriali reali V e W :
L(V, W ) = {f : V −→ W | f e` un’applicazione lineare} e` uno spazio vettoriale reale. Infatti, date f, g ∈ L(V, W ) , si definisce somma di f e di g la funzione data da:
(f + g)(x) = f (x) + g(x),
∈
L
per ogni x V. La funzione f + g e` ancora un elemento di (V, W ), la verifica e` lasciata per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari appena definita valgono le propriet`a commutativa ed associativa. Esiste, inoltre, l’elemento neutro rispetto alla somma di applicazioni lineari dato dall’applicazione lineare nulla
Capitolo 6
261
O definita nell’Esempio 6.2 e l’applicazione lineare opposta di f ( f )(x) = f (x) , con x V.
−
−
∈
∈ L(V, W ) , data da
In modo altrettanto naturale, `e possibile definire il prodotto di un numero reale λ per una (V, W ) come: applicazione lineare f
∈ L
(λf )(x) = λf (x),
∈
per ogni x V. Si verifica che tale prodotto λf e` ancora un’applicazione lineare per cui valgono le quattro propriet`a di definizione di prodotto di un numero reale per un vettore (la verifica e` un facile esercizio). Segue che (V, W ) e` un esempio di spazio vettoriale su R .
L
B ∈ B C
Siano dim(V ) = n e = (v1 , v2 , . . . , vn ) una base di V . Inoltre, siano dim(W ) = m e = (w1 , w2 , . . . , wm ) una base di W. Siano A = M B,C (f ) R m,n la matrice associata a f e B = M B,C (g) Rm,n la matrice associata a g, e` un esercizio dimostrare che A + B e` la matrice associata a f + g, rispetto alle basi e . Inoltre λA e` la matrice associata a λf, rispetto alle basi e . Fissate le basi di V e di W viene cos`ı definita, in modo naturale, la funzione:
C
∈
B C B C
L
φ : (V, W )
−→ R
m,n
B ,C
−→ M
,
f
(f ),
ossia φ e` la funzione che associa ad ogni applicazione lineare f la matrice associata ad f ` di nuovo un esercizio verificare (rispetto alle basi e del dominio e del codominio). E che φ e` un isomorfismo, quindi segue dal Teorema 6.12 che:
B C
L
dim( (V, W )) = mn.
(6.15)
Ci si occuper`a ora della composizione di due applicazioni lineari opportunamente definite. Sia f : V W un’applicazione lineare tra due spazi vettoriali V e W. Ponendo dim(V ) = n e = (v1 , v2 , . . . , vn ) base di V , dim(W ) = m e = (w1 , w2 , . . . , wm ) base di W, si indichi con A Rm,n la matrice associata ad f rispetto alle basi e . Sia g : W Z un’altra applicazione lineare tra gli spazi vettoriali W e Z. Posto dim(Z ) = p e = (z1 , z2 , . . . , z p ) una base di Z, si indichi con B in R p,m la matrice associata a g rispetto alle basi e . La funzione:
−→ B −→ D
C
∈
C D g ◦ f : V −→ Z,
x
B C
−→ g(f (x))
` un facile esercizio prende il nome di composizione delle applicazioni lineari f e g. E verificare che g f e` un’applicazione lineare. Si vuole, quindi, determinare la matrice ad essa associata, rispetto alle basi e . Le equazioni dell’applicazione lineare f sono Y = AX , dove X indica la matrice colonna di Rn,1 delle componenti del generico vettore
◦
B D
Applicazioni Lineari
262
e Y indica la matrice colonna di Rm,1 delle componenti di x di V rispetto alla base f (x) rispetto alla base . Calcolando l’immagine di f (x) mediante g si ottiene Z = BY dove Z indica la matrice colonna di R p,1 delle componenti di g(f (x)) , rispetto alla base , sostituendo si ha:
C
B
D
Z = BY = BAX,
∈ R
quindi la matrice C
p,n
associata a g
◦ f , rispetto alle basi B e D e` data dal prodotto:
C = BA.
(6.16)
Osservazione 6.11 Questo risultato costituisce un’altra giustificazione della definizione di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione:
rank(BA)
≤ min(rank(B), rank(A)).
Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il prodotto BA , come e` stato appena dimostrato, e` la matrice associata alla composizione g f . Dall’inclusione, di facile dimostrazione, im(g f ) im g , si ottiene:
◦
◦ ⊂
◦
≤ dim(im g) = rank(B). Inoltre, dall’inclusione, anch’essa facilmente dimostrabile, ker f ⊂ ker(g ◦ f ) e grazie al rank(BA) = dim(im(g f ))
Teorema del Rango 6.10 si ottiene l’altra disuguaglianza:
◦
rank(BA) = dim(im(g f ))
≤ dim(im f ) = rank(A).
Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi canoniche , , . Date le applicazioni lineari:
B B B
f : R3
−→ R ,
con
A = M B ,B (f ) =
g : R4
−→ R ,
con
B = M B
2
2
,B
(g) =
determinare, se esiste, un’applicazione lineare h : R4
− − − − 1 1
1 2
3 5
2 3
4 9
,
3 4
0 1
− − − , −→ R tale che f ◦ h = g . 3
Soluzione All’applicazione lineare h (rispetto alla basi canoniche del dominio e del codominio) si associa una matrice X R3,4 , tale che AX = B . Si tratta, quindi, di risolvere l’equazione matriciale cos`ı ottenuta usando il metodo descritto nel Capitolo 2.
∈
Capitolo 6
263
L
Nel caso particolare di (V, V ) , ossia dello spazio vettoriale degli endomorfismi di V, a volte anche indicato con il simbolo End (V ), la composizione di due endomorfismi e` un’operazione interna, per cui vale la propriet`a associativa, esiste l’elemento neutro (l’applicazione lineare identica) ma non vale la propriet a` commutativa. Da nozioni elementari di algebra segue che una funzione e` invertibile se e solo se `e una biiezione. Si supponga che f End(V ) sia una biiezione, ossia che f sia un automorfismo di V , esiste allora la funzione inversa f −1 di f definita come l’unica funzione per cui:
∈
f −1 f = f f −1 = id,
◦
◦
con id identit`a di V. Nel caso degli automorfismi di End (V ) si puo` dimostrare il seguente teorema.
Teorema 6.13 Sia V uno spazio vettoriale reale.
1. Se f e` un automorfismo di V , anche f −1 e` un automorfismo di V.
◦
2. Se f e g sono automorfismi di V, la loro composizione g f e` ancora un automor fismo di V , inoltre: (6.17) (g f )−1 = f −1 g −1 .
◦
◦
Dimostrazione Per dimostrare 1. e` sufficiente dimostrare che f −1 e` un endomorfismo di V , ossia che per ogni x1 , x2 V e per ogni λ, µ R allora:
∈
∈
f −1 (λx1 + µx2 ) = λf −1 (x1 ) + µf −1 (x2 ). Ma l’uguaglianza `e vera perch´e se si applica f ad ambo i membri si ha:
f (f −1 (λx1 + µx2 )) = f (λf −1 (x1 ) + µf −1 (x2 )) = λf (f −1 (x1 )) + µf (f −1 (x2 )). La tesi segue dalla definizione di inversa di una funzione, dal fatto che una funzione invertibile e` necessariamente iniettiva e dalla linearit`a di f . Per dimostrare 2. tenendo conto che la composizione di due endomorfismi `e un endomorfismo, e` sufficiente dimostrare che g f e` iniettivo. Ma per l’iniettivit a` di f e di g , si ha (g f )(x) = o se e solo se x = o. La dimostrazione di (6.17) e` lasciata al Lettore per esercizio.
◦
◦
−→ −→ f ◦ f = id
Osservazione 6.12 1. Pi`u in generale, se f : V W e` una biezione tra due spazi vettoriali V e W diversi, si puo` ugualmente introdurre il concetto di funzione inversa f −1 come l’unica funzione f −1 : W V tale che
f −1 f = idV ,
◦
−1
W ,
dove idV e idW indicano, rispettivamente, l’identit a` di V e l’identit`a di W. Se f e` un isomorfismo si dimostra, come nel teorema precedente, che f −1 e` ancora un isomorfismo.
Applicazioni Lineari
264
2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari e` il prodotto delle matrici associate alle due applicazioni lineari (scegliendo opportunamente le basi nel dominio e nel codominio) segue che all’applicazione lineare inversa di f e` associata la matrice inversa a quella associata ad f (rispetto alla stessa scelta di basi in V ). Si noti l’assoluto accordo tra risultati noti sull’esistenza dell’inversa di una matrice quadrata (rango massimo) e sull’esistenza dell’inverso di un endomorfismo (biiettivit`a quindi rango massimo della matrice associata). Si osservi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA)−1 = A −1 B −1 (cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g .
−→
Esercizio 6.11 Sia f : V W un isomorfismo tra due spazi vettoriali reali V e W. Data una base = (w1 , w2 , . . . , wn ) di W dimostrare che esiste una base di V tale che la matrice associata ad f rispetto alle basi e sia la matrice unit a` I di ordine n .
C
Soluzione
B
B C
B e` data da: B = (f (w ), f
La base
−1
−1
1
(w2 ), . . . , f − 1 (wn)),
dove per f −1 indica l’isomorfismo inverso di f. La dimostrazione del fatto che base di V e che M B,C (f ) = I e` lasciata al Lettore per esercizio.
B sia una
−→ B
Esempio 6.24 Si consideri la rotazione R[θ] : V 2 V 2 in senso antiorario di angolo θ di ogni vettore x del piano vettoriale V 2 . Nel Paragrafo 3.8 `e stata determinata la matrice del cambiamento di base da una base ortonormale = (i, j) di V 2 alla base ortonormale = (i , j ) ottenuta a partire dalla base mediante la rotazione di angolo θ . Pertanto la matrice associata a R[θ] , rispetto alla base , coincide con la matrice del cambiamento di base, ossia:
B
B
B ,B
M
(R[θ]) =
B
cos θ sin θ
− sin θ cos θ
,
mentre le equazioni della rotazione R[θ] , che applicata ad un vettore x = x i +y j permette di ottenere il vettore R[θ](x) = x i + y j, sono:
x = x cos θ y sin θ y = x sin θ + y cos θ.
−
Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[θ1 ] e R[θ2 ] , rispettivamente di angoli θ 1 e θ 2 , e` la rotazione R[θ1 + θ2 ] . La rotazione R[θ] e` un automorfismo di V 2 per ogni valore dell’angolo θ, si verifichi per esercizio che l’inversa della rotazione R[θ] e` la rotazione R[ θ] .
−
Capitolo 6
265
L’insieme delle rotazioni del piano vettoriale V 2 , studiate nell’esempio precedente, e` un esempio di gruppo commutativo (cfr. Oss. 2.2). Esso e` in generale indicato come SO(2) e denominato gruppo ortogonale speciale di ordine 2 (cfr. (5.10)):
{
| ∈ [0, 2π)} =
SO(2) = R[θ] θ
cos θ sin θ
− sin θ ∈ R | θ ∈ [0, 2π) cos θ 2,2
.
In particolare, esso e` un sottogruppo del gruppo O(2) delle matrici ortogonali di ordine 2, dove e` chiaro che un sottogruppo di un gruppo e` un sottoinsieme chiuso rispetto all’operazione del gruppo e contenente l’inverso di ogni suo elemento (cfr. Oss. 4.5 per la nozione di sottogruppo). Dato uno spazio vettoriale reale V , l’insieme degli automorfismi di V, indicato come:
GL(V, R) = f : V
{
−→ V | f e` un automorfismo}
e` un gruppo rispetto alla composizione di automorfismi e, in generale, non `e commutativo. Se dim(V ) = n e fissata una base in V allora si pu o` stabilire, in modo naturale, la corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr. Oss. 2.7) che associa ad ogni f GL(V, R) la matrice A = M B,B (f ). Tale biiezione e` un automorfismo in quanto alla composizione di automorfismi si associa il prodotto di matrici e all’inverso di un automorfismo si associa l’inversa della matrice. Un importante sottogruppo di GL(n, R) e` il gruppo ortogonale O(n) delle matrici ortogonali di Rn.n , definito in (2.9). Per approfondimenti sull’argomento e maggiori dettagli si rimanda a testi classici di teoria dei gruppi, quali ad esempio [2] e [13].
B
∈
6.5
Sottospazi vettoriali invarianti
−→
Sia f : V V e` un endomorfismo di uno spazio vettoriale reale V, il nucleo di f, ker f, gode di un’interessante propriet`a in quanto l’immagine di ogni suo elemento e` ancora un elemento di ker f , ossia:
f (ker f )
{ }
⊆ ker f,
infatti si ha banalmente f (ker f ) = o . Lo studio dei sottospazi vettoriali di V per cui vale lo stesso tipo di propriet`a rivestir`a una grande importanza nel capitolo successivo, e` giustificata quindi la definizione che segue.
−→ V un endomorfismo di uno spazio vettoriale V e sia H H si dice invariante per f se f (H) ⊆ H.
Definizione 6.9 Sia f : V un sottospazio vettoriale di V ,
Osservazione 6.13 La definizione precedente e` ragionevole solo nel caso di un endomorfismo, infatti se f e` un’applicazione lineare f : V W, tra due spazi vettoriali V e W
−→
Applicazioni Lineari
266
H di V con la sua immagine
diversi, non ha senso confrontare un sottospazio vettoriale
H
f ( ).
Per i sottospazi vettoriali invarianti vale la seguente propriet a` , la cui dimostrazione e` lasciata al Lettore per esercizio.
H H H H
Teorema 6.14 Sia f un endomorfismo di uno spazio vettoriale V. Se 1 , 2 , . . . , sono sottospazi vettoriali di V invarianti per f, allora la loro somma 1 + 2 +. . .+ e` un sottospazio vettoriale di V invariante per f .
H H
k k
−→ V l’endomorfismo, la cui matrice associata, rispetto ad B = (i, j, k) di V , `e: cos θ − sin θ 0
Esercizio 6.12 Sia f : V 3 una base ortonormale positiva
3
3
A =
sin θ 0
cos θ 0
0 1
.
Si descriva il significato geometrico di f e si dimostri che il piano vettoriale di V 3 invariante per f .
L(i, j) e` un sottospazio
Esercizio 6.13 Sia f : R3 R3 un endomorfismo tale che f 3 = f f f = O e per cui f 2 = O , dove O indica l’applicazione nulla di R3 . Si dimostri che ker(f 2 ) e` un sottospazio vettoriale invariante per f . Per svolgere l’esercizio si tenga conto che ker f ker(f 2 ) e che f 3 (x) = (f f 2 )(x), x V.
−→
⊆
◦ ◦
◦
∈
−→
Data un’applicazione lineare f : V W tra due spazi vettoriali V e W ed un sottospazio vettoriale del dominio, si introduce in modo naturale il concetto di restrizione di f a nel modo seguente.
H
H
−→
Definizione 6.10 Sia f : V W un’applicazione lineare tra due spazi vettoriali V e W, sia un sottospazio vettoriale di V , la restrizione di f a e` la funzione:
H
| H −→ W,
f H :
H
x
−→ f (x).
Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di un’applicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomorfismo.
−→
1. La restrizione di un’applicazione lineare f : V Teorema 6.15 W tra due spa zi vettoriali V e W ad un sottospazio vettoriale di V e` ancora un’applicazione lineare.
H
Capitolo 6
267
−→
2. La restrizione di un endomorfismo f : V V ad un sottospazio vettoriale V invariante per f e` ancora un endomorfismo:
H di
| H−→H
f H : tale che:
|
f H (x) = f (x),
x
∈ H.
|
(6.18)
Esercizio 6.14 Verificare che la restrizione f H di un endomorfismo f di uno spazio vettoriale reale V a = ker f e` l’applicazione lineare nulla su .
H
Esercizio 6.15 Sia f : R4
−→ R
3
H
l’applicazione lineare definita da:
f ((x1 , x2 , x3 , x4 )) = (3x1 + 5x2 + x3 + 2x4 , 3x1 + 5x2 + 3x3 + 4x4 , x3 + x4 ); si consideri l’iperpiano vettoriale di R 4 di equazione x 1 + x2 + x3 x4 = 0. Verificare che l’insieme = (1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1) e` una base di e scrivere la matrice A della restrizione di f ad , rispetto alla base del dominio e alla base canonica del codominio.
H H
B {
− H
} B
H B
B
e` Soluzione L’iperpiano vettoriale ha dimensione 3, si verifica facilmente che una sua base in quanto i vettori di appartengono ad e sono linearmente indipendenti. La matrice A associata all’applicazione lineare f rispetto alle basi canoniche di R 4 e di R3 e` :
A = Le immagini dei vettori di
3 5 1 2 3 5 3 4 0 0 1 1 3 5 1 2 3 5 3 4 0 0 1 1
H
3 5 1 2 3 5 3 4 0 0 1 1
B mediante f sono: 1 0 0 1 0 0 1 1
=
=
5 7 1 3 7 2
,
.
Segue, quindi, che la matrice A richiesta `e:
.
3 5 1 2 3 5 3 4 0 0 1 1
0 1 0 1
=
7 9 1
,
Applicazioni Lineari
268
A =
6.6
5 7 3 7 9 7 1 1 2
.
Applicazione lineare aggiunta Endomorfismi autoaggiunti
·
·
−→
Siano (V, ) e (W, ) due spazi vettoriali euclidei e sia f : V W un’applicazione lineare. Tramite i prodotti scalari definiti su V e su W e` possibile introdurre una nuova applicazione lineare da W a V nel modo seguente.
·
·
Teorema 6.16 Siano (V, ) e (W, ) due spazi vettoriali euclidei di dimensione n e m , rispettivamente. Data un’applicazione lineare f : V W, esiste un’unica applicazione lineare:
−→
f † : W
−→ V,
detta applicazione lineare aggiunta di f , tale che:
f (x) y = x f † (y),
·
·
B
x
∈ V, y ∈ W.
(6.19)
C
= (v1 , v2 , . . . , vn ) e = (w1 , w2 , . . . , wm ) sono basi ortonormali di V e Inoltre, se W rispettivamente, le matrici associate a f e f † verificano la seguente relazione: M C ,B (f † ) = t (M B,C (f )), ossia la matrice associata a f † , rispetto alle basi ortonormali e , e` la trasposta della matrice associata a f rispetto alle stesse basi in ordine scambiato.
B C
Dimostrazione La relazione (6.19) permette di dimostrare che f † e` una funzione. Infatti, per ogni y W esiste ed e` unico f † (y) , in quanto fissato x V, il primo membro di (6.19) e` ben determinato. Inoltre f † e` un’applicazione lineare, la verifica e` un facile esercizio che segue dalla linearit a` di f e dalle propriet`a del prodotto scalare. Sia e e siano A = M B,C (f ) la matrice associata a f rispetto alle basi ortonormali x = x1 v1 + x 2 v2 + . . . + x n vn V, y = y1 w1 + y 2 w2 + . . . + y m wm W. Per l’ortonormalit`a di si ha:
∈
∈
B C ∈
∈
C
f (x) y = t (AX )Y = tX tA Y,
·
dove X e Y sono le matrici colonna con elementi le componenti di x e di y rispettivamente. Se si indicano con Z la matrice colonna con elementi le componenti di z = f † (y) rispetto alla base , per l’ortonormalit`a di e dall’uguaglianza (6.19), si ottiene:
B
B
t
X tA Y = x z = tX Z,
·
Capitolo 6
269
per ogni X , Y e Z , da cui Z = tA Y. Quindi si ha che la matrice associata a f † e` M C ,B (f † ) = tA .
Osservazione 6.14 1. Come conseguenza del precedente teorema e dell’Osservazione 4.26 si ha dim(im f ) = dim(im f † ) .
2. Dalla definizione di applicazione lineare aggiunta segue che (f † )† = f. 3. Se le basi
†
B e C non sono ortonormali, la relazione tra le matrici associate a f e f
e` pi`u complicata.
·
·
Esercizio 6.16 Siano (V, ) e (W, ) due spazi vettoriali euclidei. Verificare che, se f : V W e` un’applicazione lineare e f † : W V e` l’applicazione lineare aggiunta di f , allora:
−→
−→
1. V = im f † 2.
⊕ ker f, W = im f ⊕ ker f , †
3. im f † = (ker f )⊥ , 4. im f = (ker f † )⊥ .
Esercizio 6.17 Verificare che, se f, g sono endomorfismi di uno spazio vettoriale euclideo (V, ) , allora:
·
(g f )† = f † g †
◦
◦
e che se f e` invertibile, allora:
(f −1 )† = (f † )−1 .
Nel caso di un endomorfismo f di uno spazio vettoriale euclideo V ha senso confrontare f con la propria applicazione lineare aggiunta f † ed e` pertanto naturale enunciare la seguente definizione.
·
Definizione 6.11 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, ), f si dice autoaggiunto (o simmetrico), se f † = f , ossia se:
·
·
f (x) y = x f (y),
∈ V.
x, y
Applicazioni Lineari
270
Esempio 6.25 Si consideri lo spazio vettoriale euclideo ( R2 , ) dotato del prodotto scalare standard. L’endomorfismo
·
f : R2
2
−→ R ,
(x, y)
−→ (y, x + 2y)
e` autoaggiunto. Infatti:
f ((x, y)) (x , y ) = (y, x + 2y) (x , y ) = yx + xy + 2yy ,
·
·
(x, y) f ((x , y )) = (x, y) (y , x + 2y ) = xy + yx + 2yy ,
·
·
per ogni (x, y), (x , y ) appartenenti a R 2 .
Esempio 6.26 Un esempio importante di endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e` la proiezione ortogonale p su un sottospazio vettoriale di V (cfr. Es. 6.10). Infatti, posto p(x) = x W , si ha:
·
W
·
·
·
·
p(x) y = x W (yW + yW ) = x W yW = x p(y), ⊥
per ogni x, y in V .
·
Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, ) di dimensione n e sia una base ortonormale di V . L’endomorfismo f e` autoaggiunto se e solo se la matrice A = M B,B (f ) Rn,n e` simmetrica.
B
∈
B
e` ortonormale, dal Teorema 6.16 si ottiene che Dimostrazione Poich´e la base B,B † † t M (f ) = A . Pertanto f = f se e solo se tA = A , ossia se e solo se la matrice A e` simmetrica.
Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un endomorfismo autoaggiunto f : V V di uno spazio vettoriale euclideo (V, ) di dimensione n , rispetto ad una base di V, e` simmetrica solo se la base e` ortonormale. Infatti, se si considera un’altra base di V, allora si ha che la matrice associata a f −1 rispetto a e` A = P AP, con P matrice del cambiamento di base da a . In generale, A non e` simmetrica nonostante A lo sia, in quanto
−→ B C
C
t
B
·
B C
A = t (P −1 AP ) = t P tA t (P −1 ) = t P A t (P −1 )
che non coincide con A a meno che tP = P −1 , ovvero a meno che P sia una matrice ortogonale. In altri termini, affinch´e A sia simmetrica, anche la base deve essere ortonormale (cfr. Teor. 5.6).
C
Capitolo 6
271
Osservazione 6.16 Nel caso della proiezione ortogonale p su un sottospazio vettoriale di uno spazio vettoriale euclideo, considerata nell’Esempio 6.26, si ha non solo che e` invariante per p (cfr. Def. 6.9) ma lo `e anche il suo complemento ortogonale. Infatti ⊥ se x allora p(x) = o .
W W
∈ W
Vale il seguente teorema che estende la precedente osservazione ad ogni endomorfismo autoaggiunto e ad ogni sottospazio vettoriale invariante.
Teorema 6.18 Se f e` un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) e se e` un sottospazio vettoriale di V invariante rispetto a f, anche il ⊥ complemento ortogonale di e` invariante rispetto a f .
·
W
W W Dimostrazione Per ogni x ∈ W e per ogni y ∈ W si ha: f (x) · y = x · f (y) = 0, poich´e f (y) ∈ W per ipotesi. Quindi f (x) e` ortogonale a tutti gli elementi di W e perci`o appartiene a W . Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W , W due suoi sottospazi vettoriali supplementari, ossia V = W ⊕ W . Si considerino i due endomorfismi f e f di V, proiezioni su W e su W rispettivamente. Vale a dire, se per ogni x in V, x = x + x , ( x ∈ W e x ∈ W ) allora si ha f (x) = x e f (x) = x (cfr. Es. 6.10). ⊥
⊥
1
1
2
1
1
2
1
1
2
2
2
1
2
2
1
1
2
2
Dire se e quando f 1 e f 2 sono endomorfismi autoaggiunti.
6.7
Esercizi di riepilogo svolti
= (e1 , e2 , e3 ) , si consideri l’endoEsercizio 6.19 In R3 , rispetto alla base canonica morfismo f definito, al variare di un parametro reale h , da:
B
Determinare:
−
f (e1 ) = e 1 + 2 e2 e3 f (e2 ) = e1 + 2 e2 f (e3 ) = 3 e1 + he2 + (h + 1)e3 .
−
1. la matrice A associata ad f , rispetto alla base
B ;
2. l’espressione dell’immagine di un generico vettore di R 3 ; 3. per quali valori di h f e` un automorfismo;
Applicazioni Lineari
272
4. nel caso di h =
−2 una base di ker f ed una base di im f ;
5. la matrice associata all’automorfismo f −1 , rispetto alla base sia possibile.
B, nei casi in cui cio`
1. E` necessario osservare che le condizioni date definiscono un unico endoSoluzione morfismo f, in quanto sono state assegnate le immagini dei vettori della base . (Perch´e?) Per costruzione, la matrice A associata ad f, rispetto alla base , si ottiene scrivendo in colonna, ordinatamente, le componenti dei vettori immagine dei vettori della base, pertanto:
B
A = M B,B (f ) =
−
1 2 1
−1
3 2 h 0 h+1
B
.
2. Se x = x1 e1 + x2 e2 + x3 e3 e` un generico vettore di R3 , allora la sua immagine f (x) = y 1 e1 + y2 e2 + y3 e3 si ottiene mediante le equazioni di f scritte rispetto alla
B , vale a dire:
base
−
y1 = x 1 x2 + 3x3 y2 = 2x1 + 2x2 + hx3 y3 = x1 + (h + 1)x3 .
−
3. L’endomorfismo f e` un automorfismo se e solo se il rango della matrice A e` massimo, o, in modo equivalente, se e solo se det(A) = 0 . Dal calcolo del determinante della matrice A si ottiene det(A) = 5h + 10 , di conseguenza f e` un automorfismo per ogni valore di h ad eccezione di h = 2 . 4.
− Dal punto precedente segue che per h = −2 l’endomorfismo f non e` un automorfismo. Riducendo la matrice A per righe si ha:
A =
−
1 2 1
R2
− − −→ −1
3 2 1
2 0
→ R + R 2
1
1 1 1
−→ R → (1/2)R 2
1 2 1
−
2
−1
0 0
− 3 2 1
−
−1
1 0
− − 3 1 1
,
da cui segue che rank(A) = 2 , perci`o dim(im f ) = 2 e dim(ker f ) = 1 . Una base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato alla matrice ridotta per righe ottenuta da A , ossia:
−
x1 x2 + 3x3 = 0 x1 + x3 = 0,
Capitolo 6
273
−2t, x = −t) , con t ∈ R , perci`o: ker f = L((1, −2, −1)).
le cui soluzioni sono (x1 = t, x2 =
3
Una base di im f e` formata da due colonne linearmente indipendenti della matrice A , per esempio:
L
− −
im f = ((1, 2, 1), ( 1, 2, 0)). 5. Esiste f −1 se e solo se f e` un automorfismo, ossia se e solo se h = casi, la matrice associata a f −1 , rispetto alla base , e` A −1 data da:
−2 . In questi
B
−
2(1 + h) 5(2 + h)
A−1 =
2 + 3h 5(2 + h)
2 5(2 + h)
1+h 5(2 + h)
−
6+h 5(2 + h)
−
4+h 5(2 + h)
6 h 5(2 + h)
1 5(2 + h)
4 5(2 + h)
.
Esercizio 6.20 Nello spazio vettoriale R3 siano la base canonica e = (u1 , u2 , u3 ) la base formata dai vettori u1 = (1, 2, 3), u2 = (0, 1, 1), u3 = (2, 1, 0) e, nello spazio vettoriale R4 , sia la base canonica. Data l’applicazione lineare f : R3 R 4 definita, per ogni parametro k reale, ponendo:
C
f (u1 ) = (1, 2, k, 1),
−
B
f (u2 ) = (0, 2, 0, k),
B
−
−→
f (u3 ) = (0, 4, 0, 2),
1. scrivere la matrice A associata ad f rispetto alle basi
B e C ; 2. scrivere la matrice A associata ad f rispetto alle basi B e C ; 3. stabilire per quali valori di k l’applicazione lineare f non e` iniettiva e determinare in questi casi una base di ker f ; 4. stabilire per quali valori di k l’applicazione lineare e` suriettiva; 5. posto k = 1, determinare la dimensione e una base di f −1 ( ) con dove a = (0, 1, 0, 1), b = (1, 4, 1, 3).
−
K
K = L(a.b),
Applicazioni Lineari
274
Soluzione 1. La matrice A associata ad f , rispetto alle basi e , si ottiene, per costruzione, scrivendo in colonna le componenti, rispetto alla base , dei vettori immagine mediante f degli elementi di , pertanto:
B C
C
B
A = M B ,C (f ) =
1 2 k 1
0 2 0 k
0 4 0 2
.
B a B , ottenuta ponendo in colonna le componenti dei vettori della base B rispetto alla base B, ossia:
2. Sia P la matrice del cambiamento di base da
P =
−
− − − − − 1 2 3
0 1 1
2 1 0
.
Dal Paragrafo 6.2 segue che A = AP, da cui:
−1
A = A P
=
1 0 0 2 2 4 k 0 0 1 k 2
1 3 1 1 3
2 3
2 3
2
1
1 3
1 3
=
1 3 4 k 3 1+k
2 3 4
− −
− −
2 3 2
− 2k3 − 2k3 −2k −k
.
3. Riducendo per righe la matrice A si ottiene:
a. rank(A) = 3 se e solo se k = 1 , in questo caso f e` iniettiva. b. rank(A) = 2 se e solo se k = 1 , in questo caso dim(ker f ) = 1 e una base di ker f e` data dal vettore ( 2, 3, 2) .
− −
4. f non pu`o essere suriettiva, in quanto dim(ker f ) + dim(im f ) = dim(R3 ) = 3 . Per stabilire l’esatta dimensione di im f, come nel punto precedente, e` necessario distinguere due casi:
a. se k = 1 , allora dim(im f ) = rank(A) = 3 , le tre colonne della matrice A sono linearmente indipendenti e formano, quindi, una base di im f. b. se k = 1 allora dim(im f ) = rank(A) = 2 , per esempio le prime due colonne della matrice A sono linearmente indipendenti e formano una base di im f.
Capitolo 6
275
5. I vettori x = (x1 , x2 , x3 ) appartenenti a f −1 ( ) sono le soluzioni del sistema
K
lineare:
A X = Y, dove:
A =
1 3 4 1 3 2
2 3 4
− − − 2 3 2
− − − 23 23 −2 −1
X =
,
x1 x2 x3
Y = λ
,
0 1 0
−1
+µ
1 4
,
1 3
λ, µ
∈ R.
Si trova che il sistema lineare `e compatibile se e solo se λ +2µ = 0, condizione che im f, permette di individuare tutti e soli i vettori y = λ a + µb appartenenti a vale a dire i vettori che ammettono controimmagine. Risolvendo si ottiene:
K ∩
x =
−
2µ
5 µ 2
− t, − −
3 t, t , 2
µ, t
∈ R,
ossia:
f −1 ( ) = ker f + ((4, 5, 0)),
K
L
in accordo con quanto affermato nell’Esercizio 6.9.
Esercizio 6.21 Sia f l’endomorfismo di R 4 associato, rispetto alla base canonica di R 4 , alla matrice:
A =
−
0
2
2
0
4
−1
2
1
−4 −2 1 −1 0
3
−3
0
.
Verificare che ker f e im f sono sottospazi vettoriali ortogonali rispetto al prodotto scalare standard di R 4 .
Soluzione
Riducendo per righe la matrice A, si ottiene rank(A) = 2 , quindi:
dim(ker f ) = 2, dim(im f ) = 2. Le equazioni che determinano ker f sono per esempio:
−
4x1 x2 + 3x4 = 0 x2 + 2x3 + x4 = 0,
−
Applicazioni Lineari
276
da cui si legge che (ker f )⊥ = ((4, 1, 0, 3), (0, 1, 2, 1)). I vettori della base di (ker f )⊥ appena determinata coincidono con due colonne linearmente indipendenti di A .
L −
−
Esercizio 6.22 Prendendo spunto dall’esercizio precedente e dall’Esercizio 6.16, si studino le propriet`a degli endomorfismi f : V V, con (V, ) spazio vettoriale euclideo, tali che:
−→
·
(ker f )⊥ = im f.
6.8 6.8.1
Per saperne di pi`u Forme lineari – dualit`a
In questo paragrafo si intendono studiare le particolari propriet`a delle applicazioni lineari aventi R come codominio, ricordando che il campo dei numeri reali e` un esempio di spazio vettoriale reale di dimensione uno.
Definizione 6.12 Sia V uno spazio vettoriale reale, un’applicazione lineare:
α : V
−→ R,
cio`e un elemento di (V, R) , si dice forma lineare su V. Lo spazio vettoriale dice spazio vettoriale duale di V e lo si indica con V ∗.
L
L(V, R) si
Esempio 6.27 Una forma lineare α su R n e` determinata da n numeri reali a 1 , a2 , . . . , an tali che:
∈ R, i = 1, 2, . . . , n , (6.20) per ogni (x , x , . . . , x ) ∈ R . Rispetto alla base canonica B di R e alla base C = (1) α((x1 , x2 , . . . , xn)) = a 1 x1 + a2 x2 + . . . + anxn , 1
2
n
ai
n
n
di R la matrice associata ad α e` dunque:
A = M B,C (α) =
a1 a2 . . . an .
Se α non `e la forma nulla (ossia se almeno uno tra gli a i , i = 1, 2, . . . , n , non `e uguale a zero) allora α e` suriettiva e il suo nucleo ha equazione, rispetto alla base :
B
a1 x1 + a2 x2 + . . . + anxn = 0,
(6.21)
si tratta, quindi, di un iperpiano vettoriale di R n . Viceversa, dato un iperpiano vettoriale di R n di equazione (6.21), esso `e il nucleo della forma lineare α definita da (6.20) ma e` anche il nucleo delle forme lineari 2α, 3α , . . . , λ α con λ R, λ = 0. Perch´e?
H H
∈
Capitolo 6
277
Osservazione 6.17 Si osservi che in generale, in modo analogo all’esempio precedente, si puo` provare che se α e` una forma lineare non nulla su uno spazio vettoriale reale V, allora α e` suriettiva e il suo nucleo e` un iperpiano vettoriale di V . Esempio 6.28 In V 3 , riferito alla base ortonormale definita nell’Esempio 6.6:
· −→ R,
a : V 3
x
B = (i, j, k) , si consideri la funzione
−→ a · x.
` chiaro che a e` un esempio di forma lineare su V 3 . Se a = a 1 i + a2 j + a3 k, allora la E matrice A associata alla forma lineare a , rispetto alla base di V 3 e alla base canonica di R , e` :
·
A =
·
B
a1 a2 a3 .
·
∈ V , la
Si dimostrer`a che per ogni spazio vettoriale euclideo (V, ) , fissato un vettore a funzione a : V R e` una forma lineare su V (cfr. Es. 6.31).
·
−→
Esempio 6.29 L’applicazione lineare:
Rn,n
−→ R,
A
−→ tr(A),
dove tr(A) indica la traccia della matrice A, e` una forma lineare su R n,n .
Poich´e V ∗ = (V, R) , se dim(V ) = n segue da (6.15) che anche dim(V ∗ ) = n . Quindi lo spazio vettoriale V e il suo spazio vettoriale duale V ∗ hanno la stessa dimensione. Il teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui si pu`o costruire esplicitamente una base di V ∗ a partire da una base di V.
L
Teorema 6.19 Se V e` uno spazio vettoriale reale di dimensione finita, allora:
dim(V ) = dim(V ∗ ).
B
Dimostrazione Sia dim(V ) = n e sia = (v1 , v2 , . . . , vn) una sua base. Per il Teorema 6.2, esistono e sono uniche le forme lineari α i : V R, i = 1, 2, . . . , n , cos`ı definite: α1 (v1 ) = 1 α2 (v1 ) = 0 αn (v1 ) = 0 α1 (v2 ) = 0 α2 (v2 ) = 1 αn (v2 ) = 0 . . . .. .. .. . . .
α1 (vn) = 0,
α2 (vn) = 0,
che si possono anche scrivere nella forma:
αi (v j ) = δ ij ,
−→
αn (vn) = 1,
Applicazioni Lineari
278
dove δ ij e` il simbolo di Kronecker ( δ ij = 0, se i = j e δ ii = 1 ). Di conseguenza per ogni x V scritto come x = x 1 v1 + x2 v2 + . . . + xn vn risulta:
∈
αi (x) = x i ,
i = 1, 2, . . . , n .
In altri termini, la forma lineare αi associa ad ogni vettore di V la sua i –esima componente, calcolata rispetto alla base di V che ne determina la sua definizione. Si perviene alla tesi se si dimostra che 1.
B
∗
B
∗
= (α1 , α2 , . . . , αn ) e` una base di V ∗, ossia:
e` un sistema di generatori di V ∗. Infatti, per ogni forma lineare α
α(v1 ) = a1 ,
α(v2 ) = a 2 ,
...,
∗
∈ V , posto:
α(vn ) = a n,
∈ R e per ogni vettore x = x v + x v + . . . + x v
con a 1 , a2 , . . . , an ha:
1 1
α(x) = = = =
2 2
n n
di V, si
x1 α(v1 ) + x2 α(v2 ) + . . . + xn α(vn) x1 a1 + x2 a2 + . . . + xnan a1 α1 (x) + a2 α2 (x) + . . . + anαn (x) (a1 α1 + a2 α2 + . . . + an αn)(x).
Allora:
α = a1 α1 + a2 α2 + . . . + anαn , ovvero la forma lineare α e` combinazione lineare degli elementi di 2.
∗
B .
e` un insieme di vettori linearmente indipendenti in V ∗. Si consideri la combinazione lineare: (6.22) λ1 α1 + λ2 α2 + . . . + λn αn = o V ,
B
∗
∗
con λ 1 , λ2 , . . . , λn R e con o V vettore nullo di V ∗ , che non `e altro che la forma lineare nulla. Applicando ambo i membri di (6.22) agli elementi della base segue:
∈
∗
B
(λ1 α1 + λ2 α2 + . . . + λn αn)(v j ) = o V (v j ) = 0, ∗
j = 1, 2, . . . , n ,
ossia λ j α j (v j ) = λ j = 0, j = 1, 2, . . . , n , da cui la tesi.
Definizione 6.13 La base ∗ dello spazio vettoriale duale V ∗, definita nella dimostra zione del Teorema 6.19, `e detta base duale della base di V .
B
B
Esempio 6.30 Procedendo in modo analogo alla dimostrazione del Teorema 6.19 si verifica che la base duale ∗ = (α1 , α2 , . . . , αn ) della base canonica di Rn e` data dalle forme lineari che associano ordinatamente ad ogni n–upla (x1 , x2 , . . . , xn ) di Rn le rispettive componenti, ossia:
B
α j ((x1 , x2 , . . . , xn)) = x j ,
B
j = 1, 2, . . . , n ,
B · · ·
(cfr. Es. 6.27). Inoltre, se si considera V 3 , riferito alla base ortonormale = (i, j, k) (cfr. Es. 6.28), si deduce facilmente che la base duale di e` ∗ = (i , j , k ) .
B B
Capitolo 6
279
Il teorema seguente, la cui dimostrazione e` lasciata per esercizio, e` un corollario del Teorema 6.19.
B
Teorema 6.20 Sia V uno spazio vettoriale reale di dimensione n e sia = (v1 , v2 , . . . , vn ) una sua base. Data la forma lineare α : V R associata alla matrice:
A = rispetto alla base
−→
a1 a2 . . . an
∈
R1,n
B e alla base C = (1) di R , allora:
α = a1 α1 + a2 α2 + . . . + an αn ∗
B
dove
= (α1 , α2 , . . . , αn) e` la base duale di
∗
B in V .
Osservazione 6.18 Dati due spazi vettoriali complessi V e W, come per il caso reale, si pu`o introdurre la nozione di applicazione lineare da V a W. Infatti un’applicazione lineare tra due spazi vettoriali complessi V e W e` una funzione f : V W tale che:
−→
f (λx + µy) = λf (x) + µf (y), per ogni x e y in V e per ogni λ e µ in C. In particolare, un endomorfismo di V e` un’applicazione lineare da V in V. Come nel caso reale, si dimostrano teoremi analoghi a quelli esposti in questo capitolo. Per esempio, vale il teorema fondamentale per le applicazioni lineari (cfr. Teor. 6.2 ) da cui si deducono la nozione di matrice associata (ad elementi complessi) ad un’applicazione lineare e di conseguenza la nozione di equazioni di un’applicazione lineare. Inoltre, come nel caso reale, si possono definire immagine e controimmagine di sottospazi vettoriali, somma e prodotto per un numero complesso di applicazioni lineari, sottospazio vettoriale invariante per un endomorfismo. Inoltre, se V e` uno spazio vettoriale complesso, un’applicazione lineare α : V C, cio`e un elemento di (V, C) , si dice forma lineare su V. Lo spazio vettoriale complesso (V, C) e` lo spazio vettoriale duale di V e lo si indica con V ∗. Come nel caso reale, se dim(V ) = n , allora anche dim(V ∗ ) = n .
L
L
6.8.2
−→
Cambiamento di base in V ∗
Si considerino due basi = (v1 , v2 , . . . , vn ) e = (v1 , v2 , . . . , vn ) dello spazio vettoriale V di dimensione n e si indichi con P GL(n, R) (cfr. Oss. 2.7) la matrice del cambiamento di base da a le cui colonne sono date dalle componenti dei vettori della base scritti rispetto alla base , ossia:
B
B B B
B ∈
B
v1 v2 .. .
vn
= tP
v1 v2 .. . vn
.
(6.23)
Applicazioni Lineari
280
Siano ∗ = (α1 , α2 , . . . , αn ) e ( )∗ = (α1 , α2 , . . . , αn ) le basi duali di e di rispettivamente. Si indichi con Q GL(n, R) la matrice del cambiamento di base da ∗ a ( )∗, ossia:
B
∈
B
B
B
α1 α2 .. .
= tQ
αn
α1 α2 .. .
αn
.
B
B
(6.24)
Scopo di questo paragrafo `e quello di determinare la relazione che lega le matrici P e Q . In notazione matriciale, la dualit`a tra le basi e ∗ si pu`o esprimere come:
α1 α2 .. .
B B
v1 v2 . . . vn
αn
= I ,
dove I e` la matrice unit`a di ordine n . Analogamente, la dualit`a tra le basi equivale alla relazione:
α1 α2 .. .
αn
v1 v2 . . . vn
= I .
(6.25)
B
e (
∗
B)
(6.26)
Sostituendo (6.24) e (6.23) in (6.26) si ha:
t
Q
α1 α2 .. .
αn
v1 v2 . . . vn
P = I ,
da cui, tenendo conto di (6.25), segue t Q P = I e, quindi, ricordando la propriet`a t (P −1 ) = ( t P )−1 , si ottiene: (6.27) Q = tP −1 , che `e la relazione cercata.
Esercizio 6.23 In R2 si considerino due basi: la base canonica = ((1, 0), (0, 1)) e la base = (( 1, 2), (1, 1)). Nello spazio vettoriale duale (R2 )∗ si consideri la base ∗ = (α1 , α2 ) , duale della base . Determinare le componenti dei vettori della base ∗ ( ) = (α1 , α2 ), duale della base , rispetto alla base ∗.
B B
B
−
−
B
B B
B
Capitolo 6
Soluzione
281
−
t
Q =
1 2
−1
1 1
1 1
=
−
2 1
∗
B
In accordo con (6.27), la matrice del cambiamento di base da
a (
∗
B)
e` :
.
Esercizio 6.24 Determinare la base duale ( )∗ della base = ((1, 0, 2), (0, 1, 1), (2, 1, 2)) dello spazio vettoriale R 3 , rispetto alla base duale ∗ della base canonica di R 3 .
B
Soluzione ha:
B
Sia (B )∗ = (α1 , α2 , α3 ) la base duale di
α1 =
3 , 7
−
2 , 7
− − 2 , 7
α2 =
2 6 , , 7 7
−
−
B
B , allora dalla formula (6.26) si
− 1 , 7
dove le componenti sono date rispetto alla base duale
6.8.3
B
∗
B
α3 =
2 1 1 , , , 7 7 7
della base canonica
B di R . 3
Spazio vettoriale biduale
Fissato un vettore x V , al variare di α nello spazio vettoriale duale V ∗ , i numeri reali α(x) definiscono una funzione:
∈
x : V ∗
−→ R,
α
−→ α(x).
(6.28)
` naturale, quindi, introdurre la seguente definizione. E
Definizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo duale V ∗ prende il nome di spazio vettoriale biduale e lo si indica con V ∗∗. Osservazione 6.19 Poich´e V ∗∗ =
L(V , R) , segue: ∗
dim(V ) = dim(V ∗ ) = dim(V ∗∗ ).
∈ V, la funzione: x : V −→ R, α −→ α(x),
Teorema 6.21 Per ogni vettore x
∗
e` una forma lineare, cio e` appartiene allo spazio vettoriale biduale V ∗∗.
Dimostrazione
` conseguenza immediata della definizione. E
Teorema 6.22 Siano V uno spazio vettoriale reale di dimensione n e V ∗∗ lo spazio vettoriale biduale di V . La funzione:
ψ : V
−→ V
∗∗
,
e` un isomorfismo, dove x e` definito da (6.28).
x
−→ x
(6.29)
Applicazioni Lineari
282
Dimostrazione
La tesi segue in quanto:
∈ V e per ogni λ, µ ∈ R si deve dimostrare che:
a. ψ e` lineare, ossia per ogni x, y
ψ(λx + µy) = λψ(x) + µψ(y). Infatti, per ogni α
∈ V
∗
si ha:
+ µy)(α) = α(λx + µy) ψ(λx + µy)(α) = (λx
= λα(x) + µα(y) = λx(α) + µy(α) = (λψ(x) + µψ(y))(α).
{ }
b. Si deve dimostrare che ker ψ = oV . Infatti, se x = o V allora per ogni α risulta x(α) = α(x) = o V quindi x = o V .
∗∗
∗
∈ V ,
Poich´e dim(V ∗∗ ) = dim(V ) = n , per il Teorema 6.11, segue che ψ e` un isomorfismo. 1. Si osservi che l’isomorfismo ψ non dipende dalla scelta di parOsservazione 6.20 ticolari basi in V e in V ∗∗, ma e` definito in modo intrinseco, senza coinvolgere le componenti dei vettori sia in V sia in V ∗∗, pertanto si tratta di un isomorfismo canonico. In altri termini, i due spazi vettoriali V e V ∗∗ sono uno la copia dell’altro, rendendo cos`ı inutile l’iterazione del processo di dualit a` a V ∗∗. 2. L’isomorfismo tra V e V ∗∗ vale se e solo se V ha dimensione finita. Se V non e` finitamente generato, la funzione (6.29) `e iniettiva, ma non `e detto che sia suriettiva. Per maggiori dettagli nel caso di spazi vettoriali non finitamente generati, cio e` di dimensione infinita, si consulti ad esempio [20]. 3. Se V e` uno spazio vettoriale complesso di dimensione finita, si ha, come nel caso reale, un isomorfismo canonico tra V e V ∗∗.
B
Osservazione 6.21 Si considerino una base = (v1 , v2 , . . . , vn) di V e la sua base duale ∗ = (α1 , α2 , . . . , αn ) in V ∗ . I vettori cos`ı definiti:
B
e1 = ψ(e1 ),
e2 = ψ(e2 ),
...,
en = ψ(en )
formano una base di V ∗∗. Dal fatto che ei (α j ) = α j (ei ) = δ ij , i, j = 1, 2, . . . , n , si ha che e` la base duale di ∗. Allora ogni elemento x di V ∗∗ si decompone, rispetto alla base , come: x = x1 e1 + x2 e2 + . . . + xn en ,
B B
B
B
Capitolo 6
283
dove le componenti xi sono date da xi = x(αi ). D’altra parte x(αi ) = αi (x) = xi , ` cos`ı dimostrato che le componenti di x quindi xi = xi , con i = 1, 2, . . . , n . E V, relative alla base , sono anche le componenti dell’immagine di x tramite l’isomorfismo canonico ψ : V V ∗∗ , relativamente alla base , biduale della base ; perci`o, anche in questo senso, lo spazio vettoriale biduale V ∗∗ si pu`o identificare con V. In altri termini, la matrice associata a ψ , rispetto alle basi e , e` la matrice unit a` I di ordine n . Si noti che questa osservazione non puo` sostituire la dimostrazione del Teorema 6.21 perch´e coinvolge l’uso delle basi.
B −→
B B B
∈
B
Esercizio 6.25 Sia R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali di grado minore o uguale a 2 (cfr. Es. 4.11) e siano b0 , b1 , b2 tre numeri reali distinti. Si considerino le tre forme lineari:
α0 : R2 [x]
−→ R, α : R [x] −→ R, α : R [x] −→ R,
2
1
2
2
1. Verificare che (
∗
B)
− → p(b ), p(x) −→ p(b ), p(x) −→ p(b ), p(x)
0
(6.30)
1 2
= (α0 , α1 , α2 ) e` una base di R 2 [x]∗ . ∗∗
B)
∗
B) . 1. Si deve verificare che ( B )
2. Trovare la base duale (
di (
∗ e` un insieme di vettori linearmente indipenSoluzione denti. A tale scopo si consideri la combinazione lineare:
λ1 α0 + λ2 α1 + λ3 α2 = o R con λ 1 , λ2 , λ3
∈ R e o
R2 [x]∗
2
[x]∗ ,
forma lineare nulla su R 2 [x]. Sia
base di R 2 [x], tenendo conto delle relazioni (6.30), segue:
2
B = (1, x , x ) una
α 0 (1) = α 1 (1) = α 2 (1) = 1, α 0 (x) = b 0 , α 1 (x) = b 1 , α 2 (x) = b2 , α 0 (x2 ) = b20 , α 1 (x2 ) = b 21 , α 2 (x2 ) = b 22 , da cui si ha:
(λ1 α0 + λ2 α1 + λ3 α2 )(1) = λ1 + λ2 + λ3 = 0, (λ1 α0 + λ2 α1 + λ3 α2 )(x) = λ 1 b0 + λ2 b1 + λ3 b2 = 0,
(6.31)
(λ1 α0 + λ2 α1 + λ3 α2 )(x2 ) = λ 1 b20 + λ2 b21 + λ3 b22 = 0.
Si ottiene un sistema lineare omogeneo la cui matrice dei coefficienti P ha deter-
Applicazioni Lineari
284
minante:
det(P ) =
1
1
1
b0 b1 b2 b20 b21 b22
= (b0
− b )(b − b )(b − b ) = 0. 1
0
2
2
1
Pertanto l’unica soluzione del sistema lineare omogeneo (6.31) `e λ 1 = λ2 = λ3 = 0, vale a dire α 0 , α1 e α2 sono linearmente indipendenti. Si osservi che tP e` la matrice del cambiamento di base dalla base se (
∗
B ) , ovvero:
∗
B
= (α0 , α1 , α2 ), duale della base
B, alla ba-
α0 α1 α2
α0 α1 α2
t
= P
.
2. Mediante l’isomorfismo canonico ψ tra V e V ∗∗ si possono identificare i vettori della base = (1, x , x2 ) con i vettori della base ∗∗ = (ψ(1), ψ(x), ψ(x2 )). Pertanto per determinare la base ( )∗∗ di R2 [x]∗∗ duale della base ( )∗ = (α0 , α1 , α2 ) e` sufficiente determinare la base = ( p0 (x), p1 (x), p2 (x)) la cui base duale `e ( )∗
B
B
ossia tale che:
B
B
B
(αi )( p j (x)) = p j (bi ) = δ ij ,
B
i, j = 0, 1, 2,
con δ ij simbolo di Kronecker, da cui segue:
p0 (x) = p1 (x) = p2 (x) =
(b0 (b0 (b0
− − −
1 b1 )(b0 1 b1 )(b2 1 b2 )(b1
−b )
− (b + b )x + x ) ,
(b0 b2
− (b + b )x + x ) ,
(b0 b1
− (b + b )x + x ) .
2
−b ) 1
−b )
2
(b1 b2
2
1
0
0
2
2
1
2
2
Si osservi che dalla relazione (6.27) segue che P −1 e` la matrice del cambiamento di base da a e pertanto:
B B
p0 (x) p1 (x) p2 (x)
−1
= P
1 x . x2
Capitolo 6
6.8.4
285
Dualit`a nel caso degli spazi vettoriali euclidei
·
Scopo di questo paragrafo e` quello di dimostrare che, se (V, ) e` uno spazio vettoriale euclideo di dimensione finita, allora lo spazio vettoriale duale V ∗ e` canonicamente isomorfo a V. Si perviene a questo importante risultato estendendo l’Esempio 6.28 al caso generale di uno spazio vettoriale euclideo V .
·
Esempio 6.31 Sia (V, ) uno spazio vettoriale euclideo, fissato un vettore x in V, la funzione: x : V x y, R, y
·
−→
−→ ·
·
con “ ” prodotto scalare su V, e` una forma lineare. Infatti, dalle propriet`a del prodotto scalare si ha:
· (λy + µy ) = λx · y + µx · y , per ogni λ, µ ∈ R e per ogni y , y ∈ V. Teorema 6.23 Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita, la funzione: (6.32) i : V −→ V , x −→ x · x
1
1
2
1
2
2
∗
V
e` un isomorfismo.
Dimostrazione Dalle propriet`a del prodotto scalare segue che la funzione i V e` un’applicazione lineare. L’iniettivit a` di i V e` conseguenza del calcolo di ker iV , ossia:
{ ∈ V | i (x) = o } = {x ∈ V | x · y = 0, ∀y ∈ V } = {o }.
ker iV = x
V ∗
V
V
Dal Teorema 6.11 segue che i V e` un isomorfismo.
·
Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, ) e` quindi possibile definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V ∗ che non dipende dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferisce a V la struttura di spazio vettoriale euclideo. Si osservi, che se = (e1 , e2 , . . . , en ) e` una base ortonormale di (V, ) e se si indica con ∗ = (α1 , α2 , . . . , αn ) la base duale di , si ha:
B
·
·
B
B
iV (e j )(ek ) = e j ek = δ jk = α j (ek ),
j, k = 1, 2, . . . , n , ∗
dove δ jk e` il simbolo di Kronecker. Pertanto la matrice M B,B (iV ) associata all’isomorfismo i V , rispetto alle basi e ∗ , `e la matrice unit`a I di ordine n .
B B
Applicazioni Lineari
286
·
Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, ), la funzione:
·
x : V
−→ C, y −→ x · y,
non `e una forma lineare (cfr. (5.12)). Invece la funzione:
· x : V −→ C, y −→ y · x, e` una forma lineare, ma la funzione:
V
∗
−→ V ,
x
−→ · x
non e` un’applicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermitiano non permette di definire un isomorfismo canonico (senza l’uso delle basi) tra uno spazio vettoriale hermitiano ed il suo duale.
6.8.5
Trasposta di un’applicazione lineare
Lo scopo di questo paragrafo e` quello di individuare il legame tra un’applicazione lineare associata ad una matrice A e l’applicazione lineare associata alla trasposta della matrice A stessa, senza necessariamente introdurre un prodotto scalare, come nel caso dell’endomorfismo autoaggiunto definito nel Paragrafo 6.6.
−→
Sia f : V W un’applicazione lineare da uno spazio vettoriale reale V in uno spazio vettoriale reale W. Data una generica forma lineare β in W ∗, la composizione β f e` una forma lineare su V, ossia β f V ∗. Si puo` , allora, enunciare la seguente definizione.
◦
◦ ∈
−→ W tra due spazi vettoriali V → ( f )(β ) = β ◦ f, (6.33) β −
Definizione 6.15 Data un’applicazione lineare f : V e W, la funzione:
f : W ∗
t
∗
−→ V ,
t
si dice trasposta dell’applicazione lineare f .
Teorema 6.24 La funzione tf appena definita e` un’applicazione lineare. Dimostrazione
` conseguenza evidente della definizione e delle linearit a` di β e di f . E
Osservazione 6.24 La denominazione “trasposta” per l’applicazione lineare tf e` giustificata dal seguente teorema.
Capitolo 6
287
Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vettoriale reale di dimensione m . Data un’applicazione lineare f : V W, si indichi con B ,C m,n associata ad f rispetto alle basi = (v1 , v2 , . . . , vn ) A = M (f ) la matrice di R di V e = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V ∗ la base ∗ = (α1 , α2 , . . . , αn ) duale della base e nello spazio vettoriale duale W ∗ la base ∗ = (β 1 , β 2 , . . . , βm ) duale di . La matrice associata all’applicazione lineare:
−→ B
C B C
B
C
f : W ∗
t
rispetto alle basi
∗
∗
C e B
−→ V
∗
e` la trasposta della matrice A : ∗
∗
M C ,B (tf ) = tA. La definizione di trasposta di un’applicazione lineare (6.33), applicata Dimostrazione ad un vettore x di V, restituisce il numero reale dato da:
((tf )(β ))(x) = (β f )(x).
◦
(6.34)
Si indichino con G Rn,m la matrice associata a tf rispetto alle basi ∗ e ∗ , con B R n,1 la matrice associata alla forma lineare β rispetto alla base di W e alla base = (1) di R :
∈
∈ D
B = M C ,D (β ) =
e con:
X =
b1 b2 . . . bm x1 x2 .. .
xn
C
la matrice delle componenti del vettore x di V rispetto alla base in notazione matriciale, la relazione (6.34). Si ha:
C B
B. Si vuole ora scrivere,
a. il secondo membro di (6.34) `e il numero reale:
BAX,
(6.35)
◦
in quanto alla composizione di applicazioni lineari β f si associa il prodotto di matrici B A R1,n come segue da (6.16).
∈
b. Il calcolo del primo membro di (6.34) e` pi`u laborioso; la matrice colonna delle componenti, rispetto alla base ∗, della forma lineare α = (tf )(β ) V ∗ si ottiene applicando la matrice G (associata a tf ) alla matrice colonna delle componenti, rispetto alla base ∗, del vettore β ossia G tB . Quindi il primo membro di (6.34) si riduce a α(x) ossia a: t (G tB)X. (6.36)
B
C
∈
Applicazioni Lineari
288
Dall’uguaglianza di (6.36) con (6.35) si ottiene: t
(G tB) = B tG = BA
da cui la tesi.
Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare l’immagine di un vettore mediante la trasposta di un’applicazione lineare si effettua il prodotto della matrice riga delle componenti del vettore a destra della matrice associata all’applicazione lineare di partenza. Mentre per calcolare l’immagine di un vettore mediante un’applicazione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del vettore. Seguono alcuni teoremi che mettono in relazione la trasposta di un’applicazione lineare con la somma di applicazioni lineari, con il prodotto di un numero reale per un’applicazione lineare, con la composizione di applicazioni lineari e con l’inversa di un’applicazione lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio.
∈ L(V, W ) e λ ∈ R , allora:
Teorema 6.26 Se f, g
1. t (f + g) = tf + tg , 2. t (λf ) = λ tf .
∈ L(V, W ) e per
Teorema 6.27 Siano V,W, Z spazi vettoriali reali, allora, per ogni f (W, Z ) si ha: ogni g
∈ L
t
(g f ) = tf
◦
◦
t
g.
Se f e` un endomorfismo di uno spazio vettoriale reale V, allora tf e` un endomorfismo dello spazio vettoriale duale V ∗ di V , inoltre:
(t idV )(α) = α idV = idV (α),
◦
∗
α
∗
∈ V ,
dove id V e id V indicano, rispettivamente, l’identit`a in V e V ∗. Pertanto t idV = idV . ∗
∗
Da queste considerazioni e dal Teorema 6.27 si ottiene il seguente teorema.
Teorema 6.28 Se f e` un automorfismo dello spazio vettoriale V allora tf e` un automor fismo dello spazio vettoriale duale V ∗ e:
(tf )−1 = t (f −1 ).
Capitolo 6
Esercizio 6.26 Siano f : R4 basi canoniche di R 4 e di R 3 , e` :
−→ R
A =
3
289
l’applicazione lineare la cui matrice, rispetto alle
− −
1 1 2
2 1 1
−
−1
2 1 1
1 0
e β : R3 R la forma lineare la cui matrice, rispetto alla base canonica di R3 e alla base = (1) di R , e` :
C
−→
M (β ) =
1
−2
2 .
Determinare la matrice associata alla forma lineare α = (tf )(β ) . Per definizione di applicazione lineare trasposta (tf )(β ) = β f , la cui Soluzione matrice associata e` data da M (β )A. Quindi la matrice associata alla forma lineare α , rispetto alla base canonica di R 4 e alla base , e` :
◦
M (β )A =
1
−2
2
− −
C
1 1 2
2 1 1
−1
1 0
e l’equazione di α risulta essere:
t
f (β )
x1 x2 x3 x4
−
1
=
2
−
−3
2
− − −
x1 x2 x3 x4
dove (x1 , x2 , x3 , x4 ) e` un generico elemento di R 4 .
2 1 1
=
=
1
2
x1 + 2x2
−3 −2
− 3x − 2x , 3
4
Osservazione 6.26 Nel Paragrafo 6.8.4 `e stato dimostrato che la trasposta di una matrice, associata ad un’applicazione lineare f : V W rispetto alle basi di V e di W, e` la matrice associata all’applicazione lineare trasposta tf : W ∗ V ∗ rispetto alle basi duali ∗ di W ∗ e ∗ di V ∗ (cfr. Def. 6.15 e Teor. 6.25).
−→
−→
B
C
C B Data un’applicazione lineare f : V −→ W tra due spazi vettoriali euclidei (V, · ) e (W, · ), rispettivamente di dimensione n e m, si intende in questa osservazione, tramite l’isomorfismo canonico tra uno spazio vettoriale euclideo ed il suo duale, determinare il legame tra la trasposta f : W −→ V di f e l’aggiunta f : W −→ V di f (cfr. Teor. ∗
t
∗
†
6.16). Si ha infatti:
f (x) y = iW (y)(f (x)) = (tf )(iW (y))(x),
·
Applicazioni Lineari
290
per ogni x in V e y in W. Dalla definizione di aggiunta, si ha pertanto che:
(tf )(iW (y))(x) = i V (f † (y))(x),
x
∈ V, y ∈ W,
ossia:
(tf ) iW = iV f † .
◦
◦
B
·
(6.37)
C
Si osservi che, fissate una base ortonormale di (V, ) ed una base ortonormale di (W, ) , se si indica con A la matrice associata a f rispetto alle basi e , la matrice trasposta di A, che e` la matrice associata a tf rispetto alle basi duali ∗ e ∗ (cfr. Teor. 6.25), `e anche la matrice associata a f † rispetto alle basi e , ovvero:
·
C B
M C
∗
B C C B
,B ∗ t
( f ) = M C ,B (f † ) = tA.
In notazione matriciale, rispetto alle basi ortonormali relazione (6.37) si traduce nella relazione:
∗
∗
B, C e alle loro basi duali B , C , la
t
A I m = I n tA
dove I m e I n indicano la matrice unit`a di ordine m ed n rispettivamente (cfr. Par. 6.4 e Oss. 6.22).
6.8.6
Endomorfismi autoaggiunti e matrici hermitiane
Analogamente a quanto visto nel Paragrafo 6.6 si pu o` introdurre il concetto di aggiunta di un’applicazione lineare tra spazi vettoriali hermitiani. Per semplicit`a si tratter`a in dettaglio solo il caso di un endomorfismo di uno spazio vettoriale hermitiano.
·
Sia (V, ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale, l’aggiunto di un endomorfismo f di V e` l’endomorfismo f † di V tale che:
f (x) y = x f † (y),
·
·
∈ V.
x, y
(6.38)
Si supponga che V abbia dimensione n e si indichino rispettivamente con A e A† le matrici associate ad f e f † rispetto ad una base unitaria = (e1 , e2 , . . . , en) di V. Se n,1 n,1 X C e Y C denotano, rispettivamente, la matrice colonna delle componenti dei vettori x e y rispetto alla base , l’equazione (6.38) e` equivalente a:
∈
∈
B
B
t
(AX ) Y = t XA† Y ,
da cui si ottiene: t
X tA Y = t X A † Y ,
ossia A† = tA . Di conseguenza vale il seguente teorema, che e` l’analogo del Teorema 6.16 in campo complesso.
Capitolo 6
291
·
Teorema 6.29 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n . Dato un’endomorfismo f di V, la matrice associata M B,B (f † ) all’endomorfismo aggiunto f † di f rispetto ad una base unitaria di (V, ) e` la trasposta coniugata della matrice associata M B,B (f ) a f rispetto alla stessa base.
B
·
·
In particolare, un endomorfismo f di uno spazio vettoriale hermitiano (V, ) si dice autoaggiunto o hermitiano se f † = f . In questo caso vale il seguente teorema che e` l’analogo, nel caso hermitiano, del Teorema 6.17.
·
B
Teorema 6.30 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n e sia una base unitaria di V. Un endomorfismo f di V e` autoaggiunto se e solo se la matrice A = M B,B (f ) Cn,n e` hermitiana, ossia se e solo se tA = A.
∈
6.8.7
Isometrie, similitudini, trasformazioni unitarie
In questo paragrafo si intende estendere sia al caso degli spazi vettoriali euclidei sia al caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano, intendendosi per tale il movimento “rigido” del piano che non cambia la lunghezza dei vettori e l’ampiezza degli angoli. Si ricordi infatti che la geometria euclidea del piano e` per definizione l’insieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi.
·
Sia (V, ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o movimento euclideo nel piano e nello spazio.
·
Definizione 6.16 Un endomorfismo f di uno spazio vettoriale euclideo (V, ) prende il nome di isometria o trasformazione ortogonale se:
·
·
f (x) f (y) = x y,
∈ V.
x, y
(6.39)
Il teorema che segue afferma che la definizione di isometria impone che necessariamente essa sia un’isomorfismo.
·
Teorema 6.31 Sia (V, ) uno spazio vettoriale euclideo di dimensione n . Se f e` un’isometria di (V, ) , allora f e` un automorfismo di V.
·
{ }
Per il Teorema 6.11 e` sufficiente dimostrare che ker f = o . Se x e` Dimostrazione un vettore di ker f si ha f (x) = o , d’altra parte essendo f un un’isometria si ha:
·
2
2
= o
f (x) f (x) = x
= 0,
Applicazioni Lineari
292
quindi x = o . Si puo` generalizzare la definizione precedente al caso di isomorfismi tra due spazi vettoriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa dimensione, un isomorfismo f : V W si dice isometria se “non cambia ” il prodotto scalare.
−→
Esempio 6.32 Ogni rotazione R[θ] (in senso antiorario) di angolo θ del piano vettoriale V 2 e` un’isometria (cfr. Es. 6.24). Inoltre, come `e gi`a stato affermato, la matrice associata a R[θ] (rispetto ad una base ortonormale ( i, j) di V 2 ) `e la matrice ortogonale:
Esempio 6.33 L’identit`a id : V prodotto scalare definito su V .
−
cos θ sin θ
− sin θ cos θ
−→ V (cfr.
.
Es. 6.1) e` un’isometria rispetto ad ogni
−→
Esempio 6.34 L’applicazione id : V V definita da un’isometria rispetto ad ogni prodotto scalare definito su V .
−id(x) = −x, x ∈ V, e`
Alcune tra le principali propriet a` delle isometrie sono riassunte nel seguente teorema.
·
Teorema 6.32 Sia (V, ) uno spazio vettoriale euclideo di dimensione n .
1. Un endomorfismo f di V e` un’isometria se e solo se non cambia la norma dei vettori:
f (x) = x,
x
∈ V.
(6.40)
2. Se f e` un’isometria di V, allora la misura dell’angolo individuato dai vettori x e y di V coincide con la misura dell’angolo individuato dai vettori f (x) e f (y), per ogni x, y V.
∈
3. La composizione di due isometrie `e un’isometria. 4. L’inversa di un’isometria `e un’isometria. 5. Un endomorfismo f di V e` un’isometria di V se e solo se le immagini dei vettori di una base ortonormale di V formano una base ortonormale di V . 6. Un endomorfismo f di V e` un’isometria di V se e solo se la matrice associata ad f , rispetto ad una base ortonormale di V , e` una matrice ortogonale.
Capitolo 6
293
7. Un endomorfismo f di V e` un’isometria se e solo se f −1 = f † , dove f † e` l’applicazione aggiunta di f . 1. Se f e` un’isometria, la (6.40) segue ponendo y = x in (6.39). Dimostrazione Viceversa, si dimostra che se vale la (6.40) allora f e` un’isometria. Dalla formula (5.6) si ottiene:
·
x y = e:
·
f (x) f (y) =
1 2
1 2
x+y
2
2
2
− x − y
f (x) + f (y)
2
2
2
− f (x) − f (y)
Pertanto per la linearit a` di f e da (6.40) segue quindi la (6.39).
.
2. Se f e` un’isometria, da (6.39) e dal punto 2. segue:
xy cos(xy) = xy cos(f ( x)f (y)),
x)f (y) indicano, rispettivamente, l’angolo tra i per ogni x, y V, dove xy e f ( vettori x e y ed i vettori f (x) e f (y) (cfr. Def. 5.3). Pertanto:
∈
cos(xy) = cos(f ( x)f (y)).
(6.41)
3. Se f e g sono isometrie, allora:
(g ◦ f )(x) = g(f (x)) = f (x) = x, per ogni x
∈ V.
4. Sia f un’isometria. Si ha: f (f −1 (x)) = id(x) , dove id e` l’identit`a di V , ma
−1
f (f
(x)) = f (x) = x, −1
∈ V , da cui la tesi. Se f e` un’isometria e B = (e , e , . . . , e ) una base ortonormale di V, allora B = (f (e ), f (e ), . . . , f ( e )) e` una base ortonormale perch´e f mantiene immutata sia la norma dei vettori sia i loro prodotti scalari. Viceversa, siano B = (e , e , . . . , e ) e B = (f (e ), f (e ), . . . , f ( e )) due basi ortonormali di V . Dato: per ogni x
5.
1
1
1
2
2
n
2
n
n
1
2
n
x = x 1 e1 + x2 e2 + . . . + xn en
Applicazioni Lineari
294
in V , allora: 2
x
= x 21 + x22 + . . . + x2n,
d’altra parte, per la linearit a` di f :
f (x) = x 1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ), quindi: 2
f (x)
= x 21 + x22 + . . . + x2n ,
da cui f (x) = x . Si osservi che il calcolo della norma dei vettori x e f (x) ha assunto l’espressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor. 5.4).
B ∈
6. Sia A la matrice associata ad f , rispetto ad una base ortonormale di V, e siano Y = AX le equazioni di f rispetto a . Poich´e, per ogni x V, f (x) 2 = x 2 e ricordando che x 2 = t XX si ha:
B
t
X X = t (AX )(AX ) = tX tAAX = t XX,
da cui segue la tesi. Si osservi che x 2 = t XX se e solo se X e` la matrice colonna delle componenti di x rispetto ad una base ortonormale.
7. Per definizione di f † , applicazione lineare aggiunta di f , si ha: f (x) f (y) = f † (f (x)) y,
·
·
∈ V.
x, y
(6.42)
Quindi, se f e` un isometria, cio`e se vale (6.39), si deve avere:
f † (f (x)) y = x y,
·
·
∈ V,
x, y
da cui
((f † f )(x)
◦
− x) · y = 0,
per ogni x e y. Pertanto, f † f = id , ossia f † = f −1 . Viceversa, se f † = f −1 , allora da (6.42) si ha immediatamente che f e` un’isometria.
◦
1. Dai punti 2. e 3. del teorema precedente segue che l’insieme Osservazione 6.27 delle isometrie di uno spazio vettoriale euclideo (V, ) e` un gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale nello spazio vettoriale euclideo (V, ), allora per la propriet`a 6. si pu`o stabilire, in modo naturale, un isomorfismo tra l’insieme delle isometrie di (V, ) ed il gruppo ortogonale O(n) associando ad ogni isometria f di V la matrice ortogonale
·
·
A = M B,B (f ).
B
·
Capitolo 6
295
·
2. Si osservi che se un automorfismo di uno spazio vettoriale euclideo (V, ) mantiene invariati gli angoli tra i vettori di V allora non e` necessariamente un’isometria. Un esempio elementare e` dato dall’automorfismo:
f : V
−→ V,
−→ 2x,
x
(6.43)
ossia dalla funzione 2 id .
Esempio 6.35 Gli elementi di O(2) , ovvero le matrici ortogonali di ordine 2 , sono necessariamente o di tipo (3.31) o di tipo (3.33) (cfr. Es. 3.11). Pertanto gli endomorfismi del piano vettoriale V 2 con matrice associata, rispetto ad una base ortonormale = (i, j), di tipo (3.31) o di tipo (3.33) sono isometrie di V 2 . Nel caso di matrici di tipo (3.31) si ottengono le rotazioni R[θ] gi`a considerate nell’ Esempio 6.32. Se si considera invece un endomorfismo rθ del piano vettoriale V 2 con matrice associata, rispetto ad una base ortonormale = (i, j), di tipo (3.33), ossia:
B
B
Aθ =
◦ r
si ha un’isometria di V 2 tale che rθ −1 θ
r
cos θ sin θ
= r θ .
−
sin θ cos θ
θ coincide
,
con l’identit`a di V 2 , ovvero per cui
Esercizio 6.27 Si consideri su R 2 la struttura euclidea determinata dal prodotto scalare
·
(x1 , x2 ) (x2 , y2 ) = x 1 y1 + 4x2 y2 . Verificare che l’automorfismo di R2 la cui matrice associata, rispetto alla base canonica = (e1 , e2 ) di R 2 , `e la matrice:
B
A =
√ −
3 2 1 4
√ 1
,
3 2
e` un’isometria di R 2 . Per quale motivo A non `e una matrice ortogonale?
Soluzione
Le equazioni di f , rispetto alla base
x1 = x2 =
√ 3 2
−
B , sono:
x1 + x2
√
1 3 x1 + x2 , 4 2
Applicazioni Lineari
296
con (x1 , x2 ) = f ((x1 , x2 )). Per provare che f e` un’isometria di (R2 , ) e` sufficiente verificare che: f (x) 2 = (x1 )2 + 4(x2 )2 = x 21 + 4x22 = x 2 ,
·
con x = (x1 , x2 )
∈R . 2
La matrice A non `e un elemento di O(2) perch´e non `e associata ad una base ortonormale (rispetto al prodotto scalare introdotto), infatti e2 = 2 .
Esercizio 6.28 Nello spazio vettoriale euclideo (V, · ) di dimensione 4, riferito alla base ortonormale B = (e , e , e , e ), sono dati i vettori: a = 2e − e + 2 e , b = e − e . 1
2
3
4
1
3
4
3
4
1. Detto c il versore di a, verificare che la funzione
f : V
−→ V,
x
−→ x − 2(x · c)c
e` un isometria di V . 2. Calcolare f −1 (b) ed il coseno dell’angolo θ tra i vettori f −1 (a) e f −1 (b).
1. La funzione f e` un endomorfismo in quanto:
Soluzione
− ·
·
f (λx + µy) = (λx + µy) 2 ((λx + µy) c) c = λx 2(λx c)c + µy 2(µy c)c = λf (x) + µf (y),
−
−
·
∈ R e per ogni x, y ∈ V. Inoltre: f (x) = f (x) · f (x) = (x − 2(x · c)c) · (x − 2(x · c)c) = x · x − 4(x · c)(x · c) + 4(x · c) (c · c) = x .
per ogni λ, µ
2
2
2
2. Essendo f un’isometria, anche f −1 e` un’isometria. Quindi:
√ f (b) = b = 2, −1
cos θ = cos(f −1 ( a)f −1 (b)) = cos(ab) =
1 · √ − . 2 a b = a b
Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base e la verifica del fatto che A sia una matrice ortogonale.
B
Capitolo 6
297
·
Osservazione 6.28 Siano (V, ) uno spazio vettoriale euclideo di dimensione n e iperpiano vettoriale di V . La funzione:
g : V
−→ V,
x
−→
−
x, x,
x x
W un
∈ W ∈ W , ⊥
W
che coincide con l’identit`a su e che associa ad ogni vettore del complemento orto⊥ gonale di il proprio opposto, e` un endomorfismo di V. Infatti, si puo` verificare che:
W W
1 (x + g(x)) 2
W
coincide con la proiezione ortogonale di x su . L’endomorfismo g prende il nome di simmetria ortogonale o riflessione rispetto all’iperpiano vettoriale . E` un esercizio verificare che g e` un’isometria dello spazio vettoriale euclideo (V, ) e che g g coincide con l’identit`a di V . Infine, se c e` un versore ortogonale a , allora:
W
g(x) = x
·
W
◦
− 2(x · c)c
Quindi l’isometria f dell’esercizio precedente non e` altro che la simmetria ortogonale rispetto all’iperpiano vettoriale (a)⊥ di equazione:
L
2x1
− x + 2x = 0. 3
4
Infine si pu`o verificare che l’endomorfismo rθ del piano vettoriale V 2 , considerato nell’Esempio 6.35, e` una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si ha:
Aθ =
=
1
−
2 θ
θ θ 2sin 2cos sin 2 2 2
θ θ 2cos sin 2 2 1
0
1
− − 2
0
1
− 2cos θ2 2
sin
θ 2
θ cos 2
θ sin 2
−
θ cos 2
.
Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, sono dati dalle similitudini, di cui l’automorfismo (6.43) ne `e un esempio. Pi`u precisamente si pu`o enunciare la seguente definizione.
Applicazioni Lineari
298
−→
Definizione 6.17 Sia f : V V un automorfismo di uno spazio vettoriale euclideo (V, ), f prende il nome di similitudine di rapporto µ se:
·
f (x) = µx,
x
∈ V,
da cui si deduce che µ deve essere un numero reale positivo non nullo.
Osservazione 6.29 Ogni isometria `e una similitudine di rapporto 1 . Mentre l’automorfismo definito da (6.43) `e una similitudine di rapporto 2 . Il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio, riassume alcune tra le principali propriet`a delle similitudini.
·
Teorema 6.33 Sia (V, ) uno spazio vettoriale euclideo di dimensione n .
1. Se f e` una similitudine di V, allora la misura dell’angolo individuato dai vettori x e y di V coincide con la la misura dell’angolo individuato dai vettori f (x) e f (y), per ogni x, y V.
∈
2. La matrice associata ad una similitudine di rapporto µ , rispetto ad una base ortonormale di V , e` data dal prodotto µA con A O(n) .
∈
Analogamente al caso reale, un endomorfismo f di uno spazio vettoriale hermitiano (V, ) si dice una trasformazione unitaria o operatore unitario o isometria complessa se non cambia il prodotto hermitiano, cio e` se vale la relazione (6.39). Come nel caso delle isometrie si pu`o dimostrare il teorema che segue.
·
·
Teorema 6.34 Sia (V, ) uno spazio vettoriale hermitiano di dimensione n .
1. Un endomorfismo f : V
−→ V e` una trasformazione unitaria se e solo se: f (x) = x, x ∈ V.
2. La composizione di due trasformazioni unitarie e` una trasformazione unitaria. 3. L’inversa di una trasformazione unitaria `e una trasformazione unitaria. 4. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se le immagini dei vettori di una base unitaria di V formano una base unitaria di V . 5. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se la matrice associata ad f , rispetto ad una base unitaria di V , e` una matrice unitaria.
Capitolo 6
299
6. Un endomorfismo f di V e` una trasformazione unitaria se e solo se f −1 = f † , dove f † e` l’aggiunto di f . La dimostrazione del Teorema 6.34 e` analoga a quella del Teorema 6.32 tenendo per o` conto che in questo caso vale la relazione (5.15).
Osservazione 6.30 Come per le isometrie, dai punti 2. e 3. del Teorema 6.34 segue che l’insieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, ) e` un gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale nello spazio vettoriale hermitiano (V, ) allora per il punto 5. dello stesso teorema si pu`o stabilire, in modo naturale, un isomorfismo tra l’insieme delle trasformazioni unitarie di (V, ) ed il gruppo unitario U (n) delle matrici unitarie (cfr. Oss. 5.15) associando ad ogni trasformazione unitaria f di V la matrice unitaria A = M B,B (f ).
·
B
·
·
300
Applicazioni Lineari
Capitolo 7 Diagonalizzazione Questo capitolo e` di importanza fondamentale per le sue svariate applicazioni in matematica, in fisica e in tutte quelle discipline a carattere scientifico e non, ad esempio la musica. Nel caso di un endomorfismo si vuole determinare, tra le infinite matrici ad esso associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini si vuole determinare una base opportuna dello spazio vettoriale V, su cui l’endomorfismo e` definito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedr`a per`o nel corso del capitolo che questo scopo non puo` essere sempre raggiunto.
7.1
Autovalori e autovettori di un endomorfismo
Si inizia con l’introdurre una definizione che diventer a` fondamentale per lo scopo che ci si e` proposti.
−→
Definizione 7.1 Sia f : V V un endomorfismo di uno spazio vettoriale reale V . Un vettore x non nullo di V si dice autovettore di f se esiste uno scalare λ R tale che:
∈
f (x) = λx,
(7.1)
λ si dice autovalore di f relativo all’autovettore x . ` evidente dalla definizione di autovettore la necessit a` di sce1. E Osservazione 7.1 gliere x diverso dal vettore nullo di V , infatti λ o = o per ogni λ R .
∈
2. La precedente definizione pu`o essere anche formulata nel modo seguente: λ R e` un autovalore dell’endomorfismo f se e solo se esiste un vettore x non nullo di V per cui valga l’uguaglianza (7.1).
∈
301
302
Diagonalizzazione
3. Si osservi che se x e` un autovettore di f relativo all’autovalore λ, allora anche µ x e` un autovettore di f relativo all’autovalore λ, per ogni numero reale µ = 0.
Si antepongono due facili propriet a` agli esempi, per poter meglio capire la definizione appena enunciata.
Teorema 7.1 Sia x un autovettore di un endomorfismo f di uno spazio vettoriale V, allora l’autovalore λ ad esso relativo `e unico. Dimostrazione Per assurdo siano λ = λ due autovalori di f relativi allo stesso autovettore x, allora f (x) = λ x = λ x da cui (λ λ )x = o , quindi segue la tesi.
−
Teorema 7.2 Sia λ un autovalore di un endomorfismo f di uno spazio vettoriale V, tutti gli autovettori relativi a λ insieme con il vettore nullo di V costituiscono un sottospazio vettoriale di V , indicato esplicitamente come:
{ ∈ V | f (x) = λx},
V λ = x
detto autospazio di f relativo all’autovalore λ . Inoltre, V λ e` un sottospazio vettoriale invariante per f .
Dimostrazione Verificare che V λ e` un sottospazio vettoriale di V invariante per f e` un facile esercizio che e` conseguenza delle Definizioni 4.2 e 6.9. Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare αx + β y , con x, y autovettori di un endomorfismo f relativi allo stesso autovalore λ e α, β R , e` ancora un elemento dell’autospazio V λ . Se si considerano, invece, due autovettori x e y relativi a due autovalori distinti λ e µ ( λ = µ ), ossia tali che f (x) = λ x e f (y) = µ y si ha che la generica loro combinazione lineare non e` pi`u un autovettore di f, in quanto: f (αx + β y) = λ(αx) + µ(β y).
∈
Definizione 7.2 Dato un endomorfismo f di uno spazio vettoriale reale V, l’insieme degli autovalori di f prende il nome di spettro di f . Questa definizione giustifica la particolare denominazione del Teorema 7.8.
−→
Esempio 7.1 L’identit`a id : V V, definita nell’Esempio 6.1, ammette solo l’autovalore λ = 1 . L’autospazio V λ relativo all’autovalore λ = 1 coincide con V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la matrice unit`a, che `e quindi una matrice diagonale avente il numero 1 (l’autovalore) sulla diagonale principale.
Capitolo 7
303
Esempio 7.2 L’applicazione lineare nulla, definita nell’Esempio 6.2, ammette solo l’autovalore λ = 0 . L’unico autospazio V λ , cio`e l’autospazio relativo a λ = 0 , coincide con V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la matrice nulla. Pertanto, anche in questo caso la matrice e` diagonale con l’autovalore 0 sulla diagonale principale. Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal Teorema 6.8 si ha che ker f = o , allora f ammette l’autovalore 0 e l’autospazio ad esso relativo coincide con ker f. Viceversa, se f e` iniettivo, allora ker f = o , quindi il numero 0 non pu`o essere un autovalore di f .
{ }
{}
Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V 3 , l’endomorfismo:
f : V 3
−→ V ,
x
3
−→ (x · u)u,
·
con u vettore fissato e “ ” prodotto scalare. Se u = o si ha l’endomorfismo nullo, gi`a considerato in precedenza. Se u e` un versore f e` la funzione che ad ogni vettore x di V 3 associa la proiezione ortogonale di x sulla retta vettoriale (u). Pertanto si vede che gli unici autovalori di f sono λ1 = 0 e λ2 = 1. Infatti, si ha che f (x) = o se e solo se x e` un vettore perpendicolare a u. Quindi λ1 = 0 e` un autovalore di f e l’autospazio ad esso relativo `e V λ = ker f, che coincide con il piano vettoriale ortogonale ad u. D’altra parte, l’unica altra possibilit a` per avere f (x) = λ x e` f (x) = x, che si ottiene solo se x e` parallelo ad u , pertanto esiste anche l’autovalore λ 2 = 1 e l’autospazio ad esso relativo e` la retta vettoriale V λ = (u) . Si osservi che vale la decomposizione:
L
1
2
L
V λ
⊕ V
λ2
1
= V 3
e V λ = V λ⊥ . 2
1
Esempio 7.4 A titolo di esempio si procede con il calcolo degli eventuali autovalori della rotazione, in senso antiorario, di angolo θ in un piano vettoriale V 2 , (cfr. Es. 6.24) vale a dire della trasformazione lineare:
−→ V ,
− → R[θ](x) le cui equazioni, rispetto ad una base ortonormale B = (i, j) di V , sono: x = x cos θ − y sin θ R[θ] : V 2
2
x
2
y = x sin θ + y cos θ,
dove x = xi + y j e R[θ](x) = x i + y j. Se λ R e` un autovalore di R[θ] ed x e` un autovettore ad esso relativo, allora R[θ](x) = λ x, quindi:
∈
304
Diagonalizzazione
−
x cos θ y sin θ = λx x sin θ + y cos θ = λy.
Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che esistono soluzioni non nulle se e solo se il rango della matrice dei coefficienti:
−
−
cos θ λ sin θ sin θ cos θ λ
−
e` 1 , ossia se e solo se il determinante di tale matrice e` uguale a zero, in altri termini, se e solo se:
λ2
− 2cos θ λ + 1 = 0.
±
Questa equazione di secondo grado in λ ha soluzioni reali se e solo se cos θ = 1 , da cui segue ci`o che era gi`a intuibile geometricamente, ossia solo le rotazioni di angolo 0 e π ammettono autovalori. Tali rotazioni coincidono, rispettivamente, con l’identit a` id di V 2 , gi`a studiata nell’Esempio 7.1 e con l’endomorfismo id di equazioni:
−
x = x y = y
− −
−
−
−
∈
che ammette solo l’autovalore 1 perch´e definito da ( id)(x) = x, x V 2 (cfr. Par. 6.4) e che si puo` considerare geometricamente come un ribaltamento del vettore x sulla retta che lo contiene. Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico endomorfismo, vale a dire prima di introdurre il procedimento che generalizza l’esempio appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle definizioni date e precisamente: la somma degli autospazi di un endomorfismo e` diretta. A titolo di esercizio, si inizia con il provare questa propriet a` per la somma di due autospazi. In questo caso, dimostrare che la somma di due autospazi V λ + V λ , con λ 1 = λ 2 , e` diretta equivale a provare che V λ V λ = o , (cfr. Teor. 4.5). Se per assurdo esiste x V λ V λ , x = o, allora f (x) = λ 1 x = λ 2 x da cui segue (λ1 λ2 )x = o, quindi λ1 = λ2 , che e` assurdo. Per dimostrare questa propriet`a in generale e` per`o necessario anteporre il lemma che segue, la cui dimostrazione e` rimandata al Paragrafo 7.6.3. 1
∩
1
∈ ∩ 1
2
2
{ }
2
−
−→
Lemma 7.1 Siano λ 1 , λ2 , . . . , λk autovalori distinti di un endomorfismo f : V V di uno spazio vettoriale V e siano V λ , V λ , . . . , Vλ k gli autospazi ad essi corrispondenti. Scelti in modo arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo ( xi V λi , i = 1, 2, . . . , k ), allora l’insieme = x1 , x2 , . . . , xk e` libero. 1
2
∈
Come conseguenza si ha il seguente teorema.
I {
}
Capitolo 7
305
Teorema 7.3 Sia f un endomorfismo di uno spazio vettoriale reale V e siano λ 1 , λ2 , . . . , λk gli autovalori distinti di f, allora la somma degli autospazi V λ + V λ + . . . + V λk e` diretta. 1
2
Dimostrazione Provare che la somma V λ + V λ + . . . + V λk e` diretta equivale a dimostrare che ogni elemento x V λ + V λ + . . . + V λk ha un’unica decomposizione come somma di vettori di ciascuno degli autospazi addendi (cfr. Def. 4.6). Sia allora x appartenente a V λ +V λ +. . .+V λk , si supponga per assurdo che x ammetta due decomposizioni diverse del tipo: 1
∈
1
1
2
2
2
x = x 1 + x2 + . . . + xk = y 1 + y2 + . . . + yk ,
∈ V , i = 1, 2, . . . , k , allora si ha: (x − y ) + ( x − y ) + . . . + (x − y ) = o
dove xi , yi
λi
1
1
2
2
k
k
in evidente contrasto con il Lemma 7.1.
Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati tutti gli autovalori distinti λ 1 , λ2 , . . . , λk di f , allora:
V λ
⊕ V ⊕ . . . ⊕ V ⊆ V ;
1
λ2
λk
lo studio dell’uguaglianza tra questi due insiemi sar a` oggetto del Paragrafo 7.3.
7.2
Determinazione degli autovalori e degli autospazi
−→ V un endomorfismo di uno spazio vettoriale reale V. Si supponga che dim(V ) = n e che B = (v , v , . . . , v ) sia una base di V. Indicate con A ∈ R la matrice associata ad f rispetto alla base B e con X ∈ R la matrice colonna delle componenti di un vettore x di V rispetto alla base B , e tenendo conto delle equazioni Sia f : V
1
2
n,n
n
n,1
dell’endomorfismo f scritte in forma matriciale (cfr. (6.4)), la formula (7.1) si traduce, in componenti, nella relazione:
AX = λX vale a dire in: (7.2) − λI )X = O, indica la matrice unit`a e O ∈ R la matrice colonna nulla. Dalla teoria
(A
n,1 dove I R n,n dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare
∈
306
Diagonalizzazione
omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A solo se:
det(A
− λI ) < n , ossia se e
− λI ) = 0.
(7.3)
Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come:
− λ id)(x) = o,
(f
dove id indica l’identit`a di V. Pertanto gli autovettori di f, relativi all’autovalore λ , coincidono con gli elementi, diversi dal vettore nullo, di ker(f λ id), cio`e:
−
− λ id).
V λ = ker(f
Si procede ora con lo studio dettagliato dell’equazione (7.3) che prende il nome di equa zione caratteristica della matrice A; (7.3) `e anche detta equazione caratteristica dell’endomorfismo f, infatti si dimostrer a` nel Teorema 7.4 che non dipende dalla scelta della matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfismo (matrici simili) hanno lo stesso polinomio caratteristico. Il polinomio det(A λI ) a primo membro di (7.3) e` detto polinomio caratteristico di A (o dell’endomorfismo f ) e lo si indicher`a con P (λ) . Pertanto, gli autovalori di f coincidono con le radici reali di P (λ) . Per ogni radice reale λ = α , l’autospazio corrispondente V α e` formato dai vettori x di V tali che f (x) = αx, ossia dalle soluzioni X del sistema lineare omogeneo (A αI )X = O . Per questo motivo anche se il calcolo degli autovalori e` riferito ad un endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A, intendendosi come tale il calcolo degli autovalori dell’endomorfismo f a cui la matrice A e` associata rispetto ad una base di V .
−
−
Con l’esempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di ordine 2 , ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2 .
Esempio 7.5 Sia:
A = il suo polinomio caratteristico e` :
P (λ) = det(A
a11 a12 a21 a22
− λI ) =
da cui segue:
det(A
2
∈
R2,2 ,
−
a11 λ a12 , a21 a22 λ
−
− λI ) = λ − tr(A)λ + det(A).
(7.4)
Capitolo 7
307
Con un calcolo analogo si ha che il polinomio caratteristico di una matrice quadrata A di ordine n e` dato da:
P (λ) = det(A
n n
− λI ) = ( −1) λ
+ ( 1)n−1 tr(A)λn−1 + . . . + det(A).
−
Infatti:
−
1. ciascun addendo nel calcolo del determinante della matrice quadrata A λI di ordine n e` il prodotto di n fattori appartenenti a righe e colonne diverse (cfr. Par. 2.8), quindi il polinomio caratteristico in λ che si ottiene avr`a necessariamente grado n . 2. Il termine di grado massimo del polinomio caratteristico si ha solo dal prodotto degli elementi sulla diagonale principale:
− λ)(a − λ) . . . (a − λ), quindi il coefficiente di λ deve essere ( −1) . 3. Anche il termine di grado n − 1 del polinomio caratteristico si ottiene solo dal pro(a11
22
nn
n
n
dotto degli elementi della diagonale principale (provare, per esempio, a fare il calcolo esplicito nel caso particolare delle matrici quadrate di ordine 3 ), e` abbastanza facile notare che il suo coefficiente deve essere ( 1)n−1 tr(A) .
−
4. Il termine noto del polinomio caratteristico si ottiene ponendo λ = 0 nell’espressione di P (λ), quindi deve essere det(A) , cio`e:
P (0) = det(A). Di conseguenza l’equazione (7.3) ammette la soluzione λ = 0 se e solo se si ha det(A) = 0 , in assoluto accordo con ci o` che era gi`a stato osservato (cfr. Oss. 7.3), vale a dire esiste l’autovalore λ = 0 di f se e solo se ker f = o .
{ }
5. Per il Teorema Fondamentale dell’Algebra in cui si afferma che ogni polinomio di grado n , a coefficienti complessi, ammette n radici complesse, contate con le loro molteplicit`a, segue che ogni matrice A Rn,n ammette al piu` n autovalori. Per la dimostrazione del Teorema Fondamentale dell’Algebra si veda ad esempio [5]. Si ricorda che una radice α di un polinomio p(λ) a coefficienti reali o complessi si dice avere molteplicit `a h se il polinomio (λ α)h divide p(λ) ma (λ α)h+1 non divide p(λ) .
∈
−
−
6. Se un’equazione a coefficienti reali in un’incognita ammette una radice complessa, allora ammette anche una seconda radice complessa che e` la complessa coniugata
308
Diagonalizzazione
della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado), pertanto una matrice reale quadrata di ordine pari pu o` non ammettere autovalori (non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre una matrice reale quadrata di ordine dispari ammette almeno un autovalore.
Esempio 7.6 La matrice quadrata di ordine 2 :
2 1
A =
2 1
−
,
ha come polinomio caratteristico:
det(A
2
− λI ) = λ − 3λ + 4
che non ha radici reali, pertanto la matrice A non ammette autovalori.
Esempio 7.7 Sia f : R4 R4 , `e associato alla matrice:
−→ R
4
A =
l’endomorfismo che, rispetto alla base canonica
−
2 0 0 0
0 2 0 0
0 6 3 2
−
−
B di
− 0 6 3 2
,
si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli autovalori e gli autospazi di A ). Si inizia con il calcolo dell’equazione caratteristica:
− − 2
det(A
e si ha:
− λI ) =
det(A
λ
0
−2 − λ
0 0 0
0 0
0 6 3
0 6 3
−λ −2 −2 − λ
− λI ) = λ(λ − 1)(λ + 2)
2
=0
=0
da cui si ottengono tre autovalori λ1 = 0, λ2 = 1, λ3 = autospazi, si procede al loro calcolo uno alla volta.
− 2 .
Si avranno quindi tre
V λ coincide con ker f, che si ottiene riducendo per righe la matrice A . Si lasciano i dettagli per esercizio, si ha rank(A) = 3 , quindi dim(ker f ) = dim(V λ ) = 1 e: 1
1
L
−
V λ = ((0, 0, 1, 1)). 1
Capitolo 7
Per λ 2 = 1 si ottiene:
A
−
− I =
−
3 0 0 0
−
0 3 0 0
309
−
0 6 2 2
− 0 6 3 3
,
da cui rank(A I ) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente all’equazione matriciale (A I )X = 0, si perviene a:
−
L
−
V λ = ((0, 2, 3, 2)). 2
Nel caso di λ 3 =
−2 invece: A + 2I =
ha rank(A + 2I ) = 2 e quindi:
0 0 0 0
0 0 0 0
0 6 5 2
0 6 3 0
−
L
V λ = ((1, 0, 0, 0), (0, 1, 0, 0)). 3
Il risultato appena trovato sugli autovalori e autospazi di f sar`a ridiscusso nell’Osservazione 7.6.
Si dimostrer`a ora il teorema gi`a annunciato, vale a dire matrici simili hanno lo stesso polinomio caratteristico .
Teorema 7.4 Sia f un endomorfismo di uno spazio vettoriale reale V di dimensione n . Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determina zione. Considerate due basi e di V, si indichino con A = M B,B (f ) e A = M B ,B (f ) le matrici, quadrate di ordine n, associate ad f rispetto alle due basi e . Dalla relazione (6.10) si ha che le due matrici A e A sono simili e pertanto si ottiene la tesi provando che:
B B
Dimostrazione
B
B
det(A
−1
− λI ) = det(P
− λI )
AP
con P matrice, invertibile di ordine n, del cambiamento di base da a , I matrice unit`a di ordine n e λ R. Usando le propriet`a del prodotto di matrici, la formula di Binet e il calcolo del determinante dell’inversa di una matrice (cfr. Teor. 2.16) si ha:
∈
B B
310
Diagonalizzazione
det(P −1AP
− λI )
= det(P −1 (A = =
− λI )P ) det(P )det(A − λI ) det(P ) det(A − λI ), −1
dopo aver tenuto conto che λI = P −1 λIP e della propriet`a det(P −1 ) = det(P )−1 .
Osservazione 7.5 Si osservi che esistono matrici che hanno lo stesso polinomio caratteristico ma che non sono simili, per esempio le due matrici:
I =
1 0 0 1
,
B =
1 1 0 1
,
in quanto P −1 IP = I , per ogni matrice invertibile P.
Il teorema che segue stabilisce un’importante relazione tra la dimensione di un autospazio e la molteplicit a` del proprio autovalore nel polinomio caratteristico.
Teorema 7.5 Sia f un endomorfismo di uno spazio vettoriale reale V, sia α un suo autovalore di molteplicit `a m α e sia V α l’autospazio relativo ad α , allora:
1
≤ dim(V ) ≤ m . α
α
≥
Dimostrazione Poich´e α e` un autovalore, allora dim(V α ) 1 . Per dimostrare la seconda disuguaglianza della tesi si suppongano dim(V ) = n e dim(V α) = k. Se k = n , la tesi e` ovvia perch´e f (x) = α x, per ogni x V e pertanto V α = V. Sia, quindi, k < n e sia ( a1 , a2 , . . . , ak ) una base di V α . Si completi (cfr. Teor. 4.15) tale insieme libero fino ad ottenere la base di V data da = (a1 , a2 , . . . , ak , bk+1 , . . . , bn) . Di conseguenza B ,B la matrice associata A = M (f ) assume la forma seguente:
∈
B
A =
B
α 0 ... 0 0 α . .. 0 .. .
.. .
..
.
.. .
a1k+1 . . . a2k+1 . . . .. .
..
.
a1n a2n .. .
0 0 . . . α akk+1 . . . akn 0 0 . . . 0 ak+1k+1 . . . ak+1n .. .
.. .
..
.
.. .
0 0 ... 0
.. .
..
.
ank+1 . . .
il cui polinomio caratteristico e` : k
.. .
ann
− λI ) = (α − λ) Q(λ) dove Q(λ) e` un polinomio in λ di grado n − k , ci`o significa che la molteplicit`a di α e` det(A
almeno k .
Capitolo 7
311
Osservazione 7.6 Si osservi che nell’Esempio 7.7 si sono ottenuti tre autovalori distinti λ1 = 0 con molteplicit`a mλ = 1 , λ2 = 1 con molteplicit a` mλ = 1 e λ3 = 2 con molteplicit`a m λ = 2 . I tre autospazi V λ , V λ , V λ avevano, rispettivamente, dimensione 1, 1, 2 e pertanto: 1
−
2
3
1
V λ
1
2
3
= R4 .
⊕ V ⊕ V λ2
λ3
Inoltre, gli autovettori di f (o di A ):
−1, 1), v = (0, 2, 3, −2), v = (1, 0, 0, 0), v = (0, 1, 0, 0) formano una base B di R . La matrice M (f ) associata ad f rispetto alla base B = ( v , v , v , v ) di R e` la matrice diagonale: v1 = (0, 0,
1
2
3
2
3
4
B ,B
4
4
4
D =
in quanto:
f (v1 ) = o ,
0 0 2 0
−
f (v3 ) =
−2v ,
0 0 0 0
0 1 0 0
f (v2 ) = v 2 ,
−
0 0 0 2
,
3
f (v4 ) =
−2v . 4
Di conseguenza A e` simile alla matrice diagonale D , cio`e P −1AP = D , dove P e` la matrice del cambiamento di base dalla base canonica di R 4 alla base di R 4 formata dai quattro autovettori di f prima indicati.
B
B
Esercizio 7.1 Si calcolino gli autovalori e gli autospazi della matrice:
A = Soluzione
2 0 0 0 1 1 0 0 1
.
Il polinomio caratteristico della matrice A e` dato da:
det(A
− λI ) =
2
−λ 0 0
0 1
−λ 0
0 1 1
−λ
= (2
2
− λ)(1 − λ) .
Si ottengono gli autovalori λ1 = 2 con molteplicit`a mλ = 1 e λ2 = 1 con molteplicit`a mλ = 2 . Gli autospazi relativi ai due autovalori sono: 1
2
L
V λ = ((1, 0, 0)), 1
In questo caso si ha quindi che V λ 2 e pertanto V λ V λ = R3 .
1
⊕
1
2
⊕ V
λ2
L
V λ = ((0, 1, 0)). 2
e` un sottospazio vettoriale di R 3 di dimensione
312
7.3
Diagonalizzazione
Endomo Endomorfis rfismi mi diagon diagonali alizza zzabil bilii Matrici diagonalizzabili
Il paragrafo inizia con due importanti definizioni, palesemente equivalenti.
−→
Definizione 7.3 Un endomorfismo f : V V di uno spazio vettoriale reale V si dice diagonalizzabile (o anche semplice) se esiste una base di V rispetto alla quale la matrice associata ad f f e` diagonale.
∈ R
Definizione 7.4 Una matrice quadrata A matrice invertibile P di ordine n tale che:
n,n
si dice diagonalizzabile se esiste una
P −1AP = D, con D matrice diagonale di ordine n , o in altri termini, se A e` simile ad una matrice diagonale.
Nei precedenti paragrafi di questo capitolo si sono incontrati alcuni esempi di endomorfismi diagonalizzabili, quali l’applicazione identit a, a` , l’applicazione nulla, l’Esempio 7.7. In questo paragrafo si cercher` cerchera` di precisare quando un endomorfismo e` diagonalizzabile e come si procede, in pratica, alla diagonalizzazione di una matrice quadrata, dopo aver controllato che cio` sia possibile. Il primo teorema (la cui dimostrazione e` conseguenza immediata della Definizione 7.3) provvede a dare un metodo pratico, utile per riconoscere se un endomorfismo e` diagonalizzabile.
−→
vettoriale reale V e` diagoTeorema 7.6 Un endomorfismo f : V V di uno spazio vettoriale nalizzabile se e solo se esiste una base di V formata da autovettori di f .
teorema `e quindi evidente che se f e` un endomorfismo Osservazione 7.7 Dal precedente teorema ` diagonalizzabile di uno spazio vettoriale reale V allora una base di V , rispetto alla quale la matrice associata ad f sia diagonale, ` diagonale, `e formata da autovettori. Si possono perci` percio` enunciare quelli che usualmente vengono indicati come i criteri di diagonalizzazione.
−→
Teorema 7.7 Sia f : V endomorfismo di uno spazio vettoriale vettoriale reale V. Le V un endomorfismo seguenti affermazioni sono equivalenti:
1. f e` diagonalizzabile.
Capitolo 7
⊕
313
⊕ ⊕
2. V = V λ V λ . . . V λk , dove λ 1 , λ2, . . . , λk sono tutti gli autovalori distinti di f e V λ , V λ , . . . , Vλ k i relativi autospazi. 1
1
2
2
3. dim(V dim(V )) = dim(V dim(V λ ) + dim(V dim(V λ ) + . + . . . + dim(V dim(V λk ), dove λ 1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e V λ , V λ , . . . , Vλ k i relativi autospazi. 1
2
1
2
4. Ogni radice del polinomio caratteristico P ( P (λ) di f e` reale e per ogni radice λi (cio` (cioe` per ogni autovalore di f ) di molteplicit molteplicit `a` mλi la dimensione dell’autospazio molteplicit a` m λi , in formule: V λi coincide con la molteplicit ` dim(V dim(V λi ) = m λi ,
i = 1, 2, . . . , k .
l’equivalenza delle delle quattro affermazioni si proveranno Dimostrazione Per dimostrare l’equivalenza le seguenti implicazioni:
1.
⇒
=
4.
⇒
=
3.
⇒
=
2.
⇒
=
1.
⇒
Per dimostrare l’implicazione 1. 1 . = 4. si supponga che f sia diagonalizzabile, cio`e che esista una base di V formata da autovettori e quindi tale che la matrice A associata ad f rispetto alla base sia diagonale, con gli autovalori di f come elementi della diagonale principale, scritti in ordine, in corrispondenza ai vettori della base . Se si indicano con a` , λ1 , λ2 , . . . , λk gli autovalori distinti di f e con mλ , mλ , . . . , mλk le relative molteplicit a, si ha che il polinomio caratteristico di f e` dato da:
B
B
B
1
det(A P ( P (λ) = det(A
− λI ) = (λ − λ) 1
2
mλ1
. . . (λk
mλk
− λ)
,
da cui segue che ogni radice del polinomio caratteristico e` reale. Inoltre, per ogni autovalore λ i si ha:
dim(V dim(V λi ) = n
− rank(A rank(A − λ I ) = m i
λi .
⇒
Per dimostrare l’implicazione 4. 4 . = 3. 3 . si pu`o osservare che, per ipotesi, ogni radice del polinomio caratteristico e` reale e quindi la somma delle moltiplicit a` delle radici distinte, cio` cioe` degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero:
dim(V )) mλ + mλ + . . . + mλk = dim(V 1
2
e quindi:
dim(V dim(V λ ) + dim(V dim(V λ ) + . . . + dim(V dim(V λk ) = dim(V dim(V )). 1
2
⇒
Per dimostrare l’implicazione 3. 3 . = 2. 2 . , tenendo conto che per il Teorema 7.3 la somma di tutti gli autospazi relativi agli autovalori distinti λ 1 , λ2 , . . . , λk e` diretta e che dall’affermazione 3. 3 . la somma delle dimensioni degli autospazi `e pari alla dimensione di V , segue che la somma di tutti gli autospazi coincide necessariamente con V .
314
Diagonalizzazione
⇒
1. e` sufficiente osservare che, se per ogni Per provare l’ultima implicazione 2. = autospazio V λi , i = 1, 2, . . . , k si considera una base i , allora per il Teorema 4.17 l’unione:
B
B ∪ B ∪ ... ∪ B 1
2
k
e` una base di V in quanto la somma degli autospazi e` diretta.
Osservazione 7.8 La decomposizione 2. del teorema precedente e` anche nota come decomposizione spettrale di V . segue che l’endomorfismo f dell’Esempio Osservazione 7.9 In base ai precedenti criteri segue 7.7 e` diagonalizz diagonalizzabile abile (o equival equivalentem entemente ente la sua matrice matrice associata associata A e` diagonalizzabile). Le matrici diagonali simili ad A sono tutte le possibili matrici diagonali aventi sulla diagonale principale gli autovalori di A . (Quante (Quante sono in totale?) totale?) L’endomorfismo ’endomorfismo dell’Eserciz dell’Esercizio io 7.1 non e` diagonalizza diagonalizzabile, bile, in quanto per l’autovalo l’autovalore re dim(V λ ) < mλ . λ2 = 1 si ha che dim(V 2
2
Come conseguenza immediata del Teorema 7.7 si ha il seguente corollario, la cui dimostrazione e` lasciata al Lettore come esercizio.
Corollario 7.1 Se f e` un endomorfismo di uno spazio vettoriale reale V di dimensione co n n autovalori distinti, allora f e` diagonalizzabile. n con
7.4 7.4
Il teor teorem ema a spet spettra trale le
Nel caso particolare delle matrici simmetriche si pu o` dimostrare il fondamentale teorema spettrale.
Teorema 7.8 – Teorema Teorema Spettrale – 1. Sia A una matrice simmetrica, allora A e` diagonalizzabile, esistono quindi una matrice diagonale D e una matrice invertibile P tali che:
= P −1AP. D = P 2. Sia A una matrice simmetrica, `e sempre possibile individuare una matrice ortogonale Q tale che: = Q−1AQ = D = Q AQ = t QAQ, cio` cioe` A e` diagonalizzabile mediante una matrice ortogonale.
Capitolo 7
∈ R
3. Se A
n,n
315
e` una matrice diagonalizzabile e se esiste una matrice Q ortogonale
tale che
t
QAQ = QAQ = D, D,
con D matrice diagonale, allora A e` simmetrica.
B
Si ricordi che il Teorema 6.17 afferma che, fissata una base ortonormale in uno spa ( V, ) , la matrice M B,B (f ) zio vettoriale euclideo (V, f ) associata ad un endomorfismo f di V e` simmetrica se e solo se l’endomorfismo f e` autoaggiunto. autoaggiunto. Di conseguenza, conseguenza, si dimostrer` strera, a` , in questo paragrafo, che e` possibile formulare il Teorema Spettrale 7.8 in termini di endomorfismi autoaggiunti e che le due formulazioni sono equivalenti se e solo se si considerano basi ortonormali dello spazio vettoriale euclideo (V, ( V, ) . Pi`u precisamente si dimostrer` dimostrera` il seguente teorema.
·
·
−→
1. Sia f : V V un endomorfismo autoag ( V, ) e siano λ 1 , λ2 , . . . , λk tutti i suoi giunto di uno spazio vettoriale euclideo (V, : autovalori distinti, allora la somma diretta di tutti gli autospazi coincide con V :
Teorema 7.9 – Teorema Teorema Spettrale –
·
V λ
⊕ V ⊕ . . . ⊕ V λ2
1
λk
= V
e gli autospazi autospazi sono a due ortogonali, ortogonali, vale a dire: dire:
⊥ V , i = j, i, j = j = 1, 2, . . . , k , nel senso che per ogni x ∈ V e per ogni y ∈ V si ha x · y = 0. ( V, · ) uno spazio vettoriale euclideo e sia f un endomorfismo diagonalizzabile Sia (V, di V e V = V ⊕ V ⊕ . . . ⊕ V la relativa decomposizione spettrale, dove supponga a che per ogni V indica l’autospazio di f relativo all’autovalore λ . Si suppong = j , i, j = 1, 2, . . . , k si abbia V ⊥ V . Allo Allora ra f e` un endomorfismo i, j , i ( V, · ) . autoaggiunto di (V, V λi
λj
λi
2.
λ1
λ2
λj
λk
λi
i
λi
λj
1. Si osservi osservi che che le due due formulazio formulazioni ni del Teorema Spettrale Spettrale 7.8 7.8 e Osservazione 7.10 7.9 sono equivalenti solo se si sceglie nello spazio vettoriale euclideo (V, ) una base ortonormale. Pertanto dalla dimostrazione del Teorema 7.9 segue la dimostrazione del Teorema 7.8.
·
2. Per dimostr dimostrare are il punto punto 3. del Teorema Spettrale 7.8 si puo` anche osservare che dal fatto che esiste una matrice Q ortogonale tale che t QAQ = D , si deduce = QD t Q e quindi: A = QD t
= A, A = t (QD t Q) = QD t Q = A,
= D. in quanto ovviamente tD = D.
316
Diagonalizzazione
Si inizia con enunciare una prima propriet a` sulle radici del polinomio caratteristico di una matrice matrice simmetrica, simmetrica, la cui dimostrazio dimostrazione ne ` `e rima rimand ndat ataa al Parag Paragra rafo fo 7.6 7.6 in quan quanto to essa essa segu seguee dal fatto che si dovr` dovra` considerare uno spazio vettoriale definito sul campo dei numeri complessi C , invece che su R .
Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristico di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, ) sono reali. reali. In altri termini, termini, se λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di un endomor fismo autoaggiunto f di V con rispettive molteplicit ` molteplicit a` mλ , mλ , . . . , mλk , allora si ha l’uguaglianza:
·
1
2
mλ + mλ + . . . + mλk = n, 1
2
dove n e` la dimensione di V .
·
In generale, per un endomorfismo qualsiasi di uno spazio vettoriale euclideo (V, ) si pu` puo` solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli (cfr. (cfr. Lemma 7.1). Nel caso particolare particolare di endomorfismi endomorfismi autoaggiunti autoaggiunti si pu` puo` dimostrare dimostrare l’ortogonalit` l’ortogonalita` tra i due autovettori. autovettori. Si ha infatti infatti il seguente seguente teorema.
Teorema 7.10 Se λ 1 e λ 2 sono due autovalori distinti di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, ) , allora i relativi autospazi V λ e V λ sono ortogonali tra di loro, ossia: x y = 0,
· ·
per ogni x
∈ V
λ1 e
∈ V . Considerati x ∈ V per ogni y
Dimostrazione autoaggiunto segue:
·
1
2
λ2
λ1
e y
∈ V
λ2 ,
dalla definizione di endomorfismo
· · · · · − λ )(x · y) = 0 , ma λ = λ , perci` percio` x · y = 0 .
·
= λ1 (x y) = x f ( f ( f (x) y = (λ1 x) y = λ f (y) = x (λ2 y) = λ2 (x y) = λ2 (x y). ( λ1 Di conseguenza (λ
2
1
2
1. Siano λ 1 , λ2 , . . . , λk tutti gli autovalori distinti di Dimostrazione del Teorema 7.9 f e siano V λ , V λ , . . . , Vλ k i relativi autospazi, che sono tutti in somma diretta (cfr. Teor. 7.3). Sia: 1
2
H = V ⊕ V ⊕ . . . ⊕ V , si perviene alla tesi se si dimostra che H = V. Poiche´ ogni autospazio V V . Poich´ λ1
λ2
λk
λi , i = 1,
2, . . . , k , `e invariante per f (cfr. Teor. 7.2), segue dal Teorema 6.14 che anche
H
Capitolo 7
317
e` invariante per f , ossia:
H ⊆ H.
f ( f ( )
H = V , , allora: V = H ⊕ H ,
Si supponga per assurdo che
⊥
dove
H
⊥
indica il complemento ortogonale di
6.18 si ha che anche
⊥
H
⊥
H
la restrizione di f a
⊥
H in V e H = {o}. Per il Teorema
e` un sottospazio vettoriale di V invariante per f . Sia:
f :
⊥
H −→ H
⊥
, definita da (6.18), cio`e da f (x) = f ( f (x), con x in
H
⊥
.
Essendo f e` autoaggiunto, anche f e` autoaggiunto sullo spazio vettoriale euclideo ⊥
H , · ) dotato dello stesso prodotto scalare di V . Poich´ Poiche´ tutte le radici del polinomio caratteristico di f sono reali (cfr. Lemma 7.2) esiste un vettore x ∈ H che (
⊥
e` un autovettore di f , quindi x e` un autovettore di f , da cui l’assurdo. L’ortogonalit` nalita` tra gli autospazi segue dal Teorema 7.10. dimostrare che: 2. Si tratta di dimostrare
·
·
f ( f (x) y = x f ( f (y),
∈
per ogni x ogni x , y V. Dalla Definizione 4.6 segue che esiste una sola decomposizione dei vettori x e y del tipo: x = x 1 + x2 + . . . + xk ,
∈ V
con xi , yi
i = λi , i =
·
y = y 1 + y2 + . . . + yk ,
1, 2, . . . , k . Si ha:
·
f ( f (x) y = f ( f (x1 + x2 + . . . + xk ) (y1 + y2 + . . . + yk )
·
·
·
= f ( f (x1 ) y1 + f ( f (x2 ) y2 + . . . + f ( f (xk ) yk ,
·
in quanto, per ipotesi, f ( Poiche´ f (xi ) y j = 0 , per ogni i, j = 1, 2, . . . , k , i = j. Poich´ f ( f (xi) = λi xi , la relazione precedente diventa:
·
·
·
·
= λ1 x1 y1 + λ2 x2 y2 + . . . + λk xk yk . f ( f (x) y = λ Procedendo Procedendo con un conto analogo a secondo membro membro si perviene perviene alla tesi.
Osservazione 7.11 Come gi` gia` affermato, il Teorema 7.8 e` conseguenza del Teorema 7.9. Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, diagonalizzabile abile,, anche se la matrice associata ( V, ) e` diagonalizz non e` simmetrica. simmetrica. Un esempio significativo significativo e` studiato studiato nell’Esercizio nell’Esercizio 8.19. Nel Teorema Teorema 8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto ad una base qualsiasi di V .
·
318
Diagonalizzazione
A corretta conclusione di questa trattazione si riportano i due teoremi seguenti.
Corollario 7.2 Sia f un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) , allora esiste una base ortonormale di V formata da autovettori.
·
tutti gli autov autovalo alori ri (disti (distinti nti)) di f e V λ , V λ , . . . , Vλ k Dimostrazione Siano λ 1 , λ2 , . . . , λk tutti i relativi autospazi. Poich e´ f e` autoaggiunto, f e` diagonalizzabile (cfr. Teor. 7.9). Dalla decomposizione: 1
V = V λ
2
⊕ V ⊕ . . . ⊕ V λ2
1
λk
e dal fatto che gli autospazi sono ortogonali ortogonali (cfr. (cfr. Lemma 7.10) 7.10) si pu` puo` determinare una base ortonormale di V formata da autovettori di f come unione di basi ortonormali per ogni autospazio V λi . Pi`u precisamente precisamente,, si trova trova una base per ciascun autospazio V λi , i = 1, 2, . . . , k e la si normalizza con il metodo di Gram–Schmidt (cfr. Teor. 5.5), ottenendo in questo modo una base ortonormale i per ogni autospazio V λi . Per il Teorema Teorema 7.10, 7.10, se λ i = λ j allora V λi V λj , pertanto l’unione delle basi ortonormali 1 . . . cos`ı k cos` ottenute e` una base ortonormale di V formata da autovettori di f .
B
⊥
B ∪ ∪ B
Teorema 7.11 Ogni endomorfismo f : V to ad un opportuno prodotto scalare di V .
B
−→ V diagonalizzabile ` diagonalizzabile `e autoaggiunto rispet-
Dimostrazione Sia una base di V formata da autovettori di f . Allora esiste su V un prodotto scalare che rende una base ortonormale (cfr. Oss. 5.3).
B
Esercizio 7.2 Sia f l’endomorfismo di R 3 associato alla matrice:
A =
2 1 0
1 1 1
−
− 0 1 2
(7.5)
rispetto alla base canonica di R3 . Dimostrare che f e` autoaggiunto rispetto al prodotto scalare scalare standard standard di R 3 e trovare una base ortonormale di R 3 formata da autovettori di f . Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale. perche´ la matrice associata ad f e` simSoluzione L’endomorfismo f e` autoaggiunto perch´ 3 metrica e la base canonica di R e` ortonormale, rispetto al prodotto scalare standard di R3 . Per trovare una base ortonormale di R3 , formata formata da autov autovett ettori ori di f , si devon devono o dedeterminare gli autospazi di f . Proced Procedend endo o con il metodo metodo indica indicato to nel Paragrafo Paragrafo 7.2 si ha: autovalori di f : λ1 = 0, λ2 = 2, λ3 = 3 , tutti di molteplicit a` 1 ;
Capitolo 7
autospazi di f : V λ = 1
L((−1, 2, 1)), 1)), V
λ2
319
L
L
−
= ((1, ((1, 0, 1)), 1)), V λ = ((1, ((1, 1, 1)) . 3
Una base ortonormale richiesta si ottiene, semplicemente, considerando i versori di:
−
1), v1 = ( 1, 2, 1),
(1, 0, 1), 1), v2 = (1,
(1, 1, v3 = (1,
−1)
(perch´ (perche?), e´ ?), quindi una matrice ortogonale che diagonalizza A e` ad esempio:
−√ √
1 6
P =
1 2
√
2 6
0
√ 16
1 3
√ 12 − √ 13
da cui: t
√ √ 1 3
P AP = D = D =
0 0 0 0 2 0 0 0 3
.
Esercizio 7.3 Sia f l’endomorfismo di R 3 associato alla matrice:
A =
− −
1 2 2
−2 −2 1 −2 −2 1
(7.6)
rispetto alla base canonica di R3 . Dimostrare Dimostrare che che f e` autoaggiunto rispetto al prodotto 3 scalare standard di R e trovare una base ortonormale di R 3 formata da autovettori di f . Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale. Si verifica immediatamente che f e` autoaggiunto in quanto la matrice assoSoluzione ciata a f e` simmetrica e la base canonica di R 3 e` ortonormale, rispetto al prodotto scalare standard di R 3 . Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determinare gli autospazi di f . Si ha:
−3, λ = 3, con rispettive molteplicit a` m = 1,1 , m = L((1, ((1, 1, 1)), 1)), V = L((1, ((1, −1, 0), 0), (0, (0, 1, −1)) .
autovalori di f : λ1 = autospazi di f : V λ
1
2
λ1
λ2
λ2
= 2;
320
Diagonalizzazione
Si ottiene quindi una base di R 3 formata dagli autovettori:
(1, 1, 1), 1), a = (1,
−1, 0), 0),
(1, b = (1,
(0, 1, c = (0,
−1). 1).
Pertanto una matrice P tale che P −1AP = D , con:
− − − 3 0 0 0 3 0 0 0 3
D = e` data ad esempio da:
P =
1 1 1
1 1 0
,
0 1 1
,
ma la matrice P cos` cos`ı ottenuta non e` ortogonale.
Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice ortogonale Q tale che t QAQ = D, applicando applicando il processo processo di ortonormali ortonormalizzazio zzazione ne di Gram–Schmidt separatamente ai due autospazi. Pi u` precisamente si considerano i vettori: v1 = vers (a) = v2 = vers (b) = v3 = vers (c
√ √ √ √ −√
1 1 1 , , , 3 3 3 1 1 , ,0 , 2 2
− (c · v )v ) = vers 2
2
− √ √ −√ 1 1 , , 1 = 2 2
1 1 , , 6 6
quindi una matrice ortogonale che diagonalizza A e` ad esempio:
√ √ √ −√ 1 3
Q =
1 3
√ 13
1 2
1 2
0
da cui: t
QAQ = QAQ = D. D.
√ √ 1 6 1 6
− √ 26
,
2 , 6
Capitolo 7
7.5
321
Eserc Esercizi izi di riepilo riepilogo go svolti svolti
Esercizio 7.4 Data la matrice:
A =
4 1 + a2 2 5 1 1
−1 −2
2
,
a
∈ R,
1. determinare determinare il rango rango di A , al variare del parametro a nel campo reale R ; 2. posto posto a = ciascun autospazio; autospazio; a = 0 , determinare gli autovalori di A e una base per ciascun 3. posto posto a = 0 , verificare se A e` diagonalizzabile e, in caso affermativo, scrivere la matrice di cambiamento di base dalla base canonica di R 3 ad una base di R 3 formata da autovettori.
B
4. Determinare Determinare,, al variare variare di a
Soluzione
1. Si ha det(A det(A) =
B
∈ R, i casi in cui la matrice A e` diagonalizzabile. 2
−6a
+ 45 , pertanto rank(A rank(A) = 3 se e solo se:
±
a=
√ 30 2
.
det(A) = 0 si ha: Sostituendo nella matrice A i valori per cui det(A
A =
4
17 2
2
5
1
1
− − 1 2
2
e con un semplice passaggio di riduzione per righe si ottiene che rank(A rank(A) = 2 .
2. Dal punto precedente segue che per a = 0 il rango della matrice A e` 3 , pertanto A e` una matrice invertibile che quindi non ammette l’autovalore λ = 0. Infatti, det(A λI ) = 0 , si ottiene che gli autovalori risolvendo l’equazione caratteristica det(A di A sono λ1 = 5 con molteplicit a` pari a 1 e λ2 = 3 con molteplicit` molteplicita` 2 . Gli
−
autospazi corrispondenti sono dati da:
L
((1, 2, 1)), 1)), V λ = ((1, 1
L
−
((1, 0, 1), 1), ( 1, 1, 0)). 0)). V λ = ((1, 2
322
Diagonalizzazione
3. Dal punto precedente si ha che dim(V dim(V λ ) = 2 , pertanto A e` diagonalizzabi diagonalizzabile. le. La 2
matrice richiesta ` richiesta `e la matrice avente come colonne le componenti, rispetto alla base , dei vettori di una base di R 3 formata da autovettori di A ossia ad esempio:
B
P =
1 2 1
1 0 1
−1
1 0
.
4. Le radici del polinomio caratteristico della matrice A del testo dell’esercizio sono: λ1 = 3,
λ2 = 4 +
√
1 + 2a 2 a2 ,
λ3 = 4
− √ 1 + 2a 2a . 2
Innanzi tutto si osserva che per ogni valore di a la quantit` quantita` 1 + 2a2 e` sempre strettamente positiva, pertanto, per ogni valore di a, le radici λ 1 , λ2 , λ3 sono autovalori di variare di a R . Come gi` gia` osservato, A. Si tratta di studiare la loro molteplicit a` al variare non si hanno valori di a per cui λ 2 = λ 3 . Da λ 1 = λ 2 si ottiene 1 + 2a 2 a2 = 1 , caso che non si puo` verificare. Da λ1 = λ 3 segue a = 0 , che e` il caso studiato nel punto 3 . Pertanto la matrice A e` diagonalizzabile per ogni valore di a , infatti (ad eccezione di a = a = 0 ) tutti gli autovalori sono distinti (cfr. Cor. 7.1).
∈
√
Esercizio 7.5 Sia f l’endomorfismo di R 4 definito, rispetto alla base canonica dalla matrice:
A =
2 0 4 0
0 2 0 4
−1 0 0 −1 −2 0 0 −2
−
B di R , 4
.
1. Determ Determina inare re la dimens dimension ionee e una base sia di ker f sia di im f e verificare che
ker f = im f. 2. Determinare autovalori autovalori e autovettori autovettori di f . 3. Stabilire Stabilire se f e` diagonalizzabile. 4. Determinare Determinare una una matrice matrice simile a A.
Soluzione 1. E` evidente che la matrice A ha rango 2 , infatti la terza e la quarta riga sono proporzionali, rispettivamente, alla prima e alla seconda riga e queste ultime sono linearmente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo il sistema lineare omogeneo:
2x1 2x2
− x = 0 − x = 0, 3 4
Capitolo 7
le cui soluzioni sono:
= t 1 x1 = t = t 2 x2 = t x3 = 2t1 x4 = 2t2 ,
quindi dim(ker f ) f ) = 2 e ker f =
323
∈ R,
t1 , t2
L((1, ((1, 0, 2, 0), 0), (0, (0, 1, 0, 2)) . Il sottospazio immagi-
ne im f ha dimensione 2 ed e` generato da 2 colonne linearmente indipendenti della matrice A . Considerando la prima e la seconda colonna di A segue che
L
im f = ((2, ((2, 0, 4, 0), 0), (0, (0, 2, 0, 4)), 4)), da cui ` cui `e chiaro che im f coincide con ker f. 2. Prima di iniziare il calcolo degli autovalori autovalori si puo` gi` gia` affermare affermare che si trover trover`a` l’autovalore λ = λ = 0 di molteplicit a` almeno pari a 2 , infatti l’autospazio ad esso relativo e` ker f, gi` g i`a calcolato nel punto 1. e` : 1 . Il polinomio caratteristico di A e: P ( P (λ) = λ4 . Pertanto l’unico autovalore e` λ = 0 di molteplicit a` 4 . Di consegu conseguenz enzaa l’unico l’unico autospazio ` autospazio `e ker f. Poiche´ la dimensione di ker f e` diversa diversa dalla molteplicit molteplicit`a` dell’autovalore λ = 0, 3. Poich´ l’endomorfismo f non e` diagonalizzabile, ossia non ` non `e possibile trovare alcuna matrice diagonale simile ad A . D’altr D’altraa parte, parte, solo solo la matrice matrice nulla ammette ammette come unico autovalore il numero 0 ed ` ed `e diagonalizzabile.
4. Una qualsiasi matrice A simile ad A e` del tipo A = P −1 AP con P matrice invertibile di ordine 4 . Per esempio, ponendo: ponendo:
P =
si ha che:
A = P −1 AP =
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
2 4 0 0
−1 −2
0 0
0 0 2 4
− − 0 0 1 2
.
Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma, per esempio, si puo` ottenere una base di R4 , comple completan tando do la base di ker f ottenuta nel punto 1. 1 . . Ad esempio:
C
C = ((1, ((1, 0, 2, 0), 0), (0, (0, 1, 0, 2), 2), (0, (0, 0, 1, 0), 0), (0, (0, 0, 0, 1)). 1)).
324
Diagonalizzazione
La matrice associata ad f rispetto alla base
M C ,C (f ) f ) = (P )−1 AP =
dove
P =
1 0 2 0
C e:e` :
0 1 0 2
0 0 0 0 0 0 1 0
0 0 0 0
−1
0 0 0
0 0 0 1
− 0 1 0 0
,
e` la matr matric icee del del camb cambia iame ment nto o di base base dall dallaa base base cano canoni nica ca di R4 alla alla base . Si ososC ,C serv servii anch anchee che che la matr matric icee M (f ) diagon onal alee ma e` diag diagon onal alee “a met` met`a”. a”. Infatti f ) non e` diag la restrizione di f a ker f (cfr. (cfr. Def. 6.10) coincide ovviamente con l’endomorfismo nullo di ker f .
Esercizio 7.6 Si consideri l’endomorfismo f : R4
−→ R
4
B
C
tale che:
a. l’autospazio relativo relativo all’autovalore 1 sia: 4
H = {(x , x , x , x ) ∈ R | x = x = x − x − 2x = 0}; 1
2
3
4
1
2
3
4
−1 sia: K = {(x , x , x , x ) ∈ R | x − 2x = x = x + x = x = x = 0};
b. l’autospazio relativo relativo all’autovalore all’autovalore 1
2
3
4
4
1
2
2
3
4
c. il nucleo nucleo sia sia dato da: da:
{
ker f = (x1 , x2 , x3 , x4 )
4
∈ R | x = x = x = x = x = 0}. 2
3
4
1. Determinare Determinare la la matrice matrice A associata ad f , rispetto alla base canonica di R 4 . 2. f e` diagonalizzabile? In caso affermativo, scrivere una matrice diagonale D simile = P −1 AP . ad A ed una matrice P tale che D = P ` pi`u facile procedere con la risoluzione del secondo punto e poi dedurre E Soluzione da questa la soluzione soluzione del primo punto.
Capitolo 7
325
H e` 2 e una sua base e` data dai vettori:
2. La dimensio dimensione ne di
a1 = (0, (0, 1, 1, 0), 0),
a2 = (0, (0, 2, 0, 1). 1).
K
− −
La dimensione di e` 1 e una sua base e` data dal vettore a3 = ( 2, 1, 1, 0) . La (1, 0, 0, 0) . Gli dimensione di ker f e` 1 e una sua base e` data dal vettore a4 = (1, autospazi sono in somma diretta (cfr. Teor. 7.3), pertanto (a1 , a2 , a3 , a4 ) formano una base di autovettori di R4 , quindi f e` diagon diagonali alizzab zzabile ile.. Di consegue conseguenza nza la matrice D richiesta e: e` :
D =
1 0 0 0
0 1 1 0
0 1 0 0
−
0 0 1 0
0 0 0 0
e una matrice P tale che D = si ottiene ponendo ordinatamente in colonna D = P P −1 AP si le componenti della base di autovettori ricavata, ossia:
P =
0 2 0 1
−2 −1
1 0 0 0
0 0 0 0
−1
1 1 0 0
1 0
.
= P −1AP segue: 1. Da D = P
= P DP −1 = A = P
7.6 7.6
0 1 0
− 2 2 2 1
.
Per sape saperrne di pi` piu`
Esercizio 7.7 Si dimostri il Lemma 7.1, di seguito riportato.
−→
Siano λ1 , λ2 , . . . , λk autovalori distinti di un endomorfismo f : V V di uno spazio vettoriale V e siano V λ , V λ , . . . , Vλ k gli autospazi ad essi corrispondenti. Scelti in modo arbitrario gli autovettori x autovettori x 1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo (ossia xi V λi , i = 1, 2, . . . , k ), allora l’insieme = x1 , x2 , . . . , xk e` libero. 1
∈
2
I {
}
Si procede per induzione sul numero k di autospazi. Il caso k = 1 e` ovvio, Soluzione in quanto, per definizione, ogni autovettore e` diverso dal vettore nullo. Si supponga, per ipotesi induttiva, che i vettori x1 , x2 , . . . , xk−1 siano linearmente indipendenti, dove ogni xi e` un autovettore di V λi , i = 1, 2, . . . , k 1 . Si tratta di dimostrare
−
326
Diagonalizzazione
{
}
che l’insieme x1 , x2 , . . . , xk−1 , xk e` libero, con xk autovettore di V λk . Per assurdo si supponga che ci`o non avvenga, vale a dire che: xk = µ 1 x1 + µ2 x2 + . . . + µk−1 xk−1 ,
(7.7)
con µi R, i = 1, 2, . . . , k 1. Applicando l’endomorfismo f ad ambo i membri di (7.7), dalla linearit`a di f e dal fatto che ogni vettore xi e` un autovettore si perviene all’uguaglianza:
∈
−
λk xk = µ 1 λ1 x1 + µ2 λ2 x2 + . . . + µk−1 λk−1 xk−1 .
(7.8)
D’altra parte, moltiplicando invece ambo i membri di (7.7) per λ k si ottiene:
λk xk = µ 1 λk x1 + µ2 λk x2 + . . . + µk−1 λk xk−1 .
(7.9)
Uguagliando (7.8) e (7.9) segue:
µ1 (λ1
− λ )x + µ (λ − λ )x + . . . + µ k
1
2
2
k
k−1 (λk−1
2
− λ )x k
k−1 = o .
I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi induttiva, quindi tutti i coefficienti sono nulli, ma, essendo gli autovalori distinti si ottiene µ1 = µ 2 = . . . = µ k−1 = 0 , risultato che sostituito nella formula 7.7 comporta xk = o, che e` assurdo, trattandosi di un autovettore.
7.6.1
Diagonalizzazione simultanea
Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale V di dimensione n e una base di V. Indicate con A = M B,B (f ) e B = M B,B (g) le matrici associate a f e g rispetto alla base , per quanto dimostrato nei paragrafi precedenti, esistono due matrici quadrate invertibili P e Q di ordine n tali che:
B
B
P −1 AP = D,
Q−1 AQ = D ,
dove D e D sono matrici diagonali. Nasce quindi in modo naturale il problema di trovare le condizioni che devono essere verificate affinch´e esista una matrice invertibile P che diagonalizzi sia A sia B, ovvero tale che sia P −1 AP sia P −1 BP siano matrici diagonali, ovviamente diverse. Questo problema ha conseguenze importanti per esempio in meccanica quantistica ed in teoria delle rappresentazioni (cfr. per esempio [13]). Prima di affrontare il problema posto si pu`o introdurre la seguente definizione.
Definizione 7.5 Due endomorfismi diagonalizzabili f e g di uno spazio vettoriale reale V si dicono simultaneamente diagonalizzabili se esiste una base di V i cui vettori sono sia autovettori di f sia autovettori di g .
Capitolo 7
327
La definizione appena enunciata riscritta facendo uso delle matrici associate agli endomorfismi f e g rispetto ad una base di V si traduce nella seguente definizione.
Definizione 7.6 Due matrici A e B si dicono simultaneamente diagonalizzabili se esiste una matrice P, invertibile, tale che:
A = P DP −1 ,
B = P D P −1 ,
(7.10)
con D e D matrici diagonali.
Il teorema seguente ha il duplice scopo di stabilire la condizione necessaria e sufficiente affinch´e due endomorfismi diagonalizzabili siano simultaneamente diagonalizzabili e di indicare un metodo pratico per determinare una matrice P che diagonalizzi simultaneamente le matrici associate ai due endomorfismi.
Teorema 7.12 Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale reale V di dimensione n. Essi sono simultaneamente diagonalizzabili se e solo se:
◦
f g = g
◦ f,
ossia se e solo se le matrici associate A e B a f rispetto alla stessa base di V commutano:
AB = BA. Dimostrazione Se f e g sono simultaneamente diagonalizzabili, allora valgono le relazioni (7.10) da cui:
AB = P D(P −1 P )D P −1 = P DD P −1 = (P D P −1 )(P DP −1 ) = BA. Viceversa, si supponga che gli endomorfismi f e g siano diagonalizzabili e che la loro composizione commuti. Indicati con V λ , V λ , . . . , Vλ k tutti gli autospazi relativi a f , vale la decomposizione spettrale: 1
V = V λ
2
⊕ V ⊕ . . . ⊕ V
1
λ2
λk .
(7.11)
Si osserva, per iniziare, che l’endomorfismo g trasforma ogni vettore dell’autospazio V λi relativo a f in un vettore dello stesso autospazio, ovvero che g(V λi ) V λi . In altri termini gli autospazi V λi di f non sono solo invarianti per f ma anche per g. Infatti, per ogni vettore x V λi , risulta che:
⊆
∈
◦
◦
f (g(x)) = (f g)(x) = (g f )(x) = g(f (x)) = g(λi x) = λi g(x),
328
Diagonalizzazione
∈
quindi g(x) V λi , i = 1, 2, . . . , k . Sia ora y un autovettore di g , ossia g(y) = µ y, con µ R . Come immediata conseguenza della decomposizione spettrale (7.11) di V negli autospazi di f , il vettore y si pu`o scrivere, in modo unico, come:
∈
∈ V , i = 1, 2, . . . , k .
y = w 1 + w2 + . . . + wk ,
wi
λi
Poich´e y e` un autovettore dell’endomorfismo g, almeno uno tra i vettori w i e` diverso dal vettore nullo. Per quanto osservato e per la linearit`a di g , si ha:
g(y) = g(w1 ) + g(w2 ) + . . . + g(wk ) = µ y = µ w1 + µw2 + . . . + µwk ,
∈
dove g(wi ) V λi , i = 1, 2, . . . , k . Inoltre, dall’unicit`a della decomposizione di un vettore nella somma dei vettori degli autospazi, si ottiene:
g(w1 ) = µ w1 ,
g(w2 ) = µ w2 ,
g(wk ) = µ wk .
...,
Questo prova che per ogni autovettore y di g e` possibile determinare almeno un vettore wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g e` diagonalizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g . Poich´e i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo spazio vettoriale da essi generato coincide con (y1 , y2 , . . . , yn ) = V e perci`o da essi si pu`o estrarre una base comune di autovettori di f e di g .
L
Osservazione 7.12 Per determinare una base comune di autovettori per due endomorfismi diagonalizzabili f e g che commutano e` sufficiente estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali V λi V λj ottenuti come intersezione di ogni autospazio V λi di f con ogni autospazio V λj di g . Si noti che per alcuni indici i e j tale intersezione pu`o essere ridotta all’insieme o . Inoltre, appare evidente dalla dimostrazione del Teorema 7.12 che la base comune di autovettori non e` unica.
∩
{ }
Esercizio 7.8 Dati due endomorfismi f e g su R 3 le cui matrici, rispetto alla base canonica di R 3 , sono rispettivamente:
A =
−
2 0 1
0 2 0
0 0 3
− − ,
B =
1 2 2
0 3 0
0 0 3
,
si verifichi che f e g sono simultaneamente diagonalizzabili e si trovi una base comune di autovettori.
Capitolo 7
329
Innanzitutto si prova che f e g commutano, infatti:
Soluzione
− −
AB =
2 4 7
0 6 0
0 0 9
= BA.
L’endomorfismo f ha autovalori con relative molteplicit a` :
λ1 = 2, mλ = 2;
λ2 = 3, mλ = 1
1
2
ed autospazi:
L
V λ = ((1, 0, 1), (0, 1, 0)), 1
L
V λ = ((0, 0, 1)); 2
mentre l’endomorfismo g ha autovalori con relative molteplicit`a:
λ1 = 1, mλ = 1;
λ2 = 3, mλ = 2
1
2
ed autospazi:
L
V λ = ((1, 1, 1)), 1
L
V λ = ((0, 1, 0), (0, 0, 1)). 2
Quindi i due endomorfismi sono diagonalizzabili, poich e´ commutano sono simultaneamente diagonalizzabili. Si vede subito che gli autovettori di g : y1 = (1, 1, 1),
y2 = (0, 1, 0),
y3 = (0, 0, 1)
sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f e a g. Si presti attenzione al fatto che, rispetto alla base comune ( y1 , y2 , y3 ), la matrice:
D = e` associata a f , mentre la matrice:
D = e` associata a g .
2 0 0 0 2 0 0 0 3
1 0 0 0 3 0 0 0 3
Esercizio 7.9 Date le matrici:
A =
−
16 0 48 0
−16
0 48 0
4 0 12 0
−
16 0 48 0
−
,
B =
−
9 3 12 9
12 3 12 12
− − −
−3 −12 1 4 3
3 12 12
,
330
Diagonalizzazione
provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che le diagonalizzi entrambe. Gli autovalori con relative molteplicit`a e gli autospazi di A sono:
Soluzione
λ1 = 0, mλ = 3;
λ2 = 4, mλ = 1;
1
2
L
V λ = (v1 , v2 , v3 ), 1
−
L
V λ = (v4 ), 2
−
−
dove v1 = ( 1, 0, 0, 1), v2 = ( 1, 0, 4, 0), v3 = (1, 1, 0, 0), v4 = ( 1, 0, 3, 0), mentre gli autovalori con relative molteplicit`a e gli autospazi di B sono:
λ1 = 0, mλ = 2;
λ2 = 1, mλ = 1;
λ3 = 3, mλ = 1;
V λ = (v1 , v2 ),
V λ = (v3 ),
V λ = (v4 ),
1
1
2
L
2
L
3
3
L
con v1 = (0, 1, 0, 1), v2 = ( 1, 0, 3, 0), v3 = (0, 1, 4, 0), v4 = ( 1, 0, 0, 1). Le due matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano, infatti:
−
−
AB = BA = O, con O
∈ R
4,4
matrice nulla.
Il Teorema 7.12 assicura che, ad esempio, a partire dalla base = (v1 , v2 , v3 , v4 ) di R 4 e` possibile determinare una base comune di autovettori che si ottiene seguendo il metodo esposto nella dimostrazione. Si decompongono i vettori della base = (v1 , v2 , v3 , v4 ) 4 di R attraverso i vettori della base , con l’avvertenza di raggruppare e sommare gli autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:
B
B
B
v1 = v 4 v2 = v1 + v3 + v4 v3 = v 1 v4 v4 = v 2 ,
−
−
dalle quali risulta che (casualmente) i vettori della base sono autovettori comuni alle due matrici. Scambiando il ruolo delle basi e , si avrebbe:
B B
B
v1 = v 1 + v3 v2 = v 4 v3 = v 2 + v3 v4 = v 1 ,
dove si osserva che una base comune e` formata dai vettori v1 , v2 , v3 , v4 , ossia, nuovamente, la base .
B
Capitolo 7
331
Come gi`a precisato nell’Osservazione 7.12 un altro modo per determinare una base comune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste nell’estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali: V λi V λj , i = 1, 2, j = 1, 2, 3 , dove V λi e V λj rappresentano gli autospazi delle matrici A e B rispettivamente. Nel caso in esame, ommettendo i calcoli per brevit`a, si ha:
∩
L((0, 1, 0, 1)), L((0, 1, 4, 0)), L((−1, 0, 0, 1)), L((−1, 0, 3, 0)), {o}, {o}, e si ottengono nuovamente i vettori della base B . V λ V λ V λ V λ V λ V λ
∩ V ∩ V ∩ V ∩ V ∩ V ∩ V
1
λ1
1
λ2
1
λ3
2
λ1
2
λ2
2
λ3
= = = = = =
7.6.2
Il Teorema di Cayley–Hamilton
Il teorema che segue, di svariate applicazioni, e` sorprendente, perch´e afferma, in pratica, che sostituendo una matrice quadrata alla variabile del suo polinomio caratteristico si ottiene la matrice nulla.
Teorema 7.13 – Teorema di Cayley–Hamilton – Ogni matrice quadrata A uno zero del suo polinomio caratteristico, ovvero se:
∈ R
n,n
e`
P (λ) = ( 1)n λn + an−1 λn−1 + . . . + a1 λ + a0
−
e` il polinomio caratteristico di A, allora:
P (A) = ( 1)n An + an−1 An−1 + . . . + a1 A + a0 I = O,
−
con O
∈ R
n,n
matrice nulla.
Dimostrazione
Sia P (λ) il polinomio caratteristico della matrice A
P (λ) = det(A
n n
− λI ) = (−1) λ
∈R
n,n
+ an−1 λn−1 + . . . + a1 λ + a0 ,
: (7.12)
con an−1 = ( 1)n−1 tr(A) e a0 = det(A). Sia B(λ) l’aggiunta della matrice A λI , (cfr. Def. 2.14), gli elementi di B(λ) , essendo i cofattori della matrice A λI, sono polinomi in λ di grado non superiore a n 1 . Quindi si puo` scrivere:
−
−
−
B(λ) = Bn−1 λn−1 + . . . + B1 λ + B0 ,
−
(7.13)
332
Diagonalizzazione
dove gli elementi delle matrici Bi Rn,n non dipendono da λ. Ricordando il calcolo esplicito della matrice inversa (cfr. Teor. 2.19), segue che:
∈
(A
− λI )B(λ) = det(A − λI )I.
Sostituendo le espressioni di (7.12) e (7.13) ed uguagliando i coefficienti dei termini di ugual grado si ha:
−B
( 1)n I
−
n−1 =
−B −B
n−2 = a n−1 I
ABn−1
n−3 = a n−2 I
ABn−2 .. .
AB1
− B = a I 0
1
AB0 = a0 I.
Moltiplicando le precedenti equazioni, rispettivamente, per An , An−1 , . . . , A , I e sommando segue la tesi, ossia:
O = ( 1)n An + an−1 An−1 + . . . + a1 A + a0 I = P (A).
−
(7.14)
Esempio 7.8 Per capire meglio la dimostrazione precedente, si riporta l’espressione di B(λ) (cfr. (7.13)) nel caso della matrice:
A = Il polinomio caratteristico di A e` :
P (λ) = Poich´e:
− 3
−λ
2 1 1
+ 6λ2
− − 2
A
− λI =
l’aggiunta B (λ) della matrice (A
B(λ) =
3
0 3 1
.
− 11λ + 6. 0
λ
1 1
0 0 1
3
−λ 1
0 0 1
,
−λ
− λI ) e` : 2
− 4λ + λ −1 + λ 4−λ
2
0 3λ + λ2 2+λ 6
− −
−
0 0 5λ + λ2
Capitolo 7
333
da cui:
B(λ) = B2 λ2 + B1 λ + B0
=
1 0 0
0 1 0
0 0 1
− −
4 1 1
λ2 +
0 3 1
−
− − 0 0 5
λ+
3 1 4
0 2 2
−
0 0 6
.
Esempio 7.9 Sia A una matrice quadrata di ordine 2 , dal Teorema di Cayley–Hamilton 7.13 e da (7.4) segue:
A2 = tr(A)A
− det(A)I.
Si possono cos`ı ottenere le potenze di A in funzione delle potenze precedenti, per esempio:
A3 = tr(A)A2
A4 = tr(A)A3
− det(A)A,
2
− det(A)A ,
e cos`ı via.
Esempio 7.10 Se A e` invertibile, poich´e da (7.14), si ha:
−
A ( 1)n An−1 + an−1 An−2 + . . . + a1 I = moltiplicando entrambi i membri per A −1 , si ottiene:
A−1 =
−(det(A))
−1
− det(A)I,
(a0 An−1 + a1 An−2 + . . . + a1 I ).
Se A e` una matrice quadrata di ordine 2 , la formula precedente si riduce a:
A−1 =
−1
−(det(A))
(A + tr(A)I ).
Esercizio 7.10 Determinare l’inversa della matrice:
A =
usando il Teorema di Cayley–Hamilton.
1 0 1
−
0 2 1
1 1 0
,
334
Soluzione
Diagonalizzazione
Il polinomio caratteristico di A e` :
P (λ) =
3
+ 3λ2
−λ
− 2λ − 1.
Usando il Teorema 7.13 si ricava: 3
−A
+ 3A2
− 2A − I = O,
con O matrice nulla di R 3,3 , quindi:
A−1 =
2
−A
+ 3A
− 2I,
da cui svolgendo i calcoli segue:
A−1 =
7.6.3
− −
1 1 2
1 1 1
−
− 2 1 2
.
Teorema spettrale e endomorfismi autoaggiunti Caso complesso
Dato un endomorfismo f di uno spazio vettoriale complesso V, si introducono in modo analogo alla Definizione 7.1 le nozioni di autovalori e di autovettori di f. Infatti, un numero complesso λ C e` un autovalore di f se esiste un vettore non nullo x di V tale che f (x) = λx. Il vettore x e` detto autovettore di f relativo all’autovalore λ . Come nel caso reale si definisce l’autospazio V λ di f relativo all’autovalore f dato dall’insieme dei vettori x tali che f (x) = λx e continuano a valere tutte le propriet a` dimostrate nei Paragrafi 7.1 e 7.2. Pertanto per il calcolo degli autovalori si procede come nel caso reale, precisamente:
∈
1. si determina la matrice A = M B,B (f ) associata a f rispetto a una qualsiasi base di V ; e` chiaro che A e` una matrice ad elementi complessi, quindi appartenente a
B
Cn,n; 2. si calcola il polinomio caratteristico P (λ) = det(A polinomio in λ a coefficienti in C ;
− λI ) , che risulta essere un
3. si trovano le radici del polinomio caratteristico. Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel caso complesso, per il Teorema Fondamentale dell’Algebra, ogni radice del polinomio caratteristico e` un autovalore. Per il calcolo degli autospazi si procede nello stesso modo del caso reale (cfr. Par. 7.2):
Capitolo 7
1. per ogni autovalore α si calcola la matrice A 2. si risolve il sistema lineare omogeneo (A
335
− αI ;
− αI )X = O.
Come nel caso reale si ha che la dimensione di un autospazio V λ , come spazio vettoriale complesso, `e data da dim(V λ ) = dim(V ) rank(A λI ) .
−
−
Si possono quindi introdurre le nozioni di endomorfismo diagonalizzabile e di matrice diagonalizzabile (cfr. Def. 7.3 e 7.4) e continua a valere il Teorema 7.6. Per quanto riguarda il Teorema 7.7, ossia per i criteri di diagonalizzazione, si ha solo una variazione nel punto 4. . Pi`u precisamente si ha il seguente teorema.
−→
Teorema 7.14 Sia f : V V un endomorfismo di uno spazio vettoriale complesso V . Le seguenti affermazioni sono equivalenti:
1. f e` diagonalizzabile.
⊕
⊕ ⊕
2. V = V λ V λ . . . V λk , dove λ 1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e V λ , V λ , . . . , Vλ k i relativi autospazi. 1
1
2
2
3. dim(V ) = dim(V λ ) + dim(V λ ) + . . . + dim(V λk ), dove λ 1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e V λ , V λ , . . . , Vλ k i relativi autospazi. 1
2
1
2
4. Per ogni autovalore λi di f la dimensione dell’autospazio V λi coincide con la molteplicit a` m λi di λ i , ossia dim(V λi ) = mλi per ogni i = 1, 2, . . . , k . Di conseguenza, anche per un endomorfismo di uno spazio vettoriale complesso vale il Corollario 7.1. Nel Paragrafo 7.4 e` stato dimostrato che ogni matrice simmetrica e` diagonalizzabile mediante una matrice ortogonale e che se f e` un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, ) , esiste una base ortonormale di V formata da autovettori. Gli autovalori e gli autovettori di un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, ) (e di conseguenza di una matrice hermitiana) godono delle stesse propriet a` viste nel caso reale. Queste sono riassunte nel teorema che segue.
·
·
Teorema 7.15 1. Gli autovalori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano (V, ) sono reali.
·
2. Autovettori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano (V, ) relativi ad autovalori diversi sono ortogonali.
·
336
Diagonalizzazione
·
3. Sia f un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, ) di dimensione n , allora f e` diagonalizzabile. Inoltre, esiste una base ortonormale di V formata da autovettori di f . 4. Ogni matrice hermitiana `e diagonalizzabile mediante una matrice unitaria. 5. Ogni endomorfismo f di uno spazio vettoriale complesso e` autoaggiunto rispetto ad un opportuno prodotto hermitiano.
Per dimostrare 1. si puo` osservare che se λ e` un autovalore dell’endoDimostrazione morfismo autoaggiunto f e x e` un autovettore relativo a λ , si ha:
·
·
f (x) x = λ x x.
(7.15)
Poich´e f e` autoaggiunto risulta anche:
·
·
·
·
f (x) x = x f (x) = x (λx) = λ x x,
(7.16)
·
dove λ indica il complesso coniugato di λ. Essendo x e` un autovettore, segue x x = 0 e pertanto, confrontando (7.15) con (7.16) si ottiene λ = λ . Le dimostrazioni delle propriet a` 2. , 3. , 4. e 5. sono analoghe al caso reale. 1. Come conseguenza del Teorema 7.15 si ottiene la dimostrazioOsservazione 7.13 ne del Lemma 7.2, in quanto dalla propriet`a 1. si ha che ogni radice del polinomio caratteristico di una matrice hermitiana (e quindi in particolare di una matrice simmetrica) `e reale. 2. Ogni matrice hermitiana e` pertanto simile ad una matrice diagonale reale tramite una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una matrice unitaria P ed una diagonale reale D per cui
D = P −1 AP = t PAP. A differenza di cio` che succede nel caso reale per ci o` che riguarda le matrici simmetriche (cfr. Teor. 7.8), si prover`a che se una matrice A Cn,n e` diagonalizzabile in campo complesso mediante una matrice unitaria essa non e` necessariamente hermitiana, ma verifica solo la relazione t A A = A t A (cfr. Teor. 7.16). Ad esempio si avr`a che le matrici ortogonali reali A (quindi tali che tA = A −1 ) sono diagonalizzabili in campo complesso mediante una matrice unitaria (cfr. Es. 7.11).
∈
In modo naturale e` necessario quindi introdurre la seguente definizione.
Capitolo 7
Definizione 7.7 Una matrice quadrata complessa A se: t
337
∈ C
n,n
di ordine n si dice normale
A A = A t A.
Ricordando la notazione A∗ = t A (cfr. Oss. 4.34) si ha che una matrice quadrata complessa A Cn,n di ordine n si dice normale se:
∈
A∗ A = A A∗ . Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali. Soluzione
Una matrice unitaria A e` normale, in quanto da t A = A −1 , segue:
A t A = t A A = I . Per le matrici ortogonali (reali) si ha che t A = tA = A −1 e pertanto:
A t A = t A A = I . Per le matrici hermitiane si ha t A = A e quindi:
A t A = t A A = A2 . Infine, una matrice simmetrica (reale) A e` normale in quanto t A = tA = A e pertanto
A t A = t A A = A2 . Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo complesso non vale solo per le matrici hermitiane ma in generale per le matrici normali. Pi`u precisamente si ha il seguente teorema.
Teorema 7.16 – Teorema spettrale in campo complesso – 1. Sia A una matrice normale, allora esistono una matrice unitaria P ed una matrice diagonale D tali che
P −1 AP = D. 2. Se A e` una matrice diagonalizzabile mediante una matrice unitaria, allora A e` normale.
338
Diagonalizzazione
Dimostrazione La dimostrazione di 1. e` pi`u complicata del caso reale, per la sua lettura si rimanda ad esempio a [14]. La dimostrazione di 2. e` simile a quella nel caso reale per le matrici simmetriche. Infatti dal fatto che esista una matrice P di ordine n unitaria tale che P −1 AP = D , si deduce t
−1
A = t (P
D P ) = t P DP,
in quanto t D = D e t P = P −1 . Quindi: t
AA = (t P DP )(P −1 DP ) = t P DDP = P −1 DDP,
A t A = (P −1 DP )(t P DP ) = P −1 DDP, ma DD = DD . 1. Si osservi che gli autovalori di una matrice normale sono in Osservazione 7.14 generale numeri complessi e quindi la matrice D non `e necessariamente reale. 2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale. Infatti, una matrice normale reale pu o` avere autovalori immaginari, e quindi non essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo complesso). Ne `e un esempio la matrice di una rotazione del piano vettoriale V 2 di angolo diverso da 0 e θ (cfr. Es. 7.4).
7.6.4
Autovalori delle isometrie, similitudini, trasformazioni unitarie
·
Gli autovalori delle isometrie e delle similitudini di uno spazio vettoriale euclideo (V, ) , considerate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si pu`o provare il seguente teorema.
·
Teorema 7.17 Sia (V, ) uno spazio vettoriale euclideo,
·
−1. 2. Gli autovalori di una similitudine di rapporto µ di (V, · ) sono µ e −µ. Dimostrazione 1. Sia λ un autovalore di un’isometria f : V → V, quindi f (x) = λx. Pertanto: f (x) = λx = λ x = x , 1. gli autovalori di un’isometria f di (V, ) sono 1 e
2
2
2
2
2
da cui la tesi. La dimostrazione di 2. e` analoga ed e` lasciata al Lettore per esercizio.
Capitolo 7
339
Osservazione 7.15 Si osservi che se un’automorfismo di uno spazio vettoriale euclideo (V, ) ha autovalori pari a 1 e 1 non `e detto che sia un’isometria di (V, ) . Per esempio, si consideri l’automorfismo di R 2 definito dalla matrice:
·
−
·
A =
1 1 0 1
rispetto alla base canonica d R2 . Se si considera su R2 la struttura di spazio euclideo determinata dal prodotto scalare standard, si ha per il Teorema 6.32 che f non e` un isometria di R 2 (perch´e?).
B
Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano (cfr. Par. 5.5.2 e 6.8.7) valgono le seguenti propriet a` la cui dimostrazione `e rimandata ad esempio a [14].
Teorema 7.18 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano (V, ) .
·
H e` un sottospazio vettoriale invariante per f , anche il suo complemento ortogonale H e` invariante per f .
1. Se
⊥
2. Se V ha dimensione finita, allora V ammette una base unitaria formata da autovettori di f . Si osservi che il fatto che esista una base unitaria di V formata da autovettori di f segue anche dalla propriet`a gi a` enunciata che le matrici unitarie sono diagonalizzabili mediante matrici unitarie (cfr. Teor. 7.16.)
340
Diagonalizzazione
Capitolo 8 Forme Bilineari e Forme Quadratiche In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche nello spazio che saranno presentati nei Capitoli 10 e 12.
8.1
Forme bilineari simmetriche
Si inizia il paragrafo con la definizione di forma bilineare su uno spazio vettoriale reale.
Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V e` una funzione:
× V −→ R
ϕ : V per cui valgono le seguenti propriet a` :
1. ϕ(x + x , y) = ϕ(x, y) + ϕ(x , y); 2. ϕ(x, y + y ) = ϕ(x, y) + ϕ(x, y ); 3. ϕ(λx, y) = ϕ(x, λy) = λϕ(x, y),
∈ V e per ogni λ ∈ R . Osservazione 8.1 Fissato un vettore x ∈ V, la funzione: ϕ : V −→ R, y −→ ϕ(x, y),
per ogni x, x , y, y
x
con ϕ forma bilineare su V, e` una forma lineare su V . La stessa propriet`a vale se si fissa il vettore y e si considera la funzione:
ϕy : V
−→ R,
x
341
−→ ϕ(x, y).
Forme Bilineari e Forme Quadratiche
342
Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la verifica che si tratti o meno di forme bilineari.
Esempio 8.1 La funzione ϕ : R2
× R −→ R definita da: ϕ(x, y) = x y − 2x y , 2
1 1
2 2
con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R 2 , e` una forma bilineare su R 2 . Infatti:
ϕ((x1 , x2 ) + (x1 , x2 ), (y1 , y2 )) = ϕ((x1 + x1 , x2 + x2 ), (y1 , y2 )) = (x1 + x1 )y1 2(x2 + x2 )y2 = ϕ((x1 , x2 ), (y1 , y2 )) + ϕ((x1 , x2 ), (y1 , y2 )),
−
per ogni (x1 , x2 ), (x1 , x2 ), (y1 , y2 ) R2 . Analogamente si pu o` dimostrare che ϕ verifica le propriet`a 2. e 3. della Definizione 8.1. Inoltre, si ha ϕ(x, y) = ϕ(y, x), per ogni x, y R2 .
∈
∈
Esempio 8.2 Si verifichi per esercizio che la funzione ϕ : R2
× R −→ R definita da: 2
ϕ(x, y) = x 1 y1 + 2x2 y2 + 4, con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R 2 , non `e una forma bilineare su R 2 .
Esempio 8.3 Si verifichi per esercizio che la funzione ϕ : R2
× R −→ R definita da: 2
ϕ(x, y) = x 21 y1 + 2x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R 2 , non `e una forma bilineare su R 2 .
Esempio 8.4 La funzione ϕ : R2
× R −→ R definita da: 2
ϕ(x, y) = x 1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , e` una forma bilineare su R2 . Inoltre, si ha ϕ(x, y) ϕ(y, x) = x1 y2 + 2x2 y1 . Pertanto, considerando per esempio x = (1, 1) e y = (1, 2), in contrasto con l’Esempio 8.1, segue che ϕ(x, y) = ϕ(y, x).
−
−
In generale, data una forma bilineare ϕ su uno spazio vettoriale reale V non si ha necessariamente che ϕ(x, y) = ϕ(y, x) , per ogni x, y V. Si pu`o quindi introdurre la seguente definizione.
∈
Capitolo 8
343
Definizione 8.2 Una forma bilineare ϕ su uno spazio vettoriale reale V si dice simmetrica se: ϕ(x, y) = ϕ(y, x),
∈ V.
per ogni x, y
Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V e` un esempio di forma bilineare simmetrica su V (cfr. Def. 5.1). Esempio 8.6 La funzione ϕ : R2 R2 R considerata nell’Esempio 8.1 e` una forma bilineare simmetrica, mentre la funzione ϕ dell’Esempio 8.4 non e` una forma bilineare simmetrica.
× −→
Poich´e ci si propone di studiare opportune generalizzazioni del concetto di prodotto scalare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari simmetriche. Nel Paragrafo 8.8.4 invece si studieranno particolari forme, non simmetriche, che permettono di introdurre, in questo contesto, la nozione gi a` nota di determinante di una matrice quadrata. L’insieme delle forme bilineari simmetriche su V sar`a indicato con s (V, R). Su questo insieme si pu`o definire in modo naturale una struttura di spazio vettoriale su R . Infatti, sull’insieme s (V, R) delle forme bilineari simmetriche si introduce l’operazione di somma di due forme bilineari simmetriche ϕ 1 , ϕ2 , come la funzione:
B
B
× V −→ R,
ϕ1 + ϕ2 : V definita da:
(ϕ1 + ϕ2 )(x, y) = ϕ 1 (x, y) + ϕ2 (x, y),
∈ V,
x, y
(8.1)
∈ R per una forma bilineare simmetrica λϕ : V × V −→ R,
e l’operazione di prodotto di un numero reale λ come la funzione: definita da:
(λϕ)(x, y) = λϕ(x, y),
∈ V, λ ∈ R.
x, y
(8.2)
` immediato verificare che ϕ1 + ϕ2 e λϕ sono forme bilineari simmetriche e che vale il E seguente teorema.
Teorema 8.1 L’insieme s (V, R) delle forme bilineari simmetriche ϕ : V V R su uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R, rispetto alle operazioni di somma e prodotto per uno numero reale, definite rispettivamente in (8.1) e (8.2).
B
× −→
Forme Bilineari e Forme Quadratiche
344
Osservazione 8.2 Si puo` definire, in modo analogo al caso reale, una forma bilineare complessa ϕ su uno spazio vettoriale complesso V come la funzione:
× V −→ C
ϕ : V per cui valgono le seguenti propriet`a:
1. ϕ(x + x , y) = ϕ(x, y) + ϕ(x , y); 2. ϕ(x, y + y ) = ϕ(x, y) + ϕ(x, y ); 3. ϕ(λx, y) = ϕ(x, λy) = λϕ(x, y), per ogni x, x , y, y V e per ogni λ C . Si osservi che un prodotto hermitiano su uno spazio vettoriale complesso V non `e per`o una forma bilineare complessa su V in quanto non e` lineare nel secondo argomento (cfr. (5.12)).
∈
8.1.1
∈
Matrice associata ad una forma bilineare simmetrica
Sia V uno spazio vettoriale reale di dimensione n e sia ϕ una forma bilineare simmetrica su V. Dati una base = (v1 , v2 , . . . , vn ) di V ed una coppia di vettori x, y V, usando la bilinearit`a di ϕ , e` possibile esprimere ϕ(x, y) in termini di ϕ(vi , v j ) , i, j = 1, 2, . . . , n, e delle componenti di x, y rispetto alla base . Infatti, per ogni coppia di vettori x, y V, dati da:
B
∈
B
∈
x = x 1 v1 + x2 v2 + . . . + xn vn ,
y = y 1 v1 + y2 v2 + . . . + yn vn ,
l’espressione di ϕ(x, y) si ottiene applicando le propriet a` di bilinearit`a di ϕ , e precisamente:
ϕ(x, y) = ϕ(x1 v1 + x2 v2 + . . . + xn vn, y1 v1 + y2 v2 + . . . + yn vn) = x1 y1 ϕ(v1 , v1 ) + x1 y2 ϕ(v1 , v2 ) + . . . + x1 ynϕ(v1 , vn ) + x2 y1 ϕ(v2 , v1 ) + x2 y2 ϕ(v2 , v2 ) + . . . + x2 yn ϕ(v2 , vn ) + . . .
(8.3)
+ xny1 ϕ(vn , v1 ) + xny2 ϕ(vn , v2 ) + . . . + xn ynϕ(vn, vn ) n
=
xi y j ϕ(vi , v j ).
i,j =1
Posto a ij = ϕ(vi , v j ), i,j = 1, 2, . . . , n , e tenendo conto che:
ϕ(vi , v j ) = ϕ(v j , vi ),
Capitolo 8
345
per ogni i, j = 1, 2, . . . , n , alla forma bilineare simmetrica ϕ si associa pertanto la matrice simmetrica di ordine n :
A =
a11 a12 . . . a1n a12 a22 . . . a2n .. .
.. .
..
.. .
.
a1n a2n . . . ann
che prende il nome di matrice associata alla forma bilineare simmetrica ϕ rispetto alla base di V e la si indica con:
B
A = M B (ϕ).
La conoscenza della matrice A permette di calcolare ϕ(x, y) , qualunque siano i vettori x e y in V. La relazione (8.3) diventa, quindi: n
ϕ(x, y) =
aij xi y j ,
∈ V,
x, y
i,j =1
(8.4)
con a ij = a ji , per ogni i, j = 1, 2, . . . , n .
B
Si puo` dimostrare che, fissata una base dello spazio vettoriale V, l’applicazione che ad ogni forma bilineare simmetrica ϕ associa la matrice simmetrica A ad essa associata e` un isomorfismo tra s (V, R) e il sottospazio vettoriale di R n,n delle matrici simmetriche (Rn,n). Infatti si e` appena dimostrato che, fissata una base di V , una forma bilineare simmetrica ϕ definita su V individua una matrice simmetrica di Rn,n . Viceversa, assegnando una matrice simmetrica A = (aij ) (Rn,n), da (8.4) viene individuata una forma bilineare simmetrica ϕ su V . Si ha quindi il seguente teorema.
B
S
B
∈ S
Teorema 8.2 Sia V uno spazio vettoriale reale di dimensione n . Fissata una base di V , lo spazio vettoriale s (V, R) delle forme bilineari simmetriche e` isomorfo al sottospazio vettoriale (Rn,n ) delle matrici simmetriche di Rn,n ; esso ha quindi dimensione pari alla dimensione di (Rn,n ) , ossia:
S
B
S
dim( s (V, R)) =
B
n(n + 1) . 2
La dimostrazione del teorema e` lasciata come esercizio al Lettore. L’espressione (8.4) prende il nome di forma o espressione polinomiale della forma bilineare simmetrica ϕ rispetto alla base . Si tratta di un polinomio omogeneo di secondo grado nelle componenti di x e y rispetto alla base , dove per polinomio omogeneo si intende un polinomio con termini tutti dello stesso grado.
B
B
Forme Bilineari e Forme Quadratiche
346
Esempio 8.7 La matrice associata alla forma bilineare dell’Esempio 8.1, rispetto alla base canonica di R 2 , e` :
A =
1 0
−
0 2
che, come previsto, e` simmetrica.
Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla base canonica di Rn, e` la matrice unit`a I. Mentre la matrice associata al prodotto scalare dell’Esempio 5.3, rispetto alla base canonica di R 3 , e` la matrice diagonale:
B
A =
3 0 0 0 4 0 0 0 5
.
Sia nell’Esempio 8.7 sia nell’Esempio 8.8 la matrice associata alla forma bilineare simmetrica e` diagonale, si vedr`a in questo capitolo che se la matrice associata ad una forma bilineare simmetrica e` diagonale sar`a pi`u facile classificarla e riconoscere se si tratti o meno di un prodotto scalare.
B
Teorema 8.3 Siano V uno spazio vettoriale reale di dimensione n, = (v1 , v2 , . . . , vn ) una base di V, ϕ s (V, R) una forma bilineare simmetrica avente come matrice associata rispetto a la matrice simmetrica A = (aij ), i, j = 1, 2, . . . , n , e:
∈B B
X =
x1 x2 .. .
xn
,
Y =
le matrici colonna delle componenti dei vettori x, y ha:
y1 y2 .. .
yn
∈ V rispetto alla base B di V. Si
ϕ(x, y) = tXA Y = t Y A X .
(8.5)
Capitolo 8
Dimostrazione
347
Si tratta di esprimere in notazione matriciale la formula (8.4), infatti:
t
XA Y =
=
x1 x2 . . . xn
x1 x2 . . . xn
n
=
a11 a12 . . . a1n a12 a22 . . . a2n .. .
.. .
..
.
.. .
a1n a2n . . . ann
y1 y2 .. .
yn
a11 y1 + a12 y2 + . . . + a1n yn a12 y1 + a22 y2 + . . . + a2n yn ..........................
a1ny1 + a2n y2 + . . . + annyn
aij xi y j = ϕ(x, y),
i,j =1
con aij = a ji , per ogni i, j = 1, 2, . . . , n . Inoltre, poich´e ϕ(x, y) e` un numero reale, risulta: ϕ(x, y) = t (ϕ(x, y)) = tXA Y = t ( tXA Y ) = t Y tA X, e dalla simmetria di A segue la tesi. L’espressione (8.5) e` detta espressione matriciale della forma bilineare simmetrica ϕ rispetto alla base .
B
Esempio 8.9 La forma bilineare simmetrica ϕ to alla base canonica di R 3 :
A =
1 0 2
∈ B (R , R) con matrice associata rispet3
s
0 1 5
2 5 0
−
ha come espressione polinomiale rispetto alla base canonica di R 3 :
ϕ(x, y) = x 1 y1 + 2(x1 y3 + x3 y1 )
− x y + 5(x y + x y ). 2 2
2 3
3 2
Se x = (1, 2, 3) e y = (0, 3, 4) , allora:
ϕ(x, y) =
1 2 3
A
0 3 4
= 87.
Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V .
Forme Bilineari e Forme Quadratiche
348
B
B B due basi di V, A = M (ϕ) e B B rispettivamente. Se P indica
Teorema 8.4 Siano V uno spazio vettoriale reale, e A = M B (ϕ) le matrici associate a ϕ rispetto a e a la matrice del cambiamento di base da a , risulta:
B B
A = tPAP. Dimostrazione Siano X = P X , Y = P Y le equazioni del cambiamento di base da a (cfr. Par. 4.3.4), si ha:
B B
ϕ(x, y) = tXAY = t (P X )A(P Y ) = tX tPAP Y . D’altra parte si pu`o scrivere ϕ(x, y) = tX A Y e, dal confronto delle due espressioni, si ottiene:
X tPAP Y = tX A Y ,
t
oppure:
X ( tP AP
t
− A )Y
= 0,
per ogni X e per ogni Y , da cui A = tP AP .
Osservazione 8.3 La matrice A e` ancora simmetrica, infatti: t
A = t ( tP AP ) = tP AP = A .
In generale, per`o A non e` simile alla matrice A , lo e` se P e` una matrice ortogonale. Pertanto, in generale i determinanti delle matrici A e A sono diversi, infatti vale la relazione:
det(A ) = det(A)(det(P ))2 . Di conseguenza, non e` detto che A e A abbiano gli stessi autovalori come si vedr`a nell’Esempio 8.10. Si dimostrer`a per`o che A e A hanno lo stesso numero di autovalori positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.20).
Esempio 8.10 Data la forma bilineare simmetrica su R 2 :
− x y − x y + 2x y ,
ϕ(x, y) = 3x1 y1
1 2
2 1
2 2
B = ((1, 2), (−2, 1)) di R , la matrice P del cambiamento di base B di R alla base B e` : 1 −2 P = .
e assegnata la base dalla base canonica
2
2
2
1
Quindi le matrici associate a ϕ rispettivamente rispetto a
B e B
sono:
Capitolo 8
A =
3 1
−
−1
2
1 2
, A =
−
2 1
3 1
−
349
−1
2
− 1 2
2 1
7 1 1 18
=
.
Se si calcolano i polinomi caratteristici di A e A , si ottiene: 2
− λI ) = (3 − λ)(2 − λ) − 1 = λ − 5λ + 5, det(A − λI ) = (7 − λ)(18 − λ) − 1 = λ − 25λ + 125, det(A
2
da cui segue che A e A non sono matrici simili, quindi non hanno gli stessi autovalori ma hanno entrambe due autovalori positivi.
Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V 3 dei vettori ordinari, definito nel Paragrafo 3.7.1:
∈
ϕ(x, y) = x y cos(xy),
x, y
V 3 .
Come gi`a osservato nell’Esempio 8.8, la matrice associata a questo prodotto scalare rispetto ad una base ortonormale = (i, j, k) e` :
B
B
M (ϕ) = I = infatti:
1 0 0 0 1 0 0 0 1
,
ϕ(x, y) = x 1 y1 + x2 y2 + x3 y3 ,
(8.6)
se x = x 1 i + x2 j + x3 k e y = y 1 i + y2 j + y3 k. Sia = (2i, i + 5 j, 2k) una nuova base (non ortonormale) di V 3 . La matrice associata al prodotto scalare standard rispetto alla nuova base e` la matrice simmetrica:
B
B
M B (ϕ) = tP IP = tP P =
−
4 2 0 2 26 0 0 0 4
,
cio`e se x, y hanno componenti rispettivamente (x1 , x2 , x3 ) e (y1 , y2 , y3 ) rispetto alla base si ha:
B
ϕ(x, y) = 4x y + 2(x1 y2 + x2 y1 ) + 11x2 y2 + 4x3 y3 .
(8.7)
Si pone quindi il problema, che sar a` discusso nei paragrafi successivi, di riconoscere che la forma bilineare ϕ, definita rispetto alla base tramite l’espressione polinomiale (8.7), coincida con il prodotto scalare (8.6), scritto rispetto alla base .
B
B
Forme Bilineari e Forme Quadratiche
350
Osservazione 8.4 Segue dal Teorema 5.4 che se ϕ e` un prodotto scalare su uno spazio vettoriale reale V allora la matrice M B (ϕ) associata alla forma bilineare simmetrica ϕ rispetto ad una base di V coincide con la matrice unit a` I se e solo se e` una base ortonormale.
B
8.2
B
Forme quadratiche
Si vuole ora estendere il concetto di norma di un vettore x 2 = x x, definito su uno spazio vettoriale euclideo, ad uno spazio vettoriale reale V su cui e` assegnata una forma bilineare simmetrica ϕ che non sia necessariamente un prodotto scalare. A tale scopo si introduce la seguente definizione.
Definizione 8.3 Sia ϕ
·
∈ B (V, R), una forma bilineare simmetrica la funzione: Q : V −→ R, x −→ ϕ(x, x), s
si dice forma quadratica associata alla forma bilineare simmetrica ϕ . Analogamente, una funzione Q : V R prende il nome di forma quadratica su V se esiste una forma bilineare simmetrica ϕ su V tale che Q(x) = ϕ(x, x), con x V.
−→
∈ L’insieme delle forme quadratiche su V verr`a indicato con Q (V, R). Si dimostri per esercizio che Q (V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune operazioni di somma e di prodotto per numeri reali.
Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V . Allora:
1. Q(x + y) = Q(x) + 2ϕ(x, y) + Q(y), 2. Q(λx) = λ2 Q(x),
∈ V e per ogni λ ∈ R .
per ogni x, y
Dimostrazione
La propriet`a 1. segue dall’uguaglianza:
Q(x + y) = ϕ(x + y, x + y),
∈ V,
x, y
mentre la propriet`a 2. e` conseguenza dell’uguglianza:
Q(λx) = ϕ(λx, λx),
∈ V, λ ∈ R.
x, y
1. Dal teorema precedente segue che una forma quadratica Q defiOsservazione 8.5 nita su uno spazio vettoriale reale V non `e un’applicazione lineare da V in R .
Capitolo 8
351
2. La corrispondenza tra forme bilineari simmetriche e forme quadratiche associate e` biunivoca. Ogni forma bilineare simmetrica ϕ s (V, R) individua una forma (V, R) e viceversa; infatti, data la forma quadratica Q , dalla quadratica Q propriet`a 1. del Teorema 8.5, si deduce:
∈ B
∈Q
ϕ(x, y) =
1 Q(x + y) 2
{
− Q(x) − Q(y)} ,
x, y
∈ V.
(8.8)
La relazione (8.8) e` detta forma polare della forma quadratica Q . 3. Ponendo λ = 0, nella propriet`a 2. del Teorema 8.5, si ottiene Q(o) = 0, dove o indica il vettore nullo di V .
B
e` una sua Definizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia base, la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica ϕ definita su V rispetto alla base si dice anche matrice associata alla forma quadratica Q rispetto alla base e si indica pertanto con M B (Q).
B
B
Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale reale V di dimen= (v1 , v2 , . . . , vn ) di V si indichi con A = (aij ), i, j = sione n . Fissata una base 1, 2, . . . , n la matrice simmetrica associata a ϕ rispetto alla base . Dalla formula (8.5) segue che la forma quadratica Q associata a ϕ ha la seguente espressione matriciale, scritta rispetto alla base :
B
B
B
n
Q(x) = ϕ(x, x) =
aij xi x j = tXAX,
(8.9)
i,j =1
con aij = a ji , per ogni i, j = 1, 2, . . . , n . Si osservi che Q(x) si esprime mediante un polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base . Per questo motivo Q prende il nome di forma quadratica.
B
Esempio 8.12 L’espressione polinomiale della forma quadratica Q su R 3 , avente come matrice associata rispetto alla base canonica di R 3 , la matrice simmetrica:
A = e` :
− −
Q(x) = 3x21 + x23
3 1 2
1 0 1
2 1 1
− 2x x + 4x x + 2x x , 1 2
1 3
2 3
mentre l’espressione polinomiale della relativa forma bilineare simmetrica ϕ e` :
ϕ(x, y) = 3x1 y1 + x3 y3
− (x y + x y ) − 2(x y + x y ) + x y + x y . 1 2
2 1
1 3
3 1
2 3
3 2
Forme Bilineari e Forme Quadratiche
352
Esercizio 8.1 Data la forma quadratica su R 4 :
Q(x) = x 21 + 4x23 + 3x24
− 4x x + 10x x , 1 3
2 4
con x = (x1 , x2 , x3 , x4 ) , 1. scrivere l’espressione polinomiale della forma bilineare simmetrica ϕ associata a Q e la relativa matrice (rispetto alla base canonica di R 4 ).
B
2. Posto a = (1, 0, 1, 0) e b = (0, 1, 1, 0), calcolare ϕ(a, b) e Q(a).
Soluzione
1. Dall’espressione polinomiale di Q segue:
ϕ(x, y) = x 1 y1 + 4x3 y3 + 3x4 y4
− 2(x y + x y ) + 5(x y + x y ), 1 3
3 1
2 4
4 2
dove x = (x1 , x2 , x3 , x4 ) e y = (y1 , y2 , y3 , y4 ). La matrice associata alla forma quadratica Q e` :
A =
−
1 0 2 0
0 0 0 5
−2
0 5 0 3
0 4 0
,
quindi si osservi che a partire dall’espressione polinomiale della forma quadratica
e` necessario dividere per 2 i coefficienti dei termini x i x j ( i = j ) per ottenere gli elementi della matrice A di posto a ij .
2. Dalla formula (8.5) segue: ϕ(a, b) = ϕ((1, 0, 1, 0), (0, 1, 1, 0))
=
=
1 0 1 0
−
−
1 0 2 0
mentre Q(a) = Q((1, 0, 1, 0)) = 1.
−2
1 0 2 0
0 0 0 5
0 1 1 0
= 2;
0 4 0
0 5 0 3
0 1 1 0
Capitolo 8
353
B
Osservazione 8.6 Se = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma quadratica Q con matrice associata A = M B (Q), allora tutte le matrici associate a Q sono del tipo:
A = tPAP, al variare di P in GL(n, R) (cfr. Teor. 8.4).
8.3
Nucleo e vettori isotropi
La definizione che segue intende estendere il concetto di ortogonalit a` tra vettori introdotto per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso pi`u generale delle forme bilineari simmetriche.
Definizione 8.5 Data una forma bilineare simmetrica ϕ definita su uno spazio vettoriale reale V, due vettori x, y V si dicono ortogonali rispetto a ϕ (o pi`u semplicemente ϕ -ortogonali) se: ϕ(x, y) = 0.
∈
Osservazione 8.7 Se ϕ coincide con il prodotto scalare introdotto nel Capitolo 5, le due definizioni di ortogonalit`a tra vettori coincidono.
−
Esempio 8.13 I vettori x = (1, 1) e y = (3, 4) sono ortogonali rispetto alla forma 2 bilineare simmetrica ϕ s (R , R) cos`ı definita:
∈B
− x y + 2x y − x y . Infatti ϕ(x, y) = 3 · 1 · 3 − 1 · 4 + 2 · (−1) · 4 − (−1) · 3 = 0. ϕ(x, y) = 3x1 y1
1 2
2 2
2 1
Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V e` ortogonale ad ogni vettore di V, rispetto ad ogni forma bilineare simmetrica ϕ s (V, R). Infatti, per ogni forma bilineare ϕ V e per ogni scalare s (V, R), per ogni coppia di vettori x, y λ R, si ha: ϕ(x, λy) = λϕ(x, y).
∈
∈ B
∈ B
Posto λ = 0, si ottiene ϕ(x, o) = 0, per ogni x
∈
∈ V.
A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale A = {x ∈ V | ϕ(x, y) = 0, ∀y ∈ A} dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica ϕ ∈ B (V, R) , ad ogni vettore di A, e` un sottospazio vettoriale di V . Teorema 8.6 Sia V. L’insieme:
⊥
s
Forme Bilineari e Forme Quadratiche
354
Dimostrazione Per ogni coppia di vettori x1 , x2 di λ1 , λ2 di R si ha:
A
⊥
e per ogni coppia di scalari
∈ A,
ϕ(λ1 x1 + λ2 x2 , y) = λ1 ϕ(x1 , y) + λ2 ϕ(x2 , y) = 0, y
∈ A
dunque λ 1 x1 + λ2 x2
⊥
.
Come caso particolare si ha pertanto il seguente corollario di ovvia dimostrazione.
Corollario 8.1 Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale reale V e siano u1 , u2 , . . . , u p vettori di V. Un vettore x V e` ϕ -ortogonale a tutti i vettori u1 , u2 , . . . , u p , se e solo se x e` ϕ -ortogonale ad ogni vettore del sottospazio = (u1 , u2 , . . . , u p ). vettoriale
∈
W L
Si osservi che il corollario precedente estende l’analoga propriet`a dimostrata per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr. Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente un prodotto scalare.
W
Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale di V, rispetto ad una forma bilineare simmetrica ϕ, sar`a indicato, in accordo con l’enunciato del Teorema 8.6, ⊥ con . Su alcuni testi, per evitare confusione con il caso particolare del complemento ⊥ ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (V, ) , si preferisce usare la notazione come verr`a meglio precisato nell’Osservazione 8.9.
W
W
W
W
·
W W
Definizione 8.6 Due sottospazi vettoriali 1 e 2 di uno spazio vettoriale reale V si dicono ortogonali rispetto a ϕ ` ortogonale ad ogni 1 e s (V, R) se ogni vettore di vettore di 2 , cio`e se e solo se ϕ(x, y) = 0 , per ogni x 1 e per ogni y 2.
∈ B
W
W ∈ W
∈ W
W
e` un sottospazio vettoriale di uno spazio vettoriale V e ϕ e` Osservazione 8.9 Se un prodotto scalare su V, allora la nozione di sottospazio ortogonale rispetto al prodotto scalare appena introdotta coincide con quella nota di complemento ortogonale (cfr. Def. ⊥ 5.6). In generale, pero` se ϕ non e` un prodotto scalare, l’intersezione non e` formata dal solo vettore nullo e non e` detto che la somma dei due sottospazi vettoriali + ⊥ coincida con V , come nel caso dell’esempio che segue.
W ∩ W
W W
Esempio 8.14 Se si considera la forma bilineare ϕ su R3 con espressione polinomiale rispetto alla base canonica di R 3 :
ϕ(x, y) = x 1 y1
− 2x y − 2(x y + x y ) − (x y + x y ) − 2(x y + x y ), 3 3
1 2
2 1
1 3
3 1
2 3
3 2
Capitolo 8
355
dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) , ed il sottospazio vettoriale di R 3 :
W = L(u , u ), 1
2
con u1 = (4, 1, 0), u2 = (3, 0, 1) , si ha che il sottospazio ortogonale a 3
W rispetto a ϕ e` :
W = {x ∈ R | ϕ(x, u ) = ϕ(x, u ) = 0}. ⊥
Poich´e:
1
ϕ(x, u1 ) = 2x1 ϕ(x, u2 ) = 2x1
2
− 8x − 6x − 8x − 5x , 2
3
2
3
risolvendo il sistema lineare omogeneo:
⊥
2x1 2x1
− 8x − 6x = 0 − 8x − 5x = 0, 2
3
2
3
W = L(u ) e quindi:
segue che
1
⊥
⊥
W ∩W = W , W + W = W ⊂ V. ⊥
Esercizio 8.2 Data la forma bilineare simmetrica ϕ su R 3 con matrice associata rispetto alla base canonica di R 3 :
B
A =
3 a b
a 4 2
−
− b 2 c
,
a, b, c
∈ R,
stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali:
W = {(x , x , x ) ∈ R | x − 2x + x = 0}, W = {(x , x , x ) ∈ R | 2x − x = 0} 1
1
2
3
2
1
2
3
3
1
3
2
1
3
3
sono ortogonali rispetto a ϕ .
Soluzione
L’espressione polinomiale associata a ϕ rispetto alla base
ϕ(x, y) = 3x1 y1 + a(x1 y2 + x2 y1 ) + b(x1 y3 + x3 y1 ) + 4x2 y2
B e` :
− 2(x y + x y ) + cx y . 2 3
W e` formata, ad esempio, dai vettori: u = (−1, 0, 1), u = (2, 1, 0).
Una base dell’iperpiano vettoriale 1
1
2
3 2
3 3
Forme Bilineari e Forme Quadratiche
356
Una base dell’iperpiano vettoriale
W e` formata, ad esempio, dai vettori: 2
v1 = (1, 0, 2), I due iperpiani vettoriali
v2 = (0, 1, 0).
W e W sono ortogonali rispetto a ϕ se e solo se: ϕ(u , v ) = −b + 2c − 3 = 0 ϕ(u , v ) = −a − 2 = 0 1
2
1
1
1
2
ϕ(u2 , v1 ) = a + +4b + 2 = 0 ϕ(u2 , v2 ) = 2a + 4 = 0.
Risolvendo il sistema lineare cos`ı ottenuto si perviene all’unica soluzione:
a =
−2,
b = 0,
3 c = . 2
Esercizio 8.3 Si consideri la forma quadratica Q su R 4 definita da:
Q(x) = 2x21 + 2( x1 x2 + x1 x3 + x1 x4
−
− x x − x x + hx x ), 2 3
2 4
h
3 4
∈ R,
con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h , una base del sottospazio vettoriale ortogonale, rispetto alla forma bilineare simmetrica ϕ definita da Q, al sottospazio vettoriale = (u1 , u2 ), dove:
W L
u1 = (1, 0,
−1, 0),
u2 = (0, 1, 0, 1).
La matrice associata a Q rispetto alla base canonica di R 4 e` :
Soluzione
A =
−
2 1 1 1
−1 1 1 0 −1 −1 −1 0 h −1 h 0
.
W rispetto a ϕ e` definito come: W = {x ∈ R | ϕ(x, u ) = ϕ(x, u ) = 0}.
Il sottospazio vettoriale ortogonale a
4
⊥
Si ha:
1
2
− h)x , ϕ(x, u ) = −x + ( −1 + h)x − x .
ϕ(x, u1 ) = x 1 + x3 + (1 2
4
2
3
4
Quindi: 4
W = {(x , x , x , x ) ∈ R | x + x + (1 − h)x = −x + (−1 + h)x − x = 0}. ⊥
1
2
3
4
1
3
4
2
3
4
Capitolo 8
357
⊥ La dimensione del sottospazio vettoriale e` 2 perch´e il rango della matrice associata al sistema lineare omogeneo che lo definisce e` 2 per ogni h R e, ad esempio, una sua base e` costituita dai vettori:
W
− −1 + h, 1, 0),
∈
−
−1, 0, 1). Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica ϕ ∈ B (V, R) il sota1 = ( 1,
a2 = ( 1 + h,
s
⊥
toinsieme V di V formato dai vettori ortogonali a tutti i vettori di V rispetto a ϕ e si indica con ker ϕ, in simboli:
{ ∈ V | ϕ(x, y) = 0, ∀ y ∈ V }.
ker ϕ = x
Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di una forma bilineare simmetrica con quella di nucleo di un’applicazione lineare (cfr. Def. 6.7). La stessa denominazione data a due sottospazi vettoriali con diversa definizione e` giustificata dal metodo che si usa per la loro determinazione, come sar`a spiegato nel Teorema 8.8. Teorema 8.7 Il nucleo di un forma bilineare simmetrica ϕ vettoriale di V . Dimostrazione
∈ B (V, R) e` un sottospazio s
` conseguenza del Teorema 8.6. E
Esempio 8.15 Nel caso di un prodotto scalare ϕ definito su uno spazio vettoriale reale V si ha ker ϕ = o , in quanto il sottospazio vettoriale V ⊥ formato dai vettori ortogonali a tutti i vettori di V si riduce a o (cfr. Teor. 5.8).
{}
{ }
Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker ϕ (ossia ϕ(x, y) = 0, per ogni y V ) se e solo se ϕ(x, v j ) = 0, j = 1, 2, . . . , n , dove = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma bilineare simmetrica ϕ.
∈
B
Si osservi che l’esercizio appena assegnato, e che segue facilmente dalle definizioni di bilinearit`a di ϕ e di base di uno spazio vettoriale, e` molto importante ai fini del calcolo del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema.
Teorema 8.8 Sia ϕ un elemento di s (V, R) e sia A = (aij ), i , j = 1, 2, . . . , n , la = (v1 , v2 , . . . , vn) di V, matrice simmetrica associata a ϕ , rispetto ad una base allora:
B
B
N (A),
ker ϕ =
N (A) e` il nullspace della matrice A.
dove
Forme Bilineari e Forme Quadratiche
358
Dimostrazione Il nucleo ker ϕ della forma bilineare simmetrica ϕ e` formato dai vettori x di V tali che ϕ(x, y) = 0 , per ogni y V o, equivalentemente, tali che ϕ(x, v j ) = 0, per ogni j = 1, 2, . . . , n . Posto x = x 1 v1 + x2 v2 + . . . + xn vn, si ottiene:
∈
ϕ(x, v j ) = ϕ(x1 v1 + x2 v2 + . . . + xn vn, v j ) n
=
xi ϕ(vi , v j )
i=1 n
=
aij xi = 0,
j = 1, 2, . . . , n ,
i=1
che non `e altro che il sistema lineare omogeneo:
AX = O di n equazioni nelle n incognite x 1 , x2 , . . . , xn , dove X Rn,1 indica la matrice colonna delle incognite e O Rn,1 indica la matrice colonna nulla.
∈
∈
Definizione 8.8 Una forma bilineare simmetrica ϕ (o equivalentemente la forma quadratica Q associata) definita su uno spazio vettoriale reale V e` non degenere se ker ϕ = o e degenere se ker ϕ = o , dove o indica il vettore nullo di V .
{}
{ }
Osservazione 8.11 Segue dalla precedente definizione che un prodotto scalare su V e` una forma bilineare simmetrica non degenere, in quanto ker ϕ = o (cfr. Es. 8.15).
{}
Corollario 8.2 Sia ϕ un elemento di s (V, R), allora ϕ e` degenere se e soltanto se det(A) = 0, dove A `e la matrice associata a ϕ , rispetto ad una base = (v1 , v2 , . . . , vn ) di V.
B
B
Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di Dimostrazione ϕ si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle n incognite x1 , . . . , xn . Tale sistema lineare ha soluzioni non nulle se e soltanto se il rango della matrice A e` minore di n o, equivalentemente, se e solo se il determinante di A e` uguale a zero (cfr. Teor. 1.2).
Osservazione 8.12 Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale V. Se A e` una matrice simmetrica associata a ϕ , dal Teorema 4.23 di Nullit a` pi`u Rango segue:
dim(ker ϕ) = dim(V )
− rank(A).
Capitolo 8
359
Inoltre ϕ e` non degenere se e solo se dim(V ) = rank(A) . Di conseguenza poich´e dim(ker ϕ) e` invariante per ogni matrice associata a ϕ tutte le matrici associate alla stessa forma bilineare simmetrica hanno lo stesso rango, ossia:
rank(tP AP ) = rank(A), per ogni matrice invertibile P (cfr. Teor. 8.4). Tale osservazione permette di introdurre la seguente definizione.
Definizione 8.9 Si definisce rango di una forma bilineare simmetrica ϕ (o della forma quadratica associata Q ), e sar a` indicato con rank(ϕ) (o con rank(Q) ), il rango di una qualunque matrice simmetrica associata a ϕ . Osservazione 8.13 Dal Teorema 2.9 si pu`o dimostrare in un altro modo che il rango della forma bilineare ϕ non dipende dalla scelta della matrice associata e quindi della base usata per costruire tale matrice, infatti in particolare si ha:
rank( tP AP ) = rank(AP ) = rank(A), per ogni matrice A
∈R
n,n
∈ R
e per ogni matrice invertibile P
n,n
.
Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica ϕ matrice associata rispetto alla base canonica = (e1 , e2 , e3 ) di R 3 :
A =
−
1 0 2
B
0 1 1
−2
1 5
N
∈ B (R , R) con s
3
.
Soluzione Si determina il nullspace (A) della matrice A , ovvero si devono determinare i vettori x = (x1 , x2 , x3 ) per cui ϕ(x, e j ) = 0, j = 1, 2, 3. Si ottiene x = (2x3 , x3 , x3 ), al variare di x 3 R, e quindi ker ϕ = ((2, 1, 1)).
−
∈
L −
Esercizio 8.6 Sia ϕ una forma bilineare simmetrica su R3 . Determinare la matrice associata a ϕ rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e v = (1, 1, 0) formano una base di ker ϕ e che Q(w) = 8 , con w = (1, 0, 1), dove Q e` la forma quadratica associata a ϕ . Soluzione
Si indichi con:
A =
a11 a12 a13 a12 a22 a23 a13 a23 a33
Forme Bilineari e Forme Quadratiche
360
la matrice associata a ϕ rispetto alla base canonica di R3 . Poich´e (u, v) e` una base di ker ϕ devono valere le condizioni:
ϕ(e1 , u) = ϕ(e2 , u) = ϕ(e3 , u) = 0, ϕ(e1 , v) = ϕ(e2 , v) = ϕ(e3 , v) = 0, che corrispondono al sistema lineare omogeneo:
a11 + 2a12 + a13 = 0 a12 + 2a22 + a23 = 0 a13 + 2a23 + a33 = 0 a11 + a12 = 0 a12 + a22 = 0 a13 + a23 = 0.
(8.10)
Dalla condizione Q(w) = 8 segue:
Q(w) = ϕ(e1 , e1 ) + 2ϕ(e1 , e3 ) + ϕ(e3 , e3 ) = a11 + 2a13 + a33 = 8.
(8.11)
Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come unica soluzione:
A =
−
2 2 2
−2 2 2 −2 −2 2
.
W W W
Sia ϕ una forma bilineare simmetrica su V e sia un sottospazio vettoriale di V . Se ϕ ⊥ e` un prodotto scalare il complemento ortogonale di ha in comune con solo il vettore nullo. In altri termini ϕ(x, x) = 0 se e solo se x = o. Dall’Esempio 8.14 segue invece che se ϕ non `e un prodotto scalare possono esistere vettori non nulli comuni a ⊥ ea e ci`o giustifica la definizione che segue.
W
W
W
Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un vettore x V si dice isotropo per la forma quadratica Q se Q(x) = 0 .
∈
∈
Se ϕ e` la forma bilineare simmetrica associata a Q , si ha che x V e` isotropo se e solo se ϕ(x, x) = 0. L’insieme dei vettori isotropi della forma quadratica Q verr`a indicato con: = x V Q(x) = ϕ(x, x) = 0 .
I { ∈ |
}
Il nucleo della forma bilineare simmetrica ϕ associata alla forma quadratica Q e l’insieme dei vettori isotropi sono legati dal seguente teorema.
Capitolo 8
361
Teorema 8.9 Data una forma bilineare simmetrica ϕ su uno spazio vettoriale reale V, allora:
ker ϕ
⊆ I ,
I
con insieme dei vettori isotropi della forma quadratica Q associata a ϕ . Ovvero, se un vettore x appartiene a ker ϕ, allora x e` un vettore isotropo per la forma quadratica Q associata a ϕ .
Se per ogni vettore y di V si ha ϕ(x, y) = 0, segue:
Dimostrazione
ϕ(x, x) = Q(x) = 0.
I
Osservazione 8.14 1. L’insieme dei vettori isotropi di una forma quadratica Q su uno spazio vettoriale reale V , in generale, non e` un sottospazio vettoriale di V , infatti
∈ I e ϕ(x, y) = 0, allora x + y non `e un vettore isotropo. 2. Fissata una base B = (v , v , . . . , v ) di V, l’insieme I pu`o essere descritto come: se x, y
1
I =
2
n
n
∈ V
x = x 1 v1 + x2 v2 + . . . + xn vn
|
aij xi x j = 0 ,
i,j =1
B
dove A = (aij ) e` la matrice simmetrica associata a Q rispetto alla base . Pertanto, l’insieme pu`o essere visto come il luogo degli zeri di un polinomio omogeneo di secondo grado che viene anche chiamato cono isotropo relativo alla forma quadratica Q o alla forma bilineare simmetrica associata ϕ. Il motivo di tale denominazione risiede nel fatto che, se si rappresentano i vettori di V con punti in uno spazio n dimensionale, si ottiene un cono con vertice l’origine. Per lo studio approfondito dei coni nello spazio di punti di dimensione 3 si rimanda al Paragrafo 12.2.
I
3. In generale non vale il viceversa del Teorema 8.9. Gli esercizi che seguono mettono in evidenza che ker ϕ non sempre coincide con l’insieme dei vettori isotropi della forma quadratica Q associata ma e` solo contenuto in esso.
I
Esercizio 8.7 Si consideri la forma bilineare simmetrica ϕ su R3 con espressione polinomiale rispetto alla base canonica di R 3 :
ϕ(x, y) = x 1 y1
− (x y + x y ) + x y − x y , 1 2
2 1
2 2
3 3
dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), stabilire se l’insieme dei vettori isotropi per la forma quadratica Q associata a ϕ e` un sottospazio vettoriale di R 3 .
Forme Bilineari e Forme Quadratiche
362
Soluzione
Un vettore x e` isotropo se:
Q(x) = x 21
2 2
2 3
− 2x x + x − x = 0. 1 2
L’insieme dei vettori isotropi non e` un sottospazio vettoriale di R3 , in quanto ad esempio i vettori: u = (1, 0, 1), v = (0, 1, 1),
I
sono isotropi, ma u + v non `e isotropo.
Esempio 8.16 Su R3 e` data, rispetto alla base canonica (e1 , e2 , e3 ) di R3 , la forma quadratica: Q(x) = x 21 2x23 4x1 x2 2x1 x3 4x2 x3 ,
−
−
−
la cui forma bilineare simmetrica associata `e:
ϕ(x, y) = x 1 y1
−
− 2x y − 2(x y + x y ) − (x y + x y ) − 2(x y + x y ), 3 3
1 2
2 1
1 3
3 1
2 3
3 2
con x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ). Il vettore a = (4, 1, 0) e` isotropo per la forma quadratica Q perch´e Q(a) = 0, ma a non appartiene a ker ϕ in quanto ϕ(a, e1 ) = 2 .
I { }
= o allora la Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se forma bilineare simmetrica ϕ e` non degenere. Attenzione pero` che non vale il viceversa. Nel caso di un prodotto scalare l’insieme dei vettori isotropi per la forma quadratica associata coincide con l’insieme formato dal solo vettore nullo, ma in generale nel caso di una forma bilineare simmetrica non degenere l’insieme dei vettori isotropi pu`o non ridursi all’insieme o .
I
{ }
Esempio 8.17 La forma quadratica su R2 definita da Q(x) = x 21 x22 e` associata, rispetto alla base canonica di R 2 , alla matrice invertibile:
−
A =
1 0
−
0 1
;
− −
{} ±
ϕ e` non degenere, in quanto det(A) = 1, e pertanto ker ϕ = o . I vettori isotropi di Q sono i vettori x = (x1 , x2 ) tali che x 21 x22 = 0, da cui x 1 = x2 , quindi x = ( x2 , x2 ) e formano l’insieme:
±
I = L((1, 1)) ∪ L((−1, 1)),
che non e` un sottospazio vettoriale trattandosi dell’unione di due sottospazi vettoriali diversi, entrambi di dimensione 1. A partire da un vettore non isotropo si ottiene una decomposizione dello spazio vettoriale su cui e` definita la forma quadratica, analoga a quella ottenuta nel caso di uno spazio vettoriale euclideo che e` somma diretta di un suo qualsiasi sottospazio vettoriale con il proprio complemento ortogonale. Vale infatti il teorema che segue.
Capitolo 8
363
Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimensione n. Per ogni vettore u V non isotropo si ha:
∈
⊥
L ⊕ L(u)
V = (u)
,
dove (u)⊥ = u ⊥ e` il sottospazio vettoriale ortogonale al vettore u rispetto alla forma bilineare simmetrica ϕ associata a Q.
L
{}
Dimostrazione
Si ha immediatamente:
L(u) ∩ L(u)
⊥
{}
= o ,
` sufficiente quindi provare che (u)⊥ e` un’iin quanto u non e` un vettore isotropo. E perpiano vettoriale di V. Siano = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la matrice simmetrica associata a Q rispetto alla base . Si indichi con:
L
B
U =
B
u1 u2 .. .
un
la matrice colonna formata dalle componenti del vettore u rispetto alla base sce la forma lineare:
ϕu : V
−→ R,
y
B. Si defini-
−→ ϕ(u, y), y ∈ V,
dove ϕ e` la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto:
L(u)
⊥
{ ∈ V | ϕ(u, y) =
= y
t
U A Y = 0
} B
coincide con il nucleo della forma lineare ϕu , la cui matrice associata rispetto alla di t t V e = (1) di R e` la matrice UA. E` importante osservare che la matrice riga U A non e` nulla, poich`e: Q(u) = t U A U = 0.
C
Quindi la forma lineare ϕu non coincide con forma lineare nulla essendo ϕu (u) = Q(u) = 0 , e di conseguenza il suo nucleo e` un iperpiano vettoriale di V (cfr. Oss. 6.17).
Esercizio 8.8 Sia Q una forma quadratica definita su uno spazio vettoriale reale V e siano a e b due vettori di V linearmente indipendenti e isotropi. Stabilire se la somma:
L(a, b) + L(a, b)
⊥
e` diretta, dove (a, b)⊥ e` il sottospazio vettoriale ortogonale a bilineare simmetrica ϕ associata a Q.
L
L(a, b) rispetto alla forma
Forme Bilineari e Forme Quadratiche
364
Nel caso delle forme bilineari non degeneri e` possibile dimostrare il teorema che segue e che, limitatamente al caso della dimensione, coincide con l’analogo risultato enunciato nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione e` la naturale generalizzazione di quella indicata nell’ambito euclideo.
Teorema 8.11 Sia ϕ una forma bilineare simmetrica non degenere su uno spazio vettoriale V di dimensione n e sia un sottospazio vettoriale di V , allora:
W
⊥
W ) = n − dim(W ), con W sottospazio vettoriale ortogonale di W ripetto a ϕ. Dimostrazione Siano dim(V ) = n e dim(W ) = h e sia B = (v , v , ...., v ) una base di V. Se h = 0 allora W = V, da cui segue la tesi. Altrimenti si supponga che (a , a , . . . , a ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n associata a ϕ rispetto alla base B e con C la matrice appartenente a R le cui righe sono le componenti dei vettori a , a , . . . , a rispetto alla base B . Ricordando che: W = {x ∈ V | ϕ(a , x) = 0, i = 1, 2, . . . , h} dim(
⊥
1
2
n
⊥
1
2
h
h,n
1
2
h
⊥
i
ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base segue che il sistema lineare ϕ(ai , x) = 0, i = 1, 2, . . . , h , coincide con:
B
CAX = O, dove O indica la matrice nulla di Rh,1 di conseguenza CA, ossia:
⊥
W
e` il nullspace della matrice
⊥
W = N (CA).
La matrice C ha rango h ed A e` una matrice invertibile, in quanto ϕ e` non degenere. Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1. ) e dim( ⊥ ) = n h .
W
8.4
−
Classificazione di una forma quadratica
` gi`a stato osservato nel paragrafo precedente che se ϕ e` un prodotto scalare, allora ϕ e` E una forma bilineare simmetrica non degenere. Questa condizione per`o non e` sufficiente per definire il prodotto scalare in termini di una forma bilineare simmetrica, infatti in base alla definizione di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica ϕ su 0 per ogni x uno spazio vettoriale V e` un prodotto scalare se e solo se Q(x) V e se l’unico vettore isotropo e` il vettore nullo, Q indica la forma quadratica associata a ϕ. Per caratterizzare quindi un prodotto scalare e` necessario aggiungere alla nozione di forma bilineare simmetrica non degenere anche il segno della forma quadratica Q ad essa associata. Pi`u precisamente e` necessario enunciare la seguente definizione.
≥
∈
Capitolo 8
365
Definizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare simmetrica ϕ ad essa associata) su uno spazio vettoriale reale V si dice:
1. definita positiva (negativa) se: Q(x)
≥ 0 (≤ 0), x ∈ V
e
Q(x) = 0
⇐⇒ x = o;
2. semidefinita positiva (negativa) se:
≥ 0 (≤ 0), x ∈ V, ma non si esclude che esistano vettori x ∈ V non nulli tali che Q(x) = 0 , cio e` che Q(x)
esistano vettori isotropi non nulli;
3. indefinita se Q(x) ha segno variabile al variare del vettore x di V . Osservazione 8.16 La forma quadratica nulla Q : V R definita da Q(x) = 0 per ogni x di V pu`o essere considerata sia semidefinita positiva sia semidefinita negativa.
−→
Osservazione 8.17 In base alla definizione precedente ϕ e` un prodotto scalare se e solo se ϕ (o la forma quadratica associata Q ) e` definita positiva. Esempio 8.18 Tenendo conto delle nozioni appena introdotte, e` ora possibile costruire un prodotto scalare ϕ che renda ortogonali due vettori qualsiasi u e v, non nulli e non paralleli, di uno spazio vettoriale reale V di dimensione n 2. Completando l’insieme libero u, v fino ad ottenere una base di V :
≥
{ }
B = (u, v, b , . . . , b 1
n−2 ),
la matrice A associata al prodotto scalare ϕ rispetto alla base ϕ sia definita positiva, ovvero che valgano le condizioni:
B si ottiene imponendo che
ϕ(u, v) = 0, ϕ(u, bi ) = 0, ϕ(v, bi ) = 0, ϕ(bi , b j ) = 0, ϕ(u, u) > 0,
− 2, i = 1, 2, . . . , n − 2, i, j = 1, 2, . . . , n − 2, i = 1, 2, . . . , n
ϕ(v, v) > 0, ϕ(bi , bi ) > 0,
i = 1, 2, . . . , n
− 2.
Si pu`o quindi osservare che A non e` univocamente determinata, anche se si fissa la base , perch´e si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.
B
Forme Bilineari e Forme Quadratiche
366
Esercizio 8.9 Dati i vettori u = (1, 1) e v = (0, 1) in R2 determinare un prodotto scalare ϕ su R2 tale che i due vettori u e v siano ortogonali rispetto a ϕ e rispettivamente di lunghezza 1 e 2 . Tale prodotto scalare e` unico?
−
Soluzione
−
Il prodotto scalare ϕ richiesto deve verificare le condizioni:
ϕ(u, v) = 0 ϕ(u, u) = 1 ϕ(v, v) = 4.
Indicata con A = (aij ) R2,2 la matrice simmetrica associata a ϕ rispetto alla base canonica di R 2 , dalle equazioni precedenti si ottiene il sistema lineare:
∈
− −
a12 + a22 = 0 a11 2a12 + a22 = 1 a22 = 4,
che ha come unica soluzione a11 = 5, a12 = a22 = 4, da cui segue che l’espressione polinomiale del prodotto scalare ϕ e` :
ϕ(x, y) = 5x1 y1 + 4x1 y2 + 4x2 y1 + 4x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ). Di conseguenza esiste un unico prodotto scalare che verifica le condizioni assegnate. Si osservi che i due vettori u e v sono ortogonali rispetto al prodotto scalare ϕ appena determinato, ma non sono ortogonali rispetto al prodotto scalare standard di R 2 .
Osservazione 8.18 Una forma bilineare indefinita pu`o essere in generale sia degenere sia non degenere, ma si vedr`a che il suo nucleo e` sempre strettamente incluso nell’insieme dei vettori isotropi , ossia = o .
I
I { }
Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma quadratica Q e` definita (positiva o negativa), allora Q (o equivalentemente la forma bilineare simmetrica ϕ ad essa associata) `e non degenere.
{ }
∈
Dimostrazione Si tratta di dimostrare che ker ϕ = o . Per ogni vettore x ker ϕ e per ogni vettore y V si ha ϕ(x, y) = 0, ci`o implica che Q(x) = 0 ma Q e` definita positiva (o negativa), dunque x = o .
∈
Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la forma quadratica dell’Esempio 8.17 `e non degenere ma `e indefinita perch´e Q((1, 0)) = 1 e Q((0, 1)) = 1 .
−
Capitolo 8
367
∈ B (R , R), definita da: −x y ,
Esercizio 8.10 Data la forma bilineare simmetrica ϕ
ϕ(x, y) = x 1 y1
−x y
1 2
s
3
2 1
si determinino la matrice associata, rispetto alla base canonica di R3 , l’espressione polinomiale della forma quadratica Q associata a ϕ e la si classifichi. Si individui quindi l’insieme dei vettori isotropi di Q e si stabilisca se sia o meno un sottospazio vettoriale di R 3 .
I
I
Soluzione
La matrice associata a ϕ rispetto alla base canonica di R 3 e` :
A =
− − 1 1 0
1 0 0
0 0 0
,
L
da cui segue che det(A) = 0 , ker ϕ = ((0, 0, 1)), ϕ e` quindi degenere. La forma quadratica associata a ϕ e` : Q(x) = x 21 2x1 x2 ,
−
pertanto Q(x) = 0 se e solo se x 1 = 0 oppure x 1 = 2x2 , quindi:
I = L((0, 0, 1), (0, 1, 0)) ∪ L((2, 1, 0), (0, 0, 1)), I non `e un sottospazio vettoriale di R . Q e` indefinita perch´e per esempio Q((1, 0, 0)) = 1 > 0 e Q((1, 1, 0)) = −1 < 0 . 3
di conseguenza
Osservazione 8.20 Non e` sempre facile come nell’Esercizio 8.10 classificare una forma quadratica senza usare metodi pi`u generali che saranno studiati nel Paragrafo 8.5. Anche per una forma quadratica si pu o` introdurre, in modo analogo al caso delle applicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio vettoriale di uno spazio vettoriale reale V e una forma quadratica Q su V, si puo` definire la restrizione di Q a come la funzione:
W
W Q| : W −→ R, W
|
Q W (x) = Q(x).
` lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q E a e` una forma quadratica su . Il teorema che segue, la cui dimostrazione `e un facile esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione di ogni sua restrizione.
W
W
W
Teorema 8.13 Siano un sottospazio vettoriale di uno spazio vettoriale reale V e Q una forma quadratica su V allora:
Forme Bilineari e Forme Quadratiche
368
•
se Q e` una forma quadratica definita positiva (definita negativa) su V, allora la restrizione di Q a e` una forma quadratica definita positiva (definita negativa);
•
se Q e` una forma quadratica semidefinita positiva (semidefinita negativa) su V, allora la restrizione di Q a e` una forma quadratica semidefinita positiva (semidefinita negativa); per ci o` che riguarda il caso della forma quadratica nulla si tenga conto dell’Osservazione 8.16;
•
se Q e` una forma quadratica indefinita su V, allora la restrizione di Q a puo` essere una forma quadratica definita positiva (definita negativa), semidefinita positiva (semidefinita negativa), indefinita; per ci o` che riguarda il caso della forma quadratica nulla si tenga conto dell’Osservazione 8.16.
W
W
W
Osservazione 8.21 Come gi`a enunciato nel Teorema 8.13, a differenza di cio` che `e affermato nel caso delle forme quadratiche definite (positive o negative), la restrizione di una forma quadratica indefinita non degenere ad un sottospazio vettoriale dello spazio vettoriale su cui e` data e` ancora una forma quadratica, ma non e` detto che sia non degenere. Ad esempio, se si considera la forma quadratica non degenere introdotta dell’Esempio 8.17 si ha che le sue restrizioni ai sottospazi vettoriali di R 2 :
W = {(x , x ) ∈ R | x − x = 0}, W = {(x , x ) ∈ R | x + x = 0}, 1
1
2
2
1
2
2 2
1
2
1
2
sono entrambe degeneri e coincidono con la forma quadratica nulla. Nel caso di una forma quadratica semidefinita positiva (o negativa) l’insieme dei vettori isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per una forma bilineare simmetrica semidefinita positiva valgono, come per il prodotto scalare, la disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (o di Minkowski), la cui dimostrazione e` analoga a quella gi`a vista per il prodotto scalare nel Capitolo 5 (cfr. Teor. 5.2).
Teorema 8.14 – Disuguaglianza di Cauchy–Schwarz – Sia ϕ s (V, R) una forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma quadratica ad essa associata, allora:
∈ B
[ϕ(x, y)]2
≤ Q(x)Q(y),
∈ V.
x, y
Se x e` un vettore isotropo la disuguaglianza `e verificata. Sia quindi x Dimostrazione un vettore non isotropo ossia Q(x) = 0, allora per ogni λ R e per ogni y V si ha:
∈
Q(λx + y) = λ2 Q(x) + 2λϕ(x, y) + Q(y).
∈
(8.12)
Capitolo 8
369
Poich´e Q e` semidefinita positiva Q(λx + y) 0 , per ogni λ R e quindi il discriminante del trinomio di secondo grado (8.12) in λ deve essere negativo, cio`e:
≥
[ϕ(x, y)]2
∈
− Q(x)Q(y) ≤ 0,
x, y
∈ V.
Il teorema che segue `e immediata conseguenza della precedente disuguaglianza.
Teorema 8.15 – Disuguaglianza triangolare (o di Minkowski) – Sia ϕ s (V, R) una forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma quadratica associata, allora:
∈B
Q(x + y)
Dimostrazione
≤
Q(x) +
Q(y),
∈ V.
x, y
La formula (8.12) scritta per λ = 1 , diventa:
Q(x + y) = Q(x) + 2ϕ(x, y) + Q(y); dal Teorema 8.14 si ha:
Q(x) + 2ϕ(x, y) + Q(y) da cui segue la tesi.
≤ Q(x) + 2
Q(x)Q(y) + Q(y) =
Q(x) +
Q(y)
2
Osservazione 8.22 Le disuguaglianze di Cauchy–Schwarz e di Minkowski, nel caso in cui ϕ sia un prodotto scalare, corrispondono alle omonime disuguaglianze gi a` dimostrate, in quanto Q(x) coincide con la norma del vettore x.
Segue dalla disuguaglianza di Cauchy–Schwarz che, nel caso di una forma ϕ bilineare simmetrica semidefinita positiva, ker ϕ coincide con l’insieme dei vettori isotropi, che, in questo caso, e` un sottospazio vettoriale. Infatti, se x e` isotropo, ossia Q(x) = 0 , segue ϕ(x, y) = 0 , per ogni y V . Quindi, a differenza di cio` che e` stato dimostrato nel caso del prodotto scalare, il segno di uguaglianza nella disuguaglianza di Cauchy–Schwarz non implica che i vettori x e y siano paralleli. Si ha pertanto il seguente teorema.
∈
Teorema 8.16 Se ϕ e` una forma bilineare simmetrica semidefinita positiva (o negativa) su uno spazio vettoriale reale V , allora = o , inoltre = ker ϕ, quindi ϕ e` degenere.
I { }
I
Si dimostrer`a nell’Osservazione 8.26 il viceversa della precedente affermazione da cui si deduce che tutte e sole le forme bilineari per cui l’insieme e` un sottospazio vettoriale devono essere definite o semidefinite positive (o negative).
I
Forme Bilineari e Forme Quadratiche
370
8.5
Forme canoniche
In questo paragrafo si dimostrer`a che data una forma quadratica Q su uno spazio vettoriale reale V e` sempre possibile trovare basi di V rispetto alle quali la matrice associata a Q e` diagonale. Rispetto a tali basi le corrispondenti espressioni polinomiali sono molto pi`u semplici e permettono agevolmente di classificare la forma quadratica. Viene cos`ı giustificata la seguente definizione.
Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma canonica se esiste una base di V rispetto alla quale la matrice D = (dij ) associata a Q sia diagonale. L’espressione polinomiale di Q rispetto alla base :
B
B
Q(x) = d 11 x21 + d22 x22 + . . . + dnnx2n , dove (x1 , x2 , . . . , xn ) sono le componenti di x rispetto a canonica di Q .
B , prende il nome di forma
Una forma canonica di una forma quadratica Q e` quindi una rappresentazione di Q mediante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la definizione precedente e` equivalente alla seguente.
Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n . Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base di V, Q si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D , con D matrice diagonale.
B
Si osservi che P e` la matrice del cambiamento di base dalla base ad una base rispetto alla quale Q ha come matrice associata la matrice diagonale D . Inoltre, il numero degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia essendo pari a dim(V ) rank(A), mentre cambiano gli elementi non nulli sulla diagonale come si evince dall’esempio che segue.
B
B
−
Esempio 8.19 Si consideri la forma quadratica:
Q(x) = x 1 x2
su R 2 , con x = (x1 , x2 ), la cui matrice associata rispetto alla base canonica
A =
0 1 2
1 2 0
.
(8.13)
B di R
2
e` :
Capitolo 8
371
L’espressione (8.13) non `e una forma canonica di Q , mentre l’espressione polinomiale:
Q(x) = (x1 )2
2
− (x )
(8.14)
2
lo `e; il vettore x, in questo caso, ha componenti (x1 , x2 ) rispetto ad una base che realizza (8.14), infatti esiste una matrice invertibile:
P = tale che t
− 1
1
1
1
P AP = D =
1
0
0
−1
Un’altra forma canonica di Q e` , ad esempio,
Q(x) = 5y12
.
2 2
− 3y ,
(8.15)
infatti la si ottiene con il cambiamento di base:
√ √ √ √ x1 x2
5
=
5
−
3
y1
3
y2
.
Si verifica inoltre che tutti i cambiamenti di base:
x1
=
a
b
y1
−b y , = 0. realizzano forme canoniche di Q per ogni a, b ∈ R tali che ab x2
a
2
Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono alcune particolari, come precisato dai seguenti teoremi.
Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n . Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base di V, Q ammette una forma canonica del tipo:
B
Q(x) = λ1 y12 + λ2 y22 + . . . + λnyn2 ,
(8.16)
dove λ 1 , λ2 , . . . , λn sono gli autovalori della matrice A (ciascuno ripetuto con la propria molteplicit a` ) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base ortonormale di autovettori di A .
Forme Bilineari e Forme Quadratiche
372
Dimostrazione La matrice A associata a Q, rispetto alla base tanto esiste una matrice ortogonale P tale che:
P AP = P −1 AP = D =
t
λ1 0 . . . 0 λ2 . . .
B, e` simmetrica. Per-
0 0
.
.. .
.. .
0
0 . . . λn
..
.. .
.
Con il cambiamento di base X = P Y, tenuto conto che P e` ortogonale, si ricava:
Q(x) = tXAX = t (P Y )A(P Y ) = t Y ( tP AP )Y = t Y D Y = λ1 y12 + λ2 y22 + . . . + λnyn2 , quindi la tesi.
Esempio 8.20 La matrice A associata alla forma quadratica Q considerata nell’Esempio 8.19 ha autovalori λ1 = 1 e λ2 = 1 , mentre i coefficienti 5 e 3 della forma canonica (8.15) di Q non sono autovalori di A. Infatti le matrici associate alla stessa forma quadratica non sono tutte simili (cfr. Oss. 8.3).
−
−
Esercizio 8.11 Ridurre a forma canonica la seguente forma quadratica definita su R 3 :
Q(x) = 2x21 + x22
− 4x x − 4x x , 1 2
2 3
con x = (x1 , x2 , x3 ). La matrice A associata a Q rispetto alla base canonica Soluzione equazione caratteristica sono rispettivamente:
A =
−
−2 0 1 −2 −2 0
2 2 0
, det(A
3
B di R
3
2
− λI ) = λ − 3λ − 6λ + 8 = 0.
Gli autovalori e gli autospazi di A sono:
−2, λ = 4 , tutti di molteplicit a` 1; V = L((2, 1, −2)), V = L((1, 2, 2)), V = L((2, −2, 1)), dai quali si ottiene la base ortonormale B = ( f , f , f ) di autovettori con: λ1 = 1, λ2 =
3
λ1
λ2
λ3
f 1 =
2 1 , , 3 3
1
2
3
− 2 , 3
f 2 =
e la relativa
1 2 2 , , , 3 3 3
f 3 =
2 , 3
−
2 1 , . 3 3
Capitolo 8
373
Si osservi che e` una base ortonormale rispetto al prodotto scalare standard di R3 . Di conseguenza la matrice P del cambiamento di base da a e` una matrice ortogonale. La forma quadratica Q, in forma canonica, e` quindi:
B
B B
Q(x) =
y1 y2 y3
1 0 0
− − B − − 0 2 0
0 0 4
y1 y2 y3
= y 12
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base mento di base:
1 P = 3
2 1 2
1 2 2
2 2 1
2y22 + 4y32 ,
, ottenuta con il cambia-
.
Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma normale se e` ridotta a forma canonica ed i coefficienti del polinomio omogeneo che ne deriva sono 1, 0, 1. La sua espressione polinomiale prende il nome di forma normale.
−
Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coefficienti pari a 1 , poi quelli pari a 1 ed infine quelli nulli.
−
Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensione n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata a Q rispetto ad una base di V, il numero dei coefficienti pari a 1, che compare nella forma normale, `e uguale al numero di autovalori positivi della matrice A, contati con la relativa molteplicit `a, il numero dei coefficienti pari a 1 e` uguale al numero di autovalori negativi di A , contati con la relativa molteplicit `a, il numero dei coefficienti pari a 0 coincide con la molteplicit `a dell’autovalore 0 di A.
B
−
Per il Teorema 8.17 la forma quadratica Q ammette una forma cano-
Dimostrazione nica data da:
Q(x) = λ1 y12 + λ2 y22 + . . . + λnyn2 , dove λ1 , λ2 , . . . , λn sono gli autovalori della matrice A (ciascuno ripetuto con la propria molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base ortonormale = (f 1 , f 2 , . . . , f n) di autovettori di A . Il numero dei coefficienti λi che sono diversi da zero e` uguale al rango r della forma quadratica Q, quindi `e un invariante di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei vettori della base , si puo` supporre che i primi r coefficienti siano diversi da zero e che tra essi quelli positivi figurino per primi. Di conseguenza si pu o` porre:
C
C
λ1 = α 12 ,
...,
λ p = α p2 ,
λ p+1 =
−α
2
p+1 ,
...,
λr =
2
−α
r
Forme Bilineari e Forme Quadratiche
374
per un opportuno intero p
≤ r e opportuni numeri reali positivi α , α , . . . , α . Poich´e: 1
Q(f 1 ) = α 12 , Q(f p+1 ) =
...,
Q(f p ) = α p2 ,
2
...,
−α
Q(f r+1 ) = 0,
p+1 ,
f 1 =
f 1
α1
,
f 2 =
f 2
α2
,
...,
C
f r =
r
2
−α , r
Q(f n ) = 0,
...,
si verifica facilmente che, rispetto alla base
Q(f r ) =
2
= ( f 1 , f 2 , . . . , f n ) con:
f r
αr
,
f r +1 = f r+1 ,
...,
f n = f n ,
la forma polinomiale di Q e` :
Q(x) = (y1 )2 + . . . + (y p )2
2 p+1 )
− (y
2 r
− . . . − (y ) ,
(8.17)
con x = y 1 f 1 + . . . + yn f n , da cui la tesi. 1. La forma normale di una forma quadratica Q, ottenuta con il Osservazione 8.23 procedimento indicato nella dimostrazione del Teorema 8.18, e` unica, cio`e tutte le matrici associate a Q hanno lo stesso numero di autovalori positivi e lo stesso ` invece gi`a numero di autovalori negativi, come sar a` dimostrato nel Teorema 8.20. E stato dimostrato che tutte le matrici associate a Q hanno lo stesso rango (cfr. Oss. 8.12) e pertanto la molteplicit`a dell’autovalore 0 di A (se esso esiste) e` invariante per Q.
C
2. Se Q e` la forma quadratica associata ad un prodotto scalare ϕ , la base , considerata nella dimostrazione del Teorema 8.18, `e solo una base ortogonale (rispetto a ϕ ), ma non ortonormale (rispetto a ϕ ), in quanto:
ϕ(f i , f j ) = 0, i = j,
Q(f i ) = ϕ(f i , f i ) = λi > 0.
In questo caso infatti la matrice A ha n autovalori positivi, essendo ϕ definita positiva, ma solo se λi = 1 , per ogni i = 1, 2, . . . , n , e` una base ortonormale rispetto a ϕ . La base e` invece una base ortonormale per il prodotto scalare ϕ .
C
C
3. Ogni base che permette di scrivere una forma quadratica Q in forma canonica e` una base ortogonale rispetto alla forma bilineare simmetrica ϕ associata alla forma quadratica. 4. La matrice del cambiamento di base dalla base alla base , (cfr. dimostrazione del Teorema 8.18 ) e` una matrice diagonale. Come gi`a osservato, esistono infinite forme canoniche di una forma quadratica Q . In generale le forme canoniche di una forma quadratica Q si possono ottenere una dall’altra mediante cambiamenti di base simili a quelli utilizzati nella dimostrazione del Teorema 8.18, ovvero mediante matrici del cambiamento di base in forma diagonale.
C
C
Capitolo 8
375
Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nell’Esercizio 8.11. Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi e uno negativo, si ha subito che la forma normale di Q e` :
Q(x) =
z 1 z 2 z 3
1 0 0
0 1 0
− 0 0 1
z 1 z 2 z 3
= z 12 + z 22
2 3
− z ,
con x di componenti (z 1 , z 2 , z 3 ) rispetto ad una base ( f 1 , f 2 , f 3 ) che permetta di realizzare la forma normale di Q, con: f 1 = f 1 ,
f 2 =
1 f 3 , 2
f 3 =
√ 12 f . 2
Poich´e le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei loro autovalori non e` l’unico modo per ridurre a forma canonica una forma quadratica. Nel Paragrafo 8.8.3 si introdurranno metodi piu` sofisticati, ma l’esercizio che segue mostra come sia possibile procedere alla riduzione a forma canonica di una forma quadratica semplicemente utilizzando il metodo del completamento dei quadrati . Ci`o e` dovuto al fatto che la forma polinomiale di Q non e` altro che un polinomio omogeneo di secondo grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi.
Esercizio 8.13 Ricavare un’altra forma canonica della forma quadratica Q introdotta nell’ Esercizio 8.11. Utilizzando il metodo del completamento dei quadrati si pu`o procedere, per Soluzione esempio, come segue:
Q(x) = 2(x21 = 2(x21 = 2(x1 = 2(x1
2 2
− 2x x ) + x − 4x x − 2x x + x ) − 2x + x − 4x x − x ) − (x + 4x x + 4x ) + 4x − x ) − (x + 2x ) + 4x . 1 2 1 2
2 2
2 2
2 3
2 2
2 2
2 2
2 3
2 2
2 3
2 3
2
3
2
2 3
con x = (x1 , x2 , x3 ) . Con il cambiamento di base di equazioni:
2 3
Forme Bilineari e Forme Quadratiche
376
−
y1 = x 1 x2 y2 = x 2 + 2x3 y3 = x 3 ,
ossia
che si pu`o anche scrivere nella forma:
x1 x2 x3
=
1 0 0
1 1 0
Q(x) = 2y12
−
−2 −2
1
la forma quadratica assume la forma canonica:
−
x1 = y 1 + y2 2y3 x2 = y 2 2y3 x3 = y 3 ,
y1 y2 y3
2 2
,
2 3
− y + 4y , con (y , y , y ) componenti di x rispetto alla base C = (c , c , c ) individuata dal cam1
2
2
1
2
3
biamento di base usato, ossia:
c1 = (1, 0, 0),
c2 = (1, 1, 0),
− −2, 1).
c3 = ( 2,
C
Si osservi che non e` una base ortonormale. Procedendo come nell’Esercizio 8.12 si ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:
√
1 1 c1 , c3 , c2 . 2 2
Nel paragrafo che segue si dimostrer`a che la forma normale di una forma quadratica e` unica. Si enuncia ora il Teorema di Gauss–Lagrange in cui si afferma che mediante il metodo del completamento dei quadrati si implementa un algoritmo che si pu`o applicare ad ogni forma quadratica, permettendo cos`ı la sua classificazione senza ricorrere al calcolo degli autovalori della matrice ad essa associata, per la dimostrazione si veda ad esempio [18].
Teorema 8.19 – Teorema di Gauss–Lagrange – Sia Q una forma quadratica su uno spazio vettoriale V, mediante il metodo del completamento dei quadrati applicato all’espressione polinomiale di Q e` possibile determinare una base di V che permette di scrivere la forma quadratica Q in forma canonica.
8.6
La segnatura di una forma quadratica
` possibile a questo punto dello studio delle forme quadratiche enunciare e dimostrare il E fondamentale Teorema di Sylvester che rende plausibile una qualunque scelta di forma canonica di una forma quadratica ai fini della sua classificazione.
Capitolo 8
377
Teorema 8.20 – Teorema di Sylvester – Sia V uno spazio vettoriale reale di dimensione n . Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p di coefficienti positivi e lo stesso numero q di coefficienti negativi.
≤
Dimostrazione Poich´e p + q = rank(Q) si ponga p + q = r n e si consideri la forma normale (8.17) della forma quadratica Q ottenuta nel corso della dimostrazione del Teorema 8.18 rispetto ad una base = (f 1 , f 2 , . . . , f n ) di V. Resta da dimostrare che p dipende solo da Q e non dalla base . Si supponga allora che esista un’altra base = (b1 , b2 , . . . , bn ) di V rispetto alla quale la forma quadratica Q si esprima come:
C
B
C
Q(x) = z 12 + . . . + z t2
2
2
− z − . . . − z t+1
r
(8.18)
≤
per un opportuno intero t r. Si deve dimostrare che t = p . Si supponga per assurdo che t = p e che sia t < p. Si considerino i sottospazi vettoriali:
p
S = L(f , f , . . . , f ), T = L(b , b , . . . , b ). = { o}. Si consideri Poich´e dim(S ) + dim(T ) = p + n − t > n, deve essere S ∩ T quindi un vettore x ∈ S ∩ T , x = o, e lo si esprima sia rispetto alla base di S sia rispetto alla base di T , si ha: 1
2
t+1
t+2
n
x = y 1 f 1 + y2 f 2 + . . . + y p f p = z t+1 bt+1 + z t+2 bt+2 + . . . + z n bn .
|
S e tenendo conto del Teorema 8.13,
Sia Q S la restrizione della forma quadratica Q a da (8.17) si ottiene:
Q S (x) = Q(x) = (y1 )2 + (y2 )2 + . . . + (y p )2 > 0.
|
Invece, considerando la restrizione Q 8.13, da (8.18) si deduce che:
|
|
T
T e tenendo di nuovo conto del Teorema
di Q a
Q T (x) = Q(x) =
2
2
−z − . . . − z < 0, t+1
r
da cui l’assurdo, quindi p = t . Il Teorema di Sylvester e` anche spesso denominato come Legge di Inerzia in quanto ha come conseguenza immediata il seguente corollario.
Corollario 8.3 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n ammette una sola forma normale. Il risultato enunciato nel Teorema 8.20 permette di introdurre la seguente definizione.
378
Forme Bilineari e Forme Quadratiche
Definizione 8.15 Sia Q una forma quadratica definita su uno spazio vettoriale reale V di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molte plicit a` ) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori negativi (contati con le relative molteplicit `a) della stessa matrice, allora la coppia ( p, q ) prende il nome di segnatura di Q. 1. Segue subito dal Teorema 8.20 che la segnatura di una forma Osservazione 8.24 quadratica Q non dipende dalla matrice scelta per la sua determinazione. 2. Da osservare che rispetto alla base = (f 1 , f 2 , . . . f n ) in cui Q si scrive in forma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma quadratica Q e` data da:
C
M C (Q) =
I p
0
0
0
−I
0
0
r− p
0
,
On−r
dove r e` il rango di Q , I j indica la matrice unit`a di ordine j e On−r denota la matrice nulla di ordine n r .
−
3. Una forma quadratica Q su uno spazio vettoriale reale V di dimensione n e` non degenere se e solo se la sua segnatura ( p, q ) e` tale che p + q = n . Grazie al Teorema 8.20 e` evidente che per studiare il segno di una forma quadratica Q e` sufficiente conoscere i segni dei coefficienti di una forma canonica di Q, in particolare quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. I segni degli autovalori di A (non gli autovalori) si possono determinare agevolmente a partire dal polinomio caratteristico della matrice A , utilizzando il seguente teorema, la cui dimostrazione e` spesso inserita nei testi di algebra della scuola secondaria superiore.
Teorema 8.21 – Regola dei segni di Cartesio – Sia f (x) = a 0 + a1 x + . . . + an xn un polinomio a coefficienti reali con tutte le radici reali. Allora le radici positive di f sono tante quante sono le variazioni di segno della successione a 0 , a1 , . . . , an . Esempio 8.21 1. Il polinomio f (x) = 8+2x 5x2 +x3 ha le due radici reali positive 2 e 4. D’altra parte nella successione dei coefficienti 8, 2, 5, 1 ci sono due variazioni di segno.
−
−
2. Il polinomio f (x) = (x + 1)(x 2)(x 4)(x 5)x3 ha radici 0, radici positive sono tre. D’altra parte f (x) = 40x3 12x4 + 27x5 si vede che ci sono tre variazioni di segno nei coefficienti di f .
−
−
−
−
−
−1, 2, 4, 5 e le − 10x + x e 6
7
Capitolo 8
379
` chiaro che si pu o` applicare questa regola al polinomio caratteristico di una qualsiasi E matrice associata a una forma quadratica perch´e esso, essendo la matrice simmetrica, ha tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare simmetrica ϕ ad essa associata) si puo` procedere nel modo seguente: 1. si determina una matrice A associata a Q e se ne calcola il polinomio caratteristico
P (λ) = det(A
− λI ).
2. Si scrive P (λ) = λ s R(λ), con R(0) = 0. Si osservi che:
rank(A) = rank(Q) = n
−s
e che s e` la molteplicit a` dell’autovalore 0 . 3. Poich´e A e` una matrice simmetrica, per il Teorema Spettrale 7.8 P (λ) ha tutte radici reali e pertanto si pu`o applicare la regola dei segni di Cartesio. Si contano le variazioni di segno del polinomio R(λ), se esse sono p allora R(λ) ha p radici positive. In conclusione P (λ) ha:
s radici nulle; p radici positive; n
− ( p + s) radici negative.
Esercizio 8.14 Determinare la segnatura della forma quadratica Q su R 3 definita da:
Q(x) = 2x21 + x22
− 4x x − 4x x , 1 2
2 3
con x = (x1 , x2 , x3 ). La matrice associata a Q rispetto alla base canonica Soluzione polinomio caratteristico P (λ) sono:
M B (Q) =
−
2 2 0
−2 0 1 −2 −2 0
,
P (λ) =
3
−λ
B di R
+ 3λ2 + 6λ
3
e il relativo
− 8.
In P (λ) vi sono due variazioni di segno e 0 non `e una radice. Quindi la forma quadratica Q e` indefinita, non degenere ed ha segnatura (2, 1) . Le propriet`a che seguono, e che riassumono i risultati ottenuti in precedenza, in realt a` caratterizzano la segnatura di una forma quadratica attraverso il segno degli autovalori della matrice ad essa associata.
Forme Bilineari e Forme Quadratiche
380
Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A , rispetto ad una base di V , e` definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A sono strettamente positivi (negativi).
B
Dimostrazione Si supponga che Q sia definita positiva. Se per assurdo, fosse ad esempio λ1 0 si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) = λ1 0, con x = o, contro l’ipotesi. La dimostrazione nel caso in cui Q sia definita negativa e` analoga. Il viceversa `e ovvia conseguenza dei teoremi di classificazione appena enunciati.
≤
≤
Osservazione 8.25 Conseguenza immediata del teorema precedente e` che un prodotto scalare su uno spazio vettoriale reale V di dimensione n e` una forma bilineare simmetrica associata ad una forma quadratica di segnatura (n, 0). Viceversa ogni forma bilineare simmetrica associata ad una forma quadratica di segnatura (n, 0) e` un prodotto scalare. Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A , rispetto ad una base di V , e` semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A sono non negativi (positivi) e λ = 0 e` un autovalore di A di molteplicit `a almeno 1.
B
Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A , rispetto ad una base di V, e` indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno contrario.
B
Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17. Riassumendo, le possibili forme normali, le segnature e le classificazioni di una forma quadratica Q su uno spazio vettoriale di dimensione n (cfr. Teor. 8.20) sono rispettivamente:
• • • • •
Q(x) = x 21 + x22 + . . . + x2n Q(x) = x 21 + x22 + . . . + x p2 , p 2 1
2 2
2 1
2 2
≤ n,
2
−x − x − . . . − x Q(x) = −x − x . . . − x , q ≤ n, − ... − x , Q(x) = x + . . . + x − x 0 < p < r ≤ n Q(x) =
2 1
n
2 q
2
p
2
p+1
(n, 0)
definita positiva,
( p, 0)
semidefinita positiva,
(0, n)
definita negativa,
(0, q )
semidefinita negativa,
2 r
( p, r
− p) indefinita,
Capitolo 8
381
dove x e` un qualsiasi vettore di V di componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permetta di scrivere Q in forma normale. ` molto piu` agevole calcolare l’insieme dei vettori isotropi di una Osservazione 8.26 E forma quadratica Q partendo dalla sua forma normale, e` necessario per`o dividere la trattazione a seconda della classificazione di Q.
I
a. Se Q e` una forma quadratica semidefinita positiva, di segnatura ( p, 0), p sua forma normale `e: Q(x) = x 21 + x22 + . . . + x p2 ,
≤ n, la
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi `e: 2 1
2 2
2
I = {x ∈ V | x + x + . . . + x = 0} = {x ∈ V | x = x = . . . = x = 0} e I e` un sottospazio vettoriale di V. Il caso delle forme quadratiche semidefinite 1
p
2
p
negative e` analogo.
b. Sia, invece, Q una forma quadratica, definita su uno spazio vettoriale V di dimensione n, di segnatura ( p, q ), q = 0 e rango p + q = r n, quindi di forma normale: Q(x) = x 21 + . . . + x p2 x p2+1 . . . x2r ,
≤
−
− −
dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi `e: 2 1
2
2
2
I = {x ∈ V | x + . . . + x − x − . . . − x = 0}. {o} e non `e un sottospazio vettoriale di V. La verifica di quest’ultima Pertanto I = p
p+1
r
affermazione e` un facile esercizio.
Osservazione 8.27 Come gi`a annunciato all’inizio di questo capitolo, la riduzione di una forma quadratica in forma canonica ottenuta attraverso gli autovalori assume notevole importanza in geometria analitica, ad esempio, nella riduzione a forma canonica delle coniche nel piano e delle quadriche nello spazio perch e´ e` legata a cambiamenti di basi ortonormali e conseguentemente a cambiamenti di riferimento cartesiani del piano e dello spazio. I Capitoli 10 e 12 tratteranno diffusamente questi argomenti.
8.7
Esercizi di riepilogo svolti
Esercizio 8.15 In R 3 , riferito alla base canonica
B = (e , e , e ) , 1
2
3
Forme Bilineari e Forme Quadratiche
382
B
1. scrivere, rispetto alla base , la matrice A della forma bilineare simmetrica ϕ tale che siano verificate le seguenti condizioni: a. ϕ(e1 , e1 ) + ϕ(e3 , e3 ) = 3, b. ϕ(e1 , e1 ) = 2ϕ(e3 , e3 ) = 4ϕ(e2 , e3 ), c. ϕ(e1 , e2 ) = ϕ(e2 , e3 ), d. i vettori e3 e v =
−e + e + e sono ortogonali rispetto a ϕ , 1
2
3
e. il vettore e2 e` isotropo rispetto alla forma quadratica Q associata a ϕ . 2. Scrivere l’espressione polinomiale della forma quadratica Q associata a ϕ . 3. Classificare Q , determinandone la sua forma normale ed una base rispetto alla quale Q assume tale forma. 4. Dire se i vettori e2 e u = e 1 + e2
− e sono ortogonali rispetto a ϕ . 3
1. Si tratta di determinare gli elementi della matrice A associata a ϕ rispetto Soluzione alla base assegnata. Poich´e A = (aij ) e` una matrice simmetrica e a ij = ϕ(ei , e j ), le condizioni a., b., c. equivalgono al sistema lineare:
a11 + a33 = 3 a11 = 2a33 = 4a23 a12 = a23 ,
la cui soluzione `e:
a11 = 2 a12 = a23 =
1 2
a33 = 1.
La condizione d. equivale a:
−
1 1 1
A
0 0 1
− =
1 1 1
2
1 2
a13
1 2
a22
1 2
a13
1 2
1
0 0 1
= 0,
da cui si ottiene a 13 = 3/2. La condizione e. equivale a a 22 = 0 . Allora, la matrice
Capitolo 8
383
A richiesta `e:
A =
2
1 2
3 2
1 2
0
1 2
3 2
1 2
1
.
2. Dalla matrice A appena ricavata segue che: Q(x) = 2x21 + x1 x2 + 3x1 x3 + x2 x3 + x23 , con x = (x1 , x2 , x3 ).
3. Il polinomio caratteristico P (λ) della matrice A e` dato da: P (λ) =
3
−λ
+ 3λ2 +
3 λ, 4
da cui si deduce che la forma quadratica e` degenere (il polinomio caratteristico ha termine noto nullo); utilizzando la regola dei segni di Cartesio si vede una sola variazione di segno tra i coefficienti di P (λ) , quindi la segnatura di Q e` (1, 1) , pertanto la forma quadratica `e indefinita. La sua forma normale `e:
Q(x) = z 12
2 2
− z ,
con (z 1 , z 2 , z 3 ) componenti del vettore x rispetto ad una base di R3 secondo la quale Q si scrive in forma normale. Questa base si pu o` trovare determinando dapprima una base ortonormale di autovettori di A , i cui autovalori sono:
λ1 =
√
1 (3 + 2 3), 2
λ2 =
1 (3 2
− 2√ 3),
λ3 = 0,
tutti di molteplicit a` 1; una base ortonormale di autovettori e` data da (f 1 , f 2 , f 3 ), dove: f 1 =
√ √ 1 √ (1 + 3, −1 + 3, 2), 2 3
f 3 =
√ 13 (−1, 1, 1),
f 2 =
√ √ 1 √ (1 − 3, −1 − 3, 2), 2 3
Forme Bilineari e Forme Quadratiche
384
e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema 8.18, si ottiene la base:
√ √ √ √ − 2
2
f 1 ,
3+2 3
3+2 3
f 2 , f 3 ,
rispetto alla quale Q si scrive in forma normale.
4. I vettori dati sono ortogonali, rispetto a ϕ, in quanto:
0 1 0
− A
Esercizio 8.16 In R3 , riferito alla base canonica bilineare simmetrica ϕ definita da:
ϕ(x, y) = x 1 y1 + 6x2 y2 + 56x3 y3
1 1 1
= 0.
B = (e , e , e ) , si consideri la forma 1
2
3
− 2(x y + x y ) + 7 (x y + x y ) − 18(x y + x y ), 1 2
2 1
1 3
3 1
2 3
3 2
dove x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ).
B. = e , e = 2e + e , e = −3e + 2 e + e formano una
1. Scrivere la matrice A associata a ϕ rispetto alla base 2. Provare che i vettori e1 base di R 3 .
B
1
1
2
2
1
3
3. Scrivere la matrice A associata a ϕ rispetto alla base
2
3
B = ( e , e , e ). 1
2
3
4. Scrivere le espressioni polinomiali della forma quadratica Q associata a ϕ rispetto alle basi e .
B B
Soluzione
1. La matrice A associata alla forma bilineare ϕ rispetto alla base A =
−
−
1 2 7
−2 7 6 −18 −18 56
B e` :
.
2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e 1 , e2 , e3 rispetto alla base : 1 2 3 0 1 2 , P = 0 0 1
B
ha det(P ) = 1, perci`o i vettori e1 , e2 , e3 formano una base
B
di R 3 .
Capitolo 8
385
3. Poich´e la matrice del cambiamento di base da a e` P, dal Teorema 8.4 segue che la matrice A associata a ϕ rispetto alla base si ottiene come:
B B B
A = tP AP =
1 0 0
0 2 0
− 0 0 1
.
B
4. Rispetto alla base , l’espressione polinomiale della forma quadratica Q associata a ϕ e` : Q(x) = x 21 + 6x22 + 56x23 4x1 x2 + 14x1 x3 36x23 .
−
−
Tenendo conto della formula (8.9) l’espressione polinomiale della forma quadratica Q, rispetto alla base , e` :
B
Q(x) = y 12 + 2y22
2 3
− y ,
dove con (y1 , y2 , y3 ) si indicano le componenti di x rispetto alla base . Si osservi che P non `e una matrice ortogonale e che il polinomio caratteristico di A e` :
B
det(A
− λI ) = −λ
3
+ 63λ2
− 21λ − 2,
mentre quello di A e` :
det(A
3
− λI ) = −λ
+ 2λ2 + λ
− 2,
ossia A e A non sono matrici simili.
Esercizio 8.17 Sia V 4 uno spazio vettoriale reale riferito alla base
B = (v , v , v , v ). 1
2
3
4
1. Determinare la matrice A delle generica forma bilineare simmetrica ϕ su V 4 tale che: a. le restrizioni di ϕ ai sottospazi vettoriali siano le forme bilineari nulle,
W = L(v , v ) e W = L(v , v ) 1
1
2
2
3
4
− v + 2v appartenga a ker ϕ. 2. Detto H il sottospazio vettoriale di B (V , R) generato dalle forme bilineari simmetriche ϕ determinate nel punto 1. , individuare una base di H . b. il vettore u = v 1
2
4
s
4
Forme Bilineari e Forme Quadratiche
386
Soluzione 1. In analogia alla definizione di restrizione di forma quadratica ad un sottospazio vettoriale introdotta nel Paragrafo 8.4, si pu o` enunciare la definizione di di uno spazio vettoriale V di una forma restrizione ad un sottospazio vettoriale bilineare simmetrica ϕ definita su V come la funzione:
W
| W × W −→ R,
ϕ W : data da:
|
ϕ W (x, y) = ϕ(x, y), Si verifichi per esercizio che ϕ
|
W
x, y
∈ W .
e` una forma bilineare simmetrica su
A = (aij ) la matrice simmetrica associata a ϕ rispetto alla base richieste in a. equivalgono a:
W . Sia
B. Le condizioni
ϕ(v1 , v1 ) = ϕ(v1 , v2 ) = ϕ(v2 , v2 ) = 0, ϕ(v3 , v3 ) = ϕ(v3 , v4 ) = ϕ(v4 , v4 ) = 0, che corrispondono a:
a11 = a 12 = a22 = 0, a33 = a 34 = a44 = 0. Di conseguenza la matrice A e` del tipo:
A =
0 0 a13 a14 0 0 a23 a24 0 a13 a23 0 0 a14 a24 0
La condizione b. equivale alle seguenti condizioni:
.
ϕ(u, v1 ) = ϕ(u, v2 ) = ϕ(u, v3 ) = ϕ(u, v4 ) = 0, che corrispondono a:
a14 = a24 = 0, con h
h
a13 = a23 = h,
∈ R. Quindi, concludendo, si trovano infinite matrici A, che dipendono da
∈ R e che saranno indicate come: A(h) =
0 0 h 0
0 0 h 0
h h 0 0
0 0 0 0
,
h
∈ R.
Capitolo 8
387
2. Considerando l’isomorfismo tra s (V 4 , R) e lo spazio vettoriale delle matrici simmetriche (R4,4 ), definito dopo aver fissato la base in V 4 (cfr. Teor. 8.2) si
B S B ha che il sottospazio vettoriale H richiesto e` formato dalle forme bilineari simmetriche associate alle matrici A(h) ricavate nel punto precedente. Di conseguenza dim(H) = 1 ed una sua base e` per esempio data dalla forma bilineare simmetrica associata alla matrice A(1).
Esercizio 8.18 Si consideri la funzione:
ϕ : R2,2
2,2
× R −→ R,
(A, B)
t
t
−→ tr( A P B),
con P matrice appartenente a R 2,2 . 1. Verificare che ϕ e` una forma bilineare. 2. Dimostrare, usando le propriet`a della traccia e della trasposta di una matrice, che ϕ e` una forma bilineare simmetrica se e solo se P e` una matrice simmetrica. 3. Posto:
P =
0 1
−1
− 0 , verificare che rispetto alla base canonica B di R la forma quadratica Q associata a ϕ e` data da: Q(X ) = −2x x − 2x x , 2,2
1 3
con
X =
2 4
x1 x2 x3 x4
.
4. Classificare la forma quadratica Q del punto 3. , determinare una forma canonica ed una base di R 2,2 rispetto alla quale Q si scrive in forma canonica.
B
Soluzione
1. Dalle propriet`a della traccia e della trasposta di una matrice si ha:
ϕ(A1 + A2 , B) = tr( t (A1 + A2 ) tP B) = tr( tA1 tP B + tA2 tP B) = tr( tA1 tP B) + tr( tA2 tP B) = ϕ(A1 , B) + ϕ(A2 , B),
∈ R
2,2
per ogni A 1 , A2 , B
. Analogamente si verifica che:
ϕ(A, B1 + B2 ) = ϕ(A, B1 ) + ϕ(A, B2 ), ϕ(λ A , B) = ϕ(A , λ B) = λ ϕ(A, B),
∈ R
per ogni A, B1 , B2 , B
2,2
e per ogni λ
∈ R. Perci`o ϕ e` una forma bilineare.
Forme Bilineari e Forme Quadratiche
388
2. Dalle propriet`a della traccia di una matrice si ha che:
ϕ(A, B) = tr( tA tP B) = tr( t (tA tP B)) = tr( tBP A), per ogni A, B verifica che:
∈ R
2,2
. Pertanto, se P e` una matrice simmetrica, ossia tP = P, si 2,2
∈ R
ϕ(A, B) = tr( tBP A)) = tr( tB tP A) = ϕ(B, A),
A, B
.
Viceversa, se ϕ e` una forma bilineare simmetrica, ossia ϕ(A, B) = ϕ(B, A) per ogni A, B R2,2 , dalle uguaglianze:
∈
ϕ(A, B) = tr( tBP A),
∈ R , si ottiene tr( BP A) = tr( B P A), vale a dire tr( BP A − B P A) = 0, per ogni A, B ∈ R , da cui: tr( B(P − P )A) = 0, A, B ∈ R . In particolare, ponendo A = I e B = P − P , si ottiene: tr( (P − P )(P − P )) = 0. ϕ(B, A) = tr( tB tP A),
t
t
2,2
A, B
t
t
t
t
2,2
t
2,2
t
t
t
t
t
Ma e` noto che:
tr( tXX ) = 0
⇐⇒
X = O,
dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa t verifica si pu`o ricordare l’Esempio 5.6. Pertanto P P = O , ossia la tesi.
−
3. Si ha:
Q(X ) = ϕ( tX tP X ) = tr
−2x x −x x − x x −x x − x x −2x x 1 3
1 4
1 4
2 3
2 3
2 4
=
−2x x −2x x . 1 3
2 4
4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base canonica di R 2,2 , e` :
B
M B (Q) =
−
0 0 1 0
−
0 0 0 1
−1
0 0 0
− 0 1 0 0
.
Capitolo 8
389
con autovalori:
λ1 = 1,
λ2 =
−1
entrambi di molteplicit a` 2 ed autospazi:
L − − = L((1, 0, 1, 0), (0, 1, 0, 1)).
V λ = ((1, 0, 1, 0), (0, 1, 0, 1)), 1
V λ
2
La forma quadratica Q scritta in forma canonica e` dunque:
Q(X ) = y 12 + y22
2 3
2 4
− y − y ,
con (y1 , y2 , y3 , y4 ) componenti di X rispetto alla base:
B
=
√ √ √ √ 1 2
1 1
0 0
−
1 2
,
0 0
−
1 1
,
1 2
1 1
0 0
,
1 2
0 0
1 1
.
Q e` pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).
8.8
Per saperne di pi`u
8.8.1
Forme bilineari simmetriche ed endomorfismi autoaggiunti
In questo paragrafo si vuole definire una corrispondenza biunivoca tra endomorfismi autoaggiunti di uno spazio vettoriale euclideo e forme bilineari simmetriche e dimostrare che, rispetto a basi opportune, essi sono associati alla stessa matrice. Valgono infatti i seguenti teoremi.
·
Teorema 8.25 Se f e` un endomorfismo di uno spazio vettoriale euclideo (V, ) la fun zione ϕ : V V R , definita da:
× −→
·
∈ V, (8.19) e` una forma bilineare su V. Viceversa se ϕ : V × V −→ R e` una forma bilineare su V allora la relazione (8.19) definisce un endomorfismo f : V −→ V. ϕ(x, y) = x f (y),
Dimostrazione
x, y
Se f e` un endomorfismo di V allora si ha:
·
·
·
1. ϕ(x1 + x2 , y) = ( x1 + x2 ) f (y) = x 1 f (y) + x2 f (y) = ϕ(x1 , y) + ϕ(x2 , y), per ogni x1 , x2 , y
∈ V.
Forme Bilineari e Forme Quadratiche
390
·
·
·
·
2. ϕ(x, y1 + y2 ) = x f (y1 + y2 ) = x (f (y1 ) + f (y2 )) = x f (y1 ) + x f (y2 )
= ϕ(x, y1 ) + ϕ(x, y2 ),
∈ V. 3. ϕ(λ x, y) = (λ x) · f (y) = λ(x · f (y)) = λ ϕ(x, y), per ogni x, y ∈ V e per ogni λ ∈ R. 4. ϕ(x, λy) = x · f (λy) = x · λf (y) = λ ϕ(x, y), per ogni x, y ∈ V e per ogni λ ∈ R. Quindi la funzione ϕ : V × V −→ R definita tramite (8.19) e` una forma bilineare. Viceversa, si consideri la relazione f : V −→ V definita tramite (8.19). f e` una funper ogni x, y1 , y2
zione, infatti per ogni y in V esiste ed e` unico il vettore f (y) in quanto, fissato x in V, il secondo membro di (8.19) e` ben determinato. La verifica della linearit`a di f, del tutto analoga alla verifica appena effettuata della bilinerit a` della forma ϕ, e` lasciata per esercizio. Le forme bilineari simmetriche possono essere caratterizzate tramite un endomorfismo autoaggiunto (cfr. Def. 6.11) come afferma il seguente teorema.
−→
Teorema 8.26 Siano f : V V l’endomorfismo della spazio vettoriale euclideo (V, ) e ϕ la forma bilineare su V definiti tramite la relazione (8.19), f e` un endomorfismo autoaggiunto di V se e solo se la foma bilineare ϕ e` simmetrica.
·
Dimostrazione
Se f e` un endomorfismo autoaggiunto di V si ha:
·
·
ϕ(x, y) = x f (y) = y f (x) = ϕ(y, x),
x, y
∈ V.
Il viceversa e` analogo ed `e lasciato per esercizio. Il teorema che segue, e che conclude la trattazione proposta, mette in relazione la matrice associata ad una forma bilineare simmetrica rispetto ad una base dello spazio vettoriale su cui essa e` definita con la matrice associata all’endomorfismo autoaggiunto, ottenuto tramite la forma bilinere simmetrica mediante (8.19), rispetto alla stessa base.
1. Sia ϕ una forma bilineare simmetrica definita su uno spazio vetTeorema 8.27 toriale euclideo (V, ) di dimensione n e sia una base ortonormale di V. La matrice simmetrica A associata a ϕ rispetto alla base coincide con la matrice associata, rispetto alla base , all’endomorfismo autoaggiunto f di V definito tramite la relazione (8.19).
·
B
B
B
Capitolo 8
391
2. Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale V di dimensione n, si indichi con A la matrice associata a ϕ rispetto ad una base di V . Se si considera su V il prodotto scalare che rende ortonormale la base , allora la relazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al
B
B
prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto alla base , sia A.
B
Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono e` conseguenza della relazione:
ϕ(x, y) = tXAY = x f (y) = tXBY,
·
che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale, dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto alla base , con A la matrice associata a ϕ, rispetto alla base e con B la matrice associata ad f , rispetto a .
B
B
B
Nell’esercizio proposto di seguito si intende evidenziare che una matrice simmetrica non e` necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la simmetria di una matrice e un endomorfismo autoaggiunto e` legata al prodotto scalare che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale euclideo su cui esso `e definito. 1. Verificare che la forma bilineare simmetrica ϕ : R2 R2 Esercizio 8.19 R, 2 con matrice associata A rispetto alla base canonica = (e1 , e2 ) di R data da:
A =
2 1
−
−1
1
B
× −→
,
e` un prodotto scalare su R 2 .
2. Dopo aver controllato che l’endomorfismo f di R2 con matrice associata B rispetto alla base canonica di R 2 data da:
B=
1 2
2 1
non e` autoaggiunto (rispetto al prodotto scalare definito in 1. ), determinare la matrice associata all’endomorfismo g aggiunto di f , rispetto alla base .
B
Soluzione 1. La forma bilineare simmetrica ϕ e` un prodotto scalare in quanto i due autovalori della matrice A sono entrambi positivi.
Forme Bilineari e Forme Quadratiche
392
2. Affinch´e f sia autoaggiunto rispetto al prodotto scalare ϕ deve valere la seguente relazione: 2
∈ R .
ϕ(f (x), y) = ϕ(x, f (y)),
x, y
Ponendo x = e 1 e y = e 2 si verifica che ϕ(f (e1 ), e2 ) = 1 invece ϕ(e1 , f (e2 )) = 3 quindi f non e` autoaggiunto rispetto al prodotto scalare ϕ. L’endomorfismo g di R2 aggiunto di f deve verificare la relazione: 2
∈ R ,
ϕ(f (x), y) = ϕ(x, g(y)),
x, y
da cui segue che la matrice C associata a g, rispetto alla base
C =
3 6
0 1
−
B e` :
.
Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui e` definito un prodotto scalare ϕ a cui e` associata la matrice simmetrica A Rn,n rispetto ad una base di V . La matrice B R n,n associata ad un endomorfismo f di V autoaggiunto rispetto al prodotto scalare ϕ , ossia tale che:
B
∈
∈
ϕ(f (x), y) = ϕ(x, f (y)), rispetto alla base
∈ V,
x, y
(8.20)
B, verifica la relazione: t
B A = A B.
La dimostrazione del Teorema 8.28 e` un esercizio, e` infatti sufficiente esprimere la for` evidente che se la forma bilineare ϕ e` scritta in forma mula (8.20) in componenti. E normale, ossia A = I, con I matrice unit`a di Rn,n , allora la matrice B e` simmetrica. Si lascia anche per esercizio la determinazione di tutti gli altri casi in cui la matrice B e` simmetrica.
8.8.2
Forme bilineari simmetriche e spazio vettoriale duale
Dal Teorema 6.19 si ottiene che uno spazio vettoriale reale V di dimensione finita e` isomorfo al suo spazio vettoriale duale V ∗ . L’isomorfismo tra i due spazi vettoriali non e` per`o canonico, perch´e per definirlo occorre effettuare la scelta di una base di V , infatti scelte diverse di basi determinano isomorfismi diversi. In questo paragrafo si dimostra come si possa introdurre un isomorfismo canonico tra V e il suo duale V ∗ tramite una forma bilineare simmetrica non degenere.
Capitolo 8
393
Ogni forma bilineare ϕ su uno spazio vettoriale reale V definisce una coppia di applicazioni lineari f 1 , f 2 : V V ∗ da V nel suo duale V ∗ (cfr. Def. 6.12), nel modo seguente: f 1 (x)(y) = ϕ(x, y), (8.21) f 2 (x)(y) = ϕ(y, x), x, y V.
−→
∈
L’Osservazione 8.1 garantisce che f 1 (x) e f 2 (x) sono forme lineari su V, in quanto f 1 (x)(y) = ϕx (y) e f 2 (x)(y) = ϕ y (x). Viceversa, e` un facile esercizio verificare che ogni applicazione lineare f : V definisce una forma bilineare ϕ su V ponendo:
ϕ(x, y) = f (x)(y).
−→ V
∗
(8.22)
Se ϕ e` una forma bilineare simmetrica, allora le due applicazioni lineari f 1 , f 2 definite da (8.21) coincidono con l’applicazione lineare f definita da (8.22), inoltre:
f (x)(y) = f (y)(x),
∈ V.
x, y
Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teorema.
Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n . Ogni forma bilineare simmetrica non degenere ϕ su V determina un isomorfismo f : V V ∗ , definito da (8.22). Viceversa, ogni isomorfismo f : V V ∗ definisce mediante (8.22) una forma bilineare simmetrica non degenere ϕ su V .
−→
−→
Dimostrazione Per dimostrare il teorema e` sufficiente provare che, se ϕ e f sono legati tra di loro dalla relazione (8.22), allora ker ϕ = ker f . Infatti se x ker ϕ , allora ϕ(x, y) = 0 per ogni y V, quindi f (x)(y) = 0 , per ogni y V , ossia f (x) e` la forma lineare nulla, pertanto x ker f . Analogamente, si prova che se x ker f , allora x ker ϕ .
∈
∈
8.8.3
∈
∈
∈ ∈
Altri metodi di classificazione di una forma quadratica
Poich´e le matrici associate alla stessa forma bilineare simmetrica non sono tutte simili tra di loro, il calcolo degli autovalori non e` l’unico metodo per classificare una forma quadratica, come gi`a osservato nell’Esercizio 8.13. In questo paragrafo si introdurranno due metodi diversi per classificare una forma quadratica che non si basano sul procedimento di diagonalizzazione di una matrice associata, infatti nel primo metodo si utilizza il calcolo dei minori mentre per il secondo si procede con una opportuna riduzione per righe e per colonne.
Forme Bilineari e Forme Quadratiche
394
Il concetto di minore di ordine k < n di una matrice A Rn,n e` stato introdotto nella Definizione 2.11 ed `e il determinante di una sottomatrice (quadrata) di ordine k di A.
∈
Definizione 8.16 Sia A (Rn,n) una matrice simmetrica. I minori principali di ordine k ( k < n ) di A sono i minori che si ottengono considerando sottomatrici formate da k righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con det(A) . I minori principali di Nord–Ovest (N.O.) di ordine k di una matrice simmetrica A sono i minori principali che si ottengono considerando le prime k righe (e di conseguenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le ultime n k righe e le ultime n k colonne.
∈ S
−
−
Esempio 8.22 Si consideri la matrice:
A =
1 2 3 2 1 2 3 2 2
,
i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati dall’intersezione della prima riga con la prima colonna, oppure seconda riga e seconda colonna, oppure terza riga e terza colonna):
1,
1,
2.
I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna, cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire:
1 2 2 1
=
−3,
1 3 3 2
=
−7,
1 2 2 2
=
−2.
Il minore principale di ordine 3 (tutte e tre le righe) e` det(A) = 5. I minori principali di N.O. sono invece soltanto:
1 (di ordine 1),
1 2 2 1
=
−3 (di ordine 2), det(A) = 5 (di ordine 3).
Usando i minori principali di N.O. si pu o` pervenire agevolmente alla classificazione di una forma quadratica, come afferma il teorema che segue, per la sua dimostrazione si veda ad esempio [4].
Capitolo 8
395
B
Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e una base di V. Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla base e` :
B
1. definita positiva se e solo se tutti i minori principali di N.O. di A sono positivi; 2. definita negativa se e solo se tutti i minori principali di N.O. di A di ordine pari sono positivi e tutti i minori principali di N.O. di A di ordine dispari sono negativi; 3. semidefinita positiva se e solo se tutti i minori principali di A sono non negativi e det(A) = 0 ; 4. semidefinita negativa se e solo se tutti i minori principali di A di ordine pari sono non negativi, tutti i minori principali di A di ordine dispari sono non positivi e det(A) = 0 ; 5. indefinita se e solo se non si verifica alcuna delle situazioni precedenti. Esempio 8.23 Si consideri la forma quadratica su R 3 , definita rispetto alla base canonica = (e1 , e2 , e3 ) di R 3 , da:
B
Q(x) = 4x21
2 2
2 3
− 2x x + 2x + 2x x + 2x , 1 2
2 3
con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base e` :
B
A =
−
4 1 0
−1
2 1
0 1 2
.
I tre minori principali di N.O. sono 4 , 7 e 10 , quindi la forma quadratica Q e` definita positiva.
Esempio 8.24 Si consideri la forma quadratica su R 4 :
Q(x) = 4x1 x2 + 2x22 + 2x2 x3 + x23 + 4x3 x4 + 2x24 , con x = (x1 , x2 , x3 , x4 ). La matrice A associata alla forma quadratica Q rispetto alla base canonica = (e1 , e2 , e3 , e4 ) di R 4 e` :
B
A =
0 2 0 0
2 2 1 0
0 1 1 2
0 0 2 2
.
396
Forme Bilineari e Forme Quadratiche
La forma quadratica Q e` indefinita, poich´e il minore principale di N.O. di ordine 1 (dato del determinante dell’intersezione della prima riga e della prima colonna) `e uguale a zero ed il minore principale di N.O. di ordine 2 e` negativo. Si pu`o agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica che si basa sul metodo di riduzione delle matrici. A questo scopo e` necessario osservare che, in generale, la matrice B ottenuta da una matrice A mediante l’operazione di colonna:
−→ C + λC ,
C i
i
∈ R,
λ
j
coincide con la matrice prodotto AE i dove E i e` la matrice che si ottiene dalla matrice unit`a I sulla quale `e stata eseguita la medesima operazione di colonna. Analogamente la matrice B ottenuta da una matrice A mediante l’operazione di riga:
−→ R + λR ,
Ri
i
∈ R,
λ
j
coincide con la matrice prodotto tE i A, La matrice tE i non e` altro che la matrice che si ottiene dalla matrice unit a` sulla quale e` stata eseguita la medesima operazione di riga. Con le usuali notazioni Ri e C i si indicano, rispettivamente, le righe e le colonne della matrice A considerata.
Esempio 8.25 Data la matrice A :
−→ − − −
A = mediante l’operazione di riduzione C 2
B =
1 2
C 2
1 2
2 3
,
2C 1 si ottiene da essa la matrice:
0 1
.
Operando la stessa operazione di riduzione alla matrice unit a` I si ottiene la matrice:
E 2 =
1 0
2 1
.
Si verifica facilmente che AE 2 = B. Ci`o premesso si eseguano contemporaneamente su una matrice simmetrica A le stesse operazioni sia per le righe sia per le colonne fino a ottenere una matrice diagonale D; le matrici A e D risultano allora legate dalla relazione:
D = tE n . . . tE 2 tE 1 AE 1 E 2 . . . En = t (E 1 E 2 . . . En ) A( E 1 E 2 . . . En ). (8.23)
Capitolo 8
397
Posto P = E 1 E 2 . . . En , si osserva che la matrice P si pu`o ottenere dalla matrice unit`a I sulla quale si siano eseguite, nell’ordine, le operazioni di colonna considerate. Se A e` la matrice associata ad una forma quadratica Q rispetto ad una base fissata, la formula (8.23) assicura che anche la matrice D e` associata alla stessa forma quadratica Q rispetto alla base che si ottiene applicando alla base iniziale la matrice del cambiamento di base P. La verifica che P sia una matrice invertibile e` un semplice esercizio. E` cos`ı possibile applicare il metodo appena descritto per classificare la forma quadratica Q.
Esercizio 8.20 Si riduca a forma canonica la forma quadratica su R3 , definita rispetto alla base canonica di R 3 da:
Q(x) = 4x1 x2 + x22
− 2x x + 4x x , 1 3
2 3
con x = (x1 , x2 , x3 ).
Soluzione
Sulla matrice:
− − 0 2 1
A =
−
−1
2 1 2
2 0
,
associata alla forma quadratica Q, rispetto alla base canonica di R 3 , si operi come segue:
− −
0
2
2
1
1
2
2
0
0
1
1
2
2
0
0
1
0
2
−
−1
2 0
−→ R → R − R 1
1
1
2 0
3
−→
−
0
2
1
1
2
3
−→ R → R − 2R 3
3
2
2 0
0
0
1
0
2
2
0
0
0
1
0
0
2 9 2
1
1
2
→ R + (1/2) R
R3
0
2 1 2
1
−
1
1
3
− −→ → − → −→− 1
2 1 2
C 3
C 3
Una forma canonica di Q e` allora:
− 92 y
Q(x) = 2y12 + y22
−→ C → C − C
2 3
C 3
C 3 + (1/2) C 1
2 C 2
2
0
0
1
0
0
− 0
0 9 2
.
Forme Bilineari e Forme Quadratiche
398
dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P nel modo seguente:
1
0
0
0
1
0
0
0
1
Attenzione al fatto che 2, 1,
8.8.4
−→ C → C − C C → C + (1/2) C C → C − 2 C 1
1
3
3
3
3
3
1
2
−
1
0
0
1
1
0
−9/2 non sono gli autovalori di A !
− 1 2 2
= P.
1 2
Il determinante come forma p -lineare
Estendendo in modo naturale la Definizione 8.1 si pu o` introdurre il concetto di forma p -lineare che conduce, in un caso particolare, alla definizione di determinante di una matrice quadrata. Questo approccio permette di dimostrare agevolmente le propriet`a dei determinanti elencate nel Paragrafo 2.8.
Definizione 8.17 Sia V uno spazio vettoriale reale. Ogni applicazione:
× − × × −→
ϕ : V
V
p
...
V
R,
volte
lineare in ciascun argomento, prende il nome di forma p -lineare su V .
Osservazione 8.28 La definizione precedente generalizza la definizione di forma bilineare (cfr. Def. 8.1). Esempio 8.26 Il prodotto misto di tre vettori nello spazio vettoriale V 3 , definito come la funzione: x y z V 3 V 3 V 3 R, (x, y, z)
× × −→
−→ ∧ ·
(cfr. Def. 3.14) `e un esempio di forma trilineare su V 3 .
Il prodotto misto dei vettori dello spazio ordinario e` proprio l’esempio da cui trae spunto la definizione che segue.
Definizione 8.18 Una forma p -lineare ϕ su uno spazio vettoriale reale V si dice antisimmetrica o alternata se:
ϕ(x1 , . . . , xi , . . . , x j , . . . , x p ) =
−ϕ(x , . . . , x , . . . , x , . . . , x ), 1
per ogni x1 , x2 , . . . , x p in V e per ogni i, j = 1, 2, . . . , p .
j
i
p
Capitolo 8
399
Si ottiene subito il seguente teorema.
Teorema 8.31 Sia ϕ una forma p -lineare antisimmetrica su uno spazio vettoriale reale V. Se xi = x j , per una qualche scelta di i, j = 1, 2, . . . , p , allora ϕ(x1 , x2 , . . . , x p ) = 0 .
B
Esempio 8.27 Sia V uno spazio vettoriale di dimensione 2 con base = (v1 , v2 ) . Dati i vettori x1 = a 11 v1 + a12 v2 , x2 = a 21 v1 + a22 v2 , si vuole calcolare l’espressione di una forma bilineare antisimmetrica ϕ : R R R , utilizzando lo stesso metodo introdotto nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia si ha:
× −→
ϕ(x1 , x2 ) =
=
=
ϕ(v1 , v1 ) ϕ(v1 , v2 )
a11 a12
ϕ(v2 , v1 ) ϕ(v2 , v2 )
a11 a12
= (a11 a22
−
0
ϕ(v1 , v2 )
ϕ(v1 , v2 )
0
a21 a22
a21 a22
−a
12 a21 )ϕ(v1 , v2 )
a11 a12 ϕ(v1 , v2 ). a21 a22
In pratica, il valore di ϕ(x1 , x2 ) e` determinato dal suo valore sugli elementi della base ϕ(v1 , v2 ) , mentre il coefficiente moltiplicativo e` il determinante della matrice avente come righe le componenti dei vettori. Si osservi inoltre che la matrice:
0
ϕ(v1 , v2 )
−ϕ(v , v ) 1
2
0
e` la matrice associata alla forma bilineare antisimmetrica ϕ rispetto alla base osservi anche che `e una matrice antisimmetrica.
B
e si
La situazione descritta nell’esempio precedente si ripete nel caso di dim(V ) = n, come afferma il teorema seguente, la cui dimostrazione, solo un lungo calcolo, e` lasciata al Lettore per esercizio.
Teorema 8.32 Sia V uno spazio vettoriale reale di dimensione n e sia una sua base. Dati i vettori:
B = (v , v , . . . , v ) 1
2
n
Forme Bilineari e Forme Quadratiche
400
x1 = a 11 v1 + a12 v2 + . . . + a1n vn , x2 = a 21 v1 + a22 v2 + . . . + a2n vn , .. . xn = a n1 v1 + an2 v2 + . . . + annvn e la forma n -lineare antisimmetrica:
× − × × −→ ϕ : V
V
n
allora:
ϕ(x1 , x2 , . . . , xn) =
...
V
R,
volte
(σ)a1σ(1) a2σ(2) . . . anσ(n) ϕ(v1 , v2 , . . . , vn ),
(8.24)
σ
dove σ e` una permutazione di (1, 2, . . . , n) e (σ) il suo segno. Di conseguenza ogni forma n -lineare antisimmetrica ϕ sullo spazio vettoriale V e` univocamente determinata dal valore ϕ(v1 , v2 , . . . , vn ) .
Vale anche il reciproco del teorema precedente, la cui dimostrazione e` di nuovo un lungo calcolo lasciato per esercizio.
B
= (v1 , v2 , . . . , vn ) Teorema 8.33 Sia V uno spazio vettoriale di dimensione n e sia una sua base. Dato un numero reale λ, esite ed e` unica la forma n -lineare antisimmetrica ϕ su V tale che ϕ(v1 , v2 , . . . , vn) = λ . Se V e` uno spazio vettoriale reale di dimensione n con base enunciare la definizione di determinante in questo modo.
B = (v , v , . . . , v ) si puo` 1
2
n
Definizione 8.19 Si dice determinante degli n vettori x1 , x2 , . . . , xn di uno spazio vetto= (v1 , v2 , . . . , vn ) il numero reale riale reale V di dimensione n rispetto alla base ϕ(x1 , x2 , . . . , xn) tale che ϕ(v1 , v2 . . . , vn ) = 1 .
B
Esempio 8.28 Se si considera lo spazio ordinario V 3 con una base ortonormale positiva = (i, j, k) , allora il determinante dei tre vettori x, y, z coincide con il loro prodotto misto: det(x, y, z) = x y z, x, y, z V 3 ,
B
∧ ·
in quanto i
∈
∧ j · k = 1 , per definizione di base ortonormale positiva.
Capitolo 8
401
Se si considerano le componenti degli n vettori x1 , x2 , . . . , xn dello spazio vettoriale reale V rispetto alla base = (v1 , v2 , . . . , vn ) si ottiene una matrice A = (aij ) di R n,n , i cui vettori riga sono: x1 = (a11 , . . . , a1n ),
B
x2 = (a21 , . . . , a2n ), .. . xn = (an1 , . . . , ann ), si dimostra facilmente che la Definizione 8.19 di determinante degli n vettori coincide con la definizione di determinante della matrice A che e` stata enunciata nel Capitolo 2 (cfr. Def. 2.9). Infatti, data una matrice A Rn,n , il det(A) e` stato definito come:
det(A) =
∈
(σ)a1σ(1) a2σ(2) . . . anσ(n) ,
σ
dove σ e` una permutazione di (1, 2, . . . , n) e (σ) il suo segno. Se si considerano gli n vettori riga x1 , x2 , . . . xn della matrice A , si puo` quindi osservare che:
det(A) = ϕ(x1 , x2 , . . . , xn ), dove ϕ e` la forma n -lineare antisimmetrica su R n tale che:
ϕ(e1 , e2 , . . . , en ) = det(I ) = 1 con ( e1 , e2 , . . . , en ) base canonica di R n . Data la Definizione 8.19 si dimostra il teorema di seguito enunciato, gi a` noto dal Capitolo 4, in cui era stato ottenuto come conseguenza della relazione dim( (x1 , x2 , . . . , xn )) =
L
R
dim( (A)) = rank(A).
Teorema 8.34 Sia V uno spazio vettoriale reale di dimensione n. Dati n vettori di V, x1 , x2 , . . . , xn, essi sono linearmente indipendenti se e solo se il loro determinante relativo ad una qualsiasi base = (e1 , e2 , . . . , en ) di V e` diverso da zero.
B
Se gli n vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora si Dimostrazione pu`o provare che il determinante degli n vettori si annulla. Questo fatto vale pi`u in generale per ogni forma n -lineare antisimmetrica ϕ , infatti, poich´e i vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora almeno uno di essi, per esempio x1 , `e combinazione lineare degli altri vettori, si ponga: x1 = α 2 x2 + . . . + αn xn ,
Forme Bilineari e Forme Quadratiche
402
∈ R e quindi:
con α i
ϕ(x1 , x2 , . . . , xn) = α 2 ϕ(x2 , x2 , . . . , xn ) + . . . + αn ϕ(xn , x2 , . . . , xn) = 0. ` stato cos`ı dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si anE nulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che l’insieme x1 , x2 , . . . , xn sia libero e che per assurdo il loro determinante sia uguale a zero. Poich´e (x1 , x2 , . . . , xn ) e` una base di V, si possono scrivere i vettori della base = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :
{
}
B
e1 = b11 x1 + b12 x2 + . . . + b1n xn , e2 = b21 x1 + b22 x2 + . . . + b2n xn , .. . en = b n1 x1 + bn2 x2 + . . . + bnn xn .
Per definizione di determinante relativo alla base ( e1 , e2 , . . . , en ) si avrebbe:
det(e1 , . . . , en ) = 1 =
(σ)b1σ(1) . . . bnσ(n) det(x1 , . . . , xn)
σ
e quindi si ottiene una contraddizione. Dalla Definizione 8.19 e` finalmente possibile dimostrare agevolmente la Formula di Binet relativa al determinante del prodotto di due matrici (cfr. Teor. 2.16).
∈ R
n,n
Teorema 8.35 Se A, B
, allora det(AB) = det(A) det(B).
B
= Sia V uno spazio vettoriale reale di dimensione n con base Dimostrazione n,n (e1 , e2 , . . . , en) . Date le matrici A = (aij ) e B = (bij ) di R , si considerino i vettori riga della matrice B :
ed i vettori:
v1 = b11 e1 + b12 e2 + . . . + b1n en , v2 = b21 e1 + b22 e2 + . . . + b2n en , .. . vn = b n1 e1 + bn2 e2 + . . . + bnn en
u1 = a 11 v1 + a12 v2 + . . . + a1n vn , u2 = a 21 v1 + a22 v2 + . . . + a2n vn , .. . un = a n1 v1 + an2 v2 + . . . + annvn ,
Capitolo 8
403
che non corrispondono ai vettori riga della matrice A . Sia ϕ la forma n -lineare alternata tale che ϕ(e1 , e2 , . . . , en ) = 1 . Per definizione di deteminante si ha:
ϕ(v1 , v2 , . . . , vn ) = det(B) ϕ(e1 , e2 , . . . , en ) = det(B), ϕ(u1 , u2 , . . . , un ) = det(A) ϕ(v1 , v2 , . . . , vn ), da cui si ottiene:
ϕ(u1 , u2 , . . . , un) = det(A) det(B). Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base :
B
n
ui =
cik ek ,
i = 1, 2, . . . , n ,
k=1
e si ricavano le espressioni dei coefficienti c ik in termini di a ij e b ij , si ha: n
cik =
aij b jk ,
i, k = 1, 2, . . . , n ,
j =1
che e` esattamente l’elemento di posto ik del prodotto delle due matrici A e B . Quindi segue: ϕ(u1 , u2 , . . . , un) = det(AB)ϕ(e1 , e2 , . . . , en) = det(AB), ossia la tesi.
404
Forme Bilineari e Forme Quadratiche
Capitolo 9 Geometria Analitica nel Piano Scopo della Geometria Analitica e` la rappresentazione, tramite equazioni, di luoghi geometrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante l’uso del calcolo vettoriale, trattato nel Capitolo 3, a cui si far a` costante riferimento. Gli argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superiori, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per questo motivo, questo capitolo pu o` essere anche omesso nell’insegnamento di un corso universitario. D’altra parte per`o l’approccio della geometria analitica nel piano tramite il calcolo vettoriale sar a` fondamentale nello studio della geometria analitica nello spazio (cfr. Cap. 11). Vengono, inoltre, definiti due tipi di sistemi di riferimento nel piano: il riferimento cartesiano ed il riferimento polare. Il loro uso sar a` di primaria importanza in questo capitolo ed in quello successivo.
9.1
Il riferimento cartesiano, generalit`a
Si inizia con l’introduzione del riferimento cartesiano, costituito da due rette perpendicolari orientate nel piano affine S 2 (cfr. introduzione del Cap. 3). Il loro punto di incontro O e` detto origine del riferimento, la retta orizzontale prende il nome di asse delle ascisse o asse x , la retta verticale e` l’asse delle ordinate o asse y . Si definisce l’orientamento verso destra sull’asse x e verso l’alto sull’asse y , si rappresentano i numeri reali su entrambe le rette e si pone il numero 0 nel punto di intersezione delle due rette. Si viene cos`ı a creare una corrispondenza biunivoca tra i punti del piano e le coppie di numeri reali come rappresentato nella Figura 9.1 . La coppia ordinata di numeri reali (x, y) individua le coordiante cartesiane del punto P e si scrive:
P = (x, y), 405
Geometria Analitica nel Piano
406
y
II
I P
x O
III
IV
Figura 9.1: Riferimento cartesiano
A
B
O
−→
Figura 9.2: Componenti del vettore AB
Capitolo 9
407
x e` l’ascissa di P e y e` l’ordinata di P. Il piano viene diviso in quattro regioni, dette quadranti, che, per convenzione, sono numerate in senso antiorario, a partire dal semiasse positivo delle x . Analogamente a quanto visto nel Paragrafo 3.1, se si indica con i il versore a cui e` parallelo l’asse x, concorde con l’orientamento di x , e con j il versore a cui e` parallelo l’asse y , concorde con l’orientamento di y , il segmento orientato OP si pu`o ottenere come:
−→
−→ OP = x i + y j.
(9.1)
−→
Ad ogni punto P del piano affine S 2 si associa in modo biunivoco il vettore x = OP dello spazio vettoriale euclideo di dimensione 2, con base ortonormale positiva = (i, j), che verr`a indicato con V 2 . Di conseguenza, S 2 coincide con l’insieme dei vettori di V 2 . Si stabilisce anche una corrispondenza biunivoca tra i punti P del piano e le componenti (x, y) del vettore x, scritte rispetto alla base ortonormale positiva = (i, j) .
B
B
−→
Le componenti di un vettore x, con rappresentante il segmento orientato AB, che si puo` anche scrivere come B A, si possono ottenere in questo modo:
−
−
− − −
− x
B A = (B O) (A O) = (xB
A )i
− y
+ (yB
A ) j.
(9.2)
Se A o B coincidono con l’origine del riferimento, la relazione (9.2) si riduce a (9.1). La situazione geometrica e` illustrata nella Figura 9.2 .
R
Il riferimento cartesiano sar`a indicato con il simbolo = (O,x,y) o equivalentemente, con = (O, i, j) , se si intende mettere in evidenza la base ortonormale positiva = (i, j) a cui e` riferito.
R
B
y B A
x O
Figura 9.3: Distanza tra i punti A e B
Geometria Analitica nel Piano
408
9.1.1
Distanza tra due punti
Dati due punti A = (xA , yA ), B = (xB , yB ) nel piano, la loro distanza d(A, B) si ottiene con la formula: (9.3) d(A, B) = (xB xA )2 + (yB yA )2 ,
−
−
la cui dimostrazione e` una conseguenza evidente del Teorema di Pitagora, la situazione geometrica `e illustrata nella Figura 9.3 . La distanza d(A, B), dal punto di vista del calcolo vettoriale, pu`o essere anche interpretata come la norma del vettore AB le cui componenti sono date da (9.2), quindi, la formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti scritte rispetto ad una base ortonormale (cfr. Oss. 3.14).
−→
Esercizio 9.1 Calcolare le coordinate del punto P appartenente all’asse x ed equidistante dai punti A = (1, 3), B = (5, 1) . Soluzione Il punto P appartiene all’asse x se ha ordinata uguale a 0 , ossia P = (x, 0), imponendo d(A, P ) = d(B, P ) si ha:
(x
2
− 1)
+ 32 = (x
2
− 5)
+ 12
da cui segue x = 2 .
9.1.2
Punto medio di un segmento
Dati due punti A = (xA , yA ), B = (xB , yB ), il punto medio M del segmento AB e` :
M =
xA + xB yA + yB , . 2 2
Ad esempio il punto medio del segmento di estremi i punti A = (2, 2) e B = (0, punto M = (1, 2) .
−
9.1.3
−6) e` il
Baricentro di un triangolo
Dati tre punti A = (xA , yA ) , B = (xB , yB ), C = (xC , yC ) non allineati, il baricentro G del triangolo da essi individuato `e:
G =
xA + xB + xC yA + yB + yC , . 3 3
Questa formula pu`o essere dimostrata con considerazioni geometriche elementari, a partire dalla Figura 9.4 oppure si pu`o ottenere come conseguenza della Definizione 11.1.
Capitolo 9
409
5
C 4
3
2
A
G
1
O
-1
1
2
3
5
4
7
6
-1
B -2
-3
Figura 9.4: Baricentro del triangolo ABC
9.2
Luoghi geometrici del piano
L’insieme dei punti del piano che verificano una determinata propriet`a costituisce un luogo geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: l’asse di un segmento e la circonferenza. Si rimanda al Capitolo 9 del Volume II, per lo studio di altri luoghi geometrici del piano.
Esempio 9.1 – Asse di un segmento – Dati due punti distinti nel piano A = (xA , yA ), B = (xB , yB ) , l’asse del segmento AB e` il luogo geometrico dei punti P = (x, y) equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue:
(x
−x
2
A)
+ (y
−y
A)
2
= (x
−x
2
B)
+ (y
−y
B)
2
,
da cui:
2(xA
−x
B )x
+ 2(yA
−y
B )y +
2 x2B + yB
2
− x − y A
2
A =
0,
che e` l’equazione del luogo richiesto. Si osservi che si tratta di un’equazione di primo grado in x e y e si osservi anche che, dal punto di vista geometrico, l’asse di un segmento e` la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella Figura 9.5 . Si ritorner`a su questo argomento nel Paragrafo 9.9.
Esempio 9.2 – La circonferenza – La circonferenza di centro C e raggio r e` il luogo dei punti P = (x, y) del piano aventi distanza r 0 dal punto C = (α, β ) . Imponendo:
≥
d(P, C )2 = r 2
410
Geometria Analitica nel Piano
A
M
B
Figura 9.5: Asse del segmento AB
r C
Figura 9.6: Circonferenza di centro C e raggio r
Capitolo 9
411
si ottiene:
x2 + y2
− 2αx − 2βy + α
2
+ β 2
−r
2
= 0.
Si tratta di una particolare equazione di secondo grado in x e y che sar`a studiata in dettaglio nel Paragrafo 10.1. Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) `e definito da:
{ ∈ C | |z | = 1 }
U (1) = z
ed usando l’identificazione tra i numeri complessi ed il punti del piano data da:
z = x + iy = (x, y),
∈ C,
z
segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro l’origine e raggio 1 .
Pu`o rivelarsi molto piu` complicato il problema inverso, vale a dire, data un’equazione in x e y , studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A tale scopo si procede proponendo una serie di esempi ed esercizi.
Esercizio 9.2 Verificare che la curva di equazione:
y =
2
−x
+x+3
(9.4)
−
passa per i punti A = ( 1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per C = (5, 0) .
Soluzione Un punto appartiene al luogo geometrico descritto dall’equazione (9.4) se e solo se le sue coordinate verificano l’equazione stessa. Quindi A appartiene alla curva data perch´e 1 1 + 3 = 1 , verifica analoga per B . L’origine, invece, non appartiene a questa curva perch´e 3 = 0 , analoga verifica per C.
− −
Esercizio 9.3 Come si fa a capire se l’origine del sistema di riferimento appartiene ad un luogo geometrico? Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y con termine noto uguale a zero rappresentano luoghi geometrici passanti per l’origine. Per esempio x 2 + 2x = 0 e` una curva passante per O . Esercizio 9.4 Determinare i punti P = (a, a + 3), a equazione:
2y2
− 9(x + 2) = 0.
∈ R, appartenenti alla curva di
(9.5)
Geometria Analitica nel Piano
412
Sostituendo le coordinate di P nell’equazione (9.5) si ha:
Soluzione
2(a + 3)2 da cui segue a =
− 9(a + 2) = 0
−3/2 o a = 0 . Quindi si ottengono i punti: P 1 = (0, 3),
9.3
P 2 =
−
3 3 , . 2 2
Riferimento polare
Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento `e legata alla problematica che si sta studiando. Si intende, quindi, introdurre la nozione di riferimento polare nel piano , che e` un sistema di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti nel piano. Esso e` costituito da un punto O , detto polo, e da una semiretta orientata ` chiaro che ogni punto P del piano (ad eccezione del uscente da O , detta asse polare. E polo) si puo` individuare mediante la sua distanza ρ = d(P, O) dal polo e mediante la misura dell’angolo θ , detto anomalia, che il segmento OP forma con l’asse polare, con le condizioni ρ 0 e 0 θ < 2π . Tale distanza ρ prende il nome di raggio vettore.
≥
≤
Riassumendo ogni punto del piano, ad eccezione del polo, e` individuato da una sola coppia di numeri:
P = (ρ, θ),
ρ
≥ 0,
0
≤ θ < 2π,
che ne costituiscono le sue coordinate polari nel piano . La situazione geometrica e` illustrata nella Figura 9.7 . Per esempio la circonferenza di centro il polo e raggio 2 ha equazione, in coordinate polari, ρ = 2.
√
Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordinate cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento = (O,x,y) avente l’origine O coincidente con il polo e l’asse x con l’asse cartesiano polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (ρ, θ) a quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:
R
x = ρ cos θ y = ρ sin θ,
ρ
≥ 0,
0
≤ θ < 2π.
La situazione geometrica e` illustrata nella Figura 9.8 .
(9.6)
Capitolo 9
P
Ρ
Θ O
Figura 9.7: Coordinate polari nel piano
P
Ρ
y
Θ x
Figura 9.8: Coordinate polari e coordinate cartesiane del punto P
413
Geometria Analitica nel Piano
414
Le limitazioni imposte a ρ e a θ possono causare inconvenienti nello studio di determinati fenomeni, dovuti, in particolare, al brusco passaggio di θ dal valore pi`u vicino a 2π o a 0 . Per evitare questo problema, conviene introdurre le coordinate polari generalizzate nel modo seguente. Se P e` un punto di coordinate polari (ρ, θ) e` chiaro che le coppie di numeri reali ( ρ, θ + π) e (ρ, θ + 2π) corrispondono dal punto di vista geometrico, allo stesso punto P. Si puo` quindi associare allo stesso punto P un insieme di coordinate polari tra di loro equivalenti e scrivere:
−
∈ Z,
P = (( 1)k ρ, θ + kπ),
−
k
che prendono il nome di coordinate polari generalizzate del punto P del piano.
9.4
Traslazione degli assi
Un altro metodo che puo` essere utile nello studio dei luoghi geometrici e` quello di scrivere l’equazione del luogo in un nuovo sistema di riferimento ottenuto mediante una traslazione degli assi. y Y
P O'
X
O
x
Figura 9.9: Traslazione degli assi
= (O,x,y) si definiscono una nuova origine nel punto O = (x0 , y0 ) Nel riferimento e i nuovi assi X e Y, passanti per O , paralleli e concordi a x e a y . Si ottiene cos`ı un nuovo riferimento cartesiano = (O , X , Y ) che e` traslato rispetto al precedente. Si vogliono determinare le relazioni che legano le coordinate di un generico punto P del piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento e P = (X, Y ) nel
R
R
R
Capitolo 9
415
R . Dalla Figura 9.9 segue:
riferimento
oppure:
x = X + x0 y = Y + y0 , X = x Y = y
(9.7)
−x −y . 0
0
Si consideri, per esempio, il punto O = (1, 2) e le equazioni della traslazione dal riferimento al riferimento :
R
R
x = X + 1 y = Y + 2,
da cui si deduce che l’asse X, rispetto al riferimento ha equazione x = 1 .
R, ha equazione y = 2 e l’asse Y
= (O,x,y) e nel riferimento traslato = (O , X , Y ) Si osservi che nel riferimento = (i, j) che li determina non cambia. In altri termini la la base ortonormale positiva traslazione di assi non induce alcun cambiamento di base in V 2 .
R B
R
Esercizio 9.5 Data la curva di equazione:
9x2 + 9y 2
− 24x − 30y − 13 = 0, determinare la sua equazione nel riferimento traslato R = (O , X , Y ) , dove:
O = Soluzione
4 5 , . 3 3
Le equazioni della traslazione da
(9.8)
R a R sono:
4 3 5 y = Y + , 3 x = X +
che sostituite nell’equazione assegnata portano a:
X 2 + Y 2 = 6. Adesso e` chiaro che l’equazione (9.8) rappresenta una circonferenza di centro l’origine O del nuovo riferimento e raggio 6 .
√
Geometria Analitica nel Piano
416
− R R
R
Esercizio 9.6 Un punto P ha coordinate ( 2, 3) nel riferimento = (O,x,y) e coor = (O , X , Y ) . Determinare le coordinate del dinate (4, 6) nel riferimento traslato = (O,x,y) . punto O rispetto al sistema di riferimento
−
Soluzione
Sostituendo le coordinate di P in (9.7) si ha:
−
2 = 4 + x0 3 = 6 + y0
−
da cui segue O = ( 6, 9) .
−
Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi affinch´e l’equazione:
−x
2
+ 3x
Y =
−X .
y =
−2
si trasformi in:
Soluzione
2
Sostituendo (9.7) nella prima equazione si ha:
Y =
2
2 0
−X + (−2x + 3)X − x + 3x − 2 − y , 0
0
0
da cui segue:
−
2x0 + 3 = 0 3x0 + 2 + y0 = 0
x20
−
quindi x 0 = 3/2, y0 = 1/4 .
Esercizio 9.8 Operando con il metodo del completamento dei quadrati, individuare un’opportuna traslazione che permetta di studiare la curva di equazione:
x2 + y2 + 2x + 3y = 0. Soluzione Applicando il metodo del completamento dei quadrati (cfr. Esercizio 8.13) in questo caso, si ha:
9 (x + 2x + 1) + y + 3y + 4 2
3 (x + 1) + y + 2 2
2
2
=
13 . 4
− − 1
9 = 0, 4
Capitolo 9
Tramite la traslazione:
417
X = x + 1 Y = y +
3 2
si ottiene, nel nuovo riferimento, l’equazione:
X 2 + Y 2 =
13 4
che quindi rappresenta la circonferenza di centro O =
9.5
− − 1,
3 e raggio 2
√ 13 2
.
Simmetrie
Un altro metodo per studiare il grafico di una curva, di cui si conosce l’equazione, e` cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto all’origine del riferimento.
y
P'
P
Figura 9.10: Curva simmetrica rispetto all’asse delle ordinate
9.5.1
Curva simmetrica rispetto all’asse delle ordinate
Una curva e` simmetrica rispetto all’asse y se per ogni punto P = (x, y) appartenente alla curva anche il punto P = ( x, y) appartiene alla curva. Per esempio la curva di equazione x2 + y + 5 = 0 e` simmetrica rispetto all’asse y mentre la curva di equazione x2 + x + y + 5 = 0 non lo e` . La situazione geometrica `e illustrata nella Figura 9.10.
−
Geometria Analitica nel Piano
418
9.5.2
Curva Curva simmet simmetrica rica rispetto rispetto all’asse all’asse delle delle ascisse ascisse
Una curva e` simmetrica rispetto all’asse x se per ogni punto P = (x, y) appartenente alla curva anche il punto P = (x, y ) appartiene appartiene alla curva. curva. Per esempio esempio la curva di 2 + y + 5 = 0 e` simmetrica rispetto all’asse x mentre la curva di equazione equazione x + y e` . La situazione geometrica e` illustrata nella Figura 9.11. x + y + 5 = 0 non lo e.
−
P x
P'
Figura 9.11: Curva simmetrica rispetto all’asse delle ascisse
9.5.3
Curva Curva simmetri simmetrica ca rispetto rispetto all’origi all’origine ne
Una curva e` simmetrica rispetto all’origine del riferimento se per ogni punto P = (x, y) appartenente alla curva anche il punto P = ( x, y ) appartiene alla curva. Per esempio la curva di equazione x2 + y 2 = 5 e` simmetrica rispetto all’origine mentre la curva di equazione x 2 + x + y + 5 = 0 non lo ` lo `e. e. La situazione geometrica `e illustrata nella Figura 9.12.
− −
3x Esercizio 9.9 Verificare che la curva di equazione x3 + y 3 + 3x rispetto all’origine.
− 2y = 0 e` simmetrica
sostituiscono no le coordinate coordinate del punto P = ( x, Soluzione Si sostituisco curva e si ha:
nell’equazionee della − −y) nell’equazion
( x)3 + ( y)3 + 3( x)
−
−
3
− − 2(−y) = −(x
+ y3 + 3x 3x
− 2y) = 0,
da cui si deduce che la curva assegnata e` simmetrica rispetto all’origine. Pi` Piu` in generale, come spiegato nell’esercizio che segue, si pu o` considerare la simmetria rispetto rispetto ad un punto qualsiasi del piano.
Capitolo 9
419
P
P'
Figura 9.12: Curva simmetrica rispetto all’origine
Esercizio 9.10 Verificare che la curva di equazione:
4x2 + 9y 9y 2 + 8x 8x + 36y 36y
− 68 = 0
(9.9)
− −2) .
e` simmetrica rispetto al punto C = ( 1,
C
Figura 9.13: Esercizio 9.10 problema si risolve risolve traslando traslando la curva nel riferime riferimento nto = (C,X,Y ) Soluzione Il problema C,X,Y ) e poi dimostrando che l’equazione ottenuta e` simmetrica rispetto all’origine. Le equazioni della traslazione sono:
R
e, se sostituite in (9.9), portano a:
− − − −
= X 1 x = X = Y 2 y = Y
Geometria Analitica nel Piano
420
4X 2 + 9Y 9Y 2 = 108 che definisce una curva simmetrica rispetto all’origine del riferimento 9 .13 . si tratta dell’ellisse rappresentato in Figura 9.
9.6 9.6
R
= (C,X,Y ) C,X,Y ),
Rett Retta a nel nel pian piano o
In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano rispetto ad un riferimento cartesiano = (O,x,y) ( O, i, j). O,x,y), o equivalentemente = (O,
R
R
Una retta r nel piano si pu o` individuare, alternativamente, assegnando: 1. un punto punto P 0 della retta r ed un vettore r non nullo parallelo a r ; 2. un punto punto P 0 della retta r ed un vettore n non nullo ortogonale ortogonale a r ; 3. due punti punti distint distintii A e B della retta r. In particolare si dimostrer` dimostrera` che ogni equazione lineare in x e y del tipo ax + by + c = 0 , con a,b,c iceversa ogni retta del piano e` (0, 0) , rappresenta una retta. Viceversa R , (a, b) = (0, rappresentabile tramite un’equazione lineare in x, y del tipo suddetto.
∈
r
P
P0
Figura 9.14: Retta passante per il punto P 0 e parallela al vettore r
Capitolo 9
9.6.1
421
Retta Retta per per un punto parallela parallela ad un un vetto vettore re
Sia r la retta passante per il punto P 0 parallela ad un vettore r = o . Un punt punto o P appartiene alla retta r se e solo se il vettore P 0 P e` parallelo parallelo al vettore vettore r (cfr. Fig. 9.14). Risulta:
−−→
{ ∈ ∈ S | P −−→P = t r, t ∈ R},
r = P
2
0
ossia:
r : P = P 0 + t r,
t
∈ R.
La relazione (9.10) e` detta equazione vettoriale parametrica di r mentre t parametro al variare del quale P descrive la retta r .
(9.10)
∈
R e` il
Siano P 0 = (x0 , y0 ) e P = (x, y) i punti P 0 e P, P , le cui coordinate sono espresse rispetto = (O,x,y ( O,x,y)), siano (l, ( l, m) le componenti del vettore r relative al riferimento cartesiano alla base ortonormale positiva = (i, j) individuata da . L’equazione (9.10) equivale a:
R
B
R
= x 0 + lt x = x = y 0 + mt, y = y
t
∈ R,
(9.11)
che sono le equazioni parametriche di r , le componenti (l, ( l, m) del vettore r prendono il nome di parametri direttori di r .
Osservazione 9.1 Siano (l, ( l, m) i parametri direttori di una retta r , allora:
1. (l, m) = (0, (0, 0) e sono sono indiv individu iduati ati a meno meno di un fattor fattoree moltip moltiplic licati ativo vo.. In altri altri termini, fissato il punto P 0 ogni vettore non nullo parallelo al vettore r individua la retta r. ( o m = 2. Se l = 0 (o m = 0 ) la retta r e` parallela all’asse y (o all’asse x ).
3. La retta r ammette infinite equazioni parametriche diverse, `e sufficiente individuare r mediante un suo punto qualsiasi e un qualsiasi vettore non nullo ad essa parallelo. 4. I coseni degli angoli che la retta r forma con gli assi coordinati prendono il nome di coseni direttori della retta r, il loro valore e` calcolato mediante il generico vettore ed `e dato da: r = o parallelo a r ed `
cos(ri ri) =
l rj) = , cos(rj 2 + m2
√ l
√ l m+ m 2
2
(cfr. (cfr. Oss. 3.14). Inoltre, Inoltre, i coseni direttori direttori sono individua individuati ti a meno del segno.
Geometria Analitica nel Piano
422
Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto j e calcolarne i coseni direttori. P 0 = ( 1, 3) e parallela al vettore r = 2i 5 j e
−
−
Soluzione
Le equazioni parametriche di r sono:
− −
2t x = 1 + 2t y = 3 5t, t
∈ R;
(9.12)
per i coseni direttori si ha:
ri) = cos(ri
√ 229 , cos(rjrj) = − √ 529 .
Si osservi che sostituendo t = 0 in (9.12) si ottiene il punto P 0 . Per t = 1 si ottiene il punto A = (1, 2) , pertanto la retta r si pu`o anche rappresentare come: A = (1,
−
4t x = 1 + 4t 10t , y = 2 10t
− −
t
∈ R.
Osservazione 9.2 Se in (9.11) si limita il valore di t ad intervalli della retta reale si rappresentano i punti di segmenti della retta r . Se, invec invece, e, si chiede chiede che t assuma solo valo valori ri real realii posi positi tivi vi o null nullii si rappr rapprese esent ntaa una una semi semire rett ttaa di orig origin inee P 0 , si otti ottien enee la semir semiret etta ta opposta limitando t a valori reali negativi o nulli.
9.6.2
Retta Retta per per un punto ortogonale ortogonale ad un un vetto vettore re
−−→ ∈ S | P −−→P · · n = 0}, r = {P ∈ −−→ · n indica il prodotto scalare tra i vettori −P −→P e n (cfr. Oss. 3.14). dove P P ·
Sia r la retta passante per il punto P 0 ortogonale ad un vettore n = o . Un punt punto o P appartiene alla retta se e solo se il vettore P 0 P e` ortogonale a n (cfr. Fig. 9.15 ) Si ha: 2
0
0
(9.13)
0
Siano P 0 = (x0 , y0 ), P = (x, y) i punti P 0 e P, siano (a, b) le componenti del vettore n rispetto alla base ortonormale positiva = (i, j) individuata dal riferimento cartesiano considerato, l’equazione (9.13) equivale a:
B
a(x Ponendo il termine noto
− x ) + b(y − y ) = 0. 0
0
(9.14)
= c , segue che l’equazione richiesta `e: e: −ax − by = c 0
0
ax + by + by + c = 0
(9.15)
( a, b) = (0, (0 , 0) sono le componenti di un qualche ` che `e detta equazione cartesiana di r , dove (a, sias siasii vett vettore ore non non null nullo o ortog ortogona onale le a r e sono sono date date a meno meno di una una cost costan ante te di prop propor orzi zion onal alit` it`a non nulla.
Capitolo 9
423
n
P
P0
Figura 9.15: Retta passante per il punto P 0 e ortogonale al vettore n
Osservazione 9.3 I parametri direttori (l, m) della retta r e le componenti (a, b) di un vettore vettore ortogonale ortogonale alla retta sono legati legati dalla relazione: relazione:
al + al + bm = bm = 0 che esprim esprimee l’annu l’annulla llarsi rsi del prodot prodotto to scalar scalaree tra i vettor vettorii r , parall parallelo elo alla retta, retta, e n ortogonale alla retta. In altri termini:
= ρm a = ρm b = ρl,
−
ρ
∈ R − {0}.
Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x e y .
Teorema 9.1 Ogni equazione lineare in x e y del tipo (9. (9 .15) rappresenta una retta ed ` `e individuata a meno di un fattore moltiplicativo non nullo. Dimostrazione Si e` gi` gia` dimostrato che una retta nel piano pu o` essere rappresentata mediante un’equazione lineare in x, y . Viceversa, considerata l’equazione lineare (9.15), (0, 0) esiste almeno un punto P 0 = (x0 , y0 ) del piano le cui coordinate la se (a, b) = (0, = ax 0 + by0 . Sostituendo in (9.15) si ha: verificano, ossia c = ax
a(x
− x ) + b(y − y ) = 0. 0
0
(9.16)
Geometria Analitica nel Piano
424
L’equazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto j . Inoltre, per ρ = 0 le due equazioni (9.15) e P 0 ortogonale al vettore a i + b j.
ρ(ax + by + by + c) = 0 rappresentano la stessa retta.
Esercizio 9.12 Scrivere l’equazione cartesiana della retta ottenuta nell’Esercizio 9.11. Dalle equazioni parametriche di r si ottiene:
Soluzione
− −
x+1 y 3 = 2 5 da cui:
− 1 = 0. 7 y + 5 = 0 , determinare un vettore Esercizio 9.13 Data la retta r di equazione 2x − 7y 5x + 2y 2y
parallelo a r ed un vettore vettore ad essa ortogonale. ortogonale.
richiesti sono ad esempio, rispettiv rispettivament amente, e, r = 7i + 2 j, n = Soluzione I vettori richiesti 4i 14 j, j , ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve l’esercizio.
−
9.6.3 9.6.3
Retta Retta per due punti punti disti distinti nti
Dati due punti distinti A = (xA , yA ), B = (xB , yB ) nel piano, la retta r passante per A e B e` parallela al vettore AB (cfr. Fig. 9.16 ) e ha equazioni equazioni parametriche: parametriche:
−→ −→
−
−
− x )t + (y ( y − y )t,
= x A + (x ( xB x = x = y A y = y
B
A
A
t
∈ R.
Se xB x A = 0 e yB y A = 0 , ricavando il parametro t per esempio dalla prima equazione e sostituendo il valore trovato nella seconda si ha:
− −
− −
x xA y yA = . xB xA yB yA
(9.17)
L’equazione ’equaz ione (9.17) ( 9.17) cos`ı ottenuta otten uta e` l’equazione cartesiana della retta passante per i punti A e B . Se x B xA = 0 , i punti A e B hanno la stessa ascissa e quindi la retta ha equazione cartesiana x xA = 0 . Analogamente se yB yA = 0 , la retta ha equazione cartesiana
y
−y
A =
− −
0.
−
Capitolo 9
425
B
A
Figura 9.16: Retta passante per i punti A e B ` ben noto che due punti punti distint distintii indiv individu iduano ano una sola retta. retta. Perch Perch´e´ Esercizio 9.14 E nell’equazione ax + by + by + c = 0 ci sono tre coefficienti a, a, b, c ?
Osservazione 9.4 L’equazione (9.17) della retta r passante per due punti distinti A e B si pu` puo` scrivere nella forma:
x y 1 xA yA 1 xB yB 1
−
= 0,
quest’espressione e` valida anche nel caso in cui x B dimostrazione al Lettore per esercizio.
xA = 0 o y B
−y
A =
0 . Si lascia la
Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i 2), B = (4, (4 , 5) . punti A = A = ( 1, 2),
−
Soluzione
e:
−
Le equazioni richieste sono, rispettivamente: rispettivamente:
− −
5t x = 1 + 5t y = 2 7t, t 7x + 5y 5y
∈R
− 3 = 0.0 .
(9.18)
Si osservi che se in (9.18) si limita t all’intervallo chiuso [0, [0 , 1] si descrivono tutti e soli i punti del segmento AB , estremi compresi.
Geometria Analitica nel Piano
426
9.6.4 9.6.4
Rette Rette parti particol colari ari
Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti all’asse x sono caratterizzati dall’avere ordinata nulla, quindi l’asse x ha equazione cartesiana y = 0 . La stessa equazione si ottiene se si considera che l’asse x e` una retta, passante per l’origine, l’origine, parall parallela ela al versore versore i perpendico icolar laree al versor versoree j . Analo Analoga ga consid considera erazio zione ne vale vale per l’asse l’asse i e perpend y che ha equazione x = x = 0. Di conseguenza, ogni retta parallela all’asse x (e quindi al versore i ) ha equazione equazione cartesiana:
= k,, y = k con k
∈ R fissato, ed equazioni parametriche:
= t, x = t, = k,, y = k
t
∈ R,
cio` cioe` x varia in R e y rimane costante. Ogni retta parallela all’asse y ha equazione cartesiana:
= h, x = h, con h
∈ R fissato, ed equazioni parametriche:
= h x = h = t, y = t,
t
∈ R.
La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa uguale all’ordinata, quindi ha equazione:
= x. y = x. Infatti, questa retta ` retta `e parallela al vettore r = i + j. j . Analogamente, la bisettrice del secondo ( x, x) , quindi ha equazione: e quarto quadrante passa per i punti P = (x, equazione:
− y = −x
ed e` parallela al vettore r = i
9.6.5
− j. j .
Il coeffic coefficient ientee angolar angolaree ed il suo legame legame con con a, a, b, c
Sia r una retta non parallela all’asse delle ordinate:
: ax + by + r : ax by + c = 0
Capitolo 9
427
q A
Α
Figura 9.17: Il significato significato geometrico di p = p = tan α e di q
e, quindi, tale che b = 0 . Allora Allora l’equazione l’equazione cartesiana di r si puo` scrivere anche nella forma = px + q, (9.19) y = px dove:
p = p =
− ab ,
= q =
− cb .
(9.20)
Il numero p prende il nome di coefficiente angolare di r , tale denominazione e` motivata dalle seguenti seguenti considerazioni considerazioni geometriche. geometriche. Si consideri una generica retta passante per l’origine e per i punti A = (xA , yA ), B = (xB , yB ) . Se α e` l’angolo che la retta data forma con l’asse x e` chiaro che:
yA yB = = tan α. xA xB
Le coordinate (x, y) del generico punto P = O appartenente alla retta r verificano la stessa relazione, ossia:
y yA yB = = = tan α. x xA xB
D’altra parte, una generica retta passante per l’origine ha equazione:
y = px,
p
∈ R,
Geometria Analitica nel Piano
428
dove p e` il coefficient coefficientee angolare della retta. Si ha quindi: quindi:
p = p = tan α, dove α e` l’angolo che la retta forma con l’asse x . Si osservi osservi che l’equazi l’equazione one y = px rappresenta, al variare di p R , tutte le rette passanti passanti per l’origine, l’origine, tranne l’asse y .
∈
Per Per capi capire re megl meglio io il sign signifi ifica cato to geom geomet etri rico co del del numero numero q dato dato da (9.2 (9.20) 0) si consi conside deri ri l’in l’inte terrsezione della retta di equazione y = con l’asse y , si ottiene cos` cos`ı il punto A = + q con (0, q ) y = px px+ A = (0, quindi q esprime esprime la lunghezza lunghezza (con segno) del segmento segmento che la retta stacca sull’asse sull’asse y , a partire dall’origine. La situazione geometrica `e illustrata nella Figura 9. 9 .17 .
9.7
Paral Paralleli lelismo smo,, ortogo ortogonal nalit it`a, a` , angoli e distanze
Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni relative ad angoli tra rette, quindi in particolare il parallelismo e l’ortogonalit a, a` , trattate in questo paragrafo.
9.7.1
Condizione Condizione di paralleli parallelismo smo tra rette rette
Due rette:
r : a x + b y + c = 0
: ax + by + r : ax by + c = 0,
+ b j e n = a i + b + b j ad sono parallele se e solo se i vettori n = a i + b j ad esse ortogonali sono tra loro paralleli, cio e` se e solo se le loro componenti sono in proporzione, ossia: ab
− a b = 0.
(9.21)
= l i+m j e Equivale Equivalenteme ntemente nte se r se r = l indicano i vettori vettori paralleli paralleli rispettiv rispettivament amentee j e r r = l i+m j indicano a r e r , le due rette sono parallele se e solo se i due vettori r e r sono paralleli, paralleli, cio`e se e solo se: lm
− l m = 0.
In termini del loro coefficiente angolare, due rette non parallele all’asse y :
= px + q, r : y = px
r : y = y = p p x + q
sono parallele se e solo se:
p = p = p p , ossia se i loro coefficienti angolari coincidono.
Capitolo 9
9.7.2
429
Condizione Condizione di perpendico perpendicolarit larit`a` tra rette
Due rette:
: ax + by + r : ax by + c = 0,
r : a x + b y + c = 0
sono perpendicolari se e solo se i vettori n = a i + b j ad esse ortogonali + b j e n = a i + b + b j ad sono tra loro ortogonali, cio e` se e solo se il loro prodotto scalare `e nullo, nullo, ossia:
aa + bb = 0. Equivalentemente, se r = li + m j indicano due vettori paralleli rispet + m j e r = l i + m + m j indicano tivamente a r e r , le due rette sono perpendicolari se e solo se i due vettori r e r sono ortogonali, cio` cioe` se e solo se:
0. ll + mm = 0. In termini del loro coefficiente angolare, due rette non parallele all’asse y :
= px + q, r : y = px
r : y = y = p p x + q
sono perpendicolari perpendicolari se e solo se:
pp =
−1,
infatti:
pp = tan α tan α = tan α tan α +
π 2
=
−1,
dove α e α indicano, rispettivamente, gli angoli che le rette r e r formano con l’asse delle ascisse.
−
(3/4, 2) la retta r parallela all’asse y e dal Esercizio 9.16 Condurre dal punto A = (3/ punto B = (2/5, 4/3) la retta s parallela all’asse x . Detto C il loro punto di intersezione, B = (2/ determinare la lunghezza del segmento OC O C . Soluzione
Le rette richieste sono:
r : x =
3 , 4
s : y =
4 , 3
quindi C = (3/ (3 /4, 4/3) da cui segue:
d(O, C ) =
9 16 + = 16 9
√ 337 12
.
Determinare l’equazione l’equazione della retta passante per A = (2, Esercizio 9.17 Determinare (2, dicolare alla retta di equazione y = 2x 1 .
−
−3) e perpen-
Geometria Analitica nel Piano
430
Soluzione La retta richiesta ha equazione y = 2 p = = y = px px + q con 2 p Imponendo il passaggio per A segue q = q = 2 .
−
−1 , quindi p = p = −1/2 .
Esercizio 9.18 Data la famiglia di rette:
F : (−2 + a)x + (1 − 2a)y + 1 = 0,0, a ∈ R, determinare, in ciascuno dei casi seguenti, una retta di F in in modo che:
(9.22)
(2, 0) ; 1. passi passi per A = A = (2,
− 1; 3. sia perpendi perpendicolare colare a 3x 3 x − y + 1 = 0 ; 2. sia parall parallela ela a y = 2x
4. sia parallela parallela alla bisettrice bisettrice del primo e terzo quadrante; quadrante; 5. formi un angolo angolo acuto acuto con l’asse l’asse x (nel verso positivo).
Soluzione
1. Sostituendo in (9.22) le coordinate di A si ha a = a = 3/2 .
angolare `e: e: 2. Da (9.22) segue che il coefficiente angolare `
− −
2 a , 1 2a
1 , 2
a=
imponendo che tale numero coincida con 2 segue a = a = 0 .
3. Si deve imporre che: 3
− 2 a 1 2a
−
=
−1.
parallelismo con la retta y = x 4. Si deve imporre il parallelismo = x , ossia:
− −
2 a = 1. 1. 1 2a 5. Si deve imporre che:
− −
2 a 0 . > 0. 1 2a
Esercizio 9.19 Svolgere il precedente esercizio usando le nozioni di calcolo vettoriale.
Capitolo 9
9.7.3 9.7.3
431
Angolo Angolo tra due rette rette
Siano:
: ax + by + r : ax by + c = 0,
r : a x + b y + c = 0
due rette rette nel piano. piano. L’angol ’angolo o ( r, r ) tra le due rette coincide con l’angolo formato da due vettori vettori ad esse ortogonali. ortogonali. Da osservare osservare quindi che se α e` l’angolo tra i due vettori n = (a, b), n = (a , b ) , le due rette formano anche l’angolo π α , in quanto i due vettori vettori ortogonali ortogonali alle due rette possono avere avere qualsiasi verso. verso. Pertanto Pertanto il valore valore di uno dei due angoli tra le due rette r e r e` determinato da:
−
n n
· = √ n n a
cos ( r, r ) =
aa + bb . 2 + b2 a2 + b2
√
Valgono analoghe considerazioni se le due rette sono date in forma parametrica:
r :
= x 0 + lt x = x = y 0 + mt, y = y
t
∈ R,
r :
= x 0 + l t x = x = y 0 + m t , y = y
t
∈ R,
e considerando i due vettori r = (l, m) e r = (l , m ) ad esse paralleli si ha:
cos ( r, r ) =
9.7.4
r r
ll + mm . 2 + m2 (l )2 + (m (m )2
· = √ r r l
Posizione Posizione recipro reciproca ca di di due due rette rette nel piano piano
Dalla geometria euclidea segue che due rette nel piano possono essere: 1. parallele parallele e coincidenti coincidenti;; 2. parallele parallele e distinte; distinte; 3. incidenti. incidenti. Dal punto di vista algebrico si risolve il problema della determinazione della posizione reciproca di due rette r e r studiando le soluzioni del sistema lineare di due equazioni in due incognite:
ax + by + by + c = 0 a x + b y + c = 0,
dato dalle equazioni delle due rette:
r : ax + by + by + c = 0,
0. r : a x + b y + c = 0.
(9.23)
Geometria Analitica nel Piano
432
Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice (A B) completa del sistema lineare (9.23), segue:
|
|
(A B) =
a b a b
−c −c
−→
→ aR − a R
R2
2
1
−c
a b 0 ab a b
−
−ac + a c
.
Si distinguono cos`ı i due casi: 1. rank(A) = 1 , cio`e a b
− ab = 0 (cfr. (9.21)), ossia se a = 0, b = 0 : a b = , a b
vale a dire i vettori n e n ortogonali alle due rette sono paralleli che `e la condizione di parallelismo tra le due rette. Si presentano due possibilit`a: a. rank(A B) = 1 cio`e ac
|
− a c = 0 , ossia se a = 0, c = 0 : a c = , a c
il sistema lineare ammette infinite soluzioni che dipendono da un’incognita libera, ma le condizioni poste equivalgono a richiedere che le due rette siano coincidenti (i coefficienti delle loro equazioni sono ordinatamente in proporzione). b. rank(A B) = 2 cio`e ac a c = 0 , ossia (a/a ) = (c/c ); il sistema lineare e` incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che le due rette siano parallele ma non coincidenti.
|
−
2. rank(A) = 2 cio e` a b ab = 0 , vale a dire i vettori n e n non sono paralleli, il sistema lineare ammette una sola soluzione. La condizione imposta equivale a richiedere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza, si intersecano in un solo punto.
−
In modo equivalente a quanto descritto, anzich e´ studiare il sistema lineare (9.23), per individuare la posizione reciproca delle rette r e r si pu`o considerare la posizione reciproca dei due vettori n = (a, b) ortogonale ad r e n = (a , b ) ortogonale a r . Si presentano i seguenti casi: 1. n e n sono paralleli (vale a dire hanno le componenti ordinatamente in proporzione), quindi le due rette sono parallele. Si consideri un punto P 0 = (x0 , y0 ) qualsiasi di r, se P 0 appartiene anche alla retta r (in formule a x0 + b y0 + c = 0 ) allora r e r sono coincidenti, altrimenti sono parallele e distinte.
Capitolo 9
433
2. n e n non sono paralleli, allora le due rette sono incidenti. Per determinare il loro punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando il Teorema di Cramer (cfr. Teor. 2.20).
∈ R , la posizione reciproca delle rette: (2k − 1)x + y − 3k = 0, r : 3kx − 2y + k − 1 = 0.
Esercizio 9.20 Discutere, al variare di k
r : Soluzione incognite:
Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due
∈−
al variare di k
(2k 3kx
− 1)x + y − 3k = 0 − 2y + k − 1 = 0
R . Procedendo con il metodo di riduzione di Gauss si ha:
2k 1 3k
1 2
3k k+1
− −
−→
→ R + 2R
R2
2
1
− −
2k 1 7k 2
1 3k 0 5k+1
.
Si distinguono cos`ı due casi:
1. se k = 2/7 esiste una sola soluzione, quindi le due rette sono incidenti.
2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 = 0 .
Esercizio 9.21 Date le rette:
r1 : 4x + y
− 8 = 0,
r2 : 3x
− 2y + 2 = 0
e il punto P = (2, 1) , determinare: 1. la retta passante per P e parallela a r 1 ; 2. la retta passante per il punto di intersezione di r 1 e r 2 e perpendicolare a r 2 .
Soluzione 1. Tutte e solo le rette parallele a r1 hanno equazione del tipo 4x+y+c = 0 , al variare di c R. Imponendo il passaggio per il punto P si ricava c = 9 .
∈
−
2. Il sistema lineare:
−
4x + y 8 = 0 3x 2y + 2 = 0
−
ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione di r 1 e r 2 . La retta richiesta ha equazione:
y con (3/2) p =
−1 .
−
−
32 = p x 11
14 11
434
9.7.5
Geometria Analitica nel Piano
Distanza di un punto da una retta
P
0
r
n
H P1
Figura 9.18: Distanza del punto P 0 dalla retta r Dati una retta r : ax + by + c = 0 e un punto P 0 = (x0 , y0 ) , si vuole determinare, in questo paragrafo, la distanza d(P 0 , r) di P 0 dalla retta r. Per questo scopo, e` sufficiente scrivere l’equazione della retta r passante per P 0 e perpendicolare ad r e calcolare la distanza d(P 0 , H ) dove H e` il punto di intersezione tra r ed r . Si osservi che se P 0 appartiene alla retta r si ottiene d(P 0 , r) = 0 , in quanto P 0 coincide con H (cfr. Fig. 9.18 ). Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico punto P 1 = (x1 , y1 ) di r , quindi ax1 + by1 + c = 0, e un vettore n = (a, b) ortogonale ad r , dal significato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue:
−−→ P P · n d(P , r) = n . 0
1 0
(9.24)
Si osservi che il valore d(P 0 , r) cos`ı determinato esprime la distanza con segno del punto P 0 dalla retta r . Il segno e` positivo se P 0 si trova nello stesso semipiano in cui punta il verso del vettore n , altrimenti il segno `e negativo. In coordinate, la formula (9.24) diventa:
Capitolo 9
√ a
1. a denominatore: n =
2
435
+ b2 ;
2. a numeratore:
−−→ P P · n = a(x − x ) + b(y − y ) = ax + by − ax − by = ax + by + c. 1 0
0
1
0
1
Riassumendo si ottiene:
0
0
ax0 + by0 + c . a2 + b2
√
d(P 0 , r) =
1
1
0
0
(9.25)
Il numeratore di (9.25) si annulla se e solo se P 0 appartiene alla retta r e, quindi, se e solo se d(P 0 , r) = 0, inoltre il numeratore di (9.25) assume lo stesso segno per tutti e soli i punti appartenenti allo stesso semipiano di origine la retta r .
Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0 , i punti del piano sono esattamente divisi in tre parti cos`ı caratterizzate: 1. i punti P = (x, y) tali che 3x + 2y + 5 = 0 , vale a dire i punti della retta r ; 2. i punti P = (x, y) tali che 3x + 2y + 5 > 0 , vale a dire i punti di un semipiano di origine r ; 3. i punti P = (x, y) tali che 3x + 2y + 5 < 0 , vale a dire i punti del semipiano di origine r , opposto al precedente.
Esercizio 9.22 Calcolare la distanza del punto P = (1, 2) dalla retta r : 2x Soluzione
Dalla formula (9.25) si ha:
d(P, r) =
9.8
− y + 5 = 0 .
− 2 + 5 = √ 5. √ 4+1
2
Fasci di rette
In geometria euclidea si definiscono due tipi di fasci di rette: 1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata; la situazione geometrica `e illustrata nella Figura 9.19; 2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro del fascio; la situazione geometrica e` illustrata nella Figura 9.20.
Geometria Analitica nel Piano
436
Dall’equazione (9.19) si ha che una semplice rappresentazione di un fascio improprio di rette `e:
y = px + q con p fissato e q che assume ogni valore in R . Il fascio di rette parallele all’asse y invece e` rappresentato da:
∈ R.
x = k,
k
Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele alla retta y = 3x .
10
5
-5
-10
5
10
-5
-10
Figura 9.19: Fascio improprio di rette Siano:
r : a x + b y + c = 0
r : ax + by + c = 0,
due rette incidenti nel punto P 0 = (x0 , y0 ) . Il fascio proprio di rette di centro P 0 e` dato dalla combinazione lineare:
F : λ(ax + by + c) + µ(a x + b y + c ) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
(9.26)
Per dimostrare questa affermazione si procede attraverso considerazioni successive: 1. l’equazione (9.26) e` lineare in x, y , pertanto rappresenta una retta al variare di λ, µ R .
∈
Capitolo 9
437
2. Le rette r ed r fanno parte della famiglia di rette individuata da (9.26), per µ = 0 si ottiene la retta r e per λ = 0 la retta r .
F
3. I parametri λ e µ sono omogenei, nel senso che e` sufficiente assegnare il loro rapporto per individuare la stessa retta, per esempio le coppie λ = 1, µ = 2 e λ = 2, µ = 4 (insieme con le infinite altre coppie di numeri non nulli, proporzionali rispettivamente a λ e a µ ) danno luogo alla stessa retta. 4. Il punto P 0 appartiene a tutte le rette descritte da (9.26), infatti le sue coordinate (x0 , y0 ) verificano sia l’equazione di r sia l’equazione di r e, di conseguenza, verificano (9.26). 5. L’equazione (9.26) individua tutte le rette del piano passanti per P 0 . Sia, infatti, P 1 = (x1 , y1 ) un punto del piano diverso da P 0 , sostituendo le sue coordinate in (9.26) si perviene ad un’equazione del tipo αλ + βµ = 0 , dove α = ax 1 + by1 + c e β = a x1 + b y1 + c , da cui si ricava, per esempio, λ = β, µ = α che sostituiti in (9.26) danno luogo all’equazione della retta passante per i punti P 0 e P 1 . Si osservi che se P 1 non appartiene n´e ad r n´e ad r allora α e β sono entrambi diversi da zero.
−
Osservazione 9.5 Un fascio di rette riempie il piano nel senso che dato un punto generico P 1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante per P 1 , infatti e` sufficiente sostituire le coordinate di P 1 nell’equazione (9.26) e calcolare i valori dei parametri λ e µ . Esercizio 9.23 Dato il fascio proprio di rette:
λ(x
− 2y − 2) + µ(x + y) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0),
(9.27)
individuare: 1. il centro del fascio; 2. la retta del fascio passante per il punto A = (0,
−7) ;
3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0 .
Soluzione
x
1. Il centro del fascio e` il punto C intersezione delle rette di equazione 2y 2 = 0 e x + y = 0 , si ottiene C = (2/3, 2/3) .
− −
−
−
2. Nell’equazione (9.27) si impone il passaggio per A , ottenendo 12λ 7µ = 0 , da cui si ha, per esempio λ = 7, µ = 12 che sostituiti in (9.27) portano alla retta di equazione 19x 2y 14 = 0 .
− −
Geometria Analitica nel Piano
438
4
2
C -6
-4
-2
2
4
6
-2
-4
-6
A
-8
Figura 9.20: Fascio proprio di rette. Esercizio 9.23
3. Il coefficiente angolare della generica retta del fascio `e: λ+µ 2λ µ
p =
−
−
−
(si osservi che per 2λ µ = 0 , ossia per λ = 1, µ = 2 si ha la retta 3x 2 = 0 parallela all’asse y ). Imponendo la perpendicolarit`a alla retta x + y + 1 = 0 si ha:
λ+µ =1 2λ µ
−
da cui λ = 2, µ = 1 che portano alla retta del fascio di equazione 3x
9.9
− 3y − 4 = 0 .
Esercizi di riepilogo svolti
Esercizio 9.24 Calcolare l’equazione dell’asse del segmento di estremi i punti:
−
A = ( 3, 5),
−
B = (2, 3).
Soluzione Il procedimento da usare `e gi a` stato spiegato nel Paragrafo 9.2, in alternativa si puo` determinare l’equazione della retta perpendicolare al segmento AB nel suo punto medio M dato da:
M =
−
−
3+2 5 3 , 2 2
− =
1 ,1 . 2
Capitolo 9
439
La retta passante per A e B ha equazione:
− − −
x+3 y 5 = , 2+3 3 5
−
ossia 8x + 5y 1 = 0 , quindi `e perpendicolare al vettore n = (8, 5). Di conseguenza, le equazioni parametriche dell’asse del segmento AB sono:
x =
− 12 + 8t
y = 1 + 5t,
e la sua equazione cartesiana e` 10x
t
∈ R,
− 16y + 21 = 0 .
Esercizio 9.25 Date le rette:
r : 3x + 4y + 2 = 0,
s : 7x
− 24y − 6 = 0
determinare le equazioni delle rette b 1 e b 2 bisettrici degli angoli da esse individuati.
Soluzione Le bisettrici di due rette r e s sono il luogo dei punti P = (x, y) equidistanti dalle due rette, ossia tali che d(P, r) = d(P, s) . Da (9.25) segue:
3x + 4y + 2 = 9 + 16
√
− 6, ± 7x√ −4924y + 576
da cui si ottengono le rette:
b1 : 2x + 11y + 4 = 0,
b2 : 11x
− 2y + 2 = 0.
In modo alternativo, si possono ottenere le equazioni delle due bisettrici come le rette passanti per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei vettori r e s rispettivamente paralleli alle rette r e s . Si ha r = (4, 3) , s = (24, 7) e i due vettori bisettori degli angoli formati da r e da s sono:
−
vers r + vers s =
vers r
− vers s =
− − − − − − 4 , 5
3 5
4 , 5
3 5
+
24 7 , 25 25
=
24 7 , 25 25
=
44 , 25
4 , 25
8 , 25
22 . 25
Il punto di intersezione delle rette r e s e` la soluzione del sistema lineare delle loro equazioni cartesiane ed e` ( 6/25, 8/25) , di conseguenza le equazioni parametriche
−
−
Geometria Analitica nel Piano
440
delle due bisettici sono:
b1 :
x = y =
−
6 + 11t 25 8 25
− − 2t,
b2 :
∈ R,
t
x =
− 256 − 2t
y =
− 258 − 11t ,
t
∈ R.
Esercizio 9.26 Date le due rette:
r : x + 2y + 2 = 0,
s : x
− y − 3 = 0,
determinare l’equazione della retta t simmetrica di r rispetto ad s .
r M
A
M'
s
M'' t
Figura 9.21: Esercizio 9.26
−
−
Soluzione Il punto di intersezione di r ed s e` A = (4/3, 5/3) . Sia M = (0, 1) un punto di r diverso da A . La retta per M perpendicolare a s che ha equazione x+y+1 = 0 incontra s nel punto M = (1, 2) . Il simmetrico M di M rispetto a M , che ha coordinate (2, 3) essendo M il punto medio tra M e M , appartiene alla retta t . La retta t e` , quindi, la retta passante per A e per M e ha equazione 2x + y 1 = 0 . La situazione geometrica e` illustrata nella Figura 9.21 .
−
−
−
Capitolo 9
9.10
Per saperne di pi`u
9.10.1
Rette immaginarie
441
Anche in geometria analitica, vengono considerati enti “immaginari”, d’altra parte la geometria analitica non fa altro che tradurre in algebra enti e relazioni geometriche. I punti immaginari (o complessi) del piano sono caratterizzati dall’avere rispetto ad un riferimento cartesiano (reale) = (O,x,y) almeno una coordinata complessa, mentre i punti che sono stati trattati finora in tutto questo capitolo sono detti reali se hanno entrambe le coordinate x e y reali. Ovviamente rispetto al riferimento cartesiano si possono visualizzare nel piano solo i punti reali.
R
R
Analogamente al caso reale, le rette immaginarie sono rappresentate rispetto ad un riferimento cartesiano (reale) = (O,x,y) da equazioni lineari:
R
ax + by + c = 0, a coefficienti complessi, come ad esempio la retta di equazione:
y =
−2i x + 1.
Se la terna (a,b,c) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo) ad una terna di numeri reali allora r e` detta retta reale e si ha la retta usuale, introdotta nel Paragrafo 9.6. Data una retta immaginaria:
r : ax + by + c = 0, con a, b, c
∈ C, ha pertanto senso introdurre la nozione di retta ad essa coniugata: r : ax + by + c = 0,
dove a , b, c indicano, rispettivamente, i complessi coniugati di a,b, c. Pertanto due rette si dicono coniugate se i coefficienti dell’una sono i complessi coniugati dei coefficienti dell’altra.
Esempio 9.4 La retta immaginaria di equazione y = retta di equazione:
−2i x + 1 ha come coniugata la
y = 2i x + 1. Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si pu`o introdurre la nozione di rette parallele e incidenti. Si pu`o dimostrare la seguente propriet`a.
Geometria Analitica nel Piano
442
Teorema 9.2 Una retta r e` reale se e solo se coincide con la propria coniugata r . Si supponga che la retta r abbia equazione ax + by + c = 0 , con Dimostrazione a,b,c C . Si vuole dimostrare che la terna (a,b,c) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo) ad una terna di numeri reali se e solo se r = r . Le due rette r e r coincidono se e solo se:
∈
rank
a b c a b c
= 1.
Osservando che:
rank
a b c a b c
= rank = rank
a+a b+b c+c a a b b c c
−
−
−
Re(a) Re(b) Re(c) Im(a) Im(b) Im(c)
,
dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di a , si ha la tesi.
Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti immaginari. Inoltre, se P = (x0 , y0 ) e` un punto non reale, ovvero P = P , dove con P di indica il punto coniugato di P avente coordinate (x0 , y 0 ) , la retta passante per P e P e` necessariamente reale.
−
−
−− −−
Esempio 9.5 La retta passante per P = ( 1+i, 1+2i) e per P = ( 1 i, 1 2i) ha equazione 2x y + 1 = 0 . Si osservi che la retta precedente contiene i punti immaginari:
−
−
−
( 1 + λi, 1 + 2λi), al variare di λ
∈ R − {0} .
Esercizio 9.27 Verificare che l’equazione x2 + y 2 = 0 rappresenta una coppia di rette immaginarie coniugate. Soluzione
Si ha:
x2 + y 2 = (x + iy)(x
− iy) = 0,
pertanto x2 + y 2 = 0 rappresenta la coppia di rette immaginarie coniugate x = iy . Si osservi che l’intersezione reale delle due rette immaginarie `e costituita dalla sola origine. Vale la seguente propriet`a.
±
Capitolo 9
443
Teorema 9.3 Una retta immaginaria (o non reale) possiede al pi u` solo un punto reale. Se una retta r : ax + by + c = 0 e` immaginaria e quindi non e` reale, Dimostrazione allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in alcun punto, oppure si intersecano in un solo punto, che deve essere reale. Infatti il punto P intersezione di r e di r coincide con il punto P intersezione di r e r. Sia nel caso in cui r e r siano parallele sia nel nel caso in cui non lo siano si ha:
rank ma nel primo caso:
a b c a b c
rank
a b a b
= 2,
= 1,
da cui segue che le due rette r e r non si intersecano quindi sono prive di punti reali e la coppia (a, b) e` proporzionale (con coefficiente di proporzionalit a` complesso non nullo) ad una coppia di numeri reali. Nel secondo caso:
rank
a b a b
=2
e le due rette si intersecano in un solo punto.
Esercizio 9.28 Si considerino le rette:
− 1)x + (2 − 4i)y − 2i + 1 = 0, r : x + iy − 3 = 0, r : x + y − i = 0. r1 : 3(2i 2 3
1. Verificare che la retta r 1 e` reale. 2. Verificare che la retta r2 non e` reale ed ha come unico punto reale il punto di coordinate (3, 0). 3. Verificare che la retta r 3 non `e reale e non ha punti reali.
Soluzione 1. Dividendo entrambi i membri dell’equazione di r 1 per 2i l’equazione a coefficienti reali:
3x
− 2y − 1 = 0.
− 1 si ottiene
Geometria Analitica nel Piano
444
− iy − 3 = 0 . Il sistema lineare: x + iy − 3 = 0 x − iy − 3 = 0
2. La retta r 2 coniugata di r 2 ha equazione x
ha matrice dei coefficienti di rango 2 e la sua unica soluzione e` (3, 0) .
3. Le rette r3 e r 3 : x + y + i = 0 sono entrambe parallele al vettore (1, 1) e non hanno punti reali.
Capitolo 10 Riduzione a Forma Canonica delle Coniche Scopo di questo capitolo e` lo studio delle coniche nel piano, ossia di tutte le curve del piano che sono rappresentabili mediante un’equazione di secondo grado nelle incognite x,y. Il primo esempio di conica presentato e` quello della circonferenza, la cui equazione e` gi`a stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determinante di questo capitolo `e l’applicazione della teoria di riduzione a forma canonica di una forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere, a partire da una generica equazione di secondo grado in due incognite, la conica che essa rappresenta. Questa teoria sar`a nuovamente applicata nel Capitolo 12 per lo studio delle quadriche nello spazio, che non sono altro che superfici che si possono rappresentare mediante un’equazione di secondo grado nelle incognite x, y,z ed `e facilmente generalizzabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si far a` uso delle notazioni introdotte nei capitoli precedenti, in particolare si considerer`a il piano = (O,x,y), o equivalentemente affine S 2 su cui si introdurr`a un riferimento cartesiano = (O, i, j), dove = (i, j) e` la base ortonormale positiva dello spazio vettoriale V 2 definita dal riferimento .
R
10.1
B
R
R
La circonferenza nel piano
In questo paragrafo si intende studiare l’equazione della circonferenza nel piano affine S 2 e le posizioni reciproche tra circonferenza e retta e anche tra due circonferenze. Successivamente, in modo analogo al caso dei fasci di rette definiti nel Capitolo 9, si introducono i fasci di circonferenze e si ricavano le loro propriet`a. Fissati un punto C nel piano e un numero reale positivo r , si `e gi a` visto nel Paragrafo 9.2 445
Riduzione a Forma Canonica delle Coniche
446
che la circonferenza di centro C e raggio r e` il luogo geometrico dei punti P del piano tali che:
d(P, C ) = r. Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C.
≥
La circonferenza di centro C = (α, β ) e raggio r cartesiano = (O,x,y), ha equazione cartesiana:
R
(x
2
− α)
+ (y
2
− β )
0, rispetto ad un riferimento
= r 2 ,
che pu`o essere riscritta come:
x2 + y2
− 2αx − 2βy + γ = 0,
(10.1)
con γ = α 2 + β 2 r2 . Si osservi che l’equazione (10.1) e` di secondo grado in x e in y , il coefficiente del termine xy e` uguale a 0 e i coefficienti dei termini x 2 e y 2 sono uguali.
−
Viceversa, un’equazione dello stesso tipo, vale a dire:
x2 + y2 + ax + by + c = 0,
a, b, c
∈ R,
(10.2)
non sempre rappresenta una circonferenza nel piano. Infatti, confrontando le equazioni (10.1) e (10.2) si ottiene che il centro C in (10.2) ha coordinate:
− − − a , 2
C = e il raggio r in (10.2) e` dato da:
r =
a 2 + b2 4
b 2
4c
,
(10.3)
pertanto l’equazione (10.2) rappresenta una circonferenza se e solo se:
a 2 + b2
− 4c ≥ 0.
Osservazione 10.1 Se a2 + b2 4c = 0, la circonferenza e` detta degenere e si riduce al solo centro ( a/2, b/2) . Se a2 + b2 4c < 0 allora non ci sono punti del piano che verificano l’equazione (10.2) e la circonferenza viene detta immaginaria.
−
−
−
−
Esercizio 10.1 Determinare il centro e il raggio delle circonferenze: 1
x2 + y 2 + 4x + 6y = 0,
2
x2 + y 2 + 4x + 6y + 30 = 0.
C : C :
Capitolo 10
C
447
− −
Soluzione In 1 il centro `e C = ( 2, 3) . Poich´e la circonferenza passa per l’origine, il suo raggio puo` essere determinato calcolando la distanza del centro dall’origine, quindi:
r = d(C, O) =
√
13,
oppure applicando la formula (10.3). In
C
2 il
16 + 36
10.1.1
− −3) , ma C
centro e` C = ( 2,
− 120 < 0.
2
e` una circonferenza immaginaria infatti si ha
Posizione reciproca tra una retta e una circonferenza
La posizione reciproca tra una retta s e una circonferenza di centro C e raggio r si determina calcolando la distanza del centro della circonferenza alla retta e confrontandola con il raggio della circonferenza stessa. Si presentano tre possibilit a` :
|
|
1. d(C, s) > r : la retta `e esterna alla circonferenza (cfr. Fig. 10.1 ).
C r
s
Figura 10.1: Retta esterna alla circonferenza
|
|
2. d(C, s) = r : la retta `e tangente alla circonferenza (cfr. Fig. 10.2 ).
448
Riduzione a Forma Canonica delle Coniche
C r
s
Figura 10.2: Retta tangente alla circonferenza
s
C r
Figura 10.3: Retta secante la circonferenza
Capitolo 10
|
449
|
3. d(C, s) < r : la retta e` secante la circonferenza e incontra la circonferenza in due punti (cfr. Fig. 10.3 ).
Esercizio 10.2 Determinare per quali valori di k R la retta s : x secante, tangente o esterna alla circonferenza di equazione:
∈
x2 + y2
− 2y + k
= 0 e`
− 2x + 2y − 2 = 0. −
Soluzione Il centro della circonferenza e` C = (1, 1) e il raggio e` r = 2 . Dalla formula (9.24) si ottiene che la distanza del centro dalla retta e` :
3+k , 5
√
d(C, s) =
− − √
−
√
da cui si deduce che s e` esterna alla circonferenza se k < 3 2 5 e k > 3 + 2 5 . La retta s e` tangente alla circonferenza se k = 2 5 3 e s e` secante la circonferenza se 3 2 5 < k < 3 + 2 5 .
− − √
10.1.2
± √ −
√
−
Retta tangente ad una circonferenza in un suo punto
C
−−→ C
Data una circonferenza di centro C = (α, β ) e raggio r, la retta s tangente a in un suo punto P 0 = (x0 , y0 ) e` la retta passante per P 0 e ortogonale al vettore P 0 C , quindi di equazione cartesiana:
s : (α
− x )(x − x ) + (β − y )(y − y ) = 0. 0
0
0
0
(10.4)
La situazione geometrica e` illustrata nella Figura 10.4 .
−
Esercizio 10.3 Determinare l’equazione della retta tangente nel punto P 0 = ( 6, 4) alla circonferenza di equazione:
x2 + y2 + 6x
− 4y = 0. −
Soluzione Il centro della circonferenza e` C = ( 3, 2) , quindi la retta tangente alla circonferenza nel punto P 0 ha equazione:
−
( 3 + 6)(x + 6) + (2 ossia 3x
− 2y + 26 = 0.
− 4)(y − 4) = 0,
450
Riduzione a Forma Canonica delle Coniche
C
s P0
Figura 10.4: Retta tangente alla circonferenza nel punto P 0
C
C' r'
r
Figura 10.5: d(C, C ) > r + r : circonferenze esterne
Capitolo 10
C
451
C' r'
r
Figura 10.6: d(C, C ) = r + r : circonferenze tangenti esternamente
C
C' r'
r
Figura 10.7: r
−r
< d(C, C ) < r + r : circonferenze secanti
C
C' r'
r
Figura 10.8: d(C, C ) < r
−r
: circonferenze interne
Riduzione a Forma Canonica delle Coniche
452
C
C' r'
r
Figura 10.9: d(C, C ) = r
10.1.3
−r
: circonferenze tangenti internamente
Posizione reciproca di due circonferenze Circonferenza per tre punti
La posizione reciproca di due circonferenze si discute confrontando la distanza tra i loro centri C e C e la somma e/o la differenza tra i loro raggi r e r . Assumendo r < r, si presentano i casi illustrati nelle Figure 10.5, 10.6, 10.7, 10.8, 10.9, 10.10.
r
CC' r'
Figura 10.10: d(C, C ) = 0 : circonferenze concentriche
Capitolo 10
453
Esercizio 10.4 Determinare l’equazione della circonferenza passante per i punti:
A = (2, 3),
−
B = (4, 1),
D = (2, 1).
` ben noto che tre punti non allineati del piano individuano una sola circonSoluzione E ferenza. Si lascia per esercizio la verifica che i punti A, B,D assegnati non sono allineati. Per individuare l’equazione della circonferenza passante per A, B,D si pu`o procedere in due modi. Il centro C e` il circocentro (il punto di incontro degli assi dei lati) del triangolo ABD , quindi se ne possono individuare le coordinate intersecando, per esempio l’asse del segmento AB con l’asse del segmento AD . Il raggio e` la distanza, per esempio, da C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere il sistema lineare cos`ı ottenuto:
− − −
2a + 3b + c = 13 4a + b + c = 17 2a b + c = 5.
−
La circonferenza richiesta ha pertanto equazione:
x2 + y2
− 4x − 2y + 1 = 0.
La situazione geometrica e` illustrata nella Figura 10.11.
10.1.4
Fasci di circonferenze
Date le due circonferenze: 1
x2 + y2
2
x2 + y2
C : C :
− 2α x − 2β y + γ = 0, − 2α x − 2β y + γ = 0, 1
1
1
2
2
2
la loro combinazione lineare:
λ(x2 + y2
2
2
− 2α x − 2β y + γ ) + µ(x + y − 2α x − 2β y + γ ) = 0, (10.5) con λ, µ ∈ R, (λ, µ) = (0, 0), rappresenta il fascio di circonferenze individuato da C e C . Si osservi che i parametri λ e µ sono omogenei, vale a dire `e sufficiente individuare il loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per λ = 0 si ottiene la circonferenza C e per µ = 0 si ottiene C . Da (10.5) si ha: (λ + µ)x + (λ + µ)y − 2(λα + µα )x − 2(λβ + µβ )y + (λγ + µγ ) = 0 (10.6) 1
1
1
2
2
2
1
2
2
2
2
1
1
2
1
da cui appare evidente la necessit a` di distinguere due casi:
2
1
2
454
Riduzione a Forma Canonica delle Coniche
A
B
D
Figura 10.11: Circonferenza passante per i punti A, B,D
Capitolo 10
455
1. λ + µ = 0 ;
2. λ + µ = 0 , che saranno discussi separatamente.
−1, µ = 1 ; l’equazione (10.6) diventa: − α )x + 2(β − β )y − γ + γ = 0.
1. λ + µ = 0 per esempio λ =
2(α1
2
1
2
1
2
Si tratta dell’equazione di una retta, che prende il nome di asse radicale del fascio di circonferenze, ed e` ortogonale al vettore n = (α1 α2 , β 1 β 2 ) . La retta passante per i centri C 1 = (α1 , β 1 ) e C 2 = (α2 , β 2 ) delle circonferenze 1 e 2 e` parallela al ` vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze . E evidente che l’asse radicale `e perpendicolare all’asse centrale. Nel Paragrafo 10.6.1 sono elencate altre propriet`a dell’asse radicale di due circonferenze.
−
−
C C
2. λ + µ = 0 ; l’equazione (10.6) diventa:
x2 + y 2
− 2
λα1 + µα2 λ+µ
− x
2
λβ 1 + µβ 2 λ+µ
y +
λγ 1 + µγ 2 λ+µ
=0
che rappresenta, al variare di λ e µ , infinite circonferenze del fascio, con centro:
C λ,µ =
λα1 + µα2 λβ 1 + µβ 2 , . λ+µ λ+µ
(10.7)
Si tratta di circonferenze se il raggio e` positivo o nullo, altrimenti si ottengono circonferenze immaginarie (cfr. Oss. 10.1). Si elencano alcune propriet`a del fascio di circonferenze individuato da verifica:
C
1
e da
C di facile 2
1. i centri di tutte le circonferenze del fascio appartengono all’asse centrale.
C
C
2. Se P 0 = (x0 , y0 ) e` un punto appartenente all’intersezione di 1 e di 2 , allora P 0 verifica l’equazione (10.5), quindi P 0 e` un punto comune a tutti gli elementi del fascio. 3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto P 1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante per P 1 , infatti e` sufficiente sostituire le coordinate di P 1 nell’equazione (10.5) e calcolare il valore dei parametri λ e µ .
Riduzione a Forma Canonica delle Coniche
456
Si esaminano ora le propriet`a precedenti in riferimento alla posizione delle circonferenze 1 e 2 . Si presentano tre casi:
C C 1. C e C si intersecano in due punti P
e P 2 . L’asse radicale e ogni altra circonferenza del fascio passano per P 1 e P 2 . I punti P 1 e P 2 prendono il nome di punti base del fascio individuato dalle circonferenze 1 e 2 . La situazione geometrica `e illustrata nella Figura 10.12. 1
2
1
C C
P2
P1
Figura 10.12: Fascio di circonferenze che si intersecano in due punti 2.
C e C si intersecano in un punto P. L’asse radicale e` la retta tangente ad entrambe le circonferenze e ad ogni altra circonferenza del fascio in P. Il punto P prende il nome di punto base del fascio individuato dalle circonferenze C e C . La situazione 1
2
1
2
geometrica `e illustrata nella Figura 10.13. 3.
C e C
hanno punti di intersezione. Nessun elemento del fascio ha punti in comune con un altro elemento del fascio, l’asse radicale non incontra alcuna circonferenza del fascio. In questo caso, quindi, non esistono punti base del fascio individuato da 1 e 2 . La situazione geometrica `e illustrata nella Figura 10.14. 1
2 non
C C
I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi. I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche questi esercizi senza fare uso del concetto di fascio di circonferenze.
Capitolo 10
Figura 10.13: Fascio di circonferenze che si intersecano in un punto
Figura 10.14: Fascio di circonferenze che non hanno punti di intersezione
457
Riduzione a Forma Canonica delle Coniche
458
Esercizio 10.5 Determinare l’equazione della circonferenza avente centro sulla retta:
− y = 0 e tangente nel punto A = (−2, 0) alla retta s : 3x − 2y + 6 = 0 . s : 2x
Soluzione La circonferenza richiesta `e un elemento del fascio individuato dalla retta s (l’asse radicale) e dalla circonferenza di centro A e raggio 0 . Ossia:
λ[(x + 2)2 + y 2 ] + µ(3x vale a dire:
x2 + y 2 +
− 2y + 6) = 0,
∈ R, (λ, µ) = (0, 0),
λ, µ
− − 4λ + 3µ λ
2µ λ
x
y + 4 +
6µ = 0. λ
Il centro della generica circonferenza del fascio ha coordinate:
4λ + 3µ µ , 2λ λ
C λ,µ =
che, sostituite nell’equazione di s , portano a λ + µ = 0 . Scegliendo, per esempio, λ = 1 e µ = 1 si ha che la circonferenza richiesta ha equazione:
−
x2 + y2 + x + 2y
− 2 = 0.
Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per λ . Infatti per ogni circonferenza del fascio si ha che λ e` diverso da zero, per λ = 0 si ottiene solo l’asse radicale.
Esercizio 10.6 Determinare l’equazione della circonferenza passante per i punti:
− −
−
A = ( 3, 2),
B = (1, 1)
sapendo che l’ascissa del centro `e 0.
Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta AB (l’asse radicale) e dalla circonferenza di centro il punto medio tra A e B e diametro AB . La retta AB ha equazione x 4y 5 = 0 . Il punto medio tra A e B e` :
− − M =
la distanza tra A e B e`
− − 1,
3 , 2
√ 17 , quindi il fascio considerato ha equazione:
λ(x2 + y2 + 2x + 3y
− 1) + µ(x − 4y − 5) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
Capitolo 10
459
Il centro della generica circonferenza del fascio ha coordinate:
C λ,µ =
−
2λ + µ , 2λ
− 4µ − 2λ 3λ
.
Imponendo:
− 2λ2λ+ µ = 0 segue µ =
−2λ, quindi la circonferenza richiesta e` : x2 + y2 + 11y + 9 = 0.
10.2
Le coniche: definizione e propriet`a focali
Si introducono, in questo paragrafo, alcune curve notevoli del piano: l’ellisse, l’iperbole e la parabola, tutte appartenenti alla famiglia delle coniche, come sar a` meglio spiegato nel Paragrafo 10.4. Le curve saranno presentate come luoghi geometrici di punti (cfr. Par. 10.3 e 10.4) e le loro equazioni saranno ricavate dalla definizione, dopo aver scelto un opportuno riferimento cartesiano.
10.2.1
L’ellisse
Definizione 10.1 Fissati due punti F e F del piano, l’ellisse e` il luogo dei punti P tali che: (10.8) d(P, F ) + d(P, F ) = 2a, dove a e` una costante positiva tale che 2a > d(F, F ) .
I punti F e F prendono il nome di fuochi dell’ellisse. La situazione geometrica e` illustrata nelle Figure 10.15 e 10.16. Per ricavare l’equazione cartesiana dell’ellisse si sceglie un opportuno sistema di riferimento ponendo l’origine nel punto medio tra F e F e l’asse x passante per F ed F , di conseguenza si assume che i fuochi siano:
F = (c, 0), ` chiaro che 2c < 2a , il numero: E
e =
F = ( c, 0).
−
c < 1 a
460
Riduzione a Forma Canonica delle Coniche
P F’
F
Figura 10.15: L’ellisse come luogo geometrico
F’
F
Figura 10.16: Rappresentazione grafica della relazione (10.8)
Capitolo 10
461
prende il nome di eccentricit a` dell’ellisse. Le rette di equazioni:
x =
± ae
sono le direttrici dell’ellisse, il loro significato geometrico verr`a spiegato nel Paragrafo 10.3. Sia P = (x, y) il generico punto dell’ellisse, il luogo richiesto ha equazione:
− (x
da cui si ha:
(a2 Posto b 2 = a 2
c)2 + y2 + 2
2
− c )x
(x + c)2 + y2 = 2a,
+ a2 y2 = a2 (a2
2
− c ).
2
− c , si ottiene:
x2 y2 + 2 = 1, a2 b
(10.9)
che e` un’equazione dell’ellisse in forma canonica, vale a dire rispetto ad un riferimento cartesiano opportunamente scelto.
Osservazione 10.2 Per la definizione di equazione dell’ellisse in forma canonica ed il suo legame con il concetto di forma quadratica scritta in forma canonica introdotto nel Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta l’ellisse `e anche detta ellisse reale per distinguerla dall’ellisse immaginaria. L’ellisse immaginaria e` rappresentata dall’equazione (in forma canonica):
x2 y2 + 2 = a2 b
−1,
che non ammette soluzioni reali. La curva di equazione (10.9) incontra l’asse x nei punti A = (a, 0) e A = ( a, 0) e l’asse y nei punti B = (0, b) e B = (0, b) , questi quattro punti prendono il nome di vertici dell’ellisse; l’origine ne `e il centro.
−
−
Dall’equazione (10.9) si deduce che si tratta di una curva simmetrica ripetto all’asse x , all’asse y e all’origine, `e pertanto sufficiente studiare la sua equazione nel primo quadrante. Da (10.9) si ha:
x2 b2 y2 = a2 b2 quindi y b , analogamente si ottiene x a . Il grafico e` , quindi, compreso nel rettangolo delimitato dalle rette di equazioni x = a e y = b . Poich´e:
−
| | ≤
| | ≤
± b √ y = ± a −x , a 2
2
2
2
±
Riduzione a Forma Canonica delle Coniche
462
intuitivamente si ha che se l’ascissa del punto P, che descrive la curva, aumenta di valore, allora la sua ordinata y diminuisce. Si osservi che se a = b , allora c = 0 , ogni retta per l’origine e` asse di simmetria ed in questo caso l’ellisse e` la circonferenza di centro O e raggio a .
Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi: 1
3x2 + 8y2 = 12,
2
18x2 + y2 = 9,
E : E :
i cui grafici sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.
2
1
3
2
1
1
2
3
1
2
Figura 10.17: Esercizio 10.7, ellisse
Soluzione L’ellisse
E 1
E si puo` scrivere come: 1
x2 y2 + = 1, 3 4 2 da cui segue che il centro e` l’origine, i vertici sono:
A = (2, 0), Poich´e c 2 = a 2
2
−b
A = ( 2, 0),
−
B =
√ − √ 0,
6 , 2
= 5/2 , i fuochi hanno coordinate:
B =
0,
6 . 2
Capitolo 10
463
3
2
1
1.0 0.5
0.5
1.0
1
2
3
Figura 10.18: Esercizio 10.7, ellisse
F =
E 2
√ − √ 10 ,0 , 2
10 ,0 . 2
F =
E si puo` scrivere come:
L’ellisse
2
x2 y2 + = 1, 1 9 2
(10.10)
da cui segue che il centro e` l’origine, ma i fuochi appartengono all’asse y in quanto 9 > 1/2 . I vertici sono:
A = Poich´e c 2 = a 2
√ − √ 2 ,0 , 2 2
−b
A =
2 ,0 , 2
B = (0, 3).
−
B = (0, 3),
− 1/2 , i fuochi hanno coordinate: √ 17 √ 17 F = 0, √ , F = 0, − √ 2 2
=9
.
Riduzione a Forma Canonica delle Coniche
464
Si osservi che l’equazione (10.10) non e` scritta nella stessa forma di (10.9). Se si vuole passare dall’equazione (10.10) ad un’equazione dello stesso tipo di (10.9) e` necessario effettuare una rotazione degli assi di π/2 , in senso antiorario, vale a dire porre:
− x y
=
0 1
1 0
X Y
(10.11)
P
F’
F
Figura 10.19: Teorema 10.1 e, nel riferimento
R = (O,X,Y ) , l’equazione (10.10) diventa: X 2 Y 2 + = 1. 1 9 2
Per l’ellisse vale la seguente propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu o` leggere, per esempio, in [8].
Teorema 10.1 La retta tangente ad un’ellisse, di fuochi F ed F , in un suo punto P, e` la bisettrice delle rette P F e P F . La situazione geometrica descritta nel teorema e` illustrata nella Figura 10.19.
Capitolo 10
10.2.2
465
L’iperbole
Definizione 10.2 Fissati due punti F e F del piano, l’iperbole e` il luogo dei punti P tali che: (10.12) d(P, F ) d(P, F ) = 2a,
|
−
|
dove a e` una costante positiva tale che 2a < d(F, F ) .
P F’
F
Figura 10.20: L’iperbole come luogo geometrico I punti F e F prendono il nome di fuochi dell’iperbole. La situazione geometrica e` illustrata nelle Figure 10.20 e 10.21 . Come nel caso dell’ellisse, si sceglie un opportuno riferimento cartesiano avente l’origine nel punto medio tra F ed F e l’asse x passante per F ed F ; si pone F = (c, 0) e F = ( c, 0) . Sia P = (x, y) il generico punto dell’iperbole, allora (10.12) diventa:
−
|
− (x
c)2 + y 2
−
(x + c)2 + y2 = 2a.
|
(10.13)
Elevando due volte al quadrato si perviene a:
(c2 Poich´e c 2 > a2 , si pone b 2
2
2
2 2
2
2
2
− a )x − a y = a (c − a ). = c − a , sostituendo nell’equazione precedente si ottiene: 2
2
x2 a2
−
y2 =1 b2
(10.14)
466
Riduzione a Forma Canonica delle Coniche
F
F’
Figura 10.21: Rappresentazione grafica della relazione (10.12) che `e un’equazione dell’iperbole in forma canonica, vale a dire rispetto ad un riferimento cartesiano opportunamente scelto. Per la definizione di equazione dell’iperbole in forma canonica si veda il Paragrafo 10.4. Il numero:
e =
c > 1 a
prende il nome di eccentricit `a dell’iperbole. Le rette di equazione:
x =
± ae
prendono il nome di direttrici dell’iperbole; il significato geometrico dell’eccentricit a` e delle direttrici verr`a spiegato nel Paragrafo 10.3. L’equazione (10.14) rappresenta una curva simmetrica rispetto all’asse x , all’asse y e all’origine del riferimento. La curva incontra l’asse x nei punti:
A1 = (a, 0),
−
A2 = ( a, 0),
detti vertici dell’iperbole, non ha punti di intersezione con l’asse y . Da:
y2 x2 a2 = , b2 a2
−
Capitolo 10
467
ossia:
y =
± ab √ x − a , 2
2
| | ≥
segue che x a , quindi non vi sono punti della curva compresi tra le rette di equazioni x = a . Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi esse sono tangenti alla curva. Da:
±
y2 x2 = 2 b2 a
− 1
segue, intuitivamente, che il valore dell’ordinata (in valore assoluto) aumenta all’aumentare del valore dell’ascissa (in valore assoluto). La curva e` cos`ı divisa in due parti (simmetriche rispetto all’asse y ) che prendono il nome di rami dell’iperbole. Si studia l’intersezione della curva con una generica retta passante per l’origine (ad eccezione dell’asse y che non interseca la curva), quindi si studiano le soluzioni del sistema:
x2 a2
−
y 2 =1 b2
y = px,
al variare di p in R . Sostituendo la seconda equazione nella prima si ottiene:
x =
±
ab
− b2
a2 p2
da cui segue che l’esistenza delle soluzioni dipende dal radicando b 2 no i seguenti casi:
2 2
− a p . Si distinguo-
| | 2. Se | p| > b/a , le rette non intersecano la curva.
1. Se p < b/a , le rette incontrano la curva in due punti distinti.
3. Le rette:
y =
± ab x
costituiscono un caso “limite” tra le due situazioni 1. e 2. . Tali rette prendono il nome di asintoti dell’iperbole. Per meglio descrivere il comportamento della curva rispetto agli asintoti si consideri la differenza tra le ordinate del punto P 0 = (x, y0 )
468
Riduzione a Forma Canonica delle Coniche
appartenente all’asintoto, e il punto P 1 = (x, y1 ) appartenente alla curva aventi la stessa ascissa, ossia:
y0
−
− √ −
b y1 = x a
x2
a2 =
ab √ x+ x −a 2
2
.
Quando P 1 si allontana indefinitamente sull’iperbole, la sua ascissa x cresce sempre di piu` ed allora l’ultima frazione, avendo il numeratore costante e il denominatore che aumenta via via, diminuisce sempre di pi`u. Pi`u precisamente:
lim
x→±∞
ab √ x+ x −a 2
2
= 0.
La situazione geometrica `e illustrata nella Figura 10.22 .
P0
P1
Figura 10.22: L’iperbole e i suoi asintoti
Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli:
I : 1
4 2 x 9
2
9x2
3
4x2
I : I :
− 25y 2
2
= 1,
− 4y = 36, − 3y = −5, 2
Capitolo 10
469
i cui grafici sono rispettivamente rappresentati nelle Figure 10.23 , 10.24 e 10.25 .
1
4
2
2
4
1 2
Figura 10.23: Esercizio 10.8 , iperbole
I 1
4
2
6
4
2
2
4
6
2
4
Figura 10.24: Esercizio 10.8 , iperbole
Soluzione
I 2
I i vertici sono:
Per quanto riguarda l’iperbole
− √ − √ 3 ,0 , 2
A =
229 ,0 , 10
F =
A = i fuochi sono:
F =
1
3 ,0 ; 2
229 ,0 , 10
Riduzione a Forma Canonica delle Coniche
470
4
2
6
4
2
2
4
6
2
4
Figura 10.25: Esercizio 10.8 , iperbole
I 3
gli asintoti hanno equazioni:
y =
± 152 x.
I i vertici sono A = (2, 0), A √ √ F = ( 13, 0), F = (− 13, 0), gli asintoti hanno equazioni: Per quanto riguarda l’iperbole
2
y =
−
= ( 2, 0) ; i fuochi sono
± 32 x,
si osservi che, in questo caso b > a , come si pu`o evincere dalla Figura 10.24, rispetto all’iperbole rappresentata nella Figura 10.23 in cui b < a.
I l’equazione diventa:
Per quanto riguarda l’iperbole
3
y2 5 3
−
x2 = 1; 5 4
analogamente al caso dell’Esercizio 10.7, per scrivere l’equazione nella forma (10.14) e` necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel = (O,x,y), i vertici sono: riferimento iniziale
R
Capitolo 10
A =
471
√ √ − √ √ 0,
5 , 3
A =
0,
5 , 3
i fuochi sono:
F =
√ √ − √ √ 0,
35 , 12
F =
0,
35 12
e gli asintoti hanno equazioni:
x =
±
√ 3 2
y.
Se nell’equazione (10.14) si pone a = b si ottiene:
x2
√
−y
2
= a2 ,
(10.15)
−√
2 a, 0) , gli asintoti hanno equazioni i fuochi hanno coordinate F = ( 2 a, 0) e F = ( y = x , ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e l’iperbole prende il nome di iperbole equilatera. La Figura 10.26 illustra alcune iperboli equilatere, ottenute variando il parametro a , avente tutte gli stessi asintoti, ma vertici diversi. Gli asintoti, comuni a tutte le iperboli equilatere, possono essere pensati come l’iperbole “degenere” di equazione (x y)(x + y) = 0 .
±
−
Per l’iperbole valgono le seguenti propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu`o leggere, per esempio, in [8].
Teorema 10.2 Data un’iperbole di fuochi F ed F , la retta tangente in un suo punto P e` la bisettrice delle rette P F e P F . La situazione geometrica descritta nel teorema appena enunciato e` illustrata nella Figura 10.27 .
Teorema 10.3 Si consideri una qualsiasi retta che intersechi un ramo di un’iperbole nei punti P 1 e P 2 e gli asintoti nei punti Q1 e Q2 , allora i segmenti Q1 P 1 e Q 2 P 2 hanno la stessa lunghezza. In particolare, la retta tangente in un punto P all’iperbole incontra gli asintoti nei punti Q 1 e Q 2 di cui P e` il punto medio. La situazione geometrica descritta nel teorema appena enunciato e` illustrata nelle Figure 10.28 e 10.29.
472
Riduzione a Forma Canonica delle Coniche
Figura 10.26: Una famiglia di iperboli equilatere
P
F’
F
Figura 10.27: Rappresentazione grafica del Teorema 10.2
Capitolo 10
473
Q1 P1
P2 Q2
Figura 10.28: Rappresentazione grafica del Teorema 10.3
Q1
P1 P2
Q2
Figura 10.29: Rappresentazione grafica del Teorema 10.3
Riduzione a Forma Canonica delle Coniche
474
Teorema 10.4 Per ogni punto P di un’iperbole, tutti i parallelogrammi formati dagli asintoti e dalle parallele ad essi condotte da P hanno la stessa area. La situazione descritta nel teorema precedente e` illustrata nella Figura 10.30 in cui i rettangoli colorati hanno la stessa area.
P
P
Figura 10.30: Rappresentazione grafica del Teorema 10.4
10.2.3
Iperbole equilatera riferita agli asintoti
Si vuole studiare il caso particolare dell’iperbole equilatera e scrivere la sua equazione nel riferimento avente come assi gli asintoti. Per risolvere il problema, si pu o` procede= (O,x,y) di π/4 in senso orario e re ruotando gli assi cartesiani del riferimento mantenendo fissa l’origine, pervenendo cos`ı al riferimento = (O,X,Y ), e scrivendo l’equazione dell’iperbole (10.15) nel riferimento .
R R
R
In alternativa, si puo` operare come segue. Se si immagina che gli asintoti coincidano con gli assi cartesiani, i fuochi dell’iperbole diventano i punti della retta y = x di coordinate F = (a, a), F = ( a, a) , infatti, per il teorema di Pitagora, la loro distanza dall’origine e` c = 2a . Si ripetono i calcoli descritti a partire da (10.13) in questo caso, e precisamente (10.13) diventa:
√ − −
− (x
a)2
+ (y
−
a)2
−
(x + a)2 + (y + a)2 = 2a.
Capitolo 10
475
Elevando due volte al quadrato si ottiene l’equazione:
a2 xy = , 2
(10.16)
che risponde al problema posto. Si osservi che questa rappresentazione permette di dimostrare pi`u agevolmente il comportamento dell’asintoto (l’asse x per esempio) rispetto alla curva. Infatti se P 1 = (x, y) e` un punto della curva e P 0 = (x, 0) e` il punto dell’asse x di uguale ascissa, allora e` evidente che:
a2 lim y = lim = 0. x→∞ x→±∞ 2x Al variare di a in (10.16) si hanno iperboli con rami nel primo e terzo quadrante, i cui asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x . 8
6
4
2
-8
-6
-4
-2
2
4
6
8
-2
-4
-6
-8
∈ R
Figura 10.31: Iperboli di equazione xy = k 2 , k La curva:
xy = 0 rappresenta la conica “degenere”prodotto degli assi cartesiani, invece la famiglia di curve (ottenute al variare di a )
476
Riduzione a Forma Canonica delle Coniche
8
6
4
2
-8
-6
-4
-2
2
4
6
8
-2
-4
-6
-8
Figura 10.32: Iperboli di equazione xy =
xy =
−
−k , k ∈ R 2
a2 2
si puo` ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cambiamento di riferimento:
−
x = Y y = X ;
di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e quarto quadrante e i vertici variano sulla bisettrice y = x . Le situazioni descritte sono illustrate nelle Figure 10.31 e 10.32 .
−
10.2.4
La parabola
Definizione 10.3 La parabola `e il luogo dei punti P equidistanti da una retta f fissata e da un punto F fissato. La retta f prende il nome di direttrice della parabola e il punto F e` il fuoco della parabola.
Capitolo 10
477
Come nel caso dell’ellisse e dell’iperbole, per ricavare l’equazione della parabola si sceglie un riferimento cartesiano opportuno. Si puo` procedere nei due modi di seguito descritti.
Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga all’asse x e abbia coordinate F = (0, c), con c > 0, e la direttrice abbia equazione y = c , pertanto l’origine `e un punto appartenente al luogo richiesto. Imponendo che:
−
d(P, F ) = d(P, f ) si ha:
x2 + (y
elevando al quadrato si ottiene:
2
− c) = |y + c|,
y = ax2 ,
(10.17)
dove a = 1/4c . Allora (10.17) e` un’equazione della parabola in forma canonica. Si sceglie il fuoco di coordinate F = (c, 0), con c > 0, e la direttrice Secondo Caso di equazione x = c , procedendo come nel caso precedente si perviene a:
−
x = ay 2 ,
(10.18)
che `e un’altra equazione in forma canonica della parabola. Analogamente usando valori negativi per il numero c si ottengono le equazioni: 2
y =
−ax
x =
−ay .
(10.19)
e: 2
(10.20)
Due situazioni geometriche sono illustrate nelle Figure 10.33 e 10.34 . Tutte le parabole di equazioni (10.17), (10.18), (10.19), (10.20) passano per l’origine, che e` il loro vertice. Tra tutti i punti della parabola, il vertice e` quello avente distanza minore dal fuoco (e dalla direttrice). Per quanto riguarda lo studio del grafico della parabola, per esempio da (10.18), si deduce che la curva e` simmetrica rispetto all’asse x , le ascisse dei suoi punti sono sempre numeri positivi e l’ascissa aumenta all’aumentare (in valore assoluto) dell’ordinata.
478
Riduzione a Forma Canonica delle Coniche
Figura 10.33: La parabola come luogo di punti, di equazione y = ax2 , a > 0
Figura 10.34: La parabola come luogo di punti, di equazione y = ax2 , a < 0
Capitolo 10
479
Per capire l’andamento della curva al variare del parametro a si osservi la Figura 10.35 in cui sono riportati i grafici delle parabole di equazioni y = (1/2)x2 (quella esterna), y = x 2 , (quella centrale), y = 2x2 (quella interna).
8
6
4
2
-4
-2
2
4
Figura 10.35: Le parabole y = (1/2)x2 , y = x 2 , y = 2x2
Esercizio 10.9 Determinare il vertice, il fuoco e la direttrice delle parabole:
P : P :
− 2y
2
1
3x
= 0,
2
2x2 + 9y = 0,
che sono rappresentate nelle Figure 10.36 e 10.37.
Soluzione
Entrambe le parabole hanno vertice nell’origine, nel caso di F = (3/8, 0) e la direttrice ha equazione x = 3/8 .
−
P il fuoco e` 1
P il fuoco e` F = (0, −9/8) e la direttrice ha equazione y = 9/8 .
Nel caso di
2
Per la parabola vale la seguente propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu o` leggere, per esempio, in [8].
Teorema 10.5 La retta tangente ad una parabola in un suo punto P e` la bisettrice dell’angolo formato dalla retta passante per P e per il fuoco e dalla retta per P perpendicolare alla direttrice.
480
Riduzione a Forma Canonica delle Coniche
3
2
1
1
2
3
5
4
7
6
-1
-2
-3
P
Figura 10.36: Esercizio 10.9 , parabola
-6
-4
-2
2
4
1
6
-2
-4
-6
-8
-10
P
Figura 10.37: Esercizio 10.9 , parabola
2
Capitolo 10
481
t
P F f
Figura 10.38: Rappresentazione grafica del Teorema 10.5 La situazione geometrica descritta nel teorema appena enunciato e` illustrata nella Figura 10.38 .
10.2.5
Coniche e traslazioni
Gli esercizi che seguono sono volti a studiare l’equazione di una conica scritta in un riferimento cartesiano traslato rispetto al riferimento iniziale in cui essa si presenta in forma canonica. Se nell’equazione (10.9) dell’ellisse in forma canonica si opera una traslazione degli assi:
x = X + x0 y = Y + y0 ,
(cfr. Par. 9.4), l’equazione diventa:
(X + x0 )2 (Y + y0 )2 + = 1. a2 b2
(10.21)
(10.22)
Svolgendo i calcoli, si ottiene un’equazione del tipo:
αx2 + βy 2 + x + δy + γ = 0,
con α,β,,δ, γ R , α = 0, β = 0, che, rispetto alla pi u` generale equazione di secondo grado nelle indeterminate x e y , ha il coefficiente del termine in xy pari a zero. In questo caso particolare, se si ha l’equazione della conica nella forma (10.22), con il metodo del
∈
Riduzione a Forma Canonica delle Coniche
482
completamento dei quadrati (cfr. Es. 8.13) e` facile risalire alla forma (10.21), e, quindi, all’equazione iniziale che meglio consente di studiare la conica. Analogo discorso vale per l’iperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo grado complete in x, y , di cui, quelle appena descritte, sono un caso particolare.
R = (O,x,y) e` data la conica di equazione: x + 2y + 4x + 4y − 2 = 0.
Esempio 10.1 Nel riferimento
2
2
Completando i quadrati, si ha:
(x2 + 4x + 4
− 4) + 2(y
2
+ 2y + 1
− 1) − 2 = 0,
(x + 2)2 + 2(y + 1) 2 = 8, e, quindi:
(x + 2)2 (y + 1) 2 + = 1. 8 4 Pertanto con la traslazione:
X = x + 2 Y = y + 1,
si ottiene:
X 2 Y 2 + = 1, 8 4 che e` l’equazione di un’ellisse. Si osservi che il centro O dell’ellisse e` l’origine del riferimento traslato = (O , X , Y ) ed ha coordinate ( 2, 1) rispetto al riferimento . Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento = (O , X , Y ) hanno invece, rispettivamente, equazione y +1 = 0 e x+2 = 0 nel riferimento . La situazione geometrica `e illustrata nella Figura 10.39 .
R
R
− −
R
R = (O,x,y) e` data la conica: x − 2y + 6x − 8y − 5 = 0.
Esempio 10.2 Nel riferimento
2
2
Completando i quadrati, si ha:
(x2 + 6x + 9 (x + 3)2
− 9) − 2(y
− 2(y + 2)
2
2
= 6,
+ 4y + 4
− 4) − 5 = 0,
R
Capitolo 10
483
2
1
-4
-2
2
-1
-2
-3
Figura 10.39: Esempio 10.1 e, quindi:
(x + 3)2 6
−
(y + 2) 2 = 1. 3
Pertanto con la traslazione:
X = x + 3 Y = y + 2,
si ottiene:
X 2 6
−
Y 2 = 1, 3
che e` l’equazione di un’iperbole. Si osservi che il centro O dell’iperbole e` l’origine del riferimento traslato = (O , X , Y ) ed ha coordinate ( 3, 2) rispetto al riferimento . Gli asintoti che hanno equazioni:
R
R
− −
Y =
√ 12 X,
Y =
− √ 12 X
nel riferimento
R = (O , X , Y ), hanno invece equazioni: 1 1 y = √ (x + 3) − 2, y = − √ (x + 3) − 2 2 2
nel riferimento
R. La situazione geometrica e` illustrata nella Figura 10.40 .
484
Riduzione a Forma Canonica delle Coniche
5
2.5
-5
-10
5
10
-2.5
-5
-7.5
-10
Figura 10.40: Esempio 10.2
6
4
2
6
4
2
2
2
4
Figura 10.41: Esempio 10.3
Capitolo 10
Esempio 10.3 Nel riferimento
485
R = (O,x,y) e` data la conica: 2y − 8y + 5x − 9 = 0. 2
Completando i quadrati, si ha:
2(y2 2(y
− 4y + 4 − 4) + 5x − 9 = 0, 2
− 2)
−
+5 x
17 5
= 0,
Pertanto con la traslazione:
si ottiene:
X = x
− 175
Y = y
− 2,
2Y 2 + 5X = 0 che e` l’equazione di una parabola. Il vertice della parabola O e` l’origine del riferimento traslato = (O , X , Y ) ed ha coordinate (17/5, 2) rispetto al riferimento . La situazione geometrica e` illustrata nella Figura 10.41 .
R
R
` fondamentale ricordare che per applicare il metodo del completaOsservazione 10.3 E mento dei quadrati e poi effetture l’opportuna traslazione si devono sempre mettere in evidenza i coefficienti di x 2 e di y 2 (perch´e?).
10.3
Le coniche: luoghi geometrici di punti
La definizione che segue giustifica la denonimazione conica assegnata alle curve introdotte nel Paragrafo 10.2.
Definizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere intersecando un cono circolare retto con un piano. Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su di una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendicolare al piano della circonferenza nel suo centro, questa retta prende il nome di asse del cono. Per lo studio approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.
486
Riduzione a Forma Canonica delle Coniche
` chiaro che, secondo la definizione proposta, il termine conica comprende: la circonfeE renza, l’ellisse, l’iperbole e la parabola, come illustrato nelle Figure 10.42 , 10.43 , 10.44 e 10.45. Inoltre, se il piano secante il cono passa per il vertice, allora si ottengono anche coppie di rette incidenti e coppie di rette coincidenti pertanto anche questi sono esempi di coniche che prendono il nome di coniche degeneri. Se il piano secante passa per il vertice (e, per esempio, e` perpendicolare all’asse del cono) allora interseca il cono solo nel vertice, che risulta anche essere una particolare conica degenere.
Figura 10.42: La circonferenza Con questo metodo non si pu o` visualizzare la conica degenere formata da due rette parallele. Per ottenerla `e necessario usare metodi di Geometria Proiettiva, in questo ambito anche le rette parallele si incontrano in punti particolari, “all’infinito”, detti punti improprii ; per uno studio approfondito di questi argomenti si rimanda, per esempio, a [17]. Scopo di questo paragrafo e` quello di introdurre un luogo geometrico di punti nel piano che comprenda tutte le coniche, tranne ovviamente il caso degenere appena citato.
Definizione 10.5 Una conica e` il luogo dei punti del piano per cui si mantiene costante il rapporto tra la distanza di tali punti da un punto fissato e da una retta fissata. Detti P il punto generico della conica, F il punto assegnato, f la retta assegnata ed e la costante, la definizione precedente equivale a:
d(P, F ) = e. d(P, f )
(10.23)
Capitolo 10
Figura 10.43: L’ellisse
Figura 10.44: L’iperbole
487
Riduzione a Forma Canonica delle Coniche
488
Figura 10.45: La parabola Il punto F prende il nome di fuoco della conica, la retta f e` la direttrice della conica e la costante e e` l’eccentricit a` della conica. Se si assume che la distanza del punto F dalla retta f sia positiva (mai nulla), allora e` chiaro dalla definizione che e > 0 . La situazione geometrica `e illustrata nella Figura 10.46. Si procede ora alla determinazione dell’equazione del luogo geometrico dei punti P che = (O,x,y) , si ponverificano la formula (10.23). Fissato un riferimento cartesiano gono: P = (x, y), F = (x0 , y0 ) e f : ax + by + c = 0 , per cui la relazione (10.23) diventa:
R
− (x
x0 )2 + (y y0 )2 = e, ax + by + c a2 + b2
− |
| √
elevando al quadrato, si ottiene:
(x
−x ) 0
2
+ (y
−
(ax + by + c)2 y0 ) = e . a2 + b2 2
Si distinguono i due casi seguenti:
∈ f : il fuoco appartiene alla direttrice.
1. F
2
(10.24)
Capitolo 10
489
P
F
f
Figura 10.46: Un punto P di una conica di fuoco F e direttrice f
∈
2. F / f : il fuoco non appartiene alla direttrice. In ciascuno dei due casi elencati si esamineranno i sottocasi: a. e = 1 ; b. e > 1 ; c. e < 1 .
∈
Primo Caso F f : il fuoco appartiene alla direttrice. Si sceglie un sistema di riferimento opportuno, ponendo l’origine coincidente con F e la direttrice f coincidente con l’asse y , pertanto il fuoco avr`a coordinate F = (0, 0) ed f equazione x = 0 . L’equazione (10.24) diventa:
x2 + y 2 = e 2 x2 , ossia:
(1
2
− e )x
2
+ y2 = 0.
(10.25)
Si inizia lo studio dei tre sottocasi: a. e = 1 . L’equazione (10.25) si riduce a y 2 = 0 , si tratta dell’asse x contato due volte; e` una conica degenere e, in un riferimento qualsiasi, consiste nell’equazione di una retta elevata al quadrato, per esempio (x y + 5) 2 = 0 .
−
Riduzione a Forma Canonica delle Coniche
490
b. e > 1 . In questo caso si ha 1 e2 < 0 , pertanto l’equazione (10.25) `e una differenza di quadrati che puo` essere espressa come:
−
(y +
√ − √ 1 x)(y − e − 1 x) = 0. e 2
2
Si tratta, quindi, del prodotto di due rette incidenti e, di nuovo, di una conica degenere. c. e < 1 . Allora si ha 1 e2 > 0 , pertanto l’equazione (10.25) rappresenta la somma di due quadrati, ossia un unico punto reale, in questo caso l’origine. Si tratta, di nuovo, di una conica degenere, interpretata come prodotto di due rette immaginarie coniugate (cfr. Par. 9.10.1) incidenti in un punto reale (`e il vertice del cono citato in precedenza).
−
∈
Riassumendo: se F f allora si ottengono solo coniche degeneri date dal prodotto di due rette coincidenti, o dal prodotto di due rette incidenti. Si osservi, di nuovo, che, per ottenere il caso della conica degenere formata da due rette parallele, e` necessario usare metodi di geometria proiettiva, in questo ambiente si deve porre la direttrice coincidente con la retta impropria, ossia la retta contenente tutti i punti improprii.
∈
Secondo Caso F / f : il fuoco non appartiene alla direttrice. Si sceglie un riferimento opportuno ponendo F sull’asse x e la direttrice f ortogonale all’asse x . Siano (c, 0) le coordinate di F e x = h l’equazione di f , con c = h . L’equazione (10.23) diventa:
(1
2
2
− e )x
+ y2
2
2
2 2
− 2(c − e h)x + c − e h
= 0.
(10.26)
Si inizia lo studio dei tre sottocasi: a. e = 1 . Dall’equazione (10.26) si ha:
y2
2
2
− 2(c − h)x + c − h
= 0.
(10.27)
Si sceglie l’origine del sistema di riferimento in modo che c + h = 0 , vale a dire l’origine O coincide con il punto medio tra il fuoco F e il punto di incontro della direttrice con l’asse x . Allora l’equazione (10.27) si riduce a:
y2 = 4cx, e, ponendo a = 1/4c, si perviene alla nota forma canonica della parabola:
x = ay 2 .
Capitolo 10
491
b. e c. e = 1 . Si determinano le intersezioni della curva di equazione (10.26) con l’asse x. Ponendo y = 0 nell’equazione (10.26) si ha:
(1
2
2
2
2
2 2
− e )x − 2(c − e h)x + c − e h
= 0.
(10.28)
Indicati con A1 = (x1 , 0) e A2 = (x2 , 0) i due punti cercati, dall’equazione precedente segue che:
x1 + x2 = 2
−
c e2 h . 1 e2
−
(Si controlli per esercizio che l’equazione (10.28) ammette sempre due soluzioni reali e distinte). Si pone l’origine del riferimento nel punto medio tra A1 e A2 , ossia, si pone c e2 h = 0 , da cui:
−
h =
c . e2
(10.29)
−
Sia a = x1 , quindi A1 = (a, 0) e A2 = ( a, 0) . Il prodotto delle soluzioni dell’equazione (10.28) `e:
x1 x2 =
c2 e2 h2 a = 1 e2
−
− −
2
e, tenendo conto di (10.29), si perviene alla formula:
e =
c . a
Sostituendo i risultati ottenuti in (10.26) segue:
(a2
2
2
− c )x
+ a2 y2 = a2 (a2
2
− c ).
(10.30)
Si possono distinguere i due ultimi casi: b. e > 1 . Allora e = c/a > 1 e c > a , si puo` porre b 2 = c 2 (10.30) diventa:
x2 a2
−
y2 = 1, b2
che `e l’equazione dell’iperbole in forma canonica.
2
− a , quindi l’equazione
Riduzione a Forma Canonica delle Coniche
492
c. e < 1 . Allora e = c/a < 1 e c < a , si puo` porre b 2 = a 2 (10.30) diventa:
2
− c , quindi l’equazione
x2 y2 + 2 = 1, a2 b che e` l’equazione dell’ellisse in forma canonica. In entrambi i casi si ottengono (per simmetria) due direttrici e due fuochi, per esempio la direttrice relativa al fuoco F = (c, 0) ha equazione:
a2 x = h = . c Nel caso dell’ellisse, h > a , le due direttrici sono esterne alla figura, nel caso dell’iperbole h < a , le due direttrici sono posizionate tra l’asse y e i vertici. Si osservi che per c = 0 e, quindi, e = 0 , si ottiene la circonferenza che risulta esclusa da questo luogo di punti in quanto e = 0 implica P = F. In conclusione, anche il luogo considerato non comprende tutte le coniche, mancando la circonferenza e la coppia di rette parallele. Una rappresentazione comune di tutte le coniche si vedr`a nel paragrafo che segue, dimostrando che le coniche sono tutte rappresentate da una generica equazione di secondo grado in x, y .
10.4
Le coniche: equazioni di secondo grado, riduzione delle coniche in forma canonica
Scopo di questo paragrafo `e dimostrare il seguente teorema.
Teorema 10.6 Nel piano, ogni equazione di secondo grado nelle incognite x, y , scritta rispetto ad un riferimento cartesiano = (O,x,y) , rappresenta una conica.
R
Si premette la seguente definizione.
Definizione 10.6 Si dice che l’equazione di una conica e` scritta in forma canonica se la sua equazione di secondo grado assume una delle seguenti forme:
αx2 + βy 2 + γ = 0,
αx2 + δy = 0,
con α, β,γ, δ, coefficienti reali e α = 0, β = 0.
βy 2 + x = 0,
Capitolo 10
493
Sono esempi di equazioni di coniche scritte in forma canonica (10.9), (10.14), (10.17) e (10.18). Nella dimostrazione del Teorema 10.6 viene anche indicato il metodo da seguire per passare da un’equazione di secondo grado in x, y alla forma canonica di una conica. Per questo motivo e per aiutare la comprensione del procedimento usato, all’interno della dimostrazione sono inseriti esempi numerici di riduzione a forma canonica di coniche particolari.
Dimostrazione del Teorema 10.6 Sia: 2 11 x
C: a
+ 2a12 xy + a22 y2 + 2a13 x + 2a23 y + a33 = 0
(10.31)
un’equazione di secondo grado in x, y con coefficienti aij R, i , j = 1, 2, 3, tali che 2 2 2 a11 + a12 + a22 = 0. Si introducono le due matrici simmetriche definite tramite (10.31):
∈
A =
a11 a12 a12 a22
,
B =
a11 a12 a13 a12 a22 a23 a13 a23 a33
x y 1
oppure come:
x y
A
x y
+2
x y 1
B
a13 a23
,
C di equazione (10.31). L’equa-
che vengono spesso dette matrici associate alla conica zione di si pu`o scrivere in notazione matriciale come:
C
= 0,
x y
+ a33 = 0.
(10.32)
(10.33)
Si vuole studiare il luogo dei punti P = (x, y) che verficano l’equazione (10.31), rispetto = (O,x,y) che determina la base ortonormale ad un riferimento cartesiano fissato positiva = (i, j) del piano vettoriale V 2 .
R
B
C di equazione:
Esempio 10.4 La circonferenza
C : x
2
+ y 2 + ax + by + c = 0
con centro C e raggio r dati da:
C =
− − a , 2
b , 2
a2 b2 + r = 4 4 2
− c,
Riduzione a Forma Canonica delle Coniche
494
individua le matrici:
A =
1 0 0 1
B=
,
1
0
a 2
0
1
b 2
a 2
b 2
c
.
Si osservi che A e` in forma diagonale, det(A) > 0 e:
det(B) = c Pertanto, se:
a2 4
− −
b2 = 4
2
−r .
a2 b2 + = c 4 4
allora det(B) = 0 . Si osservi anche che se:
a2 b2 + = c 4 4
−
−
si ha la circonferenza degenere di centro il punto ( a/2, b/2) e raggio pari a zero (ossia il punto ( a/2, b/2) ), in questo caso det(B) = 0 . Se:
−
−
a2 b2 +
Esempio 10.5 L’ellisse di equazione (in forma canonica):
x2 y2 + 2 =1 a2 b individua le matrici:
A =
1 a2 0
0 1 b2
,
B =
1 a2
0
0
0
1 b2
0
0
0
−1
.
Capitolo 10
495
Si osservi che A e` in forma diagonale ed inoltre:
det(A) > 0, det(B) = 0. Esempio 10.6 L’ellisse immaginaria di equazione (in forma canonica):
x2 y2 + 2 = a2 b
−1
individua le matrici:
A =
1 a2 0
0 1 b2
B=
,
1 a2
0
0
0
1 b2
0
0
0
1
Si osservi che A e` in forma diagonale ed inoltre:
.
det(A) > 0, det(B) = 0. Esempio 10.7 L’iperbole di equazione (in forma canonica):
x2 a2
−
y2 =1 b2
individua le matrici:
A =
1 a2 0
0
− b1
2
,
B =
1 a2
0
0
− b1
0
0
0
2
Si osservi che A e` in forma diagonale ed inoltre:
det(A) < 0, det(B) = 0.
0
−1
.
496
Riduzione a Forma Canonica delle Coniche
Esempio 10.8 La parabola, di equazione (in forma canonica):
y2 = 2 px individua le matrici:
A =
− 0 0 0 1
B=
,
0
0
− p
0
1
0
p
0
0
.
Si osservi che, anche in questo caso, A e` in forma diagonale ed inoltre:
det(A) = 0, det(B) = 0. Analogamente la parabola, di equazione (in forma canonica):
x2 = 2 py individua le matrici:
A =
1 0 0 0
,
B=
1
0
0
0
0
− p
− 0
p
.
0
Si osservi che, anche in questo caso, A e` in forma diagonale ed inoltre:
det(A) = 0, det(B) = 0. Esempio 10.9 La conica degenere di equazione:
4x2 + y2 + 4xy = 0, ossia (2x + y)2 = 0, rappresenta la retta di equazione 2x + y = 0 contata due volte ed individua le matrici:
A =
4 2 2 1
,
B =
4 2 0
2 1 0
0 0 0
.
Si osservi che rank(A) = rank(B) = 1 e pertanto det(A) = 0 e det(B) = 0 .
Capitolo 10
497
Esempio 10.10 La conica degenere di equazione:
y2
−9=0 rappresenta la coppia di rette reali y = 3 e y = −3 ed individua le matrici: A =
0 0 0 1
B=
,
0 0 0
0 1 0
− 0 0 9
.
Si osservi che rank(A) = 1 e rank(B) = 2 e pertanto det(A) = 0 e det(B) = 0.
Esempio 10.11 La conica degenere di equazione:
y2 + 9 = 0 rappresenta una coppia di rette immaginarie coniugate di equazioni y = (cfr. Par. 9.10.1) ed individua le matrici:
A =
0 0 0 1
,
B =
0 0 0
0 1 0
0 0 9
−3i e y = 3i.
.
Analogamente all’esempio precedente si osservi che rank(A) = 1 e rank(B) = 2 . Si riprende ora la dimostrazione del teorema, suddividendo il procedimento di riduzione a forma canonica in due casi.
Primo caso a12 = 0 , la matrice A associata al luogo dei punti P = (x, y) rappresentato dall’equazione (10.31) si presenta in forma diagonale:
A =
a11
0
0
a22
e l’equazione (10.31) assume la forma:
a11 x2 + a22 y2 + 2a13 x + 2a23 y + a33 = 0. Operando con una opportuna traslazione degli assi si perviene all’annullarsi dei coefficienti a13 e a 23 . Questo caso e` stato discusso nel Paragrafo 10.2.5 a cui si rimanda per il metodo da seguire e per gli esempi inseriti.
Riduzione a Forma Canonica delle Coniche
498
B
Secondo caso a12 = 0 . Si vuole effettuare un opportuno cambiamento della base = (O,x,y) nel ortonormale positiva = (i, j) determinata dal riferimento cartesiano quale e` scritta l’equazione e quindi un’opportuna rotazione degli assi coordinati x e y in modo da trasformare l’equazione (10.33) in una nuova equazione:
R
C
x
y
x y
A
+2
a13 a23
con A matrice diagonale.
x y
+ a33 = 0,
Dapprima si vuole quindi studiare come cambia l’equazione (10.33) se si opera mediante un cambiamento di base. Sia = (i , j ) una base ortonormale positiva e si indichino con:
B
B B x y
x y
= P
le equazioni del cambiamento d base da
x y
a
(10.34)
, dove: x y
,
sono le matrici colonne delle componenti di un generico vettore x scritte rispetto alla base e alla base , rispettivamente, e P e` la matrice del cambiamento di base da a . Sostituendo le equazioni del cambiamento di base (10.34) in (10.33), l’equazione (10.33) si trasforma in:
B
B
B B
x
y
x y
t
( P AP )
+2
a13 a23
P
x y
+ a33 = 0.
Si osservi perci`o che il termine noto rimane invariato. Poich e´ A e` una matrice simmetrica, esiste, per il Teorema 7.8, una matrice ortogonale P che permette di ottenere la matrice diagonale:
D = tP AP =
λ1 0 0 λ2
,
con λ 1 e λ 2 autovalori di A. Pertanto, scegliendo come nuova base una base ortonormale positiva di autovettori di A , ovvero una base ortonormale di autovettori di A tale che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuovo riferimento = (O, x , y ), con assi x e y nella direzione degli autovettori di A , l’equazione (10.33) si trasforma in:
B
R
x y
D
x y
+2
a13 a23
x y
+ a33 = 0,
(10.35)
Capitolo 10
con:
a13 a23
=
499
a13 a23
P.
Le equazioni (10.34) corrispondono quindi ad una rotazione del piano (cfr. Es. 6.24) e nelle nuove coordinate (x , y ) l’equazione (10.33) si trasforma in:
λ1 (x )2 + λ2 (y )2 + 2a13 x + 2a23 y + a33 = 0.
(10.36)
Inoltre, da (10.34) si ottiene:
x y 1
Posto:
P
=
0 0
Q =
P
0 0
x y 1
0 0 1 0 0 1
.
,
l’equazione (10.32), mediante il cambiamento di base effettuato, si trasforma in:
x y 1
con
B =
B
λ1
0
a13
0
λ2
a23
x y 1
= 0,
= t QBQ.
a13 a23 a33
Confrontando le due equazioni (10.33) e (10.35), poich´e det(D) = det(A) , si ha che la rotazione non cambia il determinante della matrice A. Inoltre:
det(B ) = det(B),
(10.37)
essendo det(Q) = det(P ) = 1 . Infine, operando mediante un completamento dei quadrati e quindi applicando una traslazione opportuna del tipo:
x = X + x0 y = Y + y0 ,
come descritto nel Paragrafo 10.2.5, si completa la riduzione a forma canonica, trasformando l’equazione (10.35) in un’equazione in forma canonica nel nuovo riferimento cartesiano = (O , X , Y ).
R
Riduzione a Forma Canonica delle Coniche
500
Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi numerici per capire meglio il procedimento di riduzione a forma canonica di una conica appena descritto.
Esempio 10.12 Si riduca a forma canonica la conica di equazione: 2
√
2
3x + 2xy + 3y + 2 2x = 0.
(10.38)
Le matrici A e B associate alla conica sono date da:
√ √ √ 3 1 1 3
A =
,
B =
3
1
2
1
3
0
2
0
0
e (10.38) si puo` scrivere come:
x y
x y
A
+
x y
2 2 0
= 0.
(10.39)
Si osservi che det(A) = 8 e det(B) = 0 , ci sono, quindi, ragionevoli motivi per pensare che si tratti di un’ellisse. Gli autovalori di A sono λ1 = 2 e λ2 = 4 , i corrispondenti autovettori (di norma unitaria per ottenere una matrice ortogonale del cambiamento di base) sono:
√ − √ √ √ √ √ −√ √ i =
1 , 2
1 , 2
j =
1 1 , , 2 2
vale a dire, le equazioni della rotazione sono:
x
x
= P
y
=
y
1 2
1 2
x
1 2
1 2
y
,
che sostituite in (10.39) portano all’equazione:
2
0
x y
0
4
x
√ +
y
2 2 0
√ − √
1 2
1 2
√ √ 1 2
x
1 2
y
= 0,
Capitolo 10
501
ossia:
2(x )2 + 4(y )2 + 2x + 2y = 0. Operando con il metodo del completamento dei quadrati mediante la traslazione:
si ottiene:
X = x + Y = y +
1 2
1 4
X 2 Y 2 + = 1. 3 3 8 16 Si tratta proprio di un’ellisse. Per calcolarne le coordinate del centro, dei vertici e le equazioni degli assi e` necessario determinare le equazioni complessive del movimento rigido del piano dato dalla composizione della rotazione e della traslazione e che a volte viene anche denominato rototraslazione. Si ha:
x
y
√ √ −√ √ − √ √ √ −√ √ − − √ R − √ √
x
= P
=
y
=
1 2
1 2
1 2
1 2
1 2
1 2
1 2
1 2
4 2 1
Y
3
Y
1 4
3
X
,
1
4 2 4 2
.
4 2 = (O,x,y), ha coordinate:
Quindi il centro O dell’ellisse, rispetto al riferimento
O =
X
1 2
,
gli assi, che, nel riferimento = (O , X , Y ) , hanno equazioni X = 0, Y = 0 , hanno equazioni, nel riferimento iniziale = (O,x,y), rispettivamente:
R
x
− y +
R √ 2 2
= 0,
x + y +
√ 2 4
= 0.
Riduzione a Forma Canonica delle Coniche
502
Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi dell’ellisse.
Esempio 10.13 Si riduca a forma canonica la conica di equazione:
4x2
− 4xy + y
2
+ 6x + 2y
− 3 = 0.
(10.40)
Le matrici A e B associate alla conica sono date da:
− − − − − − A =
4 2
2 1
,
x y
+
4 2 3
B =
2 1 1
3 1 3
e (10.40) si pu`o scrivere come:
x y
A
6 2
x y
3 = 0.
(10.41)
Si osservi che det(A) = 0 e det(B) = 0 , ci sono, quindi, ragionevoli motivi per pensare che si tratti di una parabola. Gli autovalori di A sono λ 1 = 0 e λ2 = 5 , i corrispondenti autovettori (di norma unitaria per avere una matrice del cambiamento di base che sia ortogonale) sono:
√ √ − √ √ √ −√ √ √ i =
1 2 , , 5 5
j =
2 1 , , 5 5
vale a dire, le equazioni della rotazione sono:
x
x
= P
y
=
y
1 5
2 5
x
2 5
1 5
y
che sostituite in (10.40) portano all’equazione:
0
0
x y
ossia:
0
5
x
y
,
√ −√ √ √ +
6 2
1 5
2 5
x
2 5
1 5
y
−
3 = 0,
Capitolo 10
503
√ − √ − 2 5y 3 = 0.
5(y )2 + 2 5x
(10.42)
Operando con il metodo del completamento dei quadrati l’equazione (10.42) si trasforma nel modo seguente:
− √ − √ − √ − √ − √ − √ − √ 2 1 5y + 5 5
5 (y )2 5 y
2
1 5
=
2 5 x
=
vale a dire, con la traslazione:
si ottiene:
X = x
2 5
Y = y
1 5
Y 2 =
−
2 5 x + 4, 2 , 5
√
2 5 X. 5
Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni dell’asse e della direttrice e` necessario determinare le equazioni della rototraslazione del piano che ha permesso di ricavare tale equazione, e precisamente:
x
y
√ −√ √ √ √ −√
= P
=
x
y
=
1 5
2 5
2 5
1 5
1 5
2 5
X
2 5
1 5
Y
√
√
X
Y
+
√ √ 2 5 1 5
0
+
.
1
Di conseguenza il vertice della parabola O ha coordinate (0, 1) rispetto al riferimento = (O,x,y) e l’asse, che, nel riferimento = (O , X , Y ) , ha equazione Y = 0, ha equazione:
R
R
2x
− y + 1 = 0
Riduzione a Forma Canonica delle Coniche
504
R
= (O,x,y) . Con lo stesso procedimento si possono ricavare le nel riferimento iniziale coordinate del fuoco e l’equazione della direttrice. Si riprende ora la dimostrazione del Teorema 10.6. Dall’equazione (10.36) si ottiene:
B = il cui determinante e` :
λ1
0
a13
0
λ2
a23
a13 a23 a33
det(B ) = λ 1 λ2 a33
2
− λ (a ) − λ (a 1
23
13 )
2
2
.
(10.43)
Allo scopo di poter scrivere l’equazione della conica in forma canonica si deve effettuare la traslazione:
x = X + x0 y = Y + y0
(10.44)
in modo da annullare i termini di primo grado. Per calcolare il valore di x 0 , y0 si sostituiscono le equazioni della traslazione (10.44) in (10.36), si ottiene:
λ1 X 2 + λ2 Y 2 + 2(x0 λ1 + a13 )X + 2(y0 λ2 + a23 )Y + γ = 0
(10.45)
e il temine noto e` dato da:
γ = λ 1 x20 + λ2 y02 + 2a13 x0 + 2a23 y0 + a33 .
(10.46)
Si distinguono i seguenti casi:
2. λ = 0, λ = 0; = 0, λ = 0 . 3. λ 1. Essendo λ = 0, λ = 0 , allora λ λ = det(D) = det(A) = 0 . Si pone: 1. λ1 = 0, λ2 = 0 ; 1
2
1
2
1
2
1 2
x0 =
− aλ
13 1
sostituendo (10.47) in (10.45) si ha:
,
y0 =
− aλ
23 2
,
(10.47)
Capitolo 10
505
λ1 X 2 + λ2 Y 2 + γ = 0, e sostituendo in (10.46) si ottiene:
det(B ) γ = . λ1 λ2
(10.48)
Si perviene quindi alla seguente classificazione, tenendo conto che det(B) = det(B ) per la relazione (10.37):
a. se λ1 e λ2 hanno lo stesso segno e det(B) = 0 , si ottiene un’ellisse reale o immaginaria;
b. se λ 1 e λ 2 hanno segno opposto e det(B) = 0 , si ottiene un’iperbole; c. se λ1 e λ2 hanno lo stesso segno e det(B) = 0 (ossia γ = 0 , cfr. (10.48)), si ottiene una conica degenere formata da un solo punto reale (intersezione di due rette le cui equazioni hanno coefficienti in campo complesso); d. se λ 1 e λ 2 hanno segno opposto e det(B) = 0 (ossia γ = 0 , cfr. (10.48)), si ottiene una conica degenere formata da due rette reali incidenti. Si osservi che nei due ultimi casi il rango della matrice B e` 2 .
2. λ1 = 0, λ2 = 0 , l’equazione (10.36) diventa:
λ2 (y )2 + 2a13 x + 2a23 y + a33 = 0. Sostituendo le equazioni della traslazione (10.44) si ottiene:
λ2 Y 2 + 2(y0 λ2 + a23 )Y + 2a13 X + γ = 0, e il temine noto `e dato da:
γ = λ2 y02 + 2a13 x0 + 2a23 y0 + a33 . Si distinguono i due sottocasi: a. a13 = 0 : segue che:
y0 =
−
a23 ; λ2
(10.49)
Riduzione a Forma Canonica delle Coniche
506
operando quindi con una traslazione in cui x 0 pu`o assumere qualsiasi valore, da (10.49) si ha:
λ2 Y 2 + γ = 0.
(10.50)
Si ottiene, inoltre, da (10.43) che det(B ) = 0 . Se γ = 0 , allora il rango di B e` 2 e l’equazione (10.50) rappresenta due rette parallele (con equazioni a coefficienti reali o complessi). Se anche γ = 0 , allora il rango di B e` 1 e si ottengono due rette coincidenti.
b. a13 = 0 : segue, di nuovo, che:
a y = − λ
23
0
2
e l’equazione (10.49) si riduce a:
λ2 Y 2 + 2a13 X + γ = 0, ossia:
λ2 Y 2 + 2a13
γ X + 2a13
= 0.
Dall’equazione γ = 0 si ottiene anche il valore cercato di x0 , pertanto e` univocamente definita la traslazione cercata. La conica e` una parabola. Si osservi che:
det(B) =
−λ (a 2
13 )
2
= 0.
3. λ1 = 0, λ2 = 0 , l’equazione (10.36) diventa:
λ1 (x )2 + 2a13 x + 2a23 y + a33 = 0. Sostituendo le equazioni della traslazione (10.44) si ottiene:
λ1 X 2 + 2(x0 λ1 + a13 )X + 2a23 Y + γ = 0, e il temine noto `e dato da:
γ = λ1 x20 + 2a13 x0 + 2a23 y0 + a33 . Si distinguono i due sottocasi:
(10.51)
Capitolo 10
507
a. a23 = 0 : segue che:
a13 x0 = , λ1 operando quindi con una traslazione in cui y0 pu`o assumere qualsiasi valore,
−
da (10.51) si ha:
λ1 X 2 + γ = 0.
(10.52)
Si ottiene, inoltre, da (10.43) che det(B ) = 0 . Se γ = 0 , allora il rango di B e` 2 (si ricordi che λ1 = 0 ) e l’equazione (10.52) rappresenta due rette parallele (con equazione a coefficienti reali o immaginarie). Se anche γ = 0 , allora il rango di B e` 1 e si ottengono due rette coincidenti.
b. a23 = 0 : segue, di nuovo, che:
x0 =
−
a13 λ1
e l’equazione (10.51) diventa:
λ1 X 2 + 2a23 Y + γ = 0, ossia:
λ1 X 2 + 2a23
γ Y + 2a23
= 0.
Dall’equazione γ = 0 si ottiene anche il valore cercato di y0 , pertanto e` univocamente definita la traslazione cercata. La conica e` una parabola. Si osservi che det(B) = λ1 (a23 )2 = 0 .
−
A partire dall’equazione (10.31) si sono cos`ı ottenute tutte le coniche degeneri e non degeneri scritte in forma canonica secondo la Definizione 10.6. Si osservi che tutte le coniche degeneri sono caratterizzate da det(B) = 0 e classificate dal rango di B ; mentre se det(B) = 0 , allora le coniche non degeneri sono caratterizzate da det(A) ; e precisamente det(A) = 0 corrisponde alla parabola, det(A) > 0 all’ellisse, det(A) < 0 all’iperbole.
Osservazione 10.4 Come gi`a affermato all’inizio del Paragrafo 10.3, si dicono coniche degeneri quelle coniche costituite da: due rette immaginarie coniugate, due rette reali e distinte, due rette parallele, due rette coincidenti. La caratterizzazione delle coniche degeneri attraverso la condizione det(B) = 0 si ottiene facilmente dopo aver ridotto le coniche in forma canonica e ricordando che det(B) = det(B ) .
Riduzione a Forma Canonica delle Coniche
508
Riassumendo i risultati ottenuti nella dimostrazione precedente, si pu o` procedere nel modo seguente alla classificazione delle coniche attraverso il rango rank(A) e rank(B) delle matrici ad esse associate, tenuto conto che il rango di A ed il rango di B sono invarianti per rototraslazioni nel piano.
rank(B) = 3
rank(B) = 2
rank(A) = 2 : ellisse (reale o immaginaria), iperbole; rank(A) = 1 : parabola. rank(A) = 2 : due rette incidenti (reali o immaginarie); rank(A) = 1 : due rette parallele (reali o immaginarie).
rank(B) = rank(A) = 1: due rette coincidenti.
10.5
Esercizi di riepilogo svolti
R
= (O,x,y) o equivalentemente Esercizio 10.10 Rispetto ad un riferimento cartesiano = (O, i, j) , scrivere l’equazione dell’ellisse avente centro nell’origine e vertici:
R
√ √
A1 = (4 2, 4 2),
− √ − √
A2 = ( 4 2, 4 2),
B1 = (
−√ 2, √ 2),
√ −√ 2),
B2 = ( 2,
indicando esplicitamente le equazioni del cambiamento di riferimento usato.
Soluzione rette:
Le coppie di vertici A1 , A2 e B1 , B2 appartengono rispettivamente alle
X : x
− y = 0,
Y : x + y = 0,
le quali, con l’origine O , si possono assumere come assi del nuovo riferimento cartesiano = (O,X,Y ) o equivalentemente = (O, i , j ) , dove:
R
R
i =
√ 12 (i + j),
j =
√ 12 (−i + j).
Tenuto conto che l’ellisse ha semiassi:
a = d(A1 , O) = 8 b = d(B1 , O) = 2, la sua equazione, nel riferimento
R , `e:
Capitolo 10
509
X 2 Y 2 + = 1. 64 4 Sia:
P =
(10.53)
√ −√ √ √ 1 2
1 2
1 2
1 2
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base ortonormale positiva = (i, j) alla base ortonormale positiva = ( i , j ) , si ha:
B
B
e:
x y
= P
X Y
X Y
= tP
x y
,
(si ricordi che tP = P −1 ). Sostituendo in (10.53) si ottiene:
17x2 + 17y2
− 30xy − 128 = 0
che `e l’equazione dell’ellisse richiesta.
R
Esercizio 10.11 Rispetto ad un riferimento cartesiano = (O,x,y) o equivalentemente = (O, i, j) , scrivere l’equazione della parabola avente come asse la retta r : x 2y = 0 , il vertice nell’origine ed il fuoco nel punto F = (2, 1) .
R
−
−
Soluzione I vettori r = 2i + j parallelo alla retta r , s = i +2 j ortogonale ad r e l’origine O individuano un nuovo riferimento cartesiano = (O , X , Y ) o equivalentemente = (O, i , j ) , dove:
R
R
2 1 1 2 s √ i + √ j, j = = − √ i + √ j. r 5 s 5 5 5 √ In tale riferimento, poich e´ d(O, F ) = 5 , l’equazione della parabola e` : i =
r
=
√
Y 2 = 4 5X. Indicata con:
(10.54)
Riduzione a Forma Canonica delle Coniche
510
P =
√ −√ √ √ 2 5
1 5
1 5
2 5
la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base ortonormale positiva = (i, j) alla base ortonormale positiva = ( i , j ) , si ha:
B
e:
x y
= P
X Y
X Y
= tP
x y
B
,
(si ricordi che tP = P −1 ). Sostituendo in (10.54) si ottiene:
x2
2
− 4xy + 4y − 40x − 20y = 0
che `e l’equazione della parabola richiesta.
R
= (O,x,y), scrivere l’equazione Esercizio 10.12 Rispetto al riferimento cartesiano della parabola avente fuoco F = (2, 1) e direttrice la retta f : 2x + y + 5 = 0 . Soluzione
Il punto generico P = (x, y) della parabola verifica la condizione:
d(P, F ) = d(P, f ),
(10.55)
ossia:
(x
2
− 2)
+ (y
2
− 1)
=
2x + y + 5 5
√
2
,
vale a dire:
x2
2
− 4xy + 4y − 40x − 20y = 0.
Nel riferimento = (O,X,Y ) che ha l’asse X coincidente con la retta OF di equazione x 2y = 0 e l’asse Y passante per O ed ortogonale all’asse X , il fuoco ha coordinate F = ( 5, 0) e l’equazione della parabola e` :
−√
R
Capitolo 10
511
√
2
Y = 4 5X. La stessa equazione si ottiene nel riferimento dove la retta f ha equazione X = il fuoco ha cordinate ( 5, 0) , quindi da (10.55) segue:
R
√
− √ 5)
2
(X
−√ 5 ,
√
+ Y 2 = (X +
5)2 .
Esercizio 10.13 Verificare che la conica di equazione:
2x2
− 5xy − 3y
2
+ 7y
−2 =0
(10.56)
e` degenere e scriverla come prodotto di due rette. La matrice B a cui `e associata la conica:
Soluzione
B =
−
2
−
5 2
0
5 2
−3
7 2
0
7 2
−2
ha rango 2. Si tratta quindi del prodotto di due rette incidenti. Per determinarne le equazioni si pu`o, per esempio, ricavare il valore di x , rispetto ad y , nell’equazione (10.56), ottenendo:
x1,2 = =
5y 5y
±
25y2
− 8(−3y
2
+ 7y
4
− 2)
± (7y − 4) , 4
da cui segue:
2x2
− 5xy − 3y
2
+ 7y
che `e la decomposizione cercata.
− 2 = 2 [x − (3y − 1)]
− − x
y + 2 2
= 0,
Riduzione a Forma Canonica delle Coniche
512
10.6
Per saperne di pi`u
10.6.1
Potenza di un punto rispetto ad una circonferenza
In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una circonferenza mediante il quale si perviene ad un’altra definizione di asse radicale di due circonferenze.
Definizione 10.7 La potenza di un punto P 0 = (x0 , y0 ) rispetto ad una circonferenza 2αx 2βy + γ = 0 e` il numero reale p(P 0 ) che si ottiene di equazione x2 + y 2 sostituendo il valore delle coordinate del punto P 0 nell’equazione della circonferenza, ovvero:
C
−
−
p(P 0 ) = x 20 + y02
− 2αx − 2βy + γ. 0
0
Il teorema che segue permette di interpretare geometricamente la potenza di un punto rispetto ad una circonferenza.
C di centro C e raggio r , la potenza di un punto p(P ) = d(P , C ) − r
Teorema 10.7 Data la circonferenza P 0 rispetto a e` data da:
C
0
0
2
2
dove d(P 0 , C ) indica la distanza del punto P 0 dal centro C .
Dimostrazione La dimostrazione e` ovvia tenendo conto che la circonferenza luogo dei punti P tale che d(P, C )2 = r 2 .
C
e` il
1. Nonostante il teorema precedente sia di ovvia dimostrazione, Osservazione 10.5 esso e` molto importante perch e´ assicura un metodo facile per individuare la posizione dei punti nel piano rispetto ad una circonferenza assegnata. Infatti la potenza di un punto rispetto ad una circonferenza e` un numero strettamente positivo se e solo se il punto e` esterno alla circonferenza, la potenza di un punto rispetto ad una circonferenza `e uguale a 0 se e solo se il punto giace sulla circonferenza, la potenza di un punto rispetto ad una circonferenza e` negativa se e solo se il punto e` interno alla circonferenza. Per esempio, data la circonferenza:
C : x
2
+ y2
− 2x − 4y + 1 = 0, C
si ha che il punto A = (2, 4) ha potenza pari a 1 rispetto a e, quindi, e` esterno a , invece il punto B = (1, 0) ha potenza pari a 0 , quindi appartiene a . In altri termini si pu`o immaginare che la circonferenza divida il piano in tre regioni: quella dei punti di potenza zero (appartenenti alla circonferenza), quella dei punti con potenza negativa (interni alla circonferenza) e quella dei punti a potenza positiva (esterni alla circonferenza).
C
C
Capitolo 10
513
` evidente che il luogo dei punti che hanno uguale potenza rispetto a due circon2. E ferenze assegnate coincide con l’asse radicale definito dalla due circonferenze (cfr. Par. 10.1.4).
C3
C1 C
2
Figura 10.47: Esercizio 10.14 Nell’esercizio che segue si vuole determinare la potenza di un punto rispetto a tre circonferenze assegnate. Dall’ultima osservazione segue che tale punto deve essere necessariamente l’intersezione degli assi radicali delle coppie di circonferenze individuate dalle tre circonferenze date. Questo punto, se esiste, prende il nome di centro radicale delle tre circonferenze. Si lascia al Lettore per esercizio la discussione dell’esistenza del centro radicale di tre circonferenze in base alla loro posizione reciproca.
Esercizio 10.14 Determinare, se esiste, il centro radicale delle tre circonferenze:
C : x C : x C : x 2 3
Soluzione
2
+ y2
2
2
2
2
− 5x − y − 8 = 0 + y + y − 36 = 0 + y − 8x − 12y + 51 = 0. L’asse radicale r delle circonferenze C e C ha equazione: r : 5x + 2y − 28 = 0. 1
1
1
1
2
Riduzione a Forma Canonica delle Coniche
514
C e C ha equazione: r : 3x + 11y − 59 = 0.
L’asse radicale r 2 delle circonferenze
1
3
2
Le rette r 1 e r 2 sono incidenti nel punto:
C =
190 211 , 49 49
che `e il centro radicale delle tre circonferenze date. Si osserva che l’asse radicale r 3 delle circonferenze 2 e 3 , che ha equazione:
C C
r3 : 8x + 13y
− 87 = 0,
passa per il punto C. La situazione geometrica e` illustrata nella Figura 10.47.
10.6.2
Equazioni parametriche delle coniche
Come si e` gi`a osservato nel caso della retta (cfr. (9.11)) anche le coniche possono essere rappresentate mediante due equazioni parametriche scritte in funzione di un parametro t ` chiaro pero` che, ad eccezione reale che varia in un opportuno intervallo della retta reale. E delle coniche degeneri, le equazioni parametriche delle coniche non saranno lineari in t (cfr. Teor. 10.6). 1. La circonferenza di centro l’origine e raggio r si puo` scrivere in forma parametrica come:
x = r cos t y = r sin t,
0
≤ t < 2π.
La circonferenza di centro C = (α, β ) e raggio r ha equazioni parametriche:
x = α + r cos t y = β + r sin t,
0
≤ t < 2π.
Ci`o segue in modo evidente dal Paragrafo 9.3. ` chiaro che le equazioni parametriche di una curva non sono uniche, per esempio E un arco di circonferenza di centro l’origine e raggio r si puo` anche rappresentare come:
x = r
1 λ2 1 + λ2
y = r
2λ , 1 + λ2
−
λ
∈ R.
La rappresentazione della circonferenza appena indicata non comprende il punto di coordinate ( r, 0) .
−
Capitolo 10
515
a
b
Figura 10.48: Costruzione dell’ellisse 2. L’ellisse di centro l’origine e semiassi a e b si pu`o scrivere in forma parametrica come:
x = a cos t y = b sin t,
0
≤ t < 2π.
Si osservi che i punti dell’ellisse hanno ascissa uguale a quella dei punti della circonferenza di centro l’origine e raggio a e ordinata uguale a quella dei punti della circonferenza di centro l’origine e raggio b ; si pu`o cos`ı ricavare un metodo interessante per disegnare i punti dell’ellisse. La situazione geometrica e` illustrata nella Figura 10.48 . L’ellisse di centro C = (α, β ) e semiassi a e b ha equazioni parametriche:
x = α + a cos t y = β + b sin t,
0
≤ t < 2π.
3. L’iperbole di centro l’origine e semiassi a e b si pu`o scrivere in forma parametrica come:
±
x = a cosh t y = b sinh t, t
∈ R.
Riduzione a Forma Canonica delle Coniche
516
L’iperbole di centro C = (α, β ) e semiassi a e b ha equazioni parametriche:
±
x = α a cosh t y = β + b sinh t,
t
∈ R.
4. La parabola di vertice l’origine e asse l’asse x si puo` scrivere in forma parametrica come:
t2 x = 2 p y = t,
t
∈ R,
p = 0.
Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel piano in generale si rimanda, per esempio, a [11].
10.6.3
Le coniche in forma polare
Scopo di questo paragrafo e` rappresentare le coniche mediante le coordinate polari generalizzate (ρ, θ), introdotte nel Paragrafo 9.3. Come dimostrato nel Paragrafo 10.3, le coniche possono essere definite come il luogo dei punti P del piano tali che:
d(P, F ) = e, d(P, f ) dove F e` il fuoco, f la direttrice ed e l’eccentricit`a. Se si sceglie un riferimento cartesiano = (O,x,y) avente l’origine O coincidente con il fuoco e la direttrice parallela all’asse y di equazione: x = k , allora le coniche possono essere definite come il luogo dei punti P = (x, y) che verificano l’equazione:
R
x2 + y2 = e 2 (x
2
− k) .
(10.57)
Ci si propone di scrivere l’equazione (10.57) in coordinate polari generalizzate. Sostituendo in (10.57) la formula (9.6), s si ha:
ρ2 = e 2 (ρ cos θ
2
− k) ,
da cui, estraendo la radice quadrata, segue:
ρ =
±e(ρ cos θ − k).
Si ottengono cos`ı, sorpendentemente, due equazioni in coordinate polari:
ρ(1
− e cos θ) = −ek,
(10.58)
Capitolo 10
517
e:
ρ(1 + e cos θ) = ek.
(10.59)
Se si considera, pero` , un generico punto P = (ρ0 , θ0 ) appartenente alla conica di equazione (10.58), quindi:
ρ0 =
−ek 1 − e cos θ
,
0
P 0 pu`o essere anche rappresentato, in modo equivalente, come ( ρ0 , θ0 + π) . E` imme-
−
diato verificare che questi valori verificano (10.59), e viceversa, pertanto (10.58) e (10.59) rappresentano lo stesso luogo di punti. Si distinguono i seguenti casi: 1. e = 1 : parabola. L’equazione in coordinate polari `e:
ρ =
k 1 + cos θ
oppure:
ρ =
1
−
k . cos θ
Si osservi che, in entrambi i casi, il denominatore si annulla per θ = 0+2nπ oppure θ = π + 2nπ, con n numero intero, che corrisponde all’angolo formato dal raggio vettore con l’asse x (vale a dire il raggio vettore `e parallelo all’asse x ). 2. e < 1 : ellisse. Si osservi che non esistono valori di θ per cui 1
± e cos θ = 0 .
3. e > 1 : iperbole. In questo caso i valori di θ per cui 1 degli asintoti.
10.6.4
± e cos θ = 0 corrispondono alle direzioni
Retta tangente ad una conica in un suo punto
Lo scopo di questo paragrafo e` quello di ricavare, con metodi di tipo elementare, l’equazione della retta tangente ad una conica non degenere in un suo punto. Nel Paragrafo 10.1.2 si e` trovato che la retta s di equazione (10.4) e` tangente nel punto P 0 = (x0 , y0 ) alla circonferenza di centro C = (α, β ) e raggio r. L’equazione della circonferenza:
C
C : x
2
+ y2
− 2αx − 2βy + γ = 0
Riduzione a Forma Canonica delle Coniche
518
si pu`o scrivere in notazione matriciale come:
C :
−
1 0 α
x y 1
−
0 1 β
−
−α −β
x y 1
γ
= 0,
invece, sviluppando i calcoli nell’equazione (10.4) si ha che la retta s si pu`o scrivere come:
s :
x0 y0 1
1 0 α
− −
0 1 β
α β γ
x y 1
−
= 0.
Il teorema che segue estende il risultato appena ottenuto al caso delle coniche non degeneri, ma prima di enunciarlo e` necessario formalizzare la definizione di retta tangente ad una conica in un suo punto.
C
C
Definizione 10.8 Sia una conica non degenere, la retta tangente a in un punto P 0 ad essa appartenente `e la retta che interseca la conica solo nel punto P 0 .
C
C
Teorema 10.8 Sia una conica non degenere del piano, che, rispetto ad un riferimento = (O,x.y), ha equazione: cartesiano
R
C :
x y 1
B
x y 1
= 0,
(10.60)
dove B = (aij ) R 3,3 indica la matrice simmetrica associata a per cui det(B) = 0. La retta s tangente alla conica in un suo punto P 0 = (x0 , y0 ) ha equazione:
∈
C
s : Dimostrazione
x0 y0 1
B
x y 1
C
= 0.
(10.61)
Si consideri l’equazione (10.60) scritta come:
C : a
2 11 x
+ 2a12 xy + a22 y2 + 2a13 x + 2a23 y + a33 = 0,
(cfr. (10.31) ), siano
s :
x = x 0 + lt y = y 0 + mt,
t
∈ R,
(10.62)
(10.63)
le equazioni parametriche della retta s, passante per il punto P 0 . Sostituendo le equazioni (10.63) in (10.62) e tenendo conto del fatto che il punto P 0 appartiene alla conica , si ottiene la seguente equazione di secondo grado in t :
C
(a11 l2 + 2a12 lm + a22 m2 )t2 + 2(a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m)t = 0,
Capitolo 10
519
che ammette due soluzioni coincidenti se e solo se:
a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m = 0,
(10.64)
in quanto il coefficiente del termine t2 non pu`o essere identicamente nullo (perch´e?). Sostituendo in (10.64) al posto di l il termine x x0 e al posto di m il termine y y0 e tenendo nuovamente conto del fatto che il punto P 0 appartiene a si perviene alla tesi.
−
−
C
Osservazione 10.6 L’equazione della retta s tangente, nel punto P 0 = (x0 , y0 ) alla conica di equazione (10.62) e` (10.61), ossia:
C
s : a11 xx0 + a12 (x0 y + xy0 ) + a22 yy0 + a13 (x + x0 ) + a23 (y + y0 ) + a33 = 0. (10.65) La particolarit`a di questa equazione (10.65), confrontata con l’equazione della conica (10.62), consiste nel fatto che essa si pu`o ricavare direttamente dall’equazione (10.62) di mediante lo sdoppiamento di x2 , y 2 nei prodotti x0 x, y0 y, di 2xy nella somma xy0 + x0 y, e di 2x, 2y nelle somme x + x0 , y + y 0 , rispettivamente, ossia applicando all’equazione di la cosiddetta regola degli sdoppiamenti.
C
C
Gli esempi che seguono sono volti a determinare i punti di una conica degenere in cui il procedimento appena descritto pu`o o non pu`o essere applicato.
Esempio 10.14 Si consideri la conica degenere sempio 10.10 che si pu o` scrivere come:
C: La retta s tangente a
x y 1
0 0 0
0 1 0
C nel punto P = (1, 3) e` : 0
s :
1 3 1
0 0 0
0 1 0
C : (y − 3)(y + 3) = 0 studiata nell’E-
−
−
0 0 9
x y 1
0 0 9
x y 1
= 0.
= 0,
− 3 = 0, cio`e la retta che compone C a cui appartiene il punto P . Esempio 10.15 Si consideri al conica C : (2x + y) = 0 studiata nell’Esempio 10.9 che vale a dire s : y
0
2
si pu`o scrivere come:
C :
x y 1
4 2 0
2 1 0
0 0 0
x y 1
= 0.
Riduzione a Forma Canonica delle Coniche
520
Se si vuole calcolare la retta s tangente a
s :
1
−2
1
C nel punto P = (1, −2) ponendo: 0
4 2 0
2 1 0
0 0 0
x y 1
si ottiene 0 = 0, ci`o significa che tutti i punti della conica
= 0,
C sono singolari.
Gli esempi precedenti conducono alla definizione di punto singolare di una curva algebrica nel piano, ossia di una curva la cui equazione si ottiene uguagliando a zero un polinomio di grado qualsiasi in x,y, definizione che pu`o essere enunciata nel modo seguente.
C
Definizione 10.9 Sia una curva nel piano di equazione f (x, y) = 0, dove f (x, y) indica un polinomio di grado qualsiasi nelle variabili x, y, scritta rispetto ad un riferimento cartesiano = (O,x,y). Un punto P 0 appartenente a si dice singolare se:
R
∂f ∂f (P 0 ), (P 0 ) ∂x ∂y
C
= (0, 0),
dove ∂f/∂x indica la derivata parziale della funzione f rispetto ad x e ∂f/∂y indica la derivata parziale della funzione f rispetto a y. In caso contrario un punto P 0 si dice liscio o non singolare.
Per lo studio approfondito delle curve algebriche si rimanda a testi di livello superiore, per esempio a [17]. Si dimostra che il Teorema 10.8 si applica anche alle coniche degeneri ` infatti un esercizio verificare che le coniche non degeneri solo nei punti non singolari. E sono prive di punti singolari. Invece se la conica e` degenere ed e` l’unione di due rette parallele distinte, allora ogni suo punto e` non singolare, se essa e` l’unione di due rette incidenti solo il loro punto di intersezione e` singolare, infine se la conica e` data da una retta contata due volte, allora tutti i suoi punti sono singolari.
Capitolo 11 Geometria Analitica nello Spazio In questo capitolo viene trattata la rappresentazione di piani, rette, sfere e circonferenze nello spazio mediante equazioni cartesiane e parametriche. Sono queste le nozioni di base di Geometria Analitica nello Spazio che saranno completate nel capitolo successivo. In una breve appendice nell’ultimo paragrafo si presenta, tra l’altro, la nozione di baricentro geometrico di n punti dello spazio, nozione che, come casi particolari, vedr a` la sua naturale applicazione al calcolo del baricentro di un triangolo e di un tetraedro. Per i significati fisici del concetto di baricentro si rimanda ai testi classici di meccanica. In tutto il capitolo saranno usate le notazioni introdotte nei capitoli precedenti ed in particolare nel Capitolo 3, per esempio S 3 indicher`a lo spazio affine di punti considerato. Come nel Capitolo 9, per individuare le rappresentazioni di piani, rette, sfere e circonferenze si far`a uso delle nozioni di calcolo vettoriale introdotte nel Capitolo 3.
11.1
Il riferimento cartesiano nello spazio
In modo analogo al caso della geometria analitica nel piano (cfr. Par. 9.1) si definisce il riferimento cartesiano nello spazio = (O, i, j, k) come l’insieme formato da un punto detto origine del riferimento e indicato con la lettera O e una base ortonormale positiva = (i, j, k) dello spazio vettoriale V 3 (cfr. Def. 3.13). Le rette orientate individuate dai vettori i, j e k, che si intersecano tutte nel punto O, prendono, rispettivamente, il nome di asse delle ascisse, asse delle ordinate, asse delle quote . In questo modo si definisce una corrispondenza biunivoca tra i punti P dello spazio e le componenti del vettore OP = P O dello spazio vettoriale V 3 . Ponendo:
R
B
−→
−
−→ OP = x i + y j + z k,
al punto P si associa in modo univoco la terna di numeri reali (x,y,z ) e si scrive:
P = (x,y,z ), 521
Geometria Analitica nello Spazio
522
precisamente x e` l’ascissa del punto P, y e` la sua ordinata e z e` la sua quota. La terna ordinata di numeri reali (x,y,z ) individua le coordinate cartesiane del punto P nel riferimento . La situazione geometrica `e illustrata nella Figura 11.1 .
R
z
P
y
O
x
Figura 11.1: Il riferimento cartesiano nello spazio
Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e precisamente: 1. il piano individuato dal punto O e dai versori i, j, anche denominato piano xy ; 2. il piano individuato dal punto O e dai versori i, k, anche denominato piano xz ; 3. il piano individuato dal punto O e dai versori j, k, anche denominato piano yz .
R = (O,x,y,z ).
Il riferimento cartesiano sar`a anche indicato con il simbolo
11.1.1
Distanza tra due punti
Dati due punti A = (xA , yA , z A ), B = (xB , yB , z B ) dello spazio la loro distanza e` data da:
d(A, B) =
− (xB
xA )2 + (yB
− y
2
A)
2
− z ) .
+ (z B
A
Capitolo 11
523
Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con la norma del vettore AB le cui componenti, rispetto alla base ortonormale positiva , sono: AB = (xB xA )i + (yB yA) j + (z B z A)k.
−→ −→
11.1.2
B
−
−
−
Punto medio di un segmento
Dati due punti A = (xA , yA , z A ), B = (xB , yB , z B ) dello spazio, il punto medio M del segmento AB e` :
M =
xA + xB yA + yB z A + z B , , . 2 2 2
Ad esempio il punto medio del segmento di estremi A = (2, 2, 1), B = (0, punto M = (1, 2, 1).
− −
11.1.3
−6, −3) e` il
Baricentro di un triangolo e di un tetraedro
Dati tre punti A = (xA , yA , z A ) , B = (xB , yB , z B ), C = (xC , yC , z C ) non allineati, il baricentro G del triangolo da essi individuato `e:
G =
xA + xB + xC yA + yB + yC z A + z B + z C , , . 3 3 3
Per la dimostrazione si veda il Paragrafo 11.12.1. Dati quattro punti nello spazio A = (xA , yA , z A ) , B = (xB , yB , z B ), C = (xC , yC , z C ), D = (xD , yD , z D ) non allineati e non tutti complanari, il baricentro G del tetraedro da essi individuato `e:
G =
xA + xB + xC + xD yA + yB + yC + yD z A + z B + z C + z D , , . 4 4 4
Per la dimostrazione si veda il Paragrafo 11.12.1.
11.1.4
Area di un triangolo e volume di un tetraedro
Dati tre punti nello spazio A = (xA , yA , z A ) , B = (xB , yB , z B ), C = (xC , yC , z C ) non allineati, l’area del del triangolo da essi individuato e` data da:
A
ABC
=
1 AB 2
−→ ∧ −→ AC .
Geometria Analitica nello Spazio
524
Per la dimostrazione si veda il Teorema 3.15. Dati quattro punti nello spazio A = (xA , yA , z A ) , B = (xB , yB , z B ), C = (xC , yC , z C ), D = (xD , yD , z D ) non allineati e non tutti complanari, il volume del tetraedro da essi individuato e` dato da:
V
A BCD
=
1 AB 6
−−→ | −→ ∧ −→ AC · AD |.
Per la dimostrazione si veda il Teorema 3.19.
11.2
Rappresentazione di un piano nello spazio
In questo paragrafo sono descritti modi diversi per rappresentare un piano nello spazio rispetto ad un riferimento cartesiano = (O, i, j, k), o equivalentemente = (O,x,y,z ). Infatti un piano π nello spazio si pu o` individuare assegnando:
R
R
1. un punto P 0 del piano π ed un vettore n non nullo ortogonale a π ; 2. un punto P 0 del piano π e due vettori u e v paralleli a π e linearmente indipendenti tra di loro; 3. tre punti A , B e C non allineati appartenenti al piano π. Si dimostrer`a che ogni equazione di primo grado in x , y e z del tipo:
ax + by + cz + d = 0, con a,b,c,d R e a,b,c non contemporaneamente tutti uguali a zero, rappresenta un piano. Viceversa, ogni piano dello spazio e` rappresentabile tramite un’equazione lineare in x, y,z del tipo suddetto.
∈
11.2.1
Piano per un punto ortogonale ad un vettore
Sia π il piano passante per un punto P 0 ortogonale ad un vettore n = o. Allora π e` il luogo dei punti P dello spazio S 3 tali che il vettore P 0 P e` ortogonale al vettore n, ovvero: (11.1) π = P S 3 P 0 P n = 0 .
−−→
{ ∈ | −−→ ·
}
La situazione geometrica e` illustrata nella Figura 11.2 . Siano P 0 = (x0 , y0 , z 0 ) e P = (x,y,z ) i punti P 0 e P, le cui coordinate sono date rispetto al riferimento cartesiano , siano (a,b,c) le componenti del vettore n, rispetto
R
Capitolo 11
525
n
P0
P
Figura 11.2: Piano passante per il punto P 0 e ortogonale al vettore n
B
alla base = (i, j, k) individuata dal riferimento in componenti, equivale a:
a(x
R. L’equazione vettoriale −P −→P · n = 0, 0
− x ) + b(y − y ) + c(z − z ) = 0 0
0
0
e quindi ad un’equazione del tipo:
ax + by + cz + d = 0,
(11.2)
− − −
con d = ax0 by0 cz 0 , detta equazione cartesiana del piano π in cui (a,b,c) sono le componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a π.
Esempio 11.1 Il piano passante per il punto P 0 = (1, 0, n = j + 2k ha equazione cartesiana y + 2z + 2 = 0 .
−1) e ortogonale al vettore
Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y,z determinano un piano nello spazio. Questo risultato e` analogo a quello ottenuto nel Teorema 9.1 nel caso delle rette nel piano e si pu o` agevolmente estendere a dimensioni superiori.
Teorema 11.1 Ogni equazione lineare in x , y e z del tipo (11.2) rappresenta, a meno di un fattore moltiplicativo non nullo, l’equazione cartesiana di un piano nello spazio S 3 .
Dimostrazione Se (a,b,c) = (0, 0, 0) esiste almeno un punto P 0 = (x0 , y0 , z 0 ) del piano le cui coordinate soddisfano l’equazione (11.2). Quindi d = ax0 by0 cz 0 e si pu`o riscrivere l’equazione (11.2) nella forma a(x x0 ) + b(y y0 ) + c(z z 0 ) = 0 ,
−
− − − − −
526
Geometria Analitica nello Spazio
che rappresenta il piano passante per il punto P 0 ortogonale al vettore n = a i + b j + ck. Inoltre, per ogni numero reale ρ , con ρ = 0, le due equazioni (11.2) e:
ρ(ax + by + cz + d) = 0 rappresentano lo stesso piano.
Esempio 11.2 L’equazione 3y+6z +6 = 0 rappresenta il piano considerato nell’Esempio 11.1. Osservazione 11.1 1. L’origine O = (0, 0, 0) appartiene al piano di equazione (11.2) se e solo se d = 0 . 2. Il piano coordinato xy ha equazione cartesiana z = 0 , in quanto e` ortogonale al versore k e contiene l’origine O . Analogamente i piani coordinati xz e y z hanno, rispettivamente, equazioni cartesiane y = 0 e x = 0 . 3. Intuitivamente si capisce che l’equazione z = k con k R rappresenta un piano parallelo al piano xy , analogamente l’equazione x = k rappresenta un piano parallelo al piano yz e l’equazione y = k rappresenta un piano parallelo al piano xz. Per la definizione precisa di parallelismo tra due piani si rimanda al Paragrafo 11.3.3.
∈
4. L’equazione ax + by + d = 0, con i coefficienti a, b non nulli, rappresenta, nello spazio, un piano π ortogonale al vettore n = a i +b j, pertanto π e` un piano parallelo all’asse z . Se d = 0 , allora π contiene l’asse z. Si presti molta attenzione a non confondere l’equazione del piano π con l’equazione di una retta scritta nel piano S 2 . Per la discussione precisa del parallelismo tra una retta e un piano si rimanda al Paragrafo 11.4. Si lascia al Lettore, per esercizio, la descrizione della posizione dei piani di equazione ax + cz + d = 0 e by + cz + d = 0 al variare di a, b, c, d in modo opportuno in R .
11.2.2
Piano per un punto parallelo a due vettori
Sia π il piano passante per il punto P 0 e parallelo a due vettori linearmente indipendenti u e v. Allora π e` il luogo dei punti P dello spazio tali che i vettori P 0 P , u, v sono linearmente dipendenti, vale a dire:
−−→
{ ∈ S | −P −→P = tu + sv, t,s ∈ R},
π = P ossia:
3
0
Capitolo 11
527
u
P
0
P
v
Figura 11.3: Piano passante per il punto P 0 e parallelo ai vettori u e v
π : P = P 0 + tu + sv,
t, s
∈ R.
(11.3)
−−→
Quindi un punto P = (x,y,z ) appartiene al piano π se e solo se il vettore P 0 P e` complanare ad u e a v. La (11.3) e` detta equazione vettoriale parametrica di π mentre t, s R sono i parametri al variare dei quali il punto P descrive il piano π . La situazione geometrica e` illustrata nella Figura 11.3 .
∈
Siano P 0 = (x0 , y0 , z 0 ) e P = (x,y,z ) i punti P 0 e P le cui coordinate sono date nel riferimento cartesiano = (O, i, j, k) e u = (l,m,n) e v = (l , m , n ) i vettori u e v le cui componenti sono riferite alla base ortonormale positiva = (i, j, k) . Si verifica che l’equazione (11.3) equivale a:
R
B
x = x 0 + lt + l s y = y 0 + mt + m s, z = z 0 + nt + n s,
(11.4)
t, s
∈ R,
che sono le equazioni parametriche del piano π . Si osservi che il piano π ammette infinite equazioni parametriche diverse, `e sufficiente scegliere, per la loro determinazione, un altro punto e un’altra coppia di vettori appartenenti al piano π . Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V 3 sono complanari se e solo se il loro prodotto misto `e uguale a zero, pertanto `e condizione equivalente alla (11.3) l’equazione:
−P −→P · u ∧ v = 0, 0
(11.5)
che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:
Geometria Analitica nello Spazio
528
x
−x
y
0
l l
−y
z
0
m m
− z
0
n n
= 0,
(11.6)
che rappresenta l’equazione cartesiana del piano passante per il punto P 0 = (x0 , y0 , z 0 ) e parallelo ai vettori u = (l,m,n) e v = (l , m , n ) . Sviluppando il determinante appena ottenuto secondo la prima riga si ha:
m n (x m n
−x ) 0
−
l n (y l n
−
l m (z y0 ) + l m
− z ) = 0. 0
(11.7)
Si noti che l’equazione (11.7) coincide con l’equazione (11.2) in cui le componenti del vettore n ortogonale al piano sono proporzionali alle componenti del vettore u v.
∧
−
Esempio 11.3 Il piano π passante per il punto P 0 = ( 1, 3, 1) e parallelo ai vettori: u = 2i
− j + k,
v = i + j
ha equazioni parametriche:
− −
x = 1 + 2t + s y = 3 t + s, z = 1 + t, t, s
(11.8)
∈ R.
Si verifica facilmente che il punto A = (0, 1, 2) appartiene a π , infatti le sue coordinate si ottengono ponendo t = 1 e s = 1 in (11.8). Invece l’origine O = (0, 0, 0) non appartiene a π perch´e il sistema lineare:
−
− −
0 = 1 + 2t + s 0 =3 t+s 0=1+t
e` incompatibile. Non e` difficile verificare che i vettori u = (1, 1, 0), v = ( 1, 2 sono paralleli al piano π , di conseguenza anche:
− − 1)
− −
x = λ µ y = 1 + λ + 2µ z = 2 µ,
λ, µ
∈R
sono equazioni parametriche di π. Per ottenere l’equazione cartesiana di π si puo` procedere in modi diversi:
Capitolo 11
529
1. si possono eliminare i due parametri t e s nelle equazioni parametriche (11.8). Per esempio si puo` prima ricavare dalla terza equazione parametrica t = z 1 , dalla seconda si ha s = y + z 4 e quindi sostituendo nella prima si perviene all’equazione cartesiana di π :
−
−
x
− 2(z − 1) − (y + z − 4) + 1 = 0. ∧ v e` un vettore
2. Usando il calcolo vettoriale si ha che il prodotto vettoriale u ortogonale al piano π . Poich´e: u
∧ v =
i
j
k
2 1
−1
1 0
1
=
−i + j + 3k
si ottiene quindi come equazione cartesiana di π :
−(x + 1) + (y − 3) + 3(z − 1) = 0. 3. Sostituendo i dati dell’esercizio in (11.6) si ha:
− −
−
x + 1 y 3 z 1 2 1 1 1 1 0
= 0.
Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione cartesiana di π , a meno di un coefficiente di proporzionalit a` non nullo.
11.2.3
Piano per tre punti non allineati
Dati tre punti non allineati A = (xA , yA , z A ) , B = (xB , yB , z B ), C = (xC , yC , z C ) , il piano π passante per A, B e C e` parallelo ai vettori AB e AC e quindi ha, ad esempio, equazioni parametriche:
−→ −→
−→
−→
P = A + t AB + s AC,
t, s
∈ R,
in accordo con (11.3). Un vettore ortogonale al piano π passante per A, B e C e` il vettore AB AC, di conseguenza π pu`o essere descritto come il luogo geometrico dei punti P tali che:
−→ ∧ −→
−→ −→ −→ AP · AB ∧ AC = 0.
Esplicitando questo prodotto misto in componenti si trova l’equazione cartesiana di π :
− − −
− − −
− − −
x xA y yA z z A xB xA yB yA z B z A xC xA yC yA z C z A
= 0.
Geometria Analitica nello Spazio
530
Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perch´e nell’equazione ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d ? Esempio 11.4 Il piano passante per i tre punti:
−
−
A = ( 1, 2, 1), ha equazioni parametriche:
ed equazione cartesiana:
B = (2, 3, 0),
− − − − −
x = 1 + t + 2s y = 2 t 2s z = 1 t s, 3x + y + 4z
t, s
C = (1, 0, 0)
∈ R,
− 3 = 0.
Esercizio 11.2 Determinare l’equazione del piano parallelo all’asse x e passante per i punti P 0 = (1, 0, 2), P 1 = ( 2, 1, 1).
−
Soluzione
Il piano richiesto `e formato dai punti P dello spazio per cui:
−P −→P · i ∧ −−→ P P = 0 0
0 1
e quindi ha equazione cartesiana:
− − x
cio`e:
− −
1 y z 2 1 0 0 3 1 1 y + z
= 0,
− 2 = 0.
Esercizio 11.3 A partire dalla generica equazione cartesiana di un piano:
π : ax + by + cz + d = 0, supponendo che a, b, c siano tutti diversi da zero, si perviene all’equazione:
π :
x y z + + = 1. p q r
(11.9)
Si interpretino geometricamente i numeri p, q,r cos`ı determinati.
Soluzione I punti A = ( p, 0, 0), B = (0, q, 0), C = (0, 0, r) appartengono al piano π individuato dall’equazione (11.9), pertanto p e` la distanza, con segno, del punto A dall’origine del riferimento, q e` la distanza, con segno, del punto B dall’origine, r e` la distanza, con segno, del punto C dall’origine. In altri termini, p, q,r sono le lunghezze, con segno, dei segmenti che il piano π intercetta, rispettivamente, sugli assi delle ascisse, delle ordinate e delle quote. Per questo motivo (11.9) prende il nome di equazione segmentaria del piano.
Capitolo 11
11.3
531
Rappresentazione della retta nello spazio
R = (O, i, j, k) o equiva-
Una retta r nello spazio, rispetto ad un riferimento cartesiano lentemente = (O,x,y,z ), si pu`o individuare assegnando:
R
1. un punto P 0 della retta r ed un vettore r non nullo parallelo a r ; 2. due punti A e B distinti della retta r ; 3. due piani π 1 e π 2 incidenti lungo r . Si vedr`a che, mentre la rappresentazione parametrica di un piano nello spazio e` analoga a quella di una retta nel piano, la rappresentazione cartesiana di una retta nello spazio cambia notevolmente. Infatti, come e` gi`a stato osservato nel paragrafo precedente, l’equazione cartesiana ax + by + c = 0 di una retta r nel piano corrisponde, nello spazio, all’equazione cartesiana di un piano π parallelo all’asse z . La retta r risulta essere, nello spazio, l’intersezione del piano π con il piano coordinato xy . Maggiori dettagli e spiegazioni di questa situazione geometrica, descritta solo intuitivamente, si avranno nel corso di tutto il paragrafo.
11.3.1
Retta per un punto parallela ad un vettore
Sia r la retta passante per il punto P 0 parallela ad un vettore r = o. Allora la retta r e` il luogo geometrico dei punti P dello spazio tali da rendere paralleli i vettori P 0 P e r, ossia:
−−→
{ ∈ S | −P −→P = tr, t ∈ R},
r = P
3
0
o anche:
r : P = P 0 + tr,
t
∈ R.
(11.10)
La (11.10) e` detta equazione vettoriale parametrica di r, t R e` il parametro al variare del quale in R il punto P descrive la retta r. Segmenti della retta r si possono ottenere per valori di t limitati ad intervalli di R . Se t assume solo valori positivi, compreso il numero zero, si ha una semiretta di origine P 0 , l’altra semiretta si ottiene per valori di t negativi, zero compreso, se si vuole includere anche l’origine P 0 .
∈
Siano P 0 = (x0 , y0 , z 0 ) e P = (x,y,z ) due punti nello spazio le cui coordinate sono = (O, i, j, k) e r = (l,m,n) un vettore le cui assegnate nel riferimento cartesiano componenti sono date rispetto alla base = (i, j, k) che determina. Si verifica che l’equazione (11.10) equivale a:
R
B
R
Geometria Analitica nello Spazio
532
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
(11.11)
t
∈ R,
che sono le equazioni parametriche di r e le componenti (l,m,n) prendono il nome di parametri direttori della retta r.
Osservazione 11.2 Siano (l,m,n) i parametri direttori di una retta r, allora: 1. (l,m,n) non sono contemporaneamente nulli e sono individuati a meno di un fattore moltiplicativo, cio e` (ρl,ρm,ρn), con ρ = 0, sono anche parametri direttori della retta r;
2. se l = 0 e m = 0 la retta r e` parallela all’asse z, se m = 0 e n = 0 la retta r e` parallela all’asse x , se l = 0 e n = 0 la retta r e` parallela all’asse y ; 3. i coseni direttori della retta r , ossia i coseni degli angoli che la retta r forma con gli assi coordinati coincidono (a meno del segno) con i coseni degi angoli che un generico vettore r parallelo alla retta r forma rispettivamente con i versori i, j, k della base ortonormale che individua il sistema di riferimento usato, ossia:
l , l2 + m2 + n2 m cos(rj) = , l2 + m2 + n2 n cos(rk) = . l2 + m2 + n2
√ √ √ cos(ri) =
Si osservi che cos(ri)2 +cos(rj)2 +cos(rk)2 = 1, maggiori dettagli sulla definizione e il calcolo degli angoli individuati da due rette si vedranno nel Paragrafo 11.6.4.
Esercizio 11.4 Determinare le equazioni parametriche della retta r parallela al vettore r = i j + 2k e passante per il punto P 0 = (1, 2, 3); determinare, inoltre, i coseni direttori di r.
−
Soluzione
Le equazioni parametriche di r sono:
x = 1 + t y = 2 t z = 3 + 2t,
−
t
∈ R;
Capitolo 11
533
per i coseni direttori si ha:
cos(ri) =
√ 16 , cos(rj) = − √ 16 , cos(rk) = √ 26 .
1. Ponendo t = 1 nelle equazioni parametriche della retta r otteOsservazione 11.3 nuta nell’esercizio precedente si trova il punto P 1 = (2, 1, 5) e quindi la retta r ha anche equazioni parametriche:
x = 2 + λ y = 1 λ z = 5 + 2λ,
−
λ
∈ R.
∈ [0, 1] si ha il segmento sulla retta r di estremi i punti P 3. Per t ≥ 0 si ottiene una semiretta su r di origine il punto P . 2. Per t
0
e P 1 .
0
Se nessuno dei parametri direttori (l,m,n) di una retta r e` uguale a zero, dalle equazioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni cartesiane di r, si ottiene:
x
−x
0
l
=
−y
y
0
m
=
z
− z . 0
n
Quindi una rappresentazione cartesiana di una retta r passante per il punto P 0 = (x0 , y0 , z 0 ) e parallela al vettore r = (l,m,n) , con l = 0 , m = 0 , n = 0 , `e:
x−x y−y = l m x−x z − z = . 0
0
0
0
l
n
Si noti che il sistema lineare cos`ı ottenuto rappresenta geometricamente l’intersezione di due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari. Se un parametro direttore e` uguale a zero, ad esempio l = 0 , la retta r, passante per il punto P 0 = (x0 , y0 , z 0 ), ha rappresentazione cartesiana:
x = x 0 y
−y
0
m
=
z
− z
0
n
e anche in questo caso la retta `e data dall’intersezione di due piani.
534
Geometria Analitica nello Spazio
Se due parametri direttori sono uguali a zero, ad esempio l = m = 0 , la retta r, passante per il punto P 0 = (x0 , y0 , z 0 ), e` parallela all’asse z (al versore k ) ed ha rappresentazione cartesiana:
x = x 0 y = y 0 .
In particolare l’asse z ha, quindi, equazioni cartesiane x = y = 0 . Analogamente le equazioni cartesiane dell’asse x e y sono rispettivamente y = z = 0 e x = z = 0 .
Osservazione 11.4 I punti P = (x,y,z ) di una retta r nello spazio corrispondono alle soluzioni di un sistema lineare compatibile di due equazioni nelle tre incognite x, y e z . Infatti, e` ben noto dal primo capitolo che un sistema lineare di due equazioni in tre incognite, compatibile, ammette infinite soluzioni che dipendono da una variabile e che quindi concidono con le equazioni parametriche della retta r. Pertanto una retta nello spazio si puo` rappresentare geometricamente come intersezione di due piani o meglio come l’intersezione di infinite coppie di piani. La situazione geometrica e` illustrata nella Figura 11.4 , ma si completer a` lo studio della posizione reciproca di due piani nello spazio nel Paragrafo 11.3.3. Esempio 11.5 La retta r dell’Esercizio 11.4 pu`o essere rappresentata non solo come l’intersezione dei due piani:
−
x+y 3 =0 2x z + 1 = 0,
−
ma, per esempio, anche come intersezione dei due piani:
11.3.2
− −
x+y 3 =0 2y + z 7 = 0.
Retta per due punti distinti
Dati due punti distinti A = (xA , yA , z A ), B = (xB , yB , z B ), la retta r passante per A e B e` parallela al vettore AB :
−→ −→ AB = (x − x , y − y , z − z ), rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano B
A
B
A
B
A
scelto. Dunque r ha equazioni parametriche:
− x )t + (y − y )t + (z − z )t, t ∈ R.
x = x A + (xB y = y A z = y A
A
B
A
B
A
Capitolo 11
Figura 11.4: La retta come intersezione di coppie di piani
535
Geometria Analitica nello Spazio
536
−
−
−
I parametri direttori sono quindi (xB xA , yB yA , z B z A ) e, se sono tutti e tre diversi da zero, la retta r passante per i due punti distinti A e B ha come rappresentazione cartesiana:
−
− − − − − − −− − − −− −− − − ∈ −−
x xA = xB xA x xA = xB xA xA = 0, si deve porre x
y yA yB yA z z A . z B z A xA = 0 che rappresenta uno dei due piani
Se, ad esempio x B che individuano la retta, che ha, quindi, equazioni cartesiane (in questo caso):
x
xA = 0
y yA z = yB yA z B
z A . z A
Esempio 11.6 La retta r passante per i punti A = (1, 1, 0), B = (2, 3, 1) e` parallela al vettore AB = (1, 4, 1) e quindi ha equazioni parametriche:
−→
x = 1 + t y = 1 + 4t z = t, t
ed equazioni cartesiane:
R,
4x y 5 = 0 x z 1 = 0.
− −
11.3.3
Posizione reciproca di due piani Retta come intersezione di due piani
Dal punto di vista geometrico, due piani nello spazio possono essere: 1. coincidenti, 2. paralleli e non coincidenti, 3. incidenti, in questo caso la loro intersezione `e una retta. Dal punto di vista algebrico, l’intersezione dei due piani:
π : ax + by + cz + d = 0,
π : a x + b y + c z + d = 0
e` data da tutti i punti P = (x,y,z ) che sono soluzioni del sistema lineare:
ax + by + cz + d = 0 a x + b y + c z + d = 0.
(11.12)
Capitolo 11
537
|
Siano A e (A B), rispettivamente, la matrice dei coefficienti e la matrice completa del sistema lineare (11.12) vale a dire:
A =
a b c a b c
,
|
(A B) =
a b c a b c
−d −d
.
|
Dal Teorema di Rouch e´ –Capelli (cfr. Teor. 1.2) e confrontando i ranghi di A e di (A B) si distinguono i seguenti casi: 1. rank(A) = 1 : indicati con n = (a,b,c) e con n = (a , b , c ) i vettori ortogonali rispettivamente a π e a π , la condizione rank(A) = 1 significa che n e n sono paralleli, quindi i due piani π e π sono paralleli essendo ortogonali a vettori tra di ` necessario distinguere ancora tra le situazioni seguenti: loro paralleli. E
|
a. rank(A) = rank(A B) = 1 : il sistema lineare (11.12) e` compatibile, i due piani sono coincidenti.
|
b. rank(A) = 1 e rank(A B) = 2 : il sistema lineare (11.12) `e incompatibile, i due piani sono paralleli ma non coincidenti.
|
2. rank(A) = 2 : di conseguenza anche rank(A B) = 2, quindi il sistema lineare (11.12) e` compatibile e ammette infinite soluzioni che dipendono da un’incognita libera. I vettori n e n non sono paralleli, di conseguenza le soluzioni del sistema lineare (11.12) sono tutti e soli i punti della retta r intersezione dei due piani π e
π.
Il teorema che segue spiega come determinare un vettore parallelo ad una retta data dall’intersezione di due piani.
Teorema 11.2 Sia r la retta rappresentata come intersezione di due piani nel modo seguente:
r :
ax + by + cz + d = 0 a x + b y + c z + d = 0.
Indicati con π il piano di equazione ax + by + cz + d = 0 e con n = (a,b,c) un vettore non nullo ad esso ortogonale, con π il piano di equazione a x + b y + c z + d = 0 e con n = (a , b , c ) un vettore non nullo ad esso ortogonale, allora un vettore r parallelo alla retta r si ottiene come:
r = n
∧n.
Geometria Analitica nello Spazio
538
Dimostrazione La dimostrazione segue da evidenti condizioni geometriche, essendo il prodotto vettoriale di due vettori un vettore ortogonale ad entrambi e di conseguenza parallelo all’intersezione dei due piani π e π . Il vettore r e` quindi: r = n
∧n =
i
j
k
a b c . a b c
La retta r ha come parametri direttori la terna di numeri (l,m,n) data da:
l =
b c , b c
m =
c a , c a
n =
a b , a b
o qualsiasi terna di numeri proporzionali a (l,m,n) mediante un coefficiente di proporzionalit`a diverso da zero.
∈ R la posizione reciproca dei due piani:
Esercizio 11.5 Studiare al variare di h, k
π : 2x + hy
− 2z + 3 = 0,
π : x + 2y + kz + 1 = 0.
Per studiare la posizione reciproca dei due piani π e π e` sufficiente studiare Soluzione le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della sua matrice completa:
|
(A B) =
2 1
→ − − − − − − h 2
− 2 −3 k −1
e confrontarlo con il rango della sua matrice A dei coefficienti. Riducendo per righe la matrice (A B) con l’operazione sulle righe R 2 2R2 + R1 si ottiene:
|
|
2 0
−
h 4+h
2
2
2k
3 1
e quindi rank(A B) = 2 , per ogni h e k . Si hanno allora le due seguenti possibilit´a:
−1 i due piani si intersecano lungo una retta;
1. se h = 4 oppure k = 2. se h = 4 e k =
11.4
−1 i due piani sono paralleli.
Posizioni reciproche tra rette e piani
Nel paragrafo precedente e` stata esaminata la posizione reciproca di due piani, di seguito si studieranno le posizioni reciproche di tre piani, di una retta e di un piano e di due rette, privilegiando l’approccio di tipo algebrico (applicando quindi la teoria nota dello studio dell’esistenza delle soluzioni dei sistemi lineari) e poi deducendo dai risultati ottenuti le situazioni geometriche.
Capitolo 11
11.4.1
539
Posizione reciproca di tre piani
Per esaminare la posizione reciproca di tre piani π 1 , π2 , π3 dati da:
π1 : a1 x + b1 y + c1 z + d1 = 0, π2 : a2 x + b2 y + c2 z + d2 = 0, π3 : a3 x + b3 y + c3 z + d3 = 0, si risolve il sistema lineare formato dalle loro tre equazioni. Applicando il Teorema di Rouch´e–Capelli (cfr. Teor 1.2), confrontando i ranghi della matrice dei coefficienti rank(A) e della matrice completa rank(A B), e tenendo conto che i vettori:
|
n1 = (a1 , b1 , c1 ),
n2 = (a2 , b2 , c2 ),
n3 = (a3 , b3 , c3 )
sono ortogonali, rispettivamente, ai piani π 1 , π2 , π3 , si presentano le seguenti possibilit`a: 1. rank(A) = 1 : i tre vettori n1 , n2 , n3 sono paralleli, di conseguenza anche i tre piani π 1 , π2 , π3 sono paralleli; si distinguono i due sottocasi:
|
a. rank(A B) = 1 : il sistema lineare e` compatibile, infatti i tre piani sono coincidenti.
|
b. rank(A B) = 2 : il sistema lineare e` incompatibile, i tre piani sono paralleli ma non sono tutti e tre coincidenti. 2. rank(A) = 2 : due tra i vettori n1 , n2 , n3 sono linearmente indipendenti e il terzo e` linearmente dipendente da essi; si distinguono i due sottocasi:
|
a. rank(A B) = 2 : il sistema lineare e` compatibile, i tre piani π1 , π2 , π3 si intersecano in una retta, e` il caso illustrato nella Figura 11.4 , se la si limita a tre piani.
|
b. rank(A B) = 3 : il sistema lineare e` incompatibile, i piani si intersecano a due a due in una retta e il terzo piano non ha punti comuni con tale retta, quindi e` ad essa parallelo. La situazione geometrica e` illustrata nella Figura
11.5.
|
3. rank(A) = 3 : di conseguenza anche rank(A B) = 3 , il sistema lineare ammette una sola soluzione, i tre piani π 1 , π2 , π3 si intersecano in un punto.
∈ R la posizione reciproca dei tre piani:
Esercizio 11.6 Studiare al variare di h, k
π1 : x + hy + z = 0, π2 : x y + hz 1 = 0, π3 : 2x + hy + z + k = 0.
−
−
540
Geometria Analitica nello Spazio
Figura 11.5: Tre piani nello spazio: caso 2 .b
Capitolo 11
541
Soluzione Per studiarne la posizione reciproca dei piani π1 , π2 , π3 si considera il sistema lineare formato dalle tre equazioni dei piani e si calcola il rango della matrice completa:
|
(A B) =
|
1 1 2
h 1 h
−
1 h 1
− 0 1 k
.
|
Riducendo per righe la matrice (A B) si ottiene rank(A) = rank(A B) = 3 per ogni h e k , quindi i tre piani, per ogni valore reale di h e k, si intersecano in un punto.
11.4.2
Posizione reciproca tra retta e piano
Per esaminare la posizione reciproca tra una retta e un piano si pu o` procedere o algebricamente (usando una rappresentazione cartesiana sia della retta sia del piano), oppure geometricamente (usando una rappresentazione parametrica della retta). Si distinguono i due casi seguenti, che sono equivalenti tra di loro nel risultato a cui si perviene ma sono diversi nel metodo seguito per raggiungere tale risultato.
Primo caso
Dati la retta r e il piano π di equazioni:
r :
a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0,
π : ax + by + cz + d = 0, il problema e` ricondotto allo studio del sistema lineare:
a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0 ax + by + cz + d = 0,
(11.13)
cio`e allo studio dell’intersezione di tre piani gi a` esaminata nel paragrafo precedente, con la condizione aggiuntiva che la matrice dei coefficienti abbia rango maggiore o uguale a 2 (perch´e?). Dal Teorema di Rouch´e–Capelli (cfr. Teor. 1.2) si distinguono le seguenti possibilit`a: 1. il sistema lineare (11.13) e` incompatibile, cio`e la retta r e` parallela al piano π e non ha punti in comune con π ; 2. il sistema lineare (11.13) ammette una sola soluzione, cio`e la retta ed il piano si intersecano in un punto;
Geometria Analitica nello Spazio
542
3. il sistema lineare (11.13) ammette infinite soluzioni che dipendono da un’incognita libera, allora la retta r giace sul piano π.
Secondo Caso Data la retta r passante per il punto P 0 = (x0 , y0 , z 0 ) e parallela al vettore r = (l,m,n) scritta in foma parametrica come:
r :
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
t
∈ R,
ed il piano π, ortogonale al vettore n = (a,b,c), di equazione:
π : ax + by + cz + d = 0, i punti che appartengono all’intersezione di r con π si possono determinare cercando i valori del parametro t che verificano la seguente equazione:
a(x0 + lt) + b(y0 + mt) + c(z 0 + nt) + d = 0. Il problema e` quindi ricondotto allo studio delle soluzioni dell’equazione lineare:
(al + bm + cn)t =
−ax − by − cz − d, 0
0
0
nell’incognita t. Osservando che:
·
al + bm + cn = r n, inoltre:
ax0 + by0 + cz 0 + d = 0 se e solo il punto P 0 appartiene al piano π e tenendo conto che l’annullarsi del prodotto scalare tra due vettori esprime la loro ortogonalit a` , si distinguono le seguenti possibilit a` :
· r · n = 0 e P ∈ π , cio`e la retta r giace sul piano π ; r · n = 0 e P ∈ / π , cio`e la retta r e` parallela al piano π e non ha punti in comune
1. r n = 0 , cio`e la retta ed il piano si intersecano in un punto; 2. 3.
0
0
con π.
Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano π di equazioni:
r :
π : kx
∈ R .
al variare di h, k
− −
x hz 2 = 0 3x + y = 0,
− y + hz − 1 = 0,
Capitolo 11
Soluzione
543
Si studiano le soluzioni del sistema lineare:
− − − −
x hz 2 = 0 3x + y = 0 kx y + hz 1 = 0
(11.14)
al variare di h e k in R . Dal calcolo del rango della matrice dei coefficienti e della matrice completa al variare di h e k si ha:
−4 : r e π si intersecano in un punto; = −5/2 : r e` parallela a π ; h = 0 e k h = 0 e k = −5/2 : r giace su π ; k = −4 , r e` parallela a π .
1. h = 0 e k = 2. 3. 4.
In alternativa, osservando che il piano π e` ortogonale al vettore n = (k, r e` parallela al vettore: r = (1, 0,
−1, h) e la retta
−h) ∧ (3, 1, 0) = (h, −3h, 1),
·
−
si ha che r n = 0 se e solo se h(4 + k) = 0. Inoltre il punto P 0 = (2, 6, 0) della retta r appartiene al piano π se e solo se 2k + 5 = 0 . Si perviene in questo modo alle stesse soluzioni del sistema lineare (11.14).
11.4.3
Posizione reciproca di due rette nello spazio
Dalla geometria euclidea e` noto che due rette r e r nello spazio possono essere: 1. coincidenti, 2. parallele, 3. incidenti, 4. sghembe (o non complanari). Da notare che rette parallele e incidenti sono necessariamente complanari. Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel paragrafo precedente, per individuare la posizione di due rette nello spazio si pu`o procedere in modo algebrico, per esempio rappresentando le due rette come intersezione di due
Geometria Analitica nello Spazio
544
piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma parametrica. Date due rette r e r in rappresentazione cartesiana:
r :
a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0,
r :
a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0,
la loro posizione reciproca si ottiene studiando le soluzioni del sistema lineare delle quattro equazioni nelle tre incognite ottenuto dalle equazioni dei quattro piani dati. Questo metodo non `e cos`ı semplice da applicare ed `e anche difficile riuscire ad indovinare la posizione reciproca delle due rette solo guardando la loro rappresentazione, prima di iniziare a svolgere i calcoli, come si pu o` osservare dall’esempio che segue.
Esempio 11.7 Date le rette:
r :
−
x y + z = 0 y + 3z = 0,
r :
− −
x+y 1 =0 y + 3z 2 = 0,
per determinare la loro posizione reciproca si risolve il sistema lineare:
−
x y + z = 0 y + 3z = 0 x+y 1 =0 y + 3z 2 = 0.
− −
Si ottiene che il rango della matrice completa `e 4 (ossia, trattandosi di una matrice quadrata di ordine 4 , il suo determinante e` diverso da 0 ) quindi il sistema lineare e` incompatibile. Le due rette r e r sono sghembe. Le due rette non sono parallele perch´e il rango della matrice dei coefficienti `e 3. Se si rappresentano, invece, le due rette r e r in forma parametrica:
r :
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
r : t
∈ R,
x = x 1 + l λ y = y 1 + m λ z = z 1 + n λ,
λ
∈ R,
osservando che le rette r e r sono parallele, rispettivamente, ai vettori r = (l,m,n) , r = (l , m , n ) e passano, rispettivamente, per i punti P 0 = (x0 , y0 , z 0 ) , P 1 = (x1 , y1 , z 1 ) si ha un metodo molto pi u` agevole per studiarne la loro posizione reciproca. Innanzi tutto e` evidente se le due rette siano o meno parallele a seconda che i vettori r e r siano paralleli. Nel caso in cui esse siano parallele, si distingue il caso delle rette coincidenti da
Capitolo 11
545
quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per esempio il punto P 0 appartenga o meno alla retta r . Ma, in generale, tenendo conto che che r e r sono complanari se e solo se i vettori P 0 P 1 , r, s sono complanari, ossia:
−−→
−−→ P P · r ∧ r =
0 1
si distinguono i seguenti casi:
x1
−x
y1
0
l l
−y
0
m m
z 1
− z
0
n n
1. r = r se e solo se r e r sono paralleli e ad esempio P 0 2. r e r 3. r e r 4. r e r
= 0,
∈ r ; sono parallele se e solo se r e r sono paralleli e P ∈ /r; −−→ sono incidenti se e solo se P P · r ∧ r = 0 , ma con r ∧ r = o ; −−→ sono sghembe se e solo se P P · r ∧ r = 0.
0
0 1
0 1
Infine, nel caso in cui le rette r e r siano una in rappresentazione cartesiana e l’altra in rappresentazione parametrica, cio`e ad esempio se r = π1 π2 , si puo` osservare che se si indicano con A e B i punti di intersezione di r con π1 e con π2 , rispettivamente, se A = B allora le due rette sono sghembe. Se invece A = B allora r r = A.
∩
∩
Esempio 11.8 Scrivendo in forma parametrica le rette r e r considerate nell’Esempio 11.7, si ha:
r :
− −
x = 4t y = 3t z = t, t
r :
∈ R,
− −
x = 1 + 3λ y = 2 3λ z = λ, λ
∈ R,
si ricava che le rette r e r sono parallele ai vettori r = ( 4, 3, 1) e r = (3, 3, 1) e passano rispettivamente per i punti O = (0, 0, 0) e P 1 = ( 1, 2, 0) . Si osserva subito che le due rette non sono parallele, non essendolo i vettori r e r . Poich´e OP 1 r r = 0 , si ha che le due rette sono sghembe.
11.5
− − − − −−→ · ∧
Fasci di piani
In questo paragrafo sono studiati i fasci di piani, la cui trattazione e` analoga a quella dei fasci di rette nel piano introdotta nel Paragrafo 9.8. Si definiscono due tipi di fasci di piani: 1. il fascio improprio formato da tutti i piani paralleli ad un piano assegnato;
Geometria Analitica nello Spazio
546
2. il fascio proprio formato da tutti i piani passanti per una retta. Il fascio improprio di piani paralleli ad un piano assegnato π : ax + by + cz + d = 0 ha equazione cartesiana:
∈ R,
ax + by + cz + k = 0,
k
in quanto si deve mantenere fisso il vettore n = (a,b,c) ortogonale a tutti i piani del fascio e, al variare di k R, si determinano tutti e soli i piani paralleli a π .
∈
Nel caso di un fascio proprio di piani, si dimostra che dati due piani π e π non paralleli:
π : ax + by + cz + d = 0,
π : a x + b y + c z + d = 0,
il fascio di piani generato da π e π , cio`e formato da tutti e soli i piani passanti per la retta r = π π , `e l’insieme di tutti i piani aventi per equazione cartesiana la combinazione lineare:
∩
F
F : λ(ax+by+cz +d)+µ(a x+b y+c z +d ) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0), (11.15)
che prende il nome di equazione del fascio di piani . Infatti si ha:
1. per ogni valore di (λ, µ) = (0, 0) da (11.15) si ottiene un piano, trattandosi di un’equazione lineare in x, y,z.
2. I parametri λ e µ sono omogenei, cio`e, per ogni ρ = 0 , (λ, µ) e (ρλ,ρµ) individuano lo stesso piano. 3. Se P 0 = (x0 , y0 , z 0 ) π π , allora (x0 , y0 , z 0 ) e` soluzione dell’equazione (11.15), per ogni (λ, µ) . Quindi ogni piano del fascio contiene la retta r = π π .
∈ ∩
F
∩
4. Se P 1 = (x1 , y1 , z 1 ) e` un punto qualsiasi dello spazio (non appartenente alla retta r ) l’equazione:
λ(ax1 + by1 + cz 1 + d) + µ(a x1 + b y1 + c z 1 + d ) = 0 di incognite λ e µ permette di individuare i valori di λ e µ che sostituiti in (11.15) portano all’equazione dell’unico piano del fascio passante per P 1 .
F Osservazione 11.5 Si osservi che, dati un fascio di piani F , un piano π non appartenente ad F e una retta r che non sia l’asse del fascio, esistono un piano di F parallelo ad r e un piano di F ortogonale a π. Mentre, salvo casi particolari, non esiste un piano di F ortogonale a r e un piano di F parallelo a π. Esercizio 11.8 Dato il punto P = (2, 1, −1), determinare il piano π, passante per P , 0
in ciascuno dei seguenti casi:
0
Capitolo 11
1. π sia anche parallelo al piano π : 2x
547
− y + 3z − 1 = 0 ;
2. π contenga anche la retta:
r :
− − −
x y + 2 = 0 2x y 3z = 0;
3. π sia anche ortogonale alla retta:
r :
−
y = 2x 1 z = x + 3;
4. π sia anche ortogonale al piano:
π : 2x + y e contenga il punto A = (3,
− 3z + 1 = 0
−1, 0) .
Soluzione 1. Il piano π appartiene al fascio improprio dei piani paralleli a π che ha pertanto ha equazione cartesiana:
2x
− y + 3z + k = 0, k ∈ R.
Imponendo il passaggio per il punto P 0 si ha k = 0 e quindi π : 2x
− y + 3z = 0 .
2. Il piano π appartiene al fascio proprio di piani passanti per r che ha equazione cartesiana:
λ(x
− y + 2) + µ(2x − y − 3z ) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
(11.16)
Imponendo il passaggio per P 0 si ha 3λ + 6µ = 0 e quindi l’equazione di π si ottiene, ad esempio, sostituendo λ = 2 e µ = 1 in (11.16).
−
3. La retta r e` parallela al vettore r = (1, 2, 1) , quindi il piano π e` ortogonale a r e passa per P 0 , cio`e ha equazione x + 2y z 5 = 0 .
− − − 4. Il piano π e` ortogonale al vettore n = (2, 1, −3) , pertanto il piano π e` formato da −→ −−→ tutti i punti P per cui i vettori AP , P A e n sono complanari, cio`e ha equazione:
0
x
−3 2 1
y + 1 1 2
− − z 3 1
= 0.
Geometria Analitica nello Spazio
548
Esercizio 11.9 Dati la retta:
r :
x = 1 + 2t y = 3 + 2t z = 1 + 3t,
t
∈R
e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A , perpendicolare ed incidente la retta r .
Soluzione La retta s pu`o essere determinata come intersezione dei due piani π1 e π2 , dove π1 e` il piano passante per r e per il punto A e π2 e` il piano passante per A e ortogonale a r; si ha:
r :
− − −
x y + 2 = 0 3x 2z 1 = 0.
Di conseguenza, il fascio di piani passanti per r ha equazione:
∈ R, (λ, µ) = (0, 0). Pertanto il piano π si ottiene imponendo il passaggio di F per A , da cui si deduce 3λ + 5µ = 0 . Quindi π ha equazione cartesiana 5(x − y + 2 ) + (−3)(3x − 2z − 1) = 0 . F : λ(x − y + 2) + µ(3x − 2z − 1) = 0,
λ, µ
1
1
Per determinare π2 , invece, si devono calcolare i parametri direttori della retta r e si ottiene che r e` parallela al vettore r = (2, 2, 3). Quindi π 2 appartiene al fascio improprio di piani:
∈ R, da cui, imponendo il passaggio per il punto A, segue k = −6 . Concludendo, la retta s 2x + 2y + 3z + k = 0,
ha equazioni:
s :
11.6
k
− − 13 = 0 − 6 = 0.
4x + 5y 6z 2x + 2y + 3z
Distanze e angoli
In questo paragrafo sono affrontati i problemi metrici riguardanti punti, rette, piani nello spazio. Si determineranno, infatti, le distanze di un punto da un piano e di un punto da una retta, la distanza minima tra due rette sghembe e le equazioni della retta perpendicolare e incidente due rette sghembe, inoltre si calcoleranno gli angoli formati da due rette incidenti o sghembe, da una retta e un piano incidenti e da due piani incidenti.
Capitolo 11
11.6.1
549
Distanza di un punto da un piano
La distanza con segno d(P 0 , π) di un punto P 0 da un piano π e` per definizione la distanza, con segno, d(P 0 , H ) di P 0 dal punto H proiezione ortogonale di P 0 su π . La situazione geometrica `e illustrata nella Figura 11.6. Se n e` un vettore ortogonale a π si ha che:
−−→ P H · n d(P , H ) = n . 0
0
(11.17)
−−→ ·
Si osservi che il segno della distanza d(P 0 , H ) e` determinato dal prodotto scalare P 0 H n che e` positivo se P 0 appartiene al semispazio individuato da π orientato come n, come nella Figura 11.6 , negativo se P 0 appartiene al semispazio opposto. Il prodotto scalare P 0 H n si annulla se e solo se i due vettori sono ortogonali ossia se e solo se P 0 appartiene al piano π.
−−→ ·
Allo scopo di scrivere mediante le componenti dei vettori e le coordinate dei punti la = (O, i, j, k) , il formula (11.17), si considerino, rispetto al riferimento cartesiano punto P 0 = (x0 , y0 , z 0 ) ed il piano π : ax + b + cz + d = 0. Dall’espressione del prodotto scalare in componenti (cfr. Teor. 3.13) si ottiene:
R
d(P 0 , π) =
ax0 + by0 + cz 0 + d , a2 + b2 + c2
√
(11.18)
che e` una formula analoga a quella gi a` ricavata per il calcolo della distanza di un punto da una retta nel piano (cfr. Par. 9.7.5).
Esercizio 11.10 Data la retta:
r :
−
x + z 1 = 0 y + 1 = 0,
determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano:
− y − 2z + 1 = 0. Soluzione I punti della retta r hanno coordinate (t, −1, −t + 1) , t ∈ R , per cui, dalla formula (11.18) segue: |2t + 1√ − 2(−t + 1) + 1| = 4. π : 2x
4+1+4
I due valori di t che cos`ı si trovano permettono di individuare i due punti P 1 e P 2 della retta r che risolvono il problema. La situazione geometrica `e illustrata nella Figura 11.7.
Geometria Analitica nello Spazio
550
P0
n
Π
H
Figura 11.6: Distanza del punto P 0 dal piano π
P1 r
P2
Figura 11.7: Esercizio 11.10
Capitolo 11
11.6.2
551
Distanza di un punto da una retta
La distanza d(P 0 , r) di un punto P 0 da una retta r nello spazio e` per definizione la distanza d(P 0 , H ) tra i punti P 0 e H , dove H e` il punto proiezione ortogonale di P 0 su r. Il punto H e` l’intersezione della retta r con il piano π passante per P 0 e ortogonale a r . In alternativa, si pu o` determinare la distanza d(P 0 , H ) cosiderando un punto P 1 appartenente a r e un vettore r = o parallelo a r. Indicato con θ l’angolo compreso tra i vettori P 0 P 1 e r, dalla definizione di prodotto vettoriale (cfr. Par. 3.7.2) si ha:
−−→
−−→ −−→ P P ∧ r = P P r sin θ, 0 1
e quindi:
0
1
−−→ P P ∧ r d(P , r) = d(P , H ) = r , 0
0 1
0
(11.19)
la situazione geometrica e` illustrata nella Figura 11.8 . Si osservi che la distanza di un punto da una retta nello spazio e` sempre un numero positivo o nullo.
Esempio 11.9 La distanza dell’origine O dalla retta r di equazioni parametriche:
x = t y = 1 + 2t z = 1 + 3t,
−
t
∈ R,
e` la distanza di O dal punto H ottenuto dall’intersezione della retta r con il piano passante per O perpendicolare a r, si ha:
H =
1 8 , , 14 7
−
11 . 14
−
In alternativa, si pu`o considerare un qualsiasi punto di r , ad esempio A = (0, 1, 1) ed un vettore r parallelo alla retta r, per esempio r = (1, 2, 3), e utilizzando la formula (11.19) si ottiene:
−→ OA ∧ r (5, −1, −1) d(O, r) = r = (1, 2, 3) = 11.6.3
27 . 14
Minima distanza tra due rette sghembe. Perpendicolare comune a due rette sghembe
Un noto teorema di geometria euclidea afferma che date due rette sghembe r e r esiste ed e` unica la retta perpendicolare e incidente sia r sia r , tale retta prende il nome di
552
Geometria Analitica nello Spazio
P0
r
P1
Θ
H
r
Figura 11.8: Distanza di un punto da una retta
Capitolo 11
553
perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione della perpendicolare comune con le due rette sghembe e` la minima distanza tra le rette sghembe d(r, r ) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r e uno su r , ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la loro minima distanza.
Siano P (t) = P 0 + t r e P (t ) = P 0 + t r due rappresentazioni parametriche rispettivamente di r e r . Per determinare l’equazione della perpendicolare comune a r e a r si possono imporre le due condizioni di ortogonalit a` tra i vettori P (t)P (t ) e r e tra
−−−−−−→
−−−−−−→ P (t)P (t ) e r :
(P (t ) (P (t )
− P (t)) · r = 0 − P (t)) · r = 0.
(11.20)
Il precedente sistema lineare nelle due incognite t e t ha un’unica soluzione (t = t 0 , t = t0 ) e la perpendicolare comune `e pertanto la retta passante per i due punti R, su r ottenuto ponendo t0 nelle equazioni parametriche di r, e R , su r , ottenuto ponendo t0 nelle equazioni parametriche di r . La minima distanza tra le due rette r e r sar`a dunque d(R, R ) . In alternativa si pu`o determinare la minima distanza tra le due rette sghembe r e r senza necessariamente calcolare le equazioni della loro perpendicolare comune. E` sufficiente infatti determinare l’equazione del piano π passante per r e parallelo ad r e poi calcolare la distanza (in valore assoluto) di un qualunque punto di r da π e questa e` la minima distanza tra le due rette sghembe. Oppure si pu o` osservare che la minima distanza tra le due rette sghembe r ed r non `e altro che la proiezione ortogonale su r r del vettore che unisce un punto P 1 fissato su r ad un punto P 2 fissato su r , ossia:
∧
−−→ | P P · r ∧ r | d(r, r ) = r ∧ r .
1 2
La perpendicolare comune a r e a r si pu`o anche determinare come intersezione dei due piani π 1 e π 2 entrambi paralleli al vettore r r e complanari uno con r e l’altro con r . La situazione geometrica e` illustrata nella Figura 11.9.
∧
Esercizio 11.11
1. Date le due rette:
r :
x = t + 2 y = t z = 2t, t
−
r :
∈ R,
x = t y = t 1 z = t + 2,
−
−
t
∈ R,
verificare che r e r sono sghembe e determinare la loro perpendicolare comune. 2. Calcolare la distanza minima di r e r .
Geometria Analitica nello Spazio
554
r'
R'
r' Pt'
rr'
r
R Pt
r Π
Figura 11.9: Perpendicolare comune a due rette sghembe
Capitolo 11
555
1. Le rette r e r sono rispettivamente parallele ai vettori r = (1, 1, 2) e r = (1, 1, 1) . Inoltre, considerati i punti P 1 = (2, 0, 0) in r e P 2 = (0, 1, 2) in r , poich´e P 1 P 2 r r = 0 , le rette r e r non sono complanari. Per determinare
Soluzione
− −−→ ∧ ·
−
−
la loro perpendicolare comune si pu`o osservare che indicati con:
P (t ) = (t , t
−
P (t) = (t + 2, t, 2t),
− 1, −t + 2)
i generici punti di r e di r rispettivamente, il sistema lineare (11.20) diventa in questo caso:
4t 3t
− 6t − 7 = 0 − 4t − 5 = 0 ed ha come un’unica soluzione (t = −1/2, t = 1). La perpendicolare comune alle
rette r e r e` allora la retta passante per i due punti:
R =
3 , 2
−
∈
1 ,1 2
R = (1, 0, 1)
r,
∈r,
ossia la retta p di equazioni:
p :
−
x = 1 λ y = λ z = 1, λ
∈ R.
Si perviene allo stesso risultato considerando la retta p come intersezione dei piani
π1 e π 2 cos`ı determinati: π1 e` il piano parallelo al vettore r r = i j e appartenente al fascio di piani di asse la retta r, si ottiene π 1 : x + y + z 2 = 0. In modo analogo, π 2 e` il piano parallelo a r r e appartenente al fascio di piani di asse la retta r , si ha π 2 : x + y + 2z 3 = 0.
∧
−
∧
−
−
2. La distanza minima di r e r e` : d(R, R ) =
√ 2 2
.
Si perviene allo stesso risultato determinando l’equazione del piano π 3 appartenente al fascio di piani di asse la retta r e parallelo alla retta r , si ha π 3 : x y 2 = 0, infine calcolando la distanza (in valore assoluto) di un generico punto di r , per esempio A = (0, 1, 2), dal piano π 3 .
− −
−
556
11.6.4
Geometria Analitica nello Spazio
Angolo tra due rette
Per definizione, l’angolo (r, r ) tra due rette r e r nello spazio `e l’angolo formato tra un vettore r parallelo alla retta r ed un vettore r parallelo alla retta r . Da osservare quindi che se θ e` l’angolo tra i due vettori r e r , le due rette formano anche l’angolo π θ . Inoltre, in base a questa definizione, che peraltro coincide con la definizione di angolo tra due rette nel piano (cfr. Par. 9.7.3), ha anche senso la nozione di angolo tra due rette sghembe. Pertanto, dalla definizione di prodotto scalare tra due vettori (cfr. Par. 3.7.1) segue: r r cos (r, r ) = cos (r , r) = . r r
−
± ·
±
11.6.5
Angolo tra retta e piano
∈
L’angolo tra una retta r ed un piano π nello spazio `e per definizione l’angolo θ [0, π/2] che la retta r forma con la retta r , proiezione ortogonale di r su π. L’angolo θ e` pertanto complementare all’angolo ϕ [0, π/2] che un vettore r parallelo alla retta r forma con un vettore n ortogonale a π, quindi si ha:
∈
sin (r, π) = sin θ =
|n · r| . nr
La situazione geometrica e` illustrata nella Figura 11.10.
11.6.6
Angolo tra due piani
Dalla geometria euclidea e` noto che l’ampiezza dei diedri formati da due piani π1 e π2 incidenti in una retta r e` calcolata mediante la loro sezione normale. Per sezione normale di un diedro individuato dai piani π1 e π2 si intende un piano π che intersechi ortogonalmente la retta r = π1 π 2 . Gli angoli sul piano π individuati dalle due rette r1 e r2 rispettivamente intersezione di π con π1 e con π2 corrispondono agli angoli formati dai piani π1 e π2 . La situazione geometrica e` illustrata nella Figura 11.11. Dalla rappresentazione in pianta dell’angolo θ indicato nella Figura 11.11 (cfr. Fig. 11.12 ) si osserva che l’angolo θ individuato da π 1 e π 2 e` il supplementare dell’angolo ϕ formato dai vettori n 1 e n 2 , vettori normali, rispettivamente, a π1 e a π2 . D’altra parte, cambiando l’orientamento di n1 o di n2 , essi formano anche l’angolo π ϕ. Pertanto:
∩
− n ·n cos (π , π ) = ± cos (n ,n ) = ± n n . 1
2
1
2
1
1
2
2
Capitolo 11
557
n
Θ r'
r
Figura 11.10: Angolo tra la retta r e il piano π
Geometria Analitica nello Spazio
558
r
Θ r 1
r 2
Π1
Π2
Figura 11.11: Sezione normale di un diedro
r 2
n1
Θ
n2
r 1
Figura 11.12: Angolo θ tra due piani
Capitolo 11
11.7
559
Sfera e posizione reciproca con rette e piani
In questo paragrafo si introduce la rappresentazione della sfera nello spazio mediante un’equazione cartesiana di tipo particolare, si vedr`a che tale rappresentazione e` analoga a quella della circonferenza nel piano. La rappresentazione della sfera mediante equazioni parametriche sar`a discussa nel Paragrafo 11.10. La rappresentazione di una circonferenza nello spazio e` invece pi`u complicata e sar a` discussa nel Paragrafo 11.8. Saranno anche studiate le posizioni reciproche tra una sfera e un piano, tra una sfera e una retta con le relative condizioni di tangenza.
11.7.1
Sfera
Fissati un punto C e una costante positiva R , la sfera o superficie sferica Σ di centro C e raggio R e` il luogo geometrico dei punti P dello spazio tali che:
d(P, C ) = R. Se R = 0 la sfera si riduce ad un solo punto che coincide con C . Rispetto ad un riferimento cartesiano 0 ha quindi equazione: raggio R
≥
(x
2
− α)
R = (0, x , y , z) , la sfera di centro C = (α , β , γ) e
+ (y
− β )
2
+ (z
2
− γ )
= R 2 ,
che pu`o essere riscritta come:
x2 + y2 + z 2
− 2αx − 2βy − 2γz + δ = 0,
(11.21)
con δ = α 2 + β 2 + γ 2 R2 . Si osservi che l’equazione (11.21) e` di secondo grado in x , y, z , i coefficienti dei termini xy , xz , yz sono tutti nulli e i coefficienti dei termini x2 , y2 e z 2 sono uguali. Viceversa, un’equazione dello stesso tipo, vale a dire:
−
x2 + y2 + z 2 + ax + by + cz + d = 0,
a, b, c, d
∈ R,
(11.22)
non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da (11.22) il centro C ha coordinate:
−
C = e il raggio `e dato da:
R =
a , 2
−
b , 2
−
a2 + b2 + c2 4
c 2
− 4d ,
(11.23)
pertanto l’equazione (11.22) rappresenta una sfera se e solo se a 2 + b2 + c2
(11.24)
− 4d ≥ 0 .
Geometria Analitica nello Spazio
560
Osservazione 11.6 Se a 2 + b2 + c2 4d = 0, la sfera `e detta degenere e si riduce al solo centro di coordinate ( a/2, b/2, c/2) . Se a2 + b2 + c2 4d < 0 allora non ci sono punti dello spazio che verificano l’equazione (11.22) e la sfera viene detta immaginaria.
−
−
− −
−
Esercizio 11.12 Determinare il centro e il raggio delle due sfere:
Σ1 : x 2 + y2 + z 2 + 2x Σ2 : x 2 + y2 Soluzione
− y + z = 0, + z + 2x − y + z + 4 = 0. 2
Σ1 e` una sfera con centro nel punto: C =
−
1 1, , 2
− 1 2
e raggio (cfr. (11.24)):
R1 =
− − ( 1)2 +
1 2
2
+
1 2
2
=
√ 6 2
.
Da notare che il raggio R 1 coincide con la distanza d(O, C ) , in quanto la sfera passa per l’origine O, essendo la sua equazione priva di termine noto. Il centro di Σ 2 e` C , ma Σ 2 non e` una sfera poich´e, da (11.24) si ha che il radicando vale 3/2 4 < 0 . In base alla precedente osservazione Σ 2 e` infatti una sfera immaginaria.
−
Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dall’equazione (11.22), al variare di a, b, c, d in R .
11.7.2
Posizione reciproca tra piano e sfera
La posizione reciproca di una sfera Σ e di un piano π e` determinata dal confronto tra la distanza del centro C della sfera dal piano e il valore del suo raggio R. Pi u` precisamente si presentano i seguenti casi:
|
|
|
|
|
|
1. se d(C, π) > R l’intersezione di π con Σ e` l’insieme vuoto, il piano π si dice esterno alla sfera Σ (cfr. Fig. 11.13 ); 2. se d(C, π) = R l’intersezione di π con Σ e` un punto P 0 , il piano π si dice tangente alla sfera Σ in P 0 (cfr. Fig. 11.14 ); 3. se d(C, π) < r l’intersezione di π con Σ e` una circonferenza, il piano π si dice secante la sfera Σ (cfr. Fig. 11.15 ).
Capitolo 11
561
C
Π
Figura 11.13: Piano esterno ad una sfera
C
P0 Π
Figura 11.14: Piano tangente ad una sfera
Geometria Analitica nello Spazio
562
C
Figura 11.15: Piano secante una sfera Si osservi che la circonferenza intersezione di un piano π secante una sfera Σ pu o` essere rappresentata dal sistema delle equazioni di π e di Σ, come si vedr`a con maggiori dettagli nel Paragrafo 11.8. Dato un punto P 0 = (x0 , y0 , z 0 ) appartenente alla sfera Σ di centro C = (α , β , γ) e raggio R , esiste un solo piano tangente a Σ in P 0 , dato dal piano passante per P 0 e ortogonale al vettore CP 0 = (x0 α, y0 β, z 0 γ ) , che ha quindi equazione:
(x0
−−→ − − − − α)(x − x ) + (y − β )(y − y ) + (z − γ )(z − z ) = 0. 0
0
0
0
0
Esercizio 11.14 Determinare l’equazione della sfera passante per il punto A = (3, 1, 1) e tangente al piano π : x + y z 1 = 0 nel punto B = (1, 1, 1) .
− −
Soluzione Il centro C della sfera richiesta appartiene alla retta r passante per B e ortogonale a π , di equazioni parametriche:
r :
x = 1 + t y = 1 + t z = 1 t,
−
t
∈ R, −
pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 t) . Imponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana:
(x
2
− 2)
+ (y
2
− 2)
+ z 2 = 3.
Capitolo 11
11.7.3
563
Posizione reciproca tra retta e sfera r
C
Figura 11.16: Retta esterna ad una sfera Per determinare i punti di intersezione di una sfera:
Σ : x 2 + y2 + z 2 + ax + by + cz + d = 0 con una retta r di equazioni parametriche:
r :
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
t
∈ R,
e` sufficiente risolvere l’equazione di secondo grado in t che si ottiene sostituendo le equazioni di r nell’equazione di Σ :
(x0 + lt)2 + (y0 + mt)2 + (z 0 + nt)2 + a(x0 + lt) + b(y0 + mt) + c(z 0 + nt) + d = 0, che pu`o avere: 1. due soluzioni complesse e coniugate, quindi la retta r e` esterna alla sfera Σ (cfr. Fig. 11.16 ); 2. due soluzioni reali concidenti, cio`e la retta r e` tangente alla sfera Σ ( r interseca Σ in due punti coincidenti, cfr. Fig. 11.17 );
Geometria Analitica nello Spazio
564
r
C
Figura 11.17: Retta tangente ad una sfera
r
C
Figura 11.18: Retta secante una sfera
Capitolo 11
565
3. due soluzioni reali distinte, cio`e la retta r e` secante la sfera Σ ( r interseca Σ in due punti distinti, cfr. Fig. 11.18 ).
Osservazione 11.7 Geometricamente i casi di intersezione di una retta r con una sfera Σ appena descritti possono essere interpretati in termini della distanza d(C, r) del centro C della sfera dalla retta r nel modo seguente: 1. la retta r e` esterna alla sfera Σ se e solo se d(C, r) > R; 2. la retta r e` tangente alla sfera Σ se e solo se d(C, r) = R; 3. la retta r e` secante la sfera Σ se e solo se d(C, r) < R. Si osservi inoltre che in ogni punto P 0 di una sfera Σ si hanno infinite rette tangenti a Σ , tutte e sole quelle appartenenti al fascio di rette di centro P 0 che giace sul piano tangente a Σ nel punto P 0 .
11.8
La circonferenza nello spazio
C
Una circonferenza di centro C e raggio r e` il luogo geometrico dei punti P dello spazio che appartengono ad un piano π passante per C e che hanno distanza r da C :
C = {P ∈ π | d(P, C ) = r }. C e` quindi individuata dal suo centro, dal suo raggio e dal piano su cui
Una circonferenza essa giace.
C
a. La circonferenza di centro il punto C = (α , β , γ) , raggio r e Esempio 11.10 appartenente al piano π di equazione ax + by + cz + d = 0 e` data, ad esempio, dall’intersezione del piano π con la sfera di centro C e raggio r , pertanto ha equazioni cartesiane:
C
C :
(x α)2 + (y β )2 + (z ax + by + cz + d = 0.
−
−
− γ )
2
= r 2
C
b. La circonferenza e` anche data dall’intersezione del piano π con infinite altre sfere, aventi il centro sulla retta passante per C, ortogonale a π .
C e` anche data dall’intersezione di due sfere che in essa si interse-
c. La cironferenza cano.
Geometria Analitica nello Spazio
566
Π
C
C del piano π
Figura 11.19: La circonferenza
Capitolo 11
567
C
d. La circonferenza e` anche data dall’intersezione del piano π con una opportuna superficie (non necessariamente sferica) come sar`a spiegato meglio nel Capitolo 12. La situazione geometrica e` illustrata nella Figura 11.19.
C R r
Q
Π
Figura 11.20: Il centro e il raggio della circonferenza In generale, un sistema di due equazioni nelle incognite x, y,z del tipo:
x2 + y2 + z 2 2αx 2βy ax + by + cz + d = 0
−
−
− 2γz + δ = 0
rappresenta una circonferenza se e solo se Σ : x 2 + y 2 + z 2 2αx 2βy 2γz + δ = 0 e` una sfera e π : ax + by + cz + d = 0 e` un piano secante la sfera Σ . In tale caso si ha:
C
−
−
−
C
1. il centro Q di e` l’intersezione del piano π con la retta ortogonale a π, passante per il centro C della sfera Σ;
C si ottiene applicando il Teorema di Pitagora ed e` (11.25) r = R − (d(C, π)) ,
2. il raggio r della circonferenza dato da:
2
2
dove R indica il raggio della sfera Σ e d(C, π) la distanza di C da π . La situazione geometrica `e illustrata nella Figura 11.20.
Geometria Analitica nello Spazio
568
Esercizio 11.15 Determinare il centro Q e il raggio r della circonferenza intersezione della sfera Σ : x 2 + y 2 + z 2 4x = 0 con il piano π : z + 1 = 0 .
−
Soluzione La sfera Σ ha centro C = (2, 0, 0) e raggio R = 2 . Il centro Q della circonferenza appartiene all’intersezione del piano π con la retta passante per C e ortogonale al piano π, di equazioni parametriche:
Si ottiene Q = (2, 0, e` r = 3.
√
x = 2 y = 0 z = t,
t
∈ R.
−1) e, dalla formula (11.25) si ha che il raggio della circonferenza
Esercizio 11.16 Data la circonferenza intersezione della sfera Σ : x 2 + y 2 + z 2 con il piano π : x + y + z = 0,
C
−2 = 0
−2) del piano π e` esterno alla circonferenza C . 2. Determinare le equazioni delle rette del piano π uscenti da A e tangenti a C . Soluzione 1. Il centro Q della circonferenza C e` l’intersezione del piano π con la ret1. verificare che il punto A = (2, 0,
ta ortogonale a π e passante per il centro C della sfera Σ. Poich´e il centro C coincide con l’origine e il piano π passa per l’origine segue che la circonferenza e` un
C √ cerchio massimo di Σ e Q = C, il raggio di C e` r = 2, ossia e` il raggio di Σ . Il √ √ punto A e` esterno a C in quanto d(A, C ) = 2 2 > 2.
2. Le rette cercate giacciono sul piano π passante per A ortogonale a π e tale che d(C, π ) = 2 . Il piano π appartiene al fascio proprio di piani di asse la retta passante per A ortogonale a π di equazioni cartesiane:
√
F
x y
−y−2 =0 − z − 2 = 0.
F ha pertanto equazione: F : λ(x − y − 2) + µ(y − z − 2) = 0, λ, µ ∈ R, (λ, µ) = (0, 0). √ Imponendo la condizione d(C, π ) = 2 si ottiene: Il fascio
λµ = 0,
Capitolo 11
569
e quindi i due piani:
x
− y − 2 = 0,
y
− z − 2 = 0.
Le due rette cercate hanno quindi equazioni:
− −
x y 2=0 x + y + z = 0,
− −
y z 2 = 0 x + y + z = 0.
Nell’esercizio seguente si intendono ricavare le equazioni parametriche di una circonferenza rappresentata come intersezione di un piano e di una sfera, allo scopo, per esempio, di disegnarla agevolmente usando un programma di calcolo simbolico.
C
Esercizio 11.17 Trovare le equazioni parametriche della circonferenza , appartenente al piano π di equazione 2x y + z = 0 , di centro C = (1, 2, 0) e raggio 2 .
−
Soluzione Un vettore parallelo al piano π e` v1 = j + k . Un vettore parallelo a π e ortogonale a v1 invece `e: v2 = v 1
∧ (2i − j + k) = 2 i + 2 j − 2k.
Si considerino i loro versori: u1 =
v1 v2
=
j+k
√ 2
,
u2 =
Una rappresentazione vettoriale parametrica di
v2 v2
=
√ 3− k .
i + j
C e` :
≤ t < 2π, che in componenti, rispetto alla base ortonormale positiva B = (i, j, k), diventa: P = C + 2((cos t)u1 + (sin t)u2 ),
x = 1 +
√ 23 sin t
y = 2 +
√ 23 cos t + √ 23 sin t
z =
√ 22 cos t − √ 23 sin t,
0
0
≤ t < 2π.
Geometria Analitica nello Spazio
570
11.9
Posizione reciproca tra due sfere Fasci di sfere
Geometricamente e` evidente che l’intersezione di due sfere diverse Σ 1 e Σ 2 nello spazio pu`o essere: 1. l’insieme vuoto; 2. un punto, nel qual caso le sfere si dicono tangenti; 3. una circonferenza, nel qual caso le sfere si dicono secanti. La posizione reciproca tra due sfere nello spazio si puo` determinare confrontando la distanza tra i loro centri con la somma e la differenza dei loro raggi, in modo totalmente analogo a quanto illustrato per la determinazione della posizione reciproca di due circonferenze nel piano (cfr. Par. 10.1.3).
Figura 11.21: Due sfere secanti e il loro piano radicale
Capitolo 11
Figura 11.22: Due sfere tangenti esternamente e il loro piano radicale
Figura 11.23: Due sfere tangenti internamente e il loro piano radicale
571
572
Geometria Analitica nello Spazio
Figura 11.24: Due sfere ad intersezione vuota e il loro piano radicale
Figura 11.25: Due sfere ad intersezione vuota e il loro piano radicale
Capitolo 11
573
Date le due sfere Σ 1 e Σ 2 di equazioni:
Σ1 : x 2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, Σ2 : x 2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0, si pu`o anche studiare la loro intersezione considerando le soluzioni del sistema formato dalle due equazioni:
x2 + y2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, x2 + y2 + z 2 + a2 x + b2 y + c2 z + d2 = 0.
che, sottraendo membro a membro, e` equivalente al sistema:
x2 + y2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, (a1 a2 )x + (b1 b2 )y + (c1 c2 )z + d1
−
−
−
− d = 0. 2
Se le due sfere Σ1 e Σ2 non sono concentriche, la seconda equazione del sistema precedente rappresenta un piano π , detto piano radicale della coppia di sfere. Si osserva che: 1. il piano radicale `e ortogonale al vettore: n = (a1
− a ,b − b ,c − c ) 2
1
2
1
2
che `e parallelo alla retta che unisce i centri delle due sfere, detta asse centrale.
∩
C
2. Se Σ1 Σ2 e` una circonferenza , allora il piano radicale coincide con il piano su cui giace . La situazione geometrica e` illustrata nella Figura 11.21.
C
3. Se Σ1 e Σ 2 sono tangenti in un punto P 0 , il piano radicale e` tangente ad entrambe le sfere nel punto P 0 . La situazione geometrica e` illustrata nelle Figura 11.22 e
11.23. 4. Se le due sfere Σ1 e Σ2 non hanno punti in comune, anche il loro piano radicale non ha punti in comune con le due sfere. La situazione geometrica `e illustrata nelle Figure 11.24 e 11.25.
Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere:
Σ1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, Σ2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,
Geometria Analitica nello Spazio
574
la loro combinazione lineare, al variare dei parametri λ e µ :
λ(x2 + y2 + z 2 + a1 x + b1 y + c1 z + d1 ) +µ(x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 ) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0),
(11.26)
rappresenta il fascio di sfere individuato da Σ1 e Σ2 . Si osservi che i parametri λ e µ sono omogenei, vale a dire e` sufficiente individuare il loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per λ = 0 si ha la sfera Σ2 e per µ = 0 si ottiene la sfera Σ 1 . Da (11.26) si ha:
(λ + µ)x2 + (λ + µ)y2 + (λ + µ)z 2 + (λa1 + µ a 2 )x + (λb1 + µb2 )y +(λc1 + µc2 )z + (λd1 + µd2 ) = 0.
(11.27)
−
Pertanto, se λ = µ e le due sfere Σ1 e Σ2 non sono concentriche, l’equazione (11.27) rappresenta il piano radicale individuato dalla coppia di sfere che quindi prende il nome di piano radicale del fascio. Per λ = µ si trova in generale una sfera se il raggio `e positivo o nullo, altrimenti si ottengono sfere immaginarie (cfr. Oss. 11.6). Come nel caso del fascio di circonferenze nel piano. anche per il fascio di sfere si hanno le seguenti propriet`a legate alla posizione reciproca, prima descritta, delle due sfere Σ 1 e Σ 2 :
−
1. se Σ1 e Σ2 hanno il centro nello stesso punto C , il fascio generato da Σ1 e Σ2 e` l’insieme di tutte le sfere di centro C . Questo fascio non definisce alcun piano radicale, a meno di studiare le propriet`a dei fasci di sfere nell’ambito della geometria proiettiva, non trattata in questo testo. Per la definizione e le maggiori propriet`a degli spazi proiettivi si veda ad esempio [17].
2. Se Σ 1 e Σ2 hanno centri diversi, siano, rispettivamente, C 1 e C 2 , il centro di ogni sfera del fascio individuato da Σ 1 e Σ2 appartiene alla retta passante per C 1 e C 2 , detta asse centrale del fascio. Inoltre l’asse centrale e` ortogonale al piano radicale. La verifica di quanto appena affermato e` un semplice esercizio. Si distinguono i seguenti casi.
∩
C
2 a. Se Σ 1 Σ2 e` una circonferenza , tutti gli elementi del fascio individuato da Σ1 e da Σ2 contengono , il fascio contiene il piano radicale di Σ1 e Σ2 e
C
C
tutte e sole le sfere contenti e aventi centro sull’asse centrale (compresa la sfera che ha come cerchio massimo e centro sul piano radicale stesso). La situazione geometrica `e illustrata nella Figura 11.26.
C
∩
2 b. Se Σ1 Σ2 sono tangenti nel punto P 0 , tutti gli elementi del fascio individuato da Σ1 e da Σ2 sono tangenti in P 0 . In questo caso il fascio contiene il piano
Capitolo 11
575
radicale π di Σ1 e Σ2 e tutte e sole le sfere tangenti a π in P 0 (compresa quella di centro P 0 e raggio nullo, che per convenzione si considera tangente a π in P 0 ). La situazione geometrica e` illustrata nella Figura 11.27.
2 c. Se le due sfere Σ1 e Σ2 non hanno punti in comune, il fascio da esse individuato contiene il loro piano radicale e tutte e sole le sfere aventi centro sull’asse centrale del fascio e nessun punto in comune tra di loro e con il piano radicale, La situazione geometrica `e illustrata nella Figura 11.28.
3. Il fascio di sfere riempie lo spazio nel senso che dato un punto P 1 = (x1 , y1 , z 1 ) dello spazio `e possibile individuare un elemento del fascio passante per P 1 , infatti `e sufficiente sostituire le coordinate di P 1 nell’equazione (11.26) e calcolare i valori dei parametri λ e µ . Esempio 11.11 L’esercizio 11.14 pu`o essere risolto anche tramite la nozione di fascio di sfere. Infatti la sfera passante per A = (3, 1, 1) e tangente al piano π : x + y z 1 = 0 nel punto B = (1, 1, 1) appartiene al fascio di tutte le sfere tangenti a π nel punto B , individuato dal piano π e dalla sfera di centro B e raggio 0, di equazione:
− −
λ((x
2
− 1)
+ (y
2
− 1)
+ (z
2
− 1) ) + µ(x + y − z − 1) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
Imponendo il passaggio per il punto A si ha 4λ + 2µ = 0, da cui ponendo λ = 1 e µ = 2 si ritrova la sfera:
−
x2 + y2 + z 2
− 4x − 4y + 5 = 0.
C
−
Esercizio 11.18 Data la circonferenza del piano z + 1 = 0 di centro Q = (2, 3, 1) e raggio r = 3 , determinare le equazioni delle sfere passanti per e tangenti alla retta t : x = y 3 = 0 .
√
C
−
Soluzione equazione:
λ[(x
Le sfere passanti per la circonferenza 2
− 2)
+ (y
2
− 3)
+ (z + 1) 2
C appartengono al fascio di sfere
− 3] + µ(z + 1) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0),
o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale tra le soluzioni) di equazione:
x2 + y2 + z 2
− 4x − 6y + 2z + 11 + k(z + 1) = 0, k ∈ R.
(11.28)
con k = λ/µ. Intersecando la generica sfera del fascio, rappresentato per semplicit`a mediante (11.28), con la retta t si ottiene l’equazione di secondo grado in z :
z 2 + (k + 2)z + 2 + k = 0,
576
Geometria Analitica nello Spazio
Figura 11.26: Fascio di sfere passanti per una circonferenza
Capitolo 11
Figura 11.27: Fascio di sfere tangenti in un punto
577
578
Geometria Analitica nello Spazio
Figura 11.28: Fascio di sfere non aventi punti in comune
Capitolo 11
579
che ha due soluzioni coincidenti se e solo se si annulla il suo discriminante:
∆ = (k + 2) 2 cio`e se e solo se k =
x2
11.10
− 4(k + 2),
±2 . Le sfere cercate hanno allora equazioni: + y + z − 4x − 6y + 2z + 11 ± 2(z + 1) = 0. 2
2
Coordinate polari sferiche
Come nel caso del piano in cui sono state introdotte, per ogni punto P, oltre alla coordinate cartesiane P = (x, y) anche le coordinate polari P = (ρ, θ) (cfr. Par. 9.3), in modo analogo, nello spazio, si possono definire sistemi di coordinate diversi da quello cartesiano. In questo paragrafo saranno descritte le coordinate polari sferiche, che diventeranno fondamentali per la rappresentazione parametrica di figure aventi un centro di simmetria, come ad esempio la sfera, da cui la loro denominazione. Un sistema di coordinate polari sferiche nello spazio `e formato da: 1. un punto O , detto polo, 2. una retta orientata p passante per O , detta asse polare, 3. un semipiano π di origine la retta p , detto semipiano polare. Ad ogni punto P dello spazio (non appartenente all’asse polare) si pu o` associare in modo unico la terna di numeri (ρ,ϕ,θ) , dove: 1. ρ e` la distanza d(O, P ) dal punto P al polo ed e` quindi un numero reale positivo;
∈
2. ϕ [0, 2π) e` l’angolo della rotazione antioraria intorno alla retta p che il semipiano π deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto P ;
∈ [0, π] e` l’angolo tra la retta p ed il vettore −→ OP .
3. θ
La terna di numeri (ρ,ϕ,θ) costituisce le coordinate polari sferiche di P. Per l’analogia con il metodo comunemente usato per determinare la posizione dei punti sulla terra, ρ prende il nome di raggio vettore, ϕ e` la longitudine e θ e` la colatitudine essendo il complementare della latitudine del punto P. La situazione geometrica e` illustrata nella Figura 11.29.
Geometria Analitica nello Spazio
580
P p
Π
Θ
O
Figura 11.29: Sistema di coordinate polari sferiche
Capitolo 11
581
Osservazione 11.8 Se il punto P appartiene all’asse polare, ϕ e` indeterminato e θ = 0 o θ = π . Se P = O , θ e ϕ sono entrambi indeterminati. Se si considera un riferimento cartesiano posizionato in modo opportuno rispetto al riferimento polare sferico si possono determinare, mediante semplici considerazioni geometriche, le relazioni che intercorrono tra le coordinate cartesiane e le coordinate polari sferiche di ogni punto P (non appartenente all’asse polare). Precisamente si pongono: a. il polo O coincidente con l’origine O del sistema di riferimento cartesiano (O,x,y,z ) ;
R =
b. l’asse polare p coincidente con l’asse z ; c. il semipiano polare π coincidente con il semipiano coordinato yz (dalla parte delle y positive). Sia P il punto, proiezione ortogonale di P sul piano coordinato xy , come illustrato nella Figura 11.30 la lunghezza della proiezione ortogonale del vettore OP sul piano
−→
−−→
coordinato xy e` OP = ρ sin θ e quindi le relazioni tra le coordinate cartesiane (x,y,z ) e le coordinate polari sferiche (ρ,ϕ,θ) di P sono:
x = ρ sin θ cos ϕ y = ρ sin θ sin ϕ z = ρ cos θ.
(11.29)
Rispetto al sistema di coordinate polari sferiche appena introdotto, la sfera Σ di centro O e raggio R ha equazione ρ = R. Utilizzando il cambiamento di coordinate (11.29) si trova per Σ la rappresentazione parametrica (con parametri ϕ e θ ) data da:
x = R sin θ cos ϕ y = R sin θ sin ϕ z = R cos θ,
ϕ
∈ [0, 2π), θ ∈ [0, π].
Quindi, la sfera Σ di centro nel punto C = (α , β , γ) e raggio R ha equazioni parametriche:
x = R sin θ cos ϕ + α y = R sin θ sin ϕ + β z = R cos θ + γ,
(11.30)
ϕ
∈ [0, 2π), θ ∈ [0, π].
A tali equazioni si perviene operando mediante una traslazione degli assi, cio`e considerando un nuovo riferimento cartesiano = (C , X , Y , Z) , con origine il centro C della
R
Geometria Analitica nello Spazio
582
z
P Ρ Θ
O y
x
P'
Figura 11.30: Coordinate cartesiane e coordinate polari sferiche di P
Capitolo 11
583
sfera e gli assi X , Y e Z passanti per C , paralleli e concordi rispettivamente a x , y e z . Analogamente al caso delle traslazioni degli assi nel piano (cfr. Par. 9.4) le relazioni che legano le coordinate del generico punto P rispetto ai due riferimenti sono:
11.11
x = X + α y = Y + β z = Z + γ.
Esercizi di riepilogo svolti
Esercizio 11.19 Date le tre rette:
r :
− −
x y = 0 2x z + 5 = 0,
s :
x x
− y + 6 = 0 − 2y + z − 6 = 0,
t :
−
3x 2z + 2 = 0 3y + z 4 = 0,
−
determinare la retta incidente r e s e parallela a t .
Soluzione La retta cercata e` l’intersezione dei due piani π 1 e π 2 , dove π 1 e` il piano per r parallelo a t e π 2 e` il piano per s parallelo a t . Per determinare l’equazione ad esempio del piano π 1 si pu`o osservare che esso appartiene al fascio di piani di equazione:
∈ R, (λ, µ) = (0, 0). Poich´e ogni piano del fascio e` ortogonale al vettore (λ + 2µ, −λ, −µ) e la retta t e` parallela al vettore t = (−2, 1, −3) , si ha che il piano cercato si ottiene imponendo la condizione: (λ + 2µ, −λ, −µ) · t = −3λ − µ = 0, da cui ad esempio λ = 1, µ = −3 . Per determinare π si procede in modo analogo λ(x
− y) + µ(2x − z + 5) = 0,
λ, µ
2
considerando il fascio di piani passanti per la retta s :
λ1 (x
− y + 6) + µ (x − 2y + z − 6) = 0, 1
λ, µ
∈ R, (λ, µ) = (0, 0).
Esercizio 11.20 – Piano assiale di un segmento – Calcolare l’equazione del piano assiale del segmento di estremi A = ( 3, 5, 1), B = (2, 3, 1) .
−
−
Il procedimento da usare e` simile a quello spiegato nel Paragrafo 9.2 nel Soluzione caso di un asse di un segmento nel piano, in alternativa si pu`o determinare l’equazione del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale sia il luogo dei punti P = (x,y,z ) equidistanti da A e B si ha:
(x
+ 3)2
+ (y
−
5)2
+ (z
−
1)2
=
− (x
2)2 + (y + 3) 2 + (z
2
− 1)
584
Geometria Analitica nello Spazio
r
O' H O
Figura 11.31: Simmetrico del punto O rispetto alla retta r
Capitolo 11
585
r
A
K
H
A'
Figura 11.32: Esercizio 11.20
Geometria Analitica nello Spazio
586
da cui segue che l’equazione del piano assiale e` 10x
− 16y + 21 = 0 .
Esercizio 11.21 – Punto simmetrico di un altro punto rispetto ad una retta – Determinare le coordinate del punto O simmetrico dell’origine O rispetto alla retta
r :
x + y + z = 0, x + y 1 = 0.
−
Soluzione Il punto medio M di O e O e` il punto di intersezione della retta r con il piano π passante per O e ortogonale a r . Il piano π ha equazione cartesiana x y = 0, pertanto il punto medio M tra O e O e` :
−
M = quindi si ha O = (1, 1,
−
1 1 , , 1 , 2 2
−2) . La situazione geometrica `e illustrata nella Figura 11.31.
Esercizio 11.22 – Retta simmetrica di un’altra retta rispetto ad un piano – Data la retta:
r :
−
x + y + z 1 = 0 x y = 0,
−
determinare le equazioni della retta s , simmetrica di r rispetto al piano:
π : x + y
− z − 1 = 0
e scrivere l’equazione del piano che contiene sia r sia s .
Soluzione
Sia K il punto di intersezione della retta r con il piano π, dato da:
K =
1 1 , ,0 2 2
e sia A = (0, 0, 1) un punto di r . La retta s, simmetrica di r rispetto a π, e` la retta passante per K e per il punto A simmetrico di A rispetto al piano π . Per determinare il punto A si puo` osservare che il punto medio H tra A e A e` l’intersezione della retta passante per A ortogonale al piano π con il piano π stesso. Quindi, risolvendo il sistema lineare:
x = t y = t z = 1 x+y
−t − z − 1 = 0,
Capitolo 11
si ottiene:
587
− 2 2 1 , , . 3 3 3
H =
Imponendo che H sia il punto medio tra A e A si ha:
A =
4 4 , , 3 3
1 . 3
La retta s e` allora la retta passante per K e A . Il piano che contiene r e s e` il piano passante per i tre punti A , K e A , la cui equazione cartesiana e` :
x
y
z
1 2 4 3
1 2 4 3
−1 0
− 13
= 0.
La situazione geometrica e` illustrata nella Figura 11.32.
Esercizio 11.23 Determinare l’equazione della sfera passante per i punti A = (1, 1, 2) e B = (2, 1, 1) e tangente alla retta:
r :
−
3x 2z + 2 = 0 3y + z 4 = 0
−
nel punto H = (0, 1, 1) . Il centro Q della sfera appartiene alla retta intersezione del piano π 1 per H Soluzione ortogonale a r e del piano assiale π 2 del segmento AB . Il piano π 1 e` dunque ortogonale al vettore n1 = (2, 1, 3) ed ha equazione:
−
2(x
− 0) + (−1)(y − 1) + 3(z − 1) = 0.
Il piano π2 invece, per quanto visto nell’Esercizio 11.20, e` il piano passante per il punto medio M del segmento AB :
M =
−→
−
3 3 , 1, 2 2
e ortogonale al vettore AB = (1, 0, 1) . Pertanto un punto Q appartenente alla retta intersezione di π1 e π2 ha coordinate (t, 5t 2, t) , con t R . Imponendo che Q sia equidistante da A e da H si ottiene t = 1 . La sfera cercata ha quindi equazione:
(x
2
− 1)
+ (y
− 2
− 3)
+ (z
∈
2
− 1)
= 5.
Geometria Analitica nello Spazio
588
Esercizio 11.24 – Circonferenza per tre punti – Determinare le equazioni della circonferenza passante per i tre punti A = (1, 1, 5) , B = (2, 2, 1) , C = (1, 2, 2) .
−
Soluzione La circonferenza e` l’intersezione del piano π per A, B,C con la sfera Σ che ha come centro l’intersezione Q dei tre piani assiali relativi ai segmenti AB , AC, BC . Pi`u precisamente il piano π e` ortogonale al vettore:
−→ −→ AB ∧ AC = ( −15, 3, −3) e quindi ha equazione cartesiana π : 5x − y + z − 9 = 0 . La sfera Σ ha centro nel punto Q , intersezione dei quattro piani:
e raggio d(A, Q) =
√ 6 .
− − −
x + y 4z + 9 = 0 y + z 3 = 0 x + 4y z = 0 5x y + z 9 = 0
−
−
Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2),
1. determinare il luogo dei punti equidistanti da A, B, C . 2. Tra tutte le sfere passanti per A, B, C determinare quella che ha volume minimo. Soluzione
1. Il luogo richiesto `e dato dall’insieme dei punti P = (x,y,x) tali che: d(P, A) = d(P, B) = d(P, C ).
Si tratta, cio`e, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC (e ovviamente AC ). Infatti da d 2 (P, A) = d 2 (P, B) segue:
(x
2
− 2)
+ y 2 + z 2 = x 2 + (y
2
− 2)
+ z 2 ,
da cui:
x
− y = 0,
che `e l’equazione del piano π 1 , piano assiale del segmento AB . Analogamente si ricava l’equazione del piano π 2 , piano assiale del segmento B C :
π2 : y La retta r = π 1
− z = 0.
∩ π ha, pertanto, equazioni parametriche: 2
x = t y = t z = t,
t
∈ R.
Capitolo 11
589
2. Il centro Q di ogni sfera Σ passante per i punti A,B,C appartiene alla retta r determinata nel punto precedente. La sfera di volume minimo e` quella di raggio minimo ρ, dove ρ = AQ . Per trovare il punto Q della retta r che rende minimo il raggio ρ si puo` procedere in due modi.
−→
a. Si osserva che, essendo il piano π1 ortogonale alla retta AB e il piano π2 ortogonale alla retta BC, la retta r e` ortogonale al piano passante per i tre punti A, B,C di equazione x + y + z 2 = 0 e lo interseca nel punto:
−
Q0 =
2 2 2 , , , 3 3 3
che `e il centro della sfera Σ 0 di raggio minimo. Infatti, qualunque sia il punto Q della retta r , con Q = Q0 , si ha:
−→ −−→ Q A < QA 0
perch´e Q0 A e` il cateto del triangolo rettangolo AQ0 Q di ipotenusa QA . Il raggio di Σ 0 e` :
√ 2 6 −−→ ρ = Q A = . 3 0
b. Se Q = (t,t,t), t
0
∈ R, e` un punto della retta r , si ha: −→ ρ = QA = 3t − 4t + 4. 2
2
Per determinare il raggio minimo si calcola il valore di t che annulla la derivata prima di ρ 2 :
dρ2 = 6t dt
− 4,
da cui si trova t = 2/3 e si verifica che per questo valore la funzione ρ 2 (t) ha un minimo. Si perviene cos`ı ai risultati dedotti in precedenza.
Esercizio 11.26 Data la sfera Σ : x 2 + y 2 + z 2 = 2, 1. studiare, al variare di k
∈ R, l’intersezione di Σ con il piano π : y + z = k.
2. Posto k = 4, trovare il punto P di π che ha distanza minima da Σ.
Soluzione 1. Per studiare la posizione reciproca del piano π con la sfera Σ e` sufficiente confrontare la distanza del centro C di Σ dal piano π con il raggio r di Σ.
Geometria Analitica nello Spazio
590
Si ha:
d(C, π) =
| −√ k| , 2
r =
√
2.
Segue che: se k =
±2 il piano π e` tangente alla sfera Σ;
−2 < k < 2, il piano π interseca la sfera Σ in una circonferenza; se k < −2 oppure k > 2 il piano π e` esterno alla sfera Σ. se
2. Poich´e il piano π : y + z = 4 e` esterno alla sfera Σ, il punto P richiesto appartiene alla retta passante per il centro della sfera Σ e ortogonale al piano π . Si trova P = (0, 2, 2). Esercizio 11.27 Determinare le equazioni della circonferenza A = (2, 1, 0) e tangente alla retta:
r :
C passante per il punto
− −
x+y 2 =0 2x + z 3 = 0
nel punto B = (0, 2, 3).
C
Soluzione La circonferenza richiesta puo` essere individuata come intersezione del piano π, passante per A e contenente r, con la sfera Σ avente come cerchio massimo. Il piano π ha equazione:
C
− y + z − 1 = 0. Il centro C di Σ, che coincide con il centro di C , e` il punto comune ai piani π, π piano per B perpendicolare alla retta r e π piano assiale del segmento AB. Si trova √ C = (7, 9, 3). Il raggio di Σ e` ρ = d(C, A) = 7 2. Le equazioni della circonferenza x
1
2
sono:
C :
x2 + y2 + z 2 14x x y + z 1 = 0.
−
−
−
− 18y − 6z + 41 = 0
Esercizio 11.28 Trovare le sfere tangenti nel punto A = (1,
π1 : y + z
−1, 2) al piano:
− 1 = 0,
che intersecano il piano π 2 : z = 0 secondo circonferenze di raggio r = 1.
Soluzione Le sfere richieste sono elementi del fascio centro A e raggio uguale a 0 e dal piano π 1 : 2
F : λ(x
+ y2 + z 2
F individuato dalla sfera di
− 2x + 2y − 4z + 6 ) + µ(y + z − 1) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
Capitolo 11
591
La generica sfera del fascio ha centro nel punto:
Q =
− 1,
−
2λ + µ 4λ µ , 2λ 2λ
e raggio:
ρ =
√ 2µ 2λ
,
per λ = 0 si ha solo il piano π1 . Le sfere che intersecano il piano π2 secondo circonferenze di raggio r = 1 sono quelle che verificano la condizione:
d2 (Q, π) + r2 = ρ 2 , cio`e:
−
4λ µ 2 2µ2 +1 = 2. 2λ 4λ Si trova λ = 1, µ = 2 e anche λ = 1, µ = 10.
−
Esercizio 11.29 Fra tutte le sfere passanti per la circonferenza:
C :
x2 + y2 + z 2 9 = 0 2x + 4y + 4z 9 = 0
√
− −
determinare quelle di raggio pari a 3 3 .
F di sfere passanti per la circonfe-
Le sfere cercate appartengono al fascio Soluzione renza di equazione:
C F : λ(x
2
+ y2 + z 2
− 9) + µ(2x + 4y + 4z − 9) = 0,
λ, µ
∈ R, (λ, µ) = (0, 0).
Poich´e nella soluzione dell’esercizio λ non potr`a assumere il valore 0 , che corrisponde al piano radicale del fascio, conviene, per semplificare i calcoli, riscrivere l’equazione del fascio di sfere usando il solo parametro k = µ/λ , vale a dire:
x2 + y2 + z 2
− 9 + k(2x + 4y + 4z − 9) = 0, k ∈ R,
da cui si ottiene:
x2 + y2 + z 2 + 2kx + 4ky + 4kz
− 9(1 + k) = 0, k ∈ R.
Il raggio r della generica sfera del fascio risulta verificare la relazione r 2 = 9k 2 +9(1+k) . Imponendo la condizione richiesta si ottiene k 2 + (1 + k) 3 = 0 le cui soluzioni sono k = 2 che danno luogo alle due sfere:
±
−
Σ1 : x 2 + y2 + z 2 Σ2 : x 2 + y2
che risolvono il problema.
− 4x − 8y − 8x + 9 = 0 + z + 2x + 4y + 4z − 18 = 0, 2
Geometria Analitica nello Spazio
592
11.12
Per saperne di pi`u
11.12.1
Baricentro geometrico di punti
In questo paragrafo si introduce la definizione di baricentro (geometrico) di n punti nello spazio e se ne studiano le propriet`a, per ottenere, come caso particolare, le formule mediante le quali si determinano le coordinate del punto medio di due punti, del baricentro di un triangolo e del baricentro di un tetraedro.
Definizione 11.1 Il baricentro (geometrico) di n punti P 1 , P 2 , . . . , Pn nello spazio e` il punto G cos`ı definito:
1 −−→ −−→ −→ −−→ OG = OP + OP + . . . + OP , n
con O punto fissato.
1
2
n
(11.31)
La definizione di baricentro di n punti, appena enunciata, sembra dipendere in modo essenziale dalla scelta del punto O, invece il teorema che segue afferma il contrario.
Teorema 11.3 La formula (11.31) che definisce il baricentro degli n punti P 1 , P 2 , . . . , Pn non dipende dal punto O scelto. Sia O un punto diverso da O, si ponga:
Dimostrazione
−−→ −−−→ 1 −−→ −−→ OG = O P + O P + . . . + O P ,
n
1
2
n
(11.32)
la tesi consiste nel dimostrare che G = G . Tenendo conto che dalla definizione di somma di vettori si ha per ogni punto P i con i = 1, 2, . . . , n :
−−→ −−→ −−→ O P = OP + OO ,
i
i
da (11.32) segue:
−−→ −−→ 1 −OP −→ + −OP −→ + . . . + −−→ O G = OO + OP
n
da cui la tesi.
1
2
n
−−→ −→
= OO + OG,
Essendo indifferente la scelta del punto O per la determinazione del baricentro di n punti P 1 , P 2 , . . . , Pn si pu`o scegliere O = G , infatti vale il seguente teorema la cui dimostrazione `e lasciata al Lettore per esercizio.
Capitolo 11
593
Teorema 11.4 G e` il baricentro dei punti P 1 , P 2 , . . . , Pn se e solo se:
−GP −→ + −GP −→ + . . . + −−→ GP = o , 1
2
n
(11.33)
dove con o si indica il vettore nullo dello spazio vettoriale V 3 .
Si procede ora con la determinazione del baricentro di due punti, di tre punti e di quattro punti come esempi della definizione e dei teoremi appena enunciati.
Baricentro di due punti P 1 , P 2 – Da (11.33) si ha che il baricentro di due punti P 1 , P 2 verifica la relazione: (11.34) GP 1 + GP 2 = o
−−→ −−→
da cui segue che G e` il punto medio del segmento di estremi P 1 , P 2 .
Baricentro di tre punti P 1 , P 2 , P 3 – Da (11.33) segue che il baricentro di tre punti P 1 , P 2 , P 3 verifica la relazione:
−GP −→ + −GP −→ + −GP −→ = o. 1
2
3
(11.35)
Se G 1 e` il baricentro dei punti P 1 , P 2 , da (11.34) e da (11.35) si ottiene:
−GP −→ + −GP −→ + −GP −→ −−−→ −−→ −−−→ −−→ −−−→ −−→ = G P + G G + G P + G G + G P + G G −−→ −−−→ = 3 G G + G P = o , 1
2
1
1
3
1
1
1
1
da cui:
2
1
1
3
1
3
−G−−P → = 3 −−→ GG , 1 3
1
che esprime una ben nota propriet`a che caratterizza il baricentro di un triangolo, provando cos`ı che la definizione (11.31) coincide con l’usuale concetto di baricentro di un triangolo. La situazione geometrica descritta `e illustrata nella Figura 11.33.
Baricentro di quattro punti P 1 , P 2 , P 3 , P 4 – Da (11.33) segue che il baricentro di quattro punti P 1 , P 2 , P 3 , P 4 verifica la relazione:
−GP −→ + −GP −→ + −GP −→ + −GP −→ = o. 1
2
3
4
(11.36)
Procedendo come nel caso del calcolo del baricentro di tre punti descritto in precedenza e indicando con G 1 il baricentro dei tre punti P 1 , P 2 , P 3 si ottiene:
−G−−P → = 4 −−→ GG , 1 4
1
Geometria Analitica nello Spazio
594
P2
G1 G
P1 P3
Figura 11.33: Baricentro dei tre punti P 1 , P 2 , P 3 che corrisponde ad una ben nota propriet`a geometrica che caratterizza il baricentro del tetraedro di vertici P 1 , P 2 , P 3 , P 4 . La situazione geometrica e` illustrata nella Figura
11.34. Infine si osservi che dalla formula (11.31) si ottengono le espressioni in coordinate del baricentro di due punti, di tre punti e di quattro punti elencate all’inizio di questo capitolo.
11.12.2
Potenza di un punto rispetto ad una sfera
In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una sfera, concetto analogo a quello di potenza di un punto rispetto ad una circonferenza nel piano definito nel Paragrafo 10.6.1.
Definizione 11.2 La potenza di un punto P 0 = (x0 , y0 , z 0 ) rispetto ad una sfera Σ di equazione x 2 + y 2 + z 2 2αx 2βy 2γz + δ = 0 e` il numero reale p(P 0 ) che si ottiene sostituendo il valore delle coordinate del punto P 0 nell’equazione della sfera, ossia:
−
−
−
p(P 0 ) = x 20 + y02 + z 02
− 2αx − 2βy − 2γz + δ. 0
0
0
Il teorema che segue permette di interpretare geometricamente la potenza di un punto rispetto ad una sfera.
Teorema 11.5 Data la sfera Σ di centro C e raggio r , la potenza di un punto P 0 rispetto a Σ e` data da:
p(P 0 ) = d(P 0 , C )2
−r
2
Capitolo 11
595
P4
G P3
G1 P2 P1
Figura 11.34: Baricentro dei quattro punti P 1 , P 2 , P 3 , P 4
596
Geometria Analitica nello Spazio
dove d(P 0 , C ) indica la distanza del punto P 0 dal centro C .
Dimostrazione La dimostrazione e` ovvia tenendo conto che la sfera Σ e` il luogo dei punti P tale che d(P, C )2 = r 2 . Osservazione 11.9 1. Bench´e il teorema precedente sia di ovvia dimostrazione, esso e` molto importante perch´e assicura un metodo facile per individuare la posizione dei punti nello spazio rispetto ad una sfera assegnata. Infatti la potenza di un punto rispetto ad una sfera `e un numero strettamente positivo se e solo se il punto `e esterno alla sfera, la potenza di un punto rispetto ad una sfera e` uguale a 0 se e solo se il punto giace sulla superficie sferica, la potenza di un punto rispetto ad una sfera e` negativa se e solo se il punto e` interno alla superficie sferica. Per esempio, data la sfera:
Σ : x 2 + y2 + z 2
− 2x − 4y − 2z + 5 = 0,
si ha che il punto A = (2, 4, 3) ha potenza pari a 8 rispetto a Σ e, quindi, e` esterno a Σ , invece il punto B = (1, 3, 1) ha potenza pari a 0 , quindi appartiene a Σ . In altri termini si pu o` immaginare che la sfera divida lo spazio in tre regioni: quella dei punti di potenza zero (appartenenti alla sfera), quella dei punti con potenza negativa (interni alla sfera) e quella dei punti a potenza positiva (esterni alla sfera). Si osservi infine che questa caratterizzazione dei punti dello spazio, rispetto ad una superficie assegnata, `e gi`a stata ottenuta nel Paragrafo 11.18 considerando un piano e la distanza, con segno, di ogni punto dello spazio dal piano, e si pu`o dimostrare che e` valida anche per altre superfici chiuse. D’altra parte, nel Paragrafo 10.6.1 e` stata ricavata la stessa caratterizzazione dei punti del piano rispetto ad una circonferenza. ` evidente che il luogo dei punti che hanno uguale potenza rispetto a due sfere 2. E assegnate coincide con il piano radicale definito dalla due sfere (cfr. Par. 11.9). Invece, l’esercizio seguente e` volto a determinare i punti di uguale potenza rispetto a tre sfere.
Esercizio 11.30 Determinare il luogo dei punti P dello spazio aventi la stessa potenza rispetto alle tre sfere:
Σ1 : x 2 + y2 + z 2
− 2y − 4z + 114 = 0
Σ2 : x 2 + y2 + z 2
=0 − 2x − 2z − 31 25
Σ3 : x 2 + y2 + z 2
59 − 4x − 2y + 100 = 0.
Capitolo 11
Figura 11.35: Esercizio 11.29
597
Geometria Analitica nello Spazio
598
Soluzione Il luogo dei punti richiesto e` formato dai punti P = (x,y,z ) che appartengono all’intersezione dei tre piani radicali determinati da Σ 1 , Σ2 e Σ 3 , vale a dire:
2x
− 2y − 2z + 399 =0 100
4x
− 4z + 216 =0 100
2x + 2y
− 2z − 183 =0 100
I tre piani appartengono allo stesso fascio proprio, l’asse di questo fascio e` il luogo dei punti richiesto. La situazione geometrica `e illustrata nella Figura 11.35.
Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate `e sempre una retta?
11.12.3
Sfere in dimensione quattro
In questo paragrafo si intende dare qualche cenno, molto intuitivo e a volte poco rigoroso, di geometria analitica in dimensione maggiore di 3 . Per una trattazione approfondita si rimanda a testi piu` avanzati, quali ad esempio [11] e [13]. Si immagini di costruire uno spazio affine (di punti) analogo a quanto descritto all’inizio di questo capitolo, basato pero` su uno spazio vettoriale euclideo di dimensione 4 riferito ad una base ortonormale . Si definisce un riferimento cartesiano fissando un punto O a cui si immaginano applicati i vettori della base , O e` l’origine del riferimento. Ad ogni punto P di questo spazio si possono associare quattro coordinate cartesiane che coincidono con le componenti del vettore OP rispetto alla base , sia, ad esempio P = (x , y , z , t). In questo ambiente e` quindi possibile, grazie al prodotto scalare, introdurre in modo totalmente analogo a quanto visto nel caso della dimensione 3, il concetto di iperpiano, che sar`a quindi rappresentato da un’equazione lineare del tipo:
B
B
−→
ax + by + cz + dt + e = 0,
B
a, b, c, d, e
∈ R,
l’intersezione di due iperpiani non paralleli sar`a un piano affine (proprio lo stesso tipo di piano caratterizzato dal Teorema 11.1 nel caso dello spazio affine S 3 ), l’intersezione di tre iperpiani opportunamente scelti sar a` una retta affine.
−−→
` quindi possibile, in La distanza tra due punti P 1 e P 2 e` pari alla norma del vettore P 1 P 2 . E questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicher`a con S 4 , introdurre il concetto di ipersfera, definita come il luogo dei punti P tali da
Capitolo 11
599
mantenere fissa la distanza di P da un punto fissato C , il centro. Per esempio, l’ipersfera Σ di centro l’origine e raggio R ha equazione:
Σ : x 2 + y2 + z 2 + t2 = R 2 . L’intersezione di una ipersfera con un iperpiano (se essi si intesecano) dar a` luogo alla sfera introdotta nel Paragrafo 11.7.1. Si intende ora mettere in relazione l’ipersfera di centro O e raggio 1 con il gruppo di matrici: 2,2
{ ∈ C |
SU (2) = P
t
P P = I , det(P ) = 1
}
introdotto nel Paragrafo 5.5.2 e dimostrare che i due insiemi in realt`a coincidono. In altri termini il gruppo SU (2), cos`ı come il gruppo U (1) (cfr. Cap. 9) e` identificabile ad una sfera opportuna. Sia:
∈
P =
z 1 z 2 z 3 z 4
,
z 1 , z 2 , z 3 , z 4
C,
una generica matrice appartenente ad S U (2) . La condizione: t
P P =
si traduce nel sistema:
z 1 z 3 z 2 z 4
z 1 z 2 z 3 z 4
=
1 0 0 1
z 1 z 1 + z 3 z 3 = 1 z 1 z 2 + z 3 z 4 = 0 z 2 z 2 + z 4 z 4 = 1.
(11.37)
Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio i vari casi particolari), dalla seconda equazione di (11.37) si ricava:
z 1 =
− z z z
z 3 =
− z z z .
e:
3 4
(11.38)
2
1 2
(11.39)
4
Sostituendo (11.38) nella condizione ulteriore:
det(P ) = z 1 z 4
− z z = 1 2 3
segue:
z 3 =
−z . 2
(11.40)
600
Geometria Analitica nello Spazio
Sostituendo (11.39) in (11.40) si ha anche:
z 1 = z 4 . Di conseguenza si ottiene che le generiche matrici P di S U (2) devono essere del tipo:
P =
z 1 z 2 z 2 z 1
−
,
con det(P ) = z 1 z 1 + z 2 z 2 = 1. Ponendo:
z 1 = x + iy,
z2 = z + it,
x, y , z , t
∈ R,
e sostituendo nella condizione det(P ) = 1 si ottiene:
z 1 z 1 + z 2 z 2 = x 2 + y2 + z 2 + t2 = 1, pervendo cos`ı all’identificazione di S U (2) con l’ipersfera di centro O e raggio 1 in S 4 . Mentre e` facilmente intuibile che si possano definire ipersfere in spazi affini associati a spazi vettoriali di dimensione superiore a 4 non e` in generale possibile identificare i loro punti con gruppi di matrici. Infatti un famosissimo teorema (Teorema di Adams [13]) afferma che ci`o e` solo possibile nei tre casi descritti in questo testo e precisamente 1, 1 che rappresenta la circonferenza di centro U (1), SU (2) e, ovviamente O(1) = l’origine e raggio pari a 1 sulla retta affine S 1 .
{− }
Capitolo 12 Coni, Cilindri, Superfici di Rotazione e Quadriche Nel capitolo precedente si sono studiate le rappresentazioni in forma cartesiana e parametrica delle rette, dei piani, delle sfere e delle circonferenze nello spazio. Le rette e le circonferenze sono esempi di curve, i piani e le sfere sono esempi di superfici. In questo capitolo si affronteranno, in generale, alcuni aspetti elementari della rappresentazione delle curve e delle superfici nello spazio, esaminandone facili problemi di intersezione e di proiezione. In particolare, si studieranno le equazioni dei coni, dei cilindri e delle superfici di rotazione in due modi diversi a seconda della rappresentazione cartesiana o parametrica di una curva che concorre alla loro determinazione. Si accenner`a, inoltre, allo studio delle superfici rigate. Invece si proporr`a in modo completo la classificazione delle quadriche, che sono le superfici rappresentabili mediante equazioni di secondo grado, con una trattazione simile a quella gi a` vista nel Capitolo 10 nel caso delle coniche per la loro riduzione in forma canonica. Questo capitolo vuole essere un primo approccio, a volte solo intuitivo, come per esempio nel caso della definizione proposta di piano tangente ad una superficie, allo studio delle curve e delle superfici nello spazio, argomento di estrema complessit`a ma di grande fascino, accresciuto ultimamente dalle sorprendenti applicazioni che sono derivate dalla rappresentazione grafica di curve e superfici mediante adeguati programmi di calcolo simbolico.
12.1
Cenni sulla rappresentazione di curve e superfici
In tutto questo capitolo, a meno di dichiarazione contraria, si considera un riferimento = (O,x,y,z ) o, in modo equivalente, un riferimento = (O, i, j, k), cartesiano intendendosi con = (i, j, k) una base ortonormale positiva dello spazio vettoriale V 3 dei vettori ordinari su cui `e costruito lo spazio affine di punti che si sta considerando.
R
R
B
601
Coni, Cilindri, Superfici di Rotazione e Quadriche
602
Nel Capitolo 11 si e` visto che un piano o una sfera, rispetto ad un sistema di riferimento = (O,x,y,z ), si possono rappresentare nei due modi seguenti: cartesiano
R
1. in forma parametrica mediante tre equazioni in x,y,z contenenti due parametri indipendenti, 2. in forma cartesiana, mediante un’unica equazione nelle tre coordinate x, y,z . Infatti, in generale, tre equazioni con due parametri indipendenti u e v definiti su un sottoinsieme D di R 2 del tipo:
x = x(u, v) y = y(u, v) z = z (u, v),
(u, v)
∈ D ⊆ R
2
S
S
rappresentano una superficie dello spazio e si dicono equazioni parametriche di . Sono esempi di rappresentazione parametrica di una superficie le equazioni parametriche del piano (11.3) e le equazioni parametriche della sfera (11.30). Inoltre, una superficie si pu`o anche rappresentare mediante un’equazione del tipo:
f (x,y,z ) = 0, con f : R 3 R funzione qualsiasi, tale rappresentazione prende il nome di equazione cartesiana della superficie.
−→
C
Come gi`a visto per le rette e le circonferenze, una curva nello spazio pu o` essere rappresentata, rispetto ad un riferimento cartesiano = (O,x,y,z ), in due modi diversi, o come intersezione di due superfici:
R
C :
f (x,y,z ) = 0 g(x,y,z ) = 0,
dove sia f sia g sono funzioni qualsiasi di dominio R 3 e codominio R , o in forma parametrica, mediante le equazioni parametriche date al variare di un solo parametro t in un intervallo I di R :
C :
x = x(t) y = y(t) z = z (t),
t
∈ I ⊆ R.
In generale, non e` semplice passare da una rappresentazione parametrica di una curva o di una superficie alla sua equazione cartesiana o viceversa, infatti potrebbero sorgere problemi. Per esempio, anche nel caso pi`u semplice delle curve piane, la curva di equazioni parametriche:
Capitolo 12
x = 1 + t + t5 y = 1 + 2t + 3t5 z = 0, t
603
∈ R,
non ha una ovvia rappresentazione come intersezione di superfici. Anche la circonferenza appartenente al piano xy , di centro l’origine e raggio r, che si pu`o rappresentare in forma cartesiana come intersezione della sfera e del piano dati dal sistema:
x2 + y2 z = 0,
−r
2
=0
puo` costituire un problema, infatti essa ammette infinite rappresentazioni parametriche, anche molto dissimili, per esempio:
oppure:
12.2
Il cono
x = r cos t y = r sin t z = 0, t 1 s2 x = r 1 + s2 2s y = r 1 + s2 z = 0, s
∈ R,
−
∈ R.
In questo paragrafo si introducono i coni come luoghi geometrici dello spazio definiti da funzioni omogenee di grado k nelle variabili x, y,z . In particolare si studieranno i coni circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano.
C
C
Definizione 12.1 Sia una curva nello spazio e V un punto non appartenente a . Il cono di vertice V e direttrice e` il luogo delle rette che uniscono V ad ogni punto di . Le rette sono dette generatrici del cono e ogni curva (non solo ) che incontra tutte le generatrici prende il nome di direttrice del cono.
C
C
C
Si procede ora con la determinazione dell’equazione cartesiana e delle equazioni parametriche del cono, distinguendo i casi in cui la direttrice sia data come intersezione di due superfici o in forma parametrica.
Coni, Cilindri, Superfici di Rotazione e Quadriche
604
V
P
P0
Figura 12.1: Generatrici del cono di vertice V e direttrice V P 0
Primo Caso forma:
Sia
C la direttrice di un cono data dall’intersezione di due superfici nella
C :
f (x,y,z ) = 0 g(x,y,z ) = 0,
con f e g funzioni da R3 in R, sia P 0 = (x0 , y0 , z 0 ) un punto di e V = (α , β , γ) il vertice del cono, la retta P 0 V e` dunque una generatrice del cono. Se P = (x,y,z ) e` il generico punto del cono, la condizione di allineamento dei punti P 0 , P , V si ottiene dalle seguenti equazioni in forma parametrica:
C
− − −
x0 = α + t(x α) y0 = β + t(y β ) z 0 = γ + t(z γ ),
t
∈ R,
C
dove le coordinate di P 0 variano su , perci`o:
f (x0 , y0 , z 0 ) = 0 g(x0 , y0 , z 0 ) = 0.
La situazione geometrica e` illustrata nella Figura 12.1. Eliminando i parametri x 0 , y0 , z 0 e t dal sistema:
Capitolo 12
605
− − −
x0 = α + t(x α) y0 = β + t(y β ) z 0 = γ + t(z γ ) f (x0 , y0 , z 0 ) = 0 g(x0 , y0 , z 0 ) = 0
si ottiene l’equazione cartesiana del cono. Si osservi che, anche se esistono infinite generatrici e infinite direttrici, l’equazione del cono cos`ı ottenuta non dipende dalla scelta della direttrice e della generatrice.
Figura 12.2: Esercizio 12.1
Coni, Cilindri, Superfici di Rotazione e Quadriche
606
Esercizio 12.1 Scrivere l’equazione del cono avente come direttrice la curva:
C :
x2 + y2 + z 2 9 = 0 x+y 2 =0
−
−
e vertice V = (0, 0, 0) .
C
Se P 0 = (x0 , y0 , z 0 ) e` un punto di , i punti P 0 , P , V sono allineati se e solo
Soluzione se:
da cui si perviene al sistema:
x0 = xt y0 = yt z 0 = zt,
t
∈ R,
x0 = xt y0 = yt z 0 = zt x20 + y02 + z 02 9 = 0 x0 + y0 2 = 0.
−
−
Eliminando i parametri x 0 , y0 , z 0 , segue:
t2 (x2 + y2 + z 2 ) 9 = 0 t(x + y) 2 = 0,
−
−
ricavando t dalla seconda equazione e sostituendo tale valore nella prima si ottiene:
5x2 + 5y2
2
− 4z + 18xy = 0
che `e l’equazione del cono, rappresentato nella Figura 12.2 . Si osservi che l’equazione del cono ottenuta nell’esercizio precedente `e di secondo grado ed e` omogenea in x, y,z nel senso che e` somma di monomi dello stesso grado; la definizione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione omogenea in x, y,z rappresenta un cono di vertice l’origine O = (0, 0, 0) del riferimento = (O,x,y,z ) e viceversa. cartesiano
R
Definizione 12.2 Una funzione f : R3 grado k , ( k R ), se:
∈
−→ R nelle variabili x, y,z , si dice omogenea di
f (tx,ty,tz ) = t k f (x,y,z ),
Capitolo 12
607
per ogni valore reale di t, x, y,z .
1. I polinomi che sono somma di monomi dello stesso grado k e con Esempio 12.1 termine noto uguale a zero sono funzioni omogenee di grado k . Per esempio il polinomio x 3 4y 3 xyz e` una funzione omogenea di grado 3 .
−
−
2. Ogni applicazione lineare f : R 3. Se ψ : R2
−→ R e` una funzione omogenea di grado 1.
−→ R e` una funzione qualsiasi, allora la funzione: f : R × R × (R − {0}) −→ R, (x,y,z ) −→ ψ
x y , z z
e` omogenea di grado zero, vale a dire f (tx,ty,tz ) = f (x,y,z ) per ogni t reale.
R
= (O,x,y,z ), tutti e soli i luoghi geomeTeorema 12.1 In un riferimento cartesiano trici dei punti P = (x,y,z ) dello spazio tali che: f (x,y,z ) = 0, dove f : R3 R e` una qualsiasi funzione omogenea di grado k ( k no un cono di vertice l’origine O del riferimento.
∈ R ), rappresenta-
−→
Dimostrazione
Sia P = (x0 , y0 , z 0 ) un punto della superficie
S di equazione:
S : f (x,y,z ) = 0, con f funzione da R3 in R omogenea di grado k . La retta r che unisce il punto P con l’origine O ha equazioni parametriche:
r :
x = tx 0 y = ty0 z = tz 0 ,
t
∈ R,
cio`e le coordinate di ogni suo punto sono date da (tx0 , ty0 , tz 0 ) , al variare del parametro t R . Per l’omogeneit`a di f il punto (tx0 , ty0 , tz 0 ) appartiene alla superficie in quanto f (tx0 , ty0 , tz 0 ) = 0 . Ne segue che la retta r giace sulla superficie . Variando il punto P sulla superficie, tutte le rette che uniscono P all’origine del riferimento O giacciono sulla superficie stessa e ci`o prova che e` un cono con vertice in O .
∈
S
S
S
Viceversa, si tratta di dimostrare che un cono di vertice l’origine O e` rappresentato da un’equazione del tipo f (x,y,z ) = 0 , con f funzione omogenea da R3 in R. Infatti se g(x,y,z ) = 0 e` l’equazione cartesiana di un cono di vertice O , allora la curva:
C :
g(x,y,z ) = 0 z 1 = 0
−
608
Coni, Cilindri, Superfici di Rotazione e Quadriche
e` una direttrice del cono. Procedendo con il metodo descritto in precedenza per calcolare l’equazione cartesiana del cono di direttrice e vertice l’origine O, si consideri un punto P 0 = (x0 , y0 , z 0 ) appartenente a ossia:
C
C
g(x0 , y0 , z 0 ) = 0 z 0 1 = 0
−
e si scrivano le equazioni parametriche della retta OP date da:
x0 = tx y0 = ty z 0 = tz,
(12.1)
t
∈ R.
Dalle equazioni z 0 = 1 e da z 0 = tz segue:
t =
1 . z
(12.2)
Sostituendo in g(x0 , y0 , z 0 ) = 0 le equazioni (12.1) e (12.2) si ha:
g(x0 , y0 , z 0 ) = g Ponendo:
f (x,y,z ) = g
x y , , 1 . z z
x y , , 1 z z
si ottiene che la funzione f, che definisce il cono, `e una funzione omogenea di grado zero (cfr. Es. 12.1).
Esempio 12.2 L’equazione x 2 +y 2 = z 2 rappresenta il cono di vertice l’origine illustrato nella Figura 12.3 Le circonferenze di equazioni:
z = k x2 + y2 = k 2 ,
∈ R,
k
sono direttrici del cono. Si tratta di un cono circolare retto (cfr. Par. 10.3) e lo si puo` anche ottenere dalla rotazione completa della retta passante per l’origine del riferimento e per il punto di coordinate (1, 0, 1) intorno all’asse z (cfr. Par. 12.4), per questo motivo l’asse z e` l’asse del cono.
Esempio 12.3 Si osservi che l’equazione z = x2 + y 2 rappresenta solo la met`a superiore (verso il semiasse positivo delle quote) del cono descritto nell’esempio precedente.
Capitolo 12
Figura 12.3: Esempio 12.2
609
Coni, Cilindri, Superfici di Rotazione e Quadriche
610
Osservazione 12.1 L’equazione di un cono di vertice V = (α , β , γ) che non sia l’origine del riferimento e` anch’essa determinata da una funzione con particolari propriet`a. Infatti se si considera il riferimento cartesiano = (V , X , Y , Z ) ottenuto mediante la = (O,x,y,z ) di equazioni: traslazione del riferimento cartesiano
R
R
x = X + α y = Y + β z = Z + γ
in cui l’origine del riferimento coincide con il vertice V del cono, l’equazione del cono di vertice V , scritta nel riferimento , e` :
R
R
f (X , Y , Z ) = 0, con f : R3 R funzione omogenea di grado k , k traslazione si ha:
−→
∈ R. Sostituendo le equazioni della
− α, y − β, z − γ ) = 0 che e` l’equazione del cono di vertice V nel riferimento R , pertanto f e` una funzione omogenea di grado k nelle variabili (x − α, y − β, z − γ ) . Per esempio (x − 1) + (y + 1) = z e` l’equazione del cono circolare retto con vertice nel punto V = (1, −1, 0) . Secondo Caso Se la direttrice C del cono `e data in forma parametrica: f (x
2
2
C :
2
x = x(t) y = y(t) z = z (t),
la retta passante per il punto generico P di descritta dalle equazioni:
(12.3)
t
∈ I ⊆ R,
C e per il vertice V = (α , β , γ) del cono e`
x = α + s(x(t) y = β + s(y(t) z = γ + s(z (t)
− α) − β ) − γ ),
(12.4)
s
∈ R, C
che rappresentano le equazioni parametriche del cono di vertice V e direttrice . Eliminando da tali equazioni i parametri t ed s si ottiene l’equazione cartesiana del cono. Si osservi che se in (12.4): 1. si fissa t = t 0 si hanno le equazioni parametriche della generatrice P 0 V del cono, dove P 0 e` il punto di che si ottiene sostituendo in (12.3) al parametro t il valore
t0 ;
C
Capitolo 12
611
2. si fissa s = s0 si hanno le equazioni parametriche di una curva direttrice del cono.
Esercizio 12.2 Scrivere l’equazione del cono di vertice V = (0, 0, 0) e direttrice la curva:
C ∈C :
x = t + 1 y = t 1 z = t 2 1,
− −
(12.5)
t
∈ R.
Soluzione Osservato che V / , si considera il punto generico P = (t+1, t 1, t2 di e si scrivono le equazioni parametriche della retta P V :
C
−
x = (t + 1)s y = (t 1)s z = (t2 1)s,
− −
t, s
− 1)
∈ R,
che rappresentano anche le equazioni parametriche del cono e che sono utili, per esempio, per rappresentare graficamente il cono mediante programmi di calcolo simbolico (cfr. Fig. 12.4 ). Per pervenire, invece, all’equazione cartesiana del cono si devono eliminare i parametri t, s dalle equazioni parametriche, per esempio procedendo in questo modo, da (12.5) si ha:
y t ossia:
−1
=
(t + 1)y (t + 1)z
z t2
−1
=
x , t+1
− (t − 1)x = 0 − (t − 1)x = 0. 2
Dalla prima equazione si deduce:
t =
x+y , x y
−
che, sostituita nella seconda, d a` luogo all’equazione cartesiana del cono:
2x2 z
2
− 2xyz − 4x y = 0.
Esempio 12.4 L’equazione x + y + z = 0 rappresenta un piano π passante per l’origine, ma `e anche un cono (infatti `e un’equazione omogenea). Il suo vertice `e un punto qualsiasi del piano π, una direttrice e` una qualsiasi circonferenza di π avente il vertice nel suo interno, oppure contenente il vertice. Si osservi che il cono di vertice un punto del piano e direttrice una retta dello stesso piano non contenente il vertice `e il piano stesso privato di una retta (quale?).
612
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.4: Esercizio 12.2
Capitolo 12
Figura 12.5: Esempio 12.5
613
614
Coni, Cilindri, Superfici di Rotazione e Quadriche
Esempio 12.5 L’equazione xyz = 0 rappresenta un cono essendo un’equazione omogenea, d’altra parte essa e` anche l’unione dei tre piani coordinati. Si pu o` vedere come il cono di vertice l’origine e direttrice la curva:
xyz = 0 x2 + y2 + z 2 = 1,
sia l’unione di tre circonferenze. Il cono considerato `e rappresentato nella Figura 12.5.
12.2.1
Cono tangente ad una sfera
Dati una sfera Σ di equazione x2 +y 2 +z 2 +ax+by+cz +d = 0 e un punto V = (α , β , γ) esterno a Σ, si vuole determinare l’equazione del cono di vertice V circoscritto alla sfera Σ, beninteso dopo aver risolto l’esercizio che segue.
Esercizio 12.3 Come si fa a verificare che V e` esterno a Σ ? Intersecando la generica retta passante per il vertice V , di equazioni parametriche:
x = α + lt y = β + mt z = γ + nt,
t
∈ R,
con la sfera Σ si ottiene un’equazione di secondo grado nel parametro t . Si hanno due intersezioni coincidenti (ossia la retta tangente a Σ ) imponendo che il discriminante ∆ dell’equazione cos`ı ottenuta si annulli:
∆ =0
(12.6)
e questa non `e altro che un’equazione di secondo grado in l,m, n . Poich´e:
x
− α = y − β = z − γ l
−
−
m
n
−
si sostituisce a l : x α , a m : y β , a n : z γ . Tale sostituzione `e possibile in quanto l’equazione (12.6) e` omogenea. Si perviene cos`ı all’equazione del cono cercata.
Esercizio 12.4 Scrivere l’equazione del cono di vertice V = (2, 0, 0) circoscritto alla sfera:
Σ : x2 + y2 + z 2
− 1 = 0.
Capitolo 12
Figura 12.6: Esercizio 12.4
615
Coni, Cilindri, Superfici di Rotazione e Quadriche
616
Soluzione
La generica retta r passante per V ha equazioni parametriche:
x = 2 + lt y = mt z = nt, t
∈ R.
Intersecando r con Σ si ha l’equazione di secondo grado:
(l2 + m2 + n2 )t2 + 4lt + 3 = 0, il cui discriminante `e:
∆ = l 2 4 Con la sostituzione di x cono cercata:
2
2
− 3m − 3n
= 0.
− 2, y , z al posto di l,m, n , rispettivamente, si ha l’equazione del 2
2
2
− 2) − 3y − 3z = 0. Si osservi che si ottiene un’equazione omogenea in x − 2, y , z , in accordo con l’Osserva(x
zione 12.1. La superficie e` rappresentata nella Figura 12.6 .
12.2.2
Proiezione di una curva da un punto su un piano
C
Data una curva nello spazio la sua proiezione da un punto P su un piano π e` la curva che si ottiene dall’intersezione del piano π con il cono di vertice P e direttrice .
C
Esercizio 12.5 Determinare le equazioni della curva proiezione di:
C :
x = t 1 t z = t 3 , y =
∈ R − {0} sul piano π : x − y + 2z − 1 = 0 dal punto P = (2, 4, −6) . Soluzione
t
Si scrivono le equazioni parametriche del cono:
Capitolo 12
Figura 12.7: Esercizio 12.5
617
Coni, Cilindri, Superfici di Rotazione e Quadriche
618
S :
x = 2 + (t
−
di vertice P e direttrice la curva il cono con il piano π :
S
2 + (t
− 2)s
−
1 4 s t 6 + (t3 + 6)s,
y = 4 + z =
− 2)s
∈ R, t ∈ R − {0}
s
C. Per ottenere la curva proiezione richiesta si interseca
− − − − 1 t
4
4 s
12 + 2(t3 + 6)s
− 1 = 0,
da cui segue:
s[t(t
3
− 2) − 1 + 4t + 2t(t
+ 6)] = 15t.
S
Si ricava s in funzione di t e si sostituisce nelle equazioni parametriche di , pervenendo cos`ı alle equazioni parametriche della curva richiesta. La situazione geometrica e` illustrata nella Figura 12.7.
12.3
Il cilindro
In questo paragrafo sono trattati i cilindri ed in particolare i cilindri aventi generatrici parallele agli assi coordinati. Analogamente a quanto visto per il cono, saranno anche studiati i cilindri circoscritti ad una sfera e la proiezione di una curva su un piano, secondo una direzione assegnata. Vengono poi presentate le coordinate cilindriche che non sono altro che la naturale generalizzazione, al caso dello spazio, delle coordinate polari nel piano (cfr. Par. 9.3).
C
Definizione 12.3 Data una curva nello spazio ed un vettore u , il cilindro di direttrice e generatrici parallele ad u e` il luogo delle rette dello spazio passanti per tutti i punti di e parallele al vettore u .
C
C
La Figura 12.8 riproduce una rappresentazione grafica della Definizione 12.3. Per determinare l’equazioni di un cilindro si procede come per il cono.
Primo Caso
Sia
C una curva nello spazio rappresentata nella forma:
C :
f (x,y,z ) = 0 g(x,y,z ) = 0,
Capitolo 12
619
0
1
1
8
5
2
0
1
2
Figura 12.8: Un cilindro dove f e g sono funzioni da R 3 in R , sia u = (l,m,n) un vettore e P 0 = (x0 , y0 , z 0 ) un punto di . Si vuole ricavare l’equazione del cilindro di direttrice e generatrice la retta ` evidente che, sullo stesso cilindro, esistono infinite direttrici per P 0 , parallela ad u. E e infinite generatrici e che il procedimento indicato per ricavare l’equazione del cilindro non dipende dalla scelta della direttrice e della generatrice. Le equazioni parametriche della retta per P 0 parallela ad u sono:
C
C
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
t
∈ R,
dove le coordinate di P 0 verificano le identit a` :
Considerando il sistema:
f (x0 , y0 , z 0 ) = 0 g(x0 , y0 , z 0 ) = 0. x = x 0 + lt y = y 0 + mt z = z 0 + nt f (x0 , y0 , z 0 ) = 0 g(x0 , y0 , z 0 ) = 0
Coni, Cilindri, Superfici di Rotazione e Quadriche
620
ed eliminando in esso i parametri x0 , y0 , z 0 , t , si ottiene l’equazione cartesiana del cilindro.
Esercizio 12.6 Determinare l’equazione del cilindro avente generatrici parallele all’asse z e direttrice la circonferenza appartenente al piano 2x z = 0 , di centro l’origine O = (0, 0, 0) e raggio 1 .
C
Soluzione
La circonferenza
−
C ha equazioni: C : 2x − z = 0
x2 + y2 + z 2 = 1.
C
Se P 0 = (x0 , y0 , z 0 ) appartiene a , la retta per P 0 parallela all’asse z ha equazioni:
e si ha il sistema:
x = x 0 y = y 0 z = z 0 + t,
t
∈R
x = x 0 y = y 0 z = z 0 + t 2x0 z 0 = 0 x20 + y02 + z 02
−
− 1 = 0.
Eliminando i parametri x 0 , y0 , z 0 si ottiene:
− −
2x (z t) = 0 x2 + y2 + (z t)2
− − 1 = 0,
da cui, ricavando t dalla prima equazione e sostituendo l’espressione ottenuta nella seconda, si ha:
5x2 + y2 = 1 che `e l’equazione del cilindro, rappresentato nella Figura 12.9.
Secondo Caso
Sia
C una curva dello spazio data in forma parametrica:
C :
x = x(t) y = y(t) z = z (t),
t
∈ I ⊆ R,
Capitolo 12
Figura 12.9: Esercizio 12.6
621
Coni, Cilindri, Superfici di Rotazione e Quadriche
622
e sia u = (l,m,n) un vettore. La retta passante per il generico punto P = (x(t), y(t), z (t)) di , parallela ad u, ha equazioni:
C
x = x(t) + ls y = y(t) + ms z = z (t) + ns,
(12.7)
s, t
∈ R, C
che non sono altro che le equazioni parametriche del cilindro di direttrice e generatrici parallele al vettore u, nei parametri s, t . Volendo determinare l’equazione cartesiana del cilindro `e sufficiente eliminare s e t tra le equazioni parametriche (12.7). Come nel caso del cono, si osservi che, fissando t in (12.7) si hanno le equazioni parametriche di una direttrice, invece, fissando s si hanno le equazioni parametriche di una generatrice.
Esercizio 12.7 Determinare l’equazione del cilindro avente generatrici parallele al vettore v = (2, 1, 1) e direttrice la curva:
−
C :
x = t 2 y = t z = t 1,
−
t
∈ R.
Soluzione Sia P = (t2 , t , t 1) un punto qualsiasi di della generica generatrice sono:
−
x = t 2 + 2λ y = t λ z = t 1 + λ,
− −
t, λ
C , le equazioni parametriche
∈ R,
che rappresentano anche le equazioni parametriche del cilindro. Si ottiene l’equazione cartesiana del cilindro:
x
−
y + z + 1 2
−− 2
+2
y
z 2
1
= 0,
eliminando i parametri t e λ dalle sue equazioni parametriche. La rappresentazione grafica (cfr. Fig. 12.10 ) del cilindro e` stata, invece, ottenuta usando le sue equazioni parametriche.
12.3.1
Cilindri con assi paralleli agli assi coordinati
Nell’equazione 5x2 + y 2 = 1 del cilindro ottenuta nell’Esempio 12.6 si osserva che non compare la coordinata z, questa e` condizione necessaria e sufficiente affinch´e le
Capitolo 12
Figura 12.10: Esercizio 12.7
623
624
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.11: Esempio 12.6 generatrici del cilindro siano parallele all’asse z . Infatti se le generatrici sono parallele all’asse z e la direttrice del cilindro `e una curva del piano coordinato xy di equazioni:
C :
C
f (x, y) = 0 z = 0,
con f funzione da R2 in R , per ogni punto P 0 = (x0 , y0 , z 0 ) appartenente a anche i punti P 0 = (x0 , y0 , λz 0 ) appartengono a per ogni valore reale di λ.
C
C si ha che
Esempio 12.6 y = sin x e` l’equazione di un cilindro con generatrici parallele all’asse z la cui rappresentazione grafica e` illustrata nella Figura 12.11. Analogamente, se le generatrici di un cilindro sono parallele all’asse x e la direttrice e` una curva del piano coordinato yz di equazioni f (y, z ) = x = 0 , l’equazione cartesiana del cilindro e` f (y, z ) = 0 .
Esempio 12.7 y 2 + z 2 = 5 e` l’equazione di un cilindro con generatrici parallele all’asse x la cui rappresentazione grafica e` illustrata nella Figura 12.12. Infine se le generatrici di un cilindro sono parallele all’asse y e la direttrice e` una curva del piano coordinato xz di equazioni f (x, z ) = y = 0 l’equazione cartesiana del cilindro e` f (x, z ) = 0 .
Capitolo 12
Figura 12.12: Esempio 12.7
Figura 12.13: Esempio 12.8
625
626
Coni, Cilindri, Superfici di Rotazione e Quadriche
Esempio 12.8 x2 z 2 = 2 e` l’equazione di un cilindro con generatrici parallele all’asse y la cui rappresentazione grafica `e illustrata nella Figura 12.13.
−
Se un cilindro ha come direttrice la curva:
C :
x = x(u) y = y(u) z = z (u),
u
∈ I ⊆ R,
e generatrici parallele all’asse z , eliminando il parametro u tra due equazioni parametriche e sostituendo l’espressione ottenuta nella terza si perviene alla sua equazione cartesiana.
Esercizio 12.8 Scrivere l’equazione cartesiana del cilindro avente come direttrice la curva di equazioni:
C
C
x = u 3 y = u 2 z = u, u
:
∈R
e generatrici parallele all’asse z .
Soluzione
Dalle equazioni della curva segue x 2 = u 6 , y 3 = u 6 , allora:
x2
−y
3
=0
e` l’equazione cercata. La curva di equazioni:
x2 y 3 = 0 z = 0
−
C
e` la proiezione di sul piano xy . Il cilindro cos`ı ottenuto e la curva nella Figura 12.14. Il cilindro che ha come direttrice la curva
C :
C sono rappresentati
C di equazioni:
f (x,y,z ) = 0 g(x,y,z ) = 0,
con f e g funzioni da R 3 in R , e generatrici parallele all’asse z ha equazione cartesiana che si ottiene eliminando l’incognita z tra le equazioni di .
C
Capitolo 12
Figura 12.14: Esercizio 12.8
627
Coni, Cilindri, Superfici di Rotazione e Quadriche
628
Esercizio 12.9 Determinare l’equazione del cilindro che proietta la curva:
C :
x2 + y 2 + z 2 = 1 2x + y z = 0
−
parallelamente all’asse z .
Soluzione Eliminando z tra le due equazioni di
C si ottiene:
x2 + y2 + (2x + y)2 = 1.
Si procede in modo analogo per determinare l’equazione cartesiana di un cilindro con generatrici parallele agli altri assi coordinati. Come nel caso del cono, anche per il cilindro si pu`o dimostrare il seguente teorema che ne caratterizza l’equazione cartesiana. Per la sua dimostrazione si veda ad esempio [12].
Teorema 12.2
1. Sia: r :
a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0
una retta e sia ψ(u, v) una funzione di due variabili reali a valori reali. Allora l’equazione:
ψ(a1 x + b1 y + c1 z + d1 , a2 x + b2 y + c2 z + d2 ) = 0
(12.8)
rappresenta un cilindro con generatrici parallele a r .
2. Viceversa, se f (x,y,z ) = 0 e` l’equazione di un cilindro con generatrici parallele ad una retta r , allora esiste una funzione di due variabili reali ψ(u, v) a valori reali tale che il cilindro abbia anche equazione (12.8).
12.3.2
Cilindro circoscritto ad una sfera
Dati una sfera:
Σ : x 2 + y2 + z 2
− 2αx − 2βy − 2γz + δ = 0
e un vettore u = (l,m,n) , si vuole determinare l’equazione del cilindro circoscritto a Σ con generatrici parallele ad u. La generica retta parallela ad u e passante per un punto P = (x0 , y0 , z 0 ) di Σ ha equazioni:
Capitolo 12
x = x 0 + lt y = y 0 + mt z = z 0 + nt,
629
(12.9)
t
∈ R,
dove (x,y,z ) sono le coordinate di un punto generico della retta, vale a dire le coordinate del generico punto della superficie cercata. Analogamente a quanto gi`a visto per il cono, se si interseca Σ con la retta di equazioni parametriche (12.9) si ottiene un’equazione di secondo grado in t , le cui soluzioni portano ai punti di intersezione tra la sfera e la retta. Le generatrici sono tangenti a Σ se le intersezioni coincidono, ovvero se il discriminante dell’equazione e` nullo. L’equazione in x,y,z che cos`ı si ottiene rappresenta, come e` visualizzato nella Figura 12.15 , il cilindro circoscritto a Σ con generatrici parallele al vettore u. In geometria euclidea questo cilindro e` detto cilindro circolare retto in quanto ha come direttrici le circonferenze che appartengono a piani paralleli, tutte con lo stesso raggio e con i centri tutti su una retta, detta asse del cilindro , ortogonale ai piani a cui esse appartengono. Nel Paragrafo 12.4 si vedr`a che un cilindro circolare retto si puo` anche ottenere dalla rotazione completa di una retta intorna ad un’altra retta ad essa parallela che `e l’asse del cilindro.
Esercizio 12.10 Scrivere l’equazione del cilindro circoscritto alla sfera:
Σ : (x
2
− 1)
+ y2 + z 2 = 3
ed avente le generatrici parallele al vettore u = (1, 0, 1) .
Soluzione Le equazioni della retta passante per un punto generico P = (x0 , y0 , z 0 ) di Σ e parallela al vettore u sono date da:
x = x 0 + t y = y 0 z = z 0 + t,
t
∈ R.
Intersecando Σ con r si ottiene l’equazione di secondo grado in t :
2t2 + 2(x
2
− 1 + z )t + (x − 2x − 2 + y
2
+ z 2 ) = 0.
Imponendo la tangenza tra r e Σ segue:
∆ = (x + z 4
2
2
− 1) − 2(x
che `e l’equazione del cilindro cercata.
+ y 2 + z 2
− 2x − 2) = 0
630
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.15: Cilindro circoscritto ad una sfera
Capitolo 12
Figura 12.16: La curva di Viviani
631
Coni, Cilindri, Superfici di Rotazione e Quadriche
632
Curiosita` equazione:
` famosa la curva che si ottiene intersecando il cilindro circolare retto di E
(x con la sfera:
− a)
2
+ y2 = a2
x2 + y 2 + z 2 = 4a2 . La curva, rappresentata nella Figura 12.16, prende il nome di curva di Viviani, in quanto Vincenzo Viviani (1622 – 1703), studente di Galileo scopr`ı che questa curva risolve il seguente problema: quanto misura il lato di quattro finestre uguali, costruite su un emisfero in modo che la parte di esso rimanente abbia l’area di un quadrato? Per maggiori dettagli ed approfondimenti si veda ad esempio [11].
12.3.3
Proiezione di una curva su un piano secondo una direzione assegnata
C
C
Data una curva nello spazio, la proiezione di su un piano π secondo la direzione di un vettore u, non parallelo a π , e` la curva ottenuta dall’intersezione del piano π con il cilindro di direttrice e generatrici parallele al vettore u.
C
Esercizio 12.11 Data la curva:
C
x = 1 t2 y = 2t z = t + 2,
−
:
t
∈ R,
C di C sul piano π : x − 2y = 0 . Soluzione La curva C e` l’intersezione del piano π con il cilindro S avente le generatrici parallele al vettore u = (1, −2, 0) , ortogonale al piano π , e direttrice C . Dalle determinare la proiezione ortogonale
equazioni parametriche del cilindro:
S :
x = 1 t2 + s y = 2t 2s z = t + 2, t, s
− −
∈ R,
− 2 e dalla seconda equazione: −y + 2z − 4 , s =
ricavando, dalla terza equazione t = z
2
quindi sostituendo nella prima, si ottiene l’equazione cartesiana del cilindro: 2
S : x = 1 − (z − 2)
+
2z
−4−y. 2
Capitolo 12
Figura 12.17: Esercizio 12.11
633
Coni, Cilindri, Superfici di Rotazione e Quadriche
634
C
La curva
e` quindi data da:
C
:
x = 1 x
2
− (z − 2)
+
2z
−4−y 2
− 2y = 0
ed e` rappresentata nella Figura 12.17.
12.3.4
Coordinate cilindriche
In questo paragrafo si introduce un altro sistema di coordinate, che estende al caso dello spazio, in modo diverso dal sistema di coordinate polari sferiche (cfr. Par. 11.10), la nozione di coordinate polari nel piano.
R
= (O, i, j, k) dello spazio ordinario ed Si consideri il sistema di riferimento cartesiano il riferimento polare del piano associato a quello cartesiano (O, i, j) definito nel Paragrafo 9.3. Se (x,y,z ) sono le coordinate cartesiane di un punto P dello spazio (non appartenente all’asse z ) e (ρ, θ) sono le coordinate polari della sua proiezione ortogonale P sul piano z = 0 , la terna di numeri reali (ρ,θ,z ), nell’ordine scritto, individua le coordinate cilindriche del punto P . Il relativo riferimento si ottiene aggiungendo al riferimento polare del piano xy (che determina ρ e θ ) l’asse z del riferimento cartesiano associato. Si ha allora una corrispondenza biunivoca tra i punti dello spazio e le terne ordinate (ρ,θ,z ) , dove: ρ
≥ 0,
0
≤ θ < 2π,
con l’eccezione dei punti dell’asse z per i quali θ e` indeterminata. La situazione geometrica `e illustrata nella Figura 12.18. Le relazioni che legano le coordinate cilindriche alle coordinate cartesiane del medesimo punto P sono:
x = ρ cos θ y = ρ sin θ z = z ;
per le formule inverse si trova:
ρ =
x2 + y2
tan θ = z = z.
y x
Capitolo 12
635
z
P
z
y
Θ
Ρ
x
P'
Figura 12.18: Coordinate cilindriche del punto P
Coni, Cilindri, Superfici di Rotazione e Quadriche
636
Osservazione 12.2 I punti P = (ρ,ϕ,z ) , con ρ = r costante, appartengono al cilindro circolare retto di asse z e raggio r , perci`o:
S
ρ = r rappresenta l’equazione di sono:
S in coordinate cilindriche.
S :
x = r cos ϕ y = r sin ϕ z = t, t
mentre e` immediato verificare che:
Le sue equazioni parametriche
∈ R, 0 ≤ ϕ < 2π,
x2 + y2 = r 2 e` la sua equazione cartesiana.
Osservazione 12.3 Un punto P = (ρ0 , ϕ0 , z 0 ) e` pertanto l’intersezione di tre superfici: un cilindro circolare retto di asse l’asse z e raggio r = ρ0 , un semipiano per l’asse z formante un angolo ϕ0 con il piano y = 0 e il piano z = z 0 , del relativo riferimento cartesiano associato.
12.4
Superfici di rotazione
In questo paragrafo si introduce il concetto, del resto molto intuitivo, di superficie di rotazione di una curva intorno ad una retta e se ne ricavano le equazioni, studiando diversi casi particolari.
C
S
Definizione 12.4 Date una retta a e una curva la superficie generata dalla rotazione completa della curva intorno alla retta a prende il nome di superficie di rotazione di asse di rotazione a. Ogni punto P di , ad eccezione dei punti di intersezione di con la retta a che sono punti di , descrive una circonferenza appartenente al piano ortogonale alla retta a passante per P. Tali circonferenze prendono il nome di paralleli di , mentre le curve ottenute intersecando con i piani passanti per a sono dette curve meridiane. La situazione geometrica e` illustrata nella Figura 12.19.
C
C
S
C S
S
1. Una sfera e` una superficie di rotazione avente per asse di rotazione Esempio 12.9 una qualunque retta passante per il suo centro. Quali sono le sue curve meridiane? 2. Il cilindro x2 + y 2 = 4 e` una superficie di rotazione avente per asse di rotazione l’asse z . Se P 0 = (x0 , y0 , z 0 ) e` un qualunque punto del cilindro, l’intersezione del cilindro con il piano π : z = z 0 (piano per P 0 ortogonale all’asse z ) e` la circonferenza : z z 0 = x2 + y 2 4 = 0 . In questo caso, quali sono le curve meridiane?
C −
−
Capitolo 12
Figura 12.19: Una generica superficie di rotazione
637
638
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.20: Le rette a e r e il cono ottenuto dalla rotazione di r intorno ad a
C
In questo paragrafo sar`a anche studiato il caso particolare in cui la curva e` piana, giace su un piano coordinato e ruota intorno ad un asse coordinato. Particolari esempi di questo tipo sono le rotazioni di un’ellisse, di un’iperbole e di una parabola intorno ad un opportuno asse coordinato, ottenendo alcune superficie di rotazione che sono esempi di quadriche. Le quadriche sono superfici che si possono esprimere mediante equazioni di secondo grado e saranno studiate nel Paragrafo 12.6. Si esaminer`a, infine, la rotazione intorno all’asse z di una circonferenza posta sul piano x = 0 , avente il centro nel punto di coordinate (0, a, 0) e raggio r; la superficie che ne risulta `e detta toro o superficie torica.
C
Esempio 12.10 Se la curva della Definizione 12.4 e` una retta r incidente l’asse di rotazione a, allora la superficie di rotazione e` un cono circolare retto. La Figura 12.20 rappresenta le rette incidenti r e a e il cono ottenuto dalla rotazione di r intorno ad a.
C
Esempio 12.11 Se la curva della Definizione 12.4 e` una retta r parallela all’asse di rotazione a, allora la superficie di rotazione `e un cilindro circolare retto. La Figura 12.21 rappresenta le rette parallele r e a e il cilindro ottenuto dalla rotazione di r intorno ad a.
C
Esempio 12.12 Se la curva della Definizione 12.4 e` una retta r sghemba con l’asse di rotazione a allora la superficie di rotazione e` un iperboloide di rotazione ad una falda ,
Capitolo 12
639
Figura 12.21: Le rette a e r e il cilindro ottenuto dalla rotazione di r intorno ad a superficie che sar`a studiata in dettaglio nel Paragrafo 12.6. La Figura 12.22 rappresenta le rette sghembe r e a e l’iperboloide ad una falda ottenuto dalla rotazione di r intorno ad a.
S
Per pervenire all’equazione di una superficie di rotazione e` sufficiente scrivere le equazioni di un suo generico parallelo, come si vedr a` negli esempi e negli esercizi che seguono.
Esercizio 12.12 Date le rette:
r :
−
−
2x y + z 4 = 0 y + z 2 = 0,
−
s :
−
x 1=0 x + z 1 = 0,
−
determinare la superficie generata dalla rotazione di r intorno a s e decidere di quale superficie si tratta.
C
Soluzione Il punto generico P della retta r descrive la circonferenza intersezione del piano π passante per P e ortogonale a s con la sfera Σ di centro C , punto di intersezione tra π e s, e raggio la distanza d(P, C ) da P a C. Il punto P di r ha coordinate:
−
P = (t + 1, t, t + 2), il piano π passante per P perpendicolare ad un vettore parallelo a s, quindi di componenti per esempio (0, 1, 0), ha equazione y t = 0 . Il centro C della circonferenza e` l’intersezione di π con la retta s e perci`o C = (1, t, 0), il raggio di e` :
−
d(C, P ) =
C
t2 + ( t + 2)2 .
−
C
Coni, Cilindri, Superfici di Rotazione e Quadriche
640
Figura 12.22: Le rette a e r e l’iperboloide ottenuto dalla rotazione di r intorno ad a
C
Si pu`o allora scrivere la circonferenza come intersezione di Σ con π nel modo seguente:
C :
− −
y t = 0 (x 1)2 + (y
2
− t)
+ z 2 = t 2 + ( t + 2)2 .
−
(12.10)
Eliminando il parametro t tra le due equazioni di (12.10) si ottiene l’equazione della superficie di rotazione:
(x
2
− 1)
+ z 2
2
− 2(y − 1) − 2 = 0
che `e l’iperboloide di rotazione ad una falda rappresentato nella Figura 12.23. L’esercizio precedente indica il metodo con cui si possono ricavare le equazioni di tutte le superfici di rotazione ottenute dalla rotazione completa di una retta intorno all’asse di rotazione. Viene ora affrontato il caso della rotazione di una curva piana che non sia necessariamente una retta e che ruota intorno ad una retta contenuta nello stesso piano a cui appartiene . Ci si pu`o ridurre, con un opportuno cambiamento di riferimento, a studiare la rotazione di una curva appartenente al piano coordinato xz intorno all’asse z, quindi di equazioni del tipo:
C
C
C
C :
f (x, z ) = 0 y = 0,
Capitolo 12
Figura 12.23: Esercizio 12.12
641
Coni, Cilindri, Superfici di Rotazione e Quadriche
642
dove f indica una funzione nelle variabili x e z, a valori reali. Un generico punto P di ha coordinate del tipo P = (x, 0, z ). Sia Q = (X , Y , Z ) un punto appartenente al parallelo della superficie , ottenuta dalla rotazione di intorno all’asse z , passante per P . Le equazioni del parallelo per Q sono date dall’intersezione del piano π passante per P = (x, 0, z ) e perpendicolare al vettore k = (0, 0, 1), che ha equazione Z = z , con la sfera di centro C = (0, 0, Z ) e raggio:
C
S
C
d(P, C ) =
√
x2 = x ,
||
ossia:
Z = z X 2 + Y 2 + (Z
− Z )
2
= x 2 ,
da cui:
±√
x = X 2 + Y 2 z = Z.
Di conseguenza, per ottenere l’equazione della superficie di rotazione sostituire nell’equazione f (x, z ) = 0 le espressioni:
√ x = ± X + Y , 2
2
S e` sufficiente
z = Z.
In modo analogo si possono scrivere le equazioni delle superfici di rotazione ottenute dalla rotazione di una curva appartenente agli altri piani coordinati e che ruoti intorno ad un asse coordinato dello stesso piano a cui la curva appartiene.
S
Esercizio 12.13 Scrivere l’equazione della superficie ottenuta dalla rotazione completa dell’iperbole, appartenente al piano coordinato xz , di equazione:
intorno all’asse z .
Soluzione ricava:
x2 z 2 =1 a2 c2 y = 0
−
(12.11)
Da quanto precede e` sufficiente sostituire a x2 l’espressione x2 + y 2 , si
x2 + y2 : a2
S
−
z 2 = 1, c2
(12.12)
Capitolo 12
643
Figura 12.24: Iperbole di equazione (12.11) e iperboloide di equazione (12.12) che e` di nuovo un iperboloide di rotazione ad una falda. Nella Figura 12.24 sono rappresentati sia un’iperbole di equazione (12.11) sia la superficie di rotazione di equazione (12.12).
S
Esercizio 12.14 Scrivere l’equazione della superficie ottenuta dalla rotazione completa dell’ellisse, appartenente al piano coordinato xz , di equazione:
intorno all’asse z .
Soluzione
x2 z 2 + =1 a2 c2 y = 0
(12.13)
` sufficiente sostituire al posto di x 2 l’espresssione x 2 + y 2 e si ottiene: E
S
x2 + y2 z 2 : + 2 = 1, a2 c
(12.14)
che rappresenta una superficie detta ellissoide di rotazione e che sar`a studiata dettagliatamente nel Paragrafo 12.6. Nella Figura 12.25 si vedono un’ellisse di equazione (12.13) e un ellissoide di rotazione di equazione (12.14).
S
Esercizio 12.15 Scrivere l’equazione della superficie ottenuta dalla rotazione completa dell’iperbole del piano xz di equazione (12.11) intorno all’asse x .
Coni, Cilindri, Superfici di Rotazione e Quadriche
644
Figura 12.25: Ellisse di equazione (12.13) ed ellissoide di rotazione di equazione (12.14) ` sufficiente sostituire al posto di z 2 nell’equazione (12.11) l’espressione Soluzione E y2 + z 2 e si ottiene: 2
S : xa − y 2
2
+ z 2 =1 c2
(12.15)
che rappresenta una superficie detta iperboloide di rotazione a due falde che si puo` vedere nella Figura 12.26 e che sar`a studiata dettagliatamente nel Paragrafo 12.6.
Esercizio 12.16 Scrivere l’equazione della superficie della parabola del piano xz di equazione:
intorno all’asse z .
Soluzione
S ottenuta dalla rotazione completa
x2 = 2z a2 y = 0
(12.16)
` sufficiente sostituire al posto di x 2 l’espressione x 2 + y 2 e si ottiene: E
x2 + y2 : = 2z a2
S
(12.17)
che rappresenta una superficie detta paraboloide di rotazione. Nella Figura 12.27 si vedono una parabola di equazione (12.16) e un paraboloide di rotazione di equazione (12.17).
Capitolo 12
645
Figura 12.26: Iperbole di equazione (12.11) e iperboloide a due falde di equazione (12.15)
Figura 12.27: Parabola di equazione (12.16) e paraboloide di equazione (12.17)
646
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.28: Il toro con a > r e una sua sezione Si affronta ora lo studio delle superfici che si possono ottenere dalla rotazione di una circonferenza intorno ad una retta ad essa complanare, di cui, per esempio, la sfera e` un esempio (cfr. Es. 12.9, punto 1. ), si inizia con la seguente definizione.
Definizione 12.5 Si dice toro o superficie torica la superficie ottenuta dalla rotazione di una circonferenza di raggio r intorno ad una retta appartenente al piano della circonferenza e avente distanza a dal centro di .
C
Osservazione 12.4 sfera.
C
1. Se nella definizione precedente si pone a = r si ottiene una
2. Se a > r si ottiene la superficie rappresentata nella Figura 12.28 la cui conformazione giustifica la denominazione di superficie torica assegnata a questa superficie. 3. Se a < r si ottiene la superficie rappresentata nella Figura 12.29.
C
Per ricavare l’equazione del toro si puo` procedere come segue. Sia la circonferenza, di raggio r, appartenente al piano coordinato yz e con centro nel punto C = (0, a, 0), quindi di equazioni:
C :
(y a)2 + z 2 = r 2 x = 0.
−
Capitolo 12
647
Figura 12.29: Il toro con a < r e una sua sezione
C
Per ottenere l’equazione della superficie generata dalla rotazione completa di intorno all’asse z e` sufficiente sostituire a y l’espressione x2 + y2 e quindi l’equazione del toro e` :
±
(
x2 + y2
±
2
− a)
+ z 2 = r 2 .
Si pu`o pervenire allo stesso risultato anche seguendo il metodo generale, che consiste nello scrivere le equazioni del generico parallelo della superficie di rotazione che si ottiene intersecando il piano passante per il punto P 0 = (0, y0 , z 0 ) di ortogonale all’asse z con la sfera di centro C = (0, 0, z 0 ) e raggio d(C, P 0 ) = y0 , ossia:
| |
da cui si ricava y 0 =
±
−
z z 0 = 0 x2 + y2 + (z
− z ) 0
2
C
= y 02 ,
x2 + y2 . Sostituendo nella relazione:
(y0 a)2 + z 02 = r 2 x0 = 0
−
C
che esprime l’appartenenza di P 0 a si ottiene di nuovo l’equazione del toro. Per maggiori dettagli sullo studio delle superfici toriche si veda ad esempio [11].
Coni, Cilindri, Superfici di Rotazione e Quadriche
648
Si conclude il paragrafo proponendo la risoluzione di un esercizio di determinazione dell’equazione di una generica superficie di rotazione, che non rientra nei casi particolari precedentemente introdotti.
Esercizio 12.17 Determinare l’equazione della superficie generata dalla rotazione della parabola:
P :
intorno alla retta a : x = y
y x2 = 0 z = 0
−
− z = 0 .
` facile osservare che ogni punto P di ha coordinate P = (t, t2 , 0), t R Soluzione E e la retta a e` parallela al vettore a = (0, 1, 1) . Si vogliono determinare le equazioni del generico parallelo della superficie di rotazione, appartenente quindi al piano π per P ortogonale ad a, ossia π : y t2 + z = 0 . Il centro C del parallelo passante per P e` dato dall’intersezione:
P
∈
−
C
da cui si ottiene:
y + z t2 = 0 x = 0 y = z,
C = allora il raggio di
C e` :
−
t 2 t 2 0, , , 2 2
d(C, P ) =
t2 +
1 4 t. 2
C ha equazioni: y + z − t = 0
Di conseguenza, il parallelo
C − − 2
:
2
x + y
1 2 t 2
2
1 2 + z t 2
2
1 = t 2 + t4 , 2
da cui, eliminando il parametro t, si ottiene l’equazione della superficie di rotazione cercata:
x2 +
1 (y 2
− z ) − 12 (y + z ) − (y + z ) = 0. 2
2
Capitolo 12
12.5
649
Cenni su superfici rigate
I piani, i coni, i cilindri gli iperboloidi di rotazione ad una falda sono esempi di particolari superfici formate da un’infinit`a di rette, che prendono il nome di superfici rigate. In questo breve paragrafo si intende introdurre la definizione di superficie rigata, senza per o` affrontare lo studio delle sue particolari propriet`a. Ulteriori esempi significativi saranno descritti nei Paragrafi 12.6.1 e 12.7.
S S
S
Definizione 12.6 Una superficie si dice rigata se per ogni punto di passa almeno una retta interamente contenuta in . La superficie si pu`o individuare tramite una curva che le appartenga, la curva direttrice , associando, mediante un’opportuna legge, per ogni punto P 0 di almeno una retta di passante per P 0 . Di conseguenza le equazioni parametriche di sono del tipo:
C
C S
S
S :
x = h1 (u) + tl(u) y = h 2 (u) + tm(u) z = h3 (u) + tn(u),
dove (h1 (u), h2 (u), h3 (u)), u direttrice .
C
S
(12.18)
u
∈ I ⊆ R, t ∈ R,
∈ I ⊆ R, sono le equazioni parametriche della curva
1. Il cilindro di equazioni parametriche (12.7) e` un esempio di Osservazione 12.5 superficie rigata, in cui le rette che lo definiscono sono parallele al vettore di componenti (l,m,n). 2. Il cono di equazioni parametriche (12.3) e` un esempio di superficie rigata in cui la direttrice si riduce ad un punto che e` il vertice del cono. 3. Si riconosce che le equazioni parametriche (12.18) definiscono una superficie rigata in quanto uno dei due parametri, in questo caso t, compare a primo grado in ciascuna delle tre equazioni parametriche. Se P 0 e` il punto di che si ottiene ponendo u = u0 allora la retta appartenente a e passante per P 0 ha equazioni parametriche:
C
S
x = h 1 (u0 ) + tl(u0 ) y = h 2 (u0 ) + tm(u0 ) z = h 3 (u0 ) + tn(u0 ),
t
∈ R.
4. Si osservi che il vettore (l(u), m(u), n(u)) in (12.18), identificato con il punto dello spazio di coordinate (l(u), m(u), n(u)) , descrive a sua volta, al variare di u I, una curva nello spazio.
∈
Coni, Cilindri, Superfici di Rotazione e Quadriche
650
Esercizio 12.18 Si consideri la superficie
S :
1. Stabilire se
S di equazione:
x = 1 + uv y = u 2 v + u z = (u2 + 1)v,
(12.19)
u, v
∈ R.
S e` una superficie rigata. S parallele al piano π di equazione:
2. Decidere se esistono rette appartenenti a
y
− 2x = 0.
3. Posto v = 1 , scrivere la proiezione ortogonale della curva coordinato xy e riconoscere che e` una conica.
C
C
di
S sul piano
Soluzione 1. Se nell’equazione (12.19) si considera u costante, allora il parametro v compare solo a primo grado, quindi e` una superficie rigata e si pu o` anche definire
S
come il luogo delle rette per P = (1, u, 0), parallele al vettore (u, u2 , u2 + 1) . La superficie e` rappresentata nella Figura 12.30.
S
S −
2. Determinare le rette appartenenti alla superficie e parallele al piano π equivale a trovare u in modo che i vettori (u, u2 , u2 + 1) e ( 2, 1, 0) siano perpendicolari. Si ha che 2u + u2 = 0 , da cui u = 0 e u = 2 . Di conseguenza, si ottengono le due rette:
−
r1 :
x = 1 y = 0 z = t,
t
r2 :
∈ R,
3. Posto v = 1 si ricava la curva:
C :
x = 1 + 2λ y = 2 + 4λ z = 5λ, λ
∈ R.
x = 1 + u y = u 2 + u z = u 2 + 1,
della quale si cerca la proiezione ortogonale sul piano z = 0 . Eliminando u tra le equazioni:
x = 1 + u y = u 2 + u
si ottiene la parabola di equazione y = (x
2
− 1)
+x
− 1.
Capitolo 12
Figura 12.30: Esercizio 12.18
651
652
12.6
Coni, Cilindri, Superfici di Rotazione e Quadriche
Quadriche
In questo paragrafo vengono studiate le superfici che estendono al caso dello spazio il concetto di conica introdotto nel piano, infatti esse si possono rappresentare mediante un’equazione di secondo grado nelle variabili x, y,z e prendono il nome di quadriche. In modo analogo al caso delle coniche (cfr. Par. 10.4) si dimostrer a` un teorema di classificazione che permetter`a di scrivere l’equazione di una quadrica in forma canonica, rispetto ad un opportuno sistema di riferimento. Infine ogni tipo di quadrica verr`a studiato nei dettagli e se ne ricaveranno anche le equazioni parametriche.
R
= (O,x,y,z ) nello Definizione 12.7 Fissato un sistema di riferimento cartesiano spazio, una superficie rappresentata da un’equazione di secondo grado in x, y,z del tipo:
Q
Q : a
2 11 x
+ 2a12 xy + a22 y2 + 2a13 xz + 2a23 yz + a33 z 2
(12.20)
+2a14 x + 2a24 y + 2a34 z + a44 = 0, prende il nome di quadrica.
L’equazione (12.20) pu`o essere anche scritta nella forma:
Q:
x y z 1
x y z 1
B
dove B e` la matrice simmetrica di ordine 4 data da:
B =
a11 a12 a13 a14
a12 a22 a23 a24
a13 a23 a33 a34
a14 a24 a34 a44
= 0,
e che spesso viene anche indicata come la matrice associata alla quadrica
Q.
Se ci si limita a considerare il gruppo di termini di secondo grado dell’equazione (12.20), si pu`o introdurre la forma quadratica Q : R3 R associata a , ponendo:
−→
Q((x,y,z )) =
x y z A
dove A e` la matrice simmetrica di ordine 3 data da:
x y z
,
Q
Capitolo 12
A =
a11 a12 a13 a12 a22 a23 a13 a23 a33
653
.
Sovente, le due matrici simmetriche A R3,3 e B R4,4 vengono indicate come le di equazione (12.20), anche se A e` in realt`a la matrice matrici associate alla quadrica associata alla forma quadratica definita da .
Q
∈ Q
∈
Esempio 12.13 Il paraboloide di rotazione, ottenuto nell’Esercizio 12.16, di equazione (12.16) e` associato alle matrici:
B =
1 a2
0
0
1 a2
0
0
0
0 0
0
0
−1
− 0
0
,
A =
1
0
1 a2
0
0
0
1 a2
0
0
0
0
.
Esempio 12.14 Il cilindro di equazione:
x2
2
− z = 2
e` associato alle matrici:
B=
1 0 0 0
0 0 0 0
−
0 0 1 0
− 0 0 0 2
,
A =
1 0 0
0 0 0
− 0 0 1
.
Il teorema che segue indica un metodo per scrivere in forma piu` semplice le equazioni delle quadriche e si basa sulla teoria della riduzione a forma canonica di una forma qua` perci`o necessario anteporre la definizione di equazione dratica introdotta nel Capitolo 8. E di una quadrica in forma canonica. Si osservi che il procedimento che sar`a descritto e` analogo a quello usato, nel caso della geometria analitica piana, per ridurre le equazioni delle coniche a forma canonica, di conseguenza, lo stesso tipo di procedimento pu`o essere esteso allo studio di superfici scritte mediante equazioni di secondo grado in spazi affini
Coni, Cilindri, Superfici di Rotazione e Quadriche
654
associati a spazi vettoriali euclidei di dimensione maggiore di 3. Per questo motivo si propone una dimostrazione del Teorema 12.3 molto sintetica, senza troppi dettagli, che sono analoghi a quelli della dimostrazione del Teorema 10.6 e pertanto sono lasciati al Lettore per esercizio.
Definizione 12.8 Una quadrica si dice scritta in forma canonica se la sua equazione e` del tipo: (12.21) αx2 + βy 2 + γz 2 + δ = 0,
∈ R e (α , β , γ) = (0, 0, 0), oppure del tipo:
con α, β , γ , δ
αx2 + βy 2 + 2δz = 0,
(12.22)
∈ R e (α, β ) = (0, 0).
con α, β , γ , δ
Q
Teorema 12.3 Sia una quadrica di equazione (12.20) scritta in un riferimento car= (O,x,y,z ) . E` possibile determinare un sistema di riferimento cartesiano tesiano = (O , X , Y , Z ) in cui si rappresenta in forma canonica o del tipo (12.21) oppure del tipo (12.22) dove α, β e γ sono gli autovalori della matrice A associata all’equazione di .
R Q
R
Dimostrazione
Q
Q si puo` anche scrivere come:
L’equazione (12.20) della quadrica
Q : Q((x,y,z )) + L(x,y,z ) = 0, dove Q e` la forma quadratica associata a Q e L rappresenta il polinomio in x, y,z di grado minore o uguale a 1 dato da:
L(x,y,z ) = 2a14 x + 2a24 y + 2a34 z + a44 .
B
R
= (i, j, k) la base ortonormale positiva determinata dal riferimento cartesiano . Sia Dalla teoria della riduzione a forma canonica delle forme quadratiche si deduce che esiste un cambiamento di base ortonormale con matrice ortogonale P (scelto in modo tale che det(P ) = 1 ) per cui tP AP = D , dove D e` una matrice diagonale avente gli autovalori di A sulla diagonale principale. Mediante il cambiamento di coordinate indotto da P dato da:
x y z
= P
x y z
,
(12.23)
Capitolo 12
la forma quadratica assume, nel nuovo riferimento sione in forma canonica:
Q((x , y , z )) =
x y z
655
x y z
t
P AP
R = (O, x , y , z ) , la seguente espres= α(x )2 + β (y )2 + γ (z )2 ,
dove α, β , γ indicano gli autovalori della matrice A, eventualmente uguali tra di loro ma non tutti nulli, essendo la matrice A non nulla. Nel riferimento cartesiano = (O, x , y , z ) l’equazione (12.20) di diventa:
R
Q
2
Q : α(x )
+ β (y )2 + γ (z )2 + L (x , y , z ) = 0,
dove L (x , y , z ) e` il polinomio, in x , y , z , di grado minore o uguale a 1, ottenuto da L(x,y,z ) dopo aver sostituito a x, y,z le equazioni (12.23). La matrice P ha, quindi, determinato una rotazione degli assi cartesiani x, y,z negli assi cartesiani x , y , z passanti per l’origine e paralleli agli autovettori della matrice A le cui componenti sono le colonne di P.
Se α = 0 , si puo` annullare il coefficiente del termine di primo grado in x operando con una traslazione lungo l’asse x (per esempio, con il metodo del completamento dei quadrati). Si ripete la stessa operazione se β = 0 e se γ = 0 . Il riferimento cartesiano finale = (O , X , Y , Z ) cos`ı ottenuto risulta essere, quindi, la composizione di una rotazione e di una traslazione.
R
Si presentano i seguenti casi: 1. tre autovalori della matrice A , (contati con le loro molteplicit a` ) non sono nulli, allora l’equazione di diventa di tipo (12.21);
Q
2. solamente due autovalori della matrice A , (contati con le loro moltelicit a` ) non sono nulli (per esempio α e β ) e la variabile (relativa a γ = 0 ), per esempio z , compare a primo grado. Allora con una traslazione di assi si annulla il termine noto e l’equazione di e` di tipo (12.22);
Q
3. solamente un autovalore di A non e` nullo, ossia l’equazione di
Q e` di tipo:
α(x )2 + ay + bz + c = 0. Con una rotazione nel piano coordinato y z intorno all’asse x e con una eventuale traslazione, l’equazione si riduce a αx 2 δz = 0 che e` ancora del tipo (12.22).
−
Coni, Cilindri, Superfici di Rotazione e Quadriche
656
Si osservi che det(A) = det(D) , ma `e un esercizio dimostrare che anche la matrice associata a nei due riferimenti cartesiani man mano ottenuti ha determinante che coincide con det(B) .
Q
Definizione 12.9 Le quadriche per cui tutti i coefficienti delle equazioni (12.21) e (12.22) sono diversi da zero si dicono proprie o non degeneri o non singolari. In caso contrario le quadriche si dicono non proprie o degeneri o singolari. Osservazione 12.6 Nel caso di quadriche proprie, il determinante della matrice B associata alla quadrica e` non nullo, det(B) = 0.
Q
Q
Sia una quadrica propria che si rappresenta con un’equazione di tipo (12.21) allora e` una delle seguenti superfici: 1. ellissoide di equazione in forma canonica:
x2 y2 z 2 + 2 + 2 = 1, a2 b c
(12.24)
rappresentato nella Figura 12.31. Si osservi che l’ellissoide di rotazione di equazione (12.14) e` un caso particolare di questa superficie, in cui un autovalore della matrice A associata alla forma quadratica che definisce la superficie ha molteplicit`a 2 . Se, invece, la matrice A ha un solo autovalore (positivo) di molteplicit a` 3 allora si ottiene la sfera di centro l’origine e di raggio pari alla radice quadrata dell’autovalore di A. La superficie e` simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine. L’ellissoide (12.24) interseca l’asse x nei punti A = (a, 0, 0), A = ( a, 0, 0), l’asse y nei punti B = (0, b, 0), B = (0, b, 0) e l’asse z nei punti C = (0, 0, c), C = (0, 0, c) . Questi sei punti prendono il nome di vertici dell’ellissoide.
−
−
−
Poich`e le coordinate x, y,z dei punti dell’ellissoide sono tali da verificare le limitazioni:
|x| ≤ a, |y| ≤ b, |z | ≤ c, la superficie e` interamente contenuta dal parallelepipedo rettangolo le cui facce sono determinate dai piani x = a, y = b, z = c che sono anche i piani tangenti all’ellissoide nei suoi vertici. Le intersezioni dell’ellissoide con i piani x = h,a < h < a, con y = k, b < k < b, e con z = l, c < l < c, sono tutte ellissi, si lascia per esercizio lo studio della variazione dei loro diametri in relazione alle equazioni dei piani a cui appartengono.
±
−
±
±
−
Capitolo 12
657
Figura 12.31: Ellissoide Si verifica facilmente che le equazioni parametriche dell’ellissoide sono:
x = a cos v cos u y = b cos v sin u 0 z = c sin v,
≤ u, v < 2π.
2. ellissoide immaginario di equazione in forma canonica:
x2 a2
y2 b2
− − −
z 2 = 1. c2
` evidente che se a = b = c si ottiene la sfera immaginaria. E 3. iperboloide ad una falda o iperboloide iperbolico di equazione in forma canonica:
x2 y2 + 2 a2 b
−
z 2 = 1, c2
si tratta della superficie rappresentata all’esterno nella Figura 12.32.
658
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.32: Iperboloide ad una falda e il suo cono asintotico
Capitolo 12
659
Si osservi che l’iperboloide di rotazione ad una falda introdotto nell’Esempio 12.12 e` un caso particolare di questa superficie in cui a = b. La stessa superficie di rotazione si `e anche ottenuta, in modo diverso, nell’equazione (12.11). Si lascia per esercizio, invece, lo studio della superficie in cui a = b = c. L’iperboloide ad una falda e` una superficie simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine del sistema di riferimento. Due assi soltanto intersecano la superficie e precisamente l’asse x nei punti A = (a, 0, 0), A = ( a, 0, 0) e l’asse y nei punti B = (0, b, 0), B = (0, b, 0), pertanto la superficie ha solo quattro vertici. Nel Paragrafo 12.6.1 si dimostrer`a che l’iperboloide ad una falda non solo e` una superficie rigata ma e` doppiamente rigata, ossia per ogni suo punto passano due rette ad essa appartenenti.
−
−
Le intersezioni dell’iperboloide ad una falda con i piani x = h, h R , sono ellissi (delle quali la pi u` piccola ha centro nell’origine e viene detta linea di gola o linea di strizione), mentre le sue intersezioni con i piani y = k, k R, e z = l, l R, sono iperboli. Si lascia per esercizio la determinazione delle equazioni delle coniche cos`ı ottenute e il confronto tra le lunghezze dei diametri delle ellissi e delle iperboli in relazione alle equazioni dei piani a cui esse appartengono. I piani passanti per l’asse z intersecano l’iperboloide ad una falda in iperboli i cui asintoti individuano un cono con vertice nell’origine, detto cono asintotico, che e` di conseguenza posizionato all’interno della superficie ed ha equazione:
∈ ∈
∈
x2 y 2 + 2 a2 b
−
z 2 = 0. c2
Nella Figura 12.32 sono rappresentati sia un iperboloide ad una falda sia il suo cono asintotico. Si verifica facilmente le equazioni parametriche dell’iperboloide ad una falda sono:
x = a cosh v cos u y = b cosh v sin u z = c sinh v, 0 u < 2π, v
∈ R.
≤
4. iperboloide a due falde di equazione in forma canonica:
x2 a2
y2 b2
− −
z 2 = 1, c2
si tratta della superficie rappresentata all’interno del cono nella Figura 12.33. Si osservi che l’iperboloide di rotazione a due falde di equazione (12.15) `e un caso particolare di questa superficie in cui b = c .
660
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.33: Iperboloide a due falde e il suo cono asintotico
Capitolo 12
661
Anche l’iperboloide a due falde `e una superficie simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine, un solo asse lo interseca, precisamente l’asse x nei punti A = (a, 0, 0), A = ( a, 0, 0) pertanto la superficie ha solo due vertici. Le sue sezioni: con i piani x = h , dove h > a e h < a, sono ellissi; con i piani y = k e z = l sono iperboli, mentre i piani passanti per l’asse x intersecano l’iperboloide a due falde in iperboli i cui asintoti costituiscono un cono, detto anche in questo caso cono asintotico, che racchiude la superficie al suo interno ed ha equazione:
−
x2 a2
−
y 2 b2
− −
z 2 = 0. c2
Si verifica facilmente che le equazioni parametriche dell’iperboloide a due falde sono:
Q
x = a cosh u cosh v y = b sinh u cosh v z = c sinh v, u, v
∈ R. Q e` una
Se e` una quadrica propria e si rappresenta con un’equazione di tipo (12.22) delle seguenti superfici.
5. paraboloide ellittico di equazione in forma canonica: x2 y2 + 2 = 2z, a2 b rappresentato nella Figura 12.34. Si osservi che il paraboloide di rotazione di equazione (12.16) e` un esempio di paraboloide ellittico, in cui la matrice A ad esso associata ha un autovalore di molteplicit`a 2. Il paraboloide ellittico `e una superficie simmetrica rispetto ai piani coordinati di equazioni x = 0, y = 0 e all’asse z , e` contenuta nel semispazio della semiretta positiva dell’asse z ed ha perci`o un solo vertice nell’origine. Le curve intersezione della superficie con i piani di equazione x = h, h R, h > 0, sono ellissi, si lascia per esercizio la determinazione dei vertici e dei diametri di queste ellissi in relazione al piano a cui esse appartengono, invece il piano x = 0 e` tangente alla superficie nell’origine. Le curve intersezione del paraboloide ellittico con i piani di equazione y = k e z = l, k,l R sono parabole.
∈
∈
Si verifica facilmente che le equazioni parametriche del paraboloide ellittico sono:
662
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.34: Paraboloide Ellittico
x = a u y = b v z = 12 (u2 + v2 ),
∈ R.
u, v
6. paraboloide iperbolico o a sella di equazione in forma canonica: x2 a2
−
y2 = 2z, b2
rappresentato nella Figura 12.35. Si nota subito che questa superficie non puo` essere una superficie di rotazione, perch´e? La superficie e` simmetrica rispetto ai piani coordinati yz e xz, e` anche simmetrica rispetto all’asse x. Se si interseca la superficie con il piano coordinato xy di equazione z = 0 si ottiene la conica degenere di equazione:
z = 0 x2 a2
−
y 2 =0 b2
formata da una coppia di rette incidenti, che quindi appartengono al paraboloide iperbolico. Nel Paragrafo 12.6.1 si dimostrer`a che effettivamente il paraboloi-
Capitolo 12
663
2
1
0
-1
-1 -2 0
-1
1 0 1
Figura 12.35: Paraboloide iperbolico o a sella de iperbolico e` un esempio di superficie rigata e, come l’iperboloide iperbolico, e` doppiamente rigata. L’intersezione del paraboloide iperbolico con il piano coordinato yz e` la parabola di equazioni:
y = 0 x2 = 2a2 z,
(12.25)
mentre l’intersezione del paraboloide iperbolico con il piano coordinato yz e` la parabola di equazioni:
x = 0 y2 = 2b2 z.
−
(12.26)
∈
Se si interseca, invece, il paraboloide iperbolico con i piani di equazione x = k, k R, k = 0, si ottengono le parabole di equazioni:
x = k 2
y =
2
−2b
− z
k2 . 2a2
(12.27)
Coni, Cilindri, Superfici di Rotazione e Quadriche
664
Operando mediante la traslazione degli assi cartesiani di equazioni:
si ottiene che, nel riferimento
R
x = X y = Y z
−
k2 = Z 2a2
= (O , X , Y , Z ) , la parabola (12.27) ha equazioni: X = k Y 2 = 2b2 Z,
−
quindi essa coincide con la parabola di equazioni (12.26) ma con il vertice nel punto
V =
k2 k, 0, 2 , 2a
R
= (O,x,y,z ). Situazione analoga si verifica intersecando scritto nel riferimento il paraboloide iperbolico con i piani di equazione y = h, h R , h = 0, ottenendo parabole tutte uguali a quella di equazioni (12.25). Se si interseca, invece, il paraboloide iperbolico con i piani di equazione z = l, l R, l = 0 si ottengono delle iperboli. Si lascia per esercizio la determinazione dei loro vertici e la verifica che essi appartengono (nel caso di l > 0 ) alla parabola di equazioni (12.25). Che cosa succede nel caso l < 0 ? Gli asintoti di tali iperboli originano un cono degenere di equazione:
∈
x2 a2
−
∈
y2 =0 b2
che in realt`a consiste in due piani incidenti. Le equazioni parametriche del paraboloide iperbolico sono:
Q
x = a u y = b v 1 z = (u2 2
2
− v ),
∈ R.
u, v
Se la quadrica e` degenere, cio`e se uno dei coefficienti della sua equazione in forma canonica si annulla, allora essa e` una delle seguenti superfici:
Capitolo 12
665
1. cono quadrico di equazione in forma canonica:
αx2 + βy 2 + γz 2 = 0
con α = 0 , β = 0 , γ = 0. In questo caso la quadrica e` un cono oppure si riduce ad un punto se α, β, γ hanno lo stesso segno. Si usa il termine “quadrico” solo per indicare che questo cono si rappresenta mediante un’equazione di secondo grado nelle variabili x, y,z. 2. Cilindro quadrico le cui equazioni, in forma canonica, possono essere dei tre tipi seguenti:
x2 y2 + 2 = 1, a2 b ossia il cilindro ellittico;
x2 a2
−
y2 = 1, b2
ossia il cilindro iperbolico;
x2 = 2 py, ossia il cilindro parabolico; Le denominazioni dei tre tipi di cilindri quadrici dipendono dal fatto che ogni piano, non parallelo ad una generatrice, interseca il cilindro rispettivamente secondo un’ellisse, un’iperbole, una parabola. 3. Unione di due piani incidenti, paralleli o coincidenti, anche immaginari, con equazioni, in forma canonica del tipo:
αx2 + βy 2 = 0, x2 = a2 ,
a
α, β R, α = 0, β = 0,
∈
∈ R, a = 0
x2 = 0. Riassumendo, si pu`o ottenere la classificazione delle quadriche attraverso il rango delle matrici A e B ad esse associate nel modo seguente, tenuto conto che il rango di A ed il rango di B sono invarianti per rototraslazioni nello spazio.
Coni, Cilindri, Superfici di Rotazione e Quadriche
666
• rank(B) = 4 • rank(B) = 3 • rank(B) = 2
rank(A) = 3 :
ellissoide, sfera, iperboloide ad una falda, iperboloide a due falde;
rank(A) = 2 : paraboloide ellittico, paraboloide iperbolico. rank(A) = 3 : cono; rank(A) = 2 : cilindro. rank(A) = 2 : due piani incidenti; rank(A) = 1 : due piani paralleli.
• rank(B) = rank(A) = 1 :
due piani coincidenti.
Esercizio 12.19 Ridurre in forma canonica la quadrica 2
Q : 4x Soluzione
Q di equazione:
+ 4xy + 4xz + 4y 2 + 4yz + 4z 2 + 4x + 4y + 8z + 3 = 0.
Le matrici A e B associate alla quadrica sono:
A =
4 2 2 2 4 2 2 2 4
,
B=
−
4 2 2 2
2 4 2 2
2 2 4 4
2 2 4 3
Q
.
Poich´e det(B) = 32, det(A) = 3 2, la quadrica pu`o essere un ellissoide o un iperboloide ad una o due falde. Gli autovalori di A con le rispettivie molteplicit a` sono:
λ1 = 2, mλ = 2; 1
λ2 = 8, mλ = 1, 2
Q e` un ellissoide di rotazione. Una base ortonormale di autovettori `e:
quindi
√
1 , 0, 2
− √ − √ √ − √ √ √ √ 1 , 2
1 2 , , 6 6
1 , 6
1 1 1 , , 3 3 3
Si definisce quindi la rotazione degli assi cartesiani di equazioni:
.
Capitolo 12
x y z
= P
x
y z
=
√
x y z
2 0 0 0 2 0 0 0 8
1 2
− √
0
√ 26
√ √ 1 3
x
1 3
y
− √ 12 − √ 16 √ 13
z
e l’equazione della quadrica nel riferimento
667
1 6
R = (O, x , y , z ) e` :
x y z
+
4 4 8
x y z
P
+3=0
ossia:
16 − √ 42 x − √ 46 y + √ z + 3 = 0. 3
2(x )2 + 2(y )2 + 8(z )2
Operando con il metodo del completamento dei quadrati si ha:
− √ − √ √ −
2 x
1 2
2
+2 y
2
1 6
1 + 8 z + 3
2
Mediante la traslazione di equazioni:
X Y Z
la quadrica assume, nel riferimento
=
R
x
y z
−√ −√ 1 2
+
1 6
,
√ 13
= (O , X , Y , Z ) l’equazione:
2X 2 + 2Y 2 + 8Z 2 = 1.
1 = 0.
Coni, Cilindri, Superfici di Rotazione e Quadriche
668
Si tratta proprio di un ellissoide di rotazione. La rototraslazione che permette di passare dal riferimento iniziale al riferimento e` :
R
x y z
=
R
√
1 2
1 6
− √
0
√ 26
√ √ 1 3
X
1 3
Y
− √ 12 − √ 16 √ 13
Z
+
0 0
−1
,
quindi l’origine O del riferimento , che `e anche il centro dell’ellissoide, ha coordinate (0, 0, 1) nel riferimento iniziale .
R R
−
12.6.1
Quadriche rigate
Lo scopo di questo paragrafo `e quello di dimostrare che due quadriche proprie, precedentemente introdotte, l’iperboloide ad una falda e il paraboloide iperbolico, sono esempi di superfici rigate (cfr. Par. 12.5) essendo interamente costituite da una doppia famiglia di rette. D’altra parte, entrambe queste superfici possono essere ottenute anche come luogo geometrico di punti, come sar`a specificato nel Teoremi 12.4 e 12.5.
12.6.2
L’iperboloide ad una falda
L’equazione dell’iperboloide ad una falda:
I :
x2 y2 + a2 b2
2
− z c
2
= 1,
superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.32, si puo` anche scrivere come:
I − − :
x z + a c
x a
z y = 1+ c b
1
y . b
(12.28)
Dalla precedente uguaglianza di due prodotti si ricavano, per esempio, le espressioni:
Capitolo 12
1.
2.
x a
− z c
y 1+ b x a
1 =
− yb
x z + a c
= λ1 ,
z y 1+ c b = = λ2 , y x z + b a c
− 1−
669
λ1
∈ R, (12.29)
λ2
∈ R,
ciascuna delle quali conduce alle due famiglie di rette seguenti:
1.
2.
− − −
−
x a
z y = λ 1 1 + c b
1
y x z = λ 1 + , b a c
x a
z = λ 2 1 c
1+
y x z = λ2 + , b a c
(12.30)
y b
che, al variare di λ1 , λ2 R appartengono all’iperboloide . Si osservi che, a partire da (12.28), ogni altra combinazione dell’uguaglianza darebbe luogo alle stesse equazioni ottenute in (12.29). Per ogni punto P 0 si individuano due parametri λ1 e λ2 , di conseguenza si determinano due rette passanti per P 0 , una per ogni famiglia di rette in (12.30) ma entrambe appartenenti a , pertanto anche e` una superficie doppiamente rigata. Le due famiglie di rette di equazioni (12.30) prendono il nome di schiere di rette appartenenti all’iperboloide .
∈
I
∈ I
I
I
I
Si vuole, ora, studiare la posizione reciproca di due rette r1 e r1 appartenenti alla stessa schiera, per esempio alla schiera 1. in (12.30), corrispondenti ai parametri λ 1 e λ 1 ; siano:
r1 :
r1 :
− − − −
x a
z y = λ1 1 + c b
1
y x z = λ1 + , b a c
x a
z y = λ1 1 + c b
1
y x z = λ1 + . b a c
Coni, Cilindri, Superfici di Rotazione e Quadriche
670
4 2 0
-2
-4
4
2
0
-2
-4
-4 -2 0 2 4
Figura 12.36: Iperboloide Iperboloide ad una falda con le due schiere di rette
Capitolo 12
671
I
Esse non sono incidenti perch´ perche´ ogni punto P 0 di determina determina un solo valore di λ 1 , quindi una sola retta della schiera schiera considerata. considerata. Le rette r1 e r1 non sono parallele infatti r1 e` parallela al vettore:
i
j
1 a
λ1 b
−
1 b
λ1 a
− − − − k
1 c
=
λ21 + 1 , bc
=
λ12 + 1 , bc
−
2λ1 1 + λ21 , , ac ab
−
2λ1 1 + λ12 , , ac ab
λ1 c
mentre r 1 e` parallela al vettore: i
j
1 a
λ1 b
λ1 a
−
1 b
k
1 c
λ1 c
di conseguenza le rette r1 r r1 sono sghembe. Concludendo, Concludendo, le rette appartenenti appartenenti alla stessa schiera di rette sull’iperboloide iperbolico sono tra loro sghembe, mentre per ogni punto dell’iperboloide iperbolico passano due rette, una di una schiera e l’altra dell’altra schiera, schiera, interamente interamente contenute contenute sull’iperbol sull’iperboloide oide iperbolico iperbolico stesso. La situazione situazione geometrica e` molto ben illustata illustata nella Figura 12. 12 .26 realizzata con il programma di calcolo simbolico Mathematica dal Prof. S. Berardi del Dipartiment Dipartimento o di Informatica Informatica dell’Univ dell’Universit ersit`a` di Torino.
Esercizio 12.20 Dato l’iperboloide:
x2 y2 : + (12.31) z 2 = 1, 4 9 (2, 3, 1) ricavare ricavare le equazioni equazioni delle rette r e s che passano per il punto P = (2, e e che giacciono giacciono sull’iperbo sull’iperboloide. loide. Determinare, Determinare, inoltre, l’equazione l’equazione del piano π contenente le rette r e s .
I
−
∈ I
Soluzione
Data la retta generica r passante per il punto P :
r :
x = 2 + lt y = 3 + mt = 1 + nt, z =
(12.32)
t
∈ R,
Coni, Cilindri, Superfici di Rotazione e Quadriche
672
( l,m,n)) in modo tale che r appartenga si vogliono determinare i suoi parametri direttori (l,m,n ad . Sostituendo Sostituendo le equazioni equazioni (12.32) in (12.31) si ha:
I
(2 + lt) (3 + mt) lt)2 mt)2 + 4 9 da cui:
l2 m2 + 4 9
−n
2
− (1 + nt) nt)
2 t + l + m 3 2
2
= 1,
− 2n
t = 0.
Si perviene quindi al sistema di secondo secondo grado:
le cui due soluzioni sono:
2 l + m 3
− 2n = 0
l2 m 2 + 4 9
m = 0 l = 2n,
2
−n
= 0, 0,
−
m 3n = 0 l = 0,
(2, 3, 1), 1), parallela in corrispondenza delle quali si ottengono le rette r passante per P = (2, al vettore r = (2, (2, 0, 1) e s passante per P = (2, (2 , 3, 1), 1), parallela al vettore s = (0, (0, 3, 1) . Si ottien ottienee lo stesso stesso risult risultato ato decomp decomponen onendo do l’equaz l’equazion ionee dell’i dell’iper perbol boloid oidee (12.31) (12.31) nel modo modo seguente:
− − x 2
x + z = 1 2
z
y 3
1+
y 3
e ricavando le equazioni delle due schiere di rette ad esso appartenenti:
− − x 2
1+
= λ 1 1 z = λ
y 3
y x = λ1 + z , 3 2
− − x 2
∈ R,
λ1
1
= λ2 1 + z = λ
y 3
y x = λ2 + z , 3 2
∈ R.
λ2
Sostituendo in entrambe le equazioni delle schiere le coordinate del punto P si ricavano i valori di λ1 e di λ2 e si perviene cos`ı alle equazioni delle rette r e s, una per ciascuna schiera.
(2, 3, 1) e parallelo ad r e a s ha equazione: Il piano π passante per P = (2,
Capitolo 12
x
− 2 y − 3 z − 1 2 0
0 3
1 1
673
= 3x + 2y 2y
− 6z − 6 = 0.0 .
Il teorema che segue afferma che l’iperboloide ad una falda puo` anche essere ottenuto come luogo luogo geometrico geometrico di punti. punti. Anzich´ Anzich´e proporre la dimostrazione (che e` comunque un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.21, un esempio dello stesso luogo geometrico.
Teorema 12.4 L’iperboloide ad una falda e` il luogo delle rette che si appoggiano contemporaneamente a tre rette che sono sghembe a due a due.
Esercizio 12.21 Date le rette:
r :
x = 0 y = 0 = t, t z = t,
s :
∈ R,
= t x = t y = 1 = 0, t z =
h :
∈ R,
−
x = 1 = t y = t = 1, t z =
∈ R,
verificare che sono sghembe a due a due e determinare il luogo delle rette che si appoggiano contemporaneamente ad r,s,h. ` immediato verificare che le rette date sono a due a due sghembe (`e sufSoluzione E ficiente notare che non sono parallele e che per esempio le rette s e h non passano per l’origine, a differenza della retta r, e che s e h non sono incidenti). La retta che unisce il punto generico di s con il punto generico di h ha equazione:
x t y = 1 t + 1
−
−1 −t
=
z . 1
−
(12.33)
Se si impone che questa retta passi per il punto generico generico di r si ottengono le uguaglianze:
1 t = = 1 t t + 1
−
−t,
che stabiliscono la condizione che devono verificare i parametri t, t e t affinch´ affinche´ siano allineati tre punti di r , s ed h rispettivamente. Da esse si ottengono le relazioni:
t =
−t , 1−t
Sostituendo nell’equazione (12.33), segue:
t =
1+t . t
Coni, Cilindri, Superfici di Rotazione e Quadriche
674
t 1+t = y 1 = t t+1 +1 1 1 t t
x+
−
−
−
−z,
o, con ovvie semplificazioni, l’espressione:
x(1 + t) + t =
−t(y − 1) = −z
che rappresenta la generica retta del luogo richiesto, al variare del parametro t . La retta precedente si puo` scrivere come intersezione dei due piani:
−
= t(x + 1) x + z = t(y 1) = z, z ,
−
dai quali si elimina facilmente il parametro t e si ottiene l’equazione cartesiana del luogo:
S : xy + + yz − x = 0. xy + xz + Si tratta, evidentemente, di una quadrica che si pu o` identificare con la riduzione a forma canonica della sua equazione. A tale scopo si considera la matrice A associata alla forma quadratica di :
S
A =
0
1 2
1 2
1 2
0
1 2
1 2
1 2
0
i cui autovalori, con le rispettive molteplicit a, a` , sono:
λ1 =
− 12 , m
λ1
= 2;
1. λ2 = 1, mλ = 1. 2
Gli autospazi corrispondenti sono rispettivamente V λ = 1
−
0), u1 = ( 1, 1, 0),
−
1), u2 = ( 1, 0, 1),
L(u , u ), V 1
2
λ2
L
= (u3), con:
(1, 1, 1). 1). u3 = (1,
Utilizzando il processo di ortonormalizzazione di Gram–Schmidt per il primo autospazio e calcolando il versore di u3 si ottiene una base ortonormale = (u1 , u2 , u3 ) di autovettori la cui matrice ortogonale P del cambiamento di base da = (i, j, k) a e: e` :
B B
B
Capitolo 12
−√ √
1 2
√ √
1 6
1 3
√
1 2
P =
675
√ 16
1 3
− √ 26
0
.
√ 13
R = (O,x,y,z ) con il cambiamento di riferimento dato dalla rotazione di
Operando Operando su equazioni:
x y z
x y z
= P
si perviene all’equazione della quadrica:
− 12 (x ) − 12 (y ) 2
2
+ (z (z )2 +
√ 12 x − √ 16 y − √ 13 z = 0.
Procedendo con il metodo del completamento dei quadrati si ha:
√ − − √ − − √ 1 2
x
1 2
2
1 2
1 y + 6
2
+ z
1
2 3
ed applicando la traslazione di equazioni:
X Y Z
=
x y z
+
−√ √ − √ 1 2 1 6 1 2 3
si ha l’equazione della quadrica in forma canonica:
2X 2 + 2Y 2Y 2
2
− 4Z
Si tratta, pertanto, di un iperboloide ad una falda.
= 1.
2
+
1 =0 4
Coni, Cilindri, Superfici di Rotazione e Quadriche
676
12.6.3 12.6.3
Il parabo paraboloi loide de iperbo iperboli lico co
L’equazione del paraboloide iperbolico:
P
x2 : 2 a
−
y2 = 2z, 2 z, b2
superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12. 12.35 , pu`o essere decomposta come:
− x y + a b
x a
y b
= 2z.
(12.34)
L’equazione (12.34), in realt` realta, a` , equivale alle due equazioni seguenti:
e:
2z x y + = x y = λ1 , a b a b x a
− yb =
2z
x y = λ2 , + a b
∈ R
(12.35)
∈ R.
(12.36)
λ1
−
λ2
D’altra parte, (12.35) pu` puo` essere scritta scritta come:
− − x y + = λ1 a b
2z = λ = λ1
e (12.36) come:
x a
x a
y , b
(12.37)
∈ R
λ1
y = λ2 b
2z = λ = λ2
x y + , a b
(12.38)
∈ R.
λ2
I due sistemi lineari (12.37) e (12.38) rappresentano due famiglie di rette che, al variare di λ1 e λ2 in R appartengono al paraboloide iperbolico, in quanto ne verificano la sua equazione. equazione. Il paraboloide paraboloide iperbolico, iperbolico, con le due famiglie famiglie di rette appena determinate, determinate, e` 12 .37, 37, tratta da [11]. rappresentato nella Figura 12. Come nel caso dell’iperboloide iperbolico, ciascuna di queste famiglie di rette prende il nome di schiera di rette del paraboloide iperbolico, Si vuole ora studiare la posizione reciproca reciproca delle rette all’interno all’interno della stessa schiera. Si consideri, per esempio, la schiera schiera di rette (12.35). Tutte le rette di tale schiera, al variare di λ 1 in R , appartengono al piano:
x y + = λ1 , a b
Capitolo 12
677
Figura 12.37: Le due schiere di rette sul paraboloide paraboloide iperbolico iperbolico quindi appartengono a piani paralleli ma sono rette sghembe perch e` i piani:
2z = λ = λ 1
− x a
y b
non sono paralleli. paralleli. Lo stessa situazione situazione si verifica per le rette appartenenti appartenenti alla schiera schiera (12.36). (12.36). Inoltre, Inoltre, coppie di rette di schiere schiere diverse diverse sono complanari, complanari, infatti infatti per ogni punto P 0 del paraboloide esistono due rette (una appartenente a (12.35) una appartenente a (12.36)) passanti per P 0 e interamente contenute in , pertanto e` una superficie doppiamente rigata.
P
P
P
spazio sono date le rette sghembe: Esercizio 12.22 Nello spazio
r :
x = 0 1 y = , 2
s :
x =
− 12
= 0. z =
Determinare il luogo dei centri delle sfere tangenti, contemporaneamente, a r e a s.
Soluzione Il centro C = (x0 , y0 , z 0 ) della sfera deve verificare la condizione d( d (C, r) = = z 0 , l’intersezione d(C, s) . Sia π1 il piano per C ortogonale ad r , che ha ha equazione z = z
Coni, Cilindri, Superfici di Rotazione e Quadriche
678
di π 1 con r e` il punto A dato da:
−
A =
1 0, , z 0 . 2
Sia π2 il piano per C ortogonale a s , che ha equazione x = x = x 0 , l’intersezione di π 2 con s e` il punto B dato da:
B =
x0 ,
1 ,0 . 2
Allora d( percio` da d( d (C, r) = d( d (C, A) e d( d (C, s) = d( d (C, B ) , perci` d (C, A) = d( d (C, B ) si ottiene:
x20
2 0
− z = 2y
0
che e` l’equazione cartesiana cartesiana di un paraboloide paraboloide iperbolico. iperbolico. La situazione situazione geometrica e` 12 .38. 38. rappresentata nella Figura 12. Il teorema che segue afferma che il paraboloide iperbolico pu` puo` anche essere ottenuto come luogo geometrico geometrico di punti. punti. Anzich´e proporre la dimostrazione dimostrazione (che e` comunque un esercizio e viene lasciata al Lettore) si preferisce ricavare un esempio dello stesso luogo geometrico nell’Esercizio 12.23.
Teorema 12.5 Il paraboloide iperbolico si pu o` ottenere come luogo geometrico delle rette che si appoggiano a due rette sghembe e sono tutte parallele ad un piano.
: x Esercizio 12.23 Dati il piano π : x r :
√ − −√ √ x
y 2x +
− y = 0 e le rette:
2z = = 0 2 y 1 = 0,
−
s :
√ − x
√ √
= 0 y + 2z = 2x + 2y + 1 = 0, 0,
verificare verificare che r e s sono sghembe e determinare il luogo delle rette che si appoggiano contemporaneamente ad r e a s e sono parallele parallele al piano π . perche´ giacciono su piani Soluzione Si vede facilmente che le rette r e s sono sghembe perch´ paralleli e sono ottenute dall’intersezione con altri due piani tra di loro non paralleli. Le equazioni parametriche di r e di s sono:
r :
1 + 2t 2t x = 2 2 1 2t y = 2 2 z = t, t R;
√ −√
∈
s :
−1 √ − 2t x = 2 2 −1 √ + 2t 2t y =
2 2 = t , t z = t
∈ R.
Capitolo 12
12 .23 Figura 12.38: Esercizio 12.
679
680
Coni, Cilindri, Superfici di Rotazione e Quadriche
La retta che unisce il punto generico di r con il punto generico di s ha percio` equazione:
2t − 12+√ 2t 2 1 + 2t 2t 1 + 2t 2t √ + √ 2 2 2 2
− 12−√ 22t 1 − 2t 1 − 2t √ + √ 2 2 2 2
x
y
=
=
− −
z t , t t
che si semplifica nell’espressione seguente:
√ −
√ − − − −
− −
2 2x (1 + 2t 2 t) 2 2y (1 2t) z t = = . 2 + 2t 2 t + 2t 2t 2 2t 2t t t Se si impone impone poi che tale retta sia parallela al piano π , si ottiene t = t = scrivere l’equazione precedente nella forma:
permette di −t , che permette
√ − √ z − t (1 + 2t 2t) = 2 2y − (1 − 2t) = t
2 2x
e rappresenta, al variare del parametro t, la generica retta del luogo geometrico richiesto. Essa si puo` anche scrivere come intersezione dei due piani:
√ √ − 2 2x t( 2y
−
(1 + 2t 2t) 1 + 2t 2t)
− 2√ 2y + (1 − 2t) = 0 − z + + t = 0.
Dall’equazione del primo piano si ricava:
2t =
√ − 2(x 2(x y)
e sostituendo l’espressione di t nell’equazione del secondo piano si perviene a:
x2
−y
2
= z, z ,
che rappresenta rappresenta l’equazione l’equazione del luogo geometrico. geometrico. Come si puo` osservare, si ottiene un paraboloide iperbolico.
12.7 12.7
Eserci Esercizi zi di riepilo riepilogo go svolt svoltii
C
circonferenza Esercizio Esercizio 12.24 12.24 – Il cono-cuneo di Wallis Wallis – Sono dati una retta a , una circonferenza che giace su un piano π , parallelo ad a, il cui centro appartiene alla retta ortogonale a π condotta da un punto di a ad un piano π perpendicolare ad a . Determinare Determinare l’equazione l’equazione del luogo geometrico delle rette che si appoggiano alla circonferenza , alla retta a e sono parallele a π .
C
Capitolo 12
681
12 .24 Figura 12.39: Esercizio 12. semplicita` si scelga a coincidente con l’asse z del del riferimento cartesiano Soluzione Per semplicit` = k , con centro sull’asse y e raggio r . Detti P un punto e la circonferenza sul piano y = k generico di e Q un punto generico di a , la retta P Q ha equazioni:
C
C
− −
X Y Z z = = = t. r cos ϕ k r sin ϕ z
−
Se si impone che a sia parallela al piano z = z = 0 , segue:
r sin ϕ
− z = = 0,
= r sin ϕ z = r
e quindi le equazioni del luogo richiesto sono:
X = tr cos ϕ Y = tk Z = r sin ϕ, t
∈ R, 0 ≤ ϕ < 2π. 2 π.
Per pervenire all’equazione cartesiana si ricava:
Coni, Cilindri, Superfici di Rotazione e Quadriche
682
ossia:
kX = cos ϕ rY Z = sin ϕ, r
(kX )2 Z 2 + 2 = 1, (rY ) rY )2 r da cui si ottiene:
Z 2 Y 2 + k 2 X 2
2
− r Y
2
= 0. 0.
La superficie appena descritta, che prende il nome di cono-cuneo di Wallis Wallis `e rappresentata 12 .39, 39, si osservi, inoltre, nella Figura 12. inoltre, che si tratta di una superficie rigata. rigata.
E
con le lunEserci Esercizio zio 12.25 12.25 – Il conoide conoide retto retto di Plucker ¨ – Si considerino un’ellisse con ghezze dei semiassi a, b legate dalla relazione a = 2 b e i vertici nei punti A e A sull’asse maggiore e nei punti B e B sull’asse minore, il piano π passante per l’asse minore AB di sia sia inclinato di π/4 e si consideri, inoltre, una retta r π/4 sul piano di e per A ortogonale a π . (Si osserv osservii che si si proietta ortogonalmente sul piano π in una circonferenza circonferenza). ). Determinare Determinare l’equazione l’equazione del luogo delle rette che si appoggiano ad e ad r e sono parallele al piano π .
√
E
E
E
E
Soluzione Si scelgano scelgano il punto A come origine, le rette AB ed r quali assi x e z rispettivamente. rispettivamente. Detti P = (b(1 cos ϕ), b sin ϕ, b sin ϕ) un punto generico dell’ellisse e Q = (0, 0, λ) un punto generico di r , la retta P Q ha equazione: Q = (0,
−
E
−
x y z λ = = = t. b(1 cos ϕ) b sin ϕ b sin ϕ λ
−
−
Imponendo il parallelismo al piano π ( z = 0 ), si ricava λ = b sin ϕ e le equazioni parametriche del luogo richiesto sono:
−
= tb(1 (1 cos ϕ) x = tb = tb sin ϕ y = tb = b sin ϕ, t R, 0 z = b
∈
Per ottenere l’equazione cartesiana si calcola:
≤ ϕ < 2π. 2 π.
Capitolo 12
12 .25 Figura 12.40: Esercizio 12.
12 .25 Figura 12.41: Esercizio 12.
683
684
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.42: Esercizio 12.26
2
x2 + y2 = t2 b2 (1 + cos2 ϕ =
− 2cos ϕ + sin ϕ) t b (2 − 2cos ϕ) = 2tb[tb(1 − cos ϕ)] = 2tbx. 2 2
Poich`e t = y/z , sostituendo nell’espressione precedente si ha:
(x2 + y2 )z = 2bxy, che e` l’equazione cercata. La superficie cos`ı ottenuta prende il nome di conoide retto di Pl¨ ucker ed `e rappresentata, da due diverse angolazioni, nelle Figure 12.40 e 12.41 . Anche il conoide di Pl u¨ cker e` un esempio di superficie rigata.
C
Esercizio 12.26 – La superficie dalla volta a sbieco – Si considerino due coniche 1 e 2 , aventi due punti in comune, situate in piani diversi e sia d una retta che non incontri le due coniche date. Dimostrare che il luogo geometrico delle rette che si appoggiano contemporaneamente a 1 , 2 , d e` una superficie rigata, la cui equazione in forma implicita e` un polinomio di sesto grado in x, y,z .
C
C C
C C C C
Soluzione Come caso particolare si supponga che 1 e 2 siano due circonferenze, aventi lo stesso raggio, di centro i punti O1 e O2 , rispettivamente. Gli altri casi sono lasciati al Lettore per esercizio. Si supponga, inoltre, che 1 e 2 appartengano a piani
Capitolo 12
685
paralleli e non perpendicolari alla retta O1 O2 che unisce i loro centri. Si consideri come direttrice la retta d normale ai due piani, contenenti le circonferenze, e passante per il punto medio O del segmento O 1 O2 . Per ragioni di simmetria il cono che da O proietta 1 contiene anche 2 e, quindi, fa parte del luogo geometrico cercato; escludendolo, rimane, come elemento dello stesso luogo, una superficie, che si vedr`a avere un’equazione di quarto grado che, per la sua forma particolare, viene detta volta a sbieco. Per ricavare esplicitamente l’equazione del luogo geometrico si posizioni il riferimento cartesiano con l’origine nel punto O , la retta d quale asse y e si faccia passare il piano z = 0 per O 1 ed O2 . Siano:
C
C
C : 1
x2 + z 2 2hx + h2 y + k = 0,
−
C
−r
C
2
=0
C : 2
x2 + z 2 + 2hx + h2 y k = 0,
−
−r
2
=0
C C
le equazioni di 1 e di 2 . Il piano x = mz , passante per la retta d , incontra 1 e 2 , rispettivamente nei punti P = (mγ, k, γ ) e Q = (mδ,k,δ ) con γ e δ che verificano le equazioni:
−
(1 + m2 )γ 2 γ
−
2
− 2hmγ + h − r
2
=0 (12.39)
2hm δ = . 1 + m2
La retta P Q ha equazioni:
x = mz (δ γ )(y + k) = 2k(z
−
− γ ).
(12.40)
Eliminando tra le equazioni (12.39) e (12.40) i parametri m, γ e δ si ottiene l’equazione cercata:
[k(x2 + z 2 ) + hxy]2
2
2 2
− k [r x
+ (r 2
2
2
− h )z ] = 0.
Nel Figura 12.42 e` rappresentata la volta a sbieco ottenuta ponendo k = 1, h = 2, r = 1 .
Esercizio 12.27 – Elicoide retto – Trovare il luogo geometrico delle rette che si appoggiano all’elica circolare cilindrica di equazioni parametriche:
x = R cos ϕ y = R sin ϕ z = hϕ, ϕ
(12.41)
∈ R,
e all’asse z e sono parallele al piano xy , al variare del parametro reale ϕ .
686
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.43: Elica cilindrica
Figura 12.44: Esercizio 12.27
Capitolo 12
687
Soluzione L’elica circolare cilindrica , rappresentata nella Figura 12.43, e` una curva nello spazio, dalle sue equazioni parametriche (12.41) si evince che si tratta semplicemente di una circonferenza del piano xy che si avvolge intorno all’asse z con un passo che varia al variare di h , pertanto la curva giace sul cilindro di equazione x 2 + y 2 = R 2 da cui la sua denominazione. La retta generica del luogo geometrico richiesto unisce i punti P e Q dati da:
P = (R cos ϕ, R sin ϕ,hϕ),
Q = (0, 0, hϕ)
ed ha perci`o equazioni:
x
− R cos ϕ = y − R sin ϕ = u R cos ϕ
z = hϕ,
R sin ϕ
u
∈ R.
Essa si puo` anche scrivere nella forma parametrica seguente:
x = R cos ϕ + uR cos ϕ y = R sin ϕ + uR sin ϕ z = hu, u, ϕ
∈ R,
che rappresenta il luogo geometrico, al variare dei parametri reali ϕ e u. Si puo` vedere questa superficie, detta elicoide retto , rappresentata nella Figura 12.44 . Anche l’elicoide retto e` un esempio di superficie rigata.
Esercizio 12.28 – Vite di Saint Gilles – Determinare l’equazione del luogo geometrico descritto da una circonferenza avente raggio r, centro in un punto generico dell’elica circolare cilindrica di equazioni (12.41) e appartenente ad un piano passante per l’asse z.
C
Soluzione
Il piano π, passante per un punto C dell’elica e per l’asse z , ha equazione:
π : x sin ϕ
− y cos ϕ = 0.
Su π si sceglie il riferimento ortonormale formato da un vettore u1 parallelo a π, sia u1 = cos ϕi + sin ϕ j, e da un vettore u2 parallelo a π ed ortogonale a u1 , ad esempio u2 = u 1 (sin ϕi cos ϕ j) = k. Perci`o due versori ortogonali tra di loro e paralleli a π sono: u1 u2 = cos ϕi + sin ϕ j, v2 = = k. v1 = u1 u2
∧
−
−
− Una rappresentazione vettoriale parametrica della circonferenza C sul piano π e` quindi:
P = C + r(cos uv1 + sin uv2 ),
688
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.45: Esercizio 12.28 ossia:
P = R cos ϕi + R sin ϕ j + hϕk + r[cos u(cos ϕi + sin ϕ j)
− sin uk],
dalla quale si ottiene la rappresentazione parametrica:
S :
x = R cos ϕ + r cos ϕ cos u y = R sin ϕ + r sin ϕ cos u z = hϕ r sin u, u, ϕ R,
−
∈
S
che, al variare di ϕ e di u, descrive una superficie , che e` il luogo geometrico richiesto e che, per la sua conformazione, viene detta vite di Saint Gilles ed e` rappresentata nella Figura 12.45.
Esercizio 12.29 – Colonna torsa – Determinare l’equazione del luogo geometrico descritto da una circonferenza , di raggio r , con il centro in un punto generico dell’elica circolare cilindrica di equazioni (12.41) e appartenente ad un piano π che si mantiene ortogonale all’asse z , al variare del parametro ϕ in R .
C
Capitolo 12
689
Figura 12.46: Esercizio 12.29
C
Sul piano π passante per un punto C di ed ortogonale all’asse z si pu`o Soluzione scegliere come base ortonormale (i, j). Di conseguenza, la rappresentazione vettoriale parametrica della circonferenza di π con centro C e raggio r e` :
C
P = C + r(cos u i + sin u j), ossia:
P = R cos ϕ i + R sin ϕ j + hϕ k + r cos u i + r sin u j, dalla quale si ottiene la rappresentazione cartesiana parametrica:
S :
x = R cos ϕ + r cos u y = R sin ϕ + r sin u z = hϕ, u, ϕ R,
∈
S
che, al variare dei parametri ϕ ed u , genera il luogo geometrico richiesto che e` la superficie rappresentata nella Figura 12.46 e che prende il nome di colonna torsa per la sua particolare conformazione.
Coni, Cilindri, Superfici di Rotazione e Quadriche
690
12.8
Per saperne di pi`u
12.8.1
Piano tangente ad una quadrica in un suo punto
In questo paragrafo si accenna in modo molto intuitivo, senza alcuna pretesa di rigore matematico, al procedimento da seguire per determinare l’equazione del piano tangente ad una quadrica in un suo punto, e pi u` in generale del piano tangente ad una superficie in suo punto. Si otterr`a un risultato che estende in modo naturale la formula che permette di determinare la retta tangente ad una conica in un suo punto non singolare (cfr. Par. 10.8). Un esempio di questo tipo e` il piano tangente ad una sfera in un suo punto che e` stato ricavato mediante semplici considerazioni geometriche nel Paragrafo 11.7.2. Se Σ e` la sfera di equazione:
Σ : x2 + y2 + z 2
− 2αx − 2βy − 2γz + δ = 0, il piano tangente a Σ in P = (x , y , z ) ∈ Σ ha equazione (cfr. Par.11.7.2): (x − α)(x − x ) + (y − β )(y − y ) + (z − γ )(z − z ) = 0. 0
0
0
0
0
0
0
0
0
0
Sviluppando i calcoli indicati si ottiene:
x0 x + y0 y + z 0 z
2 0
2 0
2 0
− αx − βy − γz − x − y − z + αx + βy + γz = 0 0
0
0
e, tenuto conto dell’appartenenza di P 0 a Σ , segue:
x0 x + y0 y + z 0 z
− α(x + x ) − β (y + y ) − γ (z + z ) + δ = 0. 0
0
0
(12.42)
Se si scrive l’equazione di Σ in notazione matriciale:
x y z 1
con:
B =
−
1 0 0 α
B
0 1 0 β
x y z 1
0 0 1 γ
− −
=0
−α −β −γ δ
l’equazione (12.42) del piano tangente a Σ in P 0 diventa:
x0 y0 z 0 1
B
x y z 1
,
= 0.
(12.43)
Capitolo 12
691
Si intende dimostrare un teorema che estende la formula (12.43) al caso del piano tangente ad una quadrica in un suo punto di tipo particolare. Si devono per`o premettere sia la definizione formale di piano tangente ad una superficie sia la definizione dei punti della superficie in cui e` possibile considerare il piano tangente, per esempio intuitivamente e` chiaro che non e` possibile definire il piano tangente ad un cono nel suo vertice. Si inizia quindi con la definizione di punto singolare di una quadrica, che estende l’analoga definizione di punto singolare di una conica (cfr. Def. 10.9).
Q
Definizione 12.10 Sia una quadrica di equazione f (x,y,z ) = 0, dove f (x,y,z ) e` il polinomio di secondo grado in x, y,z che definisce , e sia P 0 un suo punto. P 0 e` un punto singolare di se il vettore:
Q
Q
∂f ∂f ∂f (P 0 ), (P 0 ), (P 0 ) ∂x ∂y ∂z
e` uguale al vettore nullo, dove con ∂f/∂x , ∂f/∂y , ∂f/∂z si indicano, rispettivamente, le derivate parziali di f rispetto a x , y, z . In caso contrario il punto P 0 si dice regolare.
Esercizio 12.30
1. Si verifichi che il vertice di un cono e` un punto singolare.
2. Si verifichi che tutti i punti di una quadrica non degenere sono regolari. Anche la definizione di piano tangente ad una quadrica in suo punto non singolare estende la definizione di retta tangente ad una conica in un suo punto (cfr. Def. 10.8) nel modo seguente.
Q
Definizione 12.11 Il piano tangente ad una quadrica in un suo punto non singolare P 0 e` il luogo delle rette tangenti in P 0 a tutte le curve che giacciono sulla superficie e che passano per P 0 .
Q
` chiaro che una retta r si dice tangente ad una quadrica in un suo Osservazione 12.7 E punto P 0 se la retta r ha due intersezioni riunite in P 0 con la quadrica . Invece se una retta r interseca una quadrica in un solo punto non e` detto che sia tangente a in quel punto. Si consideri, ad esempio, l’asse di rotazione di un paraboloide di rotazione che interseca solo nel vertice del paraboloide il paraboloide stesso senza essere ad esso tangente.
Q
Il paragrafo si conclude con la dimostrazione del teorema annunciato.
Q
Q
Q
692
Coni, Cilindri, Superfici di Rotazione e Quadriche
Teorema 12.6 Sia
Q la quadrica di equazione:
Q:
x y z 1
dove
B =
a11 a12 a13 a14
B
a12 a22 a23 a24
x y z 1
a13 a23 a33 a34
a14 a24 a34 a44
= 0,
indica la matrice simmetrica di ordine 4 ad essa associata. Sia P 0 = (x0 , y0 , z 0 ) un punto di non singolare, allora il piano π tangente alla quadrica nel punto P 0 e` :
Q
π :
x0 y0 z 0 1
B
x y z 1
Q
= 0.
(12.44)
Dimostrazione Si calcolino le intersezioni della generica retta r passante per P 0 di equazioni parametriche:
r :
Q
x = x 0 + lt y = y 0 + mt z = z 0 + nt, t
∈ R,
∈ Q , con semplici calcoli si ottiene la seguente equazione
con la quadrica e poich`e P 0 di secondo grado in t :
(a11 l2 + 2a12 lm + a22 m2 + 2a13 ln + a33 n2 + 2a23 mn)t2 +2[a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + z 0 l) + a33 z 0 n
(12.45)
+a23 (y0 n + z 0 m) + a14 l + a24 m + a34 n]t = 0.
Q
Affinch´e la retta r sia tangente alla quadrica nel punto P 0 , essa deve avere riunite in P 0 due intersezioni con , ci`o implica che si annulli il coefficiente di t nell’equazione (12.45), ossia:
Q
a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + lz 0 ) + a33 z 0 n + a23 (y0 n + z 0 m) +a14 l + a24 m + a34 n = 0.
Capitolo 12
693
Tenendo conto delle equazioni parametriche della retta r e del fatto che P 0 appartiene alla superficie , svolgendo i calcoli, si ricava:
Q
a11 x x0 + a22 y y0 + a33 z z 0 + a12 (x0 y + x y0 ) + a13 (x0 z + x z 0 )
(12.46)
+a23 (y0 z + y z 0 ) + a14 (x + x0 ) + a24 (y + y0 ) + a34 (z + z 0 ) + a44 = 0, che coincide con l’equazione (12.44).
1. Si osservi che l’equazione (12.46) si pu`o ottenere estendendo Osservazione 12.8 in modo evidente la regola degli sdoppiamenti introdotta nel Paragrafo 10.8 per ricavare la retta tangente ad una conica in suo punto, con l’avvertenza che, in questo caso si devono sdoppiare i termini x2 , y 2 , z 2 nei prodotti x0 x, y0 y, z 0 z , i termini 2xy, 2xz, 2yz nelle somme xy 0 + x0 y, xz 0 + x0 z, y0 z + yz 0 e i termini 2x, 2y, 2z nelle somme x + x0 , y + y0 , z + z 0 . 2. L’equazione del piano tangente ad una sfera Σ scritta come f (x,y,z ) = 0 in un suo punto P 0 = (x0 , y0 , z 0 ) si puo` anche ottenere come:
∂f (P 0 )(x ∂x
∂f − x ) + ∂f (P )(y − y ) + (P )(z − z ) = 0, ∂y ∂z 0
0
il vettore:
0
0
0
(12.47)
∂f ∂f ∂f (P 0 ), (P 0 ), (P 0 ) ∂x ∂y ∂z
prende il nome di gradiente di f calcolato nel punto P 0 .
S
3. Si dimostra che, nel caso di una superficie di equazione cartesiana f (x,y,z ) = 0 , con f : R3 R funzione differenziabile, se per un punto P 0 appartenente a esistono e non sono nulle le derivate parziali di f, cio`e se:
−→
S
∂f ∂f ∂f (P 0 ), (P 0 ), (P 0 ) ∂x ∂y ∂z
= o
S
allora il piano tangente a in P 0 ha equazione (12.47). Per maggiori dettagli si rimanda a testi classici di teoria delle superfici differenziabili, quali, ad esempio, [6] o [11].
Q di equazione: + 2y − z + 4x − 2y − 6z − 9 = 0,
Esercizio 12.31 Data la quadrica
Q : x
2
2
2
Coni, Cilindri, Superfici di Rotazione e Quadriche
694
1. precisare di quale tipo di quadrica si tratta.
−
Q
2. Verificare che il punto A = (1, 1, 0) appartiene ad e determinare le equazioni delle rette tangenti in A ad e delle rette passanti per A e appartenenti ad .
Q
Q
Q
3. Scrivere l’equazione del piano π luogo delle rette tangenti a nel punto A e verificare che π si puo` determinare mediante la regola degli sdoppiamenti applicata all’equazione di in relazione al punto A .
Q
Soluzione 1. A partire dall’equazione di dei quadrati, si ha:
Q, utilizzando il metodo del completamento
− −
2
1 2
(x + 2) + 2 y
2
(z + 3) 2 =
9 , 2
Q e` quindi un iperboloide ad una falda con centro nel punto ( −2, 1/2, −3) . 2. Si verifica immediatamente che A = (1, −1, 0) ∈ Q . Scelta una retta qualsiasi r passante per A :
r :
x = 1 + lt y = 1 + mt z = nt, t R,
−
(12.48)
∈
Q e si ottiene l’equazione: (l + 2m − n )t + (6l − 6m − 6n)t = 0. La retta r e` tangente a Q in A se e solo se t = 0 e` soluzione doppia, ossia se e solo la si interseca con
2
2
2
2
se:
l La retta r e` contenuta in
− m − n = 0.
Q se e solo se:
l2 + 2m2 n2 = 0 l m n = 0,
− −
−
da cui si hanno le due soluzioni:
m = 0 n = l,
−
m = 2l n = 3l,
in corrispondenza alle quali si ottengono le due rette r 1 , parallela a r 1 = (1, 0, 1) e r2 parallela a r2 = (1, 2, 3) che appartengono a .
−
Q
Capitolo 12
695
Q
3. Imponendo che la retta r di equazioni (12.48) sia tangente a nel punto A si ottiene la relazione l m n = 0 da cui segue che il piano π e` :
− −
π : (x
− 1) − (y + 1) − z = 0,
che coincide con l’equazione del piano tangente all’iperboloide in A ricavata con la regola degli sdoppiamenti. Nella Figura 12.47 sono rappresentati l’iperboloide e il piano ad esso tangente nel punto A. Si vedono anche le due rette di intersezione del piano tangente con la superficie ed e` evidente che il piano tangente all’iperboloide interseca la superficie in pi`u di un punto. Si pu`o infatti dimostrare che, nel caso dell’iperboloide ad una falda, il piano tangente in ogni suo punto interseca la superficie nelle due rette (una per ciascuna schiera) passanti per tale punto e la superficie si dispone in entrambi ` molto intuitivo riconoscere i semispazi in cui il piano tangente divide lo spazio. E che questa situazione, invece, non si presenta nel caso dell’ellissoide in cui il piano tangente in ogni suo punto interseca la superficie solo nel punto di tangenza e la superficie si dispone in uno solo dei due semispazi in cui il piano tangente divide lo spazio. La differenza tra le due situazioni geometriche e` legata al concetto di curvatura Gaussiana della superficie, che e` una funzione che ad ogni punto della superficie associa un numero reale che in qualche modo precisa come la superficie si incurvi in quel punto, nel caso dell’ellissoide la curvatura `e positiva in ogni punto invece nel caso dell’iperboloide ad una falda la curvatura e` negativa. Si possono leggere i dettagli di ci o` che `e stato ora accennato per esempio su [6] o su [11].
696
Coni, Cilindri, Superfici di Rotazione e Quadriche
Figura 12.47: Esercizio 12.30
Bibliografia [1] H. Anton, C. Rorres: Elementary Linear Algebra: Application Version, Editrice Wiley, John & Sons, 1991. [2] A. Baker: Matrix Groups: An Introduction to Lie Group Theory , Springer Undergraduate Mathematics Series, Editrice Springer, London, 2002. [3] R.Bellman: Introduction to Matrix Analysis, Editrice McGraw-Hill, New York, 1960. [4] M. Bramanti, C. D. Pagani, S. Salsa: Matematica Calcolo Infinitesimale e Algebra Lineare , seconda edizione, Editrice Zanichelli, Bologna, 2004. [5] H. Cartan: Elementary theory of analytic functions of one or several complex variables translated from the French. Reprint of the 1973 edition. Dover Publications, Inc., New York, 1995. [6] M.P. do Carmo: Differential Geometry of Curves and Surfaces, Editrice Prentice Hall, Inc., Upper Saddle River New Jersey, 1976. [7] F. Fava, F. Tricerri: Geometria e Algebra lineare , Editrice Levrotto e Bella, Torino, 1987. [8] F. Fava: Lezioni di Geometria analitica , Editrice Levrotto e Bella, Torino, 1960. [9] F. Fava: Lezioni di Geometria , Editrice Levrotto e Bella, Torino, 1973. [10] F. Fava: Elementi di Algebra Lineare e Geometria , Editrice Levrotto e Bella, Torino, 1976. [11] A. Gray, E. Abbena, S. Salamon: Modern Differential Geometry of Curves and Surfaces with Mathematica,Third Edition, Editrice CRC Press, Boca Raton, 2006. [12] S. Greco, P. Valabrega: Lezioni di Geometria , Voll.I e II, Editrice Levrotto e Bella, Torino, 1999. 697
698
Bibliografia
[13] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in Mathematics 222, Editrice Springer, New York, 2003. [14] S. Lang: Linear Algebra , Editrice Addison Wesley, New York, 1966. [15] S. Roman: Advanced Linear Algebra , Editrice Springer, Berlin, 2008. [16] A. Sanini: Lezioni di Geometria , Editrice Levrotto e Bella, Torino , 1993. [17] E. Sernesi: Geometria 1 e 2 , Editrice Bollati Boringhieri, 1989. [18] M. Stoka: Corso di Geometria , Editrice Cedam, Padova, 1995. [19] A. Sheldon, Linear Algebra Done Right , Editrice Springer, 1997. [20] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons, Inc., New York; Chapman & Hall, Ltd., London, 1958.
Indice dei simboli R Ri C i A (A B ) rank(A) aij
|
Rm,n O
D (R
n,n
)
I AB A−1 GL(n, R) tA
T (R S (R A(R
n,n
) ) n,n ) O (n) tr(A) det(A) n,n
M ij Aij
adj(A) x
−AB −→ L( ) M L( , · ∧ x
o
x B ,B x y)
x x
y
y
campo dei numeri reali i-esima riga di una matrice i-esima colonna di una matrice matrice dei coefficienti di un sistema lineare matrice completa di un sistema lineare rango della matrice A elemento della matrice A di posto ij spazio vettoriale delle matrici con m righe e n colonne, ad elementi reali matrice nulla sottospazio vettoriale delle matrici diagonali di ordine n matrice unit`a prodotto delle matrici A e B matrice inversa di A gruppo lineare generale reale trasposta della matrice A sottospazio vettoriale delle matrici triangolari superiori di ordine n sottospazio vettoriale delle matrici simmetriche di ordine n sottospazio vettoriale delle matrici antisimmetriche di ordine n gruppo ortogonale delle matrici ortogonali di ordine n traccia della matrice A determinante della matrice A minore dell’elemento a ij della matrice A cofattore dell’elemento a ij della matrice A matrice aggiunta della matrice A vettore norma del vettore x vettore nullo in V 3 vettore con rappresentante il segmento orientato AB retta vettoriale individuata dal vettore x matrice del cambiamento di base da a piano vettoriale individuato dai vettori x , y prodotto scalare di x e y prodotto vettoriale di x e y in V 3
B B
699
15 20 20 20 21 25 33 33, 141 34 33, 141 35 37 41 41 42 43, 141 44, 142 45, 142 45 55 56 64 65 67 76 76, 204 76 76 83 97, 175 83 101, 201 113
Indice dei simboli
700
x
C
−
∧ · y
z
x
Q Rn
F (R)
N R[x] Rn [x]
N (A) W 1 ∩ W 2 W 1 + W 2 W 1 + W 2 + . . . + W W 1 ⊕ W 2 W 1 ⊕ W 2 ⊕ . . . ⊕ W L( 1, 2, . . . , ) dim(V ) R(A) C (A)
k
k
v
v
vn
Cn Cm,n
H(C AH(C
)
m,n
)
SL (n, R) SO (n) ⊥
W
W
U (n) f (x)
id
B ,C
M
(f )
H
f ( )
im f f −1 ( )
K
ker f
W W W W W W W W W W W W
∈
A m,n
prodotto misto di x , y e z in V 3 campo dei numeri complessi opposto del vettore x in uno spazio vettoriale V campo dei numeri razionali spazio vettoriale delle n -uple di numeri reali spazio vettoriale delle funzioni reali di variabile reale insieme dei numeri naturali spazio vettoriale dei polinomi nella variabile x a coefficienti reali spazio vettoriale dei polinomi di grado minore o uguale a n , nella variabile x, a coefficienti reali nullspace della matrice A intersezione dei due sottospazi vettoriali 1 e 2 somma dei due sottospazi vettoriali 1 e 2 somma dei sottospazi vettoriali 1 , 2 , . . . , k somma diretta dei due sottospazi vettoriali 1 e 2 somma diretta dei sottospazi vettoriali 1 , 2 , . . . , k sottospazio vettoriale generato dai vettori v 1 , v2 , . . . , vn dimensione di uno spazio vettoriale V spazio vettoriale delle righe della matrice A spazio vettoriale delle colonne della matrice A spazio vettoriale delle n -uple di numeri complessi spazio vettoriale delle matrici con m righe e n colonne, ad elementi complessi matrice coniugata di A Cm,n sottospazio vettoriale delle matrici hermitiane di ordine n sottospazio vettoriale delle matrici antihermitiane di ordine n gruppo lineare speciale reale di ordine n gruppo ortogonale speciale reale di ordine n complemento ortogonale del sottospazio vettoriale gruppo unitario vettore immagine di x mediante l’applicazione lineare f identit`a matrice associata all’applicazione lineare f rispetto alle basi e immagine del sottospazio vettoriale mediante l’applicazione lineare f sottospazio immagine controimmagine del sottospazio vettoriale mediante l’applicazione lineare f nucleo dell’applicazione lineare f
B C
H
K
120 136 135 136 137 137 138 138 140 141 143 144 144 145 145 149 156 166 166 194 195 195 196 196 217 217 219 232 235 236 240 248 249 249 253
Indice dei simboli
L(V, W ) g ◦ f SO (2) f |
701
spazio vettoriale delle applicazioni lineari da V a W composizione delle applicazioni lineari f e g gruppo ortogonale speciale di ordine 2 restrizione dell’applicazione lineare f al sottospazio vettoriale aggiunta dell’applicazione lineare f spazio vettoriale duale di V spazio vettoriale biduale di V isomorfismo canonico tra uno spazio vettoriale V ed il suo spazio vettoriale biduale V ∗∗ trasposta dell’applicazione lineare f gruppo unitario autospazio relativo all’autovalore λ polinomio caratteristico forma bilineare su uno spazio vettoriale V spazio vettoriale delle forme bilineari simmetriche su V matrice associata alla forma bilineare simmetrica ϕ rispetto alla base forma quadratica matrice associata alla forma quadratica Q rispetto alla base spazio vettoriale delle forme quadratiche su V sottospazio vettoriale ortogonale al sottospazio vettoriale rispetto ad una forma bilineare simmetrica insieme dei vettori isotropi restrizione della forma quadratica Q al sottospazio vettoriale distanza tra i punti A e B
350 356 368 400, 510
angolo tra le due rette r e r
422, 542
d(P, r) e d(P, π ) d(r, r )
angolo tra i due piani π e π distanza del punto P dalla retta r eccentricit`a di una conica distanza del punto P dal piano π minima distanza tra le due rette sghembe r e r
422, 542 427, 537 451 536 540
(r, π )
angolo tra la retta r ed il piano π
H †
f V ∗ V ∗∗ ψ tf U (n) V λ P (λ) ϕ s (V, R) M B (ϕ) Q M B (Q) (V, R)
B
Q W I Q|
⊥
H
d(A, B )
(r, r ) (π, π )
H
B
B W
H
261 261 264 266 267 274 279 280 284 294 298 302 337 339 346 346 346 346
542
Indice analitico aggiunta di un’applicazione lineare, 268 aggiunta di una matrice quadrata, 68 angolo tra due piani, 556 angolo tra due rette nel piano, 431 angolo tra due rette nello spazio, 556 angolo tra due vettori in ( V, ) , 207 angolo tra due vettori in V 3 , 100 angolo tra una retta e un piano, 556 anomalia, 412 applicazione lineare identica, 236 applicazione lineare nulla, 236 applicazione lineare tra due spazi vettoriali, 235 applicazione lineare tra due spazi vettoriali complessi, 279 area del triangolo, 523 ascissa di un punto nel piano, 407 ascissa di un punto nello spazio, 522 asintoti dell’iperbole, 467 asse x nel piano, 405 asse x nello spazio, 521 asse y nel piano, 405 asse y nello spazio, 521 asse z , 521 asse centrale del fascio di circonferenze, 455 asse centrale del fascio di sfere, 573 asse del cono circolare retto, 485 asse delle ascisse nel piano, 405 asse delle ascisse nello spazio, 521 asse delle ordinate nel piano, 405 asse delle ordinate nello spazio, 521 asse delle quote, 521 asse di un cilindro circolare retto, 629 asse di un segmento, 409, 438 asse polare, 412, 579 asse radicale del fascio di circonferenze, 455
·
automorfismo di uno spazio vettoriale, 256 autospazio, 302 autovalore, 301 autovalore di un endomorfismo su uno spazio vettoriale complesso, 334 autovettore, 301 baricentro di n punti, 592 baricentro di un tetraedro, 523 baricentro di un triangolo, 408 base dello spazio vettoriale V 3 , 88 base di C n , 196 base di C m,n , 196 base di R n , 154 base di R m,n , 154 base di R n [x] , 154 base di (Rn,n ) , 160 base di (Rn,n ) , 159 base di (Rn,n ) , 160 base di (Rn,n ) , 159 base di un piano vettoriale V 2 , 88 base di una retta vettoriale V 1 , 89 base di uno spazio vettoriale, 153 base duale, 278 base ortogonale in V 3 , 107 base ortogonale in uno spazio vettoriale euclideo, 209 base ortogonale negativa, 117 base ortogonale positiva, 117 base ortonormale in V 1 , 107 base ortonormale in V 2 , 107 base ortonormale in V 3 , 107 base ortonormale in in uno spazio vettoriale euclideo, 209 base ortonormale negativa, 117
702
A D S T
Indice analitico
base ortonormale positiva, 117 base unitaria, 230
703
complemento ortogonale, 218 componenti di un vettore in V 1 , 90 componenti di un vettore in V 2 , 90 componenti di un vettore in V 3 , 90 componenti di un vettore rispetto ad una base, 155 composizione di applicazioni lineari, 261 coniche come equazioni di secondo grado, 492 coniche come intersezione di un cono con un piano, 485 coniche come luoghi di punti nel piano, 486 coniche degeneri, 486 coniche in forma polare, 516 coniche scritta in forma canonica, 492 cono circolare retto, 485 cono isotropo, 361 cono nello spazio, 603 cono quadrico, 665 cono tangente ad una sfera, 614 cono–cuneo di Wallis, 680 controimmagine di un sottospazio vettoriale, 251 coordinate cartesiane di un punto nel piano, 405 coordinate cartesiane di un punto nello spazio, 522 coordinate polari generalizzate, 414 coordinate polari nel piano, 412 coordinate polari sferiche, 579 coseni direttori di un vettore in V 3 , 110 coseni direttori di una retta nel piano, 421 coseni direttori di una retta nello spazio, 532 criteri di diagonalizzazione, 312 curva di Viviani, 632 curva simmetrica rispetto all’asse delle ascisse, 418 curva simmetrica rispetto all’asse delle ordinate, 417 curva simmetrica rispetto all’origine, 418 curve meridiane di una superficie di rotazione, 636
calcolo degli autovalori di una matrice quadrata, 305 calcolo della matrice inversa, 50, 67 cambiamento di base in V , 176 cambiamento di base in V 3 , 97 cambiamento di base ortonormale in V 3 e in V 2 , 124 centro del fascio di rette nel piano, 435 centro dell’ellisse, 461 centro radicale di tre cinconferenze, 513 cilidro parabolico, 665 cilindro circolare retto, 629 cilindro ellittico, 665 cilindro iperbolico, 665 cilindro quadrico, 665 circonferenza degenere, 446 circonferenza immaginaria, 446 circonferenza nel piano, 409, 445 circonferenza nello spazio, 565 circonferenza passante per tre punti nel piano, 453 classi di equipollenza, 132 classificazione delle coniche attraverso il rango delle matrici A e B ad esse associate, 508 classificazione delle quadriche, 665 codominio di un’applicazione lineare, 235 coefficiente angolare di una retta nel piano, 427 coefficienti delle equazioni di un sistema lineare, 17 coefficienti di un’equazione lineare, 15 coefficienti di una combinazione lineare di vettori in V , 149 coefficienti di una combinazione lineare di vettori in V 3 , 83 cofattore di un elemento di una matrice, 65 colatitudine, 579 colonna torsa, 689 decomposizione di un vettore, 80 combinazione lineare di vettori in V , 149 decomposizione spettrale, 314 combinazione lineare di vettori in V 3 , 83 determinante di n vettori, 400
704
Indice analitico
determinante di una matrice quadrata, 56 diagonale principale di una matrice quadrata, 34 differenza di due vettori in V 3 , 80 dimensione dello spazio duale di uno spazio vettoriale, 277 dimensione di V 1 , 89 dimensione di V 2 , 88 dimensione di V 3 , 88 dimensione di un autospazio, 310 dimensione di uno spazio vettoriale, 157 direttrice del cono, 603 direttrice della parabola, 476 direttrice di un cilindro, 618 direttrice di una conica, 488 direttrici dell’ellisse, 461 direttrici dell’iperbole, 466 direzione di un vettore in V 3 , 75 distanza di due punti nel piano, 408 distanza di un punto da un piano, 549 distanza di un punto da una retta nel piano, 434 distanza di un punto da una retta nello spazio, 551 distanza tra due punti nel piano, 408 distanza tra due punti nello spazio, 522 disuguaglianza di Cauchy–Schwarz per una forma bilineare simmetrica definita positiva, 368 disuguaglianza di Cauchy–Schwarz su uno spazio vettoriale euclideo, 206 disuguaglianza di Cauchy–Schwarz su uno spazio vettoriale euclideo complesso, 229 disuguaglianza di Minkowski per una forma bilineare simmetrica definita positiva, 368 disuguaglianza triangolare su uno spazio vettoriale euclideo, 206 disuguaglianza triangolare su uno spazio vettoriale euclideo complesso, 229 dominio di un’applicazione lineare, 235 doppio prodotto vettoriale, 134 dualit`a nel caso degli spazi vettoriali euclidei, 285 eccentricit`a dell’ellisse, 461
eccentricit`a dell’iperbole, 466 eccentricit`a di una conica, 488 elementi di una matrice, 33 elica circolare cilindrica, 687 elicoide retto, 687 ellisse in forma canonica, 461 ellisse, come luogo di punti nel piano, 459 ellissoide, 656 ellissoide di rotazione, 643 endomorfismi simultaneamente diagonalizzabili, 326 endomorfismo, 235 endomorfismo autoaggiunto, 269, 315 endomorfismo autoaggiunto nel caso di uno spazio vettoriale hermitiano), 335 endomorfismo diagonalizzabile, 312 endomorfismo diagonalizzabile nel caso complesso, 335 endomorfismo hermitiano, 291 endomorfismo nel caso complesso, 279 endomorfismo nullo, 236 endomorfismo simmetrico, 269 equazione caratteristica di un endomorfismo, 306 equazione caratteristica di una matrice quadrata, 306 equazione cartesiana del cono assegnati il vertice e una direttrice, 605 equazione cartesiana della retta nel piano, 422 equazione cartesiana di un cilindro, 620 equazione cartesiana di una superificie, 602 equazione della parabola in forma canonica, 477 equazione di una conica in forma canonica, 492 equazione lineare, 15 equazione lineare omogenea, 16 equazione matriciale, 46 equazione segmentaria del piano, 530 equazione vettoriale, 188 equazione vettoriale omogenea, 188 equazione vettoriale parametrica di un piano nello spazio, 527 equazione vettoriale parametrica di una retta nel piano, 421
Indice analitico
equazione vettoriale parametrica di una retta nello spazio, 531 equazioni del cambiamento di base, 177 equazioni del cambiamento di base in V 3 , 98 equazioni di un’applicazione lineare, 242 equazioni parametriche del cilindro, 622 equazioni parametriche della retta nel piano, 421 equazioni parametriche di un piano nello spazio, 527 equazioni parametriche di una retta nello spazio, 532 equazioni parametriche di una superficie, 602 espressione matriciale di una forma bilineare simmetrica, 347 espressione matriciale di una forma quadratica, 351 espressione polinomiale di una forma bilineare simmetrica, 345 espressione polinomiale di una forma quadratica, 351 fasci di circonferenza nel piano, 453 fascio di sfere, 574 fascio improprio di piani, 545 fascio improprio di rette nel piano, 435 fascio proprio di piani, 546 fascio proprio di rette nel piano, 435 forma p –lineare, 398 forma p -lineare, 398 forma p -lineare antisimmetrica, 398 forma bilineare, 341 forma bilineare degenere, 358 forma bilineare complesso, 344 forma bilineare non degenere, 358 forma bilineare simmetrica, 343 forma canonica di una forma quadratica, 370 forma lineare, 276 forma lineare su uno spazio vettoriale complesso, 279 forma normale di una forma quadratica, 373 forma polare di una forma quadratica, 351 forma quadratica, 350
705
forma quadratica associata ad una forma bilineare simmetrica, 350 forma quadratica associata alla quadrica, 652 forma quadratica definita negativa, 365 forma quadratica definita positiva, 365 forma quadratica indefinita, 365 forma quadratica ridotta in forma canonica, 370 forma quadratica ridotta in forma normale, 373 forma quadratica semidefinita positiva, 365 formula di Grassmann, 163, 186 funzione nulla, 137 funzione omogenea di grado k , 606 fuochi dell’ellisse, 459 fuochi dell’iperbole, 465 fuoco della parabola, 476 fuoco di una conica, 488 generatrice del cono, 603 generatrice di un cilindro, 618 gruppo commutativo, 36 gruppo delle rotazioni di V 2 , 265 gruppo lineare speciale, 217 gruppo ortogonale, 265 gruppo ortogonale speciale, 217 gruppo unitario, 232 identit`a , 236 identit`a di Jacobi, 134 identit`a di Lagrange, 134 immagine di un sottospazio vettoriale mediante un’applicazione lineare, 248 immagine di un sottospazio vettoriale mediante un’applicazione lineare, 248 insieme libero di vettori, 152 insieme libero di vettori in V 3 , 84 intersezione di due sottospazi vettoriali, 143 iperbole equilatera, 471 iperbole in forma canonica, 466 iperbole, come luogo di punti nel piano, 465 iperboloide di rotazione a due falde, 644 iperboloide di rotazione ad una falda, 639 iperpiano vettoriale, 178 isometria, 291
706
Indice analitico
isomorfismo canonico tra V e V ∗∗. , 282 isomorfismo canonico tra uno spazio vettoriale ed il suo duale, 281 isomorfismo tra due spazi vettoriali, 256
matrici hermitiane, 197 matrici ortogonali, 46 matrici simili, 247 matrici simmetriche, 45 matrici triangolari inferiori, 44 la superficie della volta a sbieco, 685 matrici triangolari superiori, 44 legge d’inerzia di Sylvester, 377 matrici uguali, 35 lemma di Steinitz, 156, 187 matrici unitarie, 231 longitudine, 579 metodo degli scarti successivi, 158 luogo geometrico di punti nel piano, 409 metodo di riduzione di Gauss, 17 metodo di riduzione di Gauss–Jordan, 26 matrice associata ad un’applicazione lineare, 240 minima distanza tra due rette sghembe, 551 matrice associata ad una forma bilineare sim- minore di ordine k , 65 metrica, 345 minore di un elemento di una matrice, 65 matrice associata ad una forma quadratica, 351 minori di Nord–Ovest, 394 matrice associata alla quadrica, 652 minori principali, 394 matrice colonna, 34 molteplicit`a di un autovalore, 307 matrice completa, 20 norma del vettore x in V 3 , 76 matrice completa di un sistema lineare ( A , norma di un vettore in ( V, ) , 204 , B ) 21 norma di un vettore in V 3 , 76 matrice con m righe e n colonne, 33 norma di un vettore su uno spazio vettoriale eumatrice coniugata, 196 clideo complesso, 228 matrice dei coefficienti di un sistema lineare A , nucleo di un’applicazione lineare ker f , 253 20, 21 nucleo di una forma bilineare simmetrica, 357 matrice dei coefficienti e temini noti, 20 nullspace, 141 matrice del cambiamento di base, 176
·
matrice del cambiamento di base in V 3 , 97 matrice diagonale, 34 matrice diagonalizzabile, 312 matrice diagonalizzabile nel caso complesso, 335 matrice inversa, 41 matrice normale, 337 matrice nulla, 34 matrice quadrata di ordine n , 34 matrice ridotta per colonne, 169 matrice ridotta per righe, 23 matrice riga, 34 matrice trasposta, 42 matrice unit`a , 35 matrici simultaneamente diagonalizzabili, 327 matrici anti-hermitiane, 197 matrici antisimmetriche, 46 matrici associate ad una conica, 493
omomorfismo tra due spazi vettoriali, 235 opposto di un vettore in V , 135 opposto di un vettore in V 3 , 78 ordinata di un punto nel piano, 407 ordinata di un punto nello spazio, 522 ordine di una matrice quadrata, 34 origine del riferimento cartesiano, 405 parabola, come luogo di punti nel piano, 476 paraboloide di rotazione, 644 paralleli di una superficie di rotazione, 636 parametri direttori di una retta nel piano, 421 parametri direttori di una retta nello spazio, 532 perpendicolare comune a due rette sghembe, 551 piani coordinati, 522 piano esterno ad una sfera, 560 piano passante per tre punti, 529
Indice analitico
707
piano radicale, 573 proiezione su un sottospazio vettoriale, 237 piano secante una sfera, 560 proiezioni su sottospazi vettoriali, 237 piano tangente ad una quadrica in un suo punto, punti base di un fascio di circonferenze, 456 691 punti imamginari nel piano, 441 piano tangente ad una sfera, 560 punto base di un fascio di circonferenze, 456 piano vettoriale in V 3 , 76, 83 punto medio di un segmento, 408 polinomio caratteristico di una matrice quadra- punto medio di un segmento nel piano, 408 ta, 306 punto regolare di una quadrica, 691 polinomio caratteristico in caso complesso, 334 punto singolare di una quadrica, 691 polinomio omogeneo, 345 quadrica, 652 polo, 579 quadriche non proprie o non degeneri o singolapolo del riferimento polare nel piano, 412 ri, 656 posizione reciproca di due circonferenze nel piaquadriche proprie o non degeneri o non singolano, 452 ri, 656 posizione reciproca di due rette nello spazio, 543 quota di un punto nello spazio, 522 posizione reciproca di due sfere, 570 posizione reciproca tra retta e piano, 541 potenza di un punto rispetto ad una circonferen- raggio vettore, 412, 579 rami dell’iperbole, 467 za, 512 rango di una forma bilineare simmetrica, 359 potenza di un punto rispetto ad una sfera, 594 rango di una matrice, 25, 50, 167 primo teorema di Laplace, 66 processo di ortonormalizzazione di Gram– Sch- rango di una matrice ridotta per colonne, 170 rango di una matrice ridotta per righe, 24 midt, 212 rappresentante di un vettore in V 3 , 76 prodotto di matrici, 38, 262 prodotto di un numero reale per un vettore in regola degli sdopppiamenti per la retta tangente ad una conica, 519 V 3 , 82 prodotto di un numero reale per un’applicazione regola dei segni di Cartesio, 378 restrizione di un’applicazione lineare, 266 lineare, 261 prodotto di un numero reale per una forma bili- restrizione di una forma quadratica ad un sottospazio vettoriale, 367 neare simmetrica, 343 prodotto di un numero reale per una matrice, 36 retta esterna ad una circonferenza nel piano, 447 prodotto di uno scalare per un vettore in V , 136 retta esterna ad una sfera, 563 prodotto hermitiano su uno spazio vettoriale com- retta immaginaria coniugata nel piano, 441 retta immaginaria nel piano, 441 plesso, 226 prodotto misto x y z di tre vettori x, y e z retta nel piano, 420 retta nel piano passante per un punto e ortogoin V 3 , 120 nale ad un vettore, 422 prodotto scalare di due vettori in V 3 , 101 prodotto scalare su uno spazio vettoriale reale, retta nel piano passante per un punto parallela ad un vettore, 421 201 prodotto vettoriale x y di due vettori x e y in retta per due punti distinti, 424 retta per un punto parallela ad un vettore, 421 V 3 , 113 proiezione di una curva da un punto su un piano, retta per un punto perpendicolare ad un vettore, 616 422
∧ ·
∧
708
Indice analitico
retta reale nel piano, 441 retta secante una circonferenza nel piano, 449 retta secante una sfera, 565 retta simmetrica di una retta rispetto ad un’altra retta, nel piano, 440 retta tangente ad una circonferenza in un suo punto nel piano, 447 retta tangente ad una sfera, 563 retta vettoriale in V 3 , 76, 83 rette bisettrici nel piano, 439 rette coincidenti nello spazio, 543 rette complanari, 543 rette incidenti nello spazio, 543 rette parallele nello spazio, 543 rette sghembe, 543 riferimento cartesiano nel piano, 405 riferimento cartesiano nello spazio, 521 riferimento polare nel piano, 412 riflessione rispetto ad un iperpiano vettoriale, 297 rotazione in V 2 , 264 rototraslazione nel piano, 501
sistema lineare compatibile, 17 sistema lineare incompatibile, 17 sistema lineare omogeneo, 17 sistema lineare ridotto, 23 sistemi lineari equivalenti, 17 sistemi lineari in forma matriciale, 40 soluzione di un sistema lineare, 17 soluzione di un’equazione lineare, 15 soluzione di un’equazione vettoriale, 188 somma di k sottospazi vettoriali, 144 somma di applicazioni lineari, 260 somma di due forme bilineari simmetriche, 343 somma di due sottospazi vettoriali, 144 somma di matrici, 35 somma di vettori in V , 135 somma di vettori in V 3 , 77 somma diretta di k sottospazi vettoriali, 145, 147 somma diretta di due sottospazi vettoriali, 145, 146 sottogruppo, 139 sottospazi vettoriali improprii, 139 sottospazi vettoriali ortogonali rispetto ad una scalari in V , 136 forma bilineare simmetrica, 354 schiere di rette del paraboloide iperbolico, 676 sottospazi vettoriali supplementari, 146 secondo teorema di Laplace, 67 sottospazio immagine im f , 249 segmenti orientati equipollenti, 131 sottospazio invariante, 265 segmento orientato, 76 sottospazio ortogonale ad un sottospazio vettosegnatura di una forma quadratica, 378 riale rispetto ad una forma bilineare simsemipiano polare, 579 metrica, 354 sezione normale di un diedro, 556 sottospazio vettoriale, 139 sfera, 559 sottospazio vettoriale dei polinomi R n [x] , 140 sfere secanti, 570 sottospazio vettoriale delle matrici antisimmesfere tangenti, 570 triche, 142, 146 significato geometrico del prodotto scalare in V 3 , sottospazio vettoriale delle matrici diagonali, 141 104 sottospazio vettoriale delle matrici simmetriche, significato geometrico della norma del prodotto 142, 146 vettoriale, 114 sottospazio vettoriale delle matrici triangolari susimilitudine, 298 periori, 141 simmetria ortogonale rispetto ad un iperpiano sottospazio vettoriale finitamente generato, 150 vettoriale, 297 span di v1 , v2 , . . . , vk , 149 sistema di generatori, 149 spazi vettoriali isomorfi, 256 sistema lineare, 16 spazio vettoriale C n , 195
Indice analitico
709
spazio vettoriale C m,n , 196 traslazione degli assi cartesiani nello spazio, 581 spazio vettoriale Q , 137 trasposta di un’applicazione lineare, 286 n spazio vettoriale R , 137 unione di due sottospazi vettoriali, 143 spazio vettoriale (R) , 137 spazio vettoriale biduale V ∗∗ , 281 verso di un vettore in V 3 , 75 spazio vettoriale complesso, 136 versore in V 3 , 76 spazio vettoriale dei polinomi R [x] , 138 del cono, 603 spazio vettoriale delle applicazioni lineari (V, W vertice ), vertice della parabola, 477 261 spazio vettoriale delle colonne di una matrice, vertici dell’ellisse, 461 vertici dell’iperbole, 466 167 spazio vettoriale delle matrici con m righe e n vettore AB con rappresentante il segmento orientato AB , 76 colonne R m,n , 137 spazio vettoriale delle righe di una matrice, 166 vettore controimmagine di un vettore mediante un’applicazione lineare, 235 spazio vettoriale duale di uno spazio vettoriale vettore immagine di un vettore mediante un’apcomplesso, 279 plicazione lineare, 235 spazio vettoriale duale V ∗ , 276 vettore in V 3 , 76 spazio vettoriale euclideo, 201 vettore isotropo, 360 spazio vettoriale euclideo complesso, 227 vettore nullo, 136 spazio vettoriale finitamente generato, 150 vettore nullo o di V 3 , 76 spazio vettoriale reale, 135 vettore proiezione ortogonale su un piano vettosuperfici di rotazione, 636 riale in V 3 , 115 superficie rigata, 649 vettore proiezione ortogonale su un vettore in V 3 , 104 teorema del completamento della base, 160 vettori colonna di una matrice, 167 teorema del rango, 167, 190, 256 vettori complanari in V 3 , 78 teorema dell’esistenza di una base, 156 vettori concordi in V 3 , 78 teorema della dimensione, 156 vettori discordi in V 3 , 78 teorema di Cayley–Hamilton, 331 vettori in V , 136 teorema di Cramer, 70 vettori in V 3 , 132 teorema di Gauss–Lagrange, 376 vettori linearmente dipendenti in V 3 , 84 teorema di nullit`a pi`u rango, 170, 172 teorema di Pitagora, 206 vettori linearmente dipendenti in uno spazio vettoriale, 152 teorema di Pitagora nel caso hermitiano, 229 vettori linearmente indipendenti in V 3 , 84 teorema di Rouch´e–Capelli, 25, 189 teorema fondamentale delle applicazioni linea- vettori linearmente indipendenti in uno spazio ri, 238 vettoriale, 152 vettori ortogonali in ( V, ) , 207 teorema spettrale, 314 termine noto di un’equazione lineare, 15 vettori ortogonali in V 3 , 100 traccia di una matrice quadrata, 55 vettori ortogonali in uno spazio vettoriale hertrasformazione lineare tra due spazi vettoriali, mitiano, 230 235 vettori ortogonali rispetto ad una forma bilineatrasformazione unitaria, 298 re simmetrica, 353
F
L
−−→
·