PROGRAMMA DI MATEMATICA, FISICA, ELETTRONICA
EDOARDO SERNESI
Collezione diretta da Sergio Carrà, Emilio Gatti, Francesco Gherardelli, Luigi Radicati, Giorgio Talenti
Mario Ageno, Elementi di fisica T. M. Apostol, Calcolo VoI. 1 Analisi l VoI. 2 Geometria VoI. 3 Analisi 2 Scipione Bobbio e Emilio Gatti, Elementi di elettromagnetismo Max Born, Fisica atomica Vito Cappellini, Elaborazione numerica delle immagini Francesèo Carassa, Comunicazioni elettriche P. A. M. Dirac, I princìpi della meccanica quantistica Albert Einstein, Il significato della relatività Enrico Fermi, Termodinamica Bruno Ferretti, Le radici classiche della meccanica quantica Giorgio Franceschetti, Campi- elettromagnetici Giovanni Gallavotti, Meccanica elementare Enrico Giusti, Analisi matematica l Enrico Giusti, Analisi matematica 2 Werner Heisenberg, I princìpi fisici della teoria dei quanti Gerhard Herzberg, Spettri atomici e struttura atomica Charles Kittel, Introduzione alla fisica dello stato solido Charles Kittel e Herbert Kroemer, Termodinamica statistica Serge Lang, Algebra lineare Giorgio Letta, Teoria elementare dell'integrazione P. F. Manfredi, Piero Maranesi e Tiziana Tacchi, L'amplificatore operazionale J acob Millman, Circuiti e sistemi microelettronici Jacob Millman e C. C. Halkias, Microelettronica R: S. Muller e T. L Kamins, Dispositivi elettronici nei circuiti integrati Athanasios Papoulis, Probabilità, variabili aleatorie e processi stocastici WolfgangPauli, Teoria della relatività Giovanni Prodi, Analisi matematica Antonio Ruberti e Alberto Isidori, Teoria dei sistemi Walter Rudin, Analisi reale e complessa H. H. Schaefer, Introduzione alla teoria spettrale Edoardo Sernesi, Geometria l L M. Singer e J. A. Thorpe, Lezioni di topologia elementare e di geometria W. V. Smith e P. P. Sorokin, Il laser Giovanni Soncini, Tecnologie microelettroniche Guido Tartara, Teoria dei sistemi di comunicazione Bruno Touschek e Giancarlo Rossi, Meccanica statistica
GEOMETRIA 1
j
BOLLATI BORINGHIERI
.I
p
Indice
Prima edizione ottobre 1989
© 1989 Bollati Boringhieri editore s.p.a., Torino, corso Vittorio Emanuele 86 I diritti di memorizzazione elettronica, di riproduzione e di adattamento totale o parziale con qualsiasi mezzo (compresi i microfilm e le copie fotostatiche) sono riservati Stampato in Italia dalla Stampatre di Torino CL 74-9284-7 ISBN 88-339-5447-1
Prefazione, 9 '(( Geometria affine, 13 l 2 3 4 5 6 7 8 9 lO Il 12 13 14
Vettori geometrici. Spazi vettoriali Matrici Sistemi di equazioni lineari Alcune nozioni di algebra lineare Rango Determinanti Spazi affini (I) Spazi affini (II) Geometria in un piano affine Geometria in uno spazio affine di dimensione 3 Applicazioni lineari Applicazioni lineari e matrici. Cambiamenti di coordinate affini Operatori lineari Gruppi di trasformazioni. Affinità
2 Geometria euclidea, 190
Geometria l/Edoardo Sernesi. - Torino: Bollati Boringhieri, 1989 480 p. ; 24 cm. ~ (Programma di matematica, fisica, elettronica) l. SERNESI. Edoardo l. GEOMETRIA - Manuali 2. CURVE ALGEBRICHE PIANE· Manuali
CDD 516 (a cura di
S. & T.
~ Torino)
15 16 17 18 19 20 21 22 23
Forme bilineari e forme quadratiche Diagonalizzazione delle forme quadratiche Prodotti scalari L'operazione di prodotto vettoriale Spazi euclidei Operatori unitari e isometrie 1sometrie di piani e di spazi tridimensionali Diag
~. Geometria proiettiva, 283 24 25 26 27
Spazi proiettivi Geometria affine e geometria proiettiva Dualità Cambiamenti di coordinate omogenee e proiettività
r;
6
Curve algebriche piane, 337
Indice
Prefazione
O' 28 Generalità
{29 {30 {31 .32
Curve algebriche reali Classificazione delle coniche proiettive Classificazione di coniche affini e coniche euclidee Geometria delle coniche euclidee ~ione di due curve: proprietà elementari 34 Proprietà locali delle curve'algebriche piane 35 Sistemi lineari di curve piane 36 Cubiche
Appendici, 421 A Domini, campi, polinomi B Permutazioni
Risoluzione degli esercizi, 445 Bibliografia, 471 Elenco dei simboli, 473 Indice analitico, 4'75
La presente opera, rivolta anzitutto agli studenti della Facoltà di Matematica, tratta gli argomenti usualmente svolti in un primo corso di geometria nelle università italiane. Supponendo note le principali proprietà dei numeri reali e complessi e utilizzando la teoria degli spazi vettoriali e l'algebra lineare, vi si espongono i fatti fondamentali delle geometrie affini, euclidea e proiettiva e la teoria elementare delle curve algebriche piane. Per conciliare ilpiù possibile l'esigenza del rigore con quella, pure importante, di non appesantire la trattazione con- una teoria algebrica troppo astratta e formale, l'algebra lineare è esposta con gradualità e in alternanza con la geometria. Questo anche al fine di porre nel dovuto rilievo gli aspetti geometrici della teoria degli spazi vettoriali. Il volume si compone di quattro capitoli, più due appendici i cui contenuti, di carattere algebrico, esulano dall'algebra lineare. L'esposizione, di tipo elementare, si avvale di numerosi esempi per facilitare l'apprendimento dei concetti più delicati. Lo stesso scopo hanno gli esercizi che compaiono al termine di ogni paragrafo (di molti di essi si dà la soluzione a fine volume). In molti casi i paragrafi sono corredati di "Complementi" che contengono spunti per approfondimenti ulteriori. (Vi si trovano, fra l'altro, ijatti essenziali sulle ipersuperfici in spazi di dimensione qualunque, e la classificazione delle quadriche.) -Nell'organizzazione della materia, infine, si è cercato di assicurare una flessibilità sufficiente da consentire una lettura diversificata, e dunque una maggior libertà nell'organizzazione dei corsi. Ad esempio, la trattazione del capitolo 3 può essere svolta prima di quella del capitolo 2; allo stesso modo, è possibile passare direttamente dallo studio della geometria euclidea (cap. 2) a quello delle sole curve piane affini ed euclidee (cap. 4) giungendo rapidamente alla classificazione delle coniche. È pure possibile una lettura che separi più nettamente l'aigebra lineare dalla geometria, e che può ben conciliarsi con le esigenze di un corso diviso in due semestri. E.S.
p
AVVERTENZE
Il testo presuppone la conoscenza delle nozioni di base della teoria degli insiemi e delle principali proprietà degli insiemi numerici fondamentali, per i quali si usano le seguenti notazioni: N: l'insieme dei Z: l'insieme dei Q: l'insieme dei R: l'insieme dei C: l'insieme dei
numeri numeri numeri numeri numeri
interi naturali (O incluso). interi relativi. razionali. reali. complessi.
In prima lettura la conoscenza dei numeri complessi non è strettamente necessaria. Le notazioni e i simboli adottati sono quelli di uso più comune nella letteratura. Per comodità del lettore ne diamo un elenco. A C B oppure B:J A significano: l'insieme A è un sottoinsieme dell'insieme B. aEA significa: a è un elemento dell'insieme A. . A U B, A n B, A x B sono rispettivamente l'unione, l'intersezione e il prodotto cartesiano dei due insiemi A e B. Se A CB, B\A denota l'insieme differenza di B meno A, che consiste di tutti gli elementi di B che non appartengono ad A. Se n ~ 1 è un intero e A è un insieme, A n denota il prodotto cartesiano di A per sé stesso n volte. La scrittura f:A->B
a ...... b significa che l'applicazione f dell 'insieme A nell 'insieme B manda l'elemento a EA in bE B. Se f: A -> B e g: B -> C sono applicazioni, la loro composizione si denota con g of. Per ogni numero intero positivo k, il simbolo k! denota il prodotto lo 2 o... ok, chiamato "k fattoriale". Per definizione si pone O! = 1. Dati a, bER, a < b, si denoteranno con (a, b), [a, b], (a, b], [a, b) gli intervalli rispettivamente aperto, chiuso, aperto a sinistra, aperto a destra, di estremi a e b. Il coniugato a - ib di un numero complesso z = a + ib si denota con z. Il modulo di z è .Ja2 + b 2 e si denota con I z I . Per gli altri simboli utilizzati rinviamo il lettore alla lista che si trova alla fine del volume. Le nozioni introdotte nelle Appendici vengono liberamente utilizzate nel testo.
Geometria 1
A Stefania e Marta
Capitolo 1 /./-----
Geometria affine
1 Vettori geometrici. Spazi vettoriali
Lo studio della geometria nella scuola secondaria si basa sul sistema assiomatico di Euclide, nella formulazione moderna che gli fu data da David Hilbert (1862-1943) alla fine del secolo XIX. Per la geometria piana tale sistema considera come enti primitivi il punto e la retta. Inoltre vengono considerate come primitive alcune nozioni quali: l'appartenenza di un punto a una retta; il giacere di un punto tra altri due punti; l'uguaglianza di segmenti; l'uguaglianza di angoli (le nozioni di segmento e di angolo sono definite a partire dagli assiomi). Analogo sistema di assiomi esiste per la geometria dello spazio. Noi adotteremo un altro punto di vista, che consiste nel fondare la geometria sul concetto di "vettore". L'assiomatica basata su tale concetto, oltre ad essere molto semplice, riveste una grande importanza in tutta la matematica. Per motivare le definizioni che dovremo dare, cominceremo con l'introdurre il concetto di vettore nel piano e nello spazio della geometria di Euclide (che d'ora in poi chiameremo piano e spazio ordinan), e metteremo in evidenza le proprietà che verranno successivamente utilizzate per l'impostazione assiomatica. Per ora ci limiteremo a considerazioni di carattere intuitivo, senza curarci di dare dimostrazioni complete. Un vettore applicato (o segmento orientato) dello spazio ordinario è individuato da un punto iniziale A e da un punto finale B, e viene denotato con il simbolo (A, B). Il punto A si dice anche punto di applicazione del vettore applicato dato. Un vettore applicato viene rappresentato con una freccia che congiunge i punti A e B come nella figura 1.1. Due vettori applicati (A, B) e (C, D) si dicono equipollenti se hanno la stessa direzione, la stessa lunghezza e lo stesso verso, cioè se giacciono su rette parallele (eventualmente coincidenti) e se, movendo una delle due rette parallelamente a
14
1/Vettori geometrici. Spazi vettoriali
Geometria affine
A
Se invece i vettori a e b sono dati mediante loro rappresentanti applicati nello ---+ ---+ ---+ stesso punto, cioè a = AB e b = AD rispettivamente, allora a + b = A C, dove il punto C è il quarto vertice del parallelogramma i cui altri vertici sono A, B, D. Questo modo di costruire a + b è chiamato regola del parallelogramma. L'operazione di somma di due vettori è associativa, cioè
Figura 1.1
;::;
~
Non equipollenti
Equipollenti
ll
~
-----
Non equipollenti
Figura 1.2
sé stessa, è possibile portare i due segmenti a sovrapporsi in modo che i loro punti iniziali e i loro punti finali coincidano. Nell'insieme di tutti i vettori applicati l'equipollenza è una relazione di equivalenza, perché soddisfa in modo evidente le tre· proprietà di riflessività, simmetria e transitività. Un vettore geometrico (o semplicemente vettore) è, per definizione, una classe di equipollenza di vettori applicati, cioè è l'insieme di tutti i segmenti orientati equipollenti a un segmento orientato assegnato (fig. 1.2). I vettori verranno di solito denotati con lettere in neretto a, b, v, w ecc. Ogni vettore applicato che individua il vettore a si dirà rappresentante di a. Il vettore avente rappresentante (A, B) verrà anche denotato con AB. Dato un punto A, ogni vettore a ha un rappresentante, e uno solo, applicato in A. Nella definizione non abbiamo escluso che A = B. Il vettore individuato da uno qualunque dei segmenti orientati (A, A) si chiama vettore nullo: esso ha lunghezza nulla, direzione e verso indeterminati e si denota con O. Si può definire la somma di due vettori mediante loro rappresentanti nel modo seguente (fig. 1.3). Siano a = AB e b = BC; allora a + b = A C. ~
l !
I ì
I Figura 1.3
a+O=O+a per ogni vettore a. Se a = AB denoteremo con - a il vettore BA. Esso verifica evidentemente l'identità: ~
l
D
Figura 1.4
per ogni coppia di vettori a, b. Si noti anche che il vettore O soddisfa alla
~
c
(a + bl + c = a + (b + cl
a+b=b+a
I
A
per ogni tema di vettori a, b, c. Ciò si verifica immediatamente utilizzando la figura 1.4.
Dalla [1.1] segue che sommando tre vettori si possono omettere le parentesi perché la scrittura a + b + c ha un solo significato. Una proprietà simile vale per la somma di un numero finito qualunque di vettori (cfr. osservazione 1.3(2». Da come è stata definita è evidente che l'operazione di somma è commutativa, cioè che
~
B
[1.1]
a + (b + c) = (a+ b) + c
l
~
~
15
~
a+(-a)=O. Definiamo ora il prodotto di un vettore a per un numero reale k (i numeri reali, nel contesto dei vettori, vengono anche chiamati scalart). Esso è, per definizione, il vettore ka che ha la stessa direzione di a, lunghezza uguale a quella di a moltiplicata per I k I, e verso discorde o concorde con a a seconda che k abbia segno positivo o negativo; se k = O oppure a = O, allora ka = O. L'operazione di moltiplicazione di un vettore per uno scalare è compatibile con quella di somma di vettori e con le operazioni di somma e di prodotto tra scalari.
16
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 For Evaluation Only.
Geometria affine
1/Vettori geometrici. Spazi vettoriali
Ad esempio la seguente identità è di immediata verifica:
na = a + '" + a
Perta~to d'ora ~n poi (ad eccezione che in app. A) denoteremo con K un sottocampo dl C che Sl supporrà fissato una volta per tutte.
(n volte)
In prima lettura sarà sufficiente limitarsi a considerare il caso K = R T tt . . l' . . u aVIa e mo to Importante tenere presente che ciò che direinoha una validità più generale.
per ogni vettore a e per ogni intero positivo n. In particolare
la = a.
Def. SPAZIO VETTORIALE . l. ~ ~EFINIZIONE Uno spaiio vettoriale su K, ovvero un K-spazio vettoriale, e un mSleme non vuoto V tale che: l) per ogni coppia di elementi v, wEV sia definito un terzo elemento di V, che denoterem~ con v + w, e che chiameremo la somma di v più w, 2) per ogm v EV ~ per ogni k EK sia definito un elemento di V, che denoteremo c.0n kv, e che chiameremo prodotto di v per k, m modo che le seguenti proprietà siano soddisfatte:
Inoltre (-1) a
=-
17
a.
Si può verificare facilmente che
(k + h) a = ka + ha e che .(kh) a = .k(ha)
SVI (Proprietà associativa)
per ogni coppia di scalari k, h e per ogni vettore a. È anche facile verificare geometricamente che la seguente identità è valida:
Per ogni u, v, WEV si ha
(u + v) + w = u + (v + w).
k(a + b) = ka + kb
SV2 (Esistenza dello zero) vettore nullo, tale che
per ogni scalare k e per ogni coppia di vettori a, b. In modo simile al precedente si introducono i vettori della retta e i vettori del piano ordinario.
Esiste un elemento OE V, chiamato lo zero, o il
O+v=v+O=v
per ogni vEV. È importante notare che, per definire i vettori e le operazioni di somma di due vettori e di moltiplicazione di un vettore per uno scalare, abbiamo solo usato il concetto di parallelismo tra rette e la possibilità di confrontare le lunghezze di due segmenti situati su rette parallele (cioè la possibilità di trovare il numero reale k che rappresenta la misura di uno di essi rispetto all'altro, e viceversa, di associare a un segmento e a uno scalare k un secondo segmento che abbia misura k rispetto al primo). Queste possibilità sono garantite dagli assiomi della geometria euclidea. Non abbiamo richiesto, per le nostre definizioni, che sia possibile confrontare due segmenti qualsiasi o misurare l'angolo di due semirette. In particolare non è necessario disporre di un'unità di misura assoluta delle distanze, né del concetto di perpendicolarità.
Ora che abbiamo verificato in modo geometrico intuitivo le proprietà dei vettori, capovolgeremo il punto di vista prendendo queste proprietà come assiomi per la definizione di "spazio vettoriale". U no spazio vettoriale è sempre definito in relazione a un campo di scalari (cfr. app. A), che nell'esempio precedente era R, ma che può scegliersi in modo del tutto generale. Noi non ci metteremo nella massima generalità possibile, ma prenderemo per campo di scalari un sottocampo di C.
SV3 (Esistenza dell'opposto) l'identità
Per ogni v EV l'elemento (- 1) v soddisFa 'J'
v+(-l)v=O.
I
Ij il
SV4 (Proprietà commutativa)
Per ogni u, v EV si ha
u + v = v + u.
SV5 (Proprietà distributiva rispetto alla somma di "vettort) e per ogni kE K si ha
Per ogniu, v E V
k(u + v) = ku + kv.
SV6 (Proprietà distributiva rispetto alla somma di scalari) per ogni h, kE K si ha
(h + k)v = hv + kv. SV7
Per ogni vEV e per ogni h, kE K si ha
(hk) v = h(kv).
Per ogni v EV e
,.. Geometria affine
18
SV8
Per ogni v EV si ha
Iv = v. Diremo anche che le due operazioni definiscono sull'insieme V una struttura di K-spazio vettoriale.
.
È implicito che su un insieme possono a priori esistere diverse strutture di spazio vettoriale, cioè diversi modi di definire su V delle operazioni che ne facciano uno spazio vettoriale, eventualmente su campi diversi (cfr. esempio 1.2(4)). Gli elementi dello spazio vettoriale V si dicono vettori, e gli elementi di K si dicono scalari. l vettori della forma kv, kE K, si dicono proporzionali a (o multipli di) v. Per ogni v EV il vettore (- 1) v, chiamato l'opposto di v, si indica con - v, e si scriverà u - v invece di u + (- 1) v. Dagli assiomi SV1, ... , SV8 seguono diverse proprietà elementari che verranno discusse alla fine di questo paragrafo (cfr. 1.3), e che d'ora in poi supporremo note al lettore. Quando K = R (K = C), V si dice anche spazio vettoriale reale (spazio vettoriale complesso).
.
Un insieme costituito da un solo elemento è in modo banale un K-spazio vettoriale il cui unico elemento è il vettore nullo. Vediamo ora alcuni esempi non banali di spazio vettoriale. 1.2 Esempi
1. Le proprietà che abbiamo verificato all'inizio del paragrafo implicano che l'insieme V dei vettori geometrici del piano, quello dei vettori geometrici dello spazio e quello dei vettori geometrici della retta, dotati delle operazioni di somma di due vettori e di prodotto di un vettore per uno scalare, costituiscono altrettanti spazi vettoriali su R. 2. Siano n;::: 1 un intero e V = Kn, l'insieme delle n-uple ordinate di elementi di K. Definiamo la somma di due n-uple (Xi' , xn), (YI' ... , Yn)E Kn come (Xl' ... , Xn)
+ (YI'
e, per ogni k E K, (XI' k(x l ,
••• ,
, Yn) = (Xl ,
x n) = (kx l ,
+ YI'
, Xn + Yn)
x n ) E Kn, definiamo ••• ,
l/Vettori geometrici.
3. Sia I un insieme non vuoto qualunque e sia V l'insieme i cui elementi sono le applicazioni f: I -'-> K. Per ogni f, g EV definiamo f + g: I ~ K ponendo (f + g) (x) = f(x)
+ g(x)
per ogni xEI. Otteniamo in questo modo un elemento f + gEV. Se f EV e k E K, definiamo kf: I ~ K ponendo (kf) (x) = kf (x)
per ogni xEI. Si ottiene quindi kfEV. È facile verificare che V, con le operazioni che abbiamo introdotto, è un K-spazio vettoriale. 4. Sia F un sottocampo di K. Se V è uno spazio vettoriale su K, allora su V resta indotta una struttura di F-spazio vettoriale dalle stesse operazioni che definiscono la struttura di K-spazio vettoriale. In altre parole, la somma di due vettori rimane la stessa, e la moltiplicazione di un vettore per uno scalare a E F si definisce considerando a come un elemento di K e quindi utilizzando la definizione di moltiplicazione per elementi di K. Ad esempio, il campo C dei numeri complessi può essere considerato, oltre che uno spazio vettoriale complesso (1' l-spazio numerico su C), anche come uno spazio vettoriale reale, perché R è un sottocampo di C.. 1.3 Osservazioni
1. Alcune delle proprietà che discendono dagli assiomi SV1, ... , SV8 di spazio vettoriale sono evidenti nel caso dei vettori geometrici, ma richiedono una dimostrazione nel caso di uno spazio vettoriale qualsiasi. Vediamole. Denotiamo con V un K-spazio vettoriale". In V esiste un solo vettore nullo, cioè, se 0 1 e O2 sono vettori tali che 0 1 + v = v, O2 + v = v per ogni vEV, allora 0 1 = O2 , Infatti, ponendo v = 01 nella O2 + v = v si ottiene O2 + 0 1 = 01 , mentre ponendo v = O2 nella 0 1 + v = v si ottiene 0 1 + O2 = O2 , Quindi 0 1 = O2 + 0 1 = 0 1 + O2 = O2 ,
in particolare
Per ogni vEV esiste un solo opposto, cioè, se v
xn)·
È immediato verificare che, con queste operazioni, Kn soddisfa gli assiomi SVl, ... , SV8 e quindi è un K-spazio vettoriale. Esso viene solitamente chiamato l'n-spazio numerico su K.
19
L' l-spazio numerico è Kstesso, il quale, con le sue proprie operazioni di somma e di prodotto, è uno spazio vettoriale su sé stesso. Se (XI' ... , Xn)E Kn, gli scalari XI' ... , Xn si dicono componenti, e Xi è l'i-esima componente, di (Xl' ... , x n).
kxn );
- (Xi' ... , x n) = (- XI' ... , -
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 Spazi Forvettoriali Evaluation Only.
VI
+ VI = O = v + v2 , allora
v2 • Infatti si ha
=
VI
= O + VI = (v + v2) + VI = V + (v 2 + VI) = V + (VI + v2) = (v + VI) + V 2 = = O + V 2 = v2 •
r 20
Geometria affine
Per ogni a, b EV, l'equazione x + a = b ha l'unica soluzione x = b - a. Infatti (b - a) + a = b, e, se x + a = b, allora x = (x + a) - a
=
2/Matrici
21
per ogni {a n l, {b n l ESK, k E K. Dimostrare che, con queste operazioni, SK è un Kspazio vettoriaIe (questo è un caso particolare dello spazio vettoriale V considerato nell'esempio L2(3».
b - a.
Per ogni v EV, si ha Ov = O, dove OEK è lo scalare zero e OEV è il vettore zero. Infatti Ov = (O + O) v = Ov + Ov, e quindi Ov = Ov - Ov = O. Analogamente si ha kO = O per ogni k EK. Infatti kO = k(O + O) = kO + kO, e quindi kO = kO - kO = O. 2. Sia V un K-spazio vettoriale. Dati tre vettori u, v, w EV, scriveremo u + v + w per denotarne la somma effettuata in uno dei due modi possibili, i quali, per l'assioma SVI, danno lo stesso risultato. Supponiamo ora dati n;::: 3 vettori vi' ... , vnEV. Vogliamo dimostrare che la loro somma eseguita disponendo in un modo qualunque le parentesi: [1.2]
dà un risultato che dipende solo da v l' ••• , Vno e che quindi può essere denotato con v I + ... + vno omettendo le parentesi. Procediamo per induzione su n: se n = 3 l'affermazione è vera per l'assioma SV1.
2. Una successione (anl ESR si dice limitata se esiste RE R tale che an :5, R per ogni n E N. Sia L R il sottoinsieme di SR costituito dalle successioni limitate. Dimostrare che, con le stesse operazioni definite nell'esercizio (1), L R è uno spazio vettoriale reale.
3. Siano a, bER, a < b, e sia C(a,b) l'insieme di tutte le applicazioni continue definite nell'intervallo (a, b) a valori in R. Per ogni f, gE C(a, b) si definisca f + g: (a, b) ---+ R ponendo (f + g) (x) = f(x)
Se fE
C(a, b)
+ g(x) per ogni
xE (a, b).
e cE R, si definisca cf: (a, b) ---+ R ponendo
(cf) (x) = cf(x)
per ogni
xE (a, b).
Dimostrare che f + g e cf sono continue e quindi nel modo anzidetto restano definite due operazioni su C(a,b)' Dimostrare che con queste operazioni C(a, b) è uno spazio vettoriale reale. 4. Sia X un'indeterminata e sia K[X] l'insieme dei polinomi in X a coefficienti in K. Per ognif, gE K[X] e aE K, sianof + gE K[X] il polinomio somma dife g, e afE K[X] il polinomio prodotto di a, considerato come un polinomio costante, per f. Dimostrare che, con queste operazioni, K [X] è un K-spazio vettoriale.
Sia n;::: 4 e supponiamo dimostrato l'asserto per ogni intero k compreso tra 3 ed n-l.
Possiamo scrivere due diverse somme [1.2] come a + l3 e'Y + o rispettivamente, dove a, l3 sono somme in cui compaiono VI' , Vk , e Vk + l ' ... , V n rispettivamente, mentre in 'Y, O compaiono VI' ... , Vj e Vj+I' , Vn rispettivamente, per opportuni interi positivi j, k minori di n. Se k = j, allora, per l'ipotesi induttiva, si ha a = 'Y e l3 = o, e quindi a + l3 = 'Y + O. Supponiamo ora k
2 Matrici Siano m, n interi positivi. Una matrice m x n a elementi in K è una tabella rettangolare
A=
a+(vk + I + .. · +v)='Y (Vk + 1 +
... +vj )+o=l3
e quindi a + l3 = a +
(Vk + 1 +
... + v) + o = 'Y + O.
di mn elementi di K. Scriveremo anche A = (aij)l:Si:sm o semplicemente A = (aij)' l :5.j'5n
L'i-esima riga della matrice A è la matrice 1 x n Esercizi
ain ) , 1. Un'applicazione s: N ---+ K dell'insieme dei numeri naturali in K si dice successione di elementi di K. Se s(n) = anE K, la successione s si denota anche con {anln'N' o semplicemente con {anI. Sia SK l'insieme di tutte le successioni di elementi di K. Si definiscano in SK le operazioni seguenti:
i=l, ... ,m
e la j-esima colonna è la matrice m x 1
j=l, ... ,n.
22
Geometria affine
A possiede m righe ed n colonne. Ognuno degli elementi aij della matrice è contrassegnato da due indici, di cui il primo denota la riga (indice di riga) e il secondo la colonna (indice di colonna) cui l'elemento appartiene. aij viene chiamato l'elemento di posto i, j. Ad esempio
(~
-2
[2.1]
2/Matrici
L'insieme di tutte le matrici m x n a elementi in K si denota con M m,n (K) e l'insieme di tutte le matrici quadrate di ordine n con Mn
X2
è una matrice 2 x 3 a elementi in R; le sue righe sono (3
- 2
: ),
(.J2
7r
183),
e le sue colonne
denotato brevemente con x, verrà identificato con l'elemento Scriveremo anche x = l(XI x 2 ••• x n ). 2.1
PROPOSIZIONE
(aij)
.J2,
L'elemento di posto 2,1 è quello di posto 1,3 è -!. Se m = n la matrice A si dice quadrata di ordine n. 5 Una matrice 1 X n, cioè a una sola riga ed n colonne, viene anche chiamata vettore riga oppure n-vettore riga, mentre una matrice n x 1, an righe e una colonna, si dice vettore colonna, oppure n-vettore colonna. La trasposta della matrice m x n A = (aij) è la matrice n x m
t,4 =
alI
a 21
a 12
a22
a2n
ottenuta scambiando tra loro le righe e le colonne di A. Ad esempio, la trasposta della matrice [2.1] è
(
:
183
E Kn.
Ponendo
+ (bij) = (aij + bij)
k(aij)
=
(kaij)
per ogni (ai)' (bi) EM m, n(K), kE K, si definisce su Mm,n(K) una struttura di K-spazio vettoriale. Lo zero è la matrice nulla m x n, cioè la matrice m x n avente tutti i suoi elementi uguali a O.
La dimostrazione è lasciata al lettore. Se A = (ai) e B = (bi)' kE K, le matrici (aij + bi) e (kai) si denoteranno con A + B e kA rispettivamente.
A = (al
a2
•••
e un n-vettore colonna
.J2) 7r
(XI' X 2 , ••• , X n )
È possibile definire un'operazione di prodotto tra(matrici. Dati un n-vettore riga
(aji ) = a ln
3 - 2
23
B=
an )
24
Geometria affine
il loro prodotto è l'elemento di K definito dalla seguente identità:
2/Matrici
25
mentre
bi
(:
(~
:)
b2 . (al
a2 ...
an)
= al bi
+ a2b2 + ~ .. + anbn.
Più in generale, date una matrice A
[2.2]
(aij) EMm,n
=
=
AB = (A (i) B(k»
=
ai l b lk + ai2 b 2k +
(bjk ) E
... + ain b nk .
Il prodotto di un vettore riga per un vettore colonna, definito dalla [2.2], è un caso particolare di prodotto righe per colonne di due matrici. Si noti che il prodotto AB è stato definito nell'ipotesi che il numero delle colonne di A sia uguale al numero delle righe di B: esprimeremo questo fatto dicendo che le matrici A e B possono essere moltiplicate.
G ~)
O
2
Ad esempio, le matrici
e
3
(:
l
3
-I) ~.
possono essere mol-
se i =j [2.3] se i ~j. Il oij definito dalla [2.3] è detto simbolo di Kronecker. Ad esempio
I,~(l),I,~ C~), I,~
( 2, 3
::
~)(: -:)~(:
6
Invece le matrici
( 2~
31
01 0 -2 )
(-1
6//8 5
O
3
O 1 e
(2
~)
(: :
Una matrice quadrata A EMn(K) si dice triangolare superiore (triangolare inferiore) se aij = O per ogni i> j (per ogni i
tiplicate, e il loro prodotto è: ' l. 2
:).
Se A = (ai) EM,,(K) , gli elementi alI' a22 , ... , ann costituiscono la diagonale principale di A. Se tutti gli elementi aij , i ~ j, sono nulli, A si dice matrice diagonale. Una particolare matrice diagonale n x n è la matrice unità In = (Oi)' dove
EMnjK) , il loro prodotto righe per colonne è la matrice ABEMm,p(K) il cui
elemento di posto i, k è il prodotto della i-esima riga di A per la k-esima colonna di B. In formule si ha
:) = (:
1 23 0 ) non possono essere molti-
6
plicate. In particolare due qualsiasi matrici quadrate A, BEMn
~ O
_7) l.. 2
O -3
'
O
O
O
O
.7
O
O
O
l
7r
O
O
1 2
O
2
O
-
la prima è diagonale, la seconda è triangolare superiore, la terza è strettamente triangolare inferiore. . Una matrice quadrata A EMn
-1
5 3
5
3
O-l -l
7r
2
26
Geometria affine
è simmetrica, ma non lo è la matrice
27
2/Matrici
la k-esima colonna di C, k (A
=
l, ... , p. L'elemento di posto i, k di (A + B) C è
+ B)(i) C(k) = (ail + bi!) Clk + (a i2 + b i2 ) C2k + ... + (a in + b in ) Cnk
mentre l'elemento di posto i, k di AC -+ BC è La matrice
A (i)C(k)
o
-5
5
O
3
l --
-3
O
2
+ ai2 c2k + ... + ainCnk) + (bil Clk + bi2 C2k + ...
e quindi essi sono uguali. La seconda e la terza identità si dimostrano in modo analogo. L'elemento di posto i, j di AIn è A
(i)(In)(j) = ai! 0+ '" + aij_l O + ai) + aij + 1 O+ '" + ainO = aij ,
e quindi AIn = A. Similmente si dimostra che InC = C. 2) Si osservi che ABEMmjK) e BCEMnjK), e pertanto sia AB e C che A e BC possono essere moltiplicate. L'i-esima riga di AB, i = l, ... , m, è (AB) (i) -- (A(i)B(I)
PROPOSIZIONE
l) Se A, BEMm,n(K), C, DEMn,iK) e kE K, allora
A(i)B(2)
•••
A(i)B(p) )
mentre la h-esima colonna di (BC), h = l, ... , s, è
(A +B)C=AC+BC
B(l)C(h)
A(C+D) =AC+AD
B(2)C(h)
A(kC) = k(AC) = (kA) C AIn =A,
= (ai I Clk
... + bincnk)
2
è antisimmetrica. Si noti che ogni matrice antisimmetrica ha necessariamente nulli gli elementi della diagonale principale. 2.2
+ B(i)C(k)
l
(BC)(h) =
InC= C
2) Se A EMm,iK), BEMn,iK), CEMpjK), allora
Pertanto l'elemento di posto i, h di (AB) C è
(AB) C = A(BC).
3) Se A e B possono essere moltiplicate, allora tB e lA possono essere moltiplicate e si ha t(AB) = tB lA.
(AB) (i) C(h) = (A (i) B(l) C1h + (A (i) B(2) C2h + ... + (A (i) B(p) cph = = (ai l b l1 + ai2 b 21 + ... + ainbnl ) Clh + + (ai! b l2 + a i2 b 22 + ... + a in b n2 ) C2h + ...
[2.4]
... + (ai I bIP + ai2 b 2P + '" + ainbnp) Cph '
4) Se A, BEMmjK), allora
lA + tB
= t(A
L'elemento di posto i, h di A(BC) è invece
+ B).
A (i)(BC )(h) Dimostrazione 1) Siano A (i) = (ail
a i2
'"
a in ), B(i)
= (bi l
di A e di B rispettivamente, i = l, ... , m, e C lk
= ai! (B(I) C(h) + a;z(B(2) C(h) + ... + ain(B(n) C(h)
=
+ b 12 C2h + ... + blpcph ) + + a;z(b2l Clh + b 22 c2h + + b 2p cph ) + ... ... + aiibnl C1h + b n2 C2h + + bnpcph )'
= ai!(b l1 C1h b i2
...
b in ) le i-esime righe
[2.5]
Confrontando [2.4] e [2.5] vediamo che essi coincidono, perché entrambi sono la somma di tutti i prodotti della forma aijbjkckh al variare di j = l, ... , n e di k = l, ... , p. Quindi le due matrici (AB) C e A(BC) coincidono elemento per elemento e l'assérto è provato.
Geometria affine
28
3) Supponiamo A EMm,n(K) e BE Mn,iK). Allora tBEMp,n(K) e t,4 EMn,m(K), e quindi tB e t,4 possono essere moltiplicate. Si ha t(AB)ji
= (AB)ij = A (i) B(j) = CB)(j)(t,4)(i) = CBt,4)ji'
4) La dimostrazione è lasciata al lettore.
29
2/Matrici
Il sottoinsieme di Mn(K) costituito dalle matrici invertibili viene denotato con GLn
A- k = (A -I)k.
Dalla (2) della proposizione 2.2 segue che possiamo scrivere ABC per denotare indifferentemente (AB) C oppure A(BC), perché queste due matrici coincidono. Più in generale, se Al' Az, ... , A m sono matrici ad elementi in K tali che A k ed A k + 1 possono essere moltiplicate per k = 1, ... , m -1, si dimostra facilmente che il loro prodotto eseguito disponendo in un modo qualunque le parentesi:
Una matrice quadrata reale A EMn(R) si dice ortogonale se tAA = In> cioè se tA = A -I. L'insieme delle matrici ortogonali n x n si indica con O(n). Per definizione O (n) C GLn(R). Le uniche matrici ortogonali 1 x 1 sono (l) e (- 1). Una matrice A EMz(R) è ortogonale se e solo se è della forma [2.6]
dà un risultato che dipende solo da Al' Az, , A m. Pertanto denoteremo d'ora in poi tale prodotto con il simbolo AIA z A m. La dimostrazione è simile a quella data in 1.3(2), ed è lasciata al lettore. Una matrice quadrata A di ordine n si dice invertibile se esiste una matrice MEMn
= (A -lA) MA
[2.7]
con a Z + b Z = 1. Infatti, se A
= (MA)N= InN= N.
=A -I(AM)A =A -llnA =A -lA
= (ai})
a l1 alz
M è l'inversa di A, e si denota con A -I. Se A EMn(K) è invertibile, allora affinché una matrice M EMn(K) sia l'inversa di A è sufficiente che sia verificata una sola delle due condizioni AM = In' MA = In' Infatti, se per esempio AM = In' si ha anche MA
oppure
= 111'
Similmente si dimostra che MA = In implica AM = In' La matrice unità In è invertibile e coincide con la sua inversa. Segue immediatamente dalla definizione che (A -I) -l = A per ogni matrice invertibile A EMn(K). Se A, BE M n(K) sono invertibili, allora anche AB lo è, e si ha (AB) -I = = B-IA -I. Infatti
Più in generale, se AI' ... , AkEMn
afz
+ aZI azz ) + aiz
e quindi A EO (2) se e solo se afl+ ail a l1 alz
= 1 = afz + aiz
+ aZI azz = O.
Dall'ultima condizione si deduce che esiste p ;z= O tale che (a l1 , aZI) = (- pazz , pad·
Dalle condizioni precedenti discende che pZ = 1, cioè p = ± 1. Quindi a 12 = ± aZI' azz = T all' e A è di una delle due forme dette. Torneremo più diffusamente a parlare delle matrici ortogonali nei paragrafi 20 e 21. Per descrivere le matrici è spesso utile la cosiddetta notazione a blocchi. Tale notazione consiste nello scrivere una matrice A EMm,n(K) nella forma seguente: AlI
(AI Az· .. Ak)-l = A k- l ... AZ-IA l- l .
La verifica è simile alla precedente. Nel paragrafo 3 descriveremo un procedimento che permette di calcolare l'inversa di una matrice invertibile assegnata.
si ha
A=
A IZ
A lk
Geometria affine
30
dove le A.. sono a loro volta matrici di ordini opportuni: precisamente Il
2/Matrici
31
2. Sia
AijEMmi.nj(K), dove m l +m 2+ ... +mh=m, n l +n2 + ... +nk=n.
Ad esempio, la matrice [2.1] può essere anche denotata a blocchi nella forma seguente: A = (B
Calcolare:
C),
a) A
dove
2
c) W+A'A+'AA-31 2 •
.
3. Sia l O
A=
2
2
(
2.3 Osservazione È possibile considerare matrici a elementi in un dominio qualsiasi D, anziché nel campo K. Denoteremo con Mm,n(D) (rispettivamente Mn(D)) l'insieme di tutte le matrici m x n (quadrate di ordine n) a elementi in D. I casi che considereremo più frequentemente nel seguito sono D = Z e D = K[XI , ... , X N ], dove Xl' ... , X N sono indeterminate. Il prodotto di due matrici a elementi in uno stesso dominio D si definisce come nel caso D = K. La proposizione 2.2 si estende senza cambiamenti se nel suo enunciato il campo K viene sostituito da un dominio D.
-~) -
O
-2
Calcolare A
4. Calcolare
2
-
-l
'A + 13 •
~ ~
l
+i
(
3
-2i
5. Sia A EMn(K). Dimostrare che A + 'A è simmetrica e che A - 'A è antisimmetrica. Dedurre che A può essere espressa come somma di una matrice simmetrica e di una antisimmetrica. 6. Esprimere le seguenti matrici a elementi numeri razionali come somma di una matrice simmetrica e di una antisimmetrica:
Esercizi 1. Calcolare:
a) (_:
6
b)
3
~)
(~ ~ )
o O 42911"
O c)
O 2
(5
O
O).
2
-2 2
7. Dimostrare che se A E MAK) , allora 'AA è simmetrica.
6
8. Una matrice NEMn(K) si dice nilpotente se esiste un intero k~ l tale che A k = O, dove OEMn(K) è la matrice nulla. Dimostrare che per ogni a, b, cE K le matrici
Geometria affine
32
sono nilpotenti. Dimostrare che, più in generale, ogni matrice A EM n (1<) strettamente triangolare (superiore o inferiore) è nilpotente.
33
3/Sistemi di equazioni lineari
11. Siano
9. Dimostrare che una matrice A EMAK) nilpotente non è invertibile.
lO. Stabilire quali delle seguenti matrici sono ortogonali:
a)
(~ ~)
due matrici diagonali di ordine n. Dimostrare che·
-
-J2
-J2
-
-
2
2
_2~)
-J3 3
d)
(
L)
2~
-J3
e).J6 -
3
·3·
o
2
O
-J2
O
g) (
-J2
:
-1
3 Sistemi di equazioni lineari
;.n
Le matrici intervengono in modo naturale nello studio dei "sistemi di equazioni lineari". Siano XI' , X n indeterminate. Un'equazione lineare (o di primo grado) nelle incognite XI> , X n a coefficienti in K è un'equazione della forma
-
3
2
O
f)
_;' ;6) ( -
~ ~ l) O
[3.1] oppure della forma equivalente a!X!
O
-J3
O
2 h)
(: :) O
-
j)
l
8
9
9
8
l
j
I
l
4
XI> ... , X n: allXI + a 12 X Z+
O
4 -9 -
O
2
O k)
O
O
O
O
O
-J2
-J2
9
9
2
2
4 4 -- 9 9
7
-J2
-J2
2
2
9
!
-
l
i)
-
9
O -
+anXn-b=O
in cui al> ••. , ano bEK. La [3.1] deve intendersi come una relazione tra quantità variabili o incognite, rappresentate dalle indeterminate XI> ... , X n. Una soluzione dell'equazione [3.1] è un elemento (XI' ... , x n) di Kn che, sostituito nella [3.1] al posto della n-upla (XI' ... , X n), dà luogo a una identità. La [3.1] si dice omogenea (non omogenea) se b = O (se b ";é O). Se si considerano simultaneamente m;::: l equazioni lineari nelle incognite
2
2
+ ...
O
aZI XI
+ azzXz +
+ alnXn = bI + aznXn =
bz
[3.2] O O
si ottiene un sistema di m equazioni lineari nelle n incognite XI' ... , X,:,. Il sistema [3.2] si dice omogeneo (non omogeneo) se bI = bz = ... = bm = O (se bi";é O per qualche i).
r I
Geometria affine
34
Una soluzione del sistema [3.2] è un elemento (XI' ... , x n ) E Kn che è soluzione simultanea delle m equazioni [3.2]. Il sistema si dice compatibile (incompatibile) se possiede almeno una soluzione (se non possiede soluzioni). Ogni sistema omogeneo ammette almeno la soluzione (O, ... , O), che viene detta soluzione banale, e quindi è compatibile; ogni sua altra soluzione si dice non banale. Si noti che, viceversa, se il sistema [3.2] ammette la soluzione (O, ... , O), allora è omogeneo. Ad esempio il sistema di equazioni a coefficienti reali XI
+ 2X2 =I
3.1 PROPOSIZIONE Se il sistema [3.2] è compatibile, le sue soluzioni sono tutte e sole le n-uple ottenute sommando a una qualsiasi di esse una soluzione del sistema omogeneo associato [3.3]. Dimostrazione Denotiamo con I; e I;o i due sottoinsiemi di Kn i cui elementi sono rispettivamente le soluzioni del sistema [3.2] e del sistema [3.3]. Se (YI' ... , Yn)EI; e (XI' ... , X n ) E I;o, allora (YI' ... , Yn)
XI +2X2 =0
35
3/Sistemi di equazioni lineari
+ (XI'
... , Xn)
= (YI + XI'
... , Yn + x n) E I;.
Infatti per ogni j = 1, ... , m si ha
è incompatibile, perché i primi membri delle due equazioni sono uguali, ma non lo sono i secondi membri e quindi non esiste alcun (XI' X2) ER 2 che soddisfi entrambe le equazioni. Il sistema
ajl(YI
+ XI) + ajiY2 + x 2) + ... + ajiYn + x n) = = (ajlYI + aj2 Y2 + ... + ajnYn) + (ajlx 1 + aj2 x 2 + =
bj
... + ajnxn) =
+ O = bj •
Viceversa, fissata (YI' h, ... , Yn)EI;, per ogni altra (ZI' Z2' ... , zn)EI; si ha
XI +X2 =I
X 1 -X2 =3
è compatibile e ammette l'unica soluzione (2, -1), che si ottiene nel modo seguente. Sommando membro a membro le due equazioni, si ottiene la nuova equazione 2XI = 4, che è soddisfatta dall'unico valore XI = 2; sostituendo questo valore nella prima equazione si ottiene l'unico valore X 2 = -1 che la soddisfa. Inoltre la coppia (2, -1) è soluzione anche della seconda equazione, e quindi è l'unica soluzione del sistema. Il sistema
+ 3X2 = - I 2XI + 6X2 =-2
perché: ajl(zl-YI)+ ... +ajiZn-Yn) = ajlZ I + ... +ajnzn - (ajlYI + aj2 h + '" + ajnYn) = bj - bj = O
per ogni j Poiché
=
1, ... , m.
XI
abbiamo l'asserto.
è compatibile ed ammette le infinite soluzioni (- 1- 3 t, t) al variare del parametro t ER. Infatti le due equazioni sono proporzionali e quindi hanno le stesse soluzioni: risolvendo per esempio la prima si trovano le soluzioni dette. Il sistema ali XI
+ a I2 X 2 + ... + alnXn = O
a 2I X I
+ a22 X 2 + .,. + a2n X n = O [3.3]
si dice il sistema omogeneo associato al sistema [3.2].
Al sistema [3.2] possiamo associare la matrice A = (a;) EMm.n(K) formata dai coefficienti delle incognite delle m equazioni del sistema, che si dice la matrice dei coefficienti del sistema [3.2]. Aggiungendo ad A come (n + I)-esima colonna la
b=
formata dai termini costanti delle équazioni [3.2], si ottiene la matrice ad m righe
Geometria affine
36
e n + 1 colonne:
3/Sistemi di equazioni tiMori
37
ha la forma seguente:
a l1 a12
a In bI
a2I a22
a2n b2
al1 X I + a12 X 2 +
. a22 X 2 + .
+ aInXn = bi a2n X n
= b2 [3.6]
(Ab) =
amI am2
amn b m con al1 a22 ••• amm 7f!;. O. La matrice dei coefficienti di [3.6] è
che diremo la matrice orlata del sistema [3.2]. Possiamo interpretare gli m primi membri di [3.2] come le componenti di un vettore colonna e riscrivere la [3.2] come un'uguaglianza di vettori colonna:
a l1 XI + a l2 X 2 + a21 XI + a22 X 2+
o o
+ alnXn + a2n X n [3.4]
Ponendo
In particolare m:S; n. Supponiamo m = n. L'ultima equazione di [3.6] è soddisfatta dal solo valore X n = bnan-,/, il quale, sostituito nella penultima equazione, fornisce un unico valore X n_1 che la soddisfa. I valori X n_l, x n così ottenuti, sostituiti nella terz'ultima equazione, danno luogo a un unico valore x n - 2 che la soddisfa. Procedendo in questo modo si arriva a ottenere un'unica soluzione di [3.6]. Quindi un sistema a gradini di n equazioni in n incognite possiede un'unica soluzione. Se m < n il sistema [3.6] può essere riscritto nella forma equivalente seguente:
al1 X I + a12 X 2 + a22 X 2 +
X=
e considerando X come un vettore colonna, il primo membro della [3.4] è il prodotto righe per colonne A X. Il sistema [3.2] si scrive quindi anche nella seguente forma più concisa: AX=b.
[3.5]
Viceversa è evidente che per ogni matrice a m righe ed n + 1 colonne esiste un sistema di m equazioni lineari nelle incognite X p ... , X n di cui essa è la matrice orlata. Nel seguito utilizzeremo spesso questa corrispondenza biunivoca esistente tra matrici e sistemi di equazioni lineari per semplificare la trattazione, riducendoci a considerare matrici anziché sistemi. Un sistema di equazioni lineari nelle incognite XI' ... , X n si dice a gradini se
+ almXm = bi - (a lm +! X m+ 1+ + a2m X m = b2 - (a2m + 1X m+ 1+
+ alnXn) + a2n X n)
Dando valori arbitrari t m+!, ... , tnE K alle incognite X m+!, ... , X n si ottiene un sistema a gradini di m equazioni nelle m incognite Xl' ... , X m:
a l1 X I + a l2 X 2 + a22 X 2 +
+ almXm = bi - (a lm +! t m+ 1+ + a2m X m= b2 - (a2m + 1 t m+ 1+
+ alntn) + a2n tn) [3.7]
il quale ha un'unica soluzione. Ne deduciamo che il sistema [3.6] ammette le infinite soluzioni ottenute dalle [3.7] al variare dei parametri tm + l , ... , tn in K. Dal modo in cui si calcolano le soluzioni si deduce che ogni soluzione di [3.7] si esprime
Geometria affine
38
come una n-upla [3.8] iIi cui gli Si(tm+', ... , tn) sono polinomi di primo grado nei parametri t m+" ... , t n. La [3.8] è la soluzione generale del sistema [3.6]. La n-upla dei termini costanti (c" ... , cn) degli Si è una delle soluzioni, precisamente quella corrispondente ai valori tm = ... = tn = O. Da ciò e dalla proposizione 3.1 segue che la n-upla di polinomi omogenei in tm +" ..., tn
+,
(S,(tm+', ... , tn) -
Cl'
Se si effettua su di un sistema un'operazione elementare del tipo (I), il nuovo sistema che si ottiene è equivalente al precedente, perché le soluzioni di un sistema non dipendono dall'ordine in cui si considerano le sue equazioni. Similmente un'operazione del tipo (II) non cambia l'insieme delle soluzioni del sistema perché due equazioni proporzionali hanno le stesse soluzioni. Anche un' operazione del tipo (III) non modifica .l'insieme delle soluzioni del sistema: infatti se una n-upla (x" ... , xn) E Kn soddisfa due equazioni del sistema,
= bi aj,X, + aj2XZ+ ... + ajnXn = bj , ail X, + aiZXZ+ ... + ainXn
Sitm+" ... , tn) - cz, ... , Sn(tm+', ... , tn) - cn)
è la soluzione generale del sistema omogeneo associato a [3.6]. In particolare vediamo che un sistema a gradini è sempre compatibile. Esprimeremo il fatto che le soluzioni di [3.6] si ottengono come funzioni di n - m parametri liberi di variare arbitrariamente, dicendo che il sistema [3.6] possiede oon-m soluzioni. Nel caso n = m intenderemo con ciò dire che il sistema possiede una sola soluzione. Un'equazione lineare [3.1] in cui (a" az, ... , an) =;é. (O, ... , O) si può considerare come un particolare sistema a gradini, salvo scambiare tra loro due delle variabili se a, = O; pertanto essa possiede oon-' soluzioni. Due sistemi di equazioni lineari nelle stesse incognite X" ... ; X n si dicono equivalenti se possiedono le stesse soluzioni. Per essere equivalenti due sistemi non devono necessariamente avere lo stesso numero di equazioni. Vogliamo ora studiare un procedimento, detto metodo di eliminazione di GaussJordan, che permette di stabilire se un sistema è compatibile oppure no, e nel caso affermativo di trovarne sistematicamente tutte le soluzioni. Tale procedimento consiste nel sostituire il sistema assegnato con un sistema a gradini, ad esso equivalente, mediante passaggi successivi detti "operazioni elementari sulle equazioni del sistema" . Esse corrispondono ad altrettante operazioni sulle righe della matrice orlata. Esistono tre tipi di operazioni elementari sulle righe di una matrice: I) scambiare tra loro due righe della matrice; II) moltiplicare una riga della matrice per uno scalare non nullo; III) sostituire una riga della matrice con quella ottenuta sommando ad essa un multiplo di un'altra riga. Le corrispondenti operazioni elementari sulle equazioni di un sistema sono le seguenti: I) scambiare tra loro due equazioni del sistema; II) moltiplicare (primo e secondo membro di) un'equazione per uno stesso scalare non nullo; III) sostituire un'equazione con quella ottenuta sommando ad essa un multiplo di un'altra equazione.
39
3/Sistemi di equazioni lineari
[3.9]
allora per un qualsiasi c E K essa è soluzione delle due equazioni ailX, + aiZXZ+ (aj,X, + ajzXZ+ ... + ajnXn) + c(ailX, + aiZXZ+
+ ainXn = bi + ainXn) = bj+ cbi . [3.10]
Si verifica in modo simile che viceversa ogni soluzione delle [3.10] soddisfa le [3.9].
Quindi, se si effettua una qualsiasi operazione elementare sulle equazioni di un sistema si ottiene un sistema ad esso equivalente. Supponiamo dunque di avere assegnato un sistema [3.2]. Osserviamo preliminarmente che se una delle sue equazioni, diciamo la i-esima, ha identicamente nullo il primo membro, cioè è della forma O=bi ,
allora essa è identicamente soddisfatta se bi = O, mentre è incompatibile se bi =;é. O. Nel primo caso potremo cancellare l'equazione e ottenere un sistema equivalente al precedente, nel secondo caso il sistema [3.2] è incompatibile. Possiamo pertanto supporre che nessuno dei primi membri di [3.2] sia identicamente nullo. Possiamo inoltre supporre che sia ai' =;é. O per qualche i = l, ... , m: ciò può essere ottenuto scambiando eventualmente tra loro due delle incognite. Con un'operazione elementare (I) possiamo ottenere a" =;é. O, e moltiplicando per aii l la prima equazione (operazione elementare (II» possiamo ridurci al caso a" = 1. Sommando alle successive equazioni la prima moltiplicata rispettivamente per - az, - a3 " ••• , - am, (operazione elementare (III» si ottiene un nuovo sistema della forma seguente: X, + a[zXz + a{zXz +
+ a[nXn = b[ + a{nXn = b{ [3.11]
40
Geometria affine
Se qualcuna delle equazioni del sistema [3.11] è della forma O = O, possiamo ometterla senza modificare l'insieme delle soluzioni. Se invece compare un'equazione della forma O = b/, con b(>é- O, allora il sistema è incompatibile, e pertanto anche [3.2] è incompatibile ed il procedimento si arresta. Possiamo pertanto supporre che nessuno dei primimembri del sistema [3.11] sia identicamente nullo. Ora procediamo sul sistema [3.11] senza più occuparci della prima equazione e ragionando, sulle rimanenti equazioni, come caso precedente. Effettuando eventualmente un cambiamento dell'ordine delle variabili ed operazioni elementari (I) (II) possiamo supporre al2 = 1. Sommando alle successive equazioni la prima moltiplicata rispettivamente per - a;2' - a;2' ... , - a;"2 (operazione elementare (III)), si ottiene un nuovo sistema della forma seguente:
41
3/Sistemi di equazioni lineari
Eseguiamo operazioni elementari sulle righe della matrice orlata:
-2
-8
-2
2
3
1
-
nel
Xl
+ a{2 X 2 + a{3X3 + X 2 + al~X3 + a;~X3 +
+ a{nXn = b{ + al~Xn = bl' + a;~Xn = b;'
2 3
:)
O
Il sistema ridotto a gradini è [3.12]
Dopo aver eliminato dal sistema [3.12] tutte le equazioni della forma O = O, verifichiamo se vi compare un'equazione della forma 0= b;", b;" >é- O: in caso affermativo il sistema è incompatibile e pertanto anche [3.2] lo è, ed il procedimento ha termine. In caso contrario applichiamo di nuovo lo stesso procedimento al sistema [3.12] escludendo le prime due equazioni. Questo procedimento potrà essere iterato fintanto che non si arrivi a un sistema incompatibile oppure a un sistema a gradini equivalente al sistema [3.2] da cui eravamo partiti. Nel primo caso possiamo concludere che il sistema [3.2] è incompatibile. Nel secondo caso possiamo calcolare le soluzioni del sistema a gradini, che sono anche le soluzioni di [3.2], ed il procedimento di Gauss-Jordan ha termine. La soluzione generale del sistema a gradini che si è ottenuto è detta soluzione generale del sistema [3.2]. Daremo ora alcuni esempi per illustrare il procedimento di eliminazione di Gauss-Jordan. Nella pratica è preferibile operare sulla matrice orlata del sistema piuttosto che sulle equazioni. Inoltre è più opportuno effettuare i cambiamenti nell'ordine delle variabili che dovessero rendersi necessari, corrispondenti allo scambio di colonne della matrice, solo dopo aver effettuato tutte le necessarie operazioni elementari sulle righe.
Xl + 2X2 + 3 X 3 = 1
X 3 =1, che possiede l'unica soluzione
2. K=R
X 3 + 2X4 2Xj
+ 4X2 - 2X3
=
3
[3.13]
= 4
2Xl +4X2 -X3 +2X4 =7.
Eseguiamo operazioni elementari sulle righe della matrice orlata: 2
O
(:
3.2 Osservazioni ed esempi
1. K= R
~) ~
3
-+
4
-2
O
4
-1
2
(~
2
-1
:)~(~ O
O
2
O
2
2
-1
O
4
-1
2
O
1
2
:) ~ C
2
-1
O
O
1
2
42
Geometria affine
Il sistema corrispondente è
K=R
=2
Xl + 2X2 - X 3 X 3 + 2X4
=
X3
=
Xl +X2 + X 3 + 2X4 -
3.
X 3'
= (5 -
2t - 2u, t, 3 - 2u, u),
[3.14]
+ 3X4 -2Xs =O Xl + X 2 + 3X3 + X s = O.
Questo sistema è omogeneo; in questo caso è ~ufficiente c~nsi~erare la m~trice dei coefficienti, anziché la matrice orlata. EsegUIamo operaZiOnI elementan sulle
2
+2X4 =3.
X4)
Xs=O
X l +X2
righe della matrice:
Abbiamo pertanto un sistema a gradini, la cui soluzione generale, che è anche la soluzione generale del sistema [3.13], è (Xl' X2 ,
=O
Xl + X 2 + 2X3 + X 4
Prendendo le variabili nell'ordine Xi' X 3 , X 2 , X 4 le stesse equazioni si riscrivono nella forma seguente: Xl - X 3 + 2X2
43
3/Sistemi di equazioni lineari
t, UE R.
-1
2
l
O
2
l
O
2
-1
O
O
-1
O
O
-2
O
O
--7
--7
Il sistema possiede
00
2
soluzioni. l
3. K= R
l
O
3
l
3
O
X 2 -X3 =-1
Xl
+X3 =
2X1 +X2 +X3 =
O
- 1 -
2.
J-(~ :-:-:)-
-(~ : =: -~)-(~ : <-:) La terza riga corrisponde all'equazione incompatibile O = l; pertanto il sistema è incompatibile. 4. Ogni sistema omogeneo di m equazioni in n incognite, con n ~ m, possiede soluzioni per qualche N~ n-m. Infatti il sistema è compatibile perché omogeneo, e il procedimento di Gauss-Jordan lo trasforma in un sistema a gradini di p equazioni con p:5 m. Quindi il sistema originario possiede oon-p soluzioni ed n - p ~ n-m. Vediamo un esempio. OON
l
2
l
Eseguiamo operazioni elementari sulle righe della matrice orlata:
(~
-2
2
-2
-1
l
O
-1
l
O
O
O
O
O
O O
O
O
O
O
--7
--7
C l
2
l
O
l
-1
~)
O
e scambiamo tra loro la seconda e la terza colonna:
G
2
l
l
-1
O
~)
--7
C
l
2 O
-1
~).
Otteniamo il sistema a gradini Xl + 2X3 + X 2 + X 4 X3
che possiede
00 3
= O
-X4 +Xs = O
soluzioni. Pertanto la soluzione generale del sistema [3.14] è
(Xi' x 2 , X3, X4 , x s) = (- t - 3 U
+ 2v, t,
U -
v,
U,
v)
t, u, v ER.
5. Supponiamo che
AX=b,
[3.15]
A EMn
44
Geometria affine
data dall' espressione x =A -Ib.
[3.16]
Infatti, sostituito nella [3.15] al posto di X il valore di x dato dalla [3.16], si ottiene l'identità AA -Ib = b e quindi x è una soluzione. Viceversa ogni soluzione yE Kn soddisfa Ay = b: moltiplicando primo e secondo membro a sinistra per A -I troviamo y = A -Ib = x. La [3.16] fornisce un metodo per trovare la soluzione di un sistema [3.15] di n equazioni in n incognite tale che A sia invertibile, purché si sappia calcolare A - I. Tale metodo si dice metodo dell'inversa. Vedremo tra poco un procedimento per calcolare A ~ 1 per mezzo di operazioni elementari sulle righe di A.
7. Sia A EMn(K). Le seguenti condizioni sono equivalenti: a) A è invertibile; b) A si può esprimere come prodotto di matrici elementari. (a) ~ (b). Per quanto visto nelf'eseinpio 5 iI sistema omogeneo di n equazioni in n incognite A X = Oha l'unica soluzione x = O. Quindi, utilizzando il procedimento di Gauss-Jordan, con operazioni elementari esso può essere trasformato in un sistema a gradini di n equazioni omogenee in n incognite, cioè della forma XI
6. Una matrice elementare di ordine n è una matrice RE Mn(K) che può essete ottenuta dalla matrice identità per mezzo di un'operazione elementare sulle righe. Ad esempio, ognuna delle seguenti matrici è elementare di ordine 4 a elementi reali:
o
O O
O O O O O O
l
O O O
l
O O O
O
l
O
5
O
O O
l
O
O O
O
O O 2
O O
O O O
O
45
3/Sistemi di equazioni lineari
+ a{2X2 + X 2+
X n- I
+ a{nXn + alnXn
=
O
=
O
+ a~_lnXn
=
O
Xn=O.
Con ulteriori operazioni elementari del tipo (III) è possibile ridurre questo sistema nella forma X = O, cioè
=0 =0
O O O
Introduciamo le seguenti notazioni per le matrici elementari di ordine n: Rij: matrice ottenuta scambiando tra loro l'i-esima e la j-esima riga di In; R;(c): matrice ottenuta moltiplicando per cE K* la i-esima riga di In; Rij(c): matrice ottenuta sommando alla i-esima riga di In laj-esima moltiplicata per c EK. Talvolta adotteremo la scrittura più semplice R ij , Ri(c) ed Rij(c) per denotare le matrici elementari. L'utilità di queste matrici sta nel fatto che, se A EMn,m(K), allora ogni operazione elementare sulle righe di A si ottiene moltiplicando a sinistra A per la corrispondente matrice elementare.
La dimostrazione di quest'affermazione è lasciata al lettore. Le seguenti identità sono di verifica immediata: Rijl = R j ; R;(C)-I = R;(c- I ) Rij(c) -I = Rij( - c).
In particolare vediamo che le matrici elementari sono invertibili e hanno per inverse matrici elementari dello stesso tipo.
Tale trasformazione corrisponde alla moltiplicazione a sinistra del primo membro del sistema A X = Oper il prodotto di un numero finito di matrici elementari, cioè si ha R(I) .,. R(s)AX = X = InX
per opportune matrici elementari R(l), R(2), ... , R(s). Pertanto R(l) .,. R(s)A per l'unicità di A - I si ha R(l) ... R(s) = A - I e quindi A
= (R(I) ... R(s)-I
= R(s)-l
o.'
= In;
R(2)-1 R(I)-l
è un prodotto di matrici elementari. (b) ~ (a). Se A è un prodotto di matrici elementari, allora è invertibile perché ognuno dei fattori lo è. 8. Siano A, BEMn(K). Se ME Mn(K) , allora M e la matrice (A B)EMn,2n possono essere moltiplicate, e dalla definizione di prodotto righe per colonne segue che M(A B) = (MA MB).
46
Geometria affine
Supponiamo che la matrice A EMn(K) sia invertibile e consideriamo la matrice (A In) EM n , 2n- Moltiplicandola a sinistra per A -I otteniamo
47
3/Sistemi di equazioni lineari
Si ha l
2
l
O
2
l
O
l
O
O
l
O
O
l
O
O
3
l
O
A -I(A In) = (In A -I).
Poiché dall'esempio 3 segue che A -I è esprimibile come prodotto di matrici elementari, vediamo che la matrice (In A -I) può essere ottenuta a partire da (A In) mediante operazioni elementari sulle righe. Si ottiene così il seguente metodo pratico per stabilire se una matrice data A EMn
O
O
~
o
3
l
O
O
O
l
o
O
2
O
2 O
O
O
3
l
O l
l
3
3
2 3
O
O
l
O
3
l
-1
l
l
-+
O
O l O
O
Si ha -1
o
-3
l
2 3
l
-
-2
~)-+
l
Invece la matrice (:
3
l 3
i).
~) non è invertibile Infatti la
(~
-1
:
O
~). l
l
3
3
2 3
O
l
O
l 3
l 3
l 3
2 3 O
l 3
l 3
Nel paragrafo 6 descriveremo un altro metodo per calcolare l'inversa di una matrice.
(:
~
O }on
può essere trasformata in una della forma (12 B) con operazioni elementari. La verifica di questo fatto è lasciata al lettore. Consideriamo ora
A =
l 3
O
~l(
O
l
Quindi A è invertibile e
:) ~ (: ~ ~ -il
Quindi A è inwtibilee A -,
O
Esercizi 1. Risolvere i seguenti sistemi con il metodo di eliminazione di Gauss-Jordan: a) (K
= Q)
b) (K=Q)
X - 3 Y + 5Z = O 2X- 4Y+2Z=O 5X-llY+9Z=O X I -2X2 +3X3 + 4X4 +5Xs =O XI + 4X2 + 7 X 4 + 2Xs = O XI + 4X2 + 7 X 4 + 2Xs = O 2XI + 2X2 + 3X 3 + Il X 4 + 7 X s = O 3XI + 6X2 + 3X3 + l8X4 + 9Xs = O
48
Geometria affine c) (K
XI + 2X2 3X, - XI + X 2 +
= R)
d) (K
= C)
e) (K
= R)
.J2x3
3/Sistemi di equazioni (ineari
=O
(.J2 + 6)X3 =
O
3X3 =
-
h) (K = Q)
1
2X2 + X 4 + 5Xs = i 2X, + 2X3 + X 4 - 3Xs = i XI + X 2 + X 3 +X4 + Xs=O 2X, + 4X2 2XI + 4X2 -
X 3 + 2X4 = 3 2X3 = 4 X 3 + 2X4 = 7.
j) (K = C)
2. Dimostrare che una matrice diagonale
... O) ... ~ EMn(K)
O
al
O .a2 ..
A=
al-
I
A-I =
al a2 •.• an;é.
O
a) (K
4. Calcolare l'inversa, se esiste, di ognuna delle seguenti matrici:
c) (K = R)
AB- 2 , dove A = ( 1l
~ (~ Q)
C
d) (K = C) (1 2i
f) (K = C)
(~
O
O
O
O
O
O
:)
O
2
O
O
k) (K = Q) O
O
O
O O O
O
O
O
b)
: )
-1 O
i)
-11)' B=(_Ol
(K~
Y-~=
1
.J2
.J2
.lZ=2.J2 2
.J2
2Y+-Z=3 .
2
2
6. Esprimere ciascuna delle seguenti matrici quadrate ad elementi reali come prodotto di matrici elementari:
a{
2 - i) ( 2:i
g) (K = Q)
X +Z =
-X+
.J3
e) (K = C)
-1
iX- Y=2i 3X,---2iY=1
X+.J2Y+
~)
A) (:
~{~ :)
n
X+
2 12 Y - Z = 12 X+3 Y = 3 b) (K=C)
c)(K = R)
~l
O
= Q)
2 ), 1
a)(K
(~
(-: :)
O
O
:.J
(
-
-5
i) (K = Q)
1
.
3. Calcolare 3A -I
2
- ') -1:
5. Risolvere i seguenti sistemi coniI metodo dell'inversa:
a2-
O
13
O, ed in tal caso la sua inversa è
O
O
-5
O
an
è invertibile se e solo se
(-'
O
l) (K = C)
(
O O
2
49
2
-2
d{
-3 -2) (:
-2 -2
-3 -1
4
:)
b)
C -~)
c)
C :)
3
O
:)
e)
(:
-1
J
50
Geometria affine
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 For lineare Evaluation Only. 4/Alcune nozioni di algebra
51
4 Alcone nozioni di algebra lineare al (XI
Sia V uno spazio vettoriale su K.
+ YI) + ... + an(xn + Yn)
= alxl
+ ... + anxn + alYI + ... + anYn =
=-0+0
4.1 DEFINIZIONE Un sottoinsieme non vuoto W di V si dice sottospazio vettoriale di V se: l) per ogni Wl' wzEW, la somma Wl + W z appartiene a W; . 2) per ogni WEW e per ogni c EK, il prodotto cw appartiene a W. Le condizioni (l) e (2) della definizione 4.1 implicano che le operazioni di somma e di prodotto per uno scalare definite in V inducono altrettante operazioni in W; inoltre, per la proprietà (2) applicata agli scalari 0, - l, si ha rispettivamente 0= OwEW e - wEW. Quindi W soddisfa gli assiomi SV2 ed SV3. Poiché gli altri assiomi SVI, SV4, ... , SV8 sono soddisfatti da V, essi sono a maggior ragione soddisfatti da W. Quindi W è esso stesso uno spazio vettoriale. È evidente che se W è un sottospazio di V e U è un sottospazio di W, allora U è un sottospazio di V. Analogamente, se U e W sono sottospazi di V ed U C W, allora U è un sottospazio di W.
l. Esempi di sottospazi di un qualsiasi spazio vettoriale V sono V stesso e il
sottoinsieme costituito dal solo O, che si denota con (O). Questi due sottospazi sono detti sottospazi impropri o banali di V. Sia v EV un elemento qualsiasi. L'insieme (v) = {cv:cEK} costituito da tutti i multipli di v costituisce un altro esempio di sottospazio di V; la verifica è immediata ed è lasciata al lettore. Nel piano e nello spazio ordinari, i sottospazi della forma (v) sono quelli che si ottengono fissando una retta e considerando tutti i vettori ad essa paralleli. 2. Sia V = Kn, n ~ 2. Il sottoinsieme Hl di V costituito dalle n-uple della forma (O, x Z' ... , x n), al variare di x z, ... , XnE K, è un sottospazio vettoriale di Kn. Infatti Hl non è vuoto; inoltre, per ogni x z, ... , Xn, Yz, ... , Ym cE K, si ha ••• ,
°
cioè (Xi' ... , x n) + (YI' ... , Yn)EH e c(xl , ... , Xn)EH; pertanto H è un sottospazio vettorialedi Kn. I sottospazi H i sono casi particolari di H che si ottengono prendendo ai = l e aj = 0, se j;é. i. In modo simile il lettore può verificare che, pii! in generale, l'insieme ~ C Kn costituito dalle soluzioni di un assegnato sistema di equazioni lineari omogenee in n incognite è un sottospazio vettoriale di Kn.
-
3. Sia V lo spazio vettoriale reale dei vettori geometrici dello spazio ordinario, sia 1t un piano e P un punto di 1t. L'insieme W dei vettori di V della forma PQ per qualche Q E 1t è un sottospazio vettoriale di V. Infatti per ogni Q,R E1t si ha
--
PQ+PREW,
4.2 Esempi
(O, x Z,
=
x n)
+ (O,
Yz, ... , Yn)
= (O,
XZ + Yz, ... , x n + Yn) EHl
c(O, x z, ... , x n) = (O, cXz, ... , CXn) E Hl'
In modo analogo si verifica che per ogni indice i compreso tra l ed n il sottoinsieme Hidi Kn costituito dalle n-uple il cui i-esimo elemento è uguale a è un sottospazio vettoriale. Dati al' ... , anEK non tutti uguali a 0, sia
°
perché il quarto vertice del parallelogramma di vertici P, Q, R appartiene a mentre per ogni c ER e QE1t si ha
71",
-
cPQEW perché la retta contenente P e Q è contenuta in 1t. Si noti che W dipende solo da 1t e non dalla scelta del punto PE 1t utilizzato per definirlo. Segue subito dalla definizione 4.1 che se U e W sono due sottospazi vettoriali di V, l'intersezione U n W è ancora un sottospazio vettoriaie di V. Più in generale, l'intersezione n iElW i di una famiglia qualsiasi {Wi } iE! di sottospazi vettoriali di V è un sottospazio vettoriale di V. La verifica è immediata ed è lasciata al lettore. L'unione U U W di due sottospazi non è in generale un sottospazio di V. Ad esempio, se D e Wsono due vettori non proporzionali di V, allora (D) U (W) contiene i vettori D e w, ma non contiene D + w, perché questo non è multiplo né di D né di w: (D) U (W) non soddisfa la condizione (1) della definizione 4.1. Il sottoinsieme di V costituito da tutti i vettori della forma D + w, al variare di D in U e di W in W, verrà denotato conU + W. Se Di' ozEU, Wl' wzEW, e cEK allora
+ Wl) + (oz + wz) = (DI + oz) + (Wl + wz)EU + W C(OI + Wl) = CDI + cW I EU + W (DI
52
Somma diretta
Geometria affine
e quindi V + W è un sottospazio vettoriale di V. Esso si chiama il sottospazio somma dei sottospazi V e W. Si osservi che V + W contiene V U W perché contiene tutti i vettori u = u + O e w = O + w al variare di uEV e di wEW. Se V n W =
53
Le verifiche di questi fatti sono lasciate al lettore. I sottoinsiemi
V' W'
= {(u,
= {(O,
O): UEV} w): WEW}
sono due sottospazi di V x W. Si ha evidentemente V'
nw' = (O,
O);
inoltre
u+w=u' +w'
per qualche u, u' EV, w, w' EW, allora u - u' = w' - wEV n W, e quindi u - u'
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 41Alcune nozioni di algebra For lineare Evaluation Only.
(u, w) = (u, O)
+ (O, w)
per ogni (u, W)EV x W. Pertanto si ha
= w' - w = O,
VxW=V'E8W'.
cioè u =u' e w=w'.
Se V = V E8 W i sottospazi Ve W si dicono supplementari in V. Nel caso in cui V =
Se V e W sono due K-spazi vettoriali, il loro prodotto cartesiano V x W è un K-spazio vettoriale se si definiscono in esso le operazioni di somma di due vettori e di prodotto di un vettore per uno scalare nel modo seguente:
Ad esempio lo spazio vettoriaIe Km+n si identifica con Kn diretta dei due sottospazi Kn' = {(XI' X2, ... , Xm O,
, O): XI' ... , xnE K}
Km' = {(O, ... , O, YI' Y2,
, Ym): YI' •.. , YmE K}.
=
ed è somma
Un procedimento per costruire sottospazi vettoriali è fornito dalla nozione di "combinazione lineare". Siano V p ••• , v n E V e a p ••• , an E K. Il vettore [4.1]
(u, w) + (u', w') = (u + u', w + w')
a(u, w)
x Km,
(au, aw)
per ogni (u, w), (u', w')EV x W, aE K. Il vettore nullo di V x W è (O, O).
si dice combinazione lineare dei vettori VI' ... , v n e al' ... , an si dicono coefficienti della combinazione lineare. Se i coefficienti sono tutti uguali a O, allora la [4.1] è uguale al vettore O e si dice combinazione lineare banale di VI' ... , V n • Ogni combinazione lineare di V p ••• , V n in cui i coefficienti non siano tutti nulli si dice non banale. (Attenzione: una combinazione lineare può essere non banale e tuttavia essere uguale al vettore nullo. Questo è il caso ad esempio di Ov + aO, per ogni V E V, aE K*.) Le combinazioni lineari di un vettore V EV sono i suoi multipli. Si noti che Vi=OV I + ... +OVi_I+1vi+OVi+I+
Figura 4.1
+Ovn
è combinazione lineare di VI' ... , V n , i = 1, , n. Segue immediatamente dalla definizione 4.1 che se W è un sottospazio vetto, riale di V e V l' ••• , Vn sono elementi di W, allora ogni combinazione lineare di VI' ... , V n appartiene a W.
/ 54
Geometria affine
4.3 PROPOSIZIONE Sia {VI>"" Vn} un sottoinsieme finito di vettori di V. L'insieme (VI' ..• , v n> costituito da tutte le combinazioni lineari di VI' .•• , v n è un sottospazio vettoriale di V. Esso è uguale atrintersezione di tutti i sottospazi di V che contengono {vI> '0', vn}' Dimostrazione Se al VI + ... + anvn e bI VI + o•. + bnv n sono due elementi qualsiasi di (VI' .•. , v n> e c E K, allora (al VI +
'0.
anv n) + (bI VI + '" + b nv n) = (a l + bl)v I + (a2 + b 2)v2 + 000 + (an + bn)vn
+
'0'
e c (al VI + .•. + anvn) = calvI + ca2 v 2 +
'0'
+
canvn
sono elementi di (VI' "0, vn>' e quindi (VI' ... , v n> è un sottospazio vettoriale di V. Denotiamo con W l'intersezione di tutti i sottospazi di V che contengono {vI> "0' vn}' Poiché (vI> o.• , v n> è un sottospazio vettoriale contenente {VI' ... , vn}, si ha W C (VI' '0', vn>' D'altra parte W, essendo un sottospazio, contiene tutte le combinazioni lineari di suoi elementi, e quindi contiene quelle di VI' •.• , vn ; cioè W:::) (VI' '00' vn>o In conclusione W = (VI' ..• , Vn>' Chiameremo (VI' ... , Vn> il sottospazio generato da VI' ... , Vn. Osserviamo che, se 1::5 m < n, il sottospazio (VI' ... , vm > è contenuto in (VI' o.. , vn>' perché ogni combinazione lineare di VI' o•. , Vm è anche una combinazione lineare di VI' "0, vn :
Diremo che VI' '0.' Vn generano V, oppure-che {VI' "0, vn} è un sistema di generatori di V, se (VI' ... , v n> = Vo Quindi VI' ... , v n generano V se e solo se per ogni V EV esistono al' •.. , anE K tali che
4/Alcune nozioni di algebra lineare
4.5 PROPOSIZIONE
55
Un vettore V è linearmente dipendente se e solo se V = O.
4.6 PROPOSIZIONE Se VI e V2 sono due vettori tali che V2 sia proporzionale a VI' cioè tali che V2 = aVI per qualche aE K, allora VI e V2 sono linearmente dipendenti. Infatti aVI - V2 = O è una loro combinazione lineare con coefficienti a e-l, e quindi non entrambi nulli. Viceversa, se VI e v2 sono due vettori linearmente dipendenti, allora uno di essi è multiplo detraltro. Infatti al VI + a2 V2 = O, cioè a2 V2 = - al VI' con al' a2 non entrambi uguali a 0, implica, supponendo ad esempio a2 ~ 0, che v 2 = aVI' dove a = - a l a2 -I. 4.7 PROPOSIZIONE VI' '0" vnEV, n ~ 2, sono linearmente dipendenti se e solo se uno almeno di essi si può esprimere come combinazione lineare dei rimanenti. Infatti, se VI> 00" v n sono linearmente dipendenti, allora
con ai ~
°
per qualche i; quindi
cioè Vi = -ai-l(aIV I + ... + ai_1vi _ 1 +ai+IVi + 1 + "0 + = - ai-IaiV I - .•. - ai-Iai-IVi-I - ai-Iai+IVi+1 -
anvn) = •.. - ai-IanV n·
Viceversa, se per qualche i
allora
e quindi VI' 000' Vn sono linearmente dipendenti. Se !'insieme {VI' 000' Vn} contiene il vettore O, allora linearmente dipendenti. Supponiamo infatti che si abbia Vi = O per qualche i compreso tra 1 ed n. Allora si ha 408 PROPOSIZIONE
4.4 DEFINIZIONE
esistono scalari aI>
00"
I vettori VI' '00' VnEV si dicono linearmente dipendenti se
anE K non tutti nulli tali che
o, equivalentemente, se il vettore Osi può esprimere come loro combinazione lineare non banale. Altrimenti VI> .. o, Vn si dicono linearmente indipendenti. Vediamo alcune semplici conseguenze della definizione 4.40
vI> 0'0' Vn sono
OV I +
'0'
+OVi_I+1vi+OVi+l+ '"
+Ovn=vi=O,
e O è una combinazione lineare non banale di VI' ... , Vn. Si può anche osservare che Vi = O può essere espresso come combinazione lineare di VI' "0' Vi-I' Vi+l' "0' Vn' la loro combinazione lineare banale, e quindi VI' 00" vn sono linearmente dipendenti per la proposizione 4.7.
4.9 PROPOSIZIONE Se {VI' •.. , vn} sono linearmente indipendenti e 1:5 m < n, allora {vl> .•• , Vm} sono linearmente indipendenti. Equivalentemente, se {V l> ••• , Vm} sono linearmente dipendenti, allora anche {VI"'" Vn} sono linearmente dipendenti.
tuita da n elementi, ogni altra base ha lo stesso numero n di elementi. Questo risultato fondamentale è conseguenza del teorema seguente.
W
Dimostriamo la seconda affermazione. Se v l' denti, allora O=alv l + •••
••• , Vm
sono linearmente dipen-
+amvm=alv l + ... +amvm+Ovm+ l + ...
+Ovn
per qualche scelta di al' ... , amE K non tutti nulli, e quindi il terzo membro è una combinazione lineare non banale di VI' ••. , Vn che è uguale a O, cioè VI' •.• , Vn sono linearmente dipendenti.
4.12 TEOREMA Sia {VI' ... , Vn}un sistema di generatori di V e siano Wl' ... , elementi di V. Se m> n, allora Wl' ... , W m sono linearmente dipendenti. m
Dimostrazione Per la proposizione 4.9, se Wl> ... , W n sono linearmente dipendenti lo sono anche Wl' ... , W m • Pertanto non sarà restrittivo dimostrare l'asserto supponendo che Wl> ... , W n siano linearmente indipendenti. Sarà sufficiente dimostrare che Wl' ... , W generano V, perché da ciò seguirà che W m può esprimersi come loro n combinazione lineare, e quindi dalla proposizione 4.7 seguirà la dipendenza lineare di
4.10 PROPOSIZIONE Se bI, ... , bnE K sono tali che
VI' •.• , Vn
sono linearmente indipendenti, e al' ... , an,
57
4/Alcune nozioni di algebra lineare
Geometria affine
56
Wl> ... , W m •
Dall'ipotesi che VI' tali che
... , Vn
generano V si deduce che esistono scalari al' ... , an
alvI + .. , +anvn=blv l + ... +bnvn, allora al
=
Poiché abbiamo supposto che Wl' ... , W n siano linearmente indipendenti, Wl è diverso da O e quindi i coefficienti al' ... , an non sono tutti nulli. Salvo rinumerare VI' ... , Vn, possiamo supporre al ":;é O. Pertanto:
bI, az = b z' ••• , an = bn"
Infatti, essendo O = alVI + .•• +
si deve avere al - bI
anvn =
(biVI + ••• +
az - b z =
.•• =
bnvn) = (al -
an - bn =
bl)V l + .•. +
(an - bn)vn cioè VI E (Wl' v z, ... , si ha
O.
Vn).
Poiché ovviamente anche v z, ... ,
VnE (Wl' VZ' ... , v n),
4.11 DEFINIZIONE Un sottoinsieme finito {VI' ... , vn} di V si dice base finita, o semplicemente base, di V se VI' ... , Vn sono linearmente indipendenti e generano V. Se {VI' esistono al'
è una base, allora, poiché VI' , anE K tali che
, vn}
... , Vn
generano
V,
per ogni
vEV
cioè Wl' VZ' ... , Vn generano V. Supponiamo ora che per qualche 1:5 S:5 n-l si abbia (Wl> ... ,
[4.2] inoltre, per la proposizione 4.10, al' ... , an sono univocamente determinati da v. I coefficienti al' ... , an della combinazione lineare [4.2] si dicono le coordinate di V rispetto alla base {VI' ... , "nl. e (al' ... , an) si dice la n-upla delle coordinate di v. Quindi, una volta assegnata una base {VI' ... , vn} di V, ad ogni vettore VEV viene univocamente associata una n-upla di coordinate; viceversa ogni n-upla (al' ... , an) E Kn individua univocamente il vettore [4.2] di cui essa è la n-upla delle coordinate. Un vettore V di coordinate al' ... , an verrà spesso denotato con v(al> ... , an). Lo spazio vettoriaIe {O} costituito dal solo vettore O non possiede una base finita, perché il suo unico elemento è linearmente dipendente. Non tutti gli spazi vettoriali diversi da {O} possiedono una base finita (cfr. esempio 4.15(5)). Dimostreremo tra poco che se uno spazio vettoriale V possiede una base costi-
ws '
[4.3]
v s + l ' ... , v n ) = V.
Segue da ciò che esistono scalari bI' ... , bs '
Cs + I ' ... ,
cn tali che
Poiché Wl> , ws ' ws + I sono linearmente indipendenti, uno almeno dei coefficienti cs + l , , cn deve essere diverso da o: salvo rinumerare vs + I , ... , vn se necessario, possiamo supporre cs + l ":;é O. Deduciamo che
e quindi v s + I E (Wl' ... , w s ' w S + l ' se s = n -l). Pertanto si ha
cioè
Wl' ... , Ws ' Ws + l , Vs + z , ... , Vn
VS + Z, ... , v n )
(rispettivamente,
(rispettivamente
Wl' ... , W n )
vnE (Wl' ... , W n )
generano
V.
Geometria affine
58
Abbiamo già dimostrato che l'ipotesi [4.3] è vera se s allora per induzione su s.
=
59
4/Alcune nozioni di algebra lineare
1; la conclusione segue
4.13 COROLLARIO Siano {VI' ... , vn} e {Wl' ... , w m } due basi dello spazio vettoriale V. Allora m = n.
Dimostrazione Poiché Vi' ... , vn generano V e Wl' ... , w m sono linearmente indipendenti, dal teorema 4.12 segue che m:5 n. D'altra parte, poiché Wl' ... , w m generano V e VI' ... , vn sono linearmente indipendenti, dallo stesso teorema segue che anche n :5 m. Quindi m = n. Figura 4.2
4.14 DEFINIZIONE Se il K-spazio vettoriale V possiedè una base finita (Vi' ... , vnL il numero n si dice la dimensione di V, e si denota con dimK(V), o semplicemente dim(V). Se V = {O} consiste del solo vettore nullo, si pone dim(V) = 00 Se V = {O}, oppure V possiede una base finita, diremo che V ha dimensione finita. Dal corollario 4.13 segue che la definizione di dimensione è ben posta perché il numero di elementi di una base dipende solo da V. 4015 Esempi 1. Sia V = OP un vettore geometrico non nullo della retta ordinaria. Poiché ogni altro vettore geometrico è multiplo di v, {v} è una base dello spazio dei vettori geometrici della retta ordinaria, il quale quindi ha dimensione 1. Sia V lo spazio vettoriale reale dei vettori geometrici del piano ordinario, e siano VI e Vz due vettori non proporzionali di V, che penseremo applicati in uno stesso punto O, rappresentati nella forma
per opportuni punti P I e P z (fig. 4.2). Dalla proposizione 4.6 segue che VI e Vz sono linearmente indipendenti. Denotiamo con ~l (con ~z) la retta contenente i punti O e P I (i punti O e Pz). Sia V = OPEV un vettore qualsiasi. Detto QI (rispettivamente Qz) il punto di intersezione con ~I (con ~z) della retta parallela a ~z (a ~I) e passante per P, sia ~
-+
OQI
-+
-+
-+
= al OPI e OQz = a zOPz per opportuni
ai' a z ER.
Poiché -+
V= OQI
-+
+ OQz =
-+
al OPI
-+
+ azOPz =
alvI
+ azvz
vediamo che V è combinazione lineare di VI e di Vz e che quindi VI' Vz generano V. Dunque {VI' Vz"} è una base di V. Pertanto V ha dimensione 2.
-+
-+
-+
Nello spazio ordinario tre vettori geometrici VI = OPI' Vz = OPz, v3 = OP3 sono linearmente indipendenti se e solo se i punti O, Pi' P z, P 3 non giacciono in uno stesso piano: ciò segne subito dal fatto che la dipendenza lineare di VI' vz, V3 equivale all'essere uno di essi combinazione lineare dei rimanenti. Se Vi' vz, v3 sono linearmente indipendenti, allora, con una costruzione simile a quella illustrata dalla figura 4.2 nel caso del piano ordinario, si verifica che ogni vettore geometrico si può esprimere come loro combinazione lineare. Quindi {VI' vz, v3 } è una base, e i vettori geometrici dello spazio ordinario costituiscono uno spazio vettoriale reale di dimensione 3. n 2. Sia n 2: 1. Consideriamo lo spazio vettoriale numerico K , e siano El
=
(1, 0, ... , O),
E z = (O, 1, 0, ... , O),
En
=
(O, ... , 0, 1).
I vettori Ei' ..:' E n generano Kn. Infatti per ogni (XI' ... , xn)E Kn si ha (XI' ... , x n) = xlE I
+ xzEz + .., + xnEn.
[4.4]
Inoltre, essendo (XI' ... , x n) = O se e solo se XI = Xz = ... = x n = 0, segue dalla [4.4] che El' ... , E n sono linearmente indipendenti. Quindi {El' "0' E n } è una base di Kn e Kn ha dimensione n. {Ei' ... , E n } si chiama la base canonica di Kn. Per n = 1 otteniamo che il campo K, considerato come uno spazio vettoriale su sé stesso, ha dimensione 1, la sua base canonica essendo costituita dal solo 1EK. Dalla [4.4] segue che le coordinate di un vettore (XI' ... , x n ) rispetto alla base canonica coincidono con le sue componenti XI' ... , Xn· 3. Siano A EMm,n(K), X AX=O
= (XI
Xz
"0
X n ) indeterminate, e
[4.5]
il sistema omogeneo, di m equazioni nelle incognite X, la cui matrice dei coeffi-
\ 60
Geometria affine
cienti è A. Denotiamo con 1:0 l'insieme delle soluzioni del sistema. Come abbiamo già osservato nell'esempio 402(2), 1:0 è un sottospazio vettoriale di Kn. Le m equazioni [405] si dicono equazioni cartesiane del sottospazio 1:0 di Kn. Quindi, per definizione, due diversi sistemi di equazioni lineari omogenee nelle incognite X sono equivalenti se e solo se sono equazioni cartesiane dello stesso sottospazio di Kn Gli elementi di 1:0 possono interpretarsi come relazioni di dipendenza lineare tra le colonne A(l)' A(2)' '0" A(n) di A, considerate come vettori di Km Infatti x = t (XI X2 000 xn)EKn è soluzione di [405] se e solo se Ax = O, o, equivalentemente, se e solo se o
o
40 Consideriamo un sistema di m equazioni lineari omogenee a gradini: allXI + a l2 X 2 + a22 X 2 +
...
+ alnXn = O + a2n X n = O
"0
'00,
definita nel paragrafo 3, coincide con la dimensione dello spazio delle sue soluzioni. Più in generale, poiché ogni sistema di equazioni lineari omogenee [4.5] è equivalente a un sistema a gradini, abbiamo che !'infinità delle soluzioni di un sistema di equazioni lineari omogenee è uguale alla dimensione dello spazio delle sue soluzionio
50 Sia X un'indeterminata. Il K-spazio vettoriale K [X] dei polinomi in X a coefficienti in K non ha dimensione finita. Supponiamo infatti per assurdo che esista una base finita {fl (X), ... , fn(X)} di K[X]. Detti dI' o." d n i gradi di fl(X), '00' fn(X) rispettivamente, poniamo D = max {dI' ... , d n}, e sia f(X) un polinomio di grado d > D. Poiché (fl(X)}, 000' fn(X)} è una base, esistono al' anEK tali che o •• ,
o
sm+2 = (Sm+21' sm+22'
Sm+2' '00' sn generano lo spazio 1: 0 delle soluzioni del sistema [4.6]. Segue che {sm+l' S-m+2' •.• , Sn } è una base di 1: 0, In particolare, .dim(1: o). = n-m. Pertanto l'infinità delle soluzioni del sistema omogeneo a gradini [4.6], così come è stata
[4.6]
all a22 ... amm -:;é O. Se n = m, il sistema [4.6] ammette solo la soluzione banale Se n> m le oon-m soluzioni di questo sistema sono ottenute dando valori arbitrari alle incognite X m + l , ••• , X n , e risolvendo il corrispondente sistema di m equazioni nelle XI' "0, X m • Consideriamo in particolare le n - m soluzioni sm+1 = (Sm+ll' sm+12' ... , sm+lm' 1, 0, ... ,
f(X) = adI (X)
Ma il polinomio a secondo membro ha grado non superiore a D e quindi non può essere uguale a f(X). Questa contraddizione implica che la base finita (fl (X), fn(X) l non esiste. . . In modo simile si dimostra che il K-spazio vettoriale K[XI, 000' X n] del pohnomi nelle indeterminate XI' ... , X n a coefficienti in K non ha dimensione finita. o •• ,
6. Per un qualsiasi intero positivo d, lo spazio vettoriaie K [XI' .. o, Xn]d costituito dai polinomi omogenei di grado d in XI' '0" X n a coefficienti in K e dal polinomio possiede una base finita: ad esempio quella costituita da tutti i monomi monici di grado d. Quindi K[Xp ••• , Xn]d ha dimensione finita uguale a (d
1)
o •• ,
tn) = (1, 0, ... , O), (O, 1, 0, 00" O),
rispettivamente Per ogni t m+ p t m+2,
o •• ,
(O, ... , 0, 1)
o
00"
tnE K si ha
tm+ISm+1 + t m+2sm+2 + ... + tnsn = (tm+ISm+11 + 00' + tnsnl , tm+lsm+12 ... + t nsn2 , ... , tm+ISm+lm + + tnsnm , t m+ p t m+2, "0, tn)' o ••
+ .,. [4.7]
Il secondo membro è uguale a (O, 00" O) se e solo se t m+ l = t m+2 = 00' = t n = 00 Quindi sm+l' sm+2' 00" Sn sono linearmente indipendenti. Il secondo membro della [407] è la soluzione del sistema [4.6] che corrisponde allascelta dei valori t m+l , t m+2, t n per le incognite X m+ l , "0' X n; la [4.7] mostra che tale soluzione è combinazione lineare di Sm+l' Sm+2' '0" sn- Quindi sm+l' o •• ,
+;
-1), per il lemma A.lI; in particolare lo spazio vettoriale K[XI, ... , Xn]1
dei polinomi omogenei di primo grado in XI' ... , X n ha dimensione n.
ottenute in corrispondenza alle (n - m)-uple (tm+l' tm+2,
+ 000 + anin(X),
°
O)
sm+2m' 0, 1, 0, ... , O)
0, '0.,0,
61
41Alcune nozioni di algebra lineare
70 Lo spazio vettoriale Mm,n(K) delle matrici m x n a elementi in K ha dimensione mn. Consideriamo infatti, per ogni 1:5 i:5 m, l:5j:5 n, la matrice 1ij che ha 1 nel posto i, j e ogni altro elemento uguale a 00 Otteniamo così un insieme di nm matrici {1l1' 112 , ... , 1mn }, che costituisce una base di Mm,n(K)· Infatti, se A = (aij) EMm,n(K), allora in modo unico si ha A =a ll 1ll +a I2 112 + ... +amn 1mn·
4.16 PROPOSIZIONE 1) Se VI' 2) Se VI'
Supponiamo che dim(V) = n.
, vnEV sono linearmente indipendenti, {VI' ... , vn} è una base di V. , vkEV sono linearmente indipendenti, esistono Vk+ l ' ... , VnEV tali che {VI' .. o, vn} sia una base di V.
62
,
Geometria affine
.
Dimostrazione 1) È sufficiente mostrare che (vI' ... , Vn) = V. Per ipotesi esiste una base {bI' ... , b n} di V, e ciò implica, per il teorema 4.12, che per ogni vEV i vettori VI' '0" Vn' V sono linearmente dipendenti. Pertanto esistono al' "0' ano aE K non tutti nulli tali che
Poiché VI' 00" Vn sono linearmente indipendenti, deve essere a -:;é. O. Quindi si ha
cioè vE (VI' 000' vn). Essendo vEV arbitrario, si ha l'asserto. 2) Per il teorema 4.12 deve essere k:::; n. Se k = n la conclusione segue dalla parte (I); supponiamo dunque k < n. vI' ... , V k non possono generare V, altrimenti si avrebbe una base costituita da k -:;é. n elementi, il che contraddirebbe il corollario 4.13. Pertanto possiamo trovare un vettore Vk+IEV"(v l, ... , v k ). Supponiamo che al' o.. , ak , ak + 1 E K siano tali che
Deve essere ak + I = 0, perché se fosse ak + I -:;é. V k+1 =
°
si avrebbe
- ak-+\alv i - 000 - ak-+\akvk,
cioè V k + 1 E(VI' "0' v k ), il che è contro l'ipotesi; pertanto si deve anche avere al = ... = ak = 0, perché VI' ... , v k sono linearmente indipendenti. Dunque i vettori VI' o.. , vk' V k + 1 sono linearmente indipendenti. Se k + l = n si conclude, per la parte (I), che {vI' ... , v k ' V k + l } è una base, e l'asserto è provato; se invece k + l < n possiamo ripetere il ragionamento precedente e trovare Vk+2 EV tale che {VI' "0, V k, V k+l' V k+2 } siano linearmente indipendenti. Iterando questo procedimento n - k volte è possibile trovare Vk+p V k + 2 ' ••• , vnEV tali che {VI' '0" vn} siano linearmente indipendenti. Per la (I), {VI' o.. , vn} è una base, e l'asserto è provato. 4.17 COROLLARIO Se dim(V) = n, ogni sottospazio vettoriale W di V ha dimensione finita non superiore a n. Dimostrazione Per il teorema 4012, per ogni sottoinsieme finito {Wl' ... , w m } di W costituito da vettori linearmente indipendenti deve essere m:::; no Quindi, se W ha dimensione finita, ogni sua base deve essere costituita da non più di n elementi, cioè dim(W):::; n. D'altra parte, se W non avesse dimensione finita, per ogni sottoinsieme finito {Wl' ... , wm } di vettori linearmente indipendenti di W si avrebbe (Wl' ... , w m ) -:;é. W, e quindi esisterebbe W m + 1 EW tale che Wl' '0', W m , W m + 1 siano
4/Alcune nozioni di algebra lineare
63
linearmente indipendenti (cfr. dimostrazione di 4.16(2». Ciò implica l'esistenza di insiemi finiti di vettori linearmente indipendenti di V con un numero arbitrariamente alto di elementi, il che è impossibile per il teorema 4012.
°
Se in particolare dim(W) = oppure n, allora W = (O) oppure W == V rispettivamente. Per ogni sottospazio vettoriaie W di V, il numero dim (V) - dim (W) si dice codimensione di W in V. Dimostreremo ora un'importante formula che mette in relazione le dimensioni di due sottospazi, della loro intersezione e della loro somma. 4.18 TEOREMA Siano U e W due sottospazi di dimensione finita dello spazio vettoriale V. Allora U n W e U + W hanno dimensione finita e dim(U) + dim(W) = dim(U + W) + dim(U n W).
[4.8]
In particolare, U + W è somma diretta di U e W se e solo se dim (U + W) = dim (U) + dim (W). Dimostrazione U n W è un sottospazio di U, che ha dimensione finita, e quindi anche U n W ha dimensione finita. Sia dunque {ZI' ... , Zq} una base di U n Wo Per la proposizione 4016(2) esistono U I' , u,EU e Wl' ... , wsEW tali che {ZI' o.. , Zq' U I, "0' u,} sia una base di U e {zp , Zq' Wl' o.. , w.} sia una base di W. Poiché dim(U) + dim(W) - dim(U n W) = q + t + s, per dimostrare la prima parte del teorema sarà sufficiente dimostrare che {zp ... , Zq' U I, 0.0' U,' Wl' 00" w s } è una base di U + W. oSia U + wEU + W. Esistono scalari al' ... , aq, ai, 000' a~, bi' 0'0' bI' CI' .. o, Cs talI che u=alzl+ .. o +aqzq+blu l + ... +b,u, w=aizi + ...
+a~Zq+cIWI +
00. +csws'
Si ha quindi u + W= (al + ai) ZI + ... + (aq + a~) Zq + bi U I +"0 + brut + CI Wl + .. o "o
+ CsWs '
Dunque ZI' ... , Zq' U I, ... , U,' Wl' ... , Ws generano U + W. Supponiamo ora che al' ... , aq, bi' ... , bI' CI' ... , csE K siano tali che alzl+ .. o +aqzq+blu l + ... + b,u, + CIW I + ... +csws=O.
[4.9]
Geometria affine
64
3. Stabilire quali dei seguenti sottoinsiemi di R 3 sono sottospazi vettoriali:
Dalla [4.9] segue che [4.10] Poiché il primo membro della [4.10] appartiene a W, il secondo membro sta in un w. Essendo {ZI' zql una base di U n W, si ha o •• ,
alzI + .0. +aqzq+blu l +
per opportuni e l ,
••• ,
65
4/Alcune nozioni di algebra lineare
+btut=elz l + ... +eqzq
o ••
eqE K, o, equivalentemente,
-(àl-el)ZI+ ... +(aq-eq)zq+blu l +
+btut=O.
Per l'indipendenza lineare di ZI' ... , Zq' Ul , , U t tutti i coefficienti sono 0, e in particolare bI = ... = b t = O. Per la [4.9] si ha dunque alzI + ... +aqzq+clw l +
Dall'indipendenza lineare di ZI'
+csws=O. ,
Zq'
Wl' ... , Ws segue che anche
a) {(O, 0, O)}
b) {(x, 0, O): xER, X;éO}
+ Z = l}
c) {(x, y, z): x - 2y
d) {(t, t, t): O:s t :sI} 3
e) {(l, t, t): O
f) R \{(0, 0, l)}
g) Hl U H 2 U H 3,
dove
h) {(x, y, z): x 2 + y2
+ Z2 = l}
H;
=
{(x" X2, X3): x;
= O}
i) {(x,y,z):x+y-5z=0,2(x+y)=~1
j) {(t,l,t):tER}o
4. Sia V uno spazio vettoriale reale di dimensione 3, e sia {i, j, k} una base di Vo Siano U = (i + j, i - j), W = (j + k, j - k)o Dimostrare che V = U + W, e che la somma non è direttao 5. Dimostrare che R 4 = U E8 W, dove U = «1,0, -.[5, O), (.[5,0, -l, O»,
W
=
«O, - 2,0,3), (O, l,O, l»,
6. Dimostrare che R 3 = U E8 W, dove
al = ... = aq = CI = ... = Cs = O.
Quindi ZI' 00" Zq' UI, ... , U t , Wl"'" Ws sono linearmente indipendenti. L'ultima asserzione del teorema segue immediatamente dalla [4.8] e dalla definizione di somma diretta. La [4.8] è detta formula di Grassmann vettoriale.
U= {(x, y, z): x-y=OJ, W = «l, 0, l». 7. Utilizzando esclusivamente operazioni elementari sui vettori, trovare una base del sottospazio di Q4 generato dai seguenti vettori:
v,
= (l,
1,2, 3),
V2
= (3,
2, l, O),
V3
= (-l,O,
3, 6),
V4
= (2,
2, 2, 2).
8. Dimostrare che gli n vettori
Esercizi
(l, l, "0' l), (O, l, '0" l), (O, 0, l, '0" l), 0'0' (O, '00,0, l, l), (O, 00.,0, l) 1. Stabilire quali dei seguenti insiemi di vettori sono linearmente indipendenti, quali sono un sistema di generatori dello spazio, e quali costituiscono una base:
In R2 : a) {(l, 123), (-?r, -?r)} c) {(4/5, 5/4), (4,5)}
b) {(2, -l/3), (-l, l/6)} d) {(l, 2), (11, -7-J2), (-l, l)}o
In R3 : e) {(l, 1,3), (2, 2, O), (3, 3, - 3)} f) {(l, -l, - .[5), (l, l, .[5), (O, 1,2.[5)} g) {(l,O, O), (1, l, l), (O, 1,2), (-l, -2, -3)}. In C": h) {(l,O, i, O), (i, 0, i, O), (O, l, l, O), (O, i, 0, i)} i) {(O, l, l, O), (O, - i, -,- 2i, l), (O, i, 0,1), (1, 0, 0, O)} 2. Dimostrare che le matrici
-2
°
°
sono linearmente indipendenti.
°
costituiscono una base di Kno 9. Sia V un K-spazio vettoriale. Si supponga che VI' 00" vkEV siano linearmente indipendenti; dimostrare che AI V" o. o, Ak Vk sono linearmente indipendenti per ogni A" '0" AkE K*.
lO. Sia l :s i:s no Determinare una base del sottospazio H; di Kn. 11. Dimostrare che GLn(K) non è un sottospazio vettoriale di Mn(K). 12. Sia A = (a;)EMn(K). La traccia di A è tr(A) = all
+ a22 +
o ••
+ anno
Dimostrare che il sottoinsieme X di Mn(K) costituito dalle matrici aventi traccia uguale a è un sottospazio vettoriale, e calcolarne la dimensione.
°
13. Le matrici di M 2 (C)
66
Geometria affine
5/Rango
67
'Si dicono matrici di Pauli. Dimostrare che: a) I:f = I:~ = I:~ I:, I: 2 = iI: 3 I: 2 I: 3 = iI:, I: 3 I:, = iI: 2
= 12
5 Rango I: 2 I:, = - iI: 3 I: 3 I: 2 = - iI:, I:, I: 3 = - iI: 2 •
b) {I2 , I:I, I: 2 , I: 3 } è una base di M 2 (C). Calcolare le coordinate in tale base delle matrici
111 = (
~
12, = (
~
:), :),
ln=(:
~ ),
b2= ( :
~ ).
14. Dimostrare che lo spazio vettoriale SK delle successioni di elementi di K non ha dimensione finita. 15. Dimostrare che l'insieme L R delle successioni limitate di numeri reali costituisce un sottospazio vettoriale dello spazio SR' Dimostrare che L R non ha dimensione finita. 16. Sia SK lo spazio vettoriale delle successioni di elementi di K, e sia P K il sottoinsieme di SK costituito dalle successioni {a n } tali che an = O per tutti gli n sufficientemente grandi. Dimostrare che P K è un sottospazio vettoriaie di SK. 17. Siano a, bE R, a < b. Dimostrare che lo spazio vettoriale C(a,b) di tutte le applicazioni continue dell'intervallo (a, b) in R non ha dimensione finita. 18. Sia X un'indeterminate ed;:: 1 un intero. Dimostrare che il sottoinsieme K [X ]"d di K [X] costituito dai polinomi di grado non superiore a d e dal polinomio O è un sottospazio vettoriale di dimensione d + 1. 19. Dimostrare che i polinomi omogenei di secondo grado
costituiscono una base di K [Xo, XI, X 2h. 20. Siano
Wo,
WOI, WO'2 i seguenti sottoinsiemi di K[Xo, XI, X 2h:
Wo = {FEK[Xo, X], X 2h: Fè divisibile per X o}; WOI = {FE K[Xo, XI, X 2h: F = XoL o + X,L, per qualche Lo, LI EK[Xo, X" X 2 ]II; W012 = {FE K[Xo, X" X 2h: F= XoL o + X,L, + X 2 L 2 per qualche Lo, L],L 2 EK[Xo,
Il metodo di eliminazione di Gauss-Jordan, molto utile in pratica per risolvere sistemi di equazioni lineari, non si presta troppo bene ad essere utilizzato in que" stioni teoriche, in cui è preferibile avere criteri generali di risolubilità espressi attraverso le matrici associate al sistema. Criteri di questo tipo possono essere ottenuti in modo naturale per mezzo della nozione di "rango". Se V è un K-spazio vettoriale, e {v l' ... , Vm l è un sottoinsieme finito di V, il rango di {VI' ... , vml è il massimo numero di vettori linearmente indipendenti appartenenti a {VI' ... , vml. Equivalentemente, il rango di {VI' .•. , vml è la dimensione del sottospazio vettoriale (VI' •.• , v m ). Se A EM m,n(1<), il rango per righe di A è il rango dell'insieme delle sue righe, cioè il massimo numero di righe linearmente indipendenti di A, considerate come vettori di Kn. Analogamente si definisce il rango per colonne di A. L'utilità di queste nozioni deriva dal seguente risultato. 5.1 TEOREMA Il rango per righe e il rango per colonne di una matrice A EMm,n(K) coincidono. Dimostrazione Siano r il rango per righe e c il rango per colonne di A. Se r = O, allora tutti gli elementi di A sono nulli e quindi anche c = O. Pertanto possiamo supporre r > O. Una relazione di dipendenza lineare tra le colonne di Aè una soluzione non banale del sistema omogeneo
dove X = t (XI ... X n ). Pertanto il rango per colonne di A è individuato dall'insieme delle soluzioni del sistema [5.1]. Se le righe di A si dispongono in ordine diverso, c non cambia perché un cambiamento nell'ordine delle equazioni del sistema, cioè una successione di operazioni elementari (I), non influisce sull'insieme delle sue soluzioni. Neanche r cambia se si riordinano le righe di A, perché il rango di un insieme di vettori non dipende dal loro ordine. Pertanto non è restrittivo supporre che le prime r righe di A siano linearmente indipendenti. La matrice
X"X2],}.
Dimostrare che Wo, Wo, e WO'2 sono sottospazi vetoriali di K[Xo, XI, X 2h e calcolarne la dimensione. 21. Una successione {an l di elementi di K è una successione di Fibonacci se per ogni n ;:: O si ha an +2 = an + an +,. Dimostrare che le successioni di Fibonacci costituiscono un sottospazio vettoriale F K di SK, e che dim (FK) = 2.
[5.1]
AX=O
all
a 12
a in
a 21
a22
a2n
ari
ar2
arn
A*=
ha rango per righe uguale a r.
J
/
Geometria affine
68
D'altra parte
Consideriamo il sistema [5.2]
A*X=O
e sia (Xi' ... , x n) una sua soluzione. Se r < m, allora per ogni i = r + 1, .. o, m l'i-esima riga di A è combinazione lineare delle righe di A *, e quindi si ha ailxl
+ ... + ainxn =
al (a ll x l
69
5/Rango
+ '" + alnxn) +
'0'
+ aAarlXl + ... + amxn) =
A (s)
= (A (s) + cA (I»
- cA (l)
e quindi è vera anche l'inclusione opposfa: (A(I), ... , A(s-1), A(s)
+ cA(I),
A(s+!), ... , A(m»::J (A(I), ... , A(m»,
e di nuovO r(A) = r(B).
=0+ '" +0=0 per opportuni ai' "0' arEK. Pertanto (Xl' ... , x n) è anche soluzione di [5.1]. Viceversa è ovvio che ogni soluzione di [5.1] è soluzione di [5.2], che è un suo sottosistema. In conclusione [5.1] e [5.2] sono equivalenti, e quindi il rango per colonne di A * è uguale a c. Poiché le colonne di A * sono vettori di Kr, si ha C:5 r. Ragionando allo stesso modo su tA si deduce che anche r:5 c, e l'asserto è provato.
5.3 PROPOSIZIONE 1) Se A e B sono due matrici che possono essere moltiplicate, allora r(AB) :5 min(r(A), r(B». 2) Se AEGLm(K),BEMm,n(K), CEGLn(K), allora r(AB)
[5.3]
= r(B) = r(BC).
Il valore comune del rango per righe e del rango per colonne di A si dice rango di A e si denota con r(A). È evidente che r(A):5 min(m, n) per ogni AEMm,n(K).
La proposizione seguente afferma che le operazioni elementari sulle righe di una matrice non ne modificano il rango. Sia A EMm,n(K). Se BEMm,n(K) è ottenuta da A mediante una successione di operazioni elementari sulle righe, allora r(A) = r(B).
5.2
PROPOSIZIONE
Dimostrazione
Dimostrazione 1) Siano A = (ai) EMm,n(K) e B = (b jh ) EMn,s(K). Per ogni i = 1, ... , m, la
i-esima riga di AB è A(i)B = (ailb ll + ... +ainbn1 , ail b 12 + ... +ainbnz ,"" ailbls+'" +ainbns) = = (ailbli' ail b 12' ... , ailb lS) + (aizb zl , aizbzz, ... , aizbzJ + .. 0'0 + (a;nbnl' a;nbnz, , a;nbns) = (l) B(Z) + + B(n) =a;l B +a;z ... ain . o
Quindi, essendo ogni A (i) B combinazione lineare delle righe di B, si ha
È sufficiente dimostrare l'asserto nel caso in cui B è ottenuta da A mediante una sola operazione elementare sulle righe. Se B è ottenuta da A per mezzo di un'operazione elementare (I), le sue righe sono A (I), ••• , A (l), •• o, A (s), .. o, A (m) per qualche 1:5 s < t:5 m, e quindi si ha
(A(I)B, A(2)B, .. o, A(m)B) C (B(I>, B(Z), ... , B(n»
e pertanto r(AB) :5 r(B). D'altra parte si ha anche r(AB) = r('(AB» = r('BtA) :5 r('A) = r(A)
cioè r(A) = r(B), perché il rango di un insieme di vettori non dipende dall'ordine in cui si considerano. Se si è effettuata un'operazione elementare (II), le righe di B sono A(!), o" ... , cA (I), ... , A (m) per qualche c EK* e 1 :5 t:5 m, e si ha evidentemente (A(l), ... , cA(I), ... , A(m» = (A(ll,
o .. ,
A(m»,
cioè ancora r(A) = r(B). Se l'operazione elementare è del tipo (III), le righe di B sono A (I), .. o, A (s-1), A (s) + cA (I), A(s+l), ... , A (m), per qualche cE K e 1 :5 s, t:5 m, s,r. t; poiché tali righe sono combinazioni lineari di A (I), • o., A (m), si ha (A(1), ... , A(s-!), A(s)
h·
+ cA (I),
A(s+l), ... , A(m» C (A(I), ... , A(m».
e la (l) è dimostrata. 2) Per la (1) si ha r(AB):5 r(B) = r(A
-l
(AB» :5 r(AB)
e quindi r(AB) = r(B). La seconda uguaglianza in [5.3] si dimostra in modo simile. Per le matrici quadrate si ha il seguente teorema 5.4
TEOREMA
rango no
o
Una matrice quadrata di ordine n è invertibile se e solo se ha
70
Geometria affine
5/Rango
71
costituita dalla icesima, i2-esima, ... , .ip-esima riga. La disuguaglianza
Dimostrazione Per la proposizione 5.3(2) una matrice invertibile A ha lo stesso rango di In = A - I A. Il rango di In è n, perché le sue righe costituiscono la base canonica {El' ... , E n} di Kn. Viceversa, se A ha rango n, le sue righe A(l), , A(n) costituiscono una base di Kn. Quindi, per ogni i = 1, ... , n, esistono bi!, , binE K tali che
è ovvia se interpretata come una relazione tra i ranghi per righe delle due matrici. D'altra parte B è una sottomatrice di C, e precisamente
[5.4]
la sottomatrice costituita dalla jcesima, j2-esima, ... , jq-esima colonna di C. Anche in questo caso la disuguaglianza
Consideriamo la matrice B
=
(bi)EMn(K). La [5.4] equivale all'identità
In=BA
Una sottomatrice p X q di una matrice A EMm,n (K) è una matrice costituita dagli elementi di A comuni a p righe e a q colonne fissate in A. Scelti indici 1:5 il < i2 < '" < ip:5 m e 1 :5jl
8
O -1
O
Y3
3
-
A=
2
-5
1r
1 2
-
1 lO
.J2
6
O
-5
EM4 ,5(R),
allora A (2 413 4 5) =
(-11
3 O
5.5
PROPOSIZIONE
r(B) :5 r(C)
[5.5]
[5.6]
è ovvia se interpretata come relazione tra i ranghi per çolonne delle due matrici. La [5.5] e la [5.6] insieme implicano r(B) :5 r(A).
e quindi A è invertibile.
5
r(C):5 r(A)
1~ )
E M"
,(R)
-5
Se B è una sottomatrice della matrice A, allora r(B):5 r(A).
Come conseguenza dei risultati che precedono abbiamo il seguente teorema. 5.6 TEOREMA Il rango di una matrice A è uguale al massimo degli ordini delle sue sottomatrici quadrate invertibili. Dimostrazione Sia p il massimo degli ordini delle sottomatrici quadrate invertibili di A. Dalle proposizioni 5.4 e 5.5 segue che p:5 r(A). D'altra parte, posto r = r(A), se le righe A (i,), A (i,), ••• , A (i,) di A sono linearmente indipendenti, la sottomatrice B = A (il'" irll ... n) ha rango r, e quindi possiede r colonne linearmente indipendenti B U,)' BUi!' ... , B(j,)' La sottomatrice quadrata B(l ... rUI ... j,) di B ha rango r, cioè è invertibile. Poiché
è una sottomatrice di A, si ha anche p;::: r(A). La nozione di "determinante", che introdurremo nel prossimo paragrafo, ed il teorema 5.6 insieme forniscono unmetodo pratico per calcolare il rango di una matrice (cfr. corollario 6.6). Dalla dimostrazione del teorema 5.6 segue che se B = A (il ... ir Ijl '" j,) è una sottomatrice quadrata invertibile di A, allora le righe A (i,), A (i2), ••• , A (i,) di A sono linearmente indipendenti. Similmente, le colonne A U,)' A (2 )"'" A U,) sono linearmente indipendenti. Passiamo ora a considerare i sistemi di equazioni lineari. La nozione di rango permette di dare il seguente semplice criterio di compatibilità di un sistema.
Dimostrazione
Sia A EM m, n(K) e B di A
=
A (il i2 ... ipUI j2 ... jq). Consideriamo la sottomatrice
5.7 TEOREMA (KRONECKER-RoucHÉ-CAPELLI) n incognite AX=b,
Un sistema di m equazioni, in [5.7]
72
Geometria .affine
dove A EMm,n(K), bEMm,I(K), X = l(XI r(A)
'"
6/Determinanti
73
X n), è compatibile se e solo se Esercizi
= r(A b).
In tal caso il sistema [5.7] possiede oon-r soluzioni, dove r
= r(A).
1. Calcolare il rango delle seguenti matrici a elementi razionali:
Dimostrazione
-
Sia
l
l
-1
3
O
2 a l1
a l2
a21
a22
-
O
l
-2 -1
O
b)
-1 -1 O
O
O
O
2
A= amI
2
4
a)
-2
3
4
5
4
O
7
2
2
2
3
11
7
3
6
3
18
9
am2
1-1
O
c)
Una n-upla (Xl' ... , Xn)E Kn è soluzione di [5.7] se e solo se si ha a l1
a21 XI
a l2
a ln
bI
a22
a2n
b2
+ ...
+X2
+Xn
am2
amI
2. Dimostrare che tutte le matrici n x m a elementi in K di rango minore o uguale a l sono della forma
amn
(b, •.. bm ),
a" a., b" . , b.E K.
bm
La [5.8] esprime la condizione che il vettore b sia combinazione lineare delle colonne di A. Questa condizione è verificata se e solo se la matrice (A b) ha lo stesso rango per colonne di A, cioè se e solo se r(A) = r(A b). La prima parte del teorema è dimostrata. Se il sistema [5.7] è compatibile, e r = r(A), possiamo supporre che le sue prime r equazioni siano linearmente indipendenti e sostituire [5.7] con il sistema equivalente: a l1 X r + a l2 X 2 + a 21 XI + a22 X 2 +
C)
[5.8]
+ alnXn = bI + a2n X n = b 2
6 Determinanti
In questo paragrafo descriveremo un modo di associare un elemento di K, chiamato "il determinante di A" , ad ogni matrice quadrata A a elementi in K. Il determinante, come vedremo, è uno strumento di fondamentale importanza pratica in algebra lineare. Faremo uso del simbolo di sommatoria 1: per denotare la somma di un numero finito di termini contrassegnati da uno o più indici; gli insiemi di variabilità degli indici saranno indicati sotto e/o sopra al simbolo 1:. Similmente il simbolo il sarà utilizzato per denotare un prodotto.
[5.9] 6.1
Applicando il procedimento di Gauss-Jordan al sistema [5.9], nessuna delle equazioni si riduce a = 0, perché ciò implicherebbe che essa è linearmente dipendente da quelle che la precedono. Quindi il sistema [5.9] si può trasformare in un sistema a gradini di r equazioni; ciò significa che [5.9], e quindi [5.7], possiede 00 n-r soluzioni.
DEFINIZIONE
°
Sia n 2: l e
a l1
a l2
a ln
a 21
a22
a2n
A=
EMn(K). anI
an2
ann
Geometria-'.tfine
74
Il determinante di A è l'elemento di K det(A)
= pEu E E (p) alp(l)aZp(Z) ... anp(n)'
75
6/Determinanti
Scriveremo quindi
A(l)
[6.1]
A(Z)
n
~ove (Tn denota !'insieme di tutte le permutazioni di {I, 2, ... , n} e dove E(p) è Il segno della permutazione pE (Tn (cfr. app. B); det(A) verrà anche indicato con det(ai) oppure con I A I.
..La [6.1] è una somma di n! termini, che, a meno del segno, sono tutti i possibIlI prodotti di n elementi di A appartenenti a righe ed a colonne diverse. Se n = l, allora A = (a) e si ha det(A) = a. Sen=2e
A (n) Con queste notazioni il determinante verrà considerato come una funzione di n vettori colonna oppure di n vettori riga. 6.2
Sia n ;::: l un intero e sia
TEOREMA
A(I) A(Z)
allora
A
(n)
Allora: 1) det(lA) = det(A). 2) Se A (i) = c V + c' V' , per qualche l :5 i :5 n, c, c' E K, cioè se la i-esima riga
Se n
di A è combinazione lineare di due n-vettori riga, allora
3 si ha
=
A(I)
A(I) aZI
a22
aZ3
= allaZZa33 -
allaZ3a3Z + a 12 a23 a31 - a12aZla33 - a13aZZa31'
+ a13aZla3Z-
Al crescere di n il determinante di una matrice n x n qualsiasi non è facile da calcolare direttamente a partire dalla sua definizione [6.1]. Vedremo tra poco dei modi più semplici di farlo senza dover ricorrere alla [6.1]. Se A EM n(K), denoteremo come al solito con A (I), ... , A (n) le sue righe e con A(I)' ... , A(n) le sue colonne; scriveremo, con notazione a blocchi,
det(A) = c det
+ c' det
V
A (n) Analogamente, se A
V'
A (n)
u> = cW + c' W' per qualche
1:5 i:5 n, c, c' E K, dove W
e W' sono due n-vettori colonna, si ha det(A) = cdet(A(I) .,. W ... A(n»)
+ c' det(A(l) ...
W' ... A(n»)'
3) Se la matrice BEMn(K) è ottenuta da A scambiando tra loro due righe
oppure A (I) A(Z)
oppure due colonne, si ha det(B) = - det(A). 4) Se A ha due righe oppure due colonne uguali, allora det(A) = O.
5) det (In) = 1. Dimostrazione 1) Si ha
A= A (n)
det(lA) = E pE
Un
E (p)
ap(l)lap(Z)Z ... ap(n)n·
[6.2]
76
Geometria 'affine
A meno del segno, gli addendi di [6.2J sono gli stessi di [6.1J; infatti il termine ape!) I ap(2) 2
ap(n)n
'"
[6.3J
77
6/Determinanti
E(P)
=-
E(top) e poiché al variare di pEUn> top descrive tutto Un> si deduce:
det(B)
=
E -
E(
q ) alq(l) '" aiq(i) ... ajq(j) ... anq(n)
supponi:r::~
può anche essere scritto nella forma seguente: [6.4]
dove q = P -I E un' Osservando poi che E (p -I) = E (p), si conclude che gli addendi di det(A) e di detCA) sono gli stessi, cioè det(A) = det(S4). 2) Le due affermazioni sono equivalenti per la (1), e quindi è sufficiente dimostrare la prima. Siano
= - det(A).
~guali. ~c~mbiando
Dal teorema 6.2 segue facilmente il risultato seguente. 6.3 COROLLARIO Se A, BEMn(K), allora det(AB) = det(A!1 det(B). In particolare, se A è invertibile, allora det(A -I) = det(A) .
Si ha
Dimostrazione Siano A = (ai}) e
e
B(l) det(A) = E
pEUn
=
E
(p) alp(l) a2p (2)
•••
B(2)
anp(n) =
B=
E E (p) alp(l) '" (CVp(i) + C' V; (i»
pEall
'"
anp(n)
=
= cPE~ E E (p) alp(l) ... Vp(i) ... anp(n) + c' pE~ E E (p) alp(l) '" A (l)
= cdet
V
V;(i) ... anp(n)
=
Si ha, utilizzando la (2) e la (3) del teorema 6.2:
A(I)
+ c' det
V'
det (AB)
=
all B(l) a21 B(l)
+ +
+ alnB(n) + a2n B(n)
ani B (l)
+ .. + ann B(n)
det 0
A (n)
3) Per la (1) è sufficiente dimostrare la (3) nel caso in cui B sia ottenuta da A scambiando due righe, siano esse la i-esima e laj-esima, dove l ::5 i
pEUn
E (p)
=
aIP(l)B(p(l»
B(p(l»
a B(p(2)) 2p(2)
B(p(2»
E det
=
p€ °n
a B(p(n» np(n)
bIP(l) ... bip(i) ... bjp(j) ... bnp(n) =
E alp(I)'" anp(n) det
pEun
B(p(n»
= pEa E E (P) alp(l) ... ajp(i) ... aip(j) ... anp(n) = n
=
E
PEun
E (p)
al(IP)(l) ... ai(tp) (i)
•• ,
aj(IP)(j) ... an(lp)(n)
= E E(p)aIP(l) ... anp(n) det pEan
dove abbiamo denotato con t la trasposizione che scambia i con j. Poiché
L
~igh~
4) che A abbia due righe tra loro tali si ottiene ancora la matrice A. Per la (3) SI ha qumdI det(A) = - det(A), sicche det(A) = O. 5) L'unico addendo di det(In) diverso da O è
= det(A) det(B).
78
79
6/Determinanti
Geometria dffine I
L'ultima affermazione segue immediatamente dalla prima applicata al prodotto I" = AA -I, tenuto conto del teorema 6.2(5). Una proprietà fondamentale del determinante è la sua relazione con il rango, che è espressa dal seguente teorema. 6.4 TEOREMA
Sia A EMn(K). Allora det(A)
-:;é.
O se e solo se reA) = n.
Dimostrazione Se reA) = n, allora A è invertibile per il teorema 5.4. Dal corollario 6.3 segue che dev'essere det(A -I) = det(A)-I, e pertanto det(A) -:;é. O. Supponiamo reA) < n, cioè che le righe di A siano linearmente dipendenti. Salvo scambiare tra loro due righe di A, il che, per il teorema 6.2(3), non influisce sulla conclusione, possiamo supporre che
cioè che la prima riga sia combinazione lineare delle rimanenti righe di A. Per il teorema 6.2(2) si ha
det(A)
= Cz det
A(Z)
A (3)
A (n)
A (Z)
A (Z)
A (Z)
+ c3 det
+ ... + cn det
6.7 PROPOSIZIONE SiaA = (au)EMn(K): 1) Se A ha una riga oppure una colonna nulla, det(A) = O. 2) Se BEMn(K) è ottenuta da A sommando a una sua riga (colonna) un multiplo scalare di un'altra riga (colonna), allora det(B) = det(A).
Dimostrazione 1) Se A ha una riga, o una colonna, nulla, reA) < n, e quindi det(A) = O per il teorema 6.4. 2) Supponiamo che si abbia B = (B(I) ... B(n») con B(i) = A(i) + cA(j)' per qualche i -:;é. j, e B(k) = A(k) per ogni k -:;é. i. Allora det(B)
=
det(A) + cdet(A(l)
...
A(j)
...
A(n»)
=
det(A) + cO
=
det(A)
perché (A(I) ... A(j) ... A(n») ha uguali la i-esima e la j-esima colonna, e quindi ha determinante uguale a O. In modo simile si procede nel caso in cui B(i) = A (i) + cA (j). Daremo ora una definizione che ha una notevole importanza pratica nel calcolo dei determinanti. 6.8 DEFINIZIONE Data A = (aij)EMn(K), per ogni 1:s i, j:s n sia A(l ... l... ... n Il ... ] ... n) la sottomatrice quadrata di ordine n -1 di A ottenuta cancellando la i-esima riga e la j-esima colonna. Il complemento algebrico (o cofattore) dell'elemento aij di A è
Ai} = (-l)i+ j det(A (1 ... l... n Il ... ] ... n)). La matrice cofattore di A è Poiché ognuna delle matrici che compaiono a secondo membro ha due righe uguali, per il teorema 6.2(4) il suo determinante è O. Pertanto
det(A)
=
czO
+ c3 0 + ... + cnO = O.
Il risultato seguente fornisce un procedimento induttivo per calcolare il determinante di una matrice.
6.5 DEFINIZIONE Sia MEMm,n(K). Un minore di M è il determinante di una sua sottomatrice quadrata. L'ordine del minore è l'ordine della sottomatrice quadrata corrispondente.
6.9 PROPOSIZIONE
Sia A EMn(K). Per ogni 1 :s i, j:s n si ha [6.5]
e Abbiamo il seguente utile corollario. 6.6 COROLLARIO Sia MEMm,n(K). Il rango di M è uguale al massimo ordine dei minori non nulli di M. Il corollario è immediata conseguenza dei teoremi 5.6 e 6.4. Le seguenti ulteriori proprietà del determinante seguono facilmente dai teoremi precedenti.
. [6.6]
La [6.5] e la [6.6] sono rispettivamente lo sviluppo di det(A) secondo la i-esima riga e secondo la j-esima colonna. Dimostrazione Sostituendo A con la sua trasposta ci si riduce a dimostrare solo la [6.5].
80
Geometria affine
6/Determinanti
81
\
Mediante i - l scambi fra righe contigue di A si ottiene una matri2e A
Infatti la permutazione rE an definita da r(l)=l,
,(1)
r(k) = q(k - 1),
A,(2)
A'=
è ottenuta componendo p con j - 1 trasposizioni di elementi contigui, e quindi soddisfa E(r) = (-1)j-1E(p). D'altra parte, per definizione, si ha evidentemente
A,(n)
E(q)
la cui prima riga è A ' (I) = A (I), e le rimanenti righe sono nella stessa posizione relativa delle righe di A, cioè
= E(r).
Poniamo B = (b hk) = A (2 ... n Il ... ] ... n). Poiché al variare di p E an tale che p(l) =j la permutazione q"definita dalla [6.8] descrive tutto an-I' la somma dei termini [6.7] è uguale a ali-l)j-I ~
A(I)
qE
A,(2) A,(3)
AU-I)
A (n)
Si ha pertanto
= (-l)i-I det(A).
6.10
Inoltre, per ogni 1 :5,j:5, n: n/l ... ]
L. nll
n)] = ] ... n) = (-l)i+IAij.
A
[6.7]
dove pE an è una permutazione tale che p(l) = j. Ad ogni tale p possiamo far corrispondere la permutazione qE an - J definita, per k = 1, ... , n -1, da •
Si ha (-l)j-I E (q) = E(p).
che
J
se p(k + 1)
j.
= det(A)In •
[6.9]
[6.8]
-I
=
1 det(A)
l
[cof(A)].
[6.10]
Dimostrazione
La [6.9] è equivalente alle n 2 identità seguenti: n
~ k
+ 1)-1
~aljAlj'
In particolare, se A è invertibile, si ha
Quindi, se la [6.5] è vera per A', lo è anche per A. Quest'osservazione ci consente di limitarci a considerare il caso i = 1, cioè a dimostrare lo sviluppo [6.5] di A secondo la prima riga. A questo scopo consideriamo i termini della sommatoria [6.1] in cui compare alj , che sono della forma
= p(k
= a1i-l)j-1 det(B) = aljA lj .
Per ogni A = (ai) EM n(K) sussiste l'identità
COROLLARIO
A l[cof(A)]
A{j=(-1)j+ldet[A'(2 = (-l)j+1 det[A(l
= p(k + 1)
... bn-Iq(n-l)
Nell'applicare la proposizione 6.9 è conveniente, quando possibile, scegliere una riga o una colonna nella quale compaiano degli zeri, allo scopo di abbreviare i calcoli. Il seguente corollario fornisce in particolare un metodo pratico per calcolare l'inversa di una matrice A EGLn(K), alternativo a quello descritto nell'esempio 3.2(8).
A,(n)
q(k)
E (q) blq(l)
Un_I
In conclusione, la somma di tutti i termini della [6.1] è uguale a è la [6.5] per i = 1.
A(i+l)
det(A')
k=2, ..• ;n
=l
aikAjk = det(A) oij
[6.11]
dove oij è il simbolo di Kronecker. Infatti il primo membro è l'elemento di posto i, j della matrice Al [cof(A)]. Nel caso i=j la [6.11] coincide con la [6.5], che è già stata dimostrata. Se i ~jla [6.11] è n
~
k~l
aikA jk = O.
[6.12]
Per la proposizione 6.9, il primo membro della [6.12] è lo sviluppo secondo la i-esima riga del determinante della matrice B ottenuta da A sostituendo la sua riga i-esima alla j-esima. Poiché B ha due righe uguali il suo determinante è 0, e pertanto la [6.12] è vera.
82
Geometria affine
. La [6.10] segue dalla [6.9] moltiplicando ambo det(A)-IA -l.
membri a sinistra per
Il metodo dell'inversa, che abbiamo introdotto nel paragrafo 3 per risolvere un sistema di n equazioni lineari in n incognite, può ora essere formulato in un modo diverso, e più preciso, noto come regola di Cramer: 6.11
COROLLARIO (REGOLA DI CRAMER)
= '(bI'"
Siano A = (aij)EGLn(K), b=
b n) un n-vettore colonna e
AX = b
[6.13]
il corrispondente sistema di n equazioni in n incognite. L'unica soluzione di [6.13], x = '(Xl'" Xn), è data dalla formula
i=l, ... ,n.
[6.14]
Dimostrazione Basta ricordare la regola dell'inversa [3.16] che dà x =A -lb, e sostituire la [6.10] al posto di A -l.
Si noti che il secondo membro della [6.14] ha per numeratore il determinante della matrice ottenuta da A sostituendo la colonna b al posto della colonna i-esima. Descriveremo ora un metodo di calcolo dei determinanti che generalizza la proposizione 6.9. Allo scopo avremo bisogno della seguente generalizzazione della definizione 6.8. 6.12
DEFINIZIONE
83
6.13 TEOREMA (LAPLACE) Sia A EMn(K), e siano assegnate k $, n righe (colonne) di A. Allora det(A) è uguale alla somma dei prodotti dei minori di ordine k di A estratti dalle righe (colonne) assegnate per i corrispondenti cofattori..
Dimostrazione La daremo nel caso delle righe, lasciando al lettore l'immediata estensione al caso delle colonne. Denotiamo con D(A) la somma indicata nell'enunciato, che vogliamo dimostrare essere uguale a det (A). Il prodotto di un minore di ordine k estratto dalle k righe assegnate per il corrispondente complemento algebrico è una somma di k! (n - k)! termini, perché il minore è un determinante di ordine k, e quindi ottenuto sommando k! termini, mentre il cofattore è un determinante di ordine n - k, quindi somma di (n - k)! termini. Inoltre il numero dei minori di ordine k distinti che si possono estrarre dalle k righe assegnate è n) n! ( k - k!(n-k)! .
Pertanto D(A) è somma di
(~) k! (n -
k)!
=
n! termini. Poiché anche det(A)
è somma di n! termini, sarà sufficiente dimostrare che ogni termine di D(A) appare almeno una volta in det(A). Supponiamo dapprima che le righe assegnate siano A (I), A (2), ... , A (k). I termini di D(A) sono prodotti di un termine di det(A(1 ... klil ... ik) per uno di det(A(k+l ... nl (l, , nJ\{jl' ... , id), per qualche scelta di il' ... , ik' moltiplicati per (- 1) l + + k +j, + ... +j,. Consideriamo il caso particolare in cui {jl' ... , ikJ = (l, ... , kJ. Un termine di D(A) corrispondente è della forma (- 1)1 +... + k+ l +... +k [E(S) a 1s (I) ... aks(k)] [E(t) ak+1k . 1(1) ... an k+t(n-k)] =
Sia A EMn(K), e sia
=
M=A(i1 ... ikUl ... ik) una sottomatrice quadrata di ordine k di A. Il complemento algebrico (o cofattore) di M è t(A({l ( - l)i,+ ... +ik+j,+···+j'de , ... , n J\{'11'
6/Determinanti
... ,
. ..., id), lk. JI{l , ... , n J\ Ul'
cioè è il determinante della sottomatrice quadrata di ordine n - k di A ottenuta cancellando le righe e le colonne di M, preso con il segno + o ~ a secondtt che il + ... + ik + il + ... + ik sia pari o dispari.
Nel caso particolare k = 1 si riottiene la definizione 6.8 di complemento algebrico di un elemento di A. Dimostreremo ora un teorema che generalizza lo sviluppo del determinante secondo una riga o una colonna.
E (s) E (t)[aIS(I)
.. , ak s(k)ak+l k+t(l) '" an k+t(n-k)]
[6.15]
dove sEak, tEan_k. Per riconoscere che [6.15] è un termine di det(A) osserviamo che la permutazione k s(k)
k+l k
+ t(1)
ha segno uguale a E(s)E(t), perché ogni indice s(h) è minore di ogni indice t(i), e quindi il numero di trasposizioni di cui u è prodotto è la somma del numero di trasposizioni di s e di quelle di t. Da ciò segue che [6.15] è un termine di det(A). Per dimostrare che il prodotto di un termine di det (A (1 ... k Iil ... i k) per uno di det(A(k+l ... nl (l, ... , nJ\{jl' ... , id) moltiplicati per (_1)1+ ... +k+M ..· +j" per scelta arbitraria di 1 $,il
r·: il f
84
Geometria affine
di A si trovino rispettivamente come prima, seconda, facendo si operano UI -l) + U2 -l) + Uk -l) =jl + scambi di colonne, e quindi det (B)
= (-
l) j, + '"
+ j, -
+ ... + k)
(l
det (A)
= (-
l) 1 + '"
+ jk + k + j, + ... + j,
(l
+ ... + k)
det (A).
+ (i2 -l) + '" + (ik -l) = il + ... ik - (l + ... + k),
e quindi det(C)
= (_l)i, + ... + i, - (l + ... + k) det(A).
D(C) è uguale a (-l)i, + D(C)
'.. + i, -
= (-l)i, + ... + i, -
(l
+ ... + k)
+ ... + k)
(l
Confrontando otteniamo D(A)
D'altra parte ogni termine di per un termine di D(A), e quindi
D(A).
= det(A),
come si voleva.
Il procedimento per calcolare il determinante di una matrice quadrata descritto dal teorema 6.13 è chiamato metodo di Laplace o sviluppo di Laplace. Esso è particolarmente utile quando la matrice A di cui si vuole calcolare il determinante ha molti elementi uguali a O. Consideriamo ad esempio la matrice
-2
A=
2
l
O
-3
O
-l
O
-2
2
O
6.14 Osservazioni ed esempi 1. Sia A una matrice triangolare superiore (inferiore). Sviluppandone il determinante secondo la prima colonna (la prima riga), si trova subito, procedendo per induzione su n, che det(A) è uguale al prodotto degli elementi della diagonale principale. 2. Sia data una matrice MEMm,n(K) e supponiamo di volerne calcolare il rango utilizzando il corollario 6.6. Supposto che M non sia la matrice nulla, e quindi che il suo rango sia almeno l, si dovranno calcolare i minori di ordine via via crescente, a partire dall'ordine 2. Quando per un certo r si sarà trovato un minore di ordine r non nullo, mentre tutti i minori di ordine r + l si annullano (oppure non ce ne sono se r = min(m, n)), si concluderà che r(M) = r. Infatti dall'annullarsi di tutti i minori di ordine r + l discende l'annullarsi dei minori di ordine superiore: ciò segue subito per induzione su s sviluppando ogni minore di ordine s> r secondo una sua riga o una sua colonna. Il calcolo del rango può essere semplificato notevolmente se si tiene conto del cosiddetto principio dei minori orlati, cioè della seguente osservazione. Sia B = M (il ... ir Ijl ... j,.) una sottomatrice quadrata di un certo ordine r della matrice M, tale che det(B) ~ O. Supponiamo che ogni sottomatrice quadrata di ordine r + l di M ottenuta aggiungendo a B una riga e una colonna di M (fig. 6.1) abbia determinante nullo, cioè che i cosiddetti minori orlati di B siano tutti nuIli. Allora M ha rango r. Infatti dall'ipotesi det(B) ~ O discende che le colonnekesima, ... , kesima di M sono linearmente indipendenti, e pertanto la condizione sui minori orlati implica che ogni altra colonna di M è combinazione lineare delle colonne jl-esima, ... , kesima. Quindi M ha rango r. Ad esempio, la matrice
4
2
-l
O
O 2
Sviluppando det(A) con il metodo di Laplace rispetto alle prime due righe si trova: det(A) = (-1)6/
85
" , k-esima colonna. Così
Il termine di D (A) che stiamo considerando è uguale a (_ l) l + ... + k + j, + ... + j, per un termine di D(B) del tipo che abbiamo considerato nella prima parte della dimostrazione, e quindi è uguale a (-1)1+ ... +k+j,+ ... +j, per un termine di det(B), cioè è uguale a un fermine di det (A). Se le righe assegnate sono A (i,), A (i2), ... , A (i,), consideriamo la matrice C ottenuta da A con opportune trasposizioni delle righe in modo che la il-esima riga, la i2-esima riga ecc. di A siano rispettivamente prima, seconda, ... , k-esima riga di C. Il numero di. inversioni effettuate è (il -l)
6)Determinanti
~
-3 -l
=5x(-9)-(-4) x7=-17.
Il calcolo di det(A) mediante lo sviluppo secondo una riga o una colonna sarebbe stato più laborioso.
** .. "**
* Figura 6.1
86
Geometria affine
"\
ha rango 2. Infatti la sottomatrice B=M(l2/13)=
ha det(B)
= -2,
6/Determinanti
Cramer:
C :)
e quindi r(M) ~ 2; inoltre i due minori orlati sono:
l
3
-1
2
4
2
3
-1
-1 = 36/30 = 6/5
x,=' 1
l
2
l
l
O
O
O
2
l
2
3
l
O
O
O
2
3
det(M(l23/123) = e
=0
det(A) 2
3 det(M(l23/134) =
x2 =
4. Consideriamo il seguente sistema di tre equazioni in tre incognite: 2X1 + 3X2 - X 3 = l X, + 4X2 + 2X3 = 2 3X, - X 2 - X 3 = 3.
Il determinante della matrice dei coefficienti è
l
4
2
3
-1
-1
=
-1
2
2
3
-1 = 6/30 = - 115
=0,
3. Il d~termina~te, per la sua stessa definizione [6.1], è ben definito anche ~ua.ndo gh ~lementI ~ella ma~rice quadrata A appartengono a un dominio qualSIaSI o. ?:vIamente Il determInante di una matrice siffatta è ancora un elemento del dO~InlO .0. A~. esempio il determinante di una matrice in Mn(K[X]), cioè ad elementI pohnomI In una indeterminata X a coefficienti in K, è un polinomio di K!X]; se ~ EMn(Z), a~lora det(A) è un numero intero ecc. Noi utilizzeremo quest o.s.serv~zlO.n.e : consIdereremo per esempio matrici a elementi polinomi di una o pm VarIabIh, I loro determinanti quando esse sono quadrate, i minori ecc.
3-1
l
det(A) 2
3
l
l
4
2
3
-1
3
e quindi r(M) = 2.
2
87
30;é O
e quindi il sistema ammette un'unica soluzione (x" x 2 , x 3 ), data dalla regola di
x3 =
= 24/30 = 4/5. det(A)
5. Supponiamo assegnato un sistema di m equazioni in n incognite, in cui i coefficienti delle incognite e i termini noti siano funzioni di uno o più parametri variabili in K. Per ogni valore assunto dai parametri si ottiene un diverso sistema a coefficienti in K di cui si vuole accertare la compatibilità e ricercare le eventuali soluzioni: lo studio dei casi che si presentano e la ricerca delle rispettive soluzioni si dice la discussione del sistema assegnato. Il modo più efficace e naturale di procedere in questo caso è quello di utilizzare il teorema 5.7 analizzando i valori possibili del rango della matrice dei coefficienti e della matrice orlata in funzione dei parametri. Una volta stabiliti i valori dei parametri per cui il sistema è compatibile, e in ogni caso l'infinità delle soluzioni, si procederà a risolverlo in ciascun caso. Consideriamo ad esempio il sistema a coefficienti reali nelle incognite X, Y, Z:
X- Y+mZ=O mY- Z=O -X+ Y+ Z=m. Il determinante della matrice dei coefficienti è m 2 + m, che si annulla per m = O, - l .. Per ogni m ;é O, - l la matrice dei coefficienti ha rango 3 e quindi il sistema è compatibile, per il teorema 5.7, e possiede l'unica soluzione (
l-m -1 -m - -) , m+l ' m+l .
88
Geometria affine
Quando m
=
O si ottiene il sistema omogeneo
6/Determinanti
89
\
1
x- Y=O -Z=O -x+ Y+Z=O,
che possiede le infinite soluzioni: {(t " t O) : tE R l . Quando m sistema
X~-z
=
-1 si ottiene il
x- Y-Z= l -Y-Z=-1 -x+ Y+Z= -2
7. Non è difficile dimostrare che le proprietà (2), (3) e (5) del teorema 6.2 sono sufficienti a caratterizzare univocamente il determinante. Precisamente, si dimostra che, se D: Mn(K) --> K è un'applicazione tale che, per ogni A = (A(l) A(n»)EMn(K) si abbia
che è incompatibile. . 6. Siano XI' xz, ... , xnE K, n?: 2. Il determinante V(xl , Xz, ... , X) della matrice di Vandermonde n
XI XZ I
Xz XZ Z
Xn Z Xn
cV + c' V' + c' D(A(l)
a)
D(A(I)
b)
D(A(i)'" A(i) ... A(j) per ogni I :s i
A(n» = cD(A(I) ... V .. , A(n» + V' ... A(n» se A(jl = cV + c' V', A(n» = - D(A(l) .. , A(j) .. , A(i)'" A(n»
allora x 1n- l
x Zn- l
D(A) = det(A)
Xnn- I
per ogni A EMn(K).
è detto determinante di Vandermonde relativo a X X Si ha l' z, ... , x n • V(x l , Xz, ... , Xn) = (XZ- XJ ... (Xn - XI) (X3
-
Esercizi
XZ) ... (X - X) (X - X) n Z 4 3'" '" (Xn - X n -
1),
t. Calfolare l'inversa di ognuna delle matrici dell'esercizio 4 (§ 3) utilizzando il corolla-
[6.16]
il se~on~o membro essendo il prodotto di tutti i termini della forma (x _ x) I:SJ
l'
l
. La [6.16] si dimostra per induzione su n, il caso n = 2 essendo ovvio. Suppomamo n ~ 3 e .che la [6.16] sia stata dimostrata per n - l. Operiamo sulle righe ~ell.a matrIce dI Vandermonde, sottraendo dall'n-esima riga la (n -I)-esima moltlp~Icata per XI' dalla (n - I)-esima la (n - 2)-esima moltiplicata per X ecc Si
~~
1
O Xz -XI
xn-x i
O XZ(XZ - XI)
Xn(Xn - XI)
O X~-Z(XZ - XI)
2. Discutere i seguenti sistemi nelle incognite reali X, Y, in cui m è un parametro reale: a)
2X - Y= m + l mX+ Y= 1
b)
2X+ mY=l 2X + (l + m) Y = 1 (3 - m) X
+
3Y=1+m
c) 2X + mY= - 4
mX- 3Y= S 3X + Y= - Sm.
•
3. Discutere i seguenti sistemi nelle incognite reali X, Y, Z, in cui m è un parametro reale:
1
V(x1, Xz, ... , Xn) =
rio 6.10.
X~-Z(Xn - XI)
X+mY+Z=2m mX+ Y+Z=2
b)
Y+ mZ=m+l X+ Y+Z =2 mX+ Y =m+1
c) 2X+mY+mZ= 1 mX + 2Y+ mZ= 1 mX+mY+ 2Z= 1
d)
X+ Y- 2Z=0 2X- Y+ mZ=O X- Y- Z=O
a)
90
Geometria affine e)
X+ Y+2Z= 1 X+ 2Y+4Z= 1 2X+ 3Y+6Z=m mY
g)
f)X-Y =2 mY+ Z=m Y+mZ =m
+ (m - 2) Z = O
mX+ Y+ mX+
h)
2Z=O 3Z=O
b) (K
= R)
In questo paragrafo introdurremo gli "spazi affini", che generalizzano il piano· e lo spazio ordinari, e nei quali lo spazio dei vettori è assegnato nella definizione. Negli spazi affini si studiano esclusivamente le proprietà geometriche deducibili per mezzo dell'uso dei vettori. Le figure che accompagnano il testo si riferiscono per lo più al piano e allo spazio ordinari e costituiscono esclusivamente un supporto intuitivo alla lettura.
X Y+ Z= O -X-mY+2mZ=-1I3 mX+mY =-113.
2X - Y = 2 - .J2 -X +.J2Z= 1 .J2x + Y = 2.J2
= C)
91
7 Spazi affini (I)
4. Risolvere i seguenti sistemi con la regola di eramer: a) (K
7/Spazi affini (I)
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 For Evaluation Only.
7.1 DEFINIZIONE Sia V uno spazio vettoriale su K. Uno spazio affine su V (ovvero uno spazio affine con spazio vettoriale associato V) è un insieme non vuoto A, i cui elementi si dicono punti di A, tale che sia data un'applicazione
2X + iY + Z = 1- 2i 2Y-iZ= -2+2i iX + iY + iZ = l + i
AxA-+V
[7.1] ----+
c) (K
= Q)
XI + -XI +X2 X 2+ XI +
che associa ad ogni (P, Q) EA X A un vettore di V, denotato con PQ e chiamato vettore di punto iniziale P e di punto finale Q, in modo che i seguenti due assiomi siano soddisfatti:
2X3
4 - l X3 2 X4 = 1.
e
5. Siano A, B, CEMn(K), e siano M, NEM2n (K) le matrici seguenti:
Spazio Affine
SAI
Per ogni punto P EA e per ogni vettore v EV esiste un unico punto Q EA
tale che ----+
PQ=v. M= ( :
;),
N= ( ;
;).
SA2
Dimostrare che det(M) = det(A) det(C) = det(N). 6.
7.
----+
Sia A = (ai!) E ~n~ ,AK? e r(A) = n-L Dimostrare che le 00 I soluzione del sistema omogeneo m n mcogmte A X = O sono proporzionali alla n-upla dei minori di ordine massimo di A, presi a segni alterni. Siano al, a2, ... , an EK*. Si consideri la matrice M = (mi) EM n (K) così definita: mii= l + ai, i= l, ... , n, se i"t. j.
8. Siano D- un - dominio e x , a 12, .'0' a In, a23, • Dimostrare la seguente identità:
----+----+
PQ+ QR=PR. ----+
Per ogni (P, Q)EA x A diremo P punto di applicazione del vettore PQ. Se K = R (K = C) A si dice spazio affine reale (spazio affine complesso). L'applicazione [7.1] definisce una struttura di spazio affine sull'insieme A. ----+
mij = l
Dimostrare che det (M) = al a2 ... an (l +
Per ogni terna P, Q, R di punti di A è soddisfatta la seguente identità:
_1_ + _1_ + al
a2
••• , a2m ••• ,
... +
_1_) . an
an-2n~h
an - 2n , an-lnE O.
Prendendo P= Q = R nell'assioma SA2 abbiamo che PP = O per ogni PEA. ----+ ----+ Prendendo invece R = P troviamo QP = - PQ per ogni P, Q EA. Similmente a quanto accade per gli spazi vettoriali, su un insieme non vuoto A possono esistere diverse strutture di spazio affine, cioè diversi modi di assegnare uno spazio vettoriale V e una applicazione A x A -+ V che soddisfa SAI e SA2. Nel seguito considereremo esclusivamente spazi affini tali che lo spazio vetto-
riale associato V abbia dimensione finita.
x x
x x
an-In
x
La dimensione di V è detta dimensione dello spazio affine A, ed è denotata con dim(A). Uno spazio affine di dimensione 1 (dimensione 2) viene comunemente chiamato retta affine (piano affine).
7/Spazi affini (I)
Geometria affine
92
Dato un riferimento affine Oel .,. en in A, scriveremo P(xl , ••• , x n) per denotare un punto PEA di coordinate Xl' ••• , X n (la fig. 7.1 si riferisce al piano
7.2 Esempi 1. La retta, il piano e lo spazio ordinari sono rispettivamente una retta affine reale, un piano affine reale e uno spazio affine reale di dimensione 3. Gli spazi vettoriali associati sono quelli dei vettori geometrici dei rispettivi spazi, e l'operazione che associa un vettore a una coppia ordinata di punti è quella con cui nel paragrafo 1 abbiamo definito i vettori geometrici. Quindi gli spazi affini sono generalizzazioni della retta, del piano e dello spazio ordinari. 2. Sia V uno spazio vettoriale di dimensione finita su K. Ponendo ----*
ab = b - a
si definisce su V una struttura di spazio affine su sé stesso. L'assioma SAI è soddisfatto perché per ogni punto p EV e per ogni vettore v E V il punto q = p + v è l'unico che soddisfi l'identità q - p = v. La proprietà SA2 è verificata perché sussiste l'identità r - p = (q - p)
Edited by Foxit Reader Copyright(C) by Foxit Corporation,2005-2009 For Evaluation Only. 93
+ (r - q)
per ogni p, q, rEV. Quindi ogni spazio vettoriale V può considerarsi come uno spazio affine, su sé stesso. Con questa struttura di spazio affine, V si denoterà con Va' 3. Un caso particolare dell'esempio precedente si ha prendendo V = Kn. Lo spazio affine (Kn)a si chiama n-spazio affine numerico su K. Esso si denota con A n(K), o semplicemente A n quando dal contesto il campo K risulti individuato senza possibilità di equivoco. L'assioma SAI implica che se in uno spazio affine A si fissa un punto OEA e si associa ad ogni punto P EA il vettore OfiE V, si ottiene una corrispondenza biunivoca di A su V. Tale corrispondenza è la generalizzazione di quella che, nello spazio ordinario in cui si sia fissato un punto O, associa ad ogni punto P il vettore geometrico rappresentato dal segmento orientato di punto iniziale O e punto finale P.
ordinario). . .. -,-----+ Se A(a i , ••• , an), B(b I , ••• , bn)EA, il vettore AB ha (bi - al' ... , bn- an) ~me n-upla di coordinate rispetto alla base {e l , ..• , en }· Ciò segue dall'identità AB =
--
OB- OA. Se A =A", il riferimento affine OEl ... E n in cui O = (O, ... , O) ed {El' ... , E n } è la base canonica di K", si dice riferimento affine standard. In questo riferimento ogni punto (x!, ... , x n ) EA" ha sé stesso come n-upla di coordinate. I più importanti sottoinsiemi di uno spazio affine sono i "sottospazi affini", che ora introdurremo. =
Sia V un K-spazio vettoriale e sia A uno spazio affine su V. Siano assegnati un punto Q E A e un sottospazio vettoriale W di V. Il sottospazio affine passante per Q e parallelo a W è il sottoinsieme S di A costituito da 7.4
DEFINIZIONE
-
tutti i punti PEA tali che QPEW.
-
Si noti che QE S, perché il sottospazio vettoriale W contiene il vettore nullo O = QQ; in particolare S:;é. (2). Il sottospazio W C V è chiamato giacitura di S; il numero dim (W) è detto dimensione di S e si indica con dim (S). Se dim(S) = O, allora S = {Q} è un punto; viceversa, ogni sottoinsieme di A costituito da un solo punto è un sottospazio affine di dimensione O. Se dim(S) = 1, S si dice retta di A e W direzione di S; un qualunque vettore non nullo a E W è un vettore di direzione della retta. Segue dalla definizione che la retta S consiste di tutti i punti P E A tali che QP = t a per qualche t E K. Se dim(S) = 2, S si dice piano di A. (La fig. 7.2 rappresenta un piano dello
-
spazio ordinario.)
P(2,1)
7.3 DEFINIZIONE Siano V un K-spazio vettoriale e A uno spazio affine su V. Un sistema di coordinate affini (ovvero un riferimento affine) nello spazio A è assegnato una volta fissati un punto O EA e una base {el' ... , en } di V; esso viene denotato con Oel .,. en • ---+
Per ogni punto PE A si ha OP = al e l + .., + anen per opportuni al' ... , anE K. Gli scalari al' ... , an si dicono coordinate affini (o semplicemente coordinate) e (al' ... , aJ si dice n-upla delle coordinate, di P rispetto al riferimento Oel ... en • n punto O si dice origine dèl sistema di coordinate. Esso ha (O, ... , O) per nupla delle coordinate.
Figura 7.1
Geometria affine
94
95
7/Spazi affini (I) ---+
s
p Q
•
------+
• Figura 7.2
1. Sia A lo spazio ordinario. I sottospazi affini di A sono i punti, le rette, i piani e A stesso. 2. Sia V uno spazio vettoriale non nullo di dimensione finita su K. Consideriamo un sottospazio vettoriale W C V e un punto q EVa. Il sottospazio affine di Va passante per q e parallelo a W è l'insieme
+ w: w EW} .
Infatti q + W consiste di tutti i v EVa tali che v - q EW. Se in particolare q EW, allora q + W = W. Vediamo quindi che i sottospazi vettoriali di V sono particolari sottospazi affini di Va e che ogni sottospazio affine è della forma q + W, per qualche q EVa e per qualche sottospazio vettoriale W C V, cioè è un traslato di un sottospazio vettoriale di V. 3. Dati s + 1 ;::: 2 punti Po, ... , PN di uno spazio affine A, il sottospazio affine --+ ---+ --+ passante per P o e avente giacitura (POPI , P OP 2 , ••• , POPN) viene indicato con POPI ... P N e si chiama sottospazio affine generato da Po, :.. , P N. È facile vedere che POPI ... P N non dipende dall'ordine in cui vengono presi --> --> ----> i punti Po' ... , P N. Infatti il sottospazio vettoriale (POPI , P OP 2 , ••• , POPN) con-
--
~j = POPj tiene tutti i vettori PiP --+
~
----+
-
POPi' e quindi
---+
----+
~
~
-
---+
--io
-__
o
------+
----+
---+
----+
PoP = PiP - PiPoE (POPi, ... , POPN)
per la [7.2]. Dalla definizione di POPI ... P N segue che dim(PoPI ••• P N) :5 N. Se vale l'uguaglianza i punti Po, ... , P N si dicono indipendenti; altrimenti Po, ... , PN si di~ono dipendenti. Per definizione i punti Po' ... , P N sono indipendenti se e solo se I vetl l inditorI· P op l' P-P o 2' ••• , P op N sono linearmente indipendenti. Se Po, ... , P N sono " pendenti, allora N:5 dim(A). . . . . Due punti Po, P I EA sono indipendenti se e solo se sono dIstmtI; m questo caso POPI è una retta. Tre punti Po, P I , P 2 sono indipendenti se e solo se non appartengono a una retta; in questo caso P OP I P 2 è un piano (fig. 7.3). I punti Po' ... , PNE A si dicono allineati (o collineari) se esiste una retta che li contiene, o, equivalentemente, se dim(PoPI
P N ) :51;
altrimenti Po' , P N si dicono non allineati (o non colline~ri). I punti Po, , PNEA si dicono complanari se esiste un piano che II contIene, o, equivalentemente, se o
-
--+
(POPI , ... , POPN) C (PiPO, ... , PiPN).
- - - = - CP. --+ Cac(P)
Si osservi che si ha adadP» ----->l
CadadP»
=
P per ogni PEA perché
~--+
= - Cac(P) = CP.
Se in A è fissato un riferimento affine Oe l ••• en , e i punti C e P hanno rispettIvamente coor dOmate CI' ••• , cn e xi' ... , x no il punto aC (P) ha coordinate
[7.2] P,
•
• •
[7.3]
•
4. Sia A uno spazio affine su V, e sia CEA. Per ogni PEA, il punto simmetrico di P rispetto a C è il punto adP) che soddisfa l'identità vettoriale
o
per ogni i = 1, ... , N. Viceversa, per ogni i = 1, ... , N, ogni vettore POPJ" si può ~ ~ esprimere come POPj = PiPj - PiPO' e quindi anche -----+
---+
~
(POPI , ... , POPN) ::> (PiPO' ... , PiPN)
--+
---+
~
7.5 Esempi
= {q
>
per la [7.3]. D'altra parte, se PiPE (PiPO' ... , PiPN), allora
La dimensione di un sottospazio affine non può superare dim(A). Se --+ dim (8) = dim (A), allora 8 = A, perché in tal caso W = V e quindi QP EW per ogni PEA. Se dim (8) = dim (A) - 1, 8 è detto iperpiano. Ad esempio una retta in un piano affine è un iperpiano, e così anche un piano in uno spazio affine di dimensione 3.
+W
-----+-
PiP = PoP - PoPiE (PiPO' ... , PiPN)
o
q
----+
Pertanto, se PEA soddisfa PoPE (POPI , ... , POPN), allora
Figura 7.3
96
(2c I
-
XI' ... , 2cn
-
x n)
-
= (CI
(C!' ... ,
cn )
--+
--+
-
XI' ... , cn
-
97
7/Spazi affini (I)
Geometria affine
x n)
è la n-upla delle coordinate di PC = - CP. Nel caso particolare C = O, le coordinate di ac(P) sono - XI' ... , - x n • L'applicazione ac: A ---+ A manda sottospazi affini in sottospazi affini. Più precisamente, sia S C A il sottospazio affine avente giacitura W C V e passante per il punto QEA. Allora ac(S) = (ac(P): PE S l è il sottospazio affine S'avente la stessa giacitura W e passante per adQ). Infatti, per ogni PE S, si ha ,
)
~
--+
--+
--+
s
adQ) ac
--+
--+
---+
----+
=
Figura 7.4
aC
)
QP = QC + CP = - ac(Q) C - CP' = - aC
e quindi PE S. Dunque P' ordinario.) 7.6
=
ac
1. Sia A uno spazio affine reale con spazio vettoriale associato V. Fissati un punto QEA e un vettore non nullo aEV, l'insieme dei punti PEA tali che --+
PROPOSIZIONE
QP=ta
1) Un sottospazio affine è individuato dalla sua giacitura e da uno qualsiasi dei suoi punti. 2) Sia S un sottospazio affine di A avente giacitura W. Associando ad ogni --+ coppia di punti P, Q di S il vettore PQ si definisce su S una struttura di spazio affine su W.
Dimostrazione 1) Sia S il sottospazio affine di A passante per Q ed avente giacitura W. Sia M ES e sia T il sottospazio affine passante per M ed avente giacitura W. Se PE S, allora si ha --+
--+
--+
per qualche t ~ O è la semiretta di origine Q e direzione a. Se A e B sono due punti distinti di A, il segmento di estremi A e B è l'insieme dei punti PEA tali che --+
per qualche tE R tale che 0:5 t :51, e si denota con AB. I pùnti Pi''''' P t - l EAB che dividono il segmento in t parti uguali, cioè tali che
~~-.+
AP; = P---:Pz = ... =~, sono definiti dalle condizioni --+
--+--+
i--+
AP;= fAB,
MP=MQ+ QP= -QM+QP
che è un vettore di W perché entrambi gli addendi vi appartengono; quindi PE T. Se viceversa PE T, allora
--+
AP= tAB
B
i=l, ... , t-l.
Se in A è fissato un riferimento affine Oe l .. • en e A = A(al, ... , an), b n ), P; = P; (XI , ... , x n ), la condizione è equivalente alla seguente:
= B(b), ... ,
~~
QP= QM+MP= -MQ+MPEW, e quindi PESo In conclusione, S = T. --+ 2) Se P, QE S, allora PQE W perché, per la (1), S coincide con il sottospazio affine passante per P e parallelo a W. Otteniamo quindi un'applicazione
(x) - al' ... , Xn e pertanto
(Xl' ... , Xn)
=
-
an )
+
Ob)
=
+
(bi - al' ... , b n
+ (t -
i) a), ... , ibn
an )
-
+ (I - i) an)·
In particolare, il punto medio del segmento AB ha n-upla di coordinate
SxS---+W --+
(P, Q) >-+ PQ
(Xi' ... , x n)
la quale soddisfa le proprietà SAI ed SA2, perché esse sono verificate in A.
1
= ( al :
bi , a2 : b2
, ... ,
a
n
:
b
n
)
•
rl' !
98
I
Geometria affine
c
l
I
7/Spazi affini (I)
99
4. I segmenti, i triangoli e i tetraedri sono casi particolari di sottoinsiemi degli spazi affini reali chiamati "simplessi". Sia A uno spazio affine reale, e siano Po, P I , ••• , PkEA punti indipendenti. Il k-simplesso di vertici Po, P I , ••• , P k è l'insieme dei punti PEA tali che
c
I
----+
~
~
~
PoP = tlPOP l + tzPoPz + ... + tkPOPk
A
A
B Triangolo
k
B
per qualche ti' t z, ... , tkE R, con ti' tz, ... , t k ~ O e r.:; ti s 1. i=1
Parallelogramma
Figura 7.S
2. S~a A uno spazio affine reale, e siano A, B, CEA tre punti non allineati. Il tnangolo di vertici A, B, C è l'insieme dei punti PE A tali che ---+
---+
---+
AP= tAB+ uAC
per qualche t, u E R, con t, u ~ O e t + usI. .1Iparalielogramma individuato daA, B, C (fig. 7.5) è l'insieme dei punti PEA talI che ---+
---+
---+
AP=tAB+uAC
per qualche t, uE R, con Os t, usI.
Per k = 1, 2, 3 un k-simplesso è un segmento, un triangolo, un tetraedro rispettivamente. 5. Sia A uno spazio affine reale. Un sottoinsieme S di A si dice convesso se per ogni A, BES il segmento AB è contenuto in S (fig. 7.7). È facile verificare che ogni sottospazio affine e ogni simplesso A sono sottoinsiemi convessi. Dalla definizione segue che l'intersezione di una famiglia qualsiasi di insiemi convessi è un insieme convesso. Se Y è un sottoinsieme di A, l'inviluppo convesso di Y è il più piccolo sottoinsieme convesso di A contenente ~cioè è l'intersezione di tutti i sottoinsiemi convessi di A che contengono Y(fig. 7.8).
3. Sia A un.o spa~i? affine reale, e siano A, B, C, D EA punti non complanari. Il tetraedro di verticI A, B, C, D è l'insieme dei punti PEA tali che ~
-+
~
-+
AP= tAB+ uAC+vAD
per qualche t, u, v ER, con t, u, v ~ O e t + u + v s 1. Il parallelepipedo individuato da A, B, C, D (fig. 7.6) è l'insieme dei punti PEA tali che ---+
---+
---+
---+
AP= tAB+ uAC+vAD
Convesso
Non convesso
Figura 7.7
per qualche t, u, vE R, con Os t, u, v s 1.
c c I
I I I
I I
A
B Tetraedro
A
--
_-
___..LD
--_~--
__
B Parallelepipedo
Figura 7.6
c.
= inviluppo convesso di
II1II
Figura 7.8
100
Geometria affine
6. Sia A uno spazio affine con spazio vettoriale associato V. L'assioma SAI definisce un'applicazione t:AxV~A ~
che associa a una coppia (A, a) il punto B = t(A, a) tale che AB = a. L'applicazione t gode delle seguenti· proprietà: a) t(t(A, a), b) = t(A, a + b) per ogni A EA e a, bEV; b) per ogni A, BEA esiste un unico aEV tale che B = t(A, a). Ponendo infatti B = t(A, a), C = t(t(A, a), b), si ha AB = a, BC = b, e la (a) ~~~ afferma che AC= AB+ Bc', che è vero per l'assioma SA2. La (b) è una riformulazione di SAI. Viceversa, dati uno spazio vettoriale V, un insieme A e un'applicazione t: A X V ~ A che soddisfa le condizioni (a), (b), resta definita su A una struttura di spazio affine con spazio vettoriale associato V. Infatti, per la (b), t individua un'applicazione A x A ~ V che soddisfa SAI, e che, per la (a), soddisfa anche SA2. 7. Sia A uno spazio affine e A, B, C, D EA. Se AB = CD, allora (fig. 7.9). Infatti si ha ~
~
~
~
~
~
~
~
AC = jjjj
AC=AB+BC
BD=BC+CD,
e quindi ~
~
AC-BD=AB- CD=O, ~
Sia S il sottospazio affine passante per il punto Q(ql' ... , qn)EA e parallelo al sottospazio vettoriale W di V. Scegliamo una base {Wl' ... , ws } di W, dove Wi(W li , ••• , wn ) , i = 1, ... , S = dim(S). Per ogni punto P(x1, ••• , Xn)ES si ha ~
QP= tlw l
+ ...
[8.1]
+tsws
.per opportuni t1' ... , tsE K. Uguagliando le coordinate di primo e secondo membro della [8.1] si ottiene
+ ti W ll + q2 + ti W21 +
+ tsw Is + tsW2s
XI = ql x2=
[8.2]
Al variare dei parametri ti' •.• , tsE K le [8.2] danno le coordinate di tutti i punti di S; le [8.2] sono equazioni parametriche di S. Si noti che le equazioni parametriche [8.2] non sono univocamente determinate da S, ma dipendono dalla scelta di Q e di Wi' •.. , w•. Nel caso in cui il sottospazio affine è una retta t-, passante per il punto Q(ql' ..• , qJ e avente vettore di direzione a(a l , ... , an) (fig. 8.1), le [8.2] prendono la forma
+ alt q2 + a2t
XI = ql X2 =
~
cioè AC=BD.
101
8/Spazi affini (II)
[8.3]
8
D
Le [8.3] sono equazioni parametriche della retta t-. p
A
c
Figura 7.9
8 Spazi affini (II)
Sia A uno spazio affine su V in cui supponiamo fissato un riferimento affine Oe l ••• en •
o
Figura 8.1
102
Geometria affine
Quando la retta t- è assegnata mediante due suoi punti distinti Q(qI' ... , qn) e Q'(q{, ... , qn1, è un vettore di direzione di t- e nelle [8.3] si può
00'
~
prendere a = QQ', cioè (al' ... , an) = (q{ - qI> ... , q: - qn)· Se n = 2, cioè se A è un piano affine, le [8.3] si riducono a due equazioni. Le coordinate di a si denotano in questo caso di solito con l, m, le coordinate del punto variabile con x, y e quelle del punto Q con a, b; quindi le equazioni parametriche di una retta in un piano affine si scriveranno: x=a+lt y= b+ mt.
[8.4]
Nel caso in cui dim(A) = 3 le equazioni parametriche di una retta si scrivono invece x=a+lt y= b+ mt
[8.5]
z,=c+nt,
8.1
Dimostrazione . 1) Per ipotesi esiste un punto Q(qI' ... , qn)ES. Per ogni punto P(xI, ... , Xn)ES
si ha ajI(x i
-
qI) + ... + ajn
per ogni) = l, ... , t, cioè (Xl - qI' ... , Xn - qn) è una soluzione del sistema [8.7], ovvero QPEW; quindi S è contenuto nel sottospazio affine E passante per Q e parallelo a W. . ~ Viceversa, se P(x I, ... , x n) E E, allora QPE W e quindi le coordinate di QP sono soluzione delle [8.7]. Si ha dunque (x 1 - q l' •.. , X n - q) n
0= a·I(xi - qI) + ... + ajn(Xn - qJ = aj1XI + .., + ajnXn - (aj1qI + ... + ajnqn) J . ovvero ajIxI +
denotandosi con x, y, Z le coordinate del punto variabile P, con l, m, n quelle del vettore di direzione e con a, b, c le coordinate del punto QEt-. Torniamo a considerare il caso generale. Un altro modo di rappresentare un sottospazio affine mediante equazioni è dato dal seguente teorema.
103
8/Spazi affini (Il)
+ ajnXn = ajIqI + ... + ajnqn
= bj
per ognij= l, , t, cioè PESo Quindi S= E ed S è un sottospazio a~fine. 2) Supponiamo che S C A sia il sottospazio affine passante per Il punto Q(qI' ... , qn) e avente giacitura W. Siano allXI + ... +
aInXn = O
TEOREMA
l) Sia
an_sIXI + ... + an-snJ\n = O equazioni cartesiane di W. I punti P(XI> ... , xJ di S sono caratterizzati dalla condizione QPEW, cioè ~
[8.6]
ajI(xI-qI)+ ... +ajixn-qn)=O, un sistema di equazioni lineari nelle incognite Xl' ... , X n. L'insieme S dei punti di A le cui coordinate sono soluzioni di [8.6], se non è vuoto, è un sottospazio affine di dimensione n - r, dove r è il rango della matrice dei coefficienti del sistema. La giacitura di S è il sottospazio vettoriale W di V avente per equazioni cartesiane il sistema omogeneo associato allXI + ... + aInXn = O [8.7]
2) Per ogni sottospazio affine S di A di dimensione s esiste un sistema di n - s equazioni lineari in n incognite le cui soluzioni sono le coordinate di tutti e soli i punti di S.
j=l, ... , n-s,
ovvero j=l, ... ,n-s dove abbiamo posto b· = ajI qI + ... + ajnqn' Dunque i punti P(x;, ... , xn)ES sono precisamente quei punti di A le cui coordinate sono soluzioni del sistema allXI + ... +
aInXn = bI
Le [8.6] si dicono equazioni cartesiane del sottospazio S rispetto alriferimento
104
Geometria affine
8/Spazi affini (Il)
105
Oe l •.• en- È evidente che le [8.6] non sono univocamente determinate da S: due sistemi di equazioni lineari definiscono lo stesso sottospazio affine di A se e solo se sono equivalenti.
8.2 Osservazioni l. Il sottospazio S di equazioni cartesiane [8.6] contiene l'origine se e solo se bi = ... = bi = O,cioè se e solo se il sistema è omogeneo. Quindi ogni sistema di
equazioni lineari omogenee [8.7], oltre a definire un sottospazio vettoriale W di V, definisce anche un sottospazio affine S di A passante per l'origine e avente per giacitura W. Per ogni punto P(xI , ••• , Xn)ESii vettore w(x I , ••• , x n) avente le stesse coordinate di P appartiene alla giacitura W di S; si ottiene così una corrispondenza biunivoca tra S e la sua giacitura W. 2. Dal teorema 8.1(2) segue che ogni iperpiano H di A si rappresenta con un'equazione cartesiana
in cui al' ... , anE K non sono tutti uguali a O. In particolare, se dim(A) retta di A ha un'equazione cartesiana della forma
= 2 ogni
al XI + azXz = b. Analogamente, se dim (A) = 3 ogni piano di A ha un'equazione cartesiana della forma
alXI + azXz + a3 X 3 = b. L'iperpiano H dello spazio affine A contiene l'origine se e solo se b particolare, per ogni j = l, ... , n, l'iperpiano di equazione
=
O. In
Figura 8.2
Se il sottospazio affine S è contenuto nel sottospazio affine T, allora S è parallelo a T: infatti al variare di P, Q ES, il vettore QP descrive la giacitura W di S, ma è anche contenuto in quella U di T perché P, Q E T. Quindi W e U. ~
8.4 PROPOSIZIONE Siano S, T e A due sottospazi affini paralleli, tali che ?im(S) ~ dim(T). l) Se S e T hanno almeno un punto in comune, allora Se T. 2) Se dim(S) = dim(T), ed S e T hanno almeno un punto in comune, allora S= T.
Dimostrazione
~
l) Sia QES n T. Per ogniPES si ha QPEW e U, quindiPE T; dunque Se T. 2) Se dim(S) = dim(T), allora W = U: dalla (1) si deduce che S e T e Te S, cioè S= T. 8.5 COROLLARIO Se S è un sottospazio affine di A e PEA, esiste un unico sottospazio affine T contenente P, parallelo a S e tale che dim(T) = dim(S).
Dimostrazione passa per l'origine; esso si dice j-esimo iperpiano coordinato.
Siano S e T due sottospazi affini di A, aventi giaciture W ed U rispettivamente, di dimensione maggiore di zero. S e T si dicono paralleli se W e U oppure U e W. Scriveremo talvolta S Il T come sinonimo di "s e T sono paralleli". 8.3
DEFINIZIONE
Se dim(S) = dim(T), allora Se Tsono paralleli se e solo se W = U; in particolare due sottospazi affini uguali sono paralleli. Nella figura 8.2 sono rappresentati due piani paralleli dello spazio ordinario. Nel caso in cui S e T sono due rette il loro parallelismo significa che hanno la stessa direzione, cioè che hanno vettori di direzione proporzionali.
Segue immediatamente dalla (2) del teorema 8.4. Nel caso in cui A è il piano affine ordinario ed S una retta, il corollario 8.5 è equivalente al quinto postulato della geometria euclidea piana (il cosiddetto "postulato delle parallele"). Gli assiomi di piano affine implicano quindi la validità di tale postulato in un piano affine qualunque.
8.6 Esempio Siano V uno spazio vettoriale su K e W un sottospazio vettoriale di V. Dalla proposizione 8.4(2) segue che, se v, v' EV, i due sottospazi affini v + W e v' + W di Va O coincidono oppure sono disgiunti. Da ciò segue che la famiglia dei sottospazi affini di Va aventi giacitura W costituisce una partizione di V. L'insieme
106
Geometria affine
107
8/Spazi affini (II)
quoziente di V rispetto a tale partizione, cioè l'insieme i cui elementi sono i sottospazi affini di Va aventi giacitura W, si denoterà con V/W. Si noti che v + W = v' + W se e solo se v' Ev + W, perché ciò equivale alla condizione (v
s
+ W) n (v' + W) ~ 0
Sghembi
cioè all'esistenza di w, w' EW tali che v + w = v' + w', cioè alla condizione v'
=
'--
v + (w - w')EV + W.
--"T
Incidenti
Figura 8.3
Definiamo un'operazione di somma in V/W ponendo niamo che essi abbiano equazioni cartesiane: Quest'operazione è ben definita, perché non dipende dai vettori stati scelti per rappresentare i due sottospazi. Infatti, se VI
+ W = v; + W,
V
z+ W
= v~
VI
e Vz che sono
n
S: .E mijXj = bi'
i=l, ... ,n-s,
[8.8]
= 1, ... , n-t.
[8.9]
]=1
n
+ W,
T: .E nkjXj = ck, ]=1
k
L'intersezione S n T è il luogo dei punti di A le cui coordinate sono simultaneamente soluzioni delle equazioni cartesiane di S e di T; quindi i punti di S n T si ottengono in corrispondenza delle soluzioni del sistema Definiamo in V/W un'operazione di moltiplicazione per elementi di K ponendo c(v + W)
n
= cv + W.
[8.10]
Anche quest'operazione è ben definita, perché v + W v' = v + w, WEW, e quindi
= v' + W
significa
cv' + W = c(v + w) + W = (cv + cw) + W = cv + W. Lo zero rispetto alla somma in V/W è il sottospazio W = O + W, come si vede subito. È immediato verificare che V/W, con le operazioni che abbiamo introdotto, è un K-spazio vettoriale, che si chiama spazio vettoriale quoziente di V modulo W (oppure rispetto a W).
k=l, ... ,n-t. Per il teorema 8.1 il sistema [8.10], se ha soluzioni, rappresenta un sottospazio affine. Quindi, se non è vuoto, S n T è un sottospazio affine di A. La dimensione di S n T è uguale a n - r, dove r è il rango della matrice dei coefficienti del sistema [8.10]. Poiché
r::5 n - s + n - t = 2n - (s + t), si ha che, se
Si noti che se V = W, lo spazio V/W possiede un unico elemento, V stesso, e quindi si identifica con lo spazio costituito dal solo vettore nullo. Se invece W = (O),i sottospazi affini di giacitura W sono i punti di Va' cioè lo spazio V/W coincide con V. 8.7 DEFINIZIONE Due sottospazi affini S e T di A non paralleli si dicono sghembi (incidenti) se sono privi di punti in comune (se hanno almeno un punto
in comune) (fig. 8.3). Consideriamo due sottospazi affini S e T, con dim(S)
i=l, ... ,n-s,
.E mij~= bi' ]~I
sn
dim(S n T)
T~
=
0,
n - r ~ n - [2n - (s + t)]
=
s + t-n.
[8.11]
D'altra parte, essendo S n T contenuto sia in S che in T, la sua dimensione non può superare il minimo tra s et. Riassumendo quanto detto, possiamo enunciare la seguente proposizione. 8.8 PROPOSIZIONE L'intersezione S n T di due sottospazi affini S e T di A, se non è vuota, è un sottospazio affine tale che dim(S) + dim(T) - dim(A)::5 dim(S n T)::5 min[dim(S), dim(T)].
= s, dim(T) = t. Suppo-
[8.12]
108
Geometria affine
Dalla dimostrazione segue che nella [8.12] sussiste la seconda uguaglianza se e solo se S C T oppure T C S. Se invece S e T sono paralleli e disgiunti, allora S n T = 0. Il caso in cui vale la prima uguaglianza nella [8.12] è considerato nella proposizione seguente. 8.9 PROPOSIZIONE Siano S e T sottospazi affini di A di giaciture W e V rispettivamente. Allora S n T ~ 0 e dim(S n T)
=
dim(S) + dim(T) - dim(A)
[8.13]
se e solo se V = W + V. Dimostrazione Supponiamo che S e T abbiano equazioni cartesiane [8.8] e [8.9] rispettivamente. La [8.13] sussiste precisamente quando S n T~ 0 e si ha l'uguaglianza nella [8.11]. La [8.11] si può leggere come una relazione tra s = dim (W), t = dim(U) e dim(W n V) = dim(S n T), ed è una conseguenza diretta della formula di Grassmann. Più precisamente, la formula di Grassmann afferma che la [8.11] è un'uguaglianza se e solo se n = dim(W + V), cioè se solo se V = W + V. Per concludere è quindi sufficiente mostrare che in questo caso il sistema [8.10] è compatibile. Ma la matrice dei coefficienti del sistema [8.10] ha rango r = (n - s) + (n - t) = 2n - (s + t), che è il numero delle sue righe, e la matrice orlata ha lo stesso numero di righe e quindi lo stesso rango: il sistema è compatibile per il teorema 5.7. Applicate ai casi dim(A) = 2,3, le proposizioni 8.8 e 8.9 permettono di ritrovare i risultati sulla posizione reciproca di rette e piani che sappiamo essere veri nel piano e nello spazio ordinari. Nei paragrafi 9 e lO tratteremo questi casi direttamente· senza ricorrere a questi risultati. Un caso particolare importante della proposizione 8.9 è quello in cui le giaci-
8/Spazi affini (II)
109
ture W e· V dei sottospazi affini S e T sono supplementari in V, cioè tali che V = W 0j V: poiché in questo caso dim(S) + dim(T) = dim(A), la [8.13] afferma che S e T hanno un solo punto in comune. Ciò è quanto avviene ad esempio per due rette non parallele in un piano affine, oppure per un piano e una retta non paralleli in uno spazio di dimensione 3. Da quest'osservazione si deduce la seguente costruzione geometrica. Sia S un sottospazio affine di dimensione s di A, e sia W la sua giacitura. Fissiamo un sottospazio vettoriaie V di V tale che W 0j V = V. Per il corollario 8.5, per ogni punto p EA esiste un unico sottospazio affine Tp , u contenente P e avente giacitura V. Dalla [8.13] segue che S n T p , u = {Q J. L'applicazione Ps, u: A -> S, definita ponendo Ps,u(P) = Q, è chiamata proiezione di A su S parallela a V. Se dim (V) = 1, allora S è un iperpiano e Ps, u è la proiezione di A su Snella direzione V. La figura 8.4 si riferisce allo spazio ordinario. Esercizi 1. In N (C) sia ft il piano di equazione 2X + Y - 1 = O. In ciascuno dei seguenti casi calcolare le coordinate di Pu (x, y, z), dove Pu: A3 --ft è la proiezione, (x, y, Z) EA 3 è un punto variabile e u E C 3 è il vettore a) (1, O, O)
b) (i, O, O)
c) (2i, i, 1)
d) (O, i, 2).
2. Sia A uno spazio affine reale con spazio vettoriale associato V. Si supponga fissato un riferimento affine Oe, ... e". Sia H C A un iperpiano di equazione
r sottoinsiemi E+
di A
= (P(x, • ... , x,,) : a,x,
E_ = (P(x" ... , x,,) : a,x,
+ +
+ a"x" + c 2:: OJ + a"x" + c::o; OJ
sono i semispa:i
Verificare che la definizione di semispazio non dipende dall'equazione né dal sistema di riferimento. Dimostrare che i semispazi sono sottoinsiemi convessi di A. Se dim(A) = 1, (dim(A) = 2), i semispazi sono chiamati semirette (semipiani). Se dim (A) = 1, dimostrare che una semiretta, così definita, coincide con una semiretta . di A come definita in 7.7(1). (Suggerimento. Verificare che E+ e E_ sono caratterizzati dalla seguente proprietà geometrica: fissato PoE E+ (rispettivamente p o€ E_), il punto PE E+ (il punto PE E_) se solo se il segmento PoP è interamente contenuto in E+ (in E_».
u = (u)
Figura 8.4
3. Sia A uno spazio affine reale e siano A, B, C, D punti indipendenti di A. Dimostrare che il triangolo di vertici A, B, C è l'inviluppo convesso di {A, B, CJ e che il tetraedro di vertici A, B, C, D è l'inviluppo convesso di lA, B, C, DJ.
110
Geometria affine
9/Geometria in un piano affine
111
Se la retta ~ è assegnata mediante due suoi punti distinti Q(a, b) e Q'(a', b'),
9 Geometria in un piano affine In questo paragrafo considereremo il caso dei piani affini, cioè degli spazi affini di dimensione 2 su K. Tra questi rientra come caso particolare il piano ordinario, che è un piano affine reale. Consideriamo dunque uno spazio vettoriale V su K, tale che dim(V) = 2, e un piano affine A su V. Fissiamo un riferimento affine Del e2 in A e denotiamo con x, y le coordinate di un punto variabile PE A e con X, Y indeterminate. I sottospazi affini di A sono le rette, oltre ad A stesso e ai punti di A. Ogni retta ~ di A ha equazioni parametriche
allora come vettore di direzione si può prendere v(a' - a, b' - b) prende la forma Y- b
a
b' - b
9.1
I = O.
[9.6]
Siano
PROPOSIZIONE
~ ed~'
due rette di A di equazioni cartesiane
AX+BY+ C=O, e
x=a+lt [9.1]
A'X+B'Y+C' =0
y= b+mt in cui Q(a, b) è un punto qualsiasi di ~ e v(l, m) è un vettore di direzione di ~. Poiché ha codimensione 1 in A, la retta ~ si può anche rappresentare per mezzo di un'equazione cartesiana
AX+BY+C=O,
rispettivamente. Allora: 1) ~ ed~' sono parallele se e solo se la matrice
(~, ~,)
[9.2]
per opportuni A, B, CE K tali che (A, B) ~ (O, O). Le costanti A, B, C sono individuate da ~ solo a meno di un comune fattore di proporzionalità non nullo, e quindi una retta ~ possiede infinite equazioni [9.2], tutte tra loro proporzionali. La retta ~ di equazione [9.2] contiene l'origine D se e solo se C = O. Le rette di equazioni X = O e Y= O si dicono assi coordinati, rispettivamente asse delle Y e asse delle X. Per ottenere un'equazione cartesiana della retta ~ a partire da sue equazioni parametriche [9.1], cioè una volta noti un suo punto Q(a, b) e un suo vettore di direzione v(l, m), si può osservare che le [9.1] esprimono la condizione che il vet----+ tore QP sia parallelo a v, e che lastessa condizione può esprimersi imponendo che (x, y) sia soluzione dell'equazione in X, Y:
I =0
(~,
[9.3]
B'
~,)
CB' - C'B AB'.-A'B'
=-----
o
Dimostrazione Le direzioni di
[9.8]
~
e di
Y
~'
AC'-A'C
o
= AB'-A'B'
[9.9]
sono determinate dalle equazioni omogenee
AX+BY=O,
[9.4] e
o, equivalentemente,
mX - lY + lb - ma = O.
B
abbia rango 2 oppure 1. 3) ~ ed~' hanno uno e un solo punto in comune se e solo se la matrice [9.7] ha rango 2. In questo caso il punto ~ n~' ha coordinate
cioè
m(X - a) -1(Y - b) = O,
[9.7]
ha rango 1, cioè se AB' - A'B = O. 2) Se ~ ed ~' sono parallele, allora sono disgiunte oppure coincidono a seconda che la matrice
x Y-b m
X - a
I a' -
----+
= QQ' e la [9.3]
[9.5]
L'equazione [9.3] è soddisfatta da tutti e soli i punti P(x, y) E~. Quindi la [9.3], oppure la [9.4] o la [9.5], è un'equazione cartesiana di ~.
A'X+B'Y=O rispettivamente. Quindi ~ ed~' sono parallele se e solo se A' = pA, B' = pB per qualche p ~ O in K, cioè se e solo se la [9.7] ha rango 1. Ciò prova la (1).
Geometria affine
112
9/Geometria in un piano affine
113
La matrice [9.8] ha rango 1 se e solo se le equazioni di ~ e di~' sono proporzionali, cioè se e solo se ~ =~'. Quindi, se la [9.8] ha rango 2 e la [9.7] ha rango 1, ~ ed~' sono distinte e, per la (1), parallele, e pertanto non hanno punti in comune. La (2) è dimostrata. Infine, la [9.7] ha rango 2 se e solo se ~ ed~' non sono parallele. In questo caso, per il teorema di Cramer, il sistema costituito dalle equazioni di ~ e di ~' ha un'unica soluzione (xo, Yo) data dalla [9.9]. Ciò prova la (3).
a meno di un fattore di proporzionalità: la retta [9.10] in cui À e fl soddisfano la [9.11] appartiene a 4> e passa per P, quindi coincide con ~. Pertanto tutte le rette di 4> si rappresentano nella forma [9.10]; una retta di 4> determina À, fl solo a meno di un fattore di proporzionalità. Un caso particolare della [9.10] si ha prendendo ~ ed~' parallele agli assi: si ottiene che ogni retta del fascio 4> si può scrivere nella forma
I casi che vengono considerati nell'enunciato della proposizione 9.1 sono tutti quelli che si possono presentare per la posizione reciproca di due rette di A, perché corrispondono a tutte le possibilità per un sistema di due equazioni lineari in due incognite. In particolare vediamo che l'unica possibilità perché due rette ~ ed~' non abbiano punti in comune è che la [9.7] abbia rango 1 e la [9.8] abbia rango 2, e questo caso corrisponde al parallelismo di ~ ed ~'. Quindi due rette di un piano affine non possono essere sghembe. Sia Q(xo, Yo) EA. L'insieme 4> i cui elementi sono le rette di A passanti per Q si dice fascio proprio di rette e Q si dice il suo centro (fig. 9.1). Siano
per opportuni À, fl. I fasci di rette sono utili in pratica soprattutto quando il punto Q è individuato da due rette che lo contengono ma le sue coordinate non sono note, e si vuole individuare una retta contenente Q soddisfacente a condizioni assegnate, ad esempio la condizione di passare per un punto P diverso da Q, oppure di essere parallela ad una retta assegnata. È talvolta più conveniente utilizzare un solo parametro non omogeneo t, invece della coppia di parametri omogenei À, fl. In altre parole, anziché nella forma [9.10], ,i può scrivere la retta variabile nel fascio nella forma
AX+BY+C=O
equazioni cartesiane di due rette distinte, aventi in comune il centro Q di 4>. Siano À, fl EK due scalari non entrambi nulli; la retta di equazione cartesiana
AX +BY+ C+ t(A'X +B'Y + C') = O,
+ fl(A' X + B' Y + C') = O
[9.10]
Ax + By
[9.12]
+ C) + fl (A' x + B'y + C') = O
+ C + t (A' x + B'y + C') = O,
[9.13]
la cui soluzione, se esiste, determina la retta cercata. Si faccia però attenzione: nella forma [9.13] si rappresentano tutte le rette del fascio 4> ad eccezione della retta
passa per Q e quindi appartiene al fascio 4>. Viceversa, se ~E 4> e P(x, y) E~ è un punto diverso da Q, la condizione À (Ax + By
- x o) + fl (Y - Yo) = O
e la condizione di passaggio [9.11] diventa un'equazione lineare in t:
A'X+B'Y+C'=O
À(AX + BY + C)
À (X
A'X+B'Y+C'=O.
[9.14]
Ciò corrisponde aLfatto che l'equazione [9.13] è incompatibile se (e solo se) [9.11] A'x+B'y+C'=O
è un'equazione lineare omogenea in À e fl che ha un'unica soluzione, determinata e
Ax+By+
C~O,
cioè se P ~ Q e P appartiene alla retta [9.14]. Con questa avvertenza, si può sempre utilizzare un parametro non omogeneo per determinare una retta del fascio 4>, purché siinterpreti nel modo detto l'equazione [9.13] quando essa risulti incompatibile. Considerazioni simili alle precedenti si possono fare nel caso dei "fasci impropri". Dato un vettore non nullo v EV, l'insieme i cui elementi sono le rette di A aventi direzione è unfascio improprio di rette, e è la sua direzione (fig. 9.2). Data una r~tta del fascio improprio 4>, di equazione Figura 9.1
AX+BY+C=O,
Geometria affine
114
che denotiamo con ad~). Si noti che ad~) passa per adQ), dove Q(a, b) E~, ed è parallela a ~, avendo un vettore di direzione di coordinate (- l, -
ogni altra retta di
m».
AX+BY+ t=O al variare del parametro tE K. Ciò segue immediatamente dalla proposizione 9.1. Per ogni punto P(x, y) EA esiste un'unica retta di
Il risultato seguente è una generalizzazione del classico teorema di Talete a piani affini qualunque. 9.3 TEOREMA (TALETE) Siano H, H', H" rette parallele e distinte del piano affine A, ed ~" ~2 due rette non parallele ad H, H', H". Siano inoltre
t= -(Ax+By). Si noti che, mentre per individuare un fascio proprio sono necessarie due sue rette, un fascio improprio è individuato una volta assegnata una sola sua retta. Il motivo di ciò sarà chiaro quando, nel capitolo 3, interpreteremo i fasci dal punto di vista dalla geometria proiettiva.
Pi=~inH,
p;'=~inH',
9.2 Esempio
(x' - x o' y' - Yo)
=
(xo - x, Yo - y)
~
i = 1, 2,
Dimostrazione Supponiamo ~l ;é ~2 (fig. 9.3), perché se ~l = ~2 il teorema è banalmente vero. Salvo scambiare tra loro due delle rette H, H' , H" , possiamo supporre P 1 ;é P 2 • Poniamo v = P 1P 2 • Si ha ~
e quindi sono
Sia
p;"=~inH",
i = 1, 2.
Sia C(xo' Yo) E A e sia P(x, y) un altro punto qualsiasi. Il punto simmetrico di ---+ P rispetto a C è il punto adP) tale che Cae(P) = PC (cfr. esempio 7.5(4». Le coordinate x', y' di ae(P) sono individuate dalla condizione
(x', y')
115
9/Geometria in un piano affine
=
(2xo - x, 2yo - y).
la retta di equazioni parametriche
•
x= a + lt y= b+ mt. Se P(a + lt, b + mt)E~, il punto ae(P) è
(2xo - a - lt, 2yo - b - mt). Da ciò discende che al variare di zioni parametriche
x= 2xo - a-lt
v
y
..
=
PE~
il punto adP) descrive la retta di equa-
2yo - b - mt,
Figura 9.2
~
~
------+
------+
P 2 P{ - P1P{
~
~
= P{ P{ - P 1P 2 = av ------+
~
P 2 P{' - PrP{' = P{' P{' - P 1 P 2 = {3v per opportuni a, {3 EK. Se a = O, ~l ed ~2 sono parallele; allora anche {3 = O, perché se fosse {3 ;é O il
116
Geometria affine
vettore v sarebbe parallelo a
Ì/]
ea
Ì/2 ,
9/Geometria in un piano affine
Per il teorema di Talete si ha, per opportuni h, kE K*:
contro l'ipotesi. In questo caso:
---,--+
---,--+
---,--+
---,--+
= hOR',
OQ' ----->
----->
=
-+
-+
~
OR
=
perché
PQ'IIP'Q,
h OQ
perché
QR'IIQ'R.
---+
~
Ma allora:
k 2•
----+
[9.15]
----+-
-+
RP' = OP' - OR = kOQ' - hOQ, ---,--+
•
D'altra parte si ha anche
---,--+
--
--
e quindi RP' = hkPR', cioè RP' IIPR' . Se HIIH', allora si ha [9.16]
~
-+
OQ = kOP
OP' =kOQ',
e poiché p]P(' = P~P;' otteniamo k] Se a ~ O allora
117
~
Poiché a -:;é 0, p]P{ e P 2 P; non sono paralleli, e quindi sono linearmente indipendenti. Confrontando [9.15] e [9.16] deduciamo che k 2 = a-'(3 = k,.
-+
---,--+
-+
---,--+
PQ = Q' P' QR = R'Q'
perché
PQ'IIP'Q,
perché
QR'IIQ'R,
e quindi Il teorema di Talete afferma essenzialmente che lo scalare k = k, = kz dipende solo da H, H', H" e non dall€ rette trasversali Ì/ j , Ì/z. Un caso particolare si ottiene prendendo Ì/] ed Ì/2 incidenti in un punto O EH. In questo caso si ha ---+ ---+ ---+ -----+ P, = 0= P z e il teorema afferma che OP{' = kOP{, OP;' = kOP; . Utilizzando il teorema di Talete dimostreremo ora due importanti risultati di geometria affine piana. 9.4 TEOREMA (PAPPo) Siano H e H' due rette distinte, del piano affine A. Siano P, Q, R EH, P', Q', R' EH' punti distint~nessuno dei quali comune ad H e ad H'. Se PQ'IIP'Q e QR'IIQ'R, allora PR'IIP'R.
Dimostrazione Supponiamo che H e H' non siano parallele, e sia {O J
=
H
n H'
(fig. 9.4).
-+
--+
---+
-----+
Pertanto PR' IIP' R. Esistono altre versioni del teorema di Pappo, per le quali rinviamo il lettore a [7] e [2]. Il secondo teorema che vogliamo dimostrare è dovuto a Desargues. 9.5 TEOREMA (DESARGUES) Siano A, B, C, A', B', C' EA punti a tre a tre non allineati, tali che ABIIA'B', BCIIB'C', ACIIA'C'. Allora le tre rette AA', BB', CC' sono parallele oppure hanno un punto in comune.
Dimostrazione Supponiamo che AA', BB', CC' non siano parallele. Allora due di esse si incontrano, e possiamo quindi supporre che AA' n BB' = {Ol (fig. 9.5). Per il teorema di Talete applicato ad AB, A'B' si ha ---+
OA'
~
=
Sia {C" l ---,--+
kOA, =
----*
---+
OB'
=
kOB,
kE K.
OC n A' C' . Per il teorema di Talete applicato ad A C, A' C' si ha -+
OC"=kOC
[9.17]
-+
= OC n B' C', il teorema di Talete
---,--+
Figura 9.4
------+
-+
PR=PQ+QR=Q'P' +R'Q' =R'P'.
perché OA' = kOA. D'altra parte, posto {C'" l
-
--
1]8
Geometria affine
IO/Geometria in uno spazio affine di dimensione 3
1]9
c) P =J- nJ-', Q = t nt', dove J-, Y, t, t, sono le rette
o
J-:X+5Y-8=0,
Y:3X+6=0,
t:5x_L=1, 2
t':X-Y=5.
3. Determinare equazioni parametriche della retta di A2 (C) parallela al vettore v e passante per il punto~nJ- in ciascuno dei casi seguenti:
•
a) v = (2, 4),
~:
3X - 2 Y -7 = 0, ~: X- Y=O,
b) v=(-5.fi, 7),
4. Siano P = (2, 3), Q = (11, PQ. Figura 9.5
applicato alle rette BC, B'C' implica che ~
---+
= kOC [9.18] ---+ perché OB' = kOB. Confrontando le [9.17] e [9.18] vediamo che C" = C'" = C', OCIII
~
e quindi O, C, C' sono allineati.
Esercizi 1. Stabilire quali delle seguenti sono teme di punti allineati di A2 (R):
b) ((1, 1), (1, - 1), (-1, 1)}
°
Determinare il punto medio del segmento
5. In A 2 (R) siano P = (1, -1), Q = (2, 1512). Determinare i punti che suddividono il segmento PQ in 4 parti uguali.
6. Dimostrare la seguente generalizzazione del teorema di Talete. In uno spazio affine A su K siano H, H', H" iperpiani paralleli e distinti, e siano ~lo ~2 rette non parallele ad H, H', H". Siano P j = ~j n H, P/ = ~j n H', P," = ~j n H", i = 1, 2, e siano k" k 2 E K gli scalari tali che ---->
-----+
PjP/' = kjPjP/ ,
Questi due teoremi hanno anche versioni proiettive che vedremo nel capitolo 3. La loro importanza è dovuta soprattutto alla relazione che hanno con la caratterizzazione degli spazi affini per mezzo di proprietà di natura grafica. (Per dettagli su quest'argomento cfr. [7] e [12].)
'11'5) EN (R).
J-: 2X + 3 Y = J-: X+ Y=l.
i = 1, 2.
lO Geometria in uno spazio affine di dimensione 3
Considereremo ora il caso degli spazi affini di dimensione 3. Tra questi rientra come caso particolare lo spazio ordinario. Supponiamo assegnato un K-spazio vettoriale V di dimensione 3 e uno spazio affine A su V. Fissiamo un riferimento affine Oe l e2 e3 in A; denotiamo con x, y, z le coordinate di un punto variabile P EA e con X, Y, Z indeterminate. I sottospazi affini di A sono i piani e le rette, oltre ad A stesso e ai suoi punti. Un piano Iv di A passante per un punto Q(ql' q2' q3) ha equazioni parametriche della forma X=ql +a]u+b]v
y = q2 + a2u + b 2v 2. Determinare un'equazione cartesiana della retta Q in ognuno dei casi seguenti: a) P=
(1, :), Q= G' 1)
b) P
~
= (O,
di A2 (R) contenente i punti P e
172), Q = (-J1, O)
z
[10.1]
= q3 + a3u + b 3v,
dove (a(ap a2 , a3), b(b], b 2 , b 3») è una base della giacitura W del piano (fig. 10.1). Il piano Iv ' avendo codimensione 1, si rappresenta anche con un' equazione
Geometria affine
120
IO/Geometria in uno spazio affine di dimensione 3
121
fatto che a e b sono linearmente indipendenti. Se poniamo D
= -
[10.6]
Aq! - Bq2 - Cq3'
possiamo scrivere la [10.5] nella forma AX + BY + CZ + D
(10.7]
O.
=
EIv
La [10.7] è soddisfatta da tutti e soli i punti P(x, y, z) e quindi è un'equazione cartesiana del piano Iv . Se Iv è assegnato mediante tre suoi punti non allineati Po(xo, Yo, zo), P I(XI' --+
Figura 10.1
cartesiana
X - Xo
AX+BY+ CZ+D=O
(10.2]
per opportuni A, B, C, DE K tali che (A, B, C);é (O, O, O). Le costanti A, B, C, D sono individuate da Iv solo a meno di un comune fattore di proporzionalità non nullo. Il piano Iv contiene l'origine O se e solo se D = O. I piani di equazione X = O, Y = O, Z = O si dicono piani coordinati, e rispettivamente piano YZ, piano XZ, piano XY. Possiamo ottenere un'equazione cartesiana [10.2] di Iv a p~re dalle (10.1] osservando che esse esprimono la dipendenza lineare dei vettori QP, a, b; le [10.1] sono pertanto equivalenti all'annullarsi del determinante della matrice le cui righe sono le coordinate di questi vettori. Quindi il punto P(x, y, z) appartiene al piano passante per Q(ql' q2' q3) e parallelo a (a(al , a2, a3), b(b l , b2, b3» se e solo se le sue coordinate soddisfano l'equazione in X, Y, Z
Y - Yo
Z - Zo
XI - Xo YI - Yo
Z! - Zo
(10.3]
=
o.
[10.8]
La [10.8] è un'equazione cartesiana del piano passante per i punti Po, P I, P 2. Una retta ~ C A ha equazioni parametriche della forma x=a+/t Y= b Z=
+ mt
[10.9]
c+ nt,
dove Q(a, b, c)E~ e v(l, m, n) è un suo vettore di direzione. La retta ~ può anche essere definita da due equazioni cartesiane, cioè come intersezione di due piani, perché ha codimensione 2: AX + BY + CZ + D
=0.
--+
y!, Zt), P 2(X2, Y2, Z2)' la sua giacitura è generata dai vettori POPI e POP 2, e la (10.3] prende la forma seguente:
=
O
A'X+B'Y + C'Z +D'
=
O.
[10.10]
La direzione di ~ è il sottospazio vettoriaie di dimensione 1 di V definito dal sistema omogeneo associato Espandendo il primo membro della [10.3] secondo la prima riga, e ponendo
AX+BY+ CZ=O A'X + B'Y + C'Z=O.
(1004]
[10.11]
Da ciò segue che il vettore v(l, m, n) di coordinate
si ottiene (10.5] Si noti che A, B, C, non sono tutti nulli: ciò segue dalla loro definizione e dal
è un vettore di direzione di ~, perché (I, m, n) è una soluzione non nulla del sistema [10.11].
Geometria affine
122
Quest'osservazione fornisce un metodo pratico per calcolare un vettore di direzione di una retta Z, assegnata mediante equazioni cartesiane [10.10]. e Se viceversa la retta Z, è assegnata mediante un suo punto Q(a, b, c) e un suo vettore di direzione v (l, m, n), ovvero per mezzo delle [10.9], se ne possono ottenere equazioni cartesiane imponendo la condizione che si annullino i minori di ordine 2 della matrice
Y-b m
Z-C).
[10.12]
n
Infatti questa condizione nelle indeterminate X, Y, Z è soddisfatta dalle coordinate dei punti P(x, y, Z)EA tali che il vettore QP sia proporzionale a v, cioè dai punti di z,. Supponendo ad esempio l-,é. O, la condizione detta è equivalente alle due equazioni seguenti: ~
m(X - a) -1(Y - b) = O n(X - a) -1(Z - c)
=
[10.13]
O,
=
nX - lZ - (na - lc)
O,
=
O
[10.14]
che sono equazioni cartesiane di due piani distinti contenenti Z, (che i due piani sono distinti segue dal fatto che, essendo l -,é. O, la matrice dei coefficienti delle incognite delle due equazioni [10.14] ha rango due), i quali quindi definiscono z,. Si noti che le [10.13] implicano l'annullamento del rimanente minore della [10.12]:
n(Y - b) - m(Z - c)
=
PROPOSIZIONE
= o.
Siano jv e jv' due piani di A, di equazioni cartesiane
AX + BY + CZ + D
= O,
A'X+B'Y+C'Z+D' =0
B'
ha rango 1.
B
C
B'
C'
D)
D'
[10.17]
abbia rango 2 oppure 1. 3) Se jv e jv' non sono paralleli, allora sono incidentie jv n jv' è una retta; ciò avviene se e solo se la matrice [10.16] ha rango 2. Dimostrazione I casi considerati nell'enunciato corrispondono alle possibilità che si hanno per il sistema [10.15], di cui la [10.16] e la [10.17] sono rispettivamente la matrice dei coefficienti e la matrice orlata. Poiché le giaciture di jv e di jv' sono determinate dalle equazioni omogenee associate
AX+BY+CZ=O
[10.18]
il parallelismo dijv e jv' è equivalente alla condizione che le [10.18] siano proporzionali, cioè che la [10.16] abbia rango 1. In questo caso la matrice [10.17] ha rango 1 o 2 rispettivamente, a seconda che il sistema [10.15] sia compatibile oppure no, cioè che jv n jv' -,é. (2) oppure jv n jv' = (2). Nel primo caso dev'essere jv = jv' perché i due piani sono paralleli. Ciò dimostra (1) e (2). Per la (1) la [10.16] ha rango 2 se e solo se jv e jv' non sono paralleli. In tal caso il sistema [10.15] è compatibile, perché anche la [10.17] ha rango 2. Il sistema [10.15] possiede 00 1 soluzioni e jvnjv' è una retta. Anche la (3) è dimostrata. Passiamo ora a considerare il caso di una retta e di un piano. La proposizione seguente descrive tutti i casi che si possono presentare nella loro posizione relativa. 10.2 PROPOSIZIONE Sia z, una retta di equazioni parametriche [10.9] e cartesiane [10.10], e sia jv" un piano di equazione
[10.15]
A"X+B"Y+ C"Z+D" =0.
rispettivamente. Allora: 1) jv e jv' sono paralleli se e solo se la matrice B
(~,
1-I{m[n(X - a) -1(Z - c)] - n[m(X -a)- I(Y - b)]}
10.1
123
2) Se la matrice [10.16] ha rango 1, allora jv e jv' sono paralleli e disgiunti oppure coincidono a seconda che la matrice
A'X+B'Y + C'Z= O,
cioè alle
mX - lY - (ma - lb)
IO/Geometria in uno spazio affine di dimensione 3
[10.19]
1) Z, e jv" sono paralleli se e solo se
[10.16]
A
B
C
A'
B'
C'
Ali
B"
C"
=0
[10.20]
Geometria affine
124
o, equivalentemente, se e solo se A"I+B"m + C"n = O.
" [10.21]
2) Se la [10.20] è soddisfatta, allora t- e Iv" sono paralleli e disgiunti oppure coincidono a seconda che la matrice
A (
B
c
D)
A'
B'
c'
D'
A"
B"
C"
D"
B
C
A'
B'
C'
A"
B"
C"
[10.22]
>é0
[10.23]
o, equivalentemente, se e solo se A"I+B"m+C"n>éO.
Supponiamo soddisfàtta la [10.20]. Allora il sistema omogeneo AX+BY+CZ=O A'X +B'Y+ C'Z=O
+ B" Y + C" Z
=
Per la (1), Iv" ed t- non sono paralleli se e solo se la (10.23] o la [10.24], che come già osservato sono equivalenti, sono soddisfatte. In questo caso il sistema [10.26] è compatibile e ammette un'unica soluzione, per il teorema 5.7. Quindi t- e Iv" hanno un unico punto in comune.
[10.25] O
è equivalente al sistema costituito dalle sue due prime equazioni, che definiscono la direzione di t-. Pertanto ogni vettore di direzione di t- soddisfa la terza equazione [10.25], che è un'equazione della giacitura di Iv"; cioè Iv" ed t- sono paralleli. Se viceversa Iv" ed t- sono paralleli, necessariamente la terza equazione [10.25] è dipendente dalle prime due, e la [10.20] è soddisfatta. L'equivalenza delle condizioni [10.20] e [10.21] si vede sviluppando il determinante [10.20] secondo la terza riga. La (1) è dimostrata. Se Iv" ed t- sono paralleli, allora coincidono oppure sono disgiunti a seconda che il sistema
Passiamo ora a considerare due rette e le loro posizioni relative. Due rette t- e t-] di A si dicono complanari se esiste un piano che le contiene entrambe. 10.3 PROPOSIZIONE Due rette t- ed t-] di A sono complanari se e solo se una delle condizioni seguenti è verificata: 1) t- ed t-] sono parallele; 2) t- ed t-] sono incidenti. In particolare t- ed t-] sono complanari se e solo se non sono sghembe. Poiché due rette di un piano affine che non sono incidenti sono necessariamente parallele, se t- ed t-] sono complanari, allora o sono parallele o sono incidenti. Viceversa, se t- = t-], allora ovviamente t- edt-] sono complanari. Se t- ed t-] sono parallele e distinte sono contenute nel piano che passa per. un punto qual--> siasi QEt- e di giacitura (v, QQ]), dove v è un vettore di direzione di t- e di t-] e Q] Et-]. Se t- ed t-1 sono incidenti e distinte sono contenute nel piano passante per il punto t- n t-] e di giacitura (v, v]), dove v e v] sono vettori di direzione di t- e di t-] rispettivamente. La proposizione che segue dà dei criteri per riconoscere la complanarità di due rette assegnate. 10.4 PROPOSIZIONE Siano t- ed t-] due rette di A; supponiamo che t- abbia equazioni cartesiane [10.10] e che t-l abbia equazioni cartesiane A]X+B]Y+C1Z+D]=0 A;X +B{Y + C{Z +D{
AX + BY + CZ + D = O A'X+B'Y + C'Z+D' =0
un piano.
Dimostrazione [10.24]
Dimostrazione
A" X
125
La [10.20] e la [10.21] danno la condizione di parallelismo di una retta e di
abbia rango 3 oppure 2. 3) Se t- e Iv" non sono paralleli, allora sono incidenti ed t- nIv" consiste di un solo punto; ciò avviene se e solo se A
IO/Geometria in uno spazio affine di dimensione 3
[10.26]
A"X +B"Y+ C"Z +D" =0 sia compatibile oppure no. Ciò prova la (2), tenuto conto del teorema 5.7.
=
O.
[10.27]
Siano Q(a, b, C)Et-, Q](a1, bi, c]) Et-]; siano inoltre v(/, m, n) e v](/], m], n]) vettori di direzione di t- e di t-1 rispettivamente. Le seguenti condizioni sono equivalenti: 1) t- ed t-] sono complanari;
Geometria affine
126
b-b l
C-CI
l
m
n
II
mi
nl
=0;
3) A
B
C
D
A'
B'
C'
D'
AI
BI
CI
DI
A'I
B'I
C'I
D'I
IO/Geometria in uno spazio affine di dimensione 3
127
è almeno 2, si deve avere R = 3 ed r = 2. La condizione r = 2 implica che le due ultime righe della [10.30] sono combinazione lineare delle prime due; z, ed Z,I hanno pertanto la stessa direzione, cioè sono parallele, e in particolare complanari. (1) =? (3) Se z, ed Z,I sono incidenti il sistema costituito dalle [10.10] e dalle [10.27] è compatibile, e quindi la [10.29] ha rango minore di 4. Se invece z, ed Z,I sono parallele, la [10.30] ha rango 2 e conseguentemente la [10.29] ha rango al più 3. In entrambi i casi la (3) è verificata.
2) a-al
..
Sia z, una retta di A. L'insieme dei piani di A che contengono Z, si dice fascio proprio di piani, ed z, è detta asse del fascio (fig. 10.2). Consideriamo due piani distinti /v e /vI di , di equazioni rispettive
=0.
AX +BY+ CZ+D= O
Dimostrazione (1) =? (2) . Se z, ed Z,I sono parallele, allora v e VI sono proporzionali, e quindi la (2) è soddisfatta. Se z, ed Z,I sono incidenti, allora sono contenute in uno stesso -+ piano ~; il vettore QQI appartiene alla giacitura di~, che è generata da v e da VI' e di nuovo la (2) è soddisfatta. (2) =? (1) Se la (2) è soddisfatta, allora o le ultime due righe della matrice
Come nel caso dei fasci di rette, si verifica che ogni piano appartenente a ha equazione
[10.28]
per opportuni À, Il EK non entrambi nulli. Anche in questo caso si può utilizzare un parametro non omogeneo t per rappresentare i piani del fascio nella forma
ca, b:,b' C:,C')
sono proporzionali, e le due rette sono parallele, oppure la prima riga della [10.28] è combinazione lineare delle ultime due, e il piano ~ di giacitura (v, VI) passante per Q, che contiene z" contiene anche QI' e quindi contiene Z,I. In ogni caso le due rette sono complanari. (3) =? (1) Se il sistema costituito dalle [10.10] e dalle [10.27] è compatibile, allora z, ed Z,I sono complanari perché hanno punti in comune. Supponiamo che il sistema non sia compatibile. Allora, poiché il rango R della matrice A
B
C
D
A'
B'
C'
AI
BI
Cl
DI
Ai
B'I
C{
D'I
AIX +B I Y+
CIZ
+D 1 =0.
À(AX + BY + CZ +D)
+ Il(AIX +B I Y + CIZ +D[) =
tenendo presente che il piano /vI è l'unico elemento di che non si può ottenere in questo modo. .Se ~ è un piano non parallelo a z" i piani appartenenti al fascio di asse Z, mtersecano ~ nelle rette appartenenti al fascio di rette di ~ di centro il punto Z, n ~ (fig. 10.3). Sia W un sottospazio di dimensione 2 di V. L'insieme 'Ir dei piani di A che hanno giacitura W si dice fascio improprio di piani e W si dice giacitura del fascio. Se ~ è un piano del fascio 'Ir, di equazione
[10.29]
è al più 3, e quello r della matrice A
B
C
A'
B'
C'
AI
BI
CI
A'I
B'I
C'I
l"" 1 1 1
[10.30]
O
1I
Z, " "
" ""~-----------
Figura 10.2
Geometria affine
128
I I I
I I
iI
, "
129
Esiste una e una sola retta contenente P e complanare sia con t- che con ~. Per vederlo si osservi che esiste un unico piano Iv contenente sia t- che P, e un unico piano Iv' contenente sia ~ che P. Poiché Iv e Iv' hanno in comune il punto P e sono distinti (altrimentit-e ~ sarebbero complanari), Iv nIv' è una retta t che contiene P e, per costruzione, è complanare sia con t- che con ~. L'unicità di t segue da quella di Iv e di Iv' . Si noti che certamente t non è parallela sia a t- che a ~, perché in tal caso t- ed ~ sarebbero parallele tra loro. Quindi t interseca almeno una delle due rette.
r+--------------/
IO/Geometria in uno spazio affine di dimensione 3
z,
I
"i'-----------Esercizi 1. Stabilire quali delle seguenti sono teme di punti allineati di A3 (C): Figura 10.3
a) [(2, 1, -3), (1, -1,2),
(~
,0, -
~)]
b) {(l, 1, 1),(2, -1,3),(2,1, -5)J
Se
?'
è un piano del fascio 'Ir, di equazione
c) {(i, 0, O), (1 + i, 2i, 1), (1, 2, - i) J
AX + BY + CZ + D = O,
d) {(l,O, O), (2, -1, -1), (-2,
~2,
1)J
e) {(l,O, -1), (2,1,2), (-1, -1, 3)J
allora ogni altro elemento di 'Ir ha equazione
f) {(l- i, i, 2), (3, 6i, - 3), (2 - i, 3i, 1) J.
AX + BY + CZ + t = O
2. In ciascuno dei seguenti casi determinare, se esiste, il valore del parametro reale m in corrispondenza del quale si ottiene una tema di punti allineati di A 3 (R):
al variare di t E K.
a) {(2, -1,2),(1,1,1),(2, -m+1,4)J
10.4 Esempio Siano t- ed ~ due rette sghembe di A, e sia PE A un punto non appartenente a t- U~ (fig. 10.4).
b) {(3, 0, O), (O, 1, 1), (m, m, m)J c) {(l, - m, O), (m,l,l), (1, -1, - 3) J d) {(l, m, O), (2,.J2, 1), (2,110, l)J. 3. Dopo aver verificato che ciascuna delle seguenti teme consiste di punti non allineati di A 3 (R), determinare equazioni parametriche e cartesiane dei piani da esse rispettivamente individuati:
p
a) {(2,.J2, 1), (1, 1, .J2), (O, 0, 1) J b) [(5, -1, O), (1,1, V5), (-3, 1,
~)]
c) {(l,l,l), (- 2, 1, O), (2, 2, 2)J Figura 10.4
d) {(l,1000, O), (3,55, 211", O), (1,10 5 , O)J.
130
Geometria affine
4. In ciascuno dei seguenti casi determinare un'equazione cartesiana del piano di A3 (C) passante per il punto Q e parallelo al piano
ft:
a) Q=(-1,2,2),
b) Q = (i, i, i),
ft:X+2Y+3Z+1=0
ft:
c) Q=(1,i,i+1),
2X - Y
=O
ft:iY-2Z+3i+1O=0
d) Q = (1- 2i, l, 1I"i),
ft: i Y = 3.
IO/Geometria in uno spazio affine di dimensione 3
131
lO. In ciascuno dei seguenti casi verificare se le rette t- ed .i-- di A 3 (R) sono o no complanari e, nel caso lo siano, verificare se sono parallele o incidenti e, dopo aver verificato che sono distinte, determinare un'equazione cartesiana del piano che le contiene: a) t-: x = l + t, Y = - t, z = 2 + 2t,
.J-: x = 2 - t, Y = -l + 3 t, z = t
b) t-: 2X + Y + l = O, Y - Z = 2,
.i--: x = 2 - t, Y = 3 + 2t, Z = l
c) t-: 2X + 3 Y - Z = O, 5X + 2Z -l = O,
.i--: 3X - 3 Y + 3Z -l = O,
5X+2Z+1=0
5. In ciascuno dei seguenti casi verificare se i tre piani di A 3 (R) di equazioni assegnate a) X - Y + Z = O,
- X + 3 Y - 5Z + 2 = O,
b) 2X-3Y+3=0, c) X - 5 Y + l = O,
X- Y+6=0, X - 5 Y = O,
d) X - Y + Z + 5 = O,
Y - 2Z + l = O
X-3Z=-1
2X - 2 Y + 2Z + 77 = O,
- X + Y - Z = O.
b) Q = (- 2, 2, - 2), v = (1, l, O)
c) Q = (1, 2, 3), v = (1, 2, 3)
d) Q = (O, O, O), v = (1, O, O)
7. Determinare equazioni pararnetriche di ciascuna delle seguenti rette di A3 (C) assegnate mediante equazioni cartesiane: 2Y +Z +l =O
c) X - l
Y +Z - 5=O
= O,
= O,
Z - l =O
d) 2iX - (i + 2) Y + Z - 3 + i = O, Z + i Y = 2i. 8. In ciascuno dei seguenti casi determinare equazioni parametriche della retta di A3 (C) passante per il punto Q e parallela alla retta t-: a) Q=(l, l, O),
t-: X-iY=O, Z+l =0
b) Q=(1, O, O),
t-:X+2Y-1=0,X=2
c) Q = (2, l, - 5),
d) Q = (3, O, O),
t-: Y = 2,
Y + Z - 2 = O.
ft: 2X - Y + Z -l = O ft: 2X + 2 Y - Z + l = O
a) t-: x = l + t, y = 2 - 2t, Z = l - 4t,
b) t-: x = 2 - t, Y = l + 2t, Z = -l + 3 t,
ft:
c) t-: X+Z-2=0, Y=l,
d) t-: X + Z + l = O, X - Z = O,
X- Y+2Z-5=0
ft:
X + Z - l = O.
a) Q = (3, 3, l),
t-: x = 2 + 3t, Y == 5 + t, Z = l + 7t
b)Q=(2,1,0),
t-: X - Y
c) Q= (1, O, 2),
t-: Y + 2Z - 5 = O, Z = l
d) Q = (2, 2, 2),
t-: x = 5 + t, Y = - 3 - 3 t, Z = 3 + 3 t.
ft
a) Q=(l, l,O),
c) Q = (1, 2, 3),
X = iZ + 7
9. In ciascuno dei seguenti casi determinare un'equazione cartesiana del piano di A3 (R) passante per il punto Q e parallelo alle rette t- ed .i--: X +Z
ft:2X-Y+Z-1=0,
~
5 = O,
.i--: X = l, Z = 2
.i--:x=2-t,y=2+t,z=t
ft:X+Y+Z+3=0,
ft: 2X -
Y = O,
.i--:X-2Z+4=0, 2Y-Z=0
.i--: X + Z + l = O, 2X + 2 Y - Z - 3 = O.
14. In ciascuno dei seguenti casi determinare equazioni cartesiane della retta ~ di A3 (R) passante per il punto Q e complanare con le rette t- ed .i--. Stabilire se ~ è incidente o parallela a .t- e a .i--: a) Q=(l, 1,2),
t-: X - Y - l = O,
+ l = O, 3X + 5Z - 7 = O
13. In ciascuno dei seguenti casi determinare equazioni cartesiane della retta t- di A3 (R) e incidente la retta .i--: passante per il punto Q, contenuta nel piano
b) Q=(-l, -l, -l),
t-: 3X - Y - Z + l = O, X - 5 Y + V2Z -7000 = O.
a) Q = (1, - l, - 2),
.i--: 2X + Y - 2Z + 6 = O,
12. In ciascuno dei seguenti casi determinare un'equazione cartesiana del piano di A3 (R) contenente il punto Q e la retta t-:
e) Q = (1, l, O), v = (1, l, -l).
b) 3X + Z - l
Z - 2 = O,
ft
a) Q=(1, l, O), v=(2, -l, V2)
X - i Y = O,
e) t-: X + l = O,
11. In ciascuno dei seguenti casi determinare la posizione reciproca della retta t- e del piano di A 3 (R) e, se sono incidenti, determinare il loro punto di intersezione:
2X + Z = O
6. In ciascuno dei seguenti casi determinare equazioni parametriche e cartesiane della retta di A 3 (R) passante per il punto Q e parallela al vettore v:
a)
.J-: 2X - Y + 3 Z = O, 2X + Y - 3 = O
d) t-: 2X + Z - l =0, Y - Z + l = O,
appartengono o no a uno stesso fascio:
t-:3X-5Y+Z+1=0,2X-3Z+9=0,
.i--: X + 5 Y - 3 = O, 2X + 2 Y -7 Z +7 = O
b) Q = (O, l, 3),
t-: X + Y + 5 = O, X - Y + 2Z = O, .i--: 2X + 2 Y - l = O, X - Y + 2Z -1 = O
b) Q =(2, O, - 2), t-: - X + 3 Y - 2 = O, X + Y + Z + l = O, .i--: x = 2 - t, Y = 3 + 5 t, Z = - t
c) Q = (3, 3, 3),
t-: X - 2 Y + l = O, .i--: 2X + 2Z - l = O,
c) Q=(l, -l, -l), .i--: Y= 2, Z= 1.
X + Z + l = O, X - 2 Y + l = O.
t-:2X+Y+1=0, -2X+3Y+Z=0,
132
Geometria affine
15. In ciascuno dei seguenti casi determinare il valore del parametro reale k per cui le rette t- ed .I- di A3 (R) sono complanari. Determinare un'equazione cartesiana del piano che le contiene e trovarne il punto comune nel caso siano incidenti: a) t-:x=k+l,y=I+21,Z= -I+kl,
.I-:x=2-21,y=3+31,z=l-l
b) t-: x = 3 - l, Y = I + 21, Z = k + l,
.1-: x = I + l, Y = I + 21, Z = I + 3 l
c) t-: X - k Y
+ Z + I = 0, Y - k = 0,
.1-: X - Z + k = 0, Y = l.
16. In A3 (R) determinare un'equazione cartesiana del piano comune ai due piani di equazioni X+Y=3,
Iv
contenente la retta
Il/Applicazioni lineari
133
Un'applicazione lineare F: V ~ K prende il nome di funzionale lineare su V. Se G: U ~ V ed F: V ~ W sono applicazioni lineari, la composizione Fo G: U ~ W è un'applicazione lineare. La verifica è immediata ed è lasciata al lettore. Diremo che un'applicazione lineareP: V~ W è un isomorfismo se è un'applicazione biunivoca. L'applicazione inversa F- I : W ~ V è anch'essa lineare e quindi è un isomorfismo. Siano infatti w, w'EW, e v=F-I(w), v' =F-I(w'). Si ha F-1(w + w') = F-I(F(v) + F(v'» = F-1(F(v + v'» = =v+v' =F-1(w)+F-I(w').
2Y+3Z=4
Analogamente, se cE K,
e parallelo al vettore v = (3, -I, 2).
11 Applicazioni lineari Un isomorfismo di uno spazio V in sé stesso è un automorfismo di V. Nel seguito Hom(V, W) denoterà l'insieme di tutte le applicazioni lineari di V in W, End (V) l'insieme di tutti gli operatori lineari su V, e VV l'insieme di tutti i funzionali lineari su V. Denoteremo poi con GL(V) il sottoinsieme di End(V) costituito dagli automorfismi. Hom(V,W) : applicazioni lineari
Siano V e W due K-spazi vettoriali. Un'applicazione F:V~W
si dice lineare se per ogni v, v' EV e c EK si ha
F(v + v') F(cv)
=
F(v) + F(v')
= cF(v).
[11.1] [11.2]
Le due condizioni [11.1] e [11.2] sono equivalenti all'unica condizione
F(cv + c' v')
=
cF(v) + c' F(v')
[11.3]
per ogni v, v'EVe c, c'EK. Infatti la [11.3] si traduce nella [11.1] prendendo c = c' = 1 e nella [11.2] prendendo c' = O; viceversa, se F soddisfa le [11.1] e [11.2], allora
F(cv + c' v') = F(cv) + F(c' v') = cF(v) + c' F(v'), dove laprima uguaglianza segue dalla [11.1] e la seconda dalla [11.2]. Applicando ripetutamente la [11.3] si deduce che, se F è lineare, per ogni VI' vz, ... , vnEV e CI' cz, ... , cnEK si ha [11.4]
Si osservi che la [11.2], applicata a c = O e v EV qualsiasi, implica che se F è lineare
Il.1 Esempi
1. Per ogni V e W l'applicazione nulla
o:
End(V) : operatori lineari V^ : funzionali lineari - Spazio duale V ~ W, definita da
O(v) = OEW
per ogni v EV, è un' applicazione lineare. In ogni spazio vettoriale V l'identità Iv, cioè l'applicazione che manda ogni vettore in sé stesso, è un automorfismo. Se F, GE GL(V), allora anche p-I e po G appartengono a GL(V). Se cE K, l'applicazione cIv definita da (cIv) (v) = cv è lineare. Se c = O, allora OI v = O. Se c ~ O, allora c1 v è un automorfismo il cui inverso è c -Il v. Se dim(V) = 1 gli unici operatori lineari su V sono quelli della forma c1 v' Sia infatti FEEnd(V) ed eEV, e ~ O; poiché [e} è una base di V, si ha F(e) = ce per qualche cE K, e quindi per ogni v = xeEV:
F(v) = F(xe) = xF(e) =x(ce) = c(xe) = cv.
F(O) = O.
Un'applicazione lineare F: V ~ V è detta operatore lineare su V, oppure endomorfismo di V.
2. Sia e = [e j , ez, ... , en} una base del K-spazio vettoriale V, e
134
Geometria affine
l'applicazione definita da cp.(xle l + ... + xnen) =
(Xl' ••• ,
x n),
cioè l'applicazione che associa ad ogni vettore v = Xl e l + ... + xnen EV la n-upla (XI' ••. , x n ) delle sue coordinate rispetto alla base e. CP. è un isomoiflSmo. Infatti, per ogni cEK, v=xle l + ... +xnem v' =Ylel + ... ... + YnenEV, si ha CP.(v + v') = CP.«xl + Yl) e! + = (Xl' ••• , X n) + (Yl' CP.(CV) =
(CX!, ••• , CXn )
=
+ (xn + Yn) en) = (Xl + Yl' ... , x n + Yn) = , Yn) = CP.(V) + CP.(V')
C(X I , ••• , X n )
= CCP.(v),
e quindi CP. è lineare. Inoltre, per le proprietà delle coordinate di un vettore rispetto a una base, CP. è biunivoca. CP. è l'isomorfismo definito dalla base e. Se ad esempio V = Kn, ed e è la base canonica, allora CP. è l'identità di Kn in sé stesso. 3. Sia V un K-spazio vettoriale e siano U, W due sottospazi supplementari in V, cioè sia
V = U(ElW.
Il/Applicazioni lineari
135
lelo a z" la proiezione di V su W nella direzione (u) è l'applicazione illustrata dalla figura Il.1. In modo simile, fissato un piano 1t nello spazio ordinario ~, detti V e W gli spazi dei vettori geometrici di ~ e di 1t rispettivamente, e fissato u EV\W, si descrive la proiezione p di V su W nella direzione (u) (fig. 11.2). Le proiezioni qui descritte per i vettori del piano e dello spazio ordinari sono basate sullo stesso principio geometrico con il quale abbiamo definito le proiezioni di uno spazio affine su un suo sottospazio alla fine del paragrafo 8. 4. Siano V uno spazio vettoriale su K ed e = (e l , ogni i = 1, ... , n definiamo
••. ,
11i: V -+ K ponendo 11i(C l e l +
'" + cneJ =
Ci'
cioè associando ad ogni vettore la sua i-esima coordinata rispetto a e. È facile verificare che 11i è un funzionale lineare su V. Infatti, presi comunque
[11.5]
Poiché ogni v EV si esprime in modo unico come v = u + w, u EU, w EW, possiamo definire l'applicazione p: V-+W
v
ponendo
p(u + w)
=
w.
p è la proiezione di V su W definita dalla decomposizione [11.5]. p è un'applicazione lineare. Infatti, se v = u + w, v' = n' + w' EV, C, c'E K, allora: p(cv + c'v') = p(cn + cw + c'n' + c'w') = p(cu + c'n' + cw + c'w') = = cw + c'w' = cp(v) + c'p(v').
Figura 11.1
Se in particolare W è un iperpiano, allora U = (n) per qualche u EV " W, e in questo caso p è detta proiezione di V su W nella direzione (n). Se (e l , ... , enl è una base di V e 1 :5 k < n, la proiezione di V su (e k + l , ... , en) definita dalla decomposizione V = (e u ... , ek ) (El (ehi' ... , en ) è:
Se 1t è il piano ordinario, z, una sua retta, V e W sono gli R-spazi vettoriali dei vettori geometrici di 1t e di z, rispettivamente, e u EV\W è un vettore non paral-
enl una sua base. Per
1t
Figura 11.2
Geometria affine
136
in V e k, k' E K, si ha 'Y/;(kv + k'v')
'Y/;«kc, + k' d,) e, + ... + (kcn+ k' d n) en) = kc; + k' d; = = k'Y/;(v) + k''Y/;(v'). =
5. Siano V uno spazio vettoriale su K e V, W sottospazi supplementari in V. Definiamo un'applicazione p: V --+ V
+ w) =
D - W
per ogni v = D + WEV, DEV, wEW. Si verifica subito che p è un operatore lineare che ha le seguenti proprietà: p(D) = D
per ogni DEV,
pop =l v '
La seconda proprietà implica che p è invertibile, e quindi p E GL (V). Se e = (e" ... , en l è una base di V e 1 :5 k < n,
6. Sia V uno spazio vettoriale su K, V un suo sottospazio, e consideriamo lo spazio vettoriale quoziente VIV. L'applicazione p: V--+ VIV
definita da
C,Wl
Wn
sono linearmente dipendenti.
11.3 TEOREMA Siano V e W due K-spazi vettoriali, e = (e" e2 , ••• , enl una base di V, e w,, W 2 , ... , wn vettori arbitrari di W. Esis.te un'unica applicazione lineare F: V --+ W tale che
= W;, i =1,
F(e)
2, ... , n.
Dimostrazione Se F esiste è unica, perché per ogni
si deve avere, per la [11.4]: =
xIF(e,) + ... + xnF(en) = xlw, + X2W2 + .. , + xnwn
[11.6]
e i coefficienti Xl' X2, ... , Xn sono univocamente determinati perché e è una base. Sarà pertanto sufficiente dimostrare che l'applicazione F definita dalla [11.6] è lineare. Verifichiamo la condizione [11.1]. Se v
=
X, e l + x 2e2 +
+ xnen + ynen
v' =Y,e, + Y2e2 +
sono elementi di V, si ha F(v + v')
= (x, + YI)W 1 + (x2 + Y2)W 2 + ... + (xn + Yn)w n = =(X,W I +X2W2 + ... +xnwn)+(Y1W'+Y2W2+ .. +YnWn) = = F(v) + F(v'). 0
è lineare. Essa è chiamata proiezione naturale di V su VIV. Lasciamo al lettore il compito di verificare che p è lineare.
Il.2 PROPOSIZIONE Siano F: V --+ W un 'applicazione lineare di K-spazi vettoriali, VI' ... , VnEV e W; = F(v), i = 1, ... , n. Se v" ... , vn sono linearmente dipendenti, anche Wl' ... , Wn sono linearmente dipendenti. Equivalentemente, se w,, ... , wn sono linearmente indipendenti, anche v,, ... ,vn sono linearmente indipendenti.
K scalari non tutti
+ ... + CnWn = c,F(v,) + ... + cnF(vn) =F(clv, + ... + cnv n) =F(O) =0,
p(v) =v+ V
7. Sia V un sottospazio del K-spazio vettoriale V. L'inclusione i di V in Vè un'applicazione lineare. La verifica è Ìmmediata.
CnE
Allora si ha
F(v)
allora
137
Dimostrazione Dimostriamo la prima affermazione. Siano Cl' ... , uguali a O tali che
e quindi w,, ... ,
ponendo p(D
Il/Applicazioni lineari
F(cv)
=
CX1W, + CX2W2 + + x 2w2 +
= C (x, w,
+ cxnwn = + x nw n) = cF(v).
Quindi F è lineare. Il.4 DEFINIZIONE Il nucleo di F è N(F)
=
Sia F: V --+ W un 'applicazione lineare di K-spazi vettoriali.
(vEV: F(v)
= O},
Geometria affine
.138
cioè N (F) è il sottoinsieme di V costituito da tutti i vettori che vengono mandati in OEW da F. L'immagine di F è il sottoinsieme di W
Il/Applicazioni lineari
Ogni vettore w E1m (F) è della forma w=F(aID I + '" +asDs + bs+lvS +1 + ... + bnvn) = = aIF(D I) + ... + asF(Ds) + b~+IF(vs+I) + ... + bnF(vn) = = bs+IF(vs+ I) + .. , + bnF(vn),
Im(F) = (w=F(v): vEVI. N (F) e 1m (F) sono sottospazi vettoriali di Vedi W rispettivamente (la verifica di questo fatto è lasciata al lettore). Se hanno dimensione finita, la dimensione di 1m (F) si dice rango di F, e si denota con r(F), la dimensione di N(F) si dice nullità di F.
Dalla [11.4] segue che se (el' e2 ,
••• ,
Il.5 PROPOSIZIONE Un'applicazione lineare F: V -+ W di K-spazi vettoriali è iniettiva se e solo se N(F) = (O).
F(v)
e quindi cs+IVs+I + ... + cnvnEN(F). Poiché stono dI' ... , dsE K tali che
(DI' ••• ,
osI
è una base di N(F), esi-
= (O).
Ma 01' ••• , D s' vs + l , ••• , vn sono linearmente indipendenti, e quindi tutti i coefficienti sono nulli; in particolare
allora
cs + l = ... =
= F(v) - F(v / ) = O
e quindi v - v' EN (F). Poiché Oè l'unico elemento di N (F), si ha v - v'· = O, cioè v = v' . Quindi F è iniettiva. Abbiamo il seguente importante teorema. Il.6 TEOREMA Sia F: V -+ W un'applicazione lineare di K-spazi vettoriali, con dim(V) = n. Allora N(F) e Im(F) hanno dimensione finita, e dim[N(F)] + r(F)
cs+IF(vs+ l ) + ... + cnF(vn) = O.
cioè tali che
= F(v / ),
F(v - v')
per opportuni scalari al' a2 , ••• as' bs+l ' ••• , b n. Quindi F(vs+ I), ... , F(v n) generano 1m (F). Supponiamo che cs+l , ••• , cnE K siano tali che
Allora
enl è una base di V, allora
Dimostrazione Se F è iniettiva, allora O è l'unico elemento di N(F), e quindi N(F) Viceversa, supponiamo che N (F) = (O). Se v, v' EV sono tali che
139
= n.
dim[N(F)] + dim[Im(F)] = n
Dimostrazione Poiché V ha dimensione finita, anche N (F), che è un sottospazio di V, ha dimensione finita; sia s = dim(N(F». Fissiamo una base (DI' ••• , osI di N(F), e siano vs + l , ••• , VnEV tali che (DI' ••• , Ds , Vs + l , ••• , vnl sia una base di V. Per completare la dimostrazione del teorema sarà sufficiente dimostrare che (F(vs+ I), ... ... , F(v n) l è una base di Im(F).
ed F(vs+ l ),
••• ,
Cn
= O
F(v n) sono linearmente indipendenti.
Si noti che nell'enunciato del teorema precedente non si è supposto che W abbia dimensione finita. Si ha il seguente Il.7 COROLLARIO sione finita, allora
Se V è un sottospazio del K-spazio vettoriale V di dimen-
dim (VIV) = dim (V) - dim (V).
[11.7]
Dimostrazione La proiezione naturale p: V -+ VIV è suriettiva e ha nucleo uguale a V.
Il corollario seguente fornisce una semplice caratterizzazione degli isomorfismi, e segue immediatamente dal teorema Il.6. La sua dimostrazione viene lasciata al lettore.
140
Geometria affine
Il.8 COROLLARIO Se V e W sono K-spazi vettoriali di dimensione finita tali che dim(V) = dim(W), ed F: V -> W è un'applicazione lineare, allora le seguenti condizioni sono equivalenti:
F I: V IN (F) -> 1m (F)
tale che [11.8]
dove p: V -> VIN (F) è la proiezione naturale e i: 1m (F) -> W è l'inclusione. Dimostrazione Siano VI' vzEV. Si ha F(v l ) = F(v z) se e solo se F(v z - VI) = O, cioè se e solo se Vz - VI EN (F), ovvero vzE [VI + N(F)]
dim(W)
+ N(F»
= r(F) = dim(V).
= Wi,
i = 1, ... , n,
F ' è biunivoca perché, oltre ad essere ovviamente suriettiva, è anche iniettiva per la [11.9]. La verifica della linearità di F' e della [11.8] è lasciata al lettore.
Il.10 DEFINIZIONE Siano V e W due K-spazi vettoriali. V e W si dicono isomorfi, oppure si dice che V è isomorfo a W, se esiste un isomorfismo V -> W.
O,
Spazio Duale
(LI
+ L z) (V) = LI (v) + L z(v)
Definizione
per ogni
VEV.
Verifichiamo che LI + L z è lineare. Per ogni v, v' EV, c EK si ha (LI
[11.9]
= F(v).
=
Terminiamo questo paragrafo con la descrizione di alcune proprietà dell'insieme dei funzionali lineari su uno spazio vettoriale. Sia V un K-spazio vettoriale. È possibile introdurre in VV, l'insieme dei funzionali lineari su V, una struttura di K-spazio vettoriale definendo le operazioni nel modo seguente. Se Lp L z EVV, definiamo LI + L z EVV ponendo
Possiamo quindi definire F ' : VIN (F) -> 1m (F) ponendo F ' (v
per il teorema Il.6 si ha
è suriettiva perché Wl' ••• , W n generano W. Per il teorema 11.6, dim(N(F» e quindi F è anche iniettiva. Dunque F è un isomorfismo.
Il.9 TEOREMA (DI OMOMORFISMO PER GLI SPAZI VETTORIALI) Sia F: V -> W un'applicazione lineare di K-spazi vettoriali. F definisce un isomorfismo
= F(v z) #
= (O),
F(v)
Abbiamo il seguente teorema.
F(v l )
N(F)
141
Viceversa supponiamo dim(V) = n ~dirn(W), e siano {VI' ... , Vn} e {Wl' •.• , w n } basi di Vedi W rispettivamente. L'applicazione lineare F: V -> W definita da
1) N(F) = (O); 2) Im(F) = W; 3) F è un isomorfismo.
F= ioF' 0p,
Il/Applicazioni lineari
(LI
+ L z) (v + v') = LI(v + v') + Lz(v + v') = / = LI (v) + LI (v') + Lz(v) + LZ(v ) = / = LI (v) + Lz(v) + LI (v') + LZ(v ) = = (LI + Lz) (v) + (LI + L z) (v'). + Lz)(cv) = LI (cv) + Lz(cv) = cL I (v) + cLz(v) = = c(L I (v) + Lz(v» = = c(L I + L z) (v),
e quindi LI + L z è lineare. Se L EVV e cE K, definiamo cL EVV ponendo (cL) (v) = cL(v).
Ogni spazio vettoriale è isomorfo a se stesso, perché Iv è un isomorfismo. Se V è isomorfo a W, anche W è isomorfo a V, perché l'inverso di un isomorfismo è un isomorfismo. Infine, poiché la composizione di isomorfismi è un isomorfismo, se V è isomorfo a W e W è isomorfo a D, allora V è isomorfo a D. Quindi l'isomorfismo è una relazione di equivalenza tra spazi vettoriali.
La verifica della linearità di cL è lasciata al lettore. Il funzionale nullo OEVV, definito da O(v)
=
O
per ogni
VEV,
soddisfa evidentemente Il.11 TEOREMA Due K-spazi vettoriali di dimensione finita sono isomorfi se e solo se hanno la stessa dimensione.
Dimostrazione Supponiamo V e W isomorfi, e sia F: V -> W un isomorfismo. Poiché
L + O= L
per ogni
L EVV .
Lasciamo al lettore la facile verifica del fatto che VV, con le operazioni che abbiamo definito, è un K-spazio vettoriale. VV si chiama spazio vettoriale duale di V.
Geometria affine
142
Il (Applicazioni lineari
143
Supponiamo che V abbia dimensione finita, e sia e = {e l , ••• , en } una sua base. Sia 1:5 i:s n. Per il teorema Il.3 esiste un unico 11iEVv tale che [11.10] dove se i ':jé.j se i =j è il simbolo di Kronecker. Otteniamo così n funzionali lineari 111' ... , 11m che sono gli stessi considerati nell'esempio 11.1(4).
vedi pag.135
Il.12 TEOREMA Sia V un K-spazio vettoriale di dimensione finita, e sia {el' ... , enl una sua base. L'insieme {111' ... , l1n} dei funzionali lineari definiti dalla [11.10] è una base di r; in particolare
Base duale
dim(VV) = dim(V) e quindi V e VV sono isomorfi.
...
Dimostrazione v Sia LEV e al = L (e l), a2 = L (ez), ... , an = L (eJ. Il funzionale a l l1l + anl1n soddisfa l'identità (al 111
+ a2112 + ...
+ ... + anl1n)(e) = (al 111)(e) + + (ail1i)(e) + ... + (anl1n)(e) = = a l 111 (e) + + ail1i(e) + ... + anl1n(e) = = ail1i(e)
= ai'
i = 1, ... , n
e quindi a l l1l + a2112 + ... + anl1n ha gli stessi valori di L sulla base {el' ... , en }. Dal teorema 11.3 discende che al 111
+ a2112 + ... + anl1n = L.
Quindi 111' ... , l1n generano VV. Supponiamo ora che al' ..., anEK siano tali che
L(xe l +
... +xnen) = (al 111 + ... + anl1n)(xle l + +xnen) = +xneJ + + (anl1n)(xl e l + '" + xne n) = = (al 111)(XI e l + = alx l + a2x 2 + + anxn,
perché l1i(XI e l + ... + xnen) = Xi' i = 1, ... , n. Quindi ogni funzionale lineare su V si esprime in modo unico come un polinomio omogeneo di primo grado nelle coordinate dei vettori rispetto alla base {e l , ... , en }. I coefficienti del polinomio sono le coordinate del funzionale rispetto alla base duale {111' ... , l1n}' In particolare, se V = Kn, e {El' ... , E n } è la base canonica, ogni funzionale lineare L su Kn si esprime in modo unico come un polinomio omogeneo di primo grado: [11.11] Si osservi che se il funzionale L: V ~ K non è nullo, la sua immagine è un sottospazio vettoriale diK diverso da (O), e quindi 1m (L) = K; da ciò e dal teorema 11.6 segue che dim [N (L)] = n -1.
Il.13 PROPOSIZIONE Siano V un K-spazio vettoriale ed f, g EVV tali che si abbia f(v) = O per ogni vE N (g), cioè N(f):::> N(g). Al/ora esiste cE K tale che f=cg. Dimostrazione Se g = O, allora N (g) = V e quindi N(f) = V, cioèf= O = g. Supponiamo viceversa g ':jé. O. In tal caso N (g) è un iperpiano. Fissiamo e EV\N (g), e sia cE K tale chef(e) = cg(e). Si ha V = (e) ED N(g) e quindi ogni vEV è della forma v = xe + w, per qualche wE N (g) e xE K. Pertanto f(v) = f(xe + w) = f(xe) + f(w) = xf(e) = xcg(e) = cg(xe) = = cg(xe) + cO = cg(xe) + cg(w) = cg(xe + w) = cg(v), cioèf= cg.
Allora, per ogni i = 1, ... , n:
0= O(e) = (al 111 + ... + anl1n)(e) = al 111 (ei ) + ... + a nl1n(e) = = ai l1i(e)
= ai'
Quindi al = .. , = an = O, e pertanto 111' ... , l1n sono anche linearmente indipendenti. L'insieme di funzionali lineari {111' ... , l1n} è la base duale della base {el, ...
... , en } di V.
Dati due K-spazi vettoriali V e W, è possibile introdurre in Hom(V, W) una struttura di K-spazio vettoriale definendo F + G e cF, per ogni F, G EHorn (V, W), c EK, nel modo seguente: (F + G) (v) = F(v)
+ G(v)
(cF) (v) = cF(v)
per ogni vEV.
Lasciamo al lettore il compito di verificare, in modo simile al caso di VV = Hom(V, K), che queste due operazioni definiscono su Hom(V, W) una struttura di K-spazio vettoriale, in cui lo zero è l'applicazione nulla O•
Nel caso particolare Y = K, lo spazio Hom(K, W) è isomorfo a W: un isomorfismo A: W ~ Horn (K, W) è definito associando a w EW l'applicazione lineare A(W): K ~ W tale che A(W) (1) = w; lasciamo al lettore la verifica del fatto che A è un isomorfisrno. A si chiama isomorfismo canonico di W su Hom(K, W), perché è individuato univocamente da W.
145
Il/Applicazioni lineari
Geometria affine
144
v
per ogni LEY Siano VZ' ••• , vnEY tali che (v, vz, ••• , vnl sia una base di Y. II funzionale L Ey definito da •
v
L(v) = 1,
L(v) = O,
i = 2, ... ,n,
dà una contraddizione. v
11.14 Complementi
2. Sia Y un K-spazio vettoriale, dim(Y) = n. Se L Ey i vettori del nucleo di L, cioè i v EY tali che L (v) = O, si dicono talvolta ortogonali a L. Se cI> è un sottoinsieme di y un vettore v EY si dirà ortogonale a cI> se v è ortogonale ad ogni L EcI> , cioè se L (v) = O per ogni L EcI>. L'insieme ,
1. Sia Y un K-spazio vettoriale. II duale di y si chiama spazio biduale di Y, e si denota con y dal teorema 11.12 che
v
v
, vv •
cioè lo spazio Horn (y , K), Se dim(Y) = n, allora segue
v
,
cI>.L
=
(VEY:v è ortogonale a cI> l
=
n LE'l' N (L) cV
v
e i tre spazi Y, y , y vv sono tra loro isomorfi. Se si sceglie una base {e l , ... , enl di Y, resta definita la base duale {1I1' , lInl v v di y , e un isomorfismo cp:Y ~ y è definito ponendo cp(e;} = 11;, i = 1, , n. L'isomorfismo cp dipende dalla base assegnata, cioè se si sceglie un'altra base di Y, si ottiene un isomorfismo diverso da cp (cfr. esercizio 6). Per lo spazio y si ha una situazione diversa: è infat.ti possibile definire un vv isomorfismo {3: Y ~ y in modo del tutto intrinseco, cioè indipendente da qualunque scelta ulteriore, il quale per questo motivo si dice l'isomorfismo canonico di Y su yvv. {3 è l'applicazione che ad ogni v EY associa il funzionale {3 (v) : y ~ K definito nel modo seguente:
è un sottospazio vettoriale perché èl'intersezione di una famiglia di sottospazi vettoriali di Y. Chiameremo cI>.L il sottospazio di Y ortogonale a cI>. Supponiamo in particolare che cI> sia un sottospazio vettoriale di y Sia dim(cI» = t e (LI' ... , Ltl una base di cI>. Allora si ha v
•
[11.12]
vv
e dim(cI>.L)
=
n-t.
v
(3(v)(L)
Infatti, se vEN(L 1) si ha
= L (v)
L (v) = aIL1(v)
v
per ogni LEY Verifichiamo che (3(v) è lineare: (3(v) (cL + c' L') = (cL + c' L') (v) = (cL) (v) + (c' L') (v) = = cL (v) + c' L'(v) = c{3(v) (L) + c'{3(v) (L'), vv
= L(cv + c'v') = cL (v) + c' L(v') c{3(v) (L) + c' (3(v') (L) [c{3(v) + c' (3(v')] (L) =:;
=
=:;
v
,
O
O LI(e m + l )
O
O
VV
).
vv
•
=:;
+ atLt(v) =
alLI + azL z + ... + atLt
O
definita da cp(v) = (LI(v), Liv), ... , Lt(v)). Dal teorema 11.6 segue che m ~ n-t. Supponiamo per assurdo che sia m > n - t. Scegliamo una base {e l , ... , enl di Y tale che (e p ••• , em l sia una base di cI>.L. La matrice t x n:
per ogni LEY e quindi (3(cv + c'v') =:; c{3(v) + c'{3(v'), cioè {3 è lineare. Per dimostrare che {3 è un isomorfismo è sufficiente far vedere che N ((3) =:; (O), Supponiamo per assurdo che esista VEY, v ~ O, tale perché dim(Y) =:; dim(Y Allora si ha che (3(v) =:; OE y (3(v) (L)
+ azLiv) +
=
cp:Y~Kt
v
per ogni L, L'E y , c, c'E K, e quindi (3(v) è un funzionale lineare su y • Verifichiamo ora che {3: Y ~ y è lineare. Per ogni v, v' EY, c, c'E K, si ha (3(cv + c'v') (L)
n .. , n N (Lt) , allora per ogni L
cioè v EN (L). Pertanto N (LI) n n N (L t) c cI>.L. L'inclusione opposta è ovviamente vera, e la [11.12] segue. Sia m = dim(cI>.L). Osserviamo che cI>.L coincide con il nucleo dell'applicazione lineare
•
v
[11.13]
O
L (v) = O
lO
Lz(em + l)
146
Geometria affine
ha rango non superiore a t -1, perché ha m > n - t colonne nulle. D'altra parte le sue t righe sono linearmente indipendenti, perché sono i vettori delle coordinate di Li' ... , L( rispetto alla base {'l] l ' .•• , 'l] n}, duale di {e l , ••• , enl. Abbiamo una contraddizione, e quindi dev'essere m = n-t.
6. Sia V un K-spazio vettoriale tale che dim (V) = 1, e sia e EV\ {O J. Sia 17 EV~ il funzionale duale di e, cioè il funzionale definito dalla condizione 17(e) = 1.
Dimostrare che per ogni aE K*:
3. Siano dati due spazi vettoriali complessi V, W. Un'applicazione
I
a) il funzionale lineare duale di ae è t = a- 17;
F: V-+W
b) se cp, if; : V --+ V' sono gli isomorfismi definiti rispettivamente da cp(e) = 17, if;(ae) = t, allora if; = a- 2 cp.
si dice antilineare se soddisfa le seguenti condizioni:
F(v + v') F(cv)
=
= F(v) + F(v'),
[11.14]
cF(v),
12 Applicazioni lineari e matrici. Cambiamenti di coordinate affini
[11.15]
per ogni v, v'EV, cECo Una condizione equivalente alle [11.14], [11.15] è la seguente:
F(cv + c'v')
147
I2/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
= cF(v) + c' F(v')
per ogni v, v'EV, c, c'ECo La verifica dell'equivalenza è lasciata al lettore.
Siano V e W due K-spazi vettoriali di dimensione finita, e v = {v l'
••• , Vn
l e
w = {Wl' ... , wml basi di Vedi W rispettivamente.
Sia F: V -+ W un'applicazione lineare. La matrice m x n la cuij-esima colonna, j = 1, ... , n, è costituita dalle coordinate del vettore F(vj ) EW rispetto alla base w è la matrice associata a F rispetto alle basi v e w, e si denota con M w,y(F). Esplicitamente:
Esercizi 1. Siano g: U --+ V, f: V --+ W applicazioni lineari. Dimostrare che N(g) C N(fog)
1m (f) ::) Im(fog).
dove
2. Dimostrare che, se F: V --+ W è un'applicazione lineare tale che N (F) = (O), e VI> ••• ... , vnEV sono vettori linearmente indipendenti, allora F(VI)' ... , F(v n) sono linearmente indipendenti. 3. Sia HC R3 il piano di equazione XI + X 2 - X 3 = 0, e sia u = (O, 1, 1). Dopo aver verificato che R 3 = H(f; (u), trovare l'espressione analitica della proiezione p : R 3 --+ H nella direzione (u).
F(v)
= mljw 1 + mZjwZ+ ... + mmjwm·
Ovviamente M w • JF) dipende, oltre che da F, anche dalle basi ve W. L'utilità della matrice Mw,y(F) sta nel fatto che, una volta assegnatele due basi ve w, da essa si può risalire all'applicazione lineare F, come chiarito dalla seguente proposizione.
4. Sia W il sottospazio di R 4 di equazioni cartesiane 2Xj
+ X 3 = 0,
-X2
-
3X4 = 0,
e sia U = «(1, 0, 0, O), (O, 1,0, O). Dopo aver verificato che R = U (f; W, trovare l'espressione analitica della proiezione p : R 3 --+W definita dalla precedente decomposizione di R 4 in somma diretta. 4
5. Esprimendo i funzionali lineari su R 3 come polinomi omogenei in XI> X 2 , X 3 a coefficienti reali, determinare le basi di (R 3)" duali di ognuna delle seguenti basi di R 3 : a) {(l,O, O), (0,1, O), (O, 0, l)J
c) {(l, -1, O), (O, 1, 1), (1, O, 2) J
d) {(l, O, O), (1,1, O), (1,1, l)J.
12.1 PROPOSIZIONE Siano V e W due K-spazi vettoriali, v = [vi' ... , vnl e w = {Wl' ... , wml basi di Vedi W rispettivamente, e F:V -+ W un'applicazione lineare. Perogniv=xlv l + ... +XnvnEV si ha
dove
148
Geometria affine
Dimostrazione Si ha:
I2/Applicazioni lineari e matricio Cambiamenti di coordinate affini
149
Sia A EMm,n(K) e definiamo FA:V~W
F(v) = F(x i VI + X2V 2 + ... + XnV n) = xIF(v l ) + x 2F(vJ + ... + xnF(vn) = =xI(mljw l +m 2I w2 + "0 + mmlWm) + + X2(m 12 W I + m 22 w 2 + ... + mm2Wm) + ... + xn(mlnW I + 2n W2 + .0. + mmnWm) = n n n = ( .1: mljx) Wl + ( .1: m 2j x) W 2 + '00 + ( .1: mmjx) Wm. "0
m
J~I
J~l
J~l
Quindi il vettore colonna delle coordinate di F(v) è
ponendo FA(x l VI + x 2V2 + ... + x nvn) = (A (I) x) Wl + (A (2) X) W 2 + ... + (A (m) X) Wm,
dove abbiamo denotato con x = t (XI'" x n) e A (I), A (2), ••• , A (m) le righe di A. In altre parole, il vettore colonna delle coordinate di FA (v) è A x. Verifichiamo che FA è un'applicazione lineare. Consideriamo due vettori qualsiasi v = XI V l + ... + x n Vm V' = X; V I + ... + x~ vn di V. Si ha FA (v + v') = A (I)(x + x')w 1 + ... +A(m)(x + x')wm = = (A(I)x + A(I)x') Wl + ... + (A (m)x + A(m)x') Wm = = (A (I)x) Wl + ... + (A (m) x) Wm + (A (l)x') Wl + ... + (A (m) x') Wm =
n
X2
= FA(v)
+ FA(v').
Se c EK si ha inoltre Abbiamo il seguente teorema. 12.2 TEOREMA Siano V e W due K-spazi vettoriali, e siano v = {VI' e w = {Wj' wnl basi di Vedi W rispettivamente. L'applicazione
o •• ,
vnl
o •• ,
FA(cv) = (A (l)CX) Wl + .. , = c(A (l) x) Wl + = c [(A (I)x) Wl +
+ (A (m)cx) Wm = + c(A (m) x) W m = + (A (m) x) Wm] =
cFA(v).
Quindi FA è lineare. Per definizione si ha
M w,.: Hom(V, W)~Mm,n(K) F ...... Mw,.(F)
è un isomorjismo di K-spazi vettoriali. In particolare
dim[Hom(V, W)]
=
mn.
Dimostrazione Siano F, GEHom(V, W), M=Mw,.(F), N=Mw,.(G), e cEK. Se V = Xl VI + ... + x nV m denotiamo con x = t(xi ••• x n) l'n-vettore colonna delle coordinate di V rispetto alla base Vo Gli m-vettori colonna delle coordinate di F(v) e di G(v) rispetto a w sono rispettivamente Mx ed Nx, mentre il vettore colonna delle coordinate di (F + G) (v) = F(v) + G(v) è Mx + Nx = (M + N) x; quindi Mw,.(F+ G) = Mw,.(F)
+ Mw,.(G).
Inoltre l'm-vettore colonna delle coordinate di (cF) (v) = cF(v) è c(Mx) = (cM) x, e quindi Mw,.(cF) = cMw,.(F).
Pertanto M w ,. è un'applicazione lineare.
D'altra parte, se A l'applicazione
= Mw,.(F)
si ha evidentemente FA
= F.
In conclusione,
Mm,n(K) ~ Hom(V, W)
A ...... F A
è l'inversa di M w ,.' L'ultima affermazione del teorema segue dall'esempio 4.15(7).
L'applicazione FA introdotta nel corso della dimostrazione del teorema 12.2 si dice applicazione lineare associata alla matrice A rispetto alle basi v e w. Essa è definita, per ogni A EMm,n(K), ponendo FA (xlv j
+ ...
+xnvn)=YjW I + .. · +Ymwm'
dove y = Ax, essendo x = t(xi ... x n), y = t(yl ... Yn)' Si noti che M w ,. fa corrispondere all'applicazione lineare O la matrice nulla m x n. Dalla definizione segue inoltre che per ogni v EV il vettore FA(v) ha per coordinate polinomi omogenei di primo grado nelle coordinate di v.
150
Geometria affine
12.3 PROPOSIZIONE Siano U, V, W spazi vettoriali su K di dimensioni s, n ed m, e siano U = {UI, ... , usL v = {VI' ... , vnl e w = (Wl' ... , wml loro rispettive basi. Siano G: U -+ V ed F: V -+ W applicazioni lineari. Si ha
U
= Zl U I + ZzU z + '" + ZsusEU,
151
Supponiamo ora che lo spazio vettoriale V sia reale. Due basi e = {e l , ... , en l ed f= (f l , ... , fnl di V si dicono orientate concordemente se det(Me,f(ly)) > O, e si scrive e -J. Altrimenti le due basi si dicono orientate discordemente. Ogni base è orientata concordemente a. sé stessa perché Me.iIy) = In' Inoltre, poiché M f , e(ly), = Me f(ly) -I, il fatto che due basi siano orientate concordemente o discordemente non dipende dall'ordine in cui esse sono state prese. Infine, se eed f sono orientate concordemente, e così pure f e g = (gl' ... , gn l, allora anche e e g sono orientate concordemente. Infatti si ha
.
Dimostrazione Se
I2/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
siano
G(U)=XIVI +xzvz+ ... +xnvn
det(Me.g(ly))
= det(Me,f(ly) (Mf./Iy)) = det(Me,f(ly)) det(Mf.g(ly)) > O. -c è una relazione di equivalenza nell'insieme !J& di tutte le
Deduciamo che basi di V. Ogni classe di equivalenza si chiama orientazione di V. Quante sono le orientazioni di V? Certamente almeno due, perché se e = {e l , ... , en l è una base di V, esiste qualche base orientata discordemente da e, ad esempio la base f = ( - e l , ez, ... , en l. Infatti
x = M •. u(G) z y = Mw.• (F) x = Mw.•(F)[M•. u(G) z] = [Mw.•(F) M •. u(G)]z.
Se V = W e se v = {VI' ... , vnl e w = (Wl' ... , wnl sono due basi di V, ad ogni operatore lineare F su V è associata una matrice quadrata Mw.•(F)EMn(K). Se V = W, dalla proposizione 12.3 segue che FEGL(V) se e solo M•.•(F)EGLn(K), e in questo caso si ha
Inoltre M •.•(F) = In se e solo se F = Iy. Un caso particolare importante si ha prendendo due basi distinte v e w di V e F = Iy, l'applicazione identità. In questo caso M w• • (Iy) è detta matrice del cambiamento di coordinate dalla base v alla base w. Per definizione la colonnaj-esima di Mw.•(ly) è costituita dalle coordinate di Vj rispetto alla base w, per ogni j = 1, ... , n. Per ogni vettore V EV si ha
-1
O
O
O
O
O O
1
D'altra parte, le orientazioni non sono più di due: infatti se esistessero tre basi e, f e g orientate discordemente a due a due, si avrebbe l'assurdo O> det(Me./I y)) = det(Me.f(ly)) det(Mf./Iy)) > O.
Quindi V possiede due orientazioni, cioè !J& è ripartito in due classi di equivalenza rispetto a -c' L'orientazione cui una data base eE!J& appartiene è l'orien-
tazione di V definita da e. 12.4 Esempi y = M w• • (Iy) x.
Quindi la matrice M w•• (Iy) permette di ottenere le coordinate y di un vettore V rispetto alla base w una volta note le sue coordinate x rispetto alla base v. Si noti che, per la proposizione 12.3: M •. w(ly) Mw.•(ly) = M •.• (ly) = In
1. Se V = Kn, W = Km e v e w sono le basi canoniche di Kn e di Km rispettivamente, l'applicazione FA associata a una matrice A EMm.n(K) è data da
FA(x)=Ax
perognixEKn,
se gli elementi di Kn e diKm sono visti come vettori colonna. Poiché le colonne di A sono i vettori FA(E I ), FA(Ez), ••• , FA(En)' si ha Im(FA) = (FA(E I ), FA(Ez), ••• , FA(En)·
e quindi [12.1]
In particolare r(FA ) = r(A). Si noti che le coordinate del vettore A x sono m polinomi omogenei di primo
152
Geometria affine
grado in Xl' XZ' ... , Xw Viceversa, una qualunque applicazione lineare F: Kn -+ Km è della forma
I2/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
153
D'altra parte, poiché Im(FA) è generata dalle colonne di A, affinché bE 1m (FA)' cioè affinché il sistema [12.2] sia compatibile, è necessario e sufficiente che
r(A) = r(A b). in cui ognuno degli Fj(xI, XZ' ..• , x n) è un funzionale lineare su Kn: infatti Fj è uguale alla composizione
che è lineare. Ricordando la [11.11], vediamo che ognuno degli Fj(x l , Xz, ... , x n) è un polinomio omogeneo di primo grado in XI,XZ, ... , Xn. Quindi ogni applicazione lineare F: Kn -+ Km è definita da m polinomi omogenei di primo grado in XI' ... , x n' e la corrispondente matrice ha per prima, seconda, "0' m-esima riga i coefficienti di F I (XI' Xz, ... , Xn), FZ(x I, XZ' ... , Xn), ... ... , Fm(x l , XZ' ••. , x n)·
In questo modo abbiamo ottenuto una nuova dimostrazione del teorema di Kronecker-Rouché-Capelli. Sappiamo che, se è compatibile, il sistema [12.2] possiede oon-r soluzioni, dove r = r(A). Ciò può essere dimostrato anche osservando che il sistema [12.2] pos- . siede un'infinità di soluzioni uguale alla dimensione dello spazio delle soluzioni del sistema omogeneo associato AX=O,
e che tale spazio coincide con N(FA ). Per il teorema 11.6 abbiamo dim[N(FA)]
Ad esempio, alla matrice
=n -
r(F)
=n -
r.
3. Sia V uno spazio vettoriale reale di dimensione 3, e sia e = [CI' Cz, C3 J una base di V. Consideriamo le seguenti basi, i cui vettori assegniamo in coordinate rispetto a e: V=[v l (1, 1, O), vz(2, 1, 1), v3 (0, -2, I)J w= [w l (-I, 0,1), w z(1, -2, -3), w 3 (1, 1, I)J.
è associata l'applicazione lineare FA: R 3 -+ R Z così definita: FA (XI' XZ' X3)
= (XI + 2xz + -J"2x3,
Si ha
3xI + Xz - x/2).
2
Viceversa all'applicazione lineare F: R 4 -+ R 3 seguente: F(x l , Xz, X3 , X4) = (2x I - X3 + X4 , Xz - -/3x3
+ 3x4 /2, Xl - Xz + X 3 + 5 X 4 )
-:)
1
M.,. (t,) {
è associata la matrice 2
O
--/3
O 1
-1
-1
Similmente 3 2
1 Me,w(lv) =
5
C
O -2
1
2. Siano A EMm,n(K), b = t(b l ... b m) EKm, e consideriamo il sistema di m equazioni lineari in n incognite AX=b,
M.,lt,)
-3
i)
[12.2]
dove X = t(XI ... X n). Un vettore x = t(X I ... x n) EKn è una soluzione del sistema [12.2] se e solo se FA(x) = b, dove FA: Kn -+ Km è l'applicazione lineare associata ad A. Affinché un x E Kn siffatto esista è necessario e sufficiente che b E1m (FA)'
M w e(lv) = Me,w(lv)~1 =
-
1 2
-2
1 2
-1
1
-1
3 2 -
1 2 1
~
M.,.(t,)-'
~
-2
-4)
2 .
(-:
-1
-1
154
Geometria affine
Per calcolare Mw.v(lv) conviene utilizzare la proposizione 12.3. Si ha Mw,v(lv)
= Mw.e(lv) M e• v (1v) = -
1 2 1 2
-2 -1 -1
1
3 2 1 2
2
(;
1
1
-}
r !
3 2 1 -2
1 2 1 2
-Il
2 5 2
1
2
'Y'2
O
2
3
1
-1
1
--
1
3
O
1
2
O
O
5
-
1 1 2
M.j1v) =
Infine, per calcolare Mv.w(lv) possiamo utilizzare l'identità
e calcolare l'inversa" di Mw.v(lv)' oppure scrivere
si ottiene 2 'Y'2
1
3-2 _4) (-~
= -1
(
2
1
-1
-1
1) = (-7 19 -3)
O -2
1
3
1
1
-2
-3
-9
=
(I
2
3
-2
O
1
-1
3
2. O
6-1
4. Siano V e W spazi vettoriali reali, dim(V) = 4, dim(W) = 2, siano v = = [VI' V2, v3' v4 } e w= [Wl' w2 } basi di V e W rispettivamente, e sia F:V-+W l'applicazione lineare tale che
M.,.(F)
155
/2/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
=(:
:),
-1
~ ~)
4 -1 3
3 O
2
O O
5
1 --
1
-1
1
1
3
O
1
2
O O
5
6
1 2
1
2'Y'2
1
1
1
1
2
Siano
nuove basi di Vedi W rispettivamente, assegnate mediante le loro coordinate nelle basi ve w. Per la proposizione 12.3 si ha Mf.e(F)
=Mf.w(lw) Mw.v(F) M v.e(1v)'
Poiché M wf (1w)
.
=( 2 -3
~)
O
'Y'2+1
7
'Y'2-1
5. Nello spazio vettoriale M 2 (C) delle matrici 2 consideriamo le basi
e=[IIl=G p
:),l l2 =G
X
2 a coefficienti complessi
~),121=(~ :), 122 =G:)}
=[12, El =C ~), E2=(~
-i) O
,E
3
--
C ~JJ. O
156
Geometria affine
dove E" E z eE 3 sono le matrici di Pauli (cfr. esercizio 13, § 4). Poiché
I2/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
157
Come era prevedibile, la [12.3] dipende solo dalle basi e ed l e dai punti E ed F, le origini nei due riferimenti affini assegnati.
Nel caso in cui lo spazio A è uno spazio affine reale, due riferimenti affini Ee l ... en e Ff l ... f n si diranno orientati concordemente (orientati discordemente) se le basi e ed l sono orientate concordemente (orientate discordemente). Consideriamo l'insieme ~ di tutti i riferimenti affini di A, e in ~ diciamo equivalenti due riferimenti se sono orientati concordemente. Procedendo in modo simile al caso vettoriale, possiamo verificare che quella che abbiamo definito è effettivamente una relazione di equivalenza, e che le classi di equivalenza sono due. Esse si dicono le orientazioni di A. L'orientazione cui un dato riferimento Ee l ... enE ~ appartiene è l'odentazione di A ,definita daEe l ... en.
si ha:
12.5 Esempi
1. Se Ee l ... en è un riferimento affine dello spazio affine A e se un secondo riferimento affine assegnato è Fe l •.. en , cioè è ottenuto solo cambiando la posizione dell'origine e lasciando invariata la base dei vettori, la formula [12.3] si riduce alla seguente: y = x
+ e.
[12.4]
Se invece il secondo riferimento è Ef l ••• fn' cioè è ottenuto cambiando la base dei vettori, ma non l'origine, la formula [12.3] diventa In uno spazio affine A con spazio vettoriale associato V consideriamo due riferimenti affini, Ee l ... en e Ff l ••• fn' e un punto qualsiasi PE A. Sia x = t(xi ••• x n) il vettore colonna delle coordinate di P nel riferimento Ee l '" en e sia y = t(yl ••• Yn) quello delle coordinate di PE A rispetto a Ff j ••• fn' Si ha ---+
EP=xje j +
... +xnen FP = yjf 1 + :.. + Ynfn. --+
Supponiamo di conoscere x e di voler trovare y. Denotiamo con e = {e" ... , en J ed 1= (f l , ... , f n J le due basi di V, con A = (ai) = M i ,.(1v) e con e = t(c i ... cn ) il vettore delle coordinate di E rispetto a Ff l ••• fn' L'identità vettoriale ---+
---+
---+
FP=FE+EP,
[12.5]
Ogni cambiamento di riferimento affine si può ottenere come la composizione di uno del tipo [12.4] seguito da uno del tipo [12.5], o viceversa. La verifica è lasciata al lettore. 2. Siano Ee l .. , en, Ff l ... f n e Gg I gn tre riferimenti affini in A, e siano x = t(xi ... x n), y = t(YI ... Yn) e z = t(z[ zn) i vettori delle coordinate di un punto PE A rispetto ad ognuno dei riferimenti dati. Supponiamo che il passaggio dalle coordinate x alle y sia dato dalla [12.3] e che quello dalle y alle z sia dato dalla formula
z = By + d
[12.6]
con B = (bi)' ed = t(dl ... dn). Allora la formula che esprime il passaggio dalla x alle z si ottiene sostituendo la [12.3] nella [12.6], e quindi è
z = BA x + (d + Be).
espressa rispetto alla base l, ci dà y=Ax+e.
y=Ax.
[12.3]
La [12.3] è la formula del cambiamento di coordinate affini dal riferimento Ee l ... en al riferimento Ff l '" fn'
3. Con le notazioni della [12.3] la formula che esprime il passaggio dalle coordinate y alle x, cioè il passaggio inverso di quello dato dalla [12.3], è x
=
A
-I
Y- A
-I
e.
[12.7]
Geometria affine
158
12/Applicazioni lineari e matrici. Cambiamenti di coordinate affini
159
Infatti, sostituendo la [12.3] nel secondo membro della [12.7] si ottiene l'identità x = x. 17 2
4. Sia A uno spazio affine reale di dimensione 3, e sia V lo spazio vettoriale associato. Siano Ee l e2 e3 ed Ff l f 2 f 3 due riferimenti affini in A. Supponiamo che
13
2 e che F abbia coordinate (5, - 3/2, 1/2) nel riferimento Ee l e2 e3 • Per conoscere la formula di cambiamento di coordinate dal riferimento Ee l e2 e3 al riferimento Ff l f 2 f 3 occorre conoscere la matrice Mf,.(lv), nonché le coordinate Cl' C2, c 3 di E rispetto a Ff l f 2f 3. Si ha
-7 ovvero:
-1 O
e quindi Esercizi
-1)
2
1. Sia F: R 2 -+ R l l'applicazione lineare
O .
1
-1
F(XI, X2) = (Xl
1
+ X2,
Xl - 2X2' Xl)'
Determinare Mb', b(F), dove b' = {(l,l,l), (1, -2, O), (O, 0, l)}.
b= {(l,l), (O, -l)},
Per determinare calcolato. Si ha
(Cl' C 2 ,
c3) utilizziamo la matrice Mf,.(lv) che abbiamo appena
3 1)
2. Sia F: R
2
-+
l
R l'applicazione lineare
F(XI' X2) = ( -
2Xl
3 X2
3 Xl
+ --;- , -2- -
2X2
) ,2XI •
, ---'"+ "----+ ( clfl+C2f2+C3f3=FE=-EF=5el-"2e2+"2e3.
Determinare Mb'. b(F), dove b= {(l,l), (1, -l)},
Pertanto
b' = {(l,O, 1), (0,1,1), (2, -1, -l)}.
3. Sia F : Cl -+ C 2 l'applicazione lineare definita dalla matrice
-5 2
(:}M"(1Vl
3 2 1 -2
C
= -1
1
1
-1
-~)
-5 3 2 1 -2
-
17 2
13
-
2
-7
In conclusione, la formula del cambiamento di coordinate dal riferimento
A=(2l -1) i
i
1+ i
rispetto alle basi b = {(l, i, i), (i, i, 1), (O, i, O)} di Cl e b' = {(l,l), (i, - i)} di C Determinare la matrice che rappresenta F rispetto alle basi canoniche.
2 •
4. Siano vI=(~l, 1, 1), v2=(1, 1, O), Vl = (O, 2, l)ER l . Dimostrare che non esiste un'applicazione lineare F: Rl -+ Rl tale che F(VI) = (1, 0, O),
F(V2)
= (O, 1, O),
F(Vl) = (O, 0, 1).
160
Geometria affine
5. Per ognuna delle seguenti coppie di basi b e b' di Rl , determinare Mb,b,(l):
b) b = [(1, -1), (1, 1»),
c) b
= [(2,1),
(2, 2)},
Me: End (V) --+ MnCK)
b' = [(1, O), (1, 1») b'
=
F ...... Me(F)
[(vIs, -vls), (vIs, vIs»).
6. Per ognuna delle seguenti coppie di basi b e b' di Cl, determinare Mb,b.(l); a) b = [(1, i), (i, 1»),
b) b = {(i, i), (-1, 1»),
= [(1,0,1),
è un isornorfismo di K-spazi vettoriali. Si ha Me(ly)
b' = [(2, 1), (1, 2») b' = {(i, O), (O, i)).
7. Per ognuna delle seguenti coppie di basi b e b' di Q3, determinare Mb,b,(l): a)' b
Dal teorema 12.2 discende che l'applicazione
b' = [(1, V3), (V3, 1»)
a) b = (l, O), (O, l)},
b'
(1,1, O), (0,1, l)},
=
[(1,1,1), (0,1,1), (0,0, 1»)
Me: GL(V) --+ GLn(K). Sia f= {f l ,
8. In un p.iano affine reale A si supponga fissato un riferimento affine Oij. DetermInare le formule di cambiamento di coordinate dal riferimento Oij al riferimento O'i'j' dove O' = 0'(1,2), i' = i + 3j, j' = i + j. 9. In un piano affine reale A si supponga fissato un riferimento affine Oij, e siano ~, ~' ed ~" le rette di equazioni
~': X- Y-1=0,
Mf(F)
iY7J.
lO. Sia A uno spazio affine reale di dimensione 3, in cui sia fissato un riferimento affine Oijk. Determinare le formule del cambiamento di coordinate dal riferimento Oijk al riferimento O' i' j 'k', dove
k' = i + j + k.
f n } un'altra base di V. Dalla proposizione 12.3 deduciamo che
M f • e(1v) Me (F) Me. f(lv)'
= Me,f(ly) -l, otteniamo
Mf(F) = Me,f(ly)-1 Me (F) M e,f(1y)
[13.1]
da cui segue immediatamente che det(Mf(F»
Posto O.' .= ~ n ~', U = ~ n ~", U' = ~' n ~", siano i' = 0----:[;, j' = Dopo aver VerIfIcato che i vettori i' e j' sono linearmente indipendenti, determinare le formule del cambiamento di coordinate dal riferimento Oij al riferimento O' i' j' .
j' = j - k,
=
••• ,
Poiché Mf.e(lv)
~": 2X+ Y+2=0.
i' = i + k,
= In'
e Me(F)EGLn(K) se e solo se FEGLn(V), cioè un'operatore F è un automorfismo se e solo se Me(F) è invertibile. Quindi l'applicazione Me induce una biezione che denotiamo con lo stesso simbolo:
b) b= [(1, -1,1), (-1,1,1), (1,1,1»), b' = [(13, 5, -6), (8, -lO, -4), (-17,0, -7»).
~; X+ Y=O,
161
13/0peratori lineari
=
det(Me(F»,
cioè det(Me(F» non dipende dalla base e, ma solo da F. Chiameremo pertanto det(Me(F» il determinante detroperatore F e lo denoteremo con det(F), senza dover specificare la matrice Me(F) attraverso la quale è stato calcolato. 13.1 DEFINIZIONE Due matrici A, BE M n(K) si dicono simili se esiste MEGLn(K) tale che B = M-lAM. La similitudine è una relazione di equivalenza in Mn(K). Infatti ogni matrice è simile a sé stessa: A = I n- l Aln. Se B = M-l AM, allora
11. Siano e= [e" ... , en ), b= [bio"" bn ) due basi del K-spazio vettoriale V, e siano TI = [17" ... , 17n), f3 = [11" ... , I1n) le basi di VV duali di e e di b rispettivamente. Dimostrare che
e la relazione è simmetrica. Se B
=
M-l AM e C = N-l BN, allora
C=N-1(M-lAM)N= (MN)-IA(MN) 13 Operatori lineari
Sia V un K-spazio vettoriale di dimensione finita, e sia e = {e l ,
e la relazione è transitiva. .•• ,
e J una n
ba~e di V. Per ogni operatore FEEnd(V) scriveremo Me(F) invece di Me.e(F), e chiameremo Me(F) la matrice di F rispetto alla base e.
13.2 PROPOSIZIONE Sia V un K-spazio vettoriale, dim(V) = n, e siano A, BEMn(K). A e B sono simili se e solo se esistono un operatore lineare FEEnd(V) e basi e ed f di V tali che M.(F) = A ed Mf(F) = B.
11
Geometria affine
162
Dimostrazione Se F, e, f esistono, allora dalla [13.1] segue che A e B sono simili. Supponiamo viceversa che B=M-'AM.
[13.2]
Sia e una base arbitraria di V e sia F = FA l'operatore associato alla matrice A rispetto alla base e. Per ognij = 1, ... , n sia f j il vettore le cui coordinate rispetto a e sono gli elementi della j-esima colonna di M, cioè f j = mlje l + m 2j e2 + '" ... + mnjen. Poiché M ha rango n, i vettori fl' ... , f n sono linearmente indipendenti e quindi {fl' ... , f n } è una base di V. Si ha inoltre
M
= Me,rCIv).
Dalla [13.2] discende che B
=
Mf(F).
13.3 DEFINIZIONE Sia V un K-spazio vettoriale, dim(V) = n. Un operatore FEEnd(V) si dice diagonalizzabile se esiste una base e di V tale che Me(F) sia una matrice diagonale, cioè della forma
In relazione al problema di stabilire l'esistenza di basi diagonalizzanti si presentano in modo naturale le nozioni di "autovettore" e di "autovalore". 13.4 DEFINIZIONE Sia V un K-spazio vettoriale, e sia FE End (V). Un vettore v E V si dice autovettore di F se v ~ Oed esiste uno scalare À E K tale che F(v) = À v. À è l'autovalorè di F relativo all'autovettore v. Il sottoinsieme di K costituito dagli autovalori di F è lo spettro di F. Se AEMn(K), un autovettore di A è un autovettore xE Kn dell'operatore FA: Kn - Kn definito da A, e un autovalore di A è un autovalore di FA' Ad esempio, se F = Iv, ogni v ~ Oè un autovettore di F con autovalore À = 1. Se F è un operatore tale che N (F) ~ (O), ogni v EN (F)\ {O} è un autovettore di F con autovalore À = O. Diamo qui di seguito alcune semplici proprietà degli autovettori e degli autovalori di un operatore F EEnd (V). Supporremo dim (V) = n 2::: 1. 13.5 PROPOSIZIONE determinato.
o
163
13/0peratori lineari
L'autovalore relativo a un autovettore v è univocamente
O
Dimostrazione Se À v = F(v) = p, v per qualche dev'essere À - p, = O, cioè À = p,.
O O per opportuni ÀI , À2 , ... , ÀnE K. Se ciò avviene e è una base diagonalizzante per F. Una matrice A EMn(K) si dice diagonalizzabile se è simile auna matrice diagonale.
= Àie i,
i = 1, ... , n.
[13.3]
Viceversa, se una base e soddisfacente la [13.3] esiste, allora la matrice Me (F) è diagonale, e quindi F è diagonalizzabile ed e è una base diagonalizzante. Si noti che, se dim (V) = 1, allora ogni F EEnd (V) è diagonalizzabile ed ogni base di V è diagonalizzante per F. Se dim (V) 2::: 2 non tutti gli operatori F EEnd (V) sono diagonalizzabili. Similmente non tutte le matrici A EMn(K) sono diagonalizzabili se n 2::: 2 (cfr. esempio 13.15(3».
p, E K, allora
(À -
p,) v = O e, poiché
v
~ O,
13.6 PROPOSIZIONE Se vI' v2 EV sono autovettori relativi allo stesso autovalore À, allora per ogni c" c2E K il vettore CI VI + c2v 2, se non è il vettore nullo, è ancora un autovettore con autovalore À.
Dimostrazione Si ha
Ovviamente, se FEEnd(V) ed e è una base di V, F è diagonalizzabile se e solo se Me (F) è una matrice diagonalizzabile. In particolare A EM n(K) è diagonalizzabile se e solo se l'operatore FA: Kn - Kn definito da A è diagonalizzabile. Se F: V - V è un operatore lineare diagonalizzabile ed e è una base diagonalizzante per F, si ha
F(e)
À,
F(c i VI + c2V0 = cIF(v l ) + c2F(v 2) =
CIÀV I
+ C2 ÀV 2 = À(c i Vi + C2V2)·
Dalla 13.6 segue che l'insieme V). (F) = {v EV: v è un autovettore di F con autovalore À} U (O l è un sottospazio vettoriaie di V, detto l'autospazio relativo atrautovalore À. Per una matrice A EMn(K) si definisce l'autospazio V).(A) relativo atrautovalore À come il sottospazio V). (A) = V). (FA) di Kn.
13.7 PROPOSIZIONE Se v" ... , V k EV sono autovettori relativi agli autovalori Àk , e se questi Ài sono a due a due distinti, allora v l' ••• , V k sono linearI mente indipendenti.
À
, ••• ,
Geometria affine
164
Dimostrazione L'asserzione è banalmente vera se k = 1, perché VI -:;r. O. Procediamo per induzione su k, e supponiamo k:;:: 2. Se [13.4] allora, applicando F a entrambi i membri, si ha anche
165
n/Operatori lineari
13.9 PROPOSIZIONE Sia V uno spazio vettoriale di dimensione finita e sia FEEnd(V). Uno scalare ÀE K è un autovalore di F se e solo se l'operatore F-Àl y :
V~V
definito da (F -
À1 y)(v)
= F(v) -
ÀV
per ogni V EV,
non è un isomorfismo, o, equivalentemente, se e solo se det (F - Àl y) = O. cioè
Dimostrazione [13.5]
D'altra parte, moltiplicando ambo i membri della [13.4] per Àl' si ottiene [13.6] e sottraendo la [13.6] dalla [13.5]: cz(À z - ÀI)V Z + '" + Ck(À k - ÀI)V k = O.
PROPOSIZIONE
F(v)
=
»-:;r. (O), cioè se esiste [13.8]
Àv.
La [13.8] afferma che F possiede l'autovettore v con autovalore À. Sia e = (el' ... , enl una base di V. La matrice associata all'operatore Àl y è
[13.7]
Per l'ipotesi induttiva VZ , ••• , Vk sono linearmente indipendenti, e quindi i coefficienti del primo membro della [13.7] sono tutti uguali a O. Poiché Àj - ÀI -:;r. O per ognij, si deduce che Cz = ... = Ck = O. Quindi la [13.4] si riduce a CI VI = O, e quest'identità implica che anche CI = O, perché VI -:;r. O. 13.8
F- Àl y non è un isomorfismo se e solo se N(F- Àl y VEV, v -:;r. O, tale che (F - Àl y ) (v) = O, ovvero tale che
À
O
O
O
À
O
O O
À
Se ogni V E V\ (O l è un autovettore di F, allora esiste À E K
tale che F= Àl y •
e, se A = (aij) = M.(F), allora
Dimostrazione Se dim(V) = 1 l'asserzione è ovvia. Possiamo quindi supporre dim(V):;:: 2. Sia (e l, ... , en l una base di V. Dall'ipotesi segue che esistono ÀI, Àz, ... , Àn EK tali che F(e;) = Àiei, i = l, ... , n. Siano 1 ~ i, j ~ n due indici distinti, e sia vij = ei + ej . Per ipotesi esiste Àij EK tale che
ali - À
a 12
a ZI
azz -
À
F(vij) = Àijvij= Àije; + Àijej . D'altra parte si ha
13.10
DEFINIZIONE
Sia A EMn(K) e sia T un'indeterminata. Il determinante
F(v i) = F(e i + e) = F(e i) + F(e) = Àiei + Àjej , e, per l'indipendenza lineare di ei ed ej , deduciamo che Ài = Àj = Àij" In conclusione ÀI = Àz = .. , = À n , e l'asserto è provato. In pratica nella ricerca degli autovalori di un operatore o di una matrice si utilizza il cosiddetto "polinomio caratteristico". La sua definizione si avvale del seguente semplice risultato.
è un polinomio di grado n in T, detto polinomio caratteristico di A.
166
Geometria affine
Se FE End (V), e = (e l, ... ,enJ è una base di V e A = M.(F), allora P A (T) è il polinomio caratteristico di F, e si denota con PAT). La definizione di PF(T) è indipendente dalla base e, perché due matrici simili, come sono quelle che rappresentano F in due basi diverse, hanno lo stesso polinomio caratteristico. Per vederlo, siano A e B due matrici simili, cioè si abbia B qualche MEGLn(K). Allora
= M- IAM,
per
B - Tl n = M-IAM - Tl n = M-I(A - Tln)M. Pertanto IB- Tln 1= IM- I I lA - Tl n I IMI = lA - Tl n I. Si noti che il coefficiente di Tn in P A (T) è (-IY, e quindi (-IY PA (T) è un polinomio monico. Dalla proposizione 13.9 deduciamo il seguente corollario. 13.11 COROLLARIO Sia V uno spazio vettoriale di dimensionejinita n, e sia FE End (V). Allora À. EK è un autovalore di F se e solo se À. è radice di PF(T). In particolare F possiede al più n autovalori distinti.
Dimostrazione La prima asserzione è una riformulazione della proposizione 13.9. Poiché P A (T) ha grado uguale a dim(V), l'ultima asserzione segue dal fatto che un polinomio di grado n a coefficienti in K possiede al più n radici in K. Il corollario 13.11 fornisce un metodo pratico per calcolare autovalori ed autovettori di un operatore. Rinviamo agli esempi alla fine del paragrafo per illustrazioni pratiche di questo metodo.
I3/0peratori lineari
167
Se (À.i' ... , À.d C K è lo spettro di F, allora si ha: dim(V A,(F» + ... + dim(V Ak (F»::5 n
[13.9]
e l'uguaglianza sussiste se e solo seF è diagonalizzabile. Dimostrazione Per ogni i = l, 2, ... , k poniamo d(i) = dim(VA;(F», e sia (e il , .. , eid(i)J una base di VA,(F). In virtù della proposizione 13.12 sarà sufficiente dimostrare che i vettori eli' ... , eld(I)' e21 ,
••• , e 2d (2)' ••• , e kl , ••• , ekd(k)
sono linearmente indipendenti. Supponiamo che si abbia
o = CII eII + ... + cld(I)eld(I)+ C
21 e21 + ... + c 2d (2)e 2d (2) + ... ... + ckIe kl + ... + ckd(k)ekd(k)
[13.10]
per opportuni scalari Cv Ponendo Vi = Cii eil + .,. + cid(i)eid(i)' si ha viE VA, (F) eIa [13.10] può essere riscritta nella forma seguente:
Poiché Vi = Ose e solo se Cii = C i2 = .. , = Cid(i) = 0, sarà sufficiente dimostrare che VI = v2 = ... = Vk = O. Se vi;é O, allora Vi è un autovettore relativo a À.i e dalla [13.7] segue che (vi' V2 , ••• , vkJ\{OJ è un insieme di vettori linearmente indipendenti. Quindi il secondo membro della [13.11] può essere uguale a Ose e solo se tutti gli addendi sono O.
Il problema di stabilire se un operatore è diagonalizzabile è un problema di ricerca di autovalori e dei relativi autovettori. Si ha infatti:
Un caso particolare importante del teorema 13.13 è il seguente immediato corollario.
13.12 PROPOSIZIONE Sia V uno spazio vettoriale di dimensione finita. Un operatore FEEnd(V) è diagonalizzabile se e solo se V possiede una base costituita da autovettori di F.
13.14 COROLLARIO Se dim CV) allora F è diagonalizzabile.
Il risultato seguente dà una condizione necessaria e sufficiente affinché un operatore sia diagonalizzabile. TEOREMA
Sia V un K-spazio vettoriale, dim(V)
n ed F EEnd (V) possiede n autovalori distinti,
Si noti che la condizione sufficiente di diagonalizzabilità espressa dal corollario 13.14 non è necessaria. Infatti l'operatore Iv è diagonalizzabile qualunque sia n = dim(V), ma possiede l'unico autovalore À. = 1.
Dimostrazione Segue immediatamente dalla [13.3].
13.13
=
=
n, e sia FE End (V).
13.15 Esempi e osservazioni 1. Il corollario 13.11 fornisce un metodo pratico per calcolare autovettori e autovalori di un operatore o di una matrice. Scegliendo una base di V ci si riduce a considerare il solo caso delle matrici.
Geometria affine
168
Sia dunque assegnata A EM n (K). Si cominci con il calcolarne gli eventuali autovalori, che si trovano calcolando il polinomio caratteristico P A (T) e le sue radici in K. Per ogni autovalore À, E K, il sistema omogeneo di n equazioni nelle n incognite X = t (XI'" X n ):
169
13/0peratori lineari
Ad esempio la matrice n x n, n;:::: 2,
o
O
O
O
O O l
EMn(K)
A= ha rango r < n e possiede quindi soluzioni non banali. Lo spazio delle soluzioni è l'autospazio V.. (A). Se la somma delle dimensioni degli autospazi così trovati al variare di À, tra tutte le radici di PA(T) è uguale a n, allora A è diagonalizzabile, per il teorema 13.13. Una base diagonalizzante si ottiene scegliendo una base di ciascun autospazio e prendendone l'unione. Ciò fornisce in linea di principio un metodo di calcolo di tutti i vettori di una base diagonalizzante e della matrice del corrispondente cambiamento di base. Si osservi che un operatore può non avere autovalori, e quindi neanche autovettori, perché il polinomio P A (T) può non avere radici in K. Se però K = C, allora dal teorema fondamentale dell'algebra segue che PA (T) possiede radici in C, e pertanto: ogni operatore di uno spazio vettoriale complesso di dimensione finita possiede almeno un autovalore, e quindi possiede autovettori. Ciò non significa necessariamente che l'operatore sia diagonalizzabile (cfr. esempio 3). Se K = R può accadere che un operatore di uno spazio V non possieda autovalori (cfr. esempio 4). Se però dim(V) è,dispari, allora il polinomio caratteristico ha grado dispari, e quindi possiede almeno una radice reale. In conclusione, ogni operatore di uno spazio vettoriale reale di dimensione dispari possiede almeno un autovalore e quindi possiede autovettori.
O O O
l
O O O
O
ha polinomio caratteristico PA(T) = (-lYT
e quindi possiede l'unico autovalore À, = O. Da ciò segue che se A fosse diagona~ lizzabile sarebbe simile alla matrice O. Ma O è simile soltanto a sé stessa. InfattI per ogni MEGLn(K) si ha M-IOM=O. Quindi A non è diagonalizzabile. La matrice l
B =A + In
O
O O
l
O O EMn(K)
=
l
O O O
l
O O O
O l
ha polinomio caratteristico PB(T) = (1- TY, uguale aquello della matrice In" B non è diagonalizzabile, perché se lo fosse sarebbe simile a In' la quale invece è simile solo a sé stessa: infatti M-IInM= In per ogni MEGLn(K).
Il polinomio caratteristico della matrice nulla n x n è
4. La matrice
In entrambi i casi l'unico autospazio della matrice è Kn.
= (aij) EMn(K) è una matrice triangolare (superiore o inferiore),
l
O l
2. Il polinomio caratteristico della matrice identità n x n è
3. Se A
n
si ha
A
= (
O l) EM
-1
Se all' a 22 , ••• , a nn sono distinti, allora, per il corollario 13.14, A è diagonalizzabile perché possiede n autovalori distinti; altrimenti può non esserlo.
O
2
(R)
ha polinomio caratteristico l + T 2 • Poiché questo polinomio non ha radici reali, A non possiede autovalori né autovettori in R 2 • Se però A viene considerata come una matrice ad elementi complessi, allora possiede i due autovalori distinti À, = ± i.
Geometria affine
170
Per il corollario 13.14, A è diagonalizzabile in M 2 (C), ed è simile alla matrice diagonale
B
Per dimostrarlo si supponga che d = dim(V),.(F)) ~ 1, e sia {e j, ... en } una base di V tale che {el' ... , ed} sia una base di V),.(F). Si ha
=(~
Per trovare la matrice M tale che B = M-I AM, dobbiamo trovare una base di C 2 costituita da autovettori di A, il che equivale a trovare un autovettore per ciascuno dei due autovalori. Possiamo procedere nel seguente modo. Per la proposizione 13.9 gli autovettori relativi a À = i sono gli elementi del nucleo di A - i12, cioè sono le soluzioni del sistema omogeneo -iX+ Y=O
Pp(T)
=
(À - T)dp(T),
dove p(T) = Pc(T) è un polinomio di grado n-d. Pertanto h(À) ~ d. Se il campo K è algebricamente chiuso e ÀI , ••• , À k sono gli autovalori di F, h(À 1)
che ha rango 1, ed è quindi equivalente alla prima equazione. Soluzioni sono i vettori della forma (t, it), i quali, al variare di tE C, descrivono l'autospazio Cf(A). Prendendo ad esempio t = 1 si ottiene l'"autovettore (l, i) relativo a À = i. Analogamente, considerando il sistema omogeneo corrispondente a A + iI2 , otteniamo i vettori della forma (t, - it), e quindi (i, 1) è un autovettore relativo a À = - i. La base b = {(l, i), (i, l)} è diagonalizzante. Detta e la base canonica, si ha
M= Me,b(l) = (;
dove BEMd,n_d(K), OEMn_djK) è la matrice nulla, e CEMn~d,n-AK). Svilup-. pando I A - Tl n I con la regola di Laplace rispetto alle prime d righe si trova
si ha
-X- iY= O,
e
171
13/0peratori lineari
+ ... + h (À k )
=
n.
Pertanto, dalla [13.12] e dal teorema 13.13 segue immediatamente che se il campo K è algebricamente chiuso l'operatore F è diagonalizzabile se e solo se per ogni autovalore À di F si ha dim(V),.(F)) = h (À), cioè se e solo se la molteplicità geometrica e la molteplicità algebrica di ogni autovalore À coincidono.
:)
i-
M'AM~( ~) (-~
6. Se A
= (ai) EM 2 (K),
P A (T) = T
1) (1 i (i
O
i
1) = O
O)
dove tr(A)
2
-
allora si ha
tr(A) T
+ det(A),
=
a ll + a22 è la traccia di A. La verifica è lasciata al lettore.
=
go + gl T+ ... + gn-I m-I + Tn
-i· 7. Sia P(T)
5. Sia V un K-spazio vettoriale di dimensione finita. Sia FEEnd(V) e sia ÀE K un autovalore di F. La dim(V)JF)) si dice molteplicità geometrica di Àper F. La molteplicità algebrica di Àper F è la molteplicità h (À) di Àcome radice del polinomio caratteristico di F. In generale la molteplicità geometrica e quella algebrica sono diverse. Ciò accade ad esempio per le matrici A e B dell'esempio 3. Per A si ha infatti, evidentemente, h (O) = n, mentre per B si ha h(l) = n. D'altra parte A non è diagonalizzabile e quindi dim(Vo(A)) < n. Similmente per B. Per ogni F EEnd (V) e ÀEK autovalore di F sussiste la disuguaglianza dim (V),. (F)) :5.h(À), cioè la molteplicità geometrica non supera la molteplicità algebrica.
[13.12]
un polinomio monico di grado n a coefficienti in K, e sia
Mp =
O O
O
- go
1 O
O
-gj
O 1
O
- g2
O O
- gn-l
Il polinomio caratteristico di M p è uguale a (- l)n peT)o Se n = 1, l'affermazione è evidente: M p - T = - go - T. Procediamo per induzione su n, e suppo-
, 172
Geometria affine
niamo n ;:::: 2. Si ha
-
TIn 1=
173
4. Sia F: R 3 -> R 3 l'operatore lineare definito dalla matrice
-T IMp
13/0peratori lineari
O
O
- go
1
-T
O
-gl
O
1
O
-g2
O
O
(:
O
:)
rispetto alla base canonica. Determinare la matrice Mb(F) che rappresenta F rispetto alla base b= ((1,1, O), (-1, 0,1), (1, l, 1)l.
- gn-I - T
5. Sia F: R 3 -> R 3 l'operatore lineare definito dalla matrice
-T 1
O -gl
1
-T
O
O
O
1
O
- g2
=-T
+ (_l)n go O
=-
T(-ly-l(gl
1
-gn-l - T
O
O
1
+ g2 T + ... + gn-l Tn-2 + P-l) + (-l)n go = (_l)n P(T),
dove il valore del primo determinante è dedotto dall'ipotesi induttiva. Quest'esempio dimostra che per ogni polinomio monico di grado n;:::: 1 in K[T] esistono matrici quadrate di ordine n di cui esso, o il suo opposto, a seconda che n sia pari o dispari, è il polinomio caratteristico.
(:
-
~ :)
.
rispetto alla base canonica. Determinare la matrice Mb(F) che rappresenta F nspetto alla base b= ((-1, O, -1), (1,1,1), (1, -1, O)l. 6. Sia F: C 3 -> C 3 l'operatore lineare definito dalla matrice:
(:+i -~ :) rispetto alla base canonica. Determinare la matrice Mb(F) che rappresenta F rispetto alla base b = (i, 1, -1), (- 2, i, O), (2i, 1, i) l.
Esercizi
7. Determinare autovalori e autovettori di ciascuna delle seguenti matrici di M 2 (R):
l. Sia F: R 3 -> R 3 l'operatore lineare F(x, y, z) = (x + y - z, y
+ z,
a)
2x).
C _:)
b)
(~
:)
Determinare la matrice Mb(F), dove b = (1, 1, O), (-1, O, 1), (1, 1, 1) l. 2. Sia F: R 3 -> R 3 l'operatore lineare
c)
G :)
d) (:
:) .
F(x, y, z) = (2x, x- y, y - z).
8. Determinare autovalori e autovettori della matrice Determinare la matrice M b (F 2), dove b . 3. Sia F: C
: (
2
3
->
-1
=
((1, 1, O), (2, -1, 1), (O, 1, -l)l .
3
C l'operatore lineare definito dalla matrice
-:) -3
in cui a, b sono parametri reali. 9. Sia F: R 3 -> R 3 l'operatore lineare F(x, y, z) = (y - z, - x
rispetto alla base canonica. Determinare la matrice Mb(F) che rappresenta F rispetto alla base b= ((~2i, i, i), (-1, -1,1), (1, O, -l)l.
+ 2y -
z, x - y
+ 2z).
Dimostrare che F è diagonalizzabile, trovando una base b di R 3 formata da autovettori di F. Determinare la matrice che rappresenta F in tale base.
174
Geometria affine
lO. Calcolare gli autovalori e la loro molteplicità algebrica e geom t . seguenti matrici di M (R) e d d . e nca per ognuna delle 3 , e urre se sono o no dlagonalizzabili:
a)
(=: ; =:) lO
-3
8
b)
(=: ~: j 14
17
21)
,{ -: -I:) d{: _: _:) e) (_ ::
18
::)
-79
f) (-;
-46
O
-4; 16
44
O
O
O
O
O
O
O
O
O O
EM4 (C).
12. Determinare a, b, c, d, e, fE R sapendo ch (1 1 l) autovettori della matrice e , , ,(1, O, -1), (1, -1, O) ER 3 sono
13.
Il concetto di "gruppo", ed in particolare quello di "gruppo di trasformazioni", ha fondamentale importanza in geometria. Uno studio sistematico della teoria dei gruppi non rientra però negli scopi di un primo corso di Geometria; ci limiteremo pertanto a dare le definizioni essenziali, che sono sufficienti a rendere naturale la trattazione degli esempi geometrici più importanti. Rinviamo il lettore al corso di Algebra per maggiori dettagli. 14.1 DEFINIZIONE Un gruppo è una coppia ( ~ .) costituita da un insieme non vuoto ~ e da un'operazione binaria in Y: cioè un'applicazione .; ~x ~~ ~ che associa ad ogni (g, g')E ~x ~ un elemento g·g'E~, chiamato prodotto di g per g', in modo che siano soddisfatti i seguenti assiomi:
(g.g').g"
~ia A
EMnb(l<). Dimostr~e che. se A possiede l'autovalore A, la matrice C = aA + bI ove a e sono scalan, pOSSiede l'autovalore al. + b. n,
14. Siano A, BE Mn(l<). Dimostrare che se ME GL (I<)' l -I ogni intero k 2= O si ha B k = M- 1 AkM I n. e ta e che B = M AM, allora, per sono sl'ml'l' '. . . n particolare, se A e B sono simili A k e B k I per ogm mtero k 2= o. ' 15. Utili~zare l'esercizio precedente per calcolare F 5 · dove p R 3 ~ R3 ' 1 ' ; \ considerato nell'esercizio 9. ,. e operatore lmeare
= g.(g'.g") per ogni g, g', gliE Y'.
G2 (Esistenza dell'elemento neutro) ogni gE Y'. G3 (Esistenza dell'inverso) = g-l.g
Esiste eE ~ tale che e·g
Per ogni gE ~ esiste r
1
=
g·e = g per
E ~ tale che g·r l =
= e.
Un gruppo (~ .) si dice commutativo o abeliano se soddisfa il seguente assioma: G4 (Commutatività)
O
175
14 Gruppi di trasformazioni. Affinità
G1 (Associatività) -12;),
11. Calcolare gli autovalori della matrice O
14/Gruppi di trasformazioni. Affinità:
g.g'
=
g'.g per ogni g, g' E Y'.
In un gruppo abeliano l'operazione viene di solito denotata con il simbolo + e chiamata somma. Quando è chiaro dal contesto quale sia l'operazione definita in Y: il gruppo (~ .) si denota semplicemente con la lettera Y'. Un esempio importante di gruppo è l'insieme .3(S) di tutte le applicazioni biunivoche di un insieme non vuoto S in sé stesso, dette anche trasformazioni di S. Associando ad ogni (f, g) E37(S) X 37(S) la trasformazione compostafo gE.3(S) si ottiene un'operazione tale che gli assiomi Gl, G2, G3 siano soddisfatti, con e = 15 (la verifica, immediata, è lasciata al lettore). La coppia (37(S), o) è quindi un gruppo, e prende il nome di gruppo delle trasformazioni di S. Se V è uno spazio vettoriale, allora V è un gruppo abeliano rispetto all'operazione di somma tra vettori: gli assiomi sono soddisfatti perché (V, +) soddisfa gli assiomi SV1, SV2, SV3, SV4. (V, +) si dice gruppo additivo dello spazio vettoriale V. Dalle proprietà delle matrici che abbiamo studiato in questo capitolo segue che l'insieme GLn (K) di tutte le matrici invertibili n x n a elementi in K è un gruppo
176
Geometria affine
14/Gruppi di trasformazioni. Affinità
177
rispetto all'operazione di prodotto righe per colonne; esso è chiamato gruppo lineare generale di ordine n su K. L'elemento neutro di GLn(K) è In'
n: esso consiste di tutte le matrici A
14.2 DEFINIZIONE Un sottoinsieme f f di un gruppo ::# si dice sottogruppo di ::# se soddisfa alle seguenti condizioni:
= In' ..) la trasposta della matrice complessa coniugata di A. La d ove . *A = t,4- = (-aJI' • • "'
SGI
Per ogni f, f' Eff il prodotto f.p L~
SG2
L'identità eEY
SG3
Se fE.fF; allora f- I EY
È immediato verificare che se ..5f! C ff C ..<9; ed ff è un sottogruppo di ..<9; allora..5f! è un sottogruppo di ffse e solo se è un sottogruppo di ~ Inoltre, se ffed ffl sono due sottogruppi di ..<9; la loro intersezione ffn ffl è ancora un
sottogruppo di ::# il quale, per quanto abbiamo appena osservato, è anche un sottogruppo sia di ffche di ffl. I sottogruppi di GLn(K) sono detti gruppi lineari di ordine n. Ad esempio, l'insieme SLn(K) costituito dalle matrici A EGLn(K) tali che det(A) = 1 è un gruppo lineare, chiamato gruppo lineare speciale di ordine n. Un altro esempio di gruppo lineare è O(n), che è il sottogruppo di GLn(R) costituito dalle matrici ortogonali; ricordiamo éhe una matrice A EM" (R) si dice ortogonale se t,4A = In" Per la sua stessa definizione, una matrice ortogonale è invertibile, e A -I = t,4. Poiché det(t,4) = det(A), per una matrice ortogonale si ha det(A)2 = det(In) = 1, e quindi det(A) = ± 1. Verifichiamo che O(n) è un gruppo. Se A, BEO(n), si ha
(AB) (AB) = (B(t,4A) B = (BInB = (BB = In cioè ABE O(n), e la condizione SGI è soddisfatta. La SG2 è ovvia. Per verificare la SG3 consideriamo A EO (n); si ha
(A -I) A-I = tCA) t,4 = A t,4 = tI = In n e quindi anche A -IEO(n). O(n) si dice gruppo ortogonale di ordine n. Il sottoinsieme di O (n) costituito dalle matrici ortogonali aventi determinante uguale a 1 è un sottogruppo, denominato gruppo ortogonale speciale di ordine n, e indicato con SO(n). Si ha SO (n)
= O (n) n SLn(R).
I gruppi ortogonali e ortogonali speciali hanno grande importanza in geometria euclidea, oltre che in meccanica classica, e su di essi ritorneremo più diffusa. mente nel capitolo 2. Lo studio dei gruppi lineari complessi è rilevante in meccanica relativistica. Un esempio importante di gruppo lineare complesso è U (n), il gruppo unitario di ordine
= (aij) EGLn(C) unitarie, cioè tali che
*AA
verifica delle condizioni SGI, SG2, SG3 si effettua in modo sImIle a quanto gia visto nel caso ortogonale. . .. Poiché si ha det(*A) = det(A) per ogni A EMn(C), dalla defillizIOne segue che det (A) det (A) = 1, e quindi ogni A EU (n) soddisfa I det(A) I
= 1.
Le matrici A EU (n) tali che det(A) = 1 costituiscono a loro volta un sottogruppo di U (n), chiamato gruppo unitario speciale di ordine n, e denotato con SU (n). Si ha evidentemente
SO(n)
= SU (n) n GLn (R).
Altri esempi di gruppi lineari verranno introdotti più avanti. Un sottogruppo ::# del gruppo 3{S) delle trasformazioni di un insieme S si dice gruppo di trasformazioni di S. . . . Evidentemente 3{S) stesso è un gruppo di trasformazIOlli dI~. lIn altro esempio di gruppo di trasformazioni è il sottoinsieme {18 } COStitUIto dalla sola .. (77;S) r h identità. S· ES e sia 3{S) l'insieme di tutte le trasformazlolli fE-./ ( ta l c e • d'f E37(S) la s ' s f(s) = s. Sef, gE3{S)s' allora (fog) (s) =f(g(s» = f(s) =s e q~m.I ~~ (77; s' e qumdI f E.!7(S)s' · te 18 EJ (77;(S)s" e se fE37(S) s' allora f-I(s) = s • O vVIamen . bT Dunque 3{S)s è un gruppo di trasformazioni di S; esso VIene chIamato sta l lZ-
zatore di s. ,. . C!.T (77;(S) , Se f f è un gruppo di trasformazioni S ed sE S, l mterseZIOne.J n J s e un sottogruppo di ff che si chiama stabilizzatore di s in ~ e si denota con ~ 14.3 DEFINIZIONE Se C§' e C§' sono due gruppi, un'applicazione w:C§'~.::#' è un omomorfismo se w(f. g) = w(f)·w(g) per ogni f, gE ~ Un omomorflsmo I
biettivo si dice isomorfismo; in questo caso anche w -Iè un isomo,:fismo..Se un isomorfismo w: C§'~ C§" esiste, i due gruppi C§' e C§" si dicono Isomorfl. Una classe importante di esempi è costituita dai gruppi di trasformazione lineari , di uno spazio vettoriale. . . L'insieme GL(V) di tutti gli automorfismi di uno SpazIO vettonale V ~ un gruppo di trasformazioni di V (la verifica è immediata) denominato gruppo lmeare ge.nerale di V. Ogni gruppo di trasformazioni dello spazio vettoriale V che conSIste . . di trasformazioni lineari è un sottogruppo di GL(V).. Sia dim (V) = n ~ 1 e sia {e l , ... , en } una sua base. Se SI associa ad ogm auto-
J2
179
Geometria affine
178
morfismo di V la matrice che lo rappresenta rispetto alla base {e" ... , en }, si ottiene un isomorfismò di gruppi GL(V) -+ GLn(K). Ciò segue subito dalla proposizione 12.3. Le trasformazioni di uno spazio affine geometricamente interessanti sono le "affinità", che ora introdurremo. 14.4 DEFINIZIONE Siano V e V' due K-spazi vettoriali, A uno spazio affine su V e A' uno spazio affine su V'. Un isomorfismo di A su A' è un'applicazione biunivocaf: A -+ A' tale che esista un isomorfismo degli spazi vettorialiassociati cp: V -+ V' soddisfacente alla condizione ---~)
f(P) f(Q)
---lo-
= cp(PQ)
14/Gruppi di trasformazioni. Affinità
.' metriche , d" . . affine e pertanto lascia inalterate le rel azIOnI geo la struttura I spazIO . dipendenti dalle proprietà dei vetton.
, to OEA per ogni D' EA e per ogni cpEGL(V) 14.5 LEMMA Frs~~;~ ,Ut~f~u~ -+ A tal; chef(O) = O' e tale che rautomorfiesiste una e una sola aJJ mI a . smo associato a f siacp: " " t . dividuata dall'automorfismo di In particolare un 'affinzta f e unzvocamen ~ m l" punto O EA V ad essa associato e dall'immagine f(O) dI un qua sraSI .
Dimostr~zio':.l'·d
iY1<.P>
tità = cp(OP) individua univocamente u~ ,punto Per ognI PE I en, , l' . f' A -+ A che è immediato venflcarlo, f(P) EA. Otteniamo COSI un app IC,az~one . , è un'affinità di A avente le propneta volute. . , A si ha Se g: A -+ A è un'altra affinità co~ le s~ropneta, pe~ ognI P E o
per ogni P, Q EA. Un 'affinità di A è un isomorfismo di A su sé stesso. Segue subito dalla definizione che l'isomorfismo cp: V -+ V' è univocamente individuato daf; esso viene chiamato risomorfismo associato af. Sefè un'affinità, allora cpEGL(V): diremo cp l'automorfismo associato a f. Se un isomorfismo f: A -+ A' esiste, i due spazi affini A e A' si dicono isomorfi. L'identità lA: A -+ A, l'applicazione inversaf-': A' -+ A di un isomorfismofela composizionegof: A -+ Ali di dueisomorfismif: A -+ A' eg: A' -+ A", sono ancora isomorfismi (le relative verifiche seguono facilmente dalla definizione 14.4 e sono lasciate al lettore), Pertanto risomorfismo è una relazione di equivalenza tra spazi affini. Un esempio importante di isomorfismo si ottiene considerando un riferimento affine Oe, ' .. en in uno spazio affine A sullo spazio vettoriale V, e l'applicazione f: A -+ A n(K) definita da
f(O) f(P)
=
cp(OP)
=
g(O) g(P) = O' g(P) = f(O) g(P),
e quindi f(P) = g(P). . . L'ultima affermazione è un' ovvia conseguenza della pnma. ., t l'identità l'A -+ A è un'affinità, con automorCome abbiamo gIa osserva o, A', ff' 't' dI'A con automorfismo " d ' , l EGL(V) Per ognI a mI a , fismo aSSOCIato l I entlta . v f-" 'affinità con automorfismo asso. t I trasformazIOne mversa e un assocIa o cp, ~ f affinità con automorfismi associati cp e 1f; rispet, ' o." ciato cp-'. Infme, se e g sono , un' affinità con automorfIsmo assocIato cp 'Y' tivamente, allora fo g e d: l fflOnità di A è un gruppo di trasfor, d che l'insieme I tutte e a . . d . d'A denotato con Aff(A).Nel caso partlVe lamo u~q~e mazio~i; ess,o SI ~hAla:n(Ka)g~ulP~~papif:~ff~A;(K» viene chiamato gruppo affine di colare m CUI A ,I g ordine n su K, e indicato con Affn(K), ..' ' "!'+'ini di A d' Aff(A) si chiamano gruppI dI trasformazIOnz aJJ' . I sottogruppl I o
o
•
o
f(P(x" ,.. , x n)) = (x" ... , x n), cioè l'applicazione che associa ad ogni punto la n-upla delle sue coordinate. Per ogni coppia di punti P(x" x n), Q(y" ... , Yn)EA, si ha o •• ,
----+)
f(P) f(Q)
---lo-
= (y, - x" ... , Yn - x n) = CPe(PQ),
dove CPe: V -+ Kn è l'isomorfismo che associa ad ogni vettore la n-upla delle sue coordinate rispetto alla base e = {e" ... , en }. Poiché è biunivoca, f è un isomorfismo con associato l'isomorfismo CPe' Da questo esempio si deduce che ogni spazio affine di dimensione n su K è isomorfo ad A n(K). Dalla transitività della relazione di isomorfismo si deduce in particolare che due spazi affini su Kdella stessa dimensione sono isomorfi. Sia V un K-spazio vettoriale e sia A uno spazio affine su V. Un'affinità di A può essere intuitivamente pensata come una trasformazione che è compatibile con
14.6 Esempi . 2 'l po GL (K) non è abe1. È facile verificare con esempI che, se n ~ ,I grup n lìano. Ad esempio nel caso n = 2 si ha
e
(: :) (~ ~) (~ :),
., ' 'f er n > 2 qualsiasi dimo, b c dE K Una verifica smule SI puo are P , per ognI a, " .
180
Geometria affine
strando che per le matrici elementari R/j, i ~ j (cfr. 3.3(6» si ha in generale
Rf}A ~ARf}.
Similmente accade per i gruppi O(n), n;:: 2, ed SO(n), n;:: 3, i quali non sono abeliani. Invece è facile verificare che SO(2) è abeliano, utilizzando il fatto che ogni A ESO (2) si esprime nella forma [2.6]. Per verificare ad esempio che 0(2) non è abeliano, è sufficiente osservare che
(O l) (-lO-1)(10) O O -l = -l O l O
O) ( O - l) -l -1 O
=
(O l
ove entrambi i fattori appartengono a 0(2), ma non a SO(2). Il sottoinsieme Dn(K) di GLn(K) costituito dalle matrici diagonali invertibili è un sottogruppo abeliano di GLn(K). Ciò segue immediatamente dal fatto evidente che, per ogni al' ... , an>o bi, ... , b n EK, si ha diag(al, ... , an) diag(b l, ... , b~)
=
diag(a l bi, ... , anbn),
dove abbiamo denotato con diag(c l, ... , cn ) la matrice diagonale avente per elementi diagonali CI' ... , cn • 2. Un'importante classe di trasformazioni affini di uno spazio affine A su V è quella costituita dalle "traslazioni". Sia vEV. La tras!azione definita da v è l'affinità che associa ad ogni PEA il --+ punto tAP) tale che Ptv(P) = v. Verifichiamo che tv è effettivamente un'affinità. Per ogni QE a, posto --+ --+ p = t -v (Q), si ha Q = qP) perché QP = - v e quindi PQ = v. Pertanto t è una v biezione, la cui inversa è t_v" Si ha inoltre
----+.
---+
tv(P) tv{Q) = tv(P) P
--+
--
+ PQ + Qtv(Q) = -
v
--+
--+
+ PQ + v = PQ
e quindi tv è un'affinità con isomorfismo associato l'identità Iv EGL(V). Viceversa, se f: A ---+ A è un'affinità con isomorfismo associato Iv EGL (V), allora per ogni P, QEA si ha -~--+.
f(P) f(Q)
-----+
spazi~.
)
-------+
~
~
+ Qtv(Q) = w + v.
La trasformazione inversa di tv è Lv' come è già stato verificato. Pertanto le traslazioni di A costituiscono un gruppo di trasformazioni affini, il gruppo delle tras!azioni di A, indicato con T A • • • Associando a una traslazione tv E TA il corrispondente vettore v EV, SI ottlene una corrispondenza biunivoca [14.2]
TA---+V
che al prodotto di due traslazioni fa corrispondere la somma dei vettori corris~~n denti. La [14.2] è pertanto un isomorfismo del gruppo TA sul gruppo addItlvo di V. 3. Sia A uno spazio affine su V. Supponiamo assegnato un punto O EA e consideriamo il gruppo di trasformazioni affini Aff(A)o = (fEAff(A): f(O) = Ol. Per ogni fEAff(A)o denotiamo con cI>(f)EGL(V) l'automorfismo associato. Otteniamo un'applicazione cI>: Aff(A)o ---+ GL(V).
[14.3]
Dal lemma 14.5 segue che ogni fEAff(A)o è completamente individuata da cI> (f), e, viceversa, che ogni cp EGL (V) è immagine di qualche f EA!f(A)o' Qu~ndi cI> è biettiva. Poiché la composizione di affinità ha per automorfIsmo aSSocIato la composizione dei corrispondenti automorfismi, l'applicazione cI> è un isomorfismo di gruppi. . . Se cEK è uno scalare non nullo, l'affinità cI>-I(c1 v)E Aff(A)o SI dIce ornotetia di centro O e fattore c, e si denota con wO,c' Si ha quindi ------.l
OWo,c(P)
-+
= cOP.
--+
=
PQ
[14.1]
e quindi Pf(P)
~ioniPossono
P(tvo tw(P» = Ptv(Q) = PQ
- l) O
181
La [14.1] esprime la proprietà delle traslazioni di mandare ogni coppia ordiata di punti in un'altra che definisce lo stesso vettore. Intuitivamente le traslaquindi essere pensate come "movimenti rigidi" dello L'identità è una traslazione, quella to definita dal vettore O. Il prodotto dI due traslazioni t v e tw è tvotw = tv+ w' ancora una traslazione. Infatti per ogni PEA, posto Q = tw(P)' si ha .
mentre (
14/Gruppi di trasformazioni. Affinità
--+
= Qf(Q) = v
è indipendente da P. Si ha pertanto f = tv' Quindi le traslazioni sono precisamente le affinità che hanno come isomorfismo associato IvEGL(V).
Si ha lA = WO,l' Inoltre Q = wo,c-1(P) soddisfa la ---+
(WO,c)-1
---+
OQ=c-IOP
"e quindi
----->.
OWo,c(Q)
"---+
---+
= cOQ = OP
= wO,c- 1
perché per ogni PEA il punto
182
Geometria affine
WO. d
=
WO. cd
g(O) = (fe Lv) (O) = f(f-I(O» = O g'(O) = (t-v' ef) (O) = (t-v') (f(0» = O,
. perché se PE A, posto Q = wo.c(P), si ha )
--+
--+
--+
OWo.AQ) = dOQ = d(cOP) = (cd) OP. In conclusione le omotetie di centro O costituiscono un sottogruppo di Aff(A)o' . 4. Sup~oniamo fissato nello spazio affine A su V un punto C. Per ogni PE A Il punto sImmetrico di P rispetto a C (cfr: 7.5(4» è il punto a (P) che soddisf~ l'identità vettoriale e -CadP) = - --+ CP.
Da quest'uguaglianza segue che, per ogni P, QEA, -.,--~)
--
--
--+
--+
l -
Vediamo ora come si descrivono esplicitamente gli elementi di Affn(l<). Sia f: A n ~ A n un'affinità e sia cp: Kn ~ Kn l'isomorfismo associato. Supponiamo che A EGLn (K) sia la matrice che rappresenta cp nella base canonica, e che f(O) = c. Per definizione di affinità, per ogni xEA n l'identità seguente è soddisfatta: f(x) - c =f(x) - f(O) =A(x - O)
=
Ax.
L'affinità f è data dunque dalla formula
e quindi ae : A ~ A è un'affinità con isomorfismo associato -lv. Si calcola immediatamente che a e e ae = lA' Nel caso in cui A = An e C= (CI' ... , cn), si ha
= (2c
cioè g, g' EAff(A)o' Si osservi anche che, per il lemma 14.5, g e g' sono univocamente determinate dall'appartenere ad Aff(A)o e dall'avere lo stesso automorfismo associato di f; pertanto g = g' . Infine le identità tv = g -I ef, tv ' = f eg -I individuano univocamente anche v e v' .
--+
ae(P) adQ) = adP) C + CadQ) = CP - CQ = - PQ
ae(P)
183
che ge tv = f = tv ' e g'. Inoltre si ha
ovvero wo.c(Q}=P. Pertanto Wo.cewo.c-I = lA' Si ha poi w O• c e
14/Gruppi di trasformazioni. Affinità
f(x)
=
Ax + c.
Viceversa, per ogniAEGLn(K), cEKn, l'applicazionefA.e: [14.5] è un'affinità. Infatti si ha
XI' ... , 2cn - x n)
[14.5] An~An
definita dalla
per ogni P = (XI' ... , x n ). Un sottoinsieme S di A si dice 'simmetrico rispetto a un punto CEA se ae(p) ES per ogni PE S. In questo caso C si dice centro di simmetria di S Un insiem~ S può non avere alcun centro di simmetria oppure averne più d'~no. Ad esempIO, ogni sottospazio affine di A è simmetrico rispetto ad ogni suo punto. Supponiamo~fattiche il sottospazio S abbia giacitura W e sia C un suo punto. Se PES, allora CPEW e adP) soddisfa c;;;;(P) = e pertanto ~EW e adP) ES. Dunque S è simmetrico rispetto a C.
cF,
e quindifA.e è un'affinità, con isomorfismo associato quello definito dalla matrice A rispetto alla base canonica di Kn •
In conclusione Affn(K) è uguale all'insieme di tutte le trasformazioni fA.e' Nel caso n = l, si deduce che le affinità di A I sono le trasformazioni del tipo f(x) = ax + c per qualche a,r:. 0, c in K. Date due affinitàfA.e' fB.dEAffn(K), il loTO prodotto è fB.d e fA.e = fBA.d+Be'
[14.6]
mentre l'inversa di fA. c è 14.7 LEMMA Siano OEA efEAff(A). Esistono v, v'EV e gEAff(A) univocamente individuati da.t tali che (fl
(fA.e)-1 =fA- I. -A-le' Le affinità};.e sono le traslazioni di An e vengono denotate con te; si ha dunque
f= getv f= tv,eg.
[14.4]
Dimostrazione --~) ~ Poniamo v=-Orl(O), v'=Of(O),g=feL v , e g'=Lv,ef. È evidente
te(x)
=
x + c.
Le affinità appartenenti allo stabilizzatore dell'origine Affn(K)o sono precisamente quelle della forma fA.O' e corrispondono biunivocamente alle matrici A EGLiK). Si ottiene così un'identificazione tra Affn(K)o e GLn(K).
--------........".,-=~-~---=----=-=======-----~-~---
184
Geometria affine
Nel caso di An il lemma 14.7 afferma che ogni affinità fA,c EAffn(K) può sempre ottenersi in uno dei due modi seguenti:
14/Gruppi di trasformazioni. Affinità
185
rispettivamente, sono date dalla [14.7] e da
y=Bx+d
Le affinità di uno spazio affine qualunque A si descrivono esplicitamente in un modo del tutto simile al caso di An, una volta fissato un riferimento affine Oel ... en. Abbiamo infatti il seguente teorema.
rispettivamente, il loro prodotto gofha automorfismo associato ..pocp, che è.rappresentato dalla matrice BA nella base e. Inoltre il punto (g 01) (O), ha coordma~e Be + d. Quindi l'affinità di An che corrispo~de a gofnella [14.8] efBA,Bc+d' POlché af e a g corrispondono rispettivamente fA,c edfB,d> confrontando con la [14.6] si deduce che la [14.8] è un omomorfismo, come si voleva.
14.8 TEOREMA Nello spazio affine A su V sia fissato un riferimento affine Oel ... en • Ogni affinitàfEAff(A), con automorfismo associato cp, si esprime nella forma
I sottoinsierni di uno spazio affine A vengono anche chiamati figure geometriche (affini) di A.
con
y=Ax+ c, dove c = t(cl EGLn(K).
•..
[14.7]
cn) E Kn è il vettore delle coordinate di f(O), e A
Viceversa, ogni trasformazione f: A A EGLn(K), cE Kn, è un'affinità.
-> A
= Me(cp) E
della forma [14.7] per qualche
Nel caso particolare in cui A = A n e Oel ... en è il riferimento affine standard, si riottiene la descrizione delle affinità di A n data in precedenza. La dimostrazione del teorema è essenzialmente identica a quella precedente, ed è lasciata al lettore. Si noti l'analogia della [14.7] con la formula [12.3] che esprime il cambiamento di coordinate da un riferimento affine ad un altro. Le due formule descrivono però due operazioni di natura completamente diversa: la [12.3] dà le coordinate di uno stesso punto in riferimenti diversi, mentre nella [14.7] compaiono le coordinate di due punti diversi in uno stesso riferimento. Abbiamo il seguente corollario.
14.10 DEFINIZIONE Due figure geometriche F, F' C A si dicono affinemente equivalenti se esiste un'affinità che trasforma F in F', cioè se esistefEAff(A) tale che f(F) = F'. Una proprietà affine di una figura F è una proprietà che è comune a tutte le figure affinemente equivalenti a F. Se ad esempio F è un insieme finito di punti, il numero di punti di cui consiste è una sua proprietà affine, perché ogni affinità è una biezione. Se F è un sottospazio affine, allora la sua dimensione è una proprietà affine, come affermato dalla seguente proposizione. 14.11 PROPOSIZIONE Sia F un sottospazio affine di A efEAff(A). L'immagine f(F) di F tramite f è ancora un sottospazio affine e dim(f(F» = dim(F).
Dimostrazione Supponiamo che F sia il sottospazio passante per QEA ed avente giacitura W e chef EAff(A) sia un'affinità con isomorfismo associato cpE GL(V). Allora cp(W) è un sottospazio vettoriale tale che dim(cp(W» = dim(W). Inoltre per ogni PEF si ha f(Q) fe?) = cp(QP) Ecp(W): quindi f(P) appartiene al
14.9 COROLLARIO Nello spazio affine A su V siafissato un riferimento affine Oel ... en- L'applicazione Aff(A) -> Affn(K)
sottospaz~as
sante per f(Q) e avente giacitura cp(W). Viceversa, per ogni RE S si ha Qj-I(R) = = CP-I(fW)EW, cioè f-I(R)EF, e quindi REf(F). Perciò f(F) = S, e ciò prova l'asserto.
[14.8]
che associa a un'affinitàf di A l'affinità fA,c di An data dalla [14.7] è un isomorfismo di gruppi. Dimostrazione Dal teorema 14.8 segue che la [14.8] è biettiva, e pertanto sarà sufficiente dimostrare che èun omomorfismo. SeI. gEAff(A), con automorfismi associati cp e ..p
Abbiamo anche la proposizione seguente. 14.12 PROPOSIZIONE Sia A uno spazio affine su V di dimensione n, e siano {p.o' P l' .... , P n } e {Q0' Q h ... , Qn } due (n + I)-pIe di punti indipendenti. Allora esiste un 'unica affinità f: A -> A tale che
f(P)
= Q;,
i = 0, l, ... , n.
Geometria affine
186
Qo' .. o, Qs indipendenti tali che S' = Qo QI ... Qs' Sia f un'affinità tale che f(P;) = Q;, i = 0, 00" so Alloraf(S) = S'. Infatti, Y0iché f(S) ~ontiene ~o, '0'; Qs ed è un sottospazio affine, si haf(S)::> S'; ma dlm[f(S)] = dlm(S) = dlm(S ), e
Dimostrazione
Per l'ipotesi di indipendenza, gli insiemi di vettori -+
-+
{POPI' PoPz, -+
-+ 000'
PoPnl
-+
(QOQI' QoQz,
quindi f(S)
-+ 000'
187
14/Gruppi di trasformazioni. Affinità
=
S'.
QoQnl
costituiscono due basi di Vo Pertanto l'unico operatore lineare cp: V -> V tale che -+ -+ cp(PoP;) = QoQ;, i = l, 000' n, è un isomorfismoo Definiamo f: A -> A mediante la condizione:
Esercizi 1. Dimostrare che i gruppi SO(2) e U(1) sono isomorfi. 2. Per ognuna delle seguenti matrici A determinare
per ogni P EAo Evidentemente f è una biezione, e soddisfa all'identità
----->.
•
~
----->
-+
f(P)f(P') = Qof(P') - Qof(P) = cp(PoP') - cp(PoP) -+
= cp(PoP'
-+
a)
=
--+
- PoP) = cp(PP');
quindi f è un'affinitào Inoltre
d)
C -:) C :) ~i) (~ .~i ~
= Qoo
Infine per ogni i = l, ... , n si ha
4i 5
2
, 2
e quindi f(Po)
,{
*A:
:)
c) (:
b)
A, 'A,
1)
1 + 1). -1
f) (1. l-i
3. Dire quali delle matrici dell'esercizio precedente sono unitarie o
per la definizione di cp; pertanto f(P;) = Q;. L'unicità di f segue da quella di cp, dalla condizione f(Po) = Qo e dal lemma 14.5.
14013 COROLLARIO Sia A uno spazio affine su V di dimensione n. Allora: l) Per ogni 1:5 k:5 n + l, due qualsiasi k-uple di punti indipendenti di A sono affinemente equivalentio 2) Due sottospazi affini di A sono affinemente equivalenti se e solo se hanno la stessa dimensione. Dimostrazione 1) Se {Po, .. o, P k- I l e {Qo"'" Qk-I l sono due k-uple di punti indipendenti, esistono P k, '00, P n e Qk'oo" Qn tali che {Po, ... , Pnl e {Qo, ... , Qnl siano due (n + 1)-uple indipendenti. L'affinità f la cui esistenza è affermata dalla proposizione 14.12 manda {Po, 00" P k- I l in (Qo, ... , Qk-d.
2) Se i sottospazi affini S ed S' di A sono affinemente equivalenti, allora, per • la proposizione 14.11, hanno la stessa dimensione. Viceversa, supponiamo che dim(S) = dim(S') = s. È possibile trovare punti indipendenti Po, P p oo., P s E S tali che S = POPI . o. Pso Similmente esistono
4. SiaAEU(n)o Dimostrare che ciascuna delle matrici 'A,
A,
A* è unitariao
5. Dimostrare che se ~, ~, t sono rette di un piano aff~ne ~ ch~ non appartengono a uno stesso fascio, allora, date comunque tre rette ~ , ~ , t che non apparte~ gono a uno stesso fascio, esiste un'unica affinità f: A --+ A tale che f( ~ ) = ~ , f(~) =P, f(t) =15'. 6. In uno spazio affine A di dimensione 3 sia data una tema di piani ;bi> ;bh tal~ che ;bi n~ consista di un solo puntoo Dimostrare che per ogni.altra tema di piani ~i> ~, ~3 tali che ~i n ~2 n ~3 consista di un solo punto, eSiste fE Aff(A)
ft-<
nft-<
tale che f(,.0i) = ~i' i = 1, 2, 3o 2 2 7. In ciascuno dei casi seguenti determinare l'affinità f: A (Q) --+ A (Q) che soddisfa le condizioni assegnate:
= (1, -1), 1) = (1,2),
a) f(O, O)
b) f(2,
= (3, -1), -1) = (1, 1),
f(1, O) f( -1,
c)f(n=~', f(~)=P,
= (2, 1) = (2,
f(O, 1)
2)
f(O,
-1)
f(t) =15',
dove
~: X = 1, ~: Y = X, t: y = - 2, ~': 2X - Y = 0, ~': X + Y = 0,
t':
2X + Y = 1.
Geometria affine
188
8. Dimostrare che, se A è un piano affine reale:
14/Gruppi di trasformazioni. Affinità
189
Dimostrare che:
a) due semirette qualsiasi di A sono affinemente equivalenti (suggerimento: dimostrare che un punto e un vettore non nullo assegnati possono essere trasformati in un altro punto e in un altro vettore non nullo arbitrari);
Z Z, '1 cui elemento neutro è a) con questa operazione n Z X 2Z e un gruppo I
b) due segmenti qualsiasi di A sono affinemente equivalenti;
b) posto x= (1, O) e y = (O, 1), si ha D 2n = (xo = e, x, ... , x" -,' y, xy, ... , Xn-'y).,
c) due semipiani qualsiasi di A sono affinemente equivalenti; d) due triangoli qualsiasi di A sono affinemente equivalenti.
c) x genera un sottogruppo di D 2n isomorfo a Z/nZ;
9. Sia A uno spazio affine reale. Dimostrare che:
d) y genera un sottogruppo di D 2n isomorfo a Z/2Z;
a) due semispazi qualsiasi di A sono affinemente equivalenti;
e) D 2n non è abeliano.
b) se U C A è un sottoinsieme convesso, ogni sottoinsieme affinemente equivalente a U è convesso. Quindi la convessità è una proprietà affine; c) ogni affinità di A trasforma il punto medio di un segmento nel punto medio del segmento immagine. lO. Sia b EAn e c EK*. Dimostrare che
Wb,
c = TeI , b(l-c)'
11. Sia n ~ 1 un intero. Due numeri interi a, bE Z si dicono congrui modulo n se b - a è divisibile per n. Dimostrare che la congruenza modulo n è una relazione di equivalenza in Z. L'insieme delle classi di congruenza (dette anche classi resto) modulo n si denota con Z/nZ, e consiste degli n elementi O, 1, ..., n -1, le classi di O, 1, ... , n-L Dimostrare che la somma in Z induce in Z/nZ un'operazione rispetto alla quale Z/nZ è un gruppo abeliano. 12. Sia !§' un gruppo. Un sottoinsieme ~ di !§' si dice sistema di generatori di !§' se ogni elemento di !§' si può esprimere come prodotto di un numero finito di elementi di ~ e di loro inversi. Se ~ consiste di un numero finito di elementi, !§' si dice finitamente generato. Se ~ = (g) consiste di un solo elemento !§' è detto gruppo ciclico di cui g è un generatore. Dimostrare che: a) ogni gruppo ciclico è abeliano; b) Z (con l'operazione +) e Z/nZ, n
~
1, sono gruppi ciclici;
c) ogni gruppo ciclico è isomorfo a Z oppure a Z/nZ per qualche n
~
1;
d) l'insieme delle radici n-esime di 1 è un sottogruppo ciclico di C (ogni suo generatore è chiamato radice primitiva n-esima di 1). 13. Siano n
~
2 un intero. Nel prodotto cartesiano
Z
Z
nZ
2Z
--X--
definiamo un'operazione nel modo seguente: (alo
O) (a2, O) = (a, + a2' O) -
-
(alo O) (a2' 1)
(a" l~ (a2'
= (a, + a2'
1) =
(al - a2'
-
1)
O).
= (a"
-
-
1) (- a2' O)
e = (O, O); questo gruppo, indicatocon D2no è detto gruppo diedrale di ordine 2n;
14. Sia n ~ 2 un intero. L'insieme an di tutte le per.mutaz~oni. di un insieme .finito ~onte nente n elementi è un gruppo di trasformazionI che SI chIama gruppo simmetrico su n elementi. Dimostrare che an non è abeliano se n ~ 3.
191
15/Forme bilineari e forme quadratiche
Se b è antisimmetrica, allora b(v, v)
Capitolo 2
= - b(v, v) = O per ogni vEV. D'altra parte,
una forma bilineare b tale che
Geometria euclidea
b(v, v) = O
per ogni vEV
è antisimmetrica. Infatti, dalle FBI, FB2 segue che per ogni v, wEV si ha
0= b(v + w, v + w) = b(v, v) + b(v, w) + b(w, v) + b(w, w) = b(v, w) + b(w, v).
=
15.2 Esempi 1. Un esempio banale di forma bilineare su uno spazio ve.tt~riale V è l'a??licazione identicamente nulla: O(v, w) = O per ogni v, wE V. OSI dice forma bllmeare nulla. Essa è simmetrica e antisimmetrica. 2. Sia A
In geometria affine hanno senso solo proprietà geometriche che non utilizzano nozioni di natura metrica quali quelle di angolo, distanza, perpendicolarità: In questo capitolo vedremo come in uno spazio affine reale sia possibile introdurre una struttura più fine, quella di spazio euclideo, in cui gli ordinari concetti metrici sono definiti. Per far ciò sono necessari nuovi argomenti di algebra lineare, e precisamente la teoria delle forme bilineari e delle forme quadratiche, che inizteremo a studiare in questo paragrafo. Tratteremo anche aspetti della teoria non strettamente necessari nel seguito, e però di importanza fondamentale in matematica.
15.1 b:
VxV~K
si dice forma bilineare su V se è lineare in ognuno dei due argomenti, cioè se soddisfa le seguenti condizioni:
+ b(v / , w) b(v, w) + b(v, w')
FBI
b(v + v', w)
= b(v,
FB2
b(v, w + w')
=
FB3
b(kv, w)
w)
= b(v, kw) = kb(v,
w)
per ogni v, v', w, W/EV, kEK. La forma bilineare b si dice simmetrica se b(v, w)
=
b(w, v)
per ogni v, wEV;
b si dice antisimmetrica, o alterna, se b(v, w)
= -
b(x, y)
b(w, v)
per ogni v, WEV.
= txAy = l,l Eaijx;y;
y - t (y y) Dalle proprietà del prodotto di matrici per ogm• x = t (x l •.. x) n' l ••• n' . . • . segue che in questo modo si è definita unà forma bIlmeare (cfr. propos1Zl0ne 2.2(1)). Se {El' ... , Enl è la base canonica di Kn, si ha
b (E;, E)
= aij
per ogni l 50 i, j 50 n. Se ad esempio si prende n
I
Sia V un K-spazio vettoriale. Un'applicazione
DEFINIZIONE
= (aij) EMn(K);
considerando i vettori di Kn come degli n-vettori colonna, otteniamo una forma bilineare su Kn ponendo
15 Forme bilineari e forme quadratiche
A~\
1 O
-1
O
-2
O
-l
7f
= 3
e
2 O 3
allora la corrispondente forma bilineare su K è b(x, y) = XIYl - 2X1Y3
+ x 2y/2 -
X3Yl
+ 7fX2Y3'
Questa forma bilineare non è simmetrica perché b(E 1, E 3)
Se A
= In'
= - 2 ~ - l = b(E3 ,
El)'
matrice identità, si ottiene
b(x, y) = txy = XIYl
+ X2Y2 + ... + xnYn'
[15.1]
La b definita dalla [15.1] è una forma bilineare simmetrica che è chiamata forma
simmetrica standard su Kn.
192
Se n
=
193
15/Forme bilineari e forme quadratiche
Geometria euclidea
2k, cioè se n è pari, e se si prende A = J k , dove aij = b(ei , ej ),
l
:5
i, j:5 no
La matrice A individua la forma bilineare b. Infatti per ogni v, wEV si ottiene b(x, y) = XIYk+[ + '" + xkYn - Xk+IYI - ... - XnYk,
si ha
+ xnen> Ylel + + Ynen) = b(v, w) = b(xle l + = b(xle l , yle l + o" + Ynen) + o" + b(xnen, ylel + o" + Ynen) = = x[b(e l , y[e l + + Ynen) + + xnb(e n, yle l + + Ynen) = = xdb(e l , YI e l) + + b(e p Ynen)] + o" + x n[b(en> YI el) +
che è una forma bilineare alterna, chiamata formà alterna standard su Kn.
0'0
Sia b: V x V -+ K una forma bilineare. La bilinearità di b permette di definire due applicazioni lineari di V in VV nel modo seguente. Per ogni v EV l'applicazione bv: V -+ K definita da bv(w) = b(v, w),
'00
"0
00'
"0
=XI[ylb(e l , e l)+ .. +Ynb(el, en )] + 0
.00
+ b(en, Ynen)] =
+xn[ylb(en> el)+ o" + Ynb(en> en )] =
"0
= 'E.ijxiyjb(e i, e) = IxAy,
è un funzionale lineare. Infatti dalla definizione segue che bv(ci Wl + c2 w:J = b(v, CI Wl + c2 w:J = CI b(v, Wl) + c2 b(v, w2) = clbv(w l) + c2 b v(w2)
.0.
00'
per ogni WEV,
per ogni Wl' W2 EV, CI' c2 EK. Quindi, ponendo 0b(V) un' applicazione
"0
=
= bv per ogni vEV,
si ottiene
dove abbiamo denotato con x e y i vettori colonna delle coordinate di vedi w rispettivamente. Viceversa, se A = (aij) EMn(K) è una qualunque matrice quadrata di ordine n ed [e p .. o, en J è una base di V, ponendo b(v, w) = 'E.aijxiYj = IxAy l.l
per ogni v(x l, ... , x n), W(YI' ... , Yn)EV, si definisce una forma bilineare su V. Infatti, per ogni v, w, v'(x;, ... , x~), w'(Y;, ... , y~)EV, kEK si ha
La 0b è lineare. Infatti per ogni vI' v2 EV, CI' c2 EK si ha [Ob(C I VI
+ c2 v:J] (w) = b
C ,V'+C2 V'(W) = b(c i VI + c2 v2 , w) = = c1b(v l, w) + c2 b(v2 , w) = clbv,(w) + c2 bv,(w) = [CIOb(V I) + C2 0b (V 2)] (w)
per ogni wEV, cioè 0b(CIV I + C2 V2 ) = CIOb(V I) + COoh(v,). In modo simile si verifica che ponendo O;(w) -= b~~ dove b~: V -+ K è il funzionale definito da b~(v)
= b(v, w)
b(v + v', w) = I(X + x')Ay = IxAy + Ix'Ay = b(v, w) + b(v', w), b(v, w + w') = IxA(y + y') = IxAy + IxAy' = b(v, w) + b(v, w'), b(kv, w) = l(kx)Ay = k1xAy = kb(v, w) b(v, kw) = IxA(ky) = k1xAy = kb(v, w)o
=
per ogni vEV,
È evidente che la forma bilineare b così definita ha proprio A come matrice rispetto alla base [el' ... , en J• Si osservi inoltre che si ha
b(w, v) =tyAx = IX tAy
si definisce un'applicazione lineare
o;:
e quindi
V-+Vv.
Il lettore non avrà difficoltà a dimostrare che 0b = metrica.
o;
b(v, w)
se e solo se b è sim-
15.3 DEFINIZIONE Sia V un K-spazio vettoriale di dimensione n, [e[, ... , en J una sua base, e sia b: V x V -+ K una forma bilineare su V. La matrice di b (o che rappresenta b) rispetto alla base [e l, .. o, en J è la matrice
= b(w,
v)
per ogni v(x l , ... , x n), W(YI' ... , Yn)EV se e solo se tA =Ao In altre parole, la forma bilineare b è simmetrica se e solo se la matrice A è simmetricaoAnalogamente, b è antisimmetrica se e solo se tA = - A, cioè se e solo se A è antisimmetrica. Riassumendo, possiamo enunciare la seguente proposizione.
13
194
Geometria euclidea
15.4 PROPOSIZIONE Sia V un K-spazio vettoriale di dimensione jinita, e sia e = [e l , ... , en} una sua base. Associando ad ogni jorma bilineare la suà matrice rispetto a e si ottiene una corrispondenza biunivoca tra l'insieme Bil (V) dellejorme bilineari su V ed Mn(K). Tale corrispondenza induce un'applicazione biunivoca dell'insieme delle jorme bilineari simmetriche (forme bilineari antisimmetriche) sull'insieme delle matrici simmetriche (matrici antisimmetriche). Ovviamente la corrispondenza biunivoca descritta dalla proposizione 15.4 dipende dalla base che si è scelta, cioè le matrici che rappresentano una data forma bilineare rispetto a due diverse basi sono in generale diverse. Vediamo in che modo. Supponiamo che b: V X V ~ K sia una forma bilineare e che e = [e , ... , e } l n ed f = [fi' ... , f n } siano due basi di V. Siano
A
= (ai) =
(b(ei , e)
15/Forme bilineari e forme quadratiche
195
In conclusione abbiamo dimostrato la seguente proposizione: 15.5 PROPOSIZIONE Sia V un K-spazio vettoriale di dimensione n. Due matrici A, BEMn(K) rappresentano la stessajorfl1(l bilineare b su V rispetto a due diverse basi se e solo se sono congruenti. Dalla proposizione 4.3(2) segue che due matrici congruenti hanno lo stesso rango. Pertanto, per la proposizione 15.5, il rango r della matrice A che rappresenta una data forma bilineare b rispetto a una base qualsiasi non dipende dalla base, ma solo da b: chiameremo r rango della jorma bilineare b. Se b ha rango r = dim(V) (r < dim(V» la forma bilineare si dice non degenere (degenere). La seguente proposizione dà diverse caratterizzazioni delle forme bilineari non degeneri.
B = (bi) = (b(fi , f j »
le matrici che rappresentano b rispetto a e ed f rispettivamente. Se v, w EV sono due vettori qualunque, con coordinate rispetto alle due basi
+ ... + xnen = X{ f l + '" + X; fn> w=yle l +· .. +ynen=y{f1 + ... +y;fn> v=
Xl
el
si ha b(v, w)
=
txAy = tx ' By'.
[15.2]
Posto M = Me,t(ly), si ha x = Mx', y = My' e, sostituendo nella [15.2], si ottiene tx
' By'
= t(Mx')A(My') = tx'(lMAM) y'.
Dimostrazione Scelta una base e = [e l , ... , en l di V, sia A EM n (K) la matrice di b rispetto a e. (1) (2) Se A ha rango n e x -;é. O è il vettore delle coordinate di v, allora txA -;é. (O ... O), e quindi esiste y E Kn tale che txAy -;é. O; il vettore w di coordinate y è tale che b(v, w) -;é. O. (2) (1) Per ipotesi per ogni x -;é. O esiste y tale che txAy -;é. O; ciò implica txA -;é. (O ... O) per ogni x -;é. O, e questo significa che A ha rango n. (1) {} (3) Si dimostra in modo simile. (2) (4) Poiché dim(V) = dim(VV), è sufficiente far vedere che N(Ob) = (O). Sia dunque v EV tale che b v sia il funzionale nullo. Allora =}
[15.3]
Poiché la [15.3] è vera per ogni x', y' E Kn, deduciamo che
B=MAM.
15.6 PROPOSIZIONE Sia V un K-spazio vettoriale di dimensione jinita e sia b: V x V ~ K una jorma bilineare. Le seguenti condizioni sono equivalenti: 1) b è non degenere. 2) Per ogni v -;é. O in V esiste wE V tale che b(v, w) -;é. O. 3) Per ogni w -;é. O in V esiste v -;é. O tale che b(v, w) -;é. o. 4) L'applicazione 0b: V ~ VV è un isomorjismo. 5) L'applicazione o;: V ~Vv è un isomorjismo.
=}
[15.4]
La [15.4] esprime la relazione esistente tra le matrici A e B che rappresentano la forma bilineare b rispetto alle due basi e ed f rispettivamente. Viceversa, se A è la matrice che rappresenta la forma bilineare b rispetto alla base e, e se ME GLnCK) è una qualunque matrice invertibile di ordine n, allora esiste una base f tale che M = M e,t(1y). Pertanto B = tMAM è la mat;ice che rappresenta b rispetto a f. Diremo che due matrici A, BE M n(K) sono congruenti se esiste M EGL (K) tale n che
B=MAM. Lasciamo al lettore il compito di verificare che la congruenza di matrici è una relazione di equivalenza in Mn(K).
=}
0= bv(w)
=
b(v, w)
per ogni WEV. Ciò contraddice la (2) a meno che v = O. (4) (2) Per ogni vEV, v -;é. O, Ob(V) = bv -;é. 0, e quindi esiste wE V tale che O -;é. bv(w) = b(v, w). L'equivalenza di (3) e (5) si dimostra nello stesso modo. =}
D'ora in poi ci limiteremo a considerare le forme bilineari simmetriche, le quali hanno una particolare importanza per gli argomenti geometrici che svilupperemo.
196
Geometria euclidea
15.7 DEFINIZIONE Sia b una forma bilineare simmetrica su uno spazio vettoriale V, e sia v EV. Un vettore w EV si dice ortogonale (o perpendicolare) a v, se b(v, w) == O. In tal caso i due vettori v e w si dicono ortogonali (o perpendicolari).
15/Forme bilineari e forme quadratiche
Se V ha dimensione finita ed e = (el> ... , en}è una base di V tale che i vettori che ne fanno parte siano a due a due ortogonali, cioè soddisfino la condizione
b(ei , e) = O Supponiamo assegnata in V una forma bilineare simmetrica b. Sia S un sottoinsieme di V; l'insieme dei vettori ortogonali ad ogni v ES si denota con S.L; in simboli: S.L = {wEV: b(v, w)=O per ogni VES}. È immediato verificare che S.L è un sottospazio vettoriale di V. Infatti, se w, w ES .L, k EK, allora I
b(v, w + w') = b(v, w) + b(v, w') = O+ O = O b(v, kw) = kb(v, w) = kO = O, per ogni v ES. Chiameremo S.L il sottospazio ortogonale ad S. Se S = [v}, è abituale scrivere v.L anziché [v l ~ . Due sottospazi U e W di V si dicono ortogonali se U C W .L; dalla simmètria di b segue immediatamente che 'questa condizione è equivalente a W C U.L. II sottospazio V.L è detto radicale di V. Dalla proposizione 15.6 segue che b è non degenere se e solo se V.L = (O). Un vettore v EV è isotropo rispetto alla forma bilineare simmetrica b se v Ev.L , cioè se b (v, v) = O. Ovviamente O è isotropo. Se v EV è isotropo e k EK, allora si ha
b(kv, kv) = kZb(v, v) = kZO = O
197
per ogni i 7é- i,
allora e è una base ortogonale, o diagonalizzante, per b. Se e è una base ortogonale, allora la matrice A = (ai) che rappresenta b rispetto ad e è una matrice diagonale, perché aij = b(ei , e) = O per ogni i 7é- j. In tale base la forma bilineare si esprime pertanto nel modo seguente:
b(v, w)
= allxIYI + azzxzYz + ... + annxnyn.
[15.8]
Si osservi che se una base ortogonale e esiste, essa non è unica: ad esempio ogni base della forma p'Ie I, À,zez, ... , À,nen}, À,I' ... , À,nEK*, è ancora ortogonale. Ponendo
q(v) = b(v, v)
per ogni VEV
si definisce un'applicazione q:
V~K,
detta forma quadratica determinata da (o associata a) b. Se ad esempio b è la forma bilineare (simmetrica) standard su Kn, la forma quadratica ad essa associata è q(x) = xt
+ xi + ... + x;,
chiamata forma quadratica standard su Kn. e quindi il sottospazio (v) consiste di vettori isotropi. Se v non è un vettore isotropo posto, per ogni WEV,
av(w) = b(v, w)/b(v, v),
[15.6]
si ha
q(kv)
b(v, w - av(w) v) = O
= kZq(v)
2b(v, w)
cioè w - av(w) vEv.L. Poiché w = av(w) v
15.8 PROPOSIZIONE Sia V uno spazio vettoriale su cui sia assegnata unaforma bilineare simmetrica b: V x V ~ K. La forma quadratica q associata a b soddisfa le seguenti condizioni:
=
q(v + w) - q(v) - q(w)
per ogni kEK, v, wEV.
+ (w - av(w) v)
deduciamo che V = (v) + v.L. D'altra parte (v) n v.L = (O) perché v non è isotropo e pertanto (v) n v.L è un sottospazio proprio di (v). Quindi per ogni vettore non isotropo v EV si ha
Dimostrazione La prima proprietà è immediata conseguenza della FB3. Si ha poi q(v + w) - q(v) - q(w) = b(v + w, v + w) - b(v, v) - b(w, w) = = b(v, w) + b(w, v) = 2b(v, w).
[15.7] Lo scalare av(w) definito dalla [15.6] è detto coefficiente di Fourier di w rispetto a v. Si noti che av(w) è definito solo se v non è un vettore isotropo.
Dalla proposizione 15.8 discende in particolare che una forma quadratica q individua univocamente la forma bilineare simmetrica b cui è associata, perché b si esprime per mezzo di q; segue da ciò che è equivalente assegnare su V una
198
Geometria euclidea
forma bilinear"e simmetrica oppure la forma quadraticaad essa associata. La forma bilineare simmetrica b si dice forma bilineare polare della forma quadratica q. Nel caso in cui V ha dimensione finita diremo che q ha rango r se r è il rango di b. Se {el"'" en J è una base dello spazio V, e se A = (ai) è la matrice (simmetrica) che rappresenta la forma bilineare simmetrica b, si ha, per ogni v(x 1,
••• ,
[15.10]
= "E,aijxixj , l,}
Quindi q(v) Q(X)
=
=
Q(x), dove
'XA X
= "E,aijXi
J0
[15.9]
l,}
è un polinomio omogeneo di grado 2 nelle indeterminate Xl' ... , X che sono m state rappresentate complessivamente come un vettore colonna X = '(Xl'" X ). n Diremo che Q(X) rappresenta la forma quadratica q nella base e, Se ad esempio dim (V) == 3 e la matrice di b rispetto alla base {el' e , e J è 2
~1
O
5
-1
3
199
siffatto viene anche chiamato forma quadratica n-aria (binaria se n = 2, ternaria se n == 3 ecc.). Se A è una matrice diagonale il polinomio [15.9] è privo dei "termini misti" qijXiXj , i =;t. j, e quindi è della forma
x n) EV:
q(v) == 'xA x
2
15/Forme bilineari e forme quadratiche
3
5 1 3
Pertanto una base e di V è diagonalizzante per la forma bilineare b se e solo se il polinomio che rappresenta la forma quadratica q è della forma [15.10]. Diremo in tal caso che 6 è una base diagonalizzante per q. Evidentemente, due polinomi omogenei di secondo grado Q(X) = 'XA X e R (X) = !XBX nelle indeterminate X == !(Xl ••• X n ) rappresentano la stessa forma quadratica su V in due basi diverse se e solo se le matrici simmetriche A e B sono congruenti. Infatti, per la proposizione 15.5, l'essere congruenti è condizione necessaria e sufficiente affinché le matrici A e B rappresentino la stessa forma bilineare in due basi diverse. Nel paragrafo 16 dimostreremo che ogni forma quadratica su uno spazio vettoriale di dimensione finita possiede una base diagonalizzante. Supponiamo che sul K-spazio vettoriale V sia definita una forma bilineare simmetrica b: V x V ~ K, con forma quadratica associata q, e sia W un sottospazio di V. Allora b induce un'applicazione
-3 b':
WxW~K
si ha
Si noti che ogni polinomio omogeneo di secondo grado in n indeterminate
la quale evidentemente soddisfa ancora le condizioni della definizione, ed è pertanto una forma bilineare su W. Inoltre b' è simmetrica perché b lo è. Nello stesso modo vediamo che la forma quadratica q': W ~ K associata ab' coincide con la restrizione di q a W, e pertanto la restrizione di q a W è ancora una forma quadratica.
15.10 Complementi può rappresentarsi nella forma [15.9] per un'opportuna matrice simmetrica A, e quindi, in una data base e di V, Q rappresenta una forma quadratica q la cui forma bilineare polare è quella rappresentata da A. La matrice A = (ai) è data dalla seguente formula:
i = 1, ... , n a ij == qijl2,
i =;t. j.
Un polinomio omogeneo di secondo grado Q(X) può sempre essere considerato come un'applicazione Q: Kn~ K. Ovviamente Q è una forma quadratica il cui polinomio associato rispetto alla base canonica è Q(X) stesso. Pertanto spesso identificheremo il polinomio Q(X) con la forma quadratica Q. Un polinomio
1. Siano U e W sottospazi vettoriali di uno spazio V tali che V = U (±) W. Supponiamo assegnate forme bilineari h: U x U ~ K, k: W x W ~ K. Definiamo h (±) k: V x V ~ K ponendo
(h (±)k)«u, w), (u', w'»==h(u, u')+k(w, w'). L'applicazione h(±)k è una forma bilineare, detta somma diretta di h e k. Se h e k sono entrambe simmetriche (entrambe alterne) h (±) k è simmetrica (alterna). Le verifiche sono lasciate al lettore. 2. Sia b: V x V ~ K una forma bilineare, e = {e l , ••• , en J una base di V e V A = (aij)la matrice di b rispetto a e. Sia e = {'I]I' ..• , 'l]n J la base di VV duale di
200
Geometria euclidea
e. Allora ~ è la matrice che rappresenta l'applicazione lineare
f5/Forme bilineari e forme quadratiche
Ad esempio, la forma bilineare
0b: V --+ VV
h (x, y)
rispetto alle basi e ed e
201
= X]Yz + XZYI
V •
Ricordiamo che 0b è definita da 0b (v) bv(w)
= b(v,
w),
= bv ,
dove bv E yv è il funzionale
su KZ è iperbolica, e la base canonicaèiperbolica.. Anche la forma bilineare 1
wEV.
. Per dimost~arel'affermazione precedente è necessario dimostrare che, per ogni 1, ... , n, SI ha
1=
1
k(x, y) = -XIYI- -xzYz .22 è iperbolica, e una base iperbolica è [(1, 1), (l, -l)}. Per la forma k la base canonica è diagonalizzante.
n
Ob(e;) = E
ait'YJt"
[15.11]
t=1
Ma per ogni i = 1, ... , n abbiamo [Ob(e i )] (ej )
= b(ei , e) = a ij ,
mentre n
[E
t=1
w=v-
n
ait'YJt]
(e)
=
E
t=1
b(v, v) U
2
ait0tj = ai;.'
. Poiché assumono gli stessi valori sulla base e, il primo e il secondo membro dI [15.11] sono uguali, e questo prova quel che si voleva. Si verific~ in modo simile che A è la matrice che rappresenta l'applicazione o;: V --+ VV rIspetto alle basi e ed eV. 3. Sia V un K-s.p.azio ve~toriale tale che dim(V) = 2. Supponiamo assegnata ~u V una .forma bIlmeare sImmetrica h non degenere tale che esista un vettore Isotropo rIspetto ad h e non nullo. Allora h si dice forma iperbolica su Vela coppia (V, h) si dice piano iperbolico. Se ~I!' h) è ~n p!ano iperbolico, V possiede una base [UI, u z } formata da due vettOrI IS~tro?I t~h che h(u l , uz) = 1. Infatti, per definizione esiste u ~ O isoi tropo. POlche h e .non degenere, esiste v EV tale che h (u l , v) = 1. I vettori U , v I non sono proporzIOnali, perché si ha h(u l , ku l ) = kh(u l , u I ) = per ogni kE K' ~erta~to u l e N. so~o linearmente indipendenti. Prendendo U z = v - h(v, v)U/2 SI ottIene la base rIchiesta.
°
Una base. [UI> uz } con tali proprietà è detta iperbolica. La matrice che rappresenta h rIspetto a una base iperbolica è
[15.12t È evidente, viceversa, che se lo spazio vettoriale V ha una base [u u} tal che la matrice della forma bilineare sia la [15.l2J allora (V h) e' ~'z. e
· bolICO.
4. Siano V uno spazio vettoriale e b: V x V --+ K una forma bilineare simmetrica non degenere tale che V contenga un vettore isotropo U ~ O. Allora esiste un sottospazio V di V contenente U e tale che la coppia (V, bu) sia un piano iperbolico. Infatti, poiché b è non degenere, esiste v EV tale che b (u, v) = 1. Il vettore
,
,
un plano Iper-
è isotropo e tale che b(u, w) = 1. Quindi il sottospazio V volute.
= (u, w)
ha le proprietà
5. Siano V uno spazio vettoriale e q: V --+ K una forma quadratica. Uno scalare a E K si dice rappresentabile mediante q se esiste vEV, v ~ O, tale che q (v) = a. Se V è uno spazio vettoriale complesso e q è non degenere, allora ogni a EC è rappresentabile mediante q. Infatti, fissata una base [el' ... , en } tale che b(e]) ~ 0, e detta (3EC una radice quadrata di aq(el)-I, si ha q({3e l ) = (3Zq(e l ) = a.
Se K = R, V = Rn, n ~ 1, q(x) = x? + ... + x~, la forma quadratica standard, allora, evidentemente, nessun numero a :5 è rappresentabile mediante q. Invece ogni numero reale a > Olo è: lo si può dimostrare esattamente come nel caso degli spazi complessi, tenendo presente che a possiede una radice quadrata reale. La nozione di rappresentabilità di uno scalare mediante q è importante se K = Q. L'insieme degli scalari rappresentabili mediante una data forma quadratica q su un Q-spazio vettoriale, ad esempio su Qn, ha una notevole importanza aritmetica. Se (V, h) è un piano iperbolico e q: V --+ K è la forma quadratica associata ad h, allora q(V\ [O}) = K, e quindi ogni elemento di K è rappresentabile mediante q. Infatti, se [u l , uzI è una base iperbolica di V e a E K, si ha
°
q(U] + ~
u z) =a.
Dall'osservazione precedente e dalla 15.10(5) segue subito che se q è una forma quadratica non degenera su uno spazio vettoriale V, tale che esista in V un vet-
Geometria euclidea
202
tore isotropo non nullo, allora ogni ex EK è rappresentabile mediante q. In altre parole, se O è rappresentabile mediante q, lo è ogni ex EK. Prendendo ad esempio K = Q e V = Q2, otteniamo che ogni numero razionale a può essere espresso nella forma
a =1-(2 x - y2), 2
Esercizi
1. Stabilire quali delle seguenti sono forme bilineari sll Rn.
c)
6. Sia b: V x V ....... K una forma bilineare simmetrica non degenere su un K-spazio vettoriale V, e sia D un sottospazio di V. Il sottospazio ortogonale D.L coincide con l'ortogonale di (\(D) C VV, così come è stato definito in 11.14(3). Supponiamo che V abbia dimensione finita. Poiché b è non degenere, Ob è un isomorfismo, e quindi dim(U) = dim[ob(D)]. Dalla [11.13] segue pertanto che dim(D.L)
=
n - dim(D).
i; xjl yj I
a) (x,y) =
con x, yEQ.
[15.13] /
Se D non contiene vettori isotropi non nulli, si ha D n D.L = (O), e dalla [15.13] segue allora che V = D EB D.L. Prendendo in particolare D = (v), dove v è un vettore non isotropo, si ottiene l'identità [15.7] dimostrata in precedenza. 7. Sia b: V x V ....... K una forma bilineare simmetrica sullo spazio V, e denotiamo con Ib(V) C V l'insieme dei vettori isotropi rispetto a b. Ib(V) è detto cono isotropo di V (rispetto a b). Un sottospazio D di V si dice isotropo se D C Ib(V). Ovviamente (O) è un sottospazio isotropo di V, che si dice banale. Se b è degenere, allora il suo radicale V.L è un sottospazio isotropo non banale. . Se D è un sottospazio isotropo e 01' u 2 ED, allora, poiché Dj + O 2 ED, si ha
203
16/Diagonalizzazione delle forme quadratiche
b) (x, y)
~
j(=li; Xi) ( Yj)
(x:y) =
1=1
e) (x, y) =
=IE, XjYj\
d) (x, y) =
J-I
i; (Xj + yy - i; x] - i; y]. j=l
j=l
)=1
2. In ciascuno dei casi seguenti determinare la forma bilineare polare della forma qua~ drica q: R2 -> R: a) q(x, y)
= 3x- -
2
b) q(x, y) = 4x - 9xy + 5y 2 d) q(x, y), = x 2 - 2xy + y2
8xy - 3y 2
, 7 2 c) q(x, y) = 4x2 - 4xy + Y • .2 O 3' 2 e) q(x, y) = 3x + l xy + Y
f) q(x, y) = 6xy.
3. Determinare la matrice e il rango di ciascuna delle forme quadratiche dell'esercizio precedente. 4. In ciascuno dei casi seguenti determinare la forma bilineare polare della forma quadratica q: R 3 -> R:
= xz + xy + yz 2 2 2 2 c) q(x, y, z) == x - XZ - Y - z
b) q(x, y, z) = 2xy + y2 - 2xz 2 d) q(x, y, z) = 5x + 3y 2 + xz
a) q(x, y, z)
e) q(x, y, z) = - x 2 - 4xy
+ 3y 2 + 2z
2 .
5. Determinare la matrice e il rango di ciascuna delle forme quadratiche dell'esercizio precedente.
cioè 01 e O 2 sono ortogonali. Da ciò discende che D C D.L. Viceversa, se D C D.L , allora è evidente che D è isotropo. La forma b si dice anisotropa se V non possiede vettori isotropi non nulli, cioè se I b(V) = [O}. Ad esempio la forma bilineare standard su R n è anisotropa. Supponiamo b non degenere, e sia D un sottospazio isotropo. Allora si ha dim (D) ::S
..l dim (V).
[15.14]
2
Infatti D isotropo significa che D C D.L, e quindi, per la [15.13], abbiamo dim(D)::s dim(D.L) cioè la [15.14].
=
dim(V) - dim(D),
204
Geometria euclidea
Eseguiamo il cambiamento di coordinate
Prima dimostrazione
Procediamo per induzione su n = dim(V). Se n = l non c'è niente da dimostrare. Supponiamo dunque n ~ 2, e che ogni forma bilineare simmetrica su uno spazio di dimensione minore di n possieda una base diagonalizzante. Se b è la forma bilineare nulla non c'è niente da dimostrare, perché in una qualsiasi base la matrice di b è la matrice nulla, che è diagonale, e quindi ogni base di V è diagonalizzante. Possiamo dunque supporre che b non sia la forma bilineare nulla, e quindi che esistano v, WEV tali che b(v, w) ~ O. Da ciò segue che uno almeno dei tre vettori v, w, v + w è non isotropo. Infatti, se v e w sono entrambi isotropi, allora b(v + w, v
+ w) = b(v,
v)
+ b(w, w) + 2b(v, w) = 2b(v, w) ~ O.
Pertanto esiste un vettore e l EV tale che b(el' e l ) ~ O. Dalla (15.7] segue che V = (e l >(B ejL; in particolare dim (ell.) = n - l. Per l'ipotesi induttiva la forma bilineare b' indotta da b su ell. possiede/una base diagonalizzante: sia essa [e z, ... , en }. Allora e = [e l , ez, ... , en l è una base di v: infatti ez' •.• , en sono linearmente indipendenti e d'altra parte e l ~ (èz, •• , ... , en > = ell., sicché e l , e z, ... , en sono linearmente indipendenti. Inoltre b(e p e) = O per ogni j = 2, ... , n, perché ejEe/. Infine b(e;, ej ) = = b' (ei , e) = O per ogni i ~j, 2:$. i, j:$. n, perché [ez' ... , enl è una base di ell. diagonalizzante per b'. Quindi e è una base diagonalizzante per b. Seconda dimostrazione (Lagrange)
Per induzione su n = dim(V). Se n = l non c'è niente da dimostrare. Supponiamo n ~ 2, e che ogni forma bilineare simmetrica su uno spazio di dimensione minore di n possieda una base diagonalizzante. Scegliamo una base b = [bI' ... , bnl di V. Se b è la forma bilineare nulla, allora b è diagonalizzante, e non c'è niente da dimostrare. Se b non è la forma bilineare nulla, allora possiamo ottenere da b una nuova base c = [cl' ... , cn } tale che b(c l , CI) ~ O. Infatti, se b(b;, b) ~ O per qualche i, sarà sufficiente scambiare bi con bi' Se viceversa b(b;, b) = O per ogni i, allora dev'essere b(b;, b) ~ O per qualche i ~j; scambiando ancora possiamo supporre b(b l , bz} ~ O, e la nuova base c
= [bi + bz'
ha la proprietà voluta. Nella base c la forma quadratica q associata a b ha l'espressione n
I
= YI +
n
I; hi!l hIiy;, Zz
;=z
d
=
[dI' ... , d n l = - h l h c I + CZ' 12 ll
= (Cl'
CI) ~
q(V(ZI' ... , zn» = hllz? I (
+ C3'
I
••• ,
-
h ll hlnC I
l + Cn .
+ q'(ZZ' ... ,
zn)'
)
I.
Supponiamo che K sia algebricamente chius~: Sia V,un K(V) - n > l e sia b: V x V --+ K una forma bllmeare slmmespazIo vettona e,1m -, , d' b , . b {-e e l diagonalizzante per b tale che la matnce I tnca. ESIste una ase l' ••• , n
162 ..
TEOREMA
'l
d'
sia della forma
D =
(IOz 00 r
[16.2]
1
)
3
dove r è il rango di b e 01 EMr,n-r (K) '
(K) 03 EMn_r,n_r(K) sono le O M zE n-r,r ,
matrici nulle. ,. (K) di ran o r è congruente Equivalentemente, ogni matrice slmmetnca A EM n g alla matrice [16.2]. . l' P L'equivalenza delle due affermazioni è evidente. Dlmostrer~mo .a pr~ma. er . b f - {f f l tale che la matnce dI b nspetto a il teorema 16.1 eSIste una ase l' ... , n f sia diagonale della forma
O O
O, possiamo riscrivere la [16.1] nel
+ i=2 I; hl!1 hIiyY + (termini in cui non compare YI)'
hl! l h 13 CI
è un polinomio omogeneo di secondo grado in ZZ, ... , Zn' e dove q ZZ, ... , Zn . ' d > Per l'ipotesi induttiva . di è una forma quadratlca sullo spazIo (dz' ... , n ' ~~:~ ... , d n > p"Ossiede una base {ez"'" en } di~gonalizzante per q Pertanto la . [d e e l di V è una base diagonahzzante per q. l' z' ... , n b ase Il teorema precedente afferma l'esistenza di una base e rispetto alla ,qual~ EK Dimostreremo che nel caSI b ha la forma (15.8], con all' a zz ' ••• , ann . . K = R, C si possono ottenere risultati più precisi. I~iziamo dal c.aso K = C (COllSI",' generale il caso in cui K è algebncamente chIUso) . dereremo pIU m
[16.1]
n
q(v(yp ... , Yn» = h ll (YI
-
In queste coordinate q ha la forma
i~Z
= b(c l ,
= Yz, ... , Zn = Yn'
che corrisponde al passaggio dalla basè c alla nuova base
n
+ 2 I; hIiYIY; + ;,j=Z I; hijY;Yj'
dove hij = b(c;, c). Poiché h ll modo seguente: .
Z
Dimostrazione
b z, ... , b n }
q(v(YI' ... , Yn» = hlly?
205
16/Diagonalizzazione delle forme quadratiche
o O
Geometria euclidea
206
Salvo scambiare tra loro fl' 000' fn' possiamo supporre all' a22 , "0' arr diversi da 0, e ar + lr + l = "0 = ann = O. Siano al' a 2 , '0" arE K tali che a; = aii , i = 1, '0', r (gli ai esistono perché K è algebricamente chiuso) e consideriamo i vettori
Esattamente come nella dimostrazione del teorema precedente si verifica che rispetto alla base e = f/al' e2 = f 2/a 2, l
.,
o, en } è una base ortogonale o Inoltre 2
2
f/~r'
er + l = f r + l ,
"0'
en = f n
,
q(v)=xl+ ... +xp
b(ei , eJ = b(ai-lfi, (Xi-lfJ = a i- b«(, fJ = a i- aii = 1,
i = 1,
b(ei , eJ = b(fi , fJ =
i =1 + 1,
°
er =
o'"
. d'1 b e' la [16 3] e quindi la forma quadratica q associata a b è la matnce 2 2 _ 2 _ ... _ x 2 [16.4] o
Ovviamente e = [e l ,
207
16/Diagonalizzazione delle forme quadratiche
o •• ,
r '00,
no
Quindi e ha le proprietà volute.
x p+l
r
per ogni V=xle l +"0 +xnenEV. } Resta da dimostrare che p dipende solo da b, e non dalla base [e l : ... , ~n . b b - [b b } la forma b SI espnma Supponiamo dunque che m un'altra ase l' ... , n o
come 2
[1605]
Z2
+ Zt - Zt+l - o" - r' . _ b + .+ Zn bn EV per un opportuno intero t::::; r. Dobbiamo far per Oglll v - Zl l ••• ' o t vedere che t = p. Se p ~ t possiamo supporre che sia t < po Consldenamo 1 so -
1603 TEOREMA (SYLVESTER) Sia V uno spazio vettoriale reale, dim(V) = n ~ 1, e sia b: V x V ~ K una forma bilineare simmetrica. Esistono un numero intero non negativo p::::; r, dove r è il rango di b, dipendente solo da b, e una base e = [e l , • oo, en } di V, tali che rispetto a e la forma b abbia la seguente matrice:
tospazi
(: -~' :}
q(v) = zi
+
2
Nella dimostrazione del teorema precedente si è utilizzato il fatto che K è algebricamente chiuso per ottenere l'esistenza degli scalari ai' Nel caso K = R si ottiene un risultato un po' più debole.
o"
o
S =
Poiché dim(S) + dim(T) = p + n - t> n,
[1603]
. dO . t ESnT v~O dalla formula di Grassmann segue che S n T ~
dove il simbolo O denota matrici nulle di ordini opportuni. Equivalentemente, ogni matrice simmetrica A EM n (R) è congruente a una matrice diagonale della forma [16.3] in cui r = r(A) e p dipende solo da A. Dimostrazione L'equivalenza delle due affermazioni è evidente. Dimostreremo quindi la prima. Per il teorema 1601 esiste una base f = [fl , ... , f n } di V tale che
V=xle l
+ ... + Xpe p = Zt+lbt+l + ...
per ogni v = Yl f l + Y2 f 2 + ... + Yn f n E V. Il numero di coefficienti aii che sono diversi da è uguale al rango r della forma q, e quindi dipende solo da qo Salvo riordinare la base possiamo supporre che i primi r coefficienti siano diversi da zero e che tra essi tutti quelli positivi figurino per primi. Si avrà dunque
°
a2' ... , aro
+znbn'
Poiché v ~ O, dalla [16.4] segue che q(v)=xi+ ... +x;>O,
mentre dalla [16.5] si deduce che q(v) = -
Z2t + 1 -
... -
z; <0,
e cioè una contraddizione. Quindi p
per un opportuno intero p::::; r e opportuni numeri reali positivi al'
o
= t.
L'espressione [16.4] si dice la forma canonica ~ella !~r~~ q~ad:atic~ q. G~i interi p ed r _ p si dicono rispettivamente indic~ dI PO~ltlvlta e mdlce dI negatlvità e la coppia (p, r - p) è detta segnatura, di b e dI q. . ~na forma quadratica q sullo spazio vettoriale reale V SI dIce: ~efmlta pos~tiva se q (v) ~ per ogni v EV; definita negativa .se q(~) > pe~ Oglll v ~ O~ semldefinita positiva se q(v) < per ogni v ~ O; semldefimta negatIva se q(v) - per o
°
°
°
•
•
•
°
ogni vEVo , h 'd f ita Evidentemente, se q è definita positiva (negativa) allora e anc e semI e m
208
Geometria euclidea
positiva (negativa). Se non è semidefinita positiva né semidefinita negativa, q si dice indefinita. Analoga terminologia si usa per la forma bilineare polare di q. Le forme canoniche corrispondenti ai diversi casi, e le relative segnature, sono le seguenti: Forma quadratica definita positiva
x~
+ .. , + x;
semidefinita positiva x~ + .. , + x;, -
x~
-
- X;
semidefinita negativa -
x~
-
- x;,
definita negativa indefinita
Segnatura (n, O)
r:5 n
(r, O) (O, n)
r:5 n
x~+xl+ ... +X';-X';+l-'" -x;,
(O, r)
O
(p,
Esercizi 1 In ciascuno dei seguenti casi determinar~un base rispetto alla quale ,la forlI}a quadrad~ . tlca . assegnat a su C 2 assuma la forma [162], . e la relativa formula dI cambIamento I coordinate: 2 2 b) 2 _ 2 y 2 a) -x + Y c) 4x 2+9 y 2 • d) _x2 _25 y 2. IX'
In ciascuno dei seguenti casi determinare un base rispetto alla quale la !orma quadr~2. tlca . assegnat a su R3 assuma la forma canonica ' e calcolarne la relatlva segnatura. 2 2 a) 4x 2 -5 y 2+12z 2 b) _x +9z
r - p)
Una matrice simmetrica A EMn(R) si dirà definita positiva o, rispettivamente semidefinita positiva, definita negativa, semidefinita negativa, indefinita se 1"1. corrispondente forma quadratica è definita positiva, semidefinita positiva eéc. Dal teorema di Sylvester discende anche che ogni classe di congruenza di matrici simmetriche reali di ordine n contiene precisamente ltIla matrice diagonale della forma [16.3]. Si ha dunque una corrispondenza biunivoca tra tali classi di cgngruenza e le matrici [16.3], cioè le matrici [16.3] costituiscono un insieme completo di rappresentanti delle classi di congruenza di matrici simmetriche reali di ordine n. In particolare una matrice simmetrica reale di ordine n è definita positiva se e solo se è congruente alla matrice unità 1m cioè se e solo se esiste M EGL n(R) tale che A = UInM = UM. Abbiamo quindi il seguente corollario. 16.4 COROLLARIO Una matrice simmetrica A EMn(R) è definita positiva se e solo se esiste una matrice MEGLn(R) tale che.A = tMM. Le forme bilineari simmetriche definite positive sugli spazi vettoriali reali sono molto importanti in geometria euclidea, perché, come vedremo nei prossimi paragrafi, esse permettono di introdurre tutte le nozioni di natura metrica. Anche altri tipi di forme bilineari su spazi vettoriali reali hanno importanza in geometria e in fisica. Un esempio particolare è lo spazio vettoriale reale R 4 dotato dalla forma quadratica
che si chiamafornia di Minkowski. À. è non degenere indefinita, di segnatura (3, 1). La coppia (R4, À.) è detta spazio di Minkowski e ha importanza fondamentale in relatività ristretta.
209
I7/Prodotti scalari
c) _ x 2 _ y2
+ Z2
d) y2
+ l6z 2 •
3. Diagonalizzare ciascuna delle forme quadratiche del1'es~rcizio 2 (§ 15), determinando il relativo cambiamento di coordinate e la segnatura dI q. 4 Per ciascuna delle forme quadratiche dell'esercizio precedente, ~sPJimere la matrice • B della forma d'Iagonal'Izza·ta come B -- IMAM, dove A è la matnce della forma quadratica assegnata. 5. Diagonalizzare ciascuna delle forme quadratiche dell'esercizio 4 (§ 15), determinandone la segnatura e le trasformazioni effettuate. 6 Per ciascuna delle forme quadratiche dell'esercizio precedente, ~sprimere la matrice . B della forma diagonalizzata come B = 'MAM, dove A è la matnce della forma quadratica assegnata.
17 Prodotti scalari
Sia V uno spazio vettoriale reale. Una forma bilineare simmetrica definita posi~ tiva su V si dice prodotto scalare. Se su V è assegnato un prodotto scalare, VSI dice spazio vettoriale euclideo. . .' . . Si noti che ladefinizione non richiede che V abbia dimensIOne fIruta, e mfatti esistono esempi di spazi vettoriali euclidei che non hanno dimension~ ~init~ (cfr. esempio 17.8(2)). La nostra trattazione sarà però finalizzata al caso firuto dImen. sionale. La forma bilineare standard [15.1] su Rn, n;::: 1, è un prodotto scalare che chiameremo d'ora in poi prodotto scalare standard su Rn; se x, yE Rn denoteremo il loro prodotto scalare standard con il simbolo X· y; si ha quindi x.y
= XjYl + X 2Y2 + ... + xnYn = t xy.
Dotato del prodotto scalare standard, Rn è uno spazio vettoriale euclideo, denominato n-spazio vettoriale euclideo.
14
210
Geometria euclidea
. Sia V uno .spazio vettoriale euclideo qualsiasi; denoteremo il prodotto scalare dI due vettOri v, WEV con il simbolo (v, w), che si legge "v scalare w".
Se v, w EV, allora
17.1 TEOREMA
(v, W)2 :5 (v, v) (w, w)
(17.1]
Dimostrazione Se w = O la (17.1] è ovvia, essendo uguali a O entrambi i membri. Possiamo dunque supporre w ~ O. Per ogni a, bER si ha =
a2 (v, v) + 2ab(v, w) + b 2 (w, w)
e l'uguaglianza vale se e solo se av + bw = O, cioè se e solo se v e w sono paralleli. Prendendo in particolare a = (w, w),
b = - (v, w),
si ottiene 0:5 (w, W)2 (v, v) - 2(w, w) (v, W)2 + (v, W)2 (w, w).
P~iché w ~ O, si ha (w, w) > O, e dividendo il secondo membro per (w, w)
ottemamo
0:5 (w, w) (v, v) - (v, W)2, cioè la [17.1]. La [17.1] è chiamata disuguaglianza di Schwarz. Se VEV, la norma, o lunghezza, di v si definisce come
lIv Il = ..J (v, v) . Utilizzando la norma, la disuguaglianza di Schwarz si può esprimere nella forma equivalente
I (v, w) I :5l1vll IIwll,
211
nito positivo. La N2 segue estraendo le radici quadrate del primo e secondo membro dell'uguaglianza seguente: (rv, rv)= r 2(v, v).
e l'uguaglianza vale se e solo se v e w sono paralleli.
0:5 (av + bw, av + bw)
171Prodotti scalari
[17.2]
ottenuta estraendo. la radice quadrata da primo e secondo membro della (17.1]. La lunghezza dI un vettore gode delle seguenti proprietà:
Per ogni v EV si ha Il v Il ~ O, e vale l'uguaglianza se e solo se v = O. Per ogni rE R, v EV, si ha Il rv Il = I r I lIv Il. Per ogni v, w EV, si ha lIv + w Il :5 Il v Il + Il w Il e vale l'uguaglianza se e solo se v e w sono paralleli. NI N2 N3
La NI è una formulazione della proprietà del prodotto scalare di essere defi-
La N3 è detta disuguaglianza triangolare e si dimostra nel modo seguente. Per la [17.2] si ha IIv + wll 2 = (v + w, v + w) = IIvII 2 + 2(v, w) + IIwll 2 :5 :5 IIv 11 2 + 2 Il v Il IIw Il + Il w 11 2 = (II v Il + Il w Il)2 che è equivalente alla N3. Per la NI un vettore v ha lunghezza O se e solo se v = O. Un vettore v lunghezza 1 si dice versore. Per la N2, se v ~ O, vI IIv Il è un versore parallelo a v, che si dice ottenuto normalizzando v. Ricordiamo che due vettori v, wEV sono detti ortogonali, o perpendicolari, se (v, w) = O. Dalla definizione segue che iI vettore O è perpendicolare ad ogni altro vettore di V. Poiché il prodotto scalare è definito positivo, O è l'unico vettore perpendicolare a sé stesso. Un insieme finito {VI' v2, ... , Vt} di vettori non nulli di V è un insieme ortogonale di vettori se i suoi elementi sono a due a due ortogonali, cioè se (Vi' v) = O per ogni i~j, 1:5 i, j:5 t. {VI' v2, ... , Vt} si dice insieme ortonormale di vettori se è un insieme ortogonale e se i suoi elementi sono versori. Se {vi' v 2, ... , v t } è un insieme ortogonale, normalizzando i suoi elementi si ottiene un insieme ortonormale: {v/"v l ", v2/11v2 ", ... , vtl"vt"}· Se V ha dimensione finita, una base ortogonale (una base ortonormale) di V è una base {el' e2, ... , en } che è un insieme ortogonale (un insieme ortonormale) di vettori. 17.2 PROPOSIZIONE Se {VI' v2, ... , Vt} è un insieme ortogonale di vettori, allora VI' v2 , .,., v t sono linearmente indipendenti. In particolare, se V ha dimensione finita, un insieme ortogonale di n = dim(V) vettori è una base ortogonale di V.
Dimostrazione Se alvI + a2 v 2 + '" + atvt = O, allora, per ogni i = l; ... , t, O = (Vi' alvI + a2 v 2 + '" + atvt) = = al (Vi' VI) + a2 (v i , v2) + ... + at(v i , Vt) = = ai(v i , v).
Poiché (Vi' Vi) > O, dev'essere ai = O. Quindi Vi' v 2, ... , v t sono linearmente indipendenti.
212
Geometria euclidea
Dal teorema 16.1 discende che V possiede basi ortogonali se ha dimensione finita positiva; normalizzando (gli elementi di) una base ortogonale si ottiene una base ortonormale, e quindi V possiede anche basi ortonormali. Questo fatto segue anche direttamente dal teorema di Sylvester, visto che il prodotto scalare ha segnatura (n, O). Se e = {el' e 2 , ••• , e n } è una base ortonormale di V, allora la matrice che rappresenta (, > rispetto alla base e è In' Pertanto per ogni v = Xl e l + ... + X n em w =yle l + ... + yne n si ha
In altre parole in una base ortonormale il prodotto scalare di due vettori si esprime come il prodotto scalare standard dei vettori colonna delle loro coordinate. Nella pratica è conveniente utilizzare basi ortonormali anziChé basi qualunque perché i calcoli con le coordinate dei vettori sono notevolmente più semplici. Il risultato seguente descrive la matrice di un cambiamento di base ortonormale. 17.3 PROPOSIZIONE Siano e = {el' •.• , enJ, f= {fl , ... , f n } due basi dello spazio vettoriale euclideo V, e supponiamo che e sia ortonormale. La base f è ortonormale se e solo se la matrice Me,i1v) del cambiamento di coordinate da f a e è una matrice ortogonale.
Dimostrazione Le colonne della matrice M = M e ,r(lv ) sono le coordinate dei vettori f l , rispetto ad e. Pertanto f è ortonormale se e solo se
... ,
fn
Le [17.3] esprimono precisamente la condizione tMM = 1m cioè M EO (n). Descriveremo ora un metodo molto semplice per costruire insiemi ortogonali e trovare esplicitamente basi ortogonali (e quindi basi ortonormali), il cosiddetto "procedimento di ortogonalizzazione di Gram-Schmidt". Tale procedimento è basato sulla nozione di "coefficiente di Fourier", che abbiamo introdotto nel n. 15. Ricordiamo che, se v è un vettore non nullo di V, per ogni w EV il coefficiente di Fourier di w rispetto a v è lo scalare
= (v,
w-av(w)v
w>/(v, v>.
Figura 17.1
v
av(w)v
Nel caso particolare in cui v è un versore, per ogni w EV il coefficiente di Fourier di w rispetto a v è:
av(w) = (v, w>; la proiezione ortogonale di w nella direzione di v è (v, w>v e w - (v, w>v è ortogonale a w. 17.4 TEOREMA (DI ORTOGONALIZZAZIONE DI GRAM-SCHMIDT) Sia VI' v2, v3, ... una successione (finita o infinita) di vettori dello spazio euclideo V. Allora: 1) Esiste una successione (corrispondentemente finita dello stesso numero di elementi o infinita) wl' W2' W 3' .. , di vettori di V tale che per ogni intero k ~ 1 si abbia: a) b)
[17.3]
av(w)
213
17/Prodotti scalari
(vI' v2 , ••• , vk >= (Wl' w2 ' ... , Wk>; i vettori Wl' w 2 , ... , w k sono a due a due ortogonali.
2) Se "l' "2' "3' ... è un'altra successione che soddisfa le condizioni (a) e (b) per ogni k ~ 1, allora esistono scalari non nulli Cl' c2' ... tali che"k = CkWk' k = 1, 2, ...
Dimostrazione 1) Costruiremo gli elementi Wl' W2 , ... per induzione su k. Prendiamo Wl = VI' che evidentemente soddisfa (a) e (b) per k = 1. Sia t ~ 1 e supponiamo di aver costruito Wl' ... , W t soddisfacenti alle condizioni (a) e (b) per k = t. Definiamo t
'W t+1 =
Vt+l -
E; aw,(Vt+l)W
i
(dove ~ denota la somma estesa ai soli indici i tali che wi;t: O). I
Definiamo la proiezione ortogonale di w nella direzione di v come il vettore av(w) v. La terminologia è giustificata dal fatto che (w - aV
= (w, v> - av(w) (v, v> = O,
cioè w - av(w) v è perpendicolare a v (fig. 17.1).
Dalla definizione segue che V t + l è combinazione lineare di Wl' W 2' ... , W t + l ' e per l'ipotesi induttiva i vettori VI' ... , Vt sono combinazioni lineari di Wl' W2' ... , Wt· Quindi (VI' V2' ... , v t + l >C (Wl' W 2, ... , Wt+l>' D'altra parte, sempre per la definizione di Wt+1' abbiamo che Wt+l è combinazione lineare di Wl' W2, ... , Wt, Vt+l'
214
Per l'ipotesi induttiva i vettori Wl' W 2 , ••• , w t sono combinazioni lineari di vI> V2 , ••• , v t ' e quindi W t + l è combinazione lineare di VI' V2 , ••• , v t + l ; dunque si ha anche (Wl' W 2 , ••• , w t + l ) C (VI' V2 , ••• , Vt + I ). Pertanto la (a) è soddisfatta per k = t + 1. Si ha poi, per ogni i = 1, 00.' t, tale che w, >é O: w,) = (v t + 1 = (v t + l>
I;' aw.(vt+l)wj ,
j=l
w,) -
J
(Vt+ l' W,)
w,) =
(v t + 1, .
w,) -
aw(v t + l ) (W"W, )
=
=
(w2 , v3 )
WI -
W2
(w2, w 2 )
2
(Wl'
= V4 -
V4 )
WI
(w2 , V4 )
-
(w 2,
(Wl' Wl)
- - - W2
2
1
W4
-2 4
1 =V 3 - - W l
=--e2
I
W2 -
W 2)
1 +-
(W3,
V4 )
(w 3,
W 3)
=
e 4,
2
W3
=
= O.
=V 4
°
per ogni i >é j, 1::; i, j::; t, la (b) è soddisfatta per k = t + 1. Ciò dimostra la parte (1) del teorema. 2) Procediamo per induzione su k. Per k = 1 la conclusione è ovvia. Supponiamo t;::: 1 e che esistano CI' C2, 000' c t tali che U k = CkWk per ogni k::; to Per la (a) si ha Ut+ 1 = Z
V3 )
(Wl' Wl)
Essendo per l'ipotesi induttiva anche (wj> w,)
(Wl'
= V3 -
W3
t
(Wt+1>
215
17/Prodotti scalari
Geometria euclidea
° ° 2
4
1/2
e2
[
e4
-J2 + -J2
,e l ,
e4
e2
-J2
-
]
-J2
1'-
,e3
o
2. Consideriamo R 4 con il prodotto scalare: (X
,
1 2
y) =
-X1YI
1 + -x2Yz + 2
X 3Y3
+
X 4Y4·
Applicando il procedimento di Gram-Schmidt ai vettori VI = (1, 1, -1, -1),
Si noti che la (b) del teorema 17.4 non afferma che {w l> W 2' ••• , W k l è un insieme ortogonale di vettori, perché può accadere che qualcuno dei vettori W l> W 2, ••• , W k sia uguale a 00 Se Wl' W 2, ••• , W k sono tutti non nulli, allora {Wl' W 2, .00 ..., wd è un insieme ortogonale di vettori Se V ha dimensione finita e {v l> •• o, V n} è una base di V, il procedimento di Gram-Schmidt applicato ai vettori VI> ... , Vn fornisce vettori Wl' •• 0' w n ' a due a due ortogonali, che generano V, e quindi tutti diversi da o: dalla proposizione 17.2 segue che {Wl' ••• , wnl è una base ortogonale di V. Per ottenere una base ortonormale non resta che normalizzare {w l> •• o, W n lo
=V4 •
I vettori Wl' W 2 , W 3 ' W 4 costituiscono una base ortogonale di Vo Normalizzando questi vettori si ottiene la base ortonormale
+ Ct+IWt+l'
per qualche zE (Wl' •• 0' Wt), Ct + 1 ER. Poiché, per la (b), sia Ut+1 che W t + 1 sono ortogonali a z, anche ut+ I - Ct+ IWt+ I = z è ortogonale a z, cioè z è ortogonale a .sé stesso; quindi z = O.
°
- - W I - - W 2 - - - W3
V2 = (1, 1, 1, 1),
v 3 =(-1, -1, -1,1),
v 4 =(1, 0, 0,1)
otteniamo
o
w3 = V3 -
v 3)
(Wl'
(w2, v3)
W1 -
(w2,
(Wl' Wl)
17.5 Esempi 1. Sia V uno spazio vettoriale euclideo, dim (V) base ortonormale di V. Consideriamo i vettori
=
4, e sia
(el> C2' e 3, e 4
VI(O, 1,0, 1), v 2 (2, 1,0, 1), v 3 (-1, 0, 0, 1), v 4 (0, 0, 1, O).
Il procedimento di Gram-Schmidt applicato a vI> V2 , V3 , V4 dà
W
W2)
-1 =v - - - w 2 3 3 l
- 4/3 8/3
- - . - - W2
=
1 1 =v +-w l +-w2 =(0, 0, -1, 1), 3 3 2
l una w4 = v4 =v 4
(Wl'
WI
-
(Wl> Wl)
(w2 , v 4 ) (w 2,
4/3 8/3
1/2 3
W z)
w2 -
(w 3, v4 ) (w" w,)
w3 =
1_ 2
- - - W I - - - W2 - - W3 -
= V + 1- W 4
v4)
6
l
_1- W 2 _1- W 3 = (1-, 2
2
2
1 2 ,0, O).
216
Quindi
Geometria euclidea
[(1, 1,
-1, -1),
(-.!,3 -.!,3 2,3 2), (O, O, 3
-1, 1),
è una base di R4 ortogonale rispetto a (, >.
- 1(1-, 2 2"
OO)]
217
scrivere nella forma equivalente: -lIvllllwll:5 (v, w> :5l1vllllwll
17.6 PROPOSIZIONE Sia V uno spazio vettoriale euclideo e W ';é (O> un suo sottospazio vettoriale di dimensione finita. Allora ogni elemento v EV si può esprimere in modo unico come v=w+w',
l7/Prodotti scalari
[17.4]
dove wEW e w' EW.l. Quindi si ha
dalla quale, dividendo per Il v Il Il w Il ,si ottiene -1:5
(v, w>:51. IIvllllwll
[17.5]
Dalla [17.5] e dalle proprietà della funzione coseno disc.ende che esiste un unico numero reale (), tale che 0:5 () :5 1r, e tale che si abbia (v, w> cos()=---IIvllllwll
Dimostrazione Sia {e 1, ••• , et l una base ortonormale di W. Se v EV, poniamo w = (v, e1 >e1 +
... + (v, et>et
Potremo quindi scrivere (v, w> = IIvllllwll cos().
[17.6]
Chiameremo
w' =v-w. Evidentemente w EW. Inoltre, per ogni i = 1, ... , t: (w', e) = (v, e) - (w, e) = (v, e;> - (v, e) (e;, e;> = O, e quindi w', essendo perpendicolare a e 1, ••• , et, è perpendicolare ad ogni loro combinazione lineare, cioè w' EW .l. Quindi v = w + w' si esprime nella forma voluta. Se v=u+u' per qualche UEW, u'EW.l, allora w-u=u' -w'EWnW.l e quindi w - u, essendo perpendicolare ad ogni elemento di W, è anche ortogonale a sé stesso. Ma allora w - u = O= u' - w', cioè w = u e w' = u'. L'elemento w che compare a secondo membro della [17.4] si dice proiezione ortogonale di v sul sottospazio W. Esplicitando l'identità Il v 11 2 = (w + w', w + w' > si ottiene immediatamente la seguente: IIvIl 2 =lIwIl 2 +lIw'1I 2 che è detta identità pitagorica. La disuguaglianza di Schwarz [17.1] permette di introdurre in uno spazio 'vettoriale euclideo V la nozione di "angolo convesso di due vettori non nulli" nel modo seguente. Supponiamo che v, wEV siano due vettori diversi da O. La [17.2] si può anche
() = arccos ( (v, w> ) IIvllllwll
[17.7]
l'angolo convesso (o non orientato) tra i (o formato dai) vettori v e w. Dalla sua espressione vediamo che l'angolo convesso formato dai vettori v e w non dipende dall'ordine in cui essi sono presi. Si noti che dalla definizione segue che due vettori non nulli v, w sono perpendicolari se e solo se il loro angolo convesso è 1r /2. Inoltre cos() = (v, w> se v e w sono versori. Al lettore più attento non sarà sfuggito che la definizione [17.7] di angolo convesso di due vettori, facendo ricorso alla funzione inversa della funzione cos(), apparentemente utilizza la geometria euclidea elementare, nell'ambito della quale le funzioni circolari vengono di solito definite. Questo rende inconsistente la nostra pretesa di sviluppare la geometria in modo indipendente dalla geometria elementare. La contraddizione è pero solo apparente: infatti tutte le funzioni circolari e le loro inverse possono essere definite in modo completamente autonomo dalla geometria elementare, mediante serie di potenze. Rinviamo il lettore ai corsi di analisi matematica per i dettagli. Per i nostri scopi sarà sufficiente sapere che le funzioni trigonometriche e le loro inverse si possono definire in modo puramente analitico, cosicché la definizione di angolo convesso di due vettori di uno spazio vettoriale euclideo qualunque data dalla [17.7] è indipendente dalla geometria euclidea elementare. L'angolo convesso così definito è un numero reale compreso tra Oe 1r, e non ha il significato geometrico che tale nozione possiede nella geometria del piano ordinario. La relazione esistente tra questa definizione ed il concetto di angolo che si dà nella geometria euclidea elementare è spiegata nell'esempio 17.7. Avvertiamo il lettore che d'ora in poi faremo liberamente uso delle principali proprietà delle funzioni trigonometriche.
218
Geometria euclidea
17.7 Esempio
Sia V lo spazio dei vettori geometrici del piano ordinario, in cui supponiamo introdotta un'unità di misura per le lunghezze dei segmenti. Per ogni v EV la lunghezza di v, denotata con Iv I, si definisce come la lunghezza di uno qualsiasi dei rappresentanti di v. Se v, wEV sono entrambi non nulli, l'angolo convesso (o non orientato) tra v e w si definisce come l'angolo convesso O (O::s; O::s; 1r se espresso in radianti) formato da rappresentanti di v e w applicati in uno stesso punto (qui stiamo utilizzando la definizione di angolo della geometria euclidea elementare). Queste definizioni sono state date senza utilizzare alcun prodotto scalare su V. È possibile però introdurre in V un prodotto scalare in modo che le nozioni di lunghezza di un vettore e di angolo convesso tra due vettori non nulli che si ottengono utilizzando il prodotto scalare, coincidano con quelle che abbiam~ appena introdotto geometricamente. Per ogni v, w EV poniamo vxw= {
Iv I I w I cos O
se v ;;t O ;;t w,
O
altrimenti.
[17.8]
Allora x definito dalla [17.8] è un prodotto scalare in V; lasciamo al lettore la facile verifica di questo fatto. Si osservi che se v e w sono versori allora il loro prodotto scalare coincide con il coseno dell'angolo da essi formato. Inoltre la norma Il v Il di un vettore v coincide con la sua lunghezza I v I. Se due vettori v, w soddisfano v x w = e nessuno dei due è O, allora cosO = 0, cioè il loro angolo è 1r12; quindi il concetto di perpendicolarità di vettori così come viene definito dal prodotto scalare [17.8] coincide con quello usuale. ---+ ---+ · Slano v = OA, w = OBEV, v;;t O. Sia P il piede della perpendicolare condotta da B sulla retta contenente i punti O e A. È immediat~erificare cheJ1..coefficiente di Fourier ay(w) è il rapporto i ~la ~ghezza di OP e quella di OA, preso con il segno + o - a seconda che OP e OA siano orientati concordemente o discordemente. La proiezione ortogonale di w nella direzione di v è il vettore OP = ay(w) v, e w - ay(w) v = PB, che è perpendicolare a v. Consideriamo una base ortonormale {i, j} di V. Se v = Xli + x2j, l'identità
°
Iv 12 = xi +xi è nient'altro che il teorema di Pitagora. Notiamo anche che la disuguaglianza di Schwarz Ivxwl::s; Ivllwl segue immediatamente dal fatto che I cosO I ::s; 1.
17/Prodotti scalari
219
Se si considera lo spazio vettoriale V dei vettori geometrici dello spazio ordinario in cui sia stata introdotta un'unità di misura dei segmenti, la [17.8] definisce anche in questo caso un prodotto scalare. in V, per il quale valgono considerazioni del tutto simili à quelle fatte nel caso precedente. Per le esigenze dell'algebra lineare e della geometria euclidea non è sufficiente disporre del concetto di angolo non orientato di due vettori, dato dalla [17.7], e si rende necessaria l'introduzione di una nozione di "angolo orientato" . La definizione di angolo orientato, come nel caso precedente, sarà data ricorrendo alle proprietà dei numeri reali nel modo seguente. Definiamo in R la seguente relazione. Diremo che O, cp ER sono congrui modulo 21r, oppure che O è congruo a cp modulo 21r, e scriveremo 0== cp (mod. 21r) se 0- cp = 2k1r per qualche kEZ. Si verifica facilmente che la congruenza modulo 21r è una relazione di equivalenza. Le classi di congruenza verranno chiamate angoli orientati, o semplicemente angoli. Dalla definizione segue subito che un angolo è un sottoinsieme di R della forma { ... , 0-41r, 0-21r, O, 0+21r, 0+41r, ... } = [0+2k1r: kEZ}
[17.9]
per qualche OER. Poiché le classi di congruenza costituiscono una partizione di R, ogni numero reale Oindividua un angolo [17.9] cui appartiene e uno solo. Gli elementi di un angolo sono le sue determinazioni; per definizione, due determinazioni di uno stesso angolo differiscono per un multiplo intero di 21r. Ogni angolo possiede un'unica determinazione 00 tale che O::s; 00 < 21r, la cosiddetta determinazione principale. Con abuso di linguaggio identificheremo spesso un angolo con una sua determinazione, cioè con un numero reale, sottintendendo che due numeri reali rappresentano lo stesso angolo se e solo se la loro differenza è un multiplo intero di 21r. Poiché ogni angolo possiede un'unica determinazione principale, si ha una corrispondenza biunivoca tra l'insieme !JJ di tutti gli angoli e l'intervallo chiuso a sinistra [O, 21r). In precedenza abbiamo definito un angolo convesso come un numero reale nell'intervallo [0, 1r]. Ad ogni angolo rO + 2k1r: kEZ} si può associare il numero reale min[10+2k1rl: kEZ}, che, è immediato verificarlo, appartiene a [O, 1r], e si dice l'angolo convesso associato. Gli angoli si possono sommare tra loro sommandone le determinazioni: se {O + 2k1r: kEZ} e ['11 + 2k1r: kEZ} sono due angoli, la loro somma è l'angolo [O + '11 + 2k1r: kEZ}.
220
Geometria euclidea
Rispetto all'operazione di somma gli angoli costituiscono un gruppo 9' il cui elemento neutro è l'angolo {2k1r: kEZ}, e in cui l'opposto dell'angolo {O+2k1r: kEZ} è {-O+2k1r: kEZ}. Per ogni OER consideriamo la matrice _ (COSO - sinO) . ResinO cosO Dall'identità (cosO)Z + (sinO)z= 1 segue che ReE SO (2). Dalle proprietà elementari delle funzioni trigonometriche si deduce che per ogni (a, b) ER 2 tale che az + b Z= 1 esiste OE R tale che a = cosO, b = sinO, e quindi, poiché ogni matrice in SO(2) è della forma [2.6], al variare di OE R la matrice Re descrive tutto SO(2). Infine, essendo le funzioni coseno e seno periodiche di periodo 21r, si ha Re = R
cioè: - sincp\ (C~SO coscp) smO
- sinO) = (COS(CP + O) cosO sin(cp + O)
- sin(cp + O») . cos(cp + O)
(u I , UZ> = (coscp, sincp) (VI' vz) = (cosl/;, sinl/;).
uv,
Definiamo l'angolo orientato formato dai versori u e v come l'angolo una cui determinazione è l/; - cp. Se a, b EV sono due vettori non nulli, il loro angolo orientato è definito come " b =a - - ba Ila Il IIb Il . L'angolo orientato gode delle seguenti proprietà: a) b) c) d)
ià = O, """ = - ba, ........ ab
----
~
..A..
...........
ab T be = ae, (Aa)(ftb) = ab '"
per ogili tema di vettori non nulli a, b, c e per ogni A, ft > O. Le relative verifiche sono lasciate al lettore. Si osservi che per la definizione di angolo orientato è stata fissata una base ortonormale di V. In realtà la definiziohedipende solo dall'orientazione di V definita dalla base fissata. Infatti, sia [i', j' } un' altra base ortonormale, concordemente orientata con {i, j}, e sia
cosa
A= ( sina
- sina \ cosa)
la matrice del cambiamento di coordinate da [i, j} a [i', j' }. Se u = cos cp i + sin cp j = cos cp' i' + sin cp' j , v=cosl/;i+sinl/;j= cosl/;'i' +sinl/;'j', allora si ha - sina) (c~sCP) = (c~S(CP + cosa smcp sm(cp + a)
a»)
(c~sCP') smcp' e similmente
[17.11]
La [17.11] segue immediatamente calcolando il prodotto a primo membro e dalle ben note formule che esprimono cos(cp + O) e sin(cp + O) in funzione di coscp, cosO, sincp, sinO. . Consideriamo ora unO' spazio vettoriale euclideo V di dimensione 2, in cui sia fissata una base ortonormale [i, j}. Siano u(u p uz), v(v!, vz> due versori, e siano cp, l/; ER tali che
-----.,..
221
17/Prodotti scolari
l/;') = (c~s a (C~S sml/;' sma
-Sina)(C~sl/;) cosa
sml/;
=
(c~s(l/;+a»). sm(l/; + a)
Quindi si ha l/;' - cp' == (l/; + a) - (cp + a) == l/; - cp (mod. 21r), e pertanto le due basi definiscono lo stesso angolo orientato tra u e v.
17.8 Complementi 1. L'insieme C dei numeri complessi è uno spazio vettoriale reale di dimensione 2. La base [1, i} identifica C con R Z associando ad un numero complesso a + ib la coppia (a, b). Se z = a + ib EC, il modulo di z, che è definito come I z I = ili =
.J aZ + b Z ,
è uguale a Il (a, b) Il. Ad ogni ZEC* possiamo associare il numero complesso
_z_ = _a_ + i _b_ che ha modulo 1, e quindi è della forma Iz I Iz I Iz I _z_ = cosO + i sinO. Iz I
L'angolo individuato da O si dice l'argomento di z e si denota con arg(z); la determinazione principale di arg(z) è talvolta chiamata argomento principale di z.
Geometria euclidea
222
Poiché z = Iz I _z_ deduciamo da quanto detto che ogni numero complesso
z :;é O si
z
=
Izi
si definisce un prodotto scalare su R
+ i sinO)
[17.12]
dove Oè una determinazione di arg(z). La [17.12] è una rappresentazione trigonometrica di z. Se z, wE C* allora si ha I zw I = I z I I w I e arg(zw) = arg(z) + arg(w). Ciò può essere verificato per mezzo delle rappresentazioni trigonometriche nel modo seguente. Siano OEarg(z), cpEarg(w). Allora:
zw = I z I (cosO + i sinO) I w I (coscp + i sincp) =
=
I z I I w I (cosO coscp - sinO sincp + i(cosOsincp + sinO coscp»
=
I z I I w I [cos(O
=
+ cp) + i sin (O + cp)].
4 •
6. Sia V uno spazio vettoriale euclideo di dimensione 4, in cui sia fissata una base ortonormale e, e sia W il sottospazio generato dai vettori w,(l, 1, O, 1),
W2(1, -1, O, -1),
w3(3, 1, O, 1).
Determinare dim(W), trovarne una base ortonormale ed estendere tale base a una base ortonormale di V.
7. In ciascuno dei casi seguenti determinare una base ortonormale del sottospazio vettoriale di R 4 generato dai vettori assegnati: a) (2, O, O, 1), (1, 2, 2, 3),
(lO, -1, --;-, O), (5,2,2, 5)
b) (-1, O, 1, 1), (2, 1, 1,4), (O, 1, 3,6)
2. Consideriamo lo spazio vettoriale R [X] dei polinomi a coefficienti reali in una indeterminata X. Per ogni f(X), g(X) ER [X] poniamo
c) (1, 1, -1, 1), (- 2, - 2,2, - 2), (2, 1, 1,2), (3, 1, 1, 1) d) (1, 1, O, -1), (- 2, 1,
V3,
5), (4, 4,
V3,
2), (- 6, - 3, O, 3).
8. Determinare una base ortonormale di R4 applicando il procedimento di Grarn-
1
5. Verificare che ponendo (x, y) = x,Y, + 6X2Y2 - 2X'Y2 - 2X2Y' + X3Y3 - X2Y3 - X3Y2 + X4Y4
scrive nella forma seguente:
I z I (cosO
223
18/L'operazione di prodotto vettoriale
j f(x)g(x)dx.
Schmidt al sistema di vettori seguente: (O, 1, 0,1), (2, 1, O, 1), (-1, O, O, 1), (O, O, 1, O).
-1
4
Dalle proprietà dell'integrale definito segue subito che (,) è un prodotto scalare. Dotato di questo prodotto scalare, R [X] è uno spazio vettoriale euclideo che non ha dimensione finita.
9. Utilizzando il procedimento di Gram-Schmidt, si ortogonalizzi la base canonica di R rispetto al prodotto scalare (x, y) = 2x,y, + X,Y2 + X2Y' + 2X2Y2 + 2X3Y3 + X3Y4 + X4Y3 + 2 X4Y4'
lO. Dimostrare che i numeri complessi di modulo 1 costituiscono un sottogruppo del gruppo moltiplicativo C*, isomorfo a SO (2). Esercizi 1.
I?i~ostrare c~e in uno spazio vettoriale euclideo (V, tlta, per ogm v, w E V:
a) Il v + w 11 2 + Il v -
W
<, » sussistono le seguenti iden-
11 2 = 211v 11 2 + 211 w 11 2
11. Sia V uno spazio vettoriaIe euclideo e sia v EV, v -:;t. O. Dimostrare che l'applicazione iv: V -> ( V ), che ad ogni w EV associa la sua proiezione ortogonale nella direzione di v, è lineare. 12. Sia V uno spazio vettoriale euclideo e sia v un suo vettore non nullo. L'applicazione
b) lIv+wIl 2 -lIv-wIl 2 =4(v, w).
2. In ciascuno dei seguenti casi applicare il procedimento di Gram-Schmidt per determinare una base ortonormale del sottospazio vettoriale di R 3 (con prodotto scalare standard) generato dai vettori assegnati: a) (1, 1, 1), (1, O, 1), (3, 2, 3)
b) (1, 1, 1), (-1, 1, -1), (1, O, 1).
definita da p,(w) = w - a,(w)v, si dice proiezione di V su v.l. Verificare che p, è lineare. 13. Dimostrare che se due basi {i, j l e (i', j' l di un piano vettoriale euclideo V sono discordemente orientate, definiscono angoli orientati opposti.
3. Verificare che ponendo (x, y) = x,y,
+ 2X2Y2 - X'Y2 - X2Y' + X3Y3
18 L'operazione di prodotto vettoriale
si definisce un prodotto scalare su R 3 • 4. Risolvere l'esercizio 2, sostituendo al posto del prodotto scalare standard il prodotto scalare definito nell'esercizio 3.
Denotiamo con V uno spazio vettoriale euclideo di dimensione 3, con prodotto scalare <,). Fissiamo una base ortonormale {i, j, k} di V.
224
Geometria euclidea
lSIL'operazione di prodotto vettoriale
18.1 DEFINIZIONE Siano VI (XI' YI' ZI) e Vz(xz, Yz, zz) due vettori di V. Il prodotto vettoriale di VI per Vz è il vettore VI/\ Vz (si legga "VI vettore vz") le cui coor-
225
Per dimostrare la (6) scriviamo esplicitamente Il VI /\ vzll z = (YIZZ - ZIYZ)Z + (ZlXZ- XIZZ)Z + (XIYz - YIXZ)Z
dinate sono e
IIv l ll z llvz " z - (vI' Vz)Z = (xi
cioè i minori di ordine 2, presi a segni alterni +,
+, della matrice
+ yi+ zi)(x~ + Y~ + zD - (XIXZ+ YIYz + zIzz}z.
Svolgendo i calcoli si verifica che i secondi membri sono uguali. Si osservi che la (6) può anche esprimersi nella forma seguente: (VI' vz) (vz, vz)
L'operazione di prodotto vettoriale che abbiamo introdotto associa a una coppia ordinata di vettori un terzo vettore, cioè è un'applicazione VxV--V. Poiché è stata definita utilizzando le coordinate dei vettori, dobbiamo aspettarci che quest'operazione dipenda dalla scelta della base ortonormale {i, j, k}. Studiandone le proprietà vedremo che in effetti il prodotto vettoriale dipende solo dall'orientazione di V definita dalla base.
18.3 COROLLARIO 8) Se VI e Vz sono linearmente indipendenti, ogni vettore ortogonale sia a VI che a Vz è un multiplo scalare di V1/\ Vz. 9) Se VI e Vz sono linearmente indipendenti, {VI' Vz, v i /\ vz} è una base di V concordemente orientata con {i, j, k}.
Dimostrazione 8) Poiché VI e Vz sono linearmente indipendenti e dim(V)
Il teorema seguente descrive le principali proprietà del prodotto vettoriak
dim({v p vz}.L) 18.2
TEOREMA
Per ogni scelta di VI' vz, v3 EV e per ogni cE R si ha
1) vj/\vz = - VZ/\VI
2) vI/\(VZ+ v 3) = vI/\VZ+ VI /\V 3 3) c(v l /\ vz} = (CVI) /\ Vz = VI/\(CVZ) 4) (VI' VI /\ Vz) = O 5) (vz, v i /\ vz) = O z 6) IIv I /\vz ll = IIv l ll z llvz ll Z- (VI' Vz)z 7) v i /\ Vz = O se e solo se VI e Vz sono paralleli.
Dimostrazione Le dimostrazioni relative alle (1), (2), (3) e (7) sono facili e vengono lasciate al lettore. La (4) si dimostra osservando che (VI' v i /\ vz) uguaglia il determinante della matrice
(
Xl YI Xl YI
ZI .
Xz Yz
Zz
ZI)
che ha due righe uguali e quindi ha determinante nullo. Nello stesso modo si dimostra la (5).
I.
= dim(v l ,
vz).L)
= 3,
si ha
= 1.
Per la -(4) e la (5), vl/\vzE {VI' vz}.L, e per la (7), vI/\VZ>éO. Quindi vI/\VZ genera {vl' VZ}.L . 9) L'indipendenza lineare di VI' Vz, v i /\ Vz segue dal fatto che VI' Vz lo sono e che VI/\vzE (vI' vz}.L. Poiché dim(V) = 3 si conclude che {VI' VZ, VI/\VZ} è una base. Per dimostrare che {VI' Vz, vI/\V Z} è concordemente orientata con {i, j, k} basta osservare che la matrice del cambiamento di coordinate da {VI' VZ, v i /\ vz} a {i, j, k} ha determinante uguale a IIv l /\v z ll z. Ora non è difficile accertare in che modo v i /\ Vz dipende dalla scelta della base {i, j, k}. Se VI e Vz sono linearmente dipendenti, il loro prodotto vettoriale è V1/\ VZ= O e quindi è univocamente determinato da VI e da Vz. Se viceversa VI e Vz sono linearmente indipendenti, Il v i /\ vzlI è univocamente individuato dalla proprietà (6), e V1/\ Vz appartiene a {vl' VZ}.L , che ha dimensione 1. Vediamo dunque che una diversa scelta della base può cambiare V1/\ Vz nel suo .opposto, e, per la proprietà (9), questo avviene se e solo se le due basi non sono concordemente orientate. In conclusione v i /\ Vz dipende solo dall'orientazione dello spazio V definita dalla base {i, j, k l. La proprietà (6) ha una interessante interpretazione, data dalla seguente proposizione.
15
226
Geometria euclidea
18:~ PROPOSIZIONE Supponiamo che v e w siano linearmente indipendenti, e scnvwmo v = a + b, dove a è parallelo a w e b è ortogonale a w. Allora lIv/\wll = IIbllllwll.
19/5pazi euclidei
227
Dimostrazione Se le coordinate dei vettori dati sono (VI' V2 , V3 ), (Wl' (bI' b2 , b3 ), il primo membro della [18.1] è
W 2 , W 3 ),
(al, a2 , a3 ),
Dimostrazione Si ha, utilizzando le proprietà (2), (7) e (6): il secondo membro è
1Iv/\ w Il = Il (a + b)/\wll = Il (a/\w) + (b/\w) Il = IIb/\wll = IIb IIl1wll. Si n?~i che nel caso in cui V è lo spazio dei vettori dello spazio ordinario, la proposlZIone 18.4 afferma che Il v /\ w Il è uguale all'area del parallelogramma costruito sui vettori v e w (fig. 18.1). Dati v l' VI'
V2' V3 EV,
(VI al + v2 a2 + v3 a3) (wlb l + w2 b2 + w3 b3)
-
(vlb l + v2 b 2 + v3 b 3 ) (Wl al + + W 2 a2 + w3 a3)·
L'identità [18.1] si verifica svolgendo i calcoli e confrontando le due espressioni.
il prodotto scalare (v l' v2/\ v3) è detto prodotto misto di
v 2 e v 3•
Se le coordinate dei vettori dati sono rispettivamente (x y z) (xy l' I> l' 2' 2' (X 3 , Y3' Z3 ) ,SI. ha
(VI'
v 2 /\ v 3 ) =
XI
YI
Zl
X2
Y2
Z2
)
Da quest'espressione di (VI' v2 /\ v3 ) segue immediatamente che scambiando fra loro due dei fattori il pro~otto misto cambia di segno e che (VI' v /\ v ) = O 2 3 se e solo se VI' v2 e v3 sono lInearmente dipendenti. Concludiamo il paragrafo con un'identità dovuta a Lagrange. 18.5
PROPOSIZIONE (IDENTITÀ DI LAGRANGE)
(v/\w, a/\b) =
(v, a)
I
(w, a)
Per ogni v, w, a, bEV si ha
(V, b) /. (w, b)
19 Spazi euclidei
Z2 ,
[18.1]
Sia E uno spazio affine reale con associato spazio vettoriale V. Diremo che E è uno spazio euclideo se in V è assegnato un prodotto scalare definito positivo, cioè se V è uno spazio vettoriale euclideo. Useremo la notazione (v, w) per il prodotto scalare di due vettori v e w in V. Lo spazio affine numerico An(R) diventa uno spazio euclideo se in Rn si assegna il prodotto scalare standard. Questo spazio euclideo, denotato con E n , viene chiamato l'n-spazio euclideo numerico. Il suo spazio vettoriale associato è l'nspazio vettoriale euclideo. Un sistema di coordinate Oe l ... en nello spazio euclideo E tale che {e l , ... , en } sia una base ortonormale di V si chiama sistema di coordinate cartesiane oppure riferimento cartesiano. Nello studio degli spazi euclidei è naturale utilizzare sistemi di coordinate cartesiane: ciò facilita notevolmente i calcoli. È opportuno notare sin d'ora che la formula del cambiamento di coordinate da un riferimento cartesiano a un altro ha una forma particolare, dovuta al fatto che le corrispondenti basi dei vettori sono ortonormali. Siano infatti Oe l ... en e O' e{ ... e: due riferimenti cartesiani in E, e sia PE E un punto di coordinate x = t (XI'" x n ) rispetto al primo riferimento e x' = t (x{ '" x:) rispetto al secondo. Allora si ha x' =Ax+c,
v
b
dove A = Me 'e (Iv) è una matrice ortogonale e c = t(c i sappiamo, dall'identità -----t
0'0 = cle{ + a
w
Figura 18.1
...
cn) è individuato, come
... + cne:.
Nel caso n = 2, cioè in cui E è un piano euclideo, la matrice A è di una delle
228
Geometria euclidea
due forme [2.6] o [2.7] a seconda che i due riferimenti siano concordemente o discordemente orientati. Utilizzando il prodotto scalare definito nello spazio vettoriale associato V, è possibile introdurre nello spazio euclideo E nozioni di natura metrica come distanze, angoli, aree. 19.1 DEFINIZIONE Siano P e Q punti dello spazio euclideo E. La distanza tra P e Q,indicata con d(P, Q), è
d(P, Q) = IIPQII. Se in E è fissato un sistema di coordinate cartesiane Oel ... en> e se i punti dati sono P(xl , ••• , x n) e Q(YI' ... , Yn) rispettivamente, allora si ha
Nel caso in cui E
= Va'
dove V è uno spazio vettoriale euclideo, si ha
d(v, w) = l/w - vII. 19.2 PROPOSIZIONE
La distanza gode delle seguenti proprietà:
SMI
d(P, Q) 2: O per ogni P, QEE e d(P, Q) = O se e solo se P = Q.
SM2
d(P, Q) = d(Q, P) per ogni P, QEE.
SM3
d(P, Q) + d(Q, R) 2: d(P, R) per ogni P, Q, REE.
La proposizione segue immediatamente dalle proprietà del prodotto scaiare. Le tre proprietà della proposizione 19.2 possono essere prese come assiomi per definire una classe più generale di spazi, gli "spazi metrici". Precisamente, uno spazio metrico è un insieme X su cui sia definita una distanza, cioè un'applicazione d: X X X --+ R che soddisfi alle tre condizioni SM1, SM2, SM3. La 19.2 afferma che, con la distanza definita dalla 19.1, ogni spazio euclideo è uno spazio metrico. Non è vero il viceversa: in generale uno spazio metrico non è uno spazio euclideo, e infatti gli spazi metrici sono oggetti molto più generali la cui geometria non studieremo in questo corso. Per rendersi conto della loro maggior generalità si pensi che ogni sottoinsieme di uno spazio metrico è ancora uno spazio metrico; in particolare tutti i sottoinsiemi di uno spazio euclideo E sono spazi metrici. È anche possibile definire la nozione di angolo convesso di due rette utilizzando quella di angolo convesso di due vettori, definito in V grazie al prodotto scalare. Data una retta t- in E, un vettore di direzione di t- di lunghezza l si dirà versore di t-. Ci sono esattamente due versori di t-, l'uno opposto dell'altro. Per definire l'angolo convesso fra due rette date t- ed t-I dobbiamo fissare
19/5pazi euclidei
229
vettori di direzione a e al di t- e di t-I rispettivamente. Definiamo quindi l'angolo convesso 'P tra t- ed t-1 come l'angolo convesso tra a e al' cioè mediante le condizioni seguenti: (a, al> O:::; lfl :::; 7r cos dI = --'---'-T , T Ila Il Il al Il Questa definizione dipende dalla scelta di a e di al: l'angolo 'P così definito viene sostituito da 1r - 'P se uno dei due vettori viene moltiplicato per uno scalare negativo. Si noti che anche per definire l'angolo convesso di due rette nella geometria euclidea elementare è necessario fissare un verso di percorrenza su ognuna di esse, che è quanto fissarne vettori di direzione. Due rette in E si dicono ortogonali (o perpendicolari) se il loro angolo convesso è 7r12, cioè se un (e quindi ogni) vettore di direzione di una delle due rette è ortogonale a un (e quindi ad ogni) vettore di direzione dell'altra. È possibile definire angoli e distanze tra sottospazi di uno spazio euclideo E in casi più generali; non è però nei nostri scopi sviluppare una teoria generale: intendiamo piuttosto limitarci a considerare spazi euclidei di dimensione 2 o 3, i quali, dovrebbe ormai essere chiaro al lettore, possiedono essenzialmente tutte le proprietà geometriche del piano e dello spazio ordinari.
Sia E un piano euclideo in cui sia fissato un riferimento cartesiano Oij. Consideriamo una retta t-, avente equazione cartesiana AX+BY+C=O.
[19.1]
Ricordando che a( - B, A) è un vettore di direzione di t-, si deduce che i vettori
a lIali
±U= ± - -
di coordinate
sono i versori di t-. Un vettore non nullo m si dice ortogonale (o perpendicolare, o normale) a tse m è ortogonale a un (e quindi ad ogni) vettore di direzione di t-. È evidente che, essendo dim(V) = 2, due vettori qualunque ortogonali a t- sono fra loro paralleli. Inoltre esistono esattamente due versori, l'uno opposto dell'altro, che sono normali a t-, esi dicono versori normali a t-. Poiché a( - B, A) è un vettore di direzione di t-, il vettore n(A, B) è ortogonale a t-, e quindi i versori normali a t- sono n ±v= ± - -
IInll
, !I !
I ~
I I
Geometria euclidea
230
231
19/5pazi euclidei
e hanno coordinate
Dato un punto Q(a, b) E t", un'equazione cartesiana di t" si scrive nella forma A (X - a)
+ B(Y -
[19.2]
b) = O.
Poiché la [19.2] è individuata da a, b, A, B, vediamo che t" è individuata da un suo punto Q(a, b) e da un vettore normale n(A, B): una retta in E può quindi essere individuata assegnando un suo punto e un vettore ad essa perpendicolare. Se t" ed t"l sono due rette di equazioni cartesiane [19.1] e [19.3] rispettivamente, il loro angolo convesso
AA j
(a, al)
Ila Il lla l Il
v
..../A 2 + B
2
+ BB I ..../A
Q
N Figura 19.1
, B ) come versore normale; poiché QPo ha Scegliamo v (. A ..../A2 + B 2 ..../A 2 + B 2 coordinate (xo - a), (Yo - b);tenendo presente che C = - (Aa + Bb), otteniamo IA (xo - a) + B(yo - b) I I (Axo + Byo + C) I ..../A2 + B2 ..../A 2 + B 2 d(Po, t,,) =
Se t" ed t,,' sono due rette parallele di E, la loro distanza d(t", t,,') è per definizione uguale a d(P, t,,'), dove P è un punto qualunque di t". Per calcolare d(t", t,,') è sufficiente trovare un punto PE ~ e applicare la formula della proposi-
f+m
In particolare t" ed t"l sono perpendicolari se e solo se
zione 19.3.
AA I +BBI =0. Supponiamo data una retta t" di equazione cartesiana [19.1], e un punto Po(xo, Yo) E E. Consideriamo la retta t"l che passa per P o ed è ortogonale a t,,; evidentemente questa retta esiste ed è unica. Poiché t"l non è parallela a t", essa ha uno e un solo punto N in comune con t,,: N è il piede della perpendicolare condotta da P o a t". ~a distanza d(po, N) si chiama distanza di P o da t", e si denota con d(po, t,,). E possibile calcolare d(Po, t,,) trovando un'equazione di t"l' e poi le coordinate di N, e infine calcolando d(Po, N). Un metodo più efficiente è il seguente. 19.3 PROPOSIZIONE La distanza d(Po, t,,) di un punto Po(xo, yo)EE dalla retta t" di equazione [19.1] è data dalla seguente formula:
Sia E uno spazio euclideo di dimensione 3 con spazio vettoriale associato V. Supponiamo fissato in E un sistema di coordinate cartesiane Oijk. Consideriamo un piano jv in E, di equazione cartesiana [19.4]
AX + BY + CZ + D = O.
Un vettore m si dice ortogonale (o perpendicolare, o normale) a jv se è ortogonale ad ogni vettore della giacitura di jv. Se inoltre m è un versore, esso viene detto versore normale a jv . Poiché dim(E) = 3, due qualsiasi vettori normali a jv sono tra loro paralleli; " . quindi jv possiede esattamente due versori no~ma~i. Fissiamo un punto Po(xo, Yo' zo)Ejv e consIdenamo l equazIOne cartesIana dijv
d(P,t,,)= I(Axo+BYo+C)1 o ..../A2 + B 2
A (X - x o) + B(Y -
Dimostrazione Si osservi che se v è un versore normale a t" e se Q(a, b) è un punto qualsiasi di t", allora
y
Ogni vettore appartenente alla giacitura di jv è della forma PoP, PEjv; quindi dalla [19.5] vediamo che il vettore n(A, B, C) è normale a jv. Ne deduciamo che i due vettori ± v = ± nl Il n Il di coordinate
B d(Po' t,,)
---+
= I (v, QPo) I,
cioè d(Po' t,,) eguaglia il valore assoluto del prodotto scalare (v,
Wo) (fig. 19.1).
[19.5] ----+
sono i versori normali a jv.
232
Geometria euclidea
La [19.5] mostra inoltre che un qualsiasi piano è individuato da un suo punto . e da un vettore ad esso perpendicolare. Passeremo ora in rassegna le principali formule che permettono di calcolare distanze e angoli in E.
Angolo convesso tra due piani L'angolo convesso fra due piani di E può essere definito utilizzando i loro vettori normali. Siano,lv e,lvl due piani, di equazioni cartesiane [19.4] e [19.6]
L'angolo convesso di,lv e,lvl è l'angolo n 1 (A p BI' Ct), cioè è l'angolo
ip
conve~so tra i vettori
definito da O:s;
ip:S; 7r
19/5pazi euclidei
233
Distanza di un punto da un piano La distanza di un punto da un piano si definisce in modo simile al caso della distanza punto-retta in un piano euclideo. Sia,lv il piano, di equazione [19.4t, e sia Po(x(j, Yo, zo) EE il punto. Consideriamo la retta ~ passante per P o e perpendicolare a,lv e denotiamo con N =,Iv n ~ il piede della perpendicolare condotta da Po a ,Iv. Definiamo la distanza di Po da,lv come
d(Po',Iv) = d(Po, N). Si dimostra che
n(A, B, C) ed
e da [19.7]
La dimostrazione è simile a quella della proposizione 19.3 ed è lasciata al lettore.
Si osservi che la definizione di ip dipende dai vettori n ed n" e quindi dalla scelta delle equazioni [19.4] e [19.6]. Moltiplicando una o l'altra delle [19.4] e [19.6] per un fattore di proporzionalità negativo, ip si cambia in 7r - ip. Se ip = 7r/2 i due piani si dicono perpendicolari od ortogonali. Ciò avviene se e solo se
Distanza tra una retta e un piano paralleli Se ~ e,lv sono rispettivamente una retta e un piano paralleli, la loro distanza d(~,,Iv) è per definizione d(P, ,Iv), dove P è un qualsiasi punto di ~. Per calco-
-JA 2 + B2 + C 2 -JA 2I + B 2, + C 2I
Angolo tra una retta e un piano Sia,lv un piano di equazione [19.4], e sia ~ una retta con vettore di direzione a (l, m, n). L'angolo tra,lv ed ~ è l'angolo una cui determinazione è
lare d(~,,Iv) è sufficiente trovare le coordinate di un punto formula che dà d(P, ,Iv).
e applicare la
Distanza (Ji .un punto da una retta Sia ~ una retta e sia P oEE. Consideriamo il piano,lv passante per P o e perpendicolare a ~ e sia N = ~ n,lv. La distanza di P o da ~ è definita come d(Po,
~) =
d(Po, N).
Se ~ passa per il punto Q(a, b, c) e ha vettore di direzione a(l, m, n), e Po(xo, Yo, zo) E E, i:lllora si ha la seguente formula:
ip=t/;-~
2 '
dove t/; è l'angolo convesso tra i vettori n(A, B, C) e a. Quindi condizioni 7r
7r
2
2
ip
è definito dalle I
Yo~ b
2
zo: c
1
+IX
o
~a
2
zo: c
1
+IX
-Jp + m 2 + n 2
--:S;ip:S;-
Infatti
e
--+
--+
--+
QPo = QN + NPo, --+
--+
Se
PE~
ip = ± 7r/2, allora,lv ed ~ si dicono perpendicolari (od ortogonali). Si noti che ponendo sin ip = Osi ritrova la condizione di parallelismo tra,lv ed ~
Al+Bm + Cn
=
O
già data nella proposizione 10.2.
e QN è parallelo ad a, mentre NPo è perpendicolare ad a. Dalla proposizione 18.4 si deduce che --+
d(Po'~)
--+
= "NPo" =
Il a/\ QPo Il Ila Il
.
Esplicitando l'uguaglianza si ottiene l'asserto.
o
~ a Yo~ b
2 1
234
Geometria euclidea
19/5pazi euclidei
Distanza tra due rette Date due rette non parallele t- ed t-I in E, definiamo la loro distanza, che denoteremo con d(t-, t-j ) , nel modo seguente. Supponiamo che t- passi per il punto Q(a, b, c) e abbia a(l, m, n) come vettore di direzione, e che t-j passi per QI (al' bI' CI) e abbia vettore di direzione al (II' mI'
235
a,
N, 8,
n l )·
Osserviamo che esiste una e una sola coppia di punti, NE t- ed N I E t-I , tali che la retta che li contiene sia perpendicolare sia a t- che a t-j • Infatti le due condizioni di perpendicolarità sono
a
--+
(NNI , a) =0
[19.8]
e scrivenclo --+
Figura 19.2 --+
ON= OQ+ ta,
Si ha la seguente formula che permette di calcolare agevolmente la distanza di due rette assegnate:
si ottiene
a - al
b - bI
C - CI
l
m
n
e quindi le [19.8] diventano [19.10]
cioè: --+
(QQll a) --+
(QQI' al)
+ tI (al' + tI (al'
a) - t(a, a) = O al) - t(a, al)
= O.
[19.9]
Poiché a ed al sono linearmente indipendenti, per il teorema 18.2(6) si ha
Quindi il sistema [19.9] ammette una e una sola soluzione (t, tI)' e ciò significa appunto che esiste un'unica coppia (N, N I ) che soddisfa alla condizione voluta. La retta .J- passante per N e per N I si chiama perpendicolare comune a te a t-I (fig. 19.2). Ciò posto, definiamo la distanza di t- da t-I come
La [19.10] si dimostra nel modo seguente. Sia b un versore della perpendicolare comune a t- e. a t- I • Si ha
e quindi
D'altra parte, poiché b è ortogonale sia ad a che ad al' si ha b= ±
Quindi
236
Geometria euclidea
Esplicitando quest'uguaglianza si ottiene la formula cercata. Per trovare equazioni cartesiane della retta ~ perpendicolare comune a t- e a t- l si procede nel modo seguente. Conosciamo al\a], vettore di direzione di ~, le cui coordinate denotiamo con (f3], f32' (33). Denotando con P(X, Y, Z) un punto di coordinate indeterminate, e imponendo le condizioni di complanarità di t- e di t- l con la retta passante per p e avente vettore di direzione a 1\ a] otteniamo le due seguenti equazioni: X-a
Y-b
Z-c
f3]
f3 2
f3 3
l
m
n
Y-b i
Z-c]
f3]
f32
f33
Il
m]
n]
sfera S(C, r). Portando r 2 a primo membro e svolgendo i calcoli troviamo che la [19.12] è equivalente all'equazione
[19.13] dove di = - 2c;, i = 1, ... , n, d = cf + ... + c~ - r 2. A causa della loro definizione e del fatto che r 2 > O, i coefficienti dI' ... , d n , d della [19.13] soddisfano la condizione
df
d~
d~
4
4
4
[19.14]
Viceversa, un'equazione della forma [19.13] i cui coefficienti soddisfano la condizione [19.14] è equazione cartesiana di una sfera S, il cui centro CCCI' ... , cn ) e raggio p sono =0. C,
= - di , r =
l
Poiché queste equazioni rappresentano due piani distinti e sono soddisfatte. dai punti di ~, esse sono equazioni cartesiane di ~.
L Supponiamo fissato in uno spazio euclideo E un riferimento cartesiano Oe l .•• em ed un punto CCCI' ... , cn). Sia r> O. La sfera di centro C e raggio r è il sottoinsieme S (C, r) di E costituito dai punti P(x], ... , x n ) tali che dCC, P) = r, cioè tali che [19.11] Il disco di centro C e raggio r è il sottoinsieme D (C, r) di E costituito dai punti P(x I, ... , x n ) tali che dCC, P) :5 r, cioè tali che (x] - C])2 + ... + (x - C )2:5 r 2. n
Nel caso in cui E sia un piano, S(C, r) e D(C, r) sono la circonferenza e il cerchio rispettivamente, di centro C e raggio r. Se dim(E) = 1, D(C, r) è il segmento di lunghezza 2r e di centro C, ed S(C, r) è l'insieme costituito dai suoi estremi. Quando E = En, si usano i simboli sn-] e D n per denotare SCO, 1) e D(O, 1) rispettivamente. Dalla [19.11] deduciamo che S(C, r) è l'insieme dei punti di E le cui coordinate sono soluzioni dell'equazione [19.12] nelle indeterminate X]' X 2, ... , X n • La [19.12] è detta equazione cartesiana della
2
J
df + 4
d~ + ... + d~ 4
- d .
4
Nel caso particolare n = 2, la [19.13] è l'equazione di una circonferenza e ha la forma, nelle indeterminate X, Y, ~
19.4 Complementi
n
237
- + - + ... +--d>O.
=0,
X-al
19/5pazi euclidei
[19.15]
+ y2 + dIX.+ d 2Y + d= O
2 2 con -d ] + _d2 - d> O. Il centro della circonferenza è C ( - -d] , 4 4 2 tre il raggio è
d -2 2
)
,men-
.-----
Id
2 d2 r=....j-f-+-j--d.
Le circonferenze verranno considerate nuovamente nel capitolo quarto da un punto di vista diverso, come casi particolari di curve piane di secondo grado (' 'coniche' '). 2. Sia E un piano euclideo in cui sia assegnata un'orientazione (un piano euclideo orientato) e siano ~ ed ~' due semirette aventi origine nello stesso punto O Detti a e a' vettori di direzione di ~ ed ~' rispettivamente, l'angolo aà' si . '" dice l'angolo orientato tra ~ ed ~' e si denota con ~~'. 3. In un piano euclideo orientato E fissiamo una semiretta ~ di origine O. Per ogni punto P ~ O consideriamo la semiretta ~p di origine O e vettore di ---+ ---+ '" direzione OP. Lo scalare positivo p = Il OP Il, e l'angolo O = ~~p SI. d·Icono coordinate polari di P, e rispettivamente il modulo e l'anomalia di P rispetto alla semiretta ~. Diremo che ~ definisce in E un sistema di coordinate polari. Le coordinate polari (p, O) di un punto P ~ O lo individuano univocamente. Infatti O individua una semiretta ~8 di origine O, e P è il punto di intersezione di ~8 con la circonferenza di centro O e raggio p (fig. 19.3).
238
Geometria euclidea
19/5pazi euclidei
Quindi per ogni coppia di numeri reali (p, O), con p> O, esiste un unico punto p le cui coordinate polari sono p e l'angolo definito da O. Si conviene di estendere le coordinate polari anche al punto O assegnandogli modulo p = Oed anomalia indeterminata. Consideriamo il riferimento cartesiano Oij appartenente all'orientazione assegnata in E, avente origine in O e tale che i sia il versore di direzione di .J- (Oij è univocamente individuato da queste condizioni). Sia P -,é O un punto avente coordinate polari (p, O) e coordinate cartesiane (x, y). Allora si ha
239
o
x= pcosO y
=
Figura 19.3
[19.16]
psinO.
Il volume del parallelepipedo individuato da A (al' al' a3), B(b 1, bl , b 3), C(c 1, Cl' c3), D(dl , d l , d 3) in uno spazio euclideo di dimensione 3 è
Viceversa:
p = vxl + yl
0= E(Y) arccos (
x
vxl + yl
),
[19.17]
al
dI - al
in cui si è denotato con E(y) = ± 1 a seconda che y ~ Ooppure y < O(con questa formula si individua una determinazione dell'angolo O compresa tra - 71" e 71"). Le [19.16] e [19.17] sono le formule di passaggio da coordinate polari a coordinate cartesiane e viceversa. La verifica della validità di tali formule è lasciata al lettore. 4. Sia E uno spazio euclideo di dimensione n, Oel '" en un riferimento cartesiano, e siano Ao(a?, ... , a~), Al(al, ... , a~), ... , An (a7, ... , aZ)EE punti indipendenti. Il volume dell'n-parallelepipedo determinato da A o, Al' ... , An è definito come I det (M) I, dove
al ai -
Cl -
Cl - al
c3 - a3
d l - a z d 3 - a3
Osserviamo che la definizione di volume di un n-parallelepipedo non dipende dalla scelta del riferimento cartesiano Oel ... en • Infatti le righe della matrice M --+
--+
--+
sono le coordinate dei vettori AoA l' AoAl' ... , AOAn rispetto alla base {e l , ... , en}; --+ --+ se Of l ••• f n è un'altro riferimento cartesiano, le coordinate di AoA l , AoA l , ... ... , A-:4n rispetto alla base {fl' ... , f n} si ottengono dalle precedenti moltiplicandole per una matrice ortogonale. Quindi la matrice N analoga di M nel riferimento Ofl ... f n si ottiene da M moltiplicandola a destra per una matrice ortogonale, che ha determinante uguale a ± 1; dunque I det(M) I = I det(N) I.
a?
a~
- ag
a~ - a~
a?
a~
- ag
a~ - a~
a7 - a?
a~
-
M= a~
a nn - a O nI
In particolare, per n = 1, 2, 3 parleremo di lunghezza, area, volume di un segmento, di un parallelogramma, di un parallelepipedo rispettivamente. La lunghezza di un segmento A (a)B(b) di una retta euclidea è I b - a I, quindi coincide con d(A, B). L'area del parallelogramma individuato da A (al' a~, B(b l , bl)' C(cl , c~ in un piano euclideo è
5. Sia E uno spazio euclideo. Un sottoinsieme S C E si dice limitato se è contenuto in un disco, cioè se esistono C E E ed r > O tali che S C D (C, r). Un poliedro convesso è un sottoinsieme limitato di E che non è contenuto in un sottospazio affine proprio di E e che è l'intersezione di un numero finito di semispazi. Un poliedro convesso è un insieme convesso perché lo è ogni semispazio. La dimensione di E è detta dimensione del poliedro. Se dim(E) = 1 si ottiene un segmento. Se dim(E) = 2, 3 un poliedro convesso si dice poligono convesso e solido convesso rispettivamente. Lasciamo al lettore il compito di introdurre in modo appropriato tutte le nozioni elementari relative ai poligoni convessi, come quelle di vertice, lato e angolo, di n-agono regolare, di lati adiacenti o consecutivi ecc. in analogia con quanto vien fatto in geometria euclidea elementare. Supponiamo dim(E) = 3 e sia n C E un solido convesso. Se ;t è un piano di E tale che n sia contenuto in uno dei due semispazi definiti da .t, allora abbiamo
240
19/5pazi euclidei
Geometria euclidea
241
le seguenti possibilità:
,t'n n
= 0;
,t'n n è un punto, che si dice vertice di
n;
,t'n n è un segmento, che si dice spigolo (o lato) di ,t'n n è un poligono, che si dice faccia di
n;
n.
Dal fatto che n è intersezione di un numero finito di semispazi segue che esso possiede un numero finito v di vertici, s di spigoli, ed f di facce. È facile vedere che ogni spigolo è lato di due facce e ogni vertice è vertice di almeno tre facce e di altrettanti spigoli. Per ogni solido convesso n sussiste la seguente relazione tra v, s ed f:
v -s+f=2.
[19.18]
Questa notevole identità era già nota a Cartesio nel 1640, ma la sua prima dimostrazione fu data da Eulero nel 1752. Daremo una dimostrazione della [19.18] che è simile a quella originale di Eulero. Per semplificare l'argomentazione supporremo che sia possi~ile costruire il solido n partendo da una sua faccia e aggiungendone poi una alla volta in modo che ogni nuova faccia che si aggiunge abbia solo lati adiacenti in comune con quelle precedentemente inserite. Si osservi che necessariamente f ~ 3. Ad ogni stadio del procedimento denotiamo con il numero v - s + f ~ 1. Per una sola faccia si ha = O. Procediamo per induzione sul numero di facce inserite, dimostrando che finché il poliedro non è stato completato, si ha = o. Supponiamo che ciò sia vero a un dato stadio della costruzione in cui restano da inserire almeno due facce ancora. Aggiungiamo una nuova faccia F avente p lati, di cui q consecutivi siano in comune con le precedenti; pertanto q + 1 vertici di F appartengono alle precedenti facce. Abbiamo quindi aggiunto 1 nuova faccia, p - q nuovi spigoli e p - 'q - 1 nuovi vertici. Denotando con , la quantità corrispondente di relativa alla nuova configurazione, si ha ,
Ottaedro
Tetraedro
= + (p - q-l) - (p - q) + 1 = = O,
come asserito. Osserviamo che quando si aggiunge l'ultima faccia non si modifica né il numero dei vertici né quello degli spigoli, mentre il numero delle facce aumenta di 1. Quindi per n si ha = 1, cioè la [19.18]. Gli analoghi in dimensione 3 dei poligoni regolari sono i "solidi regolari". Un solido regolare è un solido convesso avente per facce poligoni regolari tuttI uguali tra loro. È un fatto notevole che, diversamente da quello che avviene per i poligoni regolari, esistono solo un numero finito, precisamente 5, di classi di similitudine di solidi regolari (per la definizione di similitudine cfr. 20.10(2»: il tetraedro, l'ottaedro, il cubo, il dodecaedro, l'icosaedro (fig. 19.4).
I
Icosaedro
I
I I I I
I
//...L--//
Figura 19.4
Cubo
Dodecaedro
Questi solidi erano noti fin dall'antichità. Poiché la scuola platonica se ne interessò, in particolare Platone ne parla nel Timeo, essi vengono anche chiamati solidi platonici; Teeteto li studiò sistematicamente attorno al 380 a.C. e di essi tratta il XIII libro degli Elementi di Euclide. (Per maggiori dettagli rinviamo il lettore a [7]).
Esercizi 1. Sia E uno spazio euclideo in cui sia fissato un riferimento cartesiano Gel ... en , e sia H C E un iperpiano di equazione
Un vettore m si dice ortogonale ad H se è ortogonale ad ogni vettore della giacitura di H. Dimostrare che: a) due vettori ortogonali ad H sono proporzionali b) il vettore m(al> ... , an ) è ortogonale ad H. 2. In ciascuno dei casi seguenti calcolare la distanza del punto P dalla retta ~ in E a) P
16
= (l,
- 3),
~: 2X -
Y +1=O
b) P
= (1, 4), 4X -
3Y+7
= o.
2 :
242
3. Determinare equazioni cartesiane della retta .J-- di E 3 passante per il punto p == (1, O, -1), incidente la retta ~ di equazioni X + Y ~ 2 = 2 Y - Z = O e ad essa perpendicolare. 4. Determinare un'equazione del piano,lv di E 3 contenente la retta ~ di equazioni X-l Y- . 2 =Z , e ortogonale al plano . d· . 2 -=tV l equazIOne X + 2 Y + Z = O. 2 3 4 ()
5. Determinare equazioni cartesiane della retta e incidente perpendicolarmente la retta .J-- :X + 1 = Y - Z
~
3
:
2 = O=X- 5Y+2Z +2
.J--:2X- Y+Z+l=0=X-2Y+2Z-3. 8. Determinare equazioni cartesiane delle rette di E 3 contenenti il punto P = (1, 1, 1), parallele al piano,lv dì equazione: Y + V2Z - 1 = O, e formanti con l'asse X un angolo convesso uguale a 1l"/3. 9. In ciascuno dei seguenti casi, dopo aver verificato che le rette sghembe, trovarne distanza e perpendicolare comune: a) ~ :2X - Y - Z -1
~
ed .J-- di E 3 sono
= O = X + Y - 2Z
.J--:2X+ Y-Z+2=0= Y+3Z-2 b)
Sia V uno spazio vettoriale euclideo con prodotto scalare (, ). In questo paragrafo supporremo che V abbia dimensione finita. Un operatore T: V --+ V si dice unitario se (T(v), T(w»
= (v,
[20.1]
w)
per ogni v, w E V. A parole la condizione [20.1] si esprime dicendo che T preserva il prodotto scalare.
= X + Z.
7. Determinare il coseno dell'angolo convesso formato dalle due seguenti rette di E
:x- 3 Y+ Z -
20 Operatori unitari e isometrie
di E 3 passante per il punto P = (1,2, 1)
6. Determinare equazioni cartesiane della retta ~ di E 3 passante per il punto . X+l Z P = (3, 2, 1), perpendIcolare alla retta .J-- : - - = Y - 2 = - e incidente la 3 2 retta t: X - 3 Y - Z = X + 7 Y + Z - 6 = O. Calcolare la distanza tra ~ ed .J-- •
~
243
20/0peratori unitari e isometrie
Geometria euclidea
~: Y + X
- 3 = O =\X - Z + 1 .J--:x = 1 - l, Y = 3 + 3~ = 1 - 2l.
Sia T: V --+ V un'applicazione. Le seguenti condizioni sono
20.1 TEOREMA equivalenti:
1) 2) 3) 4)
T è un operatore unitario. T è un operatore tale che IIT(v)1I = IIvll per ogni vEV. T(O) = O e IIT(v) - T(w)II = IIv - wll per ogni v, wEV. T è un operatore, e per ogni base ortonormale {e p ••• , en } di V, (T(e,), ... ... , T(e n)} è una base ortonormale. 5) T è un operatore, ed esiste una base ortonormale {e" ..• , en } di V tale che (T(e,), ... , T(e n)} sia una base ortonormale. Dimostrazione L'implicazione (1) ~ (2) è ovvia, perché IIT(v)II Z = (T(v), T(v»
= (v,
v)
= IIvll z.
Per dimostrare (2) ~ (1) osserviamo che si ha, per ogni v, wEV: 4(v, w)
= (v + w, v + w) -
4 (T(v), T(w)
= (T(v)
lO. Determinare equazioni cartesiane delle circonferenze di E 2 di centro e raggio assegnati:
[20.2]
(v - w, v - w)
+ T(w),
T(v) + T(w) - (T(v) - T(w), T(v) - T(w».
[20.3]
Dalla linearità di T segue che il secondo membro della [20.3] è uguale a a) C= (3, - 4)
r=l
b) C= (1,2)
r=V2
c)C=(l,-l)
r=-. 2
1
11. Determinare centro e raggio delle circonferenze di E 2 di equazioni: a) X
2
+
y
2
-
6X + 8 Y = O
12. Sia E uno spazio euclideo. Dimostrare che un disco di E è un insieme convesso, e che una sfera non è convessa. Dimostrare inoltre che il centro di un disco, o di una sfera, è il suo unico centro di simmetria.
(T(v
+ w),
T(v
+ w)
- (T(v - w), T(v - w»,
il quale, poiché T soddisfa la (2), è uguale al secondo membro della [20.2]: quindi 4 (T(v), T(w» = 4(v, w), cioè T soddisfa la (1). (2) ~ (3) La dimostrazione è lasciata al lettore. (3) ~ (1) Per ogni vEV si ha Il T(v) Il
= Il T(v) -
OIl
= Il T(v) -
Esplicitando l'uguaglianza Il T(v) - T(w) Il Z = Il v -
W
II z
T(O) Il
= Il v -
OIl
=
IIv Il.
[20.4]
244
Geometria euclidea
per ogni
V,
w EV otteniamo
IIT(v)11
2
-
2 (T(v), T(w» + IIT(w) 11
2
=
IIvll
2
-
2(v, w) + IIw1l
2
lare standard delle loro coordinate, per la (5) del teorema 20.1 T è unitario se e solo se
•
A(i)' A(j) = oij
Utilizzando la [20.4] deduciamo che (T(v), T(w»
= (v,
[20.5]
w)
per ogni v, wEV. Per concludere è sufficiente dimostrare che T è lineare. Sia (e l , ••• , enl una base ortonormale di V. Dalla [20.5] segue che (T(e l ), ••• , T(e n) lè una base ortonormale, perché soddisfa (T(eJ, T(e) = (ei , e) = oij Per ogni v =
XI
per ogni 1 :o; i, j:o; n.
e l + ... + xnen si ha quindi
n
n
n
T(v) = E (T(v), T(eJ) T(eJ =E (v, e) T(eJ =.E xiT(eJ, i=1
245
20/0peratori unitari e isometrie
1=1
per ogni 1 :o; i, j:o; n, cioè se e solo se tAA corollario:
=
In' Quindi abbiamo il seguente
20.2 COROLLARIO Un operatore T: V --+ V è unitario se e solo se la matrice di T rispetto ad una qualsiasi base ortonormale di V è ortogonale. Pertanto, fissata una base ortonormale c di V, l'applicazione
Me: GL(V)--+GLn(R)
che associa ad ogni operatore T la sua matrice M.(T) rispetto ad c, induce un isomorfismo del gruppo O(V) sul gruppo O(n).
1=1
Si noti che un operatore unitario T: V --+ V soddisfa la condizione
cioè n
T( E xieJ i=1
n
= i=1 E Xi T(eJ,
e pertanto T è lineare. (1) => (4) La dimostrazione è lasciata al lettore. (4) => (5) Ovvio. (5) => (1) Sia (e l , ... , enl la base ortonormale la cui esistenza è affermata dalla (5). Siano v = XI e l + ... + xnem w = Yl e l + ... + ynen- Si ha (T(v), T(w» = (XI T(e l ) + ..• + XnT(e n), YI T(e l ) + ... + Yn T(e n» = = EijxiYj(T(eJ, T(e) = EixiYi= (v, w).
La condizione (3) del teorema 20.1 può essere considerata come una condizione sullo spazio euclideo Va' Essa infatti afferma che T lascia fisso il vettore Oe conserva la distanza tra vettori di V, senza supporre che T sia un' applicazione lineare. La condizione (2) del teorema afferma che T preserva la norma dei vettori. Dalla (2) segue subito che se T è unitario allora T(v) = O implica v = O, cioè N(T) = (O). Quindi un operatore unitario è invertibile. L'inverso T-I di un operatore unitario T è ancora unitario e la composizione dei due operatori unitari è ancora unitaria; la verifica è lasciata al lettore. Pertanto gli operatori unitari formano un sottogruppo di GL (V), che si chiama gruppo ortogonale di V, e si denota con O(V). Supponiamo che c = (e l , ... , enl sia una base ortonormale di V, e sia A = Me(T) la' matrice dell'operatore T rispetto a c. Poiché le colonne A(l)' ... ... , A(n) di A sono le coordinate di T(e l ), ••• , T(e n) rispetto a c, e poiché rispetto a una base ortonormale il prodotto scalare di due vettori è uguale al prodotto sca-
det(T)
=
[20.6]
±1
perché ogni matrice ortogonale ha determinante uguale a ± 1. Gli operatori unitari T tali che det(T) = 1 costituiscono un sottogruppo di O(V), il cosiddetto gruppo ortogonale speciale di V, che denoteremo con SO (V). Gli elementi di SO (V) si dicono rotazioni di V. Dal corollario 20.2 segue immediatamente che, fissata una base ortonormale c di V, l'applicazione Me induce un isomorfismo di SO(V) su SO(n). Gli operatori unitari godono della seguente proprietà relativa agli autovalori. 20.3 PROPOSIZIONE Sia TE O(V). Se ÀE R è un autovalore di T, allora À = ± 1. Se A EO (n) e ÀE R è un autovalore di A, allora À = ± 1.
Dimostrazione La seconda affermazione segue dalla prima, tenuto conto del corollario 20.2. Supponiamo che ÀER sia un autovalore di T, e sia v EV un autovettore di À. Poiché T è unitario si ha Il v Il = Il T(v) Il = II"A, v Il = I À I Il v Il e quindi dev' essere I À I
=
1.
Una caratterizzazione degli operatori unitari, equivalente a quella del corollario 20.2 ma più intrinseca, si ottiene introducendo il concetto di "operatore aggiunto" o "trasposto" . 20.4 PROPOSIZIONE
Per ogni operatore F EEnd (V) esiste Un unico operatore
246
Geometria euclidea
G EEnd (V) tale che
(F(v), w)
= (v,
G(w»
[20.7]
Dimostrazione Per ogni wEV l'applicazione F w : V ~ R definita ponendo
= (F(v),
w)
per ogni vEV
è un funzionale lineare. Infatti si ha
Fw=
b~
oF,
247
e quindi
per ogni v, wEV. L'operatore G si dice trasposto o aggiunto di F.
Fw(v)
20/0peratori unitari e isometrie
per ogni UEV;
poiché b~ ed F sono entrambe lineari, anche F w lo è. Dato che il prodotto scalare (, ) è una forma bilineare non degenere, per la proposizione 15.6 esiste un unico G (w) EV tale che si abbia l'uguaglianza di funzionali lineari
[20.8]
tAy = By.
Poiché è vera per ogni y, la [20.8] ìmplica chetA = B. A parole: rispetto a una base ortonormale il trasposto di un operatore è quello rappresentato dalla matrice trasposta della matrice che rappresenta l'operatore. FEEnd(V) si dice operatore simmetrico (o autoaggiunto) se F= tF. Diremo invece F antisimmetrico se F = - tF. Da quanto abbiamo visto si deduce che F è un operatore simmetrico (antisimmetrico) se e solo se rispetto a una base ortonormale si rappresenta con una matrice simmetrica (antisimmetrica). Ora possiamo dare una nuova caratterizzazione degli operatori unitari: 20.5 PROPOSIZIONE tTo T= Iv.
Un operatore T: V ~ V è unitario se e solo se
F w = ( - , G(w»,
Dimostrazione T è unitario se e solo se per ogni v, w EV si ha
cioè tale che si abbia
Fw(v)
=
(v, G(w»
per ogni vEV.
(v, w) = (T(v), T(w» = (v, tT(T(w») = (v, CTo T) (w».
L'applicazione G: V ~ V così definita soddisfa la condizione [20.7] ed è evidentemente unica; per concludere ci resta da dimostrare che G è lineare. Siano wl' w2 EV e Cl' c2 ER; si ha, per ogni vEV, (v, G(CIWl + C2 w2» = FCIWl+C'W'(v) = (F(v), Cl Wl + c2 w2 ) = = cl(F(v), Wl) + c2 (F(v), w 2 ) = = Cl FW1(v) + c2F w,(V) = = cl(v, G(w l» + C2 (v, G(w2» = = (v, Cl G(w l) + c2 G(W2», e quindi G(ClW l + C2 W 2)
=
CIG(W 1) + c2 G(W 2). Pertanto G è lineare.
L'aggiunto di un operatore lineare F si denota solitamente con il simbolo tF. Dalla proprietà di simmetria del prodotto scalare segue subito che t CF) = F. Diremo anche che F e tF sono aggiunti (o trasposti) uno dell'altro. Il motivo della terminologia che abbiamo introdotto si spiega subito nel seguente modo. Supponiamo che e = {e l , ••• , en } sia una base ortonormale di V, e siano A = M.(F), B = M.CF). Allora, per ogni v = Xl e l + '" + xnen> w = Yl e l + ... ... + ynen si ha
(F(v), w) = (Ax).y = t(Ax) y =
tx~y
e
(F(v), w)
=
(v, G(w»
=
x·(By).
= x.(tAy).
Poiché quest'uguaglianza è valida per ogni v, w EV, si deve avere w = CTo T) (w)
per ogni wEV, cioè tTo T= Iv. La discussione precedente mostra che gli operatori unitari sono essenziamente gli isomorfismi che rispettano la struttura di spazio vettoriale euclideo. È naturale quindi utilizzare la nozione di operatore unitario per definire, in uno spazio euclideo, delle particolari affinità che sono compatibili con la struttura metrica. 20.6 DEFINIZIONE Sia E uno spazio euclideo su V. Un'affinitàf: E~E si dice isometria di E se l'automorfismo associato cp: V ~ V è un operatore unitario. L'identità lE' e più in generale ogni traslazione, è un'isometria perché l'isomorfismo associato è l'identità di V, che è un operatore unitario. La composizione di due isometrie è un'isometria perché l'automorfismo associato è unitario, essendo la composizione di due operatori unitari. Analogamente l'inversa di un'isometria è ancora un'isometria. Pertanto le isometrie di E costituiscono un sottogruppo di Aff(E), cioè un gruppo di trasformazioni affini di E, indicato con Isom(E) e denominato gruppo delle isometrie di E. I sottogruppi di Isom (E) si dicono gruppi di isometrie di E. Un'isometria f, con automorfismo associato cp, si dice diretta se det(cp) = 1,
Geometria euclidea
248
e inversa se det(cp) = -1. Le isometrie dirette costituiscono un sottogruppo, Isom +(E), di Isom(E). Le traslazioni sono particolari isometrie dirette, e quindi TE è un gruppo di isometrie dirette di E. Sia O EE, e consideriamo lo stabilizzatore Isom (E)o di O in Isom (E). Le isometrie dirette appartenenti a Isom(E)o si dicono rotazioni di centro O, e costituiscono il sottogruppo Isom(E)o n Isom +(E). L'isomorfismo <1>:
249
20/0peratori unitari e isometrie
sometria se e solo se d(f(P), f(Q»
=
[20.12]
d(P, Q)
per ogni P, QE E. Dimostrazione Se f è un'isometria, con isomorfismo associato cp: V ~ V, allora ---~l
Aff(A)o~GL(V)
~
~
d(f(P),f(Q» = IIf(P)f(Q) Il = Il cp(PQ) Il = IIPQII =d(P, Q)
(cfr. esempio 14.6(2» induce isomorfismi: Isom (E)o ~ O (V)
[20.9]
Isom(E)o n Isom +(E) ~ SO(V).
perchè cp è un operatore unitario, e per il teorema 20.1(2). . Supponiamo viceversa che la condizione [20.12] sia soddisfatta. Fissiamo arbitrariamente un punto OE E e definiamo un'applicazione cp: V ~ V ponendo . )
~
Se si fissa anche una base e = (e" ... , en J di V, dal corollario 20.2 deduciamo che la composizione Me o induce isomorfismi:
cp(OP) =f(O)f(P). ~
Poiché ogni vettore vEV è della forma v = OP, l'applicazione cp è ben definita e tale che cp(O) = cp(OO) = f(O) f(O) = O. Inoltre, se v = OP, w = OQ, si ha ~)
Isom(E)o ~ O(n)
[20.10]
Isom(E)o n Isom +(E) ~ SO(n).
~
~
~
l
~
)
Il cp(v) - cp(w) Il = Il cp(OP) - cp(OQ) Il = IIf(O) f(P) - f(O) f(Q) Il =
In particolare il secondo isomorfismo identifica il gruppo delle rotazioni di centro O con quello delle matrici ortogonali speciali di ordine n. Dal teorema 14.8 e dal corollario 20.2 segue direttamente il seguente teorema: 20.7 TEOREMA Sia E uno spazio euclideo in cui sia assegnato un riferimento cartesiano Oe, ... en • OgnifElsom(E), con automorfismo associatocp, si esprime nella forma
l
~
= IIf(Q)f(P) Il = Il QPII = IIv
~
wll.
Dal teorema 20.1(3) segue che cp è un operatore unitario. Inoltre, poiché per ogni P, QEE si ha ~
cp(PQ)
_
~-+
=
cp(OQ - OP)
=
~
)
l
cp(OQ) - cp(OP) =f(O)f(Q) - f(O)f(P) =
l
=f(P)f(Q),
f è un'affinità con isomorfismo associato cp, e pertanto è un'isometria. con y=Ax +c,
[20.11]
dove c = t(c, ... cn) E Rn è il vettore delle coordinate di f(O), e A = Me(cp) EO (n) è la matrice di cp nella base e. Viceversa, ogni trasformazione f: E~ E della forma [20.11] per qualche A EO(n), cE Rn, è un'isometria. In particolare le isometrie (rispettivamente le isometrie dirette) di E n sono precisamente le affinità fA,c tali che A E O(n) (rispettivamente A E SO (n». Il seguente teorema fornisce una caratterizzazione geometrica delle isometrie analoga della condizione (3) del teorema 20.1. 20.8
TEOREMA
Sia E uno spazio euclideo. Un'applicazionef:
E~ E
è un 'i-
Il teorema 20.8 rende possibile lo studio delle isometrie in modo puramente geometrico. Il modo più efficiente per trovare gruppi di isometrie di uno spazio euclideo è quello di studiare le isometrie di una figura geometrica. Sia F C E una figura geometrica. Un'isometria fE Isom(E) tale che f(F) = F si dice isometria di F. È evidente che le isometrie di una figura F costituiscono un gruppo di trasformazioni di F che è un sottogruppo Isom(F) di Isom(E); esso viene chiamato gruppo delle isometrie di F. Ad esempio, se O EE, allora Isom (O)
=
Isom (E)o.
Se S(O, r) è la sfera di centro O e raggio r> O, allora Isom(S(O, r» = Isom(E)o'
[20.13]
250
Geometria euclidea
Infatti ognifEIsom(E)o trasforma S(O, r) in sé stessa, perché
r = d(O, P)
= d(f(O), f(P» = d(O, f(P»
e quindif(P)ES(O, r) per ogni PES(O, r); dunque fE Isom(S(O, r». Per dimostrare il viceversa, osserviamo preliminarmente che per due punti qualsiasi P, QES(O, r) si ha d(P, Q):5 d(P, O) + d(O, Q) = 2r e vale l'uguaglianza se e solo se R, 0, S sono allineati, cioè se e solo se Red S sono diametralmente opposti. Sia dunquefE Isom(S(O, r»: allora, scelti P, QES(O, r) diametralmente opposti, si deve avere d(f(P),j(Q» = 2r, sicchéf(P),j(Q)ES(O, r) sono ancora diametralmente opposti. Pertanto il punto medio del segmento PQ viene trasformato nel punto medio del segmento f(P)f(Q), che è ancora O. Quindi f(O) = 0, cioè fE Isom(E)o' Ciò conclude la dimostrazione della [20.13]. Lo studio dei gruppi di isometrie delle figure euclidee costituisce un capitolo classico e molto vasto della teoria d€i gruppi. Intuitivamente il concetto di isometria di una figura geometrica corrisponde a quello estetico e artistico di "simmetria". Più grande è Isom(F), più la figura è "simmetrica", cioè possiede "simmetria". Storicamente la nozione di gruppo astratto è stata preceduta da quella di gruppo di trasformazioni, ed in particolare di gruppo di isometrie. Alcuni esempi di gruppi di isometrie verranno dati nel paragrafo 21.
°
251
20/0peratori unitari e isometrie
ottenute componendo un numero finito di isometrie e di omotetie in tutti i modi possibili. Tali affinità si chiamano similitudini, e costituiscono un sottogruppo, Simil(E), di Aff(E). Infatti l'identità èun'omotetia, e quindi una similitudine. Inoltre la composizione di due similitudini <11 ° Wl ° ... ° <1k ° Wk e TI ° rl ° ... ° Tj ° r j è . <1 I O Wl 0 ••• 0<1kOWkOTlorlo '" 0TjOrj , che è una similitudine. L'inversa di una similitudine <1 I O WlO ••• ° <1k OWk è Wk- I 0(Ji: 1 ° ... oWI-lo(JI-I, che è una similitudine. È evidente che Simil(E) contiene Isom(E) e tutte le omotetie. Denoteremo con Simil +(E) il sottogruppo di Simil (E) costituito dalle similitudini dirette. Identifichiamo E 2 con C associando ad ogni (x, y) EE 2 il numero complesso z = x + iy EC. Con questa identificazione è possibile dare una semplice descrizione di Simil(E2) e di Simil+(E2) nel modo seguente. Siaf(z) un'affinità di C, considerato come spazio affine complesso di dimensione l:
f(z)=az+b
a,bEC,
a;éO.
[20.14]
La [20.14] si può interpretare come un'affinità del piano euclideo E 2. Scrivendo a = a' + ia", b = b' + ib': la [20.14], come affinità di E 2, ha la forma
f(x,y)=(a'x-a"y+b', a"x+a'y+b") 20.9 DEFINIZIONE Due figure geometriche F'ed F' di E si dicono congruenti se esiste f EIsom (E) tale chef (F) = F' . Le proprietà di u.na figura F che sono possedute da tutte le figure ad essa congruenti si dicono proprietà euclidee di F.
Ogni proprietà affine di una figura F C E è anche una proprietà euclidea perché Isom(E) C Aff(E), e quindi ogni figura congruente a F è anche affinemente equivalente a F; in generale, però, una proprietà euclidea non è una proprietà affine. Ad esempio, la distanza di due punti P, QEE è una proprietà euclidea di (P, Q), ma non è una sua proprietà affine, perché un'affinità di E non trasforma necessariamente P e Q in punti che hanno la stessa distanza.
e quindi è un'affinità diretta perché ha determinante
a,2 + a"2> O. Con b
=
O la [20.14] diventa
f(z)
=
az
[20.15]
Se aE R, la [20.15] rappresenta un'omotetia di E 2, perché è della forma
f(x + iy)
=
ax + iay.
Se I a I = 1, si ha a = cosO + i sinO, e la [20.15] diventa
20.10 Complementi 1. Le condizioni (l), (2) (3) del teorema 20.1 hanno senso anche se V è uno spazio vettoriaIe euclideo che non ha dimensione finita; anche la dimostrazione della loro equivalenza non utilizza alcuna ipotesi su dim(V). Quindi le (I), (2) (3) sono condizioni equivalenti per un operatore definito in uno spazio vettoriale euclideo qualunque.
2. Nella geometria elementare si studiano anche proprietà che non dipendono dalle distanze o dalle grandezze delle figure, ma solo dalla loro forma e dalle loro proporzioni: le proprietà di similitudine. Queste proprietà vengono mantenute, oltre che dalle isometrie, anche dalle omotetie (cfr. 14.6(3», e quindi dalle affinità
f(x + iy)
=
xcosO - y sinO + i(x sinO + ycosO),
che rappresenta una rotazione. Poiché a = I a I u, dove I u I = 1, per ogni aE C, la [20.15] è in ogni caso la composizione di una omotetia e di una rotazione. Da ciò segue che le affinità [20.14] di C coincidono con le affinità dirette del piano euclideo E 2 che sono composizione di traslazioni, rotazioni e omotetie, cioè con le similitudini dirette. Dunque Affl(C) si identifica con il gruppo Simil +(E 2). Per ottenere anche le similitudini inverse di E 2 sarà sufficiente comporre tutte le affinità [20.14] con una particolare isometria inversa: ad esempio con il coniugio, che associa ad ogni z = x + iYE C il suo coniugato z = x - iy. Quindi, le similitudini inverse di E 2 corrispondono alle trasformazioni (J di C
Geometria euclidea
252
20/0peratori unitari e isometrie
253
e quindi ~
QPH(P)
---'-+
---------+
---'-+
= QP + PPH(P) = Pa(QP),
dove Pa : V ~ V èla riflessione definita da a (cfr. (3». Tenuto conto che al ql + ... + anqn = - c, le coordinate di PH(P) sono Figura 20.1
[20.16J della forma a(z)=az+b,
a, bEC,
a~O.
3. Sia V sia uno spazio vettoriale euclideo, e sia v E V, v ~ O. La riflessione definita da v (fig. 20.1) è l'applicazione py: V ~V seguente: py(u)
=u -
=p
per ogni PE E e che PH(P)
Si verifica facilmente che Py è lineare; inoltre, per ogni u E V: IIpy(u) 11 2 = Il u - 2ay(u) v 11 2 = Il U 11 2 - 4ay(u) (u, v>
+ 4ay(u)211 v 11 2 = Il U 11 2,
e pertanto Py è un operatore unitario. Dalla definizione segue subito, infine, che p; = lv, cioè py
=
py-l.
4. In uno spazio euclideo E su V supponiamo fissati un riferimento cartesiano Del'" en e un iperpiano H di equazione
+ .,. + anXn + c = O.
E~E
è un'isometria. PH è la riflessione definita da H (o che fissa H). Nel caso n = 2 si ottiene la nozione di riflessione di asse una retta, che· verrà ripresa nel paragrafo 21. Da quanto visto segue che pJi= lE e che PH fissa ogni punto di H. Un sottoinsieme F di E si dice simmetrico rispetto all'iperpiano H se PH(P) EF per ogni PEF. In questo caso Hsi dice iperpiano di simmetria di F. Nel caso n = 2, H è una retta, che si dice asse di simmetria di F.
p
Sia P(xl , ... , xJEE. Il punto simmetrico di P rispetto ad H è il punto PH(P) definito dall'identità
),
cioè ---------+
---'-+
= -
2NP,
N
dove N denota il punto di intersezione di H con la retta Z, passante per P e perpendicolare ad H, cioè la retta per P avente vettore di direzione a(al' ... , an ) (fig. 20.2). Se si fissa un punto Q(ql' ... , qn)EH qualsiasi; si ha ---------+
PPH(P)
---'-+
= -
se
e quindi l'applicazione PH:
Py(u) = u - 2ay(u) v.
PPH(P)
=P
2 (v, u> v. (v, v>
Ricordando la definizione di coefficiente di Fourier ay(u), possiamo scrivere in forma equivalente
al Xl
È immediato verificare che PH(PH(P» e solo se PEH. Inoltre, per ogni P, P' E E:
2(QP, a> a/(a, a>,
Figura 20.2
r 254
Geometria euclidea
5. Tra i gruppi di isometrie più interessanti vi sono cosiddetti "gruppi discontinui" . Sia E uno spazio euclideo sullo spazio vettoriale euclideo V. Un sottogruppo ~ di Isom(E) si dice discontinuo se per ogni PEE esiste r> O tale che nessuno dei punti g(P), gE:#, sia contenuto nel disco D(P, r). Ogni sottogruppo finito ~ di Isom(E) è un gruppo discontinuo. Infatti" per ogni PEE, un qualsiasi 0< r < min (d(P, g(P)): gE ~} soddisfa la condizione della definizione. Fissato un vettore non nullo vEV, l'insieme di tutte le traslazioni della forma thv ' h EZ, è un sottogruppo discontinuo TE(v) di Isom(E). TE(v) è un gruppo infinito perché thv = tkv se e solo sé h = k. Un gruppo finito di isometrie di E non può contenere traslazioni diverse dall'identità, perché se contenesse la traslazione tv ' O ';é vE V, conterrebbe anche TE(v), che è infinito. Un gruppo discontinuo di isometrie di E che può essere generato da riflessioni si dice gruppo di Coxeter.
255
20/0peratori unitari e isometrie
Infatti ME Ob(Kn) se e solo se per ogni x, y EKn si ha IxAy
= I(Mx) A (My) = Ix(lMAM)y.
Poiché quest'identità dev' essere vera per ogni x, y EKn, M deve soddisfare la [20.18]. Prendendo K = R e A = 1m la [20.18] esprime la condizione che A EO(n), cioè Ob(Rn) = (n) se b è la forma simmetrica standard. Se V = Rn e b è la forma bilineare simmetrica polare della forma quadratica
°
q(x) = x;
+ ... + x; -
X;+l -
... -
xn
il gruppo ortogonale di V relativo a b si denota con O(p, n - p). In particolare 0(3, 1) coincide con il gruppo degli automorfismi di R 4 che preservano la forma di Minkowski, ed è detto gruppo di Lorentz. Un altro caso particolare importante si ottiene prendendo la forma alterna standard su K2\ k 2: 1:
6. Siano V un K-spazio vettoriale e b: V x V -+ K una formabilineare. Diremo che un automorfismo jEGL(V) preserva b se [20.17]
b(f(v), j(w)) = b(v, w)
per ogni v, wEV. L'insieme di tutti gli automorfismi di V che preservano b è un gruppo lineare, che si chiama gruppo ortogonale di V relativo a b, e si denota con 0b(V). Per verificare che 0b(V) è effettivamente un gruppo si osservi che per ognijE 0b(V) e v W EV, detti v, w EV i vettori tali che j (v) = V j (w) = W la [20.17] può anche scriversi I ,
I
I ,
I ,
dove n J
= 2k e
k= (~ I :k). k
Il corrispondente gruppo ortogonale si dice gruppo simplettico di ordine 2 k su K, e si denota con Sp(2k, K). Da quanto detto sopra segue che una matrice MEGL 2k (K) appartiene a Sp(2k, K) se e solo se soddisfa l'identità
b(v / , w') = b(f-l(V / ), j-l(W / ))
e quindi j-l E0b(V). Evidentemente lvE 0iV); infine, se j, gE 0b(V), si ha b((goj)(v), (goj)(w))
= b(g(f(v)),
g(f(w))
= b(f(v),
j(w))
= b(v,
w)
per ogni v, WEV, e quindi gojEOb(V). Queste nozioni generalizzano quelle di operatore unitario e di gruppo ortogonale, che si ottengono prendendo come V e b uno spazio vettoriale euclideo e il suo prodotto scalare rispettivamente. Supponiamo V = Kn, e b sia la forma bilineare associata a una matrice A EMn(K), cioè definita da b(x, y) = IxAy. Allora Ob(Kn) consiste delle matrici M EGLn(K) tali che lMAM=A.
[20.18]
Esercizi 1. In ciascuno dei casi seguenti determinare l'isometria l: E l ~ E l individuata dalle condizioni assegnate: a) 1(1) =.!!.... ed I è un'isometria diretta; 2 b) 1(1f) = - 2 ed I è un'isometria inversa. 2. In ciascuno dei casi seguenti determinare la riflessione di E 2 definita dalla retta di equazione assegnata: a) X=O
b)X+Y=O
d) 2X - 3 Y= O
e) X
+ Y -1
c) X -2Y=O =
O.
256
21/Isometrie di piani e di spazi tridimensionali
Geometria euclidea
3. In ciascuno dei casi seguenti dimostrare che esiste un'unica isometria I di E 2 che soddisfa le condizioni .assegnate, e determinarla:
257
pio tale matrice come
1(0, O) = (I, 1),/(1, O) = (2, 1) ed I è un'isòmetria diretta b) 1(0, O) = (I, 1),/(1, O) = (2, 1) ed I è un'isometria inversa c) I lascia fissa la retta ~: X - 2 Y = O e non è l'identità a)
si vede che tutti gli elementi di O(2)\SO(2) sono della forma
d) I lascia fissi i punti (1,7), (-1, .1) e non è l'identità.
O)
4. In ciascuno dei casi seguenti determinare la riflessione di E 3 definita dal piano di equazione assegnata:
y=o
a) X-
b) X + Y + Z
d) 2X-Z+l = O
e) 2X - 2 Y
=O +Z -
c) X - Y 4
-1
+Z =O
=
= O.
5. In ciascuno dei casi seguenti dimostrare che esiste un'unica isometrial di E 3 che soddisfa le condizioni assegnate, e determinarla:
{cosO =
- SinO) (1
cosO O
'sinO
(COSO
sinO)
sinO
- cosO'
OER.
In particolare:
I fissa l'asse X e l'asse Yed è un'isometria diretta b) I fissa l'asse Ye l'asse Z ed è un'isometria inversa.
a)
6. Determinare equazioni cartesiane della retta ~' di E 3 simmetrica della retta ~ di equazioni:
.K =
Y
=
Z - 1 rispetto al piano
2
Iv
di equazione X + Y + Z
=
21.1 LEMMA 1) A e = ReA o = AoR_ e per ogni OE R. 2) A." oA e = R.,,_e per ogni rp, OE R. 3) Ogni matrice A e possiede gli autovalori À = ± 1, con autospazi di dimensione 1 tra loro ortogonali.
O.
21 Isometrie di piani e di spazi tridimensionali
In questo paragrafo tratteremo in maggiore dettaglio le isometrie di piani e di spazi tridimensionali, particolarmente importanti a causa della loro relazione con la geometria euclidea elementare. Per ulteriori notizie il lettore può consultare [12], [1], [16]. Gli elementi di SO (2) sono le matrici della forma
Re = (
cosO
-SinO),
sinO
cosO
OER.
Dimostrazione 1) Segue subito da un calcolo diretto. 2) Per la (1) si ha
I j:
A."A e = (R."A o) (AoR_ e) = R.,,(AoAo)R_ e = R."R_ e = R.,,_e· 3) Si verifica subito che il polinomio caratteristico di A e è T 2 - 1, sicché gli autovalori sono À = ± 1. Gli autospazi sono pertanto di dimensione 1, e definiti
rispettivamente dalle equazioni in coordinate X, Y
Per descrivere i rimanenti elementi di O (2), cioè quelli di determinante - 1, si può utilizzare il fatto che, se A, BE O (2)\SO(2), allora ABESO(2) perché det(AB)
=
det(A) det(B)
=
1.
Da ciò segue che ogni elemento A EO (2)\SO (2) può attenersi come prodotto A = (AB) B-
1
di una matrice di SO (2) per una fissata B- 1 EO (2)\SO (2). Prendendo ad esem-
(cosO -1) X + (sinO) Y = O,
À =
(cosO + 1)X + (sinO) Y = O,
À=-1.
1
[21.1]
Poiché (cosO -1) (cosO + 1) + sin 2 0 = O, i due autospazi sono ortogonali tra loro. Consideriamo un piano euclideo E con piano vettoriale euclideo associato V e fissiamo un riferimento cartesiano Oe l e2 • Sia C EE, e sia a: E ---+ E una rotazione di centro C. Mediante l'isOmorfismo [20.10] possiamo associare a a un elemento Re ESO (2). O è detto rangolo della rotazione a. Per distinguerla dalla
17
Geometria euclidea
258
matrice R 8, la rotazione di centro C corrispondente a Essa può rappresentarsi come la composizione
e pertanto le coordinate y = l(YI coordinate x = l (X2 x 2) sono y = R 8 (x - c)
dove c =
l(C I
y:J
R8
si denoterà con
21/Isometrie di piani e di spazi tridimensionali
R e ,8'
259
R,(e2 )
del trasformato R e,8(P) di un punto P di
+ c,
c:J sono le coordinate di C. P~
di E, diversa dall'identità, che fissa tutti i punti di una retta Z- è l'asse della riflessione. Una riflessione è un'isometria inversa il cui quadrato è l'identità. La figura 21.1 dà un esempio di sottoinsieme del piano ordinario che è trasformato in sé stesso dalla riflessione p~. Una riflessione fissa ogni punto del suo asse. In particolare le riflessioni con asse passante per l'origine si identificano con gli elementi di O (2)\SO (2), perché fissano l'origine ma non sono rotazioni. Ognuna di esse è quindi rappresentata da una matrice A 8 , per qualche () E R. Per distinguerla dalla matrice, denoteremo la riflessione corrispondente ad A 8 con il simbolo A O ,8' L'asse Z-8 di A O ,8 è la retta per l'origine che ha per direzione l'autospazio relativo all'autovalore À = 1, cioè la retta di equazione la prima delle [21.1]. Un versore di direzione di Z-8 è (cos«()I2), sin«()I2» (fig. 21.2). Un'isometria
z- è detta riflessione (cfr. anche 20.10(3». La retta
21.2 LEMMA 1) Siano Z- una retta di E, C E Z- un suo punto ed R e,8 una rotazione di centro C. Esistono rette ~ e t contenenti C tali che R e,8 = P. o P.t- = Pt o P••
Viceversa, per ogni coppia di rette Z- ed ~ passanti per un punto C, la composizione P. o P.t- è una rotazione di centro C e P. o P.t- = lE se e solo se Z- =~.
A,(e2 )
Figura 21.2
2) La composizione Re,8oRD,
dove t è l'asse della riflessione A O ,8+a' Supponendo C = O il viceversa è una riformulazione del lemma 21.1(2). 2) Se C=D, si ha ovviamente Re,8oRe,
Figura 21.1
t
ed ~ sono parallele, Pt o P.t- è una traslazione in direzione perpendicolare a t ed ~; se non sono parallele, allora, per la (1), Pt o P.t- è una rotazione. D'altra parte, siano c = l(C I c2) e d = l(dI d2) le coordinate di C e di D rispetSe
260
Geometria euclidea
21/Isometrie di piani e di spazi tridimensionali
261
tivamente. Utilizzando la [21.3] troviamo che per ogni PE E di coordinate x = '(x, x 2) il punto (Re, oo R v,,,,) (P) ha coordinate y
= Ro[R",(x -
d)
+ d-c] + c = Ro+",(x - d) + Ro(d - c) + c.
[21.4]
Questa è una traslazione se e solo se () + cp = 2k7r; in caso contrario, per quanto osservato in precedenza, la [21.4] è una rotazione di un angolo che per la sua espressione è uguale a () + cp. Se () + cp = 2k7r si ha y = x
che non è l'identità perché d-c -;é. O, ed R o -;é. 12 , 3) Siano.1-- e t- le rette definite nella dimostrazione di (1), e tali da soddisfare le [21.2]. Si ha Re, -o
Figura 21.3
+ [Ro(d - c) - (d - c)],
= (Re , o) -, = P. o Pt
R v ,_", = (R v ,,,,) -,
= Pi-- o P.
e, per la [21.3], Re_ooRv , _'" = P. o Pt oPi-- o P. = P. oRe,ooRv ,,,, o P•.
Da questa espressione si verifica subito che, detto Q il centro della rotazione Re, oo R v ,,,,, il punto P.(Q) è trasformato in sé stesso dalla rotazione Re,_ooRv ,_"" e quindi è il suo centro. Poiché Re,o ed R v ,,,, sono non banali, si ha .1-- -;é. t- -;é. te quindi Q =.1-- nt- non sta su t-. Pertanto i punti Q e P.(Q) sono distinti.
Supponiamo ora chefsia una isometria diretta priva di punti fissi. Allora anche jl è priva di punti fissi, perché se si avesse P = jl(P) per qualche P, il segmento Pf(P) verrebbe trasformato da f nel segmento f(P)P=f(P)jl(P),
cioè nello stesso con gli estremi scambiati, e quindi il suo punto medio sarebbe fissato da f, il che non è possibile. Per ogni PEE, consideriamo i tre punti P, f(P), jl(P), che sono distinti per quanto appena visto, e facciamo vedere che sono allineati. Se così non fosse (fig. 21.4) gli assi dei due segmenti Pf(P) e f(P)jl(P) si incontrerebbero in un punto Q: poiché d(P, f(P)) = d(f(P), f2(p)), si avrebbe anche d(Q, P)
Una glissoriflessione è un'isometria f di E ottenuta come la composizione f = tv o P. di una riflessione P. di asse una retta t- e di una traslazione tv -;é.1E tale che il vettore v -;é. Osia parallelo a t-. La retta t- è l'asse di!. È immediato verificare che si ha anche f = P. o tv' Una glissoriflessione è un'isometria inversa che non fissa alcun punto di E. La figura 21.3 dà un esempio di sottoinsieme del piano ordinario che è trasformato in sé stesso da una glissoriflessione di asse la retta t-. Un teorema classico afferma che ogni isometria di E è di uno dei tipi che abbiamo descritto. 21.3 TEOREMA (CHASLES, 1831) Una isometria del piano euclideo E che fissa un punto è una rotazione oppure una riflessione a seconda che sia diretta o inversa. Una isometria di E che non fissa alcun punto è una traslazione oppure una glissoriflessione a seconda che sia diretta o inversa. Dimostrazione SefE Isom(E) fissa un punto, la conclusione segue dalla discussione precedente il lemma 21.2.
=
d(Q, f(P))
=
d(Q, f2(P)).
Poichéfpreserva 1'0rientazione, ne segue che il triangolo di vertici Q, P,J(P) viene trasformato dafnel triangolo di vertici Q, f(P), jl(P), e quindi Q = f(Q), una contraddizione. Ne segue che i punti P,J(P), jl(P), ... ,ji(P), ... , sono allineati, sicchéfagisce sulla retta che li contiene come una traslazione. Poiché è una isometria diretta, f deve agire come la stessa traslazione su tutto il piano, e quindi è una traslazione. Supponiamo infine che f sia una isometria inversa priva di punti fissi. Allora f2 è una isometria diretta e, ragionando come nel caso precedente, si dimostra che f2 = tv per qualche v. Consideriamo un punto PE E qualsiasi: le rette t-o = Pjl(P) e t-, = f(P)f3(p) sono parallele (ma non necessariamente distinte) e vengono scambiate daf. Quindi f trasforma in sé stessa la retta t-, parallela ad t-o e a t-, ed equidistante da esse (fig. 21.5). Ma allora, poiché jl agisce su t- come la traslazione tv' f agisce su t- come la traslazione tv /2' La composizione L v/2 o f fissa quindi tutti i punti di t- e perciò, non essendo l'identità perché è una isometria inversa, essa è una riflessione. Da ciò segue che f = t /2 o (t -v/2 o f) è una glissoriflessione. V
262
Geometria euclidea
263
211Isometrie di piani e di spazi tridimensionali
t(P)
I
\
\
\
I
/
/
1 \
1 1
\ ""
"
\
"
"
"
\
1
\
I
\
"
I
1
\ \
"" "
\ \
1 1 1 1
'\1
/
/
/
/
// /
/I
I
"" \ l! //
/
/
/ /
"~//
/
Figura 21.4
Q
t(P)
"""
/
"
Figura 21.6
Se n è dispari, allora, per ogni vertice v, si ha Pv = p" dove l è il lato opposto a v. Sia p una delle riflessioni che abbiamo descritto. Se ex E Isom(TIn) è un'isometria inversa, allora ex o p è un'isometria diretta, e quindi ex o p = (l per qualche i; ne segue che ex = ai o p -I = ai o p, perché p -) = p. Pertanto Isom(TIn) consiste dei seguenti elementi:
P(P)
•
/
•
aO
= 1,
a, a 2,
p, aop, a20p,
•
, a n- I , an-1op,
z'o
p
Figura 21.5
I gruppi discontinui di isometrie del piano euclideo E si suddividono in tre classi: i gruppi finiti, i cosiddetti gruppi dei fregi, ed i gruppi cristallografici piani. Il loro studio si effettua attraverso quello delle figure di cui essi sono gruppi di isometrie. Esiste una loro classificazione completa; noi ci limiteremo a considerare i sottogruppi finiti di Isom(E). Uno di questi è il gruppo Isom(IIn) delle isometrie di un poligon6 regolare TIn, di n ~ 3 lati, che supponiamo inscritto nella circonferenza S di centro l'origine e raggio 1 di E (fig. 21.6). Isom(TIn) contiene la rotazione a = Rh/n' e quindi anche le rotazioni
Poiché evidentemente ogni fE Isom(TIn) deve fissare 0, e quindi deve essere una rotazione di centro oppure una riflessione di asse una retta per 0, deduciamo che non ci sono altre rotazioni in Isom (IIn)' Inoltre, se per ogni lato l di TIn consideriamo il diametro ~l di S che lo biseca, la riflessione p, di asse ~,sta in Isom(TIn). Per ogni vertice v di TIn, anche la riflessione Pv di asse il diametro ~v di S che contiene v appartiene a Isom(nn)'
°
che, è facile verificarlo, sono tra loro tutti distinti. Possiamo concludere che Isom (TIn) è isomorfo al gruppo diedrale di ordine 2n, denotato con D 2n . Si osservi che Isom (IIn) è generato da p e da a: cio è evidente dal modo in cui abbiamo descritto i suoi elementi. Però è anche possibile generare Isom(IIn) mediante p e a o p, perché a = (a o p) o p. Notando che a o pè una riflessione, perché è una isometria inversa che fissa 0, ne deduciamo che Isom(IIn) può essere generato da due riflessioni, e quindi è un gruppo di Coxeter. Si noti che (l, a, a 2, ... , a n- I J è un sottogruppo di Isom(TIn), isomorfo al gruppo ciclico Z/nZ. È facile verificare che esso si identifica con il gruppo delle isometrie di un poligono non regolare P 2n a 2n lati contenuto in TIn. La figura 21.7 si riferisce ai casi n = 3,4; in essa P 6 e P s sono i poligoni corrispondenti alle regioni punteggiate. Un altro sottogruppo finito di Isom(E) è il gruppo delle isometrie di un triangolo isoscele T, non equilatero: Isom(T) è isomorfo a ZI2Z, perché, oltre all'identità, contiene solo una riflessione (fig. 21.8). Se consideriamo un rettangolo F che non sia un quadrato, otteniamo come Isom (F) un sottogruppo finito di Isom (E) diverso da quelli considerati in precedenza: se F è centrato nell'origine, Isom(F) è il sottogruppo di 0(2) costituito dall'identità, dalle due riflessioni Pl' P2 di assi gli assi coordinati, e dalla rotazione R o,..'
264
Geometria euclidea
2l1Isometrie di piani e di spazi tridimensionali
265
mente non contiene neanche glissoriflessioni, perché il quadrato di una glissoriflessione è una traslazione non banale. Quindi, per il teorema 21.3, ':# può contenere unicamente rotazioni e riflessioni. Supponiamo dapprima che ':# consista unicamente di rotazioni. Siano Re,o, RD.
f= (Re, o) -I o (RD,<{')-I oRe,ooR D,<{'.
= Rc,-o ed (RD,<{'),--I =RD,_<{', dal lemma 21.2 segue che gl = = (Re, o) -I o (R D,«') - I e g2 = Re,o o R D, <{' sono rotazioni di angoli - () - I{J e () + I{J
Poiché (Re,o)-I
I I
_______ IL
_
I I I I
Figura 21.8
Questo gruppo è il cosiddetto gruppo quadrinomio, o di Klein, ed è isomorfo a D 4 , il gruppo diedrale di ordine 4. È chiaro che se si considerano poligoni regolari centrati in un punto qualsiasi CE E, anziché nell'origine, si ottengono sottogruppi finiti di Isom(E) isomorfi a quelli che abbiamo descritto, ma contenuti in Isom(E)e anziché in Isom(E)o' I gruppi finiti di simmetrie che abbiamo considerato furono studiati sistematicamente da Leonardo da Vinci nel corso delle sue indagini architettoniche sulle simmetrie di un edificio, e sul modo in cui esse vengono modificate dall'aggiunta di absidi e nicchie. Il seguente teorema afferma che non ci sono altri sottogruppi finiti di Isom(E).
rispettivamente, e di centri diversi. Quindi, sempre per il lemma 21.2, f = gl o g2 è una traslazione non banale. Poiché ciò è impossibile, si deve avere C = D. Il sottogruppo':# consiste dunque di rotazioni aventi tutte lo stesso centro C. Sia R = Re,"{E ':# tale che 1" abbia il più piccolo valore positivo. Se Re,oE ':# con () > O, deve essere Re o = R k per qualche intero k> O, perché altrimenti per qualche k si avrebbe Re,o~ R -k = Re,O-k"{E ':# con 0< () - k'Y < 1", e ciò contraddice la minimalità di 1'" Quindi gli elementi di ':# sono le potenze di R, e ':# è un gruppo ciclico. Supponiamo ora che ':# contenga almeno una riflessione. Il sottoinsieme di tutte le isometrie dirette appartenenti a ':# costituisce un sottogruppo di ~ il quale, per la prima parte della dimostrazione, è un gruppo ciclico costituito da tutte le potenze di una rotazione R di un certo angolo 27r/n:
(se n = 1 ':# non contiene rotazioni diverse dall'identità). Supponiamo che ':# contenga m riflessioni, e sia p una di esse. Gli n prodotti p o R, p o R 2 , ••• , p o R n- I , p sono isometrie inverse distinte tra loro e quindi sono altrettante riflessioni. Ne segue che n::; m. D'altra parte, se si moltiplica p a destra per le m riflessioni distinte di ':# si ottengono altrettante rotazioni distinte: se ne deduce che m::; n. In conclusione n = m, e gli elementi di ':# sono R, R 2 , ••• , Rn = 1, poR, poR 2 , ••• , poR n- l , p.
Quindi ':# è isomorfo a D 2n • 21.4 TEOREMA Ogni sottogruppo finito non banale di Isom(E) è isomorfo a Z/nZ, per qualche n ~ 3, oppure a uno dei gruppi diedrali D 2n , n ~ 1.
Dimostrazione Sia ':# un sottogruppo finito non banale di Isom(E). Come abbiamo già osservato in 20.10(5), ':# non può contenere traslazioni non banali, e conseguente-
Passiamo ora al caso tridimensionale. Il punto di partenza nello studio di SO(3) è il seguente lemma. 21.5 LEMMA Ogni RESO(3), R;é 13, possiede l'autovalore spazio di dimensione 1.
À =
1 con auto-
266
Geometria euclidea
Dimostrazione Poiché è una matrice quadrata reale di ordine dispari, R possiede almeno un autovalore A (cfr. 13.15(1)). Per la proposizione 20.3 sappiamo che A = ± 1. Se A = - l, sia x E R3 un autovettore relativo a A. Per ogni y E x l- si ha - Ry·x = Ry.(- x) = Ry.Rx = Y·X = O
[21.5]
e quindi RYExl-; ne consegue che R trasforma xl- in sé stesso e definisce un operatore unitario R' su X l-. Scegliendo una base ortonormale di R3 il cui primo vettore è x/II x Il, si vede che 1= det(R) = (-l) det(R '). Si deduce da cià che R' è una riflessione del piano x l-. Poiché R' possiede l'autovalore l, anche R ha l come autovalore. Sia W C R 3 il corrispondente autospazio; come in [21.5] si verifica che R (W l-) = W l-, sicché W l- è un autospazio di R. Poiché det (R) = l, se dim (W) = 2 R induce l'identità anche su W l-. Ciò significa che W l- C W, cioè W = R 3 , ovvero R = 13 , contro l'ipotesi. Quindi dim(W) = 1. Dal lemma 21.5 discende che una rotazione R lascia fissi tutti i punti di una retta passante per Oche si dice asse della rotazione. Se si sceglie una base ortonormale {o, Cl' C2 } di R3 orientata concordemente alla tema canonica {El' E 2, E 3 } e tale che appartenga all'asse, R induce sul piano (Cl' C2 ) una rotazione di un certo angolo O, O::; O< 2'll". Sostituendo la base {o, Cl' C2 } con {- o, C2 , Cl}, l'angolo di rotazione O si muta in 27r - O. Quindi, a meno di tale sostituzione, cioè a meno di scambiare con - o, si può sempre supporre O::; O::; 'll". Chiameremo
°
°
O angolo convesso della rotazione R. Si noti che ogni rotazione R E SO (3) individua univocamente la coppia (o, O) a meno che non si abbia O = 'll": in questo caso O= 2'll" - Oe quindi e-o defini-
°
scono lo stesso angolo. Viceversa, ogni coppia (n, O) E8 2 X [O, 7r}, dove 8 2 denota la sfera unit~ria in E3, individua un elemento R E SO (3) così definito: R(o) = o, R(c l ) = (cosO) Cl
+ (sinO) C2 ,
R(c 2) = - (sinO) Cl
+ (cosO) c2
[21.6]
dove Cl' ez sono univocamente determinati dalla condizione che {o, Cl' c2 } sia una base ortonormale. Possiamo riassumere quanto dimostrato sopra nella seguente proposizione:
La [21.6] definisce un'applicazione p: 8 2 x [O, 'll"] ~ SO (3) la cui restrizione a 8 x (O, 'll") è biunivoca, e tale che 21.6
PROPOSIZIONE
2
p(o, O)
= 13
p(o, 'll") = p(- o, 'll")
per ogni
OE8 2 •
Mentre le rotazioni attorno allo stesso asse si compongono sommando gli angoli di rotazione, le rotazioni attorno ad assi diversi hanno una legge geometrica di
211Isometrie di piani e di spazi tridimensionali
267
composizione più riposta, il che rende la struttura di SO (3) più complicata di quella di SO(2). Esiste una descrizione molto esplicita di SO (3), dovuta a Eulero, ottenuta per mezzo di particolari rotazioni. Per ogni OE R, siano
x.~(:
O
-:0)
cosO sinO
cosO
e
Ze
=
(COSO
- sinO
Si:O
cosO
O
~)
Queste matrici rappresentano rotazioni di un angolo O attorno agli assi X e Z rispettivamente. Poiché consideriamo orientazioni fissate degli assi X e Z, non abbiamo la possibilità di ridurre l'angolo Oad un angolo convesso, cioè in [O, 'll"}, come si è fatto nella dimostrazione della proposizione 21.6; p~rtanto, per poter ottenere tutte le rotazioni attorno a tali assi occorre considerare OE R qualunque. 21.7
R
TEOREMA (EULERO,
=
1776)
Ogni R E SO (3) è della forma
Z",oXeoZ",
dove O::; ip, if; < 2'll", O::; O::; 'll". Gli angoli ip, O, if; sono detti angoli di Eulero della rotazione R, e sono da essa univocamente determinati. Dimostrazione Una rotazione R, dovendo preservare l'orientazione, è completamente determinata dalle immagini dei vettori Cl = (1, O, O) ed c3 = (O, O, 1). Per visualizzare il ragionamento pensiamo il vettore Cl applicato nel punto c3 = (O, O, l) (fig. 21.9a) ed R(c l ) applicato in R(c 3). Applicando prima X e e poi Z", per opportuni O e ip tali che O::; O::; 'll", O::; ip < 2'll", possiamo ottenere una rotazione che trasforma c3 in R(c 3); O e ip sono univocamente determinati e corrispondono rispettivamente alla "latitudine" ed alla "longitudine" di R (c 3). Il vettore (Z", o Xe)(c l ), applicato in R (c 3), forma un angolo if; con R (Cl)' Facendo precedere la trasformazione Z", o X e da Z", si ottiene (Z", o X e o Z",) (Cl)
= R (Cl)'
Geometria euclidea
268
22/Diagonalizzazione di operatori simmetrici
269
Una glissorotazione è la composiziOIie di una rotazione con una traslazione in una direzione parallela all'asse della rotazione. Una riflessione rotatoria è la composizione di una rotazione con la riflessione rispetto a un piano perpendicolare alt'asse della rotazione. Nel 1776 Eulero dimostrò che ogni simmetria di E è di uno dei sei tipi che abbiamo descritto, e cioè le rotazioni, le traslazioni, le riflessioni, le glissoriflessioni, le glissorotazioni e le riflessioni rotatorie. Non daremo la dimostrazione di questo risultato. È abbastanza curioso il fatto che l'analogo, e più semplice, teorema 21.3 che classifica le isometrie piane sia stato dimostrato solo nel 1831, cioè cinquantacinque anni più tardi.
z
(b)
(a)
22 Diagonalizzazione di operatori simmetrici
y
(c)
(d)
Figura 21.9
mentre
e quindi Z",oXeoZif,=R. Le figure 21.9b, c, d illustrano la successione delle trasformazioni effettuate. Sia E uno spazio euclideo tridimensionale. La classificazione delle isometrie di E è simile a quella data dal teorema 21.3 per le isometrie del piano. Oltre alle rotazioni, riflessioni e traslazioni, si hanno i seguenti altri tre tipi di isometrie. Una glissoriflessione è definita come la composizione di una riflessione con una traslazione in una direzione parallela al piano di simmetria della riflessione.
Nelle pagine precedenti abbiamo introdotto due diverse relazioni di equivalenza tra matrici quadrate: la similitudine e la congruenza. Ricordiamo che due matrici A, BEMn(K), n ~ 1, sono dette simili (rispettivamente congruenti) se esiste MEGLn(K) tale che B = M-1AM (B = IMAM). La similitudine è stata introdotta allo scopo di studiare le matrici che rappresentano un operatore su di uno spazio vettoriale rispetto a due diverse basi; la congruenza è stata invece definita per descrivere le matrici di una forma bilineare rispetto a basi diverse. In corrispondenza alle due nozioni si hanno due diversi problemi di diagonalizzazione, che possono così enunciarsi: data A EMn(K), trovare una matrice diagonale BEMn(K) simile (oppure congruente) ad A. Il secondo problema, quello dell' esistenza di matrici diagonali in una data classe di congruenza, equivalente al problema della diagonalizzazione delle forme bilineari, è risolubile se ci si limita a considerare forme bilineari simmetriche, e cioè matrici A simmetriche: è quanto afferma il teorema 16.1. Come sappiamo, facili esempi mostrano che il primo dei due problemi non ammette soluzione in generale, cioè non tutte le classi di similitudine contengono una matrice diagonale (cfr. esempio 13.15(3)). In questo paragrafo considereremo un'altra questione, più particolare ma molto importante in geometria euclidea, vale a dire il problema di diagonalizzare matrici simmetriche reali per mezzo di matrici ortogonali. Se AEMn(R) ed MEO(n), si ha M-'AM= IMAM
[22.1]
e quindi la matrice [22.1] è simultaneamente simile e congruente ad A. Parlando di diagonalizzazione di una matrice per mezzo di matrici ortogonali, non è dunque necessario specificare se ci si riferisce alla similitudine o alla congruenza perché le due nozioni sono equivalenti. Il limitarsi a considerare le matrici MEO(n)
270
Geometria euclidea
è equivalente a considerare, in uno spazio vettoriale euclideo di dimensione finita V, solo basi ortonormali; quindi la diagonalizzabilità di una matrice simmetrica A per mezzo di matrici ortogonali significa che sia la forma quadratica definita daA che l'operatore di matrice A rispetto a una base ortonormale di V sono diagonalizzabili in una base ortonormale. Una semplice, ma fondamentale, proprietà delle matrici simmetriche reali è descritta dal seguente lemma. 22.1 LEMMA Il polinomio caratteristico di una matrice simmetrica A EM n (R) possiede solo radici reali.
Dimostrazione Possiamo considerare A come una matrice di numeri complessi e quindi come un operatore TA : cn ~ C n. Sia AEC una radice del polinomio caratteristico di A, e sia x Ecn un corrispondente autovettore. Si ha Ax = AX.
[22.2]
Prendendo i complessi coniugati di primo e secondo membro, si ha anche Ax = AX.
[22.3]
22/Diagonalizzazione di operatori simmetrici
271
plemento ortogonale di e]. Per ogni u EU si ha (T(u), e]> = (u, T(e]» = (u, Ae l > = A(U, e]> = AO = 0,
e quindi T(u)EU, cioè T induce un operatore Tu: U~U. Poiché Tu(u) = T(u) per ogni u EU, l'operatore Tu è simmetrico. Per l'ipotesi induttiva, U possiede una base ortonormale{ez, ••• , enl che diagonalizza Tu. Allora (el' ez, ••• , enl è una base ortonormale di V che diagonalizza T. Il teorema spettrale può enunciarsi nella forma equivalente seguente. 22.3 TEOREMA Per ogni matrice simmetrica reale A EMn(R) esiste una matrice ortogonale MEO(n) tale che M-IAM sia diagonale.
Dimostrazione A è la matrice di un operatore simmetrico TA di R n rispetto alla base canonica. Dal teorema spettrale segue che TA è diagonalizzabile in una base ortonormale, e quindi l'asserto. Un enunciato equivalente del teorema spettrale si può dare in termini di forme quadratiche:
Consideriamo lo scalare IxA x, e scriviamolo in due modi diversi utilizzando la [22.2] e la [22.3]:
22.4 TEOREMA Per ogni forma quadratica q: V ~ R su uno spazio vettoriale euclideo di dimensione finita, esiste una base ortonormale diagonalizzante.
[22.4]
La dimostrazione del teorema 22.4 è simile alla precedente ed è lasciata allettore. La principale applicazione geometrica del teorema spettrale è un elegante teorema di classificazione delle coniche euclidee, che dimostreremo nel capitolo 4, e più in generale un teorema di classificazione delle quadriche in uno spazio euclideo di dimensione qualunque. Il seguente risultato è implicito nel teorema 22.2 nel caso finito-dimensionale:
[22.5] Osservando che
è un numero reale positivo, perché x ;;t: O, dalle [22.4] e [22.5] deduciamo che A= A, cioè che A è reale. 22.2 TEOREMA (SPETTRALE) Siano V uno spazio vettoriale euclideo di dimensione finita e T: V ~ V un operatore simmetrico. Esiste una base ortonormale' di V rispetto alla quale la matrice che rappresenta T è diagonale.
Dimostrazione Procediamo per induzione su n = dim(V). Se n = l non c'è niente da dimostrare; supponiamo quindi n ~ 2 e che il teorema sia vero per spazi di dimensione n -1. Poiché l'operatore Tè simmetrico, il polinomio caratteristico di Tpossiede radici reali, per il lemma 22.1. Quindi T possiede un autovalore A; sia e] un corrispondente autovettore, che possiamo supporre di norma l, e sia U = e].L il com-
22.5 PROPOSIZIONE Sia T: V ~ V un operatore simmetrico sullo spazio vettoriale euclideo V. Se A, /L sono due autovalori distinti di T, ogni autovettore relativo a A è ortogonale ad ogni autovettore relativo a /L.
Dimostrazione Siano v, w EV autovettori relativi a A e a /L rispettivamente. Si ha: (T(v), w> = (AV, w> =A(V, w>
e, poiché T è simmetrico, si deduce che A(V, w> = /L(v, w>. Poiché A ;;t: /L, si deve avere (v, w> = O.
(v, T(w» = (v, /Lw> = /L(v, w>
Geometria euclidea
272
23//1 caso complesso
22.7 Complementi
273
Esercizi
1. Come abbiamo ricordato all'inizio di questo paragrafo, non tutte le matrici A EMn(K) sono simili a una matrice diagonale. Tale circostanza fa sorgere il problema di trovare una classe di matrici, da chiamarsi forme canoniche, il più possibile semplici, tra le quali rientrino le matrici diagonali come casi particolari, e tali che ogni classe di similitudine ne contenga una. Tali matrici, se esistessero, potrebbero essere prese come rappresentanti delle classi di similitudine, e quindi fornirne una classificazione esplicita. Tra tutte le soluzioni note di questo problema la più importante è la cosiddetta forma canonica di Jordan, a cui accenneremo brevemente, rinviando il lettore a testi specializzati di algebra lineare per le dimostrazioni (cfr. ad esempio [6]). Un blocco di Jordan di ordine n è una matrice n X n a elementi in K della forma
1. In ciascuno dei casi seguenti determinare una mati-ice M ESO (2) che diagonalizzi la matrice simmetrica assegnata: 5 b) ( -13
d)
O
1
O
a) q(xl> X2, X3) = 2x~
O
b)
O
5
(~ ~)
2. In ciascuno dei seguenti casi deteÌminare una trasformazione ortogonale di R 3 che diagonalizzi la forma quadratica assegnata:
A O A
-13 )
c)
+ 2XjX2 + 2XjX3 + 2xi + 2X2X3 + 2xi q(xl> X2' X3) = - 2XjX2 + 2XjX3 - 2xi - 2X2X3 - 2xi q(xl> X2' X3) = x~ + 4XjX3 - xi + xi
e trovarne la corrispondente forma diagonale.
O O
3. Dimostrare che se A EM n (R) è una matrice antisimmetrica, ogni radice non nulla del suo polinomio caratteristico è un numero complesso puramente immaginario.
per qualche AE K. Denoteremo un blocco di Jordan siffatto con il simbolo Jn,'I.· Una matrice A EMn(K) si dice in forma canonica di Jordan se è della forma seguente:
Jn,,'I.,
O
O
O
J n2 ,'l.2
O
O
O
Jnk,'l.
23
A= k
per opportuni interi positivi n p ... , nk tali che n l + ... + nk = n, e Al' ... , AkE K. Si dimostra facilmente che gli scalari Al' ... , Ak sono gli autovalori di A. Se, in particolare, k = n ed nj = 1 per ognij = 1, ... , n, allora A = diag (Al' ... ... , An) è una matrice diagonale. Si ha il seguente risultato:
Supponiamo K algebricamente chiuso. Sia V un K-spazio vettoriale di dimensione finita, e sia T: V -> V un operatore. Esiste una base e di V tale che la matrice Me(T) sia in forma canonica di Jordan. TEOREMA DI JORDAN
n caso complesso
Abbiamo visto che in uno spazio vettoriale euclideo è possibile definire tutti i concetti di natura metrica della geometria euclidea utilizzando il prodotto scalare. In un campo K diverso da R in generale non ha senso parlare di positività e quindi non è possibile introdurre la nozione di prodotto scalare in uno spazio vettoriale su un campo qualsiasi. Nel caso K = C è però possibile aggirare questa difficoltà in un modo molto semplice, modificando la definizione di forma bilineare simmetrica in quella di "forma hermitiana" . 23.1 DEFINIZIONE Sia V uno spazio vettoriale su C. Un'applicazione h: V x V -> C è una forma hermitiana su V se soddisfa le seguenti condizioni: h(v+v / , w) = h(v, w)+h(v / , w) [23.1] h(v, w + w')
h(cv, w)
Una conseguenza immediata del teorema di Jordan è che ogni MEMn(K) è simile a una matrice in forma canonica di Jordan.
h(v, w)
18
=
=
h(v, w) + h(v, w')
c h(v, w)
= h(w,
v).
[23.2] [23.3] [23.4]
Geometria euclidea
274
La [23.1] e la [23.3], insieme, affermano che h(v, w) è C-lineare in v, mentre la [23.2] afferma che h(v, w) è additiva in w. Dalla [23.4] deduciamo che si ha h(v, cw) = h(cw, v) = ch(w, v) = ch(v, w).
[23.5]
La [23.2] e la [23.4] insieme ci dicono quindi che h(v, w) è antilineare in w (cfr. complemento 11.14(3». Dalla [23.4] segue anche che h(v, v)ER per ogni vEV. La forma hermitiana h si dice semidefinita positiva (semidefinita negativa) se h (v, v) 2: O (h (v, v) ::5 O) per ogni v EV; h si dice definita positiva (definita negativa) se h(v, v) > O (h(v, v) < O) per ogni v -:;é. O. Supponiamo che V abbia dimensione finita e sia e = lei' ... , en ) una sua base. Per ogni 1::5 i, j::5 n poniamo hij = h (ej , e). La matrice H= (hij) EMn(C)
è detta la matrice che rappresenta h rispetto alla base e. Per la [23.4] si ha -
hji = hij
per ogni 1 ::5 i, j::5 n,
ovvero H = tH.. Una matrice HEMn(C) tale che H = tH si dice hermitiana. Quindi la matrice che rappresenta una forma hermitiana rispetto a una qualunque base è una matrice hermitiana. Si noti che se la matrice H è hermitiana, allora in particolare hiiE R per ogni i = 1, ... , n. Se H è simmetrica a elementi reali, allora è hermitiana.. Come nel caso delle forme bilineari, la matrice di una forma hermitiana rispetto a una base e determina la forma. Infatti, per ogni [23.6] si ha h(v, w)
= h(xle l + ... + xne n, yle l + ... + Ynen) = = L. ijXJii h (e ej ) = txHy. j,
Viceversa, data una matrice hermitiana HEMn(C) e una base e di V, ponendo h(v, w) = txHy per ogni v, wEV come in [23.6], si definisce una forma hermitiana su V. La verifica è lasciata al lettore. Nel caso particolare in cui H è la matrice nulla, si ottiene corrispondentemente la forma hermitiana nulla: h (v, w) = O per ogni v, w EV. Molte definizioni e risultati dimostrati in precedenza per le forme bilineari simmetriche si estendono al caso delle forme hermitiane. Due vettori v, wEV si dicono ortogonali o perpendicolari se h (v, w) = O. Se S C V, definiamo S.L = I w EV: w è ortogonale ad ogni v ES)
23//1 caso complesso
275
e chiamiamo S.L sottospazio ortogonale a S; si verifica immediatamente che S.L è un sottospazio vettoriale di V. Una base e = lei' ... , en ) di V si dice diagonalizzanteo ortogonale per h se i vettori el' ... , en sono a due a dueottogonali.. 23.2 TEOREMA Sia V uno spazio vettoriale complesso di dimensione finita maggiore di zero, e sia h unaforma hermitiana su V. Esiste in V una base diagonalizzante per h. Lasciamo allettare il compito di dimostrare il teorema 23.2 adattando opportunamente le dimostrazioni dell'analogo teorema 16.1. Il caso più importante che verrà esaminato è quello in cui h è definita positiva. Una forma hermitiana h definita positiva sarà anche chiamata prodotto hermitiano su V. Uno spazio vettoriale complesso su cui è assegnato un prodotto hermitiano si dice spazio vettoriale hermitiano. Ponendo [23.7]
cn,
si definisce un prodotto hermitiano su il prodotto hermitiano standard. La verifica del fatto che la [23.7] è un prodotto hermitiano è lasci~ta al lettore. dotato del prodotto hermitiano standard è detto n-spazio vettofiale hermitiano. Gli spazi vettoriali hermitiani sono l'analogo complesso degli spazi vettoriali euclidei e la teoria sviluppata in quel caso si generalizza ad essi con pochi cambiamenti. Ad esempio, in uno spazio vettoriale hermitiano le nozioni di norma, o lunghezza, di un vettore, di coefficiente di Fourier e di proiezione di un vettore lungo la direzione di un vettore non nullo si definiscono esattamente come in uno spazio euclideo. Conseguentemente la nozione di base ortonormale si dà come nel caso euclideo. Dal teorema 23.2 discende immediatamente l'esistenza di una base ortonormale, che si ottiene a partire da una base ortogonale normalizzandone gli elementi, cioè dividendo ogni vettore della base per la sua norma. Il procedimento di GramSchmidt si estende senza cambiamenti agli spazi vettoriali hermitiani. Fissiamo uno spazio vettoriale hermitiano V di dimensione finita, e denotiamo con (v, il prodotto hermitiano di due vettori. Se e = lei, ... , en ) è una base ortonormale di V, la matrice che rappresenta il prodotto hermitiano rispetto ad e è In' Pertanto il prodotto hermitiano di due vettori v = Xl e l + ... + xnen, w = YI e l + ... + Ynen è
cn
w>
(v,
w> =
t
xy,
cioè uguaglia il prodotto hermitiano standard delle loro coordinate. Anche la disuguaglianza di Schwarz si estende agli spazi vettoriali hermitiani, ma la dimostrazione è un po' diversa dal caso euclideo.
Geometria euclidea
276
23.3
TEOREMA (DISUGUAGLIANZA DI
SCHWARZ)
Per ogni v, wEV si ha
l(v,w>I:::;lIvllllwll
[23,8]
e vale l'uguaglianza se e solo se ve w sono paralleli. Dimostrazione Se w = O la [23.8] è ovvia. Possiamo quindi supporre w ,,: O. Per ogni a, b EC si ha O:::; (av + bw, av + bw> = (av, av> + (!!V, bw> + (bw, av> + 0w, bw> = = dii (v, v> + ab(v, w> + ab(w, v> + bb(w, w>.
23/Il caso complesso
277
Abbiamo il seguente risultato, del tutto simile al teorema 20.1, che caratterizza gli operatori unitari: 23.5 TEOREMA Sia T: V ---+ V un'applicazione. Le seguenti condizioni sono equivalenti: 1) T è un operatore unitario. 2) T è un operatore tale che Il T(v) Il = Il v Il per ogni v EV. 3) T(O) = O e IIT(v) - T(w)1I = IIv - wll per ogni v, wEV. 4) T è un operatore e per ogni base ortonormale {e 1, ... , enl di V, (T(e 1), ... ... , T(en)l è una base ortonormale. 5) T è un operatore ed esiste una base ortonormale (e 1, ••• , en l di V tale che (T(e 1), ... , T(e n) l sia una base ortonormale.
Sostituendo i valori a = (w, w> e b = - (v, w> si ottiene
Poiché (v, w> (v, w> = I(v, w> 12, si ha
La dimostrazione del teorema 23.5 ricalca esattamente quella del teorema 20.1, cui rinviamo il lettore. Si noti che dal teorema precedente segue che un operatore unitario T è invertibile, cioè TE GL(V).
IIwIl 2 1(v, w> 12 :::;lIw1l 4 11v1l 2 e dividendo per IIwll 2 si ottiene la [23.8]. L'uguaglianza è vera se e solo se av + bw = O, che è soddisfatta se e solo se v e w sono proporzionali. La norma dei vettori gode delle proprietà NI, N2, N3 (cfr. § 17). La NI è ovvia e la N2 segue dall'identità
(rv, rv> = I r 1 2 (v, v>. La N3 è la disuguaglianza triangolare e si dimostra nel seguente modo. Esplicitiamo Uv + wll 2 = (v + w, v + w> = (v, v> + (v, w> + (w, v> + (w, w> e osserviamo che
Utilizzando la [23.8] otteniamo quindi IIv+wIl 2 :::;lIvIl 2 +21(v, w>1 + IIw1l 2 :::; :::;lIvIl 2 +2I1vllllwll + IIwIl 2 =(lIvll + IIwll)2, cioè la N3. DEFINIZIONE
Dimostrazione 1) Sia v EV un autovettore relativo a À. Si ha (v, v> = (T(v), T(v» = (Àv, ÀV> = ÀÀ(v, v>. Poiché (v, v> ,,: O, dev'essere ÀÀ = 1, cioè I À I = 1. 2) Si ha (v, w> = (T(v), T(w» = (Àv, p,w> = À/i(v, w>.
(v, w> + (w, v> = (v, w> + (v, w> :::; 2 I(v, w> I.
23.4 dizione
23.6 COROLLARIO Sia T: V --+ V un operatore unitario. 1) Ogni autovalore À di T è tale· che I À I = 1. 2) Se v e w sono due autovettori relativi ad autovalori distinti À, p, rispettivamente, allora v e w sono perpendicolari.
Un operatore T: V --+ V si dice unitario se soddisfa la con-
(T(v), T(w» = (v, w>
per ogni v, wEV.
[23.9] -
-
Se (v, w> ,,: O, dalla [23.9] segue À/i = 1; ma si ha anche ÀÀ = 1, e quindi À = /i, cioè À = p" che è contro l'ipotesi. Gli operatori unitari sono strettamente in relazione con le matrici unitarie. 23.7 COROLLARIO Un operatore T: V --+ V è unitario se e solo se la matrice che rappresenta T in una qualunque base ortonormale di V è unitaria.
Dimostrazione Sia e = {ei' ... , enl una base ortonormale di V, e sia A = (ai) EMn(C) la
278
Geometria euclidea
matrice che rappresenta l'operatore T rispetto a e. Allora T è unitario se e solo se si ha Oij = (Ci' C) = (T(c i ), T(c)} = t.A(i)A u »
1 :5 i, j:5 n,
d--9ve A(l)' ... , A(n) sono le colonne di A. Pertanto abbiamo t.AA = In' ovvero 'AA = In' La principale differenza tra operatori unitari nel caso reale ed in quello complesso riguarda la loro diagonalizzabilità. Il risultato seguente vale infatti per gli operatori unitari complessi, ma non per quelli reali. 23.8 TEOREMA Sia T: V ~ V un operatore unitario, e supponiamo dim (V) = n 2: l. Esiste una base ortonormale di V che diagonalizza T.
Dimostrazione Per induzione su n. Se n = 1 non c'è niente da dimostrare. Supponiamo n 2: 2 e che il teorema sia vero per spazi di dimensione minore di n. Sia CI EV un autovettore di T e si~ À il relativo autovalore. Possiamo supporre Il CI Il = 1. Sia U = CI.L. Poiché ÀÀ = 1, per ogni u E U si ha
Quindi T trasforma U in sé stesso, e induce un operatore unitario
Tu:
U~U.
23lll caso complesso
279
Supponiamo che e = {CI> ••• , cn } sia una base ortonormale di V, e sia A la matrice che rappresenta un operatore hermitiano T rispetto a e. Si ha, per ogni v=xle l + ... +xncn> w=yle l + ... +Yncn:
(T(v), w}
= t(Ax)y= txt.Ay [23.10]
(v, T(w» = tx(Ay) = txAy
e quindi tx t.A -y = txAy-. Poiché quest'uguaglI·anza e' vera per ognI· x , y E cn , dev'essere t.A = A, cioè A è una matrice hermitiana. Se viceversa A EMn(C) è una qualsiasi matrice hermitiana e T è l'operatore rappresentato da A nella base ortonormale e, allora dalle [23.10] segue che T è hermitiano. Abbiamo pertanto la seguente proposizione: 23.11 PROPOSIZIONE Un operatore T: V ~ V è hermitiano se e solo se la matrice A che rappresenta T rispetto a una qualunque base ortonormale è una matrice hermitiana. Gli operatori hermitiani sono gli analoghi, per gli spazi vettoriali hermitiani, degli operatori simmetrici nel caso euclideo. Abbiamo la seguente estensione del lemma 22.1: 23.12 LEMMA reali.
Tutti gli autovalori di un operatore hermitiano T: V ~ V sono
Per l'ipotesi induttiva U possiede una base ortonormale {c z, ... , en } rispetto alla quale Tu è diagonale. Allora {CI' cz, ... , en } è una base ortonormale di V che diagonalizza T.
Dimostrazione Sia À E C un autovalore di T, e sia v E V un autovettore relativo a
Il teorema 23.8, tenuto conto del corollario 23.7, afferma in particolare la diagonalizzabilità di ogni matrice unitaria mediante una matrice unitaria. Precisamente si ha:
Poiché (v, v) :;t:. O, si deduce che
23.9 COROLLARIO Per ogni A EU(n) esiste MEU(n) tale che M-1AM sia diagonale, o, equivalentemente, tale che *MAM sia diagonale. Dal corollario segue in particolare la diagonalizzabilità di ogni matrice A EO(n). Si faccia però attenzione: una matrice ortogonale non è in generale diagonalizzabile per mezzo di matrici reali, perché non possiede, in generale, autovalori reali. Ad esempio le matrici ReE 0(2), O< e < 11", non hanno autovalori reali. 23.10 DEFINIZIONE condizione
(T(v), w}
=
Un operatore T: V ~ V si dice hermitiano se soddisfa la
(v, T(w»
per ogni v, wEV.
À(v, v} = (Àv, v) =
À.
Si ha
(T(v), v} = (v, T(v)} = (v, Àv) = I(v, v}. À =
L
Il teorema spettrale, che abbiamo dimostrato per gli operatori simmetrici, si estende a quelli hermitiani: 23.13 TEOREMA (SPETTRALE) Sia T: V ~ V un operatore hermitiano. Esiste una base ortonormale di V che diagonalizza T. La dimostrazione è identica a quella del teorema 22.2 e pertanto la omettiamo. 23.14 Complementi
Sia h: V x V ~ C una forma hermitiana sullo spazio vettoriale complesso V. Separando la parte reale da quella immaginaria, per ogni v, w E V possiamo scrivere
h(v, w)
=
s(v, w) + ia(v, w)
280
Geometria euclidea
con s(v, W), a(v, W) ER. Segue subito dalle [23.1] e [23.2] che s(v, w) e a(v, w) sono additive sia rispetto a v che a w. Inoltre, per ogni cER, v, WEV, si ha s(cv, w) + ia(cv, w) = h(cv, w) = ch(v, w) = cs(v, w) + ica(v, w) per la [23.3], e
23/l1 caso complesso
Dalla [23.11] segue che s individua a, mentrela [23.12] mostra che, d'altra parte, a individua s. Viceversa, data una forma R-bilineare simmetrica s: V x V ~ R soddisfacente la [23.13], ponendo h(v, w) = s(v, w)
s(v, cw) + ia(v, cw) = h(v, cw) = ch(v, w) = cs(v, w) + ica(v, w). Quindi s(v, w) e a(v, w) sono due forme bilineari su V considerato come uno spazio vettoriale reale. Per la [23.4] si ha anche s(w, v) + ia(w, v) = s(v, w) - ia(v, w)
281
+ is(v, iw)
si definisce una forma hermitiana h: V x V ~ C. Verifichiamo la [23.3] e la [23.4]. Si ha, per ogni c=a+ibEC, v, wEV: h(cv, w) = = = =
s(av, ah(v, ah(v, ah(v,
w) + is(av, iw) + s(ibv, w) + is(ibv, iw) = w) + b[s(iv, w) + is(iv, iw)] = w) + b[s(- v, iw) + is(v, w)] = w) + ibh(v, w) = ch(v, w)
e quindi e la [23.3] è soddisfatta. Inoltre s(w, v) = s(v, w)
+ is(w, iv) = s(v, w) + is(i v, w) = = s(v, w) + is(- v, iw) = h(v, w),
h(w, v) = s(w, v)
a(w, v) = - a(v, w)
per ogni v, w EV. Pertanto s:
e anche la [23.4] è verificata. In modo simile si dimostra che, data una forma R-bilineare antisimmetrica a: V x V ~ R soddisfacente la [23.14], ponendo
VxV~R
è una forma R-bilineare simmetrica, mentre
a:
h(v, w) = a(iv, w)
VxV~R
si definisce una forma hermitiana su V. Riassumendo possiamo dire che assegnare una forma hermitiana sullo spazio· vettoriale complesso V è equivalente ad assegnare su V una forma R-bilineare simmetrica soddisfacente la condizione [23.13], oppure una forma R-bilineare antisimmetrica soddisfacente la [23.14].
è un forma R-bilineare antisimmetrica. Inoltre, esplicitando le identità h(iv, w) = ih(v, w) h(v, iw) = - ih(v, w)
si ottiene
Esercizi
a(v, w) = - s(iv, w) = s(v, iw)
[23.11]
s(v, w) = a(iv, w) = - a(v, iw)
[23.12]
1. Stabilire quali delle seguenti sono forme hermitiane su C 2 : a)
per ogni v, w EV. Infine, esplicitando l'identità
c) e)
h(iv, iw) = h(v, w)
= XIYl + ix Y2 + ix2Yl = XIYl + 2ix Y2 - 2ix2Yl = XIYl + 2X2Y2o 1
1
b) d)
= =
2. Stabilire quali delle seguenti matrici sono hermitiane:
si ottiene s(iv, iw) = s(v, w)
[23.13]
a(iv, iw)=a(v, w)
[23.14]
per ogni v, wEV.
+ ia(v, w)
a)
(l
l-i
c)
C ~)
l:;)
b)
G ~)
d)
G -;)
iI l
x" I y11
+ XIYl + XIY2
Geometria euclidea
282
,) c
Capitolo 3 2
2
Geometria proiettiva
-2i
l-i
3. Utilizzando il procedimento di Gram-Schmidt, ortonormalizzare la seguente base di C 3 rispetto al prodotto hermitiano standard: b = {(i, - i, O), (O, i, O), (O, i, i) l.
4. Per ciascuna delle seguenti matrici hermitiane A determinare una matrice unitaria M tale che *MAM sia diagonale:
J
Y3
li a) ( -i
hl (
~
i )
_
~
24 Spazi proieitivi
La geometria euclidea studia proprietà che, nella loro formulazione e dimostrazione, fanno ricorso a misurazioni e a confronto di lunghezze e di angoli. Anche nella geometria affine reale si ricorre a misurazioni, sebbene le distanze si confrontino solo lungo rette parallele. Per diversi secoli la geometria è stata studiata esclusivamente da un punto di vista metrico, e solo in tempi relativamente recenti ci si è accorti che esistono proprietà geometriche che possono essere formulate senza ricorrere a misurazioni o al confronto di grandezze. Alcune di queste proprietà vengono studiate dalla "geometria proiettiva". Questa geometria ha le sue origini nelle regole della prospettiva, che gli artisti del Rinascimento (Brunelleschi, L.B. Alberti, Piero della Francesca e altri) studiarono scientificamente e utilizzarono in modo sistematico. Tali regole sono basate sull'idea di "punti di fuga", verso cui concorrono i ccmtorni degli oggetti così come essi appaiono da un punto di osservazione. Precursore della geometria proiettiva fu Girard Desargues (1593-1650), il quale per primo considerò rette e piani paralleli come casi particolari di rette e piani incidenti. La nascita della geometria proiettiva come una parte organica della matematica risale alla prima metà del secolo XIX con l'opera di Gaspard Monge (1746-1818) e di J.V. Poncelet (1788-1867). Gli spazi ambiente in cui essa viene studiata costituiscono un modello matematico astratto di spazio in cui valgono proprietà di natura grafica simili alle regole del disegno prospettico. Gli spazi proiettivi nascono dall'esigenza di una geometria da cui venga eliminata la nozione di parallelismo, che in geometria affine comporta il dover tenere conto di casi d'eccezione quando si considera l'intersezione di sottospazi. La geometria proiettiva consente inoltre di interpretare geometricamente e rendere più trasparenti certe parti dell'algebra lineare, come ad esempio la teoria dei sistemi di equazioni lineari omogenee.
24/Spazi proiettivi
Geometria proiettiva
284
24.1 DEFINIZIONE Sia V un K-spazio vettoriale di dimensione finita. Lo spazio proiettivo associato a V è l'insieme P (V) i cui elementi, chiamati punti di P (V), sono i sottospazi vettoriali di dimensione 1 di V. Se K = R (K = C), P (V) si dice spazio proiettivo reale (spazio proiettivo complesso). La dimensione di P (V) è definita come dim(V)-l e si denota con dim(P(V». Se ha dimensione 1 (dimensione 2), P (V) è una retta proiettiva (un piano proiettivo). Ogni v EV \ {Ol genera il sottospazio di V di dimensione uno
=
°
[XO,X I, ... , x n] = [YO'YI' ... ,Yn] se e solo se esiste À;é
°in K tale che Yj=
ÀX;,
i = 0, ... , n.
24.2 DEFINIZIONE Sia P = P (V) e sia (eo, ... , en l una base di V. Diremo che {eo, ... , en l definisce in P un sistema di coordinate omogenee (o un riferimento proiettivo). Tale sistema verrà denotato con eo ... en. Sia
v=xoeo+xle l + ... +xnenEV\{OI. Gli scalari x O' ... , x n si dicono coordinate omogenee del punto P = [v] EP rispetto al riferimento eo ••• en. Scriveremo P[xo, ... , x n] per denotare il punto PEP di coordinate omogenee x O' ... , x n. I punti
U[l, 1,
= [eo], ,1] = [eo + , O]
,
Fn[O, ... , 0, 1] = [e n],
+en ]
si diranno rispettivamente punti fondamentali e punto unità del riferimento eo ••• en •
=
[Àv], e
per ogni v EV \ {O}, À;é 0, le coordinate omogenee di un punto P = [v] EP rispetto a un dato riferimento proiettivo sono determinate da P solo a meno di un fattore di proporzionalità non nullo. In altre parole, se xO' ••• , x n sono coordinate omogenee di P, lo sono anche ÀXo, .•• , ÀXn per ogni À ;é in K. Se invece della base {eo,"" en l di V si considera la base proporzionale (fleo, ... , flenl per un qualsiasi fl;é in K, si ha
°
°
[À, v: À E Kl;
quando lo considereremo come un punto di P (V) denoteremo questo sottospazio con il simbolo [v]. Due vettori v, wEV\ (01 definiscono lo stesso punto di P(V), cioè [v] = [w], se e solo se esiste ÀE K, À;é 0, tale che w = Àv. Se dim(V) = 0, cioè V = (O l, si ha P (V) = 0, perché V non possiede sottospazi di dimensione 1. Quindi, per.definizione, 0 è uno spazio proiettivo di dimensione -1. Se dim(V) = 1, P (V) possiede un solo punto, V stesso, e dim(P(V» = O: uno spazio proiettivo di dimensione consiste dunque di un solo punto. Gli esempi più importanti di spazi proiettivi si ottengono considerando V = Kn+ l. Lo spazio p(Kn+l) si denota con pn(K), o semplicemente con pn se non c'èpossibilità di equivoco. È uno spazio proiettivo di dimensione n, che si chiama l'nspazio proiettivo numerico. Per ogni (Xo'x l, ... , Xn);é (O, 0, ... , O) denoteremo con [XO,x I, ... , x n] il punto corrispondente di pn. Si ha
Fo[l, 0,
Poiché [v]
285
e flv
= Xo(fleo) + X1(flel) + ... + Xiflen)
per ogni vEV\ (O l. Dunque le coordinate omogenee di [v] = [flv] rispetto ai due riferimenti sono le stesse. Per questo motivo si considerano identici due sistemi di coordinate omogenee se sono definiti da basi di V proporzionali; in simboli
In p n il riferimento determinato dalla base canonica di Kn+ 1 si dice riferimento proiettivo standard. Rispetto ad esso le coordinate omogenee di P = [xo, ... , x n] sono x o, ... , Xm e si dicono coordinate omogenee standard di P. I punti fondamentali di questo riferimento sono [1,0, ... , O], ... , [O, ... , 0,1], e il punto unità è [1, ... , 1]. Un sottospazio vettoriale W di V definisce a sua volta uno spazio proiettivo P(W) contenuto in P = P (V) , che è detto sottospazio proiettivo (o sottospazio lineare) di P. In particolare P stesso è un sottospazio proiettivo (improprio) di sé stesso. Si ha dim[P(W)] = dim(W) -1, e quindi dim (P) - dim [P (W)]
=
dim (V) - dim (W);
il numero dim(P) - dim[P(W)] è detto codimensione di P(W) in P. I sottospazi di codimensione uno si dicono iperpiani. Se dim(P) = n, le rette ed i piani di P sono i sottospazi di codimensione n-l ed n - 2 rispettivamente. Nello spazio proiettivo P = P (V) supponiamo assegnato un sistema di coordinate omogenee eo ... en , e sia [24.1] un'equazione lineare omogenea nelle indeterminate X o, ••• , X n , ajE K, tale che (ao, ... , an ) ;é (O, ... , O).
Geometria proiettiva
286
In V la [24.1] rappresenta, rispetto alla base (eo' •.• , en ], un iperpiano vettoriale, cioè un sottospazio vettoriale H C V di codimensione 1. I punti P = [v] EP le cui coordinate omogenee soddisfano la [24.1] sono quelli tali che VEH, v;é. O, e quindi la [24.1] è soddisfatta dalle coordinate di tutti e soli i punti dell'iperpiano P(H) di P. La [24.1] è un'equazione cartesiana dell'iperpiano P(H). Si osservi che, poiché la [24.1] è un'equazione omogenea, una (n + l)-upla (xo, ... , x n) EKn+ l \ {O l è una sua soluzione se e solo se lo è (À,xo, ... , À,xn) per ogni À, ;é. O in K; quindi ha senso dire se le coordinate omogenee di un punto PE P soddisfano la [24.1] oppure no. Se 0:5 i:5 n, l'iperpiano di P di equazione cartesiana Xi = O è detto i-esimo iperpiano coordinato e consiste di tutti i punti la cui i-esima coordinata omogenea è uguale a O (questa condizione è indipendente dalla scelta della (n + 1)-upla di coordinate omogenee del punto). Gli iperpiani coordinati di p n , rispetto al riferimento proiettivo standard, si indicano con Ho, Hl' ....' Hno Si ha quindi H i = {[xo, "0' x n] Epn:
Xi =
Ol.
Ad esempio, ogni iperpiano di p l ha dimensione zero e pertanto consiste di un solo punto; in particolare Ho = {[O, 1] l, e Hl = {[I, O] l. Più in generale consideriamo un ·sistema di t equazioni lineari omogenee
[24.2]
24/Spazi proiettivi
287
cartesiane, nel riferimento eo ••• em rispettivamente i sistemi [24.3] [24.4] dove Aled A 2 sono matrici, rispettivamente t X (n + 1) ed s X (n + 1), a elementi in K e X = t(Xo ... X n ). L'intersezione P(W I) n P(W2) è ancora un sottospazio proiettivo, e precisamente [24.5] Infatti P(W I) n P(Wz} è il luogo dei punti le cui coordinate omogenee sono soluzioni di entrambi i sistemi [24.3], [24.4]; questo luogo coincide con P(W I n W2), e le equazioni dei sistemi [24.3], [24.4] costituiscono un suo sistema di equazioni cartesiane. Si ha in particolare P(W I) n P(Wz} = 0 se e solo se Wl n W 2 =
atOXO+ ... + atnXn = O. Sia W il sottospazio vettoriale di V di cui le [24.2] sono equazioni cartesiane nella base (eo' ••• , en l. L'insieme dei punti PE P le cui coordinate omogenee sono soluzioni di tutte le equazioni del sistema [24.2] è P(W). Le [24.2] si dicono pertanto equazioni cartesiane del sottospazio proiettivo P(W) nel riferimento eo '" en •
Poiché tutti i sottospazi proiettivi sono della forma P (W) per qualche sottospazio vettoriale W C V, ogni sottospazio proiettivo possiede equazioni cartesiane, essendo ciò vero per ogni W. È evidente che un sottospazio proiettivo P (W) non possiede un unico sistema di equazioni cartesiane: due sistemi di equazioni lineari omogenee in n + 1 indeterminate X o, ... , X n sono infatti equazioni cartesiane dello stesso sottospazio se e solo se sono equivalenti. Detta A = (aij) la matrice dei coefficienti di [24.2], ed r = r(A), si ha
Infatti niE1P(W) ha per elementi i sottospazi vettoriali di dimensione 1 di V che sono contenuti in ognuno dei W i. Se J è un sottoinsieme non vuoto di P, l'intersezione di tutti i sottospazi proiettivi che lo contengono, denotata con L(J), si dice sottospazio generato da J: L(J) è un sottospazio proiettivo di P e per definizione è il più piccolo sottospazio che contiene J. Ovviamente L (8) = 8 se e solo se 8 è un sottospazio proiettivo. Se J = (P I , ... , Ptl consiste di un numero finito di punti, scriveremo L(P1, ... , Pt) invece di L({Pll ... , Ptl). Diremo chePI , ... , PtgeneranoL(PI , ... , Pt ). Si ha
dim(L(PI' ... , P t»:5 t-L
[24.6]
dim(P(W» = dim(W) -1 = dim(V) - r -1 = dim(P) - r = n - r, ovvero P(W) ha codimensione r in P. Siano P(WI) e P(Wz} due sottospazi proiettivi di P, aventi come equazioni
e la dimensione del sottospazio vettoriale
288
24/Spazi proiettivi
Geometria proiettiva
Se nella [24.6] vale il segno di uguaglianza i punti P I , ... , p/ si dicono linearmente indipendenti: altrimenti P I , ... , p/ si dicono linearmente dipendenti. Questa definizione è motivata dal fatto evidente che P I , ••• , p/ sono linearmente indipendenti se e solo se lo sono i vettori VI' ... , VI' Due punti sono linearmente indipendenti se e solo se sono distinti. In questo caso lo spazio che essi generano è una retta; quindi per due punti distinti P e Q passa una e una sola retta, cioè L (P, Q). Tre punti sono linearmente indipendenti se e solo se non sono allineati, cioè non giacciono su una retta. In questo caso lo spazio che essi generano è un piano, ed è l'unico piano che li contiene. Segue dalla definizione che se i punti P I , ••• , p/ sono linearmente indipendenti, allora t:::;; n + 1, e ogni sottoinsieme di {P I , ••• , p/ l è costituito da punti linearmente indipendenti. I punti P I , ... , p/ si diranno in posizione generale se sono linearmente indipendenti (e in questo caso t:::;; n + 1) oppure se t> n + 1 e n + 1 tra essi, comunque scelti, .sono linearmente indipendenti. In quest'ultimo caso L(PI , ••• , p/) = P. Poiché ogni sottospazio vettoriale di V possiede una base, ogni sottospazio proiettivo S di P può essere generato da un numero finito, pari a dim (S) + 1, di suoi punti linearmente indipendenti.
Supponiamo ad esempio che dim(S) = k, e siano [va], [vJl, ... , [v k] ES linearmente indipendenti. Poiché [voL [VI], ... , [Vk] generano S, per ogni PES si ha
289
contiene i punti [vo], [VI]: Xo =
1.,oPoo + 1.,IPIO
XI
1.,OPOI
=
+ 1.,IPll
Se P è un piano proiettivo ed ~ una sua retta assegnata mediante due punti distinti P[PO,PI,P2]' Q[qo,ql,qz], ~ possiede l'equazione cartesiana X o Xl X 2 Po PI P2
=
O.
[24.8]
qo ql q2
Infatti il primo membro della [24.8] non è identicamente nullo perché P ~ Q, e quindi la [24.8] è l'equazione di una retta. Questa retta contiene sia P che Q: infatti se si sostituiscono le coordinate di P, o quelle di Q, al posto di X o' XI' X 2 , il primo membro è il determinante di una matrice avente due righe uguali, quindi si annulla. Dunque la [24.8] è un' equazione cartesiana della retta passante per i punti P[Po' PI' P2] e Q[qo, ql,q2]'
Similmente si dimostra che se P è uno spazio proiettivo di dimensione 3 e per opportuni 1.,0' 1.,1' ... , 1.,kE K non tutti uguali a 0, e definiti univocamente da va' VI' ... , vk e da P a meno di un comune fattore di proporzionalità. Se rispetto alla base [eo' el , ... , en l di V le coordinate dei precedenti vettori sono rispettivamente (POO,POI' ... , POn), (PIO' Pll' ... , Pln), ... , (PkO' Pw ... , Pkn)' e P = P[XO'xI , ... , Xn], allora si ha
+ 1.,IPIO + '" + 1.,kPkO 1.,OPOI + 1.,IPll + '" + 1.,kPkl
P[Po' PI' P2' P3]' Q[qo, ql' q2' q3]' R [ro, r l , r 2, r 3] sono tre suoi punti non allineati, un'equazione cartesiana del piano L(P, Q, R) è la seguente:
X o XI
Xo = 1.,oPoo
XI =
[24.7]
Le [24.7] sono equazioni parametriche del sottospazio S. Esse dipendono, oltre che dalla scelta dei punti [vo], [VI], ... , [v k] che generano S, anche da quella dei vettori va' VI' ... , Vk, e quindi dalla scelta di coordinate omogenee di [vo], [vJl, ... , [v k]· Nel caso particolare k = 1 si ottengono equazioni parametriche della retta che
X2 X 3
Po
PI
P2
P3
qo
ql
q2
q3
ro
rl
r2
r3
=0.
Se SI ed S2 sono due sottospazi proiettivi di P, il sottospazio L (SI U S2) generato dalla loro unione è il sottospazio somma di SI ed S2 e viene denotato con con il simbolo L(SI' S2)' Se SI = P(W I), S2 = P (W2), si ha L(SI' S2) = P(W I
+ W 2).
[24.9]
Infatti ogni sottospazio proiettivo P (W) contenente SI U S2 contiene P(W I + Wz) perché W deve contenere sia Wl che W 2: quindi
1,9
Geometria proiettiva
290
D'altra parte, poiché Wl
24/Spazi proiettivi
291
+ W 2 contiene sia Wl che W 2,
P(W I +W:J:J L(SI' S2)' e la [24.9] è vera. Per ogni coppia di sottospazi SI ed S2 di P sussiste la seguente identità: [24.10] Figura 24.1
La [24.10] è dettaformula di Grassmann proiettiva. Essa è un'immediata conseguenza della formula di Grassmann vettoriale, tenuto conto della [24.5] e della [24.9]. Se ad esempio si considerano una retta Z, e un punto P E P, L (Z" P) è un piano se P~ z" ed è la retta Z, se PE z,. Se Z,I ed Z,2 sono due rette, L(Z,I' Z,2) ha dimensione 3, 2, 1 a seconda che Z,I ed Z,2 siano rispettivamente sghembe, incidenti e distinte, coincidenti. La formula di Grassmann è uno strumento molto utile per studiare le proprietà di incidenza di sottospazi proiettivi. Si noti che, poiché dim [L (SI' S2)] ~ dim(P), dalla [24.10] segue la disuguaglianza [24.11] In particolare, sedim(SI) + dim(S2) ~ dim(P), i sottospazi SI ed S2 sono incidenti, perché dim(SI n S:J ~ o se e solo se SI n S2.,t. 0. Quindi due sottospazi proiettivi sghembi in P hanno dimensioni la cui somma non supera dim (P) - 1. Come conseguenza abbiamo la seguente proposizione: 24.3 PROPOSIZIONE 1) In un piano proiettivo due rette qualsiasi si incontrano. 2) In uno spazio proiettivo di dimensione 3 una retta e un piano qualsiasi si incontrano, e due piani distinti qualsiasi hanno in comune una retta. In un piano proiettivo non ha dunque significato parlare di parallelismo tra rette, né in uno spazio proiettivo tridimensionale ha senso il parallelismo tra piani o tra rette e piani. La proposizione 24.3 può anche essere dimostrata utilizzando equazioni cartesiane: nel caso (1) il sistema costituito dalle equazioni cartesiane delle due rette possiede soluzioni non banali perché è un sistema di due equazioni omogenee iIi tre incognite, e quindi le due rette hanno punti in comune. In modo simile si ragiona nel caso (2). ' Torniamo al caso generale. Quando l'intersezione di due sottospazi proiettivi SI ed S2 di P ha la dimensione più piccola possibile, compatibilmente con la [24.10], SI ed S2 si dicono in posizione generale. Pertanto, se SI' S2 e P hanno rispettivamente dimensione h, k ed n, SI ed S2
sono in pOSlZlone generale se e solo se dim (SI n S2) = h + k - n nel caso h + k ~ n, oppure SI n S2 = 0 se h + k < n. Ad esempio, due rette di p 2 sono in posizione generale se sono distinte, e quindi hanno in comune un punto; due rette di pn, n ~ 3, sono in posizione generale se sono sghembe. Sia J un sottoinsieme dello spazio proiettivo P e PE P un punto qualsiasi. Il cono proiettante J da P è l'unione Cp(J) di tutte le rette che contengono P ed almeno un punto di J (fig. 24.1), cioè Cp(J)
=
UQEJL(P, Q).
24.4 PROPOSIZIONE 1) Se S è un sottospazio proiettivo di P, allora Cp(S) = L (S, P) per ogni PEP. In particolare, se S è un punto e P.,t. S, Cp(S) è la retta che contiene S e P. 2) Se SI ed S2 sono sottospazi proiettivi di P, allora L(SI' S2)
=
UP,ES"P2ES2L(Pp P 2) = U"S2 Cp (SI)·
La dimostrazione è lasciata al lettore. Sia H C P un iperpiano e PEP\H. La proiezione di P su H di centro P è l'applicazione 7rp ,
H: P \ (PJ
-> H
definita da 7rp ,
H(Q) = L (P, Q) n H.
A parole, 7rP,H è l'applicazione che associa a un punto Q .,t. P il punto di intersezione di H con la retta congiungente P e Q. Per ogni sottoinsieme J di P tale che P~J si ha quindi 7rP,H(J) =
Hn Cp(J),
cioè 7rP,H(J) è l'intersezione con H del cono proiettante J da P. L'insieme 7r P ,H(J) viene chiamato proiezione di J da P in H.
Geometria proiettiva
292 N
Ad esempio, se in p si considerano l'iperpianoHo e P Q = [xo, Xl' ... , Xn] >é P si ha
= [l, O, ... , O], per ogni
Infatti la retta L (P, Q) consiste dei punti [A. + flXo, flX I , ... , flXn]' al variare di [A., fl] Ep l , e il punto 1rP ,Ho(Q) = Ho n L (P, Q) si ottiene in corrispondenza a [A., fl] = [- x o' 1]. L'operazione di proiettare un sottoinsieme di P in un iperpiano è la versione geometrica astratta dell'operazione grafica di rappresentare un oggetto tridimensionale J su di un piano H così come esso appare da un punto di osservazione P. Questa è la costruzione su cui si basa il disegno prospettico.
24.5 Esempi e osservazioni 1. Sia V un K-spazio vettoriale e - la relazione di equivalenza in V \ {O} così definita: v - w se e solo se v = A.W per qualche A.E K. Allora l'insieme quoziente [V\ (O}lI - è in corrispondenza biunivoca naturale con P(V). Infatti le classi di equivalenza in V\ {O} sono i sottospazi vettoriali di dimensione uno di V privati di O, e quindi ogni classe di equivalenza individua un elemento di P (V); viceversa, ogni elemento [v] EP(V) è una classe di equivalenza cui è stato aggiunto O, e quindi individua un elemento di [V\ {O}lI -. Per questo motivo si usa talvolta definire P (V) come [V \ {O}li - . 2. Un punto di pn, n ~ 1, è essenzialmente una (n + l)-upla ordinata di scalari non tutti nulli, assegnati a meno di un comune fattore di proporzionalità non nullo. Un sottospazio proiettivo di pn può vedersi come l'insieme delle soluzioni non banali, prese ognuna a meno di un fattore di proporzionalità, di un sistema di equazioni lineari omogenee in n + 1 incognite. La geometria proiettiva dei sottospazi di pn può quindi interpretarsi come lo studio delle proprietà degli insiemi di soluzioni non banali di sistemi di equazioni lineari omogenee in n + 1 incognite. 3. Se dim(P) = 3, i sottospazi proiettivi non vuoti di P sono, oltre ai punti e a P stesso, i piani e le rette. La seguente tabella mostra quali sono le intersezioni di due sottospazi di P che si trovano in posizione generale:
retta piano
retta
piano
o
punto retta
punto
Se dim(P) = 4 i sottospazi non vuoti di P sono, oltre ai punti e a P stesso, le rette, i piani, e gli iperpiani, che hanno dimensione 3. La seguente tabella mostra
24/Spazi proiettivi
293
le intersezioni di due sottospazi di P in posizione generale:
retta piano iperpiano
retta
piano
iperpiano
0 0 punto
0 punto retta
punto retta piano
4. Sia n la dimensione di p = P (V). Un riferimento proiettivo eo '" en di P determina gli n + 1 punti fondamentali Fo = [eo], F I = [ea, ... , Fn = [en ], e il punto unità U=[eo + ... +en]EP. È immediato verificare che i punti Fo, F I , ••• , Fn> U sono in posizione generale. Viceversa, assegnando una (n + 2)-upla ordinata di punti in posizione generale Po, P I , ••• , P n , NEP, esiste un unico sistema di coordinate omogenee di cui essi sono i punti fondamentali. Infatti consideriamo vettori va' ... , VnEV tali che [Vi] = P i , i = O, ... , n. Poiché Po, P I , ••• , P n sono linearmente indipendenti, {vo, ... , vn} è una base di V. Quindi, se scegliamo un vettore DEV tale che [D] = N, abbiamo 0=
A.oVo +
+ A.nVn
per opportuni A.o, , A.nEK, tutti diversi da zero per la condizione che P 0' P l' .... , Pn> N siano in posizione generale. Il sistema di coordinate (A.ovo) ... (A. nvn) ha le proprietà volute. La sua unicità segue da quella di A.o, ... , A.n• 5. Sia n ~ 1 e siano X o, XI' ... , X n indeterminate. Denotiamo con K[X o' Xl' ... , Xn]d' o piu brevemente con K[X]d' il K-spazio vettoriale i cui elementi sono il polinomio O ed i polinomi omogenei di grado d ~ 1 nelle indeterminate X o, XI' ... , X n· Gli elementi dello spazio proiettivo P(K[X]d) si chiamano ipersuperfici di grado d di pn. Lo spazio P (K [X]d) è il sistema lineare delle ipersuperfici di grado d di p n • Se F(X)EK[X]d' l'equazione F(X) = O
[24.12]
si dice equazione dell'ipersuperficie [F(X)] EP(K[X]d)' Per definizione, ogni altra equazione della stessa ipersuperficie è della forma aF(X)
=O
per qualche a EK*. Le ipersuperfici di grado d = 1, 2, 3, si dicono rispettivamente iperpiani, quadriche, cubiche ecc. Se n = 2 le ipersuperfici si chiamano curve algebriche piane, e verranno studiate nel capitolo 4. Se una (n + l)-upla di scalari non tutti nulli xo, xI> ... , x n è soluzione della [24.12], diremo che [xo, XI' ... , Xn]Epn è un punto dell'ipersuperficie di equazione [24.12]. Questa definizione è ben posta cioè non dipende dalla scelta della (n + l)-upla di coordinate omogenee del punto; infatti per una proprietà dei polinomi omogenei (cfr. proposizione A. 12), ogni
294
Geometria proiettiva
altra (n + l)-upla ad essa proporzionale À,xo, À,xI ,
••• ,
À,xn ,
À, :;t:
0, è soluzione della
[24.12].
6. Sia V uno spazio vettoriale di dimensione finita e sia l ::5 k::5 dim(V). La grassmanniana dei k-spazi di V è l'insieme i cui elementi sono i sottospazi vettoriali di dimensione k di V, e si denota con Gk(V). Se V = Kn la grassmanniana si denota di solito con G(k, n) anziché con Gk(Kn). Gli spazi proiettivi sono casi particolari di grassmanniane, essendo P (V) = G I (V). Le grassmanniane furono introdotte per la prima volta nel 1844 da H.G. Grassmann. In virtù della corrispondenza biunivoca esistente tra sottospazi vettoriali di dimensione k di uno spazio vettoriale V e sottospazi proiettivi di dimensione k - l di P (V), la grassmanniana Gk(V) può anche interpretarsi come l'insieme i cui elementi sono i sottospazi proiettivi di dimensione k -1 di P(V). L'esempio più semplice di grassmanniana che non è uno spazio proiettivo è G(2, 4), la grassmanniana delle rette di p 3 • È possibile rappresentare G(2, 4) come un'ipersuperficie quadrica di p 5 associando ad ogni retta di p 3 le sue "coordinate pliickeriane", nel modo seguente. Siano P[xo, XI' XZ, x 3], Q [Yo, YI' Y2' Y3] Ep3 due punti distinti e consideriamo la matrice [24.13]
24/Spazi proiettivi
295
Sostituendo nella [24.13] le coordinatexo' , XI' , x 2' ' 3 X' al posto dixo'· Xh X2' X3' e calcolando le nuove coordinate pliickeriane P~l> P~z, P~3' P(2,P(3' P{3' si trova Pii = ÀPij'
Similmente si procede se Q è sostituito da un altro punto Q' EL(P, Q). Pertanto possiamo affermare che il punto [POI , P 02' P 03' P 12' P 13' p] E pS 23 dipende solo dalla retta L (P, Q). Osserviamo che le coordiI);ate pliickeriane POI' Poz, P03' P12' P13' P23 della retta L (P, Q) soddisfano l'identità PO I P23 - P02P13
+ P03P12 = O.
[24.14]
Infatti il primo membro è il determinante Xo XI
Xz X3
Yo YI
Y2 Y3
Xo XI
x 2 X3
Yo YI
Y2 Y3
sviluppato secondo i minori delle prime due righe, con il metodo di Laplace, ed è nullo perché ha due righe uguali. Pertanto il punto [POI , P02 ' 0P3 ' P 12' P 13' p] 23 appartiene alla quadrica di p5 di equazione [24.15]
Poniamo, per ogni coppia di indici i, j tali che 0::5 i
nota come quadrica di Klein. Non è difficile verificare che ogni punto C[POI' P02' P03' P12' P13' P23] appartenente alla quadrica di Klein proviene da una e una sola retta di p3. A tale scopo non è restrittivo supporre POI :;t: (se POI = si può ragionare in modo simile rispetto a un'altra coordinata). Consideriamo i punti di p3
°
Poiché la [24.13] ha rango 2, i Pij non sono tutti uguali azero, e quindi definiscono un punto [POI' Poz, P03' P12' P13' P23] Ep5 le cui coordinate omogenee POI' Poz, P03' P12' P13' P23 si dicono coordinate pliickeriane della retta L (P, Q); esse prendono il nome da J. Pliicker (1801-1868) che per primo le utilizzò. A priori la definizione del punto [POI' P02' P03' PIZ' P13,P23] Ep5 sembra dipendere non solo dalla retta L (P, Q), ma anche dalla scelta dei punti P, Q e da quella di loro coordinate omogenee. È facile però convincersi del contrario. Innanzitutto notiamo che se le coordinate omogenee di P o di Q vengono moltiplicate per un fattore di proporzionalità ex E K*, le coordinate pliickeriane di L (P, Q) vengono anch'esse moltiplicate per lo stesso fattore, e quindi il punto di p5 che esse definiscono non cambia. Se poi il punto P viene sostituito da un altro punto P' [x~, x(, xz', x/l EL(P, Q) diverso da Q, aÌlora esistono due scalari À,:;t: 0, J1, tali che
X;' = ÀX; + J1,Yi,
i = 0, ... , 3.
= [0, POI'
P
P02' P03],
°
Q = [- POI' 0, P12' P13].
Le coordinate pliickeriane di L (P, Q) sono, tenuto conto della [24.14], 2
POI' POIP03' POIP12, POIP13' POIP23,
e quindi, poiché POI :;t: 0, C è il punto associato alla retta L (P, Q). Se t- è un'altra retta le cui coordinate pliickeriane sono proporzionali a quelle di C, essa non è contenuta nei piani coordinati di equazioni X o = ed XI = 0, perché altrimenti sarebbe POI = O. Siano [O, al' az, a3] e [- bo, 0, b 2, b 3] i punti di intersezione di t- con i due piani. Si ha
°
[POI' Poz, P03' P12' P13' PZ3] = [albo' a2b o, a3b o' a l b 2, a 1 b 3, aZb 3 - a3b z].
Poiché al bo:;t: 0, si deduce che [O, al' a2, a3] =P (confrontando le prime tre coordinate) e che [- bo, 0, b2, b 3] = Q (confrontando la prima, quarta e quinta
Geometria proiettiva
296
coordinata), e quindi t- = L (P, Q). In conclusione: le coordinate pliickeriane di retta stabiliscono una corrispondenza biunivoca tra !'insieme delle rette di p3 e i punti della quadrica di Klein in pS. In modo simile è possibile introdurre coordinate pliickeriane per i sottospazi proiettivi di dimensione k -1;;:: 1 di uno spazio pn. Per ulteriori dettagli rinviamo il lettore al classico trattato [2], oppure a [8]. 7. Sia J un sottoinsieme dello spazio proiettivo P (V). Il sottoinsieme di V
25/Geometria affine e geometria proiettiva
6. Dimostrare che, dati comunque due rette Z-, Z-' sghembe in p3(K) e un punto Prt. Z- u Z-', esiste un'unica retta .J-- contenente P ed incidente sia Z- che Z-'. 7. In p3 (R) determinare equazioni cartesiane della retta .J-- contenente P e incidente sia Z- che Z-' in ciascuno dei seguenti casi: a) Z- : X o - X 2
+ 2X3 = O,
b) Z-:XO -Xi+X3 =0,
C(J)= [vEV\[O}:[v]EJ} U {O}
n C(J) = C(In J) C(l) U C(J) = C(IU J)
2Xo + X, =
Z-':2X,-3X2 +X3 =0, Z-':2XO -X,+X3 =0,
è il cono su J in V. Questa terminologia è motivata dal fatto che C(J) è un'unione di sottospazi vettoriali di dimensione 1 di V. Lasciamo al lettore il compito di verificare che se J = p (W) è un sottospazio proiettivo di P, allora C(J) = W. Si ha inoltre
297
°
X O +X3 =0,
P=[O, 1,0, 1]
X o +X2 -2X3 =0 X O +X2 -X3 =0,
P=[I, 1,2, -3].
8. Dimostrare che, date comunque tre rette Z-, Z-', Z-" di P4(K), non contenute in uno stesso iperpiano e a due a due sghembe, esiste un'unica retta .J-- incidente Z-, Z-' ed Z-".
9. Sia P uno spazio proiettivo in cui sia assegnato un riferimento proiettivo eoe, ... en e siano
C(I)
punti linearmente indipendenti. Dimostrare che Xo
per ogni coppia di sottoinsiemi I, J di P. Esercizi
PIO
Pll
p'n
P20
P2'
P2n =
PnO
Pn'
Pnn
°
2
1. In ciascuno dei seguenti casi determinare un'equazione cartesiana della retta di P (C) contenente i punti assegnati: b) [1, -1, i], [i, 1, 1]
a) [-1, 1, 1], [1, 3, 2i]
c) [1, 1, 2i], [1, -2, 2i]. 2. Verificare che le seguenti rette di P2(C): iX, - X 2 + 3iXo = 0,
X o + X, - iX2 = 0,
5Xo + X, + 3iX2 = 0,
è un'equazione dell'iperpiano L(P" P 2 ,
... ,
P n ).
lO. Siano F OI , F 02 • F 03 , F 12 , F 13 , F 23 i sei punti fondamentali del riferimento standard di p5. Verificare che Fu è il punto della quadrica di Klein che corrisponde alla retta L(F Fj) di P3, dove F o, F" F 2 , F 3 sono i punti fondamentali del riferimento proiettivo standard di p3. j ,
hanno intersezione non vuota. 3. Verificare che i punti A = [1, 2, 2], B = [3, 1,4], C = [2, -1, 2] di p2(R) sono allineati, e determinare un'equazione cartesiana della retta che li contiene.
25 Geometria affine e geometria proiettiva
4. In P3(R) siano P= [1,1,0, O], e Hil piano di equazione 2Xo - X, + X 3 = O. Determinare la proiezione
1rP,H
da P in H di ognuno dei seguenti punti:
Q, = [1, O, 0, O], Q2 = [1,1,1,1], Q3 = [1, -1, -1,1], Q4 =[1,1, -1, -1].
5. Verificare ,se le rette di P3(R)
°
+ X 2 = 0, X, - 2X2 + X 3 = .J-- :Xo + X 2 - 3X3 = 0, X o - 2X, - 2X2 = Z- :Xo - X,
sono sghembe oppure incidenti.
°
Gli spazi proiettivi furono inizialmente definiti come "ampliamenti" di spazi affini, ottenuti aggiungendo ad essi certi "punti impropri" . Per illustrare la costruzione geometrica su cui si basa tale definizione, consideriamo P I (R), visto come l'insieme delle rette di A 2 (R) passanti per l'origine (fig. 25.1). Per ogni [xo, XI] Epl (R), il punto (Àxo, ÀX1) descrive, al variare di À ER, la corrispondente retta per l'origine in A 2 (R). In particolare il punto Ho = [O, 1] EPI(R) corrisponde alla retta di equazione X o = O. Si consideri in A2 (R) la retta Z- di equazione X o = 1. Per ogni' [xo, Xl] EP I (R) \ {Ho}, la corrispondente retta di A 2 (R) non è parallela a t- e interseca Z- nell'unico punto (1, XO-1X I ). Viceversa
298
Geometria proiettiva
25/Geometria affine e geometria proiettiva
299
Si consideri l'iperpiano affine A di equazione X o = 1, cioè l'insieme dei punti di A n+1 della forma (1, YI' ... , Yn), YI> ... , YnE K. Le rette per l'origine non appartenenti ad Ho non sono parallele ad A, e quindi ognuna di esse ha in comune con A uno e un solo punto. Si ottiene cosÌ una corrispondenza biunivoca
(1,x)
j:
A~pn\Ho
tale che j(1, YI' ... , Yn) = [1, YI' ... , Yn]
e [1,x]
J'-1 ([xo, XI' ... , xnD = [0,1]
Figura 25.1
ogni (1, x)E Z, appartiene a un'unica retta per l'origine, quella corrispondente al punto [1, X]E pl (R) \ {Ho}. Si ha quindi una corrispondenza biunivoca tra Z, e pl(R)\ {Ho} ovvero tra z, U {Ho} e PI(R). Possiamo pensare Ho come un "punto all'infinito" o "punto improprio" che viene aggiunto a z, per ottenere PI(R). Infatti la retta [0, 1] può essere consideratacome la posizione limite della retta [1, x] quando Ix I tende all'infinito. Si osservi che si può far tendere Ix I all'infinito in due modi, facendo avvicinare x verso + 00 oppure verso - 00, ottenendo in entrambi i casi la stessa retta [O, 1] come posizione limite. Questa costruzione geometrica, risalente a Desargues, si può ripetere utilizzando, invece del punto Ho e della retta z" un qualsiasi punto H EP I(R) e una retta di A2 (R) non passante per l'origine e avente direzione H. È facile generalizzare l'esempio precedente. Consideriamo lo spazio pn = pn(K), identificato con l'insieme delle rette di An+1 passanti per l'origine (fig. 25.2): ogni punto [xo, XI' ... , x n ] Epn corrisponde alla retta diAn+1 costituita dai punti (Àxo, Àxl , ••• , Àxn) al variare di ÀE K (questi punti sono, con l'eccezione di (O, ... , O), le (n + l)-uple di coordinate omogenee di [xo, Xl' ... , xnD. I punti PEHo corrispondono alle rette contenute nell'iperpiano affine di equazione Xo=O.
xo=o
A Figura 25.2
(
XI , x 2 , ... , Xxno)' 1, Xo
Xo
L'applicazione j induce pertanto una corrispondenza biunivoca tra A U Ho e pn. Si noti che gli elementi di Ho sono le direzioni delle rette di A, essendo essi i sottospazi vettoriali di dimensione 1 di Kn+1 contenuti nella giacitura di A, che è appunto l'iperpiano vettoriale di equazione X o = O. Anche in questo esempio Ho e A possono essere sostituiti da un qualsiasi iperpiano P (H) di pn e da un iperpiano affine di An +I avente giacitura H e non passante per l'origine. Se nella costruzione precedente identifichiamo A con An, utilizzando l'applicazione biunivoca che associa ad ogni (YI' ... , Yn)EAn il punto (1, YI' ... , Yn)EA, l'applicazione j viene a corrispondere all'applicazione biunivoca jo: An ~ pn\Ho
definita da jO(YI, ... , Yn) = [l'YI' ... , Yn],
la cui inversa è
definita da jo-l([XO' XI' ... , xnD =
(~ , ... , Xo
n X ). Xo
La jo è l'applicazione di passaggio a coordinate omogenee (la jo-l, di passaggio a coordinate non omogenee) rispetto a x O' I punti di Ho sono chiamati punti impropri (i punti di pn\Ho, punti propri), e Ho è detto iperpiano improprio, rispetto a x o' La definizione di queste applicazioni utilizza il fatto che le n + 1 coordinate omogenee di un punto [xo' XI' ... , Xn] E pn\Ho, pur non essendo univocamente determinate, individuano univocamente gli n rapporti x/xo, X2/XO, ... , xn/XO. Nel caso di pl (K) si denota talvolta il punto Ho = [O, 1] con il simbolo 00 e si identifica pl (K) con K U {oo} per mezzo dell'applicazione jo: K ~ pl (K) \ {00 }; ciò ha il significato di assegnare la "coordinata non omogenea 00" al punto [O, 1].
300
Geometria proiettiva
251Geometria affine e geometria proiettiva
301
Considerando, invece di Ho, uno qualsiasi degli iperpiani H i, i = 1, ... , n, e procedendo come nel caso precedente, si ottiene l'applicazione biunivoca
w E V, si ha w = v + k, k E H, e
definita da
pertanto cppp'(w + H) = (h' - k) - (h-- k)= h' -- h.Quindi cppp'(v + H) dipende solo da P, P' e v + H. L'applicazione cppp'è lineare. Siano infatti VI + H, v2 + HEV fH, k l, k2 EK. Se
per ogni (Yo, ... , Yi-I' Yi+l' ... , Yn)EAn. Laji è l'applicazione di passaggio a coordinate omogenee (la i-l, di passaggio a coordinate non omogenee) rispetto a Xi' I punti di lI; sono detti punti impropri (i punti di pn\Hi' punti propri), e H i è denominato iperpiano improprio, rispetto a Xi' Le costruzioni precedenti possono essere generalizzate in uno spazio proiettivo qualunque. Consideriamo un K-spazio vettoriale V, dim(V) = n + 12: 2, e sia H C V un iperpiano. Siano P = P (V) e H = P(H). Dati P = [n], P' = [n'] EP\H, definiamo un'applicazione lineare CPPP': V fH -+ H nel modo seguente (fig. 25.3). Sia v + H EV fH. I sottospazi (n) e (n' ) di V non sono paralleli a v + H, non essendo contenuti in H, e pertanto ognuno di essi ha in comune con v + H un unico punto. Esistono dunque h, h' EH tali che
v + h = w + h - k,
vl+hIE(n), v2
+ h 2 E (n),
v + h' = w + h' - k;
vl+h;E(n'), v2
+ h~ E (n'),
allora k l VI + k 2 v2 + (klh l + k 2 hz) k l VI + k 2 v2 + (klh; +
= k l (VI +
k2h~) =
hl) + k2 (V2 + hz} E(n),
k l (VI + h;) + k2 (V2 +
h~)E
(n'),
e quindi CPPP' (k l VI + k 2V2 + H) = k l h; +
k2h~
- (k l hl + k 2h 2) =
= kl(h; - hJ + k2(h~ - h 2)= = k l CPPP' (VI + H) + k 2 CPPP' (v2 + H).
v+hE(n)
Abbiamo il seguente teorema.
v+h'E(n'). Poniamo CPPP' (v + H) = h' - h.
Si osservi che h e h' a priori dipendono non solo da (n), (n') e dalla classe laterale v + H, ma anche dal suo rappresentante v. È però facile verificare che h' - h è indipendente dal rappresentante: infatti, se v + H = w + H per qualche
25.1 TEOREMA Siano V, H, P e H come sopra. 1) Associando ad ogni (P, P')E(P\H) x (P\H) l'applicazione lineare CPPP' EHom (V fH, H), si definisce su P \H una struttura di spazio affine con spazio vettoriale associato Hom(V fH, H). Per ogni sottospazio proiettivo S = P(W) di P non contenuto in H, S n (P\H) è un sottospazio affine di P\H avente per giacitura i! sottospazio vettoriale Hom(V fH, W n H) di Hom(V fH, H). 2) Assegnato in Va un iperpiano affine A di giacitura H e non contenente O, si definisce su P\H una struttura di spazio affine con spazio vettoriale associato Hfacendo corrispondere ad ogni (P, P')E (P\H) x (P\H), con P = [n], P' = [n'], i! vettore a' - aEH, dove a = A n (n), a' = A n (n').
Dimostrazione 1) Siano P = [n] EP\H, e cpE Hom(V fH, H). Consideriamo un vettore VEV\H, e sia hEH tale che v + hE (n); poniamo P' = [v + h + cp(v + H)]. È immediato verificare che CPPP' = cp. Poiché dim (V fH) = 1, ogni vettore di V fH è della forma av + H, a EK, e av + ahE (n). Di conseguenza [av + ah + cp(av + H)]
Figura 25.3
=
[av + ah + acp(v + H)]
=
[a(v + h + cp(v + H»] = P' ,
=
cioè P' dipende solo da P e da cP, e pertanto l'assioma SAI è soddisfatto.
Geometria proiettiva
302
Per verificare l'assioma SA2 consideriamo tre punti P = [n], P' = [n'], P" = [n"] EP\H. Sia v+HEV/H, e siano v+hE(n),
v+h'E(n'),
v+h"E(n").
25/Geometria affine e geometria proiettiva
25.2 TEOREMA (DI PAPPO-PASCAL) Siano P = P(V) un piano proiettivo, ~ ed ~' due rette distinte di P, e P, Q, R, P', Q', R' sei punti distinti tali che P, Q, R E ~ \( ~ n~'), P', Q', R' E ~'\( ~ n ~'). Allora i tre punti L(P, Q')nL(p', Q),
Allora CPPP'(v + H) = h' - h,
CPP'P"(v + H) = h" - h',
CPPP"(v + H) =h" - h
303
L(Q, R')nL(Q', R),
L(P, R')nL(p', R)
sono allineati. La retta che li contiene è detta retta di Pascal della configurazione (fig. 25.4).
e quindi [cpP?' + cpP'p"](v + H) = CPPP' (v + H) + CPP'P" (v + H) = h' - h + h" - h' =
= h" - h = CPPP" (v + H). Dunque CPPP' + CPP'P" = CPPP" e l'assioma SA2 è soddisfatto. Se P= [n], P' = [n']ESn(p\H), allora cppp,(v+H)EWnH per ogni v + H EV/H. Infatti, essendo (n) ed (n') contenuti in W, se v + h E(n) e v+h'E(n') allora cppp,(v+H)=h'-h=(v+h')-(v+h)EW. Quindi CPP?'EHom(V/H, WnH). Viceversa, se PESn(p\H) e P'EP\H soddisfa CPP?' EHorn (V/H, W n H), allora, per ogni v + H, CPPP' (v + H) EW n H e quindi v+hE(n), v+h'E(n') con h'-hEWnH. Poiché (n) CW, si ha v+hEW e pertanto v + h' = (v + h) + (h' - h)EW. Dunque anche P' ES n (P\H), e la (1) è dimostrata. 2) Poiché P e P' non appartengono ad H, (n) e (n') non sono paralleli ad A, e quindi a = A n (n) e a' = A n (n') sono ben definiti. Inoltre a' - aEH, perché la giacitura di A è H. La verifica degli assiomi SAI ed SA2 è lasciata al lettore. Si osservi che dim(H) = n e che, essendo dim(V/H) = 1, si ha dim[Hom(V/H, H)] = dim(V/H)dim(H) = dim(H) = n. P\H è dunque uno spazio affine di dimensione n sia nel caso (1) che nel caso (2). La struttura di spazio affine definita in 25.1 (2) dipende da A, oltre che da H, mentre la struttura definita in 25.1(1) dipende solo da H. Nel caso (2), associando ad ogni aEA il punto [a] EP\H, si ottiene una corrispondenza biunivocaj: A --+ P\H, che abbiamo già considerato in precedenza nel caso di p n e di H = Ho, in cui A era l'iperpiano di equazione X o = 1. L'applicazionej è un isomorfismo di spazi affini su H, con isomorfismo associato l'iden---+ ) tità l H , perché per ogni P, P' EA si ha PP' = j(P)j(P'). Come applicazione del teorema 25.1 daremo una dimostrazione dell'analogo proiettivo del teorema di Pappo in cui si utilizza la sua versione affine (cfr. teorema 9.4).
Dimostrazione Sia.J-- la retta che contiene L (P, Q') n L(P', Q) e L(Q, R') n L(Q', R). Per il teorema 25.1, P\.J-- è un piano affine, e ,t = ~ n (P\.J--), ,t, = ~' n (P\.J-- ) sono due rette di P\.J--. Si ha P, Q, REi:, P', Q', P' E,t', PQ' IIP'Q, PR' IIP' R. Per il teorema 9.4 si ha anche PR' IIP' R, e pertanto L (P, R') nL(p', R)E.J--. Si consideri uno spazio affine A sul K-spazio vettoriale V. Siano Po, P jEA, e Ào, Àj EK tali che Ào + Àj = 1. Resta definito un punto di A, che denoteremo con ÀoPo + ÀIP p mediante una delle due condizioni equivalenti: [25.1] -~~~----l)
----->
P j(ÀoPo + Àj P j) = ÀoPj P o·
-- ----
L'equivalenza delle due condizioni [25.1] segue subito dall'identità vettoriale Àj POPI - ÀOP IP o = POPI' Si noti che, se Po=P j, allora ÀoPo + ÀIP j = P o = P I. Se invece Po:;;t. P j, allora ÀoPo + ÀIPj appartiene alla retta POPj; viceversa, sePEPOP I' allora~ = ÀM per qualche ÀE K, e quindi P = (1 - À)Po + ÀP I. Dunque ogni punto della retta POPI è della forma ÀoPo + Àj P 1 al variare di Ào, Àj EK tali che Ào + Àj = 1, i quali sono univocamente determinati dal punto. L'osservazione precedente può essere utilizzata per definire un K-spazio vettoriale V ponendo
V=
V U (K* x A)
Figura 25.4
Geometria proiettiva
304
e definendo le operazioni in V nel modo seguente:
(h, P) + (k, Q)
=
h+k _h_p+_k_Q) h+k {( ---+' h + k hQP
h (k, P)
=
(hk, P)
O(k, P)
= OEV
(h, P) + v
=
se
h
~
se
h+k~O
se
h+k=O
25/Geometria affine e geometria proiettiva
305
e si identifica in modo ovvio con A. Consideriamo lo spazio proiettivo P(V) e il suo iperpiano P (V). Dal teorema 25.1(2) segue che P (V)\P (V) è uno spazio affine su V e che si ha un isomorfismo
Identificando VI con A otteniamo una corrispondenza biunivoca
O
A U P (V) --+ P (V).
(h, Q)
con
[25.2]
---+
PQ = h-IV;
le operazioni in V sono quelle che vi sono già definite. Lasciamo al lettore il compito di verificare che V è un K-spazio vettoriale. V è chiamato spazio vettoriale universale di A. 25.3 LEMMA Sia (e l , ... , enl Ulla base di Ve sia OEA. Per ogni hEK*, (h, O),e p ••• , enl è una base di V; in particolare dim(V) = dim(V) + 1.
Dimostrazione Supponendo che
Dalla costruzione fatta segue che la biezione [25.2] è univocamente determinata da A. Ciò giustifica il considerare P (V) uguale ad A U P (V) per mezzo della [25.2]. Quindi A U P (V).è uno spazio proiettivo, di cui P (V) è un iperpiano. Nel caso in cui A è la retta ordinaria e V è lo spazio dei suoi vettori geometrici, p (V) è un punto e A U P (V) è una retta proiettiva reale che si chiama retta ordinaria ampliata. Similmente, se A è il piano ordinario (lo spazio ordinario) e V è lo spazio dei suoi vettori geometrici, A U P (V) è un piano proiettivo reale (uno spazio proiettivo reale di dimensione 3) che si chiama piano ordinario ampliato (spazio ordinario ampliato).
25.4 Esempi e osservazioni si ha
a(h, O)
= -
1. Un modello geometrico di PI(C) può essere ottenuto per mezzo di un'applicazione chiamata "proiezione stereografica". Consideriamo in E 3 , con coordinate x, y, z, il piano ft di equazione Z = O e la sfera S2 di centro l'origine e raggio 1, e denotiamo con N il punto (O, O, l)E S2. Per ogni P(x' , y', z') ES2\ (N} denotiamo con a(P) il punto di ft allineato con N e con P. Si ottiene così una corrispondenza biunivoca
(ale l + ... + anen)EV
e pertanto a = o. Di qui
a2 = ... = an = O per l'indipendenza lineare di e l , ... , en • Quindi en sono linearmente indipendenti. Per dimostrare che (h, O), e l, ... , en generano V si consideri un elemento qualsiasi (k, P) EK* x A. Si ha e anche al
(h, O), e p
=
a: S2\ (N} --+ft '
••• ,
chiamata proiezione stereografica di S2 suft (fig. 25.5). Poiché la retta NP ha equazioni parametriche
(k, P)=kh-I(h, O)+ale l + ... +anen, dove al' a2 ,
••• ,
x=x't,
y=y't,
z=(z'-l)t+l,
anE K sono definiti dalla condizione
---+
OP=k-l(ale l + ... +anen)· Poiché anche V = (e l, ... , en ) C «h, O), e p «h, O), e p
••• ,
en ) =
N ••• ,
en ), si ha
V.
V è un sottospazio vettoriale di V. L'iperpiano affine VI giacitura V, perché è della forma
= (l}
x A di V ha
VI = ((1, O) + v: VEV},
Figura 25.5
20
Geometria proiettiva
306
si ha
- (XI a(x ' , y', Z/)=jvnNP= - - , -y'- , O) • 1- z'
1- Z'
a è un'applicazione biunivoca perché possiede l'inversa: 2
2
2u 2v u + v -1 ) a-I(u, v, O) = . , , . ( u2 + v2 + 1 2 2 u +v +1 u2 + v2 + l
L'applicazione a consente di rappresentare la sfera S2 come il piano jv cui è stato aggiunto il punto N, il quale può interpretarsi come "punto all'infinito" di jv, perché all'allontanarsi di QEjv dall'origine O, cioè al tendere di lIoQ"lI all'infinito, a-I(Q) si avviciila a N. Se identifichiamo jv con C, facendo corrispondere al punto (u, v, O) il numero complesso z = u + iv, otteniamo un'applicazione biunivoca
a: S2--+ PI(C) in cui a(N)
=
00
=
h: I: '--+ SO (3)
ponendo
x'
,y'
=---+ 1---= 1-z '
1-z '
x' +iy' 1-z '
se x -;é. O se z'-;é.1.
2. Un'ulteriore descrizione geometrica degli spazi pn = pn(R) può essere data nel modo seguente. Identifichiamo pn(R) con l'insieme i cui elementi sono le rette per l'origine di En+l, e consideriamo la sfera sn C En+I, di centro l'origine e raggio 1. Definiamo un'applicazione k:sn--+pn
ponendo retta per l'origine che contiene x.
Poiché ogni retta ~ passante per l'origine incontra sn in due punti simmetrici rispetto ad essa (cioè antipodali o diametralmente opposti) {x, - x}, l'applicazione k è suriettiva, e tale che k -I (~) consiste di due punti per ogni ~ Epn. k fa dunque corrispondere biunivocamente pn(R) all'insieme i cui elementi sono le coppie di punti antipodali {x, - x} di sn; in altri termini, possiamo rappresentarci pn (R) come l'insieme quoziente sn/ ==, dove x == y se e solo se y = - x. Un altro modello di pn(R) si ottiene considerando il semispazio E di En+1 definito dalla condizione X o 2: O, e la restrizione di k alla "semisfera" E' = sn n E. Sia M = E' n H, dove H è l'iperpiano di equazione X o = O. Le rette ~ di En+1 passanti per l'origine che non sono contenute nell'iperpiano H, cioè tali che ~~Ho' incontrano E' in un solo punto; se invece ~EHo' allora ~ n E è una coppia di punti antipodali appartenenti a M. I
I
C U {oo}
La sfera fornisce in questo modo un modello geometrico di pl(C), chiamat,o sfera di Riemann.
=
307
L'applicazione k induce pertanto una biezione di E' \M su pn\Ho; inoltre k' induce una applicazione di M su Ho in cui due punti hanno la stessa immagine se e solo se sono diametralmente opposti. pn (R) può essere dunque rappresentato come l'insieme che si ottiene da E facendo coincidere tra loro punti diametralmente opposti di M. Nel caso n = 1, E' è una sernicirconferenza, e pl si ottiene da essa "incollandone" gli estremi (fig. 25.6). La figura 25.7 si riferisce al caso n = 2. Nel caso n = 3 l'applicazione k induce una biezione di P3(R) su SO(3). Per dimostrarlo utilizzeremo l'applicazione p:S2 x [O, 'lr] --+ SO (3) descritta nella proposizione 21.6. Denotiamo con k/: I: ,--+ p3 la restrizione di k, e definiamo un'applicazione
e
a(x' , y', Z/)
k(x)
25/Geometria affine e geometria proiettiva
se x
=
O
dove x = t(x i x 2 x 3 ). Si noti che h è ben definita perché 0:5 IIxll :51. La restrizione di h a E' \M è biunivoca, perché 1Ix11 < 1 se (t,XI' X 2 , x 3) EE ' \M. Dalle proprietà di p segue che su M si ha h(O, XI' X 2,
x 3)
= h(O, YI' Y2' Y3)
se e solo se (yl' Y2' Y3) = (- XI' - X 2, - x 3). Confrontando con l'applicazione k' , vediamo che h induce una biezione P3(R) --+ SO(3). 3. Un altro modo di descrivere pl (R) si ottiene considerando la circonferenza C C E 2 di raggio 1 e centro nel punto (1, O) (fig. 25.8). Le rette per l'origine diverse dall'asse X o = O (cioè quelle che rappresentano i punti di PI(R)\ (Ho}) incontrano C in due punti, di cui uno è (O, O) e l'altro è variabile; invece la retta X o = O incontra C solo in (O, O). Facendo corrispondere alla retta ~ variabile la sua intersezione ')'(~) con C, diversa da (O, O), si definisce una corrispondenza biunivoca ')': pl(R)\{Ho} --+C\{{O, O)}.
Ponendo ')'(Ho) = (O, O), ')' si estende a una corrispondenza biunivoca ')':pl (R) --+ C. In questo modo si ottiene una circonferenza come modello geometrico di PI(R). 4. Denotiamo con Yl' ... , Yn le coordinate di un punto variabile in A n = A n(K), e con x o, XI' ... , xn le coordinate omogenee di un punto variabile in pn. Si consideri un iperpiano H di A n, di equazione [25.6]
Geometria proiettiva
308
25/Geometria affine e geometria proiettiva
309
E'
Figura 25.8
Figura 25.6
L'applicazione jo trasforma i punti di S nei punti propri del sottospazio pn di equazioni cartesiane
allXI + ... + alnXn + clXO =
S di
°
atl XI + ... + atnXn + ctXO = O. La verifica è simile al caso dell'iperpiano. Il sottospazio S si dice chiusura proiettiva (o proiettificazione) di S. Consideriamo llicuni casi particolari. Il caso n = 1 non è molto significativo, perché un sottospazio affine S>é- AI è ridotto a un punto, e S = j~(S). Quindi l'unico punto improprio di P I non è punto improprio di alcun sottospazio affine S>é-A I. Passiamo al caso n = 2. Sia ~ una retta di A 2 , di equazione
Figura 25.7
AX+BY+C=O.
[25.8]
L'applicazione jo: A ~ pn\Ho trasforma i punti di H nei punti propri dell'iperpiano H di pn di equazione
jo trasforma i punti di ~ nei punti propri di p2 appartenenti alla retta Z; di equazione
[25.7]
[25.9]
Infatti, se (YI' ... , yJ soddisfa la [25.6], allora [1, YI' ... , Yn] soddisfa la [25.7]. Viceversa, se [xo, XI' ... , x n] EH è un punto proprio, allora Xo >é- 0, [xo, XI' ... , x n] = = jo(x/xo, ... , xn/XO), e (x/xo, ... , xn/XO) soddisfa la [25.6]. H è la chiusura proiettiva (o proiettificazione) di H. Più in generale, si consideri un sottospazio affine S di A n, definito dal sistema di equazioni lineari
La retta [25.9] è la chiusura proiettiva di ~; essa consiste dei punti di jo(~) e del punto [0, - B, A], il suo punto improprio, che è la sua intersezione con la retta impropria Ho. Si osservi che (- B, A) è un vettore di direzione di ~. Ogni retta di p2 diversa dalla retta impropria, e quindi definita da un'equazione della forma [25.9] con (A, B) >é- (O, O), è la chiusura proiettiva di una retta di A 2 , precisamente della retta ~ di equazione [25.8]. Mediante la corrispondenza jo le rette di p2 passanti per un punto proprio jo(Q) sono le chiusure proiettive delle rette di A 2 del fascio proprio di centro Q. Invece le rette passanti per un punto improprio [0, I, m] sono tutte, meno una, le chiusure proiettive delle rette di A 2 del fascio improprio di direzione «(l, m).
allYI + ... +alnYn+cl=O
310
Geometria proiettiva
Fa eccezione la retta impropria, l'unica retta di pZ 'che non è la chiusura proiettiva di alcuna retta di AZ. Consideriamo ora il caso n = 3. Se ft è un piano di A 3 di equazione AX + BY + CZ + D = 0,
[25.10]
l'equazione AXI
+ BXz + CX3 + DXo =
°
[25.11]
ft
di ft in p3. _ definisce la chiusura proi~tiva I punti impropri di ft sono i punti della retta Ho n ft, ovvero [0, l, m, n] tali che I, m, n siano soluzioni non banali dell'equazione AXI
+ BXz +
punti
CX3 = 0,
cioè tali che (I, m, n) sia un vetto!e non nullo della giacitura di ft. In particolare l'insieme dei punti impropri di ft coincide con la retta P (W), dove W è la giacitura di ft. Se una retta ~ di A 3 ha equazioni cartesiane AX+BY+CZ+D=O,
[25.12]
AIX +BI Y+ CIZ +D I = 0,
la chiusura proiettiva di
~
è la retta
~
di p3 di equazioni cartesiane
+ BXz + CX3 + DXo =0, AIXI + BIXz + C I X 3 + DIXo = O.
AXI
[25.13]
Essa consiste dei punti dijo(~) e del suo punto improprio, che è [0, I, m, 11], dove (/, m, n) è un vettore di direzione di ~: infatti [0, I, m, n] è il punto improprio comune ai piani [25.13]. Ogni piano dip3 diverso da Ho è la chiusura proiettiva di un piano ft di A 3. Se una sua equazione è la [25.11], ft è il piano di equazione [25.10]. Nello stesso modo si vede che ogni retta di p3 non contenuta in Ho è la chiusura proiettiva di una retta ~ di A 3. I piani contenenti la retta data sono tutti e soli i proiettificati dei piani di A 3 del fascio di asse ~. Invece i piani che contengono una retta di p3 contenuta in Ho sono tutti, ad ed eccezione di Ho, proiettificati dei piani ft di A 3.appartenenti al fascio improprio di giacitura corrispondente alla retta impropria data. 5. Sia A uno spazio affine sul K-spazio vettoriale V. Dati punti Po, P I , ... ... + Àk = 1, resta univocamente determinato un punto, che denotiamo con ÀoPo + ÀIPI + ... + ÀkPk, dalla seguente condizione: ... , PkEA e scalari Ào, ÀI, ... , ÀkE K tali che Ào + ÀI +
[25.14]
25/Geometria affine e geometria proiettiva
311
È immediato verificare che la [25.14] è equivalente adognuna delle seguenti condizioni: ------------>.
Pj(ÀoPo + ÀIPI +
... + ÀkPk) =
-----'>
ÀoPjPO +
... +
~
~
+ Àj+IPjPj+1 + ...
Àj_IPjPj_1 ~
... + ÀkPjPk,
j
= 1, ... ,
k.
Per definizione il punto ÀoPo + ÀIP I + ... + ÀkPk appartiene al sottospazio affine POPI · .. P k; viceversa, ogni punto PEPoPI ... P k è della forma P = ÀoPo + ÀIPI + ... + ÀkPk per opportuni Ào, ÀI, ... ÀkE K tali che Ào + ÀI + ...
.. ' + À k = 1.
-----+
----+
-----+
Se Po, P I , ... , P k sono punti indipendenti, i vettori POPI' PoPz, ... , POPk sono linearmente indipendenti e pertanto Ào, ÀI, ... , Àk sono univocamente determinati dal punto ÀoPo + ÀIPI + ... + ÀkPk. Se, in particolare, k = n = dim(A), e Po, P I , ... , PnEA sono indipendenti, ogni punto PEA individua univocamente n + 1 scalari Ào, ÀI, ... , Àn tali che Ào + ÀI + ... + Àn = 1 e tali che P = ÀoPo + ÀIPI +
'" + ÀnPn.
Gli scalari Ào' ÀI, ... , Àn si dicono coordinate baricentriche di P rispetto a ... , P n· Si noti che ÀI, ... , Àn sono le coordinate di P nel riferimento affine -----'> Poe l ... en, doveej = POPj , e Ào = 1- ÀI - ... - Àn. Se Po, P I , ... , P k sono punti indipendenti, il punto
Po, P i ,
è detto baricentro di Po, P I , ... , P k. Se K = R il baricentro di due punti distinti P, Q è il punto medio del segmento PQ. Se K = R i punti della forma ÀoPo + À I P I + ... + ÀkPk, con Ào + ... + Àk = 1 e Ào' À1> ... , Àk ;::: 0, sono i punti del k-simplesso individuato da Po, P I , ... , P k· Le coordinate baricentriche furono introdotte per la prima volta nel 1827 da A. F. Moebius. 6. Le coordinate omogenee risultano utili anche in geometria euclidea, perché spesso permettono di esprimere in modo più semplice relazioni e grandezze metriche. Si considerino ad esempio una retta ~ di E 3 e due punti distinti (x, y, z) (x' , y', z') di ~. La chiusura proiettiva di ~ (rispetto ajo) ha coordinate pliickeriane: POI =x' -x,
Poz=y' -y,
P12=xy' -x'y,
P13=XZ'-X'z,
Denotiamole rispettivamente con I,
m,
n,
L,
M,
N,
P03=Z'-Z PZ3=YZ' -y'z.
312
Geometria proiettiva
e chiamiamole coordinate pluckeriane di ~. Dalla definizione segue che (l, m, n) è un vettore di direzione di ~,mentre (L, - M, N) = (x, y, z) 1\ (x' , y', z'). Sia ~' un'altra retta di E 3 avente coordinate pliickeriane l', m', n', L', M', N', e supponiamo che ~' non sia parallela a ~; Si ha IL'
h') =
d(~,v
+ LI' - (mM' + Mm') + nN' + Nn' 2
'Il
...J
ml Il m' + l'
l'
In particolare le rette IL'
2
~
ed
~'
nl n' +
2
m 1
m'
313
26/Dualità
26 Dualità Sia V un K-spazio vettoriale di· dimensione finita. Lo spazio proiettivo pv = p (VV), dove VV = Horn (V, K) è lo spazio vettoriale duale di V, si dice spazio proiettivo duale di P= P(V)o P e p hanno la stessa dimensione perché dim(V) = dim(V Per definizione, due funzionali F, F': V -+ K, entrambi non nulli, definiscono lo stesso elemento di p in simboli [F] = [F'], se e solo se F' = À,F per qualche À, -,é O. Poiché in tal caso si ha N (F) = N (F'), l'iperpiano ~ di V dipende solo dal punto [F] Ep Quindi si definisce un' applicazione,(~ettadi dualità, v
nl n'
V
)
•
v
sono incidenti se e solo se
,
+ LI' -(mM' +Mm')+nN' +Nn' =0.
v
•
La verifica di questi fatti è lasciata al lettore.
o: p
Esercizi 1. Determinare il punto improprio (rispetto a xo) di ciascuna delle seguenti rette di A 2 (C): a) 3X + Y
+1 = O 2iX + 3 Y + 9 = O Y+6=O
b) X - 2 Y -1 = O
c)
d) X
+1= O
e) f) X - 2 Y = O. 2. Determinare equazioni in coordinate omogenee di ciascuna delle rette considerate nell'esercizio precedente.
3. Determinare equazioni in coordinate non omogenee di ciascuna delle seguenti rette di p2: a) 7 X o - 4XI + X 2 = O b) 2XI - X 2 + iXo = O c) iXo + 2iX2
-
XI
d) (1 - i)Xo + 2X2
=O
= O.
4. Determinare coordinate omogenee del punto comune alle chiusure proiettive di ciascuna delle seguenti coppie di rette di A 2(C): a) 3X+iY+l=0,
b) - iX + (i
X-Y=O
+ 1) Y - 1 = O,
2 - 2X = O
c) X - 3 Y
= i,
X - 3 Y + 4 = O.
v
-+
""'V.A-~~F
[iperpiani di P l
ponendo o([F]) = P(N(F)). . oè iniettiva, perché due funzionali non nulli che hanno lo stesso nucleo sono v proporzionali e quindi definiscono lo stesso punto di p • Poiché ogni iperpiano di V è il nucleo di un funzionale lineare, oè anche suriettiva, e quindi è un'applicazione biunivoca. Essendo univocamente definita da P, oidentifica in modo intrinseco, cioè dipendente solo da P, l'insieme [iperpiani di P l con lo spazio proiettivo p v • In particolare opermette di considerare [iperpiani di P l come uno spazio proiettivo. Diremo che un numero finito di iperpiani Hl' H 2 , ••• , Hl di P sono linearmente indipendenti o viceversa linearmente dipendenti a seconda che i punti o- l (Hl)' o- l (H2 ) , ••• , o- l (Hl) di p siano linearmente indipendenti o linearmente dipendenti. Supponiamo fissata una base [eo, ••. , en l in V, e sia ['lJo, ••• , 'lJn l la base di VV duale di [eo, ... , en l, definita, lo ricordiamo, dalle condizioni 'lJ;(e) = 0ij'O :::; i, j:::; n. Il riferimento proiettivo 'lJo ... 'lJn di p si dice riferimento proiettivo duale del riferimento eo ••• en di P. I due sistemi di coordinate omogenee sono duali l'uno dell'altro. Sia H C P un iperpiano di equazione v
v
5. Determinare un'equazione cartesiana del piano di p3(R) passante per il punto [1, 1, O, 1] e per i punti impropri delle rette ~ ed J- di A 3 (R) di equazioni:
Z-:X + Y + Z -1
= 2X - Y -
Z
= O,
J- :2X - Y - 2Z + 1 = Y
6. Sia A uno spazio affine su V avente dimensione n, e siano Po, P h
+ Z -1 = O. ••• ,
Allora H
=
P (N (F)), dove FEV è il funzionale
PnEA punti
indipendenti. Dimostrare che a) {(1, Po), (1, P I ),
"0'
(1, P n)} è una base dello spazio universale
V;
e quindi H = o([F]). Gli scalari ao' al' an sono coordinate omogenee di [F] rispetto al riferimento proiettivo 'lJo ... TJn di p e vengono anche chiamati coordinate omogenee dell'iperpiano H. Denoteremo H anche con H[ao, ... , an ]. Gli iperpiani coordinati del riferimento eo •.• en sono le immagini tramite o o •• ,
v
b) se PE A ha coordinate baricentriche À-o, À" 0'0' Àn rispetto a Po, P h " 0 ' P n, allora Ào, À" . o., À n so~o le coordinate di (1, P) rispetto alla base {(1, Po), (1, P 1), 000' (1, P n )} di V.
Geometria proiettiva
314
dei punti fondamentali del riferimento duale Tlo
315
26/Dualità
~nnullano il primo membro della [26.2] Viceversa, sia H un iperpiano contenente S, di equazione:
Tln. Si ha cioè
o
Ho = Ho[l, O, ... , O] = 0([1]0])'
[26.3]
Sia S un sottospazio di P di dimensione k:5 n-l. L'insieme AI (S) i cui elementi sono gli iperpiani di P che contengono S si dice il sistema lineare di iperpiani di centro S. Se k = n - 2, AI (S) è un fascio di iperpianio Ad esempio se P è un piano e PE P è un suo punto, l'insieme delle rette che passano per P è un fascio di rette; se dim(p) = 3 ed t è una retta, AI (t) è un fascio di piani Queste nozioni sono simili a quelle di fascio di rette e fascio di piani studiate nel capitolo lo Se dim(p) = 3 e PE P è un suo punto, AI (P) è anche chiamato stella di piani. o
26.1 PROPOSIZIONE Supponiamo che il sottospaziò S di P abbia dimensione k, ed equazioni cartesiane
+ ali Xl azoXo + azlXI
+ +
aIOXO
+ alnXn + aznXn
= O
Il sistema [26.1] e quello costituito dalle equazioni [26.1] e dalla [26.3] sono equivalenti. Quindi la [26.3] è combinazione lineare delle equazioni [26.1], cioè è della forma [2602], come si voleva. Denotiamo con Hl' Hz, ... , H n- k gli n - k iperpiani definiti dalle equazioni del sistema [26.1]. Osserviamo che ogni iperpiano H definito dalla [26.2] ha coordinate omogenee che sono combinazioni lineari di quelle di Hl' Hz, .00' H n- k. Ciò significa che o-I (H) appartiene al sottospazio L(o -I (Hl)' o-I(Hz), 00" o-I (Hn- k)) di pVo Pertanto la propòsizione 26.1 afferma che
Poiché O-I (Hl)' O-I (Hz), ... , o-I(Hn_k) sono linearmente indipendenti, si deduce, in particolare, che o-I [Al (S)] è un sottospazio proiettivo di p di dimensione n - k - 1. Si ottiene così una corrispondenza tra sottospazi di dimensione k di P e sottospazi di dimensione n - k -} di p Questa corrispondenza è biunivoca perché un sistema lineare è individuato dal suo centro. Inoltre, se S C S', tra i sistemi lineari corrispondenti si ha l'inclusione opposta AI (S') C AI (S). Abbiamo pertanto il seguente teorema: v
v
•
=
O [26.1]
Sia dim(p) = n. L'applicazione o: p --> {iperpiani diP} definita più sopra è una biezione che fa corrispondere ad ogni sottospazio proiettivo di dimensione n - k - 1 di p un sistema lineare di iperpiani di P di centro un sottospazio proiettivo di dimensione k. Si ottiene in questo modo una corrispondenza biunivoca tra sottospazi di p e sottospazi di P che rovescia le inclusioni. 2602
che scriveremo in breve
v
TEOREMA
v
F I (Xo,
X n)
=
O
Fz(Xo, 00.' X n)
=
O
o •• ,
v
Se k = dim(S), allora n - k -1 è la dimensione del sistema lineare AI (S)o Ad esempio, i fasci di iperpiani di P hanno centro di dimensione n - 2, e pertanto hanno dimensione n - (n - 2) - 1 = 1, cioè corrispondono alle rette di p Se PE P, allora AI (P) ha dimensione n -1, cioè corrisponde a un iperpiano di p Otteniamo così una corrispondenza biunivoca: v
•
Allora il sistema lineare AI (S) consiste degli iperpiani di equazione
v
ÀIFI(Xo, " 0 ' X n) + ÀzFz(Xo, ... , X n) + ... + Àn-kFn-k(XO' 000' X n) = O, o ••
•
[26.2]
dove Àp Àz, '00' Àn_kE K sono scalari non tutti uguali a O. Dimostrazione Ogni iperpiano della forma [26.2] appartiene a AI (S), cioè contiene S, perché le coordinate di ogni punto di S annullano i polinomi F I , F z, 00" Fn- k e quindi
ov:
P --> {iperpiani di P P ...... AI (P)
V
[26.4]
}
(per ulteriori informazioni sull'applicazione oV, cfr. 2605). Si ha dim [AI (S)] = n se e solo se AI (S) = p e ciò avviene se e solo se S = 0. Diremo p = AI (0) il sistema lineare improprio. v
,
v
316
Geometria proiettiva
26.3 Esempi 1. Sia P un piano e sia P EP. Ogni retta del fascio AI (P) si può esprimere come combinazione lineare di due rette distinte z" ~ passanti per P. Se z, ed ~ sono assegnate mediante equazioni cartesiane:
aoXo + alXI + azXz = 0,
per z"
boXo + bi XI + bzXz = 0,
per~,
ogni altra retta di AI (P) ha equazione À(aoXo + alXI + azXz) + p, (boXo + blXI + bzXz) =
26/Dualità
317
proposizione vera che riguarda configurazioni di punti, iperpiani e loro incidenze una nuova proposizione, ancora vera, riguardante le configurazioni duali di iperpiani, punti e loro incidenze, come espresso dal seguente principio di dualità: Ad ogni proposizione vera riguardante punti e iperpiani di P e loro incidenze corrisponde una proposizione ancora vera riguardante iperpiani e punti di P e loro incidenze, che si ottiene dalla precedente scambiando tra loro le parole "punto" e "iperpiano". Le due proposizioni si dicono duali l'una dell'altra. Una coppia di proposizioni duali è la seguente:
°
con (À, p,) 7":- (O, O). Se z, è una retta di P, il sistema lineare AI (z,) ha dimensione 0, ed z, è il suo unico elemento. 2. Supponiamo che dim (P) = 3. Se P EP, il sistema lineare AI (P), la stella di centro P, ha dimensione 2. Se invece z, C P è una retta, AI (z,) è un fascio di piani e quindi ha dimensione 1. Infine, se /V C P è un piano, AI (jv) ha dimensione 0, e consiste del solo piano /V. In particolare, a punti, rette e piani di P corrispondono rispettivamente piani, rette e punti di p v
•
Siano P[xo, ... , Xn]EP eH[ao, ... , an] un iperpiano di P. La condizione che PEH, cioè che P e H siano incidenti, è equivalente alla seguente identità:
n punti indipendenti generano un iperpiano
Per riconoscere che le due proposizioni sono duali, le possiamo così riformulare: la prima afferma che esiste un unico iperpiano incidente n punti indipendenti, mentre la seconda afferma che esiste un unico punto incidente n iperpiani indipendenti. Secondo il principio di dualità, dal fatto che la prima proposizione è vera discende che lo è anche la seconda. Ovviamente in questo caso noi già sappiamo che entrambe le proposizioni sono vere senza dover ricorrere al principio di dualità; ma ciò non sempre avviene, e il principio fornisce in generale un modo di dedurre nuove proposizioni geometriche. Similmente possiamo riconoscere che le due seguenti proposizioni sono duali: Due punti distinti generano una retta.
[26.5] Fissati ao' al' ... , ano la [26.5] è una condizione sulle coordinate di punto, soddisfatta da tutti e soli i punti P[xo, ... , x n]EH. D'altra parte, se teniamo fissi x o, XI' ... , Xno la [26.5] si può considerare come una condizione sulle coordinate di iperpiano, che è soddisfatta da tutti e soli gli iperpiani H EAI (P). Supponiamo assegnata una configurazione di punti e di iperpiani di P, in modo che certe relazioni di incidenza tra di essi siano soddisfatte. Tali relazioni si esprimono come identità della forma [26.5] nelle coordinate dei punti e degli iperpiani della configurazione stessa. Se le coordinate di ogni punto della configurazione si interpretano come coordinate di iperpiano, e quelle di ogni iperpiano della stessa come coordinate di punto, si ottiene una nuova configurazione di punti e di iperpiani che viene chiamata configurazione duale della precedente. I suoi punti e i suoi iperpiani si diranno duali dei corrispondenti iperpiani e punti della configurazione di partenza. Poiché la [26.5] è simmetrica nelle coordinate di punto e di iperpiano, tutte le incidenze che sono soddisfatte dai punti e dagli iperpiani della configurazione data sono anche verificate dai corrispondenti elementi della configurazione duale. Possiamo utilizzare questa osservazione per ottenere da ogni
n iperpiani indipendenti hanno in comune un punto.
Due iperpiani distinti hanno per intersezione un sottospazio di codimensione 2.
La prima proposizione afferma che esistono n - 2 iperpiani indipendenti incidenti due punti distinti (e la cui intersezione è la retta da essi generata), mentre la seconda afferma che esistono n - 2 punti indipendenti che sono incidenti due iperpiani distinti. Una proposizione si dice autoduale se coincide con la sua duale. Dimostreremo un teorema classico riguardante le configurazioni di rette e di punti in un piano proiettivo, il teorema di Desargues, la cui versione affine è stata dimostrata nel paragrafo 9. 26.4 TEOREMA (DI DESARGUES-VERSIONE PROIETTNA) Sia P = P (V) un piano proiettivo e siano P I, ... , P 6 EP punti distinti tali che le tre rette L (P I, P 4 ), L (Pz, Ps), L(P3 , P 6 ) abbiano in comune un punto Po, diverso da P I, ... , P 6 • In tali ipotesi i punti L(Pl' P 3)
n L (P
4,
P6),
sono allineati (fig. 26.1).
L(Pz, P 3)
n L(Ps,
P 6),
L(PI , P z) n L (P4 , P s)
318
Geometria proiettiva
319
27/Cambiamenti di coordinate omogenee e proiettività
26.5 Complementi Sia P = P(V). Lo spazio proiettivo (P7, duale di p coincide con spazio proiettivo P (VVV) associato al biduale di V, esi dice spazio proiettivo biduale di P. L'isomorfismo canonico (3: V -+ VVv di V sul suo biduale induce una corrispondenza biunivoca b: P-+ (pvr, che associa ad ogni P = [v] EP il punto [(3 (v)] E(P7. Consideriamo l'applicazione di dualità di p v
,
v
:
o' :(PT -+ {iperpiani di
P
V }
e la composizione
o' o b:
P -+ {iperpiani di P
V }.
È facile vedere che o' ob coincide con l'applicazione oV definita dalla [26.4]. Se infatti P= [v] EP, allora, poiché (3 (v)(F) = F(v) per ogni FE VV, si ha
(o'ob)(P)
= o' ([(3 (v)]) = =
([F]Ep
v :
([F]Ep FEN((3(v»} = F(v) = O} = AI (P) = OV(P). v
:
Figura 26.1
Esercizi 1. Dimostrare che, se S ed S' sono due sottospazi proiettivi di P, allora A1(S) n A1(S') = A1(L(S, S'».
Dimostrazione Siano vo, VI' ... , V6 EV tali che P i = [vJ, i = 1, ... , 6. Per ipotesi esistono scalari al' ... , a 6 EK tali che
2. Sia dim(P) = 3. Formulare la duale di ognuna delle seguenti proposizioni: a) Dato un punto e una retta che non lo contiene, esiste un unico piano contenente entrambi. b) Due rette incidenti sono complanari.
Poiché P o è diverso da P I , ••• , P 6 , gli al' ... , a 6 sono tutti diversi da zero. I tre punti L (P I , P 3) n L (P4 , P 6 ), L (Pz, P 3) n (Ps, P 6), L (PI' P z) n L (P4 , P s) sono rispettivamente associati ai vettori
c) Date comunque due rette sghembe ed un punto fuori di entrambe, esiste un'unica retta contenente il punto e incidente le due rette date. d) Assegnati comunque tre punti linearmente indipendenti, esistono tre rette distinte ognuna delle quali ne contiene due.
alvI - a 3 v3 = - a 4 v4 + a 6v6 -azvz + a 3 v 3 = asv s - a 6 v 6
- al VI + azvz = a 4 v4 - asv s' Questi tre vettori sono linearmente dipendenti perché la loro somma è O, e quindi i tre punti corrispondenti sono allineati. Il teorema 26.4 si può anche enunciare così: sotto le ipotesi dette, sono allineati i tre punti di intersezione delle coppie di lati ordinatamente corrispondenti dei due triangoli di vertici P I , P z, P 3 e P 4 , P s, P 6 • Lasciamo al lettore il compito di verificare che il teorema di Desargues è autoduale.
27 Cambiamenti di coordinate omogenee e proiettività Siano V un K-spazio vettoriale di dimensione finita e P = P (V) lo spazio proiettivo associato, e sia dim(P) = n. Supponiamo assegnati due riferimenti proiettivi in P, rispettivamente dalle basi e = reo, e l , ... , en } ed f= {fo' f l , ... , f n } di V, e sia A = M[,e(lv)EGLn+I(K) la matrice che esprime il cambiamento di coordinate dei vettori di V dalla base e alla base f. Si ha
y=Ax
[27.1]
320
Geometria proiettiva
per ogni vettore
di V. Sia P = [v] EP. Se x = I(XO XI... x n) si interpreta come una (n + I)-pIa di coordinate omogenee di P nel riferimento proiettivo eo ••. en , una (n + l)-upla di coordinate omogenee di P, nel riferimento f o ••• fn' è y = l(yo YI ... Yn) data dalla [27.1]. Osserviamo che se x viene sostituita da una (n + 1)-upla proporzionale À.x, cioè da un'altra (n + l)-upla di coorcjinate omogenee dello stesso punto P nel riferimento eo ••• em si ottiene al posto di y la (n + 1)-upla À. y, che rappresenta ancora P nel riferimento f o ••. fn. La matrice A non è univocamente determinata dai due riferimenti proiettivi assegnati, perché questi individuano le due basi e ed f di V solo a meno di un fattore di proporzionalità. Una diversa scelta delle due basi avrà l'effetto di sostituire A con una matrice ad essa proporzionale aA, a ~ 0, dalla quale si otterrà una formula analoga alla [27.1]: y=aAx.
27.1 PROPOSIZIONE Siano eo ••• en ed f o ••• f n due riferimenti proiettivi in P. Esiste una matrice A EGL n + I (K), individuata solo a meno di un fattore di proporzionalità non nullo, tale che, se PE P ha coordinate omogenee x nel riferimento eo ••• em allora coordinate omogenee y di P nel riferimento f o ••• f n sono date dalla formula [27.1]. La [27.1] è laformula del cambiamento di coordinate omogenee dal riferimento al riferimento f o ••• fn. Siano eo ... em f o ... f m go ... gn riferimenti proiettivi in P, corrispondenti a coordinate omogenee di punto x, y, Z, e siano y = A x, e Z = By le formule che esprimono i rispettivi cambiamenti di coordinate omogenee di punto. Sostituendo nella seconda il valore di y dato dalla prima si ottiene la formula eo ••• en
= (BA)x
che esprime il cambiamento di coordinate omogenee da eo .•• en a go ... gn. La formula
321
Supponiamo fissato in P un riferimento proiettivo eo ••• en • In pratica un nuoVO riferimento proiettivo viene spesso assegnato mediante una (n + 2)-upla ordinata
di punti in posizione generale (cfr. esempio 24.5(4». Siano À.o' ••• , À.nE K tali che si abbia À.o(Poo, ... , POn)
+ ... + À.n(PnO'
... , Pnn)
= (mo,
... , m n)·
Allora la formula del cambiamento di coordinate dal riferimento riferimento è la [27.1] in cui A = B-1, dove À.oPoo
À.nPnO
À.OPOI
À.nPn I
eo ... en al nuovo
B=
[27.2]
È evidente che la [27.2] e la [27.1] sono equivalenti perché, date coordinate omogenee x di un punto PE P nel riferimento eo ... en , entrambe forniscono coordinate omogenee y di P nel riferimento f o ••• fn. Quanto fin qui detto è riassunto nella seguente proposizione:
Z
27/Cambiamenti di coordinate omogenee e proiettività
À.nPnn
Infatti i vettori di V le cui coordinate rispetto a {eo, ... , en J sono le colonne di B costituiscono una base di V che individua il nuovo riferimento. Quindi B è la matrice che esprime il cambiamento di coordinate inverso, cioè quello che fa passare dal riferimento individuato da Po, ... , P m M al riferimento eo ••• en.
27.2 Esempio Sia P una retta proiettiva in cui sia assegnato un riferimento proiettivo, e siano punti distinti. Siano a, ,8EK tali che
PdÀ. I , ILI]' Pz[À. z, ILz], M[À. 3, IL3]
e, per ogni punto P[xo, XI]EP, siano y, oEK tali che (
Xo ) = "/ (
a À. I
XI
alLI
)
+ o( ,8 À.z ) . ,8ILz
Allora P ha coordinate omogenee "/,
onel riferimento individuato da P
p
P z,
M. Calcolando a, ,8 e "/, o con la regola di Cramer ed eliminando i denominatori
otteniamo [27.3]
x =A -I y esprime il cambiamento di coordinate da f o ••• f n a eo •.. en •
Passiamo ora a considerare le trasformazioni di uno spazio proiettivo.
21
322
Geometria proiettiva
27.3 DEFINIZIONE Siano P = P (V) e P' = p (V ') due spazi proiettivi. Un'applicazione biunivoca f: P ~ P' è un isomorfismo di P su P' se esiste un isomorfismo ep: V ~ V' tale che
f([v]) = [ep(v)] per ogni [v] EP. L 'isomorfismo f si dice indotto da ep. Se un isomorfismo f esiste, p e P' si dicono isomorfi. Una proiettività di P è un isomorfismo di P in sé stesso. È evidente che ogni isomorfismo di spazi vettoriali ep: V ~ V' induce un iso-
morfismo di P su P' . Lasciamo al lettore il compito di verificare, nel modo consueto, che l'isomor~ fismo è una relazione di equivalenza tra spazi proiettivi. Due spazi proiettivi isomorfi hanno evidentemente la stessa dimensione. D'altra parte, poiché ogni K-spazio vettoriaIe di dimensione n + 1 è isomorfo a Kn+l, ogni spazio proiettivo di dimensione n è isomorfo a pn. Da ciò segue che due spazi proiettivi della stessa dimensione sono isomorfi. Se una proiettività f: P ~ P è indotta da ep, essa è anche indotta da Àep, per un qualunque ÀE K*: infatti si ha
[(Àep) (v)] = [À(ep(v»] = [ep(v)] =f([v]) per ogni· v EV\ ( OJ. Viceversa, se 1/;: V ~ V induce f, allora 1/; = Àep per qualche ÀEK*. Infatti per ogni v EV esiste ÀEK* tale che ep(v) = À1/;(v), ovvero tale che (1/; -I cep) (v) = Àv; ne consegue che ogni vE V\ (O J è un autovettore di 1/; -I cep, e quindi 1/;-1 c ep = Àly per qualche ÀE K*, cioè 1/; = Àep. Quindi l'automorfismo che induce una data proiettività è individuato solo a meno di un fattore di proporzionalità non nullo. L'identità l p è una proiettività, perché è indotta da l y. Se f, g: p ~ P sono proiettività indotte da ep, 1/; EGL (V) rispettivamente, la loro composizione g cf è una proiettività, indotta da 1/; c ep. L'inversa f- I della proiettività f è ancora una proiettività, indotta da ep ~ I. Le proiettività di P costituiscono dunque un gruppo di trasformazioni chiamato gruppo proiettivo di P, e denotato con PGL(P). Il gruppo proiettivo di pn si denota con PGLn+ 1 (K), e si chiama gruppo lineare proiettivo di ordine n + 1. Associando ad ogni 'P EGL (V) la proiettivifà indotta di P = P (V), si ottiene un omomorfismo suriettivo di gruppi 71": GL(V) ~ PGL(P(V».
Osserviamo che epEGL(V) è tale che 7I"(ep) = l p se e solo se ep = Àly per qualche ÀEK*. Quindi (epEGL(V): 7I"(ep) = l p J = (À1 y: ÀEK*J.
[27.4]
27/Cambiamenti di coordinate omogenee e proiettività
323
Il primo membro della [27.4] è un sottogruppo di GL(V) (il nucleo di 71"). Se nello spazio proiettivo P (V) è assegnato un riferimento proiettivo, associato alla base (eo,"" en J di V, ed f EPGL (P(V», allora, per ogni automorfismo epEGL(V) che inducef, diremo che himatrice A EGLn+ 1(K) associata a ep rispetto alla base (eo,"" en J definisce f rispetto al riferimento proiettivo eo '" en • La matrice A non è univocamente determinata. Un'altra matrice BE GLn+ 1(K) definisce la stessa proiettività rispetto allo stesso riferimento proiettivo se e solo se B = ÀA, per qualche ÀEK*. La verifica è lasciata al lettore. La seguente proposizione fornisce un procedimento geometrico per individuare un isomorfismo di spazi proiettivi, e in particolare una proiettività. 27.4 PROPOSIZIONE Supponiamo che P = P (V) e P' = P(V') abbiano dimensione n. Date comunque una (n + 2)-upla ordinata Po, , Pn> Pn + 1 di punti di P in posizione generale, e una (n + 2)-upla ordinata Qo' , Qn> Qn+ l di punti di P' in posizione generale, esiste uno ed un solo isomorfismo f: P ~ P' tale che f(P) = Q;, i=O, ... , n+1. In particolare, una proiettività che lascia fissi n + 2 punti di P in posizione generale è l'identità.
Dimostrazione Supponiamo P; = [vJ, Q; = [wJ, i = 0, ... , n + 1. Poiché dim(V) = n + 1 = = dim(V'), (vo, ... , vnJ e (wo, ... , wnJ sono basi di Vedi V' rispettivamente, e quindi si ha vn+ 1 =Àovo +ÀIV I +
+
Ànvn,
= ftowo +ftI Wl+
+
ftnwn
W n+ l
per opportuni Ào, ... , Àn , fto' ... , ftn EK che sono tutti non nulli per l'ipotesi che le due (n + 2)-uple siano in posizione generale. Sostituendo ÀiVi al posto di Vi e ft;W; al posto di w;, i = 0, ... , n, possiamo supporre che tutti i coefficienti siano uguali al, cioè che si abbia [27.5] Poiché (vo, ... , vnJ è una base di V, per il teorema 11.3 esiste un'applicazione lineare ep: V ~ V' tale che ep(v) = wi' i = 0, ... , n. Per le [27.5] e per la linearità di ep si ha ep(v n + l ) = Wn+ l ' L'isomorfismo f indotto da ep ha le proprietà volute. Supponiamo ora chef': P ~ P' sia un'altro isomorfismo avente le stesse proprietà. Consideriamo la composizione g = f' -I cf: P ~ P, che supporremo associata a 1/;E GL(V). Si ha g(P) = P;, i = 0, ... , n + 1, e pertanto
324
Geometria proiettiva
per opportuni
0'; E K*.
27/Cambiamenti di coordinate omogenee e proiettività
325
Quindi n
O'n+IVn+1 =
1{;(vn + l )
=
1{;(vo +
VI + .•. + Vn) =
1: 1{;(v;)
;=0
=
[27.6]
=O'oVo+ ••• +O'nVn-
D'altra parte si ha [27.7] Confrontando [27.6] e [27.7] deduciamo che
Quindi 1{;(v;) = 0'0 V;, cioè 1{; = e l'unicità di f è dimostrata.
O'olv.
Dalla [27.4] segue che g
=
Ip, cioèf = f- I ,
In particolare una proiettività di una retta proiettiva è individuata una volta assegnate le immagini di tre suoi punti distinti; una proiettività di un piano proiettivo è individuata dalle immagini di quattro punti, a tre a tre non allineati. Una proiettivitàf: P (V) --+ p (V), essendo indotta da un automorfismo cp: V --+ V, trasforma ogni sottospazio S = P(W) di P (V) nel sottospaziof(S) = P (cp(W)), che ha la sua stessa dimensione. Poiché cp induce un isomorfismo di W su cp(W), f induce un isomorfismo di S su f(S). 27.5 DEFINIZIONE Due sottoinsiemi (o figure) F ed F' dello spazio proiettivo P si dicono proiettivamente equivalenti se esistefE PGL(p) tale chef(F) = F'.
Le proprietà che sono comuni a tutte le figure proiettivamente equivalenti ad una figura F si dicono proprietà proiettive di F. Ad esempio, due sottospazi proiettivi S ed S' di P(V) aventi la stessa dimensione sono proiettivamente equivalenti. Infatti, se S = P(W), S' = P(W'), esiste cp EGL (V) tale che cp (W) = W' , e allora f(S) = S', dove f è la proiettività associata a cp. Per la proposizione 27.4 due sottoinsiemi di P costituiti ognuno da k punti in posizione generale sono proiettivamente equivalenti se k:5 dim (P) + 2. Se k > dim (P) + 2, ciò non è vero già nel caso di 4 punti di una retta proiettiva. Sorge allora il problema di descrivere le classi di equivalenza proiettiva di k-uple di punti di uno spazio proiettivo P, quando k > dim (P) + 2, cioè di classificare tali classi di· equivalenza. Come vedremo tra poco, la soluzione completa di questo problema può essere data nel caso di quaterne di punti distinti di una retta proiettiva per mezzo della nozione di "birapporto". Il risultato che otterremo sarà applicato nel capitolo 4 alla classificazione delle cubiche piane proiettive. 27.6
DEFINIZIONE
Sia P una retta proiettiva, e siano P I , P 2 , P 3 , P4 EP, con
dove Yo, YI sono coordinate omogenee di P4 nel riferimento proiettivo in cui P I e P2 sono i punti fondamentali e P 3 è il punto unità. Osserviamo che nella definizione si è supposto che P I , P 2 , P 3 siano distinti, ma non si è fatta alcuna ipotesi su P 4 • Se in P è fissato un riferimento proiettivo rispetto al quale i 4 punti assegnati sono P; [À i , p-;l, i = 1, ... , 4, allora, tenuto conto della [27.3], abbiamo la seguente espressione del loro birapporto: ÀI I p.,1 À2
I p.,2
À411 À2 À3 p.,4 p.,2 p.,3
! [27.8]
À411 ÀI À31 p.,4 p.,1 p.,3
Considerando invece coordinate non omogenee z; deduce dalla [27.8] la seguente espressione:
(3 (p l' P2' P 3' P 4) = (Z4 - Zl) (Z3 - Z2) (Z4 - Z2) (Z3 - ZI)
•
= p.,/Ài
dei punti P;, si
[27.9]
Il secondo membro della [27.9] ha senso solo se nessuno degli Z; è 00, cioè se Ài -:;é O per cigni i = 1, ... , 4. Altrimenti si utilizzerà la [27.8], che definisce in ogni caso un elemento di K U ( 00 l. Si noti che i valori (3(P I , P2 , P3 , P 4) = O, 00, 1 sono assunti in corrispondenza a P4 = P I , P2 , P 3 rispettivamente. Il significato proiettivo del birapporto è dato dal seguente teorema. 27.7 TEOREMA Siano P = P (V) e P' = P (V ') rette proiettive, e siano P I , P2 , P3, P4EP, QI' Q2' Q3' Q4 EP ', con P I, P 2, P3 distinti e QI' Q2' Q3 distinti. Esiste un isomorfismo f: P --+ P' tale che f (P;) = Qi' i = 1, ... , 4, se e solo se
Dimostrazione Per la proposizione 27.4 esiste un'unico isomorfismo f: P --+ P' tale che f(P;) = Q;, i = 1, 2, 3. Siano P i = [v;], i = 1, ... , 4, Q; = [w;]. Come nella dimostrazione della proposizione 27.4 possiamo supporre che f sia indotto da un' applicazione lineare cp: V --+ V' tale che cp (v;) = w i , i = 1, 2, 3. Se P 4 ha coordinate omogenee Yo, YI nel riferimento definito in P dai punti P I , P 2 , P 3 , allora f(P4 ) ha le stesse coordinate omogenee Yo, YI nel riferimento definito in P' dai punti
326
Geometria proiettiva
=
»·
(3(QI' Q2' Q3' f(P4
Maf(P4) = Q4 se e solo se Q4 ha coordinate omogenee Yo, YI' e questa condizione è equivalente a
(3(QI' Q2' Q3' Q4)
costanti {3, 1/{3, 1- {3, 1/1- {3, ({3 -1)/{3, (3/({3 -1)
1/{3
(3(P I, P 2, P 4, P 3) = (3(P2, P I, P 3, P 4) = = (3(P4, P 3, P I, P 2) = (3(P3, P4, P 2, P I) = (3(P I, P 3, P 2, P 4) = (3(P3, P I , P 4, P 2) = = (3(P2, P 4, P I, P 3) = (3(P4, P 2, P 3, P I)
{3
1/(1- (3)
(3(P 1, P 3, P 4, P 2) = (3(P3, P I, P 2, P 4) = = (3(P4, P 2, P I, P 3) = (3(P2, P 4, P 3, P I) ({3 -1)/{3 = (3(P I, P 4, P 2, P 3) = (3(P4, P I, P 3, P 2) = = (3(P2, P 3, P I, P 4) = (3(P3' P 2, P 4, P I)
(3/({3 -1)
2
=
[27.10]
=
= (3(Pl' P 4, P 3, P 2) = (3(P4, P I , P 2, P 3) =
Si consideri la funzione razionale
{{32 - {3
E, -
é,
2
è una radice cubica primitiva di 1. Nei casi (3 = -1,2, 112 si haj({3) = 27/4 e
Quindi i 24 birapporti che si possono ottenere a partire da 4 punti distinti si riducono a 6, e sono in generale distinti (cfr. 27.10(3». Dunque a una quaterna di punti distinti di P non è associato un solo valore del birapporto. Si può però ricorrere al seguente lemma.
j({3)
-1, 2, 1/2, -
1 -J3. E=--+--l
= (3(P3, P 2, P I, P 4) = (3(P2, P 3, P 4, P I )·
LEMMA
=
dove
=
1- {3
[27.11]
sono radici di q(X), se sono distinte esse sono tutte le radici di q(X) e il lemma segue in questo caso. Con un calcolo diretto si verifica subito che le [27.11] non sono distinte nei casi seguenti:
= (3(P I, P 2, P 3, P 4) = (3(P2, P I, P 4, P 3) =
= (3(P3' P 4, Pl' P 2) = (3(P4, P 3, P 2, P I)
27.8
Il primo membro è un polinomio. monico di sesto grado in X. Poiché le sei
= Y/Yo·
Il birapporto di quattro punti di una retta proiettiva P dipende dall'ordine in cui essi vengono considerati. Se P I, P 2, P 3, P 4EP sono distinti il birapporto di una loro qualsiasi permutazione è definito, e posto {3 = (3(P I, P 2, P 3, P 4), si ha {3
327
dove
QI' Q2' Q3· Quindi si ha (3(P I, P 2, P 3, P 4) = Y/Yo
27/Cambiamenti di coordinate omogenee e proiettività
+ 1)3
q(X) = (X + 1)2 (X - 2)2 (X -112)2,
mentre per (3
= - E, - E
2 si ha j({3)
=
Oe
q(X) = (~- X + 1)3 = (X + E)3 (X + E2)3.
In entrambi i casi le radici di q(X) sono solo quelle appartenenti all'insieme dei valori [27.11]: il lemma è dimostrato. Dal lemma segue che se (3 è il birapporto di 4 punti distinti di una retta proiettiva P presi in un certo ordine, alloraj({3) non dipende dall'ordine in cui i punti sono stati scelti. Di conseguenza, per una quaterna non ordinata di punti distinti {P I, P 2, P 3, P 4} è ben definito j({3(P I, P 2 , P 3, P 4», che è detto modulo della quaterna (P I, P 2, P 3, P4} ed è denotato conj(PI , P 2, P 3, P 4). Si noti che, poiché (3(P I, P 2, P 3, P 4)EK, dall'espressione dij({3) e dal fatto che K è un campo segue che anchej(PI, P 2 , P 3 , P 4)EK.
{32({3 _1)2 che è definita per ogni {3EC\(O, l}. Si haj({3) =j({3'), {3, {3' EC\(O, l}, se e solo se {3' E{{3, 1/{3, 1- {3, 1/1- {3, ({3 -1)/{3, (3/({3 -l)}. Dimostrazione Si calcola facilmente che j({3) =j({3-I) =j(1- (3) =j(1/(1- (3» =j«{3 -1)/{3) =j({3/({3 -1).
D'altra parte, per ogni fissato {3EC\(O, l} si haj({3) =j({3') se e solo se q({3')=O
27.9 TEOREMA Due quaterne non ordinate di punti distinti {P I, P 2 , P 3, P4}, (QI' Q2' Q3' Q4} di una retta proiettiva P sono proiettivamente equivalenti se e solo se [27.12] Dimostrazione Se (P I, P 2, P 3, P 4} e (QI' Q2' Q3' Q4} sono proiettivamente equivalenti allora esiste fEPGL(P) tale che {f(P I), f(P 2), f(P3)' f(P 4)} = (QI' Q2' Q3' Q4}· Per
Geometria proiettiva
328
il teorema 27.7 si ha in tal caso: (3(P J, P z, P 3, P 4) = (3 (f(P 1) , f(PZ}, f(P 3), f(P 4»
»
e quindi j(P J, P z, P 3, P 4) = j(f(P 1), f(Pz), f(P 3), f(P4 = j(QJ' Qz, Q3' Q4)· Viceversa, se la [27.12] è verificata, allora, per il lemma 27.8 e per le [27.10], possiamo supporre, dopo. aver eventualmente permutato i punti Qi' che si abbia: (3(P J, P z, P 3, P 4) = (3(QJ' Qz, Q3' Q4)·
Dal teorema 27.7 segue che {Pl' P z, P 3, P 4 } e {QJ' Qz, Q3' Q4} sono proiettivamente equivalenti. Il teorema precedente risolve il problema di classificazione che ci eravamo posti: esso infatti afferma che le classi di equivalenza proiettiva di quaterne di punti distinti di una retta proiettiva sono in corrispondenza biunivoca con l'insieme dei valori assunti dal modulo, cioè sono classificate da tale insieme. Dalla dimostrazione del lemma 27.8 segue che in una retta proiettiva ci sono al più due classi di equivalenza proiettiva di quaterne di punti tali che tutti i loro possibili birapporti siano meno di 6; esse possono esistere in corrispondenza ai valori j(P J, P z, P 3, P 4) = 27/4, O. Il primo di tali valori viene assunto per (3 = -l, 2, 1/2, il secondo per (3 = - E, - é. Ovviamente, nel secondo caso una quaterna siffatta non può esistere se E r;. K, in particolare se K = R. Una quaterna [P J, P z, P 3,P4} di punti di P si dice armonica se j (P J, P z , P 3, P 4) = 27/4, e si dice equianarmonica se j(P J, P z, P 3, P 4) = O. Per informazioni sulle quaterne armoniche rinviamo il lettore a 27.10(5). 27.10 Complementi
l. Abbiamo visto come ad ognuna delle tre geometrie, l'affine, l'euclidea e la proiettiva, siano associati dei gruppi di trasformazioni: il gruppo Aff(A) per la geometria di uno spazio affine A, il gruppo Isom(E) per quella di uno spazio euclideo E, e il gruppo PGL(P) per la geometria di uno spazio proiettivo P. In corrispondenza a questi gruppi abbiamo introdotto delle relazioni di equivalenza tra figure geometriche. Due figure equivalenti possono essere considerate come due diversi rappresentanti di una stessa entità (la classe di equivalenza) nella geometria che si sta studiando e si può quindi affermare che la geometria (affine, euclidea o proiettiva) consiste dello studio delle proprietà delle figure che sono invarianti per equivalenza, cioè di quelle proprietà che una figura ha in comune con tutte quelle ad essa equivalenti. In questo modo il gruppo di trasformazioni dello spazio determina le proprietà geometriche che si vogliono studiare. Più in generale possiamo considerare un qualunque gruppo :§ di trasformazioni dello spazio e associare ad esso una "geometria", che definiremo come l'insieme delle proprietà e delle grandezze calcolate nello spazio che sono invarianti rispetto a tutte le trasformazioni del gruppo.
27/Cambiamenti di coordinate omogenee e proiettività
329
. Ad esempio, se si considera uno spazio euclideo E, il gruppo Aff(E) ne definisce la geometria affine, mentre Isom(E) è il gruppo della geometria euclidea di E. Un'altra geometria è quella definita dal gruppo Simil(E) delle similitudini. Nel caso in cui E è il piano o lo spazio ordinario, la geometria del gruppo Simil(E) coincide con la geometria euclidea elementare. Se ~ è un sottogruppo di ~ ogni proprietà (o quantità) invariante rispetto a :§ lo è anche rispetto a ~. Quindi quella di ~ è una geometria più "ricca", cioè in cui le figure hanno più proprietà, di quella di :§. Si pensi ad esempio a uno spazio euclideo E: il gruppo Isom(E) è un sottog~uppo di Aff(E), e ciò corrisponde al fatto che ogni proprietà affine di una figura geometrica di E è anche una proprietà euclidea. La stretta relazione esistente tra gruppi di trasformazioni e geometria fu messa in evidenza per la prima volta da F. Klein nel 1872, in una conferenza tenuta presso l'Università di Erlangen e rimasta famosa con il nome di "Programma di Erlangen". Per una discussione approfondita di quest'argomento si rimanda a [lO]. 2. Il gruppo PGLzé O. Ponendo f(- d/c) = 00
f
(00) = a/c,
e per z E C\ {- d/c} : f(z)
=
az + b cz+d
[27.14]
si definisce un'applicazione biunivocaf: C U {oo } --+ C U {oo}, chiamata trasformazione lineare fratta (TLF) o trasformazione di Moebius di parametri a, b, c, d. La biunivocità di f discende dal fatto che essa possiede l'inversa, data da
f
-J
_
(z) -
-dz-b cz + a
che è ancora una TLF. La composizione della [27.13] con un'altra TLF, g(z)
=
az+ (3 ')'z
+o
,
è ancora una TLF, perché si ha (aa + (3 c) Z + (ab + (3d) (g o f) (z) = - ' - - - - - - ' - - - - (l'a + oc) z + ')'b + od
330
Geometria proiettiva
e
(aa + (3c) (yb + od) - (ab + (3d) (/,a + oc)
= (ao -
(3/,) (ad - bc);é. O.
L'identità di C U {oo} è una TLF, ottenuta in corrispondenza a a = d = 1 b= c=O. ' Segue che le TLF costituiscono un gruppo di trasformazioni di C U {oo}. Si noti che questo gruppo non è abeliano. Infatti, considerando ad esempio fez) = lIz, h(z) = z + 1, si ha 1
f(h(z)) = z + 1
;é.
Z1 + 1 = h (f(z)).
Identificando C U {oo} con pl = Pl(C), una TLF può considerarsi come una trasformazione di p I in sé stesso. In coordinate omogenee la TLF [27.13] si esprime nel modo seguente:
f([xo, xd)
=
[cx I + dxo, aXI + bxo]
e quindi è la proiettività definita dalla matrice
27/Cambiamenti di coordinate omogenee e proiettività
cioè è un' affinità di C. Le affinità costituiscono un sottogruppo Affi (C) di PGL2(C) che si identifica al gruppo Simil + (E 2) (cfr. 20.10(2)). Dalla [27.15] discende che la [27.16] non ha altri poli oltre 00, cioè è parabolica, se e solo se a = l, cioè se è una tiaslazione. In caso contrario la [27.16] ha il polo b/(l- a). Otteniamo quindi che ogni similitudine diretta di E 2 diversa da una traslazione ha un punto fisso. Si osservi che ogni similitudine di E 2 trasforma rette in rette, perché è una particolare affinità. È anche facile vedere che una similitudine trasforma circonferenza in circonferenze. Infatti ciò è vero per le isometrie e per le omotetie, e quindi anche per le similitudini che, per definizione, sono composte di isometrie e omotetie. Viceversa non è difficile dimostrare che un'affinità di E 2 che trasforma rette in rette e circonferenze in circonferenze è una similitudine (per maggiori dettagli cfr. [5]). Per descrivere la geometria definita in C U {oo} dal gruppo di tutte le TLF sarà opportuno considerare circonferenze e rette di E 2 simultaneamente: un sottoinsieme di E 2 sarà detto cerchio di Moebius se è una retta oppure una circonferenza. Un cerchio di Moebius ha equazione della forma E(x 2 + y2)
Pertanto il gruppo delle TLF coincide con il gruppo PGLz{C) delle proiettività di Pl. Poiché numeratore e denominatore della [27.13] possono essere moltiplicati per ~n comu~e fattore di proporzionalità senza modificare la trasformazione f, ogm TLF puo essere scritta nella forma [27.13J con .
=
O.
[27.15]
Dunque una TLF diversa dall'identità ha almeno uno e al più due poli. Se ha un solo polo, f si dice parabolica. Quando c = O, cioè quando uno dei poli è (in questo caso si può supporre d = 1)
fez) = az + b,
00,
la [27.13] si riduce alla forma
[27.16]
. [27 .17]
con A, B, C, EE R tali che A2
+B 2
-
4EC>0.
La [27.17] rappresenta una retta oppure una circonferenza se E rispettivamente. Ponendo z = x + iy e utilizzando le identità
x=-2-'
[27.14]
Diremo f normalizzata se a, b, c, d soddisfano la condizione [27.14]. Osserviamo che la [27.14] individua a, b, c, d a meno di moltiplicazione per -1. .Le TLF si classificano per mezzo dei loro punti fissi, o poli, cioè dei punti Z talI che fez) = z. Dall'espressione della [27.13] segue che 00 è un polo se e solo se c = O. Gli altri eventuali poli si ottengono esplicitando la condizione f (z) = z e quindi sono gli zE C che soddisfano l'identità '
cz 2 + (d - a) Z - b
+ Ax + By + C = O
z+z
ad - bc = 1.
331
=
Ooppure E
;é.
O
z-z
y=-2-'
la [27.17] può essere riscritta nella forma equivalente: Ezz + A (z
+ z)12 + B(z - z)12 + C = O.
[27.18]
La TLF
fez) = lIz è chiamata inversione. Si ha f ( 00 ) = O, f (O) = 00 e f = f-l. Sostituendo 11z al posto di z nella [27.18] e razionalizzando otteniamo Czz + A (z
+ z)12 - B(z - z)12 + E = O.
Questa è l'equazione dell'immagine del cerchio di Moebius [27.18] tramitef, e rappresenta una circonferenza eccetto quando C = O, nel qual caso è una retta: ciò avviene precisamente se la [27.18] è un cerchio di Moebius passante per l'origine. Vediamo quindi che l'inversione trasforma cerchi di Moebius in cerchi di Moebius.
332
Geometria proiettiva
Passiamo ora a considerare una TLF [27.13] qualsiasi. Essa può anche essere espressa nella forma
f(z)
= .!!..- + bc - ad c(cz+ d)
c Ponendo
= cz+d Zz = llzl Zl
a
Z3=C+
bc-ad c Zz
27/Cambiamenti di coordinate omogenee e proiettività
333
con uu + vv = 1, e che ogni elemento di SO (3) proviene da una TLF di questa forma. Pertanto SO(3) è isomorfo al sottogruppo di PGLz(C) costituito dalle TLF [27.19]. La geometria della sfera 8 2 definita dal gruppo SO (3) coincide quindi con la geometria di C U {oo} definita dal gruppo delle [27.19]. Essa costituisce un modello di geometria non euclidea chiamata geometria ellittica. I due numeri complessi u, v che appaiono nella [27.19] si dicono parametri di Cayley-Klein della rotazione R; essi sono individuati da R solo a meno di moltiplicazione per - 1. Per ulteriori dettagli sulla geometria del gruppo PGLz(C) e dei suoi sottogruppi rinviamo il lettore a [4], [5], [6], [7], [12], [13], [14]. 3. Sia assegnata un'affinità di An(K):
abbiamo
TB,c(x) = c + Bx,
cioèf(z) è la composizione di un'affinità con l'inversione seguita da un'altra affinità. Poiché l'inversione e le affinità trasformano cerchi di Moebius in cerchi di Moebius, deduciamo che ogni TLF trasforma cerchi di Moebius in cerchi di Moebius. PGLz(C) possiede diversi sottogruppi notevoli dal punto di vista geometrico, che hanno la proprietà di trasformare in sé regioni particolari del piano. Ad esempio il sottogruppo PGLz(R) di PGLz(C), che consiste delle TLF [27.13] in cui a, b, c, dE R, trasforma R U {oo} in sé stesso, perché è il gruppo delle proiettività di p 1 (R). Consideriamo il sottogruppo PGLz+(R), costituito dalle fE PGLiR) tali che ad - bc> O. Moltiplicando numeratore e denominatore per (ad - bc) -112, si può normalizzare f(z) in modo che si abbia ad - bc = 1. Si calcola facilmente che si ha (denotando con Im(u) la parte immaginaria di un numero complesso u): Im(f(z» = Im(z)
e quindi il gruppo PGLz(R) trasforma in sé il semipiano h
= (ZE C:
Im(z)
> O},
e ne costituisce un gruppo di trasformazioni. La geometria definita in h da PGLz(R) è un modello di "geometria non euclidea" nota come geometria iperbolica. Identificando C U {oo} con la sfera di Riemann per mezzo della proiezione stereografica, le TLF si identificano con trasformazioni di 8 z, che in alcuni casi sono rotazioni. Si dimostra che una TLF corrisponde a un elemento R ESO (3) , se e solo se è della forma normalizzata
uz+ v f(z)=---
-vz+ u
[27.19]
dove c = t(c l ... Cn)E Kn, B = (bjk ) EGLn(K). Consideriamo l'applicazione di passaggio a coordinate omogenee:
jo:
An~.pn\Ho·
Poniamo x' = t(l
XI'"
xn), y' = t(l YI '" Yn)' e sia
1
O
O
CI
bu
b ln
A=
EGLn+I(K).
cn bnl
bnn
Si ha y' =Ax'.
La proiettivitàf: pn ~ pn definita dalla matrice A trasforma in sé stessi Ho e pn\Ho' Ciò segue subito dalla forma di A. È anche immediato verificare che l'affinità TB c coincide con la restrizione di fad An, cioè conjo-Iofojo. Vediamo quindi che il gruppo Affn(K) può considerarsi come un sottogruppo di PGL n+I(K), precisamente quello rappresentato dalle matrici A della forma detta sopra. 4. SefEPGL(P(V» è una proiettività, indotta da ipEGL(V), i punti fissi di f, cioè i punti PE P tali chef(P) = P, sono tutti e soli quelli della forma P = [v], dove v EV è un autovettore di ip. L'esistenza di autovettori di ip è quindi equivalente all'esistenza di punti fissi dif. Deduciamo che se P è uno spazio proiettivo complesso, ogni proiettività di P possiede almeno un punto fisso. Similmente, se P è uno spazio proiettivo reale di dimensione pari, ogni proiettività di P possiede almeno un punto fisso. Quest'ultima affermazione segue dal fatto che un opera-
Geometria proiettiva
334
27/Cambiamenti di coordinate omogenee e proiettività
335
tore di uno spazio vettoriale reale di dimensione dispari possiede almeno un autovettore (cfr. 13.15(1)). Una proiettività di uno spazio proiettivo reale di dimensione dispari può non avere punti fissi. Un esempio è dato dalla seguente proiettività f: P I (R) --+ p I (R): f([x o,
XI])
= [- XI'
x o]·
5. Siano P I, P z, P 3, P 4 punti distinti di una retta proiettiva P. La quaterna ordinata (P I, P z, P 3, P 4) è detta armonica se
In tal caso i punti P 3, P 4 si dicono coniugati armonici rispetto aPI' P z. Dalle [27.10] segue che anche P I, P z sono coniugati armonici rispetto a P 3, P 4. Se i punti di una quaterna armonica vengono permutati in tutti i modi possibili, i valori assunti dal birapporto sono solo tre, e precisamente - 1, 112, 2. Ciò segue subito dalle espressioni [27.10] di tali birapporti. Si ha inoltre in tal caso j(P I, P z, P 3, P 4) = 27/4.
Se P z è il baricentro dei punti P I e P 3 nella retta affine P\ {P4J (il punto medio del segmento P I P 3 se K = R), è possibile scegliere il riferimento in modo che P I =Pdl, O], P 4 =P4[0, 1], P 3 =P3[1, 1], P z =Pz [2, 1], e quindi (3(P I, P 4, P 3, P z) = 112,
da cui si deduce che
Figura 27.1
La configurazione di rette che abbiamo appena descritto è detta quadri/atero completo.
Esercizi 1. Determinare la formula y = Ax del cambiamento di coordinate dal riferimento standard di p 2 (R) al riferimento individuato dai punti Po, P" P 2, M in ciascuno dei casi seguenti: a) P o = [1,1, -1],P I = [2,1, O], P 2 = [0,1,1], M= [1,1, O]
" e quindi P I, P z, P 3, P 4 è una quaterna armonica. Un altro modo di costruire quaterne armoniche è il seguente. Sia P un piano proiettivo, e siano 01' 0z, 03' 04 punti a tre a tre non allineati. Siano P I = L(OI' Oz} n L(03' 04)' P z = L(OI' 04) n L (Oz, 03) e sia t- = L (PI, Pz}. Consideriamo i punti di t-
b) P o = [1, -1, O], P, = [O, 1, 1], P 2 = [2, O, 1], M = [1, 2, 2] c) P o =[I, 1, I],PI=[1'0'I],P2=[I,
~
,OlM=[4,2,2].
2. Determinare la proiettività f di p' (R) che soddisfa le condizioni seguenti: f([I, 1]) = [1, -1],
f([2, O]) = [1, 1],
f([I, -1]) = [2, 1].
3. Determinare la proiettività f di p2(R) che soddisfa le condizioni seguenti:
Allora P I, P z, P 3, P 4 è una quaterna armonica su t- (fig. 27.1). Per dimostrarlo fissiamo in P coordinate omogenee in modo che 01' 0z, 0 3 siano i punti fondamentali e 04 il punto unità. Si calcola subito chePI = P I [1,1, O], P z = Pz[O, 1, 1], P 3 = P 3[1, 2, 1], P 4 = P 4[1, 0, -1]. Poiché si ha (1, 2, 1) = (1, 1, O) (1, 0, -1)
otteniamo
= (1,
+ (O, 1, 1)
1, O) - (O, 1, 1),
f(t-)=t-',
f(~)=~',
f([1,2,1]=[1,0,0],dove:
t-': X o + Xl = O,
t-: X o - XI = 0,
~:
X o + Xl
+ X 2 = O,
~':
XI
+ X 2 = O.
4. Determinare i punti fissi delle seguenti proiettività di P"(R):
+ 15x, + 6X2, - 2xo + 8XI + 2X2,4xo -18xI - 5 X2]) [xo - XI' Xo + 3XI, 2X2].
a) f([xo, X" X2]) = [- Xo
b) f([xo, X" X2])
=
5. Dimostrare la seguente identità: (3(P" P 2, U, V) (3(P2, P 3 , U, V) (3(P3 , P" U, V)
= l
dove Pt> P 2 , P 3 , U, V sono punti distinti di una retta proiettiva P.
Geometria proiettiva
336
6. Dimostrare che le seguenti TLF:
z,
1-
z
z,
, l-z
Capitolo 4 z-l
z
z
z-l
costituiscono un sottogruppo di PGL2 (C), isomorfo a
Curve algebriche piane (J3.
28 Generalità
Uno dei concetti primitivi della nostra intuizione spaziale è quello di linea, o curva, piana. Già i geometri dell'antica Grecia consideravano curve piane particolari, ottenute come "luoghi geometrici"; ad esempio la circonferenza come luogo dei punti equidistanti dal centro. Per questa via furono studiate diverse curve, in modo spesso ingegnoso. La nozione stessa di curva ha subito un'evoluzione. Inizialmente, ad esempio nella scuola pitagorica (sec. VI a.C.), una curva era definita in modo empirico come aggregato di piccoli corpuscoli. Successivamente, con Platone e Aristotele, tale definizione lasciò il posto ad altre, ad esempio a quella di luogo descritto da un punto che si muove in un piano. Ancora nel secolo XVIII veniva chiamata "curva piana" qualsiasi linea che si potesse tracciare con un tratto di penna. Tali definizioni sono prive di significato per la matematica di oggi; d'altra parte, alla definizione rigorosa si è giunti solo attraverso approssimazioni successive, di cui le precedenti sono esempi. Questa evoluzione è avvenuta di pari passo all'accrescersi delle nostre conoscenze sulle curve. Per uno studio il più generale possibile occorrerebbe considerare curve definite in un piano euclideo, o in un piano affine O proiettivo sul campo K. Tuttavia, per semplicità, considereremo solo i piani numerici A2(K), E 2, P2(K), ai quali d'altra parte è sempre possibile ricondursi mediante la scelta di un sistema di coordinate; l'estensione al caso generale è trattata nei complementi (cfr. 28.4(1)). La definizione intuitiva di "luogo generato da un punto mobile" corrisponde a quella di curva definita in A2 (K) da equazioni parametriche, come luogo dei punti P(x, y) di coordinate x = a(t),
22
y
= (3(t),
338
Curve algebriche piane
dove
f(X, Y)=O
[28.1]
si dice equazione della curva, oppure equazione che definisce la curva. Il sottoinsieme :ife AZ(K) costituito dai punti le cui coordinate soddisfano l'equazione [28.1] è il supporto della curva. Il grado di f(X, Y) si dice grado della curva. Le curve algebriche di AZ(K) di grado 1, 2, 3, 4, ... si chiamano rette, coniche, cubiche, quartiche ecc. Se K = R e si considera E Z al posto di AZ(R) si ottiene la definizione di curva algebrica di E Z • Per semplicità spesso si denoterà la curva algebrica di equazione [28.1] ed avente supporto :if semplicemente con la lettera .5ff, sottintendendo che un'equazione della curva sia stata assegnata. Parleremo quindi di :if come della curva di AZ(K) (o di E Z) definita dal polinomio f(X, Y), o dall'equazione [28.1]. Denoteremo con gr ( :if) il grado di .51La definizione di curva algebrica di pZ(K) si dà in modo simile, ma richiede un commento preliminare. Consideriamo il piano proiettivo pZ(K). Se f (Xo, Xl' Xz) è un polinomio a coefficienti in K, non ha senso dire che le coordinate omogenee di un punto soddisfano l'equazione
perché in generale, assegnati x o' Xl'· Xz E K non tutti e tre nulli, e À ~ O in K, può accadere che si abbia f(x o, Xl' xz} = O e f(Àx o, ÀXI , ÀXz) ~ O. Se ad esempio f(Xo, Xl> Xz) = X o + 1, si ha f( -1, O, O) = O e f(l,O, O) = 2. Ciò non si verifica se il polinomio che si considera è omogeneo. Infatti, se F(Xo, Xl' Xz)E K[Xo, Xl' Xz] è omogeneo di grado n, allora, per ogni x o' Xl'
28/Generalità
Xz E K,
À E K*,
F(Àxo,
339
si ha Àxl ,
ÀXz) =
À n F(xo,
Xl' XZ)
(cfr. A.12(l» da cui si vede che il primo membro si annulla se e solo se si annulla il secondo. Ha dunque senso dire che le coordinate omogenee di un punto PE pZ(K) annullano il polinomio omogeneo F(Xo, Xl' Xz). Per questo motivo nel definire curve piane proiettive utilizzeremo solo polinomi omogenei. Due polinomi omogenei non costanti F(Xo, Xl' Xz}, G(Xo, Xl' Xz}E K[Xo, Xl' Xz] si dicono proporzionali se esiste
si dice equazione della curva, ovvero equazione che definisce la curva. Il sottoinsieme :if C pZ(K) costituito dai punti le cui coordinate soddisfano la [28.2] è il supporto della curva. Il grado di F si dice grado della curva. Come nel caso affine, una curva algebrica di pZ(K) è individuata da una sua equazione; spesso denoteremo semplicemente con :if la curva individuata dalla [28.2] e avente supporto uguale a .5ff, sottintendendo che una sua equazione sia stata assegnata; il grado di :if si denoterà con gr(:if). Una curva algebrica definita in AZ(K) (rispettivamente, in E Z; in PZ(K» è detta affine (euclidea; proiettiva). Le definizioni 28.1 e 28.2, associando strettamente una curva alla sua equazione, permettono di mantenere un legame tra l'algebra e la geometria, che si perderebbe se si definisse una curva semplicemente come un sottoinsieme di AZ(K), E Z o PZ(K), identificandola con il suo supporto. Consideriamo ad esempio una retta affine ~ di equazione
AX+BY+C=O. La
~
[28.3]
ha lo stesso supporto della curva piana definita dall'equazione
(AX +BY + Ct= O
[28.4]
per un qualsiasi n ~ 2, perché la [28.3] e la [28.4] hanno le stesse soluzioni. Ma la [28.3] e la [28.4] definiscono due diverse curve, di gradi 1 e n rispettivamente. Consideriamo un altro esempio. Per ogni numero reale c> O, l'equazione [28.5]
non ha soluzioni reali, e quindi definisce in AZ(R) una curva che ha per supporto l'insieme vuoto. Due diversi valori di c> Odefiniscono due curve aventi lo stesso
340
Curve algebriche piane
supporto 0, e tuttavia diverse perché i corrispondenti polinomi non sono proporzionali. In questo esempio la curva ha un contenuto esclusivamente algebrico, in quanto il suo supporto è vuoto. L'equazione
341
28/Generalità
allora si ha g(b ll X
+ b l2 Y + di' b 21 X + bzzY + dz} =f(X, Y)
[28.9]
e quindi
[28.6]
[28.10]
definisce invece una curva di A2 (R) il cui supporto è ridotto al solo punto {(O, O) l. Questo esempio, come il precedente, è molto lontano dal concetto intuitivo di curva da cui eravamo partiti. Il fenomeno che si presenta con gli esempi [28.5] e [28.6] dipende dalle proprietà algebriche di R, e precisamente dal fatto che R non è algebricamente chiuso. Il problema non si presenterebbe se invece di A 2 (R) si stesse considerando A2 (C): le equazioni [28.5] e [28.6] possiedono infinite soluzioni in A2 (C), proprio perché C è algebricamente chiuso. Più in generale, lo studio delle curve algebriche in un piano affine A2 (I<) è più naturale e facile nel caso in cui K è algebricamente chiuso perché situazioni particolari come quelle illustrate dagli esempi [28.5] e [28.6] non si presentano. Faremo pertanto questa ipotesi nell'affrontare lo studio di proprietà generali delle curve algebriche piane. Faremo poi vedere come sia possibile analizzare le proprietà delle curve di A2 (R) e E 2 considerandone i "punti complessi" (cfr. § 29). Studieremo inoltre la teoria classica delle coniche reali sia dal punto di vista affine che da quello euclideo. Nell'insieme delle curve algebriche affini (euclidee; proiettive) si introduce la nozione di equivalenza affine (di congruenza; di equivalenza proiettiva). Poiché una curva non si riduce al suo supporto, cioè non è un sottoinsieme del piano, ma è definita da un'equazione, l'equivalenza va definita in relazione alle equazioni delle curve. Vediamo in che modo, cominciando dal caso affine. Consideriamo un'affinità T: A2 (K) ---+ A2 (K) definita da
ClOe 'ff è la trasformata di f3J tramite T. Dall'identità [28.7] si deduce immediatamente che, se P(x, y) E f3J, cioè se (x, y) è soluzione della [28.7], allora T(P) E 5f!. Viceversa, dalla [28.9] segue che per ogni QE 'ff si ha T-I(Q)E f3J. Quindi le relazioni [28.8] e [28.10] sono verificate dai supporti di 'ff e di f3J, e in particolare i supporti di 'ff e di f3J sono affinemente equivalenti. Consideriamo una proiettività T: pZ(K) ---+ PZ(K) definita da
X 2 + y 2 =0,
T(x, y)
= (a ll x + a 12 y + cl'
azlx + az2 y
= O
dove g(X, Y) = f(a ll X
è detta trasformata di
+ a 12 Y + CI' azlX + aZ2 Y + cz)
'ff
tramite T
-I,
[28.7]
e si denota con [28.8]
Se l'affinità inversa di T è T-I(x, y)
= (b ll x + b 12 y + di'
bzlx + bzzy + dz)
e sia
= [aooxo + aolxl + aozxz,
alOxO + a ll x I + a 12 x Z' azoxo + azlxl + + azzxz],
'ff la curva di PZ(K) di equazione [28.2]. La curva f3J di equazione
si dice trasformata di
'ff
tramite T
-I.
Scriveremo
Come nel caso affine, si verifica che
'ff =
T(
f3J)
e le stesse relazioni sono soddisfatte dai supporti di
'ff e di f3J.
28.3 DEFINIZIONE Sia 'ff una curva di AZ(K) (di E 2; di PZ(K)). Una curva § si dice affinemente equivalente (congruente; proiettivamente equivalente) a 'ff se esiste un 'affinità (un 'isometria; una proiettività) T tale che 'ff = T( f3J).
+ Cz),
e sia 'ff la curva di A2 (K) di equazione [28.1]. La curva f3J di equazione g(X, Y)
T([xo, XI' x 2])
Nell'insieme di tutte le curve affini (euclidee; proiettive) quella che abbiamo introdotto è effettivamente una relazione di equivalenza. La verifica si fa nel modo usuale, ed è lasciata al lettore. Dalle osservazioni che precedono la definizione si deduce che i supporti di due curve affinementeequivalenti (congruenti; proiettivamente equivalenti) sono essi stessi affinemente equivalenti (congruenti; proiettivamente equivalenti). Nello studio delle curve algebriche piane affini (euclidee; proiettive) è naturale considerare le proprietà che una curva ha in comune con tutte quelle ad essa affinemente equivalenti (congruenti; proiettivamente equivalenti). Esse vengono denominate proprietà affini (euclidee; proiettive).
342
Curve algebriche piane
Ad esempio il grado di una curva è una proprietà affine (euclidea; proiettiva) cioè due curve affini (euclidee, proiettive) equivalenti hanno lo stesso grado. Supponiamo assegnata una curva Jt di A 2(K) avente equazione [28.1]. Per denotare l'operazione di passaggio da Jt a una curva .;;g affinemente equi~a lente a Jt è spesso conveniente considerare il cambiamento di variabili:
x = ali Y' + a l2 Y' + Cl
[28.11]
Y= a21 X' + a22 X' + C2
corrispondente all'affinità T considerata, in cui X' e Y' sono nuove indeterminate, ed effettuare la sostituzione [28.11] nel polinomio f. Si otterrà il polinomio g(X', Y')
= f(aIlX' + 'a l2 Y' + Cl'
a21 X' + a22 Y' + C2)
e l'equazione g(X', Y')
=O
è un'equazione di ;;g = T- l ( Jt) nelle nuove indeterminate X', Y'. Ponendo A = (aij), c = t(cl c2 ), X' = t(X' Y') scriveremo anche g(X') =f(AX'
+ c).
Considerazioni simili possono essere fatte nel caso proiettivo. Uno dei problemi più importanti che si pongono nello studio delle curve algebriche è quello della classificazione, in breve il problema di catalogare la totalità delle curve in un modo conveniente che tenga conto delle loro proprietà geometriche. A tal fine è utile la nozione di equivalenza di due curve rispetto alle trasformazioni del piano in cui sono definite, introdotta nella definizione 28.3. Infatti è naturale cercare di classificare le curve a meno di equivalenza, individuando le classi di equivalenza mediante loro particolari rappresentanti. Ciò conduce alla ricerca di una lista di cosiddette forme canoniche delle curve di dato grado, cioè una lista di curve particolari, che abbiano equazione abbastanza semplice, nelle quali ogni altra curva possa essere trasformata per mezzo di affinità, o isometrie o proiettività. Ad esempio, esiste una sola classe di equivalenza affine di rette, perché ogni retta di A 2(K) può essere trasformata in ogni altra. In questo caso il problema della classificazione è banale: ogni retta è equivalente, ad esempio, alla retta di equazione X = O. Lo stesso è ovviamente vero nel caso euclideo e in quello prùiettivo. Le coniche si possono classificare in modo completo, anche se meno banalmente, e ciò verrà fatto nei paragrafi 30 e 31. Naturalmente la lista delle forme canoniche sarà diversa a seconda che si stia consideràndo il problema nel caso affine, o euclideo, o proiettivo.
28/Generalità
343
Per le curve di grado superiore a due il problema è ben più difficile, anche perché il punto di vista della riduzione in forma canonica mediante trasformazioni non conduce a una classificazione soddisfacente. Già per curve euclidee di grado tre tale riduzione è piuttosto complicata, e le· difficoltà aumentano notevolmente con l'aumentare del grado. Nei casi affine e proiettivo la situazione non è molto migliore (fanno eccezione le cubiche proiettive, della cui classificazione ci occuperemo nel § 36). Questa circostanza impone un approccio totalmente diverso alla classificazione delle curve piane, che viene trattato in corsi più avanzati. In modo simile a come si è fatto per le rette nel paragrafo 25, è possibile definire la "chiusura proiettiva" di una curva affine o euclidea. Sarà sufficiente considerare il solo caso affine perchè quello euclideo rientra in questo come caso particolare. La chiusura proiettiva della curva Jt di A2(K) di equazione [28.1] è la curva algebrica Jt* C P2(K) definita dall'equazione [28.2], dove F(Xo, Xl' Xz) è il polinomio omogeneizzato di f(X, Y). Le curve Jt e Jt* hanno lo stesso grado. Segue dalla definizione che per ogni punto P (x, y) E Jt il punto jo(P) = = [1, x, y] Ep2 appartiene a Jt* e che ogni punto di Jt* n p2\Ho è immagine tramite jo di un punto di Jt. I punti di Jt * n Ho si dicono punti impropri di Jt rispetto a x o: sono i punti [O, xl> x 2] le cui coordinate omogenee soddisfano l'equazione
Scrivendo f(X, Y)
=
Fo + FI(X, Y) + ... + Fn_I(X, Y) + Fn(X, Y),
dove Fk(X, Y) EK [X, Y] è omogeneo di grado k, otteniamo F(Xo, Xl' X 2) = FOX; + FI(XI, X2)X;~1 + Fn(XI, X 2)·
+ ... + Fn-I(XI, Xz)XO+
Allora F(O, Xl' X 2) = Fn(XI, X 2),
e quindi le coordinate [O, Xl' X2] dei punti impropri di banali dell'equazione
Jt sono
le soluzioni non
dove Fn(X, Y) è il polinomio omogeneo costituito dai monomi di grado massimo dif(X, Y). Viceversa, supponiamo data una curva Jt dip2(K) di equazione [28.2], dove F(Xo, Xl' X 2)EK[Xo, Xl' X 2] è un polinomio omogeneo non costante. La curva
344
Curve algebriche piane
28/Generalità
Sff* di AZ(K) di equazione [28.1], dovef(X, Y) è il polinomio deomogeneizzato di F, ha per supporto Sff n (pz\Ho)' Le due curve Sff e Sff* hanno lo stesso grado se e solo se X o non divide F. Se X~ divide F, ma non lo divide X~+I, allora gr(Sff*) = gr(Sff*) - r. Una curva affine Sff c A2(K) è simmetrica rispetto a un punto C (detto centro di simmetria, o semplicemente centro, della curva) se Sff = T(Sff), dove T: AZ --+ AZ è la simmetria di centro C (cfr. 14.6(4)). Se C = (O, O), la simmetria T corrisponde al cambiamento di variabili X=-X' Y=- Y'.
28.4 Complementi
1. Il concetto di curva algebrica piana può introdursi in un qualunque piano affine, euclideo o proiettivo. Sia A un piano affine su K (rispettivamente, un piano euclideo). Consideriamo l'insieme ..5f! i cui elementi sono le coppie (Oe l ez, f (X, Y)), dove Oel ez è un riferimento affine (un riferimento cartesiano), ed f(X, Y) E E K[X, Y] è un polinomio non costante. Due elementi (Oe l ez,j(X, Y)), (O' e{ e~, g(X, Y)) di ..5f! sono equivalenti se g(X, Y)
Ne consegue che se Sffha equazionef(X, Y) = 0, allora Sff è simmetrica rispetto a (O, O) se e solo sef(- X, - Y) = è un'equazione di 5d: È immediato verificare che ciò equivale alla condizione che tutti i monomi di f abbiano grado pari. Più in generale, se C = (xo, Yo) la condizione di simmetria è che
°
sia un'equazione di 5d: Una curva euclidea Sff C E Z è simmetrica rispetto a una retta ~,denominata asse di simmetria di -tf. se Sff = T(Sff), dove T: E Z --+ E Z è la simmetria di asse ~ (cfr. esempio 20.10(4)). Supponiamo che ~ contenga l'origine, e abbia equazione
Normalizzando quest'equazione in modo che si abbia a Z + b Z = 1, la simmetria T è data dal cambiamento di variabili X=(1-2a Z)X' -2abY' Y = - 2abX' + (1 - 2b z) Y'.
Se Sff ha equazione f (X, Y) = 0, la simmetria di Sff rispetto a ~ si esprime con la condizione che
=
°
sia ancora un'equazione di 5d: In particolare la condizione che Sff sia simmetrica rispetto all'asse X = b = O) è che
°
(a
=
1,
°
sia ancora un'equazione di 5&; ciò equivale alla condizione che in tutti i monomi di f la variabile X appaia con grado pari. Similmente, Sff è simmetrica rispetto all'asse Y = se e solo se in tutti monomi di f la Y ha grado pari.
°
Olf(allX + a lz Y + CI' azlX + aZZ Y + Cz),
per qualche Ol "t. 0, essendo
+ alzY' + CI Y = aZI x' + azzy' + Cz x
= ali x'
Oe1e Z' È una conseguenza delle proprietà dei cambiamenti di coordinate affini (di coordinate cartesiane) il fatto che in questo modo si è definita una relazione di equiva-
lenza tra gli elementi di 51:. Una classe di equivalenza in ..5f! è una curva algebrica di A. Diremo che la curva algebrica rappresentata dalla coppia (Oelez, f(X, Y)) ha equazione
aX+ bY=O.
f(-X, Y) =
=
le formule di cambiamento di coordinate dal riferimento O' e{ e~ al riferimento
f(2x o -X, 2yo- Y)=O
f«(1- 2a Z) X' - 2abY', - 2abX' + (1- 2b Z) Y')
345
f(X, Y)
=
°
[28.12]
nel riferimento Oel ez. Il grado di una sua qualunque equazione è il grado della curva, e l'insieme Sff dei punti le cui coordinate nel riferimento Oe l ez soddisfano la [28.12] è il suo supporto. Dalla definizione segue che una curva algebrica in A è individuata da una sua equazione in un dato riferimento. Consideriamo ora il caso proiettivo. Sia P = P (V) un piano proiettivo, dove V è uno spazio vettoriale di dimensione 3 sul campo K. Consideriamo l'insieme Y i cui elementi sono le coppie (eoe l ez, F(Xo, XI' Xz)), costituite da un sistema di coordinate omogenee eoe l e z e da un polinomio omogeneo non costante F(Xo, Xl> Xz) di K[Xo, XI' Xz]· Due elementi (eo e l ez' F(Xo, XI' Xz)), (e~ e{ e~, G(Xo, XI' Xz)) di Y si dicono equivalenti se G(Xo, XI' Xz)
=
OlF(aooXo + aolXI + aozXz, alOXO + allXI + a 12 X Z' azoXo + aZI XI + azzXz)
dove Ol EK* e A = (ai}) definisce il cambiamento di coordinate dal sistema e~ e{ e~
346
Curve algebriche piane
al sistema eoel e2. Segue dalle proprietà dei cambiamenti di coordinate omogenee che la relazione così definita è una relazione di equivalenza in Y Una classe di equivalenza in Y è una curva algebrica di P. L'equazione [28.13] è una equazione della curva algebrica rappresentata dalla coppia (eoe l e2, F(Xo, Xl' X 2» e l'insieme :t! dei punti le cui coordinate omogenee nel riferimento eOel e2 soddisfano la [28.13] è il suo supporto. Il grado di una sua qualunque equazione è detto grado della curva.
2. Sia :t! C A 2 (K) la curva piana di equazione f(X, Y) A = (ai) EGLiK), c = l(C I c2), X' = l(X' Y'). L'equazione f(AX' + c) =
°
= 0,
e siano [28.14]
può interpretarsi in due modi. Per la definizione 28.3, la [28.14] può essere considerata come l'equazione di una curva piana gJ affinemente equivalente a .et; e precisamente :t! = TA,c( gJ). D'altra parte possiamo interpretare la sostituzione X=AX'+c come un cambiamento di coordinate affini, e quindi, per quanto visto in (1), l~ [28.14] può anche vedersi come un' equazione della stessa curva :t! in un nuovo riferimento. Un'osservazione del tutto simile può farsi per curve euclidee o proiettive. 3. Una generalizzazione naturale della nozione di curva algebrica piana è quella
di "ipersuperficie algebrica" di An(K), E n o pn(K). Un'ipersuperficie algebrica di N(K) è una classe di proporzionalità di polinomi non costanti di K[XIl ... , X n]. Sef(XI , ... , Xn)E K[XI , ... , X n ] è un polinomio non costante, l'equazione [28.15]
è un'equazione del!'ipersuperficie rappresentata daf, e il suo grado è detto grado del!'ipersuperficie. Il supporto del!'ipersuperficie di equazione [28.15] è l'insieme q costituito dai punti PEAn le cui coordinate sono soluzioni della [28.15]. In modo simile si definisce un'ipersuperficie algebrica di En. Un'ipersuperficie algebrica di pn(K) è una classe di proporzionalità di polinomi omogenei non costanti di K[Xo, XI> ... , X n]. Le nozioni di equazione, grado, supporto si danno in modo del tutto analogo al caso delle curve piane. Si osservi che questa definizione di ipersuperficie algebrica di pn è equivalente a quella che abbiamo dato nell'esempio 24.5(5). Un'ipersuperficie di A 3, E 3 o p3 è detta superficie, rispettivamente affine, euclidea o proiettiva.
347
291Curve algebriche reali
Un'ipersuperficie di supporto q viene di solito denotata con la lettera ~ restando con ciò' sottinteso che una sua equazione è stata assegnata. Un'ipersuperficie di grado l è un iperpiano, e se ha grado 2,3, ... , si dice quadrica, cubica ecc. Il lettore non avrà difficoltà a estendere al caso delle ipersuperfici algebriche le definizioni di equivalenza affine, congruenza e equivalenza proiettiva.
Esercizi 1. Determinare chiusura proiettiva e punti impropri delle curve di A 2 (C) di equazioni seguenti: a) X
+ 2y2 - 1= O
c) 3Y+XY+Xy2=O
b)X 2 y 2 -1=O d) X 2Y - Xy 2 + X 2 - Y
=
O.
2
2. Stabilire quali delle seguenti curve di E sono simmetriche rispetto all'origine o rispetto agli assi coordinati: b) X+ Y+XY=O a) XY + y 2 - Y = O c) 1 + X 2 + y2 = O. 3. Dimostrare che se f (X, Y) ER[X, Yj soddisfa f (X, Y) = f (Y, X), allora la curva :.t: C E 2 di equazione f(X, Y) = O è simmetrica rispetto alla retta di equazione X- Y=o.
29 Curve algebriche reali
Nel paragrafo 28 abbiamo considerato semplici esempi di curve di A 2 (R) il cui supporto è ridotto a un solo punto, o addirittura è 0. Questi esempi dipendono dal fatto che R non è algebricamente chiuso; essi non si presentano per curve piane complesse. Precisamente, consideriamo in A 2(C) una curva algebrica :t! di equazione
f(X, Y)
=
O.
[29.1]
e supponiamo che il polinomio f (X, Y) abbia grado m ;::: l nella variabile Y, cioè si scriva nella forma
f(X, Y) =fo(X) + fl(X) Y + ... + fm(X) ym con.fo(X),fI(X), ... ,fm(X)EC[X]. Nel caso in cuif(X, Y) sia costante rispetto a Y scambieremo la X con la Y nelle considerazioni che seguono. Sia L1 il sottoinsieme finito di C costituito dalle radici di fm (X). Per ogni xE C\L1 il polinomio in Y [29.2] f(x, Y) = fo(x) + fl (x) Y + ... + fm(x) y m
348
Curve algebriche piane
ha grado m e quindi, per il teorema fondamentale dell'algebra,possiede m radici Y] (x), ... , ym(x), non necessariamente distinte. I punti (x, Y] (x)), (x, Y2(X)), '" ... , (x, Ym(x)) di A 2 (C) appartengono alla curva 5ff. Al variare di xEC\.1 si ottengono così tutti i punti di ~ con l'eccezione, al più, di un numero finito di punti, corrispondenti alle radici dei polinomij(x, Y) per XE.1, che non abbiamo
considerato. Poiché x, variando in C\.1, descrive un ente a due dimensioni reali, anche la curva y; è, dal punto di vista reale, un ente a due dimensioni. In particolare deduciamo che il supporto di una curva affine complessa contiene infiniti punti. Un ragionamento simile porta a dimostrare che anche il supporto di una curva proiettiva complessa contiene infiniti punti. Supponiamo infatti che la curva y; di p2(C) abbia equazione
F(Xo, X]' X 2)
=
29/Curve algebriche reali
349
a coefficienti non reali; tuttavia, perché la curva sia reale deve esistere un polino_ mio a coefficienti reali che la definisce. Per definizione, una curva Y; è reale se e solo se Y; = Y; . Poiché C 2 è anche uno spaziovettoriale reale dì dimensione 4, il -piano affine complesso A 2 (C) può essere considerato come uno spazio affine reale di dimensione 4. Per ogni punto P(x' + ix", y' + iY")EA 2 (C), (x', x", y', y") è la quatema delle coordinate reali di P nel riferimento affine reale di A 2 (C) avente come origine O e come base dei vettori {(I, O), (i, O), (O, l), (O, i) l·
A 2 (R) è un sottospazio affine reale di A 2 (C) avente equazioni
O.
Se si suppone che il supporto di y; non si riduca alla retta X o = 0, nel qual caso essa ha infiniti punti, passando a coordinate non omogenee si trova che il sup~ porto di Y; contiene quello della curva affine di equazione F(l, X, Y) = 0,
il quale, per quanto appena visto, contiene infiniti punti.
iX + iY + 1=0 Una curva algebrica Y; di A 2 (C) si dice reale se può essere definita da un'equazione 29.1
DEFINIZIONE
f(X, Y) =0,
[29.3]
dovef(X, Y)ER[X, Y]. Se Y; è una curva di A 2 (C), di equazione
[29.4]
non ha punti reali, mentre la retta
iX + Y + l
=
°
[29.5]
possiede l'unico punto reale (O, -1). Nessuna delle due è una retta reale. Invece
iX + iY + i=O
f(X, Y) =0 con f (X, Y) E C [X, Y], la curva Y; di equazione f(X, Y)
=
0,
dove j(X, Y) è il polinomio complesso coniugato di f (X, Y) (cioè il polinomio avente per coefficienti i coniugati dei coefficienti di f), è detta curva complessa coniugata di 5ff. Definizioni analoghe si danno di curva proiettiva reale e di curva proiettiva complessa coniugata di una curva di P2(C). Si noti che la [29.3] è equivalente ad una qualsiasi delle equazioni
exf(X, Y)
=
°
ex EC*, e che quindi una curva reale può anche essere definita da un polinomio
[29.7]
350
Curve algebriche piane
dove A = (aij) EGL2(C), Cl' C2EC. È evidente che in generale T(A 2(R» non è contenuto in A 2 (R), cioè un'affinità complessa non trasforma punti reali in punti reali. Le curve [29.4], [29.5] e [29.6] esemplificano questo fatto, essendo curve affinemente equivalenti ma con insiemi di punti reali di natura completamente diversa tra loro. Gli stessi esempi mostrano anche che un'affinità in generale non trasforma curve reali in curve reali. Abbiamo però il seguente risultato: 29.2 TEOREMA Sia T: A 2 (C)-+ A 2 (C) l'affinità definita dalla [29.7]. Le condizioni seguenti sono equivalenti: l) T(A 2(R» = A 2(R). 2) AEGL2 (R), Cl' c2 ER. 3) La trasformata T(:tf') di ogni curva reale :tf' C A 2 (C) è una curva reale.
Dimostrazione L'equivalenza di (1) e (2) e l'implicazione (2) ~ (3) sono evidenti. Per dimostrare che (2) <= (3) si osservi che le rette reali X = O e Y = O sono trasformate rispettivamente nelle rette: allX + a l2 Y + Cl
=
O
29/Curve algebriche reali
351
La dimostrazione del teorema 29.3 è simile a quella di 29.2, ed è lasciata al lettore. 29.4 Esempi 1. Consideriamo la conica reale di equazione
X 2 + y 2 =0.
[29.9]
Poiché X 2 + y 2 = (X + i Y) (X - i Y), il supporto della [29.9] si decompone nell'unione dei supporti delle due rette X + iY= O e
X-iY=O, che sono due rette non reali, complesse coniugate, il cui unico punto reale è l'origine. 2. Consideriamo la conica reale
:tf' di equazione
a2l X + a22 Y + C2 = O.
[29.10]
Perché queste siano reali dev'essere verificata la (2). Consideriamo ora il caso proiettivo. Il piano proiettivo complesso p2(C) contiene come sottoinsieme p2(R), che si identifica con il sottoinsieme costituito dai punti [xc, Xl' X 2] E p2(C) tali che xc, Xl' X 2 E R. L'analogia con il caso affine non si estende oltre, perché il piano proiettivo complesso non può essere in alcun modo considerato come uno spazio proiettivo reale. Consideriamo una curva proiettiva :tf' C p2(C), di equazione [29.8]
Similmente al caso affine, i punti di :tf' n p2(R) si dicono punti reali di 'ff Se F(Xo, Xl' X 2) E R [Xc, Xl' X 2], la [29.8] può essere interpretata sia come l'equazione di una curva reale :tf' di P2(C) sia come l'equazione di una curva :tf' di p2(R) il cui supporto coincide con l'insieme dei punti reali di 'ff Il seguente risultato è l'analogo proiettivo del teorema 29.2. I
29.3 TEOREMA Sia f: P2(C) -+ p2(C) una proiettività. Le seguenti condizioni sono equivalenti: 1) f(P2(R» = p2(R). 2) f può essere definita da una matrice A E GL 3 (R). 3) La trasformata f(:tf') di ogni curva reale :tf' C p2(C) è una curva reale.
dove cE R. Se S = O otteniamo l'esempio (1). Se c> O e consideriamo E 2 in A 2 (C), allora i punti reali di :tf' sono quelli della circonferenza di centro l'origine e raggio .,;c. Se invece C < O, allora :tf' non ha punti reali (è una "circonferenza di raggio immaginario"). Si noti che i due casi c> O e C < O sono affinemente equivalenti in A 2(C). Infatti la sostituzione X
=
iX* ,
Y
=
i y*
trasforma la conica [29.10] nella conica di equazione X*2+ y*2= -
C.
Questo mostra chele coniche [29.10] con C >t':- Osono tutte tra loro affinemente equivalenti in A 2(C). Ciò che le differenzia è la loro posizione rispetto a A 2(R). Una situazione simile a questa si ha per tutte le coniche reali, che verranno discusse in maggiore dettaglio nei paragrafi successivi. 3. Considereremo ora alcuni esempi di curve affini reali di grado tre, le cosiddette parabole cubiche di Newton. Queste sono cubiche reali :tf' di equazione y 2 = aX 3 + bX 2 + cX + d,
[29.11]
a, b, c, dE R, a >t':- O, il cui luogo dei punti reali ha una forma che dipende dalle
Curve algebriche piane
352
353
29/Curve algebriche reali
radici 1-" fL, v del polinomio aX 3 + bX 2 + eX + d. Tali radici corrispondono ai punti (I-" O), (fL, O), (v, O) di intersezione di 5:f' con l'asse Y = O. Si possono presentare i seguenti casi: 1-" fL, v sono reali e distinte. Si ha la cosiddetta parabola campaniforme con ovale (fig. 29.1 a). 1-" fL, v sono distinte, e due delle tre radici sono non reali e complesse coniugate. Si ha la parabola campaniforme senza ovale (fig. 29.1 b). 1-" fL, v sono reali e due di esse sono uguali tra loro (I-, = fL)· Si ha la parabola campaniforme puntata (fig. 29.1 c), oppure la parabola nodata (fig. 29.1 d) a seconda che I-, = fL < v oppure I-, = fL > v. I-, = fL = vreale. Si ha la parabola cuspidata (fig. 29.1 e). Un'importante generalizzazione delle nozioni introdotte in precedenza è la seguente. Una curva 5:f' di A 2 (C) è definita su K se può essere definita da un' equazione [29.3] tale che f(X, Y) E K [X, n. I punti di 5:f' n A 2 (K) si dicono punti Krazionali di 5:f'. Nel caso particolare K = R si riottengono le nozioni di curva reale e di punti reali. Un caso importante è K = Q. Esso corrisponde allo studio geometrico delle equazioni polinomiali su Q, e delle loro soluzioni in Q e in Z. Vediamo alcuni esempi. Consideriamo la curva 5:f' di equazione
(a)
(b)
v
À=p,
[29.12] il cui supporto nel piano euclideo è la circonferenza di centro l'origine e raggio 1. Un punto Q-razionale della [29.12], che possiamo scrivere nella forma
(±p/r, ± q/r),
[29.13]
p, q, rE N,
(dI
(c)
dà luogo a una tema di numeri naturali (p, q, r) tali che
cioè a una tema pitagorica. La ricerca delle teme pitagoriche si può quindi ricondurre a quella dei punti Q-razionali della curva [29.12]. Si dimostra che esistono infinite teme pitagoriche, e questo può essere fatto facilmente con il seguente ragionamento geometrico. Consideriamo una retta ~ del fascio di centro il punto (l, O). ~ ha equazione X+ I-,Y -1= O.
Calcoliamo le intersezioni di ~ con otteniamo l'equazione in Y
5:f'. Sostituendo X
=
1 - I-, Y nella [29.12] (e)
23
Figura 29.1
Curve algebriche piane
354
La radice Y = O corrisponde al punto (l, O), mentre l'altra radice corrisponde a un altro punto di intersezione di ~ con 5f, le cui coordinate sono
30/Classificazione delle coniche proiettive
355
in numero finito. Questo problema, nonostante la sua semplice formulazione, si è rivelato molto difficile, avendo resistito a tutti i tentativi di soluzione da più di tre secoli.
Notiamo che anche il punto di coordinate 30 Classificazione delle coniche proiettive
appartiene a ~ Al variare di À, in N si ottengono in questo modo infiniti punti della forma [29.13], e quindi le infinite teme pitagoriche (À,z -1, 2À" 1 + À,Z),
À,E N.
Z_
2Y z = 1,
a l1 Xi + 2a 1zX 1X z + azzXi + 2aOl X OX 1+ 2a02 X OX Z + aooX~ = O,
cosicché, al crescere di y, I x/y I costituisce un'approssimazione via via migliore di -J2. È noto che la [29.14] possiede infinite soluzioni in QZ (e addirittura in ZZ), ognuna delle quali fornisce nel modo detto un'approssimazione razionale di -J2. Le approssimazioni che così si ottengono sono molto accurate. Ad esempio, la soluzione (1393, 985) fornisce il valore
Z
-
2Y z = O
ha (O, O) come unico punto Q-razionale, perché Consideriamo ora la curva ~ di equazione xn + yn - 1 = O,
n
~
= (:::
:::
::: \.
aZO
aZI
azz )
Indicato con X il vettore colonna I(XO Xl può anche scriversi, concisamente,
X z) delle indeterminate, la [30.1] [30.2]
IXAX = O.
Consideriamo ora una matrice MEGL3 (K). Se nella [30.1], oppure nella [30.2], sostituiamo MX al posto di X, otteniamo l'equazione
1,4142131.
La [29.14] è l'equazione di un'iperbole, che è una conica affine di un tipo particolare (cfr. §§ 31 e 32). Si osservi anche che, al contrario della [29.14], la curva X
[30.1]
e consideriamo la matrice simmetrica
A
=
pZ = PZ(K) può scriversi nella forma
[29.14]
interessante per il fatto che ogni sua soluzione (x, y) soddisfa la condizione
1393/985
5:f di
con ajkE K, non tutti nulli. Poniamo
Un altro esempio è costituito dall'equazione X
L'equazione di una conica
-J2 è irrazionale.
3.
Per nessun valore di n ~ 3 sono noti punti Q-razionali (x, y) E.1f" tali che x -:;é. O -:;é. y. Un celebre problema posto da Fermat è di stabilire se ~ possiede punti Q-razionali per qualche n ~ 3, ovvero, equivalentemente, di stabilire se per qualche n ~ 3 l'equazione X n + yn = zn
possiede o meno soluzioni in numeri interi (x, y, z) tali che xyz -:;é. O. Un recente risultato (G. Faltings, 1983) implica che tali soluzioni, se esistono, sono al più
IXBX=O,
[30.3]
dove B = IMAM. Per la definizione 28.3, la conica 9J di equazione [30.3] è proiettivamente equivalente alla conica 5f, e viceversa ogni conica proiettivamente equivalente a 5:f si ottiene in questo modo per qualche M EGL 3 (K). Osserviamo che det(B) = O se e solo se det(A) = O; più precisamente, A e B hanno lo stesso rango. Pertanto il rango di A è una proprietà proiettiva della conica Sf; esso si dice rango di 5f, e si denota con r(5:f). In particolare l'annullarsi o meno di det(A) è una proprietà proiettiva di ~ Si noti che sussistono le disuguaglianze 1 :5 r(5:f) :5 3 perché uno almeno dei coefficienti
a jk
è diverso da zero.
30.1 DEFINIZIONE La conica 5:f è non degenere se det(A)-:;é. O, degenere se det(A) = O; è semplicemente degenere se r(5:f) = 2, doppiamente degenere se r(5:f) = 1.
Curve algebriche piane
356
Consideriamo il problema di classificare le coniche di p2, cioè di trovare dei particolari tipi di equazioni [30.1] (dette forme canoniche) tali che ogni conica di p2 sia proiettivamente equivalente ad una di esse. Tratteremo i casi K algebricamente chiuso e K = R. 30.2 TEOREMA Supponiamo K algebricamente chiuso. Ogni conica P2(K) è proiettivamente equivalente a una delle seguenti:
X5 + xi + X~ = O X5 + Xi = O X5 = O
5ff di
conica generale; conica semplicemente degenere;
Dimostrazione Come abbiamo visto, una proiettività di matrice M trasforma la conica di equazione [30.2] nella conica [30.3]. Poiché B = IMAM è congruente ad A, per il teorema 16.2 esiste M EGL3 (K) tale che B sia una delle matrici:
(~ !~).(~ !~). (~ ~ ~)
I tre casi corrispondono a r(5ff) = 3, 2, 1 rispettivamente, e sono le matrici delle tre coniche dell'enunciato. Pertanto 5ff è proiettivamente equivalente ad Una di esse. Poiché tali coniche hanno ranghi diversi, esse sono a due a due non proiettivamente equivalenti. Il teorema precedente può anche enunciarsi così: se K è algebricamente chiuso, in P2(K) esistono precisamente tre classi di equivalenza proiettiva di coniche, ognuna delle quali è individuata dal rango delle coniche che vi appartengono. Se K non è algebricamente chiuso la situazione è in generale diversa. Il teorema seguente afferma che nel caso K = R le classi di equivalenza proiettiva di coniche sono cinque.
Ogni conica 5ff di p2(R) è proiettivamente equivalente a una
X5 + Xi - X~ = X5 + Xi + X~ = x5-Xi= O} x5+Xi= O X5=0
357
Dimostrazione Utilizzando il teorema di Sylvester e ragionando come nella dimostrazione del teorema 30.2, si deduce che ogni conica 5ff di P2(R) è proiettivamente equivalente ad una delle cinque coniche dell'enunciato. Per dimostrare che due qualsiasi di esse non sono proiettivamente equivalenti si osserva che due delle equazioni della lista rappresentano coniche di diverso rango, oppure di stesso rango ma aventi supporti diversi: la conica generale a punti non reali ha supporto 0, il che non avviene per la conica generale; le due coniche semplicèmente degeneri hanno supporto costituito rispettivamente da due rette distinte, e da un solo punto.
conica doppiamente degenere.
e queste tre coniche sono a due a due non proiettivamente equivalenti.
30.3 TEOREMA delle seguenti:
30/Classijicazione delle coniche proiettive
O
conica generale;
O
conica generale a punti non reali; coniche semplicemente degeneri; conica doppiamente degenere.
Queste cinque coniche sono a due a due non proiettivamente equivalenti.
30A Osservazioni 1. Dai teoremi precedenti si deduce, in particolare, che una conica proiettiva doppiamente degenere ha per supporto una retta: infatti il polinomio che la definisce è il quadrato di un polinomio di primo grado, sia nel caso reale che in quello di K algebricamente chiuso. Una conica semplicemente degenere è invece definita da un polinomio che, nel caso di K algebricamente chiuso, si spezza nel prodotto di due polinomi distinti di primo grado, e quindi la conica ha per supporto l'unione di due rette distinte. Nel caso reale, come già osservato nel corso della dimostrazione del teorema 30.3, lo stesso avviene per la prima delle due coniche semplicemente degeneri (di eq. X5 - Xi = O), mentre l'altra (di eq. X5 + Xi = O) ha per supporto un solo punto. 2. Per ogni MEGL 3 (K), la [30.3] si può pensare come l'equazione di 5ff stessa rispetto a un diverso sistema di coordinate (cfr. 28A(2». Con ovvie modifiche, la dimostrazione del teorema 30.2 può essere adattata per dimostrare che, nel piano proiettivo p2(K), per ogni conica esiste un opportuno riferimento nel quale essa ha una delle tre equazioni elencate. Un'osservazione simile può farsi nel caso di p2(R). 3. Dal teorema 30.3 segue che se una conica non degenere di p2(R) possiede un punto, allora ne possiede infiniti. Infatti, poiché due coniche proiettivamente equivalenti possiedono supporti proiettivamente equivalenti, è sufficiente verificare l'asserzione per un rappresentante di ogni classe di equivalenza proiettiva di coniche non degeneri, cioè per le coniche non degeneri elencate nel teorema 30.3, il che è immediato.
30.5 Complementi Quasi tutte le considerazioni fatte per le coniche proiettive si estendono alle quadriche di pn(K), n ~ 3. Una quadrica 9 di pn(K) ha un'equazione della forma Q(X) = O,
[30A]
Curve algebriche jJiane
358
dove X = t(Xo XI X n ), e Q(X) è un polinomio omogeneo di secondo grado, che, come sappiamo (cfr. § 15), si può esprimere nella forma Q(X) = tXAX, con A EMn + 1 (K) simmetrica. Se ME GL n + 1 (K), e se sostituiamo MX al posto di X nella [30.4], otteniamo una nuova quadrica 9' di equazione tXBX=O,
dove B = tMAM. 9' è proiettivamente equivalente a 9, e ogni quadrica proiettivamente equivalente a 9 è ottenuta in questo modo per qualche matrice M. Poiché il rango di A e quello di B sono uguali, deduciamo che reA) è una proprietà proiettiva di 9; esso si chiama dunque rango di 9, e si denota con r(9). Diremo 9 non degenere (o viceversa degenere) se r(9) = n + 1 (se r(9):5 n). I teoremi 30.2 e 30.3 possiedono le seguenti generalizzazioni al caso delle ipersuperfici quadriche di pn(K).
31/Classificazione di coniche affini e coniche euclidee
31 Classificazione di coniche affini e coniche euclidee In questo paragrafo studieremo le coniche affini e vedremo come esse possono essere classificate nei casi K algebricamente chiuso e K = R. Ci occuperemo dello stesso problema anche nel caso delle coniche euclidee. Una conica :t? di A2 = A2 (K) ha un'equazione della forma [31.1] dove ajkE K e all' a22 , a l2 non sono simultaneamente nulli. Come nel caso proiettivo, porremo a21 = a12 , 10 = aol ' a20 = a02 e considereremo la matrice simmetrica A = (ajk). Possiamo anche rappresentare l'equazione [31.1] in forma più concisa scrivendo:
°
(l
Se K è algebricamente chiuso, ogni quadrica equivalente alla quadrica di equazione X~
+ Xi + ... + X~ -
X~+ l
-
'"
-
X; = 0,
per qualche 0:5 P :5 r:5 n, tali che 2p ~ r - 1. Le dimostrazioni sono del tutto simili a quelle dei teoremi 30.2 e 30.3.
oo a aOI
Y)
alO
(
011
a20 a21
02
a ) a l2
(1)
022
Consideriamo M = (mij) E GL2 (K), tuzione
dove r + 1 = r(9). Ogni quadrica 9 di pn (R) è proiettivamente equivalente a una e una sola quadrica della forma X~
X
9 di pn (K) è proiettivamente
+ Xi + ... + X; = 0,
359
X= m 11 X' + m 12 Y' + Cl
Y= m 21 X' + m 22 Y' + c2
X = O.
[31.2]
Y Cl'
c2 E K. Effettuando nella [31.1] la sosti-
[31.3]
otteniamo l'equazione di una' conica !?J affinemente equivalente a ii; e ogni conica affinemente equivalente a :t? si ottiene in questo modo per qualche M, Cl' c2• Per rappresentare in modo conveniente l'equazione di !?J esprimiamo le [31.3] nella forma matriciale
Esercizi
1. Classificare le seguenti coniche di p2 (R), determinandone rango ed equazione canonica: a) c)
o nella forma equivalente
xl - X~ + X X 2 '" O b) XoX + X X 2 + X OX 2 '" O xl + Xf + xi - 2XoX + 2XOX 2 - 2Xt X 2 '" O. j
j
[31.4]
j
j
2. Classificare ciascuna delle coniche dell'esercizio precedente in p2(C).
dove
M=(:'
c2
°
[31.5]
Curve algebriche piane
360
Eseguendo la sostituzione [31.4] nella [31.2] otteniamo l'equazione di nuove variabili X', y':
(l
X' Y')
B (
i:)
= 0,
9 nelle
31/Classificazione di coniche affini e coniche euclidee
prietà affini di .tf. Se la conica.tf di AZ(R) di equazione [31.1] è a centro, allora .tf è un'ellisse o un'iperbole a seconda che det(A o) > O o det(A o) < O. Dimostreremo ora il teorema di classificazione delle coniche affini nei casi K algebricamente chiuso e K = R.
[31.6]
Ogni conica di AZ (K) è affinemente equivalente a una delle
31.1 TEOREMA seguenti:
dove [31. 7] Dalla [31.7] si vede che B e A hanno lo stesso rango, e quindi il rango di A è una proprietà affine della conica ~ che chiameremo rango di ~ e denoteremo con r(.tf). La conica.tf è non degenere, degenere, semplicemente degenere, doppiamente degenere, a seconda che si abbia rispettivamente r(.tf) = 3, r(.tf) < 3, r(.tf) = 2, r(.tf) = 1. Denotiamo con A o la seguente sottomatrice di A:
1) K algebricamente chiuso:
X Z+ yZ - 1 = O
conica a centro
X Z+ yZ
conica a centro degenere
O
=
=O
yZ _ X
e con Bo la corrispondente sottomatrice di B. Allora [31.8]
Per vederlo si osservi che la sostituzione [31.3] si può ottenere come composizione delle due sostituzioni successive
parabola degenere
yZ = O
conica doppiamente degenere
2) K = R:
O
ellisse ellisse a punti non reali
X Z+ yZ
ellisse degenere
=
O
X Z - yZ - 1 = O
iperbole
X Z - yz
iperbole degenere
yZ_1 yZ
=
O
=O}
+1=O
yz=O
La primasostituzione, che è una traslazione, non modifica i termini di secondo grado dell'equazione di .tf. Osservando poi che A o è la matrice simmetrica della forma quadratica su KZ definita dai termini di secondo grado della [31.1], si deduce che la seconda sostituzione cambia A o in Bo secondo la formula [31.8]. Dalla [31.8] deduciamo che A o e Bo hanno lo stesso rango e quindi il rango di A o è una proprietà affine di .tf. Se det(A o) :;é O, .tf è una conica a centro, e se det(A o) = O è una parabola. Nel caso particolare K = R la formula [31.8] implica che il segno di det(A o) è lo stesso di quello di det(Bo), e quindi anche det(A o) > O e det(A o) < O son() pro-
=
X Z+ yZ + 1 = O
yz-X=O
e
parabola
yZ _ 1 = O
X Z+ yZ -1
B o = tMAoM.
361
parabola parabole degeneri conica doppiamente degenere.
Le coniche di ognuno dei gruppi precedenti sono a due a due non affinemente equivalenti. Dimostrazione Parte della dimostrazione sarà data nei due casi simultaneamente. Supponiamo che .tf abbia equazione [31.1]. Per trasformare .tf in una delle coniche dell'enunciato abbiamo a disposizione una sostituzione [31.3], o, equivalentemente, una successione finita di tali trasformazioni. Procederemo in diversi passi. Passo 1: eliminazione del termine 2a 12 XY Per il teorema 16.1 è possibile trovare una matrice M E GL z (K) tale che la
Curve algebriche piane
362
sostituzione
trasformi l'equazione [31.1] nella [31.6] in cui Bo sia una matrice diagonale. Possiamo quindi supporre a l2 = O, cioè che 5f: abbia equazione a ll X
2
+ a22 y2 + 2aol X + 2a02 Y + aoo = O.
3I/Classificazione di coniche affini e coniche euclidee
Passo 3: normalizzazione dei coefficienti Dobbiamo distinguere il caso K = R da quello in cui K è àlgebricamente chiuso. K algebricamente chiuso. Se 5f: è una conica a centro e quindi è stata trasformata nella conica di equazione [31.10], possiamo supporre che Coo sia -1 oppure O(se coo:;é. Obasta moltiplicare primo e secondo membro della [31.10] per - co;;J). Eseguendo la sostituzione
[31.9]
X'=~ ~
Notiamo che 5f: è una conica a cèntro se e solo se ali a22 :;é. O.
Y'=~ ~
Passo 2: eliminazione di termini di primo grado e del termine costante Supponiamo che 5f: sia a centro. Allora, mediante la traslazione
otteniamo rispettivamente la prima e la seconda equazione della lista (1). Se 5f: non è a centro ed è stata trasformata nella conica di equazione [31.11] possiamo supporre che doo sia - l oppure O. Mediante la sostituzione
a
X=X'-~
ali
a a22
X'=X
y= Y'-~
Y'=~
l'equazione [31.9] si trasforma nella seguente: a
ll
X,2
363
+ a 22 y'2 + COO = O,
~
[31.10] Cl SI
dove cooE K si esprime per mezzo dei coefficienti della [31.9]. Se 5f: non è una conica a centro possiamo supporre, salvo scambiare fra loro le variabili, che ali = O e a 22 :;é. O. La traslazione X=X'
riconduce alla quarta e alla quinta equazione rispettivamente (nel caso
doo = O è sufficiente moltiplicare primo e secondo membro della [31.11] per ani). Se infine 5f: è stata trasformata nella conica di equazione [31.12], la sosti-
tuzione X" =~-=-X=--_ - 2aol
Y"=~ ~
trasforma la [31.9] nella seguente:
a22 y,2 + 2aOl X' + d oo = O, per un opportuno doo . Se aOl
=
O otteniamo l'equazione
a22 Y' 2 + doo = O,
mentre, se aOl
:;é.
[31.11]
O, possiamo eseguire l'ulteriore traslazione
trasforma la [31.12] nella terza equazione dell'enunciato (parabola). K = R. Se 5f: è una conica a centro e quindi è stata trasformata nella conica di equazione [31.10], possiamo supporre che Coo sia -1 oppure Oed eseguire la sostituzione X'=
d X'=X"-~
2aOl
Y'
Y'
= Y",
ottenendo la nuova equazione 1:31.12]
=
X
~ Y
~
con la quale ci si riconduce a una delle prime cinque equazioni della lista (2). Se la conica 5f: non è a centro, ed è stata trasformata nella conica di equazione [31.11], possiamo supporre che doo sia -1 oppure O ed eseguire la sosti-
Curye algebriche piane
364
tuzione X'=X Y'
=
365
Per dimostrarlo si effettua la sostituzione X=2xo -X'
Y
[31.14]
Y= 2yo - Y'
~
con la quale ci si riconduce a una delle ultime tre equazioni della lista (2). Infine, se '§ è stata trasformata nella conica di equazione [31.12], possiamo supporre a22 > O. La sostituzione X"=_-,,-X__
- 2a01 Y"
3I/Classificazione di coniche affini e coniche euclidee
=--L ~
trasforma la [31.12] nella sesta equazione della lista (2) (parabola). L'ultima asserzione del teorema segue dall'osservare che, in ognuno dei casi (1) e (2), due coniche diverse della lista possono distinguersi una dall'altra attraverso r(A), o r(AJ, oppure attraverso il fatto che hanno diverso supporto. Il teorema 31.1 è dimostrato. Confrontando gli enunciati dei teoremi 30.2,30.3 e 31.1 vediamo che le possibili forme canoniche delle coniche affini sono più numerose di quelle delle coniche proiettive. Ciò non sorprende se si osserva che la riduzione in forma canonica si è ottenuta, sia nel caso affine che in quello proiettivo, essenzialmente operando sulla matrice simmetrica A associata a una equazione di '§ mediante una opportuna trasformazione della forma [31.6]. La matrice M E GL 3 (K) può essere scelta in modo arbitrario nel caso proiettivo, e invece della forma particolare [31.5] nel caso affine. Pertanto, avendosi nel caso proiettivo più matrici a disposizione che in quello affine per eseguire la riduzione, due matrici A e B riducibili una all'altra nel senso affine lo saranno anche in quello proiettivo, ma il viceversa non sarà necessariamente vero. Si noti che le classi di equivalenza affine di coniche di A2 (K) sono in numero finito in ognuno dei casi considerati. 31.2 Osservazioni 1. Una conica a centro è così chiamata perché possiede un centro di simmetria, cioè esiste un punto C(xo, Yo) EA2 rispetto a cui '§ è simmetrica. Il centro di simmetria è unico. Se '§ ha equazione [31.1], il centro C ha per coordinate la soluzione (xo' Yo) del sistema
sul primo membro della [31.1]. Si vede subito che il polinomio che così si ottiene è proporzionale al primo membro della [31.1], ed è effettivamente uguale ad esso (ma come polinomio nelle nuove variabili) se e solo se (xo, Yo) è soluzione del sistema [31.13]. Pertanto (xo, Yo) è l'unico centro di simmetria di '§ (cfr. 28.4(3)). Le rette che passano per il centro di '§ si dicono diametri della conica. 2. Il significato geometrico della distinzione delle coniche di A2 (R) in ellissi, iperboli e parabole si può spiegare facilmente se si considerano i punti impropri di '§. Per ottenerne le coordinate bisogna risolvere l'equazione omogenea di secondo grado [31.15] il cui discriminante è - det(A o)' Quindi le soluzioni dell'equazione [31.15] sono rispettivamente reali e distinte, reali e coincidenti, oppure complesse coniugate (non reali) a seconda che '§ sia un'iperbole, una parabola o un'ellisse, ovvero abbia due, uno, nessun punto improprio reale (ossia, nel caso dell'ellisse, abbia due punti impropri complessi non reali). In altre parole, la distinzione in tre tipi di coniche corrisponde ad altrettanti possibili comportamenti all'infinito. 3. Nella dimostrazione del teorema 31.1 l'ipotesi K algebricamente chiuso oppure K = R è stata utilizzata solo nel passo 3 (normalizzazione dei coefficienti). Dalla dimostrazione di 31.1 segue pertanto che, qualunque sia il sottocampo K di C, ogni conica di A 2 (K) è affinemente equivalente a una delle coniche [31.10], [31.11], [31.12]. Passiamo ora a considerare il caso delle coniche euclidee. Le definizioni di rango, di conica non degenere, degenere, semplicemente o doppiamente degenere, hanno ovviamente senso anche in questo caso. Ha pure senso la definizione di conica a centro, di parabola, di ellisse e di iperbole. 31.3
TEOREMA
X2
y
Ogni conica '§ di E 2 è congruente a una delle seguenti:
2
-+ -=1 a2 b2
(a 2: b
> O)
ellisse
[31.13] (il sistema [31.13] ha un'unica soluzione per l'ipotesi det(A o) -;é. O).
ellisse a punti non reali
Curve algebriche piane
366
(a;::: b > O)
ellisse degenere
(a> O, b > O)
iperbole
(a;::: b > O)
iperbole degenere
y 2 _ 2pX= O
(p>O)
parabola
y2 _ a 2 = O
(a;:::
y2 + a 2 = O y2= O
O)]
31/Classificazione di coniche affini e coniche euclidee
Dal teorema 31.3 segue che in E 2 ci sono infinite classi di congruenza di coniche, contrariamente a quanto avviene per le classi di equivalenza affine, che sono in numero finito: esse sono rappresentate dalle coniche dell'enunciato al variare dei parametri a, b e p che vi compaiono. Nel prossimo paragrafo studieremo le principali proprietà geometriche delle coniche euclidee.
31.4 Complementi Una quadrica g di An (K) ha equazione n
parabole degeneri
]=1
Le coniche precedenti sono a due a due non congruenti. Dimostrazione Supponiamo che 5f;' abbia equazione [31.1]. Un'isometria modifica l'equazione di 5f;' mediante la sostituzione [31.3] in cui M è una matrice ortogonale. Potremo quindi procedere come nella dimostrazione del teorema 31.1, avendo però a disposizione solo cambiamenti di coordinate in cui la matrice M è ortogonale. Per il primo passo della dimostrazione (eliminazione del termine 2a12 XY) possiamo utilizzare il teorema spettrale (teorema 22.3) per diagonalizzare la matrice A o: questo teorema afferma che esiste ME 0(2) tale che la sostituzione [31.3] trasformi l'equazione [31.1] nella [31.6] in cui Bo è una matrice diagonale; gli elementi diagonali di Bo sono gli autovalori di A o. Possiamo quindi supporre che 5f;' abbia equazione [31.9] con ali ed a22 non entrambi nulli. Il secondo passo della dimostrazione del teorema 31.1 si può ripetere parola per parola anche nel nostro caso. Possiamo quindi ricondurci ad un'equazione della forma [31.10], [31.11] o [31.12]. A questo punto non è difficile riconoscere che queste equazioni, ove si sostituiscano le variabili X', Y' ed X", yt' con X, Y, sono quelle dell'enunciato. Consideriamo infatti la [31.10]. Se coo ~ O possiamo dividere per ± l e ottenere l'equazione di un'ellisse, o di un'ellisse a punti non reali, o di un'iperbole a seconda del segno dei coefficienti di X 2 e di y 2 , e a meno di uno scambio di assi (che è un'isometria). Se invece Coo = O otteniamo un'ellisse degenere oppure un'iperbole degenere. Le equazioni [31.11] e [31.12] si trattano allo stesso modo. Il terzo passo della dimostrazione del teorema 31.1 (normalizzazione dei coefficienti) non ha senso nel caso euclideo, perché le trasformazioni utilizzate non sono ortogonali e quindi le equazioni [31.10], [31.11] e [31.12] non sono ulteriormente riducibili. Questo conclude la dimostrazione.
n
aijXiJ0 + 2~ aOj J0 + aoo = O, 1:51
.~ ajjXJ + 2E-
(a>O)
conica doppiamente degenere.
367
[31.16]
in cui non sono tutti nulli i coefficienti dei termini di secondo grado, cioè i coefficienti aij , con 1:5 i:5j:5 n. Ponendo aji = aij , per 0:5 i
XI (l XI X 2
.. ,
X n) A
X2
=
O.
[31.17]
Ponendo X= l(XI '" X n), e introducendo nuove variabili Y = l(y! ... Y n), una affinità di An(K) corrisponde alla sostituzione X = MY + c, dove ME GLn(K), c = l(C I ... cn ) E Kn, e trasforma l'equazione [31.16] in quella di una quadrica affinemente equivalente a g. Scrivendo la sostituzione nella forma equivalente l
dove
_ (1c 0)
M =
M E GLn +l (K),
31/Classijicazione di coniche affini e coniche euclidee
Curve algebriche piane
368
Ogni quadrica non degenere di E n è congruente a una e una sola delle seguenti:
e sostituendo nella [31.17], la nuova quadrica ha equazione
(l YI Y 2
Y n) B
•••
1
al~ ... ~ap>O
Y1
ap + I
Y2
=
[31.18]
0,
~
B = (b) = iMAM. Quindi r(B) = r(A). Segue da ciò che il rango di A è una proprietà affine di lJ!, che si chiama rango di lJ!, e si denota con r(lJ!). Diremo lJ! non degenere o viceversa degenere a seconda che sia r(lJ!) = n + 1 oppure r(lJ!) ~ n. Le quadriche affini ed euclidee rispettivamente di N (K) e di E n • si possono classificare con metodi sostanzialmente simili a quelli visti per le coruche. Il teorema di classificazione, che include anche i casi degeneri, ha un enunciato un po' più lungo a causa delle numerose possibilità che si presentano. Si trova. comunque che le classi di equivalenza affine di quadriche di An(K), ~ algeb~lca"!ent~ chiuso, e di An(R), sono in numero finito. Limitandosi a consIderare I solI caSI non degeneri, si hanno i seguenti risultati:
Ogni quadrica non degenere di An(K) è affinemente equivalente a una e una
boa
i=1
bno
p=O, ... , n.
an-l> 0,
°
Se tra i coefficienti b ll , b22, ••• , b nn ve ne sono r non nulli, possiamo supporre che siano i primi r, a meno di permutare le variabili. Poiché det(B) 7é perché per ipotesi lJ! è non degenere, dev' essere r ~ n-l; ciò si verifica sviluppando det(B) secondo l'ultima colonna. Eseguiamo la traslazione
°
bOj
~=Zj-T'
j=l, ... , r,
))
Y n = Zn (nel caso r= n-l).
°
L'equazione [31.18] si trasforma nella n
EX;-Xn=O;
E b ..z + coo = j= I )) ) 2
i=1
2) K = R:
°
[31.19]
se r = n, oppure nell'altra, n
EX;- E X;= 1, i=1
~
°
B=
n-I
p
•••
p=O, ... , n
bOI
bIO bll
K algebricamente chiuso:
=
a n > 0,
°
sola delle seguenti:
n
~
Diamo un cenno della dimostrazione dell'esistenza, senza discutere l'unicità delle equazioni. Iniziamo dal caso affine. Per il teorema 16.1 è possibile trovare una matrice ME GLn(K) tale che la sostituzione X = MY trasformi la quadrica lJ! in una di equazione [31.18] tale che bij = per 1 ~ i, j ~ n, i 7é j, cioè tale che
dove
EX;-l
•.•
al~ ... ~ap>O
a p+ 1 ~
1)
369
p=O, ... , n
n-I
.E bjjZ; + 2bon Z n + d oo = 0,
j=p+1
[31.20]
)=1 n-I
p
EX;- E X;-Xn=O, i=1
(se p
=
p=O, ... , n
j=p+1
°si intende che la prima sommatoria non compare).
ser=n-1. Supponiamo di essere nel caso [31.19]. Poiché lJ! è non degenere si ha Coo 7é O. Dividendo per - Coo possiamo supporre Coo = - 1. Se K è algebricamente 24
Curve algebriche piane
370
32/Geometria delle coniche euclidee
371
chiuso la sostituzione Esercizi
j= 1, ... , n,
trasforma la [31.19] nella prima delle due quadriche dell'enunciato (1). Se invece K = R allora la sostituzione
x
Zj=~' Ib I
1. Sia ~ una conica a centro di A 2(1<), diequazionef(X, Y) = o. Dimostrare che: a) le coordinate xo, Yo del centro C sono individuate dalla condizione di annullare entrambe le derivate parzialifx edfy dif; b) C= (O, O) se e solo se f non contiene termini di primo grado. c) Dedurre che la traslazione X = X' - Xo, Y = Y' - Yo trasforma ~ in una conica la cui equazione è priva dei termini di primo grado. 2. Per ciascuna delle seguenti coniche ~ di A 2 (R), determinare se ~ è a centro oppure no, e nel caso lo sia, determinare le coordinate del suo centro C; determinare inoltre le coordinate dei punti impropri (eventualmente non reali) di :t:.
j= 1, ... , n,
jj
seguita, se necessario, da una permutazione delle variabili, trasforma la [31.19] nella prima quadrica dell'enunciato (2) per qualche p. Supponiamo ora di essere nel caso [31.20]. Poiché !J2 è non degenere dev'essere ban ":' O. Dividendo per - 2ban possiamo supporre ban = -1/2. Mediante la traslazione j=l, ... ,n-l,
+ y 2 + XY + X + Y = l b) 5X 2 - 26XY + 5 y 2 + 72 = O a) X
2
c) X
2
+ y 2 - 2XY - 2 Y = O
d) 3X 2
-
8XY - 3 y 2 + lO = O
e) 2y 2 +2Y3XY-2Y3X+2Y-5=0
f) 9X 2 + 16 y 2 + 24XY - 40X + 30 Y = O
+ 4XY + 5 y 2 -
g) 2X 2
la [31.20] si trasforma nell'equazione
2
12 = O
2
h) 3X +2XY+3y +2Y2X-2Y2Y=0. n-l
[31.21]
r, bjjTJ- Tn = O.
J~l
Se K è algebricamente chiuso, la sostituzione j=l, ... ,n-l,
3. Si considerino le coniche di E 2 le cui equazioni sono quelle assegnate nell'esercizio precedente. Per ognuna di esse determinare un'isometria diretta che la trasforma in forma canonica, e la forma canonica ottenuta. 4. Dopo aver verificato che ciascuna delle seguenti coniche di A 2 (R) è degenere, determinare equazioni cartesiane delle rette in cui si decompone: a) X
trasforma la [31.21] nella seconda quadrica dell'enunciato (l). Se invece K = R, la sostituzione T= J
X J
~
j=l, ... ,n-l,
seguita, se necessario, da una permutazione delle variabili, trasforma la [31.21] nella seconda quadricadell'enunciato (2) per qualche p. Questo conclude la dimostrazione del teorema di classificazione nel caso affine. Nel caso euclideo si procede in modo simile, utilizzando il teorema spettrale invece del teorema 16.1, fino a ridursi a una delle equazioni [31.19] e [31.21]. A questo punto, dopo aver eventualmente permutato le variabili, è facile riconoscere in queste equazioni quelle dell'enunciato.
2
y 2 + 2X - 2 Y = O
-:-
b) X 2 + Y 2 +2Xy+l.-X+l.-Y-l =0
2
2
Y2 y 2 + (3Y2 -l)XY = O
c) 3X 2
-
d) 2X 2
+ 2 y 2 + 4XY = O.
32 Geometria delle coniche euclidee Le ellissi, iperboli e parabole euclidee furono studiate fin dall'antichità come luoghi geometrici e come sezioni di un cono circolare con un piano, e da ciò deriva il loro nome. Le studieremo nelle forme canoniche date dal teorema 31.3, limitandoci a considerare le coniche non degeneri a punti reali.
372
Curve algef!riche piane
32/Geometria delle coniche euclidee
y
Ellisse Sia ~ l'ellisse di E 2 di equazione X2
(O,b)
y2
--+--=1, a2 b2
[32.1]
con a"? b > O. Se a = b l'equazione [32.1] diventa
XZ + yz = a
\
2
X= ±a,
x
(a,O)
e ~ è una circonferenza di centro l'origine e di raggio a. Il supporto dell'ellisse [32.1] è contenuto nel rettangolo delimitato dalle rette di equazioni
(O, -b)
X= -aie
X=ale
Figura 32.1
y= ±b,
cioè nel sottoinsieme di E 2 costituito dai punti P(x, y) tali che Ixl ~a,
373
Iyl ~b.
Infatti, se P(x,y) è tale che I x I > a, allora x 2 /a 2 > l e quindi, essendo y2/b 2 "? O, la [32.1] non può essere soddisfatta dalle coordinate di P. I punti di coordinate (± a, O) e (O, ± b) appartengono a :.1f; essi sono i vertici di jf. Dalla forma dell' equazione [32.1] segue immediatamente che ~ è simmetrica rispetto all'origine e rispetto agli assi coordinati. Se ~ è una circonferenza, ogni retta per l'origine è un suo asse di simmetria: la verifica è un facile esercizio. Si chiamano semiassi i quattro segmenti di estremi l'origine e uno dei vertici. I numeri a e b sono le lunghezze dei semiassi. Per avere un'idea della forma di ~ si può risolvere l'equazione [32.1] rispetto a Y: [32.2]
Se P(x, y) E ~ al variare di x tra - a e Oi due valori della y dati dalla [32.2] variano tra O e ± b, mentre quando x varia tra O e a essi variano tra ± beO. La forma dell'ellisse è quella che si vede nella figura 32.1. Posto
c = .Ja2 - b 2
,
i punti di coordinate (± c, O) sono i fuochi dell'ellisse, e il numero
e= e/a è la sua eccentricità.
Si ha sempre O~ e < 1. Se ~ è una circonferenza, e solo in quel caso, e == O e i fuochi coincidono tra loro e con il centro. Se e;t. O, le due rette di equazioni x= ± a/e sono dette direttrici dell'ellisse (quella con segno ± nell'equazione si dice relativa al fuoco (± c, O». Iperbole Sia ~ l'iperbole di E 2 di equazione [32.4]
con a> O, b> O. ~ è detta iperbole equilatera se a = b. Come nel caso dell'ellisse, si vede che l'iperbole di equazione [32.4] è simmetrica rispetto all'origine e rispetto ai due assi coordinati. L'asse di simmetria Y = Oincontra ~ nei punti (± a, O), che si chiamano vertici di jf. Invece l'asse di equazione X = O non incontra jf. Dall'equazione [32.4] segue subito che nessun punto P(x, y) per cui si abbia I·x I < a appartiene a :.1f; quindi ~ è contenuta nei due semipiani E e E definiti rispettivamente dalle condizioni x ~ - a e x"? a. I sottoinsierni ~ n e ~ n E_ sono i rami dell'iperbole. . . + Risolvendo la [32.4] rispetto alla Y troviamo
E'
[32.3]
Poiché per ogni x tale che I x I "? I a I si ha
374
Curve algeb(jche piane
Y'
32/Geomeiria delle coniche euclidee
375
Poiché nella [32.6] l'unico termine in cui compare la Y è y2, ~ è simmetrica rispetto all'asse Y = o. Questa retta incontra ~ nell'origine, che è detta vertice di ~ . Dall'equazione [32.6] segue immediatamente che ~ non ha punti P(x, y) tali che x< O, e quindi è contenuta nel semipiano definito dalla condizione x 2: O. Risolvendo la [32.6] rispetto a Y otteniamo
Y=bXla
x
Y= ± .J2pX. Deduciamo che se x varia da O a + 00 e P(x, y) E ~ allora y varia da O a ± (fig. 32.3). Il punto di coordinate (p/2, O) è il fuoco di ~ e la retta di equazione
X= -p/2
Y= -bXliJ X= -aie ~
X=ale
Figura 32.2
è la sua direttrice. L'eccentricità di ~ è per definizione e = 1. Descriveremo ora alcune proprietà geometriche di ellisse, iperbole e parabola, le cosiddette proprietà focali, che permettono di ottenerle come luoghi geometrici. La prima caratterizzazione riguarda ellissi e iperboli.
è contenuta nel sottoinsieme di E 2 definito dalla disequazione
32.1 PROPOSIZIONE L'ellisse [32.1] (/'iperbole [32.4]) ha per supporto il luogo dei punti di E 2 le cui distanze dai due fuochi hanno somma (differenza) costante (costante in valore assoluto), uguale a 2a.
Le due rette di equazioni
y=± bX a sono gli asintoti di ~. La forma dell'iperbole è illustrata nella figura 32.2. Posto
c = .Ja2 + b 2
,
[32.5]
i punti di coordinate (± c, O) si dicono fuochi di ~. Il numero
Dimostrazione Denotiamo con F ed F' , rispettivamente, i due fuochi (± c, O). Per un punto P(x, y) la condizione
.J(x - C)2
x2
---;;; +
X=±.E..
e
sono le sue direttrici (quella con segno ± nell'equazione sidice relativa alfuoco (± c, O». Si noti che e> 1.
Parabola Consideriamo la parabola ~di E 2 di equazione
con p > O.
2pX,
+ y2 ± .J(x + C)2 + y2
=
2a.
[32.8]
Portando il secondo radicale a secondo membro ed elevando due volte al quadrato per eliminare i radicali, si arriva all'identità
è l'eccentricità di ~ e le rette di equazioni
=
[32.7]
I d(P, F) ± d(P, F') 1= 2a
si traduce nella condizione
e= c/a
y2
00
[32.6]
y2 (a 2
_
c 2 ) = 1,
[32.9]
la quale rappresenta la [32.1] oppure la [32.4], a seconda che c sia dato dalla [32.3] oppure dalla [32.5]. Per concludere resta da verificare che il luogo rappresentato dalla [32.9], il quale certamente contiene quello rappresentato dalla [32.7], coincide con esso. A questo proposito notiamo che il procedimento di passaggio dalla [32.8] alla [32.9] è reversibile, a meno di ambiguità dei segni dei radicali. Pertanto basta osservare che la condizione c < a (c> a) è compatibile solo con la [32.7] in cui si prenda il segno + (il segno -).
Curve algebriche piane
376
32/Geometria delle coniche euclidee
377
y
x=
-p/2
x
Figura 32.4 Figura 32.3
Poniamo Un'altra caratterizzazione delle coniche come luoghi geometrici è data dalla proposizione seguente. 32.2 PROPOSIZIONE L'ellisse [32.1], l'iperbole [32.4], la parabola [32.6] hanno per supporto il luogo dei punti le cui distanze da un fuoco e dalla relativa direttrice hanno rapporto costante, uguale all'eccentricità della rispettiva conica.
---+
Per ogni Pe E 2 abbiamo ---+
---+
(FP + PFo)·n
.,j (x =F C)2 + y2 I X=F a/e I
=e,
(x =F C)2 + y2 = (ex =F a)2, ovvero a
x 2(l - e2) + y2 = 2(c - ea)x + a 2 - c 2, che è appunto l'equazione [32.1] oppure [32.4]. Nel caso della parabola si procede nello stesso modo.
32.3 Complementi 1. La proposizione 32.2 si presta a fornire una nuova rappresentazione analitica delle coniche, nel modo seguente.· Supponiamo che la conica 5f abbia eccentricità e> O, e siano F ed t- rispettivamente un suo fuoco e la relativa direttrice (fig. 32.4). Sia ~ la retta per F perpendicolare a t-, e Fo = t- n~. Si ha
= d(F,
t- )
---+
---+
PFo·n = d - FP·n; ---+
poiché I PFo·n I = d(P, t-), otteniamo ---+
d(P, t-) = Id - FP·n I .
che è equivalente a quella che si ottiene elevando al quadrato:
d
---+
= FFo·n = IIFFolI = d,
cioè ---+
Dimostrazione Consideriamo il caso di ellisse e iperbole. Per un punto P(x, y) la condizione dell'enunciato è
---+
n =FFo/IIFFolI.
= d(F,
F o).
Da quest'identità e dalla proposizione 32.2 deduciamo che i punti Pe precisamente quelli che soddisfano la seguente equazione: ---+
---+
IIFPII = e I d - FP·n I.
5f sono [32.10]
Supponiamo F = O e che la retta t- abbia equazione X = d. Allora n = El = (l, O), e, dette (p, O) le coordinate polari di P, la [32.10] si traduce nell'equazione in p, O: p
= e Id -
pcosO I.
[32.11]
Per eliminare dall'equazione il segno di modulo, dobbiamo distinguere due casi. Se P ed F sono nello stesso semipiano rispetto a t-, allora pcosO < d, e la [32.11] è equivalente a p = e(d - pcosO),
che, risolvendo rispetto a p, può essere riscritta nella forma p=
ed --==---ecosO
+1
[32.12]
Curve algebriche piane
378
32/Geometria delle coniche euclidee
379
Se invece P ed F sono in semipiani distinti, allora p cos () > d, e la [32.11] è equivalente a p = e(pcos() -d),
che, risolta rispetto a p, prende la forma
p=
ed ecos() -1
.
y
[32.13]
Questo secondo caso è possibile solo se e> 1, cioè se 51 è un'iperbole: in tal caso 51 possiede due rami, di equazioni rispettivamente [32.13] e [32.12]. Se invece O < e 5 1, allora 51 è un' ellisse oppure una parabola: in questo caso 51 possiede un solo ramo, situato nello stesso semipiano di F rispetto a~, e avente equazione [32.12]. Riassumendo abbiamo il seguente risultato.
(a)
(bI
Sia 51 una conica di eccentricità e, avente un fuoco f nel!'origine e per relativa direttrice la retta ~ di equazione X = d. Se O < e 51, 51 è un'ellisse o una parabola, e i suoi punti hanno coordinate polari che soddisfano l'equazione p=
z
ed ecos()
+1
. y
y x
Se e > 1, 51 è un 'iperbole, i cui due rami, giacenti nei'due semipiani definiti
da
~,
sono costituiti dai punti le cui coordinate polari soddisfano le equazioni
(c)
(d)
ed
p = ---"-"--ecos() + 1
p=
ed ecos() -1
,
dette equazioni polari della conica. 2. Consideriamo una circonferenza r > O; essa ha equazione
51 C E 2 di centro il punto (xo, Yo) e raggio
(e)
[32.14] X
cioè X 2 + y 2 + 2aOl X + 2a02 Y + aOO = 0,
[32.15]
221 • l ·h dove aOl = - x o, a02 = - Yo, aOO = X 2 o + Yo - r. n partlco are SI a
a~1+a~2-aOO>0.
o=
- aOl , Yo = - a02' r 2 = a~l + a~2 - aoo, e quindi ~ è una circonferenza di
centro (xo, Yo) e raggio r. Si noti che i punti impropri della circonferenza [32.15] sono i due punti non reali [O, 1, ± i], che sono chiamati punti ciclici del piano euclideo E 2 • Si verifica subito che una conica 51 di equazione
2 a1l X + a22 y 2 + 2a12 XY + 2a01 X + 2a02 Y + aoo =
[32.16]
Viceversa una conica di equazione [32.15] e tale che sia verificata la [32.16] è una circonferenza. Infatti la [32.15] si può scrivere nella forma [32.14] con
Figura 32.5
°
passa per i punti ciclici se e solo se a 1l = a22 , a12 = O. Quindi, supponendo = a22 = 1 dopo aver eventualmente diviso per all' se anche la [32.16] è soddi-
a 1l
Curve algebriche piane
380
33/Intersezione di due curve: proprietà elementari
381
sfatta Si' è una circonferenza. Se invece si ha 33 Intersezione di due curve: proprietà elementari
Si' è una circonferenza degenere (caso particolare dell'ellisse degenere), e se si ha a~1
+ a~2 - aoo < 0,
Si' è una circonferenza di raggio immaginario (caso particolare dell'ellisse a punti non reali). In particolare una conica non degenere con almeno un punto reale e passante per i punti ciclici è una circonferenza. 3. Nel caso particolare di E 3 il teorema di classificazione delle quadriche euclidee (cfr. 31.4) afferma che ogni quadrica non degenere di E 3 a punti reali è congruente a una delle seguenti 5 forme canoniche (fig. 32.5):
In questo paragrafo supporremoK algebricamente chiuso, salvo avviso contrario. Consideriamo una curva algebrica affine Si' di grado n in A 2 = A 2 (K), di equazione [33.1]
f(X, Y) =0.
Si' si dice irriducibile se f (X, Y) è un polinomio irriducibile di K[X, Y]; altrimenti si dice riducibile. Sia data una curva Si' riducibile; se il polinomio f si fattorizza come f (X,
n
=
fl (X,
n·· .fk(X, n,
[33.2]
allora, dette ~, ... , ~ le curve di equazioni
(a> b > c> O)
a)
ellissoide f..(X,
(a
b)
y2 Z2 ,-----=1 2 2 a b c2 X2
c)
> b > 0,
(a> 0,
c> O)
b > c> O)
n = 0,
iperboloide iperbolico (a una falda)
iperboloide ellittico (a due falde)
[33.3]
sussiste, tra i supporti, la relazione
Si'= ~u ... U~. Infatti, stante la [33.2], ogni soluzione (x, y) dell'equazione [33.1] è necessariamente soluzione di almeno ùna delle equazioni [33.3], e viceversa. Scriveremo
d)
e)
(a> b> O)
paraboloide ellittico
(a, b> O)
paraboloide iperbolico.
Si'=~+ ... +~
per esprimere il fatto che si ha la decomposizione [33.2]. Se la [33.2] è la decomposizione dif(X, Y) in fattori irriducibili, le curve irriducibili ~, ... , ~ si dicono componenti irriducibili di ~ Se fj (X, è un fattore multiplo di f(X, Y) di molteplicità fl-j' la corrispondente componente irriducibile di Si' è detta componente multipla di molteplicità fl-j' La curva Si' si dice ridotta se non possiede componenti multiple. Ad esempio, una conica è irriducibile se e solo se è non degenere. Una conica semplicemente degenere possiede due componenti irriducibili distinte che sono due rette, mentre una conica doppiamente degenere è non ridotta, essendo costituita da una retta con molteplicità 2. Utilizzando i risultati dell'appendice A (pp. 435-37) è immediato verificare che una curva Si' è irriducibile se e solo se lo è ogni curva ad essa affinemente equivalente. Quindi riducibilità e irriducibilità sono proprietà affini.
n
Esercizi 1. Dimostrare che una circonferenza ha ogni retta contenente il suo centro come asse di simmetria.
2. Calcolare coordinate dei fuochi, eccentricità ed equazioni delle direttrici delle coniche di equazioni X2 y2 a) - + - = 1
9
4
c) y2 = 4X.
[33.4]
Curve algebriche piane
382
Analogamente, sono proprietà affini di una curva numero, grado e molteplicità delle sue componenti irriducibili. Con ovvie modifiche, le nozioni che abbiamo introdotto per le curve affini (irriducibilità, componenti irriducibili ecc.) si possono dare per le curve algebricht( proiettive. Si dimostra allora che riducibilità e irriducibilità, numero, grado e molteplicità delle componenti irriducibili di una curva 2t di p2 sono proprietà proiettive. Evidentemente il grado di una curva è uguale alla somma dei gradi delle sue componenti irriducibili, purché ogni componente venga contata un numero di volte pari alla sua molteplicità: infatti la stessa proprietà vale per i polinomi. La teoria delle curve algebriche piane dipende in buona parte dallo studio delle intersezioni di due curve. Ciò corrisponde algebricamente a risolvere un sistema di due equazioni polinomiali. In quanto segue ci limiteremo a trattare aspetti elementari dal problema. 33.1 TEOREMA Siano 2t e § curve algebriche piane, affini o proiettive, di gradi n ed m rispettivamente. Se 2t e § non hanno infiniti punti in comune, esse hanno al più nm punti in comune. Se2t e § sono curve proiettive, esse hanno almeno un punto in comune. Dimostrazione Se 2t e § sono curve affini aventi un numero finito di punti in comune, anche le loro chiusure proiettive hanno un numero finito di punti in comune. Possiamo dunque limitarci a dimostrare l'asserto nel caso proiettivo. È evidente inoltre che non è restrittivo sostituire 2t e § con due curve loro trasformate mediante una (e la stessa) proiettività. Siano dunque ~ § C p2, e {P I , ••• , PN } = 2tn §. Per ognij -,é. k, sia 'bjk la retta per Pj e P k • Poiché esiste almeno un punto di p2 non appartenente alla curva riducibile 2t + § + Ejk 'bik , possiamo supporre, eventualmente utilizzando una proiettività per trasformare 2t e §, che [0, 0, 1] rt. 2t + § + E ik 'bik . Siano F(Xo, Xl' XJ
=
0,
equazioni di 2t e di §
G(Xo, XI' X 2)
=
°
An (Xo, XJ + An_I (Xo, X I)X2 +
=
G(Xo, XI' X 2)
= Bm(Xo, XI) + Bm_1(XO'
X I)X2 +
srn
383
°
Se [xo, XI' x;I E !», si ha R(xo, XI) = perché F(xo, XI' XJ e G(xo, Xl' XJ hanno la radice comune X2 • Viceversa, ad ogni (xo, XI) tale che R (xo, XI) = corrisponde almeno una radice comune X2 di F(xo, XI' XJ e G(xo, Xl' XJ che definisce un punto [xo, XI' x;I E 2t n §.Quiridi, poiché R (Xo, XI) ha almeno una radice, 2t n § -,é. 0. Poiché 2tn § è finito, R(Xo' XI) non si annulla identicamente. Dal teorema A.18 segue che R(Xo, XI) è omogeneo di grado nm. Poiché R(Xo, XI) possiede al più nm radici distinte, per concludere la dimostrazione sarà sufficiente far vedere che, per ogni radice (xo, XI) di R (Xo, XI)' esiste al più un punto [xo, XI' x2]E 2tn §. Ma se [xo, Xl' X2], [xo, Xl' y;l E 2t n §, x 2 -,é. Y2' la retta che contiene questi due punti passa per [0, 0, 1], e ciò contraddice l'ipotesi.
°
È possibile che due curve 2t e § abbiano meno di nm punti in comune anche nel caso proiettivo; ciò apparirà chiaro man mano che procederemo nella discussione, e diversi esempi ci si presenteranno. Nel caso particolare in cui § è una retta, il teorema afferma che 2t e § hanno al più n punti in comune. Ovviamente nel caso affine due curve possono non avere alcun punto in comune (si pensi a due rette parallele). Si noti anche che se K non è algebricamente chiuso due curve proiettive possono di P2(R) non avere punti in comune. Ad esempio la conica Xg- + X I2 + Xi = non ha punti reali e quindi ha intersezione vuota con ogni curva. È possibile introdurre in modo opportuno una nozione di "molteplicità di intersezione" di due curve in un loro punto comune. Una versione più precisa del teorema 33.1, il teorema di Bezout, afferma che due curve proiettive che non hanno infiniti punti in comune ne hanno precisamente nm, purché ognuno di essi venga contato con la sua molteplicità di intersezione. La dimostrazione del teorema di Bezout è alquanto più delicata e verrà data solo nell'ipotesi che una delle due curve sia una retta. Consideriamo ora il caso in cui 2t e § hanno infiniti punti in comune.
°
33.2 TEOREMA Siano 2t e § curve algebriche piane, affini o proiettive, con § irriducibile. Se 2t e § hanno infiniti punti in comune, § è una componentè irriducibile di 2t.
rispettivamente, dove
F(Xo, XI' X 2 )
33/Intersezione di due curve: proprietà elementari
+ AoX;, + BoX!!"
con Ah' BkE K[Xo, XI] omogenei di grado h, k rispettivamente. Sia R(Xo, XI) il risultante di F e G rispetto a X 2 • Poiché [0, 0, 1] rt. 2tu §, si ha AoBo -,é. 0, e di conseguenza, per ogni XO, XI E K, i polinomi in X 2 F(xo, XI' X 2) e G(xo, Xi' XJ hanno grado effettivo n ed m rispettivamente. Pertanto, per ogni XO, Xl E K, R(xo, XI) è il risultante di F(xo, XI' XJ e G(xo, Xl' X 2).
Dimostrazione Daremo la dimostrazione nel caso affine, lasciando al lettore la facile estensione a quello proiettivo. Supponiamo dapprima che § sia una retta 'b, di equazione aX+bY+c=O e che 2t abbia equazione [33.1]. I punti di 'b
[33.5]
n 2t
corrispondono alle solu-
384
Curve algebriche piane
zioni del sistema costituito dalla [33.1] e dalla [33.5]. Supponiamo b-:/;.O (il caso b = si tratta nello stesso modo, scambiando X e Y). Sostituendo Y = - b-laX - b-lc nella [33.1] otteniamo un'equazione in X:
°
33/Intersezione di due curve: proprietà elementari
Poiché F è il campo dei quozienti di K[X], esiste h E K[X], h -:/;. 0, tale che Ah e Bh appartengano entrambi a K[X]. Moltiplicando primo e secondo membro della [33.8] per h si ottiene l'identità
h
[33.6] dove [33.7] Ogni soluzione della [33.6], sostituita nella [33.5], formsce le coordinate di uno dei punti di z, n 5f, e tutti i punti di z, n :t: sono ottenuti in questo modo. La condizione che z, e :t: abbiano infiniti punti in comune è pertanto equivalente a quella che il polinomio [33.7] sia identicamente nullo. D'altra parte, Z, è una componente irriducibile di :t: se e solo se il polinomio Y + b-laX + b-lc dividef(X, Y), cioè se si ha
f(X, Y) = (Y + b-laX + b-lc)h(X, Y) per un opportuno h(X, Y)E K[X, Y]. Sostituendo a primo e secondo membro di questa identità - (b-laX + b-lc) al posto di Y, si deduce che la condizione detta è equivalente alla condizione
Ma il primo membro è il polinomio [33.7], il cui annullarsi equivale alla condizione che z, e :t: abbiano infiniti punti in comune. Ciò dimostra il teorema nel caso . in cui g è una retta. Consideriamo ora il caso generale. Supponiamo che :t: e g abbiano rispettivamente equazione
f(X, Y) = 0,
= (Ah)f + (Bh)g.
[33.9]
Dalla [33.9] deduciamo che ogni punto comune a :t: e g appartiene alla curva 5::f di equazione h = O. Quindi g e 5::f hanno infiniti punti in comune, perché infiniti ne hanno :t: ed g; poiché 5::f è un'unione di rette parallele all'asse Y, ragionando come sopra si deduce che g è una retta. Per la prima parte della dimostrazione g è una componente irriducibile di 5f, e questa è una contraddizione. 33.3 COROLLARIO Se due curve (affini o proiettive) di gradi m ed n rispettivamente hanno mn + 1 punti in comune, allora hanno una componente irriducibile in comune.
Dimostrazione Siano :t: e g le due curve. Dal teorema 33.1 discende che esse hanno in comune infiniti punti. Poiché g ha un numero finito di componenti irriducibili, una almeno di esse, g', ha infiniti punti in comune con Sf. Per il teorema 33.2 g' è una componente irriducibile di Sf. Consideriamo una curva
:t: C pZ di grado n di equazione [33.10]
e sia z, una retta, assegnata mediante due suoi punti distinti P Q = [qo, ql' qz)· Il punto variabile su z, è
= [Po, Pi' pz],
g(X, Y) = 0,
e
[33.11]
conf(X, Y), g(X, Y)E K[X, Y] non costanti, e g(X, Y) irriducibile. Sef(X, Y) è costante rispetto a Y, :t: consiste di un numero finito di rette parallele all'asse Y. In questo caso g interseca una almeno di queste rette in infiniti punti, e quindi la ha come componente irriducibile. Ma g, essendo irriducibile, coincide con una di tali rette, e quindi è una componente irriducibile di Sf. Se f (X, Y) non è costante rispetto a Y, consideriamo f (X, Y) e g(X, Y) come elementi di D[Y), dove D = K[X], e denotiamo con F il campo dei quozienti di D. Supponiamo per assurdo che g(X, Y) non dividaf(X, Y). Alloraf(X, Y) e g(X, Y) sono privi di fattori comuni non costanti rispetto a Y, cioè in D [Y] non hanno fattori comuni non costanti. Per la proposizione A.16, f(X, Y) e g(X, Y) non hanno fattori comuni non costanti in F[Y], cioè MCD(f, g) = 1 in F[Y). Per le proprietà del MCD esistono A, BEF[Y] tali che 1 =Af+Bg.
385
Denoteremo tale punto con AP + p.. Q. Esso appartiene a
:t:
se e solo se [33.12]
ovvero, più sinteticamente, se F(AP + p.. Q)
= O.
La [33.12] è un'equazione omogenea di grado n in A, p.., le cui soluzioni, sostituite nella [33.11], determinano i punti di z, n Sf. Segue dal teorema 33.2 che il primo membro della [33.12] si annulla identicamente se e solo se z, è una componente irriducibile di Sf. Assegnando due ulteriori punti P' [p~, p{, p{], Q' [q~ , q{, qz '] E z" ed esprimendo il punto variabile su z, come A' P' + p.. , Q'
[33.8]
25
= [A'p~
+ p.. , q~, A'p{ + p.. , q{, A'P; + p.. , q;],
[33.13]
Curve algebriche pianè
386
si ottengono i punti di ~ n :ti' anche sostituendo nella [33.13] le soluzioni dell'equazione
F(À' P' + jl' Q')
= o.
Ma ÀP + jlQ = À' P' + jl' Q' se e solo se esiste una matrice A tale che exÀ = auÀ' + a12 jl'
[33.14] =
(ai) E GLiK) [33.15]
387
La nozione di molteplicità di intersezione di una retta e di una curva in un punto si può dare anche nel caso affine, in mod.o simile al precedente. Se la curva :ti' C A 2 ha equazione [33.1], e la retta ~ ha equazioni parametriche
X=a+Lt
[33.17]
Y=b+Mt, sostituendo le [33.17] nella [33.1] si ottiene l'equazione in t
exjl = a21 À' + a22 jl' per qualche ex;é O. Quindi, a meno di un fattore ex n , la sostituzione [33.15] trasforma l'equazione [33.12] nella [33.14]. Poiché la [33.15] è invertibile, essa fa corrispondere biunivocamente i fattori irriducibili dei due polinomi F(ÀP + jlQ) e F(À' P' + jl' Q'), e quindi le soluzioni delle due equazioni si corrispondono biunivocamente in modo che quelle tra loro corrispondenti (che definiscono lo stesso punto di ~ n :ti') abbiano la stessa molteplicità. In particolare la molteplicità della radice della [33.12] corrispondente a un determinato punto di ~ n :ti' dipende solo dal punto e non da P e Q. Le osservazioni precedenti consentono di dare la seguente definizione. 33.4 DEFINIZIONE Siano ~ e :ti' una retta e una curva di p2. Con le notazioni testé introdotte, diremo che ~ e :ti' hanno molteplicità di intersezione I(5ff, ~; P o) nel punto P o = ÀoP + jloQE ~, se (Ào, jlo) è una radice di molteplicità I(5ff, ~; Pa> del polinomio F(ÀP + jlQ), convenendo di porre I(5ff, ~; Pa> = O nel caso in cui Po~ :ti' n ~, e I(5ff, ~; P o) = 00 se ~ C !Ii'. Come abbiamo appena verificato, la molteplicità di intersezione così definita non dipende dalla scelta dei due punti P e Q su ~, e quindi la definizione è ben posta. Il seguente teorema è un caso particolare del teorema di Bezout, cui abbiamo accennato precedentemente. 33.5 TEOREMA Siano:ti' C p2 una curva di grado n ed ~ una retta che non è sua componente. Allora I: I(5ff, ~; P o) = n.
33/Intersèzione di due curve: proprietà elementari
[33.16]
PoEi-
Dimostrazione Supponiamo che :ti' abbia equazione [33.10] e che ~ sia individuata dai punti P e Q. La sommatoria a primo membro della [33.16] consiste di infiniti addendi, di cui solo un numero finito sono diversi da zero, ed è uguale alla somma delle molteplicità delle radici del polinomio F(ÀP + jlQ). Poiché questo polinomio è omogeneo di grado n, l'asserto segue dalla proposizione A.13.
f(a + Lt, b+ Mt)
= O,
le cui soluzioni, sostituite nelle [33.17], determinano le coordinate dei punti di intersezione di :ti' ed ~. 33.6 DEFINIZIONE Siano ~ e :ti' rispettivamente una retta e una curva di A 2 • Con le notazioni introdotte sopra, diremo che ~ e :ti' hanno molteplicità di intersezione I(5ff, ~; P o) nel punto P o = (a + Lto, b + Mto) E ~ se to è una radice di molteplicità I(5ff, ~; P o) del polinomio f(a + Lt, b + Mt), convenendo di porre 1(5ff, ~; P o) = O nel caso in cui Po~ :ti' n ~, e I(5ff, ~; P o) = 00 se ~ C !Ii'. Riducendosi al caso proiettivo si può verificare che la definizione 33.6 è ben posta. Consideriamo infatti le chiusure proiettive :ti' * ed ~* di :ti' e di ~ rispettivamente. La curva :ti'* abbia equazione [33.10]. La retta ~* ha equazioni parametriche Xo
=À
XI
=aÀ+Ljl
[33.18]
x 2 =bÀ+Mjl perché contiene [1, a, b] e il punto improprio [O, L, M). Sostituendo le [33.18] in F(Xo, XI' X~ si ottiene un polinomio omogeneo in À e jl
F(À, aÀ + Ljl, bÀ + Mjl) tale che
F(1, a + Lt, b + Mt) =f(a + Lt, b + Mt).
[33.19]
Poiché I(:ti'*, ~*; P o) è per definizione la molteplicità della radice (1, to) per F(À, aÀ + Ljl, bÀ + Mjl), vediamo che [33.20] e quindi la definizione di I(5ff, ~; P o) è ben posta perché I(:ti'*, ~*; P o) dipende solo da 5ff, ~ e P o'
Curve algebriche piane
388
Si osservi che, posto P<» = [O, L, M], il punto improprio di Z"I(!C*, z,*; P<») è uguale alla massima potenza di Àche divideF(À, aÀ + Lft, bÀ + Mft). Dalla ~33.l9] segue che il grado in t di f(a + Lt, b + Mt) è n - 1(!C *, z,*; p <»). ~n PartIco~a~e l'analogo del teorema 33.5 non è necessariamente vero nel caso affme, perche m generale si può avere 1(!C*, z,*; P<») > O. Il teorema seguente è una conseguenza immediata di quanto abbiamo osservato e del teorema 33.5. 33.7 TEOREMA Siano tenuta in Allora
:c.
!C C AZ una curva di grado n ed
z, una retta non con-
E l(:t', z,; P) ~ n
pe.
e l'uguaglianza vale se e solo se il punto improprio di z, non è punto improprio di
:c.
33/Intersezione di due curve: proprietà elementari
389
Terminiamo il paragrafo con un utile risultato che mette in relazione le molteplicità di intersezione di curve e rette proiettivamente equivalenti. 33.9 PROPOSIZIONE Siano z, e Ytrispettivamente una retta e una curva di z pZ, e sia T:p -+ pZ una proiettività. Per ogni PE Z, si ha l(:t', z,; P) = I(T(!C), T(Z,); T(P)).
[33.23]
Dimostrazione
Se Pt. z, n:t', T(P) lt T(z,) [33.23] sono uguali a O.
n T(!C)
e quindi primo e secondo membro della
Supponiamo che P[Po, PI' pz] E Z, n!C e sia Q [qo, ql, qz] ;é P un altro punto di z,. Sia N = (n ik) E GL 3 (K) una matrice che rappresenta T. Se !C ha equazione [33.10], T(!C) è la curva di equazione G(Xo' Xl' X z) = O,
33.8 Osservazioni
dove
1. Dalla [33.20] segue che le definizioni 33.4 e 33.6 sono equivalenti, nel senso che, per calcolare la molteplicità di intersezione di una curva (affine o proiettiva) e di una retta in un punto proprio P, si può utilizzare indifferentemente una delle due definizioni, a seconda che si vogliano utilizzare coordinate omogenee o coordinate non omogenee. Il teorema 33.7 e le osservazioni che lo precedono mostrano inoltre che, con le notazioni introdotte poc'anzi, si ha
1(!C*, z,*; P<») = n - gr[f(a + Lt, b + Mt)]
G(Xo' XI' Xz}
= G(X) =F(N-IX).
Inoltre si ha
[33.21]
dove a secondo membro si intende il grado in t di f(a + Lt, b + Mt). 2. Se !C e g sono curve affini o proiettive, z, una retta che non è componente né di !C né di g, e P oE z" si ha l(:t', z,; P o) + l(g, z,; P o) = 1(!C +
g, z,; P o)'
[33.22]
Consideriamo il caso affine (nel caso proiettivo la dimostrazione è simile): supponiamo che !C e g abbiano equazioni Poiché T(z,) è la retta che contiene T(P) e T(Q), i suoi punti sono della forma f(X, Y) =0,
g(X, Y) = O
rispettivamente, e che z, abbia equazioni parametriche [33.17]. La [33.22] esprime semplicemente il fatto che la molteplicità di una radice to del polinomio f(a+Lt, b+Mt) g(a+Lt, b+Mt)
.uguaglia la somma delle molteplicità di to per ognuno dei fattori f(a + Lt, b + Mt) e g(a + Lt, b + Mt).
À T(P)+
~ ~ (~:)} T(Q)
{N
+(;,]~
N(ÀP +
~Q), o, ~)
Si ha quindi G(ÀT(P) + ftT(Q))
= G(N(ÀP + ftQ)) = F(N-I(N(ÀP + ftQ))) = =
F(ÀP + ftQ)).
# (O, O).
Curve algebriche piane
390
Da quest'identità segue che la molteplicità della radice (À., p-) = (1, O) per il polinomio G(À. T(P) + P- T(Q)) e quella della stessa radice (1, O) per F(À.P + p-Q)) sono uguali perché i due polinomi coincidono. Ma queste due molteplicità sono rispettivamente I(T(!f!), T(~); T(P)) e I(it, ~; P), e quindi la [33.23] è vera.
34 Proprietà locali delle curve algebriche piane
In questo paragrafo, come nel precedente, supporremo K algebricamente chiuso. 34.1 DEFINIZIONE Sia 5f} una curva algebrica (affine o proiettiva) e sia P un punto del piano. La molteplicità m p (5f} ) di 5f} in P (o di P per 5f}) è il minimo delle molteplicità di intersezione in P di 5f} con ~,al variare di i tra tutte le rette del fascio di centro P; in simboli:
m p(5f} ) = minpEJ(it, ~; P). Poiché esistono rette contenenti P e non contenute in e precisamente
3d: si ha m p (5f} )~ 00,
O =o; m p (5f}) =o; gr(5f}),
[34.1]
ed m p (5f} ) = O se e solo se P~ 5f}, Se m p (5f} ) = 1, P è un punto semplice, o non singolare, di 5f}, Se m p (5f}) > 1, P si dice punto multiplo, o singolare, di ~ diremo anche che P è un punto m-uplo di 5f} se m p (5f} ) = m (in particolare doppio, triplo ecc. se m = 2, 3, ...). La curva 5f} si dice non singolare se tutti i suoi punti sono semplici, e singolare se possiede almeno un punto singolare. Se 5f} è una curva affine e 5f} * C p Z è la sua chiusura proiettiva, dalla [33.20] discende che per ogni PE 5f} si ha m/5f}) = mp (5f} *). Sia 5f} una curva affine, di equazione f(X, Y) =0, e sia P
= (a,
Per il lemma A.9, t e solo se fx(a, b)L
Y= b+Mt dove (L, M) ~ (O, O). Il punto PE 5f} n ~ corrisponde alla radice t polinomio
= f(a + Lt,
b + Mt),
e I(it, ~; P) uguaglia la molteplicità di tale radice.
=
= O è una radice multipla se e solo se Ol' (O) = O, cioè se
+ fy(a, b)M = O,
[34.4]
PROPOSIZIONE Sia 5f} C AZ la curva di equazione [34.2]. Un punto z PEA è semplice per 5f}se e solo se PE 5f} e almeno una delle derivate parziali di f (X, Y) è diversa da zero in P.
34.2
Viceversa, P è singolare per 5f} se e solo se f(X, Y) ed entrambe le derivate parziali prime di f(X, Y) si annullano in P. . ~e P = (a, b) è semplice per 5f} C AZ, l'unica retta 7 tale che I(it, SI dIce retta tangente a 5f} in P. Risolvendo la [34.4] si deduce che 7 ha il vettore di direzione (L, M)
=
7;
P) ;::: 2
(fy(a, b), - fx(a, b))
e quindi la retta tangente a 5f} in P ha equazione cartesiana fx(a, b) (X - a)
+ fy(a, b) (Y - b) = O.
[34.5]
Consideriamo ora il caso di una curva proiettiva 5f} C pz, di equazione [34.6]
e sia P
=
Xo =
[Po, PI' pzl E 5f}, Una retta ~ passante per P ha equazioni parametriche À.Po + p-qo
= À.Pl + P-ql Xz = À.Pz + p-qz, Xl
b) E 5f}, Una retta ~ passante per P ha equazioni parametriche
[34.3]
391
doveIx ed fy denotano le derivate parziali di f (X, Y) rispetto a X e a Y rispettivamente. Si vede dunque che, se fx(a, b) ed fy(a, b) non sono entrambe uguali a O, l'unica retta 7 passante per P per la quale si abbia I(it, 7; P) ;::: 2 è quella per cui L ed M soddisfano la 1)4.4]; ogni altra retta ~ per P soddisfa I(it, ~; P) = 1. In questo caso P è un punto semplice; in caso contrario è un punto multiplo. Riassumendo:
[34.2]
X=a+Lt
Ol(t)
34/Proprietà locali delle curve algebriche piane
dove Q = [qo, ql' qz] ~ P è un altro punto di ~. Sostituendo nella [34.6] otteniamo un'equazione omogenea ìn À., p-: A (À., p-) = O,
O del dove
A (À., p-) = F(À.po
+ p-qo, À.Pl + P,ql' À.Pz + p-qz)'
Il punto PE 5f} n ~ corrisponde alla radice (À., p-)
=
(1, O), ovvero, deomoge-
Curve algebriche piane
392
neizzando A (A, p.,), alla radice t
= O del
34/Proprietà locali delle curve algebriche piane
polinomio
A(l, t) = F(po + tqo, Pl + tql' P2 + tqJ, e l(~ t-; P) è pari alla molteplicità di tale radice. Dal lemma A.9 si deduce che t = O è una radice multipla del polinomio A (l, t) se e solo se dA(l, t)/dt = O. Questa condizione equivale alla seguente:
Fo(P)qo + F l (P)ql + F2(P)q2
= O,
[34.7]
dove Fi(P) denota la derivata parziale aFlaXi calcolata nel punto P. Si vede dunque che P è punto singolare per :t: se e solo se
Fo(P) = F l (P) = F2(P) = O.
[34.8]
Infatti in questo caso, e solo in questo, la [34.7] è soddisfatta da ogni QEP2 e quindi l( ~ t-; P) > 1 per ogni retta t- passante per P. Si noti che, posto n == gr(F), si ha
Fo(Xo, Xl' XJXo + F l (Xo, Xl' XJXI + F2(Xo, Xl' XJX2 = nF(Xo, Xl' XJ [34.9J
(cfr. proposizione A. 12(3» e quindi le condizioni [34.8] implicano anche F(P) = O, cioè PE 5ff. • Possiamo riassumere quanto detto più sopra nel seguente enunciato: 34.3 PROPOSIZIONE Sia:t: C p 2 la curva di equazione [34.6]. Un punto PEp2 è semplice per :t: se e solo se PE :t: e almeno una delle derivate parziali prime di F(Xo, Xl' XJ non si annulla in P. Viceversa, il punto PE p2 è singolare per :t: se e solo se tutte e tre le deri-
vate parziali prime di F(Xo' Xl' X 2) sono nulle in P.
7
Supponiamo che P sia un punto semplice per :t: C p2, e consideriamo la retta di equazione [34.10]
Dalla [34.9] si deduce immediatamente che PE 7. La [34.7] implica poi che è l'unica retta tale che
7
l(~ 7; P»1. 7
si dice retta tangente a :t: nel suo punto semplice P.
Una curva irriducibile (affine o proiettiva) possiede al più un numero finito di punti singolari. 34.4 PROPOSIZIONE
393
Dimostrazione Sia :t: affine di equazione [34.2]. Per la proposizione 34.2, i punti singolari di :t: sono i punti comuni a :t: e alle curve :t:x e :t:y, di equazioni rispettive fx(X, Y) = O, fy(X, Y)
= O.
Sarà quindi sufficiente dimostrare che :t:n :t:x è finito. Poiché :t: è irriducibile e gr(:t:x ) < gr(:t:), :t:x non può essere una componente di 5ff. Dal teorema 33.2 discende che:t:x e :t: hanno solo un numero finito di punti in comune. Se :t: è proiettiva di equazione [34.6], ed è diversa dalla retta t-o di equazione X o = O, allora :t: è la chiusura proiettiva della curva affine 0 di equazione
. F(l, X, Y)=O, che è ancora una curva irriducibile. I sùpporti di :t: e di 0 differiscono solo per i punti di :t:n t-o, che sono in numero finito; inoltre un punto di ·0 è singolare per 0 se e solo se lo è per 5ff. Poiché per la prima parte della dimostrazione 0 possiede al più un numero finito di punti singolari, lo stesso è vero per 5ff. Se PE:t: è un punto singolare, ogni retta t- contenente P è tale che
Per questo motivo si conviene di considerare tangente a :t: ogni retta pas-
sante per P. 34.5 DEFINIZIONE Sia :t: una curva algebrica (affine o proiettiva) e sia PE:t: un suo punto. Una retta t- tale che l(~ t-; P) > mp(:t:) è detta tangente principale a :t: in P. Si noti che se P è un punto semplice, la nozione di tangente e quella di tangente principale coincidono. Sia :t: una curva affine e sia :t:* C p 2 1a chiusura proiettiva di 5ff. Una retta t- C A2 la cui chiusura proiettiva sia una tangente principale a :t:* in uno dei punti impropri di :t: si dice asintoto di 5ff. La curva :t: non possiede asintoti precisamente quando i suoi punti impropri hanno come unica tangente principale la retta impropria. Ad esempio, una parabola non degenere non ha asintoti. Infatti, essendo non singolare ed avendo un unico punto improprio, è intersecata con molteplicità 2 dalla retta impropria, la quale è la sua tangente in quel punto. Una conica a cen-
Curve algebriche piane·
394
a centro possiede due asintoti perché interseca la retta impropria in due punti distinti e quindi non può averla come tangente. Passiamo ora a studiare la struttura di un punto singolare di una curva 5d: calcolandone la molteplicità e le tangenti principali. Consideriamo ancora una curva qffine Sff di equazione [34.2] e un punto p = (a, b) E 5f. Sostituiamo inf(X, Y) le espressioni a secondo membro nelle equazioni parametriche [34.3] di una retta ~ passante per P. Utilizzando il teorema di Taylor otteniamo l'identità: f(a + Lt, b + Mt)
=
variabili corrispondenti agli indici, calcolate nel punto P. Anche in questo caso la condizione mp(Sff) = m è equivalente all'annullarsi in P di tutte le derivate parziali di F di ordine minore o uguale ad m-l ed al non annullarsi in P di almeno una delle derivate di ordine m. In questo caso la sola condizione di annullamento in P delle derivate parziali di ordine uguale a m-l implica l'annullamento di tutte le derivate parziali di ordine inferiore. Infatti, poiché F è omogeneo, le sue derivate parziali sono polinomi omogenei. Per la proposizione A.12(3) si ha (m - 2)F:l i2 ••• im_,(XO' XI' Xz) == = Fili2 ... im_20(XO' XI' XZ)XO+ F ili2 + Fili2
Ux(a, b)L + fy(a, b)M] t + fxx(a, b)L Z+ 2fxy(a, b)LM + fyy(a, b)M Z
+ ---=..::=-=-------~=----'----'--'--'-=-'--'--- t Z + ... 2!
kt (~)fx-,Y*(a, ... + r!
b)L'-kM
k t'
+ ...
[34.11]
[34.12] per r = 1, ... , m-l, e b)Lm-kMk -,é. O.
i 2 1 (XO ' XI' XZ)XI + im _ 2Z(XO' XI' XZ)XZ' m-
Se ognuno degli addendi a secondo membro, che sono derivate parziali di ordine
dove fx(a, b), fxx(a, b), ... , fX-kyk(a, b), ... denotano le derivate parziali di f(X, Y) rispetto alle variabili indicate, calcolate nel punto P = (a, b). Dalla [34.11] si deduce che la condizione necessaria e sufficiente affinché t = O sia una radice di molteplicità m per f(a + Lt, b + Mt) è
k~O (;)fxm-,y,(a,
395
34/Proprietà locali delle curve algebriche piane
m -1 di F, si annulla in P, ciò è vero anche per il primo membro, e dunque F: i im - (P) = O. Pertanto ogni derivata parziale di ordine m- 2 si annulla in P . l 2
...
2
In modo simile si dimostra che sono nulle le derivate parziali di ordine inferiore a m-2. Possiamo dunque enunciare il risultato seguente: 34.6 PROPOSIZIONE 1) Sia Sffc AZ la curva di equazione [34.2]. Un punto PESff ha molteplicità m per Sff se e solo se in P si annullano tutte le derivate parziali di f(X, Y) fino all'ordine m -1 e almeno una delle derivate di ordine m non si annulla. 2) Sia Sffc pZ la curva di equazione [34.6]. Un punto PESff ha molteplicità m per Sff se e solo se in P si annullano tutte le derivate parziali di F(Xo, XI' Xz) di ordine m -1, e non si annulla almeno una delle derivate di ordine m.
[34.13]
Quindi mp(Sff ) = m se e solo se la [34.12] è soddisfatta per ogni scelta di L, M e la [34.13] è soddisfatta per almeno una scelta di L, M. Queste condizioni sono evidentemente equivalenti all'annullarsi in P di tutte le derivate parziali di f (X, Y) fino all' ordine m-l incluso, e al non annullarsi in P di una almeno delle derivate parziali di ordine m. Il caso di una curva proiettiva di equazione [34.6] viene trattato in modo simile utilizzando il polinomio F(po +tqo, PI + tql' Pz + tqz). Precisamente, il teorema di Taylor dà
[34.14] dove F:(P), F}k(P), ... denotano le derivate parziali di F(Xo, XI' X 2) rispetto alle
Supponiamo che Sff sia affine di equazione [34.2], e che il punto P = (a, b) abbia molteplicità mp(Sff) = m. Le tangenti principali sono le rette ~ il cui vettore di direzione (L, M) annulla il primo membro della [34.13]: poiché questo è un polinomio omogeneo di grado m in L, M, deduciamo che esiste almeno una tangente principale, e che ve ne sono al più m = mp(Sff) distinte, ed esattamente mp(Sff) se il primo membro della [34.13] ha radici tutte distinte. Nel caso in cui Sff è proiettiva di equazione [34.6], e il punto P è di molteplicità m, valgono analoghe osservazioni relativamente al coefficiente di t m nella [34.14]. Otteniamo la seguente 34.7 PROPOSIZIONE-DEFINIZIONE la curva piana (affine o proiettiva)
Sia P un punto di molteplicità mp(Sff) per 5f. Il numero ~ di tangenti principali distinte
Curve algebriche piane
396
a ~ in P è tale che
34/Proprietà locali delle curve algebriche piane
ed esprimiamo f(X, Y) nel modo seguente: f(X, Y) = f«X - a) + a, (Y - b) + b) = g(X - a, Y - b) = = Go + G1(X - a, Y -::b) +G2 (X-a, Y - b) + ...,
l :5 ~ :5 mp(~).
Se ~ = mp(~) ;::: 2, P si dice punto multiplo ordinario. Un punto doppio ordinario si dice nodo. In un punto doppio non ordinario P la curva ~ possiede un'unica tangente principale 7, ed essa è tale che I(~ 7; P);::: 3. Un punto doppio non ordinario P tale che
dove Go = g(O, O) = f(a, b) = O. Sostituendo X = a + Lt, Y = b + Mt a primo membro si ottiene la [34.11]. Confrontando con l'ultimo membro e uguagliando i coefficienti di t', si deduce
f
G,(L, M)
k~O
(r)fX_kYk(a, b)L,-kM k k
=---'--!..------r!
I(5ff, 7; P) = 3 è detto cuspide ordinaria. Il calcolo delle tangenti principali a una curva affine di equazione [34.2] in un suo punto P = (a, b) si effettua, molto semplicemente, come segue. Supponiamo dapprima P = (O, O), e scriviamo ilpolinomio f(X, Y) come somma di polinomi omogenei f(X, Y)
dove Fo = f(O, O) = O, e F,(X, Y), r;::: l, è somma di tutti i monomi di grado r dif(X, Y). La [34.11] si ottiene sostituendo X = Lt, Y = Mt; uguagliando i coefficienti di t' si deduce
Pertanto, posto m = m(O, O)(~), si ha
= ... = Fm- 1(X,
Y)
= O, Fm(X,
Y):;é O,
cioè m (O, O) (~) evuavlia il minimo grado dei monomi non nulli di f(X, Y).• • o o Segue inoltre che le tangenti principali a ~ in (O, O) hanno equaZIOnI MX - LY = O, al variare di (L, M) tra le radici dell'equazione omogenea [34.15] Ciò equivale a dire che le equazioni delle tangenti principali si ottengono eguagliando a zero i fattori lineari del polinomio Fm(X, Y). Quindi la curva di equazione [34.15] si decompone nell'unione delle tangenti principali di 5if. Se Fm(X, Y) si decompone in m fattori lineari distinti, e solo allora, l'origine è un punto m-uplo ordinario per 5if. Nel caso generale P = (a, b) poniamo f(U+a, V+b)=g(U, V)=GO+G1(U, V)+G 2 (U, V)+ ... ,
Pertanto si ha G1(X-a, Y-b)=G 2 (X-a, Y-b)= ... = Gm_1(X-a, Y-b)=O e Gm(X - a, Y - b) non è identicamente nullo. La curva di equazione Gm(X - a, Y - b)
= Fo + F 1(X, Y) + F2 (X, Y) + ...,
F 1(X, Y)
397
=
O
si decompone nell'unione delle tangenti principali a ~ in P. Consideriamo alcuni esempi di curve affini con diversi tipi di singolarità nell'origine. Nelle figure 34. la-e ne è rappresentato il supporto reale. a) X 3 - X 2 + y 2 = O: la curva possiede un nodo nell'origine, con tangenti principali X - Y = O e X + Y = O. b) X 3 - y 2 = O: la curva possiede una cuspide ordinaria nell'origine, con tangente principale Y = O. c) 2X 4 - 3XZ Y + y 2 - 2 y 3 + y 4 = O: anche questa curva possiede un punto doppio nell'origine, con unica tangente principale 7 : Y = O. Si calcola facilmente che I(~ 7;'0) = 4, e quindi Onon è una cuspide ordinaria. Questa singolarità è chiamata tacnodo. d) (X 2 + y 2)2 + 3X 2 Y - y 3 = O: l'origine è un punto triplo, ordinario, con tangenti principali Y = O, Y - -J3x = O, Y + -J3x = O. e) (X 2 + y 2)3 - 4X 2 y 2 = O: l'origine è un punto quadruplo non ordinario, con due tangenti principali: X = O e Y = O. Un punto semplice P di una curva affine o proiettiva ~ è un flesso se I(~ 7; P) ;::: 3. Un flesso si dice di specie k(;::: l) se I(~ 7; P) = k
+ 2.
Un flesso di specie k = l (risp. k;::: 2) si dice ordinario (non ordinario). Una retta ~ è una curva non singolare che coincide con la sua tangente in ogni suo punto; quindi ogni suo punto P è un punto di flesso perché I(~, ~; P) = 00.
Curve algebriche piane
398
34/Proprietà locali delle curve algebriche piane
399
Poiché in ogni punto P di una curva ~ si ha I(!.t', 7; P):5 gr(~) a meno che 7 non sia contenuta in !.t', una conica irriducibile non possiede punti di flesso, e una cubica irriducibile può possedere solo flessi ordinari. La curva affine ~ di equazione-
y- X k + Z = 0,
k
~
l
ha nell'origine un flesso di specie k. Sia ~ C p Z una curva proiettiva di equazione [34.6], avente grado n ~ 3. L' hessiana di ~ è la curva di equazione (b)
(a)
H(X)
=
0,
dove H(X) è il determinante della matrice 3 X 3
(
FOO(X)
FOI (X)
FOZ(X»)
FIO (X)
Fil (X)
FdX) .
Fzo(X)
F Z1 (X)
Fzz(X)
[34.16]
La [34.16] e H(X) si dicono rispettivamente matrice hessiana e determinante hessiano di F(X). Si ha
gr(H(X»
=
3(n - 2).
L'hessiana di una curva serve a individuarne i punti di flesso.
I flessi di una curva proiettiva ~ sono i punti non singolari che la curva ha in comune con la sua hessiana. 34.8
(d)
(c)
PROPOSIZIONE
Dimostrazione Consideriamo un punto semplice P Q= [qo, ql' qz]EP z. Si ha
= [Po, PI' pz] E !.t',
F(ì-P + flQ) = F(P)ì- n + "EF;(P)q i ì- n- 1fl
e un punto qualunque
+ _1 "EF;j(P)qiqjì-n-zfl z + ....
i
2! i,j
Il punto P è un flesso di ~ se e solo se
per ogni Q tale che "EF;(P)qi = 0, l
cioè per ogni Q appartenente alla retta tangente (e)
Figura 34.1
"EFJP)Xi = O. l
7
in P, che ha equazione
Curve algebriche piane
400
4) PE:f! è un punto multiplo ordinario (non ordinario) per :f!se e solo se T(P)
Quindi P è un flesso se e solo se 7 è una componente della conica r di equazione
è un punto multiplo ordinario (non ordinario) per T(:f!).
EFij(P)XiXj = O. l,}
Se P è un flesso, r è degenere, cioè H(P) = o. Viceversa, supponiamo H(P) = O, cioè r degenere. Applicando due volte la proposizione A.12(3), si trova
EF.(P)pp = [EFoiP)p)po + [EF1j(P)P)Pl + [EFziP)pj]Pz = i,j l} l} j } } = (n -l)EFi(P)Pi = n(n -l)F(P) = O, I
Dimostrazione 1) Poiché le rette del fascio di centro P e quelle del fascio di centro T(P) si corrispondono biunivocamente, per la proposizione 33.9 si ha mp(:f!) = minpEJ(:t;, ~; P) = minT(P)ET(~l(T(:f!), T(~); T(P» = m T(P) (T(:f!».
EFij(P)PiXj = O. l,}
Poiché si ha
34.11 Complementi 1. Siano :f! e !?J due curve (affini o proiettive). Per ogni punto P del piano si ha [34.17]
EFij(P)PiXj = (n -1)fFlP)Xi, l,)
la tangente ar in P è T. Il fatto che r è riducibile implica che T'è una componente di r. Quindi P è un flesso. Dalla proposizione precedente e dal teorema 33.1 segue immediatamente il seguente corollario. 34.9 COROLLARIO Una curva proiettiva di grado n 2: 3, se non ha injinitiflessi, ne ha al più 3n(n - 2) e, se è non singolare, ne ha almeno uno. Il risultato seguente esprime la relazione esistente tra leyroprietà locali di due curve proiettivamente equivalenti. (L? Z Z Z • • 't' 34.10 PROPOSIZIONE Siano..0 C P una curva e T : P ~ P una prolettlVl a. 1) Per ogni PEp z si ha
=
mT(p)(T(:f!»;
in particolare P è punto semplice (punto multiplo) per :f!se e solo se T(P) è punto semplice (punto multiplo) per T(:f!). 2) Una retta ~ è tangente (tangente principale) a :f! in P se e solo se T(~) è tangente (tangente principale) a T(:f!) in T(P). 3) PE :f! è un flesso di specie k per :f! se e solo se T(P) è un flesso di specie k per T(:f!).
=
Le (2) e (3) sono una conseguenza immediata della (1) e della proposizione 33.9. La (4) segue dalla (2) e dal fatto che le rette del fascio di centro P e quelle del fascio di centro T(P) si corrispondono biunivocamente.
e quindi PE r. Inoltre la tangente a r in P ha equazione
mp(:f!)
401
34/Proprietà locali delle curve algebriche piane
La dimostrazione è un facile esercizio (si applichi la [33.22]). Dalla [34.17] discende che, data una curva qualsiasi :t;, i suoi punti singolari sono singolari per qualche sua componente irriducibile, oppure appartengono ad almeno due componenti, o a una componente multipla, Supponiamo in particolare che Yt sia ridotta. Dalla proposizione 34.4 segue che le componenti irriducibili di :f!hanno al più un numero finito di punti singolari; d'altra parte i punti di intersezione di tutte le possibili coppie di componenti irriducibili distinte di Yt sono in numero finito. Deduciamo quindi che ogni curva ridotta possiede al più un numero finito di punti singolari. Dalla [34.17] segue anche che se una curva (affine o proiettiva) :f! di grado n si decompone in n rette, non necessariamente distinte, passanti tutte per un punto P, allora mp(Yt) = n. Viceversa, se una curva (affine o proiettiva) :f! di grado n possiede un punto P di molteplicità n, :f!si decompone in n rette, non necessariamente distinte, passanti per P. Infatti ogni retta che contiene P e un altro punto di Ytha almeno n + 1 intersezioni con :f! e quindi, per il corollario 33.3, è una componente irriducibile di ~ Ne segue che ogni componente irriducibile di Yt è una retta contenente P, e quindi l'asserto. Supponiamo:f! affine di equazione [34.2]. La condizione che O = (O, O) sia un punto n-uplo per Yt equivale, per quanto appena visto, alla condizione chef(X, Y) si decomponga nel prodotto di n fattori lineari omogenei, e ciò è equivalente alla condizione che f(X, Y) sia un polinomio omogeneo.
26
Curve algebriche piane
402
35/Sistemi lineari di curve piane
403
Ad esempio, se ~ è una conica irriducibile r ~(~) è una retta. Se PE~, r~(~) è la tangente a ~in P. Se invece Pf/.~, allora r~(~) n~= (QI' Qz), e le rette L (P, Ql) ed L (P, Qz) sono tangenti a ~ (fig. 34.2).
Esercizi 1. Verificare che gli asintoti di un'iperbole come sono stati definiti nel § 32 sono asintoti anche nel senso della definizione data in questo paragrafo.
Figura 34.2
2. Nel piano affine A 2(C) si considerino le curve di equazioni: 2
2. Sia ~C pZ una curva proiettiva di equazione [34.6] e sia P un punto di pZ. Sostituendo
a) y 2(X - 2 Y) - (X 2 + y ) = =
[Po, PI' pz]
X + tP = (Xo + tpo' XI + tpi' X z + tpz) al posto delle variabili X = (Xo, XI' Xz) in F(X) , otteniamo il polinomio F(X + tP) in X o' Xi' X z, t. Uguagliando a zero il coefficiente di t'in F(X + tP) si ottiene una curva rr = r~(~), detta l'r-esima polare di P rispetto a ~ Se ~ ha grado n, rr ha grado n - r e ha equazione . I: Fi1 ... i,(X)Pi ",Pi, = O. l
Il,···,lr
rI
In particolare, rr è definita per O:5 r:5 n-l. Si ha rO di P è la curva di equazione
= 51, e la prima polare [34.17]
I: Fi(X)Pi = O. i
La più importante proprietà di r I è la seguente: ~n r ~(~) consiste dei punti QE~ che sono singolari oppure tali che la tangente a ~ in Q contenga P. Infatti QE~n r~(~) se e solo se F(Q) = O = I:Fi(Q)Pi' Ciò avviene prel
cisamente se Fo(Q)
°
b) (X- Y)3+X 2 - y2-4X=0 c) X 2(X 2 - y2) _ 4X 2Y + y3 =
d) X 2(X 2 + y2) _ X 2Y _ 4 y3 = e) X 2 y2 _ X 3 _ y3 - Xy = f) y2
4
+X +X
g) y - 4X 2 - X
5
=
°
5
=
O.
°
° °
Di ognuna di esse studiare le proprietà locali nell'origine e all'infinito. 3. Determinare equazioni cartesiane delle rette polari dei seguenti punti di P 2 (C): Fo = = [1, 0, O], F, = [O, 1, O], F 2 = [O, 0, 1], U = [l, 1, 1], P[l, 2, 3], rispetto a ciascuna delle coniche di equazioni seguenti, in coordinate non omogenee: a) X
2 + 2 y2 - 4 =
c) XY= 4
°
b)X 2 -3XY+Y=O d) X 2 + y2 - 2XY = O.
4. Determinare equazioni cartesiane delle rette tangenti alla conica xg - xf + xi = e passanti per il punto [1,0, 1].
°
!f! di equazione
5. Sia !f! una conica a centro di A 2(K). Dimostrare che la polare del centro di la retta impropria.
!f! è
= F I(Q) = Fz(Q) = O,
cioè se Q è singolare per 51, oppure se P appartiene alla tangente in Q, che ha
35 Sistemi lineari di curve piane
equazione I:F;(Q)Xi = O. i
Quindi le tangenti condotte da P a ~ in suoi punti non singolari sono le rette congiungenti P con i punti non singolari di ~ che stanno su r~(~). Da ciò segue che il numero di tali tangenti è al più n(n -1). Segue anche che, se PE51, allora PEr~(~).
Anche in questo paragrafo supporremo che il campo K sia algebricamente chiuso. Sia n ;:::: 1 un intero. La totalità delle curve di grado n di pZ = PZ(K) si dice il sistema lineare di tutte le curve di grado n, e si denota con An' Denotiamo con K [X]n C K [X] = K [Xo, XI' X z] lo spazio vettoriale costituito dal polinomio Oe da tutti i polinomi omogenei di grado n. Dalla definizione 28.2
Curve algebriche piane
404
segue che una curva di p 2 = p2 (K) di grado n può identificarsi con un elemento dello spazio proiettivo P(K[X]n). Quindi An = P (K[Xln) è uno spazio proiettivo. Nel caso n = 1 otteniamo il sistema lineare delle rette. La base di K [X]n costituita da tutti i monomi monici di grado n individua come coordinate di un polinomio i suoi coefficienti. Quindi le coordinate omogenee di una curva !1tEAn , rispetto al riferimento proiettivo individuato dai monomi monici, sono i coefficienti di uno qualsiasi dei polinomi che la definiscono. La dimensione di An è uguale a
n+ dim(K[X]n) - 1 = ( 2
1) -1
=
n (n + 3) 2 .
In particolare, il sistema lineare delle rette ha dimensione 2, quello delle coniche ha dimensione 5, quello delle cubiche ha dimensione 9 ecc. Un sistema lineare di curve di grado n è un sottospazio proiettivo A di An. Se ha dimensione 0, A consiste di una sola curva; se ha dimensione 1, il sistema lineare è un fascio, se ha dimensione 2 è una rete. Un sistema lineare di dimensione r può essere individuato da (r + 1) sue curve indipendenti di equazioni Fo(X)
= 0, ... ,
Fr(X)
= O.
=
che è a~punto una condizione lineare omogenea nei coefficienti U ijk • Quindi le curve dI ~n che contengono P sono quelle le cui coordinate Uijk sono soluzioni dell'equazIOne precedente: esse costituiscono pertanto un iperpiano di A . Più in generale, imponendo il passaggio per un punto assegnato P con ~olte plicità almeno r, dove r~ 1, si ottengono r(r + 1)/2 condizioni lineari corrispondenti all'annullarsi in P di tutte le derivate parziali di F(X) di ordine r -1, rispetto alle variabili X o' XI' X 2 • Si ha quindi la seguente proposizione.
rl ,
°
2
Comunque si assegnino punti distinti Pl> ... , P t , e interi
35.1 PROPOSIZIONE rt ~ 1, tali che
••• ,
n(n+3) 2
~
Et (r.+1) J 2
j~1
,
e~iston.o curve di grado n passanti per P I , ••• , P t con molteplicità almeno r , ••• , r l t riSpettIvamente, e la loro totalità costituisce un sistema lineare di dimensione almeno uguale a
per opportuni (Ào' ••• , Àr ) -;é. (O, ... , O). Un caso particolare che abbiamo già incontrato in precedenza è quello di un fascio di rette, individuato da due sue rette distinte qualsiasi. Un sistema lineare A può essere assegnato anche come intersezione di iperpiani di An. L'equazione di un iperpiano di An è lineare omogenea nei coefficienti della curva variabile, e viene chiamata condizione lineare sulle curve del sistema lineare An. . . n (n + 3) .. n (n + 3) Poiché A ha dImenSIOne , comunque SI assegnmo M:::; - - - n
405
terminate Uijk· Chiameremo F(X) il polinomio omogeneo generico di grado n. La condizione di passaggio per P è F(P) = 0, cioè
[35.1]
Ogni altra curva del sistema ha equazione EÀ.F(X) j J J
35/Sistemi lineari di curve piane
2
condizioni lineari, esistono curve di grado n che le soddisfano. Tali condizioni individuano quindi un sistema lineare A di dimensione pari almeno a n(n + 3) -M. 2 Il più naturale tipo di condizione lineare si ottiene imponendo il passaggio per un punto assegnato P[Po' PI' P2]. Sia
il polinomio omogeneo di grado n in X o, XI' X 2 i cui coefficienti sono delle inde-
n (n
+ 3) - Et
2
(r. + 1) J
•
2
1'=1
Dalla proposizione 35.1 discende in particolare che esistono curve di grado n . n(n + 3) . passantl per M:::; 2 puntI comunque assegnati. In particolare, per 2 punti passa u~a retta, per 5 punti passa almeno una conica, per 9 punti passa almeno una cubIca ecc. Il sistema lineare descritto dalla proposizione 35.1 si denoterà con [35.2] Se dim [An (pr,l ' pr,2'
... ,
pr,)] _ n (n , -
+ 3) 2
-
kJ
~
(r + 1)
1'=1
2
j
'
diremo che i punti P I , ••• , P t aventi rispettivamente molteplicità r l , ••• , r impont gono condizioni indipendenti alle curve di grado n. Più in generale, assegnato un sistema lineare A di curve di grado n, i punti
Curve algebriche piane
406
P I, ... , PI' di rispettive molteplicità rl, ... , rl' impongono condizioni indipendenti
35/Sistemi lineari di curve piane
P!, ... , P r ha equazione F(X)
407 =
O, dove F(X) è il determinante della matrice
a Ase dim[An(P[', P;', ... , P?) n A] Se r I
=
I
dim(A) - j~I
(r. 2+ 1) . J
= ... = rl = 1
diremo semplicemente che i punti P I, ... , P I impongono condizioni indipendenti a A. È evidente che, se P!, ... , P I impongono condizioni indipendenti a A, ciò avviene per ogni loro sottoinsieme. Un punto P appartenente a tutte le curve di un sistema lineare A si dice punto base di A. Se tutte le curve di A hanno una componente irriducibile <1>0 in comune, la curva <1>0 si dice componente fissa di A. Ad esempio, i punti P I , ••• , P I sono punti base del sistema [35.2]. Essi si dicono punti base assegnati del sistema lineare [35.2], ed r!, ... , rl le loro molteplicità. Non sempre i punti base di un sistema lineare coincidono con quelli assegnati. Ad esempio, dati 3 punti base P!, P z, P 3 su una retta t-, tutte le coniche che li contengono hanno t- come componente, e quindi t- è una componente fissa di Az(PI, P z, P 3), e ogni altro punto di t- è un punto base non assegnato del
sistema lineare AZ(P I, P z, P 3)· I punti base di un fascio A sono esattamente i punti di intersezione di due sue curve qualsiasi. Infatti, se ~: Fo(X)
=O e
~: FI(X)
=O
sono due curve del fascio, ogni altra curva
Infatti dalla sua espressione si vede che il polinomio F(X) è combinazione lineare E A. Inoltre contiene di Fo(X), ... , FAX), e quindi definisce una curva P!, ... , P" perché per ogni i = 1, ... , r, F(PJ è il determinante di una matrice avente due righe uguali. Le proprietà dei fasci di curve consentono di dimostrare il seguente teorema:
:c
:c
35.3 TEOREMA Se due curve proiettive di grado n hanno in comune N (::5 n Z) punti distinti, e se mn di essi appartengono a una curva irriducibile di grado m < n, allora i rimanenti N - mn punti appartengono a una curva di grado n-m. Dimostrazione Siano ~ e ~ le due curve di grado n, e sia g la curva irriducibile di grado m che contiene gli mn punti dell'enunciato. Fissato arbitrariamente un punto PE g diverso da questi mn punti, esiste una curva del fascio individuato da ~ e ~ che contiene P. Poiché ha mn + 1 punti in comune con g, essa ha una componente irriducibile in' comune con g. Ma g è irriducibile, e quindi 2t = g + 5tf, dove!rR è una curva di grado n-m. Poiché contiene gli N punti ~ n ~ e g contiene mn di questi e nessuno dei rimanenti N - mn (perché altrimenti g sarebbe componente irriducibile di ~ e di ~, il che contraddirebbe il fatto che ~ e ~ hanno solo un numero finito di punti in comune), questi sono contenuti in ii:
:c
:c
:c
:c EA ha equazione [35.3]
e quindi contiene ogni P E~ n ~. Viceversa, se P è un punto base di A allora in particolare appartiene a ~ e a ~. Se alle curve del fascio A si impone il passaggio per un punto qualsiasi Q diverso dai punti base, si ottiene dalla [35.3] un'equazione lineare omogenea in À., f.t, che ammette un'unica soluzione. Quindi esiste un'unica curva di A che contiene Q. In altre parole, Q impone una condizione a A. Più in generale, sia A un sistema lineare di curve di grado n di dimensione r ;::: 1. Se si scelgono punti distinti P I , ••• , P r in modo sufficientemente generale, essi impongono condizioni indipendenti a A. Basta infatti scegliere P I che non sia punto base di A, P z che non sia un punto base di A n An (PI)' P 3 che non sia un punto base di A n An(Pl' Pz) ecc. Se il sistema A è individuato dalle r + 1 curve [35.1], e se P I , ••• , P r impongono condizioni indipendenti a A, allora la curva appartenente a A e contenente
Terminiamo il paragrafo con un teorema che descrive la trasformazione di An indotta da una proiettività di p Z • 35.4 TEOREMA Sia T: pZ --+ pZ una proiettività. Per ogni n ;::: 1 l'applicazione di An in sé stesso che associa ad ogni curva 2t EAn la trasformata T(2t) è una proiettività. Dimostrazione Supponiamo che si abbia T-l
(xo,
Xl'
xz)
=
(aooxo + aOl Xl + aozxz, alOxO + all Xl + a 12 x Z' azoxo + + aZI Xl + azzxz)·
Curve algebriche piane
408
E
U/kXòX{X~ J
=O
la trasformata T(~) ha equazione E
/+j+k~n
409
È facile verificare che queste due condizioni sono linearmente indipendenti. Dunque le [35.4] individuano un sistema lineare E>py di curve di grado n, avente n(n + 3) dimensione .. - 2. 2 Se :tf: F(X) = O è una curva appartenente a E>P.~' allora, per un opportuno a>é O, si ha
Per ogni curva ~E An di equazione /+j+k=n
35/Sistemi lineari di curve piane
VikXbX{X~ = O, J
nF(P)
dove
I coefficienti v/ jk sono espressioni omogenee di primo grado degli u/ jk a coefficienti polinomi omogenei di grado n negli a/h' Ciò equivale a dire che la trasformazione che muta gli Uijk negli v/ jk è una proiettività. La proiettività di An indotta da una proiettività di p2 induce, come ogni altra, un isomorfismo di ogni sottospazio di An sulla sua immagine. Quindi sistemi lineari vengono trasformati in sistemi lineari della stessa dimensione. Un caso particolare di cui faremo uso nel paragrafo 36 si ottiene per n = 1: ogniproiettività T: p2 -+ p2 induce una proiettività di AI' e, per ogni PE p2, questa induce un isomorfismo del fascio di rette AI (T(P)) sul fascio di rette AI (P).
= Fo(P)po + FI(P)PI + F 2(P) P2 = aaopo + aalPI + aa2P2 = O,
e quindi ~ contiene P. Inoltre, per la [35.4], ~ è tangente a ~ in P oppure P è singolare per j:f. Viceversa, è evidente che ogni curva di grado n avente ~ come tangente in P oppure singolare in P appartiene a E>p,~. 2. Sistemi lineari di curve affini. La teoria dei sistemi lineari, pur appartenendo
alla geometria delle curve proiettive, può utilmente applicarsi allo studio delle curve affini ed euclidee, utilizzando il passaggio da coordinate omogenee a non omogenee e viceversa. Accenniamo bre~emente al caso dei fasci, lasciando al lettore il caso generale. Sianof(X, Y), g(X, Y) E K [X, Y] di gradi n ed m rispettivamente, n 2': m 2': O. Al variare di tE K l'equazione f(X, Y)
+ tg(X, Y)
=
[35.5]
O
definisce una curva di grado n di A 2(K) la cui chiusura proiettiva è la curva di grado n
35.5 Complementi 1. Condizione di tangenza a una retta in un suo punto. Sia ~ una retta di
equazione aoXo + alXI + a2X 2 = O
e P = [Po, PI' P2] un suo punto. Imponiamo ai coefficienti del polinomio generico F (X) la seguente condizione di proporzionalità: [ao' al' a2] = [Fo(Po, PI' P2)' FI(po, PI' P2)' F2(po, PI' P2)]'
[35.4]
La [35.4] è la condizione che la matrice (
Fo(Po'PI'PJ
FI(Po,PI,pJ
F 2(Po'PI'PJ)
ao
al
a2
abbia rango 1, ed equivale all'annullarsi dei suoi minori di ordine 2. Se ad esempio ao >é O questa condizione equivale alle due seguenti condizioni lineari omogenee sui coefficienti di F(X): aIFo(po, PI' pJ - aoFI(po, PI' pJ = O a2F o(po, PI' P2) - aOF 2(po, PI' pJ
= O.
[35.6] dove F e G sono i polinomi omogeneizzati dI f e g. La [35.6] definisce un fascio di curve di grado n di cui la [35.5] è l'equazione in coordinate non omogenee. Se ad esempio g è costante, il fascio [35.6] è quello individuato dalla curva F(Xo' XI' XJ = O e dalla retta impropria contata n volte. Queste osservazioni si applicano anche al caso di un campo K qualsiasi, e al caso euclideo. Ad esempio, siano ~ 9 C E 2 due circonferenze aventi in comune i due punti P, QE E 2, e ~*, 9 * C p2(C) le loro chiusure proiettive. Poiché Yf'* n 9 * consiste dei punti ciclici e di P e Q, ogni conica reale non degenere del fascio di coniche A individuato da ~ *, 9 * possiede punti reali e passa per i punti ciclici, quindi è la chiusura proiettiva di una circonferenza di E 2 passante per P e Q. Per questo motivo A si dice fascio di circonferenze. Analogamente, se f(X, Y) = O è l'equazione di una parabola ~ di E 2 , e aX + bY + c è un polinomio non nullo di grado minore o uguale al, l'equazione f(X, Y)
+ t(aX + bX + c) =
O
[35.7]
rappresenta ovviamente ancora una parabola per ogni tE R, perché i termini di
Curve algebriche piane
410
35/Sistemi lineari di curve piane
secondo grado del primo membro sono gli stessi di quelli dif(X, Y). Abbiamo quindi unfascio di parabole. Dal punto di vista proiettivo la [35.7] si interpreta osservando che la sua chiusura proiettiva è la curva di equazione [35.8]
°
°
Poiché le coniche di equazioni F(Xo' Xl' X:J = e XO(aXI + bX2 + cXo) = hanno per tangente la retta impropria t- nel punto improprio di ~ ciò avviene anche per la [35.8], perché entrambe appartengono al sistema lineare 0p.~ (cfr. complemento l). In modo simile si dimostra che se!J: è un'ellisse, o un'iperbole, allora per tE R la [35.7] è l'equazione di un'ellisse, rispettivamente di un'iperbole, e quindi si ha un fascio di ellissi, rispettivamente un fascio di iperboli.
°
3. Generazione proiettiva delle curve piane. Sia r ~ un intero. Per ogni i = 0, ... , r siano FiO(X), ... , F;r(X) polinomi omogenei di grado n; linearmente indipendenti, e sia A(;) il sistema lineare di curve di grado n; di equazione
Sia G(X) il determinante della matrice
411
nei di grado m, linearmente indipendenti, la curva di grado n + m di equazione [35.10] è il luogo dei punti di intersezione variabile delle curve dei due fasci
+ Àl F OI (X) = ÀOFIO (X) + Àl Fu (X) = ÀoFoo (X)
°
°
per stessi valori dei parametri À o'
Àl .
Nel caso n = m = l la [35.10] è una conica.
Esercizi 1. Siano (ao, ab az), (bo, bb b z), (co, Cb Cz), (do, di, d z), (eo, eb ez), (io, f,,h) sei punti di pZ(K). Dimostrare che esiste una conica che li contiene se e solo se è soddisfatta
la condizione aoa,
aoaz
a~
a,az
ai
bg
bobl
bobz
cg
Co CI
CoCz
bf cf CICZ
ci
dg
do d,
dodz d~
ag
blbz bi d,dz di
eg
eoe,
eoez
e~
ele2
ei
fg
fof
fofz
f~
f,fz
fi
=0.
2. Siano (ao, ab az), (bo, bb b z), (co, Cb Cz), (do, d b d z), (eo, e" ez), cinque punti di pZ(K). Dimostrare che essi impongono condizioni indipendenti al sistema lineare delle coniche se e solo se la matrice
che è un polinomio omogeneo di grado no + n l + ... + nr • Sia !J:C p2 la curva piana di equazione G(X) = O. Un punto P appartiene a !J: se e solo se la matrice [35.9], calcolata in P, ha rango ::;; r. Ciò è equivalente all'esistenza di una soluzione non banale del sistema di equazioni lineari omogenee di cui essa è la matrice dei coefficienti, cioè all'esistenza di lo, ... , IrE K non tutti nulli tali che si abbia simultaneamente 10F;0(P)
Quindi PE equazioni
+ ... + IrF;r(P)
!J:
10F;0(X)
=
0,
i = 0, ... , r.
se e solo se P appartiene simultaneamente alle r + l curve di
+ ... + IrF;r(X)
=
0,
i = 0, ... , r.
Questa descrizione di !J: è una sua generazione proiettiva per mezzo dei sistemi lineari A(o)' ... , A(r)" Ad esempio, dati Foo(X), F OI (X) omogenei di grado n, FIO(X), Fu (X) omoge-
ag
aoal
aoaz
a~
a,az
bg
bobl
bobz
blbz bi
d
Co CI
CoCz
bf cf
CICZ
ai ci
dg
do d,
dodz
d~
d,dz di
eg
eoe,
eoez
e~
e,ez
ei
ha rango massimo. Dimostrare che se questa condizione è soddisfatta, allora la conica che contiene i cinque punti assegnati ha equazione xg
XOXI XoXz X~
ag
aoal
bg
aoaz
a~
X,Xz xi alaz
ai
bob l
bobz
b~
blbz
bi
cg
Co CI
CoCz
c~
CICZ
ci
dg
do di
dodz
d~
dldz
di
eg
eoel
eoez
e~
elez
ei
=0.
412
Curve algebriche piane
3. Siano Pio P 20 P 30 P 4 Ep2 (K) punti distinti e non allineati. Dimostrare che Pio P 2 , P 3 , P 4 impongono condizioni indipendenti alle coniche, e che pertanto A2 (P 1 , P 2 , P 3 , P 4) è un fascio di coniche.
361Cubiche
, possiamo trasformare P nel punto [O, 0, 1] in modo che la tangente di flesso sia la retta di equazione X o = O. In coordinate affini la curva trasformata di Yt ha equazione:
4. Dimostrare che se Pio P 2 , P 3 , P 4 E p2 (K) sono punti distinti e a tre a tre non allineati, allora Pio P 2 , P 30 P 4 sono gli unici punti base del fascio di coniche A 2 (P 1, P~ P 3 , P 4 ). 5. Dimostrare che un fascio di coniche di p2(K) privo di componenti fisse càntiene al più 3 coniche degeneri, e che se il fascio ha 4 punti base (distinti), allora le sue coniche degeneri sono esattamente 3 (cfr. fig. 35.1).
413
yZ = g(X)
[36.2]
dove g(X) è un polinomio di grado 3. Se g(X) avesse una radice multipla a, la curva [36.2] sarebbe singolare in (a, O). Quindi g(X) è della forma
con a;é 0, e al' az, a 3 E C distinti. L'affinità corrispondente alla sostituzione:
X= (a z - (1)X' + al y
6. Dimostrare il seguente teorema di Poncelet: Se una curva proiettiva irriducibile !Ii' di grado n ~ 3 è intersecata in n punti distinti da una retta ~, le n tangenti a !li'in questi punti incontrano !li'in altri M::; n (n - 2) punti che appartengono a una curva di grado n - 2. (Suggerimento. Considerare il fascio 'determinato da !Ii' e dalla curva costituita dalle n tangenti, e imporre alle curve del fascio il passaggio per un punto di ~. Quindi utilizzare il complemento 35.5(1).)
36 Cubiche In questo paragrafo supporremo K = C. Nello studio delle cubiche proiettive complesse si presentano fenomeni geometrici nuovi rispetto al caso delle coniche. In questo paragrafo ne illustreremo alcuni aspetti, iniziando da quello della classificazione. Il primo passo per classificare le cubiche proiettive non singolari è costituito dal seguente teorema. 3.6.1 TEOREMA Ogni cubica non singolare Yt C pZ = pZ(C) è proiettivamente equivalente a una cubica di equazione affine:
Dal corollario 34.9 segue che una cubica possiede al più 9 flessi distinti, se non ne possiede infiniti. Per le cubiche non singolari abbiamo il seguente risultato più preciso: 36.2 TEOREMA 1) Una cubica non singolare Yt possiede esattamente nove flessi, che hanno la proprietà che una retta che ne contiene due, ne contiene un terzo. 2) Dati comunque due flessi A e B di Yt, esiste una proiettività cp: pZ --+ pZ che trasforma Yt in sé stessa e scambia tra loro A e B lasciando fisso il flesso allineato con A e B.
Dimostrazione Grazie al teorema 36.1, è sufficiente dimostrare il teorema per le cubiche della forma [36.1], o, equivalentemente, della forma f(X, y) =0, dove
f(X, Y) = yz - X 3 + (c + 1) X Z- cx. Si calcola facilmente che, in coordinate non omogenee, l'hessiana dif(X, Y) è
[36.1]
h (X, Y) = 8 [(Yz + cX) (3X - (c + 1»- «c + l) X - c)Z]
per qualche cE C\ (O, 1). Dimostrazione Poiché è non singolare,
-Ja(az - a l)3 Y'
trasforma la [36.2] nella [36.1], con c = (a 3 - al)/(az - al).
Figura 35.1
yZ =X(X -1) (X - c),
=
e il risultante di f e h/8 rispetto a Y è
Yt possiede almeno un flesso P. Con una proiettività
414
Curve algebriche piane
Calcolando il discriminante di R(X) si trova
e quindi R (X) ha quattro radici distinte, nessuna delle quali è O. Poichéf(X, Y) e h (X, Y) contengono la Y solo in grado 2, per ogni (x, y) che li annulla entrambi, anche (x, - y) ha la stessa proprietà. Quindi ognuna delle radici di R(X) corrisponde a due punti propri distinti in comune a y; e alla sua hessiana, perché ogni punto siffatto (x, y) soddisfa la condizione y ,r. O. Se ne deduce che, oltre al punto improprio [0, 0, l], Y; possiede altri 8 flessi, cioè Y; ha in totale 9 flessi. Siano ora assegnati due flessi di 5ff. Possiamo supporre che uno di essi sia [O, 0, l], e l'altro sia (x, y), y,r. O. Allora (x, - y) è un flesso ed è allineato con [O, 0, l] e (x, y). La prima parte del teorema è così dimostrata. Siano A e B due flessi qualsiasi di .tf, e sia C il terzo flesso allineato con A e B. Possiamo supporre C = [0, 0, l], e quindi A = (x, y), B = (x, - y). La proiettività cp(Xo, Xl' Xz) = (Xo, Xl> - Xz),
ha la proprietà voluta. Il seguente è un risultato classico sulle cubiche non singolari: 36.3 TEOREMA (SALMON, 1851) Sia Y; una cubica non singolare di pZ e sia p un suo flesso. Y; possiede esattamente quattro tangenti distinte che contengono P, inclusa la tangente in P. Il loro modulo è indipendente dalla scelta di P.
Dimostrazione Supponiamo dapprima che Y; sia la cubica [36.1], per qualche e,r. 0, l, e che P = [O, 0, l]. Y; possiede quattro tangenti distinte passanti per P: le rette Y = c, Y = l, Y = 0, e la retta impropria. Sia ora Y; una cubica non singolare qualsiasi e sia cp: pZ -> pZ una proiettività che trasforma Y; in una cubica [36.1], in modo che cp(P) = [0, 0, l]. Poiché le tangenti a Y; passanti per P e quelle a cp(Y;) passanti per [0, 0, l] si corrispondono biunivocamente (cfr. proposizione 34.10), la prima parte del teorema è dimostrata. Inoltre il birapporto delle 4 tangenti in P è lo stesso delle loro trasformate, prese nello stesso ordine, perché cp induce un isomorfismo dei due fasci di rette di centro P e [0, 0, l] rispettivamente. Il modulo comune delle quaterne di tangenti passanti per i flessi di una cubica non singolare Y; di pZ si chiama modulo della cubica, e si indica con j(Y;). Se la cubica Y; ha equazione [36.1], allora c = (3(0, 00, l, c). Poiché la corrispondenza che alle rette del fascio di centro [0,0, l] associa il loro punto di inter-
415
361Cubiche
°
sezione con la retta X z = è un isomorfismo di rette proiettive, segue che c è anche il birapporto delle quattro corrispondenti rette tangenti a Y; e passanti per [0, 0, l] (Y= 0, la retta impropria, Y = l, Y = c). Quindi Z
'(Y;) = '(e) = (e - c + 1)3 . J J cZ(e-I)Z
Dimostreremo che il modulo j(Y;) individua la classe di equivalenza proiettiva della curva. 36.4 COROLLARIO Due cubiche non singolari Y; e Y;' di pZ sono proiettivamente equivalenti se e solo se j(Y;) = j(Y;/).
Dimostrazione Se Y; e Y;' sono proiettivamente equivalenti, allora entr~mbe sono equivalenti a una stessa cubica della forma [36.1], e quindi j(Y;) =j(e) =j(Y;/).
Viceversa, supponiamo che la cubica Y; abbia equazione [36.1] e Y;' abbia equazione
y Z =X(X -l) (X - c'), con j(c)
= j(e' ).
[36.3]
Se e,r. c' , allora c' è una delle seguenti cinque espressioni in c:
1- c,
l
1- c '
c c-l'
c-l c
Sarà sufficiente determinare una proiettività che trasforma la [36.1] nella [36.3] nei due casi c' = C-I, l - c; negli altri ,casi le proiettività si ottengono componendo opportunamente queste due. Se c' = C-I, la proiettività corrispondente alla sostituzione di (eX, e 312 Y) al posto di (X, Y) trasforma la [36.1] nella [36.3]. Se c' = 1- c, si considera invece la proiettività corrispondente alla sostituzione di (-X + l, i Y) al posto di (X, Y). Sia 1
=
(classi di equivalenza proiettiva di cubiche non singolari l.
Il corollario 36.4 stabilisce una corrispondenza biunivoca tra 1 e il sottoinsieme di C costituito da tutti i valorij(e), cE C\ {O, l}. Ognij(e) proviene da al più 6 valori distinti di c: poiché C è infinito, in particolare anche 1 è infinito. Si osservi la differenza tra questo caso e quello delle coniche: abbiamo infatti dimostrato nel paragrafo 30 che esiste un'unica classe di equivalenza proiettiva di coniche non singolari.
416
.Curve algebriche piane
Terminiamo lo studio dell'equivalenza proiettiva di cubiche, considerando le cubiche singolari. Ci limiteremo al caso irriducibile. Per il teorema 33.5 una cubica irriducibile possiede al più un punto singolare, il quale deve essere un punto doppio, altrimenti la cubica si spezzerebbe nell'unione di tre rette passanti per quel punto. Se !ff ha un punto doppio ordinario P, con una proiettività possiamo trasformarlo nel punto [0, 0, 1] in modo c.he le tangenti principali siano le rette di equazioni X o = e XI = O. Allora !ff ha equazione affine
°
XY + aX 3 + bX 2 + cX + d
=
°
[36.4]
con a ;r. O. La proiettività corrispondente alla sostituzione X=~a-Id X',
417
36/Cubiche
....
per un opportuno
oE C.
Con l'ulteriore sostituzione
X' =~a-I X
Y'
= Y-o
si ottiene l'equazione
Y +X 3 =0,
[36.6]
che non dipende da a, b, c, d. Deduciamo quindi che tutte le cubiche irriducibili con una cuspide ordinaria sono proiettivamente equivalenti tra loro. In particolare ogni cubica irriducibile con un punto doppio non ordinario è proiettivamente equivalente alla curva di equazione
y 2 =X 3 , che è irriducibile, ha una cuspide ordinaria nell'origine, e un flesso in [0, 0, 1]. Deduciamo quindi che tutte le cubiche irriducibili con una cuspide ordinaria possiedono almeno un flesso. Riassumendo, abbiamo il seguente teorema.
trasforma la [36.4] nella
X' Y' +X'3+1=0, che non dipende da a, b, c, d. Se ne deduce che tutte le cubiche irriducibili con un nodo sono proiettivamente equivalenti tra loro. In particolare ogni cubica irriducibile con un nodo è proiettivamenteequivalente alla cubica di equazione
36.5 TEOREMA 1) Esistono due classi di equivalenza proiettiva di cubiche irriducibili e singolari, che sono rappresentate dalle curve di equazioni: [36.7] [36.8]
che è irriducibile, ha un nodo nell'origine e un flesso in [0, 0, 1]. Quindi tutte le cubiche irriducibili con un nodo possiedono almeno un flesso. Se !ff ha un punto doppio non ordinario P, la tangente principale incontra !ff in P con molteplicità 3. Quindi P è una cuspide ordinaria. Con una proiettività possiamq trasformare P nel punto [O, 0, 1] in modo che la tangente principale sia la retta di equazione X o = O. Allora !ff ha equazione affine
Y + aX 3 + bX 2 + cX + d
=
0,
con a ;r. O. La proiettività corrispondente alla sostituzione
X=X'-~
3a
2 Y= Y' - -b+ c 3a
trasforma la [36.5] nella
Y' + aX'3 + o=
°
[36.5]
Le curve della classe [36.7] hanno un nodo, quelle della classe [36.8] una cuspide ordinaria. 2) Ogni cubica irriducibile ha almeno un flesso. Il teorema precedente completa la classificazione proiettiva delle cubiche irriducibili. La classificazione proiettiva delle cubiche riducibili si fa facilmente utilizzando quella delle coniche e viene lasciata al lettore. La classificazione delle cubiche affini e di quelle euclidee è più complicata, e la sua trattazione esula dagli scopi del presente volume. Essa si ottiene, in modo analogo al caso delle coniche, suddividendo le cubiche secondo il loro comportamento all'infinito. Le possibilità che si presentano quando si ha un solo punto all'infinito sono esemplificate, nel caso euclideo, dall'esempio 29.4(3) (parabole cubiche di Newton). Su una cubica non singolare è possibile definire in modo puramente geometrico una struttura di gruppo abeliano, una volta fissato un suo punto di flesso.
27
418
Curve algebt:iche piane
36/Cubiche
419
Dalla definizione di + sulla cubica non singolare 5f! segue subito che 3 punti A, B, CE5f! sono allineati se e solo se A + B + C = o.
36.7 Esempi 1. Una cubica non singolare equazione Figura 36.1
Consideriamo infatti una cubica non singolare Definiamo un'applicazione
y2 =X(X -l)(X + 1)
5f! di p2 e sia O un suo flesso.
si dice armonica. Se invece 5f! è proiettivamente equivalente alla cubica di equazione = X(X -I) (X -
y2
nel seguente modo. Per ogni A,.B E5f! sia R (A, B) il terzo punto di intersezione con 5f! della retta L(A, B) (o della tangente in A se A = B), convenendo di considerare ogni punto di intersezione con la sua molteplicità (fig. 36.1). Definiamo A
+B
36.6 TEOREMA Con l'operazione + introdotta sopra, la cubica non singolare 5f! è un gruppo abeliano, il cui elemento neutro è O.
Dimostrazione È immediato verificare che O è un elemento neutro rispetto a +, e che per ogni A E.1f, -A = R(A, O). Il fatto che l'operazione sia commutativa è ovvio. Resta quindi solo da verificare l'associatività di +. Dobbiamo verificare che, dati comunque tre punti A, B, CE.1f, si ha
+ (B + C) = (A + B) + C,
dove E >é-l è una radice cubica di 1, 5f! si dice equianarmonica. Le cubiche armoniche ed equianarmoniche hanno modulo rispettivamente uguale aj(-I) = 27/4, j(l + E) = O.
y2
= tX(X -1) (X - c)
hanno tutte lo stesso modulo j(c). Invece le cubiche non singolari del fascio y2
= X(X -1) (X - t)
hanno modulo variabile j(t).
Esercizi 1. Determinare l'hessiana della cubica !tfdi equazione
°
cioè che R(A, B+ C)
= R(A + B,
[36.9]
C).
X'; +xi +xi = e dimostrare che !tf ha i seguenti flessi: [0,1, -1], [O, 1,
Considerata la cubica
2
!?J= L(A,
1 - E),
2. Le cubiche non singolari del fascio
= R(R(A, B), O).
A
5f! proiettivamente equivalente alla cubica di
B)
+ L(A + B,
C)
+ L(O,
B
+ C),
si ha
[- E , 0, 1],
Daremo la dimostrazione nel caso in cui questi 9 punti sono distinti. Poiché i 3 punti B, C, R(B, C) sono allineati, dalla proposizione 35.3 segue che i rimanenti 6 sono su una conica. Ma di questi, O, A + B ed R(A, B) sono su una retta; ancora dalla proposizione 35.3 segue che gli altri 3 punti, A, B + C ed R(A + B, C), sono allineati, cioè la [36.9].
[O, 1,
_E
2
]
l, 0, 1], [- E,O, 1]
[1, - E, O], [1, - é, O], [1, -1, O],
dove
5f!n!?J= (O, A, B, C, A + B, B + C, R(A, 'B), R(A + B, C),R(B, C) l.
I-
-E],
E
;:<: 1 è
una radice cubica di 1.
2. Dimostrare che le cubiche passanti per i 9 punti dell'esercizio precedente sono precisamente quelle appartenenti al fascio I(X';
+ Xi + Xi) + mXOX,X2 =
o.
3. Determinare le cubiche singolari che appartengono al fascio dell'esercizio precedente. 4. Un fascio di cubiche tale che ogni cubica del fascio abbia per flessi i punti base è un fascio sizigietico. Dimostrare che il fascio dell'esercizio 2) è sizigietico.
Ir'i
]' ,
420
Curve
algebrich~
piane ,I
5. Dimostrare che la cubica armonica di equazione affine y2 = X(X 2 -1)
'i
Appendici
ha la proprietà di essere l'hessiana della propria hessiana. 6. Dimostrare che una cubica irriducibile con una cuspide possiede un unico flesso (Suggerimento. È sufficiente dimostrare che la cubica di equazione affine y2 = Xi possiede un unico flesso.) 7. Dimostrare che una cubica irriducibile con un nodo possiede tre flessi che sono allineati (Suggerimento. È sufficiente dimostrare l'asserto per la cubica di equazion~ XY + X 3 + 1 = O.) 8. Siano F(X) = O, G(X) = Ole equazioni di due coniche prive di componenti in comune L (X) = O, M(X) = O le equazioni di due rette distinte, e !ff la cubica di equazion~ F(X)
G(X)
I L (X)
M(X)
I
= O.
A Domini, campi, polinomi
!ff è proiettivamente generata dal fascio di coniche . ÀF(X) + p,G(X) = O e dal fascio di rette ÀL(X)
+ p,M(X) = O
(cfr. complemento 35.6 (3)). Dimostrare che !ff passa per i punti base del fascio di coniche e per il centro del fascio di rette. Si supponga che il fascio di coniche abbia 4 punti base distinti dal centro O del fascio di rette. Dimostrare che ogni conica del fascio interseca !ff in altri 2 punti allineati con O.
9. Dimostrare che su una cubica non singolare !ff su cui sia fissato un flesso O, esistono 4 punti distinti A tali che 2A = O. (Suggerimento. Utilizzare il teorema di Salmon.)
In quest'appendice sono trattati alcuni argomenti di algebra che vengono utilizzati in questo testo. L'esposizione non sarà completa di tutte le dimostrazioni, per alcune delle quali rinvieremo a un testo di algebra. Definizioni Fra le strutture algebriche maggiormente usate in geometria troviamo quelle di "campo" e di "dominio". Un campo è una tema (K, +,.) costituita da un insieme non vuoto K e da due operazioni binarie su K, cioè due applicazioni
+ : K x K-+ K,
. : K x K-+ K
chiamate somma e prodotto, che associano ad ogni coppia (a, b) E K x K un elemento a + bE K, chiamato "somma di a più b" e un elemento ab, chiamato "prodotto di a per b", in modo che siano soddisfatti i seguenti assiomi: Kl K2 K3 K4 K5 K6 K7 K8
(Commutatività della somma) a + b = b + a, per ogni a, bE K. (Associatività della somma) a + (b + c) = (a + b) + c, per ogni a, b, cE K. (Esistenza dello zero) Esiste un elemento OE K tale che a + O = O + a = a, per ogni a E K. (Esistenza dell'opposto) Per ogni aE K esiste a' E K tale che a + a' = O. (Commutatività del prodotto) ab = ba, per ogni a, bEK. (Associatività del prodotto) a(bc) = (ab)c, per ogni a, b, cE K. (Esistenza dell'unità) Esiste un elemento 1 E K tale che al = la = a, per ogni aE K. (Esistenza dell'inverso) Per ogni aE K, a ~ 0, esiste un elemento a* E K tale che aa* = 1.
A/Domini, campi, polinomi
Appendici
422
(Distributività della somma rispetto al prodotto) a(b + c) = ab + ac, per ogni a, b,CE K. KlO (Non-esistenza di divisori dello zero) Se ab = O e b ;t: O, allora a = O.
K9
di C sono: O [i] = {a+ib: a, bEO}
O[-vil]
Se la tema (K, +,.) soddisfa gli assiomi Kl, ... , K7, K9, KlO, ma non necessariamente K8, essa si dice dominio (o dominio d'integrità). Quando non vi sia possibilità di equivoco sulle operazioni che vi sono definite, il campo, o il dominio, (K, + ,.) si denoterà semplicemente con la lettera K. Denoteremo il sottoinsieme K\ {O} con K*. Con le usuali operazioni l'insieme Z dei numeri interi relativi è un dominio. Sono campi O, R e C, gli insiemi dei numeri razionali, reali e complessi rispettivamente, con le operazioni usuali. Zp = ZlpZ, l'insieme delle classi resto modulo un numero primo p ~ 2, dotato delle operazioni indotte dalla somma e dal prodotto in Z, è un campo. Sia K un dominio. Le seguenti proprietà seguono facilmente dagli assiomi e la loro dimostrazione verrà omessa. i) Esiste un unico zero, cioè se O' EKsoddisfa a + O' = O' + a = a per ogni a EK allora O' = O. ii) Esiste un unico elemento unità, cioè se u EK soddisfa au = ua = a per ogni aE K allora u = 1. iii) Per ogni aE K l'elemento a' EK di cui è asserita l'esistenza nell'assioma K4 è unico; esso si dice l'opposto di a, e viene di solito denotato con - a; si scriverà b - a invece di b + (- a). iv) Un elemento a EK è detto invertibile se esiste a* EK tale che aa* = a*a = 1. L'elemento a* è univocamente determinato da a, si chiama l'inverso di a, e si denota con a -I; talvolta si scrive alb invece di ab -I .
+ ... + a
(n addendi)
intendendo Oa = O. Se n EZ, n < O, a EK, poniamo per definizione na = an
=
{a+-vil b: a, bEO};
n intero positivo non divisibile per un quadrato
Z è un sottodominio di ognuno dei campi O, R, C. Un sottoinsieme F di un campo Kè un sottocampo se e solo se verifica le seguenti condizioni: SKl O, lE F. SK2 Se a, bE F allora a - bE F. SK3 Se a, bEF e b;t:O, allora ab-IEF. È evidente che ogni sottocampo soddisfa le SKl, SK2, SK3. Viceversa, se F verifica queste condizioni, dalla SKl segue che F ;t: 0; dalla SK2 con a = Osegue che per ogni bEF anche - bE F, e dalla SK3 con a = 1 segue che b -I EF se b ;t: O. Quindi si ha pure a + bE F e ab EF per ogni a, bE F. Le due operazioni inducono dunque operazioni su F in modo che K3, K4, K7 e K8 siano soddisfatti. Gli altri assiomi sono soddisfatti perché lo sono in K. Quindi F è un sottocampo di K. Un sottodominio di un dominio D ha la stessa caratteristica di D. In particolare, ogni sottocampo di C ha caratteristica O. Dalle SKl, SK2, SK3 discende immediatamente che ogni sottocampo di C contiene O. Ogni dominio contenente O ha caratteristica O. In un dominio si mantengono le usuali notazioni e convenzioni sugli esponenti: si scrive a n per denotare
aa ... a (n fattori)
Se n EN e aE K, scriveremo na per indicare la somma a
423
=
= (- n)(- a).
Se per ogni intero n > Osi ha n 1 ;t: Oil dominio K ha caratteristica O. Se invece esiste p > Otale che p 1 = O, allora K ha caratteristica positiva; il più piccolo intero p con tale proprietà è la caratteristica di K. Z, O, R e C hanno caratteristica O. Un esempio di campo di caratteristica positiva è il campo Zp delle classi resto modulo p, dove p ~ 2 è un numero primo. Un sottodominio di un dominio D è un sottoinsieme F di D sul quale le operazioni definite in D inducono altrettante operazioni in modo che esso sia ancora un dominio. Un sottocampo di un campo K è un sottodominio F di K che è un campo. Se F è un sottocampo di K, K è un'estensione di F. Ad esempio O ed R sono sottocampi di C e O è anche un sottocampo di R. Altri esempi di sottocampi
e, se a;t: O è invertibile, a-n denota con (a-Iy. Un importante esempio di dominio è costituito dai polinomi in una indeterminata a coefficienti in un dominio. Siano D un dominio e X un'indeterminata. Per ogni successione finita ao, a" ... , an di elementi di D, l'espressione
definisce un polìnomio in X a coefficienti in D, di cui ao' al' ... , an sono i coefficienti, e ao' alX, ... , anX n i monomi, o termini. Un'altra espressione g(X) = bo + + blX + ... + bmXm, bo, ... , bmE D, definisce lo stesso polinomio se e solo se f(X) e g(X) hanno gli stessi termini con coefficienti diversi da O. Il polinomio a coefficienti tutti nulli si dice polìnomio nullo, e si denota con O. Se f(X) ;t: O, il grado dif(X) è il più grande intero d tale che ad;t: O, e si denota con gr(f(X)).
424
Appendici
Un polinomiof(X) di grado d si dice monico se ad = l;f(X) si dice costante se è O oppure se ha grado O. L'insieme di tutti i polinomi in X a coefficienti in D si denota con D [X l. La somma di due polinomi f(X) = ao + alX + a2 X 2 + ... + anX n, g(X) = bo + blX + ... + bmxm, si definisce come il polinomio f(X) + g(X)
=
ao + bo + (al + bl)X + ...
e il loro prodotto come f(X) g(X)
=
aobo + (aob l + al bo) X + (aOb2 + al bi + a2 bo)X 2 + ...
Segue subito dalla definizione che, se f, g, f + g
~
O:
gr(f + g):5 max [gr(f), gr(g) J, gr(fg)
= gr(f) + gr(g).
Con le operazioni di somma e di prodotto che abbiamo definito, D [Xl è un dominio. La verifica è immediata ed è lasciata al lettore. Se D è un dominio ed XI' X 2 , ••• , X N sono indeterminate, un polinomio in XI' ... , X N a coefficienti in D è definito induttivamente come un polinomio in X N i cui coefficienti sono polinomi in X p ••• , X N _ I a coefficienti in D. L'insieme di tali polinomi si denota con D [XI' ... , X N_ I' X N]. In simboli, D [XI' ... , X N_ I' X N] = D [XI' ... , XN_I][XNl.
Ognif(XI, ... , XN)ED[XI , ••• , X N_I' XNl è in modo unico somma finita di monomi, cioè di termini della forma
ED* è il coefficiente del monomio, ij il grado rispetto a J0, e ••• iN = 1 il monomio si dice monico. Il grado di un polinomio non nullo f(X I, ... , X N) rispetto a J0 è il massimo dei gradi rispetto a J0 dei suoi monomi; il grado (o grado totale) di f(X I , ••• , X N) è il massimo dei gradi dei suoi monomi, e si denota con gr(f(Xp ••• , X N». Per definizione il polinomio nullo ha grado indeterminato. Siano D e D' due domini, con unità 10ED e 10,ED' rispettivamente. Un'applicazione f: D ~ D' si dice omomorfismo se soddisfa le condizioni dove ai,
'"
f(a + b) = f(a) + f(b), f(ab) = f(a) f(b) =
per ogni a, bE D.
lo"
(A vvertenza: taluni autori non richiedono quest'ultima condizione nella defi-
nizione, e chiamano "omomorfismi unitari" quelli che noi abbiamo chiamato omomorfismi.)
425
L'identità lo: D ~ D e la composizione go f: D ~ D di due omomorfismi j: D ~ D' e g: D' ~ D sono omomorfismi. Un isomorfismo è un omomorfismo f: D ~ D' che possiede un omomorfismo inverso. Due domini D e D' si diconoisomorfi se esiste un isomorfismo f: D ~ D' . L'identità, l'inverso di un isomorfismo e la composizione di isomorfismi sono isomorfismi. Pertanto l'isomorfismo è una relazione di equivalenza tra domini. Si osservi che un omomorfismo f: D ~ D'in cui D è un campo, è iniettivo. Infatti, se esistesse XE D* tale che f(x) = O, si avrebbe l'assurdo lo' = f(lo) = I I I := f(xx- ) = f(x) f(x- ) = Of(x- ). Il
Il
Il campo dei quozienti di un dominio Sia D un dominio. È possibile costruire un campo contenente D, che è in un certo senso il più piccolo campo con questa proprietà, in un modo che generalizza la costruzione del campo dei numeri razionali a partire da Z. A.l TEOREMA Per ogni dominio D esiste un campo L, unico a meno di isomorfismi, e chiamato campo dei quozienti di D, tale che 1) D è isomorfo a un sottodominio D' di L; 2) ogni elemento di L è della forma alb, dove a, b E D' .
Dimostrazione Sia S il sottoinsieme di D x D costituito da tutte le coppie (a, b) tali che b ~ O. Definiamo una relazione - in S ponendo (a, b) - (c, d) se e solo se ad - bc = O. È facile verificare che - è una relazione di equivalenza. Denotiamo con L l'insieme delle classi di equivalenza, e con S(a b)E L la classe dell'elemento (a, b). Definiamo operazioni in L nel modo seguente:
iN
il + ... + iN il grado (o grado totale) del monomio; se ail
f(lo)
A/Domini, campi, polinomi
S(a, b) + S(c, d)
= S(ad + bc, bd)
S(a, b) S(c, d)
S(ac, bd).
=
Queste operazioni sono ben definite perché non dipendono dai rappresentanti delle classi che intervengono nella definizione. Infatti, se
allora ab l = alb,
cdì = cld
e quindi (ad + ,?c)b l di acb l di
=
=
ab l dd l + bb l cdi
= al bddl
+ bb l CI d == (al di + bi cl)bd
al CI bd.
È facile verificare che L, con queste operazioni, soddisfa gli assiomi di campo,
se si prendono come zero e unità rispettivamente S(O, 1) ed S(l, 1). Il sottodomi-
426
Appendici
nio D' costituito dagli elementi della forma S(a, 1), aE D, soddisfa le condizioni (1) e (2) per la definizione stessa di L. Se H è un campo contenente un sottodominio D" tale che esista un isomorfismo i: D ~ D" e soddisfacente la condizione (2) rispetto a D" , allora l'applicazione f:L~H,
definita ponendo
f(S(a, b))
= i(a)/i(b),
è un omomorfismo suriettivo di campi, e quindi è un isomorfismo. In pratica è più comodo denotare un elemento S(a, b) del campo dei quozienti L di un dominio D con il simbolo a/b. Come abbiamo detto prima, il campo dei numeri razionali Q è il campo dei quozienti di Z. Un altro esempio importante di campo dei quozienti si ottiene considerando D =' K[X], dove K è un campo ed X è un'indeterminata. Il campo dei quozienti di D si chiama campo delle funzioni razionali in X a coefficienti in K, e si denota con K(X). I suoi elementi sono frazioni della formaf(X)/g(X), dove f (X), g(X) E K [X], g(X) ~ O. Più in generale, il campo dei quozienti di K[Xp ••• , X N ], dove K è un campo e XI' ... , X N sono indeterminate, si chiama campo delle funzioni razionali nelle indeterminate XI' ... , X N a coefficienti in K, e si denota con K(XI , ••• , X N ).
Proprietà di divisibilità e di fattorizzazione Sia D un dominio. Dati a, bE D diremo che a divide b, oppure che b è divisibile per a, in simboli al b, se esiste cE D tale che b = ac. In particolare, a è invertibile se e solo se alI. Si ha che a Ib e b Ia se e solo se b = ea, dove e ED è un elemento invertibile. In questo caso a e b si dicono associati. Un elemento aE D è irriducibile se è divisibile solo per i suoi associati e per gli elementi invertibili; altrimenti è riducibile. Una espressione a = al ... ar è una fattorizzazione di a, di cui gli aj si dicono fattori. D si dice dominio afattorizzazione unica se in esso sono soddisfatte le seguenti condizioni: DFU1 Ogni elemento non invertibile aE D si può fattorizzare come il prodotto al'" ar di un numero finito di elementi irriducibili di D. DFU2 Se al oo. ar = bI ... bs' in cui gli aj e i bk sono irriducibili e non invertibili, allora r = s ed è possibile riordinare gli aj in modo che aj sia associato a bj , j= 1, '00, ro
427
A/Domini, campi, po/inomi
È ovvio che ogni campo K è un dominio a fattorizzazione unica. Facendo uso della teoria elementare della divisibilità si dimostra che Z è un dominio a fattorizzazione unica. . Sia B un dominio. Le definizioni precedenti applicate a D = B[XI , 00" X N ] danno luogo alle nozioni di divisibilità tra polinomi, polinomi associati, polinomi
irriducibilio Ogni polinomio di grado 1 a coefficienti invertibili in B è irriducibile. 2 L'irriducibilità di un polinomio in generale dipende da B. Ad esempio, X + 1 è irriducibile come polinomio di R [X], ma in C [X] si fattorizza come
X 2 + 1 = (X + i)(X - i). Si osservi che se K è un campo, K [X] contiene infiniti polinomi monici irriducibili. Infatti, K[X] contiene qualche polinomio monico irriducibile (i p~l~no~i X - 01., 01. EK). D'altra parte, sefl (X),f2(X), o.. ,fn(X) EK[X] fossero tuttll pohnomi monici irriducibili, il polihomio monico
fl (X) f2(X) 000 fn(X) + 1 sarebbe irriducibile, perché non divisibile per alcuno di essi, e divèrso dafl (X), f2(X), .. o,fn(X), Quindifl (X), f2(X), "0' fn(X) non esauriscono tutti i polinomi monici irriducibili, che sono pertanto infiniti. Si ha il seguente importante teorema. A.2 TEOREMA (DI FATTORIZZAZIONE UNICA) Se D è un dominio a fattorizzazione unica e X è un'indeterminata, D [X] è anch'esso a fattorizzazione unicao In particolare, se K è un campo e XI' " 0 ' X N sono indeterminate, K [XI' " 0 ' X N ] è un dominio a fattorizzazione unicao Per la dimostrazione del teorema Ao2 rinviamo il lettore a [15]0 Raccogliendo i fattori che ricorrono più volte nella fattorizzazione di un polinomio fE K[XI , 00" X N ], si può scrivere f= gf'
o"
g:'
dove gl' '00' gs sono irriducibili e distinti. L'esponente ej si dice molteplicità di gj in fo Se ej > 1, gj è un fattore multiplo di f. Si ha l'identità:
grU) = elgr(gl) +
"0
+ esgr(gs)'
Ao3 PROPOSIZIONE Siano K un campo e X un 'indeterminata. Per ogni l, gEK[X], esiste hEK[X] tale che: 1) hlf, hlg; 2) se klf, klg, allora klh; 3) esistono A, BE K[X] tali che h = Af + Bgo
428
Appendici
h è detto massimo comun divisore (MCD) difeg, esi denota con MCD(f, g); esso è individuato a meno di un fattore costante. Per la dimostrazione della proposizione rimandiamo il lettore a [15].
Radici Siano D un dominio e X un'indeterminata. Per ogni
e per ogni aE D, il valore di f(X) in a è l'elemento di D
A/Domini, campi, polinomi
429
cioè se si ha
f(X)
= (X - a)'g(X)
[A.I]
per qualche e ~ 2. Il massimo intero e per cui esisfeuna fattorizzazione [A.I] si dice molteplicità della radice a per il polinomio f(X). Se ha molteplicità e = 1, a è una radice semplice. A un a che non è radice di f, si conviene di attribuire molteplicità e = O. Si noti che e è la molteplicità di a per f(X) se e solo se il polinomio g(X) che figura nella [A. 1] soddisfa g(a) =;t. O; poiché g(X) ha grado uguale a gr(f) - e, si ha e=:; gr(f).
A.5 COROLLARIO Un polinomio f(X) ED [X] di grado positivo d possiede al più d radici in D, se ognuna di esse viene contata con la sua molteplicità. ottenuto per sostituzione di a al posto di X. Si definisce in questo modo una applicazione f: D ~ D, detta funzione polinomiale definita da f. Se D' è un dominio contenente D come sottodominio, allora D [X] C D' [X], cioè ognif(X) ED [X] è anche un elemento di D' [X]. Pertanto ha senso parlare della sostituzione di un elemento a' ED'in f (X) al posto di X, e del valore f (a' ), che è un elemento di D'. Quest'osservazione si applica ad esempio al caso D' = D [X]· e permette di considerare il polinomio f (g(X» ottenuto per sostituzione di un polinomio g(X) E D [X] al posto di X in f(X). Siaf(X) un polinomio di grado positivo. Un elemento aE D tale chef(a) = O è una radice di f (X). A.4 PROPOSIZIONE divide f(X).
a E D è una radice di f (X) se e solo se il polinomio X - a
Dimostrazione Se X - a divide f (X), allora f(X) = (X - a)g(X), e quindi a è una radice dif(X). Supponiamo viceversa che a sia un radice dif(X). Se a = O,j(X) ha termine costante uguale a O, e quindi è divisibile per X. Se invece a =;t. O, introduciamo una nuova indeterminata Y e sia 1(Y) =f(Y + a)ED[Y].
Si hal(O) = Oe quindiJ(Y) y= X - a otteniamo
f(X)
=
~
2 e chef(X)
(X - a[)e'gl(X)
per un opportuno gl (X) ED [X] di grado d - el che soddisfa gl (al) =;t. O. Per ogni j = 2, ... , t si ha
O =f(a) = (aj
-
aIY'gl(a).
Poiché a j =;t. al e D è un dominio, è gl (a) e2 + ... + et =:; d - e l, e quindi
=
O. Per l'ipotesi induttiva,
el + e2 + ... + et =:; d. Il numero di radici che un polinomio ha in D dipende da D. Si pensi al polinomio X 2 + 1, che in C ha le radici ± i, ma non ne ha in R. Supponiamo che K sia un campo. Se ognif(X) E K[X] non costante possiede almeno una radice in K, il campo si dice algebricamente chiuso. Dalla proposizione A.4 si ottiene facilmente per induzione il seguente risultato (la dimostrazione è lasciata al lettore).
= Yg(Y) per un opportuno g(Y)E D[Y]. Sostituendo
f(X) =l(X - a) = (X - a)g(X - a) = (X - a)g(X), dove abbiamo posto g(X)
Dimostrazione Per induzione su d. Se d = 1 l'asserto è evidente. Supponiamo d possieda le radici distinte al' ... , a t, dLmolteplicità e l , ... , et. Scriviamo
=
A.6 TEOREMA Supponiamo che K sia un campo algebricamente chiuso. Ogni polinomio f(X) E K[X] di grado d ha esattamente d radici, se ognuna di esse viene contata con la sua molteplicità. Pertanto f(X) si fattorizza come
g(X - a).
a ED è una radice multipla dif(X) se (X - a) è un fattore multiplo dif(X),
dove al' ... , adE K sono le sue radici, non necessariamente distinte.
430
Appendici
Si noti che un campo algebricamente chiuso Kpossiede infiniti elementi. Infatti segue dal teorema A.6 che gli unici polinomi monici irriducibili in K [X] sono della forma X - a, a E K, e, come già osservato, i polinomi monici irriducibili sono infiniti. R non è algebricamente chiuso, perché esistono polinomi non costanti a coefficienti reali che non hanno radic.i reali, come i polinomi aX 2 + bX + c, in cui b 2 - 4ac
DELL' ALGEBRA)
Il campo C dei numeri com-
431
A/Domini, campi, polinomi
Consideriamo un dominio D, e sia f(X) = adX d + ad_lX d- 1 + .. , + alX + aoE D[X]. La derivata di f(X) è il polinomio
i' (X) = dadX d- 1 + (d -I)ad_ I X
d 2 - +
... + al"
Per indicare la derivata di f (.X) si usa anche il simbolo df/ dX. . k' dO f(X) è il polinomio dkf/dX k (indicato anche con La derivata -esima l f(k)(X» definito induttivamente nel modo seguente: d(f(k-l) (X»
dkf --=
Per la dimostrazione di questo teorema il lettore può consultare, per esempio, [La]. Il risultato seguente viene solitamente chiamato principio d'identità dei polinomi. A.8 TEOREMA Siano K un campo, Zl' ••• , ZN indeterminate, edf(Z;, ... , ZN) E EK[ZI' ... , ZN]. Se esiste un sottoinsieme infinito Jc K tale che
f(a p
••• ,
a N) = O
per ogni (al' ... , aN)EJ N, allora f(ZI' ... , ZN)
= o.
Dimostrazione
Per induzione su N. Il caso N = l è conseguenza del corollario A.5. Supponiamo N?:. 2 e che il teorema sia vero per polinomi in N - l indeterminate a coefficienti in K. Scriviamo f(X I ,
••• ,
X N) =fo + fIXN +
... + fdX'/v,
d?:. O
doveJ.ìE K[XI , ... , X N- I]. Sef-,é. O possiamo supporre che siafd -,é. O. Per l'ipotesi induttiva esiste (al' ... , aN-l) E JN-I tale chefAa l , ... , aN-l) -,é. O. Pertanto, per il corollario A.5, esistono al più d valori di aN per i quali f(a p ••• , a N) = O. Ciò è contrario all'ipotesi, e quindi f = o. In particolare, se K è infinito ef(X) E K[X] soddisfaf(a) = O per ogni a EK, alloraf = O. Questo non è vero se non si suppone K infinito. Ad esempio, si consideri K = Z/(p), p numero primo. Il polinomio XP - XE K[X] non è nullo, ma ha per radici tutti gli a EK. Derivate e teorema di Taylor
La nozione di derivata di un polinomio può essere introdotta in modo formale senza far uso di alcun concetto del calcolo infinitesimale. Ciò consente di estendere tale nozione a polinomi a coefficienti in un dominio qualunque.
dX k
dX
la derivata parziale di f rispetto a Xi' che si X N) ED [Xl" ... X] N' • r o af/aX e' definita come la derivata di f considerato come un po m o dO m ica con ~' o ' . o . ... X]. . 'n X. a coefficienti nel dommlO D [Xl' ... , Xi-l' X 1 + I' , N mlO i l o IO . di f Analoga definizione si dà delle derivate parzza l s~c~esslve o . o . È un facile esercizio dimostrare che le derivate parziah succeSSiVe di un polmoSe f(X p
••• ,
mio f sono indipendenti dall'ordine in cui si ese~uono. o (Suggerimento: è sufficiente dimostrarlo per i monoml.) A.9 LEMMA
a ED è una radice multipla del polinomio f(X) se e solo se a
è radice di f(X) e di i' (X). Dimostrazione· . Supponiamo che a sia una radice di molteplicità h?:.1 di f(.X)· Si ha o
f(X) = (X - a)hg(X).
Derivando primo e secondo membro si ottiene l'identità
i' (X) = h (.X Se h?:. 2,
a)h-l g(X)
+ (X -
a)h g ' (X).
i' (a) = O. Se invece h = l,
i' (a) = g(a) -,é. O. Le derivate di un polinomio sono state definite in modo p.uramente formale: senza far uso di concetti del calcolo infinitesimal~. Se~~re m mo~~ oformale oe possibile dimostrare il teorema di Taylor per ipolmomi m una o plU ~~deter~i nate, purché il dominio D contenga Q. Ricor~iamo che questa cond1Zl0ne e m particolare soddisfatta da ogni sottocampo di C.
A.IO
TEOREMA (DI TAYLOR)
Supponiamo che il dominio D contenga Q. Per
432
Appendici
A/Domini, campi, polinomi
433
ogni I(X)ED[X] di grado d e per ogni aED si ha I(X) =/(a) + l' (a)(X - a) +
l'' (a) (X - a)2 + '" + I(dl(a) (X _ a)d 2!
d!'
Dimostrazione Consideriamo il polinomio I(Y + a), che supponiamo abbia la forma
I(Y+a)=ao+aIY+ '" +adyd.
[A.2J
Derivando successivamente otteniamo
f'(Y+a)=a l +2a2Y+ '" +dadyd-I, l''(Y + a)
=
2a2 + 6a3 Y + '" + d(d -l)ad yd-2,
pdl(y + a)
=
d! ad'
Se N = 1 la [A3J è evidente, perché per ogni d ~ Oesistono d + 1 monomi monici di grado d in X o' XI' e precisamente xg, xg-IxI, ... , XOXld-I, Xr Supponiamo siaN~ 2 e di aver dimostrato la [A.3J per N -1. Se d = Ola [A.3J è ovvia. Supponiamo d~l e che la [A. 3] sia stata dimostrata per d-l. L'insieme T dei monomi monici di grado d in X o' ••• , X N si suddivide nell'unione disgiunta T = T' U T", dove T' è l'insieme di quelli in cui compare X N e T" è costituito dagli altri monomi. Denotiamo con # I la cardinalità di un insieme finito I. Dividendo ogni monomio di T' per X N , T' corrisponde biunivocamente all'insieme dei monomi di grado d-l in X o, •.• , X N • Per l'ipotesi induttiva su d, abbiamo quindi # T'
al =f'(a),
#
Polinomi omogenei Siano K un campo e X o' ... , ·X· d' . N m etermmate. Un pohnomio non nullo F(Xo, ... , XN)EK[Xo, ... , XNJ si dice omogeneo se tutti i suoi monomi h I stesso grado. anno o
~i de~oterà con. K.[Xo, ••. , XNJ d l'insieme costituito dal polinomio nullo e dai pohnomi omogeneI dI grado d K [X X J • . . "" . . o' ... , N d e uno spano vettoriale su K in cui I monomi momCI dI grado d costituiscono una base.
= (N + d)(N +d -
d
convenendo di porre
-
1).
In conclusione:
Nella proposizione seguente si enunciano alcune importanti proprietà dei polinomi omogenei. A.12
PROPOSIZIONE
1) Un polinomio non nullo F(Xo, ... , XN)E K[Xo, ... , XNJ è omogeneo di grado
[A.4]
dimK(K[Xo, ••• , XNJ d) = (N; d)
N + d)
T" = (N +:
d se e solo se sussiste l'identità
Per ogni d ~ O
dove (
1).
a2 =1"(a)/2!, ... , ad=pdl(a)/d!
(poiché D contiene Q si può dividere per 2!, 3!, ... , dI): Sostituendo nella [A.2J e ponendo Y = X - a ottenI"amo la' conclUSlOne. '
AlI LEMMA
(N; ~;
D'altra parte, T" ha cardinalità uguale a quella dell'insieme dei monomi di grado d in X o, ••• , X N - ll che, per l'ipotesi induttiva su N, è
Ponendo Y = O in ognuna di queste identità otteniamo
ao=/(a),
= dimdK[Xo, •.• , XNJd_l) ~
1) ... (N + 1)
d!
[A3]
fra polinomi di K[Xo' ... , XN,t], dove t è un'indeterminata. 2) Supponiamo che f, g E K [Xo, ... , X N] e che g I f. Se f è un polinomio omogeneo, anche g lo è. 3) (Identità di Eulero) Se F(Xo' ... , X N) è omogeneo di grado d, allora
(~) = 1.
N
aF ax;
EX;--=dF. ;=0
[A.5]
Dimostrazione Dimostrazione
Procediamo per doppia induzione su N e su d.
1) La condizione è evidentemente necessaria. Per dimostrarne la sufficienza,
28
434
Appendici
A/Domini, campi, polinomi
435
scriviamo
Per i polinomi omogenei in due indeterminate, si ha il seguente risultato.
dove Fj -.tl'identità
A.13 PROPOSIZIONE Se K è un campo algebricamente chiuso ed F(Xo, XI) E K{Xo, XI] è un polinomio omogeneo di grado positivo d, esistono d coppie (ai' b;) E K2 , i = 1, ... , d, tutte diverse da (O, O), tali che
°ed è omogeneo di grado
td, F 1 +
... + td,F r = t dF I +
Quindi si deve avere td, = t d,
dj' con di
< ... < dr. La [A.4] si traduce nel-
+ t dF r. , td,
[A.6]
= td. Ciò implica r = 1 e di = d.
2) Siaf = gh, e supponiamo che g non sia omogeneo. Esprimiamo g e h come somma di polinomi omogenei: g = Gj
+ Gj +I + ... + Gj +r,
Dimostrazione
Supponiamo che r sia la molteplicità di X o come fattore di F(Xo, XI) (eventualmente r = O). Si ha allora
con Gj-.t-O, Gj+r-.t-O, r>O, gr(G)=j, e h
Le coppie (ai' b;) sono univocamente determinate a meno del loro ordine e di fattori di proporzionalità non nulli al' ... , ad tali che al ... ad = 1; esse si dicono radici del polinomio F(Xo, XI).
= Hi+Hi +1+ ... + H i +k,
con H i -.t- 0, H i + k -.t- 0, k
~
f= GjHi + (GjHi+1
0, gr(H;)
= i.
Si ha quindi dove G è un polinomio omogeneo di grado d - r. Il polinomio G(1, XI) ha grado d - r e, poiché K è algebricamente chiuso, si fattorizza come
+ Gj+IH;) + ... + Gj+rHi+k
°
con GjHi -.t- 0, Gj+rHi+k -.t- e gr(GjH;) = i + j < i + j + r + k Dunque f non è omogeneo, e ciò contraddice l'ipotesi.
= gr(Gj+rHi +k).
3) Derivando primo e secondo membro della [A.4] rispetto a t si ottiene l'identità
Quindi, omogeneizzando, otteniamo
e in corrispondenza abbiamo la fattorizzazione La conclusione si ottiene ponendo t = 1. Sia f(XI , ... , X N) E K[XI , ... , X N] di grado d. Il polinomio omogeneizzato di f(XI , ... , X N) è il polinomio F(Xo, XI' ... , XN)E K[Xo, XI' ... , X N] così definito: N F(Xo' XI' ... , X N) = Xgf( XI , ... , X ). Xo Xo
È facile verificare che F è omogeneo di grado d. Viceversa, se F(Xo, XI' ... , XN)EK[Xo, XI' ... , X N] è un polinomio omogeneo, il suo deomogeneizzato è il polinomio F(1, XI' ... , XN)E K[XI , ... , X N]. Si deduce immediatamente che, dato f(XI , ... , XN)EK[XI , ... , X N], se si
considera il suo omogeneizzato, e di questo il deomogeneizzato, si riottiene f(X I , ... , X N)· È ugualmente semplice verificare che, se F(Xo, XI' ... , XN)E K[Xo, XI' ... , X N]
è un polinomio omogeneo, l'omogeneizzato del 'Suodeomogeneizzato coincide ancora con F se e solo se X o non divide F.
che è quanto si voleva dimostrare. L'unicità delle radici segue dal teorema di fattorizzazione unica per K [Xo' XI]' La fattorizzazione [A.6] può esprimersi nella forma equivalente
Sostituzioni lineari
Spesso è utile considerare una N-upla di indeterminate XI' ... , X N come un "vettore colonna"; denotiamolo con X. Conseguentemente l'anello dei polinomi in XI' •.. , X N a coefficienti nel campo K verrà denotato con K[X] e un polinomio in XI' ... , X N si indicherà con f(X). Con queste notazioni, se
436
Appendici
A/Domini, campi, polinomi
437
è la decomposizione in fattori irriducibili del polinomio j(X), allora
ali Xl + a2l X I +
o o •
j(AX + e) =jl(AX + e) .fk(AX + e)
.+ alNXN + Cl
000
+ a2N X N +
o •
C2
AX+e=
[A.7]
Se j (X) EK[X], denotiamo con j (A X + e) EK [X] il polinomio ottenuto da j sostituendo A X + e al posto di X. Otteniamo così un'applicazione K[X]
K[X]
-+
[A.8]-
è la decomposizione in fattori irriducibili di j(A X + e). Consideriamo nuove indeterminate Yl , ••• , Y N' ed un polinomio j (Y ) EK[Y], dove abbiamo denotato con Y il vettore colonna delle indeterminate Y I , ••• , YN • Sostituendo Y = AX + e nel polinomio j(Y) otteniamo il'polinomio in X g(X) =j(AX + e). Si verifica immediatamente che le derivate parziali prime di g(X) sono date dalle seguenti espressioni: òg(X)
j(X) .... j(AX +e)
--=
òXI
N òF E ail-·-(AX + e), i=! ò 1';
che è un omomorfismo: infatti segue subito dalla definizione che
j(AX + e) + g(AX + e)
= (J +
j(AX + e)g(AX+ e)
(Jg)(AX + e),
=
g)(AX + e),
perché queste proprietà sono vere per i monomi. Inoltre, la [A.8] è un isomorfismo perché possiede un'invèrsa, che è la trasformazione K[X]
-+
K[X]
j(X) .... j(A -IX - A -le). Ciò segue dal fatto che si ha
A -I(AX + e) -A -le = X.
òg(X)
N
òF
- - = E aN--(AX ~X i=l' Ò Y. UN'
+ e).
Il risultante di due polinomi Sia D un dominio a fattorizzazione unica. Descriveremo un procedimento elementare per stabilire se due polinomi di D [X] hanno fattori comuni non costanti. Iniziamo dalla seguente proposizione. A.14 PROPOSIZIONE Due polinomi 1, g ED [X], di gradi n ed m rispettivamente, possiedono un fattore non costante in comune se e solo se esistono A, BE K[X] tali che gr(A) < gr(J), gr(B) < gr(g), e Bj= Ag.
Poiché i polinomi [A.7] sono di primo grado, si ha gr [f(A X + e)]
=5
gr [f(X)].
D'altra parte, ragionando nello stesso modo con la trasformazione inversa, si trova anche gr[f(X)]
=5
gr[f(AX + e)],
e quindi j(X) e j(AX + e) hanno lo stesso grado. Se e = O, i polinomi [A.7] sono omogenei. Per questo motivo, seJ(X) è un polinomio omogeneo, anche j(AX) è omogeneo e dello stesso grado di j(X). Si noti che, poiché la [A.8] è un omomorfismo, essa rispetta la decomposizione in fattori. In particolare, se
Dimostrazione Se j e g hanno un fattore non costante in comune h, allora j=Ah,
g=Bh,
con gr(A) < gr(J), gr(B) < gr(g), e Bj= Ag. Viceversa, supponiamo verificata la condizione dell'enunciato. Ognuno dei fattori irriducibili di g divide Bj. Poiché gr(B) < gr(g), uno almeno dei fattori non costanti di g divide j, e quindi j e g hanno un fattore non costante in comune. Supponiamo che j, gE D [X] siano della forma seguente:
j=ao+aIX+ g=bo+bIX+
+anXn, +bmX m,
438
Appendici
Chiameremo risultante di f e g il determinante R (f, g) della matrice (m + n) X (m + n) seguente: ao
a,
O
ao
O bo O
an a,
b, bo
O an
ao a, bm O bm O
b,
O
an O O
439
Viceversa supponiamo R(f, g) = O. Allora il sistema [A.11] nelle incognite (3" (32' ... , (3m, a" ... , a n ha una soluzione non banale in F, il campo dei quozienti di D, e quindi anche in D, perché il sistema è omogeneo. Dalla forma delle equazioni [A.11] discende che la soluzione è tale che cxj;;é O>é (3k per qualchej, k. Ciò implica che i polinomi [A. lO] soddisfano Bf = Ag: dalla proposizione A.14 segue che f e g hanno un fattore non costante in comune.
O O
A/Domini, campi, polinomi
Un'utile conseguenza del teorema A.15 è il risultato seguente: [A.9]
A.16 PROPOSIZIONE Sianoj, gEO [X] e sia D'un dominio afattorizzazione unica (ad esempio un campo) contenente D. Sef e g hanno unfattore non costante in comune in D' [X], allora ne hanno uno anche in D[X]. Dimostrazione Entrambe le condizioni sono equivalenti all'annullarsi di R (f, g), il quale dipende unicamente dai coefficienti di f e di g. Il risultante R(f, i') di un polinomio f e della sua derivata si dice discriminante di f, e si indica con L1 (f). Si ha la seguente proposizione.
O
le cui prime m righe sono formate dai coefficienti ao, ..., ano mentre le successive n righe sono formate dai coefficienti bo, ... , b m. A.15 TEOREMA R(f, g) = O.
f e g hanno un fattore non costante in comune se e solo se
Dimostrazione Supponiamo che f e g abbiamo un fattore non costante in comune. Allora esistono A, BE D [X], della forma
A
= -
a, - a 2X - '" - anxn-'
B
= (3,
+ (32X + '" + (3mxm-',
[A. lO]
con a j >é O e (3k >é O per almeno un j e un k, e tali che Bf = Ag. Quest'identità implica che ao(3,
= -
boa,
a,(3, +ao(32= -b,a,-boa 2 [A. 11]
Le [A.11] esprimono l'esistenza della soluzione non banale (3" (32' .•. , (3m' a" ... , a n di un sistema di equazioni lineari omogenee la cui matrice dei coefficienti è la trasposta della [A.9]. Da dò segue che R(f, g) = O.
A.17 PROPOSIZIONE se L1(f) = O.
f ED [X] ha un fattore multiplo non costante se e solo
Dimostrazione Supponiamo L1 (f) = O. Dal teorema A.15 segue che f ed i' hanno un fattore non costante g in comune, che possiamo supporre irriducibile. Si ha f = gh e i' = g' h + gh'; poiché gli', si ha anche glg' h. Dal fatto che gr(g') < gr(g) e g è irriducibile, segue che g Ih. Quindi g2lf· Viceversa, se esiste g non costante tale che f = g2k, allora l' = 2gg' k + g2k' , cosicché glf e gli'. Dal teorema A.15 segue che L1(f) = O.
Nel caso in cui 0= K, un campo algebricamente chiuso, dal teorema A.15 discende che R (f, g) = O è una condizione necessaria e sufficiente affinché f e g abbiano una radice in comune. La proposizione A.17 implica invece che l'annullarsi di L1 (f) è condizione necessaria e sufficiente affinché f abbia una radice multipla. Infatti i soli fattori irriducibili non costanti di un polinomio di K[X] sono della forma (X - a), a E K, e i loro associati. Siano f, gE K[X" , X N ], N~ 2. Se si considerano come polinomi in X N a coefficienti in D [X" , X N _,], il loro risultante R(f, g) viene chiamato risultante dif e g rispetto a X N • R(f, g) appartiene a D [X" ... , X N _,], e viep.e perciò anche detto il polinomio ottenuto eliminando X N da f e g. La costruzione di R (f, g) è una generalizzazione del metodo di eliminazione di Gauss-Jordan per risolvere i sistemi di equazioni lineari. Tale costruzione può essere estesa a più polinomi simultaneamente.
440 B/Permu(azioni
441
Nel caso in cui i due polinomi considerati sono omogenei anche il loro l ' po, o ,nsut ant e l o e. 1U precIsamente si ha il seguente teorema. o
A.18
Siano
TEOREMA
e
F=A n+An-lXN + '" +AoX~,
q
G=Bm+Bm_lXN + '" + BoX':t
~ove, l!er ogni j.= O,
, n, k
O, ... , m, A j e B k sono omogenei di grado j e k
=
rrsp~ttlvamente In Xl' , X N - l , e AoBo =;é. O. Allora il risultante R(F G) di F G rrspetto a X N è un polinomio in X!' ... , X N_l omogeneo di grado :nn, oppur: R(F, G) = O.
Dimostrazione Ponendo R(F, G) = R(Xl , ... , X N_1), si ha
= (n
+ m)+ (n + m -1) + ... + 1 = ( m + 2n +
o
(n-IA n _ 1
AD (n-1A n _ 1
(nA n
000
R(tXl, ... , tXN_1)
o
= t q - p R(Xl, ... , X N- l) = t mn R(Xl ,
o •• ,
X N- l)
e la conclusione segue dalla proposizione A.l2 (1). A.19 Esempi
o AD
.
Deduciamo
1. Nel caso n (nA n
l)
F=A z +AlXN+AoX~
o o
00.
= m = 2, cioè se
G
=
Bz + BI X N+ BoX~,
si ha
o (mB m
o
(m-1B m _ 1 (m-lB m _ 1
(mB m
AD
o
Bo
Bo
o
o o
000
20 Nel caso m = I, cioè se F=A n +An-lXN + ...
o Bo
Molti~lichiamo la i-esima riga degli A per t m - i + l e laj-esima riga dei B per Ottemamo
("-j+l.
+AoX~,
G=B l + BOXN, si ha
R(F, G)
= (- Bo)nF(- B/Bo) = = AoB~ - Al BoBf-1 + AzB~B f-z +
tn+mA n
o
r+m-1A n _ 1 (n+m-lA
o
B Permutazioni
n
(n+m-lBm _ 1 (n+m-1B
m
+ (_1)n A nB3.
•••
o (n+mBm
O"
0.0
(nB o
(AD
o (n-lB o
o
o o
o ••
In quest'appendice esponiamo alcune proprietà delle permutazioni degli insiemi finiti, che vengono utilizzate nella definizione e nello studio dei determinanti. Sia / un insieme finito. Una permutazione di / è una corrispondenza biunivoca p: /~/ Supponiamo che / consista di n elementi. Dopo averli numerati, si può identificare / con l'insieme {I, 2, . n l dei primi n numeri naturali. Ci limiteremo quindi a considerare le permutazioni di {l, 2, ... , n l. Esse costituiscono un gruppo rispetto alla composizione, consistente di n! = 1 . 2· '" n elementi (la verifica è lasciata al lettore); denoteremo tale gruppo con il simbolo o o,
o = (QR(X" "0' X N -
o 1),
(m+l
Bm
000
(Bo
o
_ _ _."~_.~ ._ . ",~_~~.,~~_~~._,~ . . .__ "'._.~_"'.~='~~.=,.~
__
=Co'~'= ~-'=,~~",=,-,=",o",.~~~~
<
442
Appendici
BIPermutazio,!i
an • Un elemento pE an viene spesso indicato con una tabella:
443
Dimostrazione 1) Sia al E{l, ... , n} qualsiasi, e siano a2 = P (al)
2
a3 = P (a2), a4 = p (a 3),
'"
•
Nella successione
p (2)
[B.1] in cui sotto al numero i compare la sua immagine p (i). Ad esempio, la permutazione identica 1 è rappresentata da (
1 2
...
n).
1 2
'"
n
Questa notazione non richiede che nella riga superiore della tabella i numeri 1, 2, ... , n siano disposti in ordine crescente: ad esempio, per ogni pE an la tabella p (1) p (2) (
1
2
'"
p(n))
.. ,
n
rappresenta la permutazione p -I. Siano al' a2, ... , ar elementi distinti di {l, 2, ... , n}. La permutazione k definita da . . k(al) = a2, k(b)
=b
k(a~
= a3 ,
per ogni
•••
k(ar _l ) = a n
2
...
n) =
Ad esempio (1
(
3 2
1 2
.,.
2
...
3
n-l n) n
a2
•••
a) In partOlCO lare: r'
1
6) Ea6 è la permutazione
123456). ( 3 6 2 4 5 1 Ogni ciclo di lunghezza 1 è la permutazione identica. Un ciclo di lunghezza 2 si dice trasposizione. Una trasposizione scambia tra loro due elementi e lascia fissi tutti gli altri. In particolare una trasposizione è inversa di sé stessa. Due cicli (al a2 '" ar) e (bI b2 ... bs ) si dicono disgiunti se {a" a2, ... , ar}
B.1
n
e quindi p permuta ciclicamente gli elementi a" a2, ... , ar" Consideriamo il ciclo (al a2 '" ar)' Se r = n, allora p = (al a2 .,. an) e l'asserto è vero. Altrimenti esiste bi E {l, ... , n }\{a l , ••• , ar }. Ragionando come prima si ottiene un ciclo (bi b 2 '" bs) disgiunto dal precedente. Procedendo in questo modo otterremo un numero finito di cicli disgiunti K I , K 2 , ••• , K; tali che [B.2]
=
2) In virtù della (1), è sufficiente dimostrare l'asserto nel caso in cui p (al a2 ar) è un ciclo. A questo scopo è sufficiente osservare che
=
bE {al' a2, ... , ar},
è un ciclo di lunghezza r, e si denota con (al (1
k(ar) = al'
il primo elemento che viene ripetuto è al' perché se la prima ripetizione fosse < r, si avrebbe ar _1 = ak_l , e la ripetizione non sarebbe la prima. La [B.1] è dunque della forma
ar = ak, 2:5 k
{bi' b2, ... , b,} = 0.
PROPOSIZIONE
1) Ogni permutazione pEan è prodotto di cicli a due a due disgiunti. 2) Ogni permutazione p E an è prodotto di trasposizioni.
I cicli K I , K 2 , ••• , K;, essendo disgiunti, sono a due a due permutabili, cioè la scrittura [B.2] è indipendente dall'ordine in cui vengono presi. Se nella [B.2] compaiono dei cicli di lunghezza 1, questi possono essere omessi perché corrispondono alla permutazione identica. Pertanto ogni permutazione si scrive in modo irridondante come prodotto di cicli disgiunti di lunghezza almeno 2. Si noti che l'espressione di una permutazione come prodotto di trasposizioni non è unica. Ad esempio si ha (1 B.2
2
3) = (1
TEOREMA
3) o (1
2) = (2
3) o (l
3).
Sia p Ean. Supponiamo che
dove TI, ... , Th , SI' ... , Sk sono trasposizioni. Allora h hanno la stessa parità. Dimostrazione Poiché 1 = p o P - I = SI o S2 o
= k (m od. 2), cioè h e k
••• o Sk o Th o '" o T 2o TI' è sufficiente dimostrare che la permutazione identica non può essere ottenuta come prodotto di un numero dispari di trasposizioni.
444
Appendici
Sia
Risoluzione degli esercizi [B.3]
con R I , R 2 , ••• , R m trasposizioni. Supponiamo che si abbia R j = (l a), per ogni = 1, ... , m. Allora, poiché 1 (aj ) = aj , la trasposizione (l aj ) = (aj 1) compare un numero pari di volte in [B.3], e quindi il numero m di fattori è pari. Se per qualche j si ha Rj = (bj , a), con bj ~ 1 ~ aj , allora, poiché
j
(bj , a)
= (l b) o (l a) o (l bj ),
possiamo sostituire R j con il prodotto a secondo membro senza cambiare la parità del numero di fattori della [B.3]. Ci si può quindi ridurre al caso precedente, in cui l'asserto è già stato dimostrato. B.3 DEFINIZIONE SiapEan • Sep = Tlo T 2 0 sizioni, il segno di p è E(p) = (_1)h.
•••
o
Th , con TI' T2 ,
••• ,
T h traspo-
Dal teorema [B.2] segue che la definizione di segno di una permutazione p è ben posta, perché la parità di h dipende solo dap. Il segno E (P) gode delle seguenti proprietà, che discendono immediatamente dalla ,definizione. BA
o
= 1. E(p-I) = E (p) per ogni pEan •
4)
O O O O
E (T) = -
1 per ogni trasposizione TE an •
+A =A
+ lA;
I(A - lA) = lA -A
J.... (A + lA) + J.... (A -
=-
O 2
O
(A - lA).
lA) e il primo addendo è una matrice simme2 2 trica, mentre il secondo è una matrice antisimmetrica.
Si ha A =
3) E(poq) = E (p) E (q).
= lA
O
c)
lO
5. I(A + lA)
O O O
5 O
24' + 9Y2 ), 1. a) ( _'" - 8 + 5v2
PROPOSIZIONE
1) E(l)
2)
§ 2
6. a)
(; ~) :
+
('
:)
-~
C ~) + G:)
b)
1
O
2 c)
1
-1
O
2
O
O
+
1
1
-2
-1
O
-1
2
O
446
Risoluzione degli esercizi
Risoluzione degli esercizi
447
lO. c), d) e h) non sono ortogonali, tutte le altre lo sono.
§ 4 § 3
1. a) base c) base e) Il sistema omogeneo
1. a) Soluzione generale: (7t, 4t, t) b) (- 2t l
-
5 tl
-
4t3 ,
I~J -~)
--4
°
5. a) (O, 1, O)
(ti - tl + t 3), t lo tl , t3)
c) incompatibile;
e) (5 - 2t 1 - 2tl , ti, 3 - 2tl , t l ).
d) incompatibile
4. c) (-
-;-
b) dipendenti e non generano d) dipendenti e generano
e) - 1 ( 2 9 2+i
2
possiede soluzioni non banali se e solo se i vettori dati sono linearmente dipendenti. Risolvendo si trova ·che il sistema possiede 00 l soluzioni, sicché i vettori sono linearmente dipendenti; il sottospazio che essi generano ha dimensione 2 e quindi non è l'intero spazio R 3
-i).
-2
0
b)(l,-i)
c)
(v2,
1, O).
f) indipendenti
g) dipendenti e generano
h) base
i) dipendenti e non generano.
3. a), i). 4. U contiene i =
l. [(i + j) + (i -
j]) e j =
2
~[(i + j) 2
(i - j)]; inoltre U
+ W contiene
k = (j + k) - jo Quindi U + W = V perché contiene i, j, k. La somma non è diretta perché dim(U) = dim(W) = 2, e quindi, per la formula di Grassmann, dim(U W) = 1.
n
b)
G -~)
= R l (2)Rn(1)R l (-1)R 1l =
=
G:) G~) (- ~ ~) G~)
o
6. I vettori (1, 1, O) e (O, 0, 1) appartengono a U e sono linearmente indipendenti: poiché dim(U) 5 2, {(l,l, O), (0,0, l)} è una base di U. Si ha W n U = (O) perché ogni multiplo non nullo di (l,O, 1) è della forma (t,O, t), t:F- 0, e questo vettore non appartiene a U perché la sua prima coordinata è diversa dalla seconda. Quindi U + W = U Et) W; poiché U Et) W contiene propriamente U, si ha dim (U Et) W) = 3, cioè UEt)W=Vo
11. GLn (K) non contiene la matrice nulla.
12. Identificando Mn(K) con Kn" X
si identifica con l'insieme delle soluzioni dell'equazione di primo grado omogenea an +all + + ann = O. Quindi X è un sot2 tospazio vettoriale. Poiché l'equazione precedente possiede oon -1 soluzioni, si ha dim(X) = n l -1. 0.0
14. Supponiamo per assurdo che esistano n successioni al = {alO, an, all, o.. }, al = {alO, allo all, ... }, ... , an = {anO, anlo anl, ... } che generano SKo Allora, per ogni (bo, bio .. ... , bn)EKn+1 esistono XIo Xl, xnEK tali che 0.0'
dove b= {bo, bio ... , bn, 0, O, .. o}. _:
] - R"R,,(Z)R,(-7)R,,(3)R,,(Z)R,,(I).
Da ciò segue che (bo, bi, .00' bn) = Xl (alO, an, all, .0.' al n) + Xl (alO, all' all, ... , al n) + .0 • ... +xn(ano, anI, an 2' ••• , ann ) ,
0
448
Risoluzione degli esercizi
Risoluzione degli esercizi
..fi, ..fi )
4. a) (1,
cioè gli n vettori
449
b) (l, i, - 2i)
c) (2, 1, 1, -1).
6. I minori di ordine massimo di A presi a segni alterni sono: generano Kn+': ciò è assurdo, perché Kn+' ha dimensione n + 1.
a,=(-l)'det[A(l
17. Ogni polinomio f(X)EH[X] può identificarsi con un elemento di qa,b) e quindi R [X] può considerarsi come un sottoinsieme di C{a,b)' Poiché le operazioni in R [X] sono quelle indotte dalle operazioni in C{a,b), R[X] è un sottospazio vettoriale di C(a,b), Poiché R [X] non ha dimensione finita, neanche qa, b) ha dimensione finita. 18. I polinomi 1, X, X
2
, ... ,
2 ...
Gli a, non sono tutti uguali a
n-III
...
[
...
n)],
i=l, ... ,n.
°perché r(A) = n -1. Per ognij = 1, ... , n -1 si ha
dove aj
X d costituiscono una base di K[X]"d'
,
all .
B= (
§ 5
an -'2
an-Il
1. a) 3
c) 2.
b) 3
Poiché B ha due righe uguali, det(B) = 0, e quindi (a" ... , a n ) è soluzione della j-esima equazione del sistema.
§ 6 2. a) Il determinante della matrice dei coefficienti delle incognite è 2 + m, e si annulla per m = - 2. Quando m ;t!: - 2 il sistema è compatibile, per il teorema 5.7, e possiede l'unica soluzione (1, 1- m), che può essere calcolata con la regola di Cramer o con il metodo di eliminazione. Quando m = - 2 il sistema diventa
§8 1- y ) b) ( - 2 - ' Y,z
1- y ) 1. a) ( - 2 - ' y, z
2X - Y=-l X
-2X+ Y=l,
c)
2
2y
2x 4y 1 2ix iy - 5 + 5 + 5 ' -5-+5+ z
(5-5+5'
i)
-5
ed è ancora compatibile; esso possiede le infinite soluzioni (t, 2t + l), tE R.
~
b) Compatibile solo se m =
, ed in questo caso la soluzione è
(~
,
O).
3. b) Se m ;t!: 0, 2 il sistema possiede l'unica soluzione
c=: ' 2~m
'
~=:);
se m = 0, possiede le (Xl' soluzioni (l + t, l, - t), t ER; se m = 2, è incompatibile. c) Se m = -1 il sistema è incompatibile; se m = 2, possiede le (Xl 2 soluzioni
(~
- s - t, s, t), s, tE R; se m;t!: -1, 2, possiede l'unica soluzione
C(m\
l
l
1) , 2(m + 1) , 2(m + lJ·
e) Incompatibile se m ;t!: 2. Se m = 2 possiede le (Xl' soluzioni (l, - 2 t, t), t ER. f) Incompatibile se m = - 1. Se m;t!: - l,IiI sistema possiede l'unica soluzione
-.!!!-);
3m + 2 , ~ , se m = 1, possiede le (Xl' soluzioni (2 + t, t, 1- t), tE R. ( m+l m+l m+l g) Se m = il sistema possiede le (Xl' soluzioni (t,O, O), t E R; se m = 1, possiede le (Xl' soluzioni (- 3 t, t, t), tE R; se m ;t!: 0, 1 il sistema possiede l'unica soluzione (O, 0, O).
°
d) (x, 1- 2x, 4ix + 2iy +
z - 2i).
§ 9 1. a), c).
X Y b) - + - = 1 . .J7 172 c) La retta cercata appartiene simultaneamente ai due fasci individuali da e da t e t'. La condizione che la retta di equazione
2. a) 2X + 3 Y = 6
(l + 3 t) X + 5 Y + (6t - 8) = 0,
variabile nel primo fascio, appartenga al secondo è 1+3t
5
6t-8
lO
-1
-2
1
-1
-5
cioè t = 7. Pertanto
~
=
°
è la retta di equazione 22X + 5 Y + 34 = O.
~
ed
~',
Risoluzione degli esercizi
450
21 3. a) x = 13
4(l.!, 2 5.
(~ ,
14 Y=- 13
+ 21,
3-~.5)
b) x =
+ 41
.l -
5 -J2 l,
2
1 y= - +71. 2
451
12. a) 2X + Y - Z - 8 = O c) Y+3Z-6=0
b) 7 X - Y + lOZ -13 = O d) 3X+2Y+Z-12=0.
13. a) 2X - Y + Z -1 = O, X - Z- l= O b) X+ Y+Z+3=0,· X+lOY-7Z+4=0 c) 2X - Y =Jl, 2X + 2 Y - Z - 3 = O.
.
2 :),
Risoluzione degli esercizi
G' ~), C' ~}.
-13X+25Y~8Z+4=0,
14. a)
3X+7Y-7Z+4=0
b) 3X+7Y+4Z+2=0, 13X+2Y-3Z-32=0 c) 4X + 6 Y + Z + 3 = O, 2 Y - 3 Z - 1 = O.
16. 2X - 3 Z - 2 = O.
§ lO
1. a). 3 b) m = c) nessuno 4 3. a) x = 21 + u, Y = -J21 + u, Z = 1 + (-J2 -1) u; (2- -J2)X+2(1- -J2) Y+(2- -J2)(Z-l)=0
2. a) m = 2
d) nessuno.
- XI 3. p(xt> X2' X3) = ( x"
Z=~l+.!!-U; 2 (7l" - 2 ~) (X - 5) + (27l" - 8 ~) (Y + 1) + 8Z = O c) x = 1 - 3 l + u, Y = 1 + u, Z = 1 - 1+ u; X + 2 Y - 3 Z = O.
b) x=5-41-8u,
d) x = l,
Y = u,
y=-1+21+2u,
Z
= O;
4. a) X+2Y+3Z-9=0 c) i Y - 2Z + 3 + 2i = O
§11
4. p(xt> X2,
Xh
X4) = (-
+ X2 - X3 2
~
, 3X4'
Xh
'
- XI - X2 2
+ X3 )
.
x4)'
Z = O. b) 2X- Y-i=O d) Y - 1 = O.
c) (2X, +X2 - X 3, 2XI + 2X2 -X3, -X, - X 2 + Xd
d) {XI - X 2, X 2 - X 3, X 3}.
5. a), b), c) no; d) sì.
6. a) x = 1 + 21, Y = 1 - l, Z = -J21; X + 2 Y - 3 = O, X - -J2z -1 = O Z = - 21; Z = - 2; X - Y+4= O b) x = - 2 + l, Y = 2 + l, c) x=l+l, y=2+21, z=3+31; 2X- Y=O, 3X-Z=0 d) x = l, Y = O, Z = O; Y = O, Z = O e) x = 1 + l, Y = 1 + l, Z = - l; X - Y = O, X + Z -1 = O. 7. a) x=il, b) x = l, c) x=l,
d) x =
y=l, z=-1-21 Y = 4 + 3 l, Z = 1- 3 l y=l, z=l
J... - -.L i + (1 2
i) l,
Y =2
+ l,
8. a) x=l+il, y=l+l, z=O b) x=l, y=O, z=l c)x=2+il, y=l, z=-5+1 , d) x = 3 + (-J2 + 5) l, Y = (3 -J2 + l) l,
lO. a) sghembe d) sghembe
11. a)
c) incidenti,
Z = - il.
X3 Y3
Z = 141.
c) X - 2 Y + 3 = O.
b) sghembe c) parallele; 3X - 3 Y + 3Z -l = O e) incidenti; 2X - 3Z + 8 = O. b) incidenti, Z.
z.nft =
{(- 2, l, 4)}
(:~ ~~),
dove XI, y" X2' Y2' X3' Y3 sono i coefficienti delle combinazioni lineari seguenti:
b) X - Y + 2Z - 5 = O
z.cft
1. La matrice cercata ha per colonne le coordinate rispetto ab' dei vettori F(1, l) = (2, -l, 1) e F(O, -1) = (-1,2, O). Quindi
Mb',b (F) =
2
9. a) X + Z + 1 = O
§ 12
d) parallele.
nft = {(- 6,17, 23)}
x,
(}X+:)+x'(:H-]
y, (}+}y.(~){:)
Risoluzione degli esercizi
452
x
Risolvendo i due sistemi così ottenuti si trova:
453
Risoluzione degli esercizi
8. x' = - 2
Y
l
2
2
3x y l y' = - - - - - . 2 2 2
+- - -
3x 3y y'=----o 5 5
X Y l 9. x' = - - + - + 555
lO. x'
41r
= 2x -
y - z - -- , 3
2.
:)
..
n
o
3. ~ 2
(-
3 - 2i 4 - 2i
-1 - 4i
i)
z'
=-
X
+ Y + z + 1r.
j, 1=1, ... ,
no
k=l
Calcolando in bj primo e secondo membro della seconda identità troviamo 111(bJ = = mjlo D'altra parte
- 2 - 3i
2i
z,
'rJ. = l: mk;{3b
i=l
- 4-
=x -
n
bj = l: nije;,
-1
y'
n
4. I vettori VI> Vz, V3 sono linearmente dipendenti. Se F esistesse, anche le loro imma~ gini El> E z, E 3 sarebbero linearmente dipendenti, il che è falso perché (E" E z, E 3 l e una base di R 3 •
111(b) = 11t( l: nije;) = n/j, i=l
e quindi
mjt
= nlj per ogni j, 1 = l, "0'
n.
§ 13 b) Detta e la base canonica, si ha
1. Detta e la base canonica, la matrice cercata è
Si ha:
-1 l. -:),
2)-' ( -/5 2
--/5 M •• (l)
6. a) Mb,b' =
7. a) M..
C-i 2 1- 2i
J...
~~
1- 2i)
l ( b) Mb,b' = -
2
2- i
l -i
~
'~ (=: _~ -:).
M •• (l)
e quindi 6
O
(:
O
2
O
O
-:)
b)
Mb(F) =
C -:
3
-5
l
O
Risoluzione degli esercizi
454
2. Procedendo come nell'esercizio precedente si deduce che
1
3
2 1
2 7 2
-
2
(al..
+ b) In I =
la(A - Àln) I
= a nI(A
- Àln) I
= O.
-2
6
Posto B
3 2 5
+ b)In I = I (aA + bIn) -
15. La matrice che rappresenta F rispetto alla base canonica è
1 -2 5 -2
quindi
455
11. ±l, ±i. 13. IC - (al..
1 Mb(F) =
Risoluzione degli esercizi
-4
= Mb(F), si ha A = MBM-\ dove
4
2 - 8i
6i )
-9
lO
-20
24
. O
_1) -1
.
-2
O si ha
9. b= {(l, l, -l), (1, l, O), (-l, O, I)J.
M'lfl{ : ~) lO. a) Il polinomio caratteristico della matrice assegnata A è T 3 - 6 T 2 + 12 T - 8 = = (T - 2)3, e quindi l'unico autovalore è l.. = 2, con molteplicità algebrica h (2) = 3. La matrice A - 213 ha rango 2 e quindi dim(Rn = 3 - 2 = 1. A non è diagonalizzabile perché la somma delle dimensioni degli autospazi è minore di 3. b) l.. = 2, 3, h (2) = l, h(3) = 2, dim(Ri) = dim(Rl) = l; A non è diagonalizzabile. c) l.. = 1,2, 3, h(l) = h (2) = h(3) = l, dim(Rf) = dim(Ri) = dim(Rl) = l; A è diagonalizzabile. d) l.. = -l, l, h(-l) = 2, h(l) = l, dim(R:,) = dim(Rf) = l; A non è diagonalizzabile. e) l.. = 7, O, h (7) = l, h (O) = 2, dim(Ri) = dim(RJ) = l; A non è diagonaliz~ zabile. f) l.. = - 4,4, h(- 4) = 2, h(4) = l, dim(R: 4) = dim(Rl) = l; A non è diagonalizzabile.
e quindi 5
F (x, y, z) = (- 30x + 31y - 31z,
- 31x + 32y - 31z,
31x - 31y + 32z).
§ 14
1. Gli elementi di U(l) si possono identificare con i numeri complessi di modulo 1. Definiamof: U(l)---> SO (2) ponendo
f(a + ib) =
(a -ab). b
È immediato verificare che f è un isomorfismo di gruppi.
Risoluzione degli esercizi
456
2. a) A
= A = '.4 = *A
b) A = '.4,
A
= *A = (
- i O
Risoluzione degli esercizi
457
§ 15 1. c), e).
c) A = '.4,
d) A = '.4,
3. a) e) A = '.4,
1 .
f) '.4=A= (
l+i
1-
i) ,
(-: -4) -3
,r= 2
bl (_
4 -2)7 ,r= 2
c) (
d)
-2
~ ~)- r~2 -
(-: -1)1 1 ,r =
*A =A.
-1
e) ( :
:),r=2
:), r= 2.
f) ( :
3. a), b), d), e). 7. a) f(x, y) = (2x + y
+ 1, 3y -1)
3
3)
3 y+5 , - x - -7y + b)f(x,y)= - -1x + ( 2 4 4 2 4 4 X
c) f(x, y) =
(-
Y
1
x
y
1)
b) X,Y2
+ X2Y, + y,Y2 - X,Z2 - X2Z,
c) X,X2 - X,Z2 - X2Z, - y,Y2 - Z,Z2
4 -12 + 3 ' "2 - 6 - 3 .
lO. "'b,e è individuata dalla condizione y - b = e(x - b),
O
dove y = "'b,e(X), e quindi y = b (1 - e)
+ ex,
1
5. a)
1
2
2
O
1
2
1
-1)
,r= 3
:
2
2
cioè "'b,e =
1
1 2
,r= 3
O O
TcI,b('-e)'
5
O
1
2 c) (
e)
(
O
d)
O
-1
1
-1
2
-~
3
O
O
O
,r= 3
458
Risoluzione degli esercizi
Risoluzione degli esercizi
459
§ 16 1. a) {(i, O), (O, l)}, x = ix', y = y'
b) ((~ + ~ i, O), (0, ~)]. c)
((~ , O),
(0,
+)].
d) {(i,0),(0,5i)}, 2. a) ((
~ , 0, O),
'b) ((0, 0, ~),
x' =
x=ix',
(0, 0,
2~)'
i , y=-y ..fi
~ x',
l
y=-y 3
y=5iy'. (0,
~, O) J,
(l,O, O), (O, l, O».
c) {(O, 0, l), (1, 0, O), (O, l, O)},
d) (0, l, O), (0, 0,
,
d) (l 0) (1 0) ( l-l) (1 l) °°
(2, l)
=
l
l
-l
°l
l
(l, l) (1,2)
~), (l, 0, O».
(2, O).
3. a) Seguendo il procedimento utilizzato nella seconda dimostrazione del teorema 16.1, si effettua il cambiamento di coordinate x nella forma diagonale:
q(x', y')
=
= x' +.i. y', y' = y,
il quale trasforma q
3
5. a) Una prima sostituzione x = x', y = y' - x', z = z' riduce q alla forma q(x', y', z') = = - X,2 + x' y' + y' z'. Procediamo come nella dimostrazione del teorema 16.1. Con la sostituzione x'· = x"
3X,2 _ ~ y,2. 3
2
q(x", y", x")
La segnatura è (1, l).
z"
+~Y',
x=x'
+ 1.- y", y' = y", z' = z" la forma si riduce alla seguente:
'8
y=y', (1, l).
= - x" 2 + 1.- y"2 + y" z". Infme, la sostituzione x" = X, y" = y - 2i, 4
=
i dà luogo alla seguente espressione per
q(x, y,
i) = -
q:
x2 + 1.- Y - i 2 • 4
l
x=x' +-y', y=y', (2, O). 2 y=y', (l, O). d) x 2, x=x'+y',
x=x'-~Y',y=Y',
(1, l).
3 f) In questo caso è evidente che il cambiamento di coordinate'x = x' - y', y = x' + y', trasforma la forma quadratica nella forma diagonale 6X,2 - 6 y l2. Segnatura: (l, l).
Scambiando tra loro y e x otteniamo x = jì, y = X, i = Z. Segnatura (1, 2). b) X,2+ y ,2_ Z ,2,
c) X,2_ y ,2_2z,2,
x=z' -y',
q(x,
jì, z) = 1.- x2 4
y=x' +y' -z',
x=x' +z',
y=y', l
x=x' - - z ' , lO
4. a)
e) 2X'2+ 7y,2_ Z ,2,
x=z',
y=y',
P-
z2, dove si è posto
z = y',
segnatura (2, l)
z=z', segnatura (1, 2) y=y',
z = z', segnatura (2, l)
z=x' -2y', segnatura (2, l).
6. a) La matrice M è ottenuta come prodotto delle matrici corrispondenti alle successive
461
Risoluzione degli esercizi
Risoluzione degli esercizi
460
sostituzioni effettuate; pertanto § 17
~ (~ ~) (~ ~
M = (_: O :) (:
:)
6. dim(W) = 2; base ortonormale di W:
O _
:) =
001001001001
1.-
1
vettori che la completano a una base ortonormale di V:
-1
2
1.-
-1 -1
2
O
O 7. a) [(
Si ha dunque:
(~
0) (~
O
2
O -
-1
O -1
O
1 c)
(0 _ 0
-1
-1
~
-1
=
(~
O -2
O
1
-
1
1
1
-
-
2
2 O
-
1
1
2
2
1
O
O
-1
-1
-1
~ , ~ , - ~, ~), (~, O, ~, ~), (~ , O, O, - ~)]. O,
O, O, O), (O, -
V;, V;), O,
(O, O, 1,0)].
_:)
~ _ ~ -~) (~
~)
O
O
~,o, ~, ~),(~, ~,o, ~)]
V;, V;), (1,
8. [(O,
O
O -1
b) [(-
c) [(
-1
O, O,
(~, ~,3'73,--m)]
O
O
-1
O
1
2 O
-~)(~
:
1 2 1
2
2
-1
O :) (
1
-
~)( ~
1
1 -1 O
:)
o
~)
2 1 -1
:)=(_~
O
-
1
Js ' Js),(- lo, ~, ~, ~),
O
1
9.
"[(1, O, O, O), (- ~, 1, O, O), (O, 0,1,0) (O, O, - ~, 1)]. § 19
2. a)
6
b)
.J5
1.-. 5
3. X - Y - 2Z - 3 = X + 3 Y - Z - 2 = O.
dt ,)
(~
O 3
O
O 7
0) ( O
=
2~
~)~
O -1
O O
- 110
O
1 O 2 3 O
5
:)
O 1
O
2
r
O
1
O
O
(~
')e :)(~ -2
-~
-~
O
O
s.
X + Y - 3 = O, Z
6. t-: X - 3 3
= l.
=Y_ 2=
Z -1; 5
d(t-, J.-)
= _4_. .JIO
. 3X 1 6Z 9. a) Perpendicolare comune: + - = 6 Y + 3 = - - + 1; 225 O
3
O
~~)
4. 5X - 6 Y + 2Z + 7 = O.
-2
:)
lO. a) X
2
+y
c) X
2
+ y 2 - 2X + 2 Y + -
2
-
6X + 8 Y + 24 = O 7
4
= O.
5 d(t-, J.-) = - - .
-!42
Risoluzione degli esercizi
462
b) C=(-4, 5), r=3.
11. a) C = (3, - 4), r= 5
l
Risoluzione degli esercizi
463
L'esercizio può essere risolto calcolando direttamente la trasformata di t- rispetto alla riflessione definita da jv (cfr. esercizio 4(b». Si trovano per la retta t-' le equa- ° zioni 5X-4Y+2Z=0, X-Z+l=O.
§ 20 § 22 1. a) Poiché è un'isometria diretta, f è della formaf(x)
la condizione fO) b) f(x) = -x+ 2. a) f(x, y)
x + c per qualche cE R. Per
= .!!.- dev'essere c = !!- -1. Pertanto f(x) = x +.!!.- - 1. 2 2.
7f -
2
2 1. a) (_.
= (- x, y)
c) f(x, y) =
=
b) f(x, y)
= (- y, - x)
.J5
(1.-5x +5 -.! y, -.! x _1.- y) 5 5
12x - -5 -5x + -12. y, y) ( 13 13 13 13 e)f(x,y)=(-y+l, -x+l).
c)
= (x + 1, y + 1)
c) f(x, y) =
(
b) f(x, y)
--3 )
~
~.
~
~
2. a) La trasformazione- ortogonale è quella che fa passare dalla base canonica ad una base ortonormale costituita da autovettori della matrice di q. Gli autovalori sono À = 1, 4. L'autospazio Ai ha dimensione 2, ed una sua base ortonormale è
= (x + 1, - y + 1)
3 4 -x+-y, -4 x - -3 y) ( 555 5
12, - x 3 + -4y +4) d)f(x,y)= ( - -4x +3- y - 5 5 5 5 5 5
)
.J5
-1
d) f(x, y) =
3. a) f(x, y)
~5 ~
--=l), (-.J6.J6.J6
O, _1_, [( .J2.J2
2 , _.1_ , _1_). L'autospazio
A~
ha dimensione l° e un suo
o
1 ) Q um . dOi la tras f ormaZlOne . versore e. o(-1 , - 1 , ort ogonale 'e o
.J3 .J3 .J3
4. a) f(x, y, z) = (y, x, z)
(~_2y_2z,
_2 x +L_2 z , _2x_2y+~) 333333333
XI
(~+2y_2z, 2
X2
b) f(x, y, z) = c) f(x, y, z)
=
x +L+2 z , _2x+2y+~) 333333333
3 4 4 4 --x+-z--,y, -x+ -3z + 2) ( 5 5 5 5 5 5
d) f(x, y, z) = e) f(x, y, z) =
X3
(~+!- y _-.!z+ 12-, !-x+ L
+
- -.! x + -.! y + 1.- z + 5. a) f è l'identità.
b) f(x, y, z)
6. t- incontra jv nel punto P
= (-
= (-
9
(
9
!-)
1 --
.J2
o
1
XI
.J3
9
1.-). La retta t-' contiene P ed il sim4
. . cartesiane: • - -2 , - -2, -1) . P ertanto t- , e. la retta dOi equazlOlll
3
3
X3
.J3
1 --
.J3
1
YI
1
Y2
.J3 -
.J6
1
.J3
-
.J6
-
-
1
Y3
.J3 = -
2
O
-1
-
1
.J2
.J6
1
1 --
.J2
(:)
1
Y2 O -
1
Y2
O -
O O -
1
Y2
(f:)
2yi - 3yi + y~. Trasformazione ortogonale:
Y2 Y3
.J6
1
Y2
yi + y~ + 4y~0
YI
.J6
c) Forma diagonale: q(y" Y2, Y3) -
X-Z+l =00
1
-
X2
3
5X-2Y+2=0,
-1
.J2
2 4 metrico di un qualsiasi punto di t-, ad esempio di (O, O, 1), il cui simmetrico è Q=
1
-
.J6
b) Forma diagonale: q(YI, Y2' Y3)
x, y, z).
1-, - 1-,
-2 --
La corrispondente forma diagonale è q(YI, Y2, Y3) =
-.!z _12-, 99999999 9
O
= -
Yi -
y~
+ 3y~. Trasformazione ortogonale:
464
Risoluzione degli esercizi
Risoluzione degli esercizi
465
§ 23 § 25 1. c), e). 1. a) [O, l, - 3]
2. a), c), e). 3.
°
[(~, - ~, o), (~, ~, o), (O, 0, i)].
2. a) 3X, +X2 +Xo = c) 2iX, + 3X2 + 9Xo =
4. a) A possiede gli autovalori Iv = 0, 2. I corrispondenti autovettori .)
l
(
--ti'..Jz
(-.L,- _1_) e --ti
b) Xl - 2X2
°
--ti
X o =:
°
+ i =0
b) 2X - Y
c) 2iY-X+i=0
d) 2 Y
4. a) [3 + i, - l, -l]
standard; pertanto la matrice cercata è:
-
d) [O, 0, l].
d) XI +Xo = O.
3. a) -4X+ Y+7=0
costituiscono una base ortonormale di C 2 rispetto al prodotto hermitiano
c) [O, - 3, 2i]
b) [O, 2, l]
+l
- i = O. c) [O, 3, l].
b) [l, l, l]
5. La giacitura del piano di A 3 (R) cercato è generata dalle direzioni di Zr ed ~. Impo-
~:
nendo il passaggio per il punto assegnato, si ottiene il piano di equazione in coordinate omogenee: X o - X 2 - X 3 = O.
il)
M- (
:
§ 27
b)A=(-: _: -~)
1
1. a) A = (_ 2
- 2
_ :)
1
-2
-l
'lA_C -;
§ 24
1. a) (2i - 3)Xo + (2i b) '-- (l
+ i)Xo -
+ I)X, - 4X2 = 2X, + (l + i)X2 =
°
°
b)
6.
~
~
f fissa tutti i punti della retta di equazione X o + XI = 0, e il punto [O,
°
l].
'lrP,H(Q3) = [3,5, l, -l],
'lrP,H(Q4) = Q4.
5. Zr ed
J
4. a) fpossiede i 3 punti fissi [3, 2, - 4], [4,2, - 5], [l, l, - 2].
3. 6Xo + 2X, - 5X2 = O. 'lrP,H(Q2) = [l, l, -l, -l],
-l
2. f([xo, Xl]) = [Xo - 3x" Xo + XI]'
c) 2iXo - X 2 = O.
4. 'lrP,H(QI) = [1,2,0, O],
l
§ 28
sono sghembe. 1. a) XOX I + 2xi - X5 = 0,
= L (P, Zr)n L (P, Zr').
b) xtXi - xt = 0,
7. a) L(P, Zr) è il piano contenente P e due punti di Zr, per esempio [O, 0, 2, l] e [l, - 2, l, O]. Similmente L (P, Zr') è individuato daPe da [O, 3, 2, O], [2, l,O, - 2] E Zr'. Quindi~= L (P, Zr) n L (P, Zr') ha equazioni 3Xo + 2X, + X 2 - 2X3 = 0, 3Xo - 2X, + + 3X2 + 2X3 = O. b) ~ ha equazioni cartesiane: 4Xo - 3X, + X 2 + X 3 = 0,
7X o - 3XI + X 2 + 2X3 = O.
[O, l, O]
[O, l, O], [0,0, l]
+ X OX IX 2 + XIX~ = 0, [O, d) X/X2 -X, Xi + xfXO- x2 xJ = 0, c) 3XJX2
l, O], [O, 0, l]; [O, l, O], [0,0, l], [0, l, l].
2. a) e b) non sono simmetriche rispetto all'origine né rispetto ad alcuno degli assi coordinati; c) è simmetrica rispetto all'origine e rispetto ad entrambi gli assi coordinati.
30
Risoluzione degli esercizi
466
Risoluzione degli esercizi
467
dratica X,Z + Y'z + X' Y' sono A. =l-,
§ 31
2
RTI2 = «-1, 1),
2
=
1
3 ->0,
1
1
2
2
1
4
1
2
2
2
1
1
2
2
1 =-;;!:.O, 2
Y2
è un'ellisse non degenere, in particolare è una conica a centro. Inoltre il punto :r; è un'ellisse a punti reali. Le coordinate del centro sono la soluzione del sistema
1 1 1 1 X+-Y+-=O, -X+ Y+-=O, 2
2
e quindi C = (_l-, _l-). l punti impropri [O, XI, xz] hanno per coordinate le soluzioni
dell'equ~ziOne3X~ + xi + XIXz =0,
e sono pertanto [O, -1 + V3 i, 2],
[O, 1 + V3 i, - 2].
di matrice (_
V3].
g) Ellisse a punti reali. C = (O, O). Punti impropri: [O, - 2 + i..[6, 2], [O, 2 + i..[6, - 2]. [O, 1 + 2V2,
-
= (-
~, ~).
Y2
Y2
Y2
3
Y2
Y2
Y2
.
X'
Y'
X'
Y'
Y2
Y2
Y2
Y2
c) RotazIOne: X = - - - , Y = - + Traslazione: X' = X" +
Y2,
Y' = Y" _ _ 1_.
2Y2
8
Y2 X". 2
:r;
3
. X d) Isometna:
è C = (.:-l-, _l-) la traslazione ·33
3
Y5
Y5
Y' +-.
Y5
X=~ - Y3
Y' -
Y3,
Y=
2
Y3 X' + ~+ 1. 2
2
Forma canonica: 3X'z - Y'z = 1.
X,z+ y,z+X'Y' _..i=0,
che ha centro nell'origine. Gli autovalori della matrice
Y5
2
nella conica di equazione
3
X' 2 Y' , Y =2- X' = - --
x,z Y'z Forma canonica: - - - - - = 1. 2 2 e) Isometria:
:r;
Y2
3
Forma canonica: Y" z =
X=X' _l-, Y= y,_ltrasforma
Sostituendo troviamo la conica di equazione
l- X" z + 1.. Y" z _..i = O. La forma canonica è pertanto 1.. X" z + .2.. Y " z = 1. 2 2 3 8 8 L'isometria cercata è la composizione della traslazione e della rotazione effettuate, X" Y" 1 X" Y" 1 cioè: X = - - + - - - , Y' = - - - + - - - .
Punti impropri: [O, - 1 + 2 V2, 3],
3].
3. a) Poiché il centro di
~.
Y2
f) Parabola non degenere. Punto improprio: [0, 4, - 3].
h) Ellisse a punti reali. C
+ ~)
Y2
X,z Y'z Forma canonica: - - - - - = 1. 4 9
d) Iperbole non degenere. C = (O, O). Punti impropri: [O, 3, 1], [0, -1, 3]. 1). Punti impropri: [O, 1, O], [O, -1,
Y2
Y2
Y2
c) Parabola non degenere. Punto improprio: [0, 1, 1].
V3,
consiste· di autovettori ed è
X' Y' X' Y' b) Isometria: X = - - - , Y = - + - .
b) Iperbole non degenere. C = (O, O). Punti impropri: [0, 5, 1], [O, 1, 5].
e) Iperbole non degenere. C = (-
=
X" X" Y' = - - - + -
X" Y" X'=--+-,
(-1, -1) appartiene a ..1:f, e quindi
2
R~12
concordemente orientata con la base canonica. In corrispondenza otteniamo la rotazione
:r;
2
2
«1, l). La base ortonorma.le [(_1_, - _1_), (_1_, _1_)] . Y2 Y2 Y2Y2
2. a) Poiché 1
1.., con autospazi
1~1) (~
f) Isometria: X = ..i X' + 1.. Y', Y =_1.. X ' 5 5 5 Forma canonica: Y'z - 2X' = O.
della forma qua-
+ ..i Y' . 5
. X =2- X' +-, Y' Y = - X' 2 Y' . -+g) Isometna:
Y5
Y5
X,z Y'z Forma canonica: - - + - - = 1. 12
2
Y5
Y5
Risoluzione degli esercizi
Risoluzione degli esercizi
468
X'
Y'
Y'i
X'
4. Le rette cercate sono le tangenti a ~ nei due punti ~ n r p. La polare r p ha equazione X o + X 2 = O, e interseca ~ nei punti [1, ± Y'i, l]; le corrispondenti tangenti hanno equazioni X o =F Y'i XI + X 2 = O.
Y'i
Y'
469
h) Isometria: X = - - - - - , Y = - + - + - · Y'i Y'i 2 Y'i Y'i 2 Forma canonica: 2X' 2 + y d = l. 4. a) X + Y + 2
= O,
c) Y-3X=0,
X - Y
b) 2X+2Y-1 =0,
=O
X
Y
-+-+1=0 2 2
§ 35
d) X+ Y=O.
X+Y'i Y=O
1. Il determinante si annulla se e solo se esiste una relazione di dipendenza lineare tra le colonne della matrice, cioè se e solo se esistono aoo, 2ao" 2a02, all, 2a12' a22 E K non tutti nulli tali che si abbia:
§ 34 2. a) La curva contiene l'origine perché la sua equazione non ha termine costante; i termini Poiché di grado più basso sono quadratici, e quindi l'origine è un punto doppio per X 2 + y 2 = (X + iY) (X - iY), le tangenti principali nell'origine hanno equazioni: X + iY = O, X - iY = O. Le coordinate [O, x" X2] dei punti impropri sono radici dell'e2 quazione ottenuta annullando i termini di grado massimo, cioè di X 2 (X, - 2X2) = O, e quindi i punti impropri sono: [O, 1, O], [0,2, l]. Poiché la retta impropria interseca ~ in [O, 2, 1] con molteplicità 1, il punto [0,2, 1] è semplice per ~ e la retta impropria non è la tangente. Quindi ~ ha un asintoto in corrispondenza a questo punto, ed esso ha equazione X - 2 Y = c per qualche c EC. Per determinare c si considerano le intersezioni di ~ con la retta variabile di equazione precedente, e si ottiene l'equazione in Y (c - 5) y 2 - 4cY - c 2 = O.
.ce:
Poiché il grado di quest'equazione si abbassa per c = 5, la retta di equazione X - 2 Y = 5 ha due delle sue tre intersezioni con ~ raccolte nel punto improprio, e quindi è l'asintoto cercato. Procedendo in modo simile con l'altro punto improprio si trova che esso è semplice per 5f, con tangente la retta impropria. b) L'origine è un punto semplice, con tangente di equazione X = O. L'unico punto improprio è [O, 1, 1], che è un punto doppio ordinario con tangenti principali la retta impropria e la retta di equazione X - Y - 2 = O, che è pertanto un asintoto di
.ce:
c) L'origine è un punto triplo ordinario, con tangenti principali: Y = O,
2X - Y = O,
la retta impropria e le rette X - Y
= 1-, X + 2
Y
= _1-. 2
gente la retta impropria: è un flesso di specie 3. r F,:X2=0,
aOa2
bob,
bob2
bl
cl
Co c,
COC2
cl
+ 2 a Ol
+ 2 a 02
r u:-4XO+XI +2X2 =0,
r p : - 2Xo + XI + 3X2 = O. b) r Fo :X2 = O, r F,:2X, - 3X2 = O, r F,: - 3XI + X o = O, ru:xo - X, - 2X2 = O, r p :3Xo - 5X, - 5X2 = O.
al
+all
dg
do d,
d od 2
dl
eg
eoe,
eOe2
el
ii
Io};
loh
1/
a,a2
ai
O
b , b2
bi
O
ci
O
d l d2
di
O
ele2
el
O
fJ2
R
O
C,C2
+ a22
+
Questa condizione equivale all'appartenenza dei 6 punti assegnati alla conica di equazione aooXo2 + 2ao,XoX, + 2a02XOX 2 + allXI2 + 2a 12 X,X2 + a 22 Xl = o. 5. Supponiamo che le coniche del fascio abbiano equazione AF(Xo, X" X 2) + p,G(Xo, X" X 2) = O,
f) L'origine è un punto doppio non ordinario (che non è una cuspide ordinaria), con tangente principale Y = O. L'unico punto improprio è [O, O, 1], che è semplice con tan-
rF,:XI=O,
aoal
bg
+ 2 a 12
2X + Y = O.
Punti impropri: [O, O, 1] [O, 1, l] e [O, 1, -1] semplici, con tangenti rispettivamente
3. a) rFo:XO=O,
aoo
ag
(A, p,) EK2 \ {(O, O) J.
Se F(Xo, X" X 2) = 'XA X,
G(Xo, XI, X o) = 'XBX,
dove A = (aij) e B = (bi) sono le matrici delle due coniche, allora AF(Xo, X" X 2) + p,G(XJ, X" X 2) = 'X(AA + p, B) X
e le coniche degeneri corrispondono alle coppie (A, p,) tali che det(AA
+ p,B) =
O.
Questa è un'equazione omogenea di grado 3 in A, p" che ha al più tre soluzioni distinte: quindi le coniche degeneri del fascio sono al più 3. Se il fascio ha 4 punti base distinti P" P 2 , P], P 4 , allora questi punti sono a tre a tre
Risoluzione degli esercizi
470
non allineati, e le tre coniche riducibili
Bibliografia
sono distinte e appartengono al fascio.
§ 36 1. L'hessiana ha equazione X OX,X2 = O. Quindi i flessi sono i 9 punti di intersezione di !tfJ con le rette X o = 0, XI = 0, X 2 = 0, e si verifica immediatamente che essi coincidono con i pùnti assegnati. 3. Sono le 4 cubiche di equazioni seguenti: . X OX,X2 = 0, (Xo + XI
+ X 2)(é X o + EXI + X 2)(XO + EX, + é X 2) = 0, 2 2 (Xo + E XI + E2 X 2)(E 2 X o + X, + E X 2)(E 2 X o + E Xl + X 2) = 0, (EXo + Xl + X 2)(Xo + EX, + X 2)(XO + XI + EX2) = 0, 2
ognuna delle quali è riducibile in 3 rette distinte. Queste 12 rette si ottengono congiungendo in tutti i modi possibili 2 dei 9 punti base del fascio. 4. È sufficiente dimostrare che l'hessiana di ogni cubica del fascio contiene i punti base. L'hessiana della cubica corrispondente ai valori l, m dei parametri ha equazione
[2] [3] [4] [5] [6] [7]
6lXo mX2 mX, mX2 6lXI tnXo
[1]
=
O.
mXI mXo 6lX2
È immediato verificare che le coordinate di ognuno dei punti base annullano il deter-
[8] [9] [lO] [Il]
minante a primo membro. [12] [13] [14] [15] [16]
Benson C. T. e Grove L. C., Finite Refleetion Groups, Springer, Berlin-Heidelberg-New York 1985. Berger M., Geometry I, II, Springer, Berlin-Heidelberg-NewYork 1987. Bertini E., Introduzione alla geometria proiettiva degli iperspazi, Principato, Messina 1923. Carathéodory C., Theory oj Funetions oj aComplex Variable, Chelsea Publishing Company, New York 1964. Guggenheimer H. W., PIane Geometry and Its Groups, Holden Day, San Francisco 1967. Herstein I., Topies in Algebra, Wiley, London 1976 [trad. it. Algebra, Editori Riuniti, Roma 1982]. Hilbert D. e Cohn-Vossen S., Ansehauliehe Geometrie, J. Springer, Berlin 1932 [trad. it. Geometria intuitiva, Bollati Boringhieri, Torino 1972]. Kleiman S. e Laksov D., Schubert Caleulus, in "Am. Math. Monthly", 73 (1972), pp. 1061-82. Klein F., Leetures on the Icosahedron, Dover, New York 1956. - Elementary Mathematiesjrom an Advaneed Standpoint: Geometry, Dover, New York 1948. Lang S., Linear Algebra, Addison-Wesley Publishing Company, Reading, Mass. 1966 [trad. it. Algebra lineare, Bollati Boringhieri, Torino 1970]. Lyndon R. c., Groups and Geometry, Cambridge University Press, Cambridge 1985. Nikulin V. V., Safarevicl. R., GeometriesandGroups, Springer, Berlin-Heidelberg-NewYork 1987. Schwerdtfeger H., Geometry oj Complex Numbers, Dover, New York 1979. Walker R. J., Algebraie Curves, Dover, New York 1962. Weyl H., Symmetry, Princeton University Press, Princeton 1952 [trad. it. La simmetria, Feltrinelli, Milano 1962].
Elenco dei simboli
Mm,n(K). Mn(K)
In GLn(K).O(n) R7jo RF. R7j(c)
Et>
<) v(a" ...• an)
dim(V) El ..... En tr(A) r(A) A (il ... ipljl ... jq)
E.II
det(A). lA I. det(au) cof(A) V(x" .... xn) Va, An(K). Oel ... en PO ... P N ac(P) SIIT
V/W Ps,u
Hom(V, W). End(V), V', GL(V)
N(F) 1m(F), r(F)
V" Mw,v(F) FA Me (F) det(F) V). (F), V).(A) PAT) PF(T) J(S) SLn(K). SO(n)
U(n), SU(n) Aff(A)
23 25 29 44 52 54 56 58 59 65 68 70 73 74 79 88 92 94 95 105 106 109 133 137 138 144 147 149 160 161 163 165 166 175 176 177 179
Affn(K) TA• fA,c
Ulo,c
D 2n ) an J b Ob. ol, a,(W)
IIvll cP '" Il (mod. 2'1l') R 9•
ab
VI/\ V2
En d(P. Q) d(Po• t» d(Po• ft) d(t>, t>1) S(C. r). D(C. r). sn-I,
Dn
.J2,' O (V) SO (V) 150m (E) 150m + (E) Simi1(E) P"PH
Ob(V) Sp(2k. K) A9 Re, 9
X9• ~ J n, ).
P(V). pn(K), [vl, [xo• .... xnl eo ... en• P[x" .... , xnl L(J), L(P" .... P t ) L(S" S2) Cp(J). '1l'P,H Gk(V), G(k. n)
C(J) jo
179 181 183 189 192 196 210 219 220 224 227 228 230.233 233 234 236 237 244 245 247 248 252 252 254 255 257 258 267 272 284 287 289 291 294 296 299
......
474
Elenco dei simboli
ii ì..oPo + A.l P l
V
ì..oPo +
000
+ A.nPn
P~, <>
AI(S)
ò PGL(p), PGLn+I(K)
(3(P I , P 2 , P 3, P 4) i «(3) i (P h P 2 , P 3, P4) gr(51) T(g?) r(51) r(9)
.'d;+
000
+%
1(51, to-; P o)
,
300 303 304 311 313 314 315 322 325 326 327 339 341 355 358 381 386
mp(51)
rJ,(51) An An(PP,
000'
Pi')
Elp,. i (.1:f)
O[X] O[Xh .. o, X N K(Xh "O, X N ) MCD(f, g) dj òj
--
dX' òXi
h
XN ]
390 402 403 406 409 414 423 424 426 428
Indice analitico
431
(:)
432
R(J, g) t. (f)
438 439 Affinità, 178 Angolo(i): convesso, 217 tra due piani, 232 tra due rette, 229 di una rotazione, 257 orientato, 219 tra due semirette, 237 tra due vettori, 220 tra una retta e un piano, 232 di Eulero, 267 Applicazione: antilineare, 146 di dualità, 313 di passaggio a coordinate omogenee (non omogenee), 299 lineare, 132 associata ad una matrice, 149 Area di un parallelogramma, 238 Argomento (principale) di un numero complesso, 221 Asintoto, 393 di un'iperbole, 374 Asse(i): coordinati, 110 di simmetria di una curva, 344 di una riflessione, 253, 258 di un fascio di piani, 127 Automorfismo di uno spazio vettoriale, 133 Autospazio, 163 Autovalore, 163 Autovettore, 163 Baricentro, 311 Base (finita), 56 canonica di K n,59 duale, 142
ortogonale (o diagonalizzante), 197,275 ortonormale, 211, 275 Birapporto, 325 Campo, 421 algebricamente chiuso, 429 dei quozienti di un dominio, 425 delle funzioni razionali, 426 Caratteristica di un dominio, 422 Centro: di simmetria di una curva, 344 di simmetria di un insieme, 182 di una conica, 364 di un fascio di rette, 112 Cerchio, 236 di Moebius, 331 Chiusura proiettiva: di una curva affine, 343 di un iperpiano, 308 di un sottospazio affine, 309 Ciclo, 442 Circonferenza, 236, 372 Classe resto, 188 Codimensione di un sottospazio: proiettivo, 285 vettoriale, 63 Coefficiente: di Fourier, 196 di una combinazione lineare, 53 di un polinomio, 423 Cofattore, 79, 82 Combinazione lineare, 53 Complemento algebrico, 79, 82 Componente: di un vettore di K n, 19 fissa, 406 irriducibile, 381 multipla, 381
476
Condizione(i): di complanarità di due rette, 125 di parallelismo di due piani, 122 di parallelismo retta-piano, 125 di tangenza, 408 indipendenti, 406 lineare, 404 Configurazione duale, 317 Conica, 338 a centro, 360 degenere (semplicemente o doppiamente), 355, 360 Cono: isotropo, 202 proiettante, 291 su un insieme, 296 Coordinate: affini, 92 baricentriche, 311 omogenee (o proiettive), 284 di iperpiano, 313 standard, 285 pluckeriane, 294 polari, 237 Cubica: armonica, 419 equianarmonica, 419 Curva(e) algebrica(e): affine, 338 affinemente equivalenti, 341 complesse coniugate, 348 congruenti, 341 hessiana, 399 irriducibile (riducibile), 381 non singolare (singolare), 390 proiettiva, 339 proiettivamente equivalenti, 341 proiettificata di una curva affine, 343 reale, 348 ridotta, 381 simmetrica rispetto ad una retta, 344 simmetrica rispetto ad un punto, 344 Cuspide ordinaria, 396 Derivata di un polinomio, 431 Determinante, 73 di Vandermonde, 88 hessiano, 399 Determinazione (principale) di un angolo, 219 Diametri di una conica, 365 Dimensione: di uno spazio affine, 91 di uno spazio proiettivo, 284 di uno spazio vettoriale, 58 di un sistema lineare di iperpiani, 315 Direttrice(i):
Indice analitico
di un'ellisse, 373 di un'iperbole, 374 di una parabola, 375 Direzione: di una retta, 93 di un fascio improprio di rette, 113 Disco, 236 Discriminante, 439 Distanza: tra due punti, 228 tra due rette, 231, 234 punto-piano, 233 punto-retta, 230, 233 Disuguaglianza: di Schwarz, 210 triangollire, 211 Dominio, 422 a fattorizzazione unica, 426 Eccentricità: di un'ellisse, 372 di un'iperbole, 374 di una parabola, 375 Ellisse, 361 Endomorfismo, 132 Equazione(i): di una curva, 338 sg. di una retta affine, 101 di una retta proiettiva, 289 di un iperpiano, 104, 286 di un'ipersuperficie, 346 di un piano, 121 di un sottospazio affine, 101, 104 di un sottospazio proiettivo, 286, 288 lineare (di primo grado), 33 omogenea (non omogenea), 33 Equipollenza, 14 Estensione di un campo, 422 Fascio: di circonferenze, di ellissi, di iperboli, di parabole, 409 sg. di curve, 404 di iperpiani, 314 di piani (proprio, improprio), 127 di rette, 314 improprio, 113 proprio, 112 sizigizietico di cubiche, 419 Fattorizzazione, 426 Figura(e): affinemente equivalenti, 185 congruenti, 250 geometrica affine" 185 proiettivamente equivalenti, 324 Flesso, 397
Indice analitico
Forma: bilineare (simmetrica, antisimmetrica, alterna), 190 alterna standard, 195 anisotropa, 202 degenere (non degenere), 195 polare di una forma quadratica, 198 simmetrica standard, 191 canonica: delle coniche affini, 361 delle coniche euclidee, 365 delle coniche proiettive, 356 delle quadriche affini, 368 delle quadriche euclidee, 380 delle quadriche proiettive, 358 di J ordan, 272 hermitiana, 273 definita, semidefinita, 274 quadratica, 197 definita, semidefinita, 207 di Minkowski, 208 indefinita, 208 iperbolica, 200 n-aria, 199 Formula: del cambiamento di coordinate, 150 affini, 156 omogenee, 320 di Grassmann: proiettiva, 290 vettoriale, 63 Funzionale lineare, 133 Fuoco(i): di un'ellisse, 372 di un'iperbole, 374 di una parabola, 375 Generazione proiettiva delle curve piane, 410 Giacitura: di un fascio improprio di piani, 127 di un sottospazio affine, 93 Glissoriflessione, 260, 268 Glissorotazione, 269 Grado: di una curva, 338 sg. di un polinomio, 423 Grassmanniana, 294 Gruppo(i), 175 abeliano, 175 affine, 179 ciclico, 188 cristallografici piani, 262 dei fregi, 262 delle similitudini, 251 di Coxeter, 254 diedrale, 189
477
di isometrie, 247 di una figura, 249 di Lorentz, 255 discontinuo, 253 di trasformazioni, 177 affini, 179 finitamente generato, 188 lineare, 176 generale, 176 proiettivo, 322 speciale, 176 ortogonale (speciale), 176, 244 sg., 254 quadrinomio (o di Klein),.264 simplettico, 255 unitario (speciale), 177 Identità: di Eulero, 433 di Lagrange, 226 pitagorica, 216 Immagine di un'applicazione lineare, 138 Indice di positività (negatività), 207 Insieme: convesso, 99 limitato, 239 ortogonale (ortonormale) di vettori, 211 Inviluppo convesso, 99 Iperbole, 361 Iperpiano(i): affine, 94 coordinato, 105, 286 di simmetria, 253 improprio, 299 proiettivo, 285 Ipersuperficie, 293, 346 Isometria, 247 Isomorfismo: di domini, 425 di gruppi, 177 di spazi affini, 178 di spazi proiettivi, 322 di spazi vettoriali, 133 Lunghezza di un segmento, 238 Massimo Comun Divisore, 428 Matrice(i), 21 antisimmetrica, 25 associata a un'applicazione lineare, 147 congruenti, 194 dei coefficienti di un sistema, 35 diagonalizzabile, 162 di Pauli, 66 di una conica, 355 di una forma bilineare, 192 di una proiettività, 323
478
di un cambiamento di coordinate, 150 di un operatore lineare, 160 di Vandermonde, 88 elementare, 44 hermitiana, 274 hessiana, 399 invertibile, 28 nilpotente, 31 orlata, 36 ortogonale, 29 quadrata, 22 simili, 161 simmetrica, 25 definita, sernidefinita, indefinita, 208 trasposta, 22 triangolare, 25 unitaria, 177 Metodo: dell'inversa, 44 di eliminazione di Gauss-Jordan, 38 di Laplace, 84 Minore(i), 78 orlati, 85 Modulo: di una quaterna di punti, 327 di una cubica, 414 Molteplicità: algebrica (geometrica) di un autovalore, 170 d'intersezione retta-curva, 386 sg. di una componente irriducibile, 381 di una curva in un punto, 390 di una radice, 429 di un fattore, 427 di un punto base, 406 n-spazio numerico: affine, 92 proiettivo, 284 vettoriale, 18 Nodo, 396 Norma (lunghezza) di un vettore, 210 Notazione a blocchi, 29 Nucleo di un'applicazione lineare, 137 Omomorfismo: di domini, 424 di gruppi, 177 Omotetia, 181 Operatore(i) lineare(i), 132 aggiunti (trasposti), 246 antisimmetrico, 247 autoaggiunto (simmetrico), 247 diagonalizzabile, 162 unitario, 243, 276 Operazioni elementari, 38 Orientazione:
Indice analitico di uno spazio affine, 157 di uno spazio vettoriale, 151 Parabola, 360 cubica di Newton, 351 Parallelepipedo, 98 Parallelogramma, 98 Permutazione, 441 Perpendicolare comune, 234 Piano(i): affine, 92 coordinati, 120 ordinario, 13 ampliato, 305 perpendicolari (o ortogonali), 232 proiettivo, 284 Polare, 402 Poliedro convesso, 239 Poligono convesso, 239 Polinomio, 423 caratteristico, 165 costante, 423 generico, 405 irriducibile, 427 monico,423 omogeneizzato (deomogeneizzato), 434 omogeneo, 432 Principio: d'identità dei polinomi, 430 di dualità, 317 Prodotto: di matrici, 24 hermitiano, 275 misto, 226 scalare, 209 standard, 209 vettoriale, 224 Proiettività, 322 Proiezione, 134, 291 naturale, 136 ortogonale, 212, 216 parallela, 109 stereografica, 305 Proposizione autoduale, 318 Proprietà: affine, 185, 341 di similitudine, 250 euclidea, 250, 341 focale, 375 proiettiva, 324, 341 Punto(i): allineati (o collineari), 95 base, 406 ciclici, 379 complanari, 95 fondamentale, 284
Indice analitico indipendenti, 95 in posizione generale, 288 K-razionale, 352 linearmente indipendenti, 288 medio di un segmento, 97 multiplo (singolare), 390 ordinario, 396 proprio (improprio), 299 reale di una curva, 349 sg. semplice, 390 simmetrico: rispetto a un iperpiano, 252 rispetto a un punto, 95 unità, 284 Quadrica, 293 di Klein, 295 Quadrilatero completo, 335 Quaterna: armonica, 328 equianarmonica, 328 Radicale, 196 Radice di un polinomio, 428 Rami di un'iperbole, 373 Rango: di una conica, 355, 360 di una forma bilineare, 195 di una matrice, 67 Rappresentazione trigonometrica di un numero complesso, 222 Regola del parallelogramma, 15 di Cramer, 82 Rete di curve, 404 Retta(e): affine, 91 di Pascal, 303 ortogonali(o perpendicolari), 229 proiettiva, 284 tangente, 392 principale, 393 Riferimento: affine, 92 standard, 93 cartesiano, 227 proiettivo, 284 duale, 313 standard, 285 Riflessione, 252 rotatoria, 269 Risultante di due polinomi, 438 Rotazione, 245, 248 Scalare, 16 Segmento, 97 orientato, 13
479
Segnatura di una forma quadratica, 207 Semiassi di un'ellisse, 372 Semipiano, 109 Semiretta, 97 Semispazio, 109 Sfera, 236 di Riemann, 306 Simbolo: di Kronecker, 25 di sommatoria, 73 Similitudine, 251 Simplesso, 99 Sistema: di equazioni lineari, 33 a gradini, 36 lineare: di curve, 404 di iperpiani, 314 Solido convesso, 239 regolare, 240 Soluzione generale di un sistema, 40 Somma diretta, 52 Sottocampo, 422 Sottodominio, 422 Sottomatrice, 70 Sottospazio(i) : affine, 93 generato da un insieme finito di punti, 94 incidenti (sghembi), 107 paralleli, 105 proiettivo (o lineare), 285 generato da un s.i., 287 incidenti (sghembi), 287 in posi;zione generale, 290 somma di due sottospazi, 289 vettoriale, 50 generato da un insieme finito di vettori, 54 isotropo, 202 ortogonale a un s.i. di V, 145 ortogonali, 196 somma (diretta) di,52 supplementari, 52 Spazio(i): affine, 91 numerico, 92 euclideo, 227 numerico, 227 metrico, 228 ordinario, 13 ampliato, 305 proiettivo, 284 biduale, 319 duale, 313 numerico, 284 vettoriale, 17 biduale, 144
480
duale, 141 euclideo, 209 hermitiano, 275 isomorfi, 140 numerico, 18 quoziente, 106 universale, 304 Spettro, 163 Stabilizzatore, 177 Stella di piani, 314 Struttura: di gruppo su una cubica, 418 di spazio affine, 91 di spazio vettoriale, 18 Successione, 20 di Fibonacci, 66 limitata, 21 Supporto di una curva, 338 sg. Tacnodo, 397 Tangente, 392 principale, 393 Teorema: di Bezout, 383 di Chasles, 260 di Desargues, 117, 318 di Eulero, 267 di fattorizzazione unica, 427 di Gram-Schmidt, 213 di J ordan, 272 di Kronecker-Rouché-Capelli, 71 di Laplace, 83 di omomorfismo per gli spazi vettoriali, 140 di Pappo, 116
Indice analitico
di Pappo-Pascal, 303 di Poncelet, 412 di Salmon, 414 di Sylvester, 206 di Talete, 115 di Taylor, 431 fondamentale dell'algebra, 430 spettrale, 270, 279 Teme pitagoriche, 352 Tetraedro, 98 Traccia di una matrice quadrata, 65 Trasformazione, 175 lineare fratta (o di Moebius), 329 Traslazione, 180 Trasposizione, 442 Triangolo, 98 Versore, 211 di una retta, 228 normale a una retta, 229 normale a un piano, 231 Vertici: di un'ellisse, 372 di un'iperbole, 373 Vettore(i): applicato, 13 colonna, 22 di direzione di una retta, 93 'geometrico, 14 isotropo, 196 linearmente indipendenti (dipendenti), 54 ortogonali, 196, 274 riga, 22 Volume di un parallelepipedo, 238
l l
i
lI \
J