5/14/2018
Alg brelin aire-slidepdf.com
ABDELKADER BENHARI
-
ALGÈBRE LINÉAIRE L’algèbre linéaire est la branche des mathématiques qui s'intéresse à l'étude des espaces vectoriels (ou espaces linéaires), de leurs éléments les vecteurs, des transformations linéaires et des systèmes d'équations linéaires (théorie des matrices). on s'interesse dans ce cours aux : Espaces vectoriels, K-algèbres, Espaces vectoriels finis, Matrices, Déterminants, Produit scalaire sur un Respace vectoriel, Espace vectoriel euclidien, R-espace vectoriel euclidien orienté de dimension 2, R-espace vectoriel euclidien orienté de dimension 3, Espaces affines,Géométrie dans un espace affine euclidien
ELEMENTARY LINEAR ALGEBRA Linear algebra is the branch of mathematics that deals with the study of vector spaces (or linear spaces), of their vectors, linear transformations and systems of linear equations (matrix theory). we are interested in this course to: Vector spaces, K-algebras, finite vector spaces, matrices, determinants, scalar product on R-vector space, Euclidean space, R-Euclidean oriented vector space of dimension 2, R-Euclidean oriented vector space of dimension 3, Spaces affine geometry in a Euclidean affine space
http://slidepdf.com/reader/full/algebre-lineaire
1/167
5/14/2018
Alg brelin aire-slidepdf.com
Table des matières
Espaces vectoriels ...................................................................................................................... 7 I Définitions............................................................................................................................ 7 A) Définition ...................................................................................................................... 7 B) Règles de calcul ............................................................................................................. 7 C) Exemple important ........................................................................................................ 8 D) Vecteurs, combinaisons linéaires ................................................................................ 10 II Sous-espace vectoriel ....................................................................................................... 10 A) Définition .................................................................................................................... 11 B) Intersection de sous-espaces vectoriels ....................................................................... 11 C) Définitions équivalentes .............................................................................................. 12 D) Sous-espace vectoriel engendré par ............................................................................ 12 III Sommes et sommes directes ............................................................................................ 14 IV Applications linéaires ...................................................................................................... 16 A) Définition .................................................................................................................... 16 B) et imageimage ............................................................................................................ C) Noyau Image directe, réciproque d’un sous-espace vectoriel ...................................... 17 18 D) Structure sur des ensembles d’applications linéaires .................................................. 19 V Quelques endomorphismes intéressants ........................................................................... 22 A) Homothétie (vectorielle) ............................................................................................. 22 B) Projecteurs (vectoriels) ................................................................................................ 22 C) Symétries (vectorielles) ............................................................................................... 24 VI Familles libres (finies) .................................................................................................... 25 A) Définition .................................................................................................................... 25 B) Propriétés générales..................................................................................................... 26 VII Bases (finies) ................................................................................................................. 26 K-algèbres................................................................................................................................. 28
VIII Définition...................................................................................................................... 28 IX Sous-algèbres .................................................................................................................. 28 X Morphisme de K-algèbre .................................................................................................. 28 Espaces vectoriels de type fini ................................................................................................. 29 XI Les théorèmes fondamentaux.......................................................................................... 29 A) Existence de base ........................................................................................................ 29 B) Dimension ................................................................................................................... 29 XII Rang d’une famille de vecteurs ..................................................................................... 33 XIII Somme de sous-espaces vectoriels et dimension ......................................................... 33 XIV Applications linéaires en dimension finie .................................................................... 35 A) Détermination d’une application linéaire par la donnée des images des vecteurs d’une base ................................................................................................................................... 35 B) Applications linéaires et images des vecteurs d’une base ........................................... 36 C) Isomorphismes ............................................................................................................ 37 D) Le théorème « noyau - image » ................................................................................... 38 E) Rang d’une application linéaire ................................................................................... 38 XV Formes linéaires et hyperplan........................................................................................ 39 A) Formes linéaires de E . ................................................................................................. 39 B) Hyperplan .................................................................................................................... 39
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
2 2/167
5/14/2018
Alg brelin aire-slidepdf.com
Matrices .................................................................................................................................... 41 XVI Définition ..................................................................................................................... 41 A) Matrice ........................................................................................................................ 41 B) Représentation d’une matrice ...................................................................................... 41 XVII Matrice d’une famille de vecteurs dans une base ....................................................... 41 XVIII Matrice d’une application linéaire dans des bases..................................................... 42 XIX Le K-ev M n,p(K). ........................................................................................................... 43 A) Somme ........................................................................................................................ 43 B) Produit par un scalaire ................................................................................................. 43 C) Le K-ev M n,p(K) ........................................................................................................... 44 D) Dimension ................................................................................................................... 44 XX Produit matriciel ............................................................................................................ 45 A) Définition .................................................................................................................... 45 B) Composantes de l’image d’un vecteur ........................................................................ 46 C) Propriétés du produit ................................................................................................... 47 XXI La K-algèbre M n(K) ...................................................................................................... 48 A) Rappel ......................................................................................................................... 48 B) Théorème..................................................................................................................... 48 C) Conséquences : règles de calcul .................................................................................. 49 XXII Transposition .............................................................................................................. 50 A) Définition .................................................................................................................... 50 B) Propriétés ..................................................................................................................... 50 C) Matrices symétriques, antisymétriques ....................................................................... 50 XXIII Matrices inversibles ................................................................................................... 51 A) Définitions – rappels ................................................................................................... 51 B) Théorème essentiel ...................................................................................................... 52 C) Exemples ..................................................................................................................... 53 D) Diverses caractérisations ............................................................................................. 53 E) Exemples importants ................................................................................................... 56 XXIV Changement de base .................................................................................................. 59 A) Changement de base : matrice de passage, composantes d’un vecteur....................... 59 B) Les formules de changement de base pour une application linéaire ........................... 61 XXV Matrices équivalentes et rang ..................................................................................... 61 A) Rang d’une matrice ..................................................................................................... 61 B) Matrice équivalente ..................................................................................................... 62 C) Théorème ..................................................................................................................... 63 XXVI Transformations élémentaires ................................................................................... 65 A) Sur les colonnes .......................................................................................................... 65 B) Transformation élémentaire sur les lignes .................................................................. 66 C) Intérêt de ces théorèmes .............................................................................................. 67 XXVII Retour à la méthode du pivot ................................................................................... 68 A) Cas des matrices inversibles ....................................................................................... 68 B) Cas d’une matrice quelconque .................................................................................... 70 XXVIII Synthèse et compléments sur les systèmes ............................................................. 72 A) Définition .................................................................................................................... 72 B) Interprétation ............................................................................................................... 72 C) Résolution.................................................................................................................... 74 D) Compléments .............................................................................................................. 75
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
3 3/167
5/14/2018
Alg brelin aire-slidepdf.com
Déterminants ............................................................................................................................ 77 XXIX Applications n-linéaires............................................................................................. 77 A) Définition .................................................................................................................... 77 B) Application n-linéaire antisymétrique ......................................................................... 78 C) Applications n-linéaires alternées ............................................................................... 79 D) Formes n-linéaires alternées en dimension n. ............................................................. 79 XXX Déterminant dans une base d’une famille de n vecteurs ............................................ 80 XXXI Déterminant d’un endomorphisme............................................................................ 82 XXXII Déterminant d’une matrice carrée ............................................................................ 83 A) Définition et propriété ................................................................................................. 83 B) Propriétés portant sur les colonnes et les lignes .......................................................... 84 C) Déterminant d’une matrice triangulaire ...................................................................... 85 XXXIII Développement selon une rangée ........................................................................... 86 A) Petit lemme ................................................................................................................. 86 B) Développement selon une colonne.............................................................................. 87 C) Développement selon une ligne .................................................................................. 88 XXXIV Application à l’inverse d’une matrice carrée (si inversible) .................................. 88 XXXV Formules de Cramer................................................................................................. 89 XXXVI Complément : polynôme caractéristique d’une matrice carrée .............................. 90 Produit scalaire sur un R-ev ..................................................................................................... 92 XXXVII Définition .............................................................................................................. 92 XXXVIII Propriétés essentielles .......................................................................................... 93 A) Théorème de Cauchy–Schwarz ................................................................................... 93 B) Norme associée à un produit scalaire .......................................................................... 93 C) Distance associée à un produit scalaire ....................................................................... 94 D) Orthogonalité .............................................................................................................. 94 E) Divers .......................................................................................................................... 95 F) Familles orthogonales, orthonormales ......................................................................... 95 G) Sous-espaces orthogonaux .......................................................................................... 96 Espace vectoriel euclidien ........................................................................................................ 97 XXXIX Définition et notations ............................................................................................ 97 XLA) Bases orthonormales ...................................................................................................... 98 Généralités .................................................................................................................. 98 B) Produit scalaire et base orthonormale ....................................................................... 100 XLI Orthogonal d’un sous-espace vectoriel, projecteurs et symétries orthogonaux ......... 101 A) Orthogonal d’un sous-espace vectoriel (rappel) ....................................................... 101 B) Projecteur orthogonal ................................................................................................ 101 C) Distance d’un élément à un sous-espace vectoriel .................................................... 102 D) Symétries orthogonales ............................................................................................. 102 XLII Formes linéaires et hyperplans .................................................................................. 103 A) Formes linéaires ........................................................................................................ 103 B) Hyperplans ................................................................................................................ 104 C) Projection orthogonale sur un hyperplan .................................................................. 104 D) Réflexion ................................................................................................................... 105
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
4 4/167
5/14/2018
Alg brelin aire-slidepdf.com
XLIII Automorphismes orthogonaux ................................................................................. 106 A) Définition, théorème ................................................................................................. 106 B) Matrices orthogonales ............................................................................................... 107 C) Déterminant d’un automorphisme orthogonal .......................................................... 108 XLIV Orientation et changement de base .......................................................................... 109 A) Orientation d’un R-ev E de dimension n. ................................................................. 109 B) Changement de base orthonormale ........................................................................... 110 C) Automorphismes orthogonaux et orientation ............................................................ 110 D) Déterminant en base orthonormée directe................................................................. 111 R-ev euclidien orienté de dimension 2 ................................................................................... 111
XLV Rappels : droites du plan E . ...................................................................................... 111 XLVI Angle orienté de deux vecteurs non nuls du plan .................................................... 112 XLVII Etude de O( E ) et O2. ............................................................................................... 113 A) Etude ......................................................................................................................... 113 B) Etude de SO( E ) et SO2. .............................................................................................. 114 C) Etude de O( E ) \SO( E ) et O2 \SO2. ............................................................................... 115 D) Résumé, tableau : classification des éléments de O( E ) lorsque dim E = 2 ............... 116 E) Composées de réflexions ........................................................................................... 116 XLVIII Compléments à propos d’angles orientés.............................................................. 116 R-ev euclidien orienté de dimension 3 ................................................................................... 117
XLIX Préliminaires ............................................................................................................ 117 A) Brefs rappels ............................................................................................................. 117 B) Orientation induite..................................................................................................... 117 C) Angle non orienté ...................................................................................................... 118 L Produit vectoriel .............................................................................................................. 118 A) Proposition, définition............................................................................................... 118 B) Composantes en base orthonormée directe ............................................................... 118 C) Propriétés diverses..................................................................................................... 119 D) Produit vectoriel, angles ............................................................................................ 120 LI Etude de O( E ) et O3. ...................................................................................................... 120 A) Deux lemmes............................................................................................................. 120 B) Classification des éléments de O( E ) selon la dimension de l’espace des invariants. 121 C) Etude de SO( E ) .......................................................................................................... 123 D) Tableau résumant la classification ............................................................................ 125 E) Composée de réflexions ............................................................................................ 125 LII Divers angles non orientés en dimension 3 .................................................................. 126 Espaces affines ....................................................................................................................... 127 LIII Définitions et notations ............................................................................................... 127 A) Définition .................................................................................................................. 127 B) Translation................................................................................................................. 127 C) Vecteur défini par deux point .................................................................................... 128 D) Exemples et visualisation .......................................................................................... 128 LIV Repères d’un espace affine de dimension finie .......................................................... 128 A) Définitions ................................................................................................................. 128
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
5 5/167
5/14/2018
Alg brelin aire-slidepdf.com
B) Changement de repère ............................................................................................... 129 LV Barycentres .................................................................................................................. 129 A) Définition .................................................................................................................. 130 B) Propriétés ................................................................................................................... 130 LVI Sous-espaces affines ................................................................................................... 131 A) Généralités ................................................................................................................ 131 B) Parallélisme et inclusion entre deux sous-espaces affines ........................................ 133 C) Intersection entre deux sous-espaces affines ............................................................. 133 D) Equations et paramétrages en dimension 2 ou 3. ...................................................... 134 LVII Applications affines ................................................................................................... 136 A) Généralités ................................................................................................................ 136 B) Exemples ................................................................................................................... 138 C) Applications affines et composition .......................................................................... 138 D) Application affine, et sous-espace affine .................................................................. 140 LVIII Applications affines particulières ............................................................................ 141 A) Translations ............................................................................................................... 141 B) Homothéties .............................................................................................................. 141 C) Projections ................................................................................................................. 144 D) Symétries ................................................................................................................... 145 E) Affinités ..................................................................................................................... 145 F) Une remarque générale en dimension finie ............................................................... 147 LIX Parties convexes d’un espace affine ........................................................................... 147 Géométrie dans un espace affine euclidien ............................................................................ 149 LX Généralités en dimension finie..................................................................................... 149 A) Divers ........................................................................................................................ 149 B) Les isométries ............................................................................................................ 151 LXI Etude d’un espace affine euclidien orienté de dimension 2 ....................................... 152 A) Les isométries en dimension 2 .................................................................................. 152 B) Géométrie analytique en dimension 2 ....................................................................... 155 C) Les similitudes du plan .............................................................................................. 156 D) Coordonnées polaires ................................................................................................ 159 LXII En dimension 3 .......................................................................................................... 160 A) Les déplacements ...................................................................................................... 160 B) Géométrie analytique en dimension 3 ....................................................................... 163 C) Coordonnées cylindriques et sphériques ................................................................... 164
Bibliographie
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
6 6/167
5/14/2018
Alg brelin aire-slidepdf.com
Espaces vectoriels Dans tout ce chapitre, K = R ou C (ou un sous corps de C). (Muni des lois + et × naturelles)
I Définitions A) Définition Soit E un ensemble, muni d’une loi de composition interne ⊕ et d’une loi externe à opérateurs dans K, notée ⋅ , c'est-à-dire : E × E → E et K × E → E . (λ ,u )֏λ ⋅u (u,v)֏u⊕v On dit que ( E ,⊕,⋅) est un espace vectoriel sur K /un K-espace vectoriel (K-ev)
lorsque : • ( E ,⊕) est un groupe commutatif
• Pour tous u , v ∈ E , λ , µ ∈ K , on a : (λ + µ ) ⋅ u = λ ⋅ u ⊕ µ ⋅ u λ ⋅ (u ⊕ v) = λ ⋅ u ⊕ λ ⋅ v (λ × µ ) ⋅ u = λ ⋅ ( µ ⋅ u )
1⋅ u = u Exemples : (R ,+,×) , (F(R , R ),+,⋅) , (C ,+,×) sont des R-ev. (K [ X ],+,×) est un K-ev.
B) Règles de calcul Soit ( E ,⊕,⋅) un K-ev. Alors : (1) ∀u ∈ E ,0 ⋅ u = 0 E (neutre pour ⊕ du groupe ( E ,⊕) appelé le vecteur nul de E ) Démonstration : ∀u ∈ E ,0 ⋅ u = (0 + 0) ⋅ u = 0 ⋅ u ⊕ 0 ⋅ u . Donc 0 ⋅ u = 0 E (2) ∀λ ∈ K , λ ⋅ 0 E = 0 E Démonstration : λ ⋅ 0 E = λ ⋅ (0 E ⊕ 0 E ) = λ ⋅ 0 E ⊕ λ ⋅ 0 E Donc λ ⋅ 0 E = 0 E . (3) ∀u ∈ E , ∀λ ∈ K , λ ⋅ u = 0 E ⇔ λ = 0 ou u = 0 E Démonstration : Le sens ⇐ a été vu avec (1) et (2). Pour ⇒ : Supposons que λ ⋅ u = 0 E et que λ ≠ 0 . Montrons qu’alors u = 0 E . On introduit λ −1 (ce qui est possible car λ ≠ 0 ).
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
7 7/167
5/14/2018
Alg brelin aire-slidepdf.com
Alors λ −1 ⋅ (λ ⋅ u ) = (λ −1 × λ ) ⋅ u = 1⋅ u = u d’une part, Et λ −1 ⋅ (λ ⋅ u ) = λ −1 ⋅ 0 E = 0 E d’autre part. Donc u = 0 E ⌢ (λ ⋅ u ) = λ ⋅ (−⌢ u ) (4) ∀u ∈ E , ∀λ ∈ K , (−λ ) ⋅ u = − Démonstration : (λ ⋅ u ) ⊕ ((−λ ) ⋅ u ) = (λ + (−λ )) ⋅ u = 0 E . Donc (−λ ) ⋅ u = −⌢ (λ ⋅ u )
(λ ⋅ u ) ⊕ (λ ⋅ (−⌢ u )) = λ ⋅ (u ⊕ −⌢ u) = λ ⋅ 0 E = 0 E . Donc λ ⋅ (−⌢ u ) = −⌢ (λ ⋅ u ) .
(5) ∀u ∈ E , ∀n ∈ Z , n.u = n ⋅ u (A gauche de l’égalité : itération dans ( E ,⊕) ; à droite : produit externe) Démonstration : Par récurrence pour les n ≥ 0 , puis la proposition (4) pour n ≤ 0 . Ces règles permettent des écritures simplifiées : ⌢ (λ ⋅ u ) + pour ⊕ , . pour ⋅ voire omis, − λ u pour la valeur commune de (−λ ) ⋅ u , − ⌢ u) . et λ ⋅ ( − Vocabulaire : Dans un K-ev ( E ,+,⋅) , les éléments de E sont appelés des vecteurs, et les éléments de K des scalaires.
C) Exemple important Soit n ∈ N * On munit K n (K × K × ... × K ) de la loi ⊕ et de la loi externe ⋅ à opérateurs dans K définis ainsi :
( x1 , x 2 ,... x n ) ∈ K n Pour tous ( y1 , y 2 ,... y n ) ∈ K n : λ ∈ K ( x1 , x2 ,... xn ) ⊕ ( y1 , y2 ,... yn ) = ( x1 + y1 , x2 + y 2 ,... xn + yn )
λ ⋅ ( x1 , x2 ,... xn ) = (λ x1 , λ x2 ,...λ xn ) . Alors (K n ,⊕,⋅) est un K-ev. Démonstration : Déjà, (K n ,⊕) est un groupe commutatif : Le neutre pour ⊕ est évidemment (0,0,...0) , qui est bien dans K n . Associativité : Soient x, y, z ∈ K n . Alors x = ( x1 , x2 ,... xn ) , y = ( y1 , y 2 ,... yn ) et z = ( z1 , z 2 ,... z n ) où x1 , x2 ,... xn , y1 , y 2 ,... yn , z1 , z 2 ,...z n ∈ K
Alors : x ⊕ ( y ⊕ z ) = ( x1 , x2 ,... xn ) ⊕ (( y1 , y2 ,... yn ) ⊕ ( z1 , z 2 ,... z n ))
= ... = ( x1 + ( y1 + z1 ), x2 + ( y2 + z 2 ),... xn + ( y n + z n )) = (( x1 + y1 ) + z1 , ( x2 + y2 ) + z 2 ,...( xn + y n ) + z n )
= ... = ( x ⊕ y ) ⊕ z
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
8 8/167
5/14/2018
Alg brelin aire-slidepdf.com
Commutativité : Soient x, y ∈ K n , x = ( x1 , x2 ,... xn ) , y = ( y1 , y2 ,... yn ) . Alors : x ⊕ y = ( x1 , x 2 ,... xn ) ⊕ ( y1 , y 2 ,... y n )
= ( x1 + y1 , x 2 + y 2 ,... xn + y n )
= ( y1 + x1 , y 2 + x 2 ,... y n + xn ) = y ⊕ x Existence d’un inverse pour ⊕ de tout élément de K n . Soit x ∈ K n , x = ( x1 , x2 ,... xn ) . Alors x' = (− x1 ,− x2 ,... − xn ) est dans K n et est évidemment inverse de x pour ⊕ . Soient maintenant x, y ∈ K n , λ , µ ∈ K , avec x = ( x1 , x2 ,... xn ) , y = ( y1 , y2 ,... yn ) . On a : (λ + µ ) ⋅ x = (λ + µ ) ⋅ ( x1 , x 2 ,... x n )
= ((λ + µ ) x1 , (λ + µ ) x 2 ,...(λ + µ ) x n ) = (λ x1 + µ x1 , λ x 2 + µ x 2 ,...λ x n + µ x n ) = (λ x1 , λ x 2 ,...λ x n ) ⊕ ( µ x1 , µ x 2 ,... µ x n )
= λ ⋅ ( x1 , x 2 ,... x n ) ⊕ µ ⋅ ( x1 , x2 ,... x n ) = λ ⋅ x ⊕ µ ⋅ x λ ⋅ ( x ⊕ y ) = λ ⋅ ( x1 + y1 , x 2 + y 2 ,... xn + y n )
= (λ ( x1 + y1 ), λ ( x2 + y 2 ),...λ ( xn + y n )) 1 1 2 2 n n = (λ x + λ y , λ x + λ y ,...λ x + λ y ) = (λ x1 , λ x 2 ,...λ x n ) ⊕ (λ y1 , λ y 2 ,...λ y n )
= λ ⋅ x ⊕ λ ⋅ y (λµ ) ⋅ x = ((λµ ) x1 , (λµ ) x2 ,...(λµ ) xn )
= (λ ( µ x1 ), λ ( µ x2 ),...λ ( µ xn )) = λ ⋅ ( µ x1 , µ x2 ,... µ xn )
= λ ⋅ ( µ ⋅ x) 1⋅ x = (1 x1 ,1 x2 ,...1 xn )
= ( x1 , x2 ,... xn ) = x
Généralisation : Si E et F sont deux K-ev, on peut munir naturellement E × F d’une structure de Kev en posant, pour tous u , u '∈ E , v, v'∈ F , λ ∈ K :
(u, v) + (u ' , v' ) = (u + u ' , v + v' ) λ ⋅ (u, v) = (λ ⋅ u, λ ⋅ v) Et plus généralement E 1 × E 2 × ... × E n où les E i sont des K-ev.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
9 9/167
5/14/2018
Alg brelin aire-slidepdf.com
D) Vecteurs, combinaisons linéaires Ici, ( E ,+ ,⋅) désigne un K-ev. Définition : Soit (u , u ,...u ) une famille finie d’éléments de E . 1
2
n
Une combinaison linéaire de la famille (u1 , u 2 ,...u n ) / des ui , i ∈ [1, n ] est un élément de E du type λ 1 ⋅ u1 + λ 2 ⋅ u2 + ... + λ n ⋅ un , c'est-à-dire
n
∑ λ ⋅ u i
i
où les λ i sont des
i =1
éléments de K. Définition : Soit u ∈ E . Si u = 0 E , tout élément de E est dit colinéaire à u. Si u ≠ 0 E , les vecteurs de E colinéaires à u sont les λ ⋅ u , λ ∈ K . Proposition La relation «: être colinéaire à » est une relation d’équivalence. En effet : - Déjà, elle est réflexive… - Symétrique : Supposons v colinéaire à u : Si u = 0 E , u est bien colinéaire à v car u = 0 ⋅ v Si u ≠ 0 E , alors v s’écrit λ ⋅ u où λ ∈ K . Donc soit λ = 0 et alors v = 0 E et donc u est colinéaire à v, Soit λ ≠ 0 , et alors u = λ −1v donc u est colinéaire à v. - Transitivité : immédiate. Définition équivalente : Soient u , v ∈ E . On a l’équivalence : u et v sont colinéaires ⇔ u = 0 E ou ∃λ ∈ K , v = λ ⋅ u (1) ⇔∃(α , β )∈K \ {(0,0 )},α ⋅u + β ⋅v =0 E ( 2)
Démonstration : (1) est simplement une autre façon d’écrire la définition. Montrons que (1) ⇒ (2) . Supposons (1). Si u = 0 E , on peut prendre (α , β ) = (1,0) Si u ≠ 0 E , alors il existe λ ∈ K tel que v = λ ⋅ u . Ainsi, avec (α , β ) = (λ ,−1) , on a bien α ⋅ u + ⋅ v = 0 E Montrons maintenant que ( 2) ⇒ (1) . Supposons (2). Soit (α , ) ∈ K \ {(0,0)} tel que α ⋅ u + Si β ≠ 0 , alors v =
−α β
⋅ v = 0 E .
⋅u
Si β = 0 , alors α ⋅ u = 0 E . Or, α ≠ 0 car (α , ) ≠ (0,0) . Donc u = 0 E .
II Sous-espace vectoriel ( E ,+,⋅) désigne toujours un K-ev.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
10 10/167
5/14/2018
Alg brelin aire-slidepdf.com
A) Définition Soit F une partie de E . On dit que F est un sous-espace vectoriel (sev) de E lorsque : • F contient 0 E .
• F est stable par + : ∀u , v ∈ F , u + v ∈ F • F est stable par ⋅ : ∀u ∈ F , ∀λ ∈ K , λ ⋅ u ∈ F . Proposition : Si F est un sous-espace vectoriel de E , alors + constitue une loi de composition interne sur F , ⋅ constitue une loi externe à opérateurs dans K, et ( F ,+,⋅) est un K-ev : - Déjà, ( F ,+ ) est bien un groupe commutatif puisque F est un sous-groupe de ( E ,+ ) car 0 E ∈ F , F est stable par + et ∀u ∈ F ,−u = ( −1) ⋅ u ∈ F . - De plus, on vérifie immédiatement que les quatre règles sont bien vérifiées…
Exemples : • R 2 est un R-ev. Quels en sont les sous-espaces vectoriels ? - 0R 2 - Pour u ∈ R \ {0R 2 } , {λ ⋅ u, λ ∈ R } est un sous-espace vectoriel de R 2 . 2
- R2 . Il n’y en a pas d’autres : si un sous-espace vectoriel de R 2 contient deux vecteurs non colinéaires, c’est R 2 . • Si E est un K-ev quelconque : {0 E } et E sont deux sous-espaces vectoriels de E . Si u ∈ E \ {0 E } , {λ ⋅ u, λ ∈ R } est un sous-espace vectoriel de E appelé la droite vectorielle de E engendrée par u. • Les sous-espaces vectoriels de R 3 sont exactement : - 0R 3 - Pour u ∈ R \ {0R 3 }, {λ ⋅ u, λ ∈ R }. 3
- Pour u, v ∈ R \ {0R 3 } avec u et v non colinéaires, {λ ⋅ u + µ ⋅ v, λ , µ ∈ R } (plan 3
vectoriel) - R3 • Des sous-espaces vectoriels de F(R , R ) : H a = { f ∈ F(R , R ), f ( a ) = 0} où a est un élément de R fixé. A = l’ensemble des fonctions du type x ֏ a ⋅ x + b , a , b ∈ R .
Ou même R [ X ] , R n [ X ] (où n ∈ N ) C 0 (R , R ), D1 (R , R ),... L’ensemble des fonctions paires, impaires…
B) Intersection de sous-espaces vectoriels Théorème : Toute intersection de sous-espaces vectoriels de E en est un sous-espace vectoriel.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
11 11/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : Soit ( F i ) i∈ I une famille de sous-espaces vectoriels de E . Soit F =
∩ F = {u ∈ E , ∀i ∈ I , u ∈ F } i
i
i∈ I
Alors 0 E ∈ F car ∀i ∈ I ,0 E ∈ F i F est stable par + : Soient u , v ∈ F . Alors ∀i ∈ I , u ∈ F i , v ∈ F i , donc ∀i ∈ I , u + v ∈ F i . Donc u + v ∈ F F est stable par ⋅ :
Soient u ∈ F , λ ∈ K . Alors ∀i ∈ I , u ∈ F i , donc ∀i ∈ I , λ ⋅ u ∈ F i , donc λ ⋅ u ∈ F .
C) Définitions équivalentes Soit F ⊂ E . Alors :
0 E ∈ F F est un sev de E ⇔ ∀u, v ∈ F , u + v ∈ F
( 0) (1)
∀λ ∈ K , ∀u ∈ F , λ ⋅ u ∈ F (2) (0) 0 E ∈ F ⇔ ∀α , β ∈ K , ∀u , v ∈ F , α ⋅ u + β ⋅ v ∈ F (3) (0) 0 E ∈ F ⇔ ∀λ ∈ K , ∀u , v ∈ F , u + λ ⋅ v ∈ F (3b) ( 0) 0 E ∈ F ⇔
F est stable par combinaison linéaire (3t ) Pour (3t) : ∀n ∈ N *, ∀(u1 , u 2 ,...u n ) ∈ F n , ∀(λ 1 , λ 2 ,...λ n ) ∈ K n ,
n
∑ λ ⋅ u ∈ F i
i
i =1
Démonstration : (1) et ( 2) ⇒ (3) : évident. (3) ⇒ (3b) : immédiat. (3) ⇒ (3t ) : immédiat par récurrence. (3t ) ⇒ (3) : cas particulier. (3b) et (0) ⇒ (1) et (2) : Si on a (3b) et (0) , on applique (3b) avec u = 0 E et on obtient (2), puis (3b) avec λ = 1 et on obtient (1). D’où toutes les équivalences. De plus, on peut partout remplacer (0) par (0b) : « F ≠ ∅ ».
D) Sous-espace vectoriel engendré par Définition : Soit A ⊂ E . Le sous-espace vectoriel engendré par A, noté Vect ( A) , est le plus petit des sous-espaces vectoriels de E contenant A.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
12 12/167
5/14/2018
Alg brelin aire-slidepdf.com
Justification : L’ensemble ε des sous-espaces vectoriels de E contenant A n’est pas vide, puisqu’il contient E , et l’intersection X est un sous-espace vectoriel de E contenant
∩
X ∈ε
A, et est contenu dans chaque X de ε , c’est donc bien le plus petit éléments de ε .
Proposition : • Vect(∅) = {0 E }
• Si u ∈ E \ {0 E }, Vect({u}) = {λ ⋅ u, λ ∈ K }, noté aussi Vect (u ) . • A est un sous-espace vectoriel de E si et seulement si Vect ( A) = A . • Si F est un sous-espace vectoriel de E , et si A ⊂ F , alors Vect ( A) ⊂ F (En effet, F ∈ ε et Vect ( A) = min{ X }) X ∈ε
• Si A ⊂ B , alors Vect ( A) ⊂ Vect ( B) : A ⊂ B ⊂ Vect ( B ) . Donc A ⊂ Vect ( B ) . Donc Vect ( A) ⊂ Vect ( B ) (d’après le point précédent). Cas particulier : Sous-espace vectoriel engendré par une partie finie : Soient u1 , u2 ,...un des vecteurs de E . Alors Vect ({u1 , u2 ,...u n }) , plutôt noté Vect (u1 , u2 ,...un ) , est appelé le sous-espace vectoriel de E engendré par la famille (u1 , u2 ,...un ) ou « par les ui » Proposition : Vect (u1 , u2 ,...un ) est l’ensemble des combinaisons linéaires des ui , c'est-à-dire : n
λ 1u1 + λ 2u 2 + ... + λ n un , (λ 1 , λ 2 ,...λ n ) ∈ K } {Démonstration : Notons C (u1 , u 2 ,...u n ) = {λ 1u1 + λ 2u 2 + ... + λ n u n , (λ 1 , λ 2 ,...λ n ) ∈ K n }. Alors C (u1 , u2 ,...un ) contient 0 E et est stable par + et ⋅ n
(car
n
n
∑ λ u + ∑ λ ' u = ∑ (λ + λ ' )u i
i =1
i
i
i =1
i
i
i
i
et λ ⋅
i =1
n
n
∑ λ u = ∑ (λλ )u i
i =1
i
i
i
)
i =1
Donc C (u1 , u 2 ,...u n ) est un sous-espace vectoriel de E contenant les ui , et c’est le plus petit car si un sous-espace vectoriel de E contient les ui , il en contient alors toutes les combinaisons linéaires. Donc Vect (u1 , u 2 ,...u n ) = C (u1 , u 2 ,...u n ) . Vocabulaire : • Si F est le sous-espace vectoriel engendré par une famille (finie) F = (u1 , u 2 ,...u n ) de vecteurs de E , on dit que F est une famille génératrice de F .
• Si un espace vectoriel E admet une famille génératrice finie, on dit que E est de type fini. Exemple : K n est de type fini, une famille génératrice étant [(1,0,...0), (0,1,0,...,0),..., (0,0,...,1)] K [ X ] n’est pas de type fini. En effet, supposons qu’il admette une famille ∈[ 1, m ](deg( Pi )) , on aurait alors génératrice finie ( P1 , P2 ,...Pm ) ; si on prend N = imax ∀P ∈ K [ X ], deg P ≤ N ce qui est faux.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
13 13/167
5/14/2018
Alg brelin aire-slidepdf.com
Propriétés : Pour tout (u1 , u 2 ,...u m ) ∈ E m , on a :
• Pour tous i, j ∈ [1, m ] avec i ≠ j : Vect (u1 , u 2 ,..., u i ,..., u j ,..., u m ) = Vect (u1 , u 2 ,..., u j ,..., u i ,..., u m )
• Pour tout i ∈ [1, m ] et tout a ∈ K \ {0} : Vect (u1 , u 2 ,..., aui ,..., u m ) = Vect (u1 , u 2 ,..., u i ,..., u m ) • Pour tout i, j ∈ [1, m ] distincts et tout λ ∈ K : Vect (u1 , u 2 ,..., ui + λ u j ,..., u m ) = Vect (u1 , u 2 ,..., ui ,..., u m ) ème
Démonstration (3 point) : Soit w ∈ Vect (u1 , u2 ,..., ui + λ u j ,..., um )
u '1 u '2
Alors w =
=
m
∑ λ u' k
k
u 'm
u 'i
=
k =1 m
∑ λ u
k k
+ λ i (u i + λ u j )
k ≠ i
∑ µ u
k k
k =1
λ k si k ≠ j
Avec µ k =
λ j + λλ i si k = j
L’autre inclusion est analogue. On a donc un algorithme pour déterminer le Vect (sur un exemple) : Vect[(1,2,3,4), ( 4,6,0,2), (1,4,9,2)] = Vect[(1,2,3,4), (0,−2,−12,−14), (0,2,6,−2)]
u2 − 4 u1
u3 − u1
= Vect[(1,2,3,4), (0,1,3,−1), (0,0,−6,−16)] = Vect[(1,2,3,4), (0,1,3,−1), (0,0,3,8)] = Vect[(1,2,0,−4), (0,1,0,−9), (0,0,3,8)]
= Vect[(1,0,0,14), (0,1,0,−9), (0,0,3,8)] = Vect[(1,0,0,14), (0,1,0,−9), (0,0,1, 83 )] = { x(1,0,0,14) + y (0,1,0,-9) + z (0,0,1, 83 ), x, y , z ∈ R } = {( x, y , z ,14 x − 9 y + 83 z ), x, y , z ∈ R } Ainsi, on a l’équivalence : Pour tout ( x, y, z , t ) ∈ R 4 , ( x, y , z , t ) ∈ Vect[(1,2,3,4), (4,6,0,2), (1,4,9,2)] ⇔ t = 14 x − 9 y + 83 z Autre résultat : Si 1 ≤ p ≤ m , alors Vect (u1 , u2 ,..., u p ) ⊂ Vect (u1 , u 2 ,..., u m ) . Pour tout v ∈ E , v ∈ Vect (u1 , u 2 ,..., u m ) ⇔ Vect (u1 , u 2 ,..., u m , v) = Vect (u1 , u 2 ,..., u m )
III Sommes et sommes directes ( E ,+,⋅) désigne ici encore un K-ev.
Définition et proposition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
14 14/167
5/14/2018
Alg brelin aire-slidepdf.com
Soient F et G deux sous-espaces vectoriels de E . La somme de F et G est : F + G = {u + v, u ∈ F , v ∈ G} = {w ∈ E , ∃(u , v ) ∈ F × G , w = u + v} déf
Alors F + G est un sous-espace vectoriel de E , et c’est même Vect ( F ∪ G ) . En effet : Déjà, F + G est un sous-espace vectoriel de E , car il contient 0 E et est stable par +,⋅ (évident en utilisant la deuxième égalité de la définition de F + G ) De plus, F + G contient F (car tout u de F s’écrit u + 0 E où 0 E ∈ G ) et G. Il contient donc F ∪ G . Enfin, si un sous-espace vectoriel de E contient F ∪ G , alors il contient au moins F + G car il contient tous les éléments de F , tous les éléments de G et est stable par +, donc contient tous les u + v pour u ∈ F et v ∈ G . Exemple : - Dans E = F(R , R ) : Soit F l’ensemble des fonctions polynomiales de degré ≤ 3 , G l’ensemble des fonctions de classe C 2 et négligeables devant x ֏ x 2 au voisinage de 0. Alors F + G = C 2 (R , R ) . En effet : Une première implication est déjà évidente. Pour l’autre : Soit f ∈ C 2 (R , R ) . Alors f admet un DL à l’ordre 2 en 0 :
∀ x ∈ R , f ( x) = a 0 + a1 x + a 2 x 2 + x 2ε ( x) P ( x )
h ( x )
Alors h est de classe C 2 car h = f − P , et de plus h = o( x 2 ) en 0. D’où l’autre inclusion et l’égalité. - Dans R 4 : F = Vect ((1,2,0,0)), G = {( x, y, z , t ) ∈ R 4 , x − z = y − t = 0} Alors G = {( x, y, x, y ), x, y ∈ R } = Vect((1,0,1,0), (0,1,0,1)) Et donc F + G = Vect ((1,2,0,0), (1,0,1,0), (0,1,0,1)) . Somme directe, définition : Soient F et G deux sous-espaces vectoriels de E . On dit que la somme F + G est directe lorsque tout élément de F + G s’écrit de manière unique sous la forme u + v avec u ∈ F et v ∈ G . Autrement dit, étant donné qu’on connaît déjà l’existence (par définition) de l’écriture, la définition devient : La somme de F et G est directe ⇔ ∀(u, v) ∈ F × G, ∀(u ' , v' ) ∈ F × G, (u + v = u '+v' ⇒ u = u ' et v = v' ) Exemple : La somme de deux droites vectorielles distinctes dans R 2 . Proposition : On a l’équivalence entre les propositions suivantes : (1) La somme de F et G est directe (expression de la définition précédente) (2) ∀(u, v) ∈ F × G, (u + v = 0 E ⇒ u = 0 E et v = 0 E ) (3) F ∩ G = {0 E } ((1) : ∀(u , v) ∈ F × G , ∀(u ' , v ' ) ∈ F × G , (u + v = u '+ v ' ⇒ u = u ' et v = v ' ) ) Démonstration :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
15 15/167
5/14/2018
Alg brelin aire-slidepdf.com
- On voit déjà que (1) ⇒ ( 2) (c’est un cas particulier avec (u' , v' ) = (0 E ,0 E ) ) - Montrons que ( 2) ⇒ (3) . Supposons (2) : Soit alors w ∈ F ∩ G On a : w + (− w) = 0 E . Or, w ∈ F et − w ∈ G (car w ∈ G et G est stable par ⋅ ) Donc, d’après (2), w = 0 E (et − w = 0 E ), d’où une inclusion et l’égalité. - Montrons que (3) ⇒ (1) . Supposons (3). Soient (u , v ) ∈ F × G , (u ' , v ' ) ∈ F × G . Supposons que u + v = u'+v' . Alors u − u ' = v'−v , et u − u '∈ F , v'− v ∈ G , donc u − u '∈ F ∩ G , v '−v ∈ F ∩ G . Donc u − u ' = 0 E et v'−v = 0 E , c'est-à-dire u = u ' et v = v' . D’où les équivalences. Notation : Si la somme de F et G est directe, on peut la noter F ⊕ G . Définition : Soient F et G deux sous-espaces vectoriels de E . On dit que F et G sont supplémentaires dans E lorsque : F + G = E F ∩ G = {0 E } Ainsi, lorsque F et G sont supplémentaires dans E , on peut noter E = F ⊕ G . Deux sous-espaces vectoriels F et G sont supplémentaires dans E si et seulement si tout élément de E s’écrit de manière unique u + v , où u ∈ F et v ∈ G .
IV Applications linéaires Dans ce paragraphe, E , F et G sont trois K-ev.
A) Définition Soit ϕ : E → F . On dit que ϕ est linéaire/un morphisme du K-ev E vers le K-ev F lorsque : ∀u, u '∈ E , ϕ (u + u ' ) = ϕ (u ) + ϕ (u ' ) ∀u ∈ E , ∀λ ∈ K , ϕ (λ ⋅ u ) = λ ⋅ ϕ (u ) Proposition : Si ϕ est une application linéaire de E dans F , alors ϕ est un morphisme du groupe ( E ,+ ) vers ( F ,+ ) . Vocabulaire : • L’ensemble des applications linéaires de E vers F est noté L ( E , F )
• Une application linéaire de E vers E s’appelle aussi un endomorphisme de E , et L ( E , E ) est plutôt noté L( E ) .
• Une application linéaire de E vers K s’appelle forme linéaire de E . L ( E , K ) est noté E * . L’ensemble des formes linéaires de E s’appelle le dual de E . Caractérisations équivalentes :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
16 16/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit ϕ : E → F .
(1) ϕ ∈ L( E , F ) ⇔ ∀(α , β ) ∈ K 2 , ∀(u, u ' ) ∈ E 2 , ϕ (α .u + β .u ' ) = α .ϕ (u ) + β .ϕ (u ' ) (2)
⇔ ∀λ ∈ K , ∀(u, u ' ) ∈ E 2 , ϕ (u + λ .u ' ) = ϕ (u ) + λ .ϕ (u ' )
(3)
En effet : (1) ⇒ ( 2) ⇒ (3) : évident. Montrons que (3) ⇒ (1) .
On applique (3) avec λ = 1 . Donc ∀(u, u ' ) ∈ E 2 , ϕ (u + u ' ) = ϕ (u ) + ϕ (u ' ) Donc avec (u, u ' ) = (0 E ,0 E ) , ϕ (0 E ) = 0 F . Donc ∀λ ∈ K , ∀u ∈ E , ϕ (0 E + λ ⋅ u) = ϕ (0 E ) + λ ⋅ ϕ (u) = 0 F + λ ⋅ ϕ (u) = λ ⋅ ϕ (u) Exemple : • L’application nulle de E dans F est linéaire. • L’application identité de E dans E est linéaire. applications linéaires de dans R sont exactement les applications de la • Les forme x ֏ a ⋅ x où a ∈ R : R o Déjà, si f est de la forme f : x ֏ a ⋅ x , alors f est linéaire, car : ∀λ ∈ R ,∀ x, x'∈ R , f ( x + λ . x' ) = a ( x + λ . x ' ) = ax + λ .(ax ' ) = f ( x ) + λ . f ( x ' ) o Inversement, soit f ∈ L (R ) . Alors, pour tout x ∈ R , f ( x) = f ( x.1) = x. f (1) Ainsi, avec a = f (1) , on a bien ∀ x ∈ R , f ( x ) = a. x .
• L’application D : D1 (R , R ) → F(R , R ) est linéaire. f ֏ f ' est une forme linéaire de SC (N , R ) • L’application S C (N , R ) → R u֏lim(u ) ( SC (N , R ) est l’ensemble des suites convergentes)
• L’application ψ : F(R , R ) → R est linéaire : f ֏ f (π ) Pour tous f , g ∈ F(R , R ) , ψ ( f + g ) = ( f + g )(π ) = f (π ) + g (π ) = ψ ( f ) + ψ ( g ) Pour tout f ∈ F(R , R ) et λ ∈ R , ψ (λ . f ) = (λ . f )(π ) = λ . f (π ) = λ .ψ ( f ) . • L’application R 2 → R n’est pas linéaire. ( x, y )֏ xy Mais, à x fixé, R → R est linéaire (idem si y est fixé) y ֏ xy On dit alors que
R 2 → R est bilinéaire. ( x, y )֏ xy
B) Noyau et image Soit ϕ ∈ L( E , F ) . Le noyau de ϕ , c’est le noyau du morphisme de groupe :
ker ϕ = { x ∈ E , ϕ ( x) = 0 E }. Alors ∀u , u '∈ E , (ϕ (u ) = ϕ (u ' ) ⇔ u − u '∈ ker ϕ . Donc ϕ est injective ⇔ ker ϕ = {0 E } . En effet :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
17 17/167
5/14/2018
Alg brelin aire-slidepdf.com
- Si ϕ est injective : Soit u ∈ ker ϕ . Alors ϕ (u) = 0 F = ϕ (0 E ) . Donc u = 0 E . D’où une première inclusion, et l’égalité, l’autre inclusion étant évidente. - Supposons maintenant que ker ϕ = {0 E } . Si ϕ (u ) = ϕ (u ' ) , alors u − u '∈ ker ϕ , donc u − u ' = 0 E . Donc u = u ' . Donc ϕ est injective. Proposition : ker ϕ est un sous-espace vectoriel de E . Démonstration : Déjà, ker ϕ ⊂ E , et 0 E ∈ ker ϕ . Soient u , u '∈ E , λ ∈ K . On a :
ϕ (u + λ .u' ) = ϕ (u ) + λ .ϕ (u ' ) = 0 F + λ .0 F = 0 F L’image de ϕ est Imϕ = ϕ ( E ) = {ϕ (u ), u ∈ E } = {v ∈ F , ∃u ∈ E , ϕ (u ) = v} . Alors ϕ est surjective si et seulement si Im ϕ = F . Proposition : Im ϕ est un sous-espace vectoriel de F . Démonstration : Déjà, Im ϕ ⊂ F et 0 F ∈ Imϕ car ϕ (0 E ) = 0 F . Im ϕ est stable par + et ⋅ : Soient v, v'∈ Im ϕ , λ ∈ K . ∈ = = Il existe alors u , u ' E tels que v ϕ (u ), v ' ϕ (u ' ) . Alors v + λ .v ' = ϕ (u ) + λ .ϕ (u ' ) = ϕ (u + λ .u ' ) . Donc v + λ .v '∈ Im ϕ .
C) Image directe, image réciproque d’un sous-espace vectoriel Proposition : Soit ϕ ∈ L( E , F ) . L’image directe par ϕ d’un sous-espace vectoriel de E est un sous-espace vectoriel de F . L’image réciproque par ϕ d’un sous-espace vectoriel de F est un sous-espace vectoriel de E . Cas particulier : ϕ ( E ) est un sous-espace vectoriel de F (c’est Im ϕ )
ϕ −1 ({0 F }) est un sous-espace vectoriel de E (c’est ker ϕ ) (On adapte aisément la démonstration de ces cas particuliers pour le cas général de la proposition)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
18 18/167
5/14/2018
Alg brelin aire-slidepdf.com
D) Structure sur des ensembles d’applications linéaires 1) Somme, produit par un réel Soient ϕ ,ψ ∈ L ( E , F ) , λ ∈ K . On définit : ϕ +ψ : E → F et λ .ϕ : E → F u ֏ϕ (u )+ψ (u ) u֏λ .ϕ (u ) Alors ϕ + ψ , λ .ϕ ∈ L ( E , F ) . On peut donc considérer ( L ( E , F ),+,⋅) , et ( L ( E , F ),+,⋅) est un K-ev (et même un sous-espace vectoriel de (F( E , F ),+,⋅) ). Démonstration : Déjà, on vérifie que (F( E , F ),+,⋅) est un K-ev… L ( E , F ) est une partie de F( E , F ) , contient x ֏ 0 F et est stable par + et ⋅ :
Soient ϕ ,ψ ∈ L ( E , F ) , λ ∈ K . On a, pour tous u , u '∈ E et tout µ ∈ K : (ϕ + ψ )(u + µ .u ' ) = ϕ (u + µ .u ' ) + ψ (u + µ .u ' )
= ϕ (u ) + µ .ϕ (u ' ) + ψ (u ) + µ .ψ (u ' ) = (ϕ + ψ )(u ) + µ .(ϕ + ψ )(u ' ) (λ .ϕ )(u + µ .u ' ) = λ .ϕ (u + µ .u ' ) = λ .(ϕ (u ) + µ .ϕ (u ' )) = λ .(ϕ (u )) + λ .( µ .ϕ (u ' ))
= (λ .ϕ )(u ) + µ .((λ .ϕ )(u ' )) Donc ϕ + ψ , λ .ϕ ∈ L ( E , F ) , et L ( E , F ) est un sous-espace vectoriel de (F( E , F ),+,⋅) , donc un K-ev.
2) Composition Proposition : La composée, quand elle est définie, de deux applications linéaires est linéaire. Démonstration : Soient ϕ ∈ L( E , F ) et ψ ∈ L ( F , G ) . Alors ψ ϕ est bien définie et va de E G dans . Et de plus, elle est linéaire : Pour tous u , u '∈ E et tout µ ∈ K , on a : (ψ ϕ )(u + µ .u ' ) = ψ (ϕ (u + µ .u ' ))
= ψ (ϕ (u ) + µ .ϕ (u ' )) = ψ (ϕ (u )) + µ .ψ (ϕ (u ' ))
= (ψ ϕ )(u ) + µ .(ψ ϕ )(u ' ) Propriétés : Pour tous ϕ , ϕ '∈ L( E , F ) , ψ ,ψ '∈ L( F , G ) et tout λ ∈ K , on a : ( + ' ) = + ' (1) (ψ +ψ ' ) ϕ = ψ ϕ +ψ 'ϕ
( 2)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
19 19/167
5/14/2018
Alg brelin aire-slidepdf.com
ψ (λ .ϕ ) = λ .(ψ ϕ )
(3)
(λ .ψ ) ϕ = λ .(ψ ϕ ) ( 4) Démonstration : Déjà, les applications sont bien définies et vont de E dans G. De plus, pour tout u ∈ E : • [ψ (ϕ + ϕ ' )](u ) = ψ [(ϕ + ϕ ' )(u )] = ψ [ϕ (u ) + ϕ ' (u )]
= ψ (ϕ (u )) + ψ (ϕ ' (u )) = (ψ ϕ )(u ) + (ψ ϕ ' )(u ) = [ψ ϕ + ψ ϕ ' ](u ) D’où (1). • [(ψ + ψ ' ) ϕ ](u ) = (ψ + ψ ' )(ϕ (u )) = ψ (ϕ (u )) + ψ ' (ϕ (u ))
= (ψ ϕ )(u ) + (ψ 'ϕ )(u ) = [ψ ϕ + ψ 'ϕ ](u )
D’où (2) (ici, on n’a pas utilisé la linéarité…) • [ψ (λ .ϕ )](u ) = ψ [(λ .ϕ )(u )] = ψ [λ .ϕ (u )] = λ .ψ (ϕ (u )) = λ .(ψ ϕ )(u )
= [λ .(ψ ϕ )](u ) D’où (3) • [(λ .ψ ) ϕ ](u ) = (λ .ψ )(ϕ (u )) = λ .(ψ (ϕ (u )) = λ .(ψ ϕ )(u )
= [λ .(ψ ϕ )](u )
D’où (4) (on n’a pas non plus utilisé la linéarité) Conséquence : définit une loi de composition interne sur L( E ) , et ( L( E ),+,) est un anneau : ( L ( E ),+ ) est un groupe commutatif (car ( L( E ),+,⋅) est un K-ev). De plus, il résulte de (1) et (2) que est distributive sur +, et on sait que est associative (vrai dans F( E , E ) ). Enfin, il y a un neutre, à savoir Id E . Attention, l’anneau n’est ni commutatif ni intègre en général. Exemple : f : R 2 → R 2 , g : R 2 → R 2 . ( x, y )֏( x, x ) ( x, y )֏( x− y,0) Alors f ∈ L (R 2 ) : Soient u , u '∈ R 2 , λ ∈ R , u = ( x, y ), u ' = ( x ' , y ' ) . Alors : f (u + λ .u ' ) = f (( x, y ) + λ .( x' , y ' )) = f ( x + λ x . ' , y + λ . y ' ) . ' , x + λ . x' ) = ( x, x ) + λ .( x ' , x' ) = ( x + λ x = f (u ) + λ . f (u ' )
Et g ∈ L (R 2 ) : Soient u , u '∈ R 2 , λ ∈ R , u = ( x, y ), u ' = ( x ' , y ' ) . Alors : g (u + λ .u ' ) = g (( x, y ) + λ .( x ' , y ' )) = g ( x + λ x . ' , y + λ . y ' )
= ( x + λ . x'−( y + λ . y ' ),0) = ( x − y,0) + λ .( x'− y ' ,0) = g (u ) + λ .g (u ' ) On a alors : f g : R 2 → R 2 et g f : R 2 → R 2 ( x, y )֏( x − y , x − y ) ( x, y )֏(0,0) Ce qui montre la non commutativité et la non intégrité.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
20 20/167
5/14/2018
Alg brelin aire-slidepdf.com
3) Inversion (éventuelle) Proposition : Soit ϕ ∈ L( E , F ) . Si ϕ est bijective, alors ϕ −1 ∈ L( F , E ) . On dit alors que ϕ est un isomorphisme de E vers F . Deux espaces vectoriels sont dis isomorphes lorsqu’il existe un isomorphisme de l’un vers l’autre. Démonstration : Soient v, v '∈ F et λ ∈ K . On doit montrer que ϕ −1 (v + λ .v' ) = ϕ −1 (v) + λ .ϕ −1 (v' ) , c'est-à-dire que v + λ .v' a pour antécédent ϕ −1 (v) + λ .ϕ −1 (v' ) par ϕ , ce qui est vrai car
ϕ (ϕ −1 (v) + λ .ϕ −1 (v' )) = ϕ (ϕ −1 (v)) + λ .ϕ (ϕ −1 (v' )) = v + λ .v' Vocabulaire : Automorphisme de E = application linéaire bijective de E dans E . = isomorphisme de E dans E . = endomorphisme bijectif de E . L’ensemble des automorphismes de E est noté GL ( E ) . Alors GL ( E ) est stable , et (GL( E ),) est un groupe (le groupe linéaire de E ). C’est le groupe des éléments inversibles de l’anneau ( L( E ),+,) . Attention, ce groupe n’est pas non plus commutatif en général. Exemple : Soient f : R 2 → R 2 et g : R 2 → R 2 ( x, y )֏( x+ y, x− y) ( x, y )֏( y, x) Alors f et g sont linéaires et bijectives. −1
1
(g est bijective car involutive, et f f = 2Id R 2 , donc f = 2 f ) Et : f g : ( x, y ) ֏ ( y + x, y − x) g f (1,1) = (0,2) g f ≠ f g car g f : ( x, y ) ֏ ( x − y, x + y ) f g (1,1) = (2,0)
4) Autre opération Soit f une application linéaire de E dans K (une forme linéaire de E ). Soit w0 ∈ F . Alors l’application φ E : → F est linéaire. u֏ f (u ).w0 En effet : Soient u , v ∈ E , λ ∈ K . Alors :
φ (u + λ .v) = f (u + λ .v).w0 = f (u ).w0 + λ . f (v).w0 = φ (u ) + λ .φ (v) Exemple : L’application P1 :
R 3 → R est linéaire : ( x, y, z )֏ x
Pour tous u = ( x, y, z ), u ' = ( x' , y ' , z ' ) ∈ R 3 et λ ∈ R , on a : P1 (u + λ .u' ) = P1 (( x + λ . x' , y + λ . y' , z + λ . z ' )) = x + λ . x' = P1 (u) + λ .P1 (u ' ) P1 est la « première projection canonique de R 3 sur R »
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
21 21/167
5/14/2018
Alg brelin aire-slidepdf.com
De même, P2 :
R 3 → R et P3 : R 3 → R sont linéaires. ( x, y, z )֏ y ( x, y, z )֏ z
- Il résulte du 1) que pour tous a, b, c ∈ R , f :
R3 → R est ( x, y, z )֏ a. x+b. y +c. z
linéaire, car f = aP1 + bP2 + cP3 . - Et du 4) que pour tout a, b, c ∈ R , f 1 :
est R3 → R2 ( x, y, z )֏( a. x+b. y +c z . ,0 )
linéaire, car f 1 = f .(1,0) : f 1 : R 3 → R u ֏ f (u ).(1,0) De même, f 2 : D’où F :
R3 → R2 ( x, y, z )֏(0,a '. x+b'. y +c'. z )
R3 → R2 est linéaire. ( x, y, z )֏( a. x+b. y +c z . ,a '. x+b'. y +c'. z )
On verra que toutes les applications de R 3 dans R 2 sont de ce type. (On peut généraliser le résultat à K n , K p )
V Quelques endomorphismes intéressants E désigne toujours un K-ev.
A) Homothétie (vectorielle) Définition : Une homothétie de E est une application du type : E → E , où α ∈ K . u ֏α .u Proposition : Pour tout α ∈ K , l’application f α : E → E , appelée homothétie de rapport α est u ֏α .u linéaire. Elle est nulle si α = 0 , sinon elle est bijective, d’inverse f 1 / α
B) Projecteurs (vectoriels) Définition : Soient F , G deux sous-espaces vectoriels supplémentaires de E . Le projecteur sur F selon G est l’application p : E → E , où v est l’élément de E tel que u = v + w avec u ֏v v ∈ F , w ∈ G . (la définition a bien un sens, car tout élément de E s’écrit v + w de manière unique avec v ∈ F et w ∈ G ) On écrit parfois p : E = F ⊕ G → E . u = v +w֏v Proposition : L’application p est linéaire, de noyau G et d’image F . Démonstration : Soient u , u '∈ E , λ ∈ K . Alors u = v + w , u ' = v' + w' .
∈F
∈G
∈F
∈G
Donc u + λ .u ' = v+ λ .v' + w λ . w' , soit p (u + λ .u ' ) = v + λ .v ' = p (u ) + λ . p (u ' ) . + ∈F
∈G
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
22 22/167
5/14/2018
Alg brelin aire-slidepdf.com
Noyau : Soit u ∈ E , u = v + w . On a les équivalences :
∈F
∈G
u ∈ ker p ⇔ p(u ) = 0 E ⇔ v = 0 E ⇔ u ∈ G Image : On voit déjà que Im p ⊂ F . Inversement, F ⊂ Im p car tout élément v de F est l’image d’un élément de E , par exemple lui-même. Définition : Soit f : E → E . On dit que f est un projecteur lorsqu’il existe deux sous-espaces vectoriels supplémentaires dans E tels que f est le projecteur sur F selon G. Vocabulaire : p est le projecteur sur F selon G. Pour u ∈ E , p (u ) est la projection de u sur F selon G. Théorème : Soit f ∈ L ( E ) . Alors f est un projecteur ⇔ f f = f . Démonstration : Soit f un projecteur, disons sur F selon G où F ⊕ G = E Alors f 2 = f : Soit u ∈ E . u = v + w , et f (u ) = v .
∈F
∈G
De plus, f f (u ) = f ( f (u )) = f (v ) = v = f (u ) . C’est valable pour tout u, donc f 2 = f . Soit f ∈ L ( E ) , supposons que f f = f . Posons F = Im f et G = ker f . Alors déjà F et G sont deux sous-espaces vectoriels de E . Montrons qu’ils sont supplémentaires. Soit u ∈ E . Alors f (u ) ∈ F , et on a : u = f (u ) + u − f (u )
∈F
f (u − f (u )) = f (u ) − f ( f (u)) = 0 E , donc u − f (u ) ∈ G Donc déjà F + G = E . Montrons maintenant que F ∩ G = {0 E } : Soit u ∈ F ∩ G . u ∈ F . Donc u = f (u ' ) où u'∈ E . Comme u ∈ G , f (u ) = 0 E , soit f ( f (u' )) = 0 E . Comme f 2 = f , f (u ' ) = 0 E . Donc u = f (u ' ) = 0 E , d’où une première inclusion, et l’égalité, l’autre inclusion étant évidente. Donc F ⊕ G = E Montrons maintenant que f es le projecteur sur F selon G. Soit u ∈ E . Alors u = f (u ) + (u − f (u )) . Donc f (u ) est la composante selon F dans la
∈F
∈G
décomposition de u sous la forme v + w
∈F
∈G
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
23 23/167
5/14/2018
Alg brelin aire-slidepdf.com
Remarque : Si p est le projecteur sur F selon G, alors : F = {u ∈ E , p(u ) = u}
= ensemble des invariants par p =
−
ker( p Id E ) En effet, p (u ) = u ⇔ v = u ⇔ w = 0 ⇔ u ∈ F
( p − Id E )( u ) = 0 E
Définition : Soit p la projection sur F selon G. Le projecteur associé à p est le projecteur q sur G selon F . Ainsi, p + q = Id E .
u = p (u ) + q (u ) G
F
Cas particuliers : Le projecteur sur E selon {0 E } est l’identité sur E . Le projecteur sur {0 E } selon E est l’application nulle.
C) Symétries (vectorielles) Définition : Soient F et G deux sous-espaces vectoriels de E supplémentaires. La symétrie par rapport à F selon G est l’application f : E = F ⊕ G → E . u = v + w ֏ v− w
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
24 24/167
5/14/2018
Alg brelin aire-slidepdf.com
Proposition : Si f est le symétrique par rapport à F selon G, alors : • f ∈ L ( E ) . En effet, on remarque que f = p − q = 2 p − Id E , où p est le projecteur sur F selon G et q le projecteur associé à p) • f est bijective, et même involutive. Ainsi, f f = Id E , Im f = E (car f est surjective), et ker f = {0 E } (car f est injective) • F = {u ∈ E , f (u ) = u} = ker( f − Id E ) G = {u ∈ E , f (u ) = −u} = ker( f + Id E ) Théorème : Soit f ∈ L ( E ) . Alors f est une symétrie ⇔ f f = Id E ( ⇔ f est involutive) ( ⇔ f est élément d’ordre ≤ 2 du groupe GL ( E ) ) Démonstration : ⇒ a déjà été vu. ⇐ : supposons que f 2 = Id E . Posons F = ker( f − Id E ) et G = ker( f + Id E ) . Alors F et G sont deux sous-espaces vectoriels de E , car ce sont des noyaux d’endomorphismes de E . F ∩ G = {0 E } car si u ∈ F ∩ G , alors f (u ) = u et f (u ) = −u , donc 2.u = 0 E , soit u = 0 E (car 2 ≠ 0 ) 1
1
De plus tout élément u de E s’écrit u = ∈vF + ∈wG , car u = 2 (u + f (u )) + 2 (u − f (u )) .
Or, u + f (u ) ∈ F car f (u + f (u )) = f (u ) + f ( f (u )) = f (u ) + u = u + f (u )
x
x
Et u − f (u ) ∈ G car f (u − f (u )) = f (u ) − f ( f (u )) = f (u ) − u = −(u + f (u )) Enfin, f est la symétrie par rapport à F selon G. En effet : Si u = v + w , on a v = 12 (u + f (u )) et w = 12 (u − f (u )) .
∈F
∈G
Donc v − w = f (u ) .
VI Familles libres (finies) E désigne toujours un K-ev.
A) Définition Soit F = (u1 , u2 ,...un ) une famille de vecteurs de E . F est libre ⇔ la seule combinaison linéaire des ui qui donne 0 E est celle dont déf
tous les coefficients sont nuls.
⇔ ∀(λ 1 , λ 2 ,...λ n ) ∈ K n , ∑ λ k uk = 0 E ⇒ ∀i ∈ [1, n ], λ i = 0 n
k =1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
25 25/167
5/14/2018
Alg brelin aire-slidepdf.com
Vocabulaire : • (u1 , u2 ,...un ) est liée ⇔ (u1 , u2 ,...un ) n’est pas libre. déf
• Lorsque (u1 , u2 ,...un ) est liée, une relation du type
n
∑ λ u
k k
= 0 E où les λ k sont
k =1
non tous nuls s’appelle une relation de dépendance linéaire.
• Pour dire que (u1 , u 2 ,...u n ) est libre, on dit parfois que les ui sont linéairement indépendants. Exemples : - Par convention, une famille vide est libre. - Cas d’une famille de 1 vecteur u1 . La famille (u1 ) est libre ⇔ u1 ≠ 0 E - Cas d’une famille de 2 vecteurs u1 , u2
(u1 , u2 ) est libre si et seulement si u1 et u2 ne sont pas colinéaires.
B) Propriétés générales • Si une famille contient 0 E , elle est liée : Si ui = 0 E , alors 1 .ui = 0 E
≠0
• Si une famille contient deux vecteurs égaux, elle est liée : Si ui = u j (avec i ≠ j ), alors ui − u j = 0 E • Si une sous-famille d’une famille F est liée, alors F est liée. n (1) (2) (n) 1 2 n • Si F = (u , u ,...u ) est libre, alors ∀σ ∈ S (uσ , uσ ,...uσ ) est libre. • Si (u1 , u2 ,...un ) est libre et (u1 , u2 ,...un , v) est liée, alors v ∈ Vect (u1 , u 2 ,...un ) .
En effet : Il existe λ 1 , λ 2 ,...λ n , µ scalaires non tous nuls tels que :
λ 1u1 + λ 2u 2 + ...λ nun + µ .v = 0 E . Alors µ ≠ 0 , car sinon l’un des λ i au moins serait non nul et on aurait alors une relation de dépendance entre les ui ,1 ≤ i ≤ n . Donc v = µ −1
n
∑ λ u
k k
k =1
• (u1 , u 2 ,...u n ) est liée si et seulement si l’un au moins des ui est combinaison linéaire des autres.
VII Bases (finies) Définition, proposition : Soit (u1 , u 2 ,...u n ) une famille de vecteurs de E . (u1 , u 2 ,...u n ) est une base de E ⇔ (u1 , u 2 ,...u n ) est une famille libre et génératrice de E . déf
⇔ tout vecteur v de E s’écrit de manière unique comme combinaison linéaire des ui ,1 ≤ i ≤ n , sous la forme
n
xk u k . Les xk s’appellent alors les
∑ k =1
composantes de v dans la base (u1 , u 2 ,...u n ) .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
26 26/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : ⇒ : supposons que (u1 , u2 ,...un ) est une base de E . Soit alors v ∈ E . Comme (u1 , u2 ,...u n ) est génératrice de E , il existe ( x1 , x2 ,... xn ) ∈ K n tel que v = Supposons qu’on ait aussi v =
n
∑ x u
k k
.
k =1
n
∑ x'
k
u k .
k =1 n
∑ ( x
Alors
k
− x'k )uk = 0 E . Comme (u1 , u2 ,...u n ) est libre, on a ∀k ∈ [1, n ], xk − x'k = 0 ,
k =1
soit ∀k ∈ [1, n ], xk = x'k . D’où l’existence et l’unicité de l’écriture. ⇐ : Supposons que tout vecteur v de E s’écrit de manière unique… Déjà, (u1 , u 2 ,...u n ) est génératrice de E . n
Ensuite, si
∑ λ u i
i =1
i
= 0 E , alors nécessairement ∀i ∈ [1, n ], λ i = 0 , car sinon on aurait deux n
écritures différentes de 0 E , à savoir
∑
n
λ i ui et
i =1
∑ 0.u
i
.
i =1
Exemples : 3 3 [(1,0,0), (0,1,0), (0,0,1)] est une base de R , on l’appelle la base canonique de R . [( −1,1,1), (1,−1,1), (1,1,−1)] en est aussi une. Le triplet des composantes d’un vecteur
z + y z + x x + y , , ( x, y , z ) de R 3 dans cette base est . 2 2 2 3
e [( 1, ,12 ,4 ,1), ( 1, 0, 0)] est aussi une base de R : π ), ( u
v
w
Soit x = ( a, b, c ) ∈ R . 3
On doit montrer qu’il existe un unique triplet de R 3 tel que x = x.u + y.v + z.w L’équation vectorielle équivaut au système : x + e. y + z = a
( S ) π x + 4 y
=b
12 x + y =c x + e. y + z = a b − 4c Or, ( S ) ⇔ x = 48 π − b − 4c y = c − 12 π − 48 Donc (S) a bien une unique solution.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
27 27/167
5/14/2018
Alg brelin aire-slidepdf.com
K-algèbres K désigne ici toujours un corps (commutatif)
VIII Définition Soit E un ensemble, muni de deux lois internes ⊕ et ⊗ , et d’une loi externe à opérateurs dans K, ⋅ . Alors ( E ,⊕,⊗, ⋅ ) est une K-algèbre lorsque : - ( E ,⊕, ⋅ ) est un K-ev. - La loi ⊗ est associative et admet un élément neutre (qu’on note 1 E ) - La loi ⊗ est distributive sur la loi ⊕ . - Pour tous u , v ∈ E , et tout λ ∈ K , (λ u ) ⊗ v = u ⊗ (λ v ) = λ (u ⊗ v ) Notation : les lois ⊕ et ⊗ sont généralement notées + et × . Exemples : R est une R-algèbre (pour les lois usuelles), et C aussi. (C est aussi une C-algèbre). (F( X , K ),+,×, ⋅ ) est une R-algèbre, X étant un ensemble quelconque.
IX Sous-algèbres Définition : Une sous-algèbre d’une K-algèbre ( E ,+,×, ⋅ ) , c’est une partie F de E qui contient 1 E et qui est stable pour chacune des trois lois, c'est-à-dire : - 1 E ∈ F - ∀(u, v) ∈ F 2 , u + v ∈ F et u × v ∈ F - ∀u ∈ K , ∀λ ∈ K , λ u ∈ F Proposition : Une sous-algèbre d’une K-algèbre est une K-algèbre. Exemple : L’ensemble des fonctions polynomiales de K dans K constitue une sous-algèbre de l’algèbre (F(K , K ),+,×, ⋅ ) .
X Morphisme de K-algèbre Définition : Soient ( E ,+,×, ⋅ ) , ( F ,+,×, ⋅ ) deux K-algèbres. Soit ϕ : E → F . Alors ϕ est un morphisme de K-algèbres lorsque : - ∀(u , v) ∈ E 2 , ϕ (u + v) = ϕ (u ) + ϕ (v) - ∀(u, v) ∈ E 2 , ϕ (u × v) = ϕ (u ) × ϕ (v) - ∀u ∈ E , ∀λ ∈ K , ϕ (λ u ) = λϕ (u )
- ϕ (1 E ) = 1F
Exemple : L’ensemble des suites convergentes est une sous algèbre de la R-algèbre des suites réelles, et l’application qui à une suite convergente associe sa limite est un morphisme d’algèbres.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
28 28/167
5/14/2018
Alg brelin aire-slidepdf.com
Espaces vectoriels de type fini E désigne ici un K-ev (où K est un sous corps de C)
XI Les théorèmes fondamentaux A) Existence de base Théorème : On suppose que E admet une famille génératrice finie g. Alors, de g, on peut extraire une base de E . Démonstration : Montrons par récurrence que, pour tout m ∈ N , « si E admet une famille génératrice g de cardinal m, alors, de g, on peut extraire une base de E » (P(m)) • P(0) : Si E admet une famille de cardinal 0, c’est que E = {0 E } et la famille vide est une base de E . • P(1) : Si E admet une famille génératrice de cardinal 1, disons g = (u1 ) : - Si u1 = 0 E , alors E = {0 E } , et ∅ est alors une base de E , extraite de g. - Si u1 ≠ 0 E , (u1 ) est une famille libre et génératrice de E , extraite de g (car égale à g). • P(2) : Si E admet une famille libre et génératrice de cardinal 2, disons g = (u 1 , u 2 ) : - Si (u1 , u 2 ) est libre, alors c’est une base de E , extraite de g. - Si elle ne l’est pas, alors l’un des u i , disons u 2 , est combinaison linéaire des « autres » (c'est-à-dire u1 ). Alors (u1 ) est génératrice de E . D’après P(1), on peut donc en extraire une base de E . • Soit m ∈ N * . Supposons P(m). Montrons P( m + 1) . Si E admet une famille génératrice de cardinal m + 1 , disons g = (u1 , u 2 ,...u m+1 ) : - Si (u1 , u 2 ,...u m+1 ) est libre, alors elle est une base de E , extraite de g. - Si elle ne l’est pas, alors l’un des u i , disons u m+1 est combinaison linéaire des autres. Alors (u1 , u 2 ,...u m ) est génératrice de E . D’après P(m), on peut donc en extraire une base de E , ce qui achève la récurrence. Conséquence : (1) Tout K-ev de type fini admet une base (finie) (2) « théorème d’extraction de base » : de toute famille génératrice finie d’un K-ev, on peut extraire une base (finie) de ce K-ev.
B) Dimension Théorème et définition : Soit E un K-ev de type fini. Alors toutes les bases de E ont le même cardinal, il est appelé la dimension de E , noté dim( E ) .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
29 29/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : Lemme : Pour tout entier n ∈ N , n + 1 vecteurs qui sont combinaisons linéaires de n vecteurs de E forment toujours une famille liée. En effet, montrons ce lemme par récurrence sur n :
• Pour n = 0 : « 1 vecteur combinaison linéaire de 0 vecteur est lié ». C’est vrai car une combinaison linéaire de 0 vecteurs, c’est 0 E
• Pour n = 1 : « 2 vecteurs combinaison linéaire de 1 vecteur forment une famille liée ». Si v0 = λ 0 u1 et v1 = λ 1u1 , alors (v0 , v1 ) est liée : λ Si λ 0 ≠ 0 , alors v1 = 1 v0 . Sinon v0 = 0 E . Donc v0 et v1 sont colinéaires. λ 0 • Soit n ≥ 2 , supposons le résultat vrai pour n − 1 . Considérons n + 1 vecteurs v1 , v 2 ,...v n , combinaisons linéaires de n vecteurs u1 , u 2 ,...u n . On a donc des scalaires α i , j avec 0 ≤ i ≤ n et 1 ≤ j ≤ n tels que :
v0 = α 0,1u1 + α 0, 2u2 + ... + α 0,nun v = α u + α u + ... + α u 1 1,1 1 1, 2 2 1, n n ⋮ vn = α n ,1u1 + α n , 2u2 + ... + α n ,nun
( L0 ) ( L1 )
⋮
( Ln )
- Si ∀i ∈ [ 0, n ], α i ,n = 0 , alors v1 , v 2 ,...v n sont combinaisons linéaires des n − 1 vecteurs u1 , u 2 ,...u n −1 . Par hypothèse de récurrence, (v1 , v 2 ,...v n−1 ) est liée. Donc (v1 , v 2 ,...v n ) l’est aussi. - Si l’un des α i ,n , pour i ∈ [ 0, n ] n’est pas nul, disons α n ,n (sinon on échange les lignes), alors les transformations Li ← Li −
α i ,n α n ,n
Ln pour i ∈ [ 0, n − 1 ] donnent :
λ n
v0 − λ 0vn = Combinaison linéaire de u1 , u2 ,...un v − λ v = ....................................................... 1 1 n ⋮ vn − λ n vn = ....................................................... Les vecteurs vi − λ i vn , i ∈ [ 0, n − 1 ] forment donc une famille liée puisque ce sont n vecteurs combinaisons linéaires de n − 1 (hypothèse de récurrence). Il existe donc n −1 des scalaires β 1 , β 2 ,... β n −1 non tous nuls tels que β i (v i − λ i v n ) = 0 . Donc
∑ i =0
n −1
∑ β v i
i =0
n −1
i
+ γ .v n = 0 avec γ = −∑ β i λ i , ce qui prouve que (v1 , v 2 ,...v n ) est liée car i=0
au moins l’un des β i est non nul, ce qui achève la récurrence. Maintenant : Soient B, B’ deux bases (finie) de E , notons m, n leur cardinal. • B est génératrice de E . donc chacun des m vecteurs de B’ est combinaison
≤ desnn≤vecteurs de B. donc m De même, • linéaire m . Donc n = m
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
n (sinon, selon le lemme, B’ serait liée)
30 30/167
5/14/2018
Alg brelin aire-slidepdf.com
Exemple important : K n est de dimension n : on en connaît une base de cardinal n (la base canonique) Remarque : • Si E est de dimension 0, alors E = {0 E }
• Si E est de dimension 1, alors E est une droite vectorielle. Vocabulaire : " E de type fini" = " E de dimension finie". Théorème « de la base incomplète » : Soit E un K-ev de dimension finie n. Alors toute famille libre de E peut être complétée en une base de E . Démonstration : Soit L une famille libre de E . • Si L est vide, il suffit de la compléter avec une base de E .
• Sinon, L = (u1 , u 2 ,...u p ) , où p ∈ N * Soit B = (e1 , e2 ,...en ) une base de E . - Si L est génératrice de E , alors L est une base de E . - Sinon, l’un au moins des ei , i ∈ [1, n ] n’est pas combinaison linéaire de u1 , u 2 ,...u p (car sinon L serait génératrice). Soit alors i1 ∈ [1, n ] tel que ei1 ∉ Vect (u1 , u 2 ,...u p ) . Alors la famille L' = (u1 , u 2 ,...u p , ei1 ) est libre. Si elle est
génératrice, c’est une base de E . Sinon, on recommence. Au bout d’un moment, on obtient une famille libre et génératrice (puisque, au pire, (u1 , u 2 ,...u p , e1 , e 2 ,...en ) est génératrice). Conséquence du théorème : Soit E un K-ev de dimension n. Alors : (1) Les familles libres de E ont au plus n vecteurs. (2) Si une famille libre de E est de cardinal n, alors c’est une base de E . Remarque : la démonstration du théorème montre que, pour compléter une famille libre en une base de E , on peut imposer de piocher les éléments qui complètent dans une base, fixée d’avance, de E . Conséquence du théorème « d’extraction de base » : Soit E un K-ev de dimension n. Alors : (1) Les familles génératrices de E sont de cardinal ≥ n . (2) Si une famille génératrice de E est de cardinal n, alors c’est une base de E . Théorème : Soit E un K-ev. Alors : E est de dimension finie ⇔ il admet une famille génératric e finie
⇔ il admet une base finie
⇔ le cardinal des familles libres de E est majoré
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
31 31/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : (les deux premières équivalences sont des rappels) ⇒ : Evident, l’ensemble est majoré par dim( E ) ⇐ : Supposons que le cardinal des familles libres de E est majoré. L’ensemble des cardinaux des familles libres est donc une partie non vide (contient 0) et majorée de N. On note n le maximum de cette partie. Soit alors une famille L de cardinal n. - Si n = 0 , alors E = {0 E } car ∅ est la seule famille de cardinal 0. - Sinon, L = (u1 , u 2 ,...u n ) . Alors cette famille est génératrice, car sinon on pourrait trouver v ∈ E qui n’est pas combinaison linéaire des u i , et ainsi la famille (u1 , u 2 ,...u n , v) serait libre de cardinal n + 1 , ce qui contredit la définition de n. Théorème : Soit E un K-ev de dimension finie n. Soit una sous-espace vectoriel . AlorsF F une dimension finie etde≤ E n , et si elle vaut n, alors F = E Démonstration : • Les familles libres d’éléments de F sont des familles libres d’éléments de E . Donc leur cardinal est majoré par n. Donc F est de dimension finie p ≤ n (puisque si (u1 , u 2 ,...u p ) est une base de F , alors c’est aussi une famille libre de E , donc p ≤ n )
• Si p = n , alors soit (u1 , u 2 ,...u p ) une base de F . C’est donc une famille libre de E de cardinal p = n . C’est donc une base de E . Donc F = E . Théorème : Soit E un K-ev de dimension finie n. Alors tout sous-espace vectoriel de E admet un supplémentaire dans E (mais pas un seul en général). Démonstration : Soit F un sous-espace vectoriel de E . • Si F = E , {0 E } est supplémentaire de F . (et vice-versa)
• Sinon, F est de dimension finie p avec 1 ≤ p < n . Soit (u1 , u 2 ,...u p ) une base de F . C’est aussi une famille libre de E . on peut donc la compléter en une base (u1 , u 2 ,...u p , u p +1 ,...u n ) de E . On pose alors G = Vect (u p +1 ,...u n ) . Alors G est un supplémentaire de F dans E . En effet : - Soit v ∈ E . Donc v = x1u1 + ... + x p u p + x p +1u p +1 + ... + x n u n . (car (u1 , u 2 ,...u n )
∈F
∈G
est génératrice de E ) C’est vrai pour tout v ∈ E . Donc E = F + G . - Montrons maintenant que la somme est directe, soit que F ∩ G = {0 E } : Soit v ∈ F ∩ G , alors v = x1u1 + ... + x p u p
et v = y1u p +1 + ... + y n − p u n . Donc
x1u1 + ... + x p u p − y1u p +1 − ... − y n − p u n = 0 . Comme la famille (u1 , u 2 ,...u n ) est
libre, x1 = x2 = ... = x p = y1 = y2 = ... = yn − p = 0 . Donc v = 0 . Donc F ∩ G ⊂ {0 E }. Donc F ∩ G = {0 E }. Donc E = F ⊕ G
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
32 32/167
5/14/2018
Alg brelin aire-slidepdf.com
XII Rang d’une famille de vecteurs Dans ce paragraphe, E est un K-ev. Définition : Soit F une famille de vecteurs de E . Le rang de F est : rg ( F) = dim( Vect ( F)) . déf Exemples : • Si E = R 3 . F = [(1,2,3), ( 4,5,6), (7,8,9)] . Alors rg ( F) = 2 (car u 2 =
u1
u2
u3
1 2
(u1 + u 3 ) )
• Si E = F(R , R ) f 1 : x ֏ 1 f 2 : x ֏ e
x
f 3 : x ֏ x
Alors rg( f 1 , f 2 , f 3 ) = 3 ( ( f 1 , f 2 , f 3 ) est libre, donc une base de Vect( f 1 , f 2 , f 3 ) ) Démonstration : Soient λ 1 , λ 2 , λ 3 ∈ R , supposons que λ 1 f 1 + λ 2 f 2 + λ 3 f 3 = 0 . Alors ∀ x ∈ R , λ 1 f 1 ( x ) + λ 2 f 2 ( x) + λ 3 f 3 ( x ) = 0 . D’où, en prenant trois valeurs pour x, par exemple -1, 0, 1, on trouve λ 1 = λ 2 = λ 3 = 0 . Propriétés : Soit E de dimension finie n. Soit F une famille d’éléments de E de cardinal p, disons F = (u1 , u 2 ,...u p ) Notons F = F ) F . Soit r = F (ainsi, r = Vect( ) rg ( ) dim Alors : * r ≤ p : (u1 , u 2 ,...u p ) est génératrice de F donc p ≥ r * r ≤ n : F est un sous-espace vectoriel de E donc dim F ≤ dim E * r = p ⇔ F est libre : r = p ⇔ dim F = p ⇔ (u1 , u 2 ,...u p ) est une base de F . * r = n ⇔ F est génératrice de E : r = p ⇔ dim F = n ⇔ F = E ⇔ F engendre E . * r = n = p ⇔ F est une base de E (résulte des deux derniers points) Exemple : famille de 5 vecteurs de rang 3 dans un espace vectoriel de dimension 4 : [(1,0,0,0), (0,1,0,0), (0,0,1,0), (7,5,2,0), ( 49,2,−3,0)]
XIII Somme de sous-espaces vectoriels et dimension Ici, E est un K-ev de dimension finie n. Théorème : Soient F et G deux sous-espaces vectoriels de E en somme directe. Si (u1 , u 2 ,...u p ) est une base de F . Et si (v1 , v 2 ,...v q ) est une base de G. Alors (u1 , u 2 ,...u p , v1 , v 2 ,...v q ) est une base de F ⊕ G .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
33 33/167
5/14/2018
Alg brelin aire-slidepdf.com
En effet : * (u1 , u 2 ,...u p , v1 , v 2 ,...v q ) est génératrice de F ⊕ G : évident. * Cette famille est libre : si λ 1u1 + λ 2u2 + ... + λ p u p + µ1v1 + µ 2 v2 + ... + µ q vq = 0 E , alors
=u∈F
= v∈G
v = u = 0 E car F et G sont en somme directe. Or, si u = 0 E , alors ∀i ∈ [1, p ], λ i = 0 car (u1 , u 2 ,...u p ) est libre. Et si v = 0 E , alors ∀i ∈ [1, q ], µ i = 0 car (v1 , v 2 ,...v q ) est libre. Donc (u1 , u 2 ,...u p , v1 , v 2 ,...v q ) est libre. C’est donc une base de F ⊕ G . Conséquence : si F et G sont en somme directe, alors dim( F ⊕ G ) = dim( F ) + dim(G ) Théorème : Soient F et G deux sous-espaces vectoriels de E . Alors dim( F + G ) = dim( F ) + dim(G ) − dim( F ∩ G ) Démonstration : Posons H = F ∩ G . Alors H est un sous-espace vectoriel de E , F et G. H est un sous-espace vectoriel de G, il a donc un supplémentaire dans G, disons G1 . Donc G = H ⊕ G1 . Alors F + G = F + G1 , et F et G1 sont en somme directe : (1) La somme est directe : si u ∈ F ∩ G1 , alors u ∈ F ∩ G = H , et u ∈ G1 . Donc u ∈ H ∩ G1 . Donc u = 0 E
={O E }
(2)
F + G = F + G1 : Déjà, F + G ⊂ F + G1 (si u = ∈vF + w1 , alors u ∈ F + G ) ∈G ⊂ G
1
Soit u ∈ F + G . Alors u = v + w . Or, w ∈ G . Donc w = h + w1 .
∈F
∈ H
∈G
∈G1
Donc u = v + h + w1
∈F car h∈ H ⊂ F
∈G1
Donc F + G = F ⊕ G1 Ainsi, dim(F + G ) = dim( F ) + dim(G1 ) Or, dim(G ) = dim(G1 ) + dim(H ) (car G = H ⊕ G1 ) Donc dim( F + G ) = dim( F ) + dim( G ) − dim( H ) Conséquence : Soient F , G deux sous-espaces vectoriels de E . Alors : (1) F + G = E F et G sont supplémentaires dans E ⇔ F ∩ G = {0 E } (2)
dim F + dim G = n
⇔ ⇔
(3)
F ∩ G = {0 E } ( 2) dim F + dim G = n (3)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
F + G = E (1)
34 34/167
5/14/2018
Alg brelin aire-slidepdf.com
En effet : • (1) et (2) ⇒ (3) : évident selon la formule
• (2) et (3) ⇒ (1) : dim( F + G ) = dim(F ) + dim(G ) − dim( F ∩ G ) = dim( F ) + dim(G ) Ainsi, dim( F + G ) = n donc F + G = E
• (3) et (1) ⇒ (2) : dim( F + G ) = dim( E ) = n et dim F + dim G = n Donc dim( F ∩ G ) = 0 donc F ∩ G = {0 E }
XIV Applications linéaires en dimension finie Dans ce paragraphe : E est un K-ev de dimension finie p ≥ 1 . F est un K-ev de dimension finie n ≥ 1 .
A) Détermination d’une application linéaire par la donnée des images des vecteurs d’une base Théorème : Soit B E = (e1 , e2 ,...e p ) une base de E . Soit (v1 , v 2 ,...v p ) un p-uplet de vecteurs quelconques de F . Alors il existe une unique application linéaire ϕ de E dans F telle que
∀i ∈ [1, p ], ϕ (ei ) = vi Démonstration : p
• Unicité : si ϕ convient, alors, étant donné u ∈ E , u = ∑ x j e j . Donc j =1 p
ϕ (u ) =
p
∑ x ϕ (e ) = ∑ x v j
j
j =1
j
j
.
j =1
• Existence : Soit ϕ l’application de E dans F définie par : ϕ : E → F p u de composante s ֏ ∑ x j u j ( x1 ,... x p ) dans B E
j =1
(La définition a un sens car la décomposition dans une base est unique) Alors ϕ est linéaire : Soient u , u '∈ E , de composantes ( x1 , x 2 ,... x p ) , ( x '1 , x'2 ,... x ' p ) dans B E et λ ∈ K . Alors u + λ u ' a pour composantes ( x1 + λ x '1 , x 2 + λ x ' 2 ,... x p + λ x ' p ) dans B E . p
Donc ϕ (u + λ u ' ) =
∑ ( x
p
j
j =1
+ λ x ' j )v j =
∑ x v j
j =1
j
p
∑
+ λ x ' j v j = ϕ (u ) + λϕ (u ' ) j =1
Enfin, on a bien ∀i ∈ [1, p ], ϕ (ei ) = vi : Pour tout i ∈ [1, p ] , ei
a pour composantes (0,...,1,...0) i
dans
B E , donc
ϕ (ei ) = xi vi = vi
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
35 35/167
5/14/2018
Alg brelin aire-slidepdf.com
Conséquence : Si B E = (e1 , e2 ,...e p ) est une base de E , et B F = ( f 1 , f 2 ,... f n ) est une base de F . Alors la donnée d’une application linéaire de E dans F revient à la donnée de n × p scalaires, à savoir les a i , j , pour i ∈ [1, n ], j ∈ [1, p ] tels que : j i , j F ∀ j ∈ [1, p ], ϕ (e ) = (vecteur de composantes les a dans B ) n
∀ j ∈ [1, p ], ϕ (e j ) = ∑ ai , j f i (= v j )
i =1
On range ces scalaires dans un tableau à n lignes, p colonnes, de sorte que, pour tout (i, j ) ∈ [1, n ]× [1, p ], a i , j est placé sur la i-ème ligne de la j-ème colonne :
a1,1 a1, 2 … a1, p a 2,1 a 2, 2 … a 2, p ⋮ ⋮ ⋮ a a … a n ,1 n, 2 n , p tableau s’appelle la matrice de ϕ dans les bases B et B (attention : le « et » Ce E F n’est pas commutatif) La j-ème colonne de cette matrice est la colonne des composantes de ϕ (e j ) dans la base B F .
B) Applications linéaires et images des vecteurs d’une base Proposition : Soit ϕ ∈ L( E , F ) , B E = (e1 , e2 ,...e p ) une base de E . Alors : (1) Vect (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) = Im ϕ (2) ϕ est surjective si et seulement si (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est génératrice de F . (3) ϕ est injective si et seulement si (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est libre. (4) ϕ est bijective si et seulement si (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est une base de F . Démonstration :
p (1) * Si v ∈ Vect (ϕ (e1 ), ϕ (e 2 ),...ϕ (e p )) , alors v = ∑ λ jϕ (e j ) = ϕ ∑ λ j e j ∈ Im ϕ . j =1 j =1 p
* Si v ∈ Im ϕ , alors v = ϕ (u ) , où u ∈ E . Or, u =
p
∑ x e
(décomposition de u
j j
j =1
p
dans B E ). Donc v = ϕ
∑
j =1
λ j e j =
p
∑ λ ϕ (e ) ∈ Vect(ϕ (e ),ϕ (e ),...ϕ (e j
j
1
2
p
))
j =1
(2) Conséquence évidente de (1) p
(3) * Si (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est libre : soit u ∈ ker ϕ , u =
∑ x e
j j
. Alors
j =1 p
0 = ϕ (u ) =
∑ x ϕ (e ) . (ϕ (e ), ϕ (e ),...ϕ (e j
j
1
2
p
)) est libre, donc ∀ j ∈ [1, p ], x j = 0
j =1
. Donc ker ϕ = {0 E } . Donc ϕ est injective.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
36 36/167
5/14/2018
Alg brelin aire-slidepdf.com
p
* Si ϕ est injective : soient x1 , x 2 ,... x p ∈ K . Supposons que
∑ x ϕ (e ) = 0 j
j
F
.
j =1
Alors
p
ϕ
∑
x j e j = 0 F . Donc
j =1
p
∑ x e
j j
= 0 E (car
ker ϕ = {0 E } ). Donc
j =1
∀ j ∈ [1, p ], x j = 0 (car (e1 , e 2 ,...e p ) est libre). Donc (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est libre. (4) Conséquence directe de (2) et (3) Conséquence : Si dim E = p , dim F = n , alors : ϕ surjective ⇒ n ≤ p ϕ injective ⇒ p ≤ n
C) Isomorphismes Proposition : Soit E de dimension p, F de dimension n. Alors E et F sont isomorphes si et seulement si ils ont même dimension. Démonstration : • Si E et F sont isomorphes, alors il existe ϕ ∈ L( E , F ) bijective. On a alors dim E = dim F (car alors dim E ≤ dim F et dim F ≤ dim E ) • Si dim E = dim F = p . Soient alors B E = (e1 , e2 ,...e p ) une base de E et B F = ( f 1 , f 2 ,... f p ) une base de F . Il existe alors une application linéaire ϕ ∈ L( E , F ) telle que ∀i ∈ [1, p ], ϕ (ei ) = f i . Cette application est donc un
isomorphisme (car la famille (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) est libre et génératrice) Proposition : Soient E et F de même dimension finie. Alors, pour tout ϕ ∈ L( E , F ) , on la les équivalences : ϕ est bijective ⇔ ϕ est injective ⇔ ϕ est surjective Démonstration : Supposons que dim E = dim F = n . Soit alors B E = (e1 , e2 ,...e p ) une base de E . Alors : ϕ est injective ⇔ (ϕ (e1 ), ϕ (e2 ),...ϕ (en )) est libre
⇔ (ϕ (e1 ), ϕ (e2 ),...ϕ (en )) est une base de F (car dim F = n) ⇔ ϕ est bijective On fait la même chose pour l’autre équivalence. Proposition : Les isomorphismes conservent le rang, c'est-à-dire que si ϕ est un isomorphisme de E dans E ’,
alors,
pour
toute
famille
(u1 , u 2 ,...u q )
de vecteurs de E ,
rg (u1 , u 2 ,...u q ) = rg (ϕ (u1 ), ϕ (u 2 ),...ϕ (u q )) .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
37 37/167
5/14/2018
Alg brelin aire-slidepdf.com
En effet : Si on note F = Vect (u1 , u 2 ,...u q ) , alors ϕ ( F ) = Vect (ϕ (u1 ), ϕ (u 2 ),...ϕ (u q )) , et ϕ réalise alors un isomorphisme de F dans ϕ ( F ) . Donc dim F = dim ϕ ( F ) . Exemple : B = E Soit E de dimension n , (e1 , e2 ,...en ) une base de E . Alors ϕ : est un isomorphisme. K n → E n
( xi )i∈[ 1, n ]֏
∑ x e
i i
i =1
D) Le théorème « noyau - image » Théorème : Soient E , F deux K-ev, où E est de dimension finie.
∈
Soit ϕ L( E , F ) . Alors Im ϕ est de dimension finie, et dim E = dim(ker ϕ ) + dim(Im ϕ ) . Démonstration : On peut introduire un supplémentaire G de ker ϕ dans E . Ainsi, E = ker ϕ ⊕ G . ˆ : G → Imϕ . Alors ϕ ˆ est linéaire (C’est en quelque sorte " ϕ / G ") On définit alors ϕ u ֏ϕ (u ) Alors : ˆ est injective : ker ϕ ˆ = {u ∈ G, ϕ ˆ (u ) = 0} = {u ∈ G, ϕ (u ) = 0} = G ∩ ker ϕ = {0 E } • ϕ
ˆ est surjective : Soit v ∈ Im ϕ . v s’écrit ϕ (u ) , où u ∈ E . Alors u = w' + w . • ϕ
∈ker ϕ
∈G
Donc ϕ (u ) = ϕ ( w' ) + ϕ ( w) = ϕ ( w) = v . ˆ est un isomorphisme. Donc dim(Im ϕ ) = dim G . Donc ϕ Or, dim G = dim E − dim(ker ϕ ) . Donc dim E = dim(ker ϕ ) + dim(Im ϕ ) . Conséquence : On retrouve le fait que : • dim(Imϕ ) ≤ dim E
• ϕ injective ⇒ dim E ≤ dim F
• ϕ surjective ⇒ dim E ≥ dim F • Si dim E = dim F , ϕ bijective ⇔ ϕ surjective ⇔ ϕ injective
E) Rang d’une application linéaire Soit ϕ ∈ L( E , F ) , où E est de dimension finie. Alors rgϕ = dim(Im ϕ ) déf
Propositions : - Si (e1 , e 2 ,...e p ) est une base de E , alors :
rgϕ = dim(Imϕ ) = dim(Vect(ϕ (e1 ), ϕ (e2 ),...ϕ (e p )))
= rg(ϕ (e1 ), ϕ (e2 ),...ϕ (e p ))
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
38 38/167
5/14/2018
Alg brelin aire-slidepdf.com
- Si on note dim E = p , dim F = n , rg (ϕ ) = r , alors : r ≤ n ; r ≤ p r = p ⇔ ϕ injective
; r = n ⇔ ϕ surjective
; r = n = p ⇔ ϕ bijective (découle directement du théorème noyau – image)
XV Formes linéaires et hyperplan Dans ce paragraphe, E désigne un K-ev de dimension n ≥ 2 .
A) Formes linéaires de E . Rappel : une forme linéaire de E est une application linéaire de E dans K. L’ensemble des formes linéaires de E est L( E , K ) , noté aussi E * (dual de E ). ( E * est un K-ev). Proposition : Soit B = (e1 , e2 ,...en ) une base de E . Les formes linéaires de E sont exactement les applications du type : , où (a1 , a 2 ,...a n ) ∈ K n . E → K u de composante s ֏ a1 x1 + a2 x2 +...+ an xn ( x1 , x2 ,... xn ) dans B
En effet : L’application :
n
u=
E → K
est l’unique application linéaire de E dans K
n
∑ x e ֏∑ x a i
i =1
i
i
i
i =1
telle que ∀i ∈ [1, n ], ϕ (ei ) = ai . La matrice de cette application linéaire ϕ dans les bases B et (1) est la matrice ligne ( a1 , a 2 ,...a n ) (1 ligne, n colonnes) Cas particulier : Pour i ∈ [1, n ], on note p i la forme linéaire : pi
E → K ֏ xi
u de composante s ( x1 , x2 ,... xn ) dans B
(matrice (0,...1,...0) ) ; on les appelle les projections relatives à B. i
La famille des p i est évidemment génératrice de E * (lire « E dual »), et elle est libre :
n
∑ a p i
i =1
= 0 E * ⇒ ∀ j ∈ [1, n ], ∑ ai pi (e j ) = 0 E . 1 i = n
i
=a j
Donc ( pi ) i∈[ 1, n ] est une base de E * . Donc E * est de même dimension que E . La base ( p1 , p 2 ,... p n ) est appelée la base duale de (e1 , e2 ,...en ) .
B) Hyperplan Définition : Un hyperplan de E est un sous-espace vectoriel de E de dimension n − 1 .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
39 39/167
5/14/2018
Alg brelin aire-slidepdf.com
Exemple : En dimension 2, les hyperplans sont des droites. En dimension 3, les hyperplans sont des plans. Théorème : Les hyperplans sont exactement les noyaux des formes linéaires non nulles de E . Plus précisément : (1) Si ϕ ∈ L ( E , K ) \ 0 L ( E , K ) , alors ker ϕ est un hyperplan de E . (2) Si H est un hyperplan de E , alors il existe ϕ ∈ L( E , K ) \ {0} tel que H = ker ϕ . (3) Si ϕ 1 , ϕ 2 ∈ L( E , K ) tels que ker ϕ 1 = ker ϕ 2 , alors ϕ 1 et ϕ 2 sont colinéaires, c'est-à-dire qu’il existe λ ∈ K \ {0} tel que ϕ 2 = λϕ 1 . Démonstration : chapitre 4:1 Si ϕ ∈ L ( E , K ) \ 0 L ( E , K ) , alors
Im ϕ
est un sous-espace
vectoriel de K, qui est de dimension 1. Donc Im ϕ est de dimension 0 ou 1. Si dim(Im ϕ ) = 0 , alors Imϕ = {0} et ϕ = 0 L ( E ,K ) . Donc dim(Im ϕ ) = 1 (et Im ϕ = K ). Donc dim(ker ϕ ) = dim E − dim(Im ϕ ) = n − 1
chapitre 4:2
Soit H un hyperplan de E . Soit (u1 , u 2 ,...u n −1 ) une base de H .
On la complète en une base de E : (u1 , u 2 ,...u n ) . Soit ϕ la forme linéaire qui envoie les u i , i ∈ [1, n − 1 ] sur 0 et u n sur 1. Alors ker ϕ = H (car pour v =
n
∑ x u , ϕ (v) = 0 ⇔ x i
i
n
= 0 ⇔ v ∈ H )
i =1
chapitre 4:3
Si ϕ 1 = 0 , ker ϕ 1 = E ; donc ker ϕ 2 = E , donc ϕ 2 = 0 = 1.ϕ 1 .
Si ϕ 1 ≠ 0 , le noyau de ϕ 1 est un hyperplan H de base (u1 , u 2 ,...u n −1 ) , que l’on complète en une base (u1 , u 2 ,...u n ) de E . Alors : ϕ 1 (u1 ) = ϕ 2 (u1 ) = 0
⋮ ϕ ( u ) ϕ ( u ) 0 = = 1 n − 1 2 n − 1 ϕ 1 (un ) = a ∈ K \ {0} ; ϕ 2 (un ) = b ∈ K \ {0}
Donc ϕ 2 = ba ϕ 1 (puisque ∀ j ∈ [1, n ], ϕ 2 (u j ) = ba ϕ 1 (u j ) et la donnée des images des vecteurs d’une base: détermine l’application linéaire) Conséquence Soit B = (e1 , e2 ,...en ) une base de E . Alors les hyperplans de E sont exactement les parties de E qui admettent dans la base B, une équation du type a1 x1 + a 2 x 2 ...a n x n = 0 ou les a i sont des scalaires non tous nuls. De plus, si un hyperplan admet deux équations, alors elles sont proportionnelles. Rappel : Etant donnée F ∈ F (K n , K ) , la partie E d’équation F ( x1 , x 2 ,... x n ) = 0 dans la base B est, par définition, l’ensemble des composantes
( x1 , x 2 ,... x n ) dans B
vérifiant F ( x1 , x 2 ,... x n ) = 0 .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
40 40/167
5/14/2018
Alg brelin aire-slidepdf.com
On verra que si F est un sev de E de dimension p, alors F est l’intersection d’hyperplans (et peut donc être défini par un système d’équations), le nombre minimum d’équations nécessaires étant n − p .
Matrices Dans ce chapitre, K est un corps commutatif (souvent un sous corps de C). Les lettres n, p, q… désignent des éléments de N*.
XVI Définition A) Matrice Une matrice de type ( n, p ) à coefficients dans K est une famille (ai , j )1≤i ≤ n 1≤ j ≤ p
d’éléments de K indexée par [1, n ]× [1, p ] . Leur ensemble est noté M n , p (K ) ; M n , n (K ) est noté aussi M n (K )
B) Représentation d’une matrice Une matrice A = (ai , j )1≤i ≤ n de M n , p (K ) est représentée par un tableau à n lignes, 1≤ j ≤ p
p colonnes de sorte que, pour tout (i, j ) ∈ [1, n ]× [1, p ], ai , j est placé sur la i-ème ligne
de la j-ème colonne. Ainsi : a1,1 a1, 2
… a1, p a2,1 a2, 2 … a2, p A = ∈ M n , p (K ) ⋮ ⋮ ⋮ an ,1 an , 2 … an , p La i-ème ligne de A est ( ai ,1 , a i , 2 ...a i , p ) ∈ M 1, p (K ) (matrice ligne) La j-ème colonne de A est ( a1, j , a 2 , j ...a n , j ) ∈ M n ,1 (K ) (matrice colonne) Une matrice de type ( n, n) s’appelle une matrice carrée d’ordre n.
XVII Matrice d’une famille de vecteurs dans une base Ici, E est un K-ev de dimension p, muni d’une base B E = (e1 , e2 ,...e p ) .
x1 x2 Soit v ∈ E , on lui associe la matrice colonne de ses composantes dans la base B E ⋮ x p
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
41 41/167
5/14/2018
Alg brelin aire-slidepdf.com
x1 p x 2 L’application : ϕ : E → M p ,1 (K ) est évidemment bijective (d’inverse ֏ ∑ xi ei ) ⋮ i =1 x1 x p x v֏ 2 ⋮ x p Plus généralement, étant donnée une famille F = (v1 , v 2 ...v q ) d’éléments de E , on introduit la matrice A ∈ M p , q (K ) telle que, pour tout j ∈ [1, q ], la j-ème colonne de A soit la colonne des composantes de v j dans la base B E . Cette matrice sera notée mat(F, B E ) . Exemple : 2 2 P = 1 − 2 X ; Q = 3 + X ; R = 1 + X + X Matrice de ( P, Q, R ) dans la base naturelle de R [ X ] ( (1, X , X 2 ) ) : 2
1 3 1 − 2 0 1 0 1 1
C’est aussi la matrice de ((1,−2,0), (3,0,1), (1,1,1) ) dans la base canonique de R 3 .
XVIII Matrice d’une application linéaire dans des bases = Soit E un K-ev de dimension p, muni d’une base B E (e1 , e2 ,...e p ) . Soit F un K-ev de dimension n, muni d’une base B F = ( f 1 , f 2 ,... f n ) . Soit ϕ ∈ L( E , F ) Définition : La matrice de ϕ dans les bases B E et B F est, par définition, la matrice à n lignes, p colonnes, qui donne, par colonne, les ϕ (e j ) dans la base B F : C’est mat ((ϕ (e1 ), ϕ (e2 )...ϕ (e p )), B F ) , notée mat(ϕ , B E , B F ) Proposition : la matrice A ∈ M n , p (K ) détermine une unique application linéaire
ϕ ∈ L( E , F ) telle que A = mat(ϕ , B E , B F ) . C’est le fait que la donnée des images des vecteurs de B E détermine une et une seule application linéaire. est bijective. Ainsi, l’application φ B E , B F : L( E , F ) → M n , p (K )
ϕ ֏ mat (ϕ , B E , B F ) Cas particulier : Si E = F et B E = B F , alors mat(ϕ , B E , B E ) , notée mat(ϕ , B E ) est la matrice de ϕ dans la base B E
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
42 42/167
5/14/2018
Alg brelin aire-slidepdf.com
XIX Le K-ev M n,p(K). Idée : transporter avec φ B E , B F la structure de K-ev de L ( E , F ) de sorte que φ B E , B F devienne un isomorphisme (et pas seulement une bijection)
A) Somme Etude : Soit E un K-ev de dimension p, muni d’une base B E = (e1 , e2 ,...e p ) . Soit F un K-ev de dimension n, muni d’une base B F = ( f 1 , f 2 ,... f n ) . Soit f ∈ L ( E , F ) , de matrice A = (ai , j )1≤i ≤ n dans B E et B F . 1≤ j ≤ p
Soit g ∈ L ( E , F ) , de matrice B = (bi , j )11≤≤ ji ≤≤n p dans B E et B F . Alors, pour tout j ∈ [1, p ] : ( f + g )e j = f (e j ) + g (e f ) =
n
∑
a i , j f i +
i =1
n
∑ i =1
bi , j f i =
n
∑ (a
i , j
+ bi , j ) f i
i =1
La matrice de f + g dans B E , B F est donc la matrice C = (ci , j )1≤i≤ n définie par : 1≤ j ≤ p
∀i ∈ [1, n ], ∀ j ∈ [1, p ], ci , j = ai , j + bi , j Définition : Soient A = (ai , j )1≤i ≤ n et B = (bi , j )1≤i ≤ n deux éléments de M n , p (K ) . A + B est la 1≤ j ≤ p
1≤ j ≤ p
matrice C = (ci , j )1≤i≤ n telle que ∀(i, j ) ∈ [1, n ]× [1, p ], ci , j = ai , j + bi , j . 1≤ j ≤ p
Théorème : Soit E un K-ev de dimension p, muni d’une base B E = (e1 , e2 ,...e p ) . Soit F un K-ev de dimension n, muni d’une base B F = ( f 1 , f 2 ,... f n ) . Soient f , g ∈ L ( E , F ) Alors mat( f + g , B E , B F ) = mat( f , B E , B F ) + mat( g , B E , B F ) Démonstration : résulte de l’étude.
B) Produit par un scalaire L’étude est analogue à celle de la somme, avec f ∈ L ( E , F ) et λ ∈ K Définition : Soient A = (ai , j )1≤i ≤ n , λ ∈ K . 1≤ j ≤ p
λ A est la matrice A' = (a'i , j )1≤i ≤n telle que ∀(i, j ) ∈ [1, n ]× [1, p ], a'i , j = λ ai , j . 1≤ j ≤ p
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
43 43/167
5/14/2018
Alg brelin aire-slidepdf.com
Théorème : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit f ∈ L ( E , F ) Alors mat(λ . f , B E , B F ) = λ .mat( f , B E , B F )
C) Le K-ev M n,p(K) Théorème : • ( M n, p (K ),+, .) est un K-ev
• Soit E un K-ev de dimension p, muni d’une base B E Soit F un K-ev de dimension n, muni d’une base B F . Alors φ B E , B F : L( E , F ) → M n , p (K )
est un isomorphisme de K-ev.
ϕ ֏ mat (ϕ , B E , B F ) Démonstration : • Vérification immédiates des différentes règles de calcul dans un K-ev (le neutre est noté 0 M n, p ( K ) , matrice dont tout les coefficients sont nuls)
• Idem Cas particulier : Si E = K p muni de sa base canonique B p Et F = K n muni de sa base canonique B n Alors
l’isomorphisme
φ : L(K p , K n ) → M n , p (K ) f ֏ mat ( f ,B p ,B n )
est
l’isomorphisme
canonique de L (K p , K n ) vers M n , p (K ) .
D) Dimension Théorème : M n , p (K ) est de dimension n × p , une base naturelle de M n , p (K ) étant la famille des E i , j pour (i, j ) ∈ [1, n ]× [1, p ] où E i , j est la matrice de M n , p (K ) dont tous les coefficients sont nuls sauf celui d’indice (i , j ) qui vaut 1. Démonstration : Repose sur le fait que pour toute matrice A = (ai , j )1≤i ≤ n , A = a i , j E i , j . 1≤ j ≤ p
∑ i , j
Conséquence : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Alors L ( E , F ) est de dimension n × p . Démonstration : L ( E , F ) est isomorphe à M n , p (K ) .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
44 44/167
5/14/2018
Alg brelin aire-slidepdf.com
XX Produit matriciel A) Définition Etude : Soit E un K-ev de dimension p, muni d’une base B = (e , e ,...e ) . 1
E
2
p
Soit F un K-ev de dimension n, muni d’une base B F = ( f 1 , f 2 ,... f n ) . Soit G un K-ev de dimension m, muni d’une base B G = ( g1 , g 2 ,...g m ) . Soit ψ : E → G linéaire. Soit ϕ : G → F linéaire. Alors ϕ ψ est linéaire de E dans F . Soit A = mat (ϕ , B G , B E ) = ( ai , j ) ∈ M n ,m (K ) Soit B = mat (ψ , B E , B G ) = (bi , j ) ∈ M m , p (K ) Soit C = mat (ϕ ψ , B E , B F ) = (ci , j ) ∈ M n , p (K ) Pour tout j ∈ [1, p ] , on a :
m
∑b
ϕ ψ (e j ) = ϕ (ψ (e j )) = ϕ
k , j
g k =
m
∑b
k , j
ϕ ( g k )
k =1 m n m n = ∑ bk , j ∑ ai ,k f i = ∑ ∑ ai ,k bk , j f i k =1 i =1 k =1 i =1 n m = ∑ ai ,k bk , j f i = ∑ ∑ ai ,k bk , j f i i∈[ 1, n ] i =1 k =1 k =1
k ∈[ 1, m
]
Donc ∀i ∈ [1, n ], ci , j =
m
∑a
b
i , k k , j
k =1
Donc ∀(i , j ) ∈ [1, n ]× [1, p ], ci , j =
m
∑a
b
i , k k , j
k =1
Définition : Soit A ∈ M n ,m (K ) , B ∈ M m , p (K ) . On note A × B la matrice C , élément de M n , p (K ) , définie par ∀i ∈ [1, n ], ∀ j ∈ [1, p ], ci , j =
m
∑a
b
i , k k , j
= k 1
Théorème : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit G un K-ev de dimension m, muni d’une base B G . Soit ψ ∈ L ( E , G ) , ϕ ∈ L(G , F ) . Alors : mat (ϕ ψ , B E , B F ) = mat (ϕ , B G , B F ) × mat (ψ , B E , B G ) Exemple : 1 − 1 3
2
4 × 4
− 1
− 1 − 8 7 = 22 26
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
45 45/167
5/14/2018
Alg brelin aire-slidepdf.com
B) Composantes de l’image d’un vecteur Théorème : Soit E un K-ev de dimension p, muni d’une base B E = (e1 , e2 ,...e p ) .
= ( f , f ,... f ) .
Soit F un K-ev de dimension n, muni d’une base B
1
F
Soit ϕ ∈ L( E , F ) , A = mat(ϕ , B E , B F )
2
n
Soit u ∈ E , X ∈ M p ,1 (K ) la colonne des composantes de u dans B E . Soit v ∈ F , Y ∈ M n ,1 (K ) la colonne des composantes de v dans B F . On a l’équivalence : v = ϕ (u ) ⇔ Y = A × X Démonstration : x1 y1
x2 y2 Notons A = (ai , j )1≤i ≤ n , X = , Y = ⋮ ⋮ 1≤ j ≤ p x p yn p
On a : u =
p
p
∑
∑
∑
j =1
j =1
j =1
x j e j . Donc ϕ (u ) =
x j ϕ (e j ) =
n
x j
∑
i =1
a i , j f i =
n
∑ i =1
p ∑ x j ai , j f i 1 j = i − ème composante de ϕ ( u ) dans la base ( f 1 , f 2 ,... f n )
Ainsi : v = ϕ (u ) ⇔ v et ϕ (u ) ont mêmes composantes dans B F
⇔ ∀i ∈ [1, n ], y i =
p
∑a
x j
i , j
j =1
⇔ Y = A × X En effet :
a1,1 a1, 2 … a1, p x1 ∑ a1, j x j a2,1 a2,2 … a2, p x2 ∑ a2, j x j × = ⋮ ⋮ ⋮ ⋮ ⋮ an ,1 an, 2 … an , p x p ∑ an, j x j p
j =1 p
j =1
p
j =1
Exemple : 1 Soit ϕ ∈ L (R 2 ) de matrice A = 2
3
dans la base canonique B 2 de R 2 4
Notons B 2 = (e1 , e2 ) ; ϕ (e1 ) = (1;2) ϕ (e2 ) = (3;4) Pour tout ( x, y ) de R 2 , on a ϕ ( x, y ) = ( x ' , y ' )
x x' Avec A × = y y ' x' 1 Soit = y ' 2
x + 3 y × = 4 y 2 x + 4 y 3 x
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
46 46/167
5/14/2018
Alg brelin aire-slidepdf.com
C) Propriétés du produit Proposition : Pour tous A, A'∈ M n , p (K ), B, B '∈ M p , q (K ), C ∈ M q , r (K ), λ ∈ K , on a : (1) ( A × B ) × C = A × ( B × C ) = A × B × C (2) ( A + A' ) × B = A × B + A'× B (3) A × ( B + B ' ) = A × B + A × B' (4) (λ A) × B = λ .( A × B ) = A × (λ .B ) (5) A × I p = A et I p × B = B
1 0 … 0 1 ⋱ Où I p = ⋮ ⋱ ⋱ 0 … 0
0
⋮
0
= (δ i , j )1≤i ≤n avec δ i , j = 1 si i = j , 0 sinon.
1
1≤ j ≤ n
Démonstration : En passant par les applications linéaires, par exemple pour (2) : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit G un K-ev de dimension q, muni d’une base B G . Soient ϕ , ϕ '∈ L( E , F ) de matrices A, A’ dans les bases B E et B F . Soit ψ ∈ L(G , E ) de matrice B dans les bases B G et B E . Alors :
+
×
( A A' ) B
=
+
mat((ϕ ϕ ' ) ψ , B G , B F ) = mat(ϕ ψ + ϕ 'ψ , B G , B F )
= mat(ϕ ψ , B G , B F ) + mat(ϕ 'ψ , B G , B F )
= A × B + A'× B (On procède de la même manière pour les autres formules) La démonstration directe sans passer pas les applications linéaires est pénible. Remarque : I p s’appelle la matrice unité d’ordre p. Attention : il n’y a pas commutativité en général • A × B peut être défini mais pas B × A Exemple : A de type (n, p ) , B de type ( p, q ) avec q ≠ n
• A × B et B × A peuvent être définies mais pas de même type Exemple : A de type (n, p ) , B de type ( p, n) avec p ≠ n • A × B et B × A peuvent être définies, de même type mais différentes. Exemple : A de type (n, n ) , B de type (n, n ) :
1 − 1 1 2 0 0 × = 7 − 7 1 2 0 0 1 2 1 − 1 15 − 15 − 15 1 2 × 7 − 7 = 15 Il n’y a pas intégrité non plus (voir exemple ci-dessus)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
47 47/167
5/14/2018
Alg brelin aire-slidepdf.com
XXI La K-algèbre M n(K) A) Rappel • M n (K ) = M n, n (K ) : ensemble des matrices d’ordre n à coefficients dans K. K-algèbre est un ensemble A muni de deux lois de composition interne +, • Une × et d’une loi à opérateurs dans K tels que : - ( A,+, .) est un K-ev. - × est associative, distributive sur + et, pour tout λ ∈ K , pour tous, a, b ∈ A , (λ a ) × b = λ .( a × b) = a × (λ .b)
- il existe un neutre 1 A pour × (exemples : K , F(K , K ), K [ X ] )
B) Théorème • ( M n (K ), +, ×, .) est une K-algèbre • Si E est un K-ev de dimension n muni d’une base B E , alors l’application φ B : L( E ) → M n (K ) est un isomorphisme de K-algèbre. ϕ ֏ mat(ϕ ,B E ) ( ( L( E ), +, , .) est une K-algèbre) E
Démonstration : • On sait que ( M n (K ), +, .) est un K-ev (de dimension n 2 ). De plus, selon le paragraphe précédent, × est une loi de composition interne sur M n (K ) , associative, distributive sur +, admet comme élément neutre I n , et « les scalaires sortent des produits ». • On sait déjà que φ B E est un isomorphisme de K-ev. De plus, pour tous
ϕ ,ψ ∈ L( E ) : φ B (ϕ ψ ) = mat (ϕ ψ , B E ) = mat (ϕ , B E ) × mat (ψ , B E ) = φ B (ϕ ) × φ B (ψ ) , et E
E
E
φ B (Id E ) = mat (Id E , B E ) = I n E
Remarque : si on note
B ' E
une autre base de E , alors l’application
L( E ) → M n (K ) est toujours un isomorphisme de K-ev mais plus de K-algèbre ϕ ֏mat(ϕ ,B E ,B ' E )
(car mat( Id E , B E , B ' E ) ≠ I n ) Exemple : Dans R 2 , B = [(1,0), (0,1)] et B ' = [(1,2), (3,1)]
1 0 1 0 mat(Id E , B ' , B ' ) = 0 1 0 1 1 3 1 − 1 3 mat(Id E , B , B ' ) = mat( Id E , B ' , B ) = 5 2 − 1 2 1 mat( Id E , B , B ) =
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
48 48/167
5/14/2018
Alg brelin aire-slidepdf.com
C) Conséquences : règles de calcul • Règles habituelles de l’anneau ( M n (K ), +, ×) du K-ev ( M n (K ), +, .) « Les scalaires sortent des produits » (C'est-à-dire les règles habituewlles d’une K-algèbre)
• Notation habituelle dans un anneau : A 0 = I n Pour A ∈ M n (K ) , k +1 k ∀k ∈ N , A = A A • Et (toujours dans l’anneau), si A, B ∈ M n (K ) sont deux éléments qui commutent, alors : m
∀m ∈ N , ( A + B ) m = ∑ C mk A k B m − k k = 0
et ∀m ∈ N *, A − B m
m
= ( A − B) × ( A m −1 + A m −2 B + ... + B m−1 )
Exemple :
3 2 1 Soit A = 0 3 2 , calculer A k . 0 0 3 Première méthode : chercher une récurrence en calculant les premières valeurs, puis la monter et donner le résultat. Autre méthode, plus simple : On a en effet : 3 2 1 0 2 1
A = 0
3
2 = 3 I 3 + 0
0 0 3
0
2
0 0 0 B
0 2 1 0 0 4 2 3 On a : B = I 3 B = 0 0 2 B = 0 0 0 B = 0 0 0 0 0 0 0 0
1
Donc, comme I 3 et B commutent ( I 3 commute avec tout le monde), on a : k
A k = (3 I 3 + B ) k =
∑
k
C k p (3 I 3 ) k − p B p =
p =0
∑ C (3) p k
k − p
B p
p = 0
( pour k ≥ 2) = C k 0 3k −0 B 0 + C k 1 3k −1 B + C k 2 3k −2 B 2
= 3k I 3 + k 3k −1 B +
3 k Donc A = 0 0
k
2k 3
k −1
k 3
k −1
k (k − 1)
2
3k − B 2
2
+ 2k (k − 1)3k −2
3k
2k 3k −1
0
3k
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
49 49/167
5/14/2018
Alg brelin aire-slidepdf.com
XXII Transposition A) Définition Soit A ∈ M n , p (K ) , disons A = (ai , j )1≤i ≤ n . 1≤ j ≤ p
La transposée de A est la matrice A ∈ M p ,n (K ) définie par : t
A = ( a' i , j )1≤i ≤ p où ∀i ∈ [1, n ], ∀ j ∈ [1, p ], a 'i , j = a j ,i
t
1≤ j ≤ n
Exemple : 1 4
A = 2
5
3 6
1 2 3 4 5 6
A = t
B) Propriétés Pour tous A, A'∈ M n , p (K ), B ∈ M p ,q (K ), λ ∈ K : ( ( A)) = A
t t t
t t ( A + A' )= A + A '
t
t (λ A) = λ ( A )
t
t t ( AB ) = B A
Démonstration : pour les trois premiers, c’est immédiat. Pour le quatrième : Notons A = (ai , j )1≤i ≤ n , B = (bi , j )1≤i≤ p , AB = (ci , j )1≤i ≤ n , 1≤ j ≤ p
1≤ j ≤ q
1≤ j ≤ q
A = ( a ' i , j )1≤i ≤ p , B = (b 'i , j )1≤i ≤ q , B A = (c 'i , j )1≤i ≤ q
t
t
t
1≤ j ≤ n
t
1≤ j ≤ p
1≤ j ≤ n
Pour tous i ∈ [1, n ], j ∈ [1, p ], on a : p
c'i , j =
∑
p
b'i , k a' k , j =
∑
k =1
p
bk ,i a j ,k =
k =1
∑a
b
j , k k ,i
= c j ,i
k =1
t t Donc t ( AB ) = B A .
C) Matrices symétriques, antisymétriques Soit A ∈ M n (K ) A est symétrique ⇔ ∀i ∈ [1, n ], ∀ j ∈ [1, n ], ai , j = a j ,i ⇔ A = A t
déf
A est antisymétrique ⇔ ∀i ∈ [1, n ], ∀ j ∈ [1, n ], ai , j = −a j ,i ⇔ A = − A t
déf
Exemple : 1 3 0
3 2 2 est symétrique, 0 2 0
0 − 3 0 3 0 2 est antisymétrique 0 − 2 0
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
50 50/167
5/14/2018
Alg brelin aire-slidepdf.com
Proposition : Les ensembles S n (K ) et An (K ) des matrices symétriques et antisymétriques de M n (K ) forment deux sous-espaces supplémentaires de M n (K ) , de dimensions n( n + 1)
2
et
n( n − 1)
:
2
0 1 … … 0 0 0 … … 0 1 0 … … 0 0 0 … … 0 1 0 0 0 0 0 ⋮ 0 0 1 ⋮ ⋮ 0 1 0 ⋮ S n (K ) = Vect 0 0 ⋱ ⋱ ⋮ , 0 1 ⋱ ⋱ ⋮ , …, 0 0 ⋱ ⋱ ⋮ , 0 0 ⋱ ⋱ ⋮ , … ⋱ 0 0 ⋮ ⋱ 0 0 ⋱ 0 0 ⋮ ⋱ 0 0 ⋮ ⋮ 0 … … 0 0 0 … … 0 0 0 … … 0 0 0 … … 0 0 n ( n −1) n 2
Et cette famille est évidemment libre est génératrice n( n − 1) De même, dim An (K ) = (même famille que S n (K ) en enlevant les n 2 derniers et en remplaçant le 1 « du haut » par -1 dans les autres) Donc dim An (K ) + dim S n (K ) = n 2 De plus, si M ∈ An (K ) ∩ S n (K ) , alors évidemment M = 0 M n ( K ) Donc S n (K ) et An (K ) sont en somme directe, et An (K ) ⊕ S n (K ) = M n (K )
XXIII Matrices inversibles A) Définitions – rappels Soit A ∈ M n (K ) A est inversible ⇔ ∃ B ∈ M n (K ), AB = BA = I n déf
(C’est la définition générale de l’inversibilité pour × dans un anneau) Proposition : Si A ∈ M n (K ) est inversible, alors il existe un et un seul B ∈ M n (K ) tel que AB = BA = I n . Cet élément s’appelle l’inverse de A et est noté A −1 . (la démonstration a
été faite dans le cas général pour un anneau) Définition : l’ensemble des éléments inversibles de M n (K ) est noté GLn (K ) . Il forme un groupe pour la loi ×. (idem, voir cours sur les anneaux) Plus précisément : • GLn (K ) est stable par × : Si A, B ∈ GLn (K ) , alors AB ∈ GLn (K ) et ( AB ) −1 = B −1 A −1 .
• Si A ∈ GLn (K ) , alors A −1 ∈ GLn (K ) et ( A −1 ) −1 = A • I n ∈ GLn (K ) Remarque : si AB = BA , alors A et B sont carrées de même type. Le fait d’avoir choisi M n (K ) pour la définition d’inversibilité n’est donc pas restrictif pour GLn (K ) .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
51 51/167
5/14/2018
Alg brelin aire-slidepdf.com
B) Théorème essentiel Théorème : Soit A ∈ M n (K ) Soit E un K-ev de dimension n, muni d’une base B . E
Soit E ’ un K-ev de dimension n, muni d’une base B E ' . Soit ϕ ∈ L ( E , E ' ) de matrice A dans les bases B E et B E ' . Alors A est inversible si et seulement si ϕ est bijective. Si c’est le cas, A −1 est la matrice de ϕ −1 dans les bases B E ' et B E . Démonstration : • Supposons A inversible : on peut introduire A −1 et l’application linéaire ψ : E ' → E de matrice A −1 dans les bases B E ' et B E . Alors ϕ ψ = Id E et
ψ ϕ = Id E ' En effet : mat(ϕ ψ , B E ' , B E ' ) = mat(ϕ , B E , B E ' ) × mat(ψ , B E ' , B E ) = A × A−1 = I n mat(ψ ϕ , B E , B E ) = mat(ψ , B E ' , B E ) × mat(ϕ , B E , B E ' ) = A−1 × A = I n
Donc ϕ est bijective et ϕ −1 = ψ
• Supposons ϕ bijective. On introduit ϕ −1 et B = mat(ϕ −1 , B E ' , B E ) . Alors : A × B = mat(ϕ , B E , B E ' ) × mat(ϕ −1 , B E ' , B E )
= mat(ϕ ϕ −1 , B E ' , B E ' ) = mat(Id E ' , B E ' , B E ' )
= I n B × A = mat(ϕ −1 , B E ' , B E ) × mat(ϕ , B E , B E ' )
= mat(ϕ −1 ϕ , B E , B E ) = mat(Id E , B E , B E )
= I n Donc A est inversible et A −1 = B Cas particulier : Théorème : Soit E un K-ev de dimension n, muni d’une base B. Soit ϕ ∈ L ( E ) , A = mat(ϕ , B ) Alors A est inversible si et seulement si ϕ est bijective, et dans ce cas A −1 = mat(ϕ −1 , B )
Conséquence : Soit E un K-ev de dimension n, muni d’une base B. Alors φ B : GL( E ) → GLn (K ) est un isomorphisme de groupe. ϕ ֏mat(ϕ ,B )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
52 52/167
5/14/2018
Alg brelin aire-slidepdf.com
C) Exemples 1 − 1 . A est-elle inversible, si oui que vaut A −1 ? 2 1
Soit A = ère
1
méthode, exclue : x z . On a les équivalences : Soit B = y t AB = BA = I n ⇔ {système de 8 équations à 4 inconnues ème
2 méthode : Soit ϕ l’endomorphisme de R 2 de matrice A dans la base canonique B 2 . Alors, pour tout ( x, y ) ∈ R 2 , ϕ ( x, y ) = ( x − y,2 x + y ) .
∈
2
R . On a les équivalences : a+b x = 3 x − y = a ϕ ( x, y) = (a, b) ⇔ ⇔ b − 2a 2 x + y = b y = 3 1 / 3 1 / 3 dans B 2 . Donc ϕ est bijective et ϕ −1 a pour matrice − 2 / 3 1 / 3
Soit (a, b)
Donc A −1 =
1 1
1 3 − 2 1
Autre exemple : 2 4 Soit A = 1 2
Soit ϕ ∈ L (R 2 ) de matrice A dans la base canonique B 2 = (i , j )
Alors Im ϕ = Vect (ϕ (i ), ϕ ( j )) = Vect (( 2,1), ( 4,2)) = Vect (( 2,1)) . Donc Im ϕ est de dimension 1. Donc ϕ n’est pas de rang 2, donc ϕ n’est pas bijective, donc A n’est pas inversible.
D) Diverses caractérisations Ici, A ∈ M n (K )
1) Avec les endomorphismes Soit E un K-ev de dimension n, muni d’une base B. Soit ϕ ∈ L ( E ) de matrice A dans la base B. A est inversible ⇔ ϕ est bijective
⇔ ϕ est injective ⇔ ϕ est surjective
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
53 53/167
5/14/2018
Alg brelin aire-slidepdf.com
2) Avec les colonnes A est inversible ⇔ Ses colonnes forment une base de M n,1 (K ) Car M ( K ) est n ,1 de dimension n
⇔ Ses colonnes forment une famille libre ⇔ Ses colonnes forment une famille génératrice de M n,1 (K )
Démonstration de la première équivalence : Soit φ l’endomorphisme de M n ,1 (K ) de matrice A dans la base naturelle de
M n ,1 (K ) : E 1
1 0 , E = ⋮ 2 0
0 1 ,..., E = n ⋮ 0
0 0 = ⋮ 1
Alors : A est inversible ⇔ φ est bijective
⇔ [φ ( E ), φ ( E ),...φ ( E )] est une base de M (K ) Or, pour tout j ∈ [1, n ], φ ( E j ) n’est autre que la j-ème colonne de A. 1
2
n
n ,1
Généralisation : Soit E un K-ev de dimension n, muni d’une base B = (e1 , e2 ,...en ) . Pour tout j ∈ [1, n ] , on note v j le vecteur de E dont les composantes dans B sont données par la j-ème colonne de A. Alors : A est inversible ⇔ [v1 , v2 ,...vn ] est une base de E La démonstration est la même en prenant φ ∈ L( E ) de matrice A dans la base B (puisque ∀ j ∈ [1, n ], v j = φ (e j ) ) Cas particulier : si E = K n et B est la base canonique de K n . Les v j sont appelés les vecteurs colonnes (c'est-à-dire les colonnes vues comme n-uplets)
3) Avec les systèmes 1
b A est inversible ⇔ pour tout B = ⋮ ∈ M n ,1 (K ) le système ( S ) : AX = B , b n x1 où X = ⋮ est la colonne des inconnues, a une unique solution. x n En effet : (S) traduit l’assertion « φ est bijectif, où φ est un endomorphisme d’un K-ev E de matrice A dans une base B »
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
54 54/167
5/14/2018
Alg brelin aire-slidepdf.com
En effet : Si φ ∈ L( E ) , mat (φ , B ) = A , B = (e1 , e2 ,...en ) , alors : A inversible ⇔ φ est bijective
⇔ ∀b ∈ E , ∃! x ∈ E , φ ( x ) = b
⇔ ∀(b1 , b2 ,...bn ) ∈ K n , ∃!( x1 , x2 ,... xn ) ∈ K n , φ ( x ) = b ⇔ ∀(b1 , b2 ,...bn ) ∈ K n , ∃!( x1 , x2 ,... xn ) ∈ K n , AX = B Définition : Un système AX = B où :
A ∈ GLn (K ) B ∈ M n ,1 (K ) X ∈ M (K ) est la colonne des inconnues n ,1 est appelé un système de Cramer. Il admet l’unique solution X = A −1 B
4) Inversibilité à droite ou à gauche seulement Théorème : A est inversible ⇔ ∃ B ∈ M n (K ), AB = I n
⇔ ∃ B ∈ M n (K ), BA = I n
Et dans ces cas là B = A −1 Démonstration : déjà, les implications de gauche à droite sont évidentes. ère
1 équivalence : Supposons qu’il existe B ∈ M n (K ) tel que AB = I n Soit E un K-ev de dimension n, muni d’une base B. Soit ϕ ∈ L ( E ) de matrice A dans la base B. Soit ψ ∈ L( E ) de matrice B dans la base B. Alors ϕ ψ = Id E Donc ϕ est surjective : tout élément v de E s’écrit ϕ (ψ (v )) . Donc ϕ est bijective. Donc A est inversible. Et on a : AB = I n ⇒ A−1 AB = A−1 ⇒ B = A −1 . 2
ème
équivalence : on introduit les mêmes éléments.
ψ ϕ = Id E . Donc ϕ est injective : = ⇒ = ⇒ = (ϕ ( x)) x' x ϕ ( x' ) ϕ ( x) ψ (ϕ ( x' )) ψ Donc ϕ est bijective. Donc A est inversible…
5) Transposition Proposition : t A est inversible ⇔ A est inversible 1 1 t Et dans ce cas, ( A ) − = t ( A− ) .
Démonstration : Supposons A inversible : AA −1 = A−1 A = I n
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
55 55/167
5/14/2018
Alg brelin aire-slidepdf.com
Alors : t ( AA −1 ) = t ( A −1 A) = t I n ;
( A −1 ) t ( A)= t ( A) t ( A −1 ) = I n
t
Donc t A est inversible, d’inverse t ( A −1 ) . Réciproquement, si t A est inversible, alors t ( t A) est inversible, c'est-à-dire que A est inversible. Conséquence : A est inversible ⇔ Ses lignes forment une base de M 1, n (K )
⇔ Ses lignes forment une famille libre ⇔ Ses lignes forment une famille génératrice de M 1, n (K )
⇔ la famille de ses vecteurs lignes (∈ K n !!) est... (Les vecteurs lignes de A sont les vecteurs colonnes de t A )
E) Exemples importants 1) Les matrices diagonales On note Diag n (K ) l’ensemble des matrices diagonales d’ordre n à coefficients dans K. (attention, ce n’est pas une notation standard !) Alors Diag n (K ) est une sous algèbre de M n (K ) (et même commutative) Proposition : Soit A ∈ Diag n (K ) :
λ 1 0 … 0 0 λ 2 ⋱ ⋮ A = . ⋮ ⋱ ⋱ 0 0 … 0 λ n Alors A est inversible si et seulement si ∀i ∈ [1, n ], λ i ≠ 0 , et dans ce cas :
λ 1−1 0 … 0 λ −21 ⋱ −1 A = ⋮ ⋱ ⋱ 0
…
0
0
⋮ 0
λ −n1
Démonstration : Si un des λ i est nul, la colonne C i est nulle, donc la famille des
• •
colonnes de A n’est pas libre. Donc A n’est pas inversible. Si aucun des λ i , on introduit la matrice proposée (on la nomme B), et alors AB = BA = I n . Donc A est inversible et A−1 = B
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
56 56/167
5/14/2018
Alg brelin aire-slidepdf.com
2) Les matrices triangulaires supérieures On note TS n (K ) l’ensemble des matrices triangulaires supérieures d’ordre n à coefficients dans K, c'est-à-dire du type (ai , j )1≤i ≤ n où i > j ⇒ ai , j = 0 . (la 1≤ j ≤ n
notation n’est pas standard non plus) Alors TS n (K ) est une sous algèbre de M n (K ) (mais non commutative) Proposition : Soit A = (ai , j )1≤i ≤ n ∈ TS n (K ) 1≤ j ≤ n
Alors A est inversible si et seulement si ses coefficients diagonaux sont tous non nuls. Démonstration :
•
Si les a i ,i sont tous non nuls : * _ _ _
0 * _ _ A = (* désigne un scalaire non nul) ⋮ ⋱ ⋱ _ 0 … 0 * Alors la famille de ses colonnes (C 1 , C 2 ...C n ) est libre : Si λ 1C 1 + λ 2C 2 + ... + λ nC n = 0 , alors, avec le dernier coefficient, λ n an , n = 0 . Donc λ n = 0 (car an ,n ≠ 0 ), et ainsi de suite… Si l’un des a i ,i est nul : C 1 , C 2 ...C i sont i éléments d’un ensemble de dimension i − 1 , à savoir
•
x⋮1 l’ensemble des colonnes du type xi0−1 (qui est Vect ( E 1 , E 2 ,... E i −1 ) , où ⋮ 0 ( E 1 , E 2 ,... E n ) est la base naturelle de M n ,1 (K ) ) Donc (C 1 , C 2 ...C i ) est liée. Donc A n’est pas inversible. D’où l’équivalence. Remarque : on peut montrer que si une matrice triangulaire supérieure est inversible, alors l’inverse de cette matrice est aussi triangulaire supérieure.
3) Matrice triangulaire inférieure On a le même résultat que pour les matrices triangulaires supérieures, avec la même démonstration (ou en remarquant que A est triangulaire supérieure si et seulement si t A est triangulaire inférieure…)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
57 57/167
5/14/2018
Alg brelin aire-slidepdf.com
x1 b1 Conséquence : Un système ( S) carré (c'est-à-dire du type A × ⋮ = ⋮ , x b n n x1 où ⋮ est la colonne des inconnues) qui est triangulaire (c'est-à-dire que A est x n triangulaire) sans 0 sur la diagonale est de Cramer (c'est-à-dire qu’il admet une et une seule solution) Exemple : λ 1 x1 + ……………… = b1
λ 2 x 2 + ……… = b2
⋱
λ n xn = bn
- Le système admet une et une seule solution lorsque les coefficients diagonaux sont tous non nuls. - Si l’un des λ i est nul, le système n’a pas une et une seule solution. En effet : supposons l’un des λ i nul. On note k = min{i ∈ [1, n ], λ i = 0} Si k = n (c'est-à-dire λ n = 0 et ∀i < n, λ i ≠ 0 )
•
Alors : - Si bn ≠ 0 , le système est incompatible. - Si bn = 0 , alors on voit qu’on peut fixer x n quelconque et obtenir une solution ( x1 , x 2 ... x n ) à (S) en résolvant le système (S’) composé des n − 1 premières équations et considéré comme d’inconnues x1 , x 2 ... x n −1
• o o
((S’) a une unique solution puisque triangulaire sans 0 sur la diagonale). Donc (S) a une infinité de solutions (avec 1 degré de liberté) Sinon, soit (S’’) le système « sous » (strictement) l’équation n°k , en tant que d’inconnues x k +1 , x k + 2 ...xn . Si (S’’) est incompatible, alors (S) l’est aussi. Si (S’’) est compatible :
- Si aucune des solutions de (S’’) ne satisfait la k -ième ligne, alors (S) est incompatible. - Sinon, l’une au moins, ( x k +1 , x k + 2 ...xn ) par exemple, des solutions de ( S’’) satisfait la k -ième ligne : on peut alors fixer arbitrairement x k et obtenir une solution ( x1 , x2 ,... xk , xk +1...xn ) en résolvant le système (S’’’) au-dessus (strictement) de la k -ième ligne, qui est de Cramer en tant que d’inconnues x1 , x 2 ,... x k . Donc (S) a une infinité de solutions (avec au moins un degré de liberté)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
58 58/167
5/14/2018
Alg brelin aire-slidepdf.com
Autre argument :
x1 b1 ( S ) : AX = B , avec A ∈ M n (K ) , X = ⋮ , B = ⋮ . x b n n On va voir plus généralement que si A ∈ GLn (K ) , alors soit ( S) n’a pas de solution, soit il en a une infinité (pour K infini seulement) En effet : Si (S) n’a pas de solution, alors il n’a pas de solution… ! • Sinon, il admet une solution X 0 . Montrons alors qu’il en a d’autres. • A n’est pas inversible. Soit ϕ l’endomorphisme canoniquement associé à A. Donc ϕ n’est pas injectif. Donc ker ϕ ≠ {0}. Donc l’équation AX = 0 M n ( K ) a des solutions autres que 0. Alors les X 0 + λ U , où U est une solution non nulle de AX = 0 M n ( K ) et λ ∈ K sont des solutions de (S). En effet : A × ( X 0 + λ U ) = A × X 0 + λ AU = B + 0 = B
XXIV Changement de base A) Changement de base : matrice de passage, composantes d’un vecteur E est ici un K-ev de dimension n. Soit B = (e1 , e2 ...en ) une base de E . (« ancienne »)
= Soit B ' (e'1 , e' 2 ...e' n ) une autre base de E . (« nouvelle ») On suppose qu’on connaît les composantes des e' j dans la base B. (d’où le nom d’ancienne et de nouvelle). Alors la matrice qui donne, par colonne, les composantes des vecteurs de B’ dans la base B s’appelle la matrice de passage de B à B’. Ainsi : P = matrice de passage de B à B '.
= la matrice des (ai , j ) de sorte que ∀ j ∈ [1, n ], e' j =
n
∑a
i , j
ei
i =1
notée mat ( B ' , B ) (matrice de la famille B’ dans la base B) Proposition : P = mat(Id E , B ' , B ) (attention, la base de départ est B’)
P
−1
Conséquence : si P est la matrice de passage de B à B’, alors P est inversible, et est la matrice de passage de B’ à B. En effet : Id E ∈ GL( E ) . Donc mat(Id E , B ' , B ) est inversible, d’inverse
mat (Id -1 E , B , B ' ) = mat ( Id E , B , B ' ) qui est la matrice de passage de B’ à B. Remarque : si B est une base de E et F une famille de n vecteurs de E , alors F est une base de E si et seulement si la matrice qui donne par colonne les composantes des vecteurs de F dans la base B est inversible.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
59 59/167
5/14/2018
Alg brelin aire-slidepdf.com
Théorème : Soit B une base de E , B’ une autre base de E . Soit P la matrice de passage de B à B’. Soit u ∈ E , X la colonne de ses composantes dans B, X ’ celle de ses composantes dans B’. Alors X = PX ' (on obtient les anciennes en fonction des nouvelles) Démonstration : u = u donc u = Id E (u) c'est-à-dire X = PX ' (la base de départ est B’ pour Id E !) Autre démonstration : x1 x'1
On note P = (ai , j )1≤i ≤n , X = ⋮ , X ' = ⋮ . On a : 1≤ j ≤ n x x ' n n u=
n
n
∑
∑
j =1
j =1
et u =
x' j e' j =
n
x' j
∑
i =1
n ∑ ai , j x' j ei ∑ i =1 j =1
ai , j ei =
n
∑ x e i
n
i
i =1
x1 x'1 Donc ∀i ∈ [1, n ], xi = ∑ ai , j x' j . Donc ⋮ = P ⋮ j =1 x x' n n n
Exemple : Dans R 2 muni de sa base canonique B = (i , j ) . Soit C la2 courbe d’équation : ( E ) : 2 x + 5 y 2 − 2 xy = 9 dans B (C'est-à-dire que C est l’ensemble des éléments de R 2 dont les composantes ( x, y ) dans B vérifient ( E ))
Soit I = 2i + j , J = i − j alors B ' = ( I , J ) est une nouvelle base de R 2 . On cherche l’équation de C dans B’. 2 1 Matrice de passage de B à B’ : 1 − 1
x Soit u ∈ R 2 , de composantes dans B et y x 2 = Alors y 1
x' dans B’. y '
1 x '
− 1 y '
On a les équivalences : 2 2 u ∈ C ⇔ 2 x + 5 y − 2 xy = 9
⇔ 2(2 x'+ y ' ) 2 + 5( x'− y ' ) 2 − 2(2 x'+ y ' )( x'− y ' ) = 9 ⇔ 8 x' 2 +8 x' y'+2 y ' 2 +5 x' 2 −10 x' y '+5 y ' 2 −4 x' 2 +2 y ' 2 +2 x' y ' = 9 ⇔ 9 x' 2 +9 y ' 2 = 9 ⇔ x' 2 + y ' 2 = 1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
60 60/167
5/14/2018
Alg brelin aire-slidepdf.com
Aspect :
B) Les formules de changement de base pour une application linéaire Théorème : Soit E un K-ev de dimension p, et B E , B ' E deux bases de E . Soit P la matrice de passage de B E à B ' E . Soit F un K-ev de dimension n, et B F , B ' F deux bases de F . Soit Q la matrice de passage de B F à B ' F . Soit ϕ ∈ L( E , F ) , soit A = mat(ϕ , B E , B F ) , A' = mat(ϕ , B ' E , B ' F ) . −1 Alors A' = Q AP
Démonstration : ϕ = Id F ϕ Id E Donc mat(ϕ , B ' E , B ' F ) = mat(Id F , B F , B ' F ) × mat (ϕ , B E , B F ) × mat( Id E , B ' E , B E )
=
−1
' Qintroduction AP Autre démonstration A (sans des notations) : Y = AX , Y ' = A' X ' X = PX ' Y = QY ' Donc QY ' = APX ' . Donc Y ' = Q −1 APX ' . Or Y ' = A' X ' . Donc A' = Q −1 AP Cas particulier : Soient ϕ ∈ L( E ) , B et B’ deux bases de E , et P la matrice de passage de B à B’. Soient A = mat (ϕ , B ) , A' = mat (ϕ , B ' ) Alors A' = P −1 AP .
XXV Matrices équivalentes et rang A) Rang d’une matrice Soit A ∈ M n , p (K ) . rg ( A) = le rang de la famille de ses colonnes. déf
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
61 61/167
5/14/2018
Alg brelin aire-slidepdf.com
Proposition : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit ϕ ∈ L( E , F ) de matrice A dans les bases B E et B F . Soit (v1 , v2 ,...v p ) une famille de vecteurs de F dont les composantes dans B F sont les colonnes de A. Alors rg ( A) = rg (v1 , v 2 ,...v p ) = rg (ϕ ) Démonstration : On a l’isomorphisme φ de M n ,1 (K ) dans F qui envoie la base naturelle ( E 1 , E 2 ,... E n ) de M n ,1 (K ) sur B F . C'est-à-dire : φ : M n ,1 (K ) → F x1 ⋮ xn
n
֏∑ xi f i i =1
Alors les v j ne sont autres que les φ (C j ) (où C 1 , C 2 ,...C p sont les colonnes de A) Or, φ conserve le rang (c’est un isomorphisme) Donc rg ( A) = rg (C 1 , C 2 ,...C p ) = rg (v1 , v2 ,...v p ) déf
Or, les v j sont les ϕ (e j ) , et on sait que rg (ϕ ) = rg (ϕ (e1 ), ϕ (e2 ),...ϕ (e p )) Donc rg ( A) = rg (v1 , v 2 ,...v p ) = rg (ϕ ) Conséquences : Si A ∈ M n , p (K ) et si r = rg( A) , alors r ≤ n (rang d’une famille de vecteurs dans un espace de dimension n) et r ≤ p (rang de p vecteurs) A est inversible si et seulement si r = n = p A est nulle si et seulement si r = 0
B) Matrice équivalente Définition : Soient A, B ∈ M n , p (K ) . On dit que B est équivalente à A lorsqu’il existe −1
P ∈ GL p (K ) et Q ∈ GLn (K ) telles que B = Q AP -1 (remarque : le n’est que décoratif : si Q est GLn (K ) , Q ' = Q −1 y est aussi)
Proposition : Soient A, B ∈ M n , p (K ) Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit ϕ ∈ L( E , F ) de matrice A dans les bases B E et B F . Alors B est équivalente à A si et seulement si il existe une base B ' E de E et B ' F de F telles que B soit la matrice de ϕ dans les bases B ' E et B ' F .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
62 62/167
5/14/2018
Alg brelin aire-slidepdf.com
En résumé, une matrice B est équivalente à A si et seulement si elles représentent la même application linéaire dans des bases différentes. Démonstration : Si on trouve B ' E et B ' F telles que B = mat(ϕ , B ' E , B ' F ) , alors B = Q −1 AP où Q est la matrice de passage de B F à B ' F et P la matrice de passage de B E à B ' E . Inversement : si B = Q −1 AP , on peut introduire une base B ' E de E telle que P soit la matrice de passage de B E à B ' E , et une base B ' F de F telle que Q soit la matrice de passage de B F à B ' F . Ainsi, B = mat(ϕ , B ' E , B ' F ) . Proposition : La relation « être équivalente à » sur M n , p (K ) est une relation d’équivalence, c'est-à-dire réflexive, transitive et symétrique : Réflexive : A = I n−1 AI n Symétrique : Si B = Q −1 AP , alors A = QBP −1 = (Q −1 ) −1 B( P −1 ) Transitive : Si B = Q −1 AP et C = R −1 BS , alors : C = R −1 BS = R −1 (Q −1 AP) S = ( R −1Q −1 ) A( PS ) = (QR) −1 A( PS )
C) Théorème Soient A, B ∈ M n , p (K ) . Alors : A et B sont équivalentes ⇔ rg ( A) = rg ( B )
Démonstration : (1) Si A et B sont équivalentes : Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit ϕ ∈ L( E , F ) de matrice A dans les bases B E et B F . Donc il existe une base B ' E de E et B ' F de F telles que B soit la matrice de ϕ dans les bases B ' E et B ' F . C'est-à-dire : A = mat(ϕ , B E , B F ) et B = mat(ϕ , B ' E , B ' F ) Donc rg ( A) = rg (ϕ ) = rg ( B ) (2) Supposons que rg ( A) = rg( B ) = r Lemme : Soit A ∈ M n , p (K ) , notons r = rg ( A) On va montrer que A est équivalente à : 1 0 … … … … 0
0 ⋱ ⋱ ⋮ ⋱ 1 J n, p ,r = 0 ⋮ ⋮ … … 0
⋮ r ⋮
0
⋱ ⋱ ⋱ ⋮
n
… … … 0
0
⋱
⋮
r p
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
63 63/167
5/14/2018
Alg brelin aire-slidepdf.com
γ i ,i = 1 si i ≤ r C'est-à-dire J n , p , r = (γ i , j )1≤i ≤ n où 1≤ j ≤ p γ i , j = 0 si i ≠ j ou (i = j et i > r ) Soit E un K-ev de dimension p, muni d’une base B E . Soit F un K-ev de dimension n, muni d’une base B F . Soit ϕ ∈ L( E , F ) de matrice A dans les bases B E et B F . Alors rg (ϕ ) = r . Donc dim(ker ϕ ) = p − r . Soit (u r +1 ,...u p ) une base de ker ϕ . Soit G un supplémentaire de ker ϕ dans E . Donc dim(G ) = r . Soit (u1 ,...u r ) une base de G. Alors B ' E = (u1 ,...u r , u r +1 ,...u p ) est une base de E . Soient v1 ,...vr les images par ϕ de u1 ,...u r . Alors (v1 ,...v r ) est libre. En effet :
α 1v1 + α 2v2 + ... + α r vr = 0 ⇒ ϕ (α 1u1 + α 2u 2 + ... + α r ur ) = 0 1 1
2
2
⇒ α u + α u + ... + α u ∈ ker ϕ ∩ G ⇒ α 1u1 + α 2u2 + ... + α r u r = 0 r r
⇒ ∀i ∈ [1, r ], α i = 0 On complète alors cette famille en une base de F : B ' F = (v1 ,...vn ) Ainsi, par construction : J n , p , r = mat (ϕ , B ' E , B ' F ) Donc A est équivalente à J n , p , r D’où, pour la démonstration du théorème : A et B sont toutes les deux de rang r , donc équivalentes à J n , p , r . Donc A et B sont équivalentes. Théorème : Soit A ∈ M n , p (K ) . Alors rg ( A) = rg( t A) : Notons r = rg( A) . Alors, comme J n , p ,r est de rang r , A est équivalente à J n , p , r . Il −1
existe donc P ∈ GL p (K ) et Q ∈ GLn (K ) tels que A = Q J n , p , r P − Donc A= P J n , p ,r (Q ) . Or, t
t
t
t
1
P ∈ GL p (K ) ,
t
(Q −1 ) =(t Q) −1 et
t
Q ∈ GLn (K ) et
t
J n , p ,r = J p , n ,r (qui est de rang r )
t
t Donc t A est équivalente à une matrice de rang r . donc rg ( A ) = r
Donc rg ( A) = rg ( t A) . Ainsi, le rang d’une matrice est aussi le rang de la famille de ses lignes. Recherche pratique du rang : 1 2 3 − 1 0
2 A = 3 4 1
0
1
2
1
0
0
1
3 . Quel est le rang de A ?
0
0
1
1
0
0
0
1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
64 64/167
5/14/2018
Alg brelin aire-slidepdf.com
Remarque : on a vu que, étant donnés (v1 ,...v n ) vecteurs d’un K-ev E , les modifications du type • vi ← λ .vi avec λ ≠ 0 ne modifient pas Vect (v1 ,...vn ) et par • vi ←vi +α .v j avec i≠ j • vi ↔v j conséquent le rang. On va utiliser cette remarque sachant que le rang d’une matrice est celui de ses colonnes, mais aussi celui de ses lignes. Donc : 0 2 3 − 1 − 1 0 2 3 − 1 − 1
0 rg( A) rg 0 = ↑ L4 ← L4 −4 L5 0 L3 ← L3 −3 L5 1 L2 ← L2 −2 L5
1
2
1
0
0
1
0
0
1
0
0
0
0 0 = rg 0 ↑ − 3 L ↔ L 0 4 2 1 1
− 2
− 3
0
0
1
0
0
1
0
1
2
1
− 2
0
0
0
1
L1← L1 − L5
0 0 rg 0 = ↑ L1← L1 −2 L4 0 1
0 0
− 1 − 3 − 3 0 1 − 3
0
0
1
1
2
1
0
0
0
0 0 rg 0 = 0 ↑ − 2 L ↔ L 0 3 1 1 L1← L11− L2 1 L ← L 1
0 0 0
0 0
0 1
−1 − 3
1
− 3
3 =5
1
2
1
− 2
0
0
0
1
3 1
XXVI Transformations élémentaires A) Sur les colonnes On note C p l’ensemble des matrices à p colonnes. Une transformation élémentaire T C sur les colonnes d’une matrice à p colonnes est une application T C : C p → C p où A’ A֏ A' est déduite de A par l’une des opérations suivantes : * ci ← λ ci avec λ ≠ 0
* ci ← ci + α c j avec i ≠ j * ci ↔ c j Théorème : Soit T C une transformation élémentaire sur les colonnes d’une matrice à p colonnes. Alors il existe une et une seule matrice
P ∈ GL p (K )
telle que
∀ A ∈ C p , T C ( A) = A × P Démonstration : Soit A ∈ M n , p (K ) Soit E un K-ev de dimension p, muni d’une base B E = (e1 , e2 ,...e p ) . Soit F un K-ev de dimension n, muni d’une base B F = ( f 1 , f 2 ,... f n ) . Soit ϕ ∈ L( E , F ) tel que A = mat(ϕ , B E , B F ) Soit A' = T C ( A)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
65 65/167
5/14/2018
Alg brelin aire-slidepdf.com
• Si T C est la transformation ci ← λ ci avec λ ≠ 0 . On voit alors que A' = mat(ϕ , B ' E , B F ) Où B ' E = (e1 , e2 ,...λ ei ...e p ) Selon les formules de changement de base, A' = I n−1 AP = AP , où P est la matrice 1 0 … … 0 ⋮ 0 ⋱ ⋱ de passage de B E à B ' E , c'est-à-dire P = ⋮ ⋱ λ ⋱ ⋮ ← i = I p + (λ − 1) E i ,i ⋱ ⋱ 0 ⋮ 0 … … 0 1
• Si T C est la transformation ci ← ci + α c j avec i ≠ j Alors, de même, A' = mat(ϕ , B ' E , B F ) avec B ' E = (e1 , e2 ,...ei + α .e j ...e p )
1 0 … … 0 1 α −1 A' = I n AP = AP où P = ⋮ ⋱ 1 ⋱ ⋱ ⋱ ⋮ 0 … … 0
0
⋮ ← j = I p + α . E j ,i ⋮
0
1
↑ i
• Si T C est la transformation ci ↔ c j A' = mat(ϕ , B ' E , B F ) avec B ' E = (e1 , e2 ,... e j ... ei ...e p ) j
i
1
0
… … … 0
0 ⋱ ⋱ ⋮ 0 0 ⋱ 1 −1 A' = I n AP = AP où P = ⋱ ⋱ ⋱ ⋮ ⋮ 1 ⋱ 0 0 … … … 0 ↑
↑
i
j
⋮
⋮←i
⋮
= I p − E j , j − E i ,i + E j ,i + E i , j
0 ← j 1
D’où l’existence Unicité : Si P convient, on a nécessairement : T C ( I p ) = I p P = P . Donc P est l’image de l’identité.
B) Transformation élémentaire sur les lignes Soit Ln l’ensemble des matrices à n lignes. Une transformation élémentaire T L sur les lignes d’une matrice à n lignes est une application T L : Ln → Ln où A’ est déduite de A֏ A' A par l’une des transformations suivantes : * l i ← λ li avec λ ≠ 0
← i + j ≠ l α l avec i j * li * li ↔ l j
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
66 66/167
5/14/2018
Alg brelin aire-slidepdf.com
Théorème : Soit T L une transformation élémentaire sur les lignes des matrices à n lignes. Alors il existe une et une seule matrice Q ∈ GLn (K ) telle que ∀ A ∈ Ln , T L ( A) = Q × A Démonstration : On peut refaire la même démonstration que précédemment (attention, c’est B F qui sera alors changé), ou alors : Soit A ∈ M n , p (K ) , on note A' = T L ( A) . Alors il est évident que t A' est obtenue à partir de t A par une transformation élémentaire sur les colonnes (correspondant à T L ). t Donc il existe P ∈ GLn (K ) tel que t A' =( A ) × P . Donc A' =
P × A
t
∈GLn ( K )
Remarque : Si ∀ A ∈ Ln , T L ( A) = Q × A , alors Q = T L ( I n )
C) Intérêt de ces théorèmes (1) On retrouve le fait qu’une transformation élémentaire sur les lignes/colonnes d’une matrice conserve son rang. En effet, une matrice A sera changée, par succession de transformations, en A' = Ql ...Q1 AP1 ...Pk donc A’ est équivalente à A, donc de même rang.
∈GLn ( K )
∈GL p ( K )
(2) On voit ce qui se passe quand on fait des transformations élémentaires sur les lignes d’un système : nd Soit ( S ) : AX = B ( A : « matrice du système », B : « matrice du 2 membre »)
1 x Avec A = ( ai , j )1≤i ≤n ∈ M n , p (K ), B = ⋮ ∈ M n,1 (K ), X = ⋮ ∈ M p ,1 (K ) 1≤ j ≤ p x b n p a1,1 x1 + a1, 2 x2 + ... + a1, p x p = b1 a x + a x + ... + a x = b 2,1 1 2, 2 2 2 , p p 2 Alors ( S ) : ⋮ an ,1 x1 + an, 2 x2 + ... + an , p x p = bn 1 b
Faire une transformation élémentaire sur les lignes, c’est simplement écrire : AX = B ⇔ A' X = B' où A’ et B’ sont déduites de A et B par une même transformation T L sur les lignes. Autrement dit, c’est écrire AX = B ⇔ QAX = QB où Q ∈ GLn (K ) .
Transformation sur les colonnes d’un système : déconseillée. Exemple : 2 x + y + z = a 2 1 1 x a
( S ) : 2 x − y
= b A = 2 − 1 0 ( S ) : A y = b 5 0 0 z c =c
5 x z + y + 2 x = a 1 1 2 z a ⇔ ( S ' ) : − y + 2 x = b A' = 0 − 1 2 (S ' ) : A' y = b x c 5 0 0 5 = x c
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
67 67/167
5/14/2018
Alg brelin aire-slidepdf.com
XXVII Retour à la méthode du pivot A) Cas des matrices inversibles Proposition : Soit A ∈ GL (K ) . Alors il existe une suite de transformations élémentaires sur les n
lignes qui conduit à I n Exemple 1 : 1 4 3
3 3 1 4 1 4 A = 2 5 2 → A1 = 0 − 3 − 4 → A2 = 0 − 3 − 4 ↑ ↑ 3 6 0 3 − 6 − 9 0 0 −1 L2 ← L2 −2 L1 L3 ← L3 −2 L2 L3 ← L3 −3 L1
On voit ici que A car rg( A)(= rg( A1 )) = rg( A2 ) = 3 . On continue :
1 A2 = 0 0
4
3
1
0
4
1 4 0
− 3 − 4 → 0 − 3 0 → 0 1 0 → I 3 ↑ ↑ ↑ 0 − 1 L ← L −4 L 0 0 − 1 L ←−1 L 0 0 1 L ← L −4 L 2 2 3 1 1 2 2 3 2 L1← L1 − L3 L3 ←− L3
Exemple 2 : 3 2
4 2 3 4 2 3 4 A = 4 6 7 → 0 0 − 1 → 0 1 3 ↑ − 2 − 2 − 1 ↑ L2 ← L2 −2 L1 0 1 3 L2 ↔ L3 0 0 − 1 L3 ← L3 + L1
→ ↑
L3 ←− L3
2 3 4 2 3 0 → 0 1 0 → I 3 0 1 3 ↑ ↑ 0 0 1 L1← L1 −4 L3 0 0 1 L1← L1 −3 L2 L2 ← L2 −3 L3
L1← 1 L1 2
Démonstration : par récurrence : • Pour n = 1 , ok. • Soit n ≥ 2 . Supposons que pour toute matrice A ∈ GLn −1 (K ) , il existe une succession de transformations élémentaires sur les lignes qui conduit à I n −1 . Soit alors A = (ai , j )1≤i ≤ n ∈ GLn (K ) . (On note Li ses lignes) 1≤ j ≤ n
Alors l’un des a i ,1 est non nul (car A ∈ GLn (K ) ). Un éventuel échange de lignes ramène au cas a1,1 ≠ 0 . Puis les transformations Li ← Li −
a i ,1 a1,1
L1 pour i ∈ [ 2, n ] amènent à :
a1,1 _____ 0⋮
B
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
68 68/167
5/14/2018
Alg brelin aire-slidepdf.com
Alors B est inversible : ses lignes forment une famille libre car sinon on aurait n
∑ λ l
= 0 avec (λ 2 ,...λ n ) ≠ (0,...0) (où l i est la (i-1)-ème ligne de B), et on aurait ainsi
i i
i=2 n
∑ λ L i
i
= 0.
i=2
Les transformations sur les lignes de B reviennent aux mêmes transformations sur les Li ( i ≥ 2 ), et amènent par hypothèse de récurrence à :
a1,1 _____ 0 I n −1 ⋮ Ensuite, les transformations L1 ← L1 − a1, j L j pour j ≥ 2 puis la transformation L1 ←
1 a1,1
L1 amènent à I n
Application : nouvelle présentation pour calculer l’inverse d’une matrice A inversible. 1 4 3
Exemple : A = 2
5
2
3 6 0
ère
1
méthode : point de vue des système. On cherche à résoudre le système x a
AX = B avec X = y et B = b . On a les équivalences :
z c 3 1 4 2 x 1 0 0 a 1 4 1 0 0 AX = B ⇔ 2 5 3 × y = 0 1 0 × b ⇔ 0 − 3 − 4 X = − 2 1 0 B ↑ 3 6 0 z 0 0 1 c − 3 0 1 L2 ← L2 −2 L1 0 − 6 − 9 L3 ← L3 −3 L1
3 − 4 6 −37 1 4 1 0 0 1 0 0 4 ⇔ ⇔ 0 − 3 − 4 X = − 2 1 0 B 0 1 0 X = 2 − 3 3 B ↑ ↑ − 1 2 − 1 − 1 2 − 1 1 L2 ← L2 + 4 L3 0 0 1 L3 ← L3 −2 L2 0 0 L3 ←− L3
L1← L1 −3 L3 L1← L1 + 4 L2 3 L2 ←− 1 L2 3
− 12 18
Donc A
−1
1
= 6 3 − 3
−9 6
− 7
4 − 3
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
69 69/167
5/14/2018
Alg brelin aire-slidepdf.com
Autre présentation :
1 4 3 Soient A, M ∈ M 3 (K ) ( A = 2 5 2 ) 3 6 0 On a les équivalences : 1 4 3
1 0 0 1 0 0 − 12 18 − 7 1 AM = I ⇔ 2 5 2 M = 0 1 0 ⇔ ... ⇔ 0 1 0 M = 6 −9 4 3 3 6 0 0 0 1 0 0 1 − 3 6 − 3 Ainsi, on a trouvé un inverse à droite, donc un inverse de A.
B) Cas d’une matrice quelconque Exemple :
A =
−1 2 1 1
−2
0
− 1 1 2 0 2 −1 1 0 0 → 0 2 1 4 1 2 0 L2 ← L2 + 2 L1 0 − 1 − 2 − 2 − 1 1 L3 ← L3 + L1 0 L ← L + L 4 1 0 −2 0 −2 1 0 0 4 L ← L −2 L 1
2
2
1
3
− 1 0 L3 ←→ L3 − L2 0 L5 ← L5 + L2 0 0
1
2
2 1
2
6
3
3
0 0
0 0
0 0
0 0
0
0
0
1
3
2
2
1
0
6
3
3
0
6
6
6
0
0
0
0
1
− 6 − 3 − 2 0
1
− 1 0 0 0 C ↔ 0 3 →C 6 1 0 0 0 0
1
0
2 1
2
2
0
3
3
6
0 0
0 1
0 0
0 0
0 0
0
0
0
1
0
↑ que des 0 ; on fait un échange de colonne
− 1 0 → 0 L3 ↔ L4 0 0
1
0
2
1
2
0
3
3
0
1
0
0
0
0
0
0
0
0
0
1
− 1 0 → A' = 0 L4 ↔ L5 0 0
1
0
1
2
0
3
0
1
0
0
0
1
0
0
0
− 1 6 0 0 → 0 C 4 ↔C 5 0 0 0 0 2
2 2 3 6 0 0 0 0 0 0
1
0
1
2
2
2
0
3
3
6
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
On voit ici que la matrice A est de rang 4 (puisqu’elle est équivalente à A’). On peut maintenant faire des transformations élémentaires pour se ramener à J 5, 6 , 4 .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
70 70/167
5/14/2018
Alg brelin aire-slidepdf.com
Généralisation, théorème : Soit A ∈ M n , p (K ) , de rang r . Alors : (1) Une succession de transformations élémentaires sur les lignes et,éventuellement, d’échange de colonnes, conduit à une matrice du type : * _ _ _ _ _ _
0 ⋮ 0 ⋮ 0
r _ _
⋱
_
_
_
_
⋱
*
_
_
_
…
0
0 … … 0
⋮
⋮
⋮
… 0 0 … … 0
n
=G
r p
(A adapter quand r = 0 : A = 0 ) (2) Des transformations élémentaires sur les colonnes conduisent alors à J n , p , r On retrouve ainsi le fait que A est équivalente à J n , p , r : J n, p , r = Qm ...Q1 A P1...Pk
∈GLn ( K )
∈GL p ( K )
Remarque : une matrice du type de G s’appelle une réduite de Gauss. Une telle matrice est évidemment de rang r . Par conséquent, si, partant de A de rang inconnu, on arrive à G, on trouve alors le rang de A. Démonstration rapide : Soit A ∈ M n , p (K ) Pour la première de A, si elle nulle : - Soit toutes lescolonne autres colonnes de Aest sont nulles, et alors A = 0 . - Soit une colonne, C j , n’est pas nulle : on fait alors C 1 ↔ C j On peut supposer maintenant C 1 ≠ 0 . Si a1,1 = 0 , on cherche i tel que ai ,1 ≠ 0 (car C 1 ≠ 0 ), et on fait L1 ↔ Li On peut supposer maintenant a1,1 ≠ 0 . On fait ensuite les transformations Li ← Li −
* A1 = 0
⋮
_____
A'
ai ,1 a1,1
L1 (pour i ≥ 2 ), ce qui amène à :
Puis on recommence avec A’, jusqu’à ce qu’on arrive à * _ _ _ _ _ _
0 ⋱ _ _ _ _ _ ⋮ * _ _ _ _ ⋮ 0 ⋮ 0 ⋮ 0 … 0
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
71 71/167
5/14/2018
Alg brelin aire-slidepdf.com
XXVIII Synthèse et compléments sur les systèmes A) Définition Un système linéaire de n équations, p inconnues à coefficients dans K est : a x + a x + ... + a x = b 1,1 1
1, 2
2
1, p p
1
a x + a x + ... + a x = b 2,1 1 2, 2 2 2 , p p 2 (S ) : ⋮ an ,1 x1 + an, 2 x2 + ... + an , p x p = bn
Où la matrice A = (ai , j )1≤i ≤ n ∈ M n, p (K ) est appelée la matrice du système, 1≤ j ≤ p
x1 b1 X = ⋮ la colonne des inconnues et B = ⋮ la colonne du second membre. x b n p Résoudre (S), c’est donner l’ensemble S des solutions, c'est-à-dire l’ensemble des p p-uplets ( x1 ,... x p ) ∈ K tels que les égalités de (S) soient satisfaites.
B) Interprétation p
(S) peut traduire une égalité vectorielle du type
∑ x v i
j
= w où les v j sont les
j =1 a b vecteurs de composantes ⋮ et w le vecteur de composantes ⋮ (dans une base B F 1, j
1
a
b
n , j
n
d’un espace vectoriel F de dimension n, par exemple M n ,1 (K ) avec sa base naturelle) On voit alors que : • (S) admet au moins une solution si et seulement si w ∈ Vect (v1 , v2 ,...v p )
• (S) admet au plus une solution si et seulement si (v1 , v 2 ,...v p ) est libre. En effet (premier point évident) : • Si (v1 , v 2 ,...v p ) est libre :
- si il n’y a pas de solution, on a 0 solutions - si il y en a une, disons ( x1 , x 2 ,... x p ) . Soit ( x'1 , x' 2 ,... x ' p ) une autre solution. p
Montrons que ( x1 , x 2 ,... x p ) = ( x'1 , x' 2 ,...x' p ) . On a
∑ ( x
i
p
i j
j =1 p
∑ x v = ∑ x'
i
v j = w , soit
j =1
− x'i )v j = 0 . Donc ∀k ∈ [1, p ], xk = x' k
j =1
• Si (v1 , v 2 ,...v p ) est liée, il existe (λ 1 , λ 2 ,...λ p ) ≠ (0,0,...0) tel que
p
∑ λ v i
j
= 0.
j =1
Donc si ( x1 , x 2 ,... x p ) est solution de (S), alors ( x1 + λ 1 , x2 + λ 2 ,... x p + λ p ) en est aussi solution.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
72 72/167
5/14/2018
Alg brelin aire-slidepdf.com
Remarque : si (v1 , v 2 ,...v p ) est une base de F , ( n = p ), alors (S) admet une unique
solution quel que soit w
(S) peut traduire une égalité du type ϕ (u ) = w , où ϕ est une application linéaire d’un espace E de dimension p vers un espace F de dimension n et dont la matrice dans
b
1
les bases B E et B F données est A et où w est un élément de F de composantes ⋮
b n
x x
dans B F et où u est un vecteur (inconnu) de composantes ⋮ dans B E (remarque : si 1
p
B E = (e1 , e2 ...e p ) , les v j sont les ϕ (e j ) )
• (S) admet au moins une solution si et seulement si w ∈ Im ϕ . • (S) admet au plus une solution si et seulement si ϕ est injective (même démonstration)
• Si ϕ est bijective (alors n = p ), (S) a une et une seule solution, quel que soit le second membre. • Si ϕ n’est pas bijective, le comportement de (S) dépend du second membre : - Si w ∉ Im ϕ , alors (S) n’a pas de solution - Si w ∈ Im ϕ , alors (S) a au moins une solution. Plus précisément : o Si ϕ est injective, une seule solution. o Sinon, une infinité (pour K infini), et ces solutions sont les {u 0 + n, n ∈ ker ϕ }, où u 0 est une solution fixée de (S). En effet : si u 0
0
0
est solution, alors : u solution ⇔ ϕ (u ) = ϕ (u ) ⇔ u − u ∈ ker ϕ . Cas particulier : n = p ( ϕ est injective ⇔ ϕ est surjective). Si ϕ n’est pas bijective, alors : - Si w ∉ Im ϕ , alors (S) n’a pas de solution - Si w ∈ Im ϕ , alors (S) a une infinité de solutions. (S) peut traduire : ϕ 1 (u ) = b1
ϕ (u ) = b 2 2 ⋮ ϕ n (u ) = bn
Où les ϕ i sont n formes linéaires sur un espace vectoriel E de dimension p : E → K
ϕ i : u
x1 de composantes ⋮ x p
p
֏∑ ai , j x j j =1
Dans le cas particulier d’un système homogène (c'est-à-dire que la colonne du n
second membre est nulle), le système traduit : u ∈ ∩ H i où H i est l’hyperplan ker ϕ i . i =1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
73 73/167
5/14/2018
Alg brelin aire-slidepdf.com
Remarque : dans tout les cas, l’ensemble des solutions de ( S ) : AX = B est l’ensemble des X 0 + U , U ∈ S H où X 0 est une solution de ( S ) et S H l’ensemble des solutions de ( H ) : AX = 0 , homogène associé à (S).
C) Résolution Après méthode du pivot (transformation sur les lignes et, éventuellement, échange d’inconnues), on est ramené à : * _ _ _ _ _ _ x
r 0 ⋱
_
⋮ ⋱ * (S ) : 0 … 0 n − r ⋮ ⋮ 0 … 0
_ _ 0
⋮ 0
1
b1 b _ _ = 2 … … 0 ⋮ ⋮ ⋮ ⋮ bn x p … … 0 _
_
_ x 2 _ ⋮
p − r
r
On voit déjà que (S) est compatible si et seulement si ∀i ∈ [ r + 1, n ], bi = 0 . Démonstration : • Si ∃i ∈ [ r + 1, n ], bi ≠ 0 , alors (S) est incompatible
• Si ∀i ∈ [ r + 1, n ], bi = 0 , le système (S) équivaut alors au système (S’) :
*
_ x1
b 1 ⋱ _ _ _ _ _ ⋮ = ⋮ ( S ) : r 0 * _ _ _ _ x p br _
_
_
_
_
r
p − r
Or, en tant que d’inconnues x1 , x2 ,... x r , ayant fixé les autres, le système est un système triangulaire supérieur sans 0 sur la diagonale : p b − a x _ _ x1 1 ∑1 1, j j * j = r + ⋱ _ ⋮ = ⋮ r p 0 * xr br − ∑ ar , j x j r j = r +1
Le système a des solutions, obtenues « en fixant arbitrairement p − r inconnues ». Ainsi : Soit (S) à n équations, p inconnues, de rang r . Alors : • Il y a n − r conditions de compatibilité • Lorsqu’elles sont satisfaites, le système admet des solutions avec p − r degrés de liberté. Cas particuliers : • Si r = n , le système est toujours compatible (0 conditions de compatibilité) • Si r = p et que le système est compatible, il y a une unique solution.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
74 74/167
5/14/2018
Alg brelin aire-slidepdf.com
• Si r = p = n , le système a une et une seule solution. • Si (S) est homogène, il est toujours compatible (au moins la solution nulle) et l’ensemble de ses solution est un K-ev de dimension p − r .
D) Compléments 1) Polynôme de matrices Soit A ∈ M m (K ) . Pour P ∈ K [ X ] , disons P =
n
∑
a k X k , on note P ( A) =
k =0
n
∑a
k
A k ( A 0 = I m ).
k = 0
Alors l’application φ : K [ X ] → M m (K ) est un morphisme de K-algèbres, P֏ P( A) c'est-à-dire que pour tout P, Q ∈ K [ X ] et λ ∈ K : ( P + λ Q )( A) = P ( A) + λ Q ( A) ( PQ )( A) = P ( A) × Q ( A) (1K [ X ] )( A) = I m (Vérifications simples, sauf pour la multiplication où il faut faire attention) Proposition : Toute matrice A admet un polynôme annulateur de A non nul et de degré 2 ≤ m (un polynôme annulateur est un polynôme tel que P ( A) = 0 ). 2
En effet : A , A ,... Am sont m 2 + 1 vecteurs de M m (K ) . Donc la famille 0
1
m2
( A k ) k ∈[ 0, m 2 ] est liée. Il existe donc (λ 0 , λ 1 ,...λ m 2 ) ≠ (0,0,...0) tel que Le polynôme P =
∑ λ A k
k
= 0.
k = 0
m2
∑ λ X
k
k
est donc non nul et vérifie P ( A) = 0 .
k = 0
(On a montré en même temps que φ n’est pas injective, puisque ker φ ≠ {0} ). Proposition : Il existe M ∈ K [ X ] tel que {P ∈ K [ X ], P( A) = 0} = { MQ, Q ∈ K [ X ]}. M est unique à une constante multiplicative près. En effet : On pose M un polynôme de degré minimal (mais non nul) annulateur de A. Soit alors N un autre polynôme annulateur. La division euclidienne de N par M donne : N = MQ + R avec deg R < deg M Donc N ( A) = M ( A) × Q ( A) + R ( A) . Donc R ( A) = 0 . Donc R = 0 car sinon
=0
=0
M n’est pas de degré minimal. Donc M divise N .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
75 75/167
5/14/2018
Alg brelin aire-slidepdf.com
2) Matrices semblables Soient A, B ∈ M n (K ) . On dit que A et B sont semblables (ou que B est semblable à A) lorsqu’il existe P ∈ GLn (K ) tel que B = P −1 AP On peut montrer aisément que « être semblable à » est une relation d’équivalence. Elle est plus fine que la relation « être équivalent à » sur M n (K ) , c'est-à-dire que « être semblable à » ⇒ « être équivalent à ». Mais la réciproque est fausse : 1 3 1 0 et I = sont équivalentes (car de même rang), mais non A = 2 4 0 1 semblables : si on trouve P tel que A = P −1 IP , alors A = P −1 P = I Ainsi, B est semblable à A si et seulement si elles représentent le même endomorphisme dans une base différente. Plus précisément : Etant donné E un K-ev de dimension n muni d’une base B, et ϕ ∈ L ( E ) tel que A = mat (ϕ , B ) Alors B est semblable à A ⇔ il existe une autre base B’ de E telle que B = mat (ϕ , B ' ) . (La démonstration est la même que pour l’équivalence) Une matrice semblable à une matrice diagonale est une matrice diagonalisable (attention, toutes ne le sont pas) Exemple : 1 1 . Montrons que A n’est pas diagonalisable. A = 0 1 Soit E un K-ev de dimension 2 muni d’une base B = (e1 , e2 ) Soit ϕ ∈ L ( E ) tel que A = mat (ϕ , B ) Peut-on trouver B’ telle que mat (ϕ , B ' ) soit diagonale ? Supposons que B’ existe, disons B ' = (e'1 , e' 2 )
x Alors il existe λ 1 , λ 2 ∈ R tels que ϕ (e'1 ) = λ 1e'1 et ϕ (e' 2 ) = λ 2 e' 2 . Soit y la colonne des composantes de e'1 dans B. x + y = λ 1 x x x Alors A = λ 1 , donc y y y = λ 1 y Si λ 1 ≠ 1 , alors x = y = 0 , ce qui est impossible car e'1 est un vecteur d’une base. Donc λ 1 = 1 De même, λ 2 = 1 Donc ϕ = Id E , ce qui est contradictoire car A ≠ I 2 . Donc A n’est pas diagonalisable.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
76 76/167
5/14/2018
Alg brelin aire-slidepdf.com
3) Trace Soit A = (ai , j )1≤i ≤ n ∈ M n (K ) 1≤ j ≤ n n
=
Alors Tr ( A) déf i =1 ai ,i
∑
Proposition : L’application M n (K ) → K est une forme linéaire (évident) A֏Tr ( A) Proposition : Pour tout A, B ∈ M n (K ) , Tr ( AB ) = Tr ( BA) Démonstration : Soit A = (ai , j )1≤i ≤ n , B = (bi , j )1≤i ≤ n , C = AB = (ci , j )1≤i ≤n , D = BA = (d i , j )1≤i ≤n 1≤ j ≤ n
1≤ j ≤ n
1≤ j ≤ n
1≤ j ≤ n
On a :
Tr ( AB) = Tr (C ) =
n
∑ i =1
ci ,i =
n n n a b ∑ ∑ i , k k , i = ∑ ∑ ai , k bk ,i i =1 k =1 k =1 i =1 n
n = ∑ ∑ bk ,i ai ,k = ∑ d k ,k = Tr ( D ) = Tr ( BA) k =1 i =1 k =1 n
n
Conséquence : Si A et B sont semblables, alors elles ont même trace (réciproque fausse) : −1
−1
−1
Tr ( B ) = Tr ( P AP) = Tr ( P ( AP)) = Tr ( APP ) = Tr ( A) Contre-exemple pour la réciproque : 1 1 1 0 1 1 1 = Tr = 2 mais n’est pas semblable à Tr 0 1 0 1 0 1 0
0
1
Conséquence : on peut définir la trace d’un endomorphisme : Tr (ϕ ) est la trace de n’importe quelle matrice A telle que A = mat (ϕ , B ) .
Déterminants Ici, K désigne un sous corps de C (généralement R ou C), et n un entier naturel ≥ 2
XXIX Applications n-linéaires A) Définition Soient E et F deux K-ev. Une application n-linéaire de E n dans F est une application : φ : E × E ... E → F (u1 , u 2 ...u n ) ֏ φ (u1 , u 2 ...u n ) Telle que :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
77 77/167
5/14/2018
Alg brelin aire-slidepdf.com
Pour tout U = (u1 , u 2 ...u n ) , les n applications partielles :
φ U ,i : E → F , obtenues pour i ∈ [1, n ], sont linéaires. v ֏ φ (u1,u2 ...ui −1,v,...un ) Exemple : 2-linéaire = bilinéaire φ : E × E → F est bilinéaire lorsque : ∀v ∈ E , ∀(u, u ' ) ∈ E × E , ∀λ ∈ K , (u + λ u ' , v ) = (u, v) + λ (u ' , v ) etφ (v, u + λ u ' ) = φ (v, u ) + λφ (v, u ' )
Exemple : R2 → R est bilinéaire ( x, y ) ֏ x × y Proposition : si ϕ : E n → F est n-linéaire et, pour (u1 , u 2 ...u n ) ∈ E n , si l’un des u i est nul, alors ϕ (u1 , u 2 ...u n ) = 0 En effet, l’application v ֏ ϕ (u1 , u 2 ...u i −1 , v,...u n ) est linéaire donc nulle en 0.
B) Application n-linéaire antisymétrique Soit φ : E n → F n-linéaire.
Alors φ est antisymétrique ⇔ ∀(i, j ) ∈ [1, n ] , i ≠ j ⇒ φ (u1...ui ...u j ...un ) = −φ (u1...u j ...ui ...un ) déf i j j i 2
Proposition : n
Soit φ : E → F antisymétrique. Alors, pour toute permutation σ ∈ S n , et tout (u1 , u 2 ...u n ) ∈ E n , φ (uσ (1) , uσ ( 2 ) ...uσ ( n ) ) = ε (σ ) × φ (u1 , u2 ...un ) , où ε (σ ) est la signature de
σ . Démonstration : montrons par récurrence que ∀k ∈ N , « pour toute permutation σ ∈ S n se décomposant en produit de k transpositions, et tout (u1 , u 2 ...u n ) ∈ E n ,
φ (uσ (1) , uσ ( 2 ) ...uσ ( n ) ) = ε (σ ) × φ (u1 , u 2 ...u n ) » ( P (k ) ) * P (0) ok (la seule transposition qui se décompose en produit de 0 transpositions est l’identité, de signature 1) * P (1) : définition de antisymétrique * Soit k ∈ N , supposons P (k ) . Soit alors σ ∈ S n s’écrivant τ 1 τ 2 ... τ k τ k +1 , où les τ i sont des transpositions. Soit σ ' = τ 1 τ 2 ... τ k et τ = τ k +1 . Soit (u1 , u 2 ...u n ) ∈ E n . Alors :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
78 78/167
5/14/2018
Alg brelin aire-slidepdf.com
φ (uσ (1) , uσ ( 2 ) ...uσ ( n ) ) = φ (uσ '(τ (1)) , uσ '(τ ( 2 )) ...uσ '(τ ( n )) ) = φ (u 'τ (1) , u 'τ ( 2) ...u 'τ ( n ) ) où on a noté u 'i = uσ '(i )
= −φ (u '1 , u '2 ...u 'n )
= −φ (uσ '(1) , uσ '( 2) ...uσ '( n ) ) = −ε (σ ' )φ (u1 , u2 ...un ) = ε (σ )φ (u1, u2 ...un ) Exemple : le produit vectoriel : E × E → E , où E est un espace vectoriel euclidien orienté de dimension 3, est (u , v ) ֏ u ∧ v une application bilinéaire antisymétrique.
C) Applications n-linéaires alternées Définition : soit φ : E n → F n-linéaire. Alors φ est alternée ⇔ Pour tout (u1 , u 2 ...u n ) ∈ E n , si il existe i, j ∈ [1, n ] déf
distincts tels que u i = u j , alors φ (u1 , u 2 ...u n ) = 0 Proposition : Alternée ⇔ antisymétrique Démonstration : (1) Supposons φ alternée. Soit (u1 , u 2 ...u n ) ∈ E n , soient i, j ∈ [1, n ] distincts. On a :
φ (u1 , u2 ...(ui + u j )...(ui + u j )...un ) = 0 i
j
= φ (u1 , u 2 ...(ui + u j )...ui ...un ) + φ (u1 , u2 ...(ui + u j )...u j ...un ) = φ (u1 , u 2 ...ui ...ui ...un ) + φ (u1 , u2 ...u j ...ui ...un )
=0
+ φ (u1 , u2 ...ui ...u j ...un ) + φ (u1 , u2 ...u j ...u j ...un ) =0
Donc φ (u , u ...u ...u ...u ) = −φ (u , u ...u ...u ...u ) 1
2
j
i
n
1
2
i
j
n
(2) Supposons φ antisymétrique. Soit (u1 , u 2 ...u n ) ∈ E n , supposons qu’il existe
i, j ∈ [1, n ] distincts tels que u i = u j . Alors φ (u1 , u 2 ...u i ...u i ...u n ) = −φ (u1 , u 2 ...u i ...u i ...u n ) . Donc φ (u1 , u 2 ...u i ...u i ...u n ) = 0 (car K est un sous corps de C donc 2 ≠ 0 ) Remarque : l’implication antisymétrique ⇒ alternée est fausse lorsque K est par exemple Z / 2 Z , c'est-à-dire un corps de caractéristique 2 (d’où l’intérêt d’avoir deux définitions)
D) Formes n-linéaires alternées en dimension n. A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
79 79/167
5/14/2018
Alg brelin aire-slidepdf.com
On s’intéresse à φ : E n → K , n-linéaire alternée lorsque E est un K-ev de n dimension n. On dit alors que φ est une forme n-linéaire alternée sur E (pas ) Etude : Soit B = (e1 , e2 ,...en ) une base de E . Soit (u1 , u 2 ...u n ) ∈ E n , et A = mat ((u1 , u 2 ...u n ), B ) n
∑a e
Ainsi, ∀ j ∈ [1, n ], u j =
ij
i
. On a :
i =1
φ (u1 , u 2 ...u n ) = φ (
n
∑
ai1ei , u 2 ...u n ) =
i =1
=
n
∑ i1 =1
= =
i1
i
2
n
)
n ai 2φ (ei , ei ...u n ) ∑ i =1
ai11
2
1
2
2
∑ ∑ a i1 =1
∑ a φ (e , u ...u i =1
n
n
n
i =1
n
i11
a i2 2φ (ei1 , ei2 ...u n )
2
n
n
∑∑∑ a i1 =1 i2 =1 i3 =1
∑a
=
i1 1
( i1 ,i2 ,...in )∈[ 1, n
i1 1
a i2 2 ai3 3φ (ei1 , ei2 , ei3 ...u n )
a i2 2 ...a in nφ (ei1 , ei2 ...ein )
]n
(On a utilisé uniquement le fait que φ est n-linéaire) Ainsi :
= φ (u1 , u 2 ...u n )
∑
f ∈F([ 1, n ],[ 1, n
=
∑a
]) a
f (1),1
f (1) f ( 2 ) (n ) a f ( 2), 2 ...a f ( n ),n φ (e , e ... e f )
σ (1),1 aσ ( 2 ), 2 ...aσ ( n ),n
=0 pour f non injective car φ est alternée
φ (eσ (1) , eσ ( 2 ) ...eσ ( n ) )
σ ∈S n
=
∑ ε (σ )a
σ ∈S
σ (1),1 aσ ( 2 ), 2 ...aσ ( n ), n
n
φ (e1 , e2 ...en )
XXX Déterminant dans une base d’une famille de n vecteurs Ici, E est un K-ev de dimension n. Théorème : Soit B = (e1 , e2 ,...e n ) une base de E . Alors : (1) Il existe une et une seule forme n-linéaire alternée qui prend la valeur 1 sur B. Elle s’appelle det B (déterminant dans la base B) (2) Pour toute forme n-linéaire alternée φ sur E , on a, pour tout (u1 , u 2 ...u n ) ∈ E n :
φ (u1 , u 2 ...u n ) = det B (u1 , u 2 ...u n ).φ (e1 , e 2 ...e n )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
80 80/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : (1) Unicité : si ∆ est une forme n-linéaire alternée qui prend la valeur 1 sur B, alors, ε (σ )aσ (1),1 aσ ( 2 ),2 ...aσ ( n ),n nécessairement : ∀(u1 , u 2 ...u n ) ∈ E n , ∆ (u1 , u 2 ...u n ) =
∑
σ ∈S n
(d’après l’étude), où A = (a ij ) = mat ((u1 , u 2 ...u n ), B ) . D’où l’unicité. Vérifions que ∆ défini par cette formule est n-linéaire alternée • ∆ est n-linéaire : ok. C’est une forme n-linéaire : ok Par exemple : linéaire par rapport à la première variable : Soient u1 , u 2 ...u n de composantes données par la matrice A, u '1 de composantes les a ' i ,1 et λ ∈ K . On a alors : ∆ (u1 + λ u '1 , u 2 ...u n ) =
∑ ε (σ )(a
σ (1),1
+ λ a'σ (1),1 )aσ ( 2),2 ...aσ ( n ),n
σ ∈S n
=
∑ ε (σ )a
σ (1),1 aσ ( 2 ), 2 ...aσ ( n ),n
+ λ ∑ ε (σ )a 'σ (1),1 aσ ( 2), 2 ...aσ ( n ),n
σ ∈S n
σ ∈S n
=∆ (u1 , u 2 ...u n )
+ ∆ λ (u '1 , u 2 ...u n )
• ∆ est alternée : Soit (u1 , u 2 ...u n ) ∈ E n , supposons u i = u j avec i < j . Soit τ = (i, j )
∑ ε (σ )a
∆ (u1 , u2 ...un ) =
σ (1),1aσ ( 2 ), 2
...aσ ( n ),n
σ ∈S n
∑
=
∑
aσ (1),1aσ ( 2 ), 2 ...aσ ( n ),n −
σ ∈ An
aσ (1),1aσ ( 2 ), 2 ...aσ ( n ),n
σ ∈S n \ An
Or, l’application σ ֏ σ τ constitue une bijection de An vers S n \ An . On a donc :
∆ (u1 , u 2 ...u n ) =
∑a
σ (1),1 aσ ( 2 ), 2 ...aσ ( n ),n
σ ∈ An
−
∑a
σ τ (1),1 aσ τ ( 2 ), 2 ...aσ τ ( n ), n
σ ∈An
Mais, pour tout σ ∈ An : aσ τ (1),1 aσ τ ( 2 ), 2 ...aσ τ (i ),i ...aσ τ ( j ), j ...aσ τ ( n ),n = aσ (1),1 aσ ( 2 ), 2 ...aσ ( j ),i ...aσ (i ), j ...aσ ( n ),n
= aσ (1),1 aσ ( 2), 2 ...aσ ( j ), j ...aσ ( i ),i ...aσ ( n ),n (car u i = u j donc ∀k ∈ [1, n ], a ki = a kj )
= aσ (1),1 aσ ( 2), 2 ...aσ (i ),i ...aσ ( j ), j ...aσ ( n ),n • ∆(e1 , e2 ,...e n ) = 1 : Si A = I n (= mat( B , B )) , les produits aσ (1),1aσ ( 2 ), 2 ...aσ ( i ),i ...aσ ( j ), j ...aσ ( n ), n sont tous nuls sauf pour σ = Id , où il vaut 1. (2) Résultat de l’étude Exemples : • Soit E de dimension 2, B = (e1 , e2 ) une base de E . Soient u1 , u 2 deux vecteurs de E ,
a11 a a et 12 . Alors A = mat((u1 , u 2 ), B ) = 11 de composantes a 21 a 22 a12 det B (u1 , u 2 ) = a11a 22 − a21 a12 ( S 2 = {Id,τ 12 })
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
a 21
. Ainsi,
a 22
81 81/167
5/14/2018
Alg brelin aire-slidepdf.com
• Soit E de dimension 3, B = (e1 , e2 , e3 ) une base de E . Soient u1 , u 2 , u 3 ∈ E .
a11 A = mat((u1 , u 2 , u 3 ), B ) = a12 a 13
a 21
a31
a 22
a32 , S 3 = {Id, (1,2,3), (3,2,1), (1,2), (2,3), (3,1)}
a 23
a33
paires
Donc det B (u1 , u 2 , u3 ) = a11a22 a33 + a21a32 a13 + a31a12 a23
− a21a12 a33 − a11a32 a23 − a31a22 a13
Théorème (Chasles) Soient B , B ' deux bases de E . Alors, pour tout (u1 , u 2 ...u n ) ∈ E n : det B ' (u1 , u 2 ...u n ) = det B ' ( B ) × det B (u1 , u 2 ...u n ) Démonstration : On applique le 2
ème
résultat du théorème avec φ = det B ' :
φ (u1 , u 2 ...u n ) = det B (u1 , u 2 ...u n ).φ (e1 , e2 ...en ) det
( u , u ...u ) B'
1
(B )
det B'
n
2
Théorème : Soit B une base de E . Soit (u1 , u 2 ...u n ) ∈ E n . Alors (u1 , u 2 ...u n ) est liée ⇔ det B (u1 , u 2 ...u n ) = 0 Démonstration : • Si (u1 , u 2 ...u n ) est liée, alors l’un des u i , disons u j est combinaison linéaire des autres : u j =
∑ α u
i i∈[ 1, n ] \ { j }
i
.
Alors det (u , u ...u ) = det (u , u ... B
1
2
n
B
1
2
α u ...u ) =
∑
i i∈[ 1, n ] \ { j }
i
n
α det (u , u ...u ...u ) = 0
∑ i≠ j
i
B
1
2
i
n
j
• Si (u1 , u 2 ...u n ) est libre, elle forme une base B’ et alors : det B ' (u1 , u 2 ...u n ) = det B ' ( B ) × det B (u1 , u 2 ...u n )
=1≠ 0
Donc det B (u1 , u 2 ...u n ) ≠ 0
XXXI Déterminant d’un endomorphisme Ici, E est un K-ev de dimension n. Théorème et définition : Soit ϕ ∈ L( E ) , soit B = (e1 , e2 ,...en ) une base de E . Alors la valeur de det B (ϕ (e1 ), ϕ (e2 )...ϕ (en )) ne dépend pas du choix de B. On l’appelle det(ϕ )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
82 82/167
5/14/2018
Alg brelin aire-slidepdf.com
Démonstration : Soit B ' = (e'1 , e' 2 ,...e' n ) une autre base de E . Alors : det B ' (ϕ (e'1 ), ϕ (e' 2 )...ϕ (e' n )) = det B (e'1 , e' 2 ...e' n ) × det B ' (ϕ (e1 ), ϕ (e2 )...ϕ (en )) (selon la 2 ème partie du 1er théorème du II avec φ : (u1 ,...u n ) ֏ det B ' (ϕ (u1 ),...ϕ (u n )),
appliqué en (e'1 , e' 2 ...e' n ))
= det B (ϕ (e1 ), ϕ (e2 )...ϕ (en )) (Chasles) Ainsi, si A = mat (ϕ , B ) , alors det(ϕ ) = det B (ϕ (e1 )...ϕ (en )) =
∑ ε (σ )a
σ (1),1
...aσ ( n ),n
σ ∈S n
Théorème : Soient ϕ ,ψ ∈ L( E ) . Alors : (1) det(ϕ ψ ) = det(ϕ ) × det(ψ ) (2) det(Id E ) = 1 (3) ϕ ∈ GL( E ) ⇔ det(ϕ ) ≠ 0 , et dans ce cas det(ϕ −1 ) =
1 det(ϕ )
Démonstration : Soit B = (e1 , e2 ,...en ) une base de E . (1) det(ϕ ψ ) = det B (ϕ ψ (e1 ), ϕ ψ (e2 )...ϕ ψ (en ))
• Si la famille (ψ (e1 ),ψ (e2 )...ψ (en )) est liée, alors det(ψ ) = 0 . D’autre part, la famille (ϕ ψ (e1 ), ϕ ψ (e2 )...ϕ ψ (en )) est aussi liée. Donc det(ϕ ψ ) = 0 aussi. Donc det(ϕ ψ ) = det(ϕ ) × det(ψ ) ( = 0)
• Si la famille des (ψ (e1 ),ψ (e2 )...ψ (en )) est libre, elle constitue une base B’ de E , et : det B (ϕ ψ (e1 ),ϕ ψ (e2 )...ϕ ψ (en )) = det B ( B ' ) × det B ' (ϕ ψ (e1 ), ϕ ψ (e2 )...ϕ ψ (en ))
det( ϕ ψ )
det( ψ ) ϕ det( )
(2) Immédiat (3) Si ϕ ∈ GL( E ) , on peut introduire ϕ −1 . Alors 1 = det(Id E ) = det(ϕ ϕ −1 ) = det(ϕ ) × det(ϕ −1 ) 1 Donc det(ϕ ) ≠ 0 et det(ϕ −1 ) = det(ϕ ) Si ϕ ∉ GL( E ) , alors (ϕ (e1 ), ϕ (e2 )...ϕ (en )) est liée, donc det(ϕ ) = 0
XXXII Déterminant d’une matrice carrée A) Définition et propriété Définition : soit A = ( a ij ) ∈ M n (K ) Alors det( A) =
déf
∑ ε (σ )a
σ (1),1 aσ ( 2 ),2
...aσ ( n ),n
σ ∈S n
Proposition : Soit E un K-ev de dimension n, et B = (e1 , e2 ,...en ) une base de E .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
83 83/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit (u1 , u 2 ...u n ) ∈ E n tel que mat ((u1 , u 2 ...u n ), B ) = A . Soit ϕ ∈ L ( E ) tel que mat (ϕ , B ) = A Alors : det( A) = det(ϕ ) = det B (u1 , u 2 ,...u n ) Propriétés : soient A, B ∈ M n (K ) Alors : det( AB) = det( A) × det( B) ; det( I n ) = 1 A est inversible ⇔ det( A) ≠ 0 , et dans ce cas det( A −1 ) = t det( A ) = det( A) Démonstration : les endomorphismes.
trois
1 det( A)
premiers sont immédiats en
passant par
les
On note A = (bij ) , où ∀(i, j ) ∈ [1, n ] , bij = a ji 2
t
On a donc : t det( A )= ε (σ )bσ (1),1bσ ( 2), 2 ...bσ ( n ),n
∑
σ ∈S n
=
∑
ε (σ )a1,σ (1) a 2,σ ( 2) ...a n ,σ ( n )
σ ∈S n
Soit σ ∈ S n . Pour tout ρ ∈ S n , on a : a ρ (1),σ ( ρ (1)) a ρ ( 2 ),σ ( ρ ( 2 )) ...a ρ ( n ),σ ( ρ ( n )) = a1,σ (1) a2 ,σ ( 2 ) ...an ,σ ( n )
(simple permutation de l’ordre des termes du produit) t ε (σ )aσ −1 (1),1aσ −1 ( 2),2 ...aσ −1 ( n ),n Donc det( A) =
∑
σ ∈S n
De plus, 1 = ε (σ −1 σ ) = ε (σ −1 ) × ε (σ ) 1 Donc ε (σ −1 ) = = ε (σ ) ε (σ ) t Donc det( A )=
∑ ε (σ σ ∈S n
=
−1
)aσ −1 (1),1aσ −1 ( 2 ), 2 ...aσ −1 ( n ),n
∑ ε (σ ' )a
σ '(1),1aσ '( 2 ), 2 ...aσ '( n ),n
σ '∈S n
= det( A)
B) Propriétés portant sur les colonnes et les lignes 1) Sur les colonnes Notation : C 1 , C 2 ...C n étant les colonnes de A ∈ M n (K ) , on notera A = [C 1 , C 2 ...C n ] . Résultat essentiel : det( A) = det B (C 1 , C 2 ...C n ) , où B est la base naturelle de M n ,1 (K )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
84 84/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc les déterminants d’une matrice est une forme n-linéaire alternée de ses colonnes. Ainsi, le déterminant est linéaire par rapport à chaque colonne : det[C 1 , C 2 ...C j + λ C ' j ...C n ] = det[C 1 , C 2 ...C j ...C n ] + λ det[C 1 , C 2 ...C ' j ...C n ] Et c’est une forme linéaire alternée : det[C 1 , C 2 ...C i ...C i ...C n ] = 0 et det[C 1 , C 2 ...C i ...C j ...C n ] = − det[C 1 , C 2 ...C j ...C i ...C n ] et det[C σ (1) , C σ ( 2 ) ...C σ ( n ) ] = ε (σ ) det[C 1 , C 2 ...C n ]
∑α C ...C ] = 0
et aussi det[C 1 , C 2 ...
i
i
n
i ≠ j j
Du coup, pour les transformations : * C i ← C i + λ C j ne modifie pas le déterminant : det[C 1 , C 2 ...C i + λ C j ...C n ] = det[C 1 , C 2 ...C i ...C n ] + λ det[C 1 , C 2 ...C j ...C n ]
i =0
* C i ← α C i « multiplie le déterminant par α » * C i ↔ C j « multiplie le déterminant par -1 »
2) Sur les lignes Mêmes résultats obtenus par transposition
C) Déterminant d’une matrice triangulaire λ 1 0 … 0 0 λ 2 ⋱ ⋮ Cas d’une matrice diagonale : A = ⋮ ⋱ ⋱ 0 0 … 0 λ n det( A) = λ 1λ 2 ...λ n (si σ ≠ Id , alors aσ (1),1 aσ ( 2 ), 2 ...aσ ( n ),n = 0 )
a1,1 − − − 0 a2 , 2 − − Cas d’une matrice triangulaire : A = ⋮ ⋱ ⋱ − 0 … 0 a n , n Soit σ ∈ S n Supposons que aσ (1),1 aσ ( 2 ),2 ...aσ ( n ),n ≠ 0 Alors : σ (1) = 1 (sinon σ (1) > 1 et σ (1) = 0)
σ (2) ≤ 2 et σ (2) ≠ 1 donc σ (2) = 2 ⋮
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
85 85/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc σ = Id Donc det( A) = a1,1a 2, 2 ...an ,n . On retrouve le fait que A est inversible si et seulement si ses coefficients de la diagonale sont tout non nuls. Notation : a1,1
a1, 2
… a1,n
a2,1
a2 , 2
… a2 , n
det A =
⋮ an ,1
⋱ …
⋮
… an , n
Conséquence : méthode pratique : le pivot de Gauss pour calculer le déterminant. Exemple : 2 1 1 3 1
−1
3
8
ère
−1 − 3 1
méthode exclue : formule développée…
1
2
1
1
2
−1
2
1
1
3
0
−1 − 3
5
1
−1
3
8
0
−2
9
1
2
1
1
= 0 −1 − 3 ↑ L3 ← L3 − L4 2 −1 1 L2 ← L2 − L4 L1← L1 −2 L4 0 0
1 1
0
0
−6
3
0
0
−5
5
0 L2 ← L2 +2 L3 − 1 L ← L + L 1 1 1 3
1
−3 −2
1
−3 −2 2
= ↑
1
2
−1
1 1
1 −5
−1 −2
0 0
−3 0
3 5
1 0
= = (−1)3 × 0 1 3 2 0 0 −3 − − ↑ ↑ L4 ↔ L1 C 3 ←C 3 +C 4 1 1 2 − 1 L ↔ L 0 0 0 3 4 L2 ↔ L4
3
= 15
5
XXXIII Développement selon une rangée A) Petit lemme a1,1 … a1,n−1 0 a2 ,1 ⋯ a2,n −1 0 Soit A = ⋮ ⋮ ⋮ a n ,1 … an,n −1 1 Alors :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
86 86/167
5/14/2018
Alg brelin aire-slidepdf.com
det( A) =
∑ ε (σ )a
σ (1),1 aσ ( 2 ), 2
...aσ ( n ),n
σ ∈S n
∑ ε (σ )a
=
σ (1),1 aσ ( 2 ), 2
...aσ ( n ),n
σ ∈S n , σ ( n ) = n
(1),1 ( 2 ), 2 ( n 1), n 1 = σ ∈S −ε (σ )aσ aσ ...aσ − − × 1
∑
n 1
= det( B) Où B est la matrice extraite de A en enlevant la dernière ligne et la dernière colonne.
B) Développement selon une colonne Soient A = ( a ij ) ∈ M n (K ) , k ∈ [1, n ] La colonne C k s’écrit : 1 0
0 0 1 0 C k = a1, k + a2,k + ... + an ,k ⋮ ⋮ ⋮ 0 0 1
= E 1
= E 2
= E n
n
= ∑ ai ,k E i i =1 n
∑a
Donc det A = det[C 1 , C 2 ...C n ] =
i , k
i =1
det[C 1 , C 2 ... E i ...C n ]
k µ i ,k
Ainsi, ∀k ∈ [1, n ], det A =
n
∑a
µ i ,k
i , k
i =1
µ i ,k =
___
0
__
___
⋮
__
i → ___
1
__
___
( −1) n − k
= ↑
C k ,C k +1...C n 0 __ permutés k circulairement
= (−1) n −k × ( −1) n −i
_____
0
_____
⋮
_____
⋮
_____
1
_____
0
_____
⋮
i → _____
1
_____
0
= ( −1) i + k det( Ai ,k )
où Ai ,k est extraite de A en « barrant » la i-ème ligne et la k -ième colonne. Vocabulaire : µ i , k est le cofacteur du terme d’indice i, k
Exemple :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
87 87/167
5/14/2018
Alg brelin aire-slidepdf.com
a a' a' ' A = b b' b' ' c c ' c' ' 2
b ' b' '
det A = a × ( −1) × c'
a'
a' '
c' ' − b × c'
a'
a' ' b' '
c' ' + c × b'
+ − + (Pour les signes : forme de damier avec un + en haut à gauche : − + − ) + − + ou det A = − a'×
b
b' '
c
c' '
+ b'×
a
a' '
c
c' '
− c'×
a
a' '
b
b' '
C) Développement selon une ligne Avec les mêmes notations : det A =
n
∑a
k , j
µ k , j
j =1
Démonstration : t t det( A) = det( A ) avec A = (a'i , j ) n
n
i =1
i =1
= ∑ a 'i ,k µ 'i ,k = ∑ a'i ,k (−1)i +k det( A'i ,k ) n
n
i =1
i =1
t k + i det( Ak ,i ) = ∑ ak ,i (−1) k +i det( A k ,i ) = ∑ ak , i ( −1)
n
= ∑ ak ,i µ k ,i i =1
XXXIV Application à l’inverse d’une matrice carrée (si inversible) Soit A ∈ M n (K ) Proposition : Pour tous i, j ∈ [1, n ] , on a :
0 si i ≠ j
n
∑a
µ j ,k =
i , k
k =1 n
∑a
µ k , j
k ,i
k =1
det( A) si i = j 0 si i ≠ j = det( A) si i = j
Démonstration : (1) : Si i = j , on reconnaît le développement selon la i-ème ligne du déterminant de A. Si i ≠ j , on reconnaît le déterminant, développé selon la j-ème ligne, de :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
88 88/167
5/14/2018
Alg brelin aire-slidepdf.com
_ _ ai ,1 ai , 2 A' = _ _ ai ,1 ai , 2
_
…
… a i ,n ← i … _
… a i ,n ← j
_ … _ Obtenue à partir de A en faisant la transformation Li ← L j (non élémentaire !)
_
(En effet, les cofacteurs des termes de la j-ème ligne de A’ sont les mêmes que les cofacteurs des termes de la j-ième ligne de A) (2) : On le démontre de la même manière avec la matrice A’déduite de A en faisant la transformation C i ← C j Conséquence : Notons M = ( µ i , j ) ∈ M n (K ) ( M s’appelle la comatrice de A, notée com ( A) ) t
t
Les formules précédentes disent : A× M = det( A). I n et M × A = det( A). I n t t Ainsi, si A ∉ GLn (K ), M × A = A× M = 0 M n ( K ) −1 Et, si A est inversible : A =
1 det( A)
M =
t
1 det( A)
t
(com( A))
Exemple : 1 2
1 A = − 1 1 2 . A est-elle inversible, si oui quel est son inverse ? 1 −1 2
−45 com( A) = 3
. Déjà, det( A) = 1 × 4 + (−1) × 5 + 1 × 3 = 12 ≠ 0 . Donc A est
inversible. On continue : 4 4
0 com( A) = − 5 1 3 3 − 3 3 4 − 5 3 1 −1 Donc A = 4 1 − 3 12 0 3 3
Cas particulier à connaître : a c d ; det( A) = a.d − b.c ; com A = A = b d − c Si det( A) ≠ 0 , A −1 =
− b
a
d − c (correspond en fait à un échange entre a et d , a.d − b.c − b a 1
et une multiplication de b et c par -1)
XXXV Formules de Cramer
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
89 89/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit A ∈ M n (K ) , inversible. On s’intéresse au système : x1 b1
x1
b1
( S ) : A x 2 = b2 , de solution x 2 = A −1 b2 ⋮ ⋮ ⋮ ⋮
x b n n
Or, A−1 =
1
x n
b n
t
det( A)
(com( A))
la matrice obtenue à partir de A n en remplaçant sa p- ième colonne 1 1 Ainsi, ∀ p ∈ [1, n ], x p = ∑ µ k , p bk = det A det (càd celle des coefficients de x p ) det A k =1 !transposée par la colonne du 2 nd membre
Exemple : 6 x + 3 y + 4 z = 1
( S ) : 5 x − 7 y + 5 z = 2
5 x + 3 y + 3 z = 0
6 3 4 Matrice du système : A = 5 − 7 5 . det( A) = 14 5 3 3 Donc (S) est de Cramer, et : 1 3 4 1 1 30 15 x = 2 −7 5 = ( −7 × 3 − 5 × 3 − 2(9 − 12)) = − =− 14 14 14 7 0 3 3 y =
z =
1 14
1
6
1
4
5
2
5 =
5
0
3
6
3
5
14 5
1 14
1
−7 2 = 3
0
( −(5 × 3 − 5 × 5) + 2(6 × 3 − 5 × 4)) =
1
(15 + 35 − 2(18 − 15)) =
14
22
6 14
=
3 7
7
XXXVI Complément : polynôme caractéristique d’une matrice carrée Soit A = ( a ij ) ∈ M n (K ) . On note I = I n Pour tout λ ∈ K , on pose P (λ ) = det( A − λ I ) Alors : La fonction λ ֏ P (λ ) est polynomiale en λ , de degré n :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
90 90/167
5/14/2018
Alg brelin aire-slidepdf.com
a1,1 − λ P(λ ) =
a 2,1
…
a1, n
a 2, 2 − λ …
a 2, n
a1, 2
⋮
⋱ …
a n,1
⋮
… a n,n − λ
= (a1,1 − λ )(a 2, 2 − λ )...(a n ,n − λ ) +
∑ ε (σ )a'
σ (1),1
a'σ ( 2), 2 ...a 'σ ( n ),n
σ ∈S n \ {Id}
où a ' i , j = ai , j si i ≠ j et a 'i , j = a i , j − λ sinon. Coefficient de X n : (−1) n Coefficient de X 0 : P (0) = det( A) Coefficient de X n −1 : ε (σ )a'σ (1),1 a'σ ( 2 ),2 ...a'σ ( n ),n est polynomial en λ , mais de degré ≤ n − 2 : si une
∑
σ ∈S n \ {Id}
permutation σ fixe n − 1 , alors elle fixe le n-ième aussi, donc σ = Id Donc le coefficient de X n−1 vaut : (−1) n −1
∑a n
i ,i
= (−1) n −1 × Tr ( A)
i =1
Soit f ∈ L ( E ) où E est un K-ev de dimension finie n, B une base de E , A = mat ( f , B ) . Alors le polynôme P caractéristique de A ne dépend pas du choix de B (on l’appelle le polynôme caractéristique de f ). En effet, pour tout λ ∈ K , P (λ ) = det( A − λ I ) = det( f − λ Id) . On a les équivalences : λ est racine de P ⇔ det( f − λ Id) = 0
⇔ f − λ Id est non bijective ⇔ f − λ Id est non injective ⇔ ker( f − λ Id) ≠ {0}
⇔ ∃ u ∈ E \ {0}, f (u ) = λ u ( ⇔ λ est valeur propre de f ) déf
Si P admet n racines distinctes deux à deux, alors il existe une base B’ de E dans laquelle la matrice de f est diagonale : Notons λ 1 , λ 2 ,...λ n ces racines. On peut introduire u1 , u 2 ,...un ∈ E \ {0} tels que ∀k ∈ [1, n ], f (u k ) = λ k u k Montrons que (u1 , u 2 ,...u n ) est libre. Pour cela, montrons par récurrence que ∀k ∈ [1, n ], (u1 , u 2 ,...u k ) est libre.
• pour k = 1 , ok car u1 ≠ 0 • soit k ∈ [1, n − 1 ], supposons que (u1 , u 2 ,...u k ) est libre. Soit ( µ 1 , µ 2 ,...µ k +1 ) ∈ K n , supposons que µ 1u1 + µ 2 u 2 + ... + µ k +1u k +1 = 0 (1) Alors, en appliquant f , on a : µ 1λ 1u1 + µ 2 λ 2 u 2 + ... + µ k +1λ k +1u k +1 = 0 ( 2) Puis en faisant λ k +1 (1) − (2) :
µ 1 (λ k +1 − λ 1 )u1 + µ 2 (λ k +1 − λ 2 )u 2 + ... + µ k (λ k +1 − λ k )u k = 0 Donc ∀i ∈ [1, k ], µ i = 0 , car les λ i sont distincts deux à deux, et (u1 , u 2 ,...u k ) est libre.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
91 91/167
5/14/2018
Alg brelin aire-slidepdf.com
Enfin, µ k +1 = 0 car uk +1 ≠ 0 Donc (u1 , u 2 ,...u k +1 ) est libre, ce qui achève la récurrence Donc (u1 , u 2 ,...u n ) est libre, de cardinal n. c’est donc une base de E . De plus, par construction, la matrice de f dans cette base est diagonale :
λ 1 0 … 0 0 λ 2 ⋱ ⋮ A = ⋮ ⋱ ⋱ 0 0 … 0 λ n Exemple où P a n racines non distinctes et f n’est pas diagonalisable : 1 1 … 0
0 1 ⋱ ⋮ Pour n ∈ N * , on note An = ∈ M n (K ) ⋮ ⋱ ⋱ 1 0 … 0 1
Alors P (λ ) = det( An − λ I n ) = (1 − λ ) n . (matrice triangulaire supérieure) On doit donc trouver B' = (e1 , e2 ,...en ) tel que :
λ 1 0 … 0 0 λ 2 ⋱ ⋮ mat ( f , B ' ) = ⋮ ⋱ ⋱ 0 0 … 0 λ n Mais alors, pour tout k ∈ [1, n ] : f (ek ) = λ k ek . Comme ek ≠ 0 , λ k est racine de P, donc λ k = 1 . Donc mat( f , B ' ) = I n , ce qui est impossible.
Produit scalaire sur un R-ev Ici, E désigne un R-ev.
XXXVII Définition Définition : Un produit scalaire sur E , c’est une forme bilinéaire symétrique définie–positive sur E , C'est-à-dire une application ϕ : E × E → R telle que : ( x, y )֏ϕ ( x, y )
• Pour tous x, x ' , y ∈ E , λ ∈ R , ϕ ( x + λ x' , y ) = ϕ ( x, y ) + λϕ ( x ' , y ) Et pour tous x, y , y '∈ E , λ ∈ R , ϕ ( x, y + λ y ' ) = ϕ ( x, y ) + λϕ ( x, y ' ) (Bilinéarité) • ∈ = Pour tous x, y E , ϕ ( x, y ) ϕ ( y, x) (symétrie) • Pour tout x ∈ E , ϕ ( x, x) ≥ 0 (« positive » seulement)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
92 92/167
5/14/2018
Alg brelin aire-slidepdf.com
Et ϕ ( x, x ) = 0 ⇒ x = 0 (« définie–positive ») Exemple : le produit scalaire canonique sur R n . Rn ×Rn → R Soit ϕ : . Alors ϕ est un produit scalaire sur R n . On n
1 n 1 n (( x ,... ),( y ,... ))֏ i =1 xi y i x y x
∑
y
l’appelle le produit scalaire canonique sur R n . Démonstration : La bilinéarité et la symétrie sont immédiates.
ϕ ( x, x) =
n
∑ x
2 i
≥ 0
i =1
XXXVIII Propriétés essentielles A) Théorème de Cauchy–Schwarz Théorème : (inégalité de Cauchy–Schwarz) Soit ϕ un produit scalaire sur E . 2
Alors, pour tous x, y ∈ E , (ϕ ( x, y ) ) ≤ ϕ ( x, x ) × ϕ ( y , y ) Démonstration : Soient x, y ∈ E
• Si x = 0 , alors ϕ ( x, y ) et ϕ ( x, x) sont nuls (car ϕ est une forme bilinéaire) • Si x ≠ 0 . Pour tout λ ∈ R , on a : 2
x ϕ λ x (λ , ) = λ ϕ ( x, x) + ϕ ( y, y) + λϕ ( x, y ) + λϕ ( y, x) + y + y ≥ 0 car ϕ est positive
= λ 2ϕ ( x, x ) + ϕ ( y , y ) + 2λϕ ( x, y ) Or, x ≠ 0 et ϕ est définie–positive. Donc ϕ ( x, x) ≠ 0 . On a donc à droite un polynôme du second degré en λ qui reste toujours positif. Son discriminant est donc négatif (ou nul). Donc ∆ = 4ϕ ( x, y ) 2 − 4ϕ ( y , y )ϕ ( x, x ) ≤ 0 D’où l’inégalité voulue.
B) Norme associée à un produit scalaire Définition générale d’une norme sur un R-ev : Une norme sur E , c’est une application N : E → R telle que : • ∀ x ∈ E , N ( x ) ≥ 0
• ∀ x ∈ E , ( N ( x ) = 0 ⇒ x = 0) • ∀ x ∈ E , N (λ x ) = λ N ( x)
• ∀ x, y ∈ E , N ( x + y ) ≤ N ( x ) + N ( y ) (inégalité triangulaire) Proposition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
93 93/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit ϕ un produit scalaire sur E . Alors l’application N : x ֏ ϕ ( x, x) est une norme sur E (ainsi, pour tout x ∈ E , N ( x) 2 = ϕ ( x, x) , appelé le carré scalaire de x) Démonstration : Déjà, pour x ∈ E , ϕ ( x, x ) ≥ 0 . Donc
ϕ ( x, x) a un sens et est positive, ne peut être nulle que si ϕ ( x, x) = 0 , ce qui n’est le cas que lorsque x = 0 . Pour x ∈ E , λ ∈ R , on a
ϕ (λ x, λ x) = λ 2ϕ ( x, x) = λ ϕ ( x, x) .
Soient x, y ∈ E . On a les équivalences : N ( x + y ) ≤ N ( x) + N ( y ) ⇔
ϕ ( x + y, x + y ) ≤ ϕ ( x, x) + ϕ ( y, y)
⇔ ϕ ( x + y, x + y) ≤ ϕ ( x, x) + 2 ϕ ( x, x)ϕ ( y, y ) + ϕ ( y, y ) ⇔ ϕ ( x, x) + 2ϕ ( x, y ) + ϕ ( y, y ) ≤ ϕ ( x, x)
+ 2 ϕ ( x, x)ϕ ( y, y) + ϕ ( y, y ) ⇔ ϕ ( x, y) ≤ ϕ ( x, x)ϕ ( y, y ) Ce qui est vrai car ϕ ( x, y) ≤ ϕ ( x, y ) ≤ ϕ ( x, x)ϕ ( y, y ) (Cauchy–Schwartz) On appelle cette norme la norme associée au produit scalaire ϕ
C) Distance associée à un produit scalaire Définition générale de distance sur un ensemble E : Une distance sur E , c’est une application d : E × E → R telle que : • ∀ x, y ∈ E , d ( x, y ) ≥ 0
• ∀ x, y ∈ E , (d ( x, y ) = 0 ⇒ x = y ) • ∀ x, y ∈ E , d ( x, y ) = d ( y , x )
• ∀ x, y , z ∈ E , d ( x, z ) ≤ d ( x, y ) + d ( y , z ) Proposition : Si N est une norme sur le R-ev E , alors l’application ( x, y ) ֏ N ( x − y ) est une distance sur E , appelée la distance associée à la norme N . Démonstration : On note d ( x, y ) = N ( y − x )
• • d ( x, y ) = N ( y − x ) ≥ 0 , n’est nul que si y − x = 0 soit y = x . • d ( y, x) = N ( x − y ) = N (−( y − x)) = − 1 N ( y − x) = d ( x, y )
• d ( x, z ) = N ( z − x) = N ( z − y + y − x) ≤ N ( z − y ) + N ( y − x) ≤ d ( x, y ) + d ( y, z )
Cas particulier : Si N est la norme associée à un produit scalaire ϕ , alors la distance associée à cette norme s’appelle la distance associée au produit scalaire ϕ .
D) Orthogonalité On suppose E muni d’un produit scalaire ϕ .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
94 94/167
5/14/2018
Alg brelin aire-slidepdf.com
Définition : Soient x, y ∈ E . On dit que x et y sont orthogonaux (pour le produit scalaire ϕ ) lorsque ϕ ( x, y ) = 0 . On note alors x ⊥ y ( ⊥ est donc un symbole – courant – pour la relation « être orthogonal à »). Remarque : ∀ x ∈ E , x ⊥ 0 E car ∀ x ∈ E , ϕ ( x,0 E ) = 0 . Théorème (de Pythagore) : Soit N la norme associée au produit scalaire ϕ . Alors, pour tous x, y ∈ E , on a l’équivalence : x ⊥ y ⇔ N ( x + y ) 2 = N ( x) 2 + N ( y ) 2 Démonstration : Soient x, y ∈ E . On a : N ( x + y ) = ϕ ( x + y, x + y ) = ϕ ( x, x) + 2ϕ ( x, y ) + ϕ ( y, y ) 2
= N ( x) 2 + 2ϕ ( x, y) + N ( y ) 2 +
2
=
Ainsi, N ( x y )
2
N ( x)
+
2
⇔
N ( y )
= ϕ ( x, y)
⇔ 0
⊥ x
y .
E) Divers On suppose E muni d’un produit scalaire ϕ , la norme associée N . Diverses égalités : 2 2 2 N ( x + y ) = N ( x ) + 2ϕ ( x, y ) + N ( y ) (Egalité de Al Kashi) N ( x − y ) = N ( x ) − 2ϕ ( x, y ) + N ( y ) 2
2
2
N ( x + y ) 2 + N ( x − y ) 2 = 2 N ( x ) 2 + 2 N ( y ) 2 (égalité du parallélogramme)
N ( x + y ) 2 − N ( x − y ) 2 = 4ϕ ( x, y )
F) Familles orthogonales, orthonormales On suppose E muni d’un produit scalaire ϕ . Définition : Soit (u i ) i∈ I une famille de vecteurs de E . • La famille est orthogonale ⇔ ∀i, j ∈ I , (i ≠ j ⇒ u i ⊥ u j ) déf
∀i, j ∈ I , (i ≠ j ⇒ u i ⊥ u j ) • La famille est orthonormale ⇔ déf et ∀i ∈ I , u i est de norme 1 ⇔ ∀i, j ∈ I , ϕ (u i , u j ) = δ i , j (Où δ i , j = 1 si i = j , 0 sinon) Note : La famille (u i ) i∈ I est libre ⇔ pour tout J ⊂ I fini, la famille (u i ) i∈ J est libre. déf
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
95 95/167
5/14/2018
Alg brelin aire-slidepdf.com
⇔ pour tout J ⊂ I fini, pour toute famille (λ i ) i∈ J de scalaires :
∑ λ u i
i
= 0 E ⇒ ∀i ∈ J , λ i = 0
i∈ J
Proposition : Si (u i ) i∈ I est une famille orthogonale de vecteurs tous non nuls (et en particulier si (u i ) i∈ I est une famille orthonormale), alors (u i ) i∈ I est libre. Démonstration : Soit (u i ) i∈ I , famille orthogonale de vecteurs tous non nuls. Soit J ⊂ I , fini. Soit (λ i ) i∈ J une famille de réels. Supposons que
∑ λ u i
i
= 0 E .
i∈ J
ϕ (u j ,0) = 0 Soit j ∈ J . Alors ϕ (u j , ∑ λ i u i ) = ∑ λ i ϕ (u j , u i ) = λ j ϕ (u j , u j ) . Donc λ j = 0 . i∈ J i∈ J =0 si i ≠ j ≠0 Donc ∀ j ∈ J , λ = 0 . Donc (u ) ∈ est libre. Donc (u ) ∈ est libre. j
i
i J
i
i I
Exemples de famille orthogonale : - La base canonique de R n est évidemment orthonormale pour le produit scalaire naturel sur R n . - E = C 0 ([0,2π ], R ) muni du produit scalaire ( f , g ) ֏
∫
2π
0
fg .
Alors les fonctions x ֏ cos kx, k ∈ N forment une famille orthogonale. En effet : Pour p, q ∈ N , on a :
∫
2π
0
cos( px) cos( qx) dx =
1
2∫
2π
0
cos(( p + q) x) + cos(( p − q ) x)dx 2
π 1 1 1 si p ≠ q : = sin(( p + q ) x) + sin(( p − q) x) = 0 2 p + q p − q 0
si p = q ≠ 0 : = si p = q = 0 : =
2π
1 1
sin(( p + q ) x) + x = π ≠ 0 2 p + q 0
1 2
[2 x]02π = 2π ≠ 0
(Ainsi, les famille des x ֏
1
π
cos kx, k ∈ N * est orthonormale)
G) Sous-espaces orthogonaux On suppose E muni d’un produit scalaire ϕ . Définition : Soit F un sous-espace vectoriel de E . On note F ⊥ = { x ∈ E , ∀ y ∈ F , x ⊥ y} (ensemble des éléments de E orthogonaux à tout les éléments de F ). Proposition : F ⊥ est un sous-espace vectoriel de E , appelé l’orthogonal de F . Démonstration : • 0 E ∈ F ⊥ car ∀ y ∈ F , ϕ (0 E , y ) = 0
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
96 96/167
5/14/2018
Alg brelin aire-slidepdf.com
• Soient x, x'∈ F ⊥ , λ ∈ R . Alors x + λ x'∈ F ⊥ car ∀ y ∈ F , ϕ ( x + λ x ' , y ) = ϕ ( x, y ) + λϕ ( x' , y ) = 0 + λ 0 = 0 . (Remarque : on n’utilise pas le fait que F est un espace vectoriel pour montrer que F en est un, donc F peut très bien être un ensemble quelconque…) ⊥
Définition – proposition : Soient F , G deux sous-espaces vectoriels de E . ⊥ ⊥ F et G sont orthogonaux ⇔ ∀ x ∈ F , ∀ y ∈ G, x ⊥ y ⇔ F ⊂ G ⇔ G ⊂ F déf
On note alors F ⊥ G . Exemple ( R 3 , produit scalaire naturel) : D ⊥
D' ⊂ D
Remarque :
⊥
• {0 E }⊥ = E car ∀ x ∈ E , ϕ ( x,0 E ) = 0 • E ⊥ = {0 E }. En effet : Soit x ∈ E ⊥ . Alors ∀ y ∈ E , ϕ ( x, y ) = 0 . En particulier, ϕ ( x, x ) = 0 . Donc x = 0 . D’où E ⊥ ⊂ {0 E } , et l’autre inclusion est évidente…
• ( F ⊥ ) ⊥ ⊃ F « Les éléments de F sont orthogonaux à tous les éléments de E qui sont orthogonaux à tous les éléments de F ». Ou encore : Soit x ∈ F , montrons que x ∈ ( F ⊥ ) ⊥ , c'est-à-dire que ∀ y ∈ F ⊥ , x ⊥ y , ce qui est vrai car x ∈ E , donc pour tout y ∈ F ⊥ , x ⊥ y (par définition de F ⊥ ) L’autre inclusion est fausse en général (en fait, elle est vraie uniquement en dimension finie, comme on le verra dans le chapitre suivant)
Espace vectoriel euclidien XXXIX Définition et notations Un espace vectoriel euclidien = un R-ev de dimension finie muni d’un produit scalaire. déf
Dans tout ce chapitre, E désigne un R-ev euclidien de dimension n ≥ 2 , le produit scalaire est noté ϕ . Pour x, y ∈ E , on note aussi : - x ⋅ y pour ϕ ( x, y ) (parfois on rencontre aussi ( x | y) ) - x 2 pour ϕ ( x, x ) - x pour
ϕ ( x, x) (ainsi, x ֏ x est la norme associée au produit scalaire ϕ , on
l’appelle la norme euclidienne) - x ⊥ y pour ϕ ( x, y ) = 0
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
97 97/167
5/14/2018
Alg brelin aire-slidepdf.com
Exemple : R n muni du produit scalaire canonique : on parle de la structure euclidienne canonique de R n . Remarque : Si E est un espace vectoriel euclidien, alors tout sous-espace vectoriel F de E est muni naturellement d’une structure euclidienne, obtenue par restriction.
XL Bases orthonormales A) Généralités Définition, proposition : Une base orthonormale (ou orthonormée) = une famille orthonormale de vecteurs déf
de E qui en forme une base = une famille orthonormale de n vecteurs de E (car une famille orthonormale est libre.
Théorème (Schmidt) : Soit (u1 , u2 ,...un ) une base quelconque de E . Alors il existe une unique base orthonormale (e1 , e2 ,...en ) telle que :
• ∀ p ∈ [1, n ], Vect (e1 , e2 ,...e p ) = Vect (u1 , u2 ,...u p ) • ∀ p ∈ [1, n ], e p ⋅ u p > 0
On dit que (e1 , e2 ,...en ) est la base orthonormale s’appuyant sur la base (u1 , u 2 ,...u n ) par le procédé d’orthonormalisation de Schmidt. Préliminaire (graphique) :
Démonstration : On montre par récurrence sur p que, pour tout p ∈ [1, n ] , « on a une et une seule manière de construire e p ». - Il est évident qu’il y a une seule façon de construire e1 de sorte que : 1 1 1 1 1 1 • Vect(e ) = Vect(u ) (cela impose que e = λ u , avec λ ≠ 0 car e ≠ 0, u ≠ 0 ) • e1 = 1 (cela impose alors que λ u1 = 1 , ainsi e1 = ± λ u1 )
• e1 ⋅ u1 > 0 , donc e1 = + λ u1 . Ainsi, e1 =
u1 u1
. Réciproquement, ce vecteur convient bien
- Soit p ∈ [1, n − 1 ] . Supposons (e1 , e2 ,...e p ) construit. Montrons qu’il y a un et un seul choix de sorte que : • Vect (e1 , e2 ,...e p +1 ) = Vect (u1 , u 2 ,...u p +1 ) (1)
• e p +1 est orthogonal aux ei ,1 • e p +1 = 1
≤ ≤ i
p
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
( 2) (3)
98 98/167
5/14/2018
Alg brelin aire-slidepdf.com
• e p +1 ⋅ u p +1 > 0
( 4)
(1) impose que e p +1 soit combinaison linéaire des u i ,1 ≤ i ≤ p + 1
= λ u p +1 + combinaison linéaire des u i ,1 ≤ i ≤ p combinaison linéaire des ei ,1≤ i ≤ p
u p +1
et λ ≠ 0 car sinon Vect (e1 , e2 ,...e p +1 ) = Vect (u1 , u 2 ,...u p ) = Vect (u1 , u 2 ,...u p +1 ) et serait alors combinaison linéaire des u i ,1 ≤ i ≤ p .
Donc e p +1 = λ u p +1 +
p
∑α e . i i
i =1
Et inversement, si e p +1
p = λ u p +1 + ∑ α i ei , alors on a bien (1). i =1
(2) impose que pour j ∈ [1, p ], e j ⋅ e p +1 = 0 . p p +1 j i i j α e ⋅ e = λ (u p +1 .e j + α j ) car on a = λ u ⋅ e + ∑ i =1
Or, pour j ∈ [1, p ], e j ⋅ e p +1
ei ⋅ e j = 0 si i ≠ j , 1 sinon, par hypothèse de récurrence.
Ainsi, ∀ j ∈ [1, n ], α j = −u p +1 ⋅ e j Inversement, si cette condition est vérifiée, on a bien (2). p
(3) impose que e p +1 = 1 , c'est-à-dire que 1 = λ u p +1 +
∑α e i
.
i
i =1
1
Donc λ = ±
+
u p +1
∑α e i
i
α e
∑ i =1
p
( u p +1 +
p i
i
≠ 0 car sinon u p +1 ∈ Vect (e1 , e2 ,...e p ) = Vect (u1 , u 2 ,...u p ) )
i =1
Inversement, si on a cette valeur de λ , on a bien (3).
(4) impose le choix de +, car e p +1 ⋅ e p +1 = λ u p +1 ⋅ e p +1 +
p
∑α e ⋅ e i
i =1
i
.
p +1
p
Or,
∑α e ⋅ e i
i
p +1
= 0 car e p +1 est orthogonal aux ei ,1 ≤ i ≤ p .
i =1
⋅ p +1 p +1 Donc e e
=1
=
⋅ p1 > p +1 + donc λ 0. λ u e >0
Inversement, si λ > 0 , on a bien (4). Ce qui achève la récurrence. Conséquences : (1) Dans un espace vectoriel euclidien, il existe au moins une base orthonormale (2) Toute famille orthonormale peut être complétée en une base orthonormale. En effet : Soit (e1 , e2 ,...e p ) une famille orthonormale. Comme elle est libre, on peut la compléter en une base (e1 , e2 ,...e p , e p +1 ,...en ) de E . Par le procédé d’orthonormalisation
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
99 99/167
5/14/2018
Alg brelin aire-slidepdf.com
de Schmidt, on obtient alors une base orthonormale (e'1 , e' 2 ,...e' n ) . Mais, d’après le théorème de Schmidt appliqué dans F = Vect (e1 , e2 ,...en ) , on a (e1 ,...e p ) = (e'1 ,...e' p ) .
B) Produit scalaire et base orthonormale Soit B = (e1 , e2 ,...en ) une base orthonormale de E .
x Soit x ∈ E , de composantes ( x1 , x 2 ,... xn ) dans B, notons X = x⋮ . x y Soit y ∈ E , de composantes ( y1 , y 2 ,... y n ) dans B, notons Y = y⋮ . y 1
2
n
1
2
n
On identifie ici R et M 1,1 (R ) pour ne pas charger les notations : n n n x ⋅ y = ∑ xi ei ⋅ ∑ y j e j = ∑ xi ei ⋅ y j e j = ∑ xi yi = ( x i =1 i =1 j =1 i , j∈[ 1,n ]
1
Ainsi, x ⋅ y =
n
∑ x y i
y y t )× ⋮ =( X )Y y 1
x2
⋯ xn
2
n
t )Y . =( X
i
i =1
2 Et, en particulier : x = x ⋅ x =
n
∑ x
2 i
t ) X =( X
i =1
n R → E
Ainsi, l’application φ B :
, qui est un isomorphisme de R-ev,
n
( x1 , x2 ,... xn )֏
∑ x e i
i
i =1
est aussi un isomorphisme de R-ev euclidien *, R n étant muni de sa structure euclidienne canonique. (* C'est-à-dire que pour tout u , v ∈ R n , φ B (u ) ⋅ φ B (v) = u ⋅ v , en plus des règles pour un R-ev). Remarque : Inversement, soit E un R-ev de dimension n, B = (u1 , u 2 ,...u n ) une base de E . Alors il existe un et un seul produit scalaire tel que B soit orthonormale dans le R-ev euclidien E muni de ce produit scalaire. En effet, c’est l’application ϕ définie par : Pour tout x, y ∈ E , de composantes ( x1 , x 2 ,... x n ) et ( y1 , y 2 ,... y n ) dans B,
ϕ ( x, y ) =
n
∑ x y i
i
.
i =1
Exemple : 2 2 R , muni de la base [(1,2), (1,1)] . On note (i , j ) la base canonique de R .
u1
u2
Soit x = ( x1 , x 2 ) ∈ R . 2
Alors x = x1 i + x 2 j = x1 ( 2u 2 − u1 ) + x 2 (u1 − u 2 ) = ( x 2 − x1 )u1 + ( 2 x1 − x 2 )u 2 .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
100 100/167
5/14/2018
Alg brelin aire-slidepdf.com
Ainsi, (i , j ) est une base orthonormale pour le produit scalaire naturel, mais
(u1 , u 2 ) n’en est pas une pour ce produit scalaire ; en revanche, c’en est une pour le produit scalaire ϕ :
R2 →R . ( x=( x1, x2 ), y=( y1, y2 ))֏( x 2 − x1 )( y 2 − y1 ) + (2 x1 − x 2 )(2 y1 − y 2 ) 2 x2 y2 +5 x1 y1 −3 x1 y2 −3 x2 y1
XLI Orthogonal d’un sous-espace vectoriel, projecteurs et symétries orthogonaux A) Orthogonal d’un sous-espace vectoriel (rappel) Soit F un sous-espace vectoriel de E . On définit F ⊥ = { x ∈ E , ∀ y ∈ F , x ⋅ y = 0} . Alors F ⊥ est un sous-espace vectoriel de E , et E = F ⊕ F ⊥ . Démonstration : Déjà, c’est un sous-espace vectoriel de E (vu dans le chapitre précédent). • Si F = {0} , alors F ⊥ = E , et on a bien E = F ⊕ F ⊥ .
• Si F ≠ {0} . On note p la dimension de F ; ainsi, 1 ≤ p ≤ n . Soit (e1 , e 2 ,...e p ) une base orthonormale de F . On la complète en une base orthonormale B = (e1 , e2 ,...en ) de E . Soit alors x ∈ E , de composantes ( x1 , x 2 ,... xn ) dans B. On a alors les équivalences :
n i i x ∈ F ⇔ ∀ y ∈ F , i =1 x e ⋅ y = 0 ∑ ⊥
n p ⇔ ∀ y1 , y 2 ,... y p ∈ R , ∑ x i ei ⋅ ∑ y i ei = 0 i =1 i =1 n ⇔ ∀ j ∈ [1, p ], ∑ xi ei ⋅ e j = 0 ⇔ ∀ j ∈ [1, p ], x j = 0 i =1 L’avant-dernière équivalence se justifie dans un sens en prenant, pour j ∈ [1, p ] y j = 1 et ∀i ∈ [1, p ] \ { j}, yi = 0 , et dans l’autre sens par linéarité de la deuxième
variable. Donc F ⊥ = Vect(e p +1 , e p + 2 ,...en ) , donc F ⊥ est bien supplémentaire de F dans E . Conséquence : Dans un espace euclidien, ( F ⊥ ) ⊥ = F . En effet, on a déjà vu que F ⊂ ( F ⊥ ) ⊥ . De plus, en notant p = dim F , on a : dim( F ⊥ ) = n − p , donc dim(( F ⊥ ) ⊥ ) = n − ( n − p ) = p = dim F . D’où l’égalité.
B) Projecteur orthogonal Définition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
101 101/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit F un sous-espace vectoriel de E . Le projecteur orthogonal sur F = le projecteur sur F selon F ⊥ . déf
Pour x ∈ E , p le projecteur orthogonal sur F , alors p ( x) est appelée la projection orthogonale de x sur F . ⊥
F
Ainsi, p ( x ) est l’unique élément de F tel que x s’écrive : ⊥ ⊥ x = p ( x ) + u , où u ∈ F . (car E = F ⊕ F , et x ∈ E , p ( x ) ∈ F )
Autrement dit, p ( x) est l’unique élément de F tel que x − p( x) ∈ F ⊥ . Ainsi, pour
y ∈ F . y ∈ E , y = p( x) ⇔ ⊥ x − y ∈ F
C) Distance d’un élément à un sous-espace vectoriel Définition : Soit A une partie non vide E et soit x ∈ E . Alors la distance de x à A, notée d ( x, A) , est : d ( x, A) = inf d ( x, y ) . déf y∈ A
La borne inférieure existe bien, car {d ( x, y ), y ∈ A} est non vide (car A est non vide), et minorée (par 0). (Définition : frontière = adhérence d’une partie, privée de l’intérieur) Théorème : Soit F un sous-espace vectoriel de E , soit p le projecteur orthogonal sur F . Soit x0 ∈ E . Alors p ( x0 ) est l’unique élément de F tel que d ( x0 , F ) = x0 − p( x0 ) . Autrement dit, la distance de x 0 est atteinte, en un et un seul point, qui n’est autre que p( x0 ) . Démonstration : Soit y ∈ F . 2
Alors y − x
2
= y − p ( x ) + p( x ) − x
0
0
0
.
0
Or, y − p( x0 ) ∈ F car y ∈ F , p ( x0 ) ∈ F ; et p ( x 0 ) − x 0 ∈ F ⊥ par définition de p. Donc y − p ( x0 ) ⊥ p( x0 ) − x0 . Ainsi, d’après le théorème de Pythagore : y − x0
2
= y − p ( x 0 ) + p ( x 0 ) − x0
2
= y − p ( x 0 )
2
2
+ p ( x0 ) − x 0
D’où y − x0 ≥ p( x0 ) − x0 , et il n’y a égalité que si y = p( x0 ) (car sinon y − x 0
2
− p ( x 0 ) − x 0
2
= y − p ( x0 )
2
≠ 0)
D) Symétries orthogonales Ce sont les symétries par rapport à un sous-espace vectoriel F , selon F ⊥ .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
102 102/167
5/14/2018
Alg brelin aire-slidepdf.com
Autrement dit : ⊥ La symétrie orthogonale par rapport à F = l’application f : E = F ⊕ F → E . déf x= x'+ x''֏ x'− x'' F
⊥
Remarque : f ( x ) = 2 p ( x) − x , où p est la projection orthogonale sur F . Proposition : Soit f une symétrie sur E . On a l’équivalence : f est une symétrie orthogonale ⇔ ∀ x ∈ f ( x) = x . Symétrie quelconque :
Démonstration : Soit f une symétrie par rapport à F selon G. (où G est tel que E = F ⊕ G ). Soit x ∈ E . Alors x = x F + xG , et f ( x) = x F − xG .
∈F
Donc x
2
= x F
2
∈G
+ 2 x F ⋅ xG + x G
2
et f ( x )
2
= x F
2
2
− 2 x F ⋅ xG + xG .
Ainsi : • Si G = F ⊥ , alors x F ⋅ xG vaudra toujours 0. Donc ∀ x ∈ f ( x) = x
• Si G ≠ F ⊥ , on peut trouver x'∈ F , x' '∈ G tel que x'⋅ x' ' ≠ 0 . Alors, en prenant x = x '+ x' ' (∈ E ) , on aura trouvé x tel que f ( x) ≠ x . D’où l’équivalence.
XLII Formes linéaires et hyperplans A) Formes linéaires Théorème : Les formes linéaires sur E sont exactement les applications du type : E → R , où x֏ a⋅ x a ∈ R . Plus précisément : (1) Les applications du type x ֏ a ⋅ x sont linéaires, et (2) Si h ∈ E * , alors il existe un et un seul élément a de E tel que ∀ x ∈ E , h( x ) = a ⋅ x . (on retrouve ainsi le fait que dim( E *) = dim( E ) ) Démonstration : Le premier point résulte de la linéarité du produit scalaire par rapport à la seconde variable. Pour le deuxième : Soit B = (e , e ,...e ) une base orthonormale de E . 1
Soit h ∈ E * .
2
n
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
103 103/167
5/14/2018
Alg brelin aire-slidepdf.com
Il existe alors a1 , a 2 ,...a n ∈ R ( x1 , x 2 ,... xn )
dans B,
tels que, pour tout x ∈ E de composantes
h( x) = a1 x1 + a 2 x2 + ... + a n x n = a ⋅ x , avec
a=
n
∑a e i
(on
i
i =1
introduit en fait (a1 a 2 ... a n ) , matrice de h dans les bases B et (1)). D’où l’existence. Unicité : Si il existe a, a '∈ E tels que ∀ x ∈ E , h( x) = a ⋅ x et ∀ x ∈ E , (a − a ' ) ⋅ x = 0 (linéarité par rapport à la première variable).
h( x) = a '⋅ x , alors
Donc a − a '∈ E ⊥ = {0} , d’où a = a' .
B) Hyperplans Soit H un hyperplan de E . Alors H est le noyau d’une forme linéaire sur E , h, non nulle (attention, il n’y a pas unicité !).
Or, il existe n ∈ E tel que ∀ x ∈ E , h ( x ) = n ⋅ x . ⊥ Ainsi, H = ker h = { x ∈ E , h( x ) = 0} = { x ∈ E , n ⋅ x = 0} = [Vect ( n ) ] .
Donc n dirige la droite vectorielle N = H ⊥ . On dit que N est la normale à H : N = H ⊥ , ou encore N ⊥ = H , et que n est un vecteur normal à H . Remarque : Si B = (e1 , e2 ,...e n ) est une base orthonormale de E ,
Si H a pour équation H : a1 x1 + a 2 x 2 + ... + a n x n = 0 dans B, alors le vecteur n de
a composantes a⋮ dans B est normal à H . En effet, l’équation "dit" : x ∈ H ⇔ n ⋅ x = 0 . a 1
2
n
C) Projection orthogonale sur un hyperplan
On considère un hyperplan H , un vecteur n normal à H et p le projecteur orthogonal sur H .
x' = p( x) Soit x ∈ E . Alors x = x' + x . ' ' , et x ' ' λ n , où λ R = ∈ ⊥ ∈ H ∈ H
Donc x = p ( x ) + λ .n
2
Ainsi, x ⋅ n = p ( x ) ⋅ n + λ n = 0 car p ( x )∈ H
x ⋅ n D’où λ = 2 , et, par conséquent : n
p ( x) = x − x' ' = x − λ .n
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
104 104/167
5/14/2018
Alg brelin aire-slidepdf.com
x ⋅ n Soit p( x) = x − 2 .n n Conséquence :
x ⋅ n x ⋅ n Pour tout x ∈ E , d ( x, H ) = x − p ( x) = 2 n = . n n
D) Réflexion Une réflexion = une symétrie orthogonale par rapport à un hyperplan. déf
Proposition : Etant donnés deux vecteurs x, x’ de E , distincts et de même norme, il existe une et une seule réflexion qui les échange. Démonstration : Existence : Soit H l’hyperplan tel qu’un vecteur normal soit x − x' , et soit f la réflexion d’hyperplan H . On note enfin p la projection orthogonale sur H .
x ⋅ ( x − x' ) Alors f ( x) = 2 p ( x ) − x = 2 x − ( x − x ' ) − x 2 x − x ' x
= −2
2
x
x
= −2
2 x
2
− x ⋅ x '
− 2 x ⋅ x '+ x ' 2
− x ⋅ x '
2
− 2 x ⋅ x'
2
( x − x ' ) − x
( x − x ' ) − x
= −( x − x' ) − x = x ' Et, de même, f ( x ' ) = x . Unicité : Supposons qu’il existe deux réflexions f , g d’hyperplans F , G telles que : f ( x ) = x ' ; f ( x' ) = x ; g ( x ) = x ' ; g ( x ' ) = x On a alors : Déjà, x − x' est normal à F . En effet : Pour tout y ∈ F , on a déjà : f ( x − y ) = x − y
= f ( x) − f ( y ) = x'− y
D’où x − y = x'− y . De plus, pour tout y ∈ F : ( x − x' ) ⋅ y = x'⋅ y − x ⋅ y =
1 2
( x'
2
+ y
2
− x'− y
2
(
2
− 12 x + y
= 0 car x' = x et x'− y = x − y
2
− x − y
2
.
Donc F ⊥ = Vect ( x − x ' ) . De même, G ⊥ = Vect ( x − x' )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
105 105/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc F ⊥ = G ⊥ , d’où F = G .
XLIII Automorphismes orthogonaux A) Définition, théorème Soit f ∈ L( E ) . f est un automorphisme orthogonal ⇔ f " conserve le produit scalaire"(1) : déf
∀ x, y ∈ E , f ( x) ⋅ f ( y ) = x ⋅ y ⇔ f " conserve la norme"(2) : ∀ x ∈ E , f ( x) = x ⇔ f " conserve les bases orthonormales" (3) :
Pour toute base orthonormale (e1 , e2 ,...en ) ( f (e1 ), f (e2 ),... f (en )) est orthonormale
⇔ f " conserve une base orthonormale" (4) : Il existe une base orthonormale (e1 , e2 ,...en ) telle que ( f (e1 ), f (e2 ),... f (en )) est orthonormale Démonstration : (1) ⇒ ( 2) : évident ; si (1), alors f ( x) 2 = x 2 ( 2) ⇒ (1) : supposons (2). Soient x, y ∈ E . Alors : f ( x) ⋅ f ( y ) = 1 f ( x) + f ( y ) 2 − f ( x) 2 − f ( y ) 2 1 2 2 2 = f ( x + y ) − f ( x) − f ( y ) 2 1 2 2 2 = x + y − x − y 2 = x ⋅ y
( (
)
(
2
)
)
(1) ⇒ (3) : supposons (1).
Soit (e1 , e2 ,...en ) une base orthonormale. Alors, pour tout i, j ∈ [1, n ], f (ei ) ⋅ f (e j ) = ei ⋅ e j = δ i ; j (3) ⇒ ( 4) : il en existe puisque l’ensemble des bases orthonormales n’est pas vide. ( 4) ⇒ (1) : supposons (4). Soit B = (e1 , e2 ,...en ) une base orthonormale telle que B ' = ( f (e1 ), f (e2 ),... f (en )) soit aussi orthonormale. Soient alors x, y ∈ E , de composantes ( x1 , x2 ,... xn ) et ( y1 , y2 ,... yn ) dans B. Alors x ⋅ y =
n
∑ x y i
i
.
i =1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
106 106/167
5/14/2018
Alg brelin aire-slidepdf.com
Et f ( x ) ⋅ f ( y ) =
n
∑ x y i
i
car B’ est aussi orthonormale, et les composantes de
i =1
f ( x ) et f ( y ) dans B’ sont ( x1 , x2 ,... xn ) et ( y1 , y2 ,... yn ) puisque f est linéaire (rappel :
pour une application linéaire, x =
n
∑
xi ei ⇒ f ( x) =
i =1
n
∑ x f (e ) ) i
i
i =1
Remarque : Si une application f est un automorphisme orthogonal, alors c’est aussi un automorphisme. En effet : si f est un automorphisme orthogonal, alors :
f ( x) = 0 ⇒ f ( x) = 0 ⇒ x = 0 ⇒ x = 0 . Donc ker f = {0}. Donc f est injective, donc bijective (puisque E est de dimension finie) Définition, proposition : On note O ( E ) l’ensemble des automorphismes orthogonaux de E . Alors O ( E ) constitue un sous-groupe de (GL( E ), ) des automorphismes de E . On l’appelle le groupe orthogonal de E . Les éléments de O ( E ) sont aussi appelés des isométries vectorielles. Démonstration : • Id E ∈ O( E )
• Si f , g ∈ O ( E ) , alors f g ∈ O ( E ) et f −1 ∈ O ( E ) : ( f g )( x) = f ( g ( x)) = g ( x) = x , et f −1 ( x) = f ( f −1 ( x )) = f −1 ( x ) = x . Exemple : Les symétries orthogonales sont des éléments de O ( E )
B) Matrices orthogonales Théorème : Soit B une base orthonormale de E . Soit f ∈ L ( E ) , et A = (ai , j )1≤i ≤ n = mat( f , B ) . 1≤ j ≤ n
Alors : f ∈ O ( E ) ⇔ les colonnes de A forment une base orthonormale de M n ,1 (R ) muni t de son produit scalaire naturel ⇔ A t A = I n ⇔ A est inversible et A −1 = A
Démonstration : f ∈ O( E ) ⇔ ( f (e1 ), f (e2 ),... f (en )) est orthonormée
⇔ ∀i, j ∈ [1, n ], f (ei ) ⋅ f (e j ) = δ i , j n
⇔ ∀i, j ∈ [1, n ], ∑ a k ,i a k , j = δ i , j
k =1
⇔ les colonnes de A forment une famille orthonormale de M n,1 (R )...
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
107 107/167
5/14/2018
Alg brelin aire-slidepdf.com
et ∀i, j ∈ [1, n ],
n
∑a
k ,i
a k , j = δ i , j ⇔ t AA = I n
k =1 t ⇔ A est inversible et A −1 = A
⇔ At A = I n D’où le résultat. Définition, proposition : - Soit A ∈ M n (R ) t A est orthogonale ⇔ AA = I n ⇔ A est inversible et A −1 = A t
déf
- L’ensemble des matrices carrées et orthogonales, noté On (ou O ( n) , ou On (R ) ), forme un sous-groupe de (GLn (R ),×) - Si B est une base orthonormale de E , si f est une application linéaire de E dans E , et si A = mat ( f , B ) , alors f ∈ O ( E ) ⇔ A ∈ On - B étant une base orthonormale de E , l’application φ : O ( E ) → On est un f ֏mat( f ,B ) isomorphisme du groupe (O ( E ),) dans (On ,×) En effet : Déjà, φ est correctement définie, puisque pour f ∈ O ( E ) , mat ( f , B ) est bien orthogonale. ( f g ) = mat ( f g , B ) = mat ( f , B ) × mat ( g , B ) = ( f ) × ( g ) • • φ ( Id E ) = I n
• C’est surjectif d’après le tiret précédent : pour A ∈ On , on trouve f ∈ O( E ) . • C’est aussi injectif : ker φ = {Id} Exemple : 1 2
5 1 5
5 , −2 5
2
− 1
5 ∈O n 2
5 1
5
5
C) Déterminant d’un automorphisme orthogonal Proposition : Si f ∈ O ( E ) , alors det f = ±1 Si A ∈ On , alors det A = ±1 Démonstration : Si A ∈ On , on a alors : t t 2 AA = I n , donc det( AA) = 1 , soit det( A) × det( A) = 1 , d’où det( A) = 1
t
Si f ∈ O ( E ) : soit A = mat ( f , B ) , où B est une base orthonormale.
= Alors det f
=± det A
1 car A est orthogonale.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
108 108/167
5/14/2018
Alg brelin aire-slidepdf.com
Définition, proposition : On note SO ( E ) l’ensemble des éléments f ∈ O ( E ) tels que det f = 1 On note SOn l’ensemble des A ∈ On tels que det( A) = 1 . Alors SO ( E ) est un sous-groupe de (O ( E ),) , on l’appelle le groupe orthogonal spécial de E . Et SOn est un sous-groupe de (On ,×) , on l’appelle le groupe orthogonal spécial d’ordre n (attention, SOn n’est pas pour autant de cardinal n !) Ces deux groupe sont isomorphes ; plus précisément, si B désigne une base orthonormale de E , l’application O( E ) → On définit, par restriction, un f ֏mat( f ,B ) isomorphisme de SO ( E ) vers SOn . (Remarque : O ( E ) \ SO ( E ) n’est pas un sous-groupe, puisque si det f = −1 et det g = −1 , alors det f g = 1 !) Exemple : Soit f une symétrie orthogonale par rapport à un sous-espace vectoriel quelconque F de E . (on note p la dimension de F ). Alors f ∈ O ( E ) (puisque f conserve la norme) On considère la matrice de f dans une base adaptée (le "début" dans F , le "reste" dans F ⊥ ) : 1 0 … … … 0
0 ⋱ ⋱ ⋮ ⋱ 1 ⋱ ⋱ −1 ⋱ ⋮ ⋮ ⋱ ⋱
0
0 … … …
− 1
Ainsi, det f = (−1)
0
⋮ ⋮
⋮
n − p
Vocabulaire : Un élément de SO ( E ) est un automorphisme orthogonal direct / une isométrie vectorielle directe. (et indirect(e) pour les éléments de O ( E ) \ SO ( E ) ) Ainsi : • Les réflexions sont toujours indirectes ( n − p = 1 )
• Les symétries orthogonales par rapport à une droite (appelées aussi retournements) sont indirectes en dimension 2, directes en dimension 3. Autre vocabulaire : Les éléments de SO ( E ) s’appellent aussi des rotations.
XLIV Orientation et changement de base A) Orientation d’un R-ev E de dimension n. Orienter E , c’est choisir une base B de E , décréter qu’elle est directe, et convenir qu’étant donnée une base B’ de E : B’ est directe ⇔ det B B ' > 0
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
109 109/167
5/14/2018
Alg brelin aire-slidepdf.com
B’ est indirecte ⇔ det B B ' < 0 Ainsi, étant données deux bases B’ et B’’ de E , B’ et B’’ sont de même sens (c'està-dire toutes les deux (in)directes) si et seulement si det B ' B ' ' > 0 En effet : det B ' B ' ' = det B ' B × det B B ' ' = (det B B ' ) −1 × det B B ' ' , qui est positif si et seulement si les deux déterminants on même signe. Exemples : • En dimension 2 : Si (i , j ) est directe, alors ( j , i ) est indirecte, ( − j , i ) est directe, ( −i ,− j ) aussi. (Les déterminants sont « multipliés par -1 » lorsqu’on échange deux vecteurs) • En dimension 3 :
Si (i , j , k ) est directe, alors ( j , k , i ) est directe, ( j , i , k ) est indirecte, et ( j , i ,− k ) directe. On considère dorénavant E orienté. Proposition : Si (u1 , u 2 ,...u p ) est une famille orthonormale de E , avec p < n , on peut la compléter en une base orthonormée directe de E . Démonstration : On sait construire (u1 , u 2 ,...u n ) base orthonormale. Ainsi, soit (u1 , u 2 ,...u n ) , soit (u1 , u 2 ,... − u n ) sera directe.
B) Changement de base orthonormale Proposition : Soit B = (e1 , e2 ,...en ) une base orthonormale de E . Soit B ' = (e'1 , e' 2 ,...e' n ) une autre base de E , et P la matrice de passage de B à B’. Alors B’ est orthonormale ⇔ P est orthogonale. Plus précisément : B’ est orthonormale de même sens que B ⇔ P ∈ SOn B’ est orthonormale de sens contraire à B ⇔ P ∈ On \ SOn . Démonstration : P donne les composantes de B’ dans B, qui est orthonormale. Donc, pour tout i, j ∈ [1, n ], e'i ⋅e' j = C i ⋅ C j (produit scalaire naturel des colonnes de P), et donc B’ est orthonormale si et seulement si les colonnes de P forment une base orthonormale de M n ,1 (R ) . (Par ailleurs, det B B ' = det P , d’où le sens…) Ainsi, si B est une base orthonormée directe et si B’ est une autre base, P la matrice de passage de B à B’, alors B’ est une base orthonormée directe si et seulement si P ∈ SOn
C) Automorphismes orthogonaux et orientation
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
110 110/167
5/14/2018
Alg brelin aire-slidepdf.com
Proposition : Soit f ∈ L( E ) , soit B = (e1 , e2 ,...en ) une base orthonormale de E . On sait déjà que f ∈ O( E ) ⇔ ( f (e1 ), f (e2 ),... f (en )) est une base orthonormale. On a, plus précisément : f ∈ SO( E ) ⇔ ( f (e1 ),... f (en )) est une base orthonormale de même sens que B. f ∈ O ( E ) \ SO( E ) ⇔ ( f (e1 ), f (e2 ),... f (en )) est une base orthonormale de sens
opposé à B. Démonstration : Si B ' = ( f (e1 ), f (e2 ),... f (en )) , alors det B ( B ' ) = det f .
D) Déterminant en base orthonormée directe Proposition, définition : Soit B une base orthonormée directe de E . Soit (u1 , u 2 ,...u n ) une famille de n vecteurs de E . Alors det B (u1 , u 2 ,...u n ) ne dépend pas du choix de la base orthonormée directe B, et s’appelle le produit mixte de u1 , u 2 ,...u n , qu’on note det(u1 , u 2 ,...u n ) ou [u1 , u 2 ,...u n ] . Démonstration : Si B, B’ sont deux bases orthonormées directes : det B ' (u1 , u 2 ,...u n ) = det B ' B × det B (u1 , u 2 ,...u n )
=1 car B , B ' sont deux bases orthonormales de même sens
R-ev
euclidien orienté de dimension 2
Dans tout ce chapitre, E désigne un R-ev euclidien orienté de dimension 2. Exemples : R 2 muni de sa structure euclidienne canonique. C, en tant que R-ev de dimension 2, on peut le munir de sa structure euclidienne orientée naturelle, c'est-à-dire celle pour laquelle la base naturelle (1, i ) est une base orthonormée directe. Alors, pour z = x + iy , z ' = x'+iy ' , on a z = x + y = x , z ⋅ z ' = xx'+ yy' = Re( z z ') 2
2
XLV Rappels : droites du plan E. Ce sont les hyperplans de E : Si B = (i , j ) est une base de E , une droite a pour équation D : ax + by = 0 dans B.
Le vecteur d de composantes (−b, a ) dans B dirige D ( D = Vect (d ) ), et n de composantes ( a, b) dans B est normal à D. ( D ⊥ = Vect ( n ) ) Pour u ∈ E , on note p (u ) le projeté orthogonal de u sur D.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
111 111/167
5/14/2018
Alg brelin aire-slidepdf.com
p (u )
d
n
u
u ⋅ n u ⋅ n Alors p(u ) = u − 2 n , d (u , D ) = u − p (u ) =
n
n
Donc si la droite a pour équation D : ax + by = 0 dans une base orthonormée directe B, ax0 + by0 x0 si u dans B, alors d (u , D) = 2 2 a +b y0
XLVI Angle orienté de deux vecteurs non nuls du plan Proposition, définition : Soient u , v deux vecteurs non nuls de E . Alors il existe un réel θ , unique à 2π près, tel que :
u u θ θ = cos + sin .u ' , où u ' désigne le vecteur de E tel que , u ' soit une base v u u v
orthonormée directe de E . On dit alors que θ est une mesure de l’angle orienté (u ,ˆ v ) . On note (u ,ˆ v ) = θ [2π ]. Remarque :
L’angle orienté (u ,ˆ v ) = l’ensemble de ses mesures = θ ∈ R , v = cos θ u + sin θ .u ' déf
v
Cette définition est rarement utilisée : on devrait écrire θ ∈ (u ,ˆ v ) . Démonstration de la proposition :
u u
u
u est de norme 1. Il existe donc un unique u ' tel que , u ' soit une base u
orthonormée directe.
v
u'
v
v
u
u u
u α v , u ' . est de norme 1 ; soit la colonne de ses composantes dans B = β u v Alors α 2 + β 2 = 1
cos θ = α v u Et, pour tout θ ∈ R , = cos θ + sin θ .u ' ⇔ v u sin θ = β Propriétés :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
112 112/167
5/14/2018
Alg brelin aire-slidepdf.com
(u ,ˆ u ) ≡ 0 [2π ] ; (u , ˆ− u ) ≡ π [2π ] ; (v ,ˆ u ) ≡ −(u ,ˆ v ) [2π ]
u , u ' ≡ + π [2π ] u 2
u cosθ = u v (car v ⋅ u = cosθ u ⋅ u + sin θ .u '⋅ u ) det(u , v ) sin θ = u ⋅v
v
u
u
u
u v
En effet :
u On prend B = , u ' , base orthonormée directe. Alors : u u v u u det B , = det B , cos θ + sin θ .u ' u v u u u u u 1 Soit : det B (u , v ) = cos θ det B , + sin θ det B , u ' u u u u v =det (u ,v ) =0
=sinθ det B B =sin θ
Ainsi, cette formule montre que : det(u , v ) = u v sin θ = aire du parallélogramme correspondant aux deux vecteurs.
hauteur
v
u
XLVII Etude de O( E) et O2. A) Etude (orthogonau x) ac + bd = 0 , avec 2 2 2 2 d a + b = c + d = 1 (de norme 1) a − d − d a a 0 = λ (puisque ≠ ) ac + bd = 0 ⇔ = 0 ⇔ ∃λ ∈ R , b c c b b 0 d = −λ c Donc , et d 2 + c 2 = λ 2 ( a 2 + b 2 ) = λ 2 . Donc λ = ±1 c = λ b a − b Donc A = b a , et une matrice de ce type est bien dans SO2 ( det A = 1 ) a b , et une matrice de ce type est bien dans O2 \ SO2 ( det A = −1 ) Ou A = b − a
a Soit A ∈ O2 : b
c
(Avec dans les deux cas a 2 + b 2 = 1 ) Conclusion : a − b , avec a , b ∈ R et a 2 + b 2 = 1 . Les éléments de SO2 sont les b a
a
Les éléments de O2 \ SO2 sont les
b
, avec a, b ∈ R et a 2 + b 2 = 1 . − a b
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
113 113/167
5/14/2018
Alg brelin aire-slidepdf.com
B) Etude de SO( E ) et SO2. cosθ − sin θ , Les éléments de SO2 sont exactement les matrices du type sin θ cos θ θ ∈ R (résulte de l’étude précédente). On a, pour tout θ , θ '∈ R : cos θ − sin θ cosθ ' − sin θ ' cos(θ + θ ' ) − sin(θ + θ ' ) × = . sin θ cosθ sin θ ' cosθ ' sin(θ + θ ' ) cos(θ + θ ' )
Ainsi :
cosθ − sin θ , θ ∈ R et ( SO2 ,×) est un groupe SO2 est l’ensemble des sin θ cosθ commutatif. Théorème et définition : Soit f ∈ SO ( E ) . Alors il existe un réel θ , unique à 2π près, tel que la matrice de
cosθ − sin θ . On dit alors que f est la f dans toute base orthonormée directe soit sin θ cos θ rotation (vectorielle) d’angle θ . Démonstration : Soit B une base orthonormée directe, soit A = mat ( f , B ) . Comme f ∈ SO ( E ) , on sait qu’alors A ∈ SO2 . Il existe donc θ ∈ R , unique à 2π
cosθ − sin θ près, tel que A = . Soit B’ une autre base orthonormée directe. Soit sin θ cosθ alors P la matrice de passage de B à B’. Alors, comme P ∈ SO2 (et SO2 est commutatif) : mat( f , B ' ) = P −1 AP = P −1 PA = A . Pour θ ∈ R , notons ρ θ la rotation d’angle θ . Proposition : L’application R → SO( E ) est un morphisme surjectif du groupe (R ,+ ) vers
θ ֏ ρ θ
( SO ( E ),) , et dont le noyau est 2π Z En effet : • ρ 0 = Id E
• ∀θ ,θ '∈ R , ρ θ +θ ' = ρ θ ρ θ ' (résulte du calcul matriciel précédent). • Surjectivité : résulte du théorème précédent cosθ − sin θ 1 0 = ⇔ θ ∈ 2π Z • Noyau : ρ θ = Id E ⇔ sin cos 0 1 θ θ Autres résultats : • ( ρ θ ) −1 = ρ −θ ;
ρ π = − Id E • Etant donnés deux vecteurs u , v non nuls et θ ∈ R , on a l’équivalence : ρ θ (u ) = v ⇔ u = v (u ,ˆv ) ≡ θ [2π ]
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
114 114/167
5/14/2018
Alg brelin aire-slidepdf.com
En effet : - Si ρ θ (u ) = v , alors u = v car ρ θ est un automorphisme orthogonal.
u Notons u ' le vecteur tel que , u ' soit une base orthonormée directe. u cos θ − sin θ . Alors la matrice de ρ θ dans cette base est sin θ cos θ u u Ainsi, ρ θ = cos θ + sin θ .u ' . u u u u v u Donc = ρ θ = cos θ + sin θ .u ' . Donc (u ,ˆv ) ≡ θ [2π ] v v u u - Inversement, si u = v et (u ,ˆv ) ≡ θ [2π ] , alors : v = cosθ u + sin θ .u ' , où u' est tel que u , u ' soit une base orthonormée v u u u u v ère directe. Donc = ρ θ u (1 colonne de la matrice de ρ θ dans u , u ' , v
orthonormée) v 1 Donc = ρ θ (u ) , soit ρ θ (u ) = v . v u
C) Etude de O( E )\ SO( E ) et O2 \ SO2. • Soit f ∈ O ( E ) \ SO ( E ) , A = mat ( f , B ) , où B est une base orthonormale de E . Alors A ∈ O2 \ SO2 .
a
Donc A =
b
, où a 2 + b 2 = 1 . b − a
On remarque déjà que t A = A . Or, A ∈ O2 , donc t AA = I 2 . Donc A 2 = I 2 , donc f 2 = Id E . Ainsi, f est une symétrie vectorielle. Mais f ∈ O ( E ) , donc f est une symétrie orthogonale (car ∀ x ∈ E , f ( x) = x ), et cette symétrie est par rapport à une droite : La symétrie par rapport à E est l’identité, et celle par rapport à {0} est − Id E , et ces deux éléments sont dans SO ( E ) (en dimension 2). Ainsi, f est une réflexion. • Inversement, les réflexions sont bien des éléments de O ( E ) \ SO ( E ) . Conclusion : O ( E ) \ SO ( E ) est l’ensemble des réflexions. Attention : la matrice d’une réflexion dans une base orthonormée directe dépend de cette base. 1 0 dans une base orthonormale La matrice d’une réflexion de droite D est 0 − 1 dont le premier vecteur dirige D.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
115 115/167
5/14/2018
Alg brelin aire-slidepdf.com
D) Résumé, tableau : classification des éléments de O( E ) lorsque dim E = 2 Dimension de l’espace des invariants 0
Nature Rotation d’angle θ non nul (modulo 2π )
2
Id E (rotation d’angle nul)
1
Réflexion de droite D
Matrice
cosθ − sin θ dans toute base orthonormée sin θ cosθ directe
1 0 dans toute base 0 1 1 0 dans une base orthonormée directe. 0 − 1 a b dans toute base orthonormée Du type b a − directe.
Remarque :
cos( −θ ) La matrice de ρ θ dans une base orthonormée indirecte est sin(−θ )
− sin(−θ )
cos( −θ )
(les bases orthonormées indirectes d’une orientation sont les bases orthonormées directes de l’autre orientation)
E) Composées de réflexions Théorème : Tout élément de SO ( E ) est composé de deux réflexions, l’une pouvant être choisie quelconque. Démonstration : Soit ρ ∈ SO ( E ) , s ∈ O ( E ) \ SO ( E ) Alors ρ s ∈ O ( E ) , et det( ρ s ) = det( ρ ) × det( s ) = −1 . Donc ρ s ∈ O ( E ) \ SO ( E ) . Donc ρ s est une réflexion s ' . Donc ρ = ρ ( s s ) = ( ρ s ) s = s ' s De même, s ρ = s ' ' , où s ' '∈ O ( E ) \ SO ( E ) . Donc ρ = s s ' ' Conclusion : Les réflexions engendrent O ( E )
XLVIII Compléments à propos d’angles orientés • Relation de Chasles : u , v , w ∈ E \ {0} (u ,ˆ v ) ≡ (u ,ˆ w) + ( w,ˆ v ) [2π ] Démonstration : Conséquence du fait que ρ θ +θ ' = ρ θ ρ θ ' .
• Angle orienté de deux droites du plan.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
116 116/167
5/14/2018
Alg brelin aire-slidepdf.com
u
u'
Soient D, D’ deux droites de vecteurs directeurs u , u ' . Alors (u,ˆu ' ) , modulo π , ne dépend pas du choix de u et u ' . On le note alors ( D,ˆ D ' )
(Si λ > 0, (u ,ˆλ u ' ) ≡ (u ,ˆu ' ) [2π ] et (u ,ˆ− u ' ) ≡ π + (u ,ˆu ' ) [2π ] )
• α = angle orienté ( D,ˆ D ' ) :
s D (u )
s D ' ( s D (u ))
u
α
Alors, en notant s D , s D' les réflexions de droites D , D ' , on a s D ' s D = ρ 2α .
R-ev
euclidien orienté de dimension 3
XLIX Préliminaires E est un R-ev euclidien orienté de dimension 3.
A) Brefs rappels • Les formes linéaires sur E sont exactement les x ֏ a ⋅ x • Les plans sont les hyperplans de E , admettent une équation du type ax + by + cz = 0 , avec (a, b, c) ≠ (0,0,0) , dans toute base. a
Si B est une base orthonormale, et si P : ax + by + cz = 0 dans B, alors n b
c
a (signifie : n de colonne de composantes b dans B) est normal à P. c
Si u est un vecteur de E , de composantes ( x 0 , y 0 , z 0 ) dans B, et p le projecteur orthogonal sur P :
u ⋅n ax0 + by0 + cz 0 u ⋅n u = p (u ) + λ n , et λ = 2 ; d (u , P) = = n n a2 + b2 + c2
B) Orientation induite
Soit P un plan de E , n un vecteur normal à P (non nul) :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
117 117/167
5/14/2018
Alg brelin aire-slidepdf.com
Lemme : Soient B P = (u , v ) , B ' P = (u ' , v ' ) deux bases de P.
Alors det B P B ' P = det ( u ,v ) (u ' , v ' ) = det (u , v ,n ) (u ' , v ' , n ) .
( (u , v , n ) et (u ' , v ' , n ) sont bien des bases de E )
En effet, si la matrice de (u ' , v ' ) dans (u , v ) est β α δ γ , alors la matrice de
α 0
(u ' , v ' , n ) dans (u , v , n ) est β
. 1
γ 0 δ 0 0
Il en résulte qu’on peut définir une orientation sur P de sorte que, étant donnée une base (u , v ) de P : (u , v ) est une base directe de P ⇔ (u , v , n ) est une base directe de E . Cette orientation s’appelle l’orientation induite sur P par n .
C) Angle non orienté
L’angle non orienté de deux vecteurs u , v non nuls, c’est l’unique α ∈ [0, π ] tel
que cos α =
u ⋅v
(définition valable en toute dimension) v u Remarque : Si P est un plan orienté contenant u , v , et si θ est l’angle orienté (u ,ˆ v ) dans le
plan, alors θ ≡ ±α [2π ] , puisque cosα = cosθ
L Produit vectoriel A) Proposition, définition Soient u , v ∈ E . Alors il existe un et un seul vecteur w ∈ E tel que ∀ x ∈ E , det( u , v , x ) = w ⋅ x . Ce vecteur w est noté u ∧ v , et s’appelle le produit vectoriel de u et v . Ainsi, u ∧ v est caractérisé par ∀ x ∈ E , det(u , v , x ) = (u ∧ v ) ⋅ x En effet : x ֏ det( u , v , x ) est une forme linéaire (car det est une application 3-linéaire) Il existe donc un unique w ∈ E tel que cette forme linéaire soit x ֏ w ⋅ x .
B) Composantes en base orthonormée directe
Soit B = (i , j , k ) une base orthonormée directe de E .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
118 118/167
5/14/2018
Alg brelin aire-slidepdf.com
a
a'
Soient u b , v b' . Recherche des composantes de u ∧ v : c c'
x Soit x ∈ E , x y z
Alors det(u , v , x ) = det B (u , v , x ) = x
bc'−cb' Où w ca'−ac' ab'−ba'
b
b'
c
c'
− y
a
a'
c
c'
+ z
a
a'
b
b'
= w ⋅ x ,
Ainsi : ∀ x ∈ E , det( u , v , x ) = w ⋅ x Donc w = u ∧ v bc'−cb'
Ainsi, u ∧ v ca'−ac'
ab'−ba'
C) Propriétés diverses • Si B = (i , j , k ) est une base orthonormale de E , alors i ∧ j = k . En effet :
a 1 a ' 0 Il suffit de reprendre la formule précédente avec b = 0 et b' = 1 c 0 c' 0
• Si u , v sont orthogonaux et de norme 1, alors u ∧ v est le vecteur tel que la base (u , v , u ∧ v ) soit orthonormée directe. • L’application : E × E → E est 2-linéaire alternée : (u ,v )֏u ∧v - linéarité par rapport à la première variable :
Soit x E . On a : det(u +∈λ u ' , v , x ) = ((u + λ u ' ) ∧ v ) ⋅ x , et : w det(u + λ u ' , v , x ) = det(u , v , x ) + λ det(u ' , v , x ) = (u ∧ v ) ⋅ x + λ (u '∧v ) ⋅ x = (u ∧ v + λ u '∧v ) ⋅ x w
- Linéarité par rapport à la deuxième variable : idem - Alternée :
Pour tout x ∈ E , det(u , u , x ) = 0 = 0 ⋅ x .
= u ∧ u . Donc 0 • Plus précisément, on a l’équivalence : A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
119 119/167
5/14/2018
Alg brelin aire-slidepdf.com
(u , v ) est libre ⇔ u ∧ v ≠ 0 En effet :
Si (u , v ) est liée, alors u ∧ v = 0 car alors ∀ x ∈ E , det(u , v , x ) = 0 = 0 ⋅ x . Si (u , v ) est libre, on peut la compléter en une base (u , v , w) de E .
) (u v ) w 0 , donc u ∧ v ≠ 0 Alors det( u , v , w = ∧ ⋅ ≠ ∧ ⊥ et • u v u u ∧v ⊥v En effet : (u ∧ v ) ⋅ u = det(u , v , u ) = 0 (u ∧ v ) ⋅ v = det(u , v , v ) = 0
• Si u , v sont indépendants, alors (u , v , u ∧ v ) forme une base directe de E (non nécessairement orthonormée) En effet :
det(u , v , u ∧ v ) = (u ∧ v ) ⋅ (u ∧ v ) > 0 , car u ∧ v ≠ 0
D) Produit vectoriel, angles
Soient u , v ∈ E \ {0} . Soit P un plan contenant u , v ( Vect (u , v ) lorsque les deux
vecteurs sont indépendants). Soit w un vecteur unitaire sur P ⊥ . On oriente P avec l’orientation induite par w . Soit θ l’angle orienté (u ,ˆ v ) dans P.
u u Ainsi, = cosθ + sin θ .u ' , où u ' est tel que , u ' soit une base v u u u orthonormée directe de P, c'est-à-dire que , u ' , w est une base orthonormée directe u u de E . (Remarque : u ' = w ∧ ) v
u
En faisant le produit vectoriel par , on obtient : u
u v u ∧ = sin θ . ∧ u ' = sin θ .w u
v
u
u
Donc, par linéarité du produit vectoriel :
u ∧ v = u v sin θ .w Ainsi :
u ∧ v = u v sin θ = u v sin α , où α est l’angle non orienté entre u et v .
Donc, si u ∧ v ≠ 0 : u ∧ v = u v sin α . ( w' est le vecteur unitaire sur P ⊥ u ∧v w'
u ∧v
tel que (u , v , w') est une base directe).
O( E) et O3. LI Etude A) de Deux lemmes
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
120 120/167
5/14/2018
Alg brelin aire-slidepdf.com
Lemme 1 : Soit f ∈ O ( E ) . Alors l’application x ֏ det( f − xId E ) est polynomiale de degré 3 : Si A = mat( f , B ) = (a ) i , j
≤≤
où B est une base quelconque :
1≤ j i ≤33
a1,1 − x
det( f − xId E ) = det( A − xI 3 ) = a 2,1 a 3,1
a1, 2
a1, 3
a 2 , 2 − x
a 2, 3
a3, 2
a 3,3 − x
(Rappel : c’est le polynôme caractéristique de f ). Ce polynôme possède donc au moins une racine réelle λ (puisque la fonction tend vers + ∞ en − ∞ et vers − ∞ en + ∞ , et elle est continue) Alors det( f − λ Id E ) = 0 . Donc f − λ Id E n’est pas injective. Donc ker( f − λ Id E ) ≠ {0}. Il existe donc u ∈ E \ {0} tel que f (u ) = λ u . Mais f ∈ O ( E ) . Donc ∀u ∈ E , f (u ) = u . Donc λ = ±1 Conclusion : L’un au moins des deux espaces ker( f − Id E ) ou ker( f + Id E ) n’est pas réduit à
{0} . ( ker( f − Id E )
est appelé l’espace des vecteurs invariants, ker( f + Id E ) celui des
vecteurs retournés) Lemme 2 : ⊥
Soit f ∈ O ( E ) . Si F est un sous-espace vectoriel de E stable par f , alors F est aussi stable par f . Démonstration : Soit F stable par f , c'est-à-dire ∀u ∈ F , f (u ) ∈ F (ou f ( F ) ⊂ F ) Comme f est un automorphisme, on a en fait f ( F ) = F , car f ( F ) est de même dimension (finie) que F . Soit v ∈ F ⊥ . Soit w ∈ F . Alors w = f (u ) , où u ∈ F . Donc f (v ) ⋅ w = f (v ) ⋅ f (u ) = v ⋅ u = 0 (car v ∈ F ⊥ et u ∈ F donc u ⊥ v ) Ainsi, ∀w ∈ F , f (v ) ⋅ w = 0 . Donc f (v ) ∈ F ⊥ . D’où la stabilité.
B) Classification des éléments de O( E ) selon la dimension de l’espace des invariants Soit f ∈ O ( E ) , F = ker( f − Id E ) . 1 cas : dim F = 3 . Alors f = Id E . (inversement, Id E ∈ O( E ) ) er
ème
2
cas : dim F = 2 . Alors la droite D = F ⊥ est stable par f . f / D constitue donc
une isométrie de D, et sans vecteur invariant autre que 0 (puisque l’ensemble des
vecteurs invariants est F , et F ∩ F ⊥ = F ∩ D = {0}). Donc f / D
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
= ±Id
(les seules
D
121 121/167
5/14/2018
Alg brelin aire-slidepdf.com
isométries d’un espace de dimension 1 sont Id D et - Id D ). Comme seul 0 est invariant, f / D = − Id D . Inversement, les réflexions sont bien dans O ( E ) (et même O ( E ) \ SO ( E ) ). F
⊥
u
f (u )
ème 3 cas : dim F = 1. Soit P = F ⊥ ; P est stable par f , et f / P constitue une isométrie vectorielle de P,
sans vecteur invariant autre que 0 (même raison que précédemment). f / P est donc une rotation d’angle non nul)
Si on se donne un vecteur unitaire k sur F , et i , j (dans P) tels que (i , j , k ) est une base orthonormée directe de E , si on note θ l’angle de la rotation f / P du plan P
orienté par (i , j ) (c'est-à-dire par k ), la matrice de f dans (i , j , k ) est alors :
cos θ − sin θ 0 sin θ cosθ 0 . 0 0 1
θ
F ⊥
Inversement : un endomorphisme admettant une telle matrice dans une base orthonormée directe est dans SO ( E ) (car la matrice est dans SO2 ) ème 4 cas : dim F = 0 Selon le lemme 1, l’espace ker( f + Id E ) n’est alors pas réduit à {0} . On introduit
w ∈ E \ {0} tel que f ( w) = − w .
Soit alors D ⊥= Vect ( w) : alors D est stable par f (car ∀λ ∈ R , f (λ w) = −λ w ∈ D ) Donc P = D est aussi stable par f . Donc f / P constitue une isométrie de P, sans vecteur invariant autre que 0 . f / P est donc une rotation d’angle non nul. Il existe donc une base orthonormée
directe (i , j , k ) , qu’on définit de la même façon que dans le troisième cas, telle que :
cos θ − sin θ 0 mat ( f , (i , j , k )) = sin θ cosθ 0 0 0 − 1
Inversement, un endomorphisme admettant une telle matrice dans une base orthonormée directe est bien élément de O ( E ) \ SO ( E ) , car la matrice est dans O3 \ SO3
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
122 122/167
5/14/2018
Alg brelin aire-slidepdf.com
D = P
⊥
θ
C) Etude de SO( E ) 1) Proposition, définition Soit f ∈ SO ( E ) . On peut alors introduire : - Une droite D, un vecteur unitaire k sur D (c'est-à-dire un axe ( D, k ) ) - Un réel θ Tels que la matrice de f dans toute base orthonormée directe dont le
troisième vecteur est k soit : cosθ − sin θ 0
sin θ 0
cos θ 0
0
1
On dit que f est la rotation d’axe ( D, k ) et d’angle θ . Démonstration : Résulte de l’étude et du chapitre précédent avec les rotations planes.
2) Détermination du couple axe – angle • Si f = Id E : on prend un axe quelconque, et comme angle θ ≡ 0 [ 2π ] . • Si f ≠ Id E , on a deux couples axe – angle possibles : (( D, k ),θ ) ou (( D,− k ),−θ ) , où D = ker( f − Id E ) Détermination pratique : (1) D = ker( f − Id E ) …
(2) k unitaire sur D (deux choix).
(3) choix de i , j tels que (i , j , k ) soit orthonormée directe (pas nécessairement explicités) cosθ − sin θ 0
Ainsi, la matrice de f dans (i , j , k ) est sin θ 0
cos θ 0
0 .
1
f (i ) = cos θ .i + sin θ . j .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
123 123/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc i ⋅ f (i ) = cosθ . Et j ⋅ f ( j ) = sin θ , ou alors det(i , f (i )) = sin θ ou
encore i ∧ f (i ) = sin θ .i ∧ j = sin θ .k (ces deux dernières possibilités permettent
de n’avoir à calculer que i si i et j ne sont pas explicités) Figure :
Rotation d’axe ( D, k ) et d’angle θ . D u
k
θ
Formules pour obtenir f (u ) , image de u par f , rotation d’axe ( D, k ) et d’angle θ . ⊥
On note P = D u = u1 + u 2 , où u1 ∈ P et u 2 ∈ D .
Comme u 2 ∈ D , on a u 2 = λ .k .
2 u ⋅ k Et u ⋅ k = u1 ⋅ k + λ k . Donc λ = 2 .
k
=0
On a f (u ) = f (u1 ) + f (u 2 ) . =u Détermination de f (u ) : 2
1
Supposons u ≠ 0 (sinon, f (u ) = f (u ) = u = u ). u1 On introduit alors a tel que , a soit une base orthonormée de P u 1 2
2
u1 k orienté par k , c'est-à-dire tel que , a , soit une base orthonormée directe u1 k
de E . (on a alors a = ∧ )
Ainsi : u f 1 = u 1
k
u1
k
u1
cos θ + sin θ .a , où θ ∈ R
u1 u1
u1 cos θ − sin θ dans , a ) (La rotation plane f / P a pour matrice sin θ cos θ u1
Ainsi, comme u1 = u − u 2 = u − λ .k :
k f (u1 ) = u1 cos θ + u1 sin θ . ∧ = u1 cos θ + sin θ . ∧ u1
k
u1
k
u1
k
Donc :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
124 124/167
5/14/2018
Alg brelin aire-slidepdf.com
f (u ) = f (u1 ) + f (u 2 ) =u 2
u ⋅ k u ⋅ k k = u − 2 k cosθ + sin θ . ∧ (u − λ .k ) + 2 k k k k k ∧ u u ⋅ k = cosθ .u + sin θ . + 2 (1 − cosθ )k k
k
D) Tableau résumant la classification Dimension de l’espace des invariants
Nature
3
Id E
1
Rotation d’angle θ non nul d’axe ( D, k )
SO ( E )
2
Réflexion de plan P
Matrice dans une base adaptée
1 0 0 1 0 0 cos θ sin θ 0
dans toute base 1 −sin θ 0 cos θ 0 dans toute base 0 1 0 0
orthonormée directe dont le troisième vecteur est k k
1 0 0
0 1 0
dans une base −1 0 0
orthonormale dont les deux premiers vecteurs sont dans P. O ( E ) \ SO ( E )
cos θ −sin θ 0 sin θ cos θ 0 dans toute base − 0 1 ) et d’une réflexion 0 ( D, k orthonormée directe dont le
Composée d’une rotation d’angle θ non nul d’axe 0
de plan orthogonal à l’axe de rotation
troisième vecteur est
k k
E) Composée de réflexions Proposition : La composée de deux réflexions est une rotation. Plus précisément : Si s1 et s 2 sont deux réflexions de plans P1 et P2 , alors :
• Si s1 = s 2 , alors s1 s 2 = Id E . A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
125 125/167
5/14/2018
Alg brelin aire-slidepdf.com
• Sinon, s1 s 2 est une rotation d’axe porté par P1 ∩ P2 . Démonstration : - s1 s 2 ∈ SO( E ) : évident ; c’est la composée de deux isométries indirectes. - Si s1 ≠ s 2 , s1 s 2 est une rotation autre que Id E . De plus, les éléments de P1 ∩ P2 sont invariants par s1 s 2 (car ∀u ∈ P1 ∩ P2 , s1 s 2 (u) = s1 ( s 2 (u )) = s1 (u ) = u ) Remarque :
θ
D ⊥
P2
P1
s1 s 2 est la rotation d’axe ( D, k ) et d’angle 2θ . Proposition : Toute rotation f est composée de deux réflexions par rapport à des plans contenant l’axe de rotation, l’une des deux réflexions pouvant être prise quelconque (mais contenant l’axe tout de même) Démonstration : Soit P1 un plan contenant l’axe D de f , s1 la réflexion de plan P1 . Alors s1 f ∈ O( E ) \ SO( E ) , et s1 f laisse les éléments de D invariants. Donc
dim(ker( f − Id E )) ≠ 0 . Donc s1 f est une réflexion s 2 , de plan contenant D. Donc s1 f = s 2 . Donc f = s1 s 2 . On procède de même avec f s1 … Conséquence : Le groupe O ( E ) est engendré par les réflexions. Plus précisément, tout élément de O ( E ) peut s’écrire comme produit de 0, 1, 2 ou 3 réflexions.
LII Divers angles non orientés en dimension 3 • De vecteurs u , v :
L’angle non orienté (u ,ˆ v ) est le réel θ ∈ [0, π ] tel que cosθ = .
• De droites D1 , D2 :
u ⋅v u v
u ⋅v π L’angle non orienté ( D1 ˆ, D2 ) est le réel θ ∈ 0, tel que cosθ = , u v 2 Où D1 = Vect(u ) , et D2 = Vect(v )
• De plans P1 , P2 : C’est l’angle non orienté des normales N 1 , N 2 aux deux plans. C’est aussi celui de D1 , D2 , où P = ( P1 ∩ P2 ) ⊥ , D1 = P1 ∩ P , D2 = P2 ∩ P .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
126 126/167
5/14/2018
Alg brelin aire-slidepdf.com
P1 P1
D1
∩ P2
P2
θ D2
• D’un plan P avec une droite D. C’est l’angle entre D et sa projection orthogonale sur P. (définition non valable si D = P ⊥ ) π C’est aussi − ( D,ˆ N ) , où N = P ⊥ 2
D'
Espaces affines LIII Définitions et notations A) Définition Soit E un R-espace vectoriel. Définition : Un espace affine attaché à E est une couple (ε ,+ ) formé d’un ensemble ε non vide et d’une loi externe + qui à un couple ( A, u ) de ε × E associe un élément A + u de ε vérifiant les axiomes suivants :
(1) ∀ A ∈ ε , A + 0 = A ( 2) ∀ A ∈ ε , ∀u , v ∈ E , A + (u + v ) = ( A + u ) + v (3) ∀ A, B ∈ ε , ∃!u ∈ E , B = A + u Si ε est un espace affine attaché à E : - On dit que E est l’espace vectoriel directeur de ε ; - Les éléments de ε sont appelés des points, et ceux de E des vecteurs ; - Si E est de dimension finie n, on dit que ε est de dimension finie n.
B) Translation Soit ε un espace affine attaché à E . Pour chaque u ∈ E , l’application de ε dans ε qui à M associe M + u est appelée la translation de vecteur u, nous la noterons t u . Les axiomes (1), (2), (3) reviennent ainsi à dire que :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
127 127/167
5/14/2018
Alg brelin aire-slidepdf.com
(1) t 0 = Idε ( 2) ∀u , v ∈ E , t u + v = t u t v
(3) ∀ A, B ∈ ε , ∃!u ∈ E , t u ( A) = B
C) Vecteur défini par deux point Soit ε un espace affine attaché à E . Etant donnés deux points A et B de ε , l’unique vecteur tel que B = A + u est noté AB . Les trois axiomes, joints à cette définition, donnent alors les résultats suivants :
• ∀ A, B ∈ ε , ∀u ∈ E , B = A + u ⇔ u = AB C’est en effet la définition de AB , possible grâce à l’axiome (3).
En plus, l’axiome (1) donne, en particulier : ∀ A, B ∈ ε , B = A ⇔ AB = 0 .
• Relation de Chasles : ∀ A, B, C ∈ ε , AB + BC = AC . En effet, d’après l’axiome (2) : A + ( AB + BC ) = ( A + AB) + BC = B + BC = C .
• ∀ A, B ∈ ε , BA = − AB ; en effet, AB + BA = AA = 0 .
D) Exemples et visualisation
On considère un R-ev E de dimension 2, une base (i , j ) de E et ε un plan (ici le plan de la feuille) :
j
i
Exemple : Si E est un R-ev, alors E est naturellement un espace affine attaché à E , où la loi "+" externe est la même que la loi + interne. En effet :
(1) ∀a ∈ E , a + 0 = a ( 2) ∀a ∈ E , ∀u, v ∈ E , a + (u + v) = (a + u ) + v (3) ∀a, b ∈ E , ∃!u ∈ E , b = a + u (c' est b − a !!)
A = (2,1) AB
B = (3,3) AB = (1,2)
LIV Repères d’un espace affine de dimension finie Dans ce paragraphe, ε désigne un espace affine attaché à E de dimension finie n.
A) Définitions
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
128 128/167
5/14/2018
Alg brelin aire-slidepdf.com
Définition : Un repère de ε est un couple R = (O , B ) formé d’un point O de ε et d’une base B = (e1 , e2 ,..., en ) de E .
Considérons un repère R = (O , B ) de ε , avec B = (e1 , e2 ,..., en ) . Le point O est appelé origine du repère, et les vecteurs e1 , e2 ,..., en sont appelés les vecteurs de base du repère. Pour tout point M de ε , les composantes du vecteur OM dans la base B sont appelées les coordonnées de M dans le repère R. Ainsi, les coordonnées x1 , x 2 ,..., x n de M dans R son caractérisées par l’égalité : OM = x1e1 + x 2 e2 + ... + x n en . Lorsqu’il n’y a pas d’ambiguïté sur le repère R, on
x1 note M ⋮ . x n Remarque :
a1 b1 b1 − a1 Si, dans le repère R, A ⋮ et B ⋮ , alors, dans la base B, AB ⋮ . a b b − a n n n n En effet, AB = AO + OB = OB − OA Les points étant repérés par leurs coordonnées, on peut aussi définir la notion d’équation dans un repère : Si f est une fonction réelle définie sur une partie K de R n , la partie de ε d’équation f ( x1 , x 2 ,... x n ) = 0 dans R est par définition l’ensemble des points M de ε dont les coordonnées ( x1 , x 2 ,... xn ) dans R vérifient : ( x1 , x2 ,... x n ) ∈ K et f ( x1 , x 2 ,... x n ) = 0 .
B) Changement de repère Soient R = (O, B ) et R' = (O ' , B ' ) deux repères de ε , soit P la matrice de passage de B à B’, et soit B la colonne des coordonnées de O’ dans R. Alors si M est un point de ε , si X est la colonne des coordonnées de M dans R, et si X ' est la colonne des coordonnées de M dans R’, on a la relation : X = B + PX ' . Démonstration : X ' est la colonne des coordonnées de O' M dans R’, donc selon les formules de changement de base, PX ' est la colonne des coordonnées du même vecteur O' M dans R, et comme OM = OO' + O ' M , la colonne des coordonnées de OM dans R est donc X = B + PX ' .
LV Barycentres Dans ce paragraphe, ε désigne un espace affine attaché à un espace vectoriel E .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
129 129/167
5/14/2018
Alg brelin aire-slidepdf.com
A) Définition Théorème et définition : Soit ( A1 , A2 ,... An ) une famille de n points de ε , et soit (λ 1 , λ 2 ,...λ n ) une famille
de n réels de somme non nulle. Alors il existe un unique point G tel que
∑ λ GA i
i
1≤ i ≤ n
il est appelé le barycentre des points pondérés ( Ai , λ i ), i ∈ [1, n ] .
= 0,
Démonstration : Soit O un point quelconque de ε . Alors, pour tout point M de ε , on a :
∑ λ MA = ∑ λ OA − ∑ λ OM Comme ∑ λ ≠ 0 , il existe bien un unique point G comme voulu, il est défini par i
i
1≤i ≤ n
i
i
i
1≤ i ≤ n
1≤i ≤ n
i
1≤i ≤ n
l’égalité : (1) OG =
λ OA ∑ λ ∑ 1
i
i
i 1≤ i ≤ n
1≤i ≤ n
Remarque : Il résulte de cette démonstration que si
∑ λ = 0 , alors l’application qui à tout i
1≤i ≤ n
point M de ε associe
∑ λ MA i
i
est constante.
1≤ i ≤ n
B) Propriétés D’abord, on remarque que la formule (1) établie précédemment, valable pour tout point O de ε , permet d’obtenir aisément, lorsque ε est de dimension finie, les coordonnées des ( Ai , λ i ) à l’aide des coordonnées des Ai dans un repère d’origine O. Remarquons de plus que cette formule montre que le barycentre des ( Ai , λ i ) est inchangé lorsqu’on modifie l’ordre des ( Ai , λ i ) , et aussi lorsqu’on multiplie tous les λ i par un même coefficient non nul. On peut ainsi se ramener au cas où les λ i sont de somme 1. Proposition (« associativité » du barycentre) : Soit ( Ai , λ i ), i ∈ [1, n ] une famille de n point pondérés de ε , avec
∑ λ ≠ 0 . i
1≤i ≤ n
Supposons que m est un entier tel que 1 ≤ m < n et
∑ λ ≠ 0 . i
1≤ i ≤ m
On introduit alors le barycentre H des ( Ai , λ i ), i ∈ [1, m ] . Alors le barycentre G des ( Ai , λ i ), i ∈ [1, n ] est aussi celui de ( H ,
∑ λ ) i
et des
1≤ i ≤ m
( Ai , λ i ), i ∈ [ m + 1, n ]. En effet :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
130 130/167
5/14/2018
Alg brelin aire-slidepdf.com
0=
∑ λ GA i
i
1≤i ≤ n
∑ λ GH + ∑ λ HA + ∑ λ GA
=
i
1≤i ≤ m
i
i
i
1≤ i ≤ m
m
i
∑ λ GH + ∑ λ GA .
=
i
1≤i ≤ m
i
i
m< i ≤ n
=0
LVI Sous-espaces affines ε désigne toujours un espace affine attaché à un espace vectoriel E .
A) Généralités Définition : Soit F une partie de ε . On dit que F est un sous-espace affine de ε lorsque F est non vide et est stable par « barycentration », c'est-à-dire lorsque tout barycentre de points de F est encore un point de F. Visualisation en dimension 2 : - Si on choisit un point de ε , tout barycentre de ce point est encore ce point. Donc F est réduit à un singleton. - Si on prend deux points A et B distincts, on doit avoir toute la droite qui passe par ces deux points. (et inversement, si un système de points est sur la droite, le barycentre y est alors aussi).
Ici : 3 AM = AB . Donc M est barycentre de ( A,− 12 ) et ( B, 32 ) (ou ( A,−1) et ( B,3) ) : 2 2 AM = 3( AM + MB) , soit − AM + 3BM = 0 - Avec trois points, on obtient une droite ou un plan (une droite si les vecteurs formés par les trois points sont liés deux à deux). Proposition : Soit F un sous-espace affine de ε . Alors l’ensemble des vecteurs MN , M et N décrivant F, est un sous-espace vectoriel de E , appelé la direction de F. On le note dir ( F) . Ainsi, on vérifie aisément que F est un espace affine attaché à dir ( F) . (Les 3 axiomes à vérifier sont des restrictions de ceux correspondant dans ε , et par construction, ∀( A, u ) ∈ F × dir ( F), A + u ∈ F ) Démonstration : Notons F = MN , M , N ∈ F .
Alors déjà F contient le vecteur nul, car 0 = AA , où A est un point quelconque de F, qui est non vide. Soient u , v ∈ F , et λ ∈ R . On introduit A, B, C , D ∈ F tels que u = AB et v = CD Soit M ∈ ε tel que AM = u + λ v . Alors AM = AB + λ CD = AB − λ AC + λ AD . Donc M est barycentre de ( B,1) , (C ,− λ ) et ( D, λ ) , donc M ∈ F , soit u + λ v ∈ F . Exemple en dimension 2 :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
131 131/167
5/14/2018
Alg brelin aire-slidepdf.com
Théorème : Soit F un sous-espace vectoriel de E , et soit A un point de ε . Alors il existe un et un seul sous-espace affine de ε contenant A et de direction F , c’est l’ensemble, qu’on note A + F , des points A + u , u décrivant F , on encore l’ensemble des points M de ε tels que AM ∈ F . Démonstration : Notons F = A + F . Montrons alors que F est un sous-espace affine de ε passant par A et de direction F . - Déjà, F contient A car 0 ∈ F . - F est un sous-espace affine de ε , car si M est un barycentre de points M i , i ∈ [1, n ] de F, alors AM est combinaison linéaire des AM i , qui sont dans F . Donc AM ∈ F , donc M ∈ F
- La direction de F est F : en effet, si M et N sont dans F, alors MN ∈ dir(F) , et MN = AN − AM ∈ F (donc
dir ( F) ⊂ F ), et inversement, pour
u ∈ F ,
B = A + u est dans F donc u = AB est dans la direction de F, d’où l’égalité. Supposons maintenant que F’ est un sous espace affine de ε contenant A et de direction F : - Déjà, F' ⊂ F , puisque si M ∈ F' , alors AM ∈ F , donc M ∈ F - Ensuite, F ⊂ F' . En effet, si M ∈ F , alors AM ∈ F , donc AM = BC , où B, C ∈ F' , et alors AM = AC − AB , donc M est le barycentre de ( A,1) , ( B, −1)
et (C ,1) . Donc M ∈ F' D’où l’égalité, et donc l’unicité. Remarque : Si F est un sous-espace affine de ε , A un point de F, alors dir(F) = AM , M ∈ F . En effet : Selon le théorème, si on note F = dir ( F) , alors F = M ∈ ε , AM ∈ F . Si u ∈ F , alors M = A + u ∈ F puisque u = AM ∈ F . Donc u = AM avec M ∈ F Si u s’écrit u = AM , où M ∈ F , alors u ∈ dir (F) = F car A, M ∈ F . Vocabulaire : Un sous-espace affine dont la direction est de dimension finie p est dit de dimension p. Un sous-espace de dimension 1 est appelé une droite affine, et un sous-espace de dimension 2 est appelé un plan affine. Un sous-espace affine de dimension 0 n’est rien d’autre qu’un singleton.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
132 132/167
5/14/2018
Alg brelin aire-slidepdf.com
B) Parallélisme et inclusion entre deux sous-espaces affines Proposition : Soient F et G deux sous-espaces affines de ε , de directions respectives F et G. Si F ⊂ G , alors F ⊂ G . Inversement, si F ⊂ G et F ∩ G est non vide, alors F ⊂ G . En effet : Soient F et G deux sous-espaces affines de ε , notons F = dir (F) , G = dir (G) .
• Si F ⊂ G , alors F = MN , M , N ∈ F ⊂ MN , M , N ∈ G = G • Si F ⊂ G et F ∩ G est non vide : soit A ∈ F ∩ G . Alors F = M ∈ ε , AM ∈ F ⊂ M ∈ ε , AM ∈ G = G . Deux sous-espaces affines sont dits parallèles (au sens fort) lorsqu’ils ont la même direction, et plus généralement sont dits parallèles (au sens faible) lorsqu’il y a une inclusion entre leurs directions. On peut souvent se permettre de ne pas préciser : si par exemple on parle d’un plan et d’une droite parallèles, il s’agit bien évidemment de parallélisme au sens faible. Il résulte de la proposition précédente que si deux sous-espaces affines sont parallèles au sens fort, alors ils sont soit disjoints soit égaux. On remarque aussi que, en dimension finie, une inclusion entre deux sous-espaces affines de même dimension finie p implique leur égalité. En effet, en introduisant les mêmes notations que dans la proposition : Si F ⊂ G , alors F ⊂ G ; or, dim( F ) = dim( G ) = p , donc F = G . Donc G ⊂ F , et F ∩ G ≠ ∅ (car F est non vide et F ⊂ G ), donc G ⊂ F .
C) Intersection entre deux sous-espaces affines Proposition : Soient F, G deux sous-espaces affines de ε , de directions respectives F et G. Alors F ∩ G est soit vide, soit un sous-espace affine de ε de direction F ∩ G . Démonstration : Supposons F ∩ G ≠ ∅ . Soit alors A ∈ F ∩ G . Alors : F = M ∈ ε , AM ∈ F G = M ∈ ε , AM ∈ G Donc F ∩ G = M ∈ ε , AM ∈ G et AM ∈ F = M ∈ ε , AM ∈ F ∩ G On reconnaît le sous-espace affine de ε passant par A et de direction le sousespace vectoriel F ∩ G de E . Proposition (précision de certains cas par rapport à la proposition précédente) : Soient F, G deux sous-espaces affines de ε , de directions respectives F et G. • Si F ∩ G = {0} , alors F ∩ G est soit vide soit un singleton
• Si F + G = E , alors F ∩ G n’est pas vide. • Si F ⊂ G , alors F ∩ G est vide ou F ⊂ G . Démonstration :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
133 133/167
5/14/2018
Alg brelin aire-slidepdf.com
• Si F ∩ G n’est pas vide, alors c’est un sous-espace vectoriel de dimension la dimension de {0} , c'est-à-dire de dimension 0.
• Supposons que F + G = E .
Soient A ∈ F, B ∈ G . Alors AB = u + v . ∈F
∈G
Soit C = A + u . Alors C ∈ F . Mais C = A + u = A + ( AB + (−v )) = ( A + AB) + (−v ) = B + (−v ) . Donc C ∈ G . A ∈ F
B ∈ G
• C’est la proposition vue dans le sous paragraphe précédent. Il résulte de cette proposition que si F et G sont deux sous-espaces affines de ε de directions supplémentaires, alors F ∩ G est un singleton.
D) Equations et paramétrages en dimension 2 ou 3. 1) En dimension 2 Ici, ε désigne un espace affine de dimension 2, qu’on munit d’un repère R = (O, (i , j )) (On peut ne pas mettre les parenthèses : R = (O, i , j ) ) Paramétrage d’une droite : Soit D une droite de ε , définie par un point A ∈ ε et sa direction F . Alors M ∈ D ⇔ AM ∈ F Supposons que F = Vect (u ) , où u ∈ E \ {0}.
Alors M ∈ D ⇔ ∃t ∈ R , AM = t .u .
Soit D = { A + t .u , t ∈ R } .
a Ou encore, avec A , b
x = a + t α α u : M x y ∈ D ⇔ ∃t ∈ R , β y = b + t β
Remarque : Si D est donnée par deux points A, A’ distincts.
On peut se ramener au cas précédent avec u = AA' ou exploiter les barycentres : M x y ∈ D ⇔ ∃t ∈ R , M = bary(( A, t ), ( A' ,1 − t ) )
x = t .a + (1 − t )a' ⇔ ∃t ∈ R , y = t .b + (1 − t )b'
a a' Avec A , A' . b Equation :
b'
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
134 134/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit D passant par A de direction F . F est une droite vectorielle en dimension 2, soit un hyperplan, donc admet dans (i , j ) une équation du type α . x + β . y = 0 . Alors : M ∈ D ⇔ AM ∈ F
, A b ⇔ α ( x − a) + β ( y − b) = 0, où M y x
a
⇔ α . x + β . y = h, où h = α .a + β .b Inversement, une partie de ε admettant une équation du type α . x + β . y = h , où (α , β ) ≠ (0,0) est la droite affine de direction D : α . x + β . y = 0 passant par A où A ba est tel que α .a + β .b = h .
Remarque :
Si D passe par A x y0 et est dirigée par u ba , alors :
0
M x ∈ D ⇔ ( AM , u ) est liée
y
⇔
x − x0
a
y − y0
b
=0
2) En dimension 3 - Représentation paramétrique de droite :
x z
α
Soit D passant par A y0 dirigé par u β 0
γ
0
Alors :
x z
M y ∈ D ⇔ AM est colinéaire à u
⇔ ∃t ∈ R , AM = t .u
x = x0 + t α ⇔ ∃t ∈ R , y = y 0 + t β z = z + t γ 0 - Pour les plans :
x z
Soit P passant par A y0 de direction P : ax + by + cz = 0 . 0
0
Alors :
x z
M y ∈ P ⇔ AM ∈ P
⇔ a ( x − x0 ) + b( y − y 0 ) + c( z − z 0 ) = 0 ⇔ ax + by + cz = h
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
135 135/167
5/14/2018
Alg brelin aire-slidepdf.com
Inversement, si P : ax + by + cz = h avec ( a, b, c ) ≠ (0,0,0) , alors P est un
x z
plan de direction P : ax + by + cz = 0 passant par A où A y0 est tel que 0
0
ax 0 + by 0 + cz 0 = h .
Paramétrage d’un plan, obtention pratique d’une équation de plan P donné ' x α α z γ γ ' x M y ∈ P ⇔ AM ∈ Vect (u , v ) z
par A y0 et u β , v β ' engendrant la direction de P : 0
0
⇔ ∃t , s ∈ R , AM = t .u + s.v
x = x0 + t α + sα ' ⇔ ∃t , s ∈ R , y = y + t β + s β ' 0 z = z 0 + t γ + sγ '
Ou alors :
x
M y ∈ P ⇔ AM ∈ Vect (u , v )
z
⇔ det B (u , v , AM ) = 0 x − x 0
α α '
⇔ y − y 0 β β ' = 0 z − z 0
γ γ '
LVII Applications affines ε et ε ' désignent ici des espaces affines attachés à des espaces vectoriels E et E ’.
A) Généralités Définition : Soit f une application de ε dans ε ' . On dit que f est affine lorsque f conserve les barycentres, c'est-à-dire lorsque l’image d’un barycentre de points de ε est le barycentre des images de ces points, affectés des mêmes coefficients. Proposition, définition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
136 136/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit f une application affine de ε dans ε ' . Il existe une unique application ϕ de E dans E ’ telle que ∀ M , N ∈ ε , f ( N ) = f ( M ) + ϕ (MN ) . Cette application est linéaire et est appelée la partie linéaire de f , notée Lin f Démonstration : Dans cette démonstration, on convient que pour un point de ε désigné par une lettre, la même lettre avec un « prime » désigne son image par f .
• Déjà, l’égalité f ( N ) = f ( M ) + ϕ ( MN ) équivaut à l’égalité ϕ ( MN ) = M ' N ' . Comme tout vecteur de E s’écrit MN , où M , N ∈ ε , il nous faut donc montrer que M ' N ' ne dépend que du vecteur MN et non pas des points M et N .
Supposons alors que M , N , P, Q sont quatre points de ε tels que MN = PQ . On a alors PQ = PN − PM , donc Q est barycentre de ( P,1), ( N ,1), ( M ,−1) . Donc Q’ est barycentre de ( P' ,1), ( N ' ,1), ( M ' ,−1) , puisque f est affine. Donc M ' N ' = P' Q' . On introduit ainsi l’unique application ϕ de E dans E ’ qui à un vecteur u de E associe le vecteur ϕ (u ) = M ' N ' , où M et N sont deux points de ε tels que u = MN .
• Alors ϕ est linéaire : Soient u, v deux vecteurs de E , et λ un réel. On note O, M , N , P des points de ε tels que OM = u , ON = v et OP = u + λ v . On a alors OP = OM + λ ON . Donc P est le barycentre de (O,−λ ), ( M ,1), ( N , λ ) , donc P est barycentre de (O ' ,− λ ), ( M ' ,1), ( N ' , λ ) . Donc ϕ (u + λ v) = ϕ (OP) = O' P' = O' M ' + λ O' N ' = ϕ (OM ) + λϕ (ON ) Soit ϕ (u + λ v ) = ϕ (u ) + λϕ (v) . Théorème : Soit A un point de ε , A’ un point de ε ' et ϕ une application linéaire de E dans E ’. Il existe une unique application affine f de ε dans ε ' de partie linéaire ϕ et telle que f ( A) = A' , et c’est l’application f définie par ∀ M ∈ ε , f ( M ) = A'+ϕ ( AM ) . Démonstration : Compte tenu de la proposition précédente, si f est affine, de partie linéaire ϕ et est telle que f ( A) = A' , alors ∀ M ∈ ε , f ( M ) = A'+ϕ ( AM ) . Soit alors f définie ainsi.
Déjà, ϕ (0) = 0 car ϕ est linéaire. Donc f ( A) = A' . De plus, f est affine : si M est le barycentre des ( M i , λ i ) , avec
∑ λ = 1 , on a, i
toujours en notant avec des « primes » les images des points de ε par f : A' M ' = ϕ ( AM ) = ϕ (
∑ λ AM ) = ∑ λ ϕ ( AM ) = ∑ λ A' M ' i
i
i
i
i
i
. Donc M ’ est le
barycentre des ( M ' i , λ i ) . Enfin, la partie linéaire de f est ϕ : Soit u un vecteur de E , notons M le point de ε tel que AM = u et M ’ son image par f . Alors l’image de u par la partie linéaire de f est A' M ' , qui n’est autre que ϕ ( AM ) , soit ϕ (u ) . Remarque :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
137 137/167
5/14/2018
Alg brelin aire-slidepdf.com
Il en résulte que, étant donné un point A quelconque de ε , une application f de ε dans ε ' est affine si et seulement si l’application ϕ définie par ∀u ∈ E , f ( A + u ) = f ( A) + ϕ (u ) est linéaire, et dans ce cas f est l’application affine de partie linéaire ϕ qui envoie A sur f (A).
B) Exemples • Les applications R → R , a et b décrivant R, sont des applications affines x֏ax+b de l’espace affine R vers lui-même, et ce sont les seules. En effet : L’application x ֏ ax + b est l’application qui envoie 0 sur b et de partie linéaire x ֏ ax , et c’est la seule possibilité ( f (0) ∈ R , et les applications linéaires de R dans R sont les x ֏ ax )
• Soit P un plan affine, muni d’un repère (O, i , j ) . Les translations sont exactement les applications affines de partie linéaire Id E (valable en toute dimension) Démonstration : Déjà, une translation est bien affine puisque si un point M est barycentre des ( M i , λ i ) , i décrivant un ensemble I fini, en notant M ' i les images par la translation des M i ,
' M M ' ) = λ MM = 0 . ∑ λ M ' M ' = ∑ λ ( M + MM + M ∑ i
i
i∈ I
i
i
−u
i∈ I
i
i
i
i
i∈I
u
Donc une translation est stable par barycentration, donc est affine. Soit f une translation de vecteur u ∈ E , ϕ sa partie linéaire.
Soit A un point de ε , et A' = f ( A) = A + u (donc u = AA' ). Soit alors un autre point M de ε , M ’ sont image et v tel que M = A + v . On a :
M ' = f ( M ) = f ( A + v ) = A'+ϕ (v ) , et M ' = M + u , soit u = MM '
Donc ϕ (v ) = A' M ' = A' A + AM + MM ' = −u + AM + u = AM = v . Or, tout vecteur de E s’écrit AM , où M est un point de ε . Donc ϕ = Id E . Réciproquement, soit f une application affine telle que sa partie linéaire soit Id E . Soit A un point de ε , et A' = f ( A) . Alors, pour tout point M de ε , on a : f ( M ) = f ( A + AM ) = A'+ AM = A'+ AA' + A' M = M + AA' . Donc f est la translation de vecteur AA' .
C) Applications affines et composition Proposition : Soient f : ε → ε ' , g : ε ' → ε ' ' deux applications affines. Alors g f est affine, et Lin ( g f ) = ( Lin g ) ( Lin f ) Démonstration : Soit ϕ = Lin f , ψ = Lin g .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
138 138/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit u ∈ E , A ∈ ε g f ( A + u ) = g ( f ( A + u )) = g ( f ( A) + ϕ (u )) = g ( f ( A)) + ψ (ϕ (u )) Ainsi, ∀ A ∈ ε , ∀u ∈ E , ( g f )( A + u ) = ( g f )( A) + (ψ ϕ )(u ) Ce qui montre que g f est affine et Lin ( g f ) = (Lin g ) ( Lin f ) Proposition : Soit f : ε → ε ' . Alors : f est injective ⇔ Lin f est injective, f est surjective ⇔ Lin f est surjective, f est bijective ⇔ Lin f est bijective, Et dans ce dernier cas f −1 est affine et Lin( f −1 ) = ( Lin f ) −1 Démonstration : Soit f une application affine, et ϕ sa partie linéaire. Supposons f injective. Soient u , v ∈ E . Supposons que ϕ (u ) = ϕ (v ) . Soit A un point de ε . Alors f ( A) + ϕ (u ) = f ( A) + ϕ (v ) . Donc f ( A + u ) = f ( A + v ) , donc,
comme f est injective, A + u = A + v , donc v − u = AA = 0 , d’où u = v , donc ϕ est injective. Supposons f non injective. Soient alors A, A’ deux points distincts de ε tels que f ( A) = f ( A' ) .
Alors
f ( A' ) = f ( A + AA') = f ( A) + ϕ ( AA') = f ( A' ) + ϕ ( AA') . Donc
ϕ ( AA') = 0 , et comme AA' ≠ 0 , on a ker ϕ ≠ 0 , c'est-à-dire que ϕ n’est pas injective. D’où la première équivalence.
Supposons f surjective. Soit v ∈ E ' . Soient M ' , N '∈ ε ' tels que v = M ' N ' . Alors, comme f est surjective, il existe M , N ∈ ε tels que M ' = f ( M ), N ' = f ( N ) . Alors N ' = f ( N ) = f ( M + MN ) = M '+ϕ ( MN ) . Donc ϕ ( MN ) = M ' N ' . On a donc trouvé
u ∈ E (à savoir MN ) tel que ϕ (u ) = v . Donc ϕ est surjective. Supposons ϕ surjective. Soit alors A ∈ ε , A' = f ( A) . Soit alors M '∈ ε ' . Comme
ϕ est surjective, il existe u ∈ E tel que ϕ (u ) = A' M ' . Alors f ( A + u ) = A'+ A' M ' = M ' . On a donc trouvé M ∈ ε (à savoir A + u ) tel que f ( M ) = M ' . Comme ce résultat est valable pour tout M '∈ ε ' , f est bien surjective. D’où la deuxième équivalence, puis la troisième qui découle des deux autres. Supposons f bijective. Montrons que f −1 est affine, et que Lin( f −1 ) = ϕ −1 . Comme f est bijective, ϕ l’est aussi, et on introduit alors ϕ −1 . Soit A un point de ε , et A' = f ( A) . Soit alors g l’application affine de ε ' dans ε telle que g ( A' ) = A et de − partie linéaire ϕ −1 . Ainsi, ∀ M ∈ ε ' , g ( M ) = A + ϕ ( A' M ) Alors, pour tout M ∈ ε ' : 1
( f g )( M ) = f ( g ( M )) = f ( A + ϕ −1 ( A' M )) = f ( A) + ϕ (ϕ −1 ( A' M )) = M
A'
A M '
Et, pour tout M ∈ ε :
( g f )( M ) = g ( f ( M )) = g ( A'+ϕ ( AM )) = g ( A' ) + ϕ −1 (ϕ ( AM )) = M
A
AM
−1
Donc f g = g f = Id E . Donc g = f , et comme g est affine de partie linéaire ϕ , f −1 est bien affine, et Lin( f −1 ) = ϕ −1 = (Lin f ) −1 . −1
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
139 139/167
5/14/2018
Alg brelin aire-slidepdf.com
Proposition, définition : On note GA(ε ) l’ensemble des applications affines bijectives de ε dans ε . Alors (GA(ε ),) est un groupe, appelé le groupe affine de ε . (La démonstration est immédiate, compte tenu des propositions précédentes).
D) Application affine, et sous-espace affine Théorème : Soit f : ε → ε ' affine, de partie linéaire ϕ .
• Soit F un sous-espace affine de ε , de direction F . Alors f (F) est un sous-espace affine de ε ' , de direction ϕ ( F ) • Soit G un sous-espace affine de ε ' , de direction G. Alors f −1 (G) est vide ou est un sous-espace affine de ε , de direction ϕ −1 (G ) . Démonstration (on se place à chaque fois dans les hypothèses du théorème) : • Soit M le barycentre de ( M i , λ i ) , i décrivant I fini, où les M i ∈ f (F) et
∑ λ ≠ 0 . Montrons que M ∈ f (F) . i
i∈ I
Soit ( Ai ) i∈ I une famille finie de points de ε telle que ∀i ∈ I , f ( Ai ) = M i (qui existe puisque les M i sont dans f (F) ). Soit A le barycentre des ( Ai , λ i ), i ∈ I . Alors, comme f est affine, f ( A) est le barycentre des ( f ( Ai ), λ i ), i ∈ I , c'est-àdire des ( M i , λ i ), i ∈ I . Donc, par unicité du barycentre, f ( A) = M . Donc M ∈ f ( F) . Donc f (F) est stable par barycentration et non vide, donc affine. Soit A'∈ f (F) . Alors dir( f (F)) = A' M ', M '∈ f (F) . Montrons que dir ( f (F)) = ϕ ( F ) : - Soit u ∈ dir ( f ( F))
Soit M '∈ f ( F) tel que u = A' M ' . Soient A, M ∈ F tels que f ( M ) = M ' et f ( A) = A' Alors AM ∈ F , et M ' = f ( M ) = f ( A + AM ) = f ( A) + ϕ ( AM ) = A'+ϕ ( AM ) . Donc ϕ ( AM ) = A' M ' .
Donc A' M ' ∈ ϕ ( F ) , c'est-à-dire u ∈ ϕ ( F ) , d’où une première inclusion.
- Soit v ∈ ϕ ( F ) Soit u ∈ F tel que ϕ (u ) = v .
Soit M '∈ ε tel que A' M ' = v . On doit alors montrer que M '∈ f ( F) .
Soit A ∈ F tel que f ( A) = A' , et M ∈ F tel que AM = u . Alors f ( M ) = f ( A + u ) = A'+ v = M ' . Donc M '∈ f (F) (puisque M ∈ F ). Donc v ∈ dir ( f ( F)) , d’où l’autre inclusion, et l’égalité.
• Supposons que f −1 (G) n’est pas vide : Soit M le barycentre de ( M i , λ i ) , i décrivant I fini, où les M i ∈ f −1 (G) et
λ ≠ 0 . Montrons que M ∈ f −1 (G) .
∑ i∈ I
i
Alors f ( M ) est le barycentre des ( f ( M i ), λ i ) , car f est affine.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
140 140/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc f ( M ) ∈ G , car G est stable par barycentration. Donc M ∈ f −1 (G) . Donc f −1 (G) est stable par barycentration et non vide, donc c’est un sous-espace affine de ε . −1
Donc f (G) est soit vide, soit un sous-espace affine de ε . Supposons ici que f −1 (G) est non vide (c’est donc un sous-espace affine de ε ). Soit A ∈ f −1 (G) . Alors dir( f − (G)) = AM , M ∈ f − (G) . 1
1
Montrons que dir ( f −1 (G)) = ϕ −1 (G ) .
- Soit u ∈ dir ( f −1 (G)) .
Soit M ∈ f −1 (G) tel que u = AM . On note M ' = f ( M ) , A' = f ( A) .
Alors M ' = f ( M ) = f ( A + u ) = A'+ϕ (u ) . Donc ϕ (u ) = A' M ' . −1
Or, A'∈ G A, M ∈ f (G) ). et M '∈ G (car Donc ϕ (u ) ∈ G . Donc u ∈ ϕ −1 (G ) . D’où une première inclusion.
- Soit maintenant u ∈ ϕ −1 (G ) .
Soit M ∈ ε tel que u = AM . Posons A' = f ( A) (ainsi, A'∈ G ).
Alors f ( M ) = f ( A + AM ) = A' + ϕ (u ) , soit f ( M ) ∈ G , d’où M ∈ f −1 (G) .
∈G
∈G
De plus, A ∈ f (G) . Donc u = AM ∈ dir( f − (G)) . D’où l’autre inclusion et l’égalité. −1
1
LVIII Applications affines particulières ε désigne un espace affine directeur de E .
A) Translations Rappel : Soit u ∈ E . La translation de vecteur u est l’application t u : ε → ε . M ֏ M +u Proposition : L’ensemble des translations sur ε est un sous-groupe de GA(ε ) , noté T (ε ) . T (ε ) est exactement l’ensemble des applications affines de ε dans ε dont la partie linéaire est Id E Démonstration : On a déjà vu que l’ensemble des translations sur ε est l’ensemble des applications affines de partie linéaire l’identité. De plus, l’application E → GA(ε ) est évidemment un morphisme injectif du u ֏t u
groupe ( E ,+ ) vers le groupe (GA(ε ),) . Donc l’image de ce morphisme, c'est-à-dire T (ε ) , est un sous-groupe de (GA(ε ),) (et (T (ε ),) est isomorphe à ( E , + ) )
B) Homothéties
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
141 141/167
5/14/2018
Alg brelin aire-slidepdf.com
Définition : Soit α ∈ R , et soit Ω ∈ ε . L’homothétie affine de centre Ω et de rapport α , qu’on note ici hΩ ,α est l’application : ε → ε (c'est-à-dire que l’image de M est M ֏Ω+α .Ω M le point M’ tel que Ω M ' = α .Ω M ) Proposition : • Pour f : ε → ε , on a l’équivalence : f est une homothétie affine ⇔ f est affine, admet au moins un point fixe et la partie linéaire de f est une homothétie vectorielle. • Pour Ω ∈ ε et α ∈ R , on a : −1 - Si α ≠ 0 , alors hΩ ,α est bijective et (hΩ,α ) = hΩ,1 / α . - Si α = 1 , hΩ ,α = Id ε . - Si α ≠ 1 , hΩ ,α a un unique point fixe, à savoir Ω . En effet : • Si f est une homothétie affine de centre Ω et de rapport α : Alors f est bien affine, admet comme point fixe Ω (car f (Ω) = Ω + α .ΩΩ = Ω ), et est de partie linéaire ϕ : M ֏ α .Ω M , qui est bien une homothétie vectorielle. Réciproquement, si f est affine, admet au moins un point fixe Ω et la partie linéaire ϕ de f est une homothétie vectorielle de rapport α , alors, pour tout M ∈ ε : f ( M ) = f (Ω + Ω M ) = f (Ω) + ϕ (Ω M ) = Ω + α .Ω M Donc f est bien une homothétie affine (de rapport α et de centre Ω ) • Si α ≠ 0 , alors hΩ,1 / α est bien définie, et on a, pour tout M ∈ ε : ( hΩ,α hΩ,1 / α )( M ) = hΩ ,α ( hΩ ,1 / α ( M )) = hΩ ,α (Ω + α 1 Ω M )
= hΩ ,α (Ω) + ϕ α ( α 1 Ω M ) = Ω + α 1 ϕ α (Ω M ) = Ω + α 1 α Ω M = Ω + Ω M = M (Où on a noté ϕ α l’homothétie vectorielle de rapport α ) Donc hΩ ,α hΩ ,1 / α = Id ε , et de même hΩ ,1 / α hΩ ,α = Id ε . Donc hΩ ,α est inversible, d’inverse hΩ ,1 / α , donc est bijective. Si α = 1 , alors, pour tout M ∈ ε : hΩ ,1 ( M ) = Ω + 1.Ω M = M donc hΩ ,1 = Id ε . Si α ≠ 1 . Soit M ∈ ε . Si hΩ ,α ( M ) = M , alors Ω + α .Ω M = M , soit α .Ω M = Ω M , donc (α − 1).ΩM = 0 ,
donc Ω M = 0 car α ≠ 1 . Donc M = Ω . Réciproquement, Ω est bien fixe par hΩ ,α . Cas particulier : L’homothétie de centre Ω et de rapport -1 est aussi appelée la symétrie par rapport à Ω. Théorème : L’ensemble des non applications dont ladepartie est de unela homothétie vectorielle de rapport nul est unaffines sous-groupe , constitué réunion de GA(ε )linéaire
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
142 142/167
5/14/2018
Alg brelin aire-slidepdf.com
l’ensemble des translations sur ε et de l’ensemble des homothéties affines de rapport non nul. Ce sous-groupe est appelé le groupe des homothéties–translations de ε , noté HT (ε ) . Démonstration : Notons HT (ε ) l’ensemble des applications affines de ε dont la partie linéaire est une homothétie vectorielle de rapport non nul. • Déjà, il est facile de voir que HT (ε ) est contenu dans GA(ε ) , contient Id ε , est stable par et passage à l’inverse (d’après la proposition précédente), donc c’est bien un sous-groupe de GA(ε ) .
• Ensuite, HT (ε ) contient évidemment T (ε ) et l’ensemble des homothéties affines de rapport non nul. • Soit maintenant f ∈ HT (ε ) : Soit α ∈ R * tel que la partie linéaire de f soit α .Id E . - Si α = 1 , f est une translation. - Si α ≠ 1 , montrons que f est une homothétie : Selon la propriété précédente, il suffit de montrer que f admet un point fixe. Soit A ∈ ε , posons A' = f ( A) . Alors, pour tout M ∈ ε : f ( M ) = f ( A + AM ) = A'+α . AM . Donc f ( M ) = M ⇔ α . AM = A' M ⇔ M est barycentre de ( A, α ), ( A' ,−1) . Donc f a bien un point fixe, et est bien une homothétie.
Remarque : L’ensemble des homothéties affines de ε n’est pas stable par : En effet, si α ∈ R \ {0,1} , et si Ω1 ≠ Ω 2 , alors hΩ 2 ,α hΩ1 ,1 / α est une translation puisque sa partie linéaire est l’identité, et de vecteur non nul car l’image de Ω1 est :
Ω'1 = hΩ
2 ,α
(Ω1 ) = Ω 2 + α .Ω 2 Ω1 ≠ Ω1 car α .Ω 2Ω1 ≠ Ω 2 Ω1 .
Remarque : Si f ∈ HT (ε ) , l’image d’un sous-espace affine F de ε par f est un sous-espace affine F’ parallèle à F. (puisque si on note F la direction de F, F ’ celle de F’, et ϕ la partie linéaire de f , alors F ' = ϕ ( F ) = F ). Application : Thalès Soient D1 et D2 deux droites sécantes en Ω d’un plan affine. Soient A1 , A'1 ∈ D1 , A2 , A'2 ∈ D2 de sorte que ( A1 A2 ) //( A'1 A' 2 ) . Alors si λ ∈ R est tel que Ω A'1 = λ ΩA1 , on a Ω A'2 = λ ΩA2 . Démonstration : L’homothétie h de centre Ω et de rapport λ envoie A1 sur A'1 . L’image de D2 par h est D2 (car c’est une droite parallèle à D2 qui doit passer par h (Ω ) = Ω ) L’image de ( A1 A2 ) par h est ( A'1 A' 2 ) (car c’est une droite parallèle à ( A1 A2 ) qui
= passe par h( A1 )
A'1 )
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
143 143/167
5/14/2018
Alg brelin aire-slidepdf.com
Donc, puisque A2 ∈ D2 ∩ ( A1 , A2 ) , on a h( A2 ) ∈ D2 ∩ ( A'1 , A'2 ) , donc h( A2 ) = A'2 , d’où Ω A'2 = λ ΩA2 .
C) Projections Proposition et définition : Soient F et G deux sous-espaces supplémentaires de E . Soit F un sous-espace affine de ε de direction F . Pour chaque M ∈ ε , notons G M le sous-espace affine de ε passant par M et de direction G, alors G M rencontre F en un unique point M’. L’application p : M ֏ M ' , de ε dans ε , ainsi définie, s’appelle la projection affine sur F suivant la direction G, et on a les propriétés : • p est affine, sa partie linéaire est la projection vectorielle sur F selon G.
• L’ensemble des points fixes par p est F. • p p = p Démonstration : - Soit M ∈ ε . Alors G M ∩ F est bien un singleton, puisque E = F ⊕ G (vu en
IV C)). La définition de p a bien un sens. - Soit A ∈ F . Alors A ∈ G A et A ∈ F , donc G A ∩ F = { A} , donc p ( A) = A . Soit maintenant M ∈ ε , quelconque. Notons M ' = p ( M ) .
AM ' ∈ F (car A, M '∈ F) Alors AM = AM ' + M ' M et MM ' ∈ G (car M , M '∈ G M ) Donc AM ' = ϕ ( AM ) , où ϕ est la projection vectorielle sur F parallèlement à G, et
p( M ) = M ' = A + AM ' = p( A) + ϕ ( AM ) Donc p est affine, de partie linéaire ϕ . - On a vu que si A ∈ F , alors p ( A) = A . Réciproquement, si p ( A) = A , alors comme p ( A) ∈ F par définition, on a A ∈ F . - Comme ∀ M ∈ ε , p ( M ) ∈ F et comme les éléments de F sont invariants par p, on a bien p p = p . Dessin illustrant la proposition la définition, et sa démonstration en dimension 3 lorsque F est un plan affine (et donc G une droite vectorielle) :
G M
Remarque pratique : Le point M’ tel que p( M ) = M ' est caractérisé par M '∈ F et M '∈ G M , ou encore :
p( M ) = M ' ⇔ M '∈ F et MM ' ∈ G . Exemple :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
144 144/167
5/14/2018
Alg brelin aire-slidepdf.com
Dans R 3 affine rapporté à son repère canonique, on veut l’image de M ( x, y , z ) par la projection sur le plan P d’équation x + y + z = 1 parallèlement à la direction du vecteur u = (1,0,2) . On écrira : Soit M ' ( x ' , y ' , z ' ) l’image cherchée de M . Alors M '∈ P et MM ' est colinéaire à u .
x'− x = λ Donc x'+ y '+ z ' = 1 et il existe λ ∈ R tel que y'− y = 0 z '− z = 2λ D’où ( x + λ ) + y + ( z + 2λ ) = 1 , donc λ = 13 (1 − x − y − z )
x' = x + λ = 13 (1 + 2 x − y − z ) Ainsi, y' = y = + =1 − − + 3 z ' z 2λ (2 2 x 2 y z )
D) Symétries Soit F un sous-espace affine de ε , de direction F . Soit G un supplémentaire de F dans E . La symétrie affine par rapport à F selon la direction G est l’application qui à M ∈ ε associe le point M’ tel que HM ' = − HM où H désigne la projection de M sur F selon G.
Proposition : Cette application est affine, et sa partie linéaire n’est autre que la symétrie vectorielle par rapport à F selon G. Démonstration : Soit A ∈ F . Déjà, f ( A) = A . Soit ϕ : E → E définie par : ∀u ∈ E , f ( A + u ) = A + ϕ (u ) , C'est-à-dire telle que ∀ M ∈ ε , M ' = A + ϕ ( AM ) (où M ' = f ( M ) ) Où encore telle que ∀ M ∈ ε , ϕ ( AM ) = AM ' . On a alors : AM ' = AH + HM ' = AH − HM , et comme AM = AH + HM , ϕ est l’application qui à u + v associe u − v .
∈F
∈G
Donc ϕ est linéaire, c’est la symétrie par rapport à F selon G, et f est affine, de partie linéaire ϕ .
E) Affinités On suppose ici ε de dimension finie. Définition : Soit H un hyperplan de ε de direction H .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
145 145/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit D une droite vectorielle non contenue dans H (ainsi, H ⊕ D = E ) Soit α ∈ R * . L’affinité (ou encore la dilatation) d’hyperplan H, de direction D et de rapport α est l’application f : ε → ε où M’ est tel que mM ' = α mM où m est la M ֏ M ' projection de M sur H parallèlement à D. Dessin en dimension 3, étude :
m = p ( M )
Soit f l’affinité d’hyperplan H, de direction D, de rapport α . Soit p la projection affine•sur H parallèlement D sont : Déjà, les points deà H invariants par f . En effet, si M ∈ H , le point m = p ( M ) coïncide avec M , donc M ' = f ( M ) est tel
que MM ' = 0 . • Soit maintenant A ∈ H , soit M ∈ ε , notons m = p ( M ) et M ' = f ( M ) . Alors par définition, M ' = m + α mM = A + Am + α mM . Si on note ϕ l’application linéaire : E = H ⊕ D → E v+ w֏v+α .w (C'est-à-dire que ϕ = ϕ 1 + α .ϕ 2
où ϕ 1 est la projection vectorielle sur H
parallèlement à D et ϕ 2 la projection vectorielle sur D parallèlement à H ) On a alors : AM = Am + mM , et donc Am + α .mM = ϕ ( AM )
∈ H
∈ D
Donc M ' = A + ϕ ( AM ) = f ( A) + ϕ ( AM ) Donc f est affine, et sa partie linéaire est ϕ .
• Comme α ≠ 0 , on voit facilement que ϕ est bijective, donc que f l’est. • De plus, si α = 1 , f est évidemment l’identité, mais pour α ≠ 1 : f ( M ) = M ⇔ α .mM = mM ⇔ m = M ⇔ M ∈ H . Conclusion : Soit f l’affinité d’hyperplan H, de direction D et de rapport α ≠ 0 . Alors f est affine et bijective, et si α ≠ 1 , H est l’ensemble des points fixes par f (si α = 1 , f = Idε ). Construction géométrique : En reprenant les notations précédentes, on veut construire l’image M’ d’un point M connaissant H, un point A ∉ H et son image A’ par f . Comme A ∉ H , A' ≠ A et la droite ( AA' ) a la direction D. - Si ( MA) // H : Comme H est invariant par ϕ , on a :
ϕ ( AM ) = A' M ' = AM , d’où on tire M’ :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
146 146/167
5/14/2018
Alg brelin aire-slidepdf.com
- Si ( MA) n’est pas parallèle à H. Soit I le point d’intersection de ( MA) et H. Alors l’image de la droite ( IA) par f est la droite ( IA' ) (car c’est une droite qui passe par f ( I ) = I et f ( A) = A' ). Notons alors D M la droite passant par M de direction D. On a : M '∈ D M et M '∈ ( IA' ) (car M ∈ ( IA) ). Si D M et ( IA' ) sont sécants, cela détermine M’, sinon c’est que M ∈ ( AA' ) : On détermine alors d’abord l’image d’un point B ∉ ( AA' ) , puis on détermine l’image de M en utilisant B et B’…
F) Une remarque générale en dimension finie Soit ε un espace affine de dimension finie n et de direction E . Soit R = (O, e1 , e2 ,...en ) un repère de ε et soit B = (e1 , e2 ,...en )
la base
correspondante de E . Les applications affines de ε sont les applications déterminées par des formules du type f ( M ) = O'+ϕ (OM ) où ϕ ∈ L( E ) et O'∈ ε .
Ce qui correspond, sur les coordonnées dans R, à de formules du type : x'1 a1 x1
x'2 ⋮ x' n
a2 = + A × ⋮ de ϕ matrice dans B a n
x2 ⋮ où A ∈ M n (R ) x n
coordonnées de f ( M ) dans R
coordonnées de O '= f ( O ) dans R
coordonnées de M dans R
LIX Parties convexes d’un espace affine ε désigne toujours un espace affine. Définition : Soient A, B ∈ ε . Le segment [ A, B ] est l’ensemble des barycentres de A et B affectés de coefficients positifs. Ainsi, [ A, B] = A + t . AB, t ∈ [0,1] . En effet, pour tout M ∈ ε :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
147 147/167
5/14/2018
Alg brelin aire-slidepdf.com
M ∈ [ A, B] ⇔ ∃α , β ∈ R + , α + β ≠ 0 et α AM + β BM = 0
⇔ ∃t ∈ [0,1], M est barycentre de ( A,1 − t ), ( B, t ) ⇔ ∃t ∈ [0,1], AM = t . AB Définition : Soit C une partie de ε . On dit que C est convexe lorsque : ∀( A, B ) ∈ C 2 , [ A, B] ⊂ C . Proposition : Soit C une partie de ε . C est convexe si et seulement si tout barycentre de points de C affectés de coefficients positifs est dans C . Démonstration : ⇐ : c’est un cas particulier avec seulement le barycentre de deux points. ⇒ : Supposons C convexe. Montrons par récurrence que, pour tout n ≥ 2 , « tout barycentre de n points de C affectés de coefficients positifs est dans C . » ( P ( n ) ) Pour n = 2 , cela correspond à la définition de la convexité. Soit n ≥ 2 . Supposons P ( n ) . Soient maintenant ( M 1 , λ 1 ), ( M 2 , λ 2 ),...( M n+1 , λ n +1 ) n + 1 points de C affectés de coefficients positifs (non tous nuls). Soit M le barycentre des n premiers. Alors, par hypothèse de récurrence, M ∈ C . De plus, le barycentre de ( M 1 , λ 1 ), ( M 2 , λ 2 ),...( M n+1 , λ n +1 ) n
est le barycentre de ( M ,
∑ λ ) i
et ( M n+1 , λ n+1 ) , donc appartient à C car M , M n +1 ∈ C et
i =1 n
∑ λ ≥ 0 . Ce qui achève la récurrence. i =1
i
Proposition : Toute intersection de convexes est convexe. En effet : Soit (C i ) i∈ I une famille de convexes indexée par un ensemble I quelconque. Notons C =
∩ C . i
i∈ I
Soient A, B ∈ C . Alors ∀i ∈ I , A, B ∈ C i , donc ∀i ∈ I , [ A, B ] ⊂ C i , donc [ A, B ] ⊂ C . Donc C est convexe. Définition, proposition : On définit l’enveloppe convexe d’une partie P de ε comme l’intersection de tous les convexes qui contiennent P. C’est le plus petit convexe contenant P. La définition a bien un sens, puisque l’ensemble ε C des convexes contenant P n’est pas vide (il contient déjà ε ). C’est bien le plus petit, puisque si un convexe C contient P, il contient nécessairement X ⊂ C ). l’enveloppe convexe puisqu’il appartient à ε C (puisque
∩
X ∈ε C
Proposition : L’image d’un convexe par une application affine est un convexe. L’image réciproque d’un convexe par une application affine est un convexe. Résulte de la conservation des barycentres par une application affine.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
148 148/167
5/14/2018
Alg brelin aire-slidepdf.com
Exemples : Un sous-espace affine de ε est bien sûr convexe. Un disque plein de R 2 (ensemble des ( x, y) ∈ R 2 , x 2 + y 2 ≤ r ) est convexe. Demi-espaces (ouverts) limités par un hyperplan : On suppose ε de dimension finie n, muni d’un repère R. Soit H l’hyperplan d’équation a1 x1 + a2 x2 + ... + an xn = h dans R. Soit ε 1 l’ensemble des points de ε dont les coordonnées ( x1 , x2 ,... xn ) vérifient : a1 x1 + a2 x2 + ... + an xn − h > 0
Et soit ε 2 l’ensemble des points de ε dont les coordonnées ( x1 , x2 ,... xn ) vérifient : a1 x1 + a2 x2 + ... + an xn − h < 0 .
Alors ε 1 et ε 2 sont convexes. Démonstration pour ε 1 : Soient A, B ∈ ε 1 . Les M ∈ [ A, B ] s’écrivent A + t . AB avec t ∈ [0,1] , et en reportant dans a1 x1 + a2 x2 + ... + an xn − h l’expression correspondante des coordonnées de M en fonction de t ,
on obtient une fonction affine de t (du type t ֏ p.t + q ), donc une fonction monotone de t . Comme cette fonction est par hypothèse strictement positive en t = 0 et t = 1 , elle est donc strictement positive sur tout [0,1] , d’où la convexité de ε 1 . Remarque : Les demi-espaces fermés limités par H sont bien sûr aussi convexes (il suffit de remplacer les inégalités strictes par des inégalités larges) Remarque : En reprenant l’argument précédent et en utilisant cette fois la continuité de la fonction affine de t introduite, on montre que tout segment joignant un point de ε 2 à un point de ε 1 doit couper H.
Géométrie dans un espace affine euclidien LX Généralités en dimension finie A) Divers 1) Définition Un espace affine euclidien, c’est un espace affine ε attaché à un espace vectoriel euclidien E .
2) Repère orthonormé C’est un repère R = (O, B ) où B est une base orthonormée de E .
3) Distances
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
149 149/167
5/14/2018
Alg brelin aire-slidepdf.com
• Pour d ( A, B ) = AB , noté AB . L’application ε × ε → R est bien une distance : ( A, B)֏d ( A,B) +
- d est à valeurs dans R - d ( A, B ) = 0 ⇔ A = B - d ( B, A) = d ( A, B ) - d ( A, B ) ≤ d ( A, C ) + d (C , B )
• Si P est une partie non vide de ε , et A un point de ε , on définit : d ( A, P ) = inf {d ( A, M ), M ∈ P} • Si P1 , P2 sont deux parties non vides de ε , on définit : d ( P1 , P2 ) = inf {d ( M 1 , M 2 ), M 1 ∈ P1 , M 2 ∈ P2 }
4) Notions d’angle, d’orthogonalité,… Ce sont les notions qui concernent les directions des sous-espaces affines concernés. Exemple : Si D1 , D2 sont deux droites affines de directions D1 , D2 , l’angle non orienté ( D ˆ, D ) est l’angle non orienté ( D ˆ, D ) . 1
2
1
2
Remarque :
½ droite : la demi-droite d’origine A ∈ ε et de vecteur u ≠ 0 , c’est { A + λ .u, λ ∈ R + }. L’angle entre correspondants.
deux
demi-droites
est
l’angle
entre
les
vecteurs
5) Projection orthogonale Soit F un sous-espace affine de ε . Soit A ∈ ε . La projection orthogonale de A sur F = l’image de A par le projecteur déf
orthogonal sur F = l’unique point H de F tel que AH ⊥ F (c'est-à-dire tel que AH ∈ F ⊥ où F est la direction de F). Théorème : La projection orthogonale H de A sur F est l’unique point de F tel que d ( A, F) = d ( A, H ) . Démonstration : On note H le projeté orthogonal de A sur F. 2
2
2
Pour M ∈ F , AM = AH + HM . Donc AM ≥ AH , et il y a égalité si et seulement si M = H . Et comme H ∈ F , on a bien AH = min ( AM ) . M ∈F
6) Les hyperplans
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
150 150/167
5/14/2018
Alg brelin aire-slidepdf.com
• L’hyperplan passant par A ∈ ε orthogonal à H = M ∈ ε , AM ⊥ n • « Réciproque » :
n ∈ E \ {0 E } , c’est
Lignes de niveau de l’application ε → R , où A ∈ ε et u ∈ E \ {0 E } : M ֏ AM ⋅u
Pour k ∈ R , la ligne de niveau k de l’application M ֏ AM ⋅ u , c’est
Hk = M ∈ ε , AM ⋅ u = k .
On peut introduire H sur ( A, u ) tel que H ∈ Hk . En effet, il suffit de prendre
k .u
H tel que AH = u
2
. Alors, pour tout M ∈ ε :
M ∈ Hk ⇔ AM ⋅ u = k
⇔ AM ⋅ u = AH ⋅ u ⇔ HM ⋅ u = 0
Donc Hk est l’hyperplan orthogonal à u passant par H .
• Cas particulier : Hyperplan médiateur de deux points distincts : Soient A, B ∈ ε , distincts. Soit M = { M ∈ ε , d ( A, M ) = d ( B, M )} = { M ∈ ε , AM = BM } Soit I le milieu de [ A, B ] . 2
2
Alors AM 2 − BM 2 = AM − BM = ( AM − BM ) ⋅ ( AM + BM ) = AB ⋅ ( 2 IM ) Donc AM = BM ⇔ AB ⋅ IM = 0 Donc M = M ∈ ε , AB ⋅ IM = 0 , on reconnaît l’hyperplan passant par I orthogonal à AB . On l’appelle l’hyperplan médiateur de A et de B. • Distance d’un point à un hyperplan. Soit H un hyperplan passant par A orthogonal à n . Soit M ∈ ε ; d ( M , H) = MH où H est le projeté orthogonal de M sur H.
2
AM = AH + HM . Donc AM ⋅ n = λ . n .
λ .n
AM ⋅ n
Donc MH = λ . n
2
=
n
B) Les isométries Définition : Soit f : ε → ε . f est une isométrie de ε ⇔ f conserve les distances, c'est-à-dire : déf
∀ A, B ∈ ε , d ( f ( A), f ( B)) = d ( A, B) Proposition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
151 151/167
5/14/2018
Alg brelin aire-slidepdf.com
Les isométries de ε sont exactement les applications affines de ε dans ε dont la partie linéaire appartient à O ( E ) (c'est-à-dire dont la partie linéaire est un automorphisme de E ) Démonstration : • Si f est une application affine de partie linéaire ϕ ∈ O ( E ) , alors, pour tous points A, B ∈ ε , en notant A’, B’ leurs images par f : d ( A' , B ' ) = A' B' = ϕ ( AB) = AB = d ( A, B )
• Supposons que f conserve les distances. On admet qu’alors f est affine. Soit alors ϕ = Lin f . Montrons que ϕ conserve les normes (c'est-à-dire que ϕ ∈ O ( E ) ) Soient u ∈ E , A ∈ ε , notons B = A + u . Alors u = AB Donc ϕ (u ) = ϕ ( AB) = A' B' = A' B' = AB = u (en notant avec des ‘ les images par f ) Définition : Un déplacement de ε est une symétrie directe de ε , c'est-à-dire une isométrie dont la partie linéaire appartient à SO ( E ) . Un antidéplacement de ε est une symétrie indirecte de ε , c'est-à-dire une isométrie dont la partie linéaire appartient à O ( E ) \ SO ( E ) . Proposition : Is(ε ) , ensemble des isométries de ε , constitue un groupe pour (un sous-groupe de GA(ε ) ), et l’ensemble Dep(ε ) des déplacement de ε en constitue un sous-groupe. Exemple : Les symétries orthogonales sont dans Is(ε ) . En effet, si f est la symétrie par rapport à un sous-espace affine F selon G, alors f est affine, et la partie linéaire de f est la symétrie vectorielle par rapport à F selon G (où F la direction de F). En particulier, quand G = F ⊥ , on dit que f est la symétrie orthogonale par rapport à F ; sa partie linéaire est alors la symétrie orthogonale vectorielle par rapport à F , dont on sait qu’elle est dans O ( E ) Précision : Si dim( E ) = n , dim( F ) = p , alors f , symétrie orthogonale par rapport à F, est un déplacement lorsque n − p est pair, un antidéplacement sinon. Cas particulier : Les réflexions affines (symétries orthogonales affines par rapport à un hyperplan) sont des isométries indirectes. Proposition : Etant donnés deux points A et B de ε , il existe une et une seule réflexion qui les échange, et c’est la réflexion d’hyperplan l’hyperplan médiateur de A et B.
LXI Etude d’un espace affine euclidien orienté de dimension 2 (Un espace affine orienté est un espace affine dont on a orienté la direction)
A) Les isométries en dimension 2
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
152 152/167
5/14/2018
Alg brelin aire-slidepdf.com
1) Les isométries directes Etude : Soit f une isométrie directe, posons ϕ = Lin f (ainsi, f ∈ Dep(ε ) et ϕ ∈ SO ( E ) ). On sait que ϕ est alors une rotation, éventuellement d’angle nul.
• Premier cas : ϕ est d’angle nul, c’est donc l’identité. Donc f est une translation, éventuellement de vecteur nul. Réciproquement, les translations sont bien dans Dep(ε ) .
• Deuxième cas : ϕ est d’angle θ non nul (modulo 2π ). Recherche des points invariants par f . Soit O ∈ ε , O’ son image par f . Soit M ∈ ε . Alors f ( M ) = f (O + OM ) = O'+ϕ (OM ) . Donc M est fixe ⇔ ϕ (OM ) = O' M ⇔ ϕ (OM ) − OM = O' O
⇔ (ϕ − Id E )(OM ) = O' O
On a : ker(ϕ − Id E ) = {u ∈ E , ϕ (u) = u} = {0 E } Donc ϕ est injective, donc bijective (on est en dimension finie) Donc M est fixe ⇔ OM = (ϕ − Id E ) − (O' O) . 1
−1
On a donc un et un seul point fixe Ω . (à savoir Ω = O + (ϕ − Id E ) (O' O) ) Mais alors : ∀ M ∈ ε , f ( M ) = f (Ω + Ω M ) = Ω + ϕ (Ω M )
M '
Ainsi, Ω M ' = ϕ (ΩM ) . On dit que f est la rotation de centre Ω et d’angle θ . Inversement, une telle application est bien un déplacement, c’est celle qui envoie Ω sur Ω et de partie linéaire ρ θ ∈ SO( E ) . Remarque :
Ω M ' = Ω M Dire que M ' = f ( M ) revient à dire ˆ (Ω M , Ω M ') = θ [2π ] Classification de Dep(ε ) : Ensemble des invariants
Rotation
∅ ε {Ω}
Nature du déplacement Translation de vecteur non nul Identité Rotation d’angle non nul et de centre Ω
Translation
2) Composée de réflexions Soit s1 une réflexion de droite D1 , s2 une réflexion de droite D2 . Si D1 = D2 , alors s1 s2 = Idε . Si D1 ≠ D2 et D1 // D2 , alors s1 s2 = t u , où u = 2 H 1 H 2 :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
153 153/167
5/14/2018
Alg brelin aire-slidepdf.com
Sinon : θ
Ω
s1 s2 est la rotation de centre Ω l’intersection des deux droites et d’angle 2θ où θ est l’angle orienté ( D1 ,ˆ D2 ) (Il suffit pour justifier l’angle de raisonner avec les parties linéaires) Inversement, étant donnée une translation/rotation, on peut fixer une droite D1 orthogonale au vecteur de translation/passant par Ω et construire une autre droite de sorte que la composée des deux réflexions soit la translation/la rotation. Ainsi, tout déplacement est composé de deux réflexions. Toute isométrie est ainsi composée de réflexions, et même de 0, 1, 2, ou 3 réflexions. En effet : Soit f ∈ Is(ε ) . Si f est un déplacement, on a vu qu’il fallait 0 ou 2 réflexions. Sinon : pour un réflexion s quelconque, s f ∈ Dep(ε ) , donc s f est composée de 0 ou 2 réflexions, donc f = s −1 s f est composé de 1 ou 3 réflexions.
3) Les isométries indirectes Soit f ∈ Is(ε ) \ Dep(ε ) . Posons ϕ = Lin f . Alors ϕ ∈ O ( E ) \ SO ( E ) . Donc ϕ est une réflexion vectorielle, disons de droite D = Vect (u ) . er 1 cas : f a un point fixe A. Alors, pour tout M ∈ ε , en notant M’ son image par f , on a : M ' = f ( M ) = f ( A + AM ) = A + ϕ ( AM ) Donc AM ' = ϕ ( AM )
u
Donc f est la réflexion de droite D passant par A et de direction D. Inversement, les réflexions sont bien dans Is(ε ) \ Dep(ε ) ème 2 cas : f n’a pas de point fixe. Soit A ∈ ε , posons A' = f ( A) . On considère la translation t qui envoie A’ sur A.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
154 154/167
5/14/2018
Alg brelin aire-slidepdf.com
Alors t f laisse A invariant, et a pour partie linéaire Id E ϕ = ϕ . Donc s = t f est la réflexion de droite D passant par A de direction D et f = t AA ' s . M 1
A’ M’
A u
M
Mais par ailleurs, AA' s’écrit AA' = v + w . Donc f = t AA ' s = t v t w s .
∈ D
∈ D ⊥
t w s( M ) s( M )
w
u
On note g = t w s . Alors Lin g = Id E ϕ = ϕ . Mais g a un point fixe (au
moins), par exemple B = A + 12 w . Donc g est une réflexion de droite la droite
D' // D passant par A + 12 w (et donc de direction D) Ainsi, f = t v g , où g est une réflexion et t v est une translation de vecteur « parallèle » à la droite de la réflexion.
v
g ( M )
M ' = f ( M ) D
'
Direct
Indirect
Une telle transformation est évidemment sans point fixe et est bien une isométrie indirecte. On appelle ce type de transformation une réflexion glissée. Classification : Ensemble des points fixes Nature de la transformation Translation de vecteur non nul ∅ ε Id ε
{Ω}
Rotation d’angle non nul et de centre Ω
D
Réflexion de droite D.
∅
Réflexion glissée (c'est-à-dire t v sD où sD est la réflexion de droite D et t v la translation de vecteur
v ∈ Dir(D) \ {0 E })
B) Géométrie analytique en dimension 2
Soit R = (O, i , j ) un repère orthonormé, direct si besoin. Une droite a pour équation D : ax + by = h dans R, où (a, b) ≠ (0,0) . Un vecteur
a
−b
normal à D est n b , un vecteur directeur de D est u a . Distance d’un point à une droite :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
155 155/167
5/14/2018
Alg brelin aire-slidepdf.com
0
Soit M 0 x y0 , D : ax + by = h . On note n ba Soit
A x y1 1
∈D.
AM 0 ⋅ n
Alors d ( M 0 , D) = Angle de droites : D1 : a1 x + b1 y = h1 D2 : a2 x + b2 y = h2
n
( x0 − x1 ) a + ( y0 − y1 )b
=
a +b 2
2
ax0 + by0 − h
=
a 2 + b2
.
θ
θ
L’angle non orienté θ , c’est l’angle non orienté ( N1 ˆ, N 2 ) . n1 ⋅ n2 a1a2 + b1b2 cos θ = = n1 n2 a12 + b12 a22 + b22 Equation de la médiatrice :
1
2
Soient A1 ab1 , A2 ab2 . L’équation de la médiatrice est donc : a + a2 b + b2 ( a2 − a1 )( x − 1 ) + (b2 − b1 )( y − 1 )=0. 2 2 x0
y 0
C) Les similitudes du plan 1) Définition Soit f : ε → ε . f est une similitude ⇔ ∃k ∈ R * + , ∀ A, B ∈ ε , d ( f ( A), f ( B )) = k .d ( A, B ) . déf
Proposition, définition : Si f est une similitude, alors ∃k !∈ R * , ∀ A, B ∈ , d ( f ( A), f ( B )) = k .d ( A, B ) . + k est alors appelé le rapport de la similitude. ε Proposition : Soit f : ε → ε , soit k > 0 . On a les équivalences : f est une similitude de rapport k ⇔ f est la composée d’une isométrie et d’une homothétie de rapport k . ⇔ f est affine et sa partie linéaire s’écrit k .ϕ où ϕ ∈ O ( E ) ⇔ f conserve les angles non orientés de vecteurs.
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
156 156/167
5/14/2018
Alg brelin aire-slidepdf.com
Définition, proposition : Soit f une similitude de rapport k . Soit ψ sa partie linéaire. Alors ϕ = 1k ψ ∈ O( E ) .
• Si ϕ est dans SO ( E ) , on dit que f est directes, sinon on dit que f est indirecte.
• f multiplie les distances par k , et les aires par k 2 (admis) • Si f est directe, f conserve les angles orientés, sinon elle les retourne. L’ensemble des similitudes de ε est un sous-groupe de (GA(ε ),) .
2) Etude des similitudes du plan complexe On se place dans C muni de sa structure euclidienne orientée naturelle où (0,1, i ) constitue un repère orthonormé.
a) Quelques similitudes
• Translation de vecteur b où b ∈ C . z ֏ z + b • Symétrie orthogonale (réflexion) par rapport à l’axe réel : z ֏ z • Homothétie de centre O et de rapport α ∈ R : z ֏ α . z . Homothétie de centre z0 et de rapport α ∈ R : . 0 M ) z ֏ z0 + α .( z − z0 ) ( f ( M 0 + M 0 M ) = M 0 + α M
• Rotation de centre O et d’angle θ ∈ R : z ֏ e i.θ z Rotation de centre z0 et d’angle θ ∈ R : z ֏ z0 + e ( z − z0 ) i.θ
b) Les similitudes directes Proposition : Les similitudes directes de C sont exactement les applications du type z ֏ a. z + b , où (a , b) ∈ C * ×C . Démonstration : • Soient (a , b) ∈ C * ×C . a s’écrit α .e i.θ , où α ∈ R * et θ ∈ R .
Alors z ֏ a. z + b est composée de : . z ֏ e i θ z (isométrie directe)
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
157 157/167
5/14/2018
Alg brelin aire-slidepdf.com
v ֏ v + α b (translation)
Et u ֏ α .u (homothétie) C’est donc la composée d’une homothétie et d’une isométrie directe, donc une similitude directe. • Inversement, soit f une similitude directe. Elle est composée d’une homothétie et d’une isométrie directe (c'est-àdire d’une translation ou rotation), et ces trois applications sont du type z ֏ a. z + b et il est immédiat que l’ensemble des applications du type z ֏ a. z + b est stable par . Etude : Soit f : z ֏ a. z + b . z0 est fixe ⇔ a. z0 + b = z0 ⇔ (1 − a ) z0 = b
Si a = 1 et b ≠ 0 , il n’y a pas de point fixe, et z ֏ z + b est une translation. Si a = 1 et b = 0 , f est l’identité sur C. Si a ≠ 1 , on a un seul point fixe z0 . Alors f ( z ) = a. z + b , z 0 = a. z 0 + b . Donc f ( z ) − z0 = a( z − z0 ) . a s’écrivant α .e i.θ où α ∈ R * et θ ∈ R , on voit que f est la composée, commutative, de l’homothétie de centre z0 et de rapport α et de la rotation
de centre z0 et d’angle θ . Il en résulte que les similitudes indirectes sont les z ֏ a. z + b , où (a, b) ∈ C * ×C . En effet, si une application f s’écrit sous la forme z ֏ a. z + b , alors c’est la composée de z ֏ z et u ֏ a.u + b , et est donc une similitude indirecte. Inversement, si f est une similitude indirecte, alors en notant s : z ֏ z , f s est une similitude directe, disons g, et donc g s’écrit sous la forme g : u ֏ a.u + b , et f = g s , soit f : z ֏ a. z + b .
c) Conclusion sur les similitudes directes du plan complexe Ensemble des invariants ∅ C { z0 }
Nature de la similitude Translation de vecteur non nul Identité Similitude directe à centre, c'est-à-dire composée (commutative) d’une rotation de centre z0 et d’angle θ et d’une homothétie de centre z0 et de rapport α (et α .e i .θ ≠ 1 )
(Résultat valable dans tout plan affine euclidien) Proposition :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
158 158/167
5/14/2018
Alg brelin aire-slidepdf.com
Soient [ A, B ] et [ A' , B ' ] deux segments de longueur non nulle du plan (complexe). Alors il existe une et une seule similitude directe qui envoie [ A, B ] su [ A' , B ' ] (et plus précisément A sur A’ et B sur B’) Démonstration : Dans C, on introduit les affixes de A, B, A’, B’. Soient α , β ∈ C . Soit f : z ֏ α . z + β .
α . z A + β = z A'
Alors f convient si et seulement si
α . z B + β = z B '
α .( z B − z A ) = z B ' − z A'
seulement si
β = z A' − α . z A
, c'est-à-dire si et
.
On a donc bien une unique solution α ∈ C * , β ∈ C . f est une translation si et seulement si A' B ' = AB .
Sinon, f est une similitude à centre de rapport
A' B ' AB
et d’angle
( AB, A' B') :
α =
z B ' − z A ' z B − z A
, donc α =
z B ' − z A' z B − z A
=
A' B ' AB
et : Arg(α ) = Arg( z B ' − z A' ) − Arg ( z B − z A )
= (Ox, A' B ') − (Ox, AB )
= ( AB, A' B') [ 2π ]
D) Coordonnées polaires Soit ε un plan affine euclidien orienté. Soit R = (O, i , j ) un repère orthonormé direct de ε . Soit M ∈ ε et ( ρ ,θ ) ∈ R 2 . On dit que ( ρ , θ ) est un système de coordonnées polaires de M dans le repère R
lorsque OM = ρ .u (θ ) , où u (θ ) désigne le vecteur cos θ .i + sin θ . j , c'est-à-dire le
vecteur unitaire tel que (i ,ˆ u (θ )) = θ [ 2π ] . Commentaire : Il résulte de la définition qu’un point M a toujours une infinité de systèmes de coordonnées polaires, plus précisément : • Le point M = O admet exactement les couples ( ρ = 0, θ ) comme systèmes de coordonnées polaires. • Un point M ≠ O admet exactement comme systèmes de coordonnées polaires les couples ( ρ = OM , α + 2k π ), k ∈ Z , ( ρ = −OM , α + π + 2k π ), k ∈ Z , où α
est une mesure de l’angle orienté (i , OM ) . Equations de courbes en polaire, exemples :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
159 159/167
5/14/2018
Alg brelin aire-slidepdf.com
• La courbe C d’équation polaire ρ = 3 (relativement à R) est l’ensemble des M ∈ ε tels qu’au moins un des systèmes de coordonnées polaires ( ρ , θ ) de M vérifie ρ = 3 . Autrement dit, c’est l’ensemble des M ∈ ε tels qu’il existe θ ∈ R de sorte que OM = 3.u (θ ) , c’est donc le cercle de centre O de rayon 3. • Courbe d’équation polaire ρ = θ , θ ∈ R + (puis θ ∈ R ) : π / 2 π 2π
3π / 2
LXII En dimension 3 Ici, ε désigne un espace affine euclidien orienté de dimension 3, muni d’un repère
R = (O, i , j , k ) orthonormé direct. (Les antidéplacements sont hors programme en dimension 3)
A) Les déplacements 1) Etude Soit f ∈ Dep(ε ) , ϕ sa partie linéaire. Alors ϕ ∈ SO ( E ) . C’est donc une rotation, disons d’axe ( D, ω ) et d’angle θ .
• Si θ = 0 [2π ] , alors ϕ = Id E , donc f est une translation. • Si θ ≠ 0 [2π ] : - Soit l’ensemble des points fixes de f n’est pas vide, disons que A en est un. Alors pour tout M ∈ ε , f ( M ) est le point M’ tel que AM ' = ϕ ( AM ) . Soit D la droite passant par A de direction D, H le projeté orthogonal de M sur D. H ∈ D , donc AH ∈ D , donc AH est invariant par ϕ , donc H est invariant par f (car AH ' = AH ). Donc HM ' = ϕ ( HM ) . On dit que f est la rotation d’axe ( D, ω ) et d’angle θ :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
160 160/167
5/14/2018
Alg brelin aire-slidepdf.com
ω θ
D est l’ensemble des points fixes par f . Inversement, une application de ce type est bien une isométrie directe. - Soit l’ensemble des points fixes est vide : Soit A ∈ ε , A’ son image. Considérons alors g = t A ' A f . Alors g a pour partie linéaire Id E ϕ = ϕ et
laisse A invariant. C’est donc une rotation d’axe ( D, ω ) et d’angle θ où D est la droite passant par A de direction D, et θ l’angle de la rotation vectorielle ϕ , et on a alors f = t AA' g : ω θ
Mais AA' s'écrit AA' = u + v .
∈ D
=
∈ D ⊥
Et donc f t u t v g . Soit P un plan orthogonal à D passant par A. Alors g laisse stable P (car A est fixe par g et ϕ laisse stable D ⊥ c'est-à-dire dir ( P ) ) De même, P est stable par t v et t v g restreinte à P est une isométrie directe de P, à savoir une rotation puisque ϕ n’est pas l’identité. On note alors B le point fixe de t v g / P . Donc B est aussi un point fixe de t v g . C’est donc une rotation
d’axe ( D' , ω ) et d’angle θ où D’ passe par B et a pour direction D. Conclusion :
=
t f , où f est une rotation d’axe ( D' , ω ) et d’angle θ , et u un
f vecteur de D. u
1
1
ω θ
M et M’ n’appartiennent pas au même plan orthogonal à D’ (car u ≠ 0 ), donc il n’y a aucun point fixe. On dit que f est un vissage (vrai) d’axe ( D' , ω ) , d’angle θ et de vecteur u .
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
161 161/167
5/14/2018
Alg brelin aire-slidepdf.com
Classification (tous sont appelés des vissages) : Ensemble des points invariants Partie linéaire Nature du vissage Translation ∅ Id E
ε
Id E
D
) Rotation d’axe ( D, ω ) d’angle θ ρ θ , θ ≠ 0 d’axe ( D, ω où D = dir ( D) ρ θ , θ ≠ 0 d’axe ( D, ω ) Vissage vrai d’axe ( D, ω ) d’angle θ , où D est de direction D, et de vecteur u ≠ 0 ∈ D
∅
Idε
Détermination pratique, exemple : Reconnaître la
x transformation M y
֏
z
x ' M ' y ' z '
x ' = 6 − x où y ' = 2 − y z ' = z + 2
(1) C’est une application affine : C’est en effet l’application affine qui envoie O sur l’application
x
u y z
֏
− x u ' − y , z
6 O' 2 2
et de partie linéaire
c'est-à-dire l’application linéaire ϕ de matrice
− 1 0 0 0 − 1 0 dans (i , j , k ) . 0
1
0
En effet, cette application affine f est telle que :
∀ M ∈ ε , f ( M ) = f (O + OM ) = O'+ϕ (OM )
x' 6 − 1 0 0 x Soit y' = 2 + 0 − 1 0 y z ' 2 0 0 1 z (2) Identification de la partie linéaire : C’est une rotation d’angle π autour de Oz (ou aussi une symétrie orthogonale par rapport à Oz , appelé aussi retournement d’axe Oz ) C’est une isométrie directe (car det ϕ = 1 donc ϕ ∈ SO ( E ) ) Donc f est un déplacement. Comme ϕ ≠ Id E , f est soit un vissage vrai, soit
une rotation d’axe dirigé par k . (3) Recherche des points invariants : x = 6 − x x = 3 x
z
z = z + 2
2 = 0
M y est invariant ⇔ y = 2 − y ⇔ y = 1
On n’a donc aucun point invariant, c’est donc un vissage vrai. (4) Caractérisation de l’axe, du vecteur d’un vissage vrai :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
162 162/167
5/14/2018
Alg brelin aire-slidepdf.com
Soit f un vissage d’axe ( D, ω ) d’angle θ ≠ 0 et de vecteur u ≠ 0 .
D = M ∈ ε , MM ' est colinéaire à w , et u n’est autre que MM ' lorsque M est un point de D. 6 − 2 x
Dans ce cas là, MM ' 2− 2 y . 2
x = 3 Donc MM ' ∈ Vect (k ) ⇔ y = 1 3
Donc l’axe est la droite de direction Oz passant par A 1 . 0
Composée de deux réflexions :
- Si P1 // P2 , alors s2 s1 = t u , où u = 2 H 1 H 2 (éventuellement l’identité si P =P ) 1
2
- Sinon :
α
P1 ∩ P2 = D , s2 s1 est la rotation de droite D et d’angle 2α . Remarque : Un vissage vrai est composé de quatre réflexions, et pas mieux car sinon ce serait 2 (c’est un déplacement, donc sa partie linéaire est une isométrie directe), et se serait donc soit une translation, soit une rotation.
B) Géométrie analytique en dimension 3 Equation de plan : P : ax + by + cz = h , où (a, b, c) ≠ (0,0,0) .
a
Un vecteur normal à P est n b c
On a les équivalences, pour tout point M ∈ ε :
M ∈ P ⇔ OM ⋅ n = h ⇔ OM ⋅ n = OH ⋅ n ⇔ HM ⋅ n = 0 h Où H est tel que OH = λ .n avec λ = 2 .
n
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
163 163/167
5/14/2018
Alg brelin aire-slidepdf.com
Intersection de deux plans : P1 : a1 x + b1 y + c1 z = h1 P2 : a2 x + b2 y + c2 z = h2
a 1
a 2
On note n1 b1 , n2 b2 .
c1
c2
Si n1 ∧ n2 = 0 , alors P1 // P2 .
Si n1 ∧ n2 = d ≠ 0 , alors P1 ∩ P2 est une droite, et d dirige cette droite. En effet :
d ⊥ n1 , donc d ∈ dir ( P1 ) , et d ⊥ n2 donc d ∈ dir ( P2 ) .
Donc d ∈ dir (D) = dir ( P1 ∩ P2 ) et D est une droite (car d ≠ 0 ). Distance d’un point à un plan : Soit n un vecteur normal à un plan P.
.
d ( M , P ) = MH , et MH = λ .n .
2 + 0 = λ . n MA ⋅ n ax + by + cz − h MA ⋅ n Ainsi, MH = 2 n , soit MH = . = 2 2 2 n n a +b +c
MA = MH + HA . Donc MA ⋅ n = λ . n
2
Distance d’un point à une droite :
u
d ( M , D) = MH . On a MA ∧ u = MH ∧ u + HA ∧ u = MH ∧ u .
Donc MA ∧ u = MH u (car MH ⊥ u ).
Donc d ( M , D) = MH =
MA ∧ u
u
.
C) Coordonnées cylindriques et sphériques 1) Coordonnées cylindriques
Définition : Soit M ∈ ε , de coordonnées (cartésiennes) ( x, y , z ) dans R. On appelle système de coordonnées cylindriques de M relativement au repère R tout triplet ( r ,θ , z ) de R 3 vérifiant ( x, y , z ) = ( r cos θ , r sin θ , z ) .
Ainsi, en notant, pour chaque θ ∈ R , u (θ ) = cos θ .i + sin θ . j , et en notant, pour chaque M ∈ ε , m sa projection orthogonale sur le plan xOy , on a les équivalences :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
164 164/167
5/14/2018
Alg brelin aire-slidepdf.com
( r ,θ , z ) est un système de coordonnées cylindriques de M relativement à R
⇔ OM = r .u (θ ) + z.k ⇔ ( r ,θ ) est un système de coordonnées polaires de m
relativement au repère (O, i , j ) de xOy et z est la côte de M dans le repère R. Et donc tout point M de ε admet une infinité de systèmes de coordonnées cylindriques : • Si M ∈ Oz , ils sont du type (0, θ , z ) , avec θ ∈ R quelconque.
• Si M ∉ Oz , on obtient l’un d’entre eux en posant : r = OM , θ = (i ,ˆ Om) (dans xOy orienté par (i , j ) ), z la côte de M . Et les autres sont les (r ,θ + 2k π , z ) et (− r ,θ + π + 2k π , z ) avec k ∈ Z quelconque. Remarque : Avec le choix précédent de r et θ (si M ∉ Oz ), on a : r = x + y , cos θ = xr , sin θ = 2
2
y r
.
θ
2) Coordonnées sphériques Définition : Soit M ∈ ε , de coordonnées (cartésiennes) ( x, y , z ) dans R. On appelle système de coordonnées sphériques de M relativement au repère R tout triplet ( r ,θ , ϕ ) de R 3 vérifiant : x = r sin θ cos ϕ , y = r sin θ sin ϕ , z = r cos ϕ . Etude : Soit M ∈ ε , de coordonnées cartésiennes ( x, y , z ) dans R. On note toujours m la projection orthogonale de M sur le plan xOy . Dire que ( r ,θ , ϕ ) est un système de coordonnées sphériques de M revient à dire que : (1) est un système de coordonnées polaires de m relativement à ( r sin θ , ϕ ) (O, i , j ) dans xOy et z = r cosθ . - Si M = O , (1) impose que r cosθ = r sin θ = 0 , donc que r = 0 . Réciproquement, tout triplet ( r ,θ , ϕ ) tel que r = 0 est alors bien un système de coordonnées sphériques de M . - Si M ≠ O , mais M ∈ Oz , (1) impose que z = r cosθ et sin θ = 0 . Réciproquement, tout triplet ( r ,θ , ϕ ) vérifiant cela, c'est-à-dire du type : ( z ,2k π , ϕ ) ou (− z , π + 2k π , ϕ ) ( ϕ ∈ R quelconque) est bien un système de coordonnées sphériques de M . - Enfin, si M ∉ Oz et si ( ρ , α ) désigne un système de coordonnées polaires
de m relativement au repère (O, i , j ) du plan xOy , (1) impose que :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
165 165/167
5/14/2018
Alg brelin aire-slidepdf.com
r cos θ = z et r sin θ = ρ et ϕ = α [ 2π ] ou r cosθ = z et r sin θ = − ρ et ϕ = α + π [2π ]
Réciproquement, tout triplet ( r ,θ , ϕ ) vérifiant cela est bien un système de coordonnées sphériques de M . Il en résulte que tout point M de ε admet une infinité de systèmes de coordonnées sphériques. Remarque : Si ( r ,θ , ϕ ) est un système de coordonnées sphériques de M , on a toujours : 2
r = OM 2
2
En effet : OM = r 2 sin 2 θ (cos 2 ϕ + sin 2 ϕ ) + r 2 cos 2 θ = r 2 Recherche d’un système particulier de coordonnées sphériques pour M ∉ Oz . Soit M ∈ ε , on suppose ici que M ∉ Oz et on note toujours m sa projection orthogonale sur xOy , et ( x, y , z ) les coordonnées cartésiennes de M dans R. Posons r = OM .
Soit θ ∈ [0, π ] l’angle non orienté (k , OM ) :
Alors on a bien z = OM ⋅ k = r cos θ . 2
2
De plus, on a OM = Om + z 2 , donc Om
2
= r 2 (1 − cos 2 θ ) = r 2 sin 2 θ
Donc, comme r ≥ 0 et sin θ ≥ 0 (car θ ∈ [0, π ]), on a Om = r sin θ Soit maintenant ϕ l’angle orienté (i, OM ) dans xOy orienté par (i , j ) .
Alors on a bien Om = r sin θ (cosϕ .i + sin ϕ . j ) Et finalement ( r ,θ , ϕ ) est un système de coordonnées sphériques de M .
θ ϕ
Remarque : Comme on a supposé que M ∉ Oz , on a en fait r > 0 et θ ∈ ]0, π [ . r , θ , ϕ vérifient les relations : x y z 2 2 2 , sin ϕ = . r = x + y + z , θ = Arccos , cos ϕ = r sin θ r sin θ r Ainsi, on a trouvé un système de coordonnées sphériques de M tel que : r > 0, θ ∈ ]0, π [, ϕ ∈ [− π , π ] D’après l’étude, les autres systèmes de coordonnées sphériques de M sont les triplets :
A.Benhari http://slidepdf.com/reader/full/algebre-lineaire
166 166/167
5/14/2018
Alg brelin aire-slidepdf.com
(r ,θ + 2k π , ϕ + 2k ' π ) (r ,−θ + 2k π , ϕ + π + 2k ' π ) (−r , θ + π + 2k π , ϕ + 2k ' π )
(−r ,−θ + π + 2k π , ϕ + π + 2k ' π ) Et remarquons que tout point de ε , qu’il soit sur l’axe Oz ou non, admet un système de coordonnées sphériques ( r ,θ , ϕ ) avec r ≥ 0 , θ ∈ [0, π ] et ϕ ∈ [ −π , π ] . Mais on ne doit pas pour autant se limiter à de tels systèmes, car cela soulèverait des problèmes dans les équations en coordonnées sphériques (continuité par exemple).
Bibliographie N. Bourbaki, Algèbre : chap. i à iii, Masson, Paris, 1982 R. Cabane & C. Lebœuf, Algèbre linéaire, 2 vol., Ellipses, Paris, 1987-1990 L. Chambadal & J.-L. Ovaert, Algèbre multilinéaire, Dunod, Paris, nouv. éd. 1984 R. Gantmacher, Théorie des matrices, 2 vol., ibid., 1966, reprod. fac-sim., Gabay, Sceaux, 1990 R. Godement, Cours d'algèbre, Hermann, Paris, 1963 e W. Graeub, Linear Algebra, Springer, Berlin, 4 éd. 1991 J. Grifone, Algèbre linéaire, Cepadues, Toulouse, 1990 e N. Jacobson, Basic Algebra, 2 vol., W. H. Freeman, New York, 2 éd. 1984-1985 e S. Lang, Algebra, Springer-Verlag, New York, 3 éd. 1989 J.-L. Ovaert & J.-L. Verley, Algèbre, vol. I, C.E.D.I.C.-Nathan, Paris, 1981 G. W. Stewart, Introduction to Matrix Computations, Acad. Press, New York, 1973 B. L. van der Waerden, Modern Algebra, 2 vol., Springer-Verlag, New York, 1990 S. Axler, Linear Algebra Done Right (Second Edition), Undergraduate Texts in Mathematics, Springer-Verlag, 1997. K. Hoffman et R. Kunze, Linear Algebra (Second Edition), Prentice Hall, 1971. K. Jänich, Linear Algebra, Undergraduate Texts in Mathematics, Springer-Verlag, 1994. S. Lang, Introduction to Linear Algebra (Second Edition), Undergraduate Texts in Mathematics, Springer-Verlag, 1986. R. Valenza, Linear Algebra: An Introduction to Abstract Mathematics, Undergraduate Texts in Mathematics, Springer-Verlag, 1993
http://slidepdf.com/reader/full/algebre-lineaire
167/167