GCI 100. Algèbre linéaire par Pierre . Lemieux, ing., M.S. (MIT), Ph. D. (Waterloo) Profess ur associé Départ ment de génie civil Faculté de génie Univer ité de Sherbrooke Courri l :
[email protected]
Automne 2009
GCI 100. ALGÈBRE LINÉAIRE Contenu du cours Chapitre 1. Équations linéaires. Introduction exploratrice à l’algèbre linéaire Introduction 1.1 Systèmes d’équations linéaires : méthodes de Gauss Gau ss et Jordan-Gauss 1.2 Transformations des lignes et matrice-échelon 1.3 Équations vectorielles 1.4 Équation matricielle Ax = b 1.5 Ensemble des solutions d’un système d’équations linéaires 1.6 Indépendance linéaire 1.7 Introduction aux transformations linéaires 1.8 La matrice d’une transformation linéaire 1.9 Comparaisons des différents algorithmes de solution d’un système d’équations d ’équations linéaires Problèmes sur le chapitre 1 Chapitre 2. Algèbre des matrices Introduction 2.1 Opérations matricielles 2.2 Matrice inverse 2.3 Caractérisation des matrices inverses 2.4 Décomposition LU d'une matrice 2.5 Solution itératives des systèmes d’équations linéaires 2.6 Applications numériques au graphisme. Problèmes sur le chapitre 2 Chapitre 3. Notions sur les déterminants 3.1 Introduction à la notion de déterminant 3.2 Propriétés des déterminants 3.3 Règle de Cramer. Cramer. Formule pour la matrice inverse. Déterminant comme surface et volume. Problèmes sur le chapitre 3 Chapitre 4. Espaces vectoriels 4.1 Espaces vectoriels et sous-espaces vectoriels 4.2 Noyau. Espace colonne. Transformations linéaires. 4.3 Ensembles linéairement indépendants. Bases. 4.4 Systèmes de coordonnées 4.5 Dimension d’un espace vectoriel 4.6 Notion de rang – Retour à l’analyse l’analyse dimensionne dimensionnelle lle . 4.7 Changement de base. 4.8 Les chaînes de Markov Problèmes sur le chapitre 4
Chapitre 5. Valeurs propres et vecteurs propres 5.1 Notions de base 5.2 L’équation caractéristique 5.3 Diagonalisation d’une matrice 5.4 Application aux équations différentielles 5.5 Méthodes itératives pour obtenir les valeurs propres Problèmes sur le chapitre 5 Chapitre 6. Orthogonalité et moindres carrés 6.1 Produit scalaire scalaire ou intérieur. Longueur. Orthogonalité 6.2 Ensembles orthogonaux 6.3 Projections orthogonales 6.4 Problème des moindres carrés 6.5 Application au modèle linéaire 6.6 La procédure de Gram-Schmidt Annexe : Compléments sur les longueurs, lon gueurs, les normes, le produit scalaire et le produit vectoriel Problèmes sur le chapitre 6 Chapitre 7. Fonctions quadratiques, coniques. Surfaces quadriques 7.0 Introduction 7.1 Matrices symétriques. Diagonalisation. 7.2 Formes quadratiques 7.3 Exemple d'application 7.4 Matrices définies positives 7.5 Diagonalisation d'une forme forme quadratique 7.6 Les coniques 7.7 Les surfaces quadriques Problèmes sur le chapitre 7 Chapitre 8. Les nombres complexes 8.0 Introduction 8.1 Ensembles fondamentaux des nombres 8.2 Caractéristiques et propriétés des nombres complexes 8.3 Représentation géométrique des nombres complexes. Forme trigonométrique. 8.4 Formule de De Moivre 8.5 Formule d’Euler 8.6 Solutions de systèmes d’équations Problèmes sur le chapitre 8
1-1
Chapitre 1 Équations linéaires. Introduction exploratrice à l’algèbre linéaire. Objectifs d’apprentissage •
Le but principal de ce chapitre est une introduction rapide et un rappel des notions de base en algèbre linéaire
•
Ce qu’est un système d’équations linéaires. Solutions et systèmes équivalents. Notation matricielle. Opérations élémentaires.
•
Transformation des lignes et matrice-échelon. matrice-échelon. Solution avec la matrice matrice augmentée.
•
Ensemble des solutions d’équations linéaires.
•
Indépendance linéaire
•
Introduction aux transformations transformations linéaires et matrice d’une transformation linéaire. Application au graphisme.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
1-2
Chapitre 1 Équations linéaires. Introduction exploratrice à l’algèbre linéaire.
Introduction Importance de l’algèbre linéaire s’est accrue avec le développement de l’informatique. •
Algèbre linéaire a actuellement plus de potentiel que tout autre sujet mathématique.
•
Applications :
théorie des graphes, solutions de systèmes d’équations linéaires, systèmes d’équations non linéaires simultanées, moindres carrés, graphisme, …
1.1 Systèmes d’équations linéaires Équation linéaire :
a1 x1 + a 2 x 2 + ... + a n x n = b
variable constante Équation non linéaire :
x 2 = 2 x1 − 6
Systèmes d’équations linéaires : 2 x 1 − x 2 + 1.5 x 3 = 8 x1 − 4 x 3 = −7 Solution ⇒
Ensemble de valeurs (s1, s2, …, sn) qui vérifie chacune des équations lorsque s1, s2, …, sn remplacent x1, x2, …, xn respectivement.
Ensemble des solutions ⇒ ensemble de toutes les solutions possibles.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-3
2 systèmes linéaires équivalents ⇒
2 systèmes qui ont le même ensemble des solutions. Solution unique
x1 – 2 x2 = −1
3.0
− x1 + 3 x2 = 3
X2
2.5 2.0 1.5
Solution unique
1.0 0.5 X1 0.0 -4
-3
-2
-1
0
1
2
3
4
5
-0.5 -1.0 -1.5
Nombre infini de solutions 3.0
x1 – 2 x2 = −1
X2
2.5 2.0
− x1 + 2 x2 = 1
1.5 1.0 0.5
Infinité de solutions
X1 0.0 -4
-3
-2
-1
0
1
2
3
4
5
-0.5 -1.0 -1.5
Aucune solution 4.0
X2
3.5 3.0 2.5
x1 – 2 x2 = −1
2.0 1.5
− x1 + 2 x2 = 3
1.0 0.5
X1
0.0 -4
Aucune solution
-3
-2
-1
-0.5
0
1
2
3
4
5
-1.0 -1.5
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-4
Système consistant ⇒ il existe une solution ou une infinité de solutions.
Notation matricielle x1 − 2 x 2 + x 3 = 0 2 x 2 −8 x3 = 8 − 4 x 1 + 5 x 2 + 9 x 3 = −9
⇒
1 −2 1 0 2 −8 −4 5 9
0 8 −9
Matrice des coefficients Matrice augmentée
A =
1 −2 1 0 2 −8 −4 5 9
Ab =
1 −2 1 0 2 −8 9 −4 5
0 8 −9
Solutionner un systèmes d’équations linéaires ⇒ remplacer un système d’équations linéaires par un système équivalent plus facile à solutionner.
Opérations élémentaires sur les lignes de la matrice augmentée : 1. Remplacer une ligne par la somme d’elle-même et un multiple d’une autre ligne. 2. Permuter 2 lignes. 3.
Multiplier tous les éléments d’une ligne par une constante non nulle.
Si les matrices augmentées des 2 systèmes d’équations linéaires sont équivalentes, alors les 2 systèmes ont le même ensemble de solutions.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-5
Exemple illustratif . Solutionner le problème suivant : x1 − 2 x2 + x3 = 0 2 x2 − 8 x3 = 8 −4 x1 + 5 x2 + 9 x3 = −9
1 −2 1 0 2 −8 9 −4 5
0 8 −9
2e ligne à multiplier par 1/2
Solution : (1) Garder x1 dans la première équation et l’éliminer des 2 autres (méthode de Gauss) : 4 ⋅ éqn 1 :
4 x1 – 8 x2 + 4 x3 = 0
+ éqn 3 :
-4 x1 + 5 x2 + 9 x3 = -9
-3 x2 + 13 x3 = -9
nouvelle éqn 3 :
Résultat : x1 – 2 x2 + x3
=0
1 −2 1
x2 – 4 x3 = 4
0
− 3 x2 + 13 x3 = −9
0
1 −4 4
0 −3 13 −9
(2) Multiplier la 2e ligne par 1/2 pour obtenir 1 comme coefficient de x2, puis éliminer x2 de l’éqn 3
3 ⋅ éqn 2 :
3 x2 – 12 x3 = 12
+ éqn 3 :
−3x2 + 13 x3 = −9
nouvelle éqn 3
x3 = 3
Résultat : x1 – 2 x2 + x3 = 0
1 −2
1
0
x2 – 4 x3 = 4
0
1 −4 4
x3 = 3
0
0
1 3
Le système triangulaire obtenu est équivalent au système original.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-6
Pour obtenir la solution , nous procédons par substitution à reculon : x3 = 3 x2 = 4 + 4 ⋅ x3 = 16 x1 = 0 + 2 x2 – x3 = 29 Cette façon de procéder s’appelle l’algorithme par élimination de Gauss .
Poursuite de l’élimination : algorithme de Jordan-Gauss Éliminer x3 des éqns 1 et 2 : 4 ⋅ éqn 3
:
4 x3 = 12
+ éqn 2
:
x2 – 4 x3 = 4
nouvelle éqn 2 : x2
= 16
Résultat : x1 –2 x2 = -3 x2 = 16 + x3 = 3
-1 ⋅ éqn3
:
+ éqn 1
: x1 – 2 x2 + x3 = 0
nouvelle éqn 1
1 -2 0
: x1 –2 x2
- x3 = -3
= -3
-3
0
1 0 16
0
0 1
3
(1) Éliminer x2 de l’éqn 1 : éqn 1
:
x1 – 2 x2 = -3
+ 2 ⋅ éqn 2 :
2 x2 = 32
nouvelle éqn 1 : x1
Résultat final : x1 = 29 x2 = 16 x3 = 3
= 29 1 0 0 29 0 1 0 16 0 0 1
3
De nouveau, nous avons obtenu un système linéaire équivalent où la substitution à reculon n’est pas nécessaire.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-7
Note numérique Les systèmes d’équations linéaires se solutionnent avec un ordinateur. L’algorithme de solution utilisé se résume principalement à une méthode par élimination. En général, l’arithmétique utilisée est celle à point (virgule) flottant, i.e. où
nombre = ± . d1 d2 ... dp × 10 r p = le nombre de chiffres à droite du point décimal (8 ou 16), r = un nombre entier.
Une telle représentation arithmétique des nombres est inexacte à cause des troncations lors du stockage des nombres. Ainsi 1/3 n’est pas un nombre exact dans l’ordinateur.
1.2 Transformations des lignes et matrice-échelon Définition de matrice-échelon : Une matrice rectangulaire a une forme de matrice-échelon si elle a les caractéristiques suivantes : 1. 2. 3.
Toutes les lignes non nulles se trouvent au-dessus des lignes nulles. Le premier élément non nul d’une ligne se trouve dans une colonne à droite du premier élément non nul de la ligne qui la précède. Tous les éléments dans la colonne sous le premier élément non nul d’une ligne sont nuls.
Si, en plus de ces caractéristiques, une matrice rectangulaire est dite matrice-échelon réduite si elle possède aussi les caractéristiques suivantes : 4. 5.
Le premier élément non nul de chaque ligne est égal à 1. Tout premier élément non nul d’une ligne est le seul élément non nul dans sa colonne.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-8
Exemples : les matrices augmentées de l’exemple précédent, i.e. Colonnes des pivots
1 -2 1 0
1 0 0 29
0 1 -4 4
0 1 0 16
0 0 1 3
0 0 1 3
matrice-échelon
matrice-échelon réduite pivots
Théorème 1 Toute matrice est équivalente par les lignes à une et une seule matrice-échelon réduite. Preuve. Voir Preuve. Voir Lay (2003), p. A1 dans l’annexe A. Position d’un pivot pivot : position d’un élément de A qui correspond au premier élément non nul d’une ligne dans la forme échelon de A. Colonne-pivot : Colonne-pivot : colonne de A qui contient un pivot.
Algorithme pour l’obtention d’une matrice-échelon ( et matrice-échelon réduite) : Soit A une matrice rectangulaire ayant m lignes et n colonnes . 1. Poser p = 1, i.e. le premier pivot. 2. Pour j = p à n, trouver la la première colonne colonne non nulle. Soit k cette colonne. 3. Pour i = p à m, trouver un élément non nul (max en valeur absolue dans le cas du pivotage partiel). Soit r cet élément. 4. Permuter les lignes p et r. 5. Pour les lignes i = p +1 à m , utiliser les opérations élémentaires sur les lignes afin de rendre les éléments nuls dans la colonne k sous le pivot p. 6. Poser p = p + 1, i.e. augmenter p de 1.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
1-9
7. Répéter les étapes 2 à 6 jusqu’à ce qu’il n’y ait plus aucune ligne non nulle à modifier. 8. En partant du pivot le plus à droite , diviser le pivot par lui-même pour obtenir 1 et, à l’aide des opérations élémentaires sur les lignes, créer des éléments nuls dans la colonne contenant ce pivot et au-dessus de ce pivot . Procéder de la même façon en progressant vers la gauche.
Exemple : 0 3 -6 6 4 -5 Matrice originale A :
3 -7 8 -5 8 9 3 -9 12 -9 6 15
p = 1 + permutation des lignes 1 et 3 :
Pivot 1
3 -9 12 -9 6 15 3 -7 8 -5 8 9 0 3 -6 6 4 -5 Pivot 1
Obtention des éléments nuls sous le pivot 1 : 3 -9 12 -9 6 15 0 2 -4 4 2 -6 0 3 -6 6 4 -5
Pivot 2
Obtention des éléments nuls sous le pivot 2 : 3 -9 12 -9 6 15 0 2 -4 4 2 -6 0 0 0 0 1 Aucune nouvelle ligne à modifier :
4
Pivot 2
3 -9 12 -9 6 15 0 2 -4 4 2 -6 0 0 0 0 1
4
Obtention de la matrice-échelon réduite :
1 0 -2 3
(opérations élémentaires sur les lignes)
0 1 -2 2 0 -7
Pivot 3
0 -24
0 0 0 0 1
4 colonnes pivots
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
1-10
Note numérique Dans les calculs numériques, les algorithmes de solution de systèmes d’équations linéaires pratiquent le pivotage partiel , i.e. ils considèrent l’élément en position de pivot comme nul, recherchent le plus grand en valeur absolue sous la position du pivot et permutent les 2 lignes. r = i pour max { | a i p |, i = p, ... , m }
permutation des lignes r et p si r ≠ p.
Solutions des systèmes linéaires : Considérons le système suivant d’équations linéaires : x1 + 6 x2 + 2 x3 – 5 x4 – 2 x5 = - 4 2 x3 – 8 x4 – x5 = 3 x5 = 7 Sous forme de matrice de matrice augmentée, augmentée, 1 6 2 -5 -2 -4 0 0 2 -8 -8 -1 3 0 0 0 0 1 7
variables libres
Après avoir obtenu la forme matrice-échelon forme matrice-échelon réduite, réduite, 1 6 0 3 0
0
0 0 1 -4 0
5
0 0 0 0 1
7
x1 + 6 x2 ⇒
pivots
+ 3 x4
= 0
x3 − 4 x4
= 5 x5 = 7
variables de base
La solution générale prend la forme suivante : x1 = -6 x2 - 3 x4 x2 = libre x3 = 5 + 4x4 x4 = libre x5 = 7
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
1-11
Théorème 2 Un système d’équations linéaires est consistant si et seulement si la si la matrice des coefficients et la matrice augmentée , lorsque ramenées sous forme de matrice-échelon réduite, ont le même nombre de lignes non nulles.
1.3 Équations vectorielles Vecteur dans Rn : un vecteur dans Rn est un ensemble ordonné de n nombres réels qui se représentent sous forme d’une matrice ayant n lignes et 1 colonne, i.e. u1 u 2 u= ⋮ ⋮ u n
2 vecteurs u et v sont égaux si égaux si ui = vi pour i = 1, ..., n.
Propriétés algébriques de R n Pour u, v, w ∈ Rn et c, d des scalaires : (1) (2) (3) (4) (5) (6) (7) (8)
u + v = v + u (u + v) + w = u + (v + w) u + 0 = 0 + u = u u + (-u) = -u + u = 0 c (u + v) = c u + c v (c + d) u = c u + d u c (d u) = (cd) u 1 u = u
Combinaisons linéaires : Soient y, v1, v2, ..., vp ∈ Rn et c1, c2, ..., cp des scalaires. Le vecteur y
y = c1 v1 + c2 v2 + ... + cp vp est une combinaison linéaire des vecteurs v1, v2, ..., vp.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
1-12
Géométrie dans R2 : x2
Soient u, v ∈ R2. 2 −6 u= , v= 2 3
−4
Loi du parallélogramme
⇒ u +v = 5
u+v
2
u, v et (u + v) sont des points dans R . u De plus, 1 0 u=2 +2 0 1 1 0 v = −6 + 3 0 1
v
Coordonnées x2 suivant j
x1
Coordonnées x1 suivant i 1 0 u et v sont des combinaisons linéaires des vecteurs et . 0 1
Exemple d’utilisation de combinaison linéaire : 1 2 7 Soient a1 = − 2 , a 2 = 5 , b = 4 dans R3. − 5 6 − 3
Le vecteur b peut-il être une combinaison de a1 et a2 ? Solution : Par définition,
x1 a1 + x2 a2 = b
Scalaires qui sont des inconnues à déterminer
1 2 7 x 1 − 2 + x 2 5 = 4 − 5 6 − 3
a1
a2
b
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-13
x1 + 2 x 2 − 2 x + 5 x = 1 2 − 5 x 1 + 6 x 2
7 4 − 3
⇒
x1 + 2 x 2 = 7 − 2 x1 + 5 x 2 = 4 − 5 x 1 + 6 x 2 = −3
Après transformation de ce système d’équations linéaires en système équivalent sous forme de matrice-échelon réduite, 1 2 7 1 0 3 − 2 5 4 ⇔ 0 1 2 ⇒ x = 3 et x = 2 1 2 − 5 6 − 3 0 0 0
Donc b est une combinaison linéaire de a1 et a2, i.e. 1 2 7 3 − 2 + 2 5 = 4 − 5 6 − 3
a1
a2
b
Une équation vectorielle de la forme x1 a1 + x2 a2 + ... + xn an = b a le même ensemble de solutions que le système linéaire dont la matrice augmentée est
Ab = [ a1 a2 ... an b ] Le vecteur b est une combinaison linéaire des vecteurs a1, a2, ..., an si et seulement si il existe une solution au système linéaire associé à la matrice augmentée Ab. À noter que les colonnes de A sont les vecteurs a1, a2, ..., an, et celles de Ab, a1, a2, ..., an, b.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-14
Définition Soient v1, v2, ..., vp ∈ Rn. L’ensemble de toutes les combinaisons linéaires de v1, v2, ..., vp se dénote Gen { v1, v2, ..., vp } et constitue le sous-ensemble de Rn engendré par v1, v2, ..., vp. Donc
Gen { v1, v2, ..., vp } = { y | y = c1 v1 + c2 v2 + ... + cp vp } b ∈ { v1, v2, ..., vp } ⇒ b = c1 v1 + c2 v2 + ... + cp vp
1.4 L’équation matricielle A x = b Soit A une matrice ayant m lignes et n colonnes. Alors le produit Ax est la combinaison linéaire des colonnes de A avec les éléments de x comme coefficients, i.e. x1 x Ax = [a1 , a 2 , ... , a n ] 2 = x1 a1 + x 2 a 2 + ... + x n a n ⋮ x n
Théorème 3 Si A est une matrice m × n, dont les colonnes a1, a2, ..., an ainsi que b sont dans Rm, alors l’équation matricielle
Ax = b a le même ensemble de solutions que l’équation vectorielle x1 a1 + x2 a2 + ... + xn an = b qui a à son tour le même ensemble de solutions que la matrice augmentée [ a1, a2, ... , an, b ] L’équation Ax = b a une solution si et seulement si b est une combinaison linéaire des colonnes de A.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-15
Exemple : Est-ce que le système d’équations linéaires suivant est consistant pour n’importe quelles valeurs des éléments de b ? 3 4 1 b1 A = − 4 2 − 6 et b = b 2 − 3 − 2 − 7 b 3
Solution : b1 b1 1 3 4 b1 1 3 4 1 3 4 −4 2 −6 b ⇒ 0 14 10 b + 4b ⇒ 0 14 10 b + 4b1 2 2 1 2 − − − + + − + 3 2 7 b 0 7 5 b 3b 0 0 0 b 3b (b 4b )/2 3 3 1 3 1 2 1 1 3 4 b1 b2 + 4b1 ⇒ 0 14 10 1 − + 0 0 0 b b b 1 2 2 3 Matrice-échelon Ce système d’équations est consistant si b1 – b2 /2 + b3 = 0. Il s’agit de l’équation d’un plan passant par l’origine dans R3. La combinaison linéaire des colonnes de A génèrent un plan dans
R3.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-16
1.5 Ensemble des solutions d’un système d’équations linéaires Système d’équations linéaires homogène :
Ax = 0 A : matrice m × n 0 ∈ Rm
Un tel système d’équations a au moins une solution, i.e. la solution triviale x = 0. Il existe une solution non triviale si et seulement si le système d’équations possède au moins une variable libre.
Exemple : Déterminer si le système d’équations linéaires homogènes suivant possède une solution non triviale et décrire l’ensemble des solutions. 3 x1 + 5 x2 – 4 x3 = 0 -3 x1 – 2 x2 + 4 x3 = 0 6 x1 +
x2 – 8 x3 = 0
Solution : Il faut tout d’abord ramener la matrice augmentée à une forme matrice-échelon : 3 5 − 4 0 3 5 − 4 0 3 5 − 4 0 − 3 − 2 4 0 ⇒ 0 3 0 0 ⇒ 0 3 0 0 6 1 − 8 0 0 − 9 0 0 0 0 0 0
pivots x3 devient donc une variable libre. Obtenons la matrice-échelon réduite : 1 0 − 4 / 3 0 0 1 0 0 0 0 0 0
x1
⇒
− 4 / 3 x 3 = 0
x2
=0
0 =0
Forme de la solution : x 1 4 / 3 x 3 x = x 2 = 0 = x 3 x 3 x 3
4 / 3 0 1
v paramètre
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-17
Forme paramétrique vectorielle : Considérons le système d’équations linéaires suivant et décrire l’ensemble des solutions : 3 5 − 4 7 A = − 3 − 2 4 et b = − 1 6 1 − 8 − 4
Solution : x1
3 5 −4 7 1 0 − 4 / 3 − 1 − 3 − 2 4 − 1 ⇒ 0 1 0 2 6 1 − 8 − 4 0 0 0 0
⇒
p x = p + t v,
x2
= 2
0=0
x 1 − 1 + 4 / 3 x 3 − 1 4 / 3 x 3 − 1 =2+ 0 =2+x 2 x = x 2 = 3 x 3 0 x 3 0 x3
i.e.
− 4 / 3 x 3 = −1
4 / 3 0 1
v
t∈R
Obtenir la solution paramétrique : 1. Réduire la matrice augmentée à sa matrice-échelon réduite. 2. Exprimer chaque variable de base en fonction des variables libres. 3. Écrire le vecteur solution x comme un vecteur dépendant des variables libres. 4. Décomposer x en une combinaison linéaire de vecteurs avec les variables libres comme paramètres .
Théorème 6 Soit A x = b un système d’équations linéaires consistant pour un vecteur b, et soit p une solution. Alors la solution peut s’exprimer comme l’ensemble des vecteurs de la forme w = p + vH, où vH est une solution quelconque du système homogène.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-18
p + t v p
A x = b
A x = 0 tv
v
Interprétation géométrique
1.6 Indépendance linéaire Définition Un ensemble de vecteurs { v1, …, vp } ∈ Rn est linéairement indépendant si l’équation vectorielle x1 v1 + x2 v2 + … + xp vp = 0 n’a que la solution triviale, i.e. x = 0. Dès lors, { v1, …, vp } est linéairement dépendant s’il existe des constantes c1, …, cp non toutes nulles de telle sorte que c1 v1 + c2 v2 + … + cp vp = 0
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-19
Exemple : Déterminer si { v1, v2, v3 } forme un ensemble linéairement indépendant et, si possible, trouver une relation de dépendance entre eux. 1 4 2 v 1 = 2 , v 2 = 5 , v 3 = 1 3 6 0
Solution : 1 4 2 0 1 4 2 0 1 0 − 2 0 2 5 1 0 ⇒ 0 − 3 − 3 0 ⇒ 0 1 1 0 3 6 0 0 0 0 0 0 0 0 0 0
x1 ⇒
⇒
linéairement dépendant
− 2 x3 = 0
x2 +
x3 = 0 0=0
x 1 2 x 3 x = − x = x 3 2 3 x 3 x 3
2 − 1 1
Posons que x3 = 5, alors x1 = 10 et x2 = -5. Dès lors, une relation de dépendance linéaire est 10 v1 - 5 v2 + 5 v3 = 0 Les colonnes de la matrice A sont linéairement indépendantes si et seulement si l’équation vectorielle A x = 0 n’a que la solution triviale.
Théorème 7 Un ensemble de vecteurs { v1, …, vp } est linéairement dépendant si et seule ment si au moins un des p vecteurs peut s’écrire comme une combinaison linéaire des autres.
Théorème 8 Soient p vecteurs v1, …, vp ∈ Rn et p > n. Alors cet ensemble de vecteurs est linéairement dépendant. Si cet ensemble de vecteurs contient en particulier le vecteur 0, il est linéairement dépendant.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-20
x3
x2
v x1
w
u
w est linéairement dépendant de u et v.
x3 w x2 v x1
u
w est linéairement indépendant de u et v.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-21
1.7 Introduction aux transformations linéaires Posons que 1 4 − 3 1 3 1 5 2 0 5 1 1 = 8 1
A
x
et
b
1 4 − 3 1 3 − 4 0 2 0 5 1 − 1 = 0 3
A
x
0
La matrice A transforme le vecteur x ∈ R4 en un vecteur b ∈ R2 ou 0 ∈ R2 . Dès lors, la solution d’un système d’équations linéaires A x = b signifie que l’on recherche tous les vecteurs
x ∈ R4 qui se transforment dans le vecteur b ∈ R2 ou 0 ∈ R2 à l’aide de la matrice A. Définition Une transformation T de Rn à Rm est une règle qui assigne à chaque vecteur x ∈ Rn un vecteur T(x) ∈ Rm. L’ensemble des vecteurs x ∈ Rn s’appelle le do maine de T, tandis que l’ensemble des vecteurs dans Rm s’appelle le co-domaine de T. Pour chaque vecteur x ∈ Rn , le vecteur T(x) s’appelle l’image de x. De plus, l’ensemble de toutes les images T(x) s’appelle le champ de T.
x
.
champ
Rn
.
domaine
T(x)
Rm co-domaine
Domaine, co-domaine et champ
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-22
Transformation matricielle Notons que le domaine de la transformation T est Rn lorsque la matrice A possède n colonnes et que son co-domaine est Rm lorsque A possède m lignes.
Exemple : 1 − 3 3 3 2 Posons que A = 3 5 , u = , b = 2 , c = 2 − 1 − 1 7 − 5 5
et 1 − 3 x 1 − 3x 2 x T (x) = A x = 3 5 1 = 3x 1 + 5x 2 x − 1 7 2 − x 1 + 7 x 2
(a)
Trouver l’image T(u).
(b)
Trouver un x ∈ R2 dont l'image est b.
(c)
Y a-t-il plus d’un x dont l’image est b ?
(d)
Déterminer si c est dans le champ de la transformation T ?
Solution : (a)
1 − 3 5 2 T (u) = A u = 3 5 = 1 −1 − 1 7 − 9
(b)
Il s’agit de solutionner A x = b i.e. 1 − 3 3 1 −3 3 1 0 1.5 3 5 x 1 = 2 ⇒ 3 5 2 → 0 1 − 0.5 x 2 − 1 7 − 5 − 1 7 − 5 0 0 0
Matrice augmentée
Matrice-échelon réduite
1.5 Dès lors, x1 = 1.5 et x2 = -0.5, donc b est l’image de x = − 0.5 (c)
Tout vecteur x dont l’image serait b doit vérifier la relation de (b). Il est clair que la solution est unique. Pourquoi ?
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-23
(d)
Si le vecteur c se trouve dans le champ de T, alors c doit vérifier c = T(x). Dès lors, 1 − 3 3 1 − 3 3 3 5 2 → 0 1 2 − 1 7 5 0 0 − 35
Matrice augmentée
Matrice-échelon
Ce système d’équations est inconsistant, car il aurait fallu que la dernière ligne soit entièrement nulle. Donc c ∉ champ de T(x).
Définition Une transformation est linéaire si (1)
T(u + v) = T(u) + T(v) pour tout u, v dans le domaine de T.
(2)
T(cu) = c T(u) pour tout u et tous les scalaires c.
Dès lors, T(0) = 0 T(cu + dv) = cT(u) + dT(v) Pour tous les vecteurs u et v dans le domaine de T et tous les scalaires c, d.
1.8 La matrice d’une transformation linéaire Les caractéristiques d’une transformation linéaire T sont étroitement liées à celles de la matrice A de la transformation. Par exemple, posons que 1 0 I2 = 0 1 Matrice identité
e1
e2
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-24
Supposons maintenant une transformation linéaire T de R2 à R3 telle que 5 − 3 T (e 1 ) = − 7 et T (e 2 ) = 8 2 0
Sans aucune information additionnelle, trouver une formule pour l’image d’un x arbitraire dans
R2. Solution : x 1 x = 1 = x1 + x 2 0 x 2
0 1 = x 1 e 1 + x 2 e 2
5 T (x) = x 1 T (e1 ) + x 2 T(e 2 ) = x 1 − 7 + x 2 2
− 3 5x 1 − 3x 2 8 = − 7 x + 8x 1 2 0 2x 1 + 0
5 − 3 x1 x T(x) = [T(e 1 ) , T(e 2 )] = Ax = − 7 8 1 x x 2 2 0 2
Matrice de la transformation
Théorème 10 Soit T : Rn → Rm une transformation linéaire. Il existe une matrice unique A de telle sorte que T(x) = Ax ∀x ∈ R n Les colonnes de A sont T(e1), ..., T(en), où e j est la jème colonne de la matrice identité In dans Rn. La matrice A s’appelle la matrice standard de la transformation linéaire.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-25
Exemple : Trouver A pour la dilatation T(x) = 3x dans R2. 3x 1 0 3 0 x 1 T( x ) = 1 = 3 + 3 = [T(e 1 ) , T(e 2 )] x = 0 1 0 3 x 2 3x 2
A Transformations linéaires dans R2 : Transformations linéaires : réflexion
x2
1 0 A= 0 − 1
.
(1 , 1)
x1
.
Image d’un carré
(1 , -1)
(a) réflexion par l’axe x1
Transformations linéaires : réflexion
− 1 0 A= 0 1
(-1 , 1)
.
x2
.
Image d’un carré (1 , 1)
x1 (b) réflexion par l’axe x2
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-26
Transformations linéaires : réflexion
x2
.
x2 = -x1
0 − 1 A= − 1 0 (1 , 1)
x1 (-1 , -1)
.
Image d’un carré
(c) réflexion par la droite x2 = -x1
Transformations linéaires : réflexion
x2 − 1 0 A= 0 − 1
(-1 , -1)
.
.
.
(1 , 1)
x1 Image d’un carré
(d) réflexion par l ’origine
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-27
Transformations linéaires : contraction et expansion Image d’un k 0 x2 x2 A = 0 1 carré (k , 1) (k , 1) 0
1
.
.
x1
x1 x2
x2
(1 , k) k > 1
(1 , k) 0 < k < 1
1 0 A= 0 k
x1
x1
Transformations linéaires : cisaillement
. k
k
. .x
x2
Image d’un carré
x2
.
x1
k
2
. k<0
. x1
k
1 k A= 0 1
.
x2
.
x1 1 0 A= k 1
x1
k>0
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-28
Transformations linéaires : projections
x2
x2
projection sur l’axe x1
x1 projection sur l’axe x2
1 0 A= 0 0 Image d’un carré
0 0 A= 0 1
x1 Définition Une application T : Rn → Rm est dite sur Rm si chaque b ∈ Rm est l’image d’au moins un x ∈ Rn. Une application T : Rn → Rm est dite univoque si chaque b ∈ Rm est l’image de tout au plus un seul x ∈ Rn.
Théorème 11 Soit une transformation linéaire T : Rn → Rm . Alors T est univoque si et seulement si l’équation T(x) = 0 n’a que la solution triviale. Théorème 12 Soit une transformation linéaire T : Rn → Rm et soit A une matrice standard. Alors a) T transforme Rn sur Rm si et seulement si les colonnes de A génèrent Rm. b) T est univoque si et seulement si les colonnes de A sont linéairement indépendantes.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-29
Exemple : Soit T(x1, x2) = (3x1 + x2, 5x1 + 7x2, x 1 + 3x2). Démontrer qu’il s’agit d’une transformation univoque. Application de R2 sur R3 ? Solution : 3 1 3x 1 + x 2 x 5 7 1 = 5 x + 7 x 2 x 2 1 1 3 x 1 + x 2
A
x
b
Il s’agit d’une transformation linéaire. De plus, les colonnes de A sont linéairement indépendantes. En effet, la seule façon que b = 0 est que la solution soit triviale.
1.9 Comparaison des différents algorithmes de solution d'un système d'équations linéaires Comme les ordinateurs sont limités quant au nombre de décimales ou de chiffres significatifs qu'ils peuvent accommoder, ils doivent tronquer la plupart des quantités numériques. Par exemple, la représentation de 2/3 dans un ordinateur utilisant 8 chiffres seulement sera 0.66666666 ou 0.66666667, ce qui entraîne une erreur de troncation. Une des considérations dans l'utilisation d'un algorithme pour la solution d'un système d'équations linéaires est l'obtention du temps minimal. À cela doit s'ajouter la minimisation des erreurs de troncation. Dès lors, un algorithme se doit d'utiliser le nombre minimal d'opérations arithmétiques pour y parvenir. Le tableau ci-dessous indique le nombre d'opérations (additions/soustractions et multiplications/divisions) nécessaires pour différents algorithmes. Méthode Solutionner Ax = b par Jordan-Gauss Solutionner Ax = b par Gauss Trouver A-1 en réduisant [ A | I ] à [ I | A-1 ] Solutionner Ax = b par x = A-1b Trouver det ( A) par transformation élémentaires sur les lignes Solutionner Ax = b par la règle de Cramer
Nombre d'additions (+ et -)
Nombre de multiplications (x et /)
n3 − 2 n 2 + n
n3 n + n2 − 3 3 3 n n + n2 − 3 3 3 n
n3 − n2 n3 n 2 n − + 3 2 6 n 4 n3 n 2 n − − + 3 6 3 6
n3 + n 2 n3 2 n + −1 3 3 n 4 n3 2 n 2 2 n + + + −1 3 3 3 3
n3
+
n2
3 2 n3 n 2 + 3 2
5n 6 5n − 6
−
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-30
Lorsque la matrice est volumineuse, i.e. la valeur de n est grande, il est alors possible d'obtenir une approximation le nombre d'opérations arithmétiques à l'aide des formules suivantes : Méthode Solutionner Ax = b par Jordan-Gauss Solutionner Ax = b par Gauss Trouver A-1 en réduisant [ A | I ] à [ I | A-1 ] Solutionner Ax = b par x = A-1b Trouver det ( A) par transformation élémentaires sur les lignes Solutionner Ax = b par la règle de Cramer
Nombre d'additions (+ et -)
Nombre de multiplications (x et /)
n3 3 n3 3 n3
n3 3 n3 3 n3
n3 n3 3 n4 3
n3 n3 3 n4 3
Il est facile de conclure que les algorithmes de Gauss et Jordan-Gauss sont les plus performants.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-31
Problèmes sur le chapitre 1 Problème 1 (Lay, #11, p. 11) . Solutionner le système d’équations suivant : x2 + 4 x3 = −5 x1 + 3x2 + 5x3 = −2 3 x1 + 7 x2 + 7 x3 = 6
Rép. : Système inconsistant
Problème 2 (Lay, #13, p. 11) . Solutionner le système d’équations suivant : x1 − 3x3 = 8 2 x1 + 2 x2 + 9 x3 = 7 Rép. : x = (5,3, -1) x2 + 5 x3 = −2
Problème 3 (Lay, #19, p. 12) . Trouver la valeur de h pour que le système d’équations soit consistant, la matrice étant augmentée, i.e. 1 h 4 Ab = Rép. : h ≠ 2 3 6 8 Problème 4 (Lay, #25, p. 12) . Trouver une équation impliquant g, h et k pour que le système d’équations soit consistant. 1 −4 7 g A b = 0 3 −5 h Rép. : k + 2g + h = 0 −2 5 −9 k
Problème 5 (Lay, #7, p. 25) . Trouver la solution générale de 1 3 4 7 Ab = Rép. : x1 = -5 – 3x2, x2 libre, x3 = 3 3 9 7 6 Problème 6 (Lay, #13, p. 25) . Trouver la solution générale de 1 −3 0 −1 0 −2 0 1 0 0 −4 1 Ab = 0 0 0 1 9 4 0 0 0 0 0 0 Rép. : x1 = 5 + 3x5 , x2 = 1 + 4 x5 , x3 libre, x4 = 4 − 9x5 , x5 libre
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-32
Problème 7 (Lay, #19, p. 26) . Choisir h et k de telle sorte que le système d’équations ci-dessous • ne possède pas de solution • possède une solution unique • possède plusieurs solutions x1 + h x2 = 2 4 x1 + 8 x2 = k Inconsistant : h = 2, k ≠ 8 Une solution : h ≠ 2 Plusieurs solutions : h = 2, k = 8
Problème 8 (Lay, #13, p. 38) . Déterminer si b est une combinaison linéaire des colonnes de A. 1 −4 2 3 A = 0 3 5 , b = −7 Rép. : non −2 8 −4 −3 2 2 Problème 9 (Lay, #13, p. 25) . Considérons les vecteurs u et v suivants : u = , v = . Montrer −1 1 h que tout vecteur de la forme b = se trouve dans l’ensemble Gén {u, v} peu importe les vak leurs de h et k .
Problème 10 (Lay, #29 et 30, p. 39) . Considérons k masses ponctuelles m1, m2, …, mk placées aux points v1, v2, …, vk respectivement. La masse totale du système des masses ponctuelles est : j
m = m1 + m2 + ⋯ + mk = ∑ m j j =1
Le centre de gravité ou centre de masse du système devient : 1 1 k v = [ m1v1 + m2 v 2 + ⋯ + mk v k ] = ∑ m j v j m m j =1 Calculer le centre de gravité du système suivant : 5 4 −4 −9 v1 = −4 , v2 = 3 , v 3 = −3 , v 4 = 8 3 −2 −1 6 m1 = 2 g , m2 = 5 g , m3 = 2 g , m4 = 1 g
Est-ce que le centre de gravité de ce système de points se trouve dans {v1 v2 v 3 v 4} ? Justifier la réponse.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-33
Problème 11 (Lay, #5, p. 47). Écrire l’équation matricielle suivante sous forme d’équation vectorielle. 5 5 1 −8 4 −1 −8 −2 −7 3 −5 3 = −16 −2 Problème 12 (Lay, #9, p. 47). Écrire sous forme d’équation vectorielle et sous forme matricielle : 3 x1 + x2 − 5x3 = 9 x2 + 4 x3 = 0 Problème 13 (Lay, #23 et 24, p. 48) . Déterminer si ces énoncés sont vrais ou faux. Justifier la réponse. • L’équation Ax = b s’appelle une équation vectorielle. Faux • Le vecteur b est une combinaison linéaire des colonnes de A ssi Ax = b possède au moins une solution. Vrai • L’équation Ax = b est consistante si la matrice augmentée A b = [ A, b] a un pivot dans chaque ligne. Faux • Si A est une matrice m × n et si A génère Rm, alors A ne peut avoir un pivot dans chaque ligne. Faux • Toute combinaison linéaire de vecteurs peut toujours s’écrire dans la forme Ax = b pour une forme appropriée de A et de b. Vrai • Si A est une matrice m × n et si A ne génère pas Rm, alors l’équation Ax = b est inconsistante pour des vecteurs b ∈ R m Vrai Problème 14 (Lay, #39 et 41, p. 49) . À l’aide de MATLAB, déterminer si les colonnes de la matrice suivante peuvent engendrer R4. Y a-t-il possibilité de retirer une colonne de A et de toujours pouvoir engendrer R4 ? 12 −7 11 −9 5 −9 4 −8 7 −3 A= −6 11 −7 3 −9 4 −6 10 −5 12 Problème 15 (Lay, #12, p. 55) . Décrire les solutions de l’équation Ax = 0 dans la forme paramétrique, la matrice ci-dessous étant une forme équivalente de ladite matrice A.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-34
1 0 0 0
5 0 0 0
2 −6 1 −7 0 0 0 0
9 0 4 −8 0 1 0 0
−5 −8 −1 1 0 0 0 7 − 4 Rép. : x = x2 + x4 + x5 0 1 0 0 0 1 0 0 0
Problème 16 (Lay, #19, p. 55) . Trouver l’équation paramétrique de la droite passant par a et parallèle à b : −2 −5 a = , b = Rép. : x = a + t b 0 3 Problème 17 (Lay, #23 et 24, p. 55) . Déterminer si ces énoncés sont vrais ou faux. Justifier la réponse. • Une équation Ax = 0 est toujours consistante. Vrai • L’équation x = p + t v décrit une droite passant par v et parallèle à p. Faux • Si x est une solution non triviale de Ax = 0 , alors chacun des éléments de x est non nul. Faux Problème 18 (Lay, #33 et 34, p. 56) . Pour les 2 matrices suivantes, trouver une solution non triviale de l’équation Ax = 0 par simple inspection. −2 −6 4 −6 7 21 , −8 12 −3 −9 6 −9 3 Rép. : 1ère matrice : x = −1
3 2ème matrice : x = 2
Problème 19 (Lay, #1, 2 et 8, p. 71) . Déterminer si ces 3 ensembles de vecteurs sont linéairement indépendants. Même question pour les colonnes de la matrice. Justifier la réponse. 5 7 9 0 0 3 1 − 3 3 − 2 a ) 0 , 2 , 4 b ) 0 , 5 , 4 c ) −3 7 − 1 2 0 −6 −8 −8 −8 −1 0 1 −4 3 Rép. : a) Oui, b) Oui, c) Non
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-35
Problème 20 (Lay, #41, p. 72) . À l’aide de MATLAB, trouver un ensemble de vecteurs linéairement indépendant avec les colonnes de A. 8 − 3 0 −7 2 −9 4 5 11 −7 A= 6 −2 2 −4 4 5 −1 7 0 10 Problème 21 (Lay, #3, p. 80). Soit T ( x ) = Ax . Trouver un vecteur x dont l’image sous T est b. Est-ce que ce vecteur est unique ? 1 0 −2 −1 3 A = −2 1 6 , b = 7 Rép. : x = 1 unique 3 −2 −5 −3 2 Problème 22 (Lay, #9, p. 80). Trouver tous les vecteurs x ∈ R 4 dont l’image est le vecteur 0 pour la transformation linéaire suivante : 9 −7 1 −4 7 −5 4 −3 x ֏ Ax, A = 0 1 −4 3 Rép. : x = x3 + x4 1 0 2 −6 6 −4 0 1 Problème 23 (Lay, #13 et 16, p. 80) . Utiliser un système cartésien pour tracer les 2 points u et v suivants ainsi que l’image de ces points sous les transformations T1 et T2 : −1 0 0 1 5 − 2 , , , T1 ( x ) = T x = u = v = ( ) 2 1 0 2 4 0 −1 Problème 24 (Lay, #27, p. 81) . Montrer que la droite passant par les points p et q de Rn peut s’écrire dans la forme paramétrique (1 − t ) p + t q . Le segment de droite de p vers q est l’ensemble de points pour 0 ≤ t ≤ 1 . Montrer que la transformation linéaire T(x) transforme ce segment de droite soit en un segment de droite soit en un seul point. Problème 25 (Lay, #1, 3 et 4, p. 90) . Soit T(x) une transformation linéaire. Trouver la matrice standard de T(x) pour les cas suivants : 1) T : R 2 → R 4 , T ( e1 ) = ( 3 1 3 1) et T ( e2 ) = ( −5 2 0 0 ) 2) T : R 2 → R 2 qui effectue une rotation de 3π /2 dans le sens antihoraire autour de l’origine. 3) T : R 2 → R 2 qui effectue une rotation de π /4 dans le sens horaire autour de l’origine.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
1-36
Problème 26 (Lay, #10, p. 90) . Trouver la matrice de la transformation linéaire T : R 2 → R 2 qui, en premier lieu, réfléchit les points à travers l’axe vertical x 2, puis effectue une rotation de π /2 dans le sens horaire. 0 1 Rép. : T = −1 0 Problème 27 (Lay, #15, p. 90) . Trouver les termes qui manquent dans la matrice suivante : ? ? ? x1 3x1 − 2 x3 ? ? ? x = 4 x 2 1 ? ? ? x3 x1 − x2 + x3 θ
Problème 28 (Lay, #37 et 39, p. 91-92). À l’aide de MATLAB, déterminer si les matrices suivantes sont des transformations biunivoques : 4 −7 3 7 5 −5 10 −5 4 8 3 −4 7 6 −8 5 12 −8 , −7 10 −8 −9 14 4 −9 5 −3 −3 −2 5 4 3 −5 4 2 −6 −5 6 −6 −7 3 Remarque. Matrice élémentaire de rotation : cosθ − sin θ R= avec θ dans le sens antihoraire θ θ sin cos Pour une rotation dans le sens horaire, il faut remplacer θ par - θ .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-1
Chapitre 2 Algèbre des matrices Objectifs d’apprentissage •
Maîtriser les opérations matricielles
•
Approfondir la notion de matrice inverse
•
Caractériser une matrice inverse
•
Savoir obtenir la décomposition LU d’une matrice
•
Notions sur la solution itérative d’un système d’équation
•
Application au graphisme
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-2
Chapitre 2 Algèbre des matrices Introduction Exemple de l’industrie automobile avec la CAO et FAO.
2.1 Opérations matricielles Notation : Soit la matrice A ayant m lignes et n colonnes. Les colonnes de A sont des vecteurs dans Rm. Dès lors A = [a 1 , a 2 ,..., a n ] a 11 ⋮ A = a i1 ⋮ a m1
⋯
a 1 j
⋯
⋮ ⋯
a ij a mj
a in ⋮ a mn ⋮
⋯
⋮ ⋯
a 1n
⋯
ligne i
colonne j Matrice diagonale D ⇒
a ij = 0 ∀i ≠ j
Matrice nulle 0
a ij = 0 ∀i, j
⇒
Addition, soustraction et multiplication par un scalaire : r a 11
rA =
r a 21
r a 12 multiplication par un scalaire r r a 22
a +b a + b A + B = 11 11 12 12 addition de 2 matrices a 21 + b 21 a 22 + b 22 a −b a − b A − B = 11 11 12 12 a 21 − b 21 a 22 − b 22 GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-3
Théorème 1 Soient A, B et C des matrices de même dimension, et soient r et s des scalaires. Dès lors, (a) A + B = B + A (b) (A + B) + C = A + (B + C) (c) A + 0 = A (d) r (A + B) = r A + r B (e) (r + s) A = r A + s A (f) r (s A) = (r s) A Multiplication matricielle :
.x
(1) Multiplication par B
.Bx
(2) Multiplication par A
. A (Bx)
Multiplication par AB
Multiplication matricielle
Définition : Soient A une matrice m × n et B une matrice n × p, ainsi que x = (x1, …, xp). Soient b1, …, bp les colonnes de B. Alors le produit matriciel AB est la matrice m × p dont les colonnes sont Ab1, …, Abp. Dès lors,
AB = A [b1
⋯
bp ] = [Ab1
⋯
Abp ]
…(2.1)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-4
Exemple 1 : Calculer le produit matriciel AB avec 2
3 4 3 6 et B = . − − 1 5 1 2 3
A=
Solution :
Posons que B = [ b1, b2, b3 ]. 2 3 4 11 A b1 = 1 = − 1 1 5 −
2 3 3 0 A b2 = − 2 = 13 1 5 −
2 3 6 21 A b3 = 3 = − 9 1 5 −
11 0 21 AB = A [b 1 b 2 b 3 ] = − 1 13 − 9 Noter que A b1 est une combinaison linéaire des colonnes de A avec les éléments de b1 comme coefficients.
Exemple 2 : Soient A une matrice 3 × 5 et B une matrice 5 × 2. Déterminer si AB et BA sont définis. Solution :
B A * * * * * * * * * * * * * * *
3 × 5
* * * * *
AB * * * * * = * * * * * *
5 × 2
3 × 2
Compatibilité Dimension de AB Produit BA ⇒ non défini, car B a 2 colonnes et A 3 lignes.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-5
Règle de calcul de AB : Si le produit AB est défini, les éléments de C = AB s’obtiennent de la façon suivante : cij = produit de la ième ligne de A avec la jème colonne de B i.e.
n
c ij = ∑ a ik b kj , n étant le nombre de colonnes de A. k =1
Théorème 2 : Soient A, B et C des matrices dont les dimensions rendent compatibles les produits matriciels. Dès lors, a) A (BC) = (AB) C (associativité) b) A (B + C) = AB + AC (distributivité par la gauche) c) (B + C) A = BA + CA (distributivité par la droite) d) r (AB) = (rA) B = A (rB) (multiplication par un scalaire r) e) In A = A = A In (identité pour la multiplication matricielle)
Remarques : •
En général, AB ≠ BA.
•
Si AB = AC, en général B ≠ C.
•
AB = 0 ne permet pas de conclure que A ou B = 0.
Puissances d’une matrice :
Ak = A ⋯ A k fois Matrice transposée d’une matrice : Soit une matrice A de grandeur m × n. La matrice transposée AT de A obtenue lorsque les colonnes de A deviennent les lignes de AT.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-6
Exemple : − 5 2 − 5 1 0 B = 1 − 3 ⇒ B T = 2 − 3 5 0 4
Théorème 3 : lors, a) b) c) d)
Soient des matrices A et B dont les dimensions sont appropriées. Dès (AT)T = A (A + B)T = AT + BT (r AT) = r AT (AB)T = BT AT
2.2 Matrice inverse 1 −1 −1 a × = a ×a = a×b =1 ⇒ b = a a
b = l’inverse de a Même raisonnement pour une matrice :
A B = B A = A A −1 = A −1A = I
…(2.2)
B = la matrice inverse de A se note A-1
Exemple : Considérons les 2 matrices suivantes : 5 2 − 7 − 5 C = et 3 2 − 3 − 7
A=
Que représente C par rapport à A ? Solution :
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-7 5 − 7 − 5 1 2 3 = 0 3 7 2 − − 5 1 − 7 − 5 2 CA = = 2 − 3 − 7 0 3
AC =
0 1 0 1
Donc C = A-1. Pour une matrice 2×2, il existe une formule simple pour calculer son inverse et déceler si cette inverse existe.
Théorème 4 a b Soit A = . Si (ad – bc) ≠ 0, alors A a une inverse et cette inverse c d s’obtient à l’aide de 1 d − b A −1 = . … (2.3) ad − bc − c a Si (ad – bc) = 0, alors A n’a pas d’inverse.
Remarque. Le dénominateur (ad – bc) s’appelle le déterminant de A. Importance de l’existence d’une inverse :
Théorème 5 Si une matrice A n × n a une inverse, alors, pour chaque b ∈ Rn, l’équation Ax = b possède une solution unique donnée par x = A-1 b.
Exemple : Poutre horizontale. Une poutre horizontale est supportée en ses 2 extrémités et est soumise à 3 charges concentrées aux points 1, 2 et 3 comme le montre la fig. ci-dessous. D’après la loi de Hooke,
y = D f D = matrice de flexibilité , et D-1 = la matrice de rigidité . La signification des colonnes de D et D -1 est décrite ci-dessous.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-8
f 1
f 2
y1
y2
f 3
y3
La force f = (1, 0, 0) correspond à une seule force unitaire vers le bas au point 1. La déflexion correspondante est le vecteur 1 y = D f = [d 1 d 2 d 3 ] 0 = 1 d 1 + 0 d 2 + 0 d 3 = d 1 0
Dès lors, la 1ère colonne d1 donne les déflexions causées par une force unitaire au point 1. Une interprétation similaire prévaut pour les autres colonnes de D. Posons que D-1 = [w1 w2 w3] et considérons la déflexion y = (1, 0, 0). Dès lors, 1 f = D −1 y = [w 1 w 2 w 3 ] 0 = 1 w 1 + 0 w 2 + 0 w 3 = w 1 0
La 1ère colonne w1 de D−1 donne les forces qui doivent être appliquées aux 3 points afin de produire une déflexion unitaire au point 1 et des déflexions nulles aux 2 autres points.
Théorème 6 a) Si A est inversible, alors A-1 aussi est inversible. b) Si A et B sont 2 matrices n × n et inversibles, alors AB aussi est inversible et … (2.4) (AB) −1 = B −1A −1 c) Si A est inversible, alors AT aussi, et
(A T ) −1 = ( A −1 ) T
… (2.5)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-9
Matrices élémentaires : Une matrice élémentaire est la matrice obtenue en pratiquant une seule opération élémentaire sur les lignes d’une matrice identité I. Les 3 types d’opérations élémentaires sont : (1) permuter 2 lignes : Eij (2) multiplier une ligne par un scalaire s ≠ 0 : Ei(s) (3) additionner à la ième ligne s fois la ligne j : Ei(s j)
Exemples : Soit les matrices suivantes : 1 0 0 0 1 0 1 0 0 a b c E 3 (−4 1) = 0 1 0 E12 = 1 0 0 E 3 (5) = 0 1 0 A = d e f − 4 0 1 0 0 1 0 0 5 g h i
b c a d e f a b c E 3 (−4 1)A = d e f , E12 A = a b c , E 3 (5) A = d e f g − 4a h − 4b i − 4c g h i 5g 5h 5i Les matrices élémentaires sont inversibles : (1) E ij E ij = I ⇒ E ij−1 = E ij
… (2.6)
1 1 (2) E i E i (s ) = I ⇒ E i−1 (s) = E i s s
… (2.7)
(3) E i (−s j)E i (s j) = I ⇒ E i−1 (s j) = E i (−s j)
… (2.8)
Théorème 7 Une matrice A n × n est inversible si et seulement si A est équivalente par les lignes à In. La suite d’opérations élémentaires sur les lignes qui transforment A en In, transforment aussi In en A-1.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-10 Démonstration Supposons que A soit inversible. Alors Ax = b a une solution pour chaque vecteur b (Théorème 5). Donc A possède un pivot dans chaque ligne. A étant carrée, les n pivots se trouvent sur la diagonale principale. La matrice-échelon réduite de A est In. Supposons maintenant que A ∼ In. Chaque opération élémentaire sur les lignes de A correspond à la pré-multiplication de A par une matrice élémentaire E. Dès lors,
A ∼ E1A ∼ E2 E1A ∼ ⋯ ∼ Ep ⋯ E2 E1 A = A −1 A = In Comme les matrices élémentaires sont inversibles,
(E p ⋯ E1 )−1 (E p ⋯ E1 ) = (E p ⋯ E1 )−1 I n
⇒ A = (E p ⋯ E 1 )−1
… (2.9)
C.Q.F.D.
Algorithme pour trouver A• •
Réduire la matrice augmentée [A I] à une matrice-échelon réduite. Si A est équivalente à la matrice-échelon réduite I, alors [A I] est équivalente par les lignes à [I A-1].
0 1 2 Exemple : Trouver la matrice inverse de A = 1 0 3 . 4 − 3 8
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-11
Solution : 0 1 2 1 0 0 1 0 1 0 3 0 1 0 ∼ 0 1 4 −3 8 0 0 1 4 −3 1 0 3 0 1 0 1 0 ∼ 0 1 ∼ 0 1 2 1 0 0 0 0 2 3 −4 1 0 0 −9 / 2 7 −3 / 2 A −1 = −2 4 −1 3 / 2 −2 1 / 2
3 0 1 0 1 0 3 0 1 0 2 1 0 0 ∼ 0 1 2 1 0 0 8 0 0 1 0 − 3 − 4 0 − 4 1 3 0 1 0 1 0 0 − 9 / 2 7 − 3 / 2 2 1 0 0 ∼ 0 1 0 − 2 4 −1 1 3 / 2 − 2 1 / 2 0 0 1 3 / 2 − 2 1 / 2
Autre façon de voir l’inversion : In = [e1 e2 … en] AI = [A e1 e2 … en ] Il s’agit de la solution simultanément d’un système de n équations linéaires.
2.3 Caractérisation des matrices inverses Théorème 8 a. b. c. d. e. f. g. h. i. j. k. l.
Soit A une matrice n × n. Les énoncés suivants sont tous vrais ou tous faux . A est inversible. A est équivalente par les lignes à In. A a n pivots. Ax = 0 n’a que la solution triviale. Les colonnes de A forment un ensemble linéairement indépendant. La transformation linéaire x ֏ Ax est injective . Ax = b a au moins une solution pour chaque b ∈ Rn. Les colonnes de A engendrent Rn. La transformation linéaire x ֏ Ax transforme de Rn à Rn. ∃ C n × n ⇒ CA = I ∃ D n × n ⇒ AD = I AT est inversible.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-12
Soient A et B 2 matrices carrés de même dimension. Alors, si AB = I, A et B sont inversibles et B = A-1 ainsi que A = B-1. 0 − 2 1 Exemple : Déterminer si A = 3 1 − 2 est inversible. − 5 − 1 9 Solution : Il est suffisant de montrer que la matrice A sous forme de matrice-échelon contient 3 pivots. 1 0 − 2 1 0 − 2 A ≈ 0 1 4 ≈ 0 1 4 0 − 1 − 1 0 0 3
C.Q.F.D.
pivots
2.4 Décomposition LU d’une matrice La décomposition d’une matrice consiste à exprimer cette matrice en un produit de 2 ou plusieurs matrices. La décomposition LU permet de solutionner une suite de systèmes
d’équations linéaires ayant la même matrice des coefficients sans avoir à transformer la matrice
A à chaque solution. Supposons en premier lieu que la matrice A puisse être ramenée à la forme échelon sans permutation de lignes. Alors la matrice m × n A peut être décomposée dans la forme LU, i.e. 1 * A= * *
0 1 * *
L où
0 0 1 *
0 a 0 0 0 0 1 0
* b 0 0
* * 0 0
* * c 0
* * * 0
…(2.10)
U générale quelconque
L = une matrice triangulaire inférieure m × m avec des 1 sur la diagonale principale, U = une matrice-échelon m × n de A. GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-13 La matrice L est inversible et porte le nom de matrice triangulaire inférieure unitaire. Motivation : A = LU ⇒ L (Ux ) = b ⇒ y = Ux
Ly = b Ux = y
…(2.11)
Il ne faut pas oublier que L et U sont triangulaires si A est une n × n.
Exemple : La décomposition LU de A étant connue, solutionner Ax = b lorsque − 9 5 b= . 7 11
Solution : 0 3 −7 −2 2 1 − 3 5 1 0 − 1 1 A = LU = = 6 − 4 0 − 5 2 − 5 − 9 5 − 5 12 − 3 8
0 0 1 3
0 1 −1 1 [L b] = 2 −5 − 3 8
0 − 9 0 − 4 = [I y] 0 5 1 1
0 0 1 3
0 − 9 1 0 5 0 ≈ 0 7 0 1 11 0
3 − 7 − 2 2 − 9 1 0 − 2 − 1 2 − 4 0 ≈ [U y ] = 0 0 − 1 1 5 0 0 − 1 1 0 0 0
0 1 0 0
0 0 1 0 0 1 0 0
0 0 1 0
0 3 − 7 − 2 0 0 − 2 − 1 0 0 0 − 1 1 0 0 0
2 2 1 1
0 3 3 4 0 4 x= − 6 0 − 6 1 − 1 − 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-14
Algorithme pour la décomposition LU : Supposons que la matrice A puisse être ramenée à la forme échelon sans permutation de lignes. Dès lors, A peut être ramenée à la forme U par des remplacements de lignes grâce à l’addition de multiple d’une ligne sous la ligne contenant le pivot. Donc (Ep … E1) A = U
…(2.12)
A = (Ep … E1)-1 U = LU L = (Ep … E1)-1
…(2.13)
Car le produit de matrices triangulaires inférieures est aussi une matrice triangulaire inférieure.
Exemple : Trouver la décomposition LU pour 4 − 1 5 − 2 2 − 4 − 5 3 − 8 1 . A= 2 −5 −4 1 8 7 −3 1 − 6 0 Solution : Comme A possède 4 lignes, L est une matrice 4 × 4. Ainsi 1 2 4 − 1 5 −2 2 4 − 1 5 ( 4 / 2 ) −4 −5 3 −8 1 0 3 1 2 ∼ ( −2 / 2) 2 −5 −4 1 8 0 −9 −3 −4 (6 / 2) −6 0 7 −3 1 0 12 4 12 1 − 2 L= 1 − 3
0 1 * *
0 0 1 *
− 2 − 3 10 − 5
0 0 0 1
La 1 re colonne de L = la 1 re colonne de A divisée par a11 = 2. Notons que, sous a11, il s’agit des coefficients ayant permis d’obtenir des zéros sous a11 mais en signe contraire. GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-15 2 4 −1 5 (1) 0 3 1 2 A ∼ ( 9 / 3) 0 −9 −3 −4 ( −12 / 3) 0 12 4 12
0 1 − 2 1 L= 1 −3 − 3 4
0 0 1 2
0 0 0 1
−2 2 0 −3 ∼ 10 (1) 0 − 5 (−4 / 2) 0
2 0 U= 0 0
4 −1 3 1 0 0 0 0
4 −1 3 1 0 0 0 0
5 − 2 2 0 2 −3 ∼ 2 1 0 4 7 (1) 0
4 −1 3 1 0 0 0 0
5 − 2 2 −3 2 1 0 5
5 − 2 2 − 3 2 1 0 5
Pour vérification, le produit LU redonne la matrice A originale. Dans la pratique, il y a permutation des lignes afin de permettre le pivotage partiel pour obtenir comme pivot le terme avec la valeur absolue la plus grande. Il faut alors modifier la décomposition LU en conséquence pour tenir compte des permutations.
Exemple : Obtenir la décomposition LU pour la matrice suivante : 1 −1 5 − 8 − 7 − 2 − 1 − 4 9 1 A= 4 8 − 4 0 − 8 3 0 −5 3 2
Solution : ( −1 / 4 ) 1 −1 5 −8 −7 ( 3 / 3) 0 −3 6 −8 (2 / 4) −2 −1 −4 9 1 (1) 0 3 −6 9 ∼ A= (1) 4 8 −4 0 −8 4 8 −4 0 ( −2 / 4 ) 2 3 0 − 5 3 (1 / 3) 0 −1 2 − 5 a (1) 0 0 ∼ 4 0
b
− 5 (1 / 2 ) 0 0 − 3 ∼ − 8 4 7 (1) 0
0 0 1 − 8 3 − 6 9 − 3 8 − 4 0 − 8 0 0 − 2 6 c
0 0 0 −5 3 −6 9 −3 = V 8 −4 0 −8 0 0 −2 6 d
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-16 Dénotons par V la matrice-échelon permutée obtenue ci-dessus. Permutons maintenant V pour obtenir la matrice-échelon U. De plus, créons L*. 4 0 U= 0 0
8 − 4 0 − 8 3 − 6 9 − 3 0 0 −2 6 0 0 0 − 5
− 1 − 1 / 2 1 / 4 − 1 / 2 1 0 L* = 1 0 0 1 1 / 2 − 1 / 3 − 1 − 1 / 2 1 / 4 − 1 / 2 1 0 L*U = 1 0 0 1 1 / 2 − 1 / 3
1 4 0 0 0 0 0 0
1 0 0 0
8 − 4 0 − 8 1 − 1 5 − 8 − 7 3 − 6 9 − 3 − 2 − 1 − 4 9 1 . = 0 0 − 2 6 4 8 − 4 0 − 8 0 0 0 − 5 2 3 0 − 5 3
Notons que la matrice L* est construite de telle sorte que les opérations qui permettent de réduire
A vers V permettent aussi de réduire L* vers une matrice identité permutée P. Ainsi pour ramener la matrice L* ci-dessus à une matrice triangulaire inférieure unitaire L, il faut la prémultiplier par la matrice de permutation obtenue du produit des 2 matrices de permutation nécessaires pour obtenir les pivots pendant les calculs ca lculs de la matrice-échelon, i.e. PA = LU.
2.5 Solutions itératives itératives de systèmes systèmes d’équations d’équations linéaires Supposons que la matrice A soit inversible.
But d’une méthode itérative : produire une suite de vecteurs x(0), x(1), …, x(k), … qui converge vers la solution unique de Ax = b. Convergence signifie Convergence signifie que x(k) tend vers x lorsque k est grand. Supposons que A puisse s’écrire s’écrire dans la forme forme A = M – N. Dès lors,
Mx = Nx + b
…(2.13)
Si la suite des x(k) vérifie
Mx(k + 1) = Nx(k) + b (k = 0, 1, …) et si cette suite converge vers v ers x*, alors il peut être démontré que Ax* = b.
…(2.14)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
2-17
Méthode de Jacobi : a 11 0 0 a 22 Hypothèse : les : les éléments de la diagonale principale D = ⋮ ⋮ 0 0
0 0 ⋯
0
0 0
a nn ⋮
sont non nuls.
Pour la méthode de Jacobi,
D x(k + 1) = (D – A) x(k) + b Il faut fournir le vecteur de départ dép art x(0).
(k = 0, 1, …)
…(2.15)
Exemple : Appliquer la méthode de Jacobi au problème suivant : 10x 1 + x 2 − x 3 = 18 x1 + 15x 2 + x 3 = −12 − x 1 + x 2 + 20x 3 = 17 Solution : 10 0 0 y1 0 − 1 1 x 1 18 0 15 0 y = − 1 0 − 1 x + − 12 2 2 0 0 20 y 3 1 − 1 0 x 3 17 +
x
D
(D – A)
x
b
Ce système peut se réécrire ainsi : y1 = (− x2 + x3 + 18) / 10 y2 = (− x1 – x3 – 12) / 15 y3 = (x1 – x2 + 17) / 20
Itération k x
0
1
2
3
4
5
6
x1
0
1,8
1,965
1,9957
1,9993
1,9999
2,0000
x2
0
-0,8
-0.965
-0,9963
-0,9995 -0,9999
-1,0000
x3 0 0,85
0,980
0,9971
0,9996
1,0000
0,9999
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
2-18 Une fois x(1) calculé, on utilise utilise les valeurs de x(1) à droite de de l’équation pour obtenir x(2), et ainsi de suite jusqu’à ce que la précision désirée soit atteinte.
Méthode de Gauss-Seidel : La matrice A est décomposée de la façon façon suivante : * * A = * * *
* * * * *
* * * * *
* * * * *
* * * * *
* * M = * * *
0 * * * *
0 0 * * *
0 0 0 * *
0 0 0 0 *
Dès lors, avec le même exemple numérique que pour la méthode de Jacobi, 10 0 0 y1 0 − 1 1 x 1 18 1 15 0 y = 0 0 − 1 x + − 12 2 2 − 1 1 20 y 3 0 0 0 x 3 17
x
M
+1
(M – A)
x
b
Ce système peut se réécrire ainsi : y1 = (− x2 + x3 + 18) / 10 y2 = (− y1 – x3 – 12) / 15 y3 = ( y y1 – y2 + 17) / 20
Itération k x
0
1
2
3
4
5
6
x1
0
1,800
1,9906
1,9998 1 ,9998
2,0000
2,0000
2,0000
x2
0
-0,920 -0.9984
-0,9999
-1,0000
-1,0000
-1,0000
x3
0
0,986
1,0000 1 ,0000
1,0000
1,0000
1,0000
0,9995
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
2-19
Remarque La méthode de Gauss-Seidel n’est pas nécessairement plus rapidement convergente que celle de Jacobi de Jacobi.. Il existe une condition qui garantit la convergence des 2 mé n est à thodes, mais pas la seule. Une matrice A n × n est à diagonale dominante si n
a ii > ∑ a ij
…(2.16)
j=1 j≠i
Si la matrice A est à diagonale dominante, alors les méthodes de Jacobi de Jacobi et Gauss(0) sont convergentes vers la solution peu importe le choix de x . Seidel sont
2.6 Application au graphisme Le graphisme Le graphisme consiste consiste dans la présentation et aussi l’animation d’images sur l’écran. Par exemple, la lettre N se détermine à l’aide de 8 points, comme le montre la fig. ci-dessous. ci-dessous. y 6
7
8
5 4 1
2
3
x
Sommets de la lettre 1
2
3
4
5
6
7
8
x 0,00 0,50 6,00 0,50 0,50 0,00 5,50 6,00 y 0,00 0,00 0,00 1,58 6,42 8,00 8,00 8,00
D
Il faut aussi spécifier les sommets qui sont reliés ensemble pour former les segments de la lettre. La raison principale pour laquelle des segments de droite sont utilisés pour décrire plusieurs ob-
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
2-20 jets graphiques résident dans le fait que des segments de droite peuvent être facilement transformés en d’autres segments de droite.
Exemple 1 : La transformation avec la pré-multiplication de la matrice des points D par la ma1 0,25 trice A = décrit une déformation par cisaillement. 0 1 1 0,25 0 0,5 AD = 0 1 0 0 0 0,5 6 5,895 = 0 0 0 1,580
6 5,5 0,5 0 1,58 6,42 2,105 2 7,5 6,420 8 8
0 5,5 6 8 8 8 8 8
Exemple 2 : Rétrécir la dernière transformation. Pour ce faire, on utilise la matrice de contrac0,75 0 tion S = . La transformation composée devient : 0 1 0,75 0 1 0,25 0,75 0,1875 SA = 0 1 = 0 0 1 1
La mathématique impliquée dans le graphisme est étroitement liée aux multiplications matricielles. Malheureusement la translation d’un objet ne correspond pas à une multiplication matricielle, n’étant pas une transformation linéaire. Pour pallier cette difficulté, on utilise la notion de coordonnées homogènes. Chaque point (x, y) de R2 peut être identifié par le point (x, y, 1) dans R3.
Exemple 3 : La translation de la forme (x y ) (x + h y + k ) prend la forme suivante en coordonnées homogènes (x y 1) (x + h y + k 1) et elle se calcule à l’aide de la multiplication matricielle 1 0 h x x + h 0 1 k y = y + k . 0 0 1 1 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-21
Exemple 4 : Toute transformation linéaire dans R2 se représente en coordonnées homogènes A 0 par une partition de matrice de la forme où A est une matrice 2× 2. 0 1 cos ϕ − sin ϕ 0 sin ϕ cos ϕ 0 0 0 1
Rotation dans le sens anti-horaire autour de l’origine
0 1 0 1 0 0 0 0 1
s 0 0 0 t 0 0 0 1
Réflexion par y=x
Multiplier x par s et y par t
Transformations composées : Avec φ = π /2, sin φ = 1 et cos φ = 0. Les transformations suivantes peuvent être regroupées dans une même matrice de transformation. 1 0 − 0,5 0 − 1 0 0,3 0 0 0 − 0,3 − 0,5 0 1 2 1 0 0 0 0,3 0 = 0,3 0 2 0 0 1 0 0 1 0 0 1 0 0 1 translation
rotation
changement d’échelle
transformation com osée
Coordonnées homogènes en 3-D : …(2.17) Tout scalaire non nul qui est un multiple de (x, y, z, 1) fournit un ensemble de coordonnées homogènes pour (x, y, z). Par exemple,
(10 − 6 14 2 ) (5 − 3 7 ) (− 15 9 − 21 − 3)
scalaires
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-22
Exemple 5 : Trouver les matrice de transformation pour les opérations suivantes : (1) rotation de 30o autour de l’axe Y ; (2) translation par le vecteur p = (-6 4 5). Par convention, un angle est positif s’il est dans le sens anti-horaire lorsque l’on regarde vers l’origine à partir de la partie positive de l’axe de rotation. Solution : •
Rotation : Les axes X et Z tournent, tandis que l’axe Y sert d’axe de rotation. 3 / 2 0 1 A= 0 − 0,5 0
•
3 / 2 0,5 0 0 ⇒ A= − 0,5 3 / 2 0
0 1 0 0
0,5 0 3 / 2 0
0 0 0 1
Translation : 1 0 A= 0 0
0 1 0 0
dans le plan XZ
0 − 6 0 4 1 5 0 1
Projections en perspectives :
.. 0
.
.
(x*, y*, 0)
.
x*
0
(x, y, z)
z
x
d-z
(0, 0, d)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-23 Un objet en 3-D se représente sur un écran en 2-D à l’aide d’une projection de l’objet sur une vue en plan. Pour simplifier, supposons que le plan XY représente l’écran, et supposons que l’œil de l’observateur se trouve sur l’axe Z au point (0, 0, d). Une projection en perspec tive trace chaque point (x, y, z) en un point d’image (x*, y*, 0) de telle sorte que l’œil de l’observateur, le point considéré et sa projection se trouve sur une même droite. D’après la fig. ci-dessus et dû au fait que les triangles sont semblables, dx x* x x = = ⇒ x* = d d−z d − z 1 − z / d y y* = 1 − z / d
…(2.18)
x 1 − z / d
À l’aide des coordonnées homogènes, (x, y, z, 1) se trace comme
y 0 1 . 1 − z / d
Nous pouvons aussi écrire x 1 y 0 P = z 0 1 0
0 0 1 0 0 0 0 − 1 / d
0 x x 0 y y = 0 z 0 1 1 1 / z / d
…(2.19)
Exemple 5 : Considérons la boîte S dont les sommets sont : Sommet 1 2 3 4 5 6 7 8 x
3 5 5 3 3 5 5 3
y
1 1 0 0 1 1 0 0
z
5 5 5 5 4 4 4 4
Si le centre de projection est (0, 0, 10), trouver l’image de S en pour une projection en perspective sur le plan XY.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-24
Solution : Soit P la matrice de projection, et D la matrice des données en coordonnées homogènes 0 1 0 0 1 0 PD = 0 0 0 0 0 − 1 / 10 5 5 3 1 1 0 = 0 0 0 0,5 0,5 0,5
0 3 0 1 0 5 1 1 3 0 0 0,5
5 1 5 1 3 1 0 0,6
5 0 5 1
3 0 5 1
3 1 4 1 5 5 1 0 0 0 0,6 0,6
5 1 4 1
5 0 4 1
3 0 4 1
3 0 0 0,6
Pour obtenir les coordonnées dans R3, nous utilisons (2.17) pour diviser les 3 premières lignes de la dernière matrice ci-dessus par l’élément se trouvant sur la 4ième ligne dans chaque colonne :
Sommet 1
2
4
5
6
x
6 10 10 6
7
8,3 8,3 5
y
2 20
0
0 1,7 1,7
0
0
z
0
0
0
0
0
0
3
0
0
7
8
En résumé : Forme typique d’une transformation pour le graphisme en 3-D :
Matrice 3×3 qui produit une transformation
T q T
Vecteur dans R associé à la transformation en perspective
p r
Vecteur de translation Un scalaire normalement = 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-25
Problèmes sur le chapitre 2 Problème 1 (Lay, #1, p. 116) . Pour les matrices suivantes, calculer les opérations demandées si elles sont définies : 2
0 −1 7 −5 1 1 2 3 5 B C D = = = , , , 1 −4 −3 −2 1 −1 4 4 −5 2
A= •
-2A
•
B-2A
•
AC
•
CD
Problème 2 (Lay, #7, p. 116) . Si la matrice A est une 5 × 3 et le produit AB est une 5 × 7 , quelle est la dimension de la matrice B ? Rép. : une 3 × 7
Problème 3 (Lay, #22, p. 116) . Considérons les matrices suivantes : 1 1 1 2 0 0 A = 1 2 3 , D = 0 3 0 1 4 3 0 3 5
Calculer AD et DA. Expliquer comment la matrice D affecte le résultat du produit.
Problème 4 (Lay, #17, p. 117) . Considérons les matrices suivantes : 1 −2 −1 2 −1 , A= AB = 6 −9 3 −2 5 7 −8 Trouver les 2 premières colonnes de B. Rép. : b1 = , b2 = 4 −5
Problème 5 (Lay, #15, p. 117) . Déterminer si les énoncés sont vrais ou faux. Justifier la réponse. • Si les matrices A et B sont des matrices d’ordre 2 et que leurs colonnes respectives sont a1 et a2 ainsi que b1 et b2, alors AB = [ a1b1 a2b2 ] . Faux • AB + AC = A ( B + C ) Vrai •
A T + BT = ( A + B )
•
( AB ) = A T BT
T
T
Vrai
Faux
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-26
Problème 6 (Lay, #37, p. 118) . À l’aide de MATLAB, construire une matrice d’ordre 4 et vérifier que ( A + I) ( A − I ) = A2 − I Qu’en est-il si on a une matrice B d’ordre 2 au lieu de I ?
Problème 7 (Lay, #1, p. 126) . Trouver l’inverse des matrices suivantes : −3 −1 −2 1 8 6 3 −4 2 −1 A= B = Rép A = B = , . : , 7 −8 −5 / 2 4 −7 / 4 3 / 4 5 4 Problème 8 (Lay, #7, p. 126) . Considérons la matrice A et les vecteurs b1, b2, b3, b4 suivants : 1 2 −1 1 2 3 A= b = b = b = b = , , , , 2 3 4 1 3 −5 6 5 5 12 −1 6 Rép. : A −1 = −5 / 2 1 / 2 Trouver l’inverse de A et solutionner les 4 équations. Puis, reprendre la solution de ces 4 systèmes d’équations à l’aide d’une matrice augmentée de ces 4 vecteurs.
Problème 9 (Lay, #9, p. 126) . Déterminer si les énoncés suivants sont vrais ou faux. Justifier votre réponse. • Pour que B soit l’inverse de A, il faut que AB = I et BA = I. Vrai −1 • Si A et B sont inversibles, alors ( AB ) = A -1B -1 Faux a b • Si A = est inversible, alors ab − cd ≠ 0 Faux c d • Toute matrice élémentaire est inversible. Vrai Problème 10 (Lay, #13, p. 126) . Démontrer que si AB = AC, avec A une matrice inversible d’ordre n et que les matrices B et C sont de dimension n × p , alors B = C. Problème 11 (Lay, #36, p. 127) . À l’aide de MATLAB, Trouver la 2ème et la 3ème colonne de la matrice suivante sans calculer la 1ère colonne de A-1: −25 −9 −27 A = 546 180 537 154 50 149
Problème 12 (Lay, #3,5,6, p. 132) . En utilisant un minimum de calculs, déterminer si les matrices suivantes sont inversibles :
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-27 5 0 0 −3 −7 0 , 8 5 −1
0 3 − 5 1 −5 − 4 1 0 2 , 0 3 4 −4 −9 7 −3 6 0
Problème 13 (Lay, #11, p. 132) . Déterminer si les énoncés suivants sont vrais ou faux. Justifier votre réponse. Les matrices sont d’ordre n. • Si l’équation Ax = 0 n’a que la solution triviale, alors A est équivalente par les lignes à une matrice I. Vrai • Si les colonnes de A engendrent Rn, alors les colonnes sont linéairement indépendantes. • Si A est une matrice d’ordre n, alors l’équation Ax = b a au moins une solution pour chaque b de Rn. Faux • Si l’équation Ax = 0 a une solution non triviale, alors A a moins de n pivots. Vrai • Si AT n’est pas inversible, alors A n’est pas inversible. Vrai • S’il y a une matrice d’ordre n telle que AD = I, alors il existe une matrice C telle que CA = I. Vrai Problème 14 (Lay, #41, p. 133) . En utilisant MATLAB, solutionner le système d’équations suivant : 4.5 x1 + 3.1x2 = 19.249 1.6 x1 + 1.1x2 = 6.843 Puis solutionner de nouveau alors que l’on a arrondi le vecteur de droite à 2 décimales : 4.5 x1 + 3.1x2 = 19.25 1.6 x1 + 1.1x2 = 6.84 Trouver le % d’erreur lorsque l’on utilise la solution du 2 ème système d’équations comme approximation de la vraie solution du 1er système d’équations.
Problème 15 (Lay, #3, p. 149) . Trouver la solution de l’équation Ax = b à l’aide de la décomposition LU. 2 −1 2 1 −1 A = −6 0 −2 , b = 0 Rép. : x = 3 8 −1 5 4 3
Problème 16 (Lay, #7, p. 149) . Trouver la factorisation LU de la matrice A avec une matrice L uni0 5 2 5 1 2 taire : A = Rép L = U = . : , −3 / 2 1 0 7 / 2 −3 −4
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-28
Problème 17 (Lay, #9, p. 149) . Trouver la factorisation LU de la matrice A avec une matrice L uni0 0 3 −1 2 3 −1 2 1 taire : A = −1 −2 10 , Rép. : L = −1 1 0 0 −3 12 2 −5 6 3 2 / 3 1 0 0 −8
Problème 18 (Lay, #14, p. 149) . Trouver la factorisation LU de la matrice A avec une matrice L uni 1 4 −1 5 1 0 3 7 −2 9 3 1 , Rép. : taire : A = −2 −3 1 −4 −2 −1 −1 6 −1 7 − 1 −2
0 0 1 0
0 1 4 − 1 5 0 0 − 5 1 −6 0 0 0 0 0 1 0 0 0 0
Problème 18 (Lay, #31, p. 150) . Avec MATLAB, solutionner le problème de répartition des températures suivant à l’aide de la décomposition LU :
��
��
��
��
�
�
�
�
�
�
�
�
���
���
��
��
���
���
���
���
Les températures imposées se trouvent à l’extérieur du rectangle, tandis que les nombres à l’intérieur indiquent la numérotation des températures à déterminer.
Problème 19 (Lay, #3, 4, 5, 6, 7, 8, p. 166) . Trouver les matrices 3 × 3 qui effectuent les transformations composites suivantes en 2 dimensions en utilisant les coordonnées homogènes : •
Translation par (3, 1), puis une rotation de 45o autour de l’origine 2 2 − 2 2 2 2 Rép. : 2 2 0 0
2
2 2 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
2-29 •
Translation par (-2, 3), puis redimensionner x par 0.8 et y par 1.2 0.8 0 −1.6 Rép. : 0 1.2 3.6 0 1 0
•
Réfléchir les points à travers l’axe des x et rotation de 30o autour de l’origine 3 2 12 0 Rép. : 1 2 − 3 2 0 0 0 1
•
Rotation de 30o, puis réfléchir à travers l’axe des x 3 2 − 1 2 0 Rép. : −1 2 − 3 2 0 0 0 1
•
Rotation des points de 60o autour du point (6, 8) 1 2 − 3 2 3 + 4 3
Rép. : 3 2 0
12 0
4 − 3 3 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-1
Chapitre 3 Notions sur les déterminants Objectifs d’apprentissage •
Assimiler la notion de déterminant
•
Comprendre les propriétés d’un déterminant
•
Règle de Cramer pour le calcul d’un déterminant
•
Formule pour le calcul d’une matrice inverse
•
Signification du déterminant pour le calcul d’une aire et d’un volume
Remarque. La notion de déterminant est importante surtout pour les raisonnements et les preuves qu’elle permet d’obtenir. Elle offre peu d’intérêt dans les calculs matriciels.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-2
Chapitre 3 Notions sur les déterminants 3.1 Introduction à la notion de déterminant Considérons quelques cas pour illustrer la notion de déterminant. Tout d’abord, étudions le cas d’un système de 1 équation à 1 inconnue.
a x = b
… (3.1)
det (A) Remarquons que la matrice A des coefficients est une matrice 1 × 1, i.e. A = [a]. Elle se trouve donc déjà sous forme de matrice-échelon. La solution est donnée par 1 b det (b ) = x = b= det (a ) det (a ) a
… (3.2)
Le coefficient a dans l’équation (3.1) s’appelle le déterminant de A ou det(A). C’est un nom bre scalaire associé à la matrice A. La solution de (3.1) existe si le det(A) est ≠ 0. Notons aussi que la matrice des coefficients A 1 × 1 ne contient qu’un élément, i.e. a11 = a. Considérons maintenant un système linéaire de 2 équations à 2 inconnues : a11 x + a12 y = b1 a 21 x + a 22 y = b 2
… (3.3)
Avec la méthode par élimination de Gauss,
a 11 x
+ a 12 y = b1
(a 11 a 22 − a 21 a 12 ) y = (a 11 b 2 − a 21 b1 ) / a 11 a 11
… (3.4)
Sous forme matricielle, a11 C = 0
a12 ( a11 a22 − a21 a12 ) a11
… (3.5)
det (A)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-3 À l’aide de la substitution à reculon, la solution de (3.4) devient a 11 b 2 − a 21 b1 a 11 b 2 − a 21 b1 = a 11 a 22 − a 21 a 12 det( A) a b −a b a b −a b x = 22 1 12 2 = 22 1 12 2 a 11 a 22 − a 21 a 12 det( A) y=
… (3.6)
Notons aussi que b a det 1 12 = a 22 b1 − a12 b 2 b 2 a 22
b a det 11 1 = a11 b 2 − a 21 b1 a 21 b 2
…(3.7)
Le numérateur de l’élément c22 de la matrice C, i.e. une forme échelon de A, est le détermi nant de la matrice des coefficients A. De nouveau, la solution (3.6) existe seulement si le déterminant de A est non nul. Pour un système linéaire de 3 équations à 3 inconnues, en supposant qu’aucune permutation de lignes n’est nécessaire pour l’obtention des pivots, la matrice A prend la forme suivante :
a11 a12 a 21 a 22 a 31 a 32
a13 x1 b1 a 23 x 2 = b 2 a 33 x 3 b 3
a a12 11 a a −a a C = 0 11 22 12 21 a11 0 0
a13 a11 a 23 − a13 a 21 a11 det(A) (a11a 22 − a12a 21 )
où
det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a11a23a32 − a12a21a33 − a13a22a31
Or
det(A) = a11(a22a33 − a23a32) – a21(a12a33 – a13a32) + a31(a12a23 – a13a22) det (A ) = a11 det (A11 ) − a 21 det (A 21 ) + a 31 det(A 31 ) a11 a12 a13 a det (A11 ) = a 21 a 22 a 23 = 22 a a 31 a 32 a 33 32
a 23 = a a −a a a 33 22 33 23 32
… (3.8)
…(3.9)
...(3.10) ...(3.11) ...(3.12)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-4 où
A11 = la matrice (n – 1) × (n – 1) obtenue en retirant la 1ère ligne et la 1ère colonne de A.
Il en est de même pour A21 et A31 en retirant les lignes et colonnes correspondantes.
De plus, la solution de (3.8) prend la forme suivante : b1 det b 2 b x1 = 3
a12 a 22 a 32 det (A ) a11 b1 det a 21 b 2 a b x 2 = 31 3 det (A ) a11 a12 det a 21 a 22 a a x 3 = 31 32 det (A )
a13 a 23 a 33 a13 a 23 a 33
…(3.13)
b1 b2 b 3
Examinons de plus près le déterminant det(A) tel que formulé dans (3.11) : det (A ) = a11 det (A11 ) − a 21 det (A 21 ) + a 31 det(A 31 ) Remarquons tout d’abord que a11, a21 et a31 sont les éléments de la 1ère colonne de A. De plus, notons que det (A ) = (− 1)1+1 a11 det (A11 ) + (− 1)2 +1 a 21 det (A 21 ) + (− 1)3+1 a 31 det (A 31 ) 3
det (A ) = ∑ (−1)i +1 a i1 det (A i1 ) i =1
...(3.14) Mineur Mi1 de A
L’expression det(Aij) s’appelle le mineur Mij de A. L’expression (−1)i +j Mij porte le nom de cofacteur (i,j), ou Cij de A. L’expression (3.14) constitue ainsi le calcul du déterminant de la matrice A par un développement par les cofacteurs suivant sa 1ère colonne. Nous aurions pu obtenir le déterminant de A par un développement suivant la première ligne de A en regroupant différemment les termes de (3.10).
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-5
Définition Pour une matrice A n × n, son déterminant est le nombre scalaire obtenu en calculant l’expression suivante : n
n
i=1
i =1
det(A) = A = a i1 C i1 = a i1 (− 1)i+1 M i1
...(3.15)
Théorème 1 Le déterminant d’une matrice A n × n peut se calculer par un développement en cofacteurs suivant n’importe quelle ligne ou n’importe quelle colonne. Ainsi n
det (A ) = a ij C ij
...(3.16)
suivant la colonne j : det(A) = a ij C ij
...(3.17)
suivant la ligne i :
j=1 n i=1
Cette définition donne suite au théorème suivant : Une permutation des nombres entiers {1, 2, ..., n} est un arrangement de ces entiers de telle sorte qu’ils soient dans un ordre quelconque sans omission ou sans répétition . Ainsi (1, 2, 3)
(2, 1, 3)
(3, 1, 2)
(1, 3, 2)
(2, 3, 1)
(3, 2,1)
sont des permutations des 3 premiers entiers. Il y en a 6, i.e. 3!. Une inversion se produit lorsqu’un entier est plus grand que celui qui le suit dans une permutation. Le nombre total d’inversions se détermine de la façon suivante. Soit une suite de n entiers {j1, j2, ..., jn}; •
trouver le nombre d’entiers qui sont à la fois inférieurs à j1 et qui le suivent dans la suite;
•
trouver le nombre d’entiers qui sont à la fois inférieurs à j2 et qui le suivent dans la suite;
•
procéder de la même façon avec j3, ..., jn-1.
•
additionner tous ces nombres ; ils constituent le nombre total d’inversions .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-6
Exemple : Trouver le nombre total d’inversion dans la permutation suivante {6, 1, 3, 4, 5, 2}. Solution : Le nombre d’inversions est :
5 + 0 + 1 + 1 + 1 = 8.
Permutation paire : nombre pair d’inversions Permutation impaire : nombre impair d’inversions Produit élémentaire de A : produit de n éléments de A dont aucun ne se trouve dans la même ligne ou la même colonne que les autres. Dès lors, le déterminant de A est la somme de tous ses produits élémentaires affectés d’un signe algébrique + ou − selon que le nombre d’inversions des indices des lignes ou des colonnes soit pair ou impair respectivement.
Exemple : Considérons le déterminant de la matrice A 3 × 3. Solution : Produit élémentaire
Permutation (colonnes)
Pair ou impair
Prod. élément. avec signe
a11a22a33
(1,2,3)
Pair
a11a22a33
a11a23a32
(1,3,2)
Impair
− a11a23a32
a12a21a33
(2,1,3)
Impair
− a12a21a33
a12a23a31
(2,3,1)
Pair
a12a23a31
a13a21a32
(3,1,2)
Pair
a13a21a32
a13a22a31
(3,2,1)
Impair
− a13a22a31
Un déterminant peut aussi se définir comme la somme de tous les produits élémentaires avec signe algébrique de la matrice A n × n .
Théorème 2 Le déterminant d’une matrice triangulaire A est le produit des termes de la diagonale principale.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-7
Remarque Le calcul du déterminant d’une matrice A n × n exige n! multiplications. Ainsi une matrice 25 × 25 est considérée comme petite d’après les standards modernes. Un cofacteur exige au-delà de 1,5 × 1025 multiplications. Un ordinateur super puissant qui effectuerait 1 × 1018 multiplications par seconde prendrait 500000 années pour calculer le déterminant selon la définition donnée ci-dessus. Heureusement il y a des méthodes plus rapides.
3.2 Propriétés des déterminants 3.2.1 Opérations sur les lignes
Théorème 3 – Opérations sur les lignes d’une matrice Soit A une matrice carrée. a) Si l’on ajoute le multiple d’une ligne de A à une autre ligne de A pour générer une matrice B, alors det(B) = det(A). b) Si l’on permute 2 lignes de A pour générer B, alors det(B) = − det(A). c) Si l’on multiplie une ligne de A par un scalaire k pour générer B, alors det(B) = k det(A).
1 −4 2 Exemple : Calculer det(A) pour la matrice A = − 2 8 − 9 . − 1 7 0
Solution : La stratégie consiste à ramener A sous forme de matrice-échelon à l’aide d’opérations élémentaires, car ces dernières n’affectent pas la valeur du déterminant. Dès lors, 1 −4 2 1 −4 2 det (A ) = − 2 8 − 9 = 0 0 − 5 0 0 3 2 −1 7 Si l’on permute les lignes 2 et 3, il faut changer le signe du déterminant. Alors
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-8 1 −4 2 det(A) = − 0 3 2 = −(1) (3) (− 5) = 15 0 0 −5
Remarque Supposons que la matrice carrée A ait été réduite à une forme échelon U à l’aide d’opérations élémentaires sur les lignes. S’il y a eu k permutations de lignes pour y arriver, alors le déterminant de A devient : det(A ) = (− 1)k det(U )
...(3.18)
De plus, (− 1)k × produit des pivots de U si A est inversible det(A ) = 0 si A n ' est pas inversible
Théorème 4 La matrice carrée A est inversible si et seulement si det(A) ≠ 0. Le déterminant de A est nul si les lignes de A sont linéairement dépendantes. 3 − 1 2 − 5 5 − 3 − 6 0 . Exemple 1 : Calculer det −6 7 −7 4 9 − 5 − 8 0
Solution : Additionnons 2 fois la ligne 1 à la ligne 3 : 3 −1 2 − 5 0 5 −3 −6 det (A ) = =0 0 5 −3 −6 9 −5 −8 0 car les lignes 2 et 3 sont identiques.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-9 1 2 − 1 0 5 −7 3 2 Exemple 2 : Calculer det . 0 3 6 2 − 2 − 5 4 − 2 Solution : 0 2 det (A ) = 0 0
1 2 −1 1 2 −1 1 2 −1 5 −7 3 0 5 = −2 3 6 = −2 × 15 = −30 2 = −2 0 0 5 = (− 2 ) (1) 3 6 2 −3 1 0 −3 1 0 −3 1 0 −3 1 Mineur Mineur dans M21 M21
3.2.2 Opérations sur les colonnes
Théorème 5 Soit A une matrice n × n. Alors det(AT) = det(A)
...(3.19)
Démonstration :
A ⇒ det(A T ) = det(B) = T
n
∑
(− 1)1+ j b1 j det(B 1j ) =
j=1
Développement en cofacteurs suivant la 1ère ligne de B
n
∑ (− 1)1+ j a j1 det(A j1 ) j=1
Développement en cofacteurs suivant la 1ère colonne de A
3.2.3 Produit matriciel
Théorème 6 Soient A et B 2 matrices carrées. Alors det(AB) = det(A) det(B)
...(3.20)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-10
Corollaire Soient A une matrice n × n, et E une matrice élémentaire n × n. Alors
où
det(EA) = det(E) det(A) si E est un remplacement de ligne 1 det(E) = − 1 si E est une permutation de lignes k si E est une multiplication par une constante k
3.3 Règle de Cramer. Formule pour la matrice inverse. Déterminant comme surface et volume. 3.3.1 Règle de Cramer
Notation :
A i (b ) = [a 1 ⋯ b ⋯ a n ]
...(3.21)
Matrice A dans laquelle la colonne ai est remplacée par b. Rappelons-nous les résultats de la section 1 à propos des solutions de systèmes linéaires à 1, 2 ou 3 équations à 3 inconnues. Nous pouvons généraliser cette approche à un système linéaire de n équations à n inconnues ; le résultat porte le nom de règle de Cramer.
Théorème 7 Soit A une matrice n × n inversible. Pour b ∈ Rn , la solution unique de Ax=b est donnée par xi =
det[A i (b )] det (A )
i = 1, 2, ⋯ , n
...(3.22)
Exemple : Utiliser la règle de Cramer pour solutionner 3 x1 – 2 x2 = 6 −5 x1 + 4 x2 = 8 GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-11 Solution : 3
A=
− 5
− 2
4
6 − 2 8 4
3
6 − 5 8
A 1 (b) =
A 2 (b ) =
det[A 1 (b )] 24 + 16 = = 20 det (A ) 2 det[A 2 (b )] 24 + 30 x2 = = = 27 det(A ) 2 x1 =
3.3.2 Formule pour le calcul d’une matrice inverse La règle de Cramer permet d’obtenir une formule pour calculer une matrice inverse A-1 lorsque la matrice A est inversible. La jième colonne de A-1 est donnée par la solution du système d’équations linéaires
A x = e j 0 ⋮ e j = 1 ⋮ 0
...(3.23) Seul élément non nul de ce vecteur
Le vecteur e j est la jième colonne de I. Dès lors, si M = A-1 m ij =
det A i (e j ) det(A)
...(3.24) La i me colonne de A est remplacée par e j [voir (3.22)]
det[A i (e j )] = (− 1)i+ j det(A ji ) = C ji
...(3.25)
Le 1 de e j est sur la jième ligne de e j C11 1 C12 −1 A = det(A) ⋮ C1n
C 21 C 22
⋯
⋮
⋮
⋮
C 2n
⋯
C nn
⋯
C n1 C n 2
adj A det( A) =
...(3.26)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-12 où
adj A = la matrice adjointe de A, i.e. la matrice transposée de la matrice des cofacteurs de A.
Exemple : trouver A-1
3 2 1 de A = 1 − 1 1 . 1 4 − 2
Solution : 1 = −2 4 −2 1 3 C 21 = − = 14 4 −2 1 3 C 31 = + =4 −1 1 C11 = +
−1
1 1 2 C 22 = + 1 2 C 32 = − 1 C12 = −
1 1 C13 = + =3 1 −2 3 2 = −7 C 23 = − −2 1 3 2 C 33 = + =1 1 1
−1
=5 4 1 = −7 4 1 = −3 −1
det(A) = 2 × (−2) + 1 × (14) + 1 × (4) = 14 − 2 14 4 adj A = 3 − 7 1 5 − 7 − 3 − 2 14 4 1 A −1 = 3 − 7 1 14 5 − 7 − 3
3.3.3 Déterminants comme aire et volume
Théorème 8 A 2 × 2 ⇒ det(A) = aire du parallélogramme déterminé par les colonnes de A. • A 3 × 3 ⇒ det(A) = volume du parallélépipède déterminé par les colonnes de A. •
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-13
Illustration en 2 dimensions
a 0 A= 0 d
0 d
.
Aire = a d
.
a 0
Une matrice A 2 × 2 diagonale illustre facilement ce théorème. En effet, det(A) = ad, qui est la surface du rectangle. .
− d sin θ d cos θ
.
.
a cosθ a sinθ θ θ
O
La matrice de
cos θ − sin θ transformation B = effectue la rotation montrée à la figure ci-dessus sur la maθ θ sin cos a 0 trice A = . De plus, det(B) = 1. D’après les propriétés des déterminants, 0 d
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-14 det (BA ) = det(B ) det (A ) = det(A) = ad aire du rectangle = det(A) = ad . Considérons maintenant le cas de 2 vecteurs quelconques comme le montre la fig. ci-dessous.
. . . . a2
a2 - c a1
a1
0
La matrice A = [ a1 a2 ], i.e. des 2 vecteurs colonnes a1 et a2. Ces 2 vecteurs constituent 2 vecteurs positions de 2 points dans le plan. Les vecteurs partant de l’origine et se rendant à ces 2 points sont les 2 côtés d’un parallélogramme. Traçons une perpendiculaire à la droite a1 en 0. Le point d’intersection entre cette perpendiculaire et la droite passant par a2 et parallèle à a1 est le point a2 – c a1. Nous avons vu ci-dessus que l’aire du rectangle est donnée par le déterminant de la matrice det[a 1 a 2 − c a 1 ] . D’après les propriétés des déterminants,
det[a 1 a 2 ] = det[a 1 a 2 − c a 1 ] C.Q.F.D. Une démonstration similaire peut se faire en 3 dimensions.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-15
Problèmes sur le chapitre 3 Problème 1 (Lay, #3, p. 190) . Calculer le déterminant de la matrice A suivante par un développement en cofacteurs suivant la 1ère ligne, puis suivant la 2ème colonne. 2 −4 3 A = 3 1 2 det A = -5 1 4 −11
Problème 2 (Lay, #15, p. 191) . Calculer le déterminant de la matrice A suivante à l’aide d’une approche bien connue qui prévaut seulement pour les matrices carrées d’ordre 2 et 3 et qui est décrite ci-dessous. Soustraction de la somme de ces produits
a11 a12 a a 21 22 a31 a32
a13 a11 a12 a23 a21 a22 a33 a31 a32 Addition de la somme de ces produits
3 0 4 A = 2 3 2 Rép. : det A = 1 0 5 −1
Problème 3 (Lay, #19, p. 191) . 1 0 0 1 0 k
Calculer le déterminant des matrices élémentaires suivantes : 0 1 0 0 k 0 0 0 1 0 0 1 0 0 , 0 1 0 , 0 1 0 , 1 0 0 , 0 0 1 1 k 0 1 0 0 1 0 0 1 1 0 0
Problème 4. Quel est l’effet du produit de chacune des matrices élémentaires avec la matrice suivante. Montrer le résultat avec chacune des matrices qui résultent de ces produits. a b c A = d e f ( Prendre les matrices élémentaires du prob.3) g h i
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-16
Problème 5 (Lay, #43, p. 192) . Est-ce que c’est vrai que det ( A + B ) = det A + det B ? Pour ce faire, générer 4 paires de matrices aléatoires A et B d’ordre 5 dans MATLAB, et calculer det ( A + B ) − det A − det B dans chaque cas. Problème 6 (Lay, #44, p. 192) . Est-ce que c’est vrai que det AB = ( det A )( det B ) ? Pour ce faire, générer 4 paires de matrices aléatoires A et B d’ordre 5 dans MATLAB et calculer det AB − ( det A )( det B ) dans chaque cas. Problème 7 (Lay, #3, p. 199) . Quelle propriété des déterminants a été utilisée ici ? 1 3 −4 1 3 − 4 2 0 −3 = 0 − 6 5 5 −4 7 5 − 4 7 Problème 8 (Lay, #9, p. 199) . Trouver le déterminant de la matrice suivante en la ramenant sous la forme d’une matrice échelon. 1 −1 −3 0 0 1 5 4 Rép. : det A = 3 A= −1 2 8 5 3 −1 −2 3 Problème 9 (Lay, #21, p. 199) . Utiliser la notion de déterminant pour déterminer si la matrice A suivante est inversible : 2 3 0 A = 1 3 4 Rép. : det A = -1 1 2 1 Problème 10 (Lay, #31, p. 200) . Démontrer que si la matrice A est inversible, alors det A −1 =
1 . det A
Problème 11 (Lay, #3, p. 209) . Employer la règle de Cramer pour solutionner le système d’équations suivant : 3 x1 − 2 x2 = 7 det ( A ) = 8 x1 = 4 −5 x1 + 6 x2 = −5 x2 = 5 / 2 / 3 Problème 12 (Lay, #19 et 21, p. 209) . Trouver l’aire de chacun des parallélogrammes suivants : 1. (0, 0), (5, 2), (6, 4), (11, 6) Rép. : 8 2. (-1, 0), (0, 5), (1, -4), (2, 1) Rép. : 14
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
3-17
Problème 13 (Lay, #3, p. 209) . Soit la matrice A suivante : 1 −1 − 3 0 1 5 A= −1 2 8 3 −1 −2
0 4 5 3 −1
Avec MATLAB, calculer A-1, puis (A-1)-1. Finalement, obtenir A − ( A −1 ) . Utiliser la com mande « format long » pour obtenir le plus grand nombre de décimales possible. Émettre vos commentaires.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-1
Chapitre 4 Espaces vectoriels Objectifs d’apprentissage : •
Comprendre la notion d’espace et de sous-espace vectoriel
•
Distinguer les notions de noyau et d’espace colonne d une matrice
•
Notions sur une base d’un espace ou d’un sous-espace vectoriel
•
Systèmes de coordonnées
•
Dimension d’un espace et d’un sous espace vectoriel. Rang d’une matrice.
•
Changements de base
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-2
Chapitre 4 Espaces vectoriels 4.1 Espaces vectoriels et sous-espaces vectoriels Vols spatiaux : traitement de gros ensembles de coordonnées pour diriger et manoeuvrer la fusée dans son vol. Il y a donc manipulations, transformations de vecteurs.
Définition Un espace vectoriel est un ensemble V non vide de vecteurs sur lesquels sont définies les opérations d’addition et de multiplication par un scalaire , et qui sont soumis aux 10 axiomes suivants : 1. u, v ∈ V ⇒ u + v ∈ V. 2. u + v = v + u 3. (u + v) + w = u + (v + w) 4. 0 ∈ V et u + 0 = u 5. ∀ u ∈ V, ∃ −u ∈ V 6. u ∈V et c ∈ R ⇒ cu ∈ V 7. c (u + v) = cu + cv 8. (c + d) u = cu + du 9. c(du) = (cd) u 10. 1u = u D’après ces axiomes, 0u = 0 c0 = 0 −u = (−1) u
Exemple 1 : L’espace Rn , avec n ≥ 1, est un espace vectoriel.
Exemple 2 : n
Considérons les polynômes p( t ) = a 0 + ∑ a i t i , avec n ≥ 0 ; p(t) ∈ Pn. i =1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-3 n n c ∈ R et p ∈ P n ⇒ cp( t ) = ca 0 + ∑ (ca i ) t i = c a 0 + ∑ a i t i ∈ P n
i=1
i −1
n
n
n
i=1
i =1
i =1
p, q ∈ P n ⇒ p( t ) + q( t ) = a 0 + ∑ (a i ) t i + b 0 + ∑ (b i ) t i = (a 0 + b 0 ) + ∑ (a i + b i ) t i ∈ P n Donc P n est un espace vectoriel.
Un sous-espace vectoriel est un sous-ensemble H ⊂ V qui a les 3 propriétés suivantes : 1. 0 ∈ H 2. u, v ∈ H ⇒ u + v ∈ H 3. c ∈ R, u ∈ H ⇒ cu ∈ H
Exemple 1 : x L’ensemble de tous les vecteurs v ∈ R et v = y est un sous-espace vectoriel de R3. Mais 0 3
R2 n’est pas un sous-espace vectoriel de R3. Exemple 2 : Un plan dans R3 et ne passant pas par l’origine n’est pas un sous-espace vectoriel de R3, car il ne contient pas le vecteur 0. En effet, soit H = x a T x = c, a, x ∈ R 3 , c ∈ R un plan dans R3. Si c ≠ 0, alors y, z = 0 ⇒ x ≠ 0, d’où x = (x, y, z) ne peut être un vecteur nul. Rappelons qu’une combinaison linéaire de p vecteurs v1, v2, …, vp ∈ Rn se définit comme p
y = ∑ c i v i c1 , c 2 , ⋯ , c p ∈ R
… (4.1)
i=1
Considérons l’ensemble H de tous les vecteurs y obtenus comme une combinaison linéaire des vecteurs v1, v2, …, vp ∈ Rn que nous noterons Gén{ v 1, v2, …, vp } i.e. H est l’ensemble en gendré.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-4
Théorème 1 Soient v1, v2, …, vp ∈ Rn. Alors p H = y y = ∑ c i v i i =1
… (4.2)
est un sous-espace vectoriel de Rn.
Exemple 1 : Soit H = l’ensemble de tous les vecteurs de la forme (a – 3b, b – a, a, b), où a et b sont des scalaires arbitraires. Montrer que H est un sous-espace vectoriel de R4. Solution : Les vecteurs de H peuvent s’écrire : a − 3b 1 − 3 b−a = a − 1 + b 1 a 1 0 b 0 1
v1
v2
Dès lors H = { x x = a v1 + b v2 }. Donc H est un sous-espace vectoriel d’après le théorème 1.
Exemple 2 : Trouver les valeurs de h pour lesquelles le vecteur y = (-4, 3, h) sera dans le sous-espace vectoriel généré par v1, v2 et v3. Solution Soit H = { x x = a v1 + b v2 + c v3 } (voir la page suivante pour v1,v2, v3). Dès lors,
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-5 − 4 1 5 − 3 3 = a − 1 + b − 4 + c 1 h − 2 − 7 0
v1
v2
v3
5 − 3 − 4 1 5 − 3 − 4 1 5 − 3 − 4 1 −1 − 4 1 3 ≈ 0 1 − 2 − 1 ≈ 0 1 − 2 − 1 − 2 − 7 0 h 0 3 − 6 − 8 + h 0 0 0 − 5 + h Pour que le système soit compatible, il faut h = 5.
4.2 Noyau. Espace colonne. Transformations linéaires. Définition : Le noyau d’une matrice A m× n, N(A), est l’ensemble de toutes les solutions du système d’équations homogènes Ax = 0, i.e. N( A ) = x x ∈ R n et Ax = 0
… (4.3)
5 1 − 3 − 2 et u = 3 Exemple : Déterminer si u ∈ N(A) pour A = 1 − 5 9 − 2
Solution : 5 1 − 3 − 2 0 Au = 3 = 0 5 9 1 − − 2
⇒ OK.
Théorème 2 N N ( A ) = {x x ∈ R n et Ax = 0} ⊂ R n ⇒ un sous-espace vectoriel .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-6
Formulation explicite de N(A) : La solution de Ax = 0 donne une description explicite de N(A).
[p. 222]
Exemple : Trouver l’ensemble des vecteurs qui génèrent N(A) pour la matrice suivante : − 3 6 − 1 1 − 7 A = 1 − 2 2 3 − 1 . 2 − 4 5 8 − 4
Solution : Obtenir la matrice-échelon réduite : − 3 6 − 1 1 − 7 0 1 − 2 0 − 1 3 0 1 − 2 2 3 − 1 0 ≈ 0 0 1 2 − 2 0 2 − 4 5 8 − 4 0 0 0 0 0 0 0
x1 – 2x2
x4 + 3x5
= 0
x3 + 2x4 − 2x5 = 0 0
= 0
La solution générale devient : x1 = 2x2 +x4 – 3x5 x3 = -2x4 + x5 avec x2, x4 et x5 comme variables libres. Donc x 1 2x 2 + x 4 − 3x 5 x x 2 2 x 3 = − 2x 4 + 2x 5 = x 2 x x 4 4 x 5 x5
2 1 0 + x 4 0 0
u
1 − 3 0 0 − 2 + x 5 2 1 0 0 1
v
w
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-7
Observations : •
Notons que les vecteurs u, v et w sont linéairement indépendants, car x2u + x 4v + x5w = 0 seulement si x2 = x4 = x5 = 0.
•
Le nombre de vecteurs générant N(A) = le nombre de variables libres.
Définition : L’espace colonne de A m× n, C(A), est l’ensemble des combinaisons linéaires des colonnes de A, i.e. n C( A) = y y = ∑ c i a i i =1
A = [a 1 a 2
⋯
a n ]
… (4.4)
Théorème 3 C(A), avec A m× n est un sous-espace de Rm.
Exemple 1 : Trouver une matrice A de telle sorte que W = C(A), où 6a − b W = a + b a , b ∈ R . − 7a Solution : 6 − 1 6 − 1 W = a 1 + b 1 ⇒ A = 1 1 ⇒ − 7 0 − 7 0
W = C(A)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-8
Comparaison entre N(A) et C(A) : Soit A une matrice m× n. N(A)
C(A)
N(A) = un sous-espace de Rn
C(A) = un sous-espace de Rm
N( A) = x
x ∈ R n et
n C( A) = y y = ∑ c i a i i=1
Ax = 0
A = [a 1 a 2
⋯
a n ]
C(A) = Rm si et seulement si x ֏ Ax transforme Rn en Rm.
N(A) = { 0 } si et seulement si Ax = 0 n’a que la solution triviale.
Exemple 2 : Trouver un vecteur non nul dans N(A) et dans C(A) lorsque 4 − 2 1 2 A = − 2 − 5 7 3 3 7 − 8 6
a1
Solution : •
a1 ∈ C(A) ou toute autre colonne de A.
•
Pour trouver u ∈ N( A), il faut tout d’abord obtenir la matrice-échelon réduite de la matrice augmentée A = [ A 0 ]. 1 0 9 0 0 [A 0] ≈ 0 1 − 5 0 0 0 0 0 1 0
Variable libre
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-9 Dès lors, − 9 x 3 − 9 5x 5 3 = x3 u= x3 1 0 0
Posons que x3 = 1 ⇒ u = (-9, 5, 1, 0).
Exemple 3 : Avec la même matrice A de l’exemple précédent, déterminer si 3 3 − 2 u = ∈ N(A) et si v = − 1 ∈ C(A). − 2 3 0
Solution :
•
3 − 2 u = ∈ N(A) ? − 2 0
3 4 − 2 1 0 0 2 −2 Au = − 2 − 5 7 3 = − 3 ≠ 0 ⇒ Non ! − 1 3 7 − 8 6 3 0 0
•
3 v = − 1 ∈ C(A) ? 3
4 − 2 1 3 2 4 − 2 1 3 2 [A v] = − 2 − 5 7 3 − 1 ≈ 0 1 − 5 − 4 2 3 7 − 8 6 3 0 0 0 17 1 Matrice-échelon pour A et Ab ayant le même nombre de lignes non nulles
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-10
Définition : Une transformation linéaire T d’un espace vectoriel V sur un espace vectoriel W est une règle qui associe v ∈ V à un vecteur unique T(x) ∈ W de telle sorte que • T(u + v) = T(u) + T(v) ∀ u, v ∈ V • T(cu) = cT(u) ∀ u ∈ V et c ∈ R. Le noyau de T est N (T) = x x ∈ R n et Tx = 0 n L’image de T est Im(T) = y y = ∑ c i a i i =1
T = [a 1 a 2
⋯
a n ]
4.3 Ensembles linéairement indépendants. Bases. Définition : Un ensemble de vecteurs { v1, v2, …, vp } est dit linéairement indépendant si l’équation vectorielle c1 v 1 + c 2 v 2 + … + c p v p = 0
… (4.5)
ne possède que la solution triviale c1 = c2 = … = cp = 0. Il y a dépendance linéaire si (4.5) prévaut alors qu’il existe des valeurs de c1, c2, .., cp non toutes nulles.
Définition : Soit H ⊂ V , H un sous-espace vectoriel dans l’espace vectoriel V . L’ensemble B = {b1, b2, …, bp} ⊂ V forme une base de H si • B forme un ensemble linéairement indépendant ; • le sous-espace généré par B est H , i.e. p H = x x = ∑ c i b i i =1
b i ∈ B
… (4.6)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-11
Exemple 1 : Soit la matrice inversible A n× n. Les colonnes de A sont linéairement indépendantes ; dès lors, elles forment une base pour Rn.
Exemple 2 : Les colonnes de la matrice identité I, i.e. e1, e2, …, en, forment la base classique de Rn. Exemple 3 : Déterminer si les vecteurs suivants sont linéairement indépendants : 3 v 1 = 0 − 6
− 4 v 2 = 1 7
− 2 v 3 = 1 . 5
Solution : 3 − 4 − 2 3 − 4 − 2 3 − 4 − 2 0 1 1 ≈ 0 1 1 ≈ 0 1 1 2 − 6 7 5 1 0 − 1 1 0 0 2
det(A) = 3 × 1× 2 = 6 ou 3 lignes non nulles
Théorème 5 – Théorème de l’ensemble générateur p Soit S = {v1, …, vp} ⊂ V et H = x x = ∑ ci v i . i =1
Si un des vecteurs dans S , par exemple vk est une combinaison linéaire des autres vecteurs de V , alors {v1, …, vk-1, vk+1, …, vp} génère toujours H . • Si H ≠ {0}, alors un sous-ensemble de S génère H . •
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-12 1 0 Exemple 1 : Trouver une base pour C(B) si B = 0 0
4 0 0 0
0 2 1 −1 0 0 0 0
0 0 . 1 0
Solution : 1 0 0 0
4 0 0 0
0 2 1 −1 0 0 0 0
0 0 1 0
Matrice-échelon réduite
pivots 1 0 Dès lors, S = 0 0
0 1 0 0
0 0 . On pouvait retirer les colonnes b2 et b4 pour générer C(B). 1 0
1 4 0 2 − 1 3 12 1 5 5 . Exemple 2 : Trouver une base pour C(A) si A = 2 8 1 3 2 5 20 2 8 8
Solution : La matrice A a la matrice B de l’exemple 1 comme matrice-échelon réduite. Donc base pour C(A) = {a1, a3, a5}.
Théorème 6 Les colonnes d’une matrice A contenant les pivots dans la matrice-échelon réduite forment une base pour C(A).
Note. Ce sont les colonnes de A qu’il faut prendre pour générer C(A).
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-13
Exemple : Quels sont les sous-espaces vectoriels générés par les 3 matrices suivantes : 1 2 A 2 = 0 3 0 0
1 2 4 A 3 = 0 3 5 0 0 6
1 2 4 7 A 4 = 0 3 5 8 0 0 6 9
1 2 A 2 = 0 3 0 0
1 2 4 A 3 = 0 3 5 0 0 6
1 2 4 7 A 4 = 0 3 5 8 0 0 6 9
Solution :
a1 et a2 sont lin. indép. Mais ne génèrent pas R3.
a1, a2 et a3 forment une base pour R3.
a1, a2, a3 et a4 sont lin. dépend. mais génèrent R3.
4.4 Systèmes de coordonnées Théorème 7 : unicité de la représentation Soit B = {b1, …, bn} une base pour l’espace vectoriel V . Alors, pour tout vecteur x ∈ V , il existe un ensemble unique de scalaires c1, … cn de telle sorte que n
x = ∑ ci bi
… (4.7)
i =1
Démonstration : n n V = x x = ∑ c i b i ⇒ x = ∑ c i b i i =1 i =1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-14 n
Supposons que x = ∑ d i b i . Alors (c1 – d1) b1 + … + (cn – d n) bn = 0 ⇒ b1, …, bn sont lii =1
néairement dépendants s'il existe des (ci – di) ≠ 0. Donc (ci – di) = 0 ∀ i. C.Q.F.D.
Définition : Soit B = {b1, .., bn} ⇒ base pour V . Soit x ∈ V . Alors c1 [ x] B = ⋮ ⇒ x R2 = c1 b1 + … + cn b n cn
... (4.8)
[x] B = coordonnées de x dans la base B
x = coordonnées de x dans Rn
Exemple : Déterminer x dans R2, si −2 [ x ]B = 3
1 1 avec b1 = b 2 = . 0 2
Solution : 1 1 1 x = (− 2 ) b 1 + (3) b 2 = −2 + 3 = . 0 2 6
Coordonnées dans Rn : Lorsqu’une base B pour Rn a été fixée, les coordonnées x B se trouvent facilement. 2 −1 4 Exemple : Posons que b1 = , b 2 = , et x = , avec b1 , b 2 , x ∈ R 2 . Trouver [x] B. 1 1 5
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-15 Solution : c1 = 3 2 − 1 4 2 − 1 c1 4 c1 + c 2 = ⇒ ⇒ = c2 = 2 1 1 5 1 1 c 2 5
b1
b2
x
b1
b2 P B
x [x] B
1 0 4 x = 4 + 5 = 0 1 5
Dès lors, notons que
x = P B [x] B
… (4.9)
P B = matrice qui transforme les coordonnées d’un vecteur de la base B à la base canonique de Rn.
De plus,
[x]B = (PB)-1 x
…(4.10)
car P B est inversible.
Théorème 8 Soit B = [b1, …, bn] une base pour V . Alors la transformation x ֏ x B est une transformation isomorphe de V dans Rn.
Définition Deux espaces vectoriels V 1 et V 2 sont isomorphes si on vérifie pour tout couple de vecteurs x1, y1 ∈ V 1, ainsi que pour le couple correspondant de vecteurs x2, v2 ∈ V 2, l’égalité suivante : (x1, y1) = (x2, y2).
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-16 Comme une transformation de coordonnées est une opération linéaire, alors
(c1u 1 + … c p u p ) B = c1u 1 B + … + c p u p B
...(4.11)
ce qui est, par définition, un isomorphisme.
Exemple : Déterminer si le vecteur x est dans H et trouver ses coordonnées dans la base B. 3 − 1 3 v 1 = 6 , v 2 = 0 , x = 12 , B = {v 1 2 1 7
v2}
Solution : Si x ∈ H , alors 3 c1 6 + c 2 2
− 1 3 3 − 1 3 1 0 2 0 = 12 ⇒ 6 0 12 ≈ 0 1 3 1 7 2 1 7 0 0 0
c1 c2
Matrice-échelon réduite 2 Dès lors, [x]B = . 3
Plan H 3v2
.
v2
x = 2v1 +3v2
0 v1
2v1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-17
4.5 Dimension d’un espace vectoriel Rappel : Un espace vectoriel ayant une base B contenant n vecteurs est isomorphe avec Rn. Théorème 9 Si un espace vectoriel V a une base B = {b1, b2, ..., bn}, alors tout ensemble contenant plus de n vecteurs est linéairement dépendant.
Démonstration : Soit {u1, ... , up} ∈ V avec p > n. Les vecteurs coordonnées u1 B, ... , up B forment un ensemble linéairement dépendant dans Rn, car p > n. Donc il existe des scalaires non tous nuls tels que 0 c1u 1 B + … + c p u p B = ⋮ 0
Vecteur nul dans Rn 0 Or, d’après (4.11), [c1u 1 + … + c p u p ] B = ⋮ ⇒ c1u 1 + … + c p u p = 0 b 1 + … 0 b n = 0 . 0
Comme les ci ne sont pas tous nuls, l’ensemble {u1, ... , up} est linéairement dépendant. C.Q.F.D.
Théorème 10 Si la base d’un espace vectoriel V contient n vecteurs, alors toute autre base de V doit contenir aussi n vecteurs.
Définition : Soit B = {b1, ... , bn} une base pour l’espace vectoriel V . La dimension de V est le nombre de vecteurs dans B, que l’on note dim V .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-18
Exemple 1 : dim Rn = n. 3 − 1 Exemple 2 : Soit v 1 = 6 , v 2 = 0 , B = {v 1 2 1
v 2 }. Le sous-espace
H = {x x = c1 v 1 + c 2 v 2 }
a comme dimension 2, i.e. dim H = 2. a − 3b + 6c 5a + 4d a, b, c, d ∈ R Exemple 3 : Trouver dim H si H = − − b 2 c d 5d
.
Solution : 1 − 3 6 0 5 0 0 4 x ∈ H ⇒ x = a + b + c + d . Notons que b3 = -2 b1. 0 1 − 2 − 1 0 0 0 5
0 1 − 3 6 0 1 − 3 6 5 0 0 1 − 2 − 1 0 4 ≈ ⇒ dim H = 3. 0 1 − 2 − 1 0 0 0 19 0 5 0 0 0 0 0 0
Théorème 11 Soit H un sous-espace vectoriel de V . Tout ensemble de vecteurs linéairement indépendants de H peut être augmenté, si nécessaire, pour devenir une base pour V . De plus, dim H ≤ dim V .
Théorème 12 : base Soit V un espace vectoriel avec dim V = p et p ≥ 1. Tout ensemble linéairement indépendant d’exactement p vecteurs de V est une base pour V . Tout ensemble d’exactement p vecteurs qui génère V forme une base pour V .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-19
Dimension de N(A) et C(A) : Comme les colonnes de A , une matrice m× n, contenant des pivots forment une base pour C(A), alors dim C(A) = nombre de pivots De plus, dim N(A) = nombre de variables libres dans Ax = 0.
Exemple : Trouver dim C(A) et dim N(A) pour la matrice suivante : − 3 6 − 1 1 − 7 A = 1 − 2 2 3 − 1 . 2 − 4 5 8 − 4
Solution :
x2 x4 x5 − 3 6 − 1 1 − 7 0 1 − 2 2 3 − 1 0 1 − 2 2 3 − 1 0 ≈ 0 0 1 2 − 2 0 2 − 4 5 8 − 4 0 0 0 0 0 0 0
variables libres
pivots Donc dim N(A) = 3 et dim C(A) = 2.. En effet, x 1 2 x 2 + x 4 − 3x 5 x x2 2 x 3 = − 2x 4 + 2x 5 = x 2 x x 4 4 x5 x5
2 1 0 + x 4 0 0
1 0 − 2 + x 5 1 0
− 3 0 2 . 0 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-20
4.6 Rang d’une matrice Chaque ligne d’une matrice A m× n peut être reliée à un espace Rn. L’espace ligne de
A, que l’on note aussi R(A), se définit comme m R (A) = x x = ∑ c i ri i =1
ri
= la i ème ligne de A = C( A T )
Théorème 13 Si 2 matrices A et B sont équivalentes par les lignes, alors R(A) = R(B). Si B est sous forme de matrice-échelon, alors les lignes non nulles de B forment une base pour R(A) et pour R(B).
Exemple : Trouver des bases pour R(A), C(A) et N(A) dans le cas de la matrice suivante : − 2 − 5 8 1 3 −5 3 11 − 19 7 − 13 1
A
0 − 17 1 3 − 5 1 5 1 1 5 0 1 − 2 2 − 7 0 ≈ ≈ 7 1 0 0 0 − 4 20 0 5 − 3 0 0 0 0 0 0 Matrice-échelon
0 1 1 −2 0 0 0 0
0 1 0 3 1 − 5 0 0
Matrice-échelon réduite
Base pour R(A) : {(1, 3 –5, 1 5), (0, 1, -2, 2 –7), (0, 0, 0 –4, 20)} Base pour C(A) : les colonnes a1, a2 et a4 de A. x1 − x 3 − x 5 − 1 − 1 x 2x − 3x 2 − 3 2 3 5 Base pour N(A) : x 3 = x 3 = x 3 1 + x 5 0 x 4 5x 5 0 5 x 5 0 1 x 5
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-21 − 1 2 ⇒ base = 1 , 0 0
− 1 − 3 0 . 5 1
Définition : Le rang de A est la dimension de C(A).
Théorème 14 : théorème du rang Soit A une matrice m× n. Alors dim C(A) = dim R(A) = nombre de pivots de A. De plus, rang A + dim N(A) = n.
Démonstration : D’après le théorème 6, les colonnes contenant les pivots constituent une base pour C(A). Donc le rang de A est le nombre de pivots de A dans la forme échelon. De plus, comme la matriceéchelon contient un ligne non nulle pour chaque pivot et comme ces lignes non nulles constituent une base pour R(A), le rang de A est aussi dim R(A). Dim N(A) = le nombre de colonnes de
A sans pivot. C.Q.F.D.
Continuation du théorème 8 (chapitre 2) : matrice inversible m. n. o. p. q. r.
Les colonnes de A forment une base pour Rn. C(A) = Rn dim C(A) = n rang A = n N(A) = {0} Dim N(A) = 0
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-22
4.7 Changement de base Illustration à l’aide d’un exemple. Soient B = {b1, b2} et C = {c1, c2} deux bases dans V , de telle sorte que b1 = 4c1 + c2 et b2 = − 6c1 + c2. Supposons le vecteur
x = 3b1 + b2. Trouver [x]C . 3 3 Tout d’abord, [ x]B = ⇒ x = [ b1 b 2 ] . 1 1
Comme le passage d’une base à une autre est une transformation linéaire, alors 4 −6 4 −6 3 6 [ x]C = [ 3b1 + b 2 ]C = 3[ b1]C + [b 2 ]C = 3 + 1 = = 1 1 1 1 1 4
T
C ← B
x B
T = [ [b1]C [b2]C ] = matrice de transformation de B vers C .
C ← B
De plus, ( T )-1 [x]C = [x] B ⇒ C ← B
T = ( T )-1.
B ←C
C ← B
Théorème 15 Soient B = {b1, ..., bn} et C = {c1, ..., cn} des bases pour V . Alors il existe une matrice d’ordre n T de telle sorte que C ← B
[x]C = T [x ] B C←B
...(4.12)
T = [[b1]C ... [bn]C ].
et
C ← B
Corollaire : Soient B = {b1 ... bn} et E = {e1 ... en} deux bases de Rn. Alors
[bi] E = bi et
T = [b 1
E ← B
⋯
bn ]
...(4.13)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-23
Exemple : B = {b1 b2} et C = {c1 c2} avec − 9 1
− 5 1 3 b 2 = c1 = c 2 = − 1 − 4 − 5 Trouver la matrice de transformation pour passer de B à C .
b1 =
Solution : x
y
2
Posons que
[ b1 ]C = 1 et [ b 2 ]C = 1 x y
Dès lors,
x [c1 c 2 ] 1 = b 1 x 2 y [c1 c 2 ] 1 = b 2 y 2
2
1 3 − 9 − 5 1 0 6 4 − 4 5 1 − 1 ≈ 0 1 − 5 3
I2
T
C ← B
4.8 Les chaînes de Markov Définitions : Vecteur de probabilité x : xi ≥ 0 et
n
∑ xi = 1. i =1
Matrice stochastique P : matrice dont les colonnes sont des vecteurs de probabilité. Matrice stochastique P régulière : matrice qui ne contient que des éléments strictement positifs pour une puissance k de la matrice, Pk i.e. 0 < pij < 1 ∀ i,j.
Dans une chaîne de Markov, c’est un processus de changement dans lequel un état futur dépend de manière probabiliste de l’état actuel. La matrice P représentant le passage de l’état actuel à un état futur s’appelle la matrice de transition . La matrice stochastique P est dite régulière si tous GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-24 ses éléments sont positifs pour une certaine puissance k de P. Si P est régulière, alors le théorème 18 s’applique.
Théorème 18 Soit P une matrice stochastique régulière d’ordre n. Alors P a un vecteur q d’état permanent unique. De plus, si x0 est un état initial et que xk+1 = P xk pour k = 0, 1, 2, ..., alors la chaîne de Markov converge vers q lorsque k → ∞. L’état permanent q s’obtient à l’aide de Pq = q ou (P – I) q = 0. Comme il s’agit d’un système d’équations homogènes, il faut que det(P – I) = 0 si l’on veut éviter la solution triviale. Pour s’assurer que q soit un vecteur de probabilité, on choisit les (n - 1) premières équations de (P – I) q = 0 auxquelles on ajoute la condition q1 + q2 + ... + qn = 1.
Exemple de matrice stochastique régulière : 0.5 0.2 0.3 0.37 0.26 0.33 P = 0.3 0.8 0.3 ⇒ P2 = 0.45 0.70 0.45 0.2 0 0.4 0.18 0.04 0.22 0 < pij < 1 ∀ i,j. Exemple : Un observateur s’est aperçu que le processus électoral dans une région donnée du Québec depuis un certain temps répond aux caractéristiques suivantes : 70 % des libéraux gardent leur affiliation au parti libéral 20 % des libéraux passent au PQ
L = libéral,
L x = P A 0,7 P = 0,2 0,1 L
La somme des éléments de chaque colonne doit donner 1.
0,1 0,3 L 0,8 0,3 P 0,1 0,4 A P
A
10 % des libéraux passent à l’ADQ
P = péquiste, A = adéquiste. En supposant que la matrice de transition demeure constante, trouver l’état à long terme.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-25 Solution : 1 1 1 1 0 0 0.3214 1 −0,3 0,1 0,3 0 ≈ 0 1 0 0,5357 0,2 −0, 2 0,3 0 0 0 1 0,1429
La solution devient 0,3214 q = 0,5357 0,1429
Donc, à long terme, le PQ est gagnant. « Si la tendance se maintient ...».
Définition : Une matrice A d’ordre n est dite diagonalisable (nondefective ) si elle possède n vecteurs propres linéairement indépendants. Théorème : puissance des matrices Soit A une matrice d’ordre n diagonalisable. Alors k • A → 0 si et seulement si λ < 1 pour toutes les valeurs propres de A. • Ak est bornée si et seulement si λ ≤ 1 pour toutes les valeurs propres de A. • Ak → ∞ si et seulement si λ > 1 pour une valeur propre quelconque λ de A.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-26
Problèmes sur le chapitre 4 x Problème 1 (Lay, #3, p. 223) . Soit H = : x 2 + y 2 ≤ 1 . Démontrer à l’aide d’un exemple numé y 0.5 ⇒ 4u ∉ H 0.5
rique bien choisi que H n’est pas un sous-ensemble vectoriel. Rép. : u =
s Problème 2 (Lay, #9, p. 223) . Soit H = x = 3s , s ∈ R . Trouver un vecteur v ∈ R 3 de telle sorte 2 s 1 que H = Gén {v} . Pourquoi s’agit-il d’un sous-espace vectoriel ? Rép. : u = 3 2
Problème 3 (Lay, #13, p. 223) . Considérons les vecteurs suivants : 1 2 4 3 v1 = 0 , v 2 = 1 , v 3 = 2 , w = 1 −1 3 6 2 w est-il dans l’ensemble {v1 v 2 v 3 } ? Non, car l’ensemble ne comprend que 3 vecteurs • Combien y a-t-il de vecteurs dans H = Gén {v1 v 2 v 3 } ? Une infinité • w est-il dans le sous-espace H ? Justifier la réponse. Oui. Matrice échelon réduite de Ab. •
Problème 4 (Lay, #35, p. 225) . À l’aide de MATLAB, montrer que le vecteur w se trouve dans le sous-espace de R4 généré par les 3 vecteurs v1, v2, v3 suivants : −9 7 −4 −9 7 −4 5 4 , v1 = , v2 = , v 3 = . Rép. : Oui w= 4 −2 −1 4 8 9 −7 −7
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-27
Problème 5 (Lay, #1, p.234) . Déterminer si w se trouve dans le noyau de A, i.e. N (A) : 1 3 −5 −3 w = 3 , A = 6 −2 0 Rép. : oui , Ax = 0 −4 −8 4 1
Problème 6 (Lay, #15, p. 234) . Trouver la matrice A de telle sorte que l’ensemble C (A) soit 2 x + 3t 0 2 3 1 1 −2 r + s − 2t : r, s, t ∈ R Rép. : 4 1 0 4r + s 3r − s − t 3 −1 −1
Problème 7 (Lay, #25, p. 235) . Déterminer si les énoncés sont vrais ou faux. Justifier la réponse. Vrai, par définition • N (A) est l’ensemble solution de Ax = 0 Faux, dans Rn • Si A est une matrice m x n, alors N ( A ) ⊂ R m • L’équation Ax = b, A une m x n, est consistante, alors C (A) = Rm Faux, il faut m pivots Vrai • Le noyau d’une transformation linéaire est un espace vectoriel. Problème 8 (Lay, #39, p. 236) . Posons que a1, …, a5 sont les colonnes de A et que B = [a1 a2 a4 ] . 5 3 A= 8 2
1 3 4 1
2 2 0 2 −1 −12 4 −5 12 1 0 −2
(via MATLAB)
Expliquer pourquoi a3 et a5 font partie de l’espace colonne de B Rép. : rref[B, a3], rref[B, a5] • Trouver un ensemble de vecteurs qui génèrent N (A) Rép. : rref(A) et trouver la solution générale. •
Problème 9 (Lay, #3, p. 243) . Est-ce que les 3 vecteurs suivants forment une base pour R3 ? 1 3 −3 0 , 2 , −5 Rép. : non , 2 pivots −2 −4 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-28
Problème 10 (Lay, #13, p. 243) . Supposons que A soit équivalente par les lignes à B. Trouver des bases pour C (A) et N (A). −2 4 −2 −4 1 0 6 5 C ( A ) = a1 et a2 A = 2 −6 −3 1 , B = 0 2 5 3 , Rép. : rref ( A ) et solution générale Ax = 0 −3 8 2 −3 0 0 0 0
Problème 11 (Lay, #21et #22, p. 244) . Déterminer si les énoncés sont vrais ou faux. Justifier la réponse. Faux, seul 0 l’est.
•
Un seul vecteur par lui-même est linéairement dépendant.
•
Les colonnes d’une matrice inversible A n×n forment une base pour Rn
Vrai, car n pi-
vots. •
Un ensemble linéairement indépendant dans un sous-espace H est une base pour H . Faux, car c’est le plus grand ensembles linéairement indépendant.
•
Une base est un ensemble linéairement indépendant aussi large que possible. Vrai
•
Si B est une matrice-échelon de la matrice A, alors les colonnes pivots de B forment une base pour C (A). Faux. Les opérations sur les lignes de A peuvent modifier C (A).
2 Problème 12 (Lay, #11, p. 254) . Soit x = dans la base canonique. Trouver une matrice pour −6
3 −4 transformer ce vecteur dans la base B = , . −5 6 −3
−2 2 6 −6 = 4 5 / 2 3 / 2 − −
Rép. : x B = PB−1x =
Problème 13 (Lay, #35, p. 255) . Soit H = Gén {v1 v 2 } et B = {v1 v 2 } . Montrer que x se trouve dans H et trouver les coordonnées de x dans la base B, i.e. [x ] B .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-29 11 14 19 −5 −8 −13 v1 = , v 2 = , x = 10 13 18 7 10 15
−5 / 3 . 8 / 3
Rép. : [x ] B =
Problème 14 (Lay, #11, p. 261) . Trouver la dimension du sous-espace généré par les vecteurs suivants : 1 3 9 −7 0 , 1 , 4 , −3 2 1 −2 1
Rép. : dim = 2
Problème 15 (Lay, #13, p. 261) . Trouver dim N (A) et dim C (A) : 1 −6 9 0 − 2 0 1 2 −4 5 Rép. : dim C (A) = 3, dim N (A) = 2 A= 0 0 0 5 1 0 0 0 0 0 Problème 15 (Lay, #29, p. 262) . Déterminer si les énoncés sont vrais ou faux. Justifier la réponse. •
S’il existe un ensemble de vecteurs {v1 ,
⋯,
v p } qui génère V , alors dim V ≤ p Vrai
S’il existe un ensemble {v1 , ⋯, v p } linéairement indépendant dans V , alors dimV ≥ p . Vrai, car on peut compléter la base, si p < n . • Si dimV = p , alors il existe un ensemble générateur de ( p + 1) vecteurs dans V . Vrai, il s’agit d’ajouter le vecteur 0. •
Problème 16 (Lay, #1, p. 269) . Hypothèse : la matrice A est équivalente à la matrice B par les lignes. Sans calculs, trouver le rang de C (A), R(A) et N (A). Puis trouver une base pour C (A), R(A) et N (A). 1 −4 9 − 7 1 0 − 1 5 A = −1 2 −4 1 , B = 0 −2 5 −6 5 −6 10 7 0 0 0 0
Rép. : rang C (A) = 2, rang R(A) = 2, rang N (A) = 2. Base pour C (A) : colonnes a1 et a2, base pour R(A) : 2 premières lignes de B
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
4-30 1 −5 5 / 2 −3 Base pour N (A) : , 1 0 0 1
Problème 17 (Lay, #5, p. 269) . Si une matrice A ( 3 × 8 ) est de rang 3, trouver dim N (A), dim R(A) et le rang de AT . Rép. : dim N (A) = 5, dim R(A) = 3, rang AT = 3 Problème 18 (Lay, #13, p. 269) . Si A est une matrice 7 × 5 , quel est le rang max de A ? Si A est une matrice 5 × 7 , même question. Rép. : max = 5, i.e. nombre possible de pivots. Problème 19 (Lay, #17, p. 269) . Déterminer si les énoncés sont vrais ou faux. Justifier la réponse. La matrice A est une m × n . • R(A) est le même que C (AT) • Si B est une matrice échelon quelconque de A, et si B a 3 lignes non nulles, alors les 3 premières lignes de A forment une base pour R(A). Rép. : faux, permutation possibles des lignes. • dim R(A) = dim C (A) Rép. : vrai • dim R(A) + dim N (A) = le nombre de lignes de A. Rép. Vrai
Problème 20 (Lay, #9, p. 276) . Pour les bases B et C ci-dessous, trouver la matrice de changement de base pour passer de B à C , puis celle pour passer de C à B. −6 2 2 6 9 −2 1 2 Rép. : P = B = , , C = , P , = C← B −4 1 B←C 4 9 −1 0 −1 −2 Problème 21 (Lay, #19, p. 277) . À l’aide de MATLAB, sachant que 1 2 −1 −2 −8 − 7 P = −3 −5 0 , v1 = 2 , v 2 = 5 , v 3 = 2 , 4 6 1 3 2 6 Trouver un base {u1 u 2 u3 } pour R3 de telle sorte que P soit la matrice de changement de base de la base {u1 u 2 u 3 } vers la base {v1 v 2 v 3 } . • Trouver une base {w1 w2 w3} pour R3 de telle sorte que P soit la matrice de changement de base de {v1 v 2 v 3 } vers la base {w1 w 2 w 3 } . −2 −8 −7 −6 −6 −5 28 38 21 Rép. : [u1 u 2 u3 ] = 2 −7 2 P = −5 −9 0 , {w1 w 2 w 3 } = −9 −13 −7 3 3 2 6 21 32 3 −3 2 •
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-1
Chapitre 5 Valeurs propres et vecteurs propres Objectifs d’apprentissage •
Comprendre la notion de valeur et vecteur propres.
•
Rôle du déterminant et de l’équation caractéristique.
•
Diagonalisation d’une matrice.
•
Application aux équations différentielles. Rôle des nombres complexes.
•
Calcul des valeurs propres par des méthodes itératives (méthode de Jacoby et du QR).
•
Utilisation de MATLAB pour vérifier les propriétés des valeurs et des vecteurs propres.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-2
Chapitre 5 Valeurs propres et vecteurs propres 5.1 Notions de base Définition : Un vecteur propre (eigenvector ) d'une matrice d'ordre n (matrice carrée n×n) est un vecteur x non nul tel que Ax = λx pour un scalaire quelconque λ. Un scalaire λ est une valeur propre de la matrice A s'il existe une solution non triviale x du système d'équations Ax = λx ; un tel vecteur x devient alors le vecteur propre associé à la valeur propre λ. Exemple 1 : Considérons la matrice et les vecteurs suivants : 1 6 6 3 A= u = v = , et − 5 − 2. 5 2 Est-ce que u et v sont des vecteurs propres de A ?
Solution : 1 Au = 5 1 Av = 5
6 6 − 24 6 = = − 4 − 5 = −4u 2 − 5 20 6 3 − 9 3 = ≠ λ − 2 2 − 2 11
Donc u est un vecteur propre, alors que ce n'est pas le cas pour v.
Exemple 2 : Montrer que 7 est une valeur propre de A de l'exemple précédent. Solution : Pour que 7 soit une valeur propre de A, il faut que Ax = 7x et que la solution soit non triviale. Dès lors, il faut que Ax - 7x = 0.
Ax − 7x = (A − 7I )x = 0 1 6 7 0 − 6 6 A − 7I = − 0 7 = 5 − 5 5 2
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-3 Les colonnes de la matrice A − 7I sont linéairement dépendantes, de sorte qu'il existe des solutions non triviales. Donc 7 est une valeur propre de A. Pour trouver le vecteur propre correspondant, − 6 6 0 1 − 1 0 5 − 5 0 ≈ 0 0 0 ⇒ x = x 2
1 1
De plus, tout vecteur de cette forme avec x2 ≠ 0 est un vecteur propre associé à λ = 7. Dès lors, λ est une valeur propre d'une matrice carrée A si et seulement si l'équation
(A − λI )x = 0
... (5.1)
a une solution non triviale. Se rappeler que l'ensemble des solutions de (5.1) constitue le noyau de la matrice A − λI. Cet ensemble devient un sous-ensemble de Rn et s'appelle l'espace vec teur-propre (eigenspace ) de A correspondant à λ. La fig. ci-dessous illustre les sous-espaces engendrés par les 2 valeurs propres de A, i.e. λ1 = 7 et λ2 = −4.
[p. 299]
x2 Sous-espace "vecteur-propre" correspondant à λ = 7
x1 Sous-espace "vecteur-propre" correspondant à λ = -4
Théorème 1 Les valeurs propres d'une matrice triangulaire sont les éléments de la diagonale principale.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-4 Démonstration : a 12 a 13 a 11 − λ A − λI = 0 a 22 − λ a 23 ⇒ (A − λI ) x = 0 0 a 33 − λ Le système A - λI = 0 a des solutions triviales si et seulement si il a des solutions non triviales. Dès lors, il faut qu'il y ait au moins un terme nul sur la diagonale principale. Pour cela, il faut que λ soit égale à au moins un des éléments sur la diagonale de A. C.Q.F.D.
Théorème : (suite sur les matrices inversibles) Soit A une matrice carrée n×n. Alors A est inversible si et seulement si aucune valeur propre n'est nulle.
Théorème 2 : Si v1, ..., vr sont les vecteurs propres associés aux valeurs propres distinctes λ1, ...λr d'une matrice carrée A n×n, alors l'ensemble { v1, ..., vr } est linéairement indépendant.
5.2 L'équation caractéristique 2 3 Exemple : Trouver les valeurs propres de A = . − 3 6 Solution :
Il s'agit de trouver toutes les valeurs de λ de telle sorte que (A - λI) x = 0 pour des solutions non triviales. Dès lors, 2
3 λ 0 2 − λ 3 − = − 6 − λ 3 − 6 0 λ 3 0 2 − λ det(A − λI ) = det 3 = 0 −6−λ 3
[A − λI] =
det(A − λI ) = (2 − λ )(− 6 − λ ) − 9 = λ2 + 4λ − 21 GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-5 Les racines sont : λ = 3 et λ = −7. Ces valeurs de λ font que le système d'équations a des solutions non triviales, i.e. det (A - λI) = 0.
Théorème 3 : Propriétés des déterminants a) A est inversible si et seulement si det (A) ≠ 0. b) det (AB) = det (A) det (B). c) det (AT) = det (A) d) Si A est triangulaire, det (A) = le produit des éléments de la diagonale principale. e) Une opération élémentaire de remplacement Ei (jr) ne modifie pas det (A).
L'équation caractéristique : Un scalaire λ est une valeur propre de la matrice A carrée n×n si et seulement si λ vérifie l'équation caractéristique det (A -λI) = 0
Exemple : Trouver l'équation caractéristique de la matrice suivante : 5 − 2 6 − 1 0 3 − 8 0 . A= 0 0 5 4 0 0 0 1
Solution : 6 −1 5 − λ − 2 0 3− λ −8 0 det (A − λI ) = = (5 − λ )(3 − λ ) (5 − λ )(1 − λ ) 0 0 5−λ 4 0 0 1 − λ 0 (5 − λ)2 (3 − λ) (1 − λ) = 0 ou (λ − 5)2 (λ − 3) (λ − 1) = 0 λ4 - 14λ3 + 68λ2 - 130λ + 75 = 0
Polynôme caractéristique de A : polynôme de degré n = 4 λ = 5 = valeur propre de multiplicité 2 GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-6
Définition : 2 matrices carrées A et B n×n sont similaires s'il existe une matrice inversible P de telle sorte que P−1AP = B ou A = PBP−1.
Théorème 4 Si les 2 matrices A et B sont similaires, alors ces 2 matrices ont le même polynôme caractéristique et aussi les mêmes valeurs propres.
Démonstration :
B = P−1AP ⇒ B - λI = P−1AP - λ P−1P = P−1(A - λI)P det (B -λI) = det[P−1 (A -λI) P] = det (P−1) det (A - λI) det (P) Or
det (P−1) det (P) = det (P−1 P) = det( I ) = 1 ⇒ det (B -λI) = det (A - λI).
C.Q.F.D.
Note. Le calcul du polynôme caractéristique n'est pas la façon préconisée sur le plan numérique. La méthode dite du QR est la plus appropriée.
5.3 Diagonalisation d’une matrice 5 0 . Calculons les produits D2 et D3. Exemple 1 : Considérons la matrice diagonale D = 0 3
Solution : 5 0 5 0 5 2 0 2 D = 0 3 = 2 0 3 0 3 5 0 5 2 0 5 3 3 2 = D = DD = 2 0 3 0 3 0
0 3 3
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-7
En général,
k 0 D k = 5 pour k ≥ 1. k 0 3
7 2 . Trouver une formule pour Ak sachant que Exemple 2 : Considérons la matrice A = − 4 1
1 1 5 0 A = PDP−1 avec P = D = et 0 3. 1 2 − − Solution : Tout d'abord, il faut trouver P−1. À l'aide de la formule d'inversion pour une matrice carrée 2×2, 2 1 P −1 = . − − 1 1
Dès lors,
A2 = (PDP−1) ( PDP−1) = PD (PP−1) DP−1 = PDDP−1 = PD2P−1 1 5 2 1 2 A = − 1 − 2 0
0 2 1 3 2 − 1 − 1
1 5 k −1 1 k k A = PD P = − − 1 2 0
0 2 1 2 ⋅ 5k − 3k = 3 k − 1 − 1 2 ⋅ 3 k − 2 ⋅ 5 k
5k − 3k 2 ⋅ 3 k − 5 k
Théorème 5 : théorème sur la diagonalisation Une matrice carrée A n×n est diagonalisable si et seulement si A possède n vecteurs propres linéairement indépendants. De plus, A = PDP−1, avec D une matrice diagonale, si et seulement si les colonnes de P sont des vecteurs propres linéairement indépendants de A.
Dans un tel cas, les éléments de D
sont les valeurs propres de A et les colonnes de P les vecteurs propres correspondants. Les vecteurs propres de A forment une base pour Rn et porte le nom de base vecteur-propre.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-8 Démonstration : Soit P = [v1, ..., vn] et D = [λ1, ..., λn]. Alors
AP = A [v1, ..., vn] = [Av1, ..., Avn] PD = [λ1v1, ..., λnvn] Supposons que A soit diagonalisable, i.e. A = PDP−1. Dès lors,
AP = (PDP−1) P = PD ⇒
⇒
[Av1, ..., Avn] = [λ1v1, ..., λnvn]
Av1 = λ1v1, ..., Avn = λ1vn
Comme P est inversible, ses colonnes sont linéairement indépendantes. De plus, ces dernières relations montrent qu'il s'agit des valeurs et des vecteurs propres de A. 3 3 1 Exemple 3 : Diagonaliser la matrice suivante : A = − 3 − 5 − 3 . 3 3 1 Solution : Étape 1 : Trouver les valeurs propres de A.
Pour les besoins de la cause, voici le polynôme caractéristique : det (A - λI) = −(λ − 1) (λ + 2)2 Les racines sont λ = 1 et λ = −2. Étape 2 : Trouver 3 vecteurs propres linéairement indépendants.
Pour λ = 1,
1 v 1 = − 1 1
Pour λ = −2, nous obtenons que x1 = − x2 − x3 , d'où − x 2 − x 3 x = x 2 = x 2 x 3
− 1 − 1 1 +x 0 3 0 1
v2
v3
Il est facile de vérifier que ces 3 vecteurs sont linéairement indépendants.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-9 Étape 3 : Construire la matrice P avec les 3 vecteurs trouvés à l'étape 2. Dès lors,
P = [v 1 v 2
1 − 1 − 1 v 3 ] = − 1 1 0 1 0 1
Étape 4 : Construire la matrice D avec les valeurs propres.
0 1 0 D = 0 − 2 0 0 0 − 2 Vérification : 1 AP = − 3 3 1 PD = − 1 1
3 3 1 − 1 − 1 1 2 2 = − 1 − 2 0 0 − 5 − 3 − 1 1 3 1 1 0 1 1 0 − 2 ⇒ OK − 1 − 1 1 0 0 1 2 2 1 0 0 − 2 0 = − 1 − 2 0 0 1 0 0 − 2 1 0 − 2
4 3 2 Exemple 4 : Diagonaliser la matrice suivante : A = − 4 − 6 − 3. 3 3 1 Solution : Étape 1 : Obtenir le polynôme caractéristique :
0 = det (A − λI ) = −λ 3 − 3λ2 + 4 = −(λ − 1)(λ + 2) 2 Les racines sont : λ = 1, et λ = -2 de multiplicité 2. Étape 2 : Trouver les vecteurs propres. 1 λ = 1 ⇒ v 1 = − 1 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-10 4 3 0 4 4 3 0 2 + 2 λ = −2 ⇒ − 4 − 6 + 2 − 3 0 ≈ 0 0 0 0 3 3 1 + 2 0 0 0 1 0 − 1 v 2 = 1 0
On constate qu'il n'y a qu'un seul vecteur propre associé à la valeur propre de multiplicité 2 qu'est λ = −2. Conclusion : Il ne peut y avoir que 2 vecteurs propres indépendants. Il est impossible de géné-
rer l'espace R3 à partir de ces 2 vecteurs propres. D'après le théorème 5, la matrice n'est pas diagonalisable .
Théorème 6 Une matrice carrée n×n ayant n valeurs propres distinctes est diagonalisable.
Démonstration : Voir le théorème 2. 5 − 8 1 Exemple 5 : La matrice A = 0 0 7 est-elle diagonalisable ? 0 0 − 2
Solution : À noter que c'est un matrice triangulaire. Donc λ1 = 5, λ2 = 0, λ3 = -2. Ces 3 valeurs propres sont distinctes ⇒ A est diagonalisable.
Théorème 7 Soit A une matrice n×n avec les valeurs propres distinctes λ1, ..., λp. a) Pour 1 ≤ k ≤ p, la dimension de l'espace vecteur-propre pour λk est ≤ à la multiplicité de λk. b) A est diagonalisable si et seulement si la somme des dimensions des espaces vecteurspropres est égale à n. c) Si A est diagonalisable, l'ensemble des vecteurs propres engendre Rn.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-11
Valeurs propres complexes Le polynôme caractéristique est un polynôme de degré n. Il a donc n racines. Il se peut que des racines soient des nombres complexes. Si un polynôme a des racines complexes, alors, comme les éléments de la matrice sont des nombres réels, les racines complexes existent par paires conjuguées, i.e. λ = a + i b et λ = a − i b . Bien entendu, les vecteurs propres associés sont aussi complexes, et ils sont aussi formés d'éléments conjugués.
5.4 Application aux équations différentielles Considérons le système d'équations différentielles simultanées suivant : x 1′ = a 11 x 1 + ⋯ + a 1n x n x 2 ′ = a 21 x 1 + ⋯ + a 2n x n ⋮
x n ′ = a n1 x 1 + ⋯ + a nn x n a 11 x ′ = Ax = ⋮ a n1
ou
avec
x′ =
⋯
a 1n x 1 ( t )
⋮ a nn x n ( t ) ⋮
⋯
dx( t ) . dt
... (5.1)
... (5.2)
Une solution de ce système est la fonction vectorielle x(t) qui vérifie (5.1) pour toutes les valeurs de t dans un intervalle de variation de t. Comme il s'agit d'un système linéaire, si u et v sont des solutions, alors cu + dv est aussi une solution. En ingénierie, il s'agit du principe de superposition des solutions. Les bouquins sur les équations différentielles montrent qu'il existe toujours un ensemble fondamental de solutions pour (5.1). Toute solution de (5.1) est alors une combinaison linéaire unique de ces n fonctions. L'ensemble fondamental des solutions devient une base pour l'ensemble de toutes les solutions. Si le vecteur x0 est spécifié, alors il s'agit d'un problème à valeurs initiales, et il faut alors la solution unique avec la perspective que la fonction x est telle que x' = Ax avec la condition que x(0) = x0.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-12
Lorsque A est une matrice diagonale, les solutions de (5.1) s'obtiennent à l'aide de la
théorie de base des équations différentielles. Voici un exemple illustratif : x ′ ( t ) 3 0 x1 (t ) 1′ = x 2 (t ) 0 − 5 x 2 ( t )
x 1′ ( t )
... (5.3)
= 3x 1 ( t )
x 2′ ( t ) = −5x 2 ( t ) Le système (5.3) est dit découplé, car chaque dérivée ne dépend que de sa fonction elle-même et qu'elle n'est pas reliée ou combinée avec l'autre. D'après la théorie fondamentale de l'intégration, x1 ( t ) c1e 3t 1 3t 0 −5 t c e c = = + 1 2 e x ( t ) −5t 0 c e 2 2 1
Ce cas particulier nous indique cependant la forme générale de la solution de l'équation
x' = Ax
... (5.4)
i.e. une combinaison linéaire des
x(t) = veλt
... (5.5)
Notons aussi que
x'(t) = λveλt = Aveλt
Comme eλt est toujours ≠ 0, alors Av = λv si et seulement si λ est une valeur propre de A et
v son vecteur propre correspondant. Chaque couple valeur-vecteur propre fournit une solution de x’ = Ax. Ces solutions portent le nom de fonctions propres de l’EDO. Exemple : Supposons une particule se déplaçant dans un champ planaire et que sa position x vérifie la condition x' = Ax avec x(0) = x0 : 4 − 5 2,9 x et = 0 2,6 . 2 1 −
A=
Solutionner ce problème aux valeurs initiales. Solution : 4−λ −5 = λ2 − 5λ − 6 = 0 − 2 1− λ Les racines sont : λ = 6 et λ = -1. Les valeurs étant distinctes, A est diagonalisable. Les vecteurs propres correspondants sont :
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-13
− 5 1 v 1 = et v 2 = . 2 1
Dès lors, − 5 6 t 1 − t e c + 2 e 2 1
x ( t ) = c1
Pour déterminer les valeurs de c1 et c2, à t = 0, − 5 + c2 2
c1
x( t ) =
Donc
1 2,9 1 = 2,6
⇒
c1 = −3/70 et c2 = 188/70.
− 3 − 5 6 t 188 1 − t e + e . 70 2 70 1
Découplage d'un système mécanique : Supposons un système mécanique décrit par la relation x' = Ax, A étant une matrice carrée n×n, et que la matrice A soit diagonalisable. Posons alors que les fonctions solutions sont de la forme v1eλ1t, ..., vneλnt, où v1, ..., vn sont les vecteurs propres linéairement indépendants. Dès lors, A = PDP−1, où P = [v1, ..., vn]. Définissons une nouvelle fonction y telle que
y ( t ) = P −1 x ( t ) ⇔ x ( t ) = P y ( t )
... (5.6)
Dès lors, d (Py ) = A (Py ) = (PDP −1 )Py = PDy dt Py' = PDy ⇒ P −1 Py' = P −1 PDy ⇒ y' = Dy où
y'1 ( t ) λ1 0 0 y1 ( t ) ⋮ = 0 ⋮ 0 ⋮ y' n ( t ) 0 0 λ n y n ( t )
... (5.7)
Ce changement de variable a permis de découplé le système mécanique. Rappelons que
x(t) = Py(t) = [v1, ..., vn] y(t) = c1v1eλ1t + ... + cnvneλnt c1eλ 1t c1 λ 2t c c2e y ( t ) = , avec 2 = y ( 0) = P−1x 0 ⋮ ⋮ λ nt cn cn e GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-14
Valeurs propres complexes : Lorsqu'une matrice avec éléments réels possède des valeurs propres complexes, celles-ci existent alors par paires conjuguées, i.e. λ et λ avec les vecteurs propres correspondants conjuguées v et v. Dès lors, 2 solutions de x' = Ax sont : x 1 ( t ) = ve λt et x 2 ( t ) = ve λ t . Dans la pratique, il est plus facile de négocier avec des fonctions réelles. Notons tout d'abord que les parties réelle et imaginaire de x1(t) sont des solutions réelles de x' = Ax. Posons que Re v = partie réelle de v Im v = partie imaginaire de v
v = Re v + i Im v v = Re v − i Im v Dès lors,
v + v = 2 Re v v − v = 2 i Im v
Donc
1 1 Re (ve λt ) = [v + v] et Im(ve λt ) = [v − v ] 2 2i
Rappel (fonctions complexes) :
e (a +ib )t = e at ⋅ e ibt = e at (cos bt + i sin bt )
... (5.8)
Alors
ve λt = (Re v + i Im v ) e at (cos bt + i sin bt ) = [(Re v ) cos bt − (Im v ) sin bt ] e at + i [(Re v ) sin bt + (Im v ) cos bt ] e at
Les 2 solutions réelles de x' = Ax sont :
y1 (t ) = Re x1 (t ) = ( Re v ) cos bt − ( Im v ) sin bt e at y 2 (t ) = Im x1 (t ) = ( Re v ) sin bt + ( Im v ) cos bt e at À noter que les valeurs propres complexes conjuguées permettent d'avoir des solutions périodiques (oscillations, vibrations, ...). La fonction eat peut alors jouer le rôle d'amortissement.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-15
Exemple : Solutionner le système différentiel linéaire suivant : −2 −2.5 3 d x = Ax avec A = x = et 0 ( ) 3 . 10 2 − dt
Solution : i λ 1 = −2 + 5i, v1 = . 2 i x1 ( t ) = e ( −2+5i ) 2 −i x 2 ( t ) = e( −2−5i ) = x1 ( t ) ( complexe conjugué) 2
Or, la solution complexe devient i i x1 ( t ) = e( −2+5i ) = e −2t ( cos5t + i sin 5t ) 2 2 − sin5t −2 t y1 ( t ) = Re ( x1 ( t ) ) = e 2cos5 t cos5t −2 t y1 ( t ) = Im ( x1 ( t ) ) = e t 2sin5 Dès lors,la solution réelle devient − sin 5t −2 t cos5t −2 t x ( t ) = c1 e + c 2 e 2cos5 2sin 5 t t
Il faut déterminer c1 et c2. À t = 0, 0 1 3 c1 + c2 = ⇒ c1 = 1.5 et c2 = 3 2 0 3 Donc − sin 5t −2 t cos5t −2 t 3 x ( t ) = 1.5 e + 2sin 5t e t 2 cos5
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-16
5.5 Méthode itérative pour obtenir les valeurs propres Dans plusieurs problèmes d'ingénierie, il n'est pas nécessaire de connaître avec précision les valeurs propres. Dans un tel cas, la voie est ouverte pour l'utilisation de méthodes itératives pour le calcul des valeurs propres. Une méthode itérative, dite la méthode de Jacobi, s'applique aux matrices symétriques.
Définition : Une matrice carrée A n×n est dite symétrique si A = AT, i.e. aij = a ji ∀ i ≠ j. (ATA)T = ATA ⇒ ATA symétrique.
De plus,
Définition : Une matrice carrée U est dite orthogonale si UUT = UTU = In. De plus, l'inverse de U est égale à sa transposée, i.e. U−1 = UT. Si U et V sont orthogonales, alors (UV )T (UV ) = (V T U T )(UV) = V T (U T U)V = V T V = I n Une matrice orthogonale U ne modifie pas le produit scalaire, la longueur et l'angle : (Ux) ⋅ (Uy) = x ⋅ y
Ux = x
∀ x, y ∀x
〈 (Ux , Uy ) = 〈 (x , y ) ∀ x, y non nuls
(< : angle)
Les lignes et les colonnes d'une matrice orthogonale sont des vecteurs unitaires et sont mutuellement perpendiculaires.
Exemple : Soit la matrice rotation définie par cos θ − sin θ Rθ = sin θ cos θ cos θ sin θ Notons que RθT = Rθ−1. En effet, R θ T = − sin θ cos θ
... (5.9) et, à l'aide de la formule pour cal-
cos θ sin θ culer l'inverse d'une matrice 2×2, R θ−1 = . − θ θ sin cos GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-17
Pour un cas plus général, la matrice de rotation pour les lignes i et j, i < j, d'une matrice n×n se définit par la matrice suivante : 1 ⋮ 0 R ij (θ) = ⋮ 0 ⋮ 0
0
⋯
0
⋯
⋮
0
⋯
cos θ
⋯
⋮ ⋯
⋮
0
⋯
⋮
⋮
0
0
sin θ ⋮
⋯
0 col. i
− sin θ ⋯
cos θ
⋯
⋮ ⋯
0 col. j
0 ⋮ 0 ⋮ 1 ⋮
⋮ ⋯
0
⋯
ligne i ligne j
Définition : Les matrices A et B sont dites similaires s'il existe une matrice inversible telle que P−1AP = B ou de façon équivalente, PBP−1 = A. Le fait de changer la matrice A en la matrice B s'appelle une transformation de similarité.
Comme nous l'avons vu précédemment, 2 matrices similaires ont le même polynôme caractéristique et, par le fait même, les mêmes valeurs propres. De plus, si la matrice P est une matrice orthogonale U, alors la transformation de similarité B = U−1AU, alors B est dite en similarité orthogonale avec A.
Théorème sur la diagonalisation d'une matrice symétrique : Soit une matrice symétrique A d'ordre n. Il y a alors une matrice orthogonale U telle que UTAU = diag ( λ1, ..., λn). De plus les valeurs propres de A sont réelles, et les vecteurs propres v1, ..., vn sont les colonnes de U et forment une base de vecteurs orthonormés.
Exemple : La transformation de similarité suivante (rotation autour de l'axe y) 1 / 2 0 1 / 2 3 0 1 1 / 2 0 − 1 / 2 4 0 0 0 − = 0 − 3 0 0 1 0 0 3 0 1 0 − 1 / 2 0 1 / 2 1 0 3 1 / 2 0 1 / 2 0 0 2
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-18
A = A diag (4, -3, 2) UT = U−1 U = R13(π /4) T Si A est symétrique, U orthogonale et B = U AU, alors BT = (UTAU)T = UTATU = UTAU = B d'où l'on tire que B aussi est une matrice symétrique. Dès lors, BT = Rij(θ) TA Rij(θ) est une matrice symétrique. Examinons maintenant l'effet des multiplications matricielles des matrices de rotation
Rij(θ) sur la matrice A. Soit une matrice A n×n symétrique pré-multiplié par une la matrice de rotation Rij(θ)T et post-multiplié par Rij(θ). La matrice B ainsi obtenue est la même que la matrice A sauf pour les lignes i et j pour lesquelles nous obtenons que bij = b ji = aij [cos2θ - sin2θ] + (a jj - aii) sinθ cosθ
...(5.10)
bik = bkj = aik cosθ + a jk sinθ
∀ k ≠ i, j (lign. i et col. i de B)
...(5.11)
b jk = bkj = −aik sinθ + a jk cosθ
∀ k ≠ i, j (lign. j et col. j de B)
...(5.12)
bii = aii cos2θ + a jj sin2θ + 2aij sinθ cosθ
...(5.13)
b jj = aii sin2θ + a jj cos2θ − 2aij sinθ cosθ
...(5.14)
Méthode de Jacoby pour une matrice symétrique : Choisissons l'angle θ de telle sorte que bij = b ji = 0. Dès lors, a ij cos(2θ ) +
1 (a − a )sin(2θ) = 0 2 jj ii
...(5.15)
L'angle en radian s'obtient à l'aide de 1 − 2a ij si a ii ≠ a jj tg 1 a ii − a jj 2 θ= π si a ii = a jj 4
...(5.16)
Si A est symétrique et i ainsi que j sont les indices de l'élément hors diagonal le plus grand en valeur absolue, alors, avec une rotation pour que bij = b ji = 0, la matrice B devrait se rapprocher plus près d'être une matrice diagonale que A. Cette procédure itérative qui cherche par une suite de transformations de rotation à rapprocher B d'une matrice diagonale s'appelle la méthode de Jacoby, i.e. en débutant avec la matrice A0 = A, la méthode une suite de matrices de rotation de telle sorte que GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-19
A k = R k T A k −1 R k → D = diag (λ1 , ⋯ , λ n ) alors que k → ∞
...(5.17)
Puisque A0 = A, nous pouvons exprimer Ak en fonction de A selon la procédure suivante : ...(5.18) A k = U k T AU k avec U k = R 1 R 2 ⋯ R k = U k −1 R k La matrice Uk dans (5.18) est le produit de matrices orthogonales, d'où le fait qu'elle-même est orthogonale. À mesure que k → ∞, le théorème sur la diagonalisation d'une matrice symétrique garantit que Uk → U. Il faut bien noter que la méthode de Jacobi génère des valeurs propres approchées et non exactes ; il en est de même pour les vecteurs propres.
Notation : Pour simplifier la notation, les matrices de rotation se noteront Rk = Rij(θk) Sk = sin θk Ck = cos θk
Exemple : Exécuter 3 itérations à l'aide de la méthode de Jacobi sur la matrice suivante : 3 0,01 0,02 A = 0,01 2 0,1 . 0,02 0,1 1
Solution : La plus grande valeur absolue pour un élément hors diagonale principale est a23 = 0,1. Dès lors, θ1 =
1 −1 2a 23 1 −1 2 (0,1) = tg tg = 0,0985376 radians − − 2 a a 2 2 1 22 33
C1 = cos θ1 = 0,995133 et S1 = sin θ1 = 0,0985376 0 0 3 0,01 0,02 1 0 0 1 0,1 0 C1 − S1 A 1 = R 1 T A 0 R 1 = 0 C1 S1 0,01 2 0 − S1 C1 0,02 0,1 1 0 S1 C1 3 0,011922 0,018917 = 0,011922 2,009902 0 0,018917 0 0,990098
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-20 Il faut remarquer ici que l'arrivée des éléments a23 = a 32 = 0 a fait augmenter légèrement les éléments a12 = a21. Le nouvel élément hors diagonale principale le plus grand en valeur absolue est maintenant a13 = a31 = 0,018917 ; à noter cependant qu'il est plus petit que a23 = a32 de la matrice A0. Notons aussi que U1 = R1. Si nous continuons, θ2 =
1 −1 2a 13 1 −1 2 (0,018917 = tg tg = 0,0094179 2 a a − 3 − 0,990098 11 33 2
C2 = cos θ2 = 0,999956 et S2 = sin θ2 = 0,00941065 3 0,011922 0,018917 C 2 C 2 0 S2 0 0 A 2 = 0 1 0 0,011922 2,009902 − S 2 0 C 2 0,018917 0 0,990098 S 2 0 3,000178 0,011922 = 0,011922 2,009902 − 0,000112 0 − 0,000112 0,989920
0 − S2 1 0 0 C 2
0 0 1 0,999956 0 − 0,009411 U 2 = 0 0,995133 − 0,098538 0 1 0 0 0,098538 0,995133 0,009411 0 0,999956 − 0,009411 0 0,999956 = − 0,000927 0,995133 − 0,098533 0,009365 0,098538 0,995089 Avec une 3ième itération, nous obtenons que θ3 = 0,012035. Dès lors,
A3 = R3TA2R3 , U3 = U2R3 et 3,00032 A 3 = 0 − 1,35E − 06 0,999883 U 3 = 0,0110502 0,0105503
0 − 1,35E − 06 2,00976 − 1,12E − 4 − 1,12E − 4 0,989920 0,0120355 − 0,0094108 0,995072 − 0,0985332 0,0984177 0,995089
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-21
Méthode dite du QR. La méthode la plus efficace pour obtenir les valeurs propres et les vecteurs propres d'une matrice carrée quelconque est la méthode dite du QR. Cette méthode implique une série de transformations orthogonales de similarité sur la matrice A pour la réduire à une matrice triangulaire ou quasi-triangulaire. La description de cette méthode sort du cadre de ce cours. Pour plus de détails, le lecteur devrait se référer à Stewart, G. W. (1973), Introduction to Matrix Computations , Academic Press, New york, p. 327-394.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-22
Problèmes sur le chapitre 5 3 2 Problème 1 (Lay, #1, p. 308) . Est-ce que λ = 2 est une valeur propre de la matrice A = ? Oui 3 8
Problème 2
(Lay, #7, p. 308)
.
Est-ce que λ = 4 est une valeur propre de la matrice
3 0 −1 A = 2 3 1 ? Si oui, trouver un vecteur propre qui lui est associé. Oui et x = (1, 1, -1). −3 4 5
Problème 3 (Lay, #21, p. 309) . Déterminer si l’énoncé est vrai ou faux et justifier la réponse. a) Si Ax = λx pour un vecteur quelconque x, alors λ est une valeur propre de A. Faux b) Une matrice A n’est pas inversible ssi λ = 0 est une valeur propre de A. Vrai c) Un nombre c est une valeur propre de A ssi l’équation ( A − cI ) x = 0 a une solution non triviale. Vrai d) Pour trouver une valeur propre de A, il suffit de ramener A à une matrice échelon. Faux
Problème 4 (Lay, #25, p. 309) . Démontrer que si λ est une valeur propre d’une matrice inversible A, alors λ-1 est une valeur propre de A-1.
Problème 5
(Lay, #3, p. 317)
3 −2 . Trouver le polynôme caractéristique de la matrice A = . − 1 1
Rép. : λ 2 − 2λ − 1 1 0 −1 Problème 6 (Lay, #9, p. 317) . Trouver le polynôme caractéristique de la matrice A = 2 3 −1 . 0 6 0
Rép. : −λ 3 + 4λ 2 − 9λ − 6
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-23
Problème 7 ( Lay, #17, p. 318) . Trouver les valeurs propres de la matrice 3 0 −5 1 A= 3 8 0 −7 −4 1
0 0 0 0 0 0 2 1 9 −2
0 0 0 Rép. : λ1,2 = 1, λ3,4 = 3, λ 5 = 0 0 3
Problème 8 (Lay. #3, p. 325) . Utiliser la factorisation A = PAP-1 pour calculer Ak, où k est un nombre positif arbitraire. 0 1 0 a 0 1 0 a 3 ( a − b ) b = 3 1 0 b −3 1 a k Rép. : k k 3a − 3b
0 bk
1 0 Problème 9 (Lay, #7, p. 326) . Diagonaliser la matrice A = . − 6 1 1 0 1 0 , Rép. : P = D = 0 −1 3 1 3 −1 Problème 10 (Lay, #9, p. 326) . Diagonaliser la matrice A = . Non diagonalisable. 1 5
Problème 11 ( Lay, #21 et #22, p. 326) . Déterminer si l’énoncé est vrai ou faux et justifier la réponse. • A est diagonalisable si A = PDP -1 pour une matrice quelconque D et une matrice quelconque inversible P. Faux • Si Rn a comme base les vecteurs propres de A, alors A est diagonalisable. Vrai • A est diagonalisable ssi A a n valeurs propres y compris les valeurs propres multiples. Faux • Si A est diagonalisable, alors A est inversible. Faux • Si A est inversible, alors A est diagonalisable. Faux • Si AP = PD, avec D diagonale, alors les colonnes non nulles de P correspondent doivent être des vecteurs propres de A. Vrai Problème 12 (Lay, #33, p. 326) . À l’aide de MATLAB, diagonaliser la matrice suivante : −6 4 −3 0 A= −1 −2 4 4 −
0 1 1 0
9 6 0 7
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
5-24 5 0 Rép. : D = 0 0
0 0 0 1 0 0 , 0 −2 0 0 0 − 2
2 2 1 −1 P= −1 − 7 2 2
1 6 1 −3 1 0 0 4
Problème 13 (Lay, #10, p. 361) . Trouver la solution réelle générale du système différentiel linéaire suivant : 3
1 cos t − sin t 2 t sin t + cos t 2 t . : x Rép c e + c 1 2 e −2 1 −2 cos t −2sin t
x' =
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
CHAPITRE 6 Orthogonalité et moindres carrés Objectifs d’apprentissage -
Comprendre la notion d’orthogonalité de 2 vecteurs et d’ensemble orthogonal et orthonormé.
-
Saisir la notion de projection orthogonale.
-
Interpréter géométriquement une projection orthogonale avec ses propriétés.
-
Comprendre ce qu’est un problème au sens des moindres carrés. Solution.
-
Comprendre et interpréter le lissage d’une droite (courbe de tendance dans EXCEL) au sens des moindres carrés.
-
Comprendre le procédé de Gram-Schmidt pour obtenir une base orthogonale et orthonormée.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-2
Chapitre 6 Orthogonalité et moindres carrés 6.1 Produit scalaire ou intérieur. Longueur. Orthogonalité. Définition : Le produit scalaire (ou produit intérieur) de 2 vecteurs u et v, que l’on note uT v ou aussi u ⋅ v se définit comme v1 v T u v = [u 1 u 2 ⋯ u n ] 2 = u 1 v1 + u 2 v 2 + … + u n v n ⋮ v n
... (6.1)
n
= ∑ u i vi i =1
u1 v1 u v 2 avec u = et v = 2 . ⋮ ⋮ u n v n
2 3 Exemple : Calculer u ⋅ v et v ⋅ u pour les vecteurs u = − 5 v = 2 . − 1 − 3
Solution :
u ⋅ v = uT v = (2)(3) + ( −5)(2) + (−1)(−3) = −1 v ⋅ u = vT u = (3)(2) + (2)(−5) + (−3)(−1) = −1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-3
Théorème 1 a) b) c) d)
Soient u, v et w ∈ Rn, et c un scalaire. Alors u ⋅ v = v ⋅ u (u + v) ⋅ w = u ⋅ w + v ⋅ w (cu) ⋅ v = c(u ⋅ v) = u ⋅ (cv) u ⋅ u ≥ 0 et u ⋅ u = 0 si et seulement si u = 0.
Longueur d’un vecteur : La longueur ou la norme d’un vecteur v ∈ Rn, que l’on note v , le scalaire
v = v⋅v =
n
∑ v i2
... (6.2)
i =1
cv = c v
... (6.3)
Un vecteur u dont la longueur est 1 s’appelle un vecteur unitaire. Pour rendre unitaire ou normaliser un vecteur v,
u =
v v
... (6.4)
Exemple : Soit v = (1, -2, 2, 0). Trouver un vecteur unitaire u dans la même direction que v. Solution : Calcul de la longueur de v : v 2 = v ⋅ v = (1) 2 + (−2) 2 + (2) 2 = 9
v = 9 = 3 1 1 / 3 v v 1 − 2 − 2 / 3 Calcul du vecteur unitaire u : u = . = = = v 3 3 2 2 / 3 0 0
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-4
Distance dans Rn : Soient u, v ∈ Rn. La distance entre les points u et v est la longueur du vecteur (u − v), que l'on note dist (u − v) et dist (u − v) = (u − v) 7 3 Exemple : Calculer la distance entre les 2 points suivants : u = et v = . 1 2
Solution : Tout d'abord,
v
7 3 4 u−v = − = . 1 2 − 1
u
u − v = 4 2 + (−1) 2 = 17
-
u-v
Vecteurs orthogonaux : Considérons dans R2 ou R3 2 droites passant par l'origine et décrites par les vecteurs u et v, comme le montre la fig. ci-contre. Les 2 droites sont géométriquement perpendiculaires si et seulement si la droite passant par u est
u - v
v
une bissectrice perpendiculaire du segment de droite reliant les points -v et v. C'est un énoncé équivalent à exiger que les distances
u - (- v)
origine
u - v et u - (- v) soient égales. −v
Dès lors, 2
2
dist ( u − v ) = u − ( −v ) = ( u + v ) ⋅ ( u + v )
= u ⋅ (u + v) + v ⋅ (u + v) = u ⋅ u + u ⋅ v + v ⋅ u + v ⋅ v = u 2 + v 2 + 2 u ⋅ v
... (6.1)
En procédant de la même façon avec v, GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-5
[dist (u, v )]2 = u
2
+ v
2
− 2u ⋅ v
Ces 2 distances sont égales si et seulement si u ⋅ v = 0, i.e. si u et v sont orthogonaux.
Définitions : Les vecteurs u, v ∈ Rn sont orthogonaux si u ⋅ v = 0. Si un vecteur z est orthogonal à tous les vecteurs d'un sous-espace W de Rn, alors il est dit orthogonal à W . L'ensemble de tous les vecteurs z orthogonaux à W s'appelle le complément orthogonal de W , que l'on dénote par W ⊥ .
Exemple : Considérons un plan W passant par l'origine dans R3, posons que L est une droite passant par l'origine et qu'elle est perpendiculaire au plan. Alors w ∈ W et z ∈ L sont perpendiculaires. De plus, L = W ⊥ et W = L⊥ . W
.
0
w 90o
z L
1. Un vecteur x ∈ W ⊥ si et seulement si x est orthogonal à tout vecteur d'un ensemble qui génère W . 2. W ⊥ est un sous-espace de Rn.
Théorème 3 Soit une matrice A m × n. Alors
[R (A )] ⊥ = N (A ) et [C (A )]⊥ = N (A T )
... (6.2)
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-6 Démonstration :
ri
A
x
=
0
Ax = 0 ⇒ ri ⋅ x = 0 ∀i
i
Donc x est orthogonal à R (A). Même raisonnement avec AT.
6.2 Ensembles orthogonaux Un ensemble de vecteurs {u1, ..., up} de Rn est un ensemble orthogonal si ui ⋅ u j = 0 ∀ i ≠ j.
Exemple : Montrer que les 3 vecteurs suivants forment un ensemble orthogonal. 3 − 1 − 1 / 2 u 1 = 1, u 2 = 2 , u 3 = − 2 . 1 1 7 / 2
Solution :
u1 ⋅ u2 = 3(-1) + 1(2) + 1(1) = 0 u1 ⋅ u3 = 3(-1/2) + 1(-2) + 1(7/2) = 0 u2 ⋅ u3 = -1(-1/2) + 2(-2) + 1(7/2) = 0 Donc {u1, u2, u3} est un ensemble orthogonal.
Théorème 4 Si S = {u1, ..., up} est un ensemble orthogonal de vecteurs non nuls dans n R , alors S est linéairement indépendant et forme ainsi une base pour le sousespace généré par S . Démonstration : Par définition,
0 = c1u1 + c2u2 + ... + cpup
Dès lors,
0 = 0 ⋅ u1 = c1 (u1 ⋅ u1) + c2 (u2 ⋅ u1) + ... + cp (up ⋅ u1) = c1 (u1 ⋅ u1) ⇒ c1 = 0 car u1 ≠ 0.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-7
Définition : Une base orthogonale pour un sous-espace W de Rn est une base pour W , laquelle est en même temps un ensemble orthogonal.
Théorème 5 Soit {u1, ..., up} une base orthogonale pour un sous-espace W de R . Alors tout vecteur y ∈ W a une représentation unique comme combinaison linéaire des vecteurs u1, ..., up. De fait, n
y = c1u1 + ... + cpup avec
c j =
y ⋅ u j u j ⋅ u j
(j = 1, ..., p)
Exemple : Pour W comprenant les 3 vecteurs de l'exemple précédent que l'on considère une 6 base, exprimer y = 1 comme une combinaison linéaire de cette base. − 8
Solution :
y ⋅ u1 = 11
y ⋅ u2 = -12
y ⋅ u3 = -33
u1 ⋅ u1 = 11
u2 ⋅ u2 = 6
u3 ⋅ u3 = 33/2
y=
11 − 12 − 33 u1 + u2 + u = u 1 − 2u 2 − 2u 3 11 6 33 / 2 3
Projection orthogonale : Soit un vecteur non nul u ∈ Rn. Considérons le problème de décomposer un vecteur
y ∈ Rn dans la somme de 2 vecteurs, le premier un multiple de u et le second un vecteur orthogonal à u. Dès lors,
y = yˆ + z où
... (6.3)
yˆ = αu où α est un scalaire et z un vecteur orthogonal à u.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-8
z = y − yˆ
y
0
yˆ = αu
u
Alors z = y − αu est orthogonal à u si et seulement si 0 = (y − αu )⋅ u = y ⋅ u − (αu )⋅ u = y ⋅ u − α(u ⋅ u ) ⇒
α=
y ⋅u u ⋅u
yˆ =
et
y ⋅u u. u ⋅u
De plus
Projection orthogonale de y sur u
z=y−
y ⋅u u u ⋅u
Composante de y orthogonale à u
7 4 Exemple : Soit y = et u = . Trouver la projection orthogonale de y sur u. 6 2
Solution:
Calcul
7 4 y ⋅ u = ⋅ = 40 6 2 4 4 u ⋅ u = ⋅ = 20 2 2
Dès lors
7 8 − 1 40 4 8 yˆ = = et y − yˆ = − = 20 2 4 6 4 2
La somme des 2 vecteurs :
7 8 − 1 6 = 4 + 2
y
yˆ
(y − yˆ )
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-9 8 − 1 yˆ ⋅ (y − yˆ ) = ⋅ = −8 + 8 = 0 4 2
Autre vérification :
De plus, un autre fait intéressant : la distance entre de y avec la droite L passant par l'origine et dans la direction u est donnée par la longueur de (y − yˆ ) i.e.
y − yˆ = (− 1)2 + 2 2 = 5
.
L = {x x = β u }
y
yˆ y − yˆ
Application en mécanique : Décomposer une force en composantes :
F⋅u 1 F⋅u 2 F= u1 + u 2 = F cos θ u1 + F sin θ u 2 u 1 ⋅ u1 u2 ⋅ u2 si u 1 et u 2 = 1.
Ensemble orthonormé : Un ensemble orthogonal de vecteurs {u1, ..., up}est orthonormé si u1 = ⋯ = u p = 1 . Théorème 6 Une matrice U m × n possède des colonnes orthonormées si et seulement si UTU = I.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-10
Théorème 7 Soit une matrice U m × n avec des colonnes orthonormées et posons que x et y ∈ Rn. Alors a. Ux= x b. (Ux) ⋅ (Uy) = x ⋅ y c. (Ux) ⋅ (Uy) = 0 si et seulement si x ⋅ y = 0. Démonstration (théorème 6) :
U = [u 1 u 2
u T u T u 1 u T u 2 1 1 T 1T T T u 3 ] et U = u 2 ⇒ U U = u 2 u 1 u T2 u 2 T T T u 3 u 3 u 1 u 3 u 2
u 1T u 3 u T2 u 3 = I u 3T u 3
C.Q.F.D. 1 / 2 2 / 3 2 Exemple : Posons que U = 1 / 2 − 2 / 3 et x = . Vérifier que Ux = x . 3 0 1 / 3
Solution : 1 / 2 2 / 3 1 0 1 / 2 1 / 2 0 UTU = 1 / 2 2 / 3 − = 0 1 2 / 3 2 / 3 1 / 3 − 0 1 / 3 1 / 2 2 / 3 3 2 Ux = 1 / 2 − 2 / 3 = − 1 ⇒ Ux = 9 + 1 + 1 = 11 0 3 1 1 / 3
x = 2 + 9 = 11 Une matrice orthogonale est une matrice carrée inversible telle que U-1 = UT. Dès lors, une matrice orthogonale a des colonnes orthonormées. De plus, toute matrice carrée dont les colonnes sont orthonormées est orthogonale.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-11
6.3 Projections orthogonales Pour un vecteur donné y et un sous-espace W dans Rn, il existe un vecteur yˆ dans W tel que (1) yˆ est l'unique vecteur dans W pour lequel y − yˆ est orthogonal à W , (2) yˆ est l'unique vecteur dans W qui soit le plus près de y.
.y W
0
.yˆ
Exemple : Soit {u1, ..., u5 } une base orthogonale pour R5 et posons que y = c1u1 + ... + c5u5. Considérons maintenant un sous-espace W = Gen{u1, u2} et posons que y = c1u1 + c2u2 +c3u3 +c4u4 + c5u5 où
z1 = c1u1 + c2u2
⇒
z1 ∈ Gen {u1, u2}
z2 = c3u3 + c4u5 + c5u5
⇒
z2 ∈ Gen {u3, u4, u5}
=0 =0 =0 Or z2 ⋅ u1 = (c3u3 + c4u5 + c5u5) ⋅ u1 = c3u3 ⋅ u1 + c4u4 ⋅ u1 + c5u5 ⋅ u1 = 0. Donc z 2 ∈ W ⊥ .
Théorème 8 Soit W un sous-espace de Rn. Alors tout y ∈ Rn peut s'écrire de façon unique dans la forme y = yˆ + z avec yˆ ∈ W et z ∈ W ⊥ . De plus, si {u1, ..., up} forme une base orthogonale pour W , alors y ⋅up y ⋅ u1 yˆ = u1 + ⋯ + u u1 ⋅ u1 up ⋅up p ...(6.4) z = y − yˆ
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-12 Le vecteur yˆ s'appelle la projection orthogonale de y sur W , que l'on note aussi projW y.
z = y − yˆ
0
y
.
yˆ = projW y
W 2 − 2 1 Exemple : Posons que u 1 = 5 , u 2 = 1 et y = 2. Écrire y comme la somme d'un − 1 1 3
vecteur de W = Gen {u1, u2) et un vecteur orthogonal à W . Solution : 2 − 2 − 2 / 5 y ⋅ u1 y ⋅ u2 9 3 yˆ = u1 + u 2 = 5 + 1 = 2 u1 ⋅ u1 u2 ⋅ u2 30 6 − 1 1 1 / 5 1 − 2 / 5 7 / 5 z = y − yˆ = 2 − 2 = 0 3 1 / 5 14 / 5 1 − 2 / 5 7 / 5 y = 2 = 2 + 0 3 1 / 5 14 / 5
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-13
Interprétation géométrique de la projection orthogonale dim W = 1 ⇒ yˆ =
y ⋅ u1 u u1 ⋅ u1 1
dim W > 1 ⇒ yˆ =
y ⋅up y ⋅ u1 u1 + ⋯ + u u1 ⋅ u1 up ⋅up p
et chaque terme est lui-même une projection orthogonale de y dans un sous-espace généré par un des vecteurs u dans la base de W . La projection yˆ est donc la somme des projections de y dans des sous-espaces unidimensionnels mutuellement orthogonaux.
u2
.
y
.
yˆ = yˆ 1 + yˆ 2
yˆ 2
yˆ 1
u1
Propriété des projections orthogonales : {u1, ..., up} une base orthogonale de W et y ∈ W , alors projW y = y (voir le théorème 6).
Théorème 9 : théorème de la meilleure approximation Soit W un sous-espace de Rn, y ∈ Rn et yˆ la projection orthogonale de y dans W . Alors yˆ est le point de W le plus près de y au sens que ... (6.5) y − yˆ < y − v ∀v ∈ W et v ≠ yˆ
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-14 Démonstration : Soit v ∈ W et v ≠ yˆ . Alors (v − yˆ ) se trouve dans W et est orthogonal à .
y
y−v
0
.
y − yˆ
yˆ
.
yˆ − v v
.
W
y − v = (y − yˆ ) + (yˆ − v )
Or
=0
y − v 2 = y − yˆ 2 + yˆ − v 2 + 2 (y − yˆ ) ⋅ (yˆ − v ) = y − yˆ 2 + yˆ − v 2 De plus,
yˆ − v > 0. Donc y − v 2 > y − yˆ 2 .
C.Q.F.D.
Exemple : Trouver la distance du point y ∈ R3 au sous-espace W avec − 1 5 1 y = − 5, u 1 = − 2, u 2 = 2 et W = Gen{u 1 , u 2 }. 10 1 − 1
Solution : GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-15 Comme {u1, u2} est une base orthogonale de W , alors 5 1 − 1 − 21 15 1 7 2 = −8 yˆ = u 1 + u = −2 − 30 6 2 2 2 1 − 1 4 − 1 − 1 0 y − yˆ = − 5 − − 8 = 3 10 4 6
y − yˆ 2 = 3 2 + 6 2 = 45 ⇒
y − yˆ = 3 5
Théorème 10 Si {u1, ..., up} est une base orthonormée du sous-espace W dans Rn, alors projW y = (y ⋅ u1) u1 + (y ⋅ u2) u2 + ... + (y ⋅ up) up
... (6.6)
Si nous posons que U = [u1 u2 ... up], alors projW y = U UT y
... (6.7)
Démonstration : Tout d'abord, (6.6) découle de (6.4) du théorème 8 en tenant compte que la base est orthonormée. De plus,
projW y = (y ⋅ u1) u1 + (y ⋅ u2) u2 + ... + (y ⋅ up) up
projW y = [u 1
y ⋅ u1 y ⋅ u 2 u 2 ⋯ u p ] = [u 1 ⋮ y ⋅ u p
u 1 ⋅ y u ⋅ y 2 u 2 ⋯ u p ] ⋮ u ⋅ y p U n×p
u1T y n×1 1×n
= UU T y
y ∈ Rn C.Q.F.D.
6.4 Problèmes de moindres carrés GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-16 Penser Ax comme une approximation à b. Plus la distance entre b et Ax sera petite, mieux ce sera. Le problème général des moindres carrés consiste à trouver un vecteur x tel que la distance b − Ax soit aussi petite que possible.
Définition : Si A est une matrice m×n et b ∈ Rm, alors une solution de Ax = b au sens des moindres carrés consiste à trouver un vecteur xˆ dans Rn tel que
b − Axˆ ≤ b − Ax pour tout x ∈ Rn.
Solution du problème général des moindres carrés : Soit A est une matrice m×n et b ∈ R m. Appliquons le théorème 9 (théorème de la meilleure approximation ) au sous-espace C (A). Posons alors que
bˆ = projC( A ) b Comme bˆ est dans C(A), le système d'équations Axˆ = bˆ est consistant. Dès lors, il y a un vecteur xˆ ∈ Rn tel que
Axˆ = bˆ
... (6.8)
Puisque bˆ est le point de C(A) le plus près de b, le vecteur xˆ devient une solution au sens des moindres carrés de Ax = b. La fig. ci-dessous illustre ce problème.
b − A xˆ
0
.
.
.
.
b
bˆ = Axˆ
C (A) n
R
.
xˆ
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-17 Supposons maintenant que xˆ vérifie Axˆ = bˆ . Or, d'après le théorème 8 (théorème de la décomposition orthogonale), la projection bˆ a la propriété que b − bˆ est orthogonal à C(A). Dès lors, b = Axˆ est orthogonal à chaque colonne de A, i.e.
a j ⋅ (b − Axˆ ) = a jT (b − Axˆ ) = 0 A T (b − Axˆ ) = 0
A T Aˆ x = A T b Théorème 13 L'ensemble des solutions au sens des moindres carrés de Ax = b coïncide avec l'ensemble non vide des solutions des équations canoniques
A T Aˆ x = A T b
... (6.9)
Exemple : Trouver la solution au sens des moindres carrés du système inconsistant suivant : 4 0 2 A = 0 2 , b = 0 . 1 1 11
Solution : 4 0 2 1 0 11 Tout d'abord, inconsistance car 0 2 0 ≈ 0 1 0 . 1 1 11 0 0 − 42
Au sens des moindres carrés,
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-18 4 0 4 0 1 0 2 = 17 1 ATA = 0 2 1 1 1 1 5 2 4 0 1 19 A Tb = 0 = 11 0 2 1 11 17 1 x 1 19 A T A x = A Tb ⇒ x = 11 1 5 2 −1 1 5 − 1 ATA = 84 − 1 17 −1 1 5 − 1 19 1 xˆ = A T A A T b = = 84 − 1 17 11 2
(
)
(
)
Théorème 14 La matrice ATA est inversible si et seulement si les colonnes de A sont linéairement indépendantes. Dans un tel cas, Ax = b n'a qu'une solution au sens des moindres carrés et elle provient de
xˆ = ( A T A) −1 A T b
...
(6.10)
Exemple : À l'aide des données de l'exemple ci-dessus, déterminer l'erreur au sens des moindres carrés dans la solution trouvée pour ce problème.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-19 Solution : 2 4 0 4 1 b = 0 et Axˆ = 0 2 = 4 2 11 1 1 3 2 4 − 2 b − Axˆ = 0 − 4 = − 4 11 3 8
b − Axˆ = (− 2 )2 + (− 4 )2 + (8)2 = 84 Dès lors, tout vecteur b ∈ R2 se trouve à une distance d'au moins
84 du vecteur Ax.
6.5 Applications aux modèles linéaires Notation : au lieu d'écrire Ax = b, on écrit Xβ = y, où X réfère à la matrice de conception , β au vecteur paramètre et y au vecteur observation. Cette notation est communément utilisée en ingénierie.
Droite par les moindres carrés : Modèle utilisé :
y = β o + β1 x
...(6.11)
Les points expérimentaux sont donnés par : (x1, y1), ..., (xn, yn).
Droite y = βo + β1 x
. .
Point provenant des données (x j, y j)
y
.
.
résidu Point sur la courbe (x j, βo + β1 x j)
.
x x1
x j
xn
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-20
La façon usuelle d'ajuster ou lisser la droite à travers des données consiste à minimiser la somme des carrés des résidus entre les valeurs mesurées et les valeurs calculées à l'aide de la droite. La droite cherchée s'appelle aussi la droite de régression de y sur x, car on suppose que l'erreur s'est produite sur les valeurs de y seulement. Les coefficients βo et β1 s'appellent les coefficients de régression. Ce sont les valeurs de βo et β1 que l'on cherche à déterminer pour lisser la droite. Dès lors,
Valeur prédite y Valeur mesurée y j βo + β1 x1
y1
⋮
⋮
βo + β1 xn
yn
Le tout peut s'écrire comme le système d'équations suivant : 1 x 1 y1 1 x y β1 2 , β = , y = 2 Xβ = y avec X = ⋮ ⋮ ⋮ β2 1 x n y n
... (6.12)
Exemple : Trouver la droite de lissage au sens des moindres carrés pour les points suivants : (2, 1), (5, 2), (7, 3), (8, 3). Solution : Tout d'abord, construisons la matrice X et le vecteur y : 1 1 X= 1 1
2 1 2 5 , et y = . 3 7 8 3
Pour la solution au sens des moindres carrés,
Xβ = y et
XTX β = XTy
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-21 Dès lors, 1 1 1
XT X =
2 5 7
1 1 1
XTy =
2 5 7
1 2 1 1 5 4 22 = 8 1 7 22 142 1 8 1 1 2 9 = 8 3 57 3
Les équations canoniques deviennent 4 22 β o 9 22 142 β = 57 1 β o 4 22 β = 22 142 1
−1
9 1 142 − 22 9 1 24 2 / 7 57 = 84 − 22 4 57 = 84 30 = 5 / 14
Donc la droite de régression devient : 2 5 y= + x 7 14
Méthode généralisée des moindres carrés : Les statisticiens considèrent la présence d'un vecteur résiduel ε de telle sorte que
y = Xβ + ε Toute équation qui peut se ramener à cette forme devient un modèle linéaire. Comme les quantités X et y sont connues, le but consiste à minimiser le résiduel β, ce qui revient à trouver la solution de Xβ = y au sens des moindres carrés. Dès lors, la solution des équations canoniques fournit la solution :
XTX β = XTy Exemple : Supposons que les points (x1, y1), ..., (xn, yn) semblent répondre à une courbe parabolique, i.e. y = β o + β1x + β2x2 Décrire le modèle linéaire qui peut générer un modèle au sens des moindres carrés.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-22
Solution : Dès lors, nous pouvons écrire y1 = β 0 + β1 x 1 + β 2 x12 + ε1 y 2 = β 0 + β1 x 2 + β 2 x 22 + ε 2 ⋮
y n = β 0 + β1 x n + β 2 x 2n + ε n ou y1 1 x 1 y 2 = 1 x 2 ⋮ ⋮ ⋮ y n 1 x n
y
=
X
ε1 x12 β1 x 22 β + ε 2
2 ⋮ β 3 2 x n ε n ⋮
β
+ ε
6.6 La procédure de Gram-Schmidt Il s'agit d'une procédure simple pour générer une base orthogonale ou orthonormée pour un sous-espace non nul de Rn. Nous allons débuter par un exemple.
Exemple : Soient 1 0 0 1 1 0 x 1 = , x 2 = , x 3 = . 1 1 1 1 1 1
Construire une base orthogonale pour le sous-espace W engendré par {x1, x2, x3}. Solution :
1ère étape : Posons que v1 = x1 et que W 1 = Gen {x1} = Gen {v1}. 2ème étape : Posons que v2 est le vecteur produit en soustrayant de x2 sa projection sur W 1.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-23 Dès lors,
v 2 = x 2 − projW 1x 2 x ⋅v = x 2 − 2 1 v1 v1 ⋅ v1 0 1 − 3 / 4 1 1 1 / 4 3 = − = 1 4 1 1 / 4 1 1 1 / 4 − 3 1 ou v ′2 = 1 1 À noter que v2 est la composante de x2 orthogonale à x1, et {v1, v2} est une base orthogonale de W 2 engendré par x1 et x2. Le même raisonnement vaut pour v'2 qui n'est qu'un changement d'échelle pour v2.
3ème étape : Posons que v3 est un vecteur produit en soustrayant de x3 sa projection sur le sous-espace W 2. Dès lors,
x ⋅v x3 ⋅ v ′2 v′ projW 2 x 3 = 3 1 v 1 + v1 ⋅ v1 v ′2 ⋅ v ′2 2
Projection de x3 sur v1
Projection de x3 sur v'2
1 − 3 0 2 1 2 1 2 / 3 projW 2 x 3 = + = 4 1 12 1 2 / 3 1 1 2 / 3
Alors v3 est la composante de x3 orthogonale à W 2, i.e.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-24 0 0 0 0 2 / 3 − 2 / 3 v 3 = x 3 − projW 2 x 3 = − = 1 2 / 3 1 / 3 1 2 / 3 1 / 3
La fig. ci-dessous illustre cette construction de v3 à partir de x3.
x3
v3
W 2 = Gen{v1, v'2}
v'2 projW 2 x3
v1
Théorème 11 Soit une base {x1, ..., xp} pour un sous-espace W de Rn. Posons alors que v 1 = x1 x ⋅v v 2 = x 2 − 2 1 v1 v1 ⋅ v1 ⋮
x p ⋅ v1 xp ⋅ v2 x p ⋅ v p−1 vp = xp − v1 − v 2 −⋯− v v1 ⋅ v1 v2 ⋅ v2 v p−1 ⋅ v p−1 p−1 Alors {v1, ..., vp} forme une base orthogonale pour W . De plus Gen {v1, ..., vk} = Gen {x1, ..., xk} pour 1 ≤ k ≤ p.
Bases orthonormées : Si {v1, ..., vk} est une base orthogonale du sous-espace W, alors il suffit de normaliser chaque vecteur vk pour obtenir une base orthonormée.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-25
La factorisation QR d'une matrice A : Théorème 12 Si une matrice A m×n a des colonnes linéairement indépendantes, alors cette matrice peut être factorisée en un produit de 2 matrices Q et R, où Q est est une matrice dont les colonnes forment une base orthonormée pour C(A) et R est une matrice triangulaire supérieure n×n et inversible ayant une diagonale principale positive.
Démonstration : •
Construire une base orthonormée {u1, ..., un} de W = C(A) à l'aide de la procédure de GramScmidt. Soit Q = [u1 u2 ... un].
•
Pour k = 1, ..., n, xk se trouve dans Gen {x1, ..., xk} = Gen {u1, ..., uk}. Donc il existe des constantes telles que xk = r1ku1 + ... + rkkuk + 0 uk-1 + ... + 0 un Nous supposons ici que rkk ≥ 0. Si tel n'était pas le cas, il s'agit de multiplier et rkk et uk par -1. Ceci démontre que xk est une combinaison linéaire des colonnes de Q avec comme coefficients scalaires les éléments du vecteur r1k ⋮ r rk = kk 0 ⋮ 0
•
Dès lors, xk = Q rk pour k = 1, ..., n. Posons maintenant que R = [r1, ..., rn]. Alors
A = [x 1
⋯
x n ] = [Qr1
⋯
Qrn ] = QR
R est inversible parce que les colonnes de A sont linéairement indépendantes.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-26
la factorisation QR de Exemple : Trouver la 1 1 A= 1 1
0 1 1 1
0 0 . 1 1
Solution : Dans un exemple précédent, nous avions trouvé une base orthogonale pour C(A), les vecteurs
x1, x2 et x3 étant les colonnes de A, i.e. 1 − 3 0 1 1 − 2 / 3 ou v 1 = , v 2 = , v 3 = 1 1 1 / 3 1 1 1 / 3
0 − 2 ' v3 = . 1 1
Normalisons ces 3 vecteurs pour obtenir la matrice Q orthonormée suivante : 1 / 2 − 3 / 12 0 − 1 / 2 1 / 12 2 / 6 . Q= 1 / 2 1 / 12 1 / 6 1 / 6 1 / 2 1 / 12
Pour trouver la matrice R, notons que
QTA = QT(QR) = IR = R. Donc 1 1 / 2 1 / 2 1 / 2 1 / 2 1 R = − 3 / 12 1 / 12 1 / 12 1 / 12 1 0 − 2 / 6 1 / 6 1 / 6 1
0 1 1 1
0 1 2 3 / 2 0 = 0 3 / 12 2 / 12 . 1 0 2 / 6 0 1
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
6-27
ANNEXE Compléments sur les longueurs, les normes, le produit scalaire et le produit vectoriel Longueur ou norme Dans R 2 et R 3 , un vecteur peut s’interpréter géométriquement comme un segment de droite orientée. Dès lors, ce segment de droite possède une longueur. Dans le système cartésien de coordonnées, la longueur s’obtient à l’aide du théorème de Pythagore : 1/2
u = ( u12 + u22 )
dans R 2 1/2
u = ( u12 + u22 + u32 )
dans R 3
y
�u1, u2�
u u2 θ
x
u1
Figure A1
Distance entre 2 points La distance d entre entre 2 points u et v, que ce soit dans R2 ou R3, s’obtient à l’aide de d = u − v = v − u
Note. ku = k u
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
6-28
Produit scalaire. Projections. Pour comprendre la notion de produit scalaire, on utilise utilise la loi des cosinus. En effet, dans R2 comme dans R3, la longueur du côté PQ du triangle de la fig. A2 se détermine à l’aide de
w = PQ = v − u 2
2
2
w = u + v − 2 u v cosθ Loi du cosinus 2
2
2
2 u v cosθ = u + v − v − u 2
u = u12 + u22 + u32 2
v = v12 + v22 + v32 2
2
2
v − u = ( v1 − u1 ) + ( v2 − u2 ) + ( v3 − u3 ) 2
2
2
= u + v − 2 ( u1v1 + u2v2 + u3v3 )
Donc 2
2
2
2
2 u v cosθ = u + v − u − v + 2 ( u1v1 + u2v2 + u3v3 )
u v cosθ = ( u1v1 + u2v2 + u3v3 ) = u ⋅ v Le produit scalaire se définit donc comme u ⋅ v = ( u1v1 + u2v2 + u3v3 ) . L’angle entre entre 2 vecteurs devient maintenant cosθ =
u⋅v u v
�
P(u1, u2, u3)
w Q(v1, v2, v3)
u θ
v �
�
Figure A2
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
6-29
Propriétés du produit scalaire Soit u, v et w des vecteurs dans R2 ou R3 ainsi que k un scalaire. Alors •
u ⋅v = v ⋅ u
•
u(v + w) = u ⋅ v + u ⋅w
•
k ( u ⋅ v ) = ( ku ) ⋅ v = u ⋅ ( k v )
•
v ⋅ v ≥ 0 si v ≠ 0
•
v ⋅ v = 0 si v = 0
L’angle entre les 2 vecteurs u et v est aigu si u ⋅ v > 0 , obtus si u ⋅ v < 0 . Ces 2 vecteurs vecteurs sont perpendiculaires si u ⋅ v = 0 .
Projection orthogonale
On peut considérer un vecteur u comme composé de 2 vecteurs, l’un w1 parallèle à une direction donnée a et l’autre w2 perpendiculaire à ce vecteur, comme le montre montre la fig. A3. Donc u = w 1 + w 2 . Le vecteur w1 s’appelle la projection orthogonale de u sur a, i.e. projau .
Dès lors, w1 = projau et w 2 = u − projau . Comme w1 est parallèle à a, alors w1 = k a et
u = w1 + w 2 = k a + w 2 2
u ⋅ a = ( ka + w 2 ) ⋅ a = k a + w 2 ⋅ a u⋅a u ⋅a k = 2 et projau = 2 a a a De plus plus,, projau =
u⋅a u ⋅ a u a cosθ u⋅a a = a = = = u cosθ 2 2 a a a a
u
w2
w1
a Figure A3
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke Sherbrooke
6-30
Produit vectoriel (dans R3 seulement)
Le produit vectoriel des vecteurs u et v est défini par
u × v = ( u2v3 − u3v2 ) i + ( u3v1 − u1v3 ) j + (u1v 2 − u 2v1 ) k u2
u3 u1 u3 u1 u 2 ,− , v3 v1 v3 v1 v 2
u×v =
v2
Propriétés du produit vectoriel : (a) u × v = − (v × u)
( b ) u × ( v + w ) = ( u × v ) + (u × w ) (c) (u + v ) × w = (u × w ) + (v × w ) ( d ) k ( u × v ) = ( ku ) × v = u × ( kv ) (e) u × u = 0 ( f ) u ⋅ ( u × v ) = 0 ( g ) v ⋅ (u × v ) = 0 2
2
2
2
( h ) u × v = u v − ( u ⋅ v ) Identité de Lagrange ( i ) u × ( v × w) = ( u ⋅ w ) v − (u ⋅ v ) w ( j ) ( u × v ) × w = ( u ⋅ w ) v − ( v ⋅ w ) u Preuve de la propriété ( h) : 2 2 2 2 u × v = ( u2v3 − u3v2 ) + ( u3v1 − u1v3 ) + ( u1v2 − u2 v1 ) 2
2
2
u v − ( u ⋅ v ) = ( u12 + u22 + u32 )( v12 + v22 + v32 ) − ( u1v1 + u2 v2 + u3v3 ) En développant les produits du côté droit de ces 2 équations, 2
2
2
u × v = u v − (u ⋅ v )
2
2
Interprétation géométrique du produit vectoriel : En reprenant l’identité de Lagrange, 2 2 2 2 2 2 2 2 u × v = u v − ( u ⋅ v ) = u v − u v cos2 θ 2
2
2
2
v (1 − cos2 θ ) = u v sin 2 θ Comme 0 ≤ θ ≤ π , sin θ ≥ 0. Dès lors, u × v = u v sin θ = u
Cette formule donne l’aire du parallélogramme formé par les vecteurs u et v. Bien entendu, il faut prendre la valeur absolue du produit vectoriel, u × v . De plus, la valeur absolue du produit mixte u ⋅ ( v × w ) donne le volume du parallélépipède engendré par ces 3 vecteurs.
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-31
Quelques théorèmes sur les normes peuvent se révéler fort utiles pour la compréhension de certaines formules.
Théorème A.1 (L’inégalité de Cauchy-Schwarz). Si u, v ∈ R n , alors u ⋅ v ≤ u v . Preuve. Si u ou v = 0, alors l’égalité est vérifiée. Si u, v ≠ 0 , alors, pour un scalaire r , 2 2 0 ≤ ( ru + v ) ⋅ ( ru + v ) = r 2u ⋅ u + 2 ru ⋅ v + v ⋅ v = r 2 u + 2 ru ⋅ v + v 2
0 ≤ ar 2 + 2br + c avec a = u , b = u ⋅ v , c = v
2
avec a > 0
P ( r ) = ar 2 + 2br + c P ( r ) = ar 2 + 2br + c avec a > 0, c > 0
Or, les racines sont de la forme 2
2
2
lors, ( u ⋅ v ) = u ⋅ v ≤ u v
2
−2b ± 4b 2 − 4ac
. Pour que P ( r ) ≥ 0 , il faut que b2 ≤ ac . Dès
2a ⇒ u ⋅v ≤ u v .
Une application très intéressante permet de démontrer que, pour le produit scalaire de 2 vecteurs, u⋅v = cosθ ⇒ − 1 ≤ cosθ ≤ 1 u v
Théorème A.2 (L’inégalité triangulaire). Si u, v ∈ R n , alors u + v ≤ u + v . Preuve. 2 u + v = ( u + v ) ⋅ ( u + v ) = u ⋅ u + 2 (u ⋅ v ) + v ⋅ v 2
= u + 2(u ⋅ v) + v
2
D'après l'inégalité de Cauchy-Schwarz, 2
2
2
2
u + 2 (u ⋅ v ) + v ≤ u + 2 u v + v = ( u + v ) Donc u + v ≤ u + v
2
Théorème A.3 (Théorème de Pythagore). Si 2 vecteurs u et v sont orthogonaux dans Rn, alors 2
2
u+v = u + v
2
Preuve. Se rappeler que u ⋅ v = 0 .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-32
Problèmes sur la chapitre 6 Problème 1 (Lay, #15, p.382) . Déterminer si ces vecteurs sont orthogonaux : 8 −2 a = , b = −5 −3
Rép.: non
Problème 2 (Lay, #20, p.382) . Décider si les énoncés suivants sont vrais ou faux. Justifier la réponse. 2
-
v⋅v = v
-
Si la distance entre u et v égale celle entre u et –v, alors u et v sont orthogonaux.
Rép.:vrai
Rép. : vrai -
Pour une matrice carrée A, les vecteurs dans C(A) sont orthogonaux à ceux de N(A). Rép. : faux
-
Si les vecteurs v1, v2, …, vp engendrent un sous-espace W et si x est orthogonal à chacun des vecteurs v j, alors x ∈ W ⊥. Rép. : vrai
Problème 3 (Lay, #9, p.392) . Déterminer si les vecteurs v1, v2 et v3 sont orthogonaux. Si oui, exprimer le vecteur x comme une combinaison linéaire de ces 3 vecteurs. 1 −1 2 8 v1 = 0 , v 2 = 4 , v 3 = 1 , x = −4 Rép.: base orthogonale 1 1 −2 −3
5 3 x = v1 − v 2 + 2 v3 2 2
Problème 4 (Lay, #21, p. 392) . Déterminer si cet ensemble de vecteurs est orthonormé : 1 3 10 10 0 3 − − 1 1 , , 20 20 2 3 −1 1 2 20 20
Rép. : Oui
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-33
1 Problème 5 (Lay, #11, p. 392) . Calculer la projection orthogonale de y = sur la droite passant 7 −4 2 par l’origine et le point . Rép. : yˆ = . 2 −1
Problème 6 (Lay, #35, p. 393) . En utilisant MATLAB, montrer que les colonnes de la matrice suivante sont orthogonales : −6 −1 3 6 A= 2 −3 −2 1
−3 6
2 6 −3 −1 6 −1 2
1 3 6 2 3 2 1
1 −6 −2 −1 . 3 2 − 3 6
Problème 7 (Lay, #36a, p. 393) . Normer les colonnes de la matrice A du problème 4 pour obtenir la matrice U. Obtenir les produits UTU et UUT . Comment expliquer ce résultat ?
Problème 8 (Lay, #3, p. 400) . Déterminer si les vecteurs u1 et u2 sont orthogonaux, puis trouver la projection orthogonale du vecteur y sur Gén(u1, u2). −1 1 −1 −1 y = 4 , u1 = 1 , u 2 = 1 Rép.: yˆ = 4 3 0 0 0
Problème 9 (Lay, #13, p.401) . Trouver la meilleure approximation de z dans la forme c1v1 +c2v2. 3 2 1 −1 −7 −1 1 −3 z = , v1 = , v 2 = Rép.: zˆ = projW z = 2 −3 0 −2 3 1 −1 3
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-34
Problème 10 (Lay, #21, p. 401) . Trouver si les énoncés suivants sont vrai ou faux. Justifier la réponse. a) Si z est orthogonal à u1 et u2 et que W = Gén(u1, u2), alors z ∈ W ⊥ Vrai b) Pour tout y et tout sous-espace W, le vecteur y − projW yˆ Vrai c) Si y ∈ W , alors projW y = y Faux
Problème 11 (Lay, #2, p.416) . Trouver une solution au sens des moindres carrés : 2 1 −5 −4 A = −2 0 , b = 8 Rép.: 3 2 3 1 Problème 12 (Lay, #9, p. 416) . Trouver la projection orthogonale de b sur les colonnes de A ainsi que la solution au sens des moindres carrés de Ax = b : 1 5 4 1 2 / 7 A = 3 1 , b = −2 Rép.: bˆ = 1 , xˆ = 1 / 7 −2 4 −3 0 Problème 13 (Lay, #17, p. 417) . Trouver si les énoncés suivants sont vrai ou faux. Justifier la réponse. a) Une solution au sens des moindres carrés de Ax = b est un vecteur xˆ de telle sorte que Axˆ = bˆ , où bˆ est le vecteur orthogonal de b sur les colonnes de A. Vrai b) La solution au sens des moindres carrés de Ax = b est un vecteur xˆ de telle sorte que
b − Ax ≤ b − Axˆ pour ∀x ∈ R n . Faux c) Si les colonnes de A sont linéairement indépendantes, alors Ax = b a une seule solution au sens des moindres carrés.
Problème 19 (Lay, #19, p. 417) . Soit A une matrice m x n. Démontrer que si x ∈ R n vérifie Ax = 0 ssi A T A = 0 . Problème 20 (Lay, #1, p. 425) . Trouver l’équation y = β 0 + β 1x au sens des moindres carrés pour l’ensemble des points suivants : (0, 1), (1, 1), (2, 3), (3, 2). (Rép. : y = 0.9 + 0.4 x) Problème 21 (Lay, #11, p. 426) . D’après la 1ère loi de Kepler, une comète devrait avoir une orbite elliptique, parabolique ou hyperbolique. L’équation de l’orbite en coordonnées polaires indique que la position (r , θ) vérifie une équation de la forme r = β + e ( r cos θ ) où e = l’excentricité, avec les caractéristiques suivantes : GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
6-35 ellipse : 0 ≤ e < 1 parabole : e = 1 hyperbole : e > 1 Des mesures prises lors du passage d’une comète ont fourni les valeurs suivantes : θ
r
0.88 3.00
1.10 2.30
1.42 1.65
1.77 1.25
2.14 1.01
Déterminer le type d’orbite et prédire la position de la comète lorsque θ = 4.6 rad . Rép. : e = 0.811, r = 1.33 lorsque θ = 4.6 .
GCI 100. Algèbre linéaire - Préparé par Pierre F. Lemieux, ing., professeur - Université de Sherbrooke
7-1
CHAPITRE 7 Formes quadratiques. Coniques. Surfaces quadriques Objectifs d’apprentissage -
Savoir diagonaliser une matrice symétrique
-
Représenter une forme quadratique sous forme matricielle
-
Valeurs min et max d’une forme quadratique
-
Savoir diagonaliser une forme quadratique et déterminer ses axes principaux
-
Savoir reconnaître une conique dans le plan à partir de la forme quadratique générale
-
Savoir reconnaître les principales formes quadratiques.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-2
Chapitre 7 Formes quadratiques. Coniques. Surfaces quadriques. 7.0 Introduction Les courbes coniques (cercle, ellipse, parabole et hyperbole) et les surfaces quadriques (sphère, ellipsoïde, hyperboloïde à une feuille, hyperboloïde à 2 feuilles, cône elliptique, paraboloïde elliptique, paraboloïde hyperbolique) reviennent souvent en ingénierie, que ce soit en hydraulique, en structures ou en géotechnique. Elles peuvent toutes se représenter par une forme quadratique que nous pouvons étudier à l'aide de l'algèbre linéaire pour en déterminer la forme et les propriétés. À la base, nous retrouvons la théorie des matrices symétriques ainsi que la théorie des valeurs et des vecteurs propres. Par exemple, les planètes décrivent des orbites elliptiques autour du soleil. La géotechnique utilise la notion de cercle de glissement pour la stabilité d'un talus. Le domaine des structures utilise la paraboloïde hyperbolique pour certaines formes de voiles minces.
7.1 Matrices symétriques. Diagonalisation. Une matrice carrée A est dite symétrique lorsqu'elle est égale à sa transposée. Donc ... (7.1) A T = A ⇒ a ji = a ij Exemple. La matrice suivante est symétrique : 0 −1 0 − 1 5 8 0 8 − 7 Les matrices symétriques jouissent de plusieurs propriétés intéressantes, ce que nous verrons à l'aide des théorèmes qui suivent.
Théorème 1. Si A est une matrice symétrique, alors les vecteurs propres associés à 2 valeurs propres distinctes sont orthogonaux. Démonstration. Considérons les vecteurs propres v1 et v2 associés aux valeurs propres distinctes λ1 et λ2 respectivement. Dès lors, T λ1v1T v 2 = ( Av 1 ) v 2 = ( v1 TA T ) v 2 = v 1TAv 2 = v 1T ( Av 2 ) = v1 T ( λ 2v 2 T ) = λ2 v1T v 2
⇒ ( λ1 − λ 2 ) v1T v 2 = 0 ⇒ v 1Tv 2 = 0 Une matrice A est dite diagonalisable orthogonalement s'il existe une matrice orthogonale P (i.e. avec P-1 = PT) et une matrice diagonale D telle que ... (7.2) A = PDP T = PDP −1 Pour diagonaliser orthogonalement une matrice d'ordre n, il faut trouver n vecteurs propres linéairement indépendants et mutuellement orthogonaux. Si A est orthogonalement diagonalisable, alors GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-3
T
A T = (PDPT ) = PTTDTP = PDPT = A ⇒ A = A T Théorème 2. Une matrice A d'ordre n est diagonalisable orthogonalement si et seulement si A est symétrique. Exemple d'application. Diagonaliser orthogonalement la matrice A suivante : 3 − 2 4 A = − 2 6 2 4 2 3 dont le polynôme caractéristique est − (λ − 7 )2 (λ + 2) = 0 Solution Les calculs usuels produisent les valeurs suivantes : 1 − 1 / 2 −1 λ1 = 7, v 1 = 0 v 2 = 1 λ 2 = −2, v 3 = − 1 / 2 1 0 1 Même si v1 et v2 sont linéairement indépendants, ils ne sont pas orthogonaux. Dès lors, v2 peut se décomposer en une composante projetée sur v1 et une composante perpendiculaire à v1. Ainsi −1 / 2 1 −1 / 4 1 / 2 v 2 ⋅ v1 − 0 = 1 z2 = v2 − v1 = 1 − v 1 ⋅ v1 2 0 1 1 / 4 Alors {v1, z2} forment une base orthogonale du sous-espace pour λ = 7. Si on norme les 3 vecteurs et que l'on forme la matrice P, 1 / 2 − 1 / 18 − 2 / 3 7 0 0 P = [u1 , u 2 , u 3 ] = 0 4 / 18 − 1 / 3 et D = 0 7 0 1 / 2 1 / 18 0 0 − 2 2 / 3 Et A = PDP-1. L'ensemble des valeurs propres d'une matrice A s'appelle le spectre de A.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-4
Théorème 3. Le théorème spectral des matrices symétriques. Une matrice A d'ordre n et symétrique possède les caractéristiques suivantes : a) A possède des valeurs propres réelles. b) La dimension de chaque espace des vecteurs propres pour chaque valeur propre est égale à la multiplicité de λ comme racine du polynôme caractéristique. c) Les espaces des vecteurs propres sont mutuellement orthogonaux au sens que les vecteurs propres associés à des valeurs propres distinctes sont orthogonaux. d) A est orthogonalement diagonalisable. Décomposition spectrale de A (selon le spectre i.e. les valeurs propres) : Posons que A = PDP-1, où les colonnes de P sont les vecteurs mutuellement orthogonaux u1, u2, ..., un et que λ1, λ2, ..., λn sont les valeurs propres associées sur la diagonale principale de D. Comme P-1 = PT, u1T λ1 ⋯ 0 u1T ⋮ = [λ u ⋯ λ u ] ⋮ A = PDPT = [u1 ⋯ un ] ⋮ n n 1 1 ... (7.3) uT 0 ⋯ λ n unT n
A = λ1u1u1T + λ 2u2u2T = ⋯ + λnununT Décomposition spectrale de A Rappelons que uuT génère une matrice une matrice d'ordre n ( i.e. n x n). En effet, u est une matrice n x 1, tandis que uT est une matrice 1 x n. De plus, c’est une matrice symétrique.
7.2 Formes quadratiques Forme linéaire : a1 x1 + a2 x2 + ... + an xn = b
aTx = b Forme quadratique : a1 x12 + a2 x22 + ... + an xn2 + Σ (ak xi x j, i < j)
... (7.4)
ou, sous forme matricielle, xTA x.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-5
Exemple de forme quadratique : a 3 / 2 x1 T a a1x12 + a 2 x 22 + a 3x1x 2 = [x1 x 2 ] 1 x = x Ax a / 2 a 2 2 3
Remarques. La façon d'obtenir la forme matricielle d'une forme quadratique n'est pas unique. En effet, l'obtention d'une matrice symétrique A n'est qu'une façon particulière de partager le coefficient a 3 du terme associé à x1x2 entre les termes a12 et a21 de la matrice A (à noter que la somme des termes aij et a ji de A donne la valeur du coefficient ak associé au terme xix j de la forme quadratique). Nous aurions pu aussi obtenir la forme suivante : 2a 3 / 3 x1 T a a 1x12 + a 2 x 22 + a 3x1x 2 = [x1 x 2 ] 1 = x Ax a 3 / 3 a 2 x 2
Problèmes impliquant une forme quadratique : Voici quelques problèmes pratiques utilisant la notion de forme quadratique : Min ou Max de x T Ax avec x = ( x12 + x 22 + ⋯ + x 2n )1 / 2 = 1 Conditions pour la matrice A de telle sorte que x T Ax > 0 ∀x ≠ 0 Si xTAx = c, c étant une constante, quelle forme prend le graphique de cette fonction ? Soit P une matrice orthogonale. Le changement de variable x = Py transforme xTAx en yT(PTAP)y. La matrice (PTAP) est symétrique. La matrice P peut être choisie de telle sorte que la forme quadratique yT(PTAP)y n'ait pas de produits croisés. Dans le cas des coniques et des surfaces quadriques, il s'agira de les ramener en position standard.
7.3 Exemple d'application Trouver les valeurs min et max de la forme quadratique x 12 + x 22 + 4 x1x 2 vérifiant la contrainte x =1 Pour solutionner ce problème, il faut tout d'abord faire une petit excursion théorique.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-6
Théorème. Soit A une matrice symétrique. De plus, posons que les valeurs propres sont en ordre décroissant i.e. λ1 ≥ λ2 ≥ ... ≥ λn et que ∀x x = 1 . Alors λ1 ≥ xTAx ≥ λn xTAx = λ1 ou λn seulement si x est le vecteur propre associé à λ1 ou λn respectivement. Preuve. Supposons que la forme quadratique a été diagonalisée, i.e. x T Ax = y T Dy avec x = Py x = Py = y
Alors
∀y
2
2
car Py = (Py )T (Py ) = y T PTPy = y T y = y De plus, y = 1 ssi x = 1. Donc xTAx et yTDy génèrent les mêmes valeurs en autant que x et y soient des vecteurs unitaires. Dès lors, λ1 0 ⋯ 0 0 λ ⋯ 0 2 avec λ1 ≥ λ 2 ≥ ⋯ ≥ λ n D= ⋮ ⋮ ⋯ ⋮ 0 0 ⋯ λ n P = [u1 u 2 ⋯ u n ]
y T y = 1 ⇒ y TDy = λ1y12 + λ 2 y 22 + ⋯ + λ n y2n ≤ λ1 (y12 + y22 + ⋯ + y 2n ) = λ1 De plus,
y = e1 ⇒ e1TDe1 = λ1 x = Pe1 = u1 ⇒ u1TAu1 = λ1 Donc la valeur maximale que peut prendre la forme quadratique est λ1. Une preuve similaire montrerait que la valeur minimale est λn. C.Q.F.D. De retour à notre problème, 1 2 x 1 x12 + x 22 + 4x1x 2 = x T Ax = [x1 x 2 ] 2 1 x 2
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-7
λ − 1
det (λI − A ) = det
2
2 2 = λ − 2λ − 3 = (λ − 3)(λ + 1) = 0 λ − 1
Donc 1/ 2 λ 2 = −1 ⇒ u2 = ⇒ min 1/ 2 − 1/ 2 λ1 = 3 ⇒ u1 = ⇒ max 1/ 2
7.4 Matrice définie positive Une forme quadratique est dite définie positive si, ∀x ≠ 0, xTAx > 0. La matrice A est alors dite définie positive. Voici quelques autres définitions :
xTAx ≥ 0 ∀x ≠ 0 xTAx < 0 ∀x ≠ 0 xTAx ≤ 0 ∀x ≠ 0 xTAx peut prendre des valeurs positives ou négatives
Semi-définie positive : Définie négative : Semi-définie négative : Non définie :
Théorème. Une matrice symétrique A est définie positive ssi toutes ses valeurs propres sont positives.
7.5 Diagonalisation d'une forme quadratique Soit la forme quadratique suivante :
x T Ax = [x1 x 2
⋯
a11 a12 a a x n ] 21 22 ⋮ ⋮ a n1 a n 2
a1n x1 a 2 n x 2
⋯ ⋯
⋮ a nn x n
⋯
⋮
⋯
... (7.5)
avec A = AT. Il existe une matrice orthogonale P, i.e. PTP = I telle que λ1 0 ⋯ 0 0 λ ⋯ 0 2 T P AP = D = ⋮ 0
⋮
0 avec P = [u1 u2 ⋯ un ]
GCI 100 Algèbre linéaire
⋯ ⋯
λn ⋮
... (7.6)
Pierre F. Lemieux, ing., Ph.D.
7-8
les vecteurs ui étant les vecteurs propres unitaires associées chacun à leur valeur propre respective. Dès lors, posons que ... (7.7) x = Py et xTAx = (Py)TA(Py) = yTPTAPy = yT(PTAP)y = yTDy ... (7.8) Ce changement de variable permet d'obtenir une forme quadratique diagonalisée, i.e.
xTAx = yTDy = λ1y12 + λ2y22 + ... + λnyn2
... (7.9)
Il s'agit d'une forme quadratique sans produits croisés. Les colonnes de P s'appellent les axes prin cipaux de la forme quadratique yTDy.
Exemple d'application : Soit la forme quadratique suivante : 1 −2 0 x 1 [ x1 x 2 x 3 ] −2 0 2 x 2 0 2 −1 x 3 Il s'agit de diagonaliser cette forme quadratique et de donner ses axes principaux. Solution :
det(A - λI) = λ3 - 9λ = λ (λ + 3) (λ - 3) = 0 2 / 3 − 1 / 3 − 2 / 3 λ1 = 0 x 1 = 1 / 3 , λ 2 = −3 x 2 = − 2 / 3 , λ 3 = 3 x 3 = 2 / 3 2 / 3 2 / 3 1 / 3 x1 2 / 3 − 1 / 3 − 2 / 3 x = Py = x 2 = y1 1 / 3 + y 2 − 2 / 3 + y 3 2 / 3 x 3 2 / 3 2 / 3 1 / 3 Axes principaux
La nouvelle forme quadratique devient :
[y1 y 2
GCI 100 Algèbre linéaire
0 0 0 y1 y 3 ] 0 − 3 0 y 2 0 0 3 y 3
Pierre F. Lemieux, ing., Ph.D.
7-9
7.6 Les coniques Dans le plan, une conique se définit de la façon suivante. Soit L une droite fixe et un point fixe F = (p, 0) non sur L. Soit P un point qui se déplace dans le plan formé par L et F de telle sorte que le rapport de sa distance de F à sa distance de L soit toujours égal à une constante. Le lieu de P s'appelle une conique. La droite fixe L s'appelle la directrice , le point F le foyer et le rapport constant, que l'on note e, l'excentricité de la conique. Sans perte de généralité, l'axe Y peut être choisi comme L, et le point F(p, 0) comme foyer. y
A
Droite L appelée directrice
.
P(x, y)
.
O
F(p, 0)
x
Fig. 1. Définition générale d'une conique. Dès lors,
(x − p )2 + y2 = e ⇒ (1 − e 2 )x 2 − 2px + y 2 + p2 = 0 x
PF =e ⇒ PA
Excentricité e Conique e =1 Parabole e<1 Ellipse e>1 Hyperbole Table 1. Excentricité et conique p e = 1 ⇒ y 2 = 2 p x − 2
parabole
... (7.10)
2
p x − − e 2 1 + e <1 ⇒ 2 2 pe (1 − e2 )2
GCI 100 Algèbre linéaire
y2 =1 p 2e 2 (1 − e2 )
ellipse
... (7-11)
Pierre F. Lemieux, ing., Ph.D.
7-10
2
p x − 1 − e 2 e >1 ⇒ − 2 2 pe (1 − e2 )2
y2 =1 p 2e 2 (e2 − 1)
hyperbole
... (7.12)
Équation générale d'une conique : ax2 + 2bxy + cy2 + dx + ey + f = 0
... (7.13)
Forme quadratique associée Équation quadratique dont le graphique constitue une conique
Forme matricielle générale : xTAx + KTx + f = 0
... (7.14)
a b b c d K= e x x= y
... (7.15)
où
A=
Condition essentielle pour avoir une conique : a, b, c ne sont pas tous nuls. Les coniques non dégénérées sont : l'ellipse, le cercle, la parabole et l'hyperbole. Les coniques dégénérées sont : les points singuliers et les paires de droites. La Fig. 2 illustre les coniques non dégénérées en position standard .
Exemple d'application complet : Décrire la conique suivante :
5x12 − 4x 1x 2 + 8x 22 + 4 5x 1 − 16 5x 2 + 4 = 0
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-11
(1) Écrire cette équation sous forme matricielle : avec
xTAx + KTx + 4 = 0 5 − 2 A= − 2 8 4 5 K= − 16 5
(2) Pour diagonaliser la matrice A, il faut trouver les valeurs propres et les vecteurs propres. 5 − λ − 2 det(A − λI) = det = (9 − λ )(4 − λ ) = 0 2 8 − − λ 2 / 5 λ = 4 ⇒ v1 = 1 / 5 − 1 / 5 v2 = 2 / 5 2 / 5 − 1 / 5 T T P= avec P P = PP = I 1 / 5 2 / 5
λ=9 ⇒
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-12
Fig. 2. Coniques en position standard.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-13
(3) Pour diagonaliser la forme quadratique associée, il faut effectuer un changement un changement de variables. variables. Dès lors, posons que x = Py. Il s'agit ici d'une rotation. rotation. En remplaçant remplaçant x par Py, il vient que (Py)TA(Py) + KT(Py) + 4 = 0
yT(PTAP)y + (KTP)y + 4 = 0 4 0 P T AP = 0 9 2 / 5 − 1 / 5 K T P = [20 / 5 − 80 / 5 ] = [− 8 − 36] 1 / 5 2 / 5 La conique devient donc 4y12 + 9y 22 − 8y1 − 36y 2 + 4 = 0 d'où élimination des produits croisés. croisés.
Rappel sur la matrice de rotation dans le plan y (-sin φ, cos φφ)
Rotation antihoraire
(0, 1)
φ
(cos φ, sin φ) φ
(1, 0)
1 cos φ 0 ⇒ sin φ 0 − sin φ 1 ⇒ cos φ
x
cos φ − sin φ ⇒A= sin φ cos φ
(4) Il s'agit maintenant de ramen de ramener er la conique conique en position position standar standard d . Pour ce faire, il faut effectuer une translation des axes y1 et y2. Regroupons tout d'abord les termes en y1 et y2 : 4 (y12 − 2 y1 ) + 9 (y 22 − 4 y 2 ) + 4 = 0 Complétons les carrés : carrés : 4(y12 − 2 y1 + 1) − 4 + 9(y 22 − 4 y 2 + 4) − 36 = −4 4(y1 − 1)2 + 9(y 2 − 2 )2 = 36 Posons maintenant que z1 = y1 - 1 et z2 = y2 - 2. Dès lors, cette tran cette translat produit slation ion produit
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-14
4z12 + 9z 22 = 36 z12 z 22 + =1 9 4 Il s'agit de l'équation d'une ellipse. ellipse. z2 y2
Après la translation
x2
z1 y1
2
x1
1
Après la rotation
Fig. 3. Rôle joué par chaque transformation de variable.
7.7 Les surfaces quadriques La forme générale d'une sur d'une surface face quadriqu quadriquee est la suivante : a x2 + b y2 + c z2 + 2d xy + 2e xz + 2f yz + g x + h y + i z + j = 0 Forme quadratique associée Équation quadratique en x, y et z
La forme matricielle devient donc
xTAx + KTx + j = 0
... (7.16)
a d e g x avec A = d b f , K = h , x = y e f c i z
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-15
La surface quadrique constitue le graph le graphique obtenu de l'équation graphique en traçant z = f(x, y). ique obtenu De plus, la courbe obtenue par l'intersection d'une surface quadrique et d'un plan est la trace de trace de ce plan sur la surface. surface. La Fig. 4 présente les les surfaces quadriques en posit en position ion stan standard dard . La procédure pour obtenir l'équation de la surface quadrique en position standard est la même que celle pour les coniques.
Fig. 4. Surfaces quadriques en position standard.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-16
Problèmes sur le chapitre 7 Problème #1 (Lay, #16, p.462) . Soit la forme quadratique suivante : Q ( x ) = 4 x12 + 4 x22 + 4 x32 + 4 x42 + 3x1 x2 + 3x3 x4 − 4 x1 x4 + 4 x2 x3
(a) Diagonaliser cette forme quadratique. (b) Trouver les valeurs min et max de Q(x) avec x = 1 . (c) Cette forme quadratique est-elle définie positive ? Rép. : (a) x T Ax =
13 2 13 2 3 2 3 2 y + y + y + y , (c) Définie positive. 2 1 2 2 2 3 2 4
Problème #2 (Anton-Rorres, #10, p. 463) . Identifier la conique suivante : 3 x 2 − 8 xy − 12 y 2 − 30x − 64 y = 0
Rép . : Hyperbole
Problème #3 (Anton-Rorres, #15, p. 463) . Identifier les coniques suivantes : (a) (b) (c)
8 x 2 + 7 y 2 = 0 Rép. : un seul point x 2 + 3 y 2 + 7 = 0 Rép. : Pas de courbe x 2 − 2 xy + y 2 = 0 Rép. : la droite y = x
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-17
ANNEXE : Compléments sur les coniques et le quadriques Pourquoi «coniques » ?
Z
Équation du cône : X 2 + Y 2 − Z 2 = 0 Équation du plan :
Z = k ( Y − 1)
Courbes d’intersection :
Z = k ( Y − 1) 2
X 2 + Y 2 − k 2 ( Y − 1) = 0 = X 2 + (1 − k 2 ) Y 2 + 2 k 2Y − k 2 = 0
k < 1: ellipses k = 1: paraboles 1 < k : hyperboles
2
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-18
Quadriques
3
Quadriques (suite)
4
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-19
Hyperboloïde à une nappe
Paraboloïde hyperbolique
5
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
7-20
Château d’eau (réservoir élevé)
6
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-1
CHAPITRE 8 Les nombres complexes Objectifs d’apprentissage -
Représenter graphiquement un nombre complexe Effectuer les opérations de +, -, × et ÷ sur les nombres complexes Écrire un nombre complexe sous forme polaire Utiliser la formule de De Moivre Trouver les racines d’un nombre complexe Utiliser la formule d’Euler Solutionner des équations complexes
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-2
CHAPITRE 8 Les nombres complexes 8.0 Introduction Considérons le problème de trouver les racines du polynôme suivant : P2 ( x ) = x 2 − 4 x + c = 0
Suivant la valeur que prendra c, ce polynôme du 2ème degré peut avoir 2 racines réelles distinctes, 1 racine réelle double ou pas de racines réelles. Par exemple, c = −5, c = 4, c = 8,
4 ± 16 + 4 × 5 ⇒ x1 = 5 et x2 = −1 2 4 ± 16 − 4 × 4 ⇒ x1 = 2 et x2 = 2 2 4 ± 16 − 4 × 8 ⇒ x1 = 2 + 2 −1 et x2 = 2 − 2 −1 2 ⇒ x1 = 2 + 2i et x2 = 2 − 2i
Dans ce dernier cas, on représente −1 par la lettre i, laquelle signifie imaginaire n’étant pas un nombre réel. Les racines x1 et x 2 sont alors 2 nombres complexes. Dans un tel cas, la parabole ne croise pas l’axe des x. C’est pourquoi on dit qu’un tel polynôme n’a pas de racines réelles, mais des racines complexes. On appelle donc nombre complexe, z, tout nombre de la forme z = a + bi , où a est la partie réelle, Re( z), et b la partie imaginaire, Im( z), a et b étant des nombres réels. Les règles de calcul sur les nombres complexes sont aussi simples que dans le cas des nombres réels, tout en se rappelant que i2 = -1.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-3
8.1 Ensemble fondamentaux des nombres N = {0,1, 2,3,⋯ ,} = ensemble des nombres entiers non négatifs (nombres naturels) P = {1, 2, 3,⋯} = N − {0} = ensemble des nombres entiers positifs Z = {⋯, −2, −1, 0,1, 2,⋯} = ensemble de tous les entiers a Q = , a , b ∈ Z avec b ≠ 0 = ensemble des nombres rationnels b R = {ensemble de tous les nombres réels} C = { z = a + bi, a , b ∈ R et i = −1} = ensemble des nombres complexes Un nombre irrationnel est un nombre qui fait partie de R mais ne fait pas partie de Q. Ainsi, 3 ∈ N,P,Z,Q,R,C 0 ∈ N,Z,Q,R,C −4 ∈ Z,Q,R,C 4.3 ∈ R, C 3 + 2i ∈ C 2i ∈ C ( imaginaire pur ) π , 2 ∈ R, mais ∉ Q
8.2 Caractéristiques et propriétés des nombres complexes 8.2.1 Puissances entières de i : i = −1 i 2 = −1 i 3 = i 2i = −i i 4 = i 2i 2 = 1 ( idem pour tout exposant qui est un multiple entier de 4) i 5 = i 4i = i i 6 = i 4i 2 = −1 i11 = i 8i 3 = −i
Exemple : i 23 = i 5×4i 3 = i 5×4i 2i = (1)( −1) i = −i
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-4
8.2.2 Égalité des 2 nombres complexes : Soit z1 = a + bi et z2 = c + di des nombres complexes. L’égalité z1 = z2 implique que a = c et b = d . c−a , b − d ce qui est impossible puisque le côté droit de cette égalité est un nombre réel. C.Q.F.D.
En effet, a + bi = c + di ⇒ ( b − d ) i = a − c . Si (b – d ) est non nul, alors i =
8.2.3 Conjugué d’un nombre complexe : Le nombre complexe conjugué z d’un nombre complexe z = a + bi se définit comme z = a − bi z + z = 2a z − z = 2bi zz = ( a + bi ) ( a − bi ) = a 2 − b2i 2 = a 2 + b2
8.2.4 Opérations fondamentales sur les nombres complexes : Addition: ( a + bi ) + ( c + di ) = ( a + c ) + ( b + d ) i Soustraction: ( a + bi ) − ( c + di ) = ( a − c ) + ( b − d ) i Multiplication : ( a + bi )( c + di ) = ac + adi + bci + bdi 2 = (ac −bd ) + (ad + bc ) i a + bi ( a + bi ) ( c − di ) ac + bd bc − ad Division : = = + i c + di ( c + di ) ( c − di ) c 2 + d 2 c 2 + d 2 Exemples : a) Faire disparaître i du dénominateur dans les expressions suivantes : 4 4 i 4i = =− 7i 7i i 7 i −3 =
1 1 1 i i = − = − = − =i i3 i i i −1
b) Effectuer
i
(2 + i)
GCI 100 Algèbre linéaire
4
+ 1 − 2i
Pierre F. Lemieux, ing., Ph.D.
8-5 i
(2 + i)
4
i
+ 1 − 2i =
2
2
+ 1 − 2i =
i
( 3 + 4i )( 3 + 4i )
+ 1 − 2i
( 2 + i ) (2 + i ) i 24 − 7i 649 1257 −7 − 24i i = + 1 − 2i = + 1 − 2i = − 625 625 625 ( −7 + 24i ) −7 − 24i
8.2.5 Valeur absolue ou module d’un nombre complexe La valeur absolue d’un nombre complexe se définit par : z = a + bi = zz = a 2 + b2 Exemple : 2
−4 + 2i = ( − 4 ) + 22 = 2 5
8.2.6 Propriétés des valeurs absolues Soient z1 et z2, des nombres complexes. a) z1 z2 = z1 z2 2
2
En effet, z1 z2 = ( z1z2 )( z1z2 ) = z1z 2 z1z 2 = z1 z 2 b)
2
z1 z1 = z2 z2
c) z1 + z2 ≤ z1 + z2 d) z1 + z2 ≥ z1 − z2
8.3 Représentation géométrique des nombres complexes. Forme trigonométrique Soit le nombre complexe z = a + bi . On peut considérer ce nombre comme un couple ordonné de nombres réels, i.e. (a, b). L’axe des abscisses, Ox, est l’axe réel i.e. la partie réelle de z, Re ( z), tandis que l’axe des ordonnées, Oy, est l’axe imaginaire i.e. la partie imaginaire de z, Im ( z). La figure ci-dessous représente le plan complexe. Le module r , i.e. la distance du point P de l’origine O : 1/2
z = r = ( zz ) = a 2 + b2
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-6
De même que pour le pla cartésien, la notion de distance entre 2 points z1 et z2 se définit : 1/2
z2 − z1 = ( z2 − z1 )( z2 − z1 )
On peut aussi utiliser la représentation trigonométrique pour un nombr complexe z. En effet, comme le montre la figure ci-dessous et comme pour le plan cart sien, le nombre complexe z peut s’écrire dans la forme trigonométrique suivante : z = a + bi = r ( cos θ + i sin θ )
Cependant, il faut ajouter la remarque importante suivante : la position de z demeure inchangée si on utilise l’a gle θ ' = θ + 2k π , où k est un entier. Il existe donc un seul nombre appartenant à l’in ervalle [ −π π ] , et la valeur de θ s’appelle l’argument principal de z, que l’on note Arg z. Pour tout nombre complexe z ≠ 0 ne correspond qu’une seule valeur de θ ans l’intervalle [ −π π ] , cette valeur de θ portant le nom de valeur principale . 2 nom res complexes sont égaux ssi
z1 = z2
r1 = r2 et θ1 = θ2 + 2k π où k = un ent er
De plus, a b z = a + b = r ( cos θ + i sin θ ) ⇒ cos θ = , sin θ = r r
Figure 8-1
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-7
Exemples : a) Écrire sous forme trigonométrique le nombre complexe z = 4 − 3i r 2 = 16 + 9 = 25 ⇒ r = 5 cos θ = 4 5 , sin θ = −3 5 ⇒ z = 5 ( 0.8 − 0.6i ) = 5 ( cos36.87o − i sin 36.87o )
b) Déterminer le module et l’argument du nombre complexe z = −2 ( cos π 8 + i sin π 8 ) Ce nombre complexe peut aussi s’écrire z = 2 ( − cos π 8 − i sin π 8 ) = 2 cos (π + π 8 ) + sin (π + π 8 ) Le module est 2 et son argument est 9π 8 à 2kπ près. Pour se convaincre de l’argument ci-dessus, il s’agit de positionner le nombre complexe dans le plan complexe.
8.4 Formule de De Moivre Produit de 2 nombres complexes : Soient les 2 nombres complexes z1 = r1 ( cos θ1 + i sin θ 1 ) et z2 = r2 ( cosθ 2 + i sin θ 2 ) . Le produit de z1 z2 devient : z1 z2 = r1r2 ( cos θ1 cos θ2 − sin θ1 sin θ 2 ) + i ( cos θ1 sin θ 2 + sin θ1 cosθ 2 ) = r1r2 cos (θ1 + θ 2 ) + i sin (θ1 + θ 2 )
Quotient de 2 nombres complexes : Le quotient de ces 2 nombres s’écrit : z1 r1 ( cosθ1 + i sinθ1 ) r1 ( cosθ1 + i sinθ1 ) ( cosθ2 − i sinθ2 ) = = z2 r2 ( cosθ2 + i sinθ2 ) r2 ( cosθ2 + i sinθ2 ) ( cosθ2 − i sinθ2 ) r r = 1 ( cosθ1 cosθ2 + sinθ1 sinθ2 ) + i ( sinθ1 cosθ2 − cosθ1 sinθ2 ) = 1 cos(θ1 −θ2 ) + i sin(θ1 −θ2 ) r2 r 2
Le nombre complexe i comme opérateur de rotation :
π
iz = r (i cosθ + i 2 sin θ ) = r ( − sin θ + i cosθ ) = r cos θ + + i sin θ + 2 2 π
On constate que le fait de multiplier un nombre complexe par i effectue une rotation de 90o dans le sens antihoraire.
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-8
Avec les considérations ci-dessus, on peut déduire la formule de De Moivre : z n = r n ( cos nθ + i sin nθ )
On peut aussi trouver la racine n-ième d’un nombre complexe. En effet, soit w = r ( cosθ + i sin θ ) un nombre complexe. On appelle racine n-ième d’un nombre complexe w un nombre complexe z tel que z n = w . Dès lors, on pose que z = ρ ( cos α + i sin α ) D’après la formule de De Moivre, z n = ρ n ( cos nα + i sin nα ) = r ( cos θ + i sin θ ) ρ n = r
nα = θ + 2k π
Or n, ρ > 0 ⇒ ρ = n r De plus, α =
θ
π + 2k
n n Les solutions distinctes sont donc obtenues pour k = 0,1, 2,⋯ , n − 1 . La k-ième racine zk devient
π
zk = n r cos + 2k + i sin + 2k n n n n k = 0,1,2,⋯ , n − 1 θ
π
θ
Exemple : Trouver les racines carrées et les racines cubiques de 1. a) Les racines carrées : Tout d’abord, 1 = 1 (cos0o + i sin 0o ) . π π zk = 1 cos 0o + 2k + i sin 0o + 2k 2 2 k = 0,1
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-9 Dès lors, z0 = 1 (cos0o + i sin 0o ) = 1 z1 = 1 ( cos π + i sin π ) = −1
b) Les racines cubiques : π π zk = 3 1 cos 0o + 2k + i sin 0o + 2k 3 3 k = 0,1,2
Dès lors, z0 = 3 1 (cos0o + i sin 0o ) = 1 z1 = 3 1 cos
2π 2π 1 3 + i sin = − +i 3 3 2 2
4π 4π 1 3 z2 = 3 1 cos + i sin = − − i 3 3 2 2
Z1 Z0
Z2
Figure 8-2. Racines cubiques de 1 1 3 ⇒ z2 = ω 2 = ω . Il s’agit d’un triangle équilatéral Il faut noter que ω = z1 = − + i 2 2 inscrit dans le cercle de rayon 1 ci-dessus. On peut généraliser en affirmant que les racine n-ièmes de 1 génèrent un polygone régulier de n côtés inscrit dans un cercle de rayon 1. De plus, on peut considérer un nombre complexe comme un vecteur OP (voir la fig. 8-1).
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-10
8.5 Formule d’Euler Rappel sur les développements en série cosθ = 1 − sin θ = θ −
θ2
2! θ3
e = 1 + θ + θ
3!
+ +
θ2
θ4
4! θ5
5!
+
− −
θ3
θ6
6!
+ ⋯ = ( −1)
θ7
7!
+
∞
θ4
k
( 2k ) !
k =0 ∞
+ ⋯ = ( −1)
k +1
k =1 ∞
+⋯ =
2! 3! 4! Si on développe eiθ en série de Taylor, il vient que
k =0
θ 2 k θ(
2 k −1)
( 2k − 1)!
θ k
k !
k
( iθ ) θ2 θ3 θ4 θ5 iθ e =∑ = 1 + iθ − −i + +i +⋯ k ! 2! 3! 4! 5! k =0 ∞
θ2 θ4 θ3 θ5 = 1 − + − ⋯ + i θ − + +⋯ 3! 5! 2! 4! = cosθ + i sin θ
On obtient ainsi la formule d’Euler : eiθ = cosθ + i sin θ Si on développe e z en série de Taylor, alors e z = e x +iy = e xe iy = e x ( cos y + i sin y )
De plus, on peut établir une relation avec la formule de De Moivre. En effet, z = x + iy = r ( cos θ + i sin θ ) = reiθ n
z n = r n ( eiθ ) = r n einθ = r n ( cos nθ + i sin nθ )
Exemple : a) Exprimer z = −2 + 2i sous forme exponentielle. 3π
i 3π 3π z = 8 ( cosθ + i sin θ ) = 8 cos + i sin = 8e 4 4 4
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-11 b) Exprimer z1 z2 sous la forme a + bi si z1 = 2e
i
π
12
et z2 = 3e
i
2π 3
.
2π
3π i + i i12π i 23π 3π 3π 12 3 z1 z2 = 2e 3e = 6e = 6e 4 = 6 cos + i sin = −3 2 + i 3 2 4 4 π
8.6 Application trigonométrique de la formule d’Euler Si on note que eix = cos x + i sin x e −ix = cos x − i sin x
on obtient par addition et soustraction eix + e − ix cos x = 2 ix e − e − ix sin x = 2i
Ces relations sont fort utiles dans la solution des équations différentielles.
8.7 Solution de systèmes d’équations Un exemple va servir pour montrer comment solutionner un problème d’équation avec une variable complexe. Trouver les solutions de l’équation z 2 + 2 (1 − i ) z − 6i − 3 = 0
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.
8-12 Solution : Tout d’abord, il s’agit de compléter un carré : 2
z 2 + 2 (1 − i ) z = z + (1 − i ) − (1 − i )
2
Dès lors, 2
2
z + (1 − i ) − (1 − i ) − 6i − 3 = 0
( z + (1 − i ) )
2
− 3 − 4i = 0
En posant Z = z + 1 − i , il vient que Z 2 = 3 + 4i Les racines de Z ne peuvent être des nombres réels. Donc Z = a + bi. Dès lors, a 2 − b2 + 2abi = 3 + 4i D'où a 2 − b2 = 3 et 2ab = 4
Les modules de ces 2 membres sont égaux d'où a 2 + b2 = 32 + 42 = 5 ⇒ b 2 = 5 − a 2 a 2 − ( 5 − a 2 ) = 3 ⇒ 2a 2 = 8 ⇒ a = ±
8 = ±2 2
2ab = 4 ⇒ a = 2, b = 1 et Z1 = 2 + i ⇒ a = −2, b = −1 et Z 2 = −2 − i Les solutions de l'équation sont: z1 = Z1 − 1 + i = 2 + i − 1 + i = 1 + 2i z2 = Z 2 − 1 + i = −2 − i − 1 + i = −3
GCI 100 Algèbre linéaire
Pierre F. Lemieux, ing., Ph.D.