0% ont trouvé ce document utile (0 vote)
23 vues62 pages

Cours

Transféré par

mario
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues62 pages

Cours

Transféré par

mario
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 62

Université Claude Bernard Lyon 1

Algèbre 3 - L2 Maths Semestre d’automne 2023-2024

Algèbre 3

Benjamin Schraen

1 Espaces vectoriels et applications linéaires

Dans ce cours, la lettre K désigne l’ensemble Q des nombres rationnels ou l’ensemble


R des nombres réels ou l’ensemble C des nombres complexes.

1.1 Espaces vectoriels

Un K-espace vectoriel (ou tout simplement espace vectoriel quand le corps K est
sous-entendu) est un ensemble E muni de deux lois de composition

E × E −→ E K × E −→ E
(v, w) 7−→ v + w (λ, v) 7−→ λ · v.

Ces deux lois doivent vérifier les propriétés suivantes


a) La loi + est associative :

∀(u, v, w) ∈ E × E × E, (u + v) + w = u + (v + w).

b) La loi + est commutative :

∀(v, w) ∈ E × E, v + w = w + v.

c) Il existe un unique élément neutre 0E ∈ E pour la loi + :

∀v ∈ E, v + 0E = 0E + v = v.

d) Tout élément v ∈ E possède un symétrique −v ∈ E pour la loi + :

v + (−v) = (−v) + v = 0E .

e) La loi · est distributive par rapport aux lois + de E et K :

∀(λ, v, w) ∈ K × E × E, λ · (v + w) = (λ · v) + (λ · w)
∀(λ, µ, v) ∈ K × K × E, (λ + µ) · v = (λ · v) + (µ · v).

1
f) La loi · est compatible à la multiplication dans K :

∀(λ, µ, v) ∈ K × K × E, λ · (µ · v) = (λµ) · v, 1 · v = v.

Dans la pratique, on écrit très souvent λv pour λ · v.


Les éléments de l’ensemble E sont appelés vecteurs et les éléments du corps K sont
appelés scalaires. Il faut bien prendre garde au fait que les lois + et · sont définies sur
des ensembles différents. La loi + part de deux vecteurs et produit un vecteur alors que
la loi · part d’un scalaire et d’un vecteur et produit un vecteur. Si λ est un scalaire et
v un vecteur, il faut imaginer le vecteur λ · v comme étant le vecteur v dilaté au moyen
du coefficient λ.
Remarque 1.1. 1. Soit E un K-espace vectoriel. Si v ∈ E, on a 0 · v + 0 · v =
(0 + 0) · v = 0 · v. On en déduit 0 · v = 0E pour tout v ∈ E.
2. D’après la loi de distributivité, pour v ∈ E, on a v + (−1)v = (1 − 1)v = 0v = 0E .
Ainsi (−1)v est le symétrique de v pour la loi de d’addition et on le note simplement
−v.
Exemple 1.2. Si n > 1 est un entier, l’ensemble K n des n-uplets d’éléments de K
est un espace vectoriel pour les lois suivantes. Si (x1 , . . . , xn ) et (y1 , . . . , yn ) sont deux
éléments de K n et λ ∈ K, on définit

(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ), λ · (x1 , . . . , xn ) := (λx1 , . . . , λxn ).

Si n = 1, l’espace vectoriel K n est juste le corps K et la loi · s’identifie alors à la loi de


multiplication dans K.

Si (v1 , . . . , vn ) est une famille d’éléments de E, on appelle combinaison linéaire de


v1 , . . . , vn un élément de la forme λ1 v1 + · · · + λn vn pour λ1 , . . . , λn ∈ K. On note
Vect(v1 , . . . , vn ) l’ensemble de toutes les combinaisons linéaires de v1 , . . . , vn .

1.2 Familles génératrices, familles libres, bases

Soit E un espace vectoriel.


Définition 1.3. On dit que E est de dimension finie s’il existe une famille (v1 , . . . , vn )
d’éléments de E telle que E = Vect(v1 , . . . , vn ). Une telle famille est appelée famille
génératrice de E.
Exemple 1.4. Si E = K n , pour 1 6 i 6 n, notons ei l’élément (0, . . . , 0, |{z}
1 , 0, . . . , 0).
i
Tout élément (x1 , . . . , xn ) de E peut s’écrire

(x1 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en

donc K n = Vect(e1 , . . . , en ) ce qui montre que (e1 , . . . , en ) est une famille génératrice de
K n.

2
Dans l’exemple précédent, on a envie de dire que K n est en fait de dimension n. Pour
définir correctement la notion de dimension, il est nécessaire d’introduire les notions de
familles libres et de bases.

Définition 1.5. Soit (v1 , . . . , vn ) une famille finie d’éléments de E. On dit que la famille
(v1 , . . . , vn ) est libre si pour tout n-uplet de scalaires (λ1 , . . . , λn ) ∈ K n , on a

λ1 v1 + · · · + λn vn = 0E ⇒ λ1 = λ2 = · · · = λn = 0.

Autrement dit, la seule combinaison linéaire nulle des vecteurs v1 , . . . , vn est la combi-
naison dont les coefficients sont nuls.

Exemple 1.6. Si E = K n , la famille (e1 , . . . , en ) est libre. En effet, supposons que


λ1 e1 + · · · + λn en = 0Rn , alors

(λ1 , . . . , λn ) = λ1 e1 + · · · + λn en = 0Rn = (0, . . . , 0)

donc λ1 = · · · = λn = 0.

Définition 1.7. Une base de E est une famille finie d’éléments de E qui est à la fois
libre et génératrice.

Soit B = (e1 , . . . , en ) une base de E et soit v ∈ E. Comme la famille B est génératrice,


il existe des scalaires x1 , . . . , xn tels que v = x1 e1 + · · · + xn en . Comme de plus la famille
B est libre, les scalaires x1 , . . . , xn sont uniquement déterminés par v. On les appelle les
coordonnées de v dans la base B.

Exemple 1.8. Si E = Rn , notons B = (e1 , e2 , . . . , en ) la famille des vecteurs élémentaires


(voir exemple 1.4). Il s’agit d’une famille génératrice et libre, donc il s’agit d’une base
de Rn . Si v = (x1 , . . . , xn ) ∈ Rn , on a

(x1 , x2 , . . . , xn ) = x1 e1 + · · · xn en

donc les scalaires x1 , . . . , xn sont les coordonnées du vecteur (x1 , . . . , xn ) dans la base
B. Pour cette raison, on lui donne le nom de base canonique de Rn . Mais attention, il
existe bien d’autres bases dans Rn !

Il peut être commode, du point de vue du calcul matriciel, de noter les coordonnées
d’un vecteur sous forme de vecteur colonne. Si E est un espace vectoriel, B une base de
E et v ∈ E, on note
x1
 
 .. 
[v]B =  . 
xn
le vecteur colonne des coordonnées de v dans la base B.

3
Exemple 1.9. Soit K[X] l’ensemble des polynômes en une variable à coefficients dans
K. Si n > 0, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n. La
famille B = (1, X, X 2 . . . , X n ) est une base de Kn [X]. De plus on a
 
a0
 a1 
 
[a0 + a1 X + · · · + an X n ]B = 
 ..  .

 .
an

Théorème 1.10. Soit E un K-espace vectoriel de dimension finie.


1) Il existe au moins une base de E.
2) Toutes les bases de E ont le même nombre d’éléments.
3) On peut toujours compléter une famille libre de E en une base.
4) On peut toujours extraire une base d’une famille génératrice de E.

Si E est un K-espace vectoriel de dimension finie. La longueur d’une base de E


est appelée dimension de E. On la note dimK E (ou encore dim E lorsque le corps des
scalaires est défini sans ambiguïté).
Exemple 1.11. L’exemple 1.8 montre que la famille des vecteurs élémentaires (e1 , . . . , en )
est une base de K n , on en conclut que dimK K n = n.
Exemple 1.12. Dans l’exemple 1.9, on a vu que la base (1, X, X 2 , . . . , X n ) est une base
du K-espace vectoriel Kn [X]. On en conclut que dimK Kn [X] = n + 1.

1.3 Sous-espaces vectoriels

Définition 1.13. Soit E un K-espace vectoriel. Un sous-K-espace vectoriel de E (ou


simplement sous-espace vectoriel lorsque K est sous-entendu) est une partie F de E
vérifiant
(i) 0E ∈ F ;
(ii) pour tous v et w dans F , on a v + w ∈ F ;
(iii) pour tout v dans F et tout λ dans K, on a λv ∈ F .
Exemple 1.14. Dans R3 , l’ensemble des éléments (x1 , x2 , x3 ) vérifiant la relation 2x1 +
3x2 + 5x3 = 0 est un sous-espace vectoriel. Il s’agit d’un exemple de sous-espace vectoriel
défini par une équation.
Exemple 1.15. Dans R3 posons v = (1, 2, 3) et w = (2, 7, 3). Alors l’ensemble

{λv + µw | (λ, µ) ∈ R2 } = {λ + 2µ, 2λ + 7µ, 3λ + 3µ) | (λ, µ) ∈ R2 }

est un sous-espace vectoriel de R3 . Il s’agit d’un exemple de sous-espace vectoriel engen-


dré par une famille de vecteurs, ici les vecteurs v et w.

4
On peut effectuer des opérations sur les sous-espaces vectoriels afin d’en produire de
nouveaux.
Si E est un espace vectoriel et si F1 et F2 sont deux sous-espaces vectoriels, l’inter-
section F1 ∩ F2 est un sous-espace vectoriel de E. L’ensemble

F1 + F2 = {v + w | (v, w) ∈ F1 × F2 }

est un sous-espace vectoriel de E appelé somme des sous-espaces F1 et F2 . Plus généra-


lement, si F1 , . . . , Fn sont des sous-espaces vectoriels, la partie

F1 + · · · + Fn = {x1 + · · · + xn | (x1 , . . . , xn ) ∈ F1 × · · · × Fn }

est un sous-espace vectoriel de E appelé somme de la famille de sous-espaces (F1 , . . . , Fn ).


Si v ∈ E, on note Kv l’ensemble {λv | λ ∈ K}. C’est un sous-espace vectoriel de E
appelé droite vectorielle engendrée par v. Si (v1 , . . . , vn ) est une famille d’éléments de E,
le sous-espace vectoriel engendré par (v1 , . . . , vn ) est noté Vect(v1 , . . . , vn ) et définit par

Vect(x1 , . . . , xn ) := Kx1 + · · · + Kxn = {λ1 v1 + · · · + λn vn | (λ1 , . . . , λn ) ∈ K n }.

Remarquons que dans l’exemple 1.15, le sous-espace vectoriel peut être défini comme
Vect(v, w).
Soit E un K-espace vectoriel, ainsi que F1 et F2 deux sous-espaces vectoriels de E.
Par définition, tout élément de F1 + F2 s’écrit sous la forme v + w avec v ∈ F1 et w ∈ F2 .
2
Cette écriture n’est
! pas !! par exemple le cas de E = R avec
!!toujours unique. Considérons
!
1 1 0 1
F1 = Vect , et F2 = Vect , . Alors on peut écrire
0 1 1 1
! ! ! ! !
2 1 1 0 1
= + =− +2 .
1 0 1 1 1

Cependant lorsque cette décomposition est unique, on dit que les sous-espaces F1 et F2
sont en somme directe. Plus généralement, on peut définir la notion de somme directe
pour une famille finie de sous-espaces vectoriels.

Définition 1.16. Soit E un espace vectoriel. Si F1 , . . . , Fn sont des sous-espaces vecto-


riels de E, on dit qu’ils sont en somme directe si tout élément v ∈ F1 + · · · + Fn s’écrit
de façon unique sous la forme x = v1 + · · · + vn avec vi ∈ Fi pour 1 6 i 6 n. Lorsque tel
est le cas, on note également F1 ⊕ · · · ⊕ Fn le sous-espace vectoriel F1 + · · · + Fn .

Pour vérifier que des sous-espaces vectoriels sont en somme directe, on peut utiliser
le critère suivant.

Proposition 1.17. Les sous-espaces F1 +· · ·+Fn sont en somme directe si et seulement


si pour tout (v1 , . . . , vn ) ∈ F1 × · · · × Fn , l’égalité v1 + · · · + vn = 0 implique v1 = v2 =
· · · = vn = 0.

5
Démonstration. Le sens ⇒ est immédiat, il s’agit juste d’appliquer la définition d’une
somme directe à la décomposition de l’élément 0. Montrons que si l’égalité v1 +· · ·+vn = 0
implique v1 = v2 = · · · = vn = 0 pour tout (v1 , . . . , vn ) ∈ F1 × · · · × Fn , alors les sous-
espaces F1 , . . . , Fn sont en somme directe. Il faut donc prouver que si (v1 , . . . , vn ) ∈
F1 × · · · × Fn et si (w1 , . . . , wn ) ∈ F1 × · · · × Fn vérifient
v 1 + · · · + v n = w1 + · · · + wn , (1)
alors v1 = w1 , . . . , vn = wn . Pour cela, réécrivons l’égalité (1) sous la forme
(v1 − w1 ) + (v2 − w2 ) + · · · + (vn − wn ) = 0.
L’hypothèse implique alors v1 − w1 = · · · = vn − wn = 0, c’est-à-dire v1 = w1 , . . . , vn =
wn .

Le cas de deux sous-espaces vectoriels est particulier.


Proposition 1.18. Soit E un K-espace vectoriels et soient F1 et F2 deux sous-espaces
vectoriels de E. Alors F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = 0.

Démonstration. Supposons tout d’abord que F1 et F2 sont en somme directe. Soit v ∈


F1 ∩ F2 . Alors 0 = v − v = 0 − 0. Comme F1 et F2 sont en somme directe, une telle
décomposition est unique, ainsi v = 0 et donc F1 ∩ F2 = 0. Réciproquement supposons
F1 ∩ F2 = 0. Soit (v1 , v2 ) ∈ F1 × F2 tel que v1 + v2 = 0. On a alors v1 = −v2 ∈ F2 , donc
v1 ∈ F1 ∩ F2 et donc v1 = 0. On en déduit v2 = 0. Ainsi la proposition 1.17 implique que
F1 et F2 sont en somme directe.
Remarque 1.19. Attention, la proposition 1.18 ne se généralise pas verbatim au cas
deux n sous-espaces vectoriels avec n > 3. Considérons par exemple le cas de E = R2 ,
F1 = R(1, 0), F2 = R(0, 1) et F3 = R(1, 1). On vérifie que F1 ∩F2 = F2 ∩F3 = F1 ∩F3 = 0
(en particulier F1 ∩ F2 ∩ F3 = 0). Pourtant ces trois sous-espaces ne sont pas en somme
directe puisque
(1, 1) = 0 + 0 + (1, 1) = (1, 0) + (0, 1) + 0.
Proposition 1.20. Soit E un espace vectoriel et soient F et G deux sous-espaces vec-
toriels de E. Si F et G sont de dimension finie, alors F + G et F ∩ G sont de dimension
finie et on a
dim(F + G) = dim F + dim F − dim F ∩ G.
Proposition 1.21. Soit (F1 , . . . , Fn ) une famille de sous-espaces vectoriels de dimension
finie de E. Si ces sous-espaces sont en somme directe, alors pour toute base B1 de F1 , B2
de F2 ,. . .,Bn de Fn , la famille B obtenue en concaténant B1 , B2 ,. . .,Bn est une famille
libre de E. Si de plus F1 ⊕ · · · ⊕ Fn = E, alors B est une base de E.
Proposition 1.22. Soient F1 , . . . , Fn des sous-espaces vectoriels de dimension finie de
E. Ces sous-espaces sont en somme directe si et seulement si
n
X
dim(F1 + · · · + Fn ) = dim Fi .
i=1

6
Sooit E un espace vectoriel et soit F un sous-espace vectoriel de E. On appelle
supplémentaire de F dans E un sous-espace vectoriel G de E tel que E = F ⊕ G.
Proposition 1.23. Tout sous-espace vectoriel F d’un espace vectoriel E possède au
moins un supplémentaire.

Il faut prendre garde au fait qu’un supplémentaire d’un sous-espace vectoriel est loin
d’être unique, il en existe même une infinité en général.
Corollaire 1.24. Soit E un espace vectoriel de dimension finie et soit F un sous-espace
vectoriel de E. Si dim F = dim E alors F = E.

Démonstration. Soit G un supplémentaire de F dans E. On a alors E = F ⊕ G, donc


dim E = dim F + dim G. On en déduit que dim G = 0 et donc que G = {0E }. Ainsi
F = E.

1.4 Applications linéaires

Définition 1.25. Soient E et F deux espaces vectoriels. Une application linéaire de E


dans F est une application f de E dans F telle que

∀(λ, v, w) ∈ K × E × E, f (v + w) = f (v) + f (w), f (λv) = λf (v).

Si E et F sont deux espaces vectoriels, on note L(E, F ) l’ensemble des applications


linéaires de E dans F .
Lorsque E = F , on note L(E) = L(E, E). Un élément de L(E) est appelé endomor-
phisme de E.
Exemple 1.26. L’application f : R2 → R2 définie par f (x, y) = (x + y, y + 2x) est
linéaire.

Si f et g sont deux applications linéaires de E dans F , on note f + g l’application


de E dans F définie par

∀v ∈ E, (f + g)(v) = f (v) + g(v).

Il s’agit d’une application linéaire de E dans F . De même si λ ∈ K, on note λ · f


l’application de E dans F définie par

∀v ∈ E, (λ · f )(v) = λ · f (v).

Il s’agit encore d’une application linéaire de E dans F . Muni des opérations + et ·


définies ci-dessus, l’ensemble L(E, F ) est un espace vectoriel.
Si E, F et G sont trois espaces vectoriels, et si f ∈ L(E, F ) et g ∈ L(F, G), l’appli-
cation composée g ◦ f est une application linéaire de E dans G.

7
Définition 1.27. Si E et F sont deux espaces vectoriels et si f est une application
linéaire de E dans F , on note Im f l’image f (E) de f et Ker f le noyau de f , c’est-à-
dire l’ensemble f −1 ({0}) = {x ∈ E, f (x) = 0}.

On vérifiera à titre d’exercice que Ker f est un sous-espace vectoriel de E et que Im f


est un sous-espace vectoriel de F .
Proposition 1.28. Si f est une application linéaire entre deux espaces vectoriels, alors
f est injective si et seulement si Ker f = 0.

Démonstration. Si f est injective, alors Ker f est réduit à 0. Réciproquement supposons


que Ker f = {0}. Si x et y sont deux éléments de E tels que f (x) = f (y), alors f (x) −
f (y) = 0. Par linéarité de f , on a alors f (x − y) = 0 et donc x − y ∈ Ker f . Ainsi on doit
avoir x − y = 0, c’est-à-dire x = y. On a prouvé que l’application f est injective.

La dimension de l’espace vectoriel Im f est appelé le rang de f et est notée rg f .


Ainsi on a, par définition, rg f = dim Im f .
Théorème 1.29 (Théorème du rang). Soit E un espace vectoriel de dimension finie et
soit F un espace vectoriel. Si f est une application linéaire de E dans F , alors Im f est
un sous-espace vectoriel de dimension finie de F et on a
dim Im f = dim E − dim Ker f.
Exemple 1.30. Considérons l’application linéaire f : R2 → R2 définie par
f (x, y) = (x + y, 2x + y).
Déterminons son noyau. Un élément (x, y) ∈ R2 est dans le noyau de f si et seulement
si il est solution du système d’équations linéaires homogène
( ( (
x+y =0 x+y =0 x =0
⇔ ⇔
2x + y =0 x =0 y = 0.
Ainsi Ker f = 0 et l’application f est injective. Le théorème du rang (théorème 1.29)
nous donne alors rg f = 2.

1.5 Matrices

Définition 1.31. Soient m > 1 et n > 1 deux entiers. Une matrice de taille m × n à
coefficients dans K est un tableau rectangulaire A ayant m lignes et n colonnes contenant
des éléments de A. On note ai,j ses coefficients et on les indexe de la façon suivante
 
a1,1 a1,2 ··· a1,n
 .. 
a a2,2 . a2,n 
A = (ai,j )16i6m =  2,1 .
 
16j6n  .. .. .. .. 
 . . . . 

am,1 am,2 · · · am,n

8
On note Mm,n (K) l’ensemble des matrices à m lignes et n colonnes. C’est un K-
espace vectoriel pour les opérations suivantes
— A = (ai,j )16i6m , B = (bi,j )16i6m , alors C = A + B où C = (ai,j + bi,j )16i6m .
16j6n 16j6n 16j6n
— A = (ai,j )16i6m , λ ∈ K, alors λ · A = (λai,j )16i6m .
16j6n 16j6n
Le K-espace vectoriel Mm,n (K) est de dimension finie. Une base de Mm,n (K) est
donnée par la famille de matrices Ei,j pour 1 6 i 6 m et 1 6 j 6 n. La matrice Ei,j
est la matrice dont toutes les entrées sont nulles sauf l’entrée à l’intersection de la i-ème
ligne et de la j-ème colonne qui vaut 1. On en déduit que
dimK Mm,n (K) = mn.

Si m = n, une matrice de Mn (K) = Mn,p (K) est appelée matrice carrée de taille n.
Si A ∈ Mn,p (K) et B ∈ Mp,q (K), on définit le produit de A avec B par
AB = (ci,j )16i6n ∈ Mn,q (K)
16j6q
Pp
où ci,j = k=1 ai,k bk,j .
Proposition 1.32. Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), on a
— A(BC) = (AB)C ;
— A(B + C) = (AB) + (AC) ;
— (A + B)C = (AC) + (BC) ;
— si λ ∈ K, on a λ(AB) = (λA)B = A(λB).

Pour n > 1, on identifie l’espace vectoriel K n à l’espace des matrices Mn,1 (K) via
x1
 
 .. 
l’opération (x1 , . . . , xn ) 7→  . .
xn
Si n > 1, on note In la matrice (ai,j ) 16i6n de Mn (K) définie par ai,j = 0 si i 6= j et
16j6n
ai,j = 1 si i = j. On l’appelle la matrice identité.
Définition 1.33. Si A ∈ Mn,p (K), on appelle transposée de A et on note t A la matrice
de Mp,n (K) définie par
t
A = (aj,i ) 16i6p .
16j6n

On a alors t (AB) = t B t A.
Définition 1.34. Une matrice A ∈ Mn (K) est dite inversible s’il existe une matrice
B ∈ Mn (K) telle que AB = BA = In . Si elle existe, la matrice B est unique et est
appelée inverse de A. On la note alors A−1 .

On note GLn (K) l’ensemble des matrices inversibles de Mn (K). Si A et B sont dans
GLn (K), alors AB ∈ GLn (K) et
(AB)−1 = B −1 A−1 .

9
1.6 Représentation matricielle d’une application linéaire

Soient E et F deux K-espaces vectoriels de dimension finie. On fixe BE = (e1 , . . . , en )


une base de E et BF = (f1 , . . . , fm ) une base de F . Soit u ∈ L(E, F ) une application
linéaire de E dans F . Pour 1 6 j 6 n, on note (ai,j )16i6m les coordonnées de u(ej ) dans
la base BF . Autrement dit

u(ej ) = a1,j f1 + · · · + am,j fm .

La matrice de taille m × n de termes (ai,j )16i6m est appelée matrice de u dans les bases
16j6n
BE et BF . On la note Mat(BE ,BF ) (u) ou encore Mat(u; BE , BF ). Si E = F et BE = BF ,
on note MatBE (u) = Mat(BE ,BE ) (u).
Soit v ∈ E. Si (x1 , . . . , xn ) est le système de coordonnées de v dans la base BE , on
x1
 
 .. 
note [v]BE =  .  le vecteur des coordonnées de v dans la base BE .
xn
La matrice de u dans les bases BE et BF a alors la propriété suivante, pour tout
v ∈ E,
[u(v)]BF = Mat(BE ,BF ) (u)[v]BE .
Proposition 1.35. Soient E, F et G trois espaces vectoriels de dimension finie. Soient
BE une base de E, BF une base de F et BG une base de G. Alors si u ∈ L(F, G) et
v ∈ L(E, F ), on a

Mat(BE ,BG ) (u ◦ v) = Mat(BF ,BG ) (u) Mat(BE ,BF ) (v).

1.7 Changements de base

Soit E un K-espace vectoriel de dimension finie n. Soient B et B 0 deux bases de E.


La matrice de passage de B à B 0 est la matrice carrée de taille n dont la j-ème colonne
est donnée par les coordonnées du j-ème vecteur de B 0 dans la base B. Autrement dit,
si B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0n ), et que
n
∀1 6 j 6 n, e0j =
X
ai,j ei ,
i=1

alors
0
PB→B0 = PBB = (ai,j ) 16i6n .
16j6n

Si v ∈ E, on a alors
[v]B = PB→B0 [v]B0 .
En effet, soit (x1 , . . . , xn ) le système de coordonnées de v dans la base B et (x01 , . . . , x0n )
le système de coordonnées de v dans la base B 0 , c’est-à-dire v = ni=1 xi ei = nj=1 x0j e0j .
P P

10
Pn
Comme e0j = i=1 ai,j ei , on en conclut
 
n n n n n
x0j ai,j x0j  ei .
X X X X X
xi e i = ai,j ei = 
i=1 j=1 i=1 i=1 j=1

Comme (e1 , . . . , en ) est une base de E, on a bien


n
ai,j x0j
X
∀1 6 i 6 n, xi =
j=1

c’est-à-dire [v]B = PB→B0 [v]B0 .


Si B, B 0 et B 00 sont trois bases de E, on a alors
PB→B00 = PB→B0 PB0 →B00 .
De plus, PB→B = In de sorte que la matrice PB→B0 est toujours inversible et que
−1
PB→B 0 = PB 0 →B .

Proposition 1.36. Soient E et F deux espaces vectoriels de dimension finie. Soient BE


0 deux bases de E et B et B 0 deux bases de F . Si f ∈ L(E, F ), on a
et BE F F

Mat(BE0 ,BF0 ) (f ) = PB−1


F →B
0 Mat(BE ,BF ) (f )PBE →B 0 .
E
F

En particulier, si E = F , BE = BF et 0
BE = BF0 , on a
MatBE0 (f ) = PB−1
E →B
0 MatBE (f )PBE →B 0 .
E
E

Deux matrices A et B de Mn (K) sont dites semblables s’il existe une matrice inver-
sible P ∈ GLn (K) telle que
B = P −1 AP.
Deux matrices sont semblables si et seulement si ce sont les matrices du même endomor-
phisme de K n dans des bases différentes.

2 Le groupe symétrique

2.1 Définition

Soit X un ensemble. Une permutation de X est une application bijective f : X → X.


L’ensemble des permutations de X est noté S(X). Comme la composition de deux
applications bijectives est encore bijective, si f et g sont deux permutations de X, leur
composée f ◦ g est encore une permutation de X. On a donc définit une opération sur
l’ensemble S(X) : l’opération de composition qui prend deux éléments f et g de S(X)
et en fournit un troisième f ◦ g.
Nous nous intéresserons désormais uniquement au cas où l’ensemble X est l’ensemble
{1, 2, . . . , n} des entiers de 1 à n pour un entier n > 1.

11
Définition 2.1. On appelle groupe symétrique et on note Sn l’ensemble permutations
de l’ensemble {1, . . . , n}.

Une façon standard de décrire une permutation σ est de l’écrire sous la forme d’un
tableau à deux lignes, la première ligne étant la liste 1, 2, . . . , n et la deuxième la liste
σ(1), σ(2), . . . , σ(n). Voici un exemple si n = 4. La permutation
!
1 2 3 4
2 1 4 3
est la permutation 


 1→7 2

2 →

7 1


 3 7→ 4

4 7→ 3

Théorème 2.2. Soit n > 1 un entier. L’ensemble Sn est fini de cardinal n!.

Démonstration. Il faut compter combien de permutations de l’ensemble fini {1, . . . , n}


sont possibles. Se donner une permutation de {1, . . . , n} revient à se donner n entiers
σ(1), . . . , σ(n) deux à deux distincts et compris entre 1 et n. Il y a donc n choix possibles
pour σ(1). Une fois σ(1) choisi, il n’y a plus que n − 1 choix pour σ(2), puis n − 2 choix
pour σ(3) etc. et une unique possibilité pour σ(n). Au final, il y a donc n(n−1)(n−2) · · · 1
choix possibles de permutations de {1, . . . , n}.

2.2 Exemples d’éléments

Si 1 6 i < j 6 n, on note (i, j) l’unique permutation de {1, . . . , n} qui échange i et


j et fixe tous les autres éléments. Une telle permutation s’appelle une transposition.
Si 2 6 k 6 n et si a1 , . . . , ak sont des éléments distincts de {1, . . . , n}, on note
(a1 , . . . , ak ) la permutation σ définie par
σ(a1 ) = a2
σ(a2 ) = a3
..
.
σ(ak ) = a1
σ(x) = x si x ∈
/ {a1 , . . . , ak }.
Une telle permutation est appelée un k-cycle.
Remarque 2.3. Les 2-cycles sont exactement les transpositions.
Exemple 2.4.
! !
1 2 3 1 2 3
(2, 3) = , (1, 3, 2) = , (1, 2)(2, 3) = (1, 2, 3).
1 3 2 3 1 2

12
2.3 Structure de groupe

La loi de composition ◦ de Sn possède une propriété importante : elle est associative.


Ce la signifie que, pour σ1 , σ2 , σ3 dans Sn , on a

σ1 ◦ (σ2 ◦ σ3 ) = (σ1 ◦ σ2 ) ◦ σ3 .

Démontrons-le.

Proposition 2.5. La loi de composition de Sn est associative.

Démonstration. Rappelons que par définition, la permutation σ1 ◦ σ2 est la permutation


définie par (σ1 ◦σ2 )(x) = σ1 (σ2 (x)). Le principe de la démonstration est donc de calculer,
pour tout x ∈ {1, . . . , n}, les éléments (σ1 ◦ (σ2 ◦ σ3 ))(x) et ((σ1 ◦ σ2 ) ◦ σ3 )(x) et de vérifier
qu’ils sont égaux. Commençons par

(σ1 ◦ (σ2 ◦ σ3 ))(x) = σ1 ((σ2 ◦ σ3 )(x)) = σ1 (σ2 (σ3 (x))).

Et finissons par

((σ1 ◦ σ2 ) ◦ σ3 )(x) = (σ1 ◦ σ2 )(σ3 (x)) = σ1 (σ2 (σ3 (x))).

On a donc (σ1 ◦ (σ2 ◦ σ3 ))(x) = ((σ1 ◦ σ2 ) ◦ σ3 )(x) pour tout x ∈ {1, . . . , n}, ce qui signifie
que σ1 ◦ (σ2 ◦ σ3 ) = (σ1 ◦ σ2 ) ◦ σ3 .

L’application identité Id{1,...,n} (que nous noterons simplement Id par la suite) est
une permutation de X et vérifie σ ◦ Id = σ = Id◦ σ. On dit que c’est un élément neutre
pour la loi ◦.
Si σ ∈ Sn , l’application réciproque σ −1 est un autre élément de Sn qui vérifie
σ ◦ σ −1 = σ −1 ◦ σ = Id.
Ces observations peuvent se résumer en disant que la paire (Sn , ◦) est un groupe.

Définition 2.6. Un ensemble G muni d’une loi de composition interne ∗ est appelé un
groupe si
(i) la loi ∗ est associative : a ∗ (b ∗ c) = (a ∗ b) ∗ c pour tous a, b, c dans G ;
(ii) la loi x possède un élément neutre e ∈ G : e ∗ a = a ∗ e = a pour tout a ∈ G ;
(iii) tout élément a de G possède un symétrique a−1 pour ∗ : a ∗ a−1 = a−1 ∗ a = e.

Exemple 2.7. La paire (Sn , ◦) est un groupe. Si E est un espace vectoriel, la paire
(E, +) possède également une structure de groupe.

Ainsi tout élément possède un inverse et (S(X), ◦) est un groupe.

13
Exemple 2.8. Considérons les éléments de S3
! !
1 2 3 0 1 2 3
σ= σ =
2 3 1 2 1 3

et calculons σσ 0 . On a σσ 0 (1) = σ(2) = 3 et σσ 0 (2) = σ(1) = 2. Comme σσ 0 est une


permutation, on a nécessairement σσ 0 (3) = 1 :
σ0

σ
1 7−
→ 2 7−
→3

 2 7→ 1 7→ 2


3 7→ 3 7→ 1
! !
1 2 3 1 2 3
et donc σσ 0 = . À titre d’exercice, vérifier que σ 0 σ = . On remarque
3 2 1 1 3 2
que σσ 0 6= σ 0 σ, le groupe S3 n’est donc pas commutatif ! L’ordre de composition est donc
très important.

Lorsqu’un groupe (G, ∗) vérifie de plus la propriété a ∗ b = b ∗ a pour tous a, b dans


G, on dit qu’il est commutatif. On vient de voir que le groupe S3 (et par extension le
groupe Sn pour n > 3) n’est pas commutatif.
Proposition 2.9. Tout élément de Sn s’écrit comme un produit de transpositions.

Démonstration. Pour n > 2, soit Hn l’hypothèse de récurrence « toute permutation de


{1, . . . , n} est un produit de transpositions ». Alors H2 est vrai car S2 = {Id, (12)}.
Supposons Hn vrai et démontrons Hn+1 . Soit σ ∈ Sn+1 et posons
(
0 σ si σ(n + 1) = n + 1
σ =
(n, σ(n + 1)) ◦ σ si σ(n + 1) 6= n + 1.

Alors σ 0 (n + 1) = n + 1. La restriction de σ 0 à {1, . . . , n} est un élément de Sn et s’écrit


comme un produit de transpositions par Hn . Comme σ = (n, σ(n+1))◦σ 0 , on en conclut
que σ est un produit de transpositions.

2.4 Signature

Si σ ∈ Sn , on pose

`(σ) = Card{(i, j) ∈ {1, . . . , n}2 | i < j et σ(i) > σ(j)}.

Il s’agit du nombre d’inversions de σ. On pose alors ε(σ) = (−1)`(σ) . Le nombre ε(σ)


s’appelle la signature de σ.
Théorème 2.10. Pour tous σ, τ ∈ Sn , on a ε(σ ◦τ ) = ε(σ)ε(τ ). De plus on a ε(τ ) = −1
si τ est une transposition.

14
Démonstration. Soient σ1 et σ2 deux éléments de Sn . Il faut vérifier que ε(σ1 σ2 ) =
ε(σ1 )ε(σ2 ). On utilise la formule suivante
Y
ε(σ) = sgn(σ(j) − σ(i)).
16i<j6n

On a
Y Y
ε(σ1 σ2 )ε(σ2 ) = sgn(σ1 σ2 (j) − σ1 σ2 (i))sgn (σ2 (j) − σ2 (i))
16i<j6n i<j
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (i)))sgn(σ2 (j) − σ2 (i))
16i<j6
| {z }
symétrique en i et j
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (j)))sgn(σ2 (j) − σ2 (i))
16σ2 (i)<σ2 (j)6n
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (j)))
16σ2 (i)<σ2 (j)6n
Y
= sgn(σ1 (j) − σ1 (i)) = ε(σ1 ).
16i<j6n

On a donc ε(σ1 σ2 )ε(σ2 ) = ε(σ1 ). Comme ε(σ2 ) ∈ {±1}, on a ε(σ2 ) = ε(σ2 )−1 et donc
ε(σ1 σ2 ) = ε(σ1 )ε(σ2 ).
Il reste à vérifier si τ est une transposition, on a ε(τ ) = −1. Supposons que τ = (i, j)
avec i < j et soient k < `.



 k, ` ∈
/ {i, j} τ (k) = k < ` = τ (`)

k = i, ` 6= j

τ (k) < τ (`) si ` > j, τ (k) > τ (`) si i < ` < j


 k 6= i, ` = j τ (k) < τ (`) si k < i, τ (k) > τ (`) si i < k < j

(k, `) = (i, j) τ (k) > τ (`).

Ainsi `(τ ) = 2(j − i − 1) + 1 et donc ε(τ ) = −1.

Si G et H sont deux groupes. On appelle morphisme d’un groupe G vers un groupe


H une application f : G → H telle que f (gh) = f (g)f (h) pour tous g et h dans G.
Exemple 2.11. Considérons le cas où G = Sn et H = {±1} muni de la loi de multipli-
cation. Alors la signature ε est un morphisme du groupe Sn vers le groupe {±1}.
Proposition 2.12. Pour tout σ ∈ Sn , on a

ε(σ −1 ) = ε(σ)−1 = ε(σ).

Démonstration. On a ε(Id) = 1. Par ailleurs si σ ∈ Sn , on a

ε(σ)ε(σ −1 ) = ε(σσ −1 ) = ε(Id) = 1.

Ainsi ε(σ)−1 = ε(σ −1 ). Comme ε(σ) ∈ {±1}, on a ε(σ)2 = 1 et donc ε(σ) = ε(σ)−1 .

15
Corollaire 2.13. Soit σ ∈ Sn . La parité du nombre de transposition dans une décom-
position de σ en produit de transpositions ne dépend que de σ.

Démonstration. Soient σ = τ1 · · · τr et σ = τ10 · · · τs0 deux décomposition de σ en produit


de transposition. Comme ε(τi ) = ε(τj0 ) = −1 pour tous i et j, on a ε(σ) = (−1)r = (−1)s .
On en déduit que r et s ont la même parité.

3 Déterminants

3.1 Déterminants d’ordre 2 (rappel)


!
a b
Si A = ∈ M2 (K), le déterminant de A est la quantité
c d

a b
det(A) = = ad − bc.
c d

Cette quantité a la propriété suivante : la matrice A est inversible si et seulement si


det A 6= 0.

3.2 Déterminants d’ordre supérieur

Définition 3.1. Soit A = (ai,j ) 16i6n ∈ Mn (K). On appelle déterminant de la matrice


16j6n
A la quantité
X n
Y X
det(A) = ε(σ) aσ(i),i = ε(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n .
σ∈Sn i=1 σ∈Sn

On utilise également la notation

a1,1 · · · a1,n
det(A) = ... ..
.
.. .
.
an,1 · · · an,n

Exemple 3.2. Si n = 2, on a S2 = {Id, (1, 2)} et ε((1, 2)) = −1. Ainsi

a b
= ad − bc.
c d

On retrouve la notion de déterminant d’une matrice 2 × 2 vue en première année.


Si n = 3, on a S3 = {Id, (12), (23), (13), (123), (132)} et

ε(Id) = ε((123)) = ε((132)) = 1, ε((12)) = ε((23)) = ε((13)) = −1.

16
Ainsi

a1,1 a1,2 a1,3


a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 − a2,1 a1,2 a3,3 − a1,1 a3,2 a2,3 − a3,1 a2,2 a1,3
a3,1 a3,2 a3,3
+ a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3 .

Voici un cas particulièrement simple de calcul du déterminant. On dit qu’une matrice


A ∈ Mn (K) est triangulaire supérieure si ai,j = 0 dès que i > j. Autrement dit il s’agit
d’une matrice de la forme  
a1,1 a1,2 · · · a1,n
 0

a2,2 · · · a2,n 

 . .. 
 . .. ..
 . . . . 

0 ··· 0 an,n

Proposition 3.3. Soit A ∈ Mn (K). Une matrice triangulaire supérieure. Alors


n
Y
det(A) = ai,i = a1,1 a2,2 · · · an,n .
i=1

Démonstration. Soit σ ∈ Sn . Si σ 6= Id, il existe 1 6 i 6 n tel que σ(i) > i. Comme A


est triangulaire supérieure, on a aσ(i),i = 0. On en déduit que ni=1 aσ(i),i = 0 dès que
Q

σ 6= Id. On déduit alors la formule de la définition du déterminant.

On admet également la formule suivante pour le calcul des matrices triangulaires par
blocs.

Proposition 3.4. Si A1 ∈ Mr (K), A2 ∈ Mn−r (K) et B ∈ Mr,n−r (K), alors

A1 B
= det(A1 ) det(A2 ).
0n−r,r A2

Proposition 3.5. Soit A ∈ Mn (K) une matrice carrée. On a alors det(t A) = det(A).

Démonstration. Soit A = (ai,j ) 16i6n ∈ Mn (K). Notons t A = (bi,j ) 16i6n . Par définition
16j6n 16j6n
de la transposée, on a bi,j = aj,i pour 1 6 i, j 6 n. Ainsi, par définition du déterminant,
on a donc
n n n
ε(σ −1 )
X Y X Y X Y
det(t A) = ε(σ) ai,σ(i) = ε(σ) aσ−1 (i),i = aσ(i),i
σ∈Sn i=1 σ∈Sn i=1 σ∈Sn i=1

où la dernière égalité provient du fait que l’application σ 7→ σ −1 est une bijection de Sn


sur Sn . On conclut en remarquant que ε(σ −1 ) = ε(σ) pour tout σ ∈ Sn .

17
3.3 Opérations sur les lignes et les colonnes d’un déterminant

Théorème 3.6. 1) Si on échange deux colonnes distinctes d’une matrice carrée, on


multiplie son déterminant par −1.
2) Si deux colonnes distinctes d’une matrice carrée A sont égales, alors det A = 0.
3) On ne change pas le déterminant d’une matrice carrée A en ajoutant à une de
ses colonnes une combinaison linéaire des autres colonnes. Autrement dit si 1 6 i 6 n
et si (λj )j6=i est une famille de scalaires, on a
X
det(C1 · · · Cn ) = det(C1 · · · Ci−1 (Ci + λj Cj ) · · · Cn ).
j6=i

Comme la transposition échange les lignes et colonnes d’une matrice et que le déter-
minant ne change pas par transposition, tous les résultats portant sur les colonnes d’un
déterminant ont un analogue sur les lignes. On en déduit donc le résultat suivant.

Proposition 3.7. Soit n > 1.


1) Si on échange deux lignes d’une matrice carrée A ∈ Mn (K), on multiplie son
déterminant par −1.
2) Une matrice carrée A ∈ Mn (K) ayant deux lignes égales vérifie det A = 0.
3) On ne change pas le déterminant d’une matrice carrée A en ajoutant à une de
ses lignes une combinaison linéaire des autres lignes.

Pour calculer un déterminant, on peut donc commencer par le mettre sous forme
triangulaire supérieure (ou inférieure) en effectuant des opérations élémentaires sur ses
lignes ou ses colonnes et utiliser la formule permettant de calculer le déterminant d’une
matrice triangulaire.
Nous allons à présent démontrer les énoncés ci-dessus.

Proposition 3.8. L’application det est linéaire en chaque colonne. Plus précisément,
étant donné n > 1, ainsi que 1 6 j 6 n et n − 1 vecteurs colonnes

C1 , . . . , Cj−1 , Cj+1 , . . . , Cn ∈ K n ,

alors l’application

K n −→ K
C 7−→ det(C1 , . . . , Cj−1 , |{z}
C , Cj+1 , . . . , Cn )
j

est linéaire, c’est-à-dire

∀C, C 0 ∈ K n , ∀λ ∈ K, det(C1 , . . . , Cj−1 , C + λC 0 , Cj+1 , . . . , Cn )


= det(C1 , . . . , Cj−1 , C, Cj+1 , . . . , Cn ) + λ det(C1 , . . . , Cj−1 , C 0 , Cj+1 , . . . , Cn ).

18
Démonstration. Fixons C1 , . . . , Cj−1 , Cj+1 , Cn , n − 1 vecteurs colonnes de K n . Soient C
et C 0 deux autres vecteurs colonnes et λ ∈ K un scalaire. Il faut prouver que

det(C1 C2 · · · Cj−1 (C + λC 0 )Cj+1 · · · Cn )


= det(C1 C2 · · · Cj−1 Cj Cj+1 · · · Cn ) + λ det(C1 C2 · · · Cj−1 Cj0 Cj+1 · · · Cn ).

Notons donc (ai,k )16i6n les coefficients de Ck pour 1 6 k 6 n, (ai,j )16i6n les coefficients
de C et (a0i,j )16i6n les coefficients de C 0 . On a donc

det(C1 C2 · · · Cj−1 (C + λC 0 )Cj+1 · · · Cn ) = ε(σ)(aσ(j),j + λa0σ(j),j


X Y
aσ(k),k
σ∈Sn k6=j
 

aσ(k),k + λa0σ(j),j
X Y Y
= ε(σ) aσ(j),j aσ(k),k 
σ∈Sn k6=j k6=j
n
ε(σ)a0σ(j),j
X Y X Y
= ε(σ) aσ(k),k + λ aσ(k),k
σ∈Sn k=1 σ∈Sn k6=j

= det(C1 C2 · · · Cj−1 CCj+1 · · · Cn )


+ λ det(C1 C2 · · · Cj−1 C 0 Cj+1 · · · Cn ).

Proposition 3.9. 1) Si on échange deux colonnes distinctes d’une matrice carrée,


on multiplie son déterminant par −1.
2) Si deux colonnes distinctes d’une matrice carrée A sont égales, alors det A = 0.

Démonstration. Prouvons le point 1). Soit A = (ai,j ) 16i6n ∈ Mn (K) et soit τ ∈ Sn une
16j6n
permutation. On a alors
X n
Y
det(A) = ε(σ) aσ(j),j
σ∈Sn j=1
n
ε(στ )ε(τ −1 )
X Y
= aστ (j),τ (j)
σ∈Sn j=1
n
= ε(τ )−1 ε(σ 0 )
X Y
aσ0 (j),τ (j)
σ0 ∈Sn j=1
−1
= ε(τ ) det(Cτ (1) · · · Cτ (n) ).

Si i < j et si τ = (i, j), on a ε(τ ) = ε(τ )−1 = −1 et donc

det(C1 · · · Cj · · · Cj · · · Cn ) = − det(C1 · · · Ci · · · Cj · · · Cn ).

Prouvons à présent le point 2). Si i < j, et si Ci = Cj , on a

det(C1 · · · Ci · · · Cj · · · Cn ) = − det(C1 · · · Cj · · · Ci · · · Cn )
= det(C1 · · · Cj · · · Ci · · · Cn )

19
où la première égalité provient de 1) et la seconde égalité de Ci = Cj . On a donc bien

det(A) = − det(A) = 0.

Exemple 3.10.
0 0 1 1 0 0
0 1 0 =− 0 1 0 .
1 0 0 0 0 1
Corollaire 3.11. On ne change pas le déterminant d’une matrice carrée A en ajoutant
à une de ses colonnes une combinaison linéaire des autres colonnes. Autrement dit si
1 6 i 6 n et si (λj )j6=i est une famille de scalaires, on a
X
det(C1 · · · Cn ) = det(C1 · · · Ci−1 (Ci + λj Cj ) · · · Cn ).
j6=i

Démonstration. En effet on a
X X
det(C1 · · · Ci−1 (Ci + λj Cj ) · · · Cn ) = det(C1 · · · Ci · · · Cn ) λj det(C1 · · · Ci−1 Cj · · · Cn )
j6=i j6=i

= det(C1 · · · Ci−1 Ci · · · Cn )

Comme la transposition échange les lignes et colonnes d’une matrice et que le déter-
minant ne change pas par transposition, tous les résultats portant sur les colonnes d’un
déterminant ont un analogue sur les lignes. On en déduit donc le résultat suivant.

Proposition 3.12. Soit n > 1.


1) L’application det : Mn (K) est linéaire en chaque ligne.
2) Si on échange deux lignes d’une matrice carrée A ∈ Mn (K), on multiplie son
déterminant par −1.
3) Une matrice carrée A ∈ Mn (K) ayant deux lignes égales vérifie det A = 0.
4) On ne change pas le déterminant d’une matrice carrée A en ajoutant à une de
ses lignes une combinaison linéaire des autres lignes.

3.4 Formes multilinéaires alternées

Définition 3.13. Soit E un K-espace vectoriel. Si n est un entier, une forme n-linéaire
sur E est une application
f : E n −→ K
telle que, pour tout 1 6 i 6 n et tous vecteurs v1 , . . . , vi−1 , vi+1 , . . . , vn dans E, l’appli-
cation de E dans K définie par v 7→ f (v1 , . . . , vi−1 , v, vi+1 , . . . , vn ) est linéaire.
Une forme n-linéaire f sur E est dite alternée si, pour tous 1 6 i < j 6 n et tous
vecteurs v1 , . . . , vn dans E, on a f (v1 , . . . , vn ) = 0 dès que vi = vj .

20
Proposition 3.14. Soit f une forme n-linéaire alternée sur un K-espace vectoriel E.
Alors si (v1 , . . . , vn ) ∈ E n et si 1 6 i < j 6 n, on a

f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vn ) = −f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vn ).

Plus généralement si σ ∈ Sn , on a

f (vσ(1) , . . . , vσ(n) ) = ε(σ)f (v1 , . . . , vn ).

Démonstration. Il suffit de démontrer la première formule. On en déduit la seconde en


décomposant σ en produit de transposition et en appliquant plusieurs fois la première
formule.
Comme f est n-linéaire alternée, on a

0 = f (v1 , . . . , vi−1 , vi + vj , vi+1 , . . . , vj−1 , vi + vj , vj+1 , . . . , vn )


= f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vi + vj , vj+1 , . . . , vn )
+ f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi + vj , vj+1 , . . . , vn )
= f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vn )
+ f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vn )
+ f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vn )
+ f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vn )
= 0 + f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vn )
+ f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vn ) + 0.

On en déduit le résultat.

Exemple 3.15. Le déterminant (C1 , . . . , Cn ) 7→ det(C1 · · · Cn ) définit une forme n-


linéaire alternée sur K n .

Théorème 3.16. Soit E un K-espace vectoriel de dimension n. Si f et g sont deux


formes n-linéaires alternées sur E et si f 6= 0, il existe un unique scalaire λ ∈ K tel que
g = λf .

Démonstration. Fixons B = (e1 , . . . , en ) une base de E. Soient v1 , . . . , vn des vecteurs


de E et décomposons-les dans la base B. On a donc, pour tout 1 6 j 6 n,
n
X
vj = ai,j ei
i=1

21
avec ai,j ∈ K. La multilinéarité de f implique alors
n
X
f (v1 , . . . , vn ) = ai1 ,1 f (ei1 , v2 , . . . , vn )
i1 =1
Xn X n
= ai1 ,1 ai2 ,2 f (ei1 , ei2 , v3 , . . . , vn )
i=1 i2 =1
Xn X n n
X
= ··· ai1 ,1 ai2 ,2 · · · ain ,n f (ei1 , . . . , ein ).
i1 =1 i2 =1 in =1

Calculons alors f (ei1 , . . . , ein ) pour tout valeur de (i1 , . . . , in ) ∈ {1, . . . , n}n .
— Si il existe k < ` tels que ik = i` , alors f (ei1 , . . . , ein ) = 0 puisque f est alternée.
— Sinon il existe σ ∈ Sn tel que (i1 , . . . , in ) = (σ(1), . . . , σ(n)) et alors
f (ei1 , . . . , ein ) = ε(σ)f (e1 , . . . , en ).
On a donc
 
X
f (v1 , . . . , vn ) =  ε(σ)aσ(1),1 · · · aσ(n),n  f (e1 , . . . , en ).
σ∈Sn

Remarquons que le même raisonnement nous donne


 
X
g(v1 , . . . , vn ) =  ε(σ)aσ(1),1 · · · aσ(n),n  g(e1 , . . . , en ).
σ∈Sn

En particulier, comme f 6= 0, on a nécessairement f (e1 , . . . , en ) 6= 0. Choisissons alors


λ = g(e1 , . . . , en )f (e1 , . . . , en )−1 . Les formules précédentes montrent alors que g(v1 , . . . , vn ) =
λf (v1 , . . . , vn ) et ceci pour toute valeur de (v1 , . . . , vn ).

Corollaire 3.17. L’application det est l’unique application f : Mn (K) → K telle que
(C1 , . . . , Cn ) 7→ f (C1 · · · Cn ) est n-linéaire alternée sur K n et telle que f (In ) = 1.

3.5 Développement d’un déterminant selon une ligne ou une colonne

Si A ∈ Mn (K) et si i et j sont deux entiers compris entre 1 et n, on note Ai,j ∈


Mn−1 (K) la matrice carrée de taille n − 1 obtenue à partir de A en supprimant dans A
la i-ème ligne et la j-ème colonne.
Théorème 3.18. Soit n > 1 et soit A ∈ Mn (K).
1) Soit 1 6 i 6 n. On a alors
n
X
det A = (−1)i+j ai,j det Ai,j ;
j=1

on dit qu’on a développé det A selon la i-ième ligne.

22
2) Soit 1 6 j 6 n. On a alors
n
X
det A = (−1)i+j ai,j det Ai,j ;
i=1

on dit qu’on a développé det A selon la j-ième colonne.

Démonstration. On prouve la formule de développement selon une ligne. La formule


selon une colonne s’en déduit en utilisant le fait que det(t A) = det(A).
Soit 1 6 i 6 n et posons, pour A ∈ Mn (K),
n
X
f (A) = (−1)i+j ai,j det Ai,j .
j=1

L’application f : Mn (K) → K est linéaire en chaque colonne. Il suffit en effet de


prouver que, pour tout 1 6 j 6 n, l’application A 7→ ai,j Ai,j est linéaire en chaque
colonne. Vérifions-le. Soit 1 6 k 6 n =.
— Si k = j, alors det(Ai,j ) est une valeur qui ne dépend pas de la colonne k et
A 7→ ai,j = ai,k est clairement linéaire en la k-ième colonne.
— Si k < j, alors ai,j est une valeur indépendante de la k-ième colonne et la k-ième
colonne de la matrice Ai,j est obtenue en prenant la k-ième colonne de la matrice A
et en lui enlevant la i-ième ligne. La k-ième colonne de la matrice Ai,j dépend donc
linéaire de la k-ième colonne de A et donc A 7→ ai,j det(Ai,j ) dépend linéairement
de la k-ième colonne de A.
— Si k > j, alors ai,j est une valeur indépendante de la k-ième colonne et la k −1-ième
colonne de la matrice Ai,j est obtenue en prenant la k-ième colonne de la matrice A
et en lui enlevant la i-ième ligne. La k-ième colonne de la matrice Ai,j dépend donc
linéaire de la k-ième colonne de A et donc A 7→ ai,j det(Ai,j ) dépend linéairement
de la k-ième colonne de A.
Si deux colonnes de A sont égales, alors f (A) = 0. Vérifions-le. Supposons qu’il existe
1 6 k < ` 6 n tels que Ck = C` (où Cj désigne la j-ième colonne de A). Si j ∈ / {k, `},
alors Ai,j a deux colonnes égales et donc det(Ai,j ) = 0. Ainsi
f (A) = (−1)i+k ai,k det(Ai,k ) + (−1)` ai,` det(Ai,` ).
Remarquons de plus que ai,k = ai,` . Soit à présent τ le (` − k)-cycle (k, k + 1, . . . , `). La
matrice Ai,k est obtenue à partir de la matrice Ai,` en appliquant la permutation τ aux
colonnes de Ai,` . On en conclut que det(Ai,k ) = ε(τ ) det(Ai,` ). Par ailleurs
τ = (k, k + 1, . . . , `) = (k, k + 1) ◦ (k + 1, k + 2) ◦ · · · ◦ (` − 1, `).
Ainsi τ est produti de ` − k − 1 transpositions et donc ε(τ ) = (−1)`−k−1 . Au final, on a
f (A) = (−1)i+k (−1)`−k−1 ai,` det(Ai,` ) + (−1)i+` ai,` det(Ai,` ) = 0.

Enfin, si A = In , on a det(Ai,j ) = 0 si i 6= j et Ai,i = In−1 . Ainsi f (In ) =


ai,i det(Ai,i ) = 1. Ainsi f coïncide avec la fonction déterminant.

23
3.6 Multiplicativité du déterminant

Théorème 3.19. Soit n > 1 et soient A et B deux matrices de Mn (K). On a alors

det(AB) = det(A) det(B).

Démonstration. Fixons A ∈ Mn (K). Posons, pour toute famille de n vecteurs colonnes


(C1 , . . . , Cn ) ∈ (K n )n ,

f (C1 , . . . , Cn ) = det((AC1 ) . . . (ACn )),

c’est-à-dire le déterminant de la matrice dont les colonnes sont AC1 , . . . , ACn . L’ap-
plication f est n-linéaire et alternée. Il existe donc λ ∈ K tel que, pour toute famille
(C1 , . . . , Cn ) ∈ (K n )n ,
f (C1 , . . . , Cn ) = λ det(C1 . . . Cn ).
Si B ∈ Mn (K), en appliquant cette relation aux colonnes C1 , . . . , Cn de B, on obtient
la relation det(AB) = λ det(B). En appliquant cette égalité avec B = In , on obtient
det(A) = λ. Ainsi det(AB) = det(A) det(B) pour tout B ∈ Mn (K).

Théorème 3.20. Soit A ∈ Mn (K). Alors A est inversible si et seulement si det(A) 6= 0.


De plus, si A est inversible, alors

det(A−1 ) = det(A)−1 .

Démonstration. Supposons A inversible. Alors il existe A−1 ∈ Mn (K) telle que AA−1 =
In . On en déduit

1 = det(In ) = det(AA−1 ) = det(A) det(A−1 ).

En particulier det(A) 6= 0 et det(A−1 ) = det(A)−1 .


Réciproquement supposons que A n’est pas inversible. Alors Ker(A) 6= {0K n }. En
x1
 
 .. 
particulier il existe un vecteur X =  .  ∈ K n r {0K n } tel que AX = 0K n . En notant
xn
C1 , . . . , Cn les colonnes de A, on en déduit ni=1 xi Ci = 0K n . Ainsi les colonnes de A
P

sont liées et det(A) = 0.

3.7 Formule de Cramer

Définition 3.21. Soit A ∈ Mn (K). La comatrice de A est la matrice Com(A) de


Mn (K) définie par
Com(A) = ((−1)i+j det(Ai,j )) 16i6n .
16j6n

24
Théorème 3.22. 1) Si A ∈ Mn (K), on a
t
Com(A)A = At Com(A) = det(A)In .

2) Si A ∈ Mn (K) est inversible, on a


1 t
A−1 = Com(A).
det A

Démonstration. Prouvons le point 1). Soit 1 6 i 6 n et soit 1 6 j 6 n. Calculons le


coefficient bi,j de la ligne i et de la colonne j de la matrice B = t Com(A)A. Il s’agit de
l’élément n
X
(−1)k+j det(Ak,i )ak,j .
k=1
Si i = j, on a, par développement du déterminant de A selon colonne i = j,
n
X
bj,j = (−1)k+j det(Ak,j ak,j = det(A).
k=1

Supposons à présent i 6= j. Soit C la matrice obtenue en remplaçant la i-ième colonne de


A par sa j-ième colonne. En développant le déterminant de C selon sa i-ième colonne,
on a donc n X
bi,j = (−1)k+j det(Ak,i )ak,j = det(C).
k=1
Comme C a deux colonnes égales (sa i-ième et sa j-ième), on a det(C) = 0 et donc
bi,j = 0 si i 6= j. Ainsi la matrice B est la matrice det(A)In , ce qui prouve la formule.
Si A est inversible, on a alors det(A) 6= 0, et on déduit facilement de la formule 1) la
formule 2).
!
a b
Exemple 3.23. Soit A = ∈ GL2 (K). Alors
c d
!
−1 1 d −b
A = .
ad − bc −c a

3.8 Déterminant d’une famille de vecteurs

Soit E un espace vectoriel de dimension finie n > 1 et soit B une base de E.


Définition 3.24. Soit (v1 , . . . , vn ) une famille de n vecteurs de E. Le déterminant de
la famille (v1 , . . . , vn ) dans la base B est le scalaire

det B (v1 , . . . , vn ) = det([v1 ]B , [v2 ]B , . . . , [vn ]B ).

Autrement dit detB (v1 , . . . , vn ) est le déterminant de la matrice carrée de taille n × n


dont la j-ième colonne est le vecteur colonne des coordonnées de vj dans la base B.

25
Remarque 3.25. L’application detB : E n → K est n-linéaire alternée.
Théorème 3.26. Soit E un K-espace vectoriel de dimension n. Soit B une base de E.
Soit (v1 , . . . , vn ) ∈ E n une famille de n vecteurs de E. Alors detB (v1 , . . . , vn ) 6= 0 si et
seulement si la famille (v1 , . . . , vn ) est une base de E.

Démonstration. Comme E est de dimension n, la famille (v1 , . . . , vn ) est une base de E si


et seulement si elle est libre, c’est-à-dire si et seulement si la matrice ([v1 ]B · · · [vn ]B ) a un
noyau réduit à 0K n , c’est-à-dire si et seulement si la matrice ([v1 ]B · · · [vn ]B ), c’est-à-dire
si et seulement si det([v1 ]B · · · [vn ]B ) 6= 0.

4 Réduction des endomorphismes, première partie

On fixe E un K-espace vectoriel.

4.1 Sous-espaces propres et valeurs propres

Définition 4.1. Soit f ∈ L(E) un endomorphisme de E. Un vecteur propre de f est


un vecteur v ∈ E vérifiant les deux propriétés suivantes :
— v est non nul ;
— il existe λ ∈ K tel que f (v) = λv.

Si v est un vecteur propre de f , le scalaire λ tel que f (v) = λv est appelé valeur
propre de f correspondant à v. L’ensemble de toutes les valeurs propres de f est noté
Sp(f ), il s’agit du spectre de f .
Définition 4.2. Si f ∈ L(E) et si λ est une valeur propre de f , le sous-espace Eλ (f ) :=
Ker(f − λIdE ) est appelé sous-espace propre de f associé à λ.

4.2 Analogues matriciels

Définition 4.3. Soit A ∈ Mn (K). Soit uA l’unique endomorphisme de K n dont la


matrice dans la base canonique est A. Un vecteur propre de A est un élément de K n
qui est vecteur propre de uA . De même une valeur propre de A est une valeur propre de
uA . Si λ est un valeur propre de A, on note Eλ (A) le sous-espace Eλ (uA ) de K n et on
l’appelle sous-espace propre de A associé à λ.

En d’autres termes, un vecteur propre de A est un vecteur X ∈ K n tel que X 6= 0


et tel qu’il existe λ ∈ K vérifiant AX = λX. Si λ est une valeur propre de A, on a aussi
Eλ (A) = Ker(A − λIn ).
On note SpK (A) l’ensemble des valeurs propres dans K d’une matrice A et on l’appelle
le spectre de A à valeurs dans K.

26
4.3 Le polynôme caractéristique

Soit A ∈ Mn (K). On note χA la fonction de K dans K définie par

χA (x) := det(xIn − A).

Théorème 4.4. Si A ∈ Mn (K), la fonction χA est un polynôme unitaire de degré n à


coefficients dans K.

Démonstration. Posons, pour 1 6 i, j 6 n,


(
x − ai,i si i = j
bi,j (x) = .
−ai,j 6 j
si i =

Alors bi,j est un polynôme de degré 1 en x si i = j et de degré 0 si i 6= j. Par conséquent,


si σ ∈ Sn , le polynôme nj=1 bσ(j),j est de degré Card{1 6 j 6 n | σ(j) = j}. Il est donc
Q

de degré n quand σ = Id et de degré 6 n − 1 dans les autres cas. Ainsi


n
Y
χA (x) = (x − ai,i ) + Q(x)
i=1

où Q est un polynôme de degré 6 n − 1. Comme ni=1 (x − ai,i ) est un polynôme unitaire


Q

de degré n, on en conclut que χA (x) est un polynôme unitaire de degré n.

Le polynôme χA est appelé polynôme caractéristique de A.


Définition 4.5. Soient A et B deux matrices de Mn (K). On dit que A et B sont
semblables s’il existe une matrice P ∈ Mn (K), inversible, telle que B = P AP −1 .
Proposition 4.6. Si A et B sont deux matrices semblables de Mn (K), alors χA (X) =
χB (X).

Démonstration. Soit x ∈ K. On a alors

χB (x) = det(xIn − P AP −1 ) = det(P (xIn − A)P −1 ) = det(P )χA (x) det(P )−1 = χA (x).

Soit E est un K-espace vectoriel de dimension n et soient B1 et B2 deux bases de E.


Si f ∈ L(E), on a alors

M atB2 (f ) = PB−1
1 →B2
MatB1 (f )PB1 →B2 .

Ainsi les matrices MatB1 (f ) et MatB2 (f ) sont semblables et donc

χMatB1 (f ) (X) = χMatB2 (f ) (X).

Le polynôme χMatB (f ) (X) ne dépend donc pas du choix de la base B mais uniquement
de f . On le note donc χf (X) et on l’appelle le polynôme caractéristique de f .

27
Théorème 4.7. 1) Soit n > 1 un entier et soit A ∈ Mn (K). Alors les valeurs
propres de A dans K sont exactement les racines de χA (X) dans k.
2) Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Alors les valeurs
propres de f sont exactement les racines de χf (X) dans K.

Démonstration. Soit A ∈ Mn (K). Un élément λ ∈ K est une valeur propre de A si et


seulement si Eλ (A) = Ker(A − λIn ) est non réduit à {0K n }, c’est-à-dire si et seulement
si la matrice A − λIn n’est pas inversible, c’est-à-dire si et seulement si det(λIn − A) = 0.
On en déduit le résultat.
Soit à présent E un K-espace vectoriel de dimension finie et soit λ ∈ K. Soit B
une base de E. Alors λ est valeur propre de f si et seulement si λ est valeur propre de
MatB (f ). Comme χf (X) = χMatB (f ) (X), on déduit le résultat de la première partie du
théorème.

Corollaire 4.8. Soit A ∈ Mn (K). Alors A a au plus n valeurs propres.

Démonstration. En effet le polynôme χA (X) est de degré n et possède donc au plus n


racines dans K.

Remarque 4.9. Il faut prendre garde au fait que deux matrices peuvent avoir le même
polynôme caractéristique sans être semblables. Considérons par exemple
! !
1 1 1 0
A= , B= .
0 1 0 1

Alors χA (X) = χB (X) = (X − 1)2 . Par contre A et B ne sont pas semblables. Si c’était
le cas, il existerait P ∈ M2 (R) telle que

A = P BP −1 = P I2 P −1 = P P −1 = I2

ce qui est faux.

Si P ∈ GLn (K), A ∈ Mn (K) et x ∈ K, on a

det(xIn − P −1 AP ) = det(P −1 (xIn − A)P )


= det(P )−1 det(xIn − A) det(P ) = det(xIn − A),

donc
χP −1 AP = χA . (2)
Le polynôme caractéristique de deux matrices semblables est identique. La réciproque
est fausse ! ! ! Deux matrices peuvent avoir le même polynôme caractéristique sans être
semblables.

28
4.4 Valeurs propres dans Q, R ou C ?

On a Q ⊂ R ⊂ C et donc

Mn (Q) ⊂ Mn (R) ⊂ Mn (C).

Soit n > 1 et soit A ∈ Mn (R). Comme R ⊂ C la matrice A peut également être


vue comme une matrice de Mn (C). Dans ce cas, ses valeurs propres ne seront pas les
mêmes. Plus précisément, SpR (A) et SpC (A) peuvent différer.
!
0 −1
Exemple 4.10. Soit A = . Alors A ∈ M2 (R) et χA (X) = X 2 + 1 = (X +
1 0
i)(X − i). On a donc SpR (A) = ∅ car le polynôme χA (X) n’a pas de racine dans R, mais
SpC (A) = {i, −i}

4.5 Endomorphismes diagonalisables

On suppose, dans cette partie, que E est un K-espace vectoriel de dimension finie.

Définition 4.11. Soit f ∈ L(E) un endomorphisme de E. On apelle base propre de f


une base de E constituée de vecteurs propres de f .
On dit que l’endomorphisme f est diagonalisable s’il possède une base propre.
Soit n > 1 et soit A ∈ Mn (K). On dit que la matrice A est diagonalisable dans K
si l’endomorphisme uA : X 7→ AX de l’espace K n est diagonalisable.

Proposition 4.12. 1) Soit f ∈ L(E) un endomorphisme de E. Une base B de E


est une base propre de f si et seulement si MatB (f ) est une matrice diagonale.
2) Soit f ∈ L(E) un endomorphisme de E. L’endomorphisme f est diagonalisable
si et seulement si il existe une base B de E telle que la matrice MatB (f ) est diagonale.
3) Soit n > 1 et soit A ∈ Mn (K). La matrice A est diagonalisable dans K si et
seulement si il existe une matrice P ∈ Mn (K) inversible telle que P −1 AP est une
matrice diagonale.

Démonstration. Démontrons le point 1). Soit B = (e1 , . . . , en ) une base de E et soit


A = MatB (f ) = (ai,j )16i,j6n . Comme les vecteurs ei sont non nuls, ce sont des vecteurs
propres de f si et seulement si ai,j = 0 pour i 6= j, c’est-à-dire si et seulement si la
matrice A est diagonale.
Le point 2) est une conséquence immédiate du 1) et de la définition d’un endomor-
phisme diagonalisable.
Démontrons le point 3). Supposons A diagonalisable dans K et soit uA l’endomor-
phisme de K n défini par uA (X) = AX pour X ∈ K n . Soit B une base prore de uA et

29
soit P = PBcan →B la matrice de passage de la base canonique à la base B. Comme B est
une base propre de uA , la matrice MatB (uA ) est diagonale. Par ailleurs, on a

MatB (uA ) = PB−1


can →B
MatBcan (uA )PBcan →B = P −1 AP.

Ainsi P est inversible et P −1 AP est diagonale.


Réciproquement supposons qu’il existe une matrice inversible P ∈ Mn (K) telle que
P −1 AP est diagonale. Soit B la base de K n constituée des vecteurs colonnes de la matrice
P . Comme P est inversible, B est bien une base et P = PBcan →B . On en conclut que
P −1 AP est la matrice MatB (uA ), et cette matrice est donc diagonale. Cela signifie que
uA , et donc A est diagonalisable.

Proposition 4.13. Soit f ∈ L(E) un endomorphisme. Soit B est une base de E. L’en-
domorphisme f est diagonalisable si et seulement si la matrice MatB (f ) est une matrice
diagonalisable dans K de Mdim E (K).

Démonstration. En effet, f est diagonalisable si et seulement si il existe une base B 0


de E telle que MatB0 (f ) est diagonale. Comme toute matrice inversible de Mn (K) est
une matrice de passage de B vers une autre base de K n , il existe une base B 0 de E
telle que MatB0 (f ) est diagonale si et seulement si il existe une matrice inversible P ∈
Mn (K) telle que P −1 MatB (f )P est diagonale, c’est-à-dire si et seulement si MatB (f )
est diagonalisable.

4.6 Valeurs propres et sous-espaces propres d’un endomorphisme dia-


gonalisable

On fixe E un K-espace vectoriel de dimension finie.


Proposition 4.14. Soit f ∈ L(E) un endomorphisme de E. Soit B une base de E et
soit A = MatB (f ). Soit λ ∈ K. Alors X ∈ K n est un vecteur propre de de A de valeur
propre λ si et seulement si X = [v]B pour v ∈ E un vecteur propre de f de valeur propre
λ. En particulier Sp(f ) = SpK (A).

Démonstration. Soit v ∈ E. On a [f (v)]B = A[v]B . Si X = [v]B , on a donc AX = λX si


et seulement si f (v) = λv. Comme de plus X 6= 0 si et seulement si v 6= 0, on obtient le
résultat.

Proposition 4.15. Soit n > 1 et soit A ∈ Mn (K). Si P est une matrice inversible de
Mn (K), on a
Sp(P AP −1 ) = Sp(A).
De plus, si λ ∈ Sp(A), on a une égalité de sous-espaces vectoriels de K n

Eλ (P AP −1 ) = P Eλ (A).

En particulier dim Eλ (P AP −1 ) = dim Eλ (A).

30
Corollaire 4.16. Soit A ∈ Mn (K) et soit P ∈ Mn (K) inversible. Alors SpK (A) =
SpK (P −1 AP ) et, pour tout λ ∈ K valeur propre de A, Eλ (A) = P Eλ (P −1 AP ). En
particulier dim Eλ (A) = dim Eλ (P −1 AP ).

Démonstration. Soit uA l’endomorphisme de K n défini par X 7→ AX et soit B la base


de K n définie par les vecteurs colonnes de P . On a alors

SpK (A) = Sp(uA ) = SpK (MatB (uA )) = SpK (P −1 AP ).

Si X ∈ K n , on a [X]B = P −1 X de sorte que Eλ (P −1 AP ) = P −1 Eλ (uA ) = Eλ (A).

Théorème 4.17. Soit A ∈ Mn (K) une matrice diagonalisable. Il existe alors une ma-
trice inversible P ∈ Mn (K) et une matrice diagonale D ∈ Mn (K) telles que A =
P DP −1 . De plus Spk (A) est l’ensemble des entrées diagonales de D et, pour λ ∈ Spk (A),
dim Eλ (A) est le nombre d’occurences de λ sur la diagonale de D.

Démonstration. Comme SpK (A) = SpK (P DP −1 ) = SpK (D) et dim Eλ (A) = dim Eλ (D),
on peut supposer que A = D est diagonale. Soient (d1 , . . . , dn ) les entrées diagonales de
D (c’est-à-dire que di = ai,i si D = A = (ai,j )). Alors χD (X) = ni=1 (X − di ) donc
Q

SpK (D) = {d1 , . . . , dn }. Soit λ ∈ {d1 , . . . , dn } et calculons la dimension de Eλ (D). Un


x1
 
 .. 
vecteurs X =  .  est dans Eλ (D) si et seulement si (x1 , . . . , xn ) est solution du
dn
système  
d x = λx1 (d − λ)x1 =0
 1 1  1

 

.. .. . ..
. . ⇔ .. . ⇔ xi = 0 si di − λ 6= 0.

 

dn xn = λxn (dn − λ)xn =0
 

Ainsi dim Eλ (D) est égal au nombre d’indices 1 6 i 6 n tels que di = λ, c’est-à-dire au
nombre d’occurences de λ sur la diagonale de D.

4.7 Indépendance linéaire des vecteurs propres

Théorème 4.18. Soit f ∈ L(E) un endomorphisme de E. Soit (v1 , . . . , vn ) une famille


de vecteurs de E. On suppose que chaque vi est un vecteur propre de f de valeur propre
associée λi . Si l’on suppose que les valeurs λ, . . . , λn sont deux à deux distinctes, ce qui
signifie λi 6= λj dès que i 6= j, alors la famille (v1 , . . . , vn ) est une famille libre.

Démonstration. On démontre le résultat par récurrence sur n > 1. Le cas n = 1 est


une conséquence directe du fait qu’un vecteur propre est non nul et engendre donc une
famille libre (à un élément). Supposons le résultat démontré au rang n et montrons-le au
rang n + 1. Soit (v1 , . . . , vn+1 ) une famille de vecteurs propres telle que vi est de valeur
propre λi pour 1 6 i 6 n + 1 et que λi 6= λj dès que i 6= j. Supposons qu’il existe des

31
scalaires x1 , . . . , xn+1 tels que x1 v1 + · · · xn+1 vn+1 = 0E et montrons que x1 = · · · xn+1 .
En appliquant f à l’égalité x1 v1 + · · · xn+1 vn+1 = 0E et en multipliant cette égalité par
λn+1 , on obtient

x1 λ1 v1 + x2 λ2 v2 + · · · + xn+1 λn+1 vn+1 = 0E


x1 λn+1 v1 + x2 λn+1 v2 + · · · + xn+1 λn+1 vn+1 = 0E .

En soustrayant ces deux égalité, on obtient

x1 (λ − λn+1 v1 + · · · + xn (λn − λn+1 )vn = 0E .

L’hypothèse de récurrence implique alors que xi (λi − λn+1 ) = 0 pour tout 1 6 i 6 n.


Comme λi 6= λn+1 pour 1 6 i 6 n, on en déduit que xi = 0 pour 1 6 i 6 n. On a alors
xn+1 vn+1 = 0E et, puisque vn+1 6= 0E , on a également xn+1 = 0.

Corollaire 4.19. Soit E un K-espace vectoriel et soit f ∈ L(E) un endomorphisme


de E. Soient λ1 , . . . , λn des valeurs propres de f deux à deux distinctes. Alors les sous-
espaces Eλ1 (f ), . . . , Eλn (f ) sont en somme directe.

Démonstration. Il faut prouver que si i1 < · · · < ir sont des éléments de {1, . . . , n} et
v1 , . . . , vr des vecteurs non nuls tels que vj ∈ Eλij (f ), alors v1 + · · · + vr 6= 0E . Or les
vecteurs v1 , . . . , vr sont des vecteurs propres associés à des valeurs propres deux à deux
distinctes. On déduit donc du théorème précédent que la famille (v1 , . . . , vr ) est libre et
donc que v1 + · · · + vr 6= 0E .

Corollaire 4.20. 1) Soit E un K-espace vectoriel de dimension finie et soit f ∈


L(E). Alors X
dim Eλ (f ) 6 dim E.
λ∈Sp(f )

2) Soit n > 1 un entier et soit A ∈ Mn (K). Alors


X
dim Eλ (A) 6 n.
λ∈SpK (A)

Démonstration. Il suffit de démontrer le premier point. Comme les sous-espaces Eλ (f )


sont en somme directe, on a
X M
Eλ (f ) = Eλ (f )
λ∈Sp(f ) λ∈Sp(f )

et donc  
X X
dim  Eλ (f ) = dim Eλ (f ).
λ∈Sp(f ) λi n Sp(f )
P
Comme λ∈Sp(f ) Eλ (f ) est un sous-espace de E, on en déduit le résultat.

32
4.8 Premier critère de diagonalisation

Théorème 4.21. 1) Soit E un K-espace vectoriel de dimension finie et soit f ∈


L(E). Alors les assertions suivantes sont équivalentes
(i) l’endomorphisme f est diagonalisable ;
P
(ii) on a λ∈Sp(f ) Eλ (f ) = E ;
L
(iii) on a λ∈Sp(f ) Eλ (f ) = E ;
P
(iv) on a λ∈Sp(f ) dim Eλ (f ) = dim E ;
P
(v) on a λ∈Sp(f ) dim Eλ (f ) > dim E.
2) Soit n > 1 un entier et soit A ∈ Mn (K). Alors les assertions suivantes sont
équivalentes
(i) la matrice A est diagonalisable est diagonalisable ;
(ii) on a λ∈SpK (A) Eλ (A) = K n ;
P

(iii) on a λ∈SpK (A) Eλ (A) = K n ;


L
P
(iv) on a λ∈SpK (A) dim Eλ (A) = n ;
P
(v) on a λ∈SpK (A) dim Eλ (A) > n.

Démonstration. On démontre uniquement le point 1), le point 2) s’en déduisant im-


médiatement. Comme les sous-espaces propres sont en somme directe, les points (ii) et
P
(iii) sont équivalents. De même l’inégalité λ∈Sp(f ) dim Eλ (f ) 6 dim E montre que les
points (iv) et (v) sont équivalents. De plus il est clait que les points (iii) et (iv) sont
équivalents. Il reste donc à prouver que (i) et (ii) sont équivalents. Supposons donc que
f est diagonalisable. Il existe donc une base propre (e1 , . . . , en ) de f . Chaque ei est un
vecteur propre et appartient donc à un sous-espace propre Eλi (f ). On a donc
n
X X
E = Vect(e1 , . . . , en ) ⊂ Eλi (f ) Eλ (f ) ⊂ E.
i=1 λi n Sp(f )
P
On en déduit l’égalité (ii). Réciproquement supposons que E = λ∈Sp(f ) Eλ (f ). Il existe
alors une famille génératrice de E constituée de vecteurs propres. On peut extraire une
base de E de cette famille pour obtenir une base propre. Ainsi f est diagonalisable.

Corollaire 4.22. 1. Soit E un K-espace vectoriel de dimension finie et soit f ∈


L(E). Alors si Card(Sp(f )) = dim E, l’endomorphisme f est diagonalisable.
2. Soit n > 1 un entier et soit A ∈ Mn (K). Si Card(SpK (A)) = n, alors A est
diagonalisable sur K.

Démonstration. Nous prouvons uniquement le premier point. Si λ ∈ Sp(f ), alors Eλ (f ) 6=


{0E } et donc dim Eλ (f ) > 1. On a donc
X
dim Eλ (f ) > Card(Sp(f )) = dim E
λ∈Sp(f )

de sorte que f est diagonalisable.

33
Comme Sp(f ) est l’ensemble des racines du polynôme caractéristique χA (X), on peut
reformuler ce corollaire sous la forme suivante.
Corollaire 4.23. 1. Soit E un K-espace vectoriel de dimension finie et soit f ∈
L(E). Alors si le polynôme caractéristique de f est scindé à racines simples, alors l’en-
domorphisme f est diagonalisable.
2. Soit n > 1 un entier et soit A ∈ Mn (K). Si le polynôme caractéristique de A est
scindé à racines simples, alors A est diagonalisable sur K.

5 Quelques applications des matrices diagonalisables

5.1 Puissances des matrices diagonalisables

Soit K un corps égal à Q, R ou C. Soit n > 1 un entier et soit A ∈ Mn (K).


Supposons à présent que A est diagonalisable sur K. Il existe alors une matrice
inversible P ∈ Mn (K) et une matrice diagonalisable D ∈ Mn (K) telles que A =
P DP −1 . Notons λ1 , . . . , λn les entrées diagonales de D, de sorte que
 
λ1 0 ··· 0
0

λ2 ··· 0
D=
 .. .. .. .
 . . . 0

0 ··· 0 λn
Proposition 5.1. Pour tout entier k > 0, on a
λk1
 
0 ··· 0
0

λk2 ··· 0
Ak = P   P −1 .

 .. .. ..
 . . . 0

0 ··· 0 λkn
De plus A est inversible si et seulement si λi 6= 0 pour tout 1 6 i 6 n, et dans ce cas
 −1 
λ1 0 ··· 0
 0

λ−1
2 ··· 0 
A−1 = P   P −1 .

 .. .. ..
 . . . 0 

0 ··· 0 λ−1
n

Démonstration. Prouvons par récurrence sur k > 0 que Ak = P Dk P −1 .


Si k = 0, on a A0 = In par convention et λ0i = 1 pour tout 1 6 i 6 n de sorte que
l’on a bien In = P In P −1 .
Supposons le résultat prouvé pour un entier k > 0 et prouvons le pour k + 1. On a
alors
Ak+1 = AAk = P DP −1 P Dk P −1 = P DIn Dk P −1 = P Dk+1 P −1 .

34
On a alors k
λk1 0
  
λ1 0 ··· 0 ··· 0
0 λ2 ··· 0  0 λk2 ··· 0
 
Dk = 
 
 = . .
 .. .. ..  . .. ..
 . . . 0

 . . . 0

0 ··· 0 λn 0 ··· 0 λkn

Comme E0 (A) = Ker(A), la matrice A est inversible si et seulement si 0 n’est pas


valeur propre de A, c’est-à-dire si et seulement si tous les λi sont non nuls. Supposons
A inversible. Alors l’inverse de D est la matrice
 −1 
λ1 0 ··· 0
 0

λ−1
2 ··· 0 
D−1 =   P −1

 .. .. ..
 . . . 0 

0 ··· 0 λ−1
n

et on vérifie que

(P D−1 P −1 )A = (P D−1 P −1 )P DP −1 = P D−1 In DP −1 = P P −1 = In .

5.2 Systèmes de suite récurrentes

On fixe K un corps égal à Q, R ou C.


Soient a, b, c, d ∈ K et soient α, β ∈ K. On définit par récurrence deux suites (uk )k>0
et (vk )k>0 par les relations
( (
uk+1 = auk + bvk u0 =α
.
vk+1 = cuk + dvk v0 =β
!
a b
On pose A = . En posant, pour tout entier n > 0,
c d
!
uk
Xk =
vk

Le système se réécrit, sous forme matricielle,


!
α
Xk+1 = AXk X0 = . (3)
β

Nous supposons désormais que la matrice A est diagonalisable dans K. On peut donc
écrire A = P DP −1 avec P ∈ M2 (K) et D ∈ M2 (K) diagonale. Posons, pour tout k > 0,

Yk = P −1 Xk .

35
On a alors, pour tout n > 0,

Yk+1 = P −1 Xk+1 = P −1 AXk = P −1 AP P −1 Xk = DYk .

Le système (3) se réécrit donc


!
−1 −1 α
Yk+1 = DYk Y0 = P X0 = P .
β

Notons λ1 et λ2 les termes diagonaux de la matrice D, c’est-à-dire


!
λ1 0
D= .
0 λ2
!
ak
Posons alors Yk = pour tout k > 0, le système (3) peut alors se réécrire
bk
( ! !
ak+1 = λ1 ak a0 α
= P −1 .
bk+1 = λ2 bk b0 β

Il s’agit donc d’expliciter deux suites géométriques. On en déduit que


(
ak = λk1 a0
∀k > 0,
bk = λk2 b0

En connsaissant P −1 , on peut alors retrouver les valeurs de uk et vk .


Plus généralement supposons que A ∈ Mn (K) et soit le système de n suites récur-
rentes d’ordre 1
∀k > 0, Xk+1 = AXk .
Supposons de plus A diagonalisable dans K de sorte qu’il existe P ∈ Mn (K) inversible
et D ∈ Mn (K) diagonale telles que A = P DP −1 . On montre, par récurrence sur k, que

∀k > 0, Xk = Ak X0 .

Comme Ak = P Dk P −1 pour tout k > 0, on en déduit, en posant Yk = P −1 Xk , que

Yk = D k Y0 .

Voici un exemple d’application de ce raisonnement.


(1)
Théorème 5.2. Soit A = (ai,j )16i,j6n ∈ Mn (C) une matrice carrée. Soient (uk )k>1 ,
(2) (n)
(uk )k>1 , . . . , (uk )k>1 n suites satisfaisant le système récurrent

(1) (1) (n)
 u = a1,1 uk + · · · + a1,n uk
 k+1


.. ..
∀k > 0, . . .

u(n) (1) (n)

= an,1 uk + ··· + an,n uk

k+1

36
Supposons que la matrice A est diagonalisable dans C et que, pour tout λ ∈ SpC (A),
|λ| < 1. Alors pour tout 1 6 i 6 n,
(i)
lim uk = 0.
k→+∞

 (1) 
u
 k. 
Démonstration. Posons, pour tout k > 0, Xk =  .. 

. On a alors, pour tout k > 0,
(n)
uk
Xk+1 = AXk .

Comme A est diagonalisable, on peut écrire A = P DP −1 avec P inversible et D diago-


nalisable. Posons, pour k > 0, Yk = P −1 Xk . On a alors déjà vu que, pour tout k > 0,

Yk = Dk Y0 .

Par ailleurs on sait que  


λ1 0 ··· 0
0

λ2 ··· 0
D=
 .. .. .. 
 . . . 0

0 ··· 0 λn
 
(1)
y
avec |λi | < 1 pour tout 1 6 i 6 n. En posant Yk = . k(n) , on obtient donc, pour tout
..y
k
1 6 i 6 n,
(i) (i)
∀k > 0, yk = λki y0 .
(i)
Comme |λi | < 1, on en déduit que limk→+∞ yk = 0. Notons alors P = (pi,j )16i,j6n .
Comme Xk = P Yk pour tout k > 0, on en déduit
(i) (1) (n)
∀k > 0, uk = pi,1 yk + · · · + pn,i yk ,

ce qui implique le résultat voulu.

5.3 Systèmes d’équations différentielles linéaires

Soit K l’ensemble R ou C.
On se propose de résoudre le problème suivant. Soit A ∈ Mn (K) une matrice et
soient u1 , . . . , un ∈ K. On cherche des fonctions x1 , . . . , xn de R dans K, de classe C 1
telles que

x0 (t)
 
= a1,1 x1 (t) + · · · + a1, xn (t) x (0) = u0
 1  1

 

.. .. .. ..
∀t ∈ R, . . , . . . (4)
 
 0
 
xn (t) = an,1 x1 (t) + · · · + an,n xn (t) xn (0) = un

37
x1 (t) x01 (t)
   

En posant, pour tout t ∈ R, X(t) =  ... , et en posant X 0 (t) =  ... , cela


   

xn (t) x0n (t)


revient à recherche X(t) tel que

u1
 
 .. 
X 0 (t) = AX(t), X(0) =  .  .
un

On suppose désormais que A est diagonalisable sur K. On peut écrire A = P DP −1


avec P ∈ Mn (K) inversible et D ∈ Mn (K) diagonale. Posons, pour t ∈ R, Y (t) =
P −1 X(t). Alors X est solution du système (4) si et seulement si Y est solution du
système
y1 u1
   
0  ..  −1  .. 
Y (t) = DY (y), Y (0) =  .  = P  .  .
yn un
Or, en notant λ1 , . . . , λn les termes diagonaux de D, ce dernier système est équivalent
au système de n équations différentielles linéaires découplé

y 0 (t)
 
= λ1 y1 (t) y (0) = v1
 1  1

 

.. .. .. ..
, .
. . . .
 0
 
yn (t) = λn yn (t) yn (t) = vn

Il existe une unique solution à ce système qui est donnée par

= v 1 e λ1 t

y (t)
 1


.. ..
. . .


yn (t) = v n e λn t

On en conclut que le système (4) possède une unique solution donnée par

x1 (t) v1 eλ1 t
   
 ..   . 
 .  = P  ..  .
xn (t) vn eλn t

On peut encore écrire la solution de ce système sous la forme suivante. Posons, pour
tout t ∈ R,
eλ1 t
 
0 ··· 0
At
 0

eλ2 t · · · 0   −1
e =P . 
.. .. .. P .
 .. . . . 
0 ··· 0 e λn t

38
Le système (4) possède une unique solution donnée par

x1 (t) u1
   
 ..  At  .. 
 .  = e  . .
xn (t) un

5.4 Exponentielle d’une matrice diagonalisable

La construction de la matrice eAt est en fait un cas particulier d’une construction


plus générale.
Soit f une fonction de K dans K. Si D ∈ Mn (K) est une matrice diagonale dont
les entrées diagonales sont λ1 , λ2 , . . . , λn , on note f (D) ∈ Mn (K) la matrice diagonale
dont les entrées sont f (λ1 ), f (λ2 ), . . . , f (λn ).

Lemme 5.3. Soit A ∈ Mn (K) une matrice diagonalisable sur K et soient P ∈ Mn (K)
une matrice inversible et D ∈ Mn (K) une matrice diagonale telles que A = P DP −1 .
Alors la matrice P f (D)P −1 ne dépend que de A et non du choix de P et D.

Le lemme permet donc de noter sans ambiguïtué f (A) la matrice P f (D)P −1 .

Démonstration. Posons B = P f (D)P −1 . Il suffit de prouver que, pour tout X ∈ K n , le


vecteur BX ne dépend pas du choix de P et D. Comme X 7→ BX est linéaire, il suffit
de vérifier que BX est ne dépend pas de P et D pour X ∈ K n variant dans une base
de K n . Comme la matrice A est diagonalisable, elle possède une base propre, il suffit
donc de prouver que BX est indépendant du choix de P et D lorsque X est un vecteur
propre. Soit donc λ une valeur propre de A et X ∈ Eλ (A). Comme P −1 Eλ (A) = Eλ (D)
et que Eλ (D) est le sous-espace vectoriel de K n engendré par les vecteurs ei de la base
canonique tels que λi = λ, on vérifie facilement que si f (D)(P −1 X) = f (λ)P −1 X. Ainsi

BX = P f (X)P −1 X = P f (λ)P −1 X = f (λ)X.

On voit donc que BX ne dépend pas du choix de P et D pour X ∈ Eλ (A), ce qui


suffit.

En prenant f (t) = et , on retrouve la définition de eA donnée dans la section précé-


dente et on a
eλ1 t
 
0 ··· 0
At
 0

eλ2 t · · · 0   −1
e =P . 
.. .. .. P .
 .. . . . 
0 ··· 0 e λn t

39
5.5 Équations différentielles linéaires à coefficients constants

On suppose toujours que K désigne Rou C. Soient a0 , . . . , an−1 ∈ K. On recherche


les fonctions x ∈ C n (R, K) telles que

x(n) − an−1 x(n−1) − · · · − a1 x0 − a0 x = 0. (5)

Soit x ∈ C n (R, K) et posons, pour tout t ∈ R,


 
x(t)

 x0 (t) 

X(t) =  .. .
.
 
 
x(n−1) (t)
L’équation différentielle considérée est alors équivalente au système d’équations

X 0 (t) = AX(t)

ave  
0 1 0 ··· 0
0
 0 1 ··· 0 

. .. .. .. ..
 ..
A= . . . .
.
···

0 0 0 1 

a0 a1 ··· ··· an−1


Théorème 5.4. Supposons que la matrice A est diagonalisable. Alors l’ensemble des
solutions de l’équation (5) est l’ensemble des combinaisons linéaires des fonctions t 7→ eλt
pour λ ∈ SpK (A).
!
0 1
Remarque 5.5. Supposons que n = 2. Alors A = et χA (X) = X 2 −a1 X −a0 .
a0 a1
Alors A est diagonalisable si et seulement si le polynôme X 2 − a1 X − a0 est scindé à
racines simples. En effet, si A est diagonalisable, χA (X) = (X − λ1 )(X − λ2 ) avec
λ1 , λ2 ∈ K. Si λ1 = λ2 , on a
! !
λ1 0 λ1 0
A=P P −1 = ,
0 λ1 0 λ1

ce qui est faux.

6 Sous-espace stables et polynômes d’endomorphismes

6.1 Notion de sous-espace stable

Définition 6.1. Soit E un K-espace vectoriel et soit f ∈ L(E) un endomorphisme de


E. Un sous-espace vectoriel F ⊂ E est dit stable par f si f (F ) ⊂ F .

40
Proposition 6.2. Si F1 et F2 sont deux sous-espaces vectoriels de E stables par f , alors
F1 ∩ F2 et F1 + F2 le sont aussi.

Exemple 6.3. — Les sous-espaces vectoriels {0E } et E sont toujours stables.


— Soit v ∈ E avec v =
6 0E . Alors Vect(v) est stable par f si et seulement si v est un
vecteur propre de f .
— Pour tout scalaire λ ∈ K, le sous-espace propre Eλ (f ) est stable par f .

Proposition 6.4. Soient f et g deux endomorphismes de E tels que g ◦ f = f ◦ g. Alors


les sous-espaces Ker(g) et Im(g) sont stables par f .

Démonstration. Soit v ∈ Ker(g). Alors g(f (v)) = f (g(v)) = f (0E ) = 0E donc f (v) ∈
Ker(g) et Ker(g) est stable par f .
Soit v ∈ Im(g). Alors il existe w ∈ E tel que v = g(w). On a donc f (v) = f (g(w)) =
g(f (w)) de sorte que f (v) ∈ Im(g). Ainsi Im(g) est stable par f .

6.2 Endomorphisme induit

Soit F ⊂ E un sous-espace vectoriel stable par f . On note fF l’endomorphisme de


F défini par fF (v) = f (v) pour tout v ∈ F . Notons que fF est bien défini puisque F est
stable par f . On l’appelle l’endomorphisme de F induit par f .
Remarquons que si f, g ∈ L(E) et si F est stable par f et g, alors pour tout λ ∈ K
le sous-espace F est stable par f + λg et par g ◦ f , et on a

(f + λg)F = fF + λgF , (g ◦ f )F = gF ◦ fF .

Exemple 6.5. Soit E un espace vectoriel de dimension 4 et soit B = (b1 , b2 , b3 , b4 ) une


base de E. Soit f ∈ L(E) tel que
 
1 2 3 5
0 7 3 0
MatB (f ) =  .
 
0 −1 −2 0 
4 −3 6 −2

Soit F = Vect(b1 , b4 ) et soit BF = (b1 , b4 ) une base de F . Alors F est stable par f et
!
1 5
MatBF (fF ) = .
4 −2

Remarquons de plus que si v est un vecteur propre de fF , alors v est un vecteur


propre de f et que Sp(fF ) ⊂ Sp(f ).

41
6.3 Matrices triangulaires par blocs

Proposition 6.6. Soit E un K-espace vectoriel de dimension finie. Soit f ∈ L(E) un


endomorphisme de E. Soit B = (b1 , . . . , bn ) une base de E. Soit 1 6 r 6 n et posons
F = Vect(b1 , . . . , br ) et BF = (b1 , . . . , br ). Alors le sous-espace F est stable par f si et
seulement si la matrice MatB (f ) est de la forme
!
A B
0n−r,r D

avec A ∈ Mr (K), B ∈ Mr,n−r (K) et D ∈ Mn−r (K). Dans ce cas on a de plus A =


MatBF (fF ).

Démonstration. Notons ai,j les coefficients de la matrice MatB (f ). Alors, pour tout 1 6
j 6 n, on a
n
X
f (bj ) = ai,j bi .
i=1

Ainsi F est stable par f si et seulement si, pour tout 1 6 j 6 r, f (bj ) ∈ F , c’est-à-dire
ai,j = 0 pour r + 1 6 i 6 n.

Corollaire 6.7. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Soit
F u sous-espace vectoriel de E. Si F est stable par f , le polynôme caractéristique de fF
divise le polynôme caractéristique de f :

χfF (X) | χf (X).

Démonstration. Soit (b1 , . . . , br ) une base de F . On peut la compléter en une base B =


(b1 , . . . , bn ) de E. On a alors
!
A B
M = MatB (f ) =
0 D

avec A = Mat(b1 ,...,br ) (fF ). On a alors

χf (X) = χM (X) = det(XIn −M ) = det(XIr −A) det(XIn−r −D) = χfF (X) det(XIn−r −D).

Ainsi χfF (X) divise χf (X) dans K[X].

6.4 Rappels sur les polynômes

Voir cours de première année.

42
6.5 Polynômes d’endomorphismes
Pn i
Soit A ∈ Mn (K). Si P (X) = i=0 ai X ∈ K[X], on pose
n
X
P (A) = ai Ai ∈ Mn (K)
i=0

avec la convention A0 = In .
!
1 1
Exemple 6.8. Prenons A = et P (X) = X 2 + X + 1. On a alors
1 1
! ! ! !
2 2 1 1 1 0 4 3
P (A) = + + = .
2 2 1 1 0 1 3 4

On peut remplacer A par un endomorphisme f d’un espace vectoriel E en remplaçant


An par
fn = f ◦ · · · ◦ f .
| {z }
n

Par convention, on pose f 0 = IdE .


Pn i
Soit P = i=0 ai X ∈ K[X] un polynôme. On définit alors
n
X
P (f ) := ai f i ∈ L(E).
i=0

L’application de K[X] vers L(E) définie par P →


7 P (f ) est linéaire, ce qui signifie
que, pour P et Q dans K[X] et λ ∈ K, on a (P + λQ)(f ) = P (f ) + λQ(f ). On a
également, pour P et Q dans K[X],

(P Q)(f ) = P (f ) ◦ Q(f ) = Q(f ) ◦ P (f ).

Remarque 6.9. Si E est un espace vectoriel de dimension finie et si B est une base de
E, on a les relations
P (MatB (f )) = MatB P (f ).
On peut déduire de cette formule que pour P (X) ∈ K[X], A, B ∈ Mn (K) avec B
inversible,
P (BAB −1 ) = BP (A)B −1 .

Corollaire 6.10. Soit f ∈ L(E) et soit P (X) ∈ K[X]. Alors Ker(P (f ) et Im(P (f ))
sont des sous-espaces vectoriels de E stables par f .

Démonstration. En effet, f commute avec P (f ).

43
6.6 Polynômes annulateurs

Soit E un K-espace vectoriel et soit f ∈ L(E) un endomorphisme de E. Un polynôme


P ∈ K[X] est dit annulateur de f si P (f ) = 0L(E) .
Remarque 6.11. Si P est annulateur de f , alors P Q aussi pour tout Q ∈ K[X]. En
effet, on a alors

(P Q)(f ) = P (f ) ◦ Q(f ) = 0L(E) ◦ Q(f ) = 0L(E) .

Exemple 6.12. 1) Si λ ∈ K, alors (X − λ) et X(X − λ) sont des polynômes annu-


lateurs de l’endomorphisme λIdE .
!
a b
2) Si A = ∈ M2 (K), alors X 2 − (a + d)X + ad − bc est annulateur de A.
c d
Proposition 6.13. Supposons que E est de dimension finie. Alors f possède un poly-
nôme annulateur non nul.

Démonstration. Le K-espace vectoriel L(E) est de dimension n2 où n = dim E. La


2
famille (IdE , f, f 2 , . . . , f n ) est donc liée. Il existe donc des scalaires a0 , a1 , . . . , an2 non
tous nuls tels que
2
a0 IdE + a1 f + · · · + an2 f n = 0L(E) .
2
Ainsi f est annulé par le polynôme non nul a0 + a1 X + · · · + an2 X n .

Corollaire 6.14. Soit A ∈ Mn (K). Alors il existe un polynôme non nul P ∈ K[X] tel
que P (A) = 0.
Théorème 6.15. Soit P ∈ K[X] un polynôme annulateur de f , non nul et de degré
minimal parmi les polynômes annulateurs non nuls de f . Alors Q ∈ K[X] annule f si
et seulement si P divise Q dans K[X].

Démonstration. On a déjà vu que si P divise Q, alors Q(f ) = 0L(E) . Montrons l’im-


plication réciproque. Supposons que Q(f ) = 0L(E) et effectuons la division euclidienne
de Q par P . On a donc Q = P R + S avec R, S ∈ K[X] et deg S < deg P . Comme
Q(f ) = P (f ) = 0L(E) , on a aussi S(f ) = 0L(E) . Comme deg S < deg P et comme P est
de degré minimal parmi les polynômes annulateurs non nuls de f , on a nécessairement
S = 0, c’est-à-dire que P divise Q.

Corollaire 6.16. Supposons E de dimension finie. Alors il existe un unique polynôme


unitaire annulant f et de degré minimal parmi les polynômes annulateurs non nuls de
f.

Démonstration. Supposons que P1 et P2 sont deux tels polynômes. Par minimalité de


leur degré, on a deg P1 = deg P2 . De plus le théorème implique que P1 divise P2 . On
peut écrire P2 = P1 Q avec deg Q = 0. Ainsi Q est un polynôme constant de valeur λ.
Comme P1 et P2 sont unitaires, λ = 1 et P1 = P2 .

44
Corollaire 6.17. Soit n > 1 un entier et soit A ∈ Mn (K). Alors il existe un unique
polynôme unitaire annulant A et de degré minimal parmi les polynômes annulateurs non
nuls de A.

Définition 6.18. Si E est de dimension finie, on appelle polynôme minimal de f


l’unique polynôme unitaire annulant f et de degré minimal parmi les polynômes an-
nulateurs non nuls de f . On le note πf (X).
Si n > 1 et si A ∈ Mn (K), on appelle polynôme minimal de A l’unique polynôme
unitaire annulant A et de degré minimal parmi les polynômes annulateurs non nuls de
A. On le note πA (X).

On a alors, pour tout Q ∈ K[X],

Q(A) = 0 ⇔ πA |Q.

6.7 Le lemme des noyaux

Soit E un K-espace vectoriel et soit f ∈ L(E).

Théorème 6.19. Soient P et Q deux polynômes de K[X] premiers entre eux. On a


alors
Ker((P Q)(f )) = Ker(P (f )) ⊕ Ker(Q(f )).

Démonstration. Montrons dans un premier temps que Ker(P (f )) ∩ Ker(Q(f )) = {0E }.


Soit v ∈ Ker(P (f )) ∩ Ker(Q(f )). Comme P et Q sont premiers entre eux, le théorème
de Bezout implique qu’il existe deux polynômes A, B ∈ K[X] tels que AP + BQ = 1.
En appliquant cette égalité à f , on obtient

IdE = A(f ) ◦ P (f ) + B(f ) ◦ Q(f ).

On en déduit que

v = A(f )(P (f )(v)) + B(f )(Q(f )(v)) = A(f )(0E ) + B(f )(0E ) = 0E .

Ainsi Ker(P (f )) ∩ Ker(Q(f )) = {0E }.


Montrons à présent que Ker(P (f )) ⊂ Ker((P Q(f ))). Soit v ∈ Ker(P (f )). On a alors

(P Q)(f )(v) = (Q(f ) ◦ P (f ))(v) = Q(f )(P (f )(v)) = Q(f )(0E ) = 0E .

Ainsi v ∈ Ker((P Q)(f )). On en déduit que Ker(P (f )) ⊂ Ker((P Q(f ))).
On montre de même que Ker(Q(f )) ⊂ Ker((P Q(f ))) de sorte que

Ker(P (f )) + Ker(Q(f )) ⊂ Ker((P Q(f ))).

45
Montrons enfin que Ker((P Q)(f )) ⊂ Ker(P (f ))+Ker(Q(f )). Soit v ∈ Ker((P Q)(f )).
Rappelons que l’on a
v = (AP )(f )(v) + (BQ)(f )(v).
Posons v1 = (BQ)(f )(v) et v2 = (AP )(f )(v). Il suffit de montrer que v1 ∈ Ker(P (f )) et
v2 ∈ Ker(Q(f )) pour conclure que v ∈ Ker(P (f )) + Ker(Q(f )). Or on a

P (f )(v1 ) = (P (f )◦(BQ)(f ))(v) = (P BQ)(f )(v) = B(f )((P Q)(f )(v)) = B(f )(0E ) = 0E .

Ainsi v1 ∈ Ker(P (f )). On montre de façon analogue que v2 ∈ Ker(Q(f )).

Corollaire 6.20. Soient P1 , . . . , Pr ∈ K[X] des polynômes premiers entre eux deux à
deux. On a alors

Ker((P1 P2 · · · Pr )(f )) = Ker(P1 (f )) ⊕ · · · ⊕ Ker(Pr (f )).

Démonstration. La démonstration se fait par récurruence sur r en utilisant le théorème.

6.8 Un critère de diagonalisabilité

Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E).

Théorème 6.21. Les assertions suivantes sont équivalentes :


(i) l’endomorphisme f est diagonalisable ;
(ii) l’endomorphisme f est annulé par un polynôme scindé à racines simples ;
(iii) le polynôme minimal de f est scindé à racines simples.

Démonstration. Montrons que (i) implique (ii). Supposons f diagonalisable et posons


Sp(f ) = {λ1 , . . . , λr } avec λ1 , . . . , λr distinctes. Posons P = ri=1 (X − λi ). Montrons
Q

que P (f ) = 0L(E) . Comme f est diagonlisable, on a

E = Eλ1 (f ) ⊕ · · · ⊕ Eλr (f ).

Soit 1 6 i 6 r. On peut écrire P = Qi (X)(X − λi ) avec Qi (X) = − λj ). Si


Q
j6=i (X
v ∈ Eλi (f ), on a

P (f )(v) = Qi (f )((f − λi Id)(v)) = Qi (f )(0E ) = 0E .

Plus généralement, pour tout v ∈ E, on peut écrire

v = v1 + · · · + vr

avec vi ∈ Eλi (f ) pour tout 1 6 i 6 r et on a

P (f )(v) = P (f )(v1 ) + · · · + P (f )(vr ) = 0E .

46
Comme P (f )(v) = 0E pour tout v ∈ E, on a bien P (f ) = 0L(E) .
Montrons que (ii) implique (i). Supposons donc qu’il existe P ∈ K[X] simplement
scindé tel que P (f ) = 0L(E) . On peut écrire P (X) = (X − λ1 ) · · · (X − λr ) avec les λi
distincts. En particulier les polynômes X − λi sont deux à deux distincts. Le lemme des
noyaux implique alors qu’on a
r
M r
M
E = Ker(P (f )) = Ker(f − λi IdE ) = Eλi (f ).
i=1 i=1

On en conclut que f est diagonlisable.


Il est clair que (iii) implique (ii). Montrons donc que (ii) implique (iii). Supposons
donc que f est annulé par un polynôme scindé à racines simples P . Alors le polynôme
minimal πf de f divise P , ce qui implique que πf est également scindé à racines simples.

Corollaire 6.22. Soit A ∈ Mn (K) une matrice carrée. Les assertions suivantes sont
équivalentes :
(i) la matrice A est diagonalisable sur K ;
(ii) la matrice A est annulé par un polynôme scindé à racines simples de K[X] ;
(iii) le polynôme minimal de A est scindé à racines simples dans K[X].

Proposition 6.23. Les racines du polynôme minimal πf sont exactement les valeurs
propres de f .

Démonstration. Supposons que λ ∈ Sp(f ). Il existe alors v ∈ E, v 6= 0E tel que f (v) =


λv. On a alors, pour tout n > 1, f n (v) = λn v et donc, pour tout P ∈ K[X], P (f )(v) =
P (λ)v. En particulier, comme πf (f ) = 0L(E) , on a πf (λ)v = 0E et donc, puisque v 6= 0E ,
πf (λ) = 0.
Réciproquement supposons que πf (λ) = 0. On peut écrire πf (X) = (X − λ)Q(X)
avec deg Q = deg πf − 1. On a alors

0L(E) = πf (f ) = (f − λIdE ) ◦ Q(f ).

Comme deg Q < deg πf et Q 6= 0, on a Q(f ) 6= 0L(E) . En particulier l’endomorphisme


f − λIdE n’est pas inversible. On déduit alors du théorème du rang que Eλ (f ) = Ker(f −
λIdE ) 6= 0. Ainsi λ est valeur propre de f .

Corollaire 6.24. Soit A ∈ Mn (A). Les racines du polynôme minimal πA dans K sont
exactement les valeurs propres de A dans K.

47
7 Trigonalisation

7.1 Endomorphismes trigonalisables

Soit E un espace vectoriel de dimension finie et soit f ∈ L(E) un endomorphisme


de E. On dit que f est trigonalisable s’il existe une base B de E telle que MatB (f ) est
triangulaire supérieure.
Soit n > 1 un entier et soit A ∈ Mn (K) une matrice carrée de taille n. On dit que
A est trigonalisable sur K si et seulement s’il existe une matrice inversible P ∈ Mn (K)
telle que P −1 AP est triangulaire supérieure.

Remarque 7.1. Soit B une base de E. Alors f est trigonalisable si et seulement si


MatB (f ) est trigonalisable sur K.

Théorème 7.2. Une matrice A ∈ Mn (K) est trigonalisable sur K si et seulement si


son polynôme caractéristique est scindé sur K.

Démonstration. Supposons que A est trigonalisable. Il existe alors une matrice inversible
P et une matrice triangulaire supérieure T ∈ Mn (K) telle que A = P T P −1 . On a
alors χA = χT . Soit t1,1 , . . . , tn,n les entrées diagonales de T . Le calcul du polynôme
caractéristique d’une matrice triangulaire supérieure nous donne
n
Y
χA = χT = (X − ti,i )
i=1

ce qui montre que χA est scindé sur K.


On va montrer par récurrence sur n > 1 que si χA est scindé sur K, alors A est
trigonalisable sur K. Le cas où n = 1 est trivial car toute matrice est alors trigonalisable
et tout polynôme de degré 1 est scindé. Supposons le résultat démontré au rang n et soit
A ∈ Mn+1 (K) telle que χA est scindé. Soit λ ∈ K une racine de χA , c’est-à-dire une
valeur propre de A. Soit v ∈ K n+1 un vecteur propre de A, c’est-à-dire un vecteur non
nul vérifiant Av = λv. Soit B = (v, v2 , . . . , vn+1 ) une base de K n+1 et soit P la matrice
de passage de la base canonique à la base B. La matrice P −1 AP est alors une matrice
par blocs de la forme !
−1 λ B
P AP =
0n,1 D
avec B ∈ M1,n (K) et D ∈ Mn,n (K). De plus on a une factorisation de polynôme
caractéristiques χA (X) = (X − λ)χD (X). Ainsi χD est scindé également. Par récurrence
il existe une matrice inversible Q ∈ Mn (K) telle que Q−1 DQ soit triangulaire supérieure.
Posons !
0 1 01,n
Q = ∈ Mn+1 (K).
0n,1 Q

48
Il s’agit d’une matrice inversible et
!
λ B
(Q0 )−1 P −1 AP Q0 =
0n,1 Q−1 DQ

est une matrice triangulaire supérieure. Ainsi A est trigonalisable, ce qui achève la ré-
currence.

Corollaire 7.3. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E) un


endomorphisme. Alors f est trigonalisable si et seulement si χf est scindé sur K.

Corollaire 7.4. Si K = C, tout endomorphisme de E est trigonalisable et toute matrice


de Mn (C) est trigonalisable sur C.

Démonstration. Il suffit de remarquer que tout polynôme de C[X] est scindé sur C
d’après le théorème de d’Alembert–Gauss.

7.2 Le théorème de Cayley–Hamilton

Théorème 7.5. Soit A ∈ Mn (K) une matrice carrée. Alors χA (A) = 0.

Démonstration. Comme Mn (Q) ⊂ Mn (R) ⊂ Mn (C), il suffit de prouver le théorème


lorsque K = C. On suppose donc que K = C. La matrice A est alors trigonalisable, cela
signifie qu’il existe une matrice inversibel P ∈ Mn (C) telle que P −1 AP est triangulaire
supérieure. Comme χA = χP −1 AP , il suffit de démontrer par récurrence sur n > 1 que
χA (A) = 0 pour A ∈ Mn (K) matrice triangulaire supérieure. Si n = 1, c’est évident car
A = aI1 et χA = X −a. Supposons donc le résultat démontré au rang n et démontrons-le
au rang n+1. Soit A ∈ Mn+1 (K) triangulaire supérieure. On écrit A comme une matrice
triangulaire par blocs !
λ B
A=
0n,1 D
avec B ∈ M1,n (K) et D ∈ Mn (K) triangulaire supérieure. Par récurrence on a χD (D) =
0. De plus χA = (X − λ)χD . On a alors
! ! !
0 B χD (λ) B 0 0 01,n
χA (A) = (A − λIn+1 )χD (A) = · = .
0n,1 D − λIn 0n,1 0n,n 0n,1 0n,n

Corollaire 7.6. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Alors
χf (f ) = 0L(E) .

49
7.3 Endomorphismes nilpotents

Soit E un K-espace vectoriel. Un endomorphisme f de E est dit nilpotent s’il existe


un entier n > 0 tel que f n = 0L(E) .
De même si A ∈ Mn (K) est une matrice carrée, on dit que A est nilpotente s’il existe
un entier n > 0 tel que An = 0.
On appelle indice de nilpotence d’un endomorphisme f ou d’une matrice A le plus
petit entier n > 0 tel que f n = 0L(E) ou An = 0.

Remarque 7.7. Soit B une base de E. Il est clair que f est nilpotent si et seulement si
MatB (f ) est nilpotente. Auquel cas les indices de nilpotence de f et de A coïncident.

Proposition 7.8. Soit E un espace vectoriel et soit f un endomorphisme de E. Soit


n > 0 un entier. Supposons que Ker(f n ) = Ker(f n+1 ). Alors Ker(f m ) = Ker(f n ) pour
tout m > n.

Démonstration. En raisonnant par récurrence, on se ramène à montrer que Ker(f n+2 ) =


Ker(f n+1 ). Soit v ∈ Ker(f n n + 2) et posons w = f (v). Alors w ∈ Ker(f n+1 ) = Ker(f n ).
Ainsi f n (w) = 0E , ce qui implique f n+1 (v) = 0E et donc v ∈ Ker(f n+1 ).

Corollaire 7.9. Soit E un espace vectoriel et soit f un endomorphisme nilpotent de


E. Alors l’indice de nilpotence de E est le plus petit entier n > 1 tel que Ker(f n ) =
Ker(f n+1 ).

Démonstration. Soit m l’indice de nilpotence de f et soit n le plus petit entier tel que
Ker(f n ) = Ker(f n+1 ). Si m < n, on a Ker(f m ) ( Ker(f m+1 ), de sorte que Ker(f m ) 6= E
et donc f m 6= 0L(E) .

Corollaire 7.10. Si f est un endomorphisme nilpotent d’un espace vectoriel de dimen-


sion finie, l’indice de nilpotence de f est toujours inférieur ou égal à dim E.

Démonstration. Soit n l’indice de nilpotence de f . La suite de sous-espaces vectoriels


{0E } ( Ker(f ) ( Ker(f 2 ) ( · · · ( Ker(f n ) = E comporte au plus dim E+1 sous-espaces
vectoriels, donc n 6 dim E.

Théorème 7.11. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E) un


endomorphisme de E. Les assertions suivantes sont équivalentes :
(i) l’endomorphisme f est nilpotent ;
(ii) le polynôme minimal de f est de la forme X n pour un entier 1 6 n 6 dim E ;
(iii) il existe une base B de E telle que MatB (f ) est triangulaire supérieure avec des
zéros sur la diagonale ;
(iv) le polynôme caractéristique de f est égal à X dim E .

50
Démonstration. Montrons que (i) implique (ii). Si f est nilpotent, il existe un entier m
tel que f m = 0L(E) . Cela signifie que f est annulé par X m . Ainsi le polynôme minimal
de f divise X m . Il doit donc être de la forme X k avec k 6 m.
L’implication (ii) implique (i) est évidente car le polynôme minimal est un polynôme
annulateur de f .
Montrons que (i) implique (iii). Soit n = dim E et soit m l’indice de nilpotence de
f . On note ir = dim Ker f r pour 1 6 r 6 m. On construit alors une base de E de la
façon suivante : on choisit une base B = (e1 , . . . , ei1 ) de Ker f que l’on complète en une
base (e1 , . . . , ei2 ) de Ker f 2 etc. jusqu’à obtenir une base (e1 , . . . , en ) de E = Ker f m telle
que, pour tout 1 6 j 6 r, ei ∈ Ker f j pour i 6 ij . En particulier, si ij−1 < i 6 ij , on a
ei ∈ Ker(f j ) et donc

f (ei ) ∈ Ker f j−1 = Vect(e1 , . . . , eij−1 ) ⊂ Vect(e1 , . . . , ei−1 ).

Ainsi MatB (f ) est triangulaire supérieure avec des 0 sur la diagonale.


On suppose à présent (iii) et on montre (i). Soit B une base de E telle que telle
que MatB (f ) soit triangulaire supérieure avec des zéros sur la diagonale. Alors f (ei ) ∈
Vect(e1 , . . . , ei−1 ) pour tout 1 6 i 6 n, ce qui prouve que f i (ei ) = 0 pour tout 1 6 i 6 n,
c’est-à-dire f n = 0L(E) .
Montrons que (iii) implique (iv). Soit B une base de E telle que MatB (f ) est trian-
gulaire supérieure avec des zéros sur la diagonale. Alors

χf = χMatB (f ) = X dim E .

Enfin (iv) implique (i) en utilisant le théorème de Cayley–Hamilton.

7.4 Sous-espaces caractéristiques

Soit E un K-espace vectoriel et soit f ∈ L(E). Soit λ ∈ K un scalaire. On appelle


sous-espace caractéristique de f associé à λ le sous-espace vectoriel
[
Fλ (f ) = {v ∈ E | ∃n > 0, (f − λIdE )n (v) = 0E } = Ker((f − λIdE )n ).
n>0

On remarque que l’on a (f − λIdE )n = P (f ) avec P (X) = (X − λ)n , ainsi chaque sous-
espace Ker((f − λIdE )n ) est stable par f et Fλ (f ) est donc aussi un sous-espace stable
par f .

Proposition 7.12. Si E est de dimension finie, il existe n > 0 tel que Fλ (f ) = Ker((f −
λIdE )n ).

Démonstration. En effet on a Ker((f − λIdE )n ) ⊂ Ker((f − λIdE )n+1 ) pour tout n > 0.
La suite de sous-espaces vectoriels (Ker((f − λIdE )n ))n>0 est donc croissante, de même

51
que la suite d’entiers (dim Ker((f − λIdE )n ))n>0 . Or cette dernière suite est bornée par
dim E. Elle est donc constante pour n assez grand, ce qui implique que la suite de
sous-espaces (Ker((f − λIdE )n ))n>0 est constante pour n assez grand. Ceci implique le
résultat.

Supposons désormais E est de dimension finie et notons qλ le plus petit entier tel
que Fλ (f ) = Ker((f − λIdE )qλ ). Notons que Fλ (f ) = Eλ (f ) si et seulement si qλ = 1.
Voici une autre caractérisation de l’entier qλ .

Proposition 7.13. L’entier qλ est le plus petit entier n tel que Ker((f − λIdE )n ) =
Ker((f − λIdE )n+1 ).

Démonstration. L’entier qλ est l’indice de nilpotence de l’endomorphisme de Fλ induit


par f − λIdE , qui est un endomorphisme nilpotent de Fλ .

Proposition 7.14. On a Eλ (f ) 6= {0E } si et seulement si Fλ (f ) 6= {0E }.

Démonstration. On a Eλ (f ) ⊂ Fλ (f ) pour tout λ ∈ K donc Eλ (f ) 6= {0E } implique


Fλ (f ) 6= 0E . Réciproquement supposons Eλ (f ) = {0E }. Alors {0E } = Ker(f − λIdE )0 =
Ker(f − λIdE ) et donc Ker(f − λIdE )n = {0E } pour tout n > 0, donc Fλ (f ) = {0E }.

7.5 Multiplicité d’une valeur propre

Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Si λ est une valeur
propre de f , on appelle multiplicité algébrique de λ la multiplicité de λ comme racine
du polynôme caractéristique de f .
On appelle multiplicité géométrique de la valeur propre λ l’entier dim Eλ (f ).

Théorème 7.15. Soit λ une valeur propre de f . Alors la multiplicité algébrique de f est
égale à la dimension du sous-espace caractéristique de λ. En particulier la multiplicité
géométrique de λ est inférieure à sa multiplicité algébrique.

Démonstration. Soit F = Fλ (f ). Il s’agit d’un sous-espace stable par f , soit fF l’endo-


morphisme de F induit par f . Par définition de Fλ (f ), l’endomorphisme fF − λIdF est
nilpotent. En particulier on a χfF −λIdF = X dim F . Soit m la multiplicité algébrique de
λ. On peut alors écrire χf (X) = (X − λ)m Q(X) avec Q(λ) 6= 0. Ainsi les polynômes
(X −λ)m et Q(X) sont premiers entre eux. Le théorème de Cayley–Hamilton et le lemme
des noyaux impliquent donc que

E = Ker(χf (f )) = Ker((f − λIdE )m ) ⊕ Ker(Q(f )).

On a Ker((f − λ)m ) ⊂ Fλ (f ). Montrons que Fλ (f ) ∩ Ker(Q(f )) = {0}. Posons V =


Fλ (f ) ∩ Ker(Q(f )). L’endomorphisme de V induit par f − λIdE est nilpotent. En par-
ticulier, si V 6= {0E }, λ est valeur propre de fV . Par ailleurs comme Q annule fV , λ

52
doit être racine de Q, ce qui est faux. Ainsi V = {0E }. On en déduit dim Fλ (f ) 6
dim E − dim Ker(Q(f )) = dim Ker((f − λId)m ) et donc que Fλ (f ) = Ker((f − λId)m ).
On a donc prouvé que E = F ⊕ S où S = Ker(Q(f )) est un supplémentaire stable par
f tel que λ n’est pas valeur propre de fS . On a donc

χf = χfF χfS .

Comme χfS (λ) 6= 0 et χfF = (X − λ)dim F , on en déduit que m = dim Fλ (f ).

Corollaire 7.16. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E).


Alors f est diagonalisable si et seulement si χf est scindé et, pour tout racine λ de χf ,
la multiplicité géométrique de λ est égale à sa multiplicité algébrique.

Démonstration. Supposons que χf est scindé. Alors le lemme des noyaux implique que
M
E= Fλ (f ).
λ∈Sp(f )

De plus, comme Eλ (f ) ⊂ Fλ (f ), la multiplicité algébrique de λ est égal à sa multiplicité


géométrique si et seulement si Eλ = Fλ (f ). On en déduit le résultat.

7.6 Méthode de trigonalisation d’un endomorphisme

Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E).


Proposition 7.17. Si f est trigonalisable, alors on a une décomposition en somme
directe M
E= Fλ (f ).
λ∈Sp(f )

Démonstration. C’est une conséquence du lemme des noyau et du théorème de Cayley–


Hamilton. En effet, le polynôme caractéristique de f est scindé
Y
χf (X) = (X − λ)mλ .
λ∈Sp(f )

On a donc M
E= Ker((f − λIdE )mλ ).
λ∈Sp(f )

Par ailleurs, on a Ker((f − λIdE )mλ ) ⊂ Fλ (f ) de sorte que dim Ker((f − λIdE )mλ ) 6
dim Fλ (f ). Et, puisque
X X X
dim E = dim Ker((f − λIdE )mλ ) 6 dim Fλ (f ) = mλ = dim E,
λ∈Sp(f ) λ∈Sp(f ) λ∈Sp(f )

toutes les inégalités sont des égalités, de sorte que Ker((f − λIdE )mλ ) = Fλ (f ) pour tout
λ ∈ Sp(f ) et on obtient le résultat.

53
Remarquons à présent que chaque sous-espace Fλ (f ) est stable par f , pour trigonali-
ser f , il suffit donc de trigonaliser l’endomorphisme induit par f sur chaque sous-espace
caractéristique.
Voici donc une méthode pour trouver une base de trigonalisation de f .

1) On détermine les valeurs propres de f .


2) On détermine les sous-espaces caractéristiques de f .
3) Pour chaque λ ∈ Sp(f ), on détermine une base de Eλ (f ) = Ker(f − λIdE ), que
l’on complète en une base de Ker((f − λIdE )2 ), puis en une base de Ker((f − λIdE )3 )
etc. jusqu’à obtenir une base Bλ de Fλ (f ). La matrice de fFλ (f ) est alors triangulaire
supérieure dans la base Bλ .
4) On concatène les bases Bλ pour obtenir une base de E qui est alors une base de
trigonalisation de f .

8 Forme de Jordan d’un endomorphisme

8.1 Sous-espaces cycliques

Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). On dit que f est
cyclique s’il existe un vecteur v ∈ E tel que

E = Vect(f n (v) | n > 0) = {P (f )(v) | P ∈ K[X]}.

Si v ∈ E, on note dans la suite hvif le sous-espace vectoriel

hvif = {P (f )(v) | P ∈ K[X]}.

Lemme 8.1. Soit v ∈ E. Soit Pv ∈ K[X] un polynôme unitaire de degré minimal tel que
Pv (f )(v) = 0E . Alors, pour P ∈ K[X], on a Pv divise P si et seulement si P (f )(v) = 0E .
De plus, la famille (v, f (v), · · · , f deg(Pv )−1 (v)) est une base de hvif . En particulier on a

deg(Pv ) = dimhvif .

Démonstration. Soit P ∈ K[X]. Si Pv divise P , on peut écrire P = QPv et donc

P (f )(v) = Q(f )(v(f )(v)) = Q(f )(0E ) = 0E .

Réciproquement supposons P (f )(v) = 0E . On fait la division euclidienne de P par Pv ,


c’est-à-dire P = QPv + R avec deg(R) < deg(Pv ). On obtient R(f )(v) = P (f )(v) = 0E .
Comme deg(R) < deg(Pv ), on a R = 0, ce qui implique que Pv divise P .
Soit n = deg(Pv ). Montrons que hvif est le sous-espace vectoriel engendré par les
vecteurs (v, f (v), . . . , f n−1 (v)). C’est une conséquence de la division euclidienne. En ef-
fet soit w ∈ hviv . Il existe alors un polynôme P ∈ K[X] tel que w = P (f )(v). Ef-
fectuons la division euclidienne de P par Pv . On a P = QPv + R avec deg(R) <

54
deg(Pv ) et w = P (f )(v) = R(f )(v), ce qui prouve que w est combinaison linéaire
de (v, f (v), · · · , f n−1 (v)). Montrons à présent que la famille (v, f (v), · · · , f n−1 (v)). Si
a0 v + · · · + an−1 f n−1 (v) = 0E , on a R(f )(v) = 0E avec R = a0 + a1 X + · · · + an−1 X n−1
et donc Pv divise R. Comme deg(R) < deg(Pv ), on a R = 0 c’est-à-dire a0 = a1 = · · · =
an−1 = 0.

Proposition 8.2. Si l’endomorphisme f est cyclique alors le polynôme minimal de f


est égal au polynôme caractéristique de f .

Démonstration. Supposons que f est cyclique. Soit v ∈ E un vecteur tel que E = hvif .
Soit Pv ∈ K[X] de degré minimal tel que Pv (f )(v) = 0E . On a alors dim E = dimhvif =
deg(Pv ). Comme πf () = 0L(E) , on a πf (f )(v) = 0E et donc Pv divise πf . D’après le
théorème de Cayley–Hamilton, le polynôme πf divise χf . Comme dim E = deg(χf ), on
en conclut que Pv = πf = χf .

Un sous-espace F de E est dit cyclique s’il est stable par f et si fF est cyclique.

Corollaire 8.3. Si F est un sous-espace cyclique de E, alors χfF divise le polynôme


minimal de f .

Démonstration. En effet, χfF est alors égal au polynôme minimal de πfF et le polynôme
minimal de πfF divise πf puisque πf annule fF .

Théorème 8.4. On suppose désormais que f est nilpotent. Alors les conditions suivantes
sont équivalentes
(i) l’endomorphisme f est cyclique ;
(ii) il existe une base de E dans laquelle la matrice de f est de la forme
 
0 1 0 ··· 0
 .. 
0 0
 1 . 0 
. . .. .. .. 
. .. . . ;
. .
0 · · · 0 0 1
 

0 ··· ··· 0 0

(iii) Ker(f ) est de dimension 1 ;


(iv) dim Ker(f i ) = i pour tout 0 6 i 6 dim E ;
(v) l’indice de nilpotence de f est égal à dim E.

Démonstration. Montrons que (i) implique (ii). Supposons f cyclique et fixons v ∈ E


tel que E = {P (f )(v) | P ∈ K[X]}. On a alors πf = X dim E , de sorte que les vec-
teurs v, f (v), . . . , f (dim E−1) (v) forment une base de E. La matrice de f dans la base
(f dim E−1 (v), f dim E−2 (v), . . . , f (v), v) est la matrice considérée en (ii).

55
Il est clair que (ii) implique (iii). Montrons que (iii) implique (iv). On le démontre
par récurrence sur i. Pour i = 0, c’est évident. Supposons donc que dim Ker(f i ) = i pour
un certain 0 6 i 6 dim E − 1 et montrons que dim Ker(f i+1 ) = i + 1. On a f (Ker f i+1 ) ⊂
Ker f i et donc dim Ker(f i+1 ) 6 dim Ker f i +dim Ker f d’où dim Ker f i+1 6 i+1. Comme
f est nilpotent et Ker f i ( E, on doit avoir Ker f i ( Ker f i+1 et donc dim Ker f i+1 =
i + 1.
Montrons que (iv) implique (v). On a alors Ker f dim E−1 ( E, de sorte que l’indice
de nilpotence de f est égal à dim E.
Montrons enfin que (v) implique (i). Pour tout v ∈ E, notons Pv un polynôme
unitaire de plus petit degré tel que Pv (f )(v) = 0E . Alors Pv divise πf , donc Pv est de la
forme X nv pour un certain entier 1 6 nv 6 dim E. Soit v ∈ E tel que nv est maximal.
On a alors f nv (v) = 0E pour tout v ∈ E, ce qui implique f nv = 0L(E) . Ainsi nv > dim E
et donc nv = dim E. Ceci implique que la famille constituée des vecteurs f i (v) pour
0 6 i 6 dim E − 1 est libre et engendre donc un sous-espace vectoriel de dimension
dim E. Au final cette famille engendre E, c’est-à-dire que f est cyclique.

8.2 Décomposition de Jordan d’un endomorphisme nilpotent

Théorème 8.5. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E) un


endomorphisme nilpotent. Alors E est une somme directe de sous-espaces cycliques.

Démonstration. On démontre l’existence de la décomposition par récurrence sur la di-


mension de E. Si la dimension de E est égal à 1 le résultat est évident car un endomor-
phisme nilpotent est automatiquement nul. Supposons donc le résultat démontré pour
un espace vectoriel de dimension n et montrons-le en dimension n + 1. Comme f est
nilpotent, Ker(f ) 6= {0E } et donc rg(f ) 6 n, ceci implique qu’il existe un sous-espace F
de E de dimensoin n contenant Im(f ). Comme f (F ) ⊂ Im(f ) ⊂ F , le sous-espace F est
stable par f . De plus fF est un endomorphisme nilpotent de F . Par récurrence, on peut
donc écrire F sous la forme F1 ⊕ F2 ⊕ · · · ⊕ Fr où les Fi sont des sous-espaces cycliques
de F , donc de E. Soit Vect(e) un supplémentaire de F dans E. On a f (e) ∈ Im(f ) ⊂ F ,
on peut donc écrire f (e) de façon unique sous la forme v1 + · · · vr avec vi ∈ Fi .
Si f (e) = 0E , alors Vect(e) est stable par f et est un sous-espace cyclique, on obtient
donc une décomposition
E = F1 ⊕ · · · ⊕ Fr ⊕ Vect(e)
de E en somme directe de sous-espaces cycliques.
Supposons f (e) 6= 0E . Quitte à rénuméroter les sous-espaces Fi on peut supposer
qu’il existe un entier 0 6 s 6 r tel que vi ∈ / f (Fi ) si 1 6 i 6 s et vi ∈ f (Fi ) si
s + 1 6 i 6 r. Pour s + 1 6 i 6 r, soit wi ∈ E tel que vi = f (wi ). En remplaçant e
par e − ws+1 − · · · − wr , on peut supposer que vi = 0 pour s + 1 6 i 6 r. Si s = 0,
on est ramené au casn où f (e) = 0E . On peut donc supposer que s > 1. Quitte à
rénuméroter encore les sous-espaces Fi , on peut supposer que m = dim F1 est maximale

56
parmi les valeurs dim Fi pour 1 6 i 6 s. Comme v1 ∈ / f (F1 ), on a f m−1 (v1 ) 6= 0E et
m
donc f (e) = f m−1 (v1 ) + · · · + f m−1 (vr ) 6= 0E . On en conclut que f m (e) 6= 0E . Notons
G1 = heif . On a alors f m (e) 6= 0E et f m+1 (e) = 0E donc dim G1 = m + 1. On en déduit
que

dim G1 + dim F2 + · · · + dim Fr = 1 + dim F1 + · · · + dim Fr = dim F + 1 = dim E.

Montrons à présent que les sous-espaces G1 , F2 , · · · , Fr sont en somme directe, ce qui


permettra de conclure. Soient w1 , . . . , wr des vecteurs tels que w1 + · · · + wr = 0E avec
w1 ∈ G1 , wi ∈ Fi pour i > 2. On peut alors écrire w1 = a0 e + a1 f (e) + · · · + am f m (e)
avec a0 , . . . , am ∈ K. On a alors

a0 e = −w2 − · · · − wr − f (a1 e + · · · + am f m−1 (e)) ∈ F2 ⊕ · · · ⊕ Fm + Im(f ) ⊂ F.

Comme e ∈ / F , on a a0 = 0. Rappelons que f (e) = v1 + · · · + vs avec vi ∈ Fi pour


1 6 i 6 s. On en déduit que

w1 = a1 v1 + · · · + am f m−1 (v1 ) + z

où z ∈ F2 ⊕ · · · ⊕ Fr . Comme F1 , F2 , . . . , Fr sont en somme directe, on en conclut que


a1 v1 + · · · + am f m−1 (v1 ) = 0E . Comme (v1 , f (v1 ), . . . , f m−1 (v1 )) forme une base de F1 ,
on en conclut que a1 = a2 = · · · = am = 0.

Si f est un endomorphisme nilpotent de E, on peut donc toujours décomposer E en


somme de sous-espaces cycliques F1 ⊕ · · · ⊕ Fr avec

dim F1 > dim F2 > · · · > dim Fr .

Si cette décomposition n’est pas toujours unique, nous allons montrer que la suite d’en-
tiers dim F1 > · · · > dim Fr est unique, c’est-à-dire qu’elle ne dépend que de f et pas de
la décomposition choisie.

Proposition 8.6. Soit n > 1. L’entier dim Ker f n − dim Ker f n−1 est égal au nombre
de sous-espaces cycliques Fi de dimension > n.

Démonstration. Si F est un sous-epace cyclique de dimension m, on a Ker(fFn ) =


Ker(fFn−1 ) si et seulement si n > m et dans le cas contraire, on a dim(Ker f n ) =
dim Ker(f n−1 ) + 1 puisque F est cyclique. On a alors
r r
dim(fFn−1
X X
dim Ker(f n ) − dim Ker(f n−1 ) = dim(fFni ) − i
)
i=1 i=1
r
(dim Ker(fFni ) − dim Ker(fFn−1
X
= i
))
i=1
= Card{1 6 i 6 r | dim Fi > n}.

57
Corollaire 8.7. Soit f un endomorphisme nilpotent d’un espace vectoriel E de dimen-
sion finie. Alors toutes les décomposition de E en sous-espaces cycliques pour f ont les
mêmes dimensions. De plus le nombre d’occurence d’un sous-espace de dimension n dans
une telle décomposition vaut
2 dim Ker(f n ) − dim Ker(f n+1 ) − dim Ker(f n−1 ).
Exemple 8.8. Soit A ∈ M5 (R) une matrice nilpotente telle que
dim Ker A = 2, dim Ker A2 = 4 dim Ker A3 = 5.
Dans sa décomposition en sous-espaces cycliques, il y a donc 2 sous-espaces. Parmi ces
sous-espaces, il y en a 2 qui sont de dimension > 2 et 1 de dimension > 3. On en déduit
que R5 se décompose en une somme d’un sous-esapce cyclique de dimension 2 et un
sous-espace cyclique de dimension 3. Il existe donc une matrice P ∈ M5 (R) inversible
telle que  
0 1 0 0 0
0 0 1 0 0
 
−1
P AP = 0 0 0 0 0 .
 
 
0 0 0 0 1
0 0 0 0 0

Si n > 1, on note Jn la matrice (ai,j ) ∈ Mn (K) telle que ai,j = δi+1,j . C’est une
matrice nilpotente d’indice n. Si n > 1, on appelle matrice de Jordan une matrice de la
forme  
Jm1 0 ··· ··· 0
 0
 Jm2 0 ··· 0 
 . .. .. .. .. 
 . . . .
 . . 

··· Jmr−1

 0 0 0 

0 ··· ··· 0 Jmr


où m1 > m2 > · · · > mr > 1 est une suite décroissante d’entier, c’est-à-dire une matrice
diagonale par blocs où les blocs diagonaux forment une suite de Jm de taille décroissante
puis des 0.
Corollaire 8.9. Toute matrice nilpotente est conjuguée à une unique matrice de Jordan.

8.3 Décomposition de Dunford–Jordan d’un endomorphisme diagona-


lisable

Soit n > 1 un entier et soit λ ∈ K. On note Jn (λ) la matrice


 
λ 1 0 ··· 0
 .. 
0
 λ 1 . 0 
Jn (λ) = λIn + Jn =  .. .. .. .. ..  ∈ Mn (K).

. . . . .
0 ··· 0 λ 1
 

0 ··· ··· 0 λ

58
Théorème 8.10. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E)
un endomorphisme trigonalisable. Il existe une base B telle que la matrice MatB (f ) soit
diagonale par blocs, de blocs diagonaux de la forme Jn (λ) avec λ ∈ Sp(f ). De plus, le
nombre d’occurence du bloc Jn (λ) est égal à

2dn (λ)) − dn−1 (λ) − dn+1 (λ)

pour toute λ ∈ Sp(f ) où l’on note dn (λ) = dim Ker((f − λIdE )n ).

Démonstration. On commence par décomposer E sous la forme


M
E= Fλ (f ).
λ∈Sp(f )

Chaque sous-espace caractéristique Fλ (f ) est alors stable par f . L’endomorphisme fFλ (f ) −


λIdFλ (f ) est alors un endomorphisme nilpotent de Fλ (f ). On choisit alors une base Bλ
telle que MatBλ (fFλ (f ) −λIdFλ (f ) ) soit sous forme de Jordan. On obtient B en concaténant
les bases Bλ . On obtient alors le nombre de blocs Jn (λ) en remarquant que

dn (λ) = dim Ker((f − λIdE )n ) = dim Ker((fFλ (f ) − λIdFλ (f ) )n ).

Corollaire 8.11. Soit A ∈ Mn (K) une matrice trigonalisable. On peut alors décomposer
A, de façon unique, sous la forme A = B + N où B est une matrice diagonalisable et N
une matrice nilpotentes telles que BN = N B.

Démonstration. Démontrons l’existence de la décomposition. Il existe une matrice inver-


sible P telle que P −1 AP est diagonale par blocs de blocs diagonaux de la forme Jm (λ).
Notons D la matrice diagonale par blocs obtenue en remplaçant chaque bloc Jm (λ) par
un bloc de la forme λIm . Alors D est diagonale et commute avec P −1 AP . On pose alors
B = P DP −1 . Il s’agit donc d’une matrice diagonalisable commutant avec A. La matrice
P −1 AP −D est alors triangulaire supérieure avec des zéros sur la diagonale, elle est donc
nilpotente. Ainsi la matrice N = A − B = P (P −1 AP − D)P −1 est aussi nilpotente et
on a obtenu la décomposition voulue.
Nous admettons l’unicité de cette décomposition.

8.4 Exponentielles de matrices

Dans cette partie on suppose que K = R ou = C. Si A ∈ Mn (R), on admet que


la série suivante converge dans Mn (R) (en un sens qui sera rendu précis dans une UE
ultérieure) :
X An
.
n>0
n!

On note exp(A) sa limite. Il s’agit de l’exponentielle de la matrice A.

59
Proposition 8.12. Si A, B ∈ Mn (K) sont deux matrices qui commutent, alors
k
!
k
X k
(A + B) = Ai B k−i
i=0
i

pour tout entier k > 0.

Démonstration. La preuve se fait de façon immédiate par récurrence.

Remarque 8.13. L’hypothèse de commutation des matrices est indispensable. Par


exemple, si k = 2, on a

(A + B)2 = A2 + AB + BA + B 2

de sorte que la formule est valable si et seulement si AB + BA = 2AB, c’est-à-dire si et


seulement si AB = BA.

Proposition 8.14. Si A, B ∈ Mn (K) sont deux matrices qui commutent, alors

exp(A + B) = exp(A) exp(B).

Démonstration. Nous en donnons une preuve en admettant que toutes les inversions de
séries sont bien légitimes (les outils permettant de le vérifier sont hors programme).
  
X Am X Bn
exp(A) exp(B) =   
m>0
m! n>0
n!
 
X 1 k! m n 
X
=  A B
k>0
k! m+n=k m!n!
 ! 
X 1 X k
=  Am B n 
k>0
k! m+n=k
m
X 1
= (A + B)k = exp(A + B).
k>0
k!

Corollaire 8.15. Pour toute matrice A ∈ Mn (K), la matrice exp(A) est une matrice
inversible, d’inverse exp(−A).

Proposition 8.16. Si A ∈ Mn (K) et si P ∈ Mn (K) est inversible, alors

exp(P AP −1 ) = P exp(A)P −1 .

60
Démonstration.
X 1
exp(P AP −1 ) = (P AP −1 )k
k>0
k!
X 1 k −1
= P A P
k>0
k!
 
X Ak
=P  P −1
k>0
k!
= P exp(A)P −1
(une justification rigoureuse de la dernière étape est hors programme).

Supposons à présent que la matrice A ∈ Mn (A) est trigonalisable. On peut donc


l’écrire sous la forme A = B + N avec B diagonalisable et N nilpotente telles que
BN = N B. On a alors exp(A) = exp(B) exp(N ).
La matrice exp(N ) est simple à calculer. En effet, si m désigne l’indice de nilpotence
de N , alors
N m−1
exp(N ) = In + N + · · · + .
(m − 1)!
On peut calculer exp(B) de la façon suivante. Comme B est diagonalisable, il existe
une matrice P inversible telle que D = P −1 BP est diagonale. On a alors exp(B) =
P exp(D)P −1 et le calcul de exp(D) se fait terme à terme :
e λ1
   
λ1 0 ··· 0 0 ··· 0
 0

λ2 ··· 0   0
 
eλ2 ··· 0 

exp   =  . .
 .. .. .. .. .. .. ..

  .
 . . . .   . . . .


0 ··· 0 λn 0 ··· 0 eλn

On peut aussi commencer par décomposer A sous la forme A = P T P −1 avec T


triangulaire supérieure et utiliser la formule
exp(A) = P exp(T )P −1 .

8.5 Application aux équations différentielles linéaires

On suppose toujours que K = R ou K = C. On admet le théorème suivant.


Théorème 8.17. Soit A ∈ Mn (K). Pour tout X0 ∈ K n , il existe un unique n-uplet
(x1 , . . . , xn ) d’applications de classe C 1 de R dans K tel que, pour tout t ∈ R,
 0
x1 (t) x1 (t) x1 (0)
    
 ..   .   .. 
 .  = A  ..  ,  .  = X0 .
x0n (t) xn (t) xn (0)

61
De plus, on a, pour tout t ∈ R,

x1 (t)
 
 .. 
 .  = exp(tA)X0 .
xn (t)

Exemple 8.18. Supposons que A ∈ M2 (R) est trigonalisable et non diagonalisable avec
une unique valeur propre λ. Il existe alors une matrice inversible P ∈ M2 (R) telle que
!
−1 λ 1
B=P AP = .
0 λ

On a alors, pour tout t ∈ R,


! ! ! ! !
tλ 0 0 t eλt 0 1 t eλt teλt
exp(tB) = exp exp = = .
0 tλ 0 0 0 eλt 0 1 0 eλt

Soit X une application de R dans R2 telle que X 0 (t) = AX(t) pour tout t ∈ R et
X(0) = X0 . Posons Y (t) = P −1 X(t) et Y0 = P −1 X0 . Cette application vérifie l’équation
différentielle Y 0 (t) = BY (t) de sorte que
! ! !
eλt teλt y1 eλt y1 + teλt y2
Y (t) = exp(tB)Y0 = = .
0 eλt y2 eλt y2

9 Un petit complément sur la trace

Soit A = (ai,j ) 16i6n ∈ Mn (K). La trace de A est le scalaire


16j6n

n
X
Tr(A) = ai,i .
i=1

Pour A et B dans Mn (K), on a Tr(AB) = Tr(BA). En particulier si P ∈ GLn (K),


alors
Tr(P AP −1 ) = Tr(A).

Théorème 9.1. Soit A ∈ Mn (K) une matrice trigonalisable. On a alors


X Y
Tr(A) = malg (λ)λ, det(A) = λmalg (λ) .
λ∈Sp A λ∈Sp A

62

Vous aimerez peut-être aussi