Cours
Cours
Algèbre 3
Benjamin Schraen
Un K-espace vectoriel (ou tout simplement espace vectoriel quand le corps K est
sous-entendu) est un ensemble E muni de deux lois de composition
E × E −→ E K × E −→ E
(v, w) 7−→ v + w (λ, v) 7−→ λ · v.
∀(u, v, w) ∈ E × E × E, (u + v) + w = u + (v + w).
∀(v, w) ∈ E × E, v + w = w + v.
∀v ∈ E, v + 0E = 0E + v = v.
v + (−v) = (−v) + v = 0E .
∀(λ, v, w) ∈ K × E × E, λ · (v + w) = (λ · v) + (λ · w)
∀(λ, µ, v) ∈ K × K × E, (λ + µ) · v = (λ · v) + (µ · v).
1
f) La loi · est compatible à la multiplication dans K :
∀(λ, µ, v) ∈ K × K × E, λ · (µ · v) = (λµ) · v, 1 · v = v.
(x1 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en
donc K n = Vect(e1 , . . . , en ) ce qui montre que (e1 , . . . , en ) est une famille génératrice de
K n.
2
Dans l’exemple précédent, on a envie de dire que K n est en fait de dimension n. Pour
définir correctement la notion de dimension, il est nécessaire d’introduire les notions de
familles libres et de bases.
Définition 1.5. Soit (v1 , . . . , vn ) une famille finie d’éléments de E. On dit que la famille
(v1 , . . . , vn ) est libre si pour tout n-uplet de scalaires (λ1 , . . . , λn ) ∈ K n , on a
λ1 v1 + · · · + λn vn = 0E ⇒ λ1 = λ2 = · · · = λn = 0.
Autrement dit, la seule combinaison linéaire nulle des vecteurs v1 , . . . , vn est la combi-
naison dont les coefficients sont nuls.
donc λ1 = · · · = λn = 0.
Définition 1.7. Une base de E est une famille finie d’éléments de E qui est à la fois
libre et génératrice.
(x1 , x2 , . . . , xn ) = x1 e1 + · · · xn en
donc les scalaires x1 , . . . , xn sont les coordonnées du vecteur (x1 , . . . , xn ) dans la base
B. Pour cette raison, on lui donne le nom de base canonique de Rn . Mais attention, il
existe bien d’autres bases dans Rn !
Il peut être commode, du point de vue du calcul matriciel, de noter les coordonnées
d’un vecteur sous forme de vecteur colonne. Si E est un espace vectoriel, B une base de
E et v ∈ E, on note
x1
..
[v]B = .
xn
le vecteur colonne des coordonnées de v dans la base B.
3
Exemple 1.9. Soit K[X] l’ensemble des polynômes en une variable à coefficients dans
K. Si n > 0, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n. La
famille B = (1, X, X 2 . . . , X n ) est une base de Kn [X]. De plus on a
a0
a1
[a0 + a1 X + · · · + an X n ]B =
.. .
.
an
4
On peut effectuer des opérations sur les sous-espaces vectoriels afin d’en produire de
nouveaux.
Si E est un espace vectoriel et si F1 et F2 sont deux sous-espaces vectoriels, l’inter-
section F1 ∩ F2 est un sous-espace vectoriel de E. L’ensemble
F1 + F2 = {v + w | (v, w) ∈ F1 × F2 }
F1 + · · · + Fn = {x1 + · · · + xn | (x1 , . . . , xn ) ∈ F1 × · · · × Fn }
Remarquons que dans l’exemple 1.15, le sous-espace vectoriel peut être défini comme
Vect(v, w).
Soit E un K-espace vectoriel, ainsi que F1 et F2 deux sous-espaces vectoriels de E.
Par définition, tout élément de F1 + F2 s’écrit sous la forme v + w avec v ∈ F1 et w ∈ F2 .
2
Cette écriture n’est
! pas !! par exemple le cas de E = R avec
!!toujours unique. Considérons
!
1 1 0 1
F1 = Vect , et F2 = Vect , . Alors on peut écrire
0 1 1 1
! ! ! ! !
2 1 1 0 1
= + =− +2 .
1 0 1 1 1
Cependant lorsque cette décomposition est unique, on dit que les sous-espaces F1 et F2
sont en somme directe. Plus généralement, on peut définir la notion de somme directe
pour une famille finie de sous-espaces vectoriels.
Pour vérifier que des sous-espaces vectoriels sont en somme directe, on peut utiliser
le critère suivant.
5
Démonstration. Le sens ⇒ est immédiat, il s’agit juste d’appliquer la définition d’une
somme directe à la décomposition de l’élément 0. Montrons que si l’égalité v1 +· · ·+vn = 0
implique v1 = v2 = · · · = vn = 0 pour tout (v1 , . . . , vn ) ∈ F1 × · · · × Fn , alors les sous-
espaces F1 , . . . , Fn sont en somme directe. Il faut donc prouver que si (v1 , . . . , vn ) ∈
F1 × · · · × Fn et si (w1 , . . . , wn ) ∈ F1 × · · · × Fn vérifient
v 1 + · · · + v n = w1 + · · · + wn , (1)
alors v1 = w1 , . . . , vn = wn . Pour cela, réécrivons l’égalité (1) sous la forme
(v1 − w1 ) + (v2 − w2 ) + · · · + (vn − wn ) = 0.
L’hypothèse implique alors v1 − w1 = · · · = vn − wn = 0, c’est-à-dire v1 = w1 , . . . , vn =
wn .
6
Sooit E un espace vectoriel et soit F un sous-espace vectoriel de E. On appelle
supplémentaire de F dans E un sous-espace vectoriel G de E tel que E = F ⊕ G.
Proposition 1.23. Tout sous-espace vectoriel F d’un espace vectoriel E possède au
moins un supplémentaire.
Il faut prendre garde au fait qu’un supplémentaire d’un sous-espace vectoriel est loin
d’être unique, il en existe même une infinité en général.
Corollaire 1.24. Soit E un espace vectoriel de dimension finie et soit F un sous-espace
vectoriel de E. Si dim F = dim E alors F = E.
∀v ∈ E, (λ · f )(v) = λ · f (v).
7
Définition 1.27. Si E et F sont deux espaces vectoriels et si f est une application
linéaire de E dans F , on note Im f l’image f (E) de f et Ker f le noyau de f , c’est-à-
dire l’ensemble f −1 ({0}) = {x ∈ E, f (x) = 0}.
1.5 Matrices
Définition 1.31. Soient m > 1 et n > 1 deux entiers. Une matrice de taille m × n à
coefficients dans K est un tableau rectangulaire A ayant m lignes et n colonnes contenant
des éléments de A. On note ai,j ses coefficients et on les indexe de la façon suivante
a1,1 a1,2 ··· a1,n
..
a a2,2 . a2,n
A = (ai,j )16i6m = 2,1 .
16j6n .. .. .. ..
. . . .
am,1 am,2 · · · am,n
8
On note Mm,n (K) l’ensemble des matrices à m lignes et n colonnes. C’est un K-
espace vectoriel pour les opérations suivantes
— A = (ai,j )16i6m , B = (bi,j )16i6m , alors C = A + B où C = (ai,j + bi,j )16i6m .
16j6n 16j6n 16j6n
— A = (ai,j )16i6m , λ ∈ K, alors λ · A = (λai,j )16i6m .
16j6n 16j6n
Le K-espace vectoriel Mm,n (K) est de dimension finie. Une base de Mm,n (K) est
donnée par la famille de matrices Ei,j pour 1 6 i 6 m et 1 6 j 6 n. La matrice Ei,j
est la matrice dont toutes les entrées sont nulles sauf l’entrée à l’intersection de la i-ème
ligne et de la j-ème colonne qui vaut 1. On en déduit que
dimK Mm,n (K) = mn.
Si m = n, une matrice de Mn (K) = Mn,p (K) est appelée matrice carrée de taille n.
Si A ∈ Mn,p (K) et B ∈ Mp,q (K), on définit le produit de A avec B par
AB = (ci,j )16i6n ∈ Mn,q (K)
16j6q
Pp
où ci,j = k=1 ai,k bk,j .
Proposition 1.32. Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), on a
— A(BC) = (AB)C ;
— A(B + C) = (AB) + (AC) ;
— (A + B)C = (AC) + (BC) ;
— si λ ∈ K, on a λ(AB) = (λA)B = A(λB).
Pour n > 1, on identifie l’espace vectoriel K n à l’espace des matrices Mn,1 (K) via
x1
..
l’opération (x1 , . . . , xn ) 7→ . .
xn
Si n > 1, on note In la matrice (ai,j ) 16i6n de Mn (K) définie par ai,j = 0 si i 6= j et
16j6n
ai,j = 1 si i = j. On l’appelle la matrice identité.
Définition 1.33. Si A ∈ Mn,p (K), on appelle transposée de A et on note t A la matrice
de Mp,n (K) définie par
t
A = (aj,i ) 16i6p .
16j6n
On a alors t (AB) = t B t A.
Définition 1.34. Une matrice A ∈ Mn (K) est dite inversible s’il existe une matrice
B ∈ Mn (K) telle que AB = BA = In . Si elle existe, la matrice B est unique et est
appelée inverse de A. On la note alors A−1 .
On note GLn (K) l’ensemble des matrices inversibles de Mn (K). Si A et B sont dans
GLn (K), alors AB ∈ GLn (K) et
(AB)−1 = B −1 A−1 .
9
1.6 Représentation matricielle d’une application linéaire
La matrice de taille m × n de termes (ai,j )16i6m est appelée matrice de u dans les bases
16j6n
BE et BF . On la note Mat(BE ,BF ) (u) ou encore Mat(u; BE , BF ). Si E = F et BE = BF ,
on note MatBE (u) = Mat(BE ,BE ) (u).
Soit v ∈ E. Si (x1 , . . . , xn ) est le système de coordonnées de v dans la base BE , on
x1
..
note [v]BE = . le vecteur des coordonnées de v dans la base BE .
xn
La matrice de u dans les bases BE et BF a alors la propriété suivante, pour tout
v ∈ E,
[u(v)]BF = Mat(BE ,BF ) (u)[v]BE .
Proposition 1.35. Soient E, F et G trois espaces vectoriels de dimension finie. Soient
BE une base de E, BF une base de F et BG une base de G. Alors si u ∈ L(F, G) et
v ∈ L(E, F ), on a
alors
0
PB→B0 = PBB = (ai,j ) 16i6n .
16j6n
Si v ∈ E, on a alors
[v]B = PB→B0 [v]B0 .
En effet, soit (x1 , . . . , xn ) le système de coordonnées de v dans la base B et (x01 , . . . , x0n )
le système de coordonnées de v dans la base B 0 , c’est-à-dire v = ni=1 xi ei = nj=1 x0j e0j .
P P
10
Pn
Comme e0j = i=1 ai,j ei , on en conclut
n n n n n
x0j ai,j x0j ei .
X X X X X
xi e i = ai,j ei =
i=1 j=1 i=1 i=1 j=1
En particulier, si E = F , BE = BF et 0
BE = BF0 , on a
MatBE0 (f ) = PB−1
E →B
0 MatBE (f )PBE →B 0 .
E
E
Deux matrices A et B de Mn (K) sont dites semblables s’il existe une matrice inver-
sible P ∈ GLn (K) telle que
B = P −1 AP.
Deux matrices sont semblables si et seulement si ce sont les matrices du même endomor-
phisme de K n dans des bases différentes.
2 Le groupe symétrique
2.1 Définition
11
Définition 2.1. On appelle groupe symétrique et on note Sn l’ensemble permutations
de l’ensemble {1, . . . , n}.
Une façon standard de décrire une permutation σ est de l’écrire sous la forme d’un
tableau à deux lignes, la première ligne étant la liste 1, 2, . . . , n et la deuxième la liste
σ(1), σ(2), . . . , σ(n). Voici un exemple si n = 4. La permutation
!
1 2 3 4
2 1 4 3
est la permutation
1→7 2
2 →
7 1
3 7→ 4
4 7→ 3
Théorème 2.2. Soit n > 1 un entier. L’ensemble Sn est fini de cardinal n!.
12
2.3 Structure de groupe
σ1 ◦ (σ2 ◦ σ3 ) = (σ1 ◦ σ2 ) ◦ σ3 .
Démontrons-le.
Et finissons par
On a donc (σ1 ◦ (σ2 ◦ σ3 ))(x) = ((σ1 ◦ σ2 ) ◦ σ3 )(x) pour tout x ∈ {1, . . . , n}, ce qui signifie
que σ1 ◦ (σ2 ◦ σ3 ) = (σ1 ◦ σ2 ) ◦ σ3 .
L’application identité Id{1,...,n} (que nous noterons simplement Id par la suite) est
une permutation de X et vérifie σ ◦ Id = σ = Id◦ σ. On dit que c’est un élément neutre
pour la loi ◦.
Si σ ∈ Sn , l’application réciproque σ −1 est un autre élément de Sn qui vérifie
σ ◦ σ −1 = σ −1 ◦ σ = Id.
Ces observations peuvent se résumer en disant que la paire (Sn , ◦) est un groupe.
Définition 2.6. Un ensemble G muni d’une loi de composition interne ∗ est appelé un
groupe si
(i) la loi ∗ est associative : a ∗ (b ∗ c) = (a ∗ b) ∗ c pour tous a, b, c dans G ;
(ii) la loi x possède un élément neutre e ∈ G : e ∗ a = a ∗ e = a pour tout a ∈ G ;
(iii) tout élément a de G possède un symétrique a−1 pour ∗ : a ∗ a−1 = a−1 ∗ a = e.
Exemple 2.7. La paire (Sn , ◦) est un groupe. Si E est un espace vectoriel, la paire
(E, +) possède également une structure de groupe.
13
Exemple 2.8. Considérons les éléments de S3
! !
1 2 3 0 1 2 3
σ= σ =
2 3 1 2 1 3
2 7→ 1 7→ 2
3 7→ 3 7→ 1
! !
1 2 3 1 2 3
et donc σσ 0 = . À titre d’exercice, vérifier que σ 0 σ = . On remarque
3 2 1 1 3 2
que σσ 0 6= σ 0 σ, le groupe S3 n’est donc pas commutatif ! L’ordre de composition est donc
très important.
2.4 Signature
Si σ ∈ Sn , on pose
14
Démonstration. Soient σ1 et σ2 deux éléments de Sn . Il faut vérifier que ε(σ1 σ2 ) =
ε(σ1 )ε(σ2 ). On utilise la formule suivante
Y
ε(σ) = sgn(σ(j) − σ(i)).
16i<j6n
On a
Y Y
ε(σ1 σ2 )ε(σ2 ) = sgn(σ1 σ2 (j) − σ1 σ2 (i))sgn (σ2 (j) − σ2 (i))
16i<j6n i<j
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (i)))sgn(σ2 (j) − σ2 (i))
16i<j6
| {z }
symétrique en i et j
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (j)))sgn(σ2 (j) − σ2 (i))
16σ2 (i)<σ2 (j)6n
Y
= sgn(σ1 (σ2 (j)) − σ1 (σ2 (j)))
16σ2 (i)<σ2 (j)6n
Y
= sgn(σ1 (j) − σ1 (i)) = ε(σ1 ).
16i<j6n
On a donc ε(σ1 σ2 )ε(σ2 ) = ε(σ1 ). Comme ε(σ2 ) ∈ {±1}, on a ε(σ2 ) = ε(σ2 )−1 et donc
ε(σ1 σ2 ) = ε(σ1 )ε(σ2 ).
Il reste à vérifier si τ est une transposition, on a ε(τ ) = −1. Supposons que τ = (i, j)
avec i < j et soient k < `.
k, ` ∈
/ {i, j} τ (k) = k < ` = τ (`)
k = i, ` 6= j
τ (k) < τ (`) si ` > j, τ (k) > τ (`) si i < ` < j
k 6= i, ` = j τ (k) < τ (`) si k < i, τ (k) > τ (`) si i < k < j
(k, `) = (i, j) τ (k) > τ (`).
Ainsi ε(σ)−1 = ε(σ −1 ). Comme ε(σ) ∈ {±1}, on a ε(σ)2 = 1 et donc ε(σ) = ε(σ)−1 .
15
Corollaire 2.13. Soit σ ∈ Sn . La parité du nombre de transposition dans une décom-
position de σ en produit de transpositions ne dépend que de σ.
3 Déterminants
a b
det(A) = = ad − bc.
c d
a1,1 · · · a1,n
det(A) = ... ..
.
.. .
.
an,1 · · · an,n
a b
= ad − bc.
c d
16
Ainsi
On admet également la formule suivante pour le calcul des matrices triangulaires par
blocs.
A1 B
= det(A1 ) det(A2 ).
0n−r,r A2
Proposition 3.5. Soit A ∈ Mn (K) une matrice carrée. On a alors det(t A) = det(A).
Démonstration. Soit A = (ai,j ) 16i6n ∈ Mn (K). Notons t A = (bi,j ) 16i6n . Par définition
16j6n 16j6n
de la transposée, on a bi,j = aj,i pour 1 6 i, j 6 n. Ainsi, par définition du déterminant,
on a donc
n n n
ε(σ −1 )
X Y X Y X Y
det(t A) = ε(σ) ai,σ(i) = ε(σ) aσ−1 (i),i = aσ(i),i
σ∈Sn i=1 σ∈Sn i=1 σ∈Sn i=1
17
3.3 Opérations sur les lignes et les colonnes d’un déterminant
Comme la transposition échange les lignes et colonnes d’une matrice et que le déter-
minant ne change pas par transposition, tous les résultats portant sur les colonnes d’un
déterminant ont un analogue sur les lignes. On en déduit donc le résultat suivant.
Pour calculer un déterminant, on peut donc commencer par le mettre sous forme
triangulaire supérieure (ou inférieure) en effectuant des opérations élémentaires sur ses
lignes ou ses colonnes et utiliser la formule permettant de calculer le déterminant d’une
matrice triangulaire.
Nous allons à présent démontrer les énoncés ci-dessus.
Proposition 3.8. L’application det est linéaire en chaque colonne. Plus précisément,
étant donné n > 1, ainsi que 1 6 j 6 n et n − 1 vecteurs colonnes
C1 , . . . , Cj−1 , Cj+1 , . . . , Cn ∈ K n ,
alors l’application
K n −→ K
C 7−→ det(C1 , . . . , Cj−1 , |{z}
C , Cj+1 , . . . , Cn )
j
18
Démonstration. Fixons C1 , . . . , Cj−1 , Cj+1 , Cn , n − 1 vecteurs colonnes de K n . Soient C
et C 0 deux autres vecteurs colonnes et λ ∈ K un scalaire. Il faut prouver que
Notons donc (ai,k )16i6n les coefficients de Ck pour 1 6 k 6 n, (ai,j )16i6n les coefficients
de C et (a0i,j )16i6n les coefficients de C 0 . On a donc
aσ(k),k + λa0σ(j),j
X Y Y
= ε(σ) aσ(j),j aσ(k),k
σ∈Sn k6=j k6=j
n
ε(σ)a0σ(j),j
X Y X Y
= ε(σ) aσ(k),k + λ aσ(k),k
σ∈Sn k=1 σ∈Sn k6=j
Démonstration. Prouvons le point 1). Soit A = (ai,j ) 16i6n ∈ Mn (K) et soit τ ∈ Sn une
16j6n
permutation. On a alors
X n
Y
det(A) = ε(σ) aσ(j),j
σ∈Sn j=1
n
ε(στ )ε(τ −1 )
X Y
= aστ (j),τ (j)
σ∈Sn j=1
n
= ε(τ )−1 ε(σ 0 )
X Y
aσ0 (j),τ (j)
σ0 ∈Sn j=1
−1
= ε(τ ) det(Cτ (1) · · · Cτ (n) ).
det(C1 · · · Cj · · · Cj · · · Cn ) = − det(C1 · · · Ci · · · Cj · · · Cn ).
det(C1 · · · Ci · · · Cj · · · Cn ) = − det(C1 · · · Cj · · · Ci · · · Cn )
= det(C1 · · · Cj · · · Ci · · · Cn )
19
où la première égalité provient de 1) et la seconde égalité de Ci = Cj . On a donc bien
det(A) = − det(A) = 0.
Exemple 3.10.
0 0 1 1 0 0
0 1 0 =− 0 1 0 .
1 0 0 0 0 1
Corollaire 3.11. On ne change pas le déterminant d’une matrice carrée A en ajoutant
à une de ses colonnes une combinaison linéaire des autres colonnes. Autrement dit si
1 6 i 6 n et si (λj )j6=i est une famille de scalaires, on a
X
det(C1 · · · Cn ) = det(C1 · · · Ci−1 (Ci + λj Cj ) · · · Cn ).
j6=i
Démonstration. En effet on a
X X
det(C1 · · · Ci−1 (Ci + λj Cj ) · · · Cn ) = det(C1 · · · Ci · · · Cn ) λj det(C1 · · · Ci−1 Cj · · · Cn )
j6=i j6=i
= det(C1 · · · Ci−1 Ci · · · Cn )
Comme la transposition échange les lignes et colonnes d’une matrice et que le déter-
minant ne change pas par transposition, tous les résultats portant sur les colonnes d’un
déterminant ont un analogue sur les lignes. On en déduit donc le résultat suivant.
Définition 3.13. Soit E un K-espace vectoriel. Si n est un entier, une forme n-linéaire
sur E est une application
f : E n −→ K
telle que, pour tout 1 6 i 6 n et tous vecteurs v1 , . . . , vi−1 , vi+1 , . . . , vn dans E, l’appli-
cation de E dans K définie par v 7→ f (v1 , . . . , vi−1 , v, vi+1 , . . . , vn ) est linéaire.
Une forme n-linéaire f sur E est dite alternée si, pour tous 1 6 i < j 6 n et tous
vecteurs v1 , . . . , vn dans E, on a f (v1 , . . . , vn ) = 0 dès que vi = vj .
20
Proposition 3.14. Soit f une forme n-linéaire alternée sur un K-espace vectoriel E.
Alors si (v1 , . . . , vn ) ∈ E n et si 1 6 i < j 6 n, on a
f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vn ) = −f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vn ).
Plus généralement si σ ∈ Sn , on a
On en déduit le résultat.
21
avec ai,j ∈ K. La multilinéarité de f implique alors
n
X
f (v1 , . . . , vn ) = ai1 ,1 f (ei1 , v2 , . . . , vn )
i1 =1
Xn X n
= ai1 ,1 ai2 ,2 f (ei1 , ei2 , v3 , . . . , vn )
i=1 i2 =1
Xn X n n
X
= ··· ai1 ,1 ai2 ,2 · · · ain ,n f (ei1 , . . . , ein ).
i1 =1 i2 =1 in =1
Calculons alors f (ei1 , . . . , ein ) pour tout valeur de (i1 , . . . , in ) ∈ {1, . . . , n}n .
— Si il existe k < ` tels que ik = i` , alors f (ei1 , . . . , ein ) = 0 puisque f est alternée.
— Sinon il existe σ ∈ Sn tel que (i1 , . . . , in ) = (σ(1), . . . , σ(n)) et alors
f (ei1 , . . . , ein ) = ε(σ)f (e1 , . . . , en ).
On a donc
X
f (v1 , . . . , vn ) = ε(σ)aσ(1),1 · · · aσ(n),n f (e1 , . . . , en ).
σ∈Sn
Corollaire 3.17. L’application det est l’unique application f : Mn (K) → K telle que
(C1 , . . . , Cn ) 7→ f (C1 · · · Cn ) est n-linéaire alternée sur K n et telle que f (In ) = 1.
22
2) Soit 1 6 j 6 n. On a alors
n
X
det A = (−1)i+j ai,j det Ai,j ;
i=1
23
3.6 Multiplicativité du déterminant
c’est-à-dire le déterminant de la matrice dont les colonnes sont AC1 , . . . , ACn . L’ap-
plication f est n-linéaire et alternée. Il existe donc λ ∈ K tel que, pour toute famille
(C1 , . . . , Cn ) ∈ (K n )n ,
f (C1 , . . . , Cn ) = λ det(C1 . . . Cn ).
Si B ∈ Mn (K), en appliquant cette relation aux colonnes C1 , . . . , Cn de B, on obtient
la relation det(AB) = λ det(B). En appliquant cette égalité avec B = In , on obtient
det(A) = λ. Ainsi det(AB) = det(A) det(B) pour tout B ∈ Mn (K).
det(A−1 ) = det(A)−1 .
Démonstration. Supposons A inversible. Alors il existe A−1 ∈ Mn (K) telle que AA−1 =
In . On en déduit
24
Théorème 3.22. 1) Si A ∈ Mn (K), on a
t
Com(A)A = At Com(A) = det(A)In .
25
Remarque 3.25. L’application detB : E n → K est n-linéaire alternée.
Théorème 3.26. Soit E un K-espace vectoriel de dimension n. Soit B une base de E.
Soit (v1 , . . . , vn ) ∈ E n une famille de n vecteurs de E. Alors detB (v1 , . . . , vn ) 6= 0 si et
seulement si la famille (v1 , . . . , vn ) est une base de E.
Si v est un vecteur propre de f , le scalaire λ tel que f (v) = λv est appelé valeur
propre de f correspondant à v. L’ensemble de toutes les valeurs propres de f est noté
Sp(f ), il s’agit du spectre de f .
Définition 4.2. Si f ∈ L(E) et si λ est une valeur propre de f , le sous-espace Eλ (f ) :=
Ker(f − λIdE ) est appelé sous-espace propre de f associé à λ.
26
4.3 Le polynôme caractéristique
χB (x) = det(xIn − P AP −1 ) = det(P (xIn − A)P −1 ) = det(P )χA (x) det(P )−1 = χA (x).
M atB2 (f ) = PB−1
1 →B2
MatB1 (f )PB1 →B2 .
Le polynôme χMatB (f ) (X) ne dépend donc pas du choix de la base B mais uniquement
de f . On le note donc χf (X) et on l’appelle le polynôme caractéristique de f .
27
Théorème 4.7. 1) Soit n > 1 un entier et soit A ∈ Mn (K). Alors les valeurs
propres de A dans K sont exactement les racines de χA (X) dans k.
2) Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Alors les valeurs
propres de f sont exactement les racines de χf (X) dans K.
Remarque 4.9. Il faut prendre garde au fait que deux matrices peuvent avoir le même
polynôme caractéristique sans être semblables. Considérons par exemple
! !
1 1 1 0
A= , B= .
0 1 0 1
Alors χA (X) = χB (X) = (X − 1)2 . Par contre A et B ne sont pas semblables. Si c’était
le cas, il existerait P ∈ M2 (R) telle que
A = P BP −1 = P I2 P −1 = P P −1 = I2
donc
χP −1 AP = χA . (2)
Le polynôme caractéristique de deux matrices semblables est identique. La réciproque
est fausse ! ! ! Deux matrices peuvent avoir le même polynôme caractéristique sans être
semblables.
28
4.4 Valeurs propres dans Q, R ou C ?
On a Q ⊂ R ⊂ C et donc
On suppose, dans cette partie, que E est un K-espace vectoriel de dimension finie.
29
soit P = PBcan →B la matrice de passage de la base canonique à la base B. Comme B est
une base propre de uA , la matrice MatB (uA ) est diagonale. Par ailleurs, on a
Proposition 4.13. Soit f ∈ L(E) un endomorphisme. Soit B est une base de E. L’en-
domorphisme f est diagonalisable si et seulement si la matrice MatB (f ) est une matrice
diagonalisable dans K de Mdim E (K).
Proposition 4.15. Soit n > 1 et soit A ∈ Mn (K). Si P est une matrice inversible de
Mn (K), on a
Sp(P AP −1 ) = Sp(A).
De plus, si λ ∈ Sp(A), on a une égalité de sous-espaces vectoriels de K n
Eλ (P AP −1 ) = P Eλ (A).
30
Corollaire 4.16. Soit A ∈ Mn (K) et soit P ∈ Mn (K) inversible. Alors SpK (A) =
SpK (P −1 AP ) et, pour tout λ ∈ K valeur propre de A, Eλ (A) = P Eλ (P −1 AP ). En
particulier dim Eλ (A) = dim Eλ (P −1 AP ).
Théorème 4.17. Soit A ∈ Mn (K) une matrice diagonalisable. Il existe alors une ma-
trice inversible P ∈ Mn (K) et une matrice diagonale D ∈ Mn (K) telles que A =
P DP −1 . De plus Spk (A) est l’ensemble des entrées diagonales de D et, pour λ ∈ Spk (A),
dim Eλ (A) est le nombre d’occurences de λ sur la diagonale de D.
Démonstration. Comme SpK (A) = SpK (P DP −1 ) = SpK (D) et dim Eλ (A) = dim Eλ (D),
on peut supposer que A = D est diagonale. Soient (d1 , . . . , dn ) les entrées diagonales de
D (c’est-à-dire que di = ai,i si D = A = (ai,j )). Alors χD (X) = ni=1 (X − di ) donc
Q
Ainsi dim Eλ (D) est égal au nombre d’indices 1 6 i 6 n tels que di = λ, c’est-à-dire au
nombre d’occurences de λ sur la diagonale de D.
31
scalaires x1 , . . . , xn+1 tels que x1 v1 + · · · xn+1 vn+1 = 0E et montrons que x1 = · · · xn+1 .
En appliquant f à l’égalité x1 v1 + · · · xn+1 vn+1 = 0E et en multipliant cette égalité par
λn+1 , on obtient
Démonstration. Il faut prouver que si i1 < · · · < ir sont des éléments de {1, . . . , n} et
v1 , . . . , vr des vecteurs non nuls tels que vj ∈ Eλij (f ), alors v1 + · · · + vr 6= 0E . Or les
vecteurs v1 , . . . , vr sont des vecteurs propres associés à des valeurs propres deux à deux
distinctes. On déduit donc du théorème précédent que la famille (v1 , . . . , vr ) est libre et
donc que v1 + · · · + vr 6= 0E .
et donc
X X
dim Eλ (f ) = dim Eλ (f ).
λ∈Sp(f ) λi n Sp(f )
P
Comme λ∈Sp(f ) Eλ (f ) est un sous-espace de E, on en déduit le résultat.
32
4.8 Premier critère de diagonalisation
33
Comme Sp(f ) est l’ensemble des racines du polynôme caractéristique χA (X), on peut
reformuler ce corollaire sous la forme suivante.
Corollaire 4.23. 1. Soit E un K-espace vectoriel de dimension finie et soit f ∈
L(E). Alors si le polynôme caractéristique de f est scindé à racines simples, alors l’en-
domorphisme f est diagonalisable.
2. Soit n > 1 un entier et soit A ∈ Mn (K). Si le polynôme caractéristique de A est
scindé à racines simples, alors A est diagonalisable sur K.
0 ··· 0 λ−1
n
34
On a alors k
λk1 0
λ1 0 ··· 0 ··· 0
0 λ2 ··· 0 0 λk2 ··· 0
Dk =
= . .
.. .. .. . .. ..
. . . 0
. . . 0
0 ··· 0 λn 0 ··· 0 λkn
0 ··· 0 λ−1
n
et on vérifie que
Nous supposons désormais que la matrice A est diagonalisable dans K. On peut donc
écrire A = P DP −1 avec P ∈ M2 (K) et D ∈ M2 (K) diagonale. Posons, pour tout k > 0,
Yk = P −1 Xk .
35
On a alors, pour tout n > 0,
∀k > 0, Xk = Ak X0 .
Yk = D k Y0 .
36
Supposons que la matrice A est diagonalisable dans C et que, pour tout λ ∈ SpC (A),
|λ| < 1. Alors pour tout 1 6 i 6 n,
(i)
lim uk = 0.
k→+∞
(1)
u
k.
Démonstration. Posons, pour tout k > 0, Xk = ..
. On a alors, pour tout k > 0,
(n)
uk
Xk+1 = AXk .
Yk = Dk Y0 .
Soit K l’ensemble R ou C.
On se propose de résoudre le problème suivant. Soit A ∈ Mn (K) une matrice et
soient u1 , . . . , un ∈ K. On cherche des fonctions x1 , . . . , xn de R dans K, de classe C 1
telles que
x0 (t)
= a1,1 x1 (t) + · · · + a1, xn (t) x (0) = u0
1 1
.. .. .. ..
∀t ∈ R, . . , . . . (4)
0
xn (t) = an,1 x1 (t) + · · · + an,n xn (t) xn (0) = un
37
x1 (t) x01 (t)
u1
..
X 0 (t) = AX(t), X(0) = . .
un
y 0 (t)
= λ1 y1 (t) y (0) = v1
1 1
.. .. .. ..
, .
. . . .
0
yn (t) = λn yn (t) yn (t) = vn
= v 1 e λ1 t
y (t)
1
.. ..
. . .
yn (t) = v n e λn t
On en conclut que le système (4) possède une unique solution donnée par
x1 (t) v1 eλ1 t
.. .
. = P .. .
xn (t) vn eλn t
On peut encore écrire la solution de ce système sous la forme suivante. Posons, pour
tout t ∈ R,
eλ1 t
0 ··· 0
At
0
eλ2 t · · · 0 −1
e =P .
.. .. .. P .
.. . . .
0 ··· 0 e λn t
38
Le système (4) possède une unique solution donnée par
x1 (t) u1
.. At ..
. = e . .
xn (t) un
Lemme 5.3. Soit A ∈ Mn (K) une matrice diagonalisable sur K et soient P ∈ Mn (K)
une matrice inversible et D ∈ Mn (K) une matrice diagonale telles que A = P DP −1 .
Alors la matrice P f (D)P −1 ne dépend que de A et non du choix de P et D.
39
5.5 Équations différentielles linéaires à coefficients constants
X 0 (t) = AX(t)
ave
0 1 0 ··· 0
0
0 1 ··· 0
. .. .. .. ..
..
A= . . . .
.
···
0 0 0 1
40
Proposition 6.2. Si F1 et F2 sont deux sous-espaces vectoriels de E stables par f , alors
F1 ∩ F2 et F1 + F2 le sont aussi.
Démonstration. Soit v ∈ Ker(g). Alors g(f (v)) = f (g(v)) = f (0E ) = 0E donc f (v) ∈
Ker(g) et Ker(g) est stable par f .
Soit v ∈ Im(g). Alors il existe w ∈ E tel que v = g(w). On a donc f (v) = f (g(w)) =
g(f (w)) de sorte que f (v) ∈ Im(g). Ainsi Im(g) est stable par f .
(f + λg)F = fF + λgF , (g ◦ f )F = gF ◦ fF .
Soit F = Vect(b1 , b4 ) et soit BF = (b1 , b4 ) une base de F . Alors F est stable par f et
!
1 5
MatBF (fF ) = .
4 −2
41
6.3 Matrices triangulaires par blocs
Démonstration. Notons ai,j les coefficients de la matrice MatB (f ). Alors, pour tout 1 6
j 6 n, on a
n
X
f (bj ) = ai,j bi .
i=1
Ainsi F est stable par f si et seulement si, pour tout 1 6 j 6 r, f (bj ) ∈ F , c’est-à-dire
ai,j = 0 pour r + 1 6 i 6 n.
Corollaire 6.7. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Soit
F u sous-espace vectoriel de E. Si F est stable par f , le polynôme caractéristique de fF
divise le polynôme caractéristique de f :
χf (X) = χM (X) = det(XIn −M ) = det(XIr −A) det(XIn−r −D) = χfF (X) det(XIn−r −D).
42
6.5 Polynômes d’endomorphismes
Pn i
Soit A ∈ Mn (K). Si P (X) = i=0 ai X ∈ K[X], on pose
n
X
P (A) = ai Ai ∈ Mn (K)
i=0
avec la convention A0 = In .
!
1 1
Exemple 6.8. Prenons A = et P (X) = X 2 + X + 1. On a alors
1 1
! ! ! !
2 2 1 1 1 0 4 3
P (A) = + + = .
2 2 1 1 0 1 3 4
Remarque 6.9. Si E est un espace vectoriel de dimension finie et si B est une base de
E, on a les relations
P (MatB (f )) = MatB P (f ).
On peut déduire de cette formule que pour P (X) ∈ K[X], A, B ∈ Mn (K) avec B
inversible,
P (BAB −1 ) = BP (A)B −1 .
Corollaire 6.10. Soit f ∈ L(E) et soit P (X) ∈ K[X]. Alors Ker(P (f ) et Im(P (f ))
sont des sous-espaces vectoriels de E stables par f .
43
6.6 Polynômes annulateurs
Corollaire 6.14. Soit A ∈ Mn (K). Alors il existe un polynôme non nul P ∈ K[X] tel
que P (A) = 0.
Théorème 6.15. Soit P ∈ K[X] un polynôme annulateur de f , non nul et de degré
minimal parmi les polynômes annulateurs non nuls de f . Alors Q ∈ K[X] annule f si
et seulement si P divise Q dans K[X].
44
Corollaire 6.17. Soit n > 1 un entier et soit A ∈ Mn (K). Alors il existe un unique
polynôme unitaire annulant A et de degré minimal parmi les polynômes annulateurs non
nuls de A.
Q(A) = 0 ⇔ πA |Q.
On en déduit que
v = A(f )(P (f )(v)) + B(f )(Q(f )(v)) = A(f )(0E ) + B(f )(0E ) = 0E .
Ainsi v ∈ Ker((P Q)(f )). On en déduit que Ker(P (f )) ⊂ Ker((P Q(f ))).
On montre de même que Ker(Q(f )) ⊂ Ker((P Q(f ))) de sorte que
45
Montrons enfin que Ker((P Q)(f )) ⊂ Ker(P (f ))+Ker(Q(f )). Soit v ∈ Ker((P Q)(f )).
Rappelons que l’on a
v = (AP )(f )(v) + (BQ)(f )(v).
Posons v1 = (BQ)(f )(v) et v2 = (AP )(f )(v). Il suffit de montrer que v1 ∈ Ker(P (f )) et
v2 ∈ Ker(Q(f )) pour conclure que v ∈ Ker(P (f )) + Ker(Q(f )). Or on a
P (f )(v1 ) = (P (f )◦(BQ)(f ))(v) = (P BQ)(f )(v) = B(f )((P Q)(f )(v)) = B(f )(0E ) = 0E .
Corollaire 6.20. Soient P1 , . . . , Pr ∈ K[X] des polynômes premiers entre eux deux à
deux. On a alors
E = Eλ1 (f ) ⊕ · · · ⊕ Eλr (f ).
v = v1 + · · · + vr
46
Comme P (f )(v) = 0E pour tout v ∈ E, on a bien P (f ) = 0L(E) .
Montrons que (ii) implique (i). Supposons donc qu’il existe P ∈ K[X] simplement
scindé tel que P (f ) = 0L(E) . On peut écrire P (X) = (X − λ1 ) · · · (X − λr ) avec les λi
distincts. En particulier les polynômes X − λi sont deux à deux distincts. Le lemme des
noyaux implique alors qu’on a
r
M r
M
E = Ker(P (f )) = Ker(f − λi IdE ) = Eλi (f ).
i=1 i=1
Corollaire 6.22. Soit A ∈ Mn (K) une matrice carrée. Les assertions suivantes sont
équivalentes :
(i) la matrice A est diagonalisable sur K ;
(ii) la matrice A est annulé par un polynôme scindé à racines simples de K[X] ;
(iii) le polynôme minimal de A est scindé à racines simples dans K[X].
Proposition 6.23. Les racines du polynôme minimal πf sont exactement les valeurs
propres de f .
Corollaire 6.24. Soit A ∈ Mn (A). Les racines du polynôme minimal πA dans K sont
exactement les valeurs propres de A dans K.
47
7 Trigonalisation
Démonstration. Supposons que A est trigonalisable. Il existe alors une matrice inversible
P et une matrice triangulaire supérieure T ∈ Mn (K) telle que A = P T P −1 . On a
alors χA = χT . Soit t1,1 , . . . , tn,n les entrées diagonales de T . Le calcul du polynôme
caractéristique d’une matrice triangulaire supérieure nous donne
n
Y
χA = χT = (X − ti,i )
i=1
48
Il s’agit d’une matrice inversible et
!
λ B
(Q0 )−1 P −1 AP Q0 =
0n,1 Q−1 DQ
est une matrice triangulaire supérieure. Ainsi A est trigonalisable, ce qui achève la ré-
currence.
Démonstration. Il suffit de remarquer que tout polynôme de C[X] est scindé sur C
d’après le théorème de d’Alembert–Gauss.
Corollaire 7.6. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Alors
χf (f ) = 0L(E) .
49
7.3 Endomorphismes nilpotents
Remarque 7.7. Soit B une base de E. Il est clair que f est nilpotent si et seulement si
MatB (f ) est nilpotente. Auquel cas les indices de nilpotence de f et de A coïncident.
Démonstration. Soit m l’indice de nilpotence de f et soit n le plus petit entier tel que
Ker(f n ) = Ker(f n+1 ). Si m < n, on a Ker(f m ) ( Ker(f m+1 ), de sorte que Ker(f m ) 6= E
et donc f m 6= 0L(E) .
50
Démonstration. Montrons que (i) implique (ii). Si f est nilpotent, il existe un entier m
tel que f m = 0L(E) . Cela signifie que f est annulé par X m . Ainsi le polynôme minimal
de f divise X m . Il doit donc être de la forme X k avec k 6 m.
L’implication (ii) implique (i) est évidente car le polynôme minimal est un polynôme
annulateur de f .
Montrons que (i) implique (iii). Soit n = dim E et soit m l’indice de nilpotence de
f . On note ir = dim Ker f r pour 1 6 r 6 m. On construit alors une base de E de la
façon suivante : on choisit une base B = (e1 , . . . , ei1 ) de Ker f que l’on complète en une
base (e1 , . . . , ei2 ) de Ker f 2 etc. jusqu’à obtenir une base (e1 , . . . , en ) de E = Ker f m telle
que, pour tout 1 6 j 6 r, ei ∈ Ker f j pour i 6 ij . En particulier, si ij−1 < i 6 ij , on a
ei ∈ Ker(f j ) et donc
χf = χMatB (f ) = X dim E .
On remarque que l’on a (f − λIdE )n = P (f ) avec P (X) = (X − λ)n , ainsi chaque sous-
espace Ker((f − λIdE )n ) est stable par f et Fλ (f ) est donc aussi un sous-espace stable
par f .
Proposition 7.12. Si E est de dimension finie, il existe n > 0 tel que Fλ (f ) = Ker((f −
λIdE )n ).
Démonstration. En effet on a Ker((f − λIdE )n ) ⊂ Ker((f − λIdE )n+1 ) pour tout n > 0.
La suite de sous-espaces vectoriels (Ker((f − λIdE )n ))n>0 est donc croissante, de même
51
que la suite d’entiers (dim Ker((f − λIdE )n ))n>0 . Or cette dernière suite est bornée par
dim E. Elle est donc constante pour n assez grand, ce qui implique que la suite de
sous-espaces (Ker((f − λIdE )n ))n>0 est constante pour n assez grand. Ceci implique le
résultat.
Supposons désormais E est de dimension finie et notons qλ le plus petit entier tel
que Fλ (f ) = Ker((f − λIdE )qλ ). Notons que Fλ (f ) = Eλ (f ) si et seulement si qλ = 1.
Voici une autre caractérisation de l’entier qλ .
Proposition 7.13. L’entier qλ est le plus petit entier n tel que Ker((f − λIdE )n ) =
Ker((f − λIdE )n+1 ).
Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). Si λ est une valeur
propre de f , on appelle multiplicité algébrique de λ la multiplicité de λ comme racine
du polynôme caractéristique de f .
On appelle multiplicité géométrique de la valeur propre λ l’entier dim Eλ (f ).
Théorème 7.15. Soit λ une valeur propre de f . Alors la multiplicité algébrique de f est
égale à la dimension du sous-espace caractéristique de λ. En particulier la multiplicité
géométrique de λ est inférieure à sa multiplicité algébrique.
52
doit être racine de Q, ce qui est faux. Ainsi V = {0E }. On en déduit dim Fλ (f ) 6
dim E − dim Ker(Q(f )) = dim Ker((f − λId)m ) et donc que Fλ (f ) = Ker((f − λId)m ).
On a donc prouvé que E = F ⊕ S où S = Ker(Q(f )) est un supplémentaire stable par
f tel que λ n’est pas valeur propre de fS . On a donc
χf = χfF χfS .
Démonstration. Supposons que χf est scindé. Alors le lemme des noyaux implique que
M
E= Fλ (f ).
λ∈Sp(f )
On a donc M
E= Ker((f − λIdE )mλ ).
λ∈Sp(f )
Par ailleurs, on a Ker((f − λIdE )mλ ) ⊂ Fλ (f ) de sorte que dim Ker((f − λIdE )mλ ) 6
dim Fλ (f ). Et, puisque
X X X
dim E = dim Ker((f − λIdE )mλ ) 6 dim Fλ (f ) = mλ = dim E,
λ∈Sp(f ) λ∈Sp(f ) λ∈Sp(f )
toutes les inégalités sont des égalités, de sorte que Ker((f − λIdE )mλ ) = Fλ (f ) pour tout
λ ∈ Sp(f ) et on obtient le résultat.
53
Remarquons à présent que chaque sous-espace Fλ (f ) est stable par f , pour trigonali-
ser f , il suffit donc de trigonaliser l’endomorphisme induit par f sur chaque sous-espace
caractéristique.
Voici donc une méthode pour trouver une base de trigonalisation de f .
Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E). On dit que f est
cyclique s’il existe un vecteur v ∈ E tel que
Lemme 8.1. Soit v ∈ E. Soit Pv ∈ K[X] un polynôme unitaire de degré minimal tel que
Pv (f )(v) = 0E . Alors, pour P ∈ K[X], on a Pv divise P si et seulement si P (f )(v) = 0E .
De plus, la famille (v, f (v), · · · , f deg(Pv )−1 (v)) est une base de hvif . En particulier on a
deg(Pv ) = dimhvif .
54
deg(Pv ) et w = P (f )(v) = R(f )(v), ce qui prouve que w est combinaison linéaire
de (v, f (v), · · · , f n−1 (v)). Montrons à présent que la famille (v, f (v), · · · , f n−1 (v)). Si
a0 v + · · · + an−1 f n−1 (v) = 0E , on a R(f )(v) = 0E avec R = a0 + a1 X + · · · + an−1 X n−1
et donc Pv divise R. Comme deg(R) < deg(Pv ), on a R = 0 c’est-à-dire a0 = a1 = · · · =
an−1 = 0.
Démonstration. Supposons que f est cyclique. Soit v ∈ E un vecteur tel que E = hvif .
Soit Pv ∈ K[X] de degré minimal tel que Pv (f )(v) = 0E . On a alors dim E = dimhvif =
deg(Pv ). Comme πf () = 0L(E) , on a πf (f )(v) = 0E et donc Pv divise πf . D’après le
théorème de Cayley–Hamilton, le polynôme πf divise χf . Comme dim E = deg(χf ), on
en conclut que Pv = πf = χf .
Un sous-espace F de E est dit cyclique s’il est stable par f et si fF est cyclique.
Démonstration. En effet, χfF est alors égal au polynôme minimal de πfF et le polynôme
minimal de πfF divise πf puisque πf annule fF .
Théorème 8.4. On suppose désormais que f est nilpotent. Alors les conditions suivantes
sont équivalentes
(i) l’endomorphisme f est cyclique ;
(ii) il existe une base de E dans laquelle la matrice de f est de la forme
0 1 0 ··· 0
..
0 0
1 . 0
. . .. .. ..
. .. . . ;
. .
0 · · · 0 0 1
0 ··· ··· 0 0
55
Il est clair que (ii) implique (iii). Montrons que (iii) implique (iv). On le démontre
par récurrence sur i. Pour i = 0, c’est évident. Supposons donc que dim Ker(f i ) = i pour
un certain 0 6 i 6 dim E − 1 et montrons que dim Ker(f i+1 ) = i + 1. On a f (Ker f i+1 ) ⊂
Ker f i et donc dim Ker(f i+1 ) 6 dim Ker f i +dim Ker f d’où dim Ker f i+1 6 i+1. Comme
f est nilpotent et Ker f i ( E, on doit avoir Ker f i ( Ker f i+1 et donc dim Ker f i+1 =
i + 1.
Montrons que (iv) implique (v). On a alors Ker f dim E−1 ( E, de sorte que l’indice
de nilpotence de f est égal à dim E.
Montrons enfin que (v) implique (i). Pour tout v ∈ E, notons Pv un polynôme
unitaire de plus petit degré tel que Pv (f )(v) = 0E . Alors Pv divise πf , donc Pv est de la
forme X nv pour un certain entier 1 6 nv 6 dim E. Soit v ∈ E tel que nv est maximal.
On a alors f nv (v) = 0E pour tout v ∈ E, ce qui implique f nv = 0L(E) . Ainsi nv > dim E
et donc nv = dim E. Ceci implique que la famille constituée des vecteurs f i (v) pour
0 6 i 6 dim E − 1 est libre et engendre donc un sous-espace vectoriel de dimension
dim E. Au final cette famille engendre E, c’est-à-dire que f est cyclique.
56
parmi les valeurs dim Fi pour 1 6 i 6 s. Comme v1 ∈ / f (F1 ), on a f m−1 (v1 ) 6= 0E et
m
donc f (e) = f m−1 (v1 ) + · · · + f m−1 (vr ) 6= 0E . On en conclut que f m (e) 6= 0E . Notons
G1 = heif . On a alors f m (e) 6= 0E et f m+1 (e) = 0E donc dim G1 = m + 1. On en déduit
que
w1 = a1 v1 + · · · + am f m−1 (v1 ) + z
Si cette décomposition n’est pas toujours unique, nous allons montrer que la suite d’en-
tiers dim F1 > · · · > dim Fr est unique, c’est-à-dire qu’elle ne dépend que de f et pas de
la décomposition choisie.
Proposition 8.6. Soit n > 1. L’entier dim Ker f n − dim Ker f n−1 est égal au nombre
de sous-espaces cycliques Fi de dimension > n.
57
Corollaire 8.7. Soit f un endomorphisme nilpotent d’un espace vectoriel E de dimen-
sion finie. Alors toutes les décomposition de E en sous-espaces cycliques pour f ont les
mêmes dimensions. De plus le nombre d’occurence d’un sous-espace de dimension n dans
une telle décomposition vaut
2 dim Ker(f n ) − dim Ker(f n+1 ) − dim Ker(f n−1 ).
Exemple 8.8. Soit A ∈ M5 (R) une matrice nilpotente telle que
dim Ker A = 2, dim Ker A2 = 4 dim Ker A3 = 5.
Dans sa décomposition en sous-espaces cycliques, il y a donc 2 sous-espaces. Parmi ces
sous-espaces, il y en a 2 qui sont de dimension > 2 et 1 de dimension > 3. On en déduit
que R5 se décompose en une somme d’un sous-esapce cyclique de dimension 2 et un
sous-espace cyclique de dimension 3. Il existe donc une matrice P ∈ M5 (R) inversible
telle que
0 1 0 0 0
0 0 1 0 0
−1
P AP = 0 0 0 0 0 .
0 0 0 0 1
0 0 0 0 0
Si n > 1, on note Jn la matrice (ai,j ) ∈ Mn (K) telle que ai,j = δi+1,j . C’est une
matrice nilpotente d’indice n. Si n > 1, on appelle matrice de Jordan une matrice de la
forme
Jm1 0 ··· ··· 0
0
Jm2 0 ··· 0
. .. .. .. ..
. . . .
. .
··· Jmr−1
0 0 0
0 ··· ··· 0 λ
58
Théorème 8.10. Soit E un K-espace vectoriel de dimension finie et soit f ∈ L(E)
un endomorphisme trigonalisable. Il existe une base B telle que la matrice MatB (f ) soit
diagonale par blocs, de blocs diagonaux de la forme Jn (λ) avec λ ∈ Sp(f ). De plus, le
nombre d’occurence du bloc Jn (λ) est égal à
Corollaire 8.11. Soit A ∈ Mn (K) une matrice trigonalisable. On peut alors décomposer
A, de façon unique, sous la forme A = B + N où B est une matrice diagonalisable et N
une matrice nilpotentes telles que BN = N B.
59
Proposition 8.12. Si A, B ∈ Mn (K) sont deux matrices qui commutent, alors
k
!
k
X k
(A + B) = Ai B k−i
i=0
i
(A + B)2 = A2 + AB + BA + B 2
Démonstration. Nous en donnons une preuve en admettant que toutes les inversions de
séries sont bien légitimes (les outils permettant de le vérifier sont hors programme).
X Am X Bn
exp(A) exp(B) =
m>0
m! n>0
n!
X 1 k! m n
X
= A B
k>0
k! m+n=k m!n!
!
X 1 X k
= Am B n
k>0
k! m+n=k
m
X 1
= (A + B)k = exp(A + B).
k>0
k!
Corollaire 8.15. Pour toute matrice A ∈ Mn (K), la matrice exp(A) est une matrice
inversible, d’inverse exp(−A).
exp(P AP −1 ) = P exp(A)P −1 .
60
Démonstration.
X 1
exp(P AP −1 ) = (P AP −1 )k
k>0
k!
X 1 k −1
= P A P
k>0
k!
X Ak
=P P −1
k>0
k!
= P exp(A)P −1
(une justification rigoureuse de la dernière étape est hors programme).
61
De plus, on a, pour tout t ∈ R,
x1 (t)
..
. = exp(tA)X0 .
xn (t)
Exemple 8.18. Supposons que A ∈ M2 (R) est trigonalisable et non diagonalisable avec
une unique valeur propre λ. Il existe alors une matrice inversible P ∈ M2 (R) telle que
!
−1 λ 1
B=P AP = .
0 λ
Soit X une application de R dans R2 telle que X 0 (t) = AX(t) pour tout t ∈ R et
X(0) = X0 . Posons Y (t) = P −1 X(t) et Y0 = P −1 X0 . Cette application vérifie l’équation
différentielle Y 0 (t) = BY (t) de sorte que
! ! !
eλt teλt y1 eλt y1 + teλt y2
Y (t) = exp(tB)Y0 = = .
0 eλt y2 eλt y2
n
X
Tr(A) = ai,i .
i=1
62