0% ont trouvé ce document utile (0 vote)
34 vues35 pages

Chapitre1 Analyse Num

Ce document présente différentes méthodes directes pour résoudre des systèmes linéaires, notamment la méthode d'élimination de Gauss, la méthode de Gauss-Jordan et la factorisation LU. Il introduit également brièvement les systèmes linéaires et rappelle quelques notions de base comme les matrices et les déterminants.

Transféré par

mhamedzariouhi240
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
34 vues35 pages

Chapitre1 Analyse Num

Ce document présente différentes méthodes directes pour résoudre des systèmes linéaires, notamment la méthode d'élimination de Gauss, la méthode de Gauss-Jordan et la factorisation LU. Il introduit également brièvement les systèmes linéaires et rappelle quelques notions de base comme les matrices et les déterminants.

Transféré par

mhamedzariouhi240
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 35

Introduction

Méthodes directes

Chapitre I: Résolution numérique des systèmes


linéaires
Filière: SMI S4

Professeur: Zakaria EL ALLALI

March 9, 2015

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Introduction
Rappel sur les systèmes linéaires
Méthodes directes

Sommaire I

1 Introduction
Rappel sur les systèmes linéaires

2 Méthodes directes
Méthode de remontée
Élimination de Gauss
Méthode de Gauss-Jordan
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Introduction
Rappel sur les systèmes linéaires
Méthodes directes

On note Mn (R), l’espace vectoriel des matrices carrées d’ordre n


et à coefficients réels. Soit A ∈ Mn (R) et B ∈ Rn , on cherche le
vecteur X ∈ Rn , solution du système linéaire AX = B. Ce système
admet une solution unique lorsque le déterminant de A est non nul,
ce que nous supposerons dans la suite. Remarquons que la
résolution de ce système à l’aide des formules de Cramer est
impraticable lorsque n est ”grand”, car ces formules nécessitent
approximativement n!n2 opérations arithmétiques élémentaires ,
par exemple si n = 15, cela représente de l’ordre de 4 mois de
calcul pour un ordinateur moyen effectuant 106 opérations à la
seconde. Ce temps de calcul évolue de manière exponentielle avec
n.
Les principales méthodes, beaucoup plus rapides, car
”polynomiales en temps :
méthodes directes : Gauss et sa forme factorisée LU,
Cholesky, Householder.
méthodes itérativesZ. :ELJacobi
ALLALI , Gauss-Seidel
Chapitre I: Résolution et relaxation.
numérique des systèmes linéaires
Introduction
Rappel sur les systèmes linéaires
Méthodes directes

Les méthodes directes calculent une solution théorique exacte, en


un nombre fini d’opérations, mais avec une accumulation d’erreurs
d’arrondis qui d’autant plus grande que la dimension l’est.

Par conséquent, pour des matrices de dimension importante, il est


préférable d’utiliser des méthodes itératives basées sur la
construction d’une suite convergente vers la solution du système.

Dans ce cas, le contrôle de la convergence de la suite par une


condition d’arrêt renvoie une solution plus précise.

Dans de nombreuses méthodes, l’objectif est de transformer A


pour la rendre triangulaire , inférieure ou supérieure et ensuite
calculer les solutions en utilisant une substitution.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Introduction
Rappel sur les systèmes linéaires
Méthodes directes

On considère le système de n équations à n inconnues :




 a11 x1 + a12 x2 + . . . + a1n xn = c1
a21 x1 + a22 x2 + . . . + a2n xn = c2




 .. .. ..


. . .
(1)
 ai1 x1 + ai2 x2 + . . . + ain xn = ci


 .. .. ..
. . .




an1 x1 + an2 x2 + . . . + ann xn = cn

Les aij sont les coefficients du système , les xi sont les inconnues
(ou les solutions) , les ci forment le second membre. La formule
Li : ai1 x1 + ai2 x2 + . . . + ain xn = ci
s’appelle la ième ligne du système. On représente aussi (1) sous la
forme compacte:
X n
aij xj = ci (i = 1, 2, . . . , n)
j=1 Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Introduction
Rappel sur les systèmes linéaires
Méthodes directes

Au système linéaire ci-dessus est associée une équation matricielle

AX = C

où la matrice A et les vecteurs X et C sont définies par


   
x1 c1
 x2   c2 
   
 ..   .. 
 .   . 
A = (aij )1≤i,j≤n , X =  xi 
 C =  ci 

   
 ..   .. 
 .   . 
xn cn

X est appelé le vecteur inconnue (ou solution) et C est le vecteur


second membre
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Introduction
Rappel sur les systèmes linéaires
Méthodes directes

Théorème 1.1
Pour que le système (1) admette une et une seule solution il faut
et il suffit que det A 6= 0. Dans ce cas la matrice A est invesible et
l’unique solution est donnée par X = A−1 C .

Théorème 1.2
Lorsque det A 6= 0 la solution xj est donnée par la formule

a11 . . . a1j−1 c1 a1j+1 . . . a1n


1 a21 . . . a2j−1 c2 a2j+1 . . . a2n
xj = . .. .. .. ..
det A .. . . . .
an1 . . . anj−1 cn anj+1 . . . ann

Pour obtenir xj on doit donc calculer le déterminant obtenu à


partir de A en substituant le vecteur C à la jième colonne de A.
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

On se propose de résoudre l’équation matricielle AX = C . On


suppose que la matrice A est inversible. Lorsque A est une matrice
triangulaire supérieure (ou inférieure), la résolution du système est
immédiate


 a11 x1 + a12 x2 + . . . + a1n xn = c1
...

 an−1n−1 xn−1 + an−1n xn = cn−1

ann xn = cn

On calcule successivement xn à partir de la dernière équation, puis


xn−1 à partir de l’avant-dernière et ainsi de suite. Ce qui donne

xn = acnnn




 x (cn−1 −an−1n xn )
n−1 = an−1n−1

 . . .
x1 = (c1 −a12 x2a−...−a 1n xn )


11
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Remarque 2.1
La méthode de remontée s’étend aux matrices triangulaires par
blocs. Elle nécessite n(n − 1)/2 additions, n(n − 1)/2
multiplications et n divisions.
Étant donné la simplicité de la résolution d’un système triangulaire,
de nombreuses méthodes se ramènent à la résolution d’un système
triangulaire. Le problème est alors de construire par un
changement de base une matrice triangulaire.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

La méthode de triangularisation de Gauss, encore appelée méthode


du pivot de Gauss ou élimination de Gauss, est fondée sur le
résultat suivant qui affirme que pour une matrice carrée A d’ordre
n, il existe au moins une matrice inversible P telle que PA soit une
matrice triangulaire supérieure.
L’algorithme consiste alors à remplacer à chaque étape la matrice
A par une matrice A(k) dont les k-ièmes premiers vecteurs colonnes
correspondent au début d’une matrice triangulaire. À la
(k + 1)-ième étape, on conserve les k premières lignes et les
(k − 1) premières colonnes de A(k)
(k)
(k+1) (k) aik (k)
aij = aij − (k) akj i = k + 1, . . . , n et j = k + 1, . . . , n
akk
(k+1)
aik =0 i = k + 1, . . . , n
(k)
(k+1) (k) aik (k)
ci = ci − (k) ck .
akk

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Pour la clarté des explications, on applique la méthode de Gauss


dans le cas où n = 3. On suppose que a11 6= 0.
 (1)
a11 x1 + a12 x2 + a13 x3 = c1 : L1

(1)
a21 x1 + a22 x2 + a23 x3 = c2 : L2
(1)

a31 x1 + a32 x2 + a33 x3 = c3 : L3

(1)
On élimine le terme a21 x1 dans la ligne L2 grâce à la combinaison
(1) 21 (1) (1)
L2 − aa11 L1 et le terme a31 x1 dans L3 grâce à la combinaison
(1) (1)
L3 − aa31 L ce qui donne le système A(2) X = C (2) équivalent au
11 1
système initial:
 (1)
a11 x1 + a12 x2 + a13 x3 = c1
 : L1
(2) (2) (2) (2)
a22 x2 + a23 x3 = c2 : L2
(2) (2) (2) (2)

a32 x2 + a33 x3 = c3 : L3

(2) ai1 (2) ai1


où aij = aij − a11 a1j i = 2, 3 et jChapitre
Z. EL ALLALI
= 2,I:3Résolution = cjdes−systèmes
et cj numérique a11 c1linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

(2) (2)
Ensuite, en supposant que a22 6= 0, on élimine le terme a32 x2
(2)
(2) (2) a32 (2)
dans L3 grâce à la combinaison L3 − (2) L2 , ce qui donne le
a22
système A(3) X = C (3) équivalent au système initial:
 (1)
 a11 x1 + a12 x2 + a13 x3 = c1
 : L1
(2) (2) (2) (2)
a22 x2 + a23 x3 = c2 : L2
(3) (3) (3)

a33 x3 = c3 : L3

(2) (2)
(3) (2) a32 (2) (3) (2) a32 (2)
où a33 = a33 − (2) a23 et c3 = c3 − (2) c2 .
a22 a22
Le système obtenu est donc triangulaire. On le résout grâce à
l’algorithme du paragraphe précédent.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
Considérons le système linéaire
    
2 8 4 x 1
 2 10 6   y  =  1 
1 8 2 z 1

À la première étape, on fait apparaı̂tre le vecteur (1, 0, 0) à la


première colonne. Pour cela, on divise la première ligne par 2 (le
terme a11 = 2 est pris comme pivot) et on retranche la première
ligne aux autres lignes de la matrice, soit
    
1 4 2 x 1/2
 0 2 2  y  =  0 
0 4 0 z 1/2

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
À la deuxième étape, on poursuit la triangulation en annulant les
termes situés sous la diagonale. On divise la deuxième ligne par 2
(a22 est pris comme pivot) et on retranche la deuxième ligne
multipliée par 4 à la troisième, de façon à faire apparaı̂tre un zéro
en troisième ligne et deuxième colonne
    
1 4 2 x 1/2
 0 1 1  y  =  0 
0 0 −4 z 1/2
À la troisième étape, on divise la troisième ligne par -4 (a33 ) afin
d’avoir une matrice triangulaire n’ayant que des 1 sur la diagonale
    
1 4 2 x 1/2
 0 1 1  y  =  0 
0 0 1 z −1/8
On résout le système enZ. remontant
EL ALLALI les équations
Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Remarque 2.2
(k)
Si à l’étape k le coefficient akk est nul, alors il suffit de choisir
(k)
un coefficient aik (i > k), qui soit non nul et permuter la
ligne k du système avec la ligne i, puis procéder à l’opération
(k)
d’élimination de Gauss . Le coefficient non nul aik existe car
la matrice est inversible.
Pour une matrice d’ordre n, la méthode de Gauss nécessite
n(n − 1)(2n + 5)/6 additions, n(n − 1)(2n + 5)/6
multiplications et n(n + 1)/2 divisions, soit au total
(4n3 + 9n2 − 7n)/6 opérations élémentaires.
En utilisant les formules de Cramer, on aurait (n + 1)(n! − 1)
additions, (n + 1)(n! − 1) multiplications et n divisions. Pour
n = 10, la méthode de Gauss nécessite 805 opérations contre
399168000 opérations pour la résolution par les formules de
Gabriel Cramer (1704-1752).
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
Dans la méthode de Gauss-Jordan, on cherche non pas à trianguler
A comme dans la méthode de Gauss, mais à remplacer A par
l’identité.
Reprenons l’exemple proposé précédement .
À la troisième étape, on fait apparaı̂tre le vecteur (0, 0, 1) dans la
dernière colonne. On divise la troisième ligne par (−4). Puis, on
retranche (−2) fois la troisième ligne à la première et une fois la
troisième ligne à la deuxième. On obtient ainsi directement la
solution du système.
    
1 0 0 x 1/4
 0 1 0   y  =  1/8 
0 0 1 z −1/8

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Remarque 2.3
Le même algorithme est utilisé pour calculer l’inverse d’une
matrice. On écrit A sous la forme AI et on applique à l’identité I
toutes les manipulations que subit A.
Si A est une matrice réelle, la méthode de Gauss-Jordan nécessite
n(n2 − 1)/2 additions , n(n2 − 1)/2 multiplications , n(n + 1)/2
divisions.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

La méthode de Crout est fondée sur la factorisation LU qui affirme


que pour une matrice carrée A = (aij ) d’ordre n telle qu’il existe
une matrice triangulaire inférieure L et une matrice triangulaire
supérieure U telles que A = LU. Cette décomposition est unique.
En particulier, toute matrice inversible admet une factorisation LU.
L’algorithme est alors le suivant :
On pose A(1) = A et C (1) = C , et pour tout 2 ≤ k ≤ n, on note
 (k) (k) (k) (k)
  (k) 
a11 a12 . . . a1k . . . a1n c1
(k) (k) (k)   (k)
 0 a22 . . . a2k . . . a2n   c2
 

 . .. .. .. .. ..   . 
 . . .  .
 . . . .   .
 
(k) (k)
A = et C =  (k)

 0 (k) (k)  
0 . . . akk . . . akn    ck 
 .. .. .. ..   ..
  
.. ..
. .

 . . . .   . 
(k) (k) (k)
0 0 . . . ank . . . ann cn

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Proposition 2.1
Pour 1 ≤ k ≤ n − 1 , la matrice A(k+1) et le vecteur C (k+1) sont
obtenus à partir de la matrice A(k) et du vecteur C (k) pour la
relation suivante A(k+1) = M (k) A(k) et C (k+1) = M (k) C (k)
où la matrice M (k) est donnée par:
 
1 0 ... 0 0 ... 0
 0 1 ... 0 0 ... 0 
 .. .. . . .. .. . . .. 
 
 . . . . . . . 
 
 0 0 ... 1 0 ... 0 
(k)
M = (k)
 
a 
 0 0 . . . − k+1k (k) 1 . . . 0 
 akk 
 . . . .. .. . . .. 
 . . . . . 
 . . . . . 
 (k) 
ank
0 0 . . . − (k) 0 . . . 1
akk
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Proposition 2.2
La matrice A(n) et le vecteur C (n) sont données par:

A(n) = M (n−1) M (n−2) . . . M (1) A et C (n) = M (n−1) M (n−2) . . . M (1) C .


Preuve: On vérifie par récurrence sur k que :
A(k+1) = M (k) M (k−1) . . . M (1) A
Pour k = 1, il est évident d’après la proposition 2.1 que
A(2) = M (1) A(1) = M (1) A.
On suppose que A(k) = M (k−1) M (k−2) . . . M (1) A alors d’après
la proposition 2.1, A(k+1) = M (k) A(k) . En utilisant
l’hypothèse de récurrence , il vient
A(k+1) = M (k) M (k−1) . . . M (1) A. Ainsi , pour tout
1 ≤ k ≤ n − 1, on a A(k+1) = M (k) M (k−1) . . . M (1) A. En
particulier , A(n) = M (n−1) M (n−2) . . . M (1) A. Le même
raisonnement peut être utilisé pour montrer que
C (n) = M (n−1) M (n−2) . . M (1) CChapitre
Z. EL .ALLALI . I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Proposition 2.3
Pour tout 1 ≤ k ≤ n − 1, on a
1) det(M (k) ) = 1.
2) La matrice inverse (M (k) )−1 de M (k) est donnée par:
 
1 0 ... 0 0 ... 0
 0 1 ... 0 0 ... 0 
.. .. . . .. .. . . .. 
 
. .

 . . . . . 
 
 0 0 ... 1 0 ... 0 
(M (k) )−1 = (k)
 
ak+1k 
 0 0 ... (k) 1 ... 0 
 akk 
 .. .. .. .. .. . . .. 

 . . . . . . . 

 (k) 
ank
0 0 ... (k) 0 ... 1
akk

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Preuve:
1) La matrice M (k) est triangulaire inférieure et tous les
coefficients de sa diagonale sont égaux à 1, ainsi
det(M (k) ) = 1.
2) Si on note la matrice donnée dans la proposition ci-dessus par
N (k) , alors on vérifie aisément que M (k) N (k) = I . Par suite ,
N (k) = (M (k) )−1 .

Théorème 2.1
(k)
Si tous les coefficients akk , 1 ≤ k ≤ n, sont non nuls, alors la
matrice A peut être décomposée sous la forme A = LU, U = A(n)
est une matrice triangulaire supérieure et
L = (M (1) )−1 (M (2) )−1 . . . (M (n−1) )−1 est une matrice triangulaire
inférieure.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Preuve: D’après la proposition 2.3, det(M (k) ) = 1 pour tout


1 ≤ k ≤ n − 1. Ainsi M (k) est inversible , et par suite la matrice
produit (M (n−1) M (n−2) . . . M (1) ) est aussi inversible . D’autre part
, d’après la proposition 2.3, on a A(n) = M (n−1) M (n−2) . . . M (1) A,
d’où

A = (M (n−1) M (n−2) . . . M (1) )−1 A(n)


= (M (1) )−1 (M (2) )−1 . . . (M (n−1) )−1 A(n) = LU.

Les matrices M (k) , 1 ≤ k ≤ n − 1, sont triangulaires inférieures , il


en sera donc de même pour les matrices (M (k) )−1 , et par suite la
matrice L = (M (1) )−1 (M (2) )−1 . . . (M (n−1) )−1 est aussi
triangulaire inférieure.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Remarque 2.4
1) On vérifie aisément que la matrice L est donnée par:
 
1 0 ... 0 0 ... 0
 a21 (1) 
 (1)
 a11 1 ... 0 0 ... 0 

 . .. .. .. .
.. .. . 

 .
 . . . . . . . 
 (1) (2) 
 ak1 ak2
... 1 0 ... 0 

 (1) (2)
L =  a11 a22 
 a(1) (2) (k)
 k+11 ak+12 ak+1k

 a(1) (2) ... (k) 1 ... 0 
a22 akk

 11 
 .. .. .. .. .. .
.. . 
 .
 . . . . . . 

 a(1) (2) (k) (k+1)
a ank ank+1 
n1
(1)
n2
(2) ... (k) (k+1) ... 1
a11 a22 akk ak+1k+1

2) Pour résoudre AX = C , il suffit de résoudre successivement


les deux systèmes triangulaires
Z. EL ALLALI Ly =I: C
Chapitre et UX
Résolution = Ydes. systèmes linéaires
numérique
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
Soit  
2 −1 3 2
 2 2 4 −1 
A = A(1) =   −6 6 −6 −1 

−4 −4 −7 4
   
1 0 0 0 1 0 0 0
 −1 1 0 0 
M (1) (1) −1  1 1 0 0 

=
 3 0 1 0  , (M ) =  −3 0
 
1 0 
2 0 0 1 −2 0 0 1
 
2 −1 3 2
 0 3 1 −3 
A(2) = M (1) A(1) = 
 0 3

3 5 
0 −6 −1 8
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple

   
1 0 0 0 1 0 0 0
 0 1 0 0   0 1 0 0 
M (2) =
 0 −1 1
, (M (2) )−1 = 
0   0 1 1 0 
0 2 0 1 0 −2 0 1
 
2 −1 3 2
0 3 1 −3 
A(3) = M (2) A(2) = M (2) M (1) A(1) = 


 0 0 2 8 
0 0 1 2
   
1 0 0 0 1 0 0 0
 0 1 0 0 
M (3) =   , (M (3) )−1 =  0 1 0 0 
 
 0 0 1 0   0 0 1 0 
0 0 −1/2 1 0 0 1/2 1
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple

 
2 −1 3 2
 0 3 1 −3 
U = A(4) = M (3) A(3) =
 0 0 2 8 

0 0 0 −2
donc L = (M (1) )−1 (M (2) )−1 (M (3) )−1
 
1 0 0 0
 1 1 0 0 
L=  −3 1

1 0 
−2 −2 1/2 1

La décomposition LU de la matrice A est : A = LU.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
 
x1
 x2 
Pour résoudre le système Ax = c , où x =   x3  et

x4
   
−1 y1
 0   y2 
c = 22 , on pose y =  y3 
  

4 y4
et on résout les deux systèmes triangulaires suivantes Ly = c et
Ux = y .     
1 0 0 0 y1 −1
 1 1 0 0    y2  =  0 
   
Ly = c ⇔   −3 1 1 0   y3   22 
−2 −2 1/2 1 y4 4
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
 

 y1 = −1 
 y1 = −1
y1 + y2 = 0 y2 = 1
 

−3y1 + y2 + y3 = 22 y = 18
 3

 

−2y1 − 2y2 + (1/2)y3 + y4 = 4 y4 = −5

La solution 
de Ax = c est celledu
système
 Ux = y .
2 −1 3 2 x1 −1
 0 3 1 −3   x2   1 
Ux = y ⇔   0 0 2 8   x3  =  18 
   

0 0 0 −2 x4 −5
1
 
 2x1 − x2 + 3x2 + 2x4 = −1
  x1 = 12

3x2 + x3 − x4 = 1 x2 = 19
 
⇔ 6

 2x3 + 8x4 = 18 
 x3 = −1
−2x4 = −5 x4 = 52
 
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Théorème 2.2 (Factorisation de Cholesky d’une matrice)


Si A est une matrice symétrique définie positive, il existe au moins
une matrice réelle triangulaire inférieure L telle que : A = LLT .
On peut également imposer que les éléments diagonaux de la
matrice L soient tous positifs, et la factorisation correspondante
est alors unique.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Pour la mise en œuvre de cette factorisation, on procède de la


manière suivante. On pose
 
l11
 l21 l22 
L= .
 
.. ..
 ..

. . 
ln1 ln2 . . . lnn
De l’égalité A = LLT , on déduit que:

n min(i,j)
X X
aij = lik ljk = lik ljk , 1 ≤ i, j ≤ n
k=1 k=1

puisque lij = 0 si i < j.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

La matrice A étant symétrique, il suffit que les relations ci-dessus


soient verifiées pour i ≤ j, c’est-à-dire que les éléments lij de la
matrice L doivent satisfaire :
i
X
aij = lik ljk , 1 ≤ i, j ≤ n
k=1

Pour i = 1, on détermine la première colonne de L :



(j = 1) a11 = (l11 )2 , d’où l11 = a11
a12
(j = 2) a12 = l11 l21 , d’où l21 =
l11
...
a1n
(j = n) a1n = l11 ln1 , d’où ln1 =
l11

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires


Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

On détermine la ième colonne de L, après avoir calculé les (i − 1)


premières colonnes : v
u
u Xi−1
(j = i) a = l l + . . . + l l , d’où
ii i1 i1 l = a −
ii ii
t l2ii ii ik
k=1
(j = i + 1) ai,i+1 = li1 li+1,1 + . . . + lii li+1,i , d’où
i−1
X
ai,i+1 − lik lnk
k=1
li+1,i =
lii
...
(j = n) ain = li1 ln1 + . . . + lii lni , d’où
i−1
X
ain − lik lnk
k=1
lni =
lii
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Remarque 2.5
Coût des méthodes de Gauss et Cholesky pour une matrice
d’ordre n :
Gauss Cholesky
(n3 −n) n3
Additions 3 6
(n3 −n) n3
Multiplications 3 6
n(n−1) n2
Divisions 2 2
Racine n
2n3 n3
Total 3 3
Résoudre le système linéaire Ax = C se ramène à résoudre
successivement les 2 systèmes linéaires à matrices
triangulaires: Ly = C et LT x = y .
Yn
Calcul du déterminant de A: det(A) = ( lii )2 .
i=1
Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires
Méthode de remontée
Élimination de Gauss
Introduction
Méthode de Gauss-Jordan
Méthodes directes
Méthode de Crout. Factorisation LU
Matrice symétrique définie positive: Méthode de Cholesky

Exemple
1 1
 
1 2 3
1 1 1
A= 2 3 4
, la factorisation de Cholesky de A est:
1 1 1
 3 4 5  
1 1
1 0

0 1 √2 √3
1 3 3 3
A= 0 0  = LLT .
  
2 √6 √  6 √6
1 3 5 5
3 0 0
√6 √ 30 30
det(A) = ( 63 305 )2 .
 
1
Pour résoudre Ax = b avec b =  1  :
1
√ √
Ly = b ⇒ y1 = 1, y2 = 3, y3 = 5
LT x = y ⇒ x1 = 3, x2 = −24, x3 = 30.

Z. EL ALLALI Chapitre I: Résolution numérique des systèmes linéaires

Vous aimerez peut-être aussi