IC1 Poly 2007
IC1 Poly 2007
FÉDÉRALE DE LAUSANNE
IDENTIFICATION DE
SYSTÈMES DYNAMIQUES
Prof. D. Bonvin, Dr. A. Karimi
n
u yp +
PROCESSUS
+ y
ym + es
MODÈLE -
θ̂
IDENTIFICATION CRITÈRE
Lausanne
Septembre 2007
ii
iii
PRÉFACE
PRÉFACE iii
BIBLIOGRAPHIE 195
1
Chapitre 1
PROCESSUS, SYSTÈMES ET
MODÈLES
La variable indépendante temps joue un rôle prépondérant dans l’étude des sys-
tèmes dynamiques. Une telle étude nécessite souvent une modélisation, c’est-à-dire la
représentation du système par un modèle mathématique. A ces fins, il est nécessaire
de procéder par étapes et de bien distinguer les quatre entités suivantes: processus,
système, modèle mathématique et modèle informatique.
• Le processus constitue la réalité physique que l’on désire étudier. Par exemple:
– la navette spatiale,
– le comportement écologique d’une région,
– un atelier de production flexible.
• Ces réalités physiques sont souvent très complexes. Il est alors nécessaire de
simplifier ou de limiter le cadre de l’étude en définissant le système à étudier.
Celui-ci ne comportera que les éléments indispensables à l’étude souhaitée. Il
y a donc un fort élément d’abstraction en passant du processus au système à
étudier.
• Une fois le système défini, on essayera de le représenter par des équations
algébriques ou différentielles qui constitueront le modèle mathématique.
Ceci implique un effort de simplification.
• Le modèle mathématique sera ensuite étudié analytiquement (dans les cas
simples) ou par simulation (le plus souvent). Dans ce cas, il s’agira de coder
le modèle mathématique pour l’implanter sur ordinateur. On parle alors de
modèle informatique.
Une fois le modèle construit et implanté, on doit s’assurer que les résultats de
simulation qu’il produit correspondent bien à la réalité du système à étudier. Les dé-
marches de vérification et de validation explicitées ci-dessous doivent être effectuées
2 PROCESSUS, SYSTÈMES ET MODÈLES
y(t)
Abstraction
+
SYSTEME
Validation
-
u(t) ym(t)
Codage
+
MODELE
informatique -
ys(t)
Etude «trajectoire»:
Dans le but de décrire la trajectoire de l’automobile sur une route (système
à étudier), on ne s’intéresse directement ni aux mouvements des pistons, ni aux
différents engrenages, ni à la pression des pneus, mais plutôt aux différentes forces
qui agissent sur l’automobile. Le système ainsi défini est représenté à la figure 1.2.
PERTURBATIONS
rafales de vent
pente
Fig. 1.2 – Système «trajectoire automobile » avec les entrées, sorties et perturba-
tions.
PERTURBATIONS
Etude «cylindre»:
Si l’objectif est plutôt de décrire le comportement thermique du moteur, on
limitera l’étude à un seul cylindre pour considérer les problèmes de combustion et
de transfert de chaleur. On obtiendra alors le système de la figure 1.4.
PERTURBATIONS
qg,e qg,s
p
H
h
ql,e
S
ql,s
Perturbation
ql,s
hc e ql,e h
SYSTEME 1
Perturbation
qg,s ; ql,e ; ql,s
pc e qg,e p
2 SYSTEME 2
Perturbations
ql,s ; qg,s
hc ql,e h
SYSTEME 3
pc qg,e p
yc e u SYSTEME 4 y
multivariable
statistique coiffeurs
2 coiffeurs
clients statistique chaises
2 chaises
d'attente statistique clients perdus
• la durée de service d’un client suit une distribution normale avec une valeur
moyenne de 40 min et un écart-type de 10 min.
Comme les processus peuvent être de natures fort diverses, les modèles utili-
sés doivent refléter au mieux cette diversité. On distingue donc plusieurs types de
modèles, que l’on classe ici selon différents critères.
u M(θ) y
Type
simulation direct u, M(θ) y connaissance
a) b)
x(k)
x(t) x2
x4
x5
x0 x1
x3
temps e1 e2 e3 e4 temps
Fig. 1.12 – Evolution de l’état pour un système dynamique : (a) évolution continue,
(b) événements discrets.
u(t) y(t)
M
Fig. 1.13 – Modèle monovariable.
Il est utile de noter les différences qui existent entre un modèle stationnaire, un
modèle à l’état stationnaire (ou au repos) et un modèle statique:
dM dθ
= 0; = 0 modèle stationnaire
dt dt
du dy
= =0 état stationnaire (point d’équilibre)
dt dt
Fig. 1.14 – Correspondance entre les propriétés d’un système et son modèle mathé-
matique.
u1 y1
up
S yq
Le système est décrit par la relation qui lie les entrées et les sorties du système
(représentation externe). Cette relation entre les p entrées et les q sorties du système
(fig. 1.15) est explicitée par le modèle suivant:
y1 (t) = h1 [u1 (τ ), u2 (τ ), . . . , up (τ ), τ ]
.. ..
. .
yq (t) = hq [u1 (τ ), u2 (τ ), . . . , up (τ ), τ ]
avec
−∞ < τ < ∞ pour un système dynamique, en général
−∞ < τ < t pour un système dynamique causal,
τ =t pour un système statique.
Afin d’étudier certaines propriétés de ce modèle, on introduit la notation ci-
dessous. On choisit, sans perte de généralité, de représenter un système monova-
riable.
δ(t-τ) ∞
t
0 τ
Fig. 1.16 – Impulsion de Dirac au temps τ .
viennent:
Z ∞
u(t) = u(τ )δ(t − τ )dτ
−∞
Z ∞ Z ∞
y(t) = Hu(t) = H u(τ )δ(t − τ )dτ = Hδ(t − τ )u(τ )dτ
−∞ −∞
g(t, τ ) ≡ Hδ(t − τ )
g(t, τ ) = g(t − τ, 0)
• Si le système est causal, la borne supérieure d’intégration est t car les entrées
futures n’influencent pas y(t).
De façon générale, la sortie d’un système dynamique continu, monovariable,
linéaire, stationnaire et causal (mais pas nécessairement initialement au re-
pos) à l’entrée u(t) est donnée par la représentation temporelle externe sui-
vante (intégrale de convolution):
Z t Z ∞
y(t) = g(t − τ )u(τ )dτ = g(τ )u(t − τ )dτ (1.1)
−∞ 0
où y0 (t) résume l’effet de l’entrée u(τ ), pour tout τ < 0, au temps t.
Dans les représentations (1.1) et (1.2), le système dynamique est caractérisé
par sa réponse impulsionnelle g(t), t ≥ 0, que l’on peut obtenir à partir de
mesures entrée-sortie (cf. chapitres 2 et 3).
Comme il est difficile de générer expérimentalement des impulsions de Dirac,
on utilise de préférence un saut échelon de l’entrée pour exciter un système
dynamique:
0 pour t < 0
u(t) =
A pour t ≥ 0
La réponse expérimentale γ(t) peut s’écrire:
Z t Z t
γ(t) = g(t − τ )Adτ = g(τ )Adτ
0 0
1.3 MÉTHODES DE REPRÉSENTATION 17
d’où
1 dγ(t)
g(t) =
A dt
La réponse impulsionnelle est donc la dérivée de la réponse indicielle (pour
A = 1). Cette constatation permet de calculer la réponse impulsionnelle à
partir de la réponse à un saut échelon obtenue expérimentalement.
ou
y(k) = g(k) ∗ u(k) = u(k) ∗ g(k)
Le terme g(k − j) représente la réponse du système au temps kT à l’impulsion unité
au temps jT , c’est-à-dire à
1 i=j
u(i) =
0 i 6= j
La représentation fréquentielle correspondante devient:
Y (z) = G(z)U(z)
Ecrire le produit de convolution pour le cas d’un système dynamique discret lsc,
c’est-à-dire pas nécessairement initialement au repos.
Remarque Il est important de noter que g(k), la réponse impulsionnelle d’un sys-
tème lscr discret, n’est pas nécessairement égale à g(t)|kT , la version échantillonnée
de la réponse impulsionnelle du système continu correspondant. Pour le montrer, il
suffit d’écrire l’intégrale de convolution (1.2) pour le temps kT :
Z kT
y(kT ) = g(kT − τ )u(τ )dτ k = 0, 1, 2, . . .
0
18 PROCESSUS, SYSTÈMES ET MODÈLES
et d’introduire l’approximation
u(τ ) = u(jτ ) jT ≤ τ < (j + 1)T j = 0, 1, . . . , k − 1
qui permet d’exprimer l’intégrale ci-dessus par la contribution de l’entrée présente
u(kT ) plus la somme de k contributions liées aux entrées passées:
"
k−1 Z (j+1)T
#
X
y(kT ) = g(0)u(kT ) + g(kT − τ )dτ u(jT ) k = 0, 1, 2, . . .
j=0 jT
R L
u(t) C y(t)
Les équations d’état (1.5) et de sortie (1.6) forment ensemble ce que l’on ap-
pelle communément un modèle d’état. Si fi [·] et ∂f /∂x[·] sont des fonctions
continues de t, on démontre qu’il existe une solution unique pour x(t) étant
donnés x(t0 ) et u[t0 ,∞).
Pour un système statique, l’équation dynamique (1.5) n’existe pas, et le sys-
tème se réduit à:
y(t) = g[u(t), t]
La représentation par variables d’état caractérise le comportement interne du
système. Une telle représentation est ainsi également valable pour des condi-
tions initiales non nulles, pour des systèmes non linéaires et non stationnaires.
De plus, un modèle d’état présente l’avantage d’être simple à implanter sur
ordinateur car il se prète directement à l’intégration numérique.
b) Propriété de linéarité: Introduisons la notation suivante:
où les exposants 1 et 2 indiquent deux essais distincts, alors le modèle d’état
est linéaire. Dans le cas contraire, le modèle est non linéaire.
Cette condition de linéarité permet de déduire les cas particuliers suivants:
• Pour α1 = α2 = 1 et x1 (t0 ) = −x2 (t0 ); u1[t0 ,∞) = −u2[t0 ,∞)
on a:
x1[t0 ,∞) = −x2[t0 ,∞) et y[t1 0 ,∞) = −y[t2 0 ,∞)
et finalement:
{0, 0[t0 ,∞)} → {0[t0 ,∞) , 0[t0 ,∞) }
c’est-à-dire une sortie identiquement nulle pour un système au repos et sans
excitation.
x1 (t0 ) = x(t0 ), u1[t0 ,∞) = 0
• Pour α1 = α2 = 1 et 2
x (t0 ) = 0, u2[t0 ,∞) = u[t0 ,∞)
on a:
{x(t0 ), u[t0 ,∞) } → {x1[t0 ,∞) + x2[t0 ,∞) , y[t1 0 ,∞) + y[t2 0 ,∞) }
c’est-à-dire la réponse à {x(t0 ), u[t0 ,∞)} = réponse à {x(t0 ), 0} due unique-
ment à l’état initial + réponse à {0, u[t0,∞) } due uniquement à l’entrée.
1.3 MÉTHODES DE REPRÉSENTATION 21
R R
v(t)
u(t) y(t)
C
R R
En d’autres termes, pour les systèmes linéaires, ces deux réponses peuvent être
étudiées séparément et additionnées ensuite.
Le principe de superposition est donc valable
• pour la sortie (similaire au cas de la représentation externe),
• ainsi que pour l’état du système (nouveau)
– pour un état initial nul,
– mais également pour un état initial non nul.
Il s’ensuit qu’un système linéaire dans sa représentation externe n’est pas né-
cessairement linéaire dans sa représentation d’état comme cela sera illustré
dans l’exemple ci-dessous.
La réciproque est-elle vraie, c’est-à-dire est-ce qu’un système qui est linéaire
dans sa représentation d’état est toujours linéaire dans sa représentation ex-
terne?
Le modèle d’état donné par les équations (1.5) et (1.6) est linéaire si et seule-
ment si les fonctions f et g sont linéaires par rapport à x(t) et u(t). Dans ce
cas, il s’écrit:
.
+ x(t) x(t) +
u(t) B
+ ∫ C
+
y(t)
Ce système est également causal car u(τ ) n’influence x(t) et y(t) que pour
τ ≤ t.
La figure 1.19 représente le schéma fonctionnel d’un système dynamique li-
néaire et stationnaire.
Les matrices A et B des représentations continues et discrètes sont bien sûr dif-
férentes. Pour s’en rendre compte, considérons le modèle d’état continu linéaire
et stationnaire suivant:
Ad = I + Ac T
Bd = Bc T
Quelles sont les relations entre les matrices C et D des modèles discret et
continu?
La discrétisation selon Euler n’est qu’approximative. On démontre qu’une
«discrétisation exacte», qui utilise toutefois l’approximation
ou
s(k + 1) = [1 + i(k)]s(k) + [1 + i(k)]d(k) − [1 + i(k)]r(k) s(k0 ) = s0
Avec
d(k)
u(k) = x(k) = s(k) y(k) = s(k)
r(k)
on retrouve un système dynamique discret, multivariable, linéaire et non sta-
tionnaire.
Sous quelle condition ce modèle d’état dynamique non stationnaire devient-il
stationnaire?
Quel est l’ordre de ce modèle d’état?
ou discrète: ∞
Y (z) X
G(z) = = Z[g(k)] ≡ g(k)z −k (1.8)
U(z)
k=0
u1 y1
u2
S y2
sortie
y 2(k)
0 T t 0 T t
A/N A/N
G(z)
Est-ce que la relation (1.9) est exacte pour une entrée échelon du type u(t) =
P
i αi ε(t − iT ) où ε(t) représente le saut unité au temps t = 0?
1
Exemple: Soit la fonction de transfert analogique G(s) = . Evaluons
s+1
G(z) pour T = 0.2.
L’équation (1.10) donne:
−1 −1 1
G(z) = (1 − z )Z L
s(s + 1) kT
−1 −1 1 1 −1 1 1
= (1 − z )Z L − = (1 − z ) −
s (s + 1) kT 1 − z −1 1 − e−T z −1
1 − z −1 (1 − e−T )z −1 0.18z −1
=1− = =
1 − e−T z −1 1 − e−T z −1 1 − 0.82z −1
1.3 MÉTHODES DE REPRÉSENTATION 27
G(z) ∼
= T Z{L−1[G(s)]|kT } (1.11)
G(z) est ainsi calculée de façon à ce que sa réponse impulsionnelle g(k) soit
égale à T g(t)|kT , où g(t)|kT représente la version échantillonnée de la réponse
impulsionnelle de G(s).
La relation (1.11) devient exacte pour le cas u(t) = δ(t) mais reste approxi-
mative pour tout autre signal u(t).
Vérifier cette dernière affirmation en comparant, par exemple, les réponses
impulsionnelles et indicielles de G(s) = 1/(s + 1) et de G(z) calculé selon
(1.11) avec T = 0.2.
Exemple: A partir de G(s) = 1/(s + 1), évaluons G(z) pour T = 0.2.
L’équation (1.11) donne:
−1 1 1 0.2
T Z{L }=T −T −1
=
s + 1 kT
1−e z 1 − 0.82z −1
2 1 − e−T
G(s = 0) = 1 = G(z = 1) = K → K =
1 − e−T 2
Finalement:
(1 − e−T )(z + 1) (1 − e−T )(1 + z −1 ) 0.09(1 + z −1 )
G(z) = = =
2(z − e−T ) 2(1 − e−T z −1 ) 1 − 0.82z −1
Y (s) 1
G(s) = =
U(s) s
ou
ẏ(t) = u(t) y(0) = 0
La trajectoire y(t) peut être approchée par intégration rectangulaire ré-
trograde:
y(k) = y(k − 1) + T u(k)
Ainsi:
Y (z)[1 − z −1 ] = T U(z)
Y (z) T Tz
G(z) = = −1
=
U(z) 1−z z−1
et l’on obtient l’approximation:
1 Tz 1 z−1
:= ou s :=
s z−1 T z
Ainsi:
G(z) = G(s)|s= 1 z−1 (1.12)
T z
u(k) + u(k − 1)
y(k) = y(k − 1) + T
2
D’où:
T
Y (z)[1 − z −1 ] = U(z)(1 + z −1 )
2
1.3 MÉTHODES DE REPRÉSENTATION 29
1 + z −1
Y (z) T T (z + 1)
G(z) = = =
U(z) 2 1 − z −1 2(z − 1)
et
1 T (z + 1) 2 z−1
:= ou s :=
s 2(z − 1) T z+1
Ainsi:
G(z) = G(s)|s= 2 z−1 (1.13)
T z+1
0.1(1 + z −1 )
1 1 T (z + 1)
G(z) = = 2 z−1 = =
s + 1 s= 2 z−1 T z+1
+1 (2 + T )z − (2 − T ) 1.1 − 0.9z −1
T z+1
G(z)
G(s) = sL Z (1.14)
1 − z −1
1
G(s) = L{Z −1 [G(z)]} (1.15)
T
G(s) = G(z)|z= 1 (1.16)
1−T s
et
G(s) = G(z)|z= 1+T s/2 (1.17)
1−T s/2
30 PROCESSUS, SYSTÈMES ET MODÈLES
0.09(1 + z −1 )
Transformation des pôles et des zéros
1 − 0.82z −1
0.2z −1
Intégration rectangulaire rétrograde 1.12
1.2 − z −1
0.1(1 + z −1 )
Transformation bilinéaire (intégration trapézoı̈dale) 1.13
1.1 − 0.9z −1
G(t) = CeAt B
Montrer que pour un système monovariable lscr du premier ordre, la réponse impul-
sionnelle est g(t) = ceat b.
Les matrices de transfert G(z) et des réponses impulsionnelles G(k) pour un
système multivariable lscr discret sont respectivement:
Tableau 1.3 Méthodes de représentation d’un système dynamique. Les hypothèses pour les différents modèles sont indiquées
en hachuré (l: linéaire, s: stationnaire, c: causal, r: initialement au repos).
Externe Interne
Continue Continue
c c c c
.
x(t) = f[x(t), u(t), t] x(k+1) = f[x(k), u(k), k]
y(t) = h[u(τ), τ ] y(k) = h[u(h), h]
x(0) = x0 x(0) = x0
-∞ < τ ≤ t -∞ < h ≤ k
y(t) = g[x(t), u(t), t] y(k) = g[x(k), u(k), k]
qe(t)
h(t)
qs(t)
S k
1.4 EXEMPLES
Produit P Clients Y
Machines X Stock S
Machines Z
nombre ? grandeur ?
• Simulation
donnés: M(S, k), h(t = 0), qe (t)
cherché: h(t), c’est-à-dire le comportement dynamique du système.
Pour ce système simple, la simulation (intégration) peut être analytique ou
numérique.
• Conception
donnés: M(·, ·), qe (t), h(t) désiré
cherchés: S et k, c’est-à-dire le dimensionnement de la cuve.
Il n’est pas nécessaire de disposer de mesures expérimentales. Le dimension-
nement de la cuve peut se faire pour un système projeté.
• Identification
donnés:M(·, ·), qe (t) et h(t) mesurés
cherchés: S et k, c’est-à-dire les caractéristiques de la cuve.
Il faut disposer de mesures expérimentales et donc d’un système existant.
• Commande
donnés: M(S, k), h(t) désiré
cherché: qe (t), c’est-à-dire l’entrée ou grandeur de commande.
Ce problème de commande peut se résoudre sans mesures vu que le modèle du
système et la consigne sont connus. Cependant, dans la pratique, la connais-
sance du modèle est remplacée par la mesure de h(t), laquelle est comparée à
la consigne pour déterminer la grandeur de commande.
• Les clients Y:
– achètent en moyenne 10 pièces par visite (distribution normale, écart-type
de 5 pièces),
– la probabilité de visite suit une distribution poissonienne (moyenne 1 visite
par jour).
• La machine Z:
– utilise en moyenne 15 pièces par jour (distribution normale, écart-type de 5
pièces),
– le temps entre les pannes est distribué uniformément entre 10 et 60 jours,
– possède un temps de réparation fixe de 1 jour.
L’objectif est d’étudier le système de production et de stockage en fonction du
nombre de machines de type X et de la grandeur du stock S. En particulier, on
aimerait connaı̂tre le taux de fonctionnement des machines X, l’évolution du stock
ainsi que le taux des demandes non satisfaites pour les clients Y et les machines Z.
Un modèle du système devrait permettre de mener une étude économique, c’est-
à-dire d’analyser les coûts en fonction du nombre de machines de type X et de la
grandeur du stock S.
De quel type de modèle s’agit-il ici?
Exercice 1
Enoncé : Soit le système dynamique suivant:
ẏ = a(t)y(t) + b(t)u(t); y(0) = y0
a) Ce système est-il linéaire, stationnaire, causal, initialement au repos, stable?
b) Indiquer une démarche pour calculer la réponse indicielle du système.
c) Calculer les réponses indicielle et impulsionnelle pour le cas où le système est
stationnaire et initialement au repos.
Solution :
a) Ce système est linéaire (car les variables u(t) et y(t) apparaissent linéairement
dans l’équation différentielle), non stationnaire (car les coefficients a et b ne
sont pas constants), causal (car la sortie y(t) ne dépend que des entrées passées
et présentes) et pas initialement au repos (si y0 6= 0). Du fait de la non-
stationnarité, la stabilité est difficile à vérifier.
b) Du fait de la non-stationnarité, le calcul de la réponse indicielle est difficile à
obtenir analytiquement. On peut l’exprimer formellement à l’aide de g(t, τ ),
la réponse impulsionnelle au temps t d’un système non stationnaire à une
impulsion de Dirac au temps τ :
Z t
y(t) = y0 + g(t, τ )dτ
0
36 PROCESSUS, SYSTÈMES ET MODÈLES
Réponse indicielle pour u(t) = ε(t) : Les équations (1.18) et (1.19) donnent:
Z t
b
y(t) = bea(t−τ ) 1dτ = − [1 − eat ] t≥0
0 a
On vérifie aisément que la réponse impulsionnelle est la dérivée temporelle de
la réponse indicielle.
Exercice 2
Enoncé : Soit le plan d’épargne d’une banque présenté comme exemple d’un système
dynamique discret au 1.3.2.3.
a) Sous quelle condition ce système est-il stationnaire?
b) Etudier la stabilité BIBO du système dynamique stationnaire.
c) Calculer la fonction de transfert discrète G(z) = S(z)/D(z).
d) Evaluer la constante de temps de ce système dynamique.
Solution :
a) Le modèle d’état discret s’écrit:
T d(k)
s(k + 1) = a(k)s(k) + b (k) s(k0 ) = s0
r(k)
y(k) = s(k)
avec
a(k) = [1 + i(k)] bT (k) = [(1 + i(k)) − (1 + i(k))]
Le système est non stationnaire car a(k) et b(k) dépendent du temps discret
k. Le système devient stationnaire si le taux d’intérêt reste constant.
1.5 EXERCICES RÉSOLUS 37
Exercice 3
Enoncé : Un circuit électrique de type RC en série (R = C = 1) au repos est excité
par la tension u(t) = e−3t (t ≥ 0).
i
R
+
u x C
-
38 PROCESSUS, SYSTÈMES ET MODÈLES
Solution :
a) Circuit RC en série (R = C = 1; x: tension aux bornes du condensateur):
avec
u(t) = e−3t t≥0 (1.21)
La transformation de Laplace de (1.20) et (1.21) donne:
1
X(s) = U(s)
s+1
1
U(s) =
s+3
1 −1/2 1/2
X(s) = = +
(s + 1)(s + 3) s+3 s+1
et ainsi:
1 1
x(t) = − e−3t + e−t
2 2
b) Le courant i(t) devient:
3 1
i(t) = ẋ(t) = u(t) − x(t) = e−3t − e−t t≥0
2 2
Le courant n’est pas proportionnel à e−3t à cause de l’effet dynamique du
condensateur et du mode correspondant e−t .
Exercice 4
Enoncé : Soit un circuit électrique de type RL en série (R = L = 1) avec un courant
initial nul.
u(t)
1
α
R L
u(t)
x(t)
t
0 α
1.5 EXERCICES RÉSOLUS 39
Exercice 5
Enoncé : Soit le système dynamique discret stable du premier ordre:
Y (z) Kz
G(z) = =
U(z) z−p
a) Calculer la réponse harmonique du système, c’est-à-dire sa réponse en régime
permanent à l’excitation harmonique u(k) = AejωkT .
b) Evaluer le rapport d’amplitude et le déphasage en fonction de la pulsation d’ex-
citation ω.
c) Dessiner le diagramme de Bode des systèmes discret et continu pour K = 2 et
p = 0.9.
Solution :
a) Réponse harmonique
A Az
uk = AejωkT ⇒ U(z) = jωT −1
=
1−e z z − ejωT
KAz 2 α1 z α2 z
Y (z) = G(z)U(z) = = α0 + +
(z − p)(z − ejωT ) z − p z − ejωT
avec
KAz 2
α0 = =0
(z − p)(z − ejωT ) z=0
KAz KAp
α1 = jωT
=
z−e
z=p p − ejωT
KAejωT
KAz
α2 = = jωT
z − p jωT
z=e e −p
La transformation en z inverse donne:
yk = α1 pk + α2 ejωkT = yk1 + yk2
Réponse en régime permanent (y k = y 1k + y 2k )
y 1k = lim α1 pk = 0 pour |p| < 1
k→∞
y k α2 KejωT
RA = = = jωT
uk A e − p
KAejωT
ϕ = arg(y k ) − arg(uk ) = arg(α2 ) = arg jωT
e −p
c) Diagramme de Bode (K = 2, p = 0.9)
2z
G(z) =
z − 0.9
2
10
– discret
R -- continu
A
1
10
0
10
10
-3 -2
10
-1
10
0
10 ωs 1
10
pulsation
80
60 – discret
40 -- continu
20
phi
-20
-40
-60
-80
10
-3
10
-2
10
-1
10
0
ωs 10
1
pulsation
20(0.949s + 1)
G(s) =
9.49s + 1
42 PROCESSUS, SYSTÈMES ET MODÈLES
Exercice 6
Enoncé : Le système analogique G(s) = 2e−s /(5s + 1) est à commander avec un
microprocesseur.
a) Calculer la version échantillonnée G(z).
b) Quels sont les pôles du système discret?
c) Calculer la réponse du système discret à une impulsion unité.
Solution :
a) Version échantillonnée G(z)
Choix de la période d’échantillonnage:
τ
T = = 0.5
10
En considérant que u(t) est générée par un élément de maintien d’ordre zéro
(zoh), on obtient:
2e−s
−1 −1
0.19
G(z) = (1 − z )Z L = 2 (1.33)
s(5s + 1) kT
z (z − 0.90)
b) Les pôles du système discret sont z = 0 deux fois et z = 0.90. Le pôle double
z = 0 correspond au retard pur de deux périodes d’échantillonnage.
c) Réponse du système discret à une impulsion unité
0.19 1 1 0.90
G(z) = 2 = 0.23 − − 2 (1.34)
z (z − 0.90) z − 0.90 z z
avec
0 k<0
ǫ(k) = (1.36)
1 k≥0
0 k 6= 0
δ(k) = (1.37)
1 k=0
1.5 EXERCICES RÉSOLUS 43
0.18
0.16
0.14
0.12
g(kT)
0.1
0.08
0.06
0.04
0.02
0
0 5 10 15 20 25 30
kT
Exercice 7
Enoncé : Le dimensionnement d’un régulateur PI pour un système dynamique de
gain statique 7 a donné le résultat suivant:
1
GR (s) = 0.72 1 +
0.06s
Evaluer l’équation aux différences nécessaire à l’implantation de ce régulateur sur
microprocesseur.
Solution : Le régulateur discret sera entouré de convertisseurs A/N et N/A, ce
dernier avec un élément de maintien d’ordre zéro. Utilisons donc la méthode corres-
pondante pour calculer GR (z) à partir de GR (s):
U(z) −1 −1 GR (s)
GR (z) = = (1 − z )Z L
E(z) s
kT
12T z −1
−1 −1 0.72 12 −1 0.72
= (1 − z )Z L + 2 = (1 − z ) +
s s 1 − z −1 (1 − z −1 )2
12T z −1 0.72 + (12T − 0.72)z −1
= 0.72 + =
1 − z −1 1 − z −1
On obtient ainsi:
U(z)(1 − z −1 ) = E(z)[0.72 + (12T − 0.72)z −1 ]
La transformation en z inverse donne:
u(k) = u(k − 1) + 0.72e(k) + (12T − 0.72)e(k − 1) (1.38)
Exercice 8
Enoncé : Soit le système dynamique continu:
1
G(s) =
s2 + 4s + 8
a) Calculer sa réponse impulsionnelle.
b) Utiliser le produit de convolution dans sa forme i) temporelle et ii) fréquentielle
pour calculer la réponse à un saut unité.
Solution :
a) Réponse impulsionnelle pour U(s) = 1
1 1 1 2
Y (s) = G(s)U(s) = = =
s2 + 4s + 8 2
(s + 2) + 4 2 (s + 2)2 + 4
L−1 → y(t) = 21 e−2t sin(2t) (entrée 16 du tableau C.2 de l’annexe C)
b) Réponse indicielle
i) Produit de convolution temporel
Z t
1 t −2(t−τ )
Z
y(t) = g(t − τ )u(τ )dτ = e sin[2(t − τ )]1dτ
0 2 0
x = 2(t − τ )
dx = −2dτ
1 0 −x 1 2t −x
Z Z
y(t) = − e sin x dx = e sin x dx
4 2t 4 0
1.5 EXERCICES RÉSOLUS 45
1 1 −2t
⇒ y(t) = − e−x (cos x + sin x)|2t
0 = − [e (cos 2t + sin 2t) − 1]
8 8
1
= [1 − e−2t (cos 2t + sin 2t)]
8
ii) Produit de convolution fréquentiel
1
U(s) =
s
1 A Bs + C
Y (s) = G(s)U(s) = = + 2
s(s2+ 4s + 8) s s + 4s + 8
1 1
A = lim 2 =
s→0 s + 4s + 8 8
1 = A(s2 + 4s + 8) + Bs2 + Cs
termes en s2 0 = A + B ⇒ B = −A
termes en s1 0 = 4A + C ⇒ C = −4A
1
termes en s0 1 = 8A ⇒ A = 8
B = − 18 C = − 21
1 1 s+4 1 1 (s + 2) + 2
Y (s) = − = −
8s 8 s2 + 4s + 8 8s 8 (s + 2)2 + 22
1 1 s+2 1 2
= − −
8s 8 (s + 2)2 + 22 8 (s + 2)2 + 22
1 1 −2t 1
L−1 [Y (s)] = y(t) = − e cos 2t − e−2t sin 2t
8 8 8
1
= [1 − e−2t (cos 2t + sin 2t)]
8
Exercice 9
Enoncé : Soit le système dynamique discret monovariable du premier ordre:
Z→ X(z)(z − a) = bU(z)
Y (z) = cX(z)
Y (z) bc
⇒ G(z) = =
U(z) z−a
Z −1 → y(k) = b c ak−1 − 2 c ak
(k ≥ 1) (k ≥ 0)
réponse forcée réponse libre due
due à l’entrée à la condition
impulsion unité initiale non nulle
47
Chapitre 2
MODÈLES DE REPRÉSENTATION
NON PARAMÉTRIQUES
2.1 INTRODUCTION
u(t) y(t)
u
G(s) y
a
t t
0 0
0 t
0 t
ou
y = Ug (2.3)
u(k) = 1 k = 0, 1, 2, . . . (2.5)
En considérant toujours l’entrée comme une saut unité, l’équation (2.1) écrite
pour l’instant (k − 1) donne:
k−1
X
y(k − 1) = g(j) k = 0, 1, 2, . . . (2.7)
j=0
On remarque donc que la réponse impulsionnelle g(k) est la différence des ré-
ponses indicielles à deux instants d’échantillonnage successifs.
Si l’approche par déconvolution numérique est simple, elle souffre cependant
d’un inconvénient majeur: les bruits de mesure ne seront pas filtrés et pourront
fausser l’identification de g(k). On dit qu’il n’existe pas de redondance dans les
données. Dans l’équation (2.2) par exemple, il y a N équations pour les N inconnues
g(0), g(1), ...g(N − 1).
Cependant, comme la réponse impulsionnelle tend rapidement vers zéro (pour
les systèmes stables et sans intégrateur), le nombre de termes peut être limité sans
trop d’erreur. En considérant K termes, K ≤ N, l’équation (2.3) devient:
y = UK gK
(2.9)
(N × 1) (N × K) (K × 1)
2.3 MÉTHODE DE CORRÉLATION 51
Si rang(UK ) = K, l’équation (2.9) peut être résolue dans le sens des moindres
carrés pour donner K valeurs discrètes de la réponse impulsionnelle:
gK = UK+ y
(2.10)
(K × N)
où UK+ = (UKT UK )−1 UKT représente la matrice pseudo-inverse de UK (cf. annexe B).
L’approche par déconvolution numérique est-elle applicable aux systèmes lsc,
c’est-à-dire pas nécessairement au repos au temps initial?
2.3.1 Principe
La méthode de corrélation permet de reconstruire la réponse impulsionnelle g(k)
à partir des signaux d’entrée et de sortie du système (fig. 2.4). Il s’agit donc d’une
autre façon de résoudre le problème de déconvolution présenté au § 2.2.2.
u(k) y(k)
g(k)
et est donc applicable aux systèmes lsc. Pour des conditions initiales nulles, on
obtient:
Xk Xk
y(k) = g(k − j)u(j) = g(j)u(k − j) (2.12)
j=0 j=0
d(k)
ĝ(k)
Les fonctions de corrélation de deux signaux sont une mesure de leur similitude
de forme et de position en fonction du paramètre de translation relative h. L’au-
tocorrélation Ruu (h) décrit l’interdépendance de u(k) et u(k + h), l’intercorrélation
Ruy (h) celle de u(k) et y(k + h).
2.3 MÉTHODE DE CORRÉLATION 53
Pour les signaux réels à énergie finie, les fonctions de corrélation sont définies
comme suit:
Autocorrélation
∞
X ∞
X
Ruu (h) ≡ u(k)u(k + h) = u(k − h)u(k) (2.17)
k=−∞ k=−∞
Intercorrélation
∞
X ∞
X
Ruy (h) ≡ u(k)y(k + h) = u(k − h)y(k) (2.18)
k=−∞ k=−∞
∞
X ∞
X
Ryu (h) ≡ y(k)u(k + h) = y(k − h)u(k) (2.19)
k=−∞ k=−∞
N
X −1
Ruy (h) = u(k)y(k + h) h = 0, 1, . . . , N − 1 (2.21)
k=0
Pour les signaux réels dont l’un, au moins, est à puissance moyenne finie, il
convient d’utiliser les définitions suivantes:
Autocorrélation
N N
1 X 1 X
Ruu (h) ≡ lim u(k)u(k + h) = lim u(k − h)u(k) (2.22)
N →∞ 2N + 1 N →∞ 2N + 1
k=−N k=−N
Intercorrélation
N N
1 X 1 X
Ruy (h) ≡ lim u(k)y(k + h) = lim u(k − h)y(k) (2.23)
N →∞ 2N + 1 N →∞ 2N + 1
k=−N k=−N
N N
1 X 1 X
Ryu (h) ≡ lim y(k)u(k + h) = lim y(k − h)u(k) (2.24)
N →∞ 2N + 1 N →∞ 2N + 1
k=−N k=−N
54 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
2.3.2.3 Propriétés
y(k)
1er jour
k
2ème jour
k
3ème jour
jour particulier). Pour une valeur fixe k = k0 , la fonction y(k0, ξ) est une variable
aléatoire (dans notre exemple, la valeur de la sortie à une heure fixe). L’argument
ξ est souvent omis et donc le processus stochastique s’écrit simplement y(k).
Si les statistiques sur une réalisation sont représentatives du processus stochas-
tique, celui-ci est dit ergodique. De plus, si le processus stochastique est gaussien,
la connaissance de la valeur moyenne et de l’écart-type suffisent à préciser la proba-
bilité d’apparition d’une valeur.
La valeur moyenne et la fonction d’autocorrélation du signal aléatoire x(k) sont
définies par (en assumant que x(k) est ergodique):
N −1
1 X
E{x(k)} = lim x(k) (2.32)
N →∞ N
k=0
N −1
1 X
Rxx (h) = E{x(k)x(k + h)} = lim x(k)x(k + h) (2.33)
N →∞ N
k=0
Cette estimation est non biaisée mais a une très grande variance si N − h est petit,
car dans ce cas, l’estimation de la fonction d’autocorrélation est basée sur un petit
nombre de données.
Pour les variables aléatoires x(k) et y(k), la fonction d’intercorrélation est définie
comme suit:
Rxy (h) = E{x(k)y(k + h)}. (2.37)
Si x(k) et y(k) sont indépendants, on a:
Ree(h) φee(Ω)
σ2e
σ2e
0 π
-3 -2 -1 0 1 2 3 h Ω = ωT
Fig. 2.7 – Bruit blanc discret e(k) avec son autocorrélation Ree (h) et sa densité
spectrale ϕee (Ω).
Nous considérerons par la suite comme signal générateur le bruit blanc de valeur
moyenne nulle e(k) avec les propriétés suivantes:
E{e(k)} = 0 ∀k (2.42)
σe2 pour h = 0
Ree (h) = E{e(k)e(k + h)} = (2.43)
0 sinon
Ces propriétés ne définissent pas entièrement le signal car e(k) peut suivre différentes
distributions (uniforme, normale ou gaussienne, etc.) Dans la pratique, on utilisera
58 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−0.2 −0.2
−500 −400 −300 −200 −100 0 100 200 300 400 500 −500 −400 −300 −200 −100 0 100 200 300 400 500
(a) (b)
Fig. 2.8 – L’estimation biaisée (a) et non biaisée (b) de la fonction d’autocorrélation
d’une réalisation du bruit blanc discret avec 500 données.
le plus souvent la distribution gaussienne N (0, σe2). Pour un nombre fini de données,
seule une estimation de la fonction d’autocorrélation peut être obtenue. La figure
2.8 illustre l’estimation biaisée et non biaisée de la fonction d’autocorrélation d’une
réalisation du bruit blanc discret avec 500 données.
Notons que le bruit blanc discret possède une réalisation physique car il s’agit
d’un signal à énergie finie (la bande de fréquences est finie). Par contre, le bruit blanc
continu dont l’autocorrélation vaut Ruu (τ ) = Cδ(τ ) est un signal hypothétique et
ne correspond pas à une réalité physique car l’énergie ne peut pas être infinie (dans
une bande de fréquences infinie).
Avec un bruit blanc discret, toutes les fréquences sont d’égale importance (tout
comme dans la lumière blanche). Les filtres qui constitueront les modèles de per-
turbation aléatoires modifieront le spectre fréquentiel pour obtenir une répartition
correspondant à la répartition fréquentielle de l’énergie des perturbations rencontrées
(tout comme la lumière colorée!).
Un bruit coloré est un bruit qui n’est pas blanc ! C’est-à-dire que sa fonction
d’autocorrélation n’est pas nulle pour tout h 6= 0. Un bruit blanc filtré est un bruit
coloré. Considérons un processus MA (moving average ou moyenne ajustée) où le
bruit est modélisé comme:
Rnn(h)
2 2
(1+c1) σe
c1 σ2e
-3 -2 -1 0 1 2 3 h
c’est-à-dire un bruit blanc discret de moyenne nulle filtré par le polynôme C(q −1 ).
A titre d’exemple pour nc = 1 la moyenne et variance de n(k) peuvent s’écrire:
car le premier, le deuxième et la quatrième terme sont nuls. On vérifie que pour
|h| > 1, Rnn (h) = 0, ce qui permet d’obtenir le graphe d’autocorrélation de la figure
2.9.
Si au moins l’un des signaux d(k) et u(k) est de valeur moyenne nulle, on a:
où φuy (ωT ) et φuu (ωT ) sont les transformées de Fourier discrets des signaux tempo-
rels Ruy (h) et Ruu (h) (T est la période d’echantillonage).
Ainsi, si un système lsc est excité par un bruit blanc d’autocorrélation Ruu (0)δ(h),
et que la perturbation est indépendante de l’excitation, la réponse impulsionnelle
g(h) est obtenue directement à partir de l’intercorrélation Ruy (h).
La relation de convolution
Ruy (h) = Ruu (h) ∗ g(h) (2.57)
reste valable et, par rapport au produit de convolution y(k) = u(k) ∗ g(k), le couple
[u(k), y(k)] a été remplacé par le couple équivalent [Ruu (h), Ruy (h)]. Pour les signaux
d’entrée de nature aléatoire ou pseudo-aléatoire (souvent utilisés pour l’identification
de systèmes dynamiques), la longueur des enregistrements pour le couple équivalent
est beaucoup plus petite que celle des signaux d’entrée et de sortie. De plus, l’effet
d’un bruit non corrélé avec l’entrée peut être éliminé en utilisant les fonctions de
corrélation, ce qui n’est bien sûr pas le cas avec les signaux originaux. Cependant,
le problème de déconvolution, c’est-à-dire celui du calcul de g(h) à partir de Ruu (h)
et Ruy (h), demeure. On peut le résoudre de plusieurs façons.
a) Déconvolution numérique
En considérant (2.57), on a:
∞
X
Ruy (h) = Ruu (h − j)g(j) h = 0, 1, 2, . . . (2.58)
j=0
d(k)
u(k) + + y(k)
g(k)
+ +
bruit e(k)
blanc
ĝ(k )
Fig. 2.10 – Méthode de corrélation avec ajout du signal d’excitation blanc e(k).
u(k)
+a
kT
0
T
-a
15T
Si le signal e(k) est de valeur moyenne nulle et est non corrélé avec u(k) et
d(k), on obtient après simplification:
Rey (h)
g(h) = (2.66)
Ree (0)
R uu (h)
a2
2
- an
2 -1
hT
0 θ = 2n-1 T 2θ
T
Tab. 2.1 – Les éléments à additionner pour les différentes longueurs du registre à
décalage n
Longueur du registre n 3 4 5 6 7 8 9
Les éléments à additionner 2⊕3 1⊕4 2⊕5 1⊕6 1⊕7 1⊕2⊕7⊕8 4⊕9
..........................................................................................
1 2 3 m n conversion a
0 1 1 0 1 1 1 0 1 1 → +a
0 → -a
addition
modulo 2:
0+0=0
0+1=1
1+0=1
1+1=0
k 0 1 2 3 4 5 6 7 8 9 10 ...
x(k) -0.31 -0.89 0.54 -0.19 0.13 0.73 0.05 -0.61 -0.23 0.43 -0.13 ...
u(k) -a -a a -a a a a -a -a a -a ...
Asin(ωt) A'sin(ωt+ϕ)
Processus -5 0 5 10 15 20
R A(ω)
ϕ(ω)
RA
[-]
ω
[rad/s]
ϕ
[ °]
0°
-90°
-180°
ω
[rad/s]
u(t) y(t)
t G(jω) t
0 0
Fig. 2.17 – Système dynamique excité par un signal d’entrée binaire pseudo-
aléatoire.
L’idée de cette approche est d’exciter le processus avec un signal contenant simul-
tanément de nombreuses fréquences et d’effectuer une analyse du contenu fréquentiel
des signaux d’entrée et de sortie (fig. 2.17). Une telle analyse peut être réalisée à
l’aide de la transformation de Fourier, le rapport des signaux transformés de sortie
et d’entrée donnant la transformée de Fourier de la réponse impulsionnelle.
A partir de la transformée de Fourier des signaux d’entrée et de sortie (cf. annexe
A): Z ∞
U(ω) = u(t)e−jωt dt (2.69)
−∞
Z ∞
Y (ω) = y(t)e−jωt dt (2.70)
−∞
il est possible d’évaluer la réponse harmonique du système:
Y (ω)
G(jω) = (2.71)
U(ω)
Remarques :
• La transformée de Fourier n’est, en principe, définie que pour des fonctions
temporelles f (t) sommables en valeur absolue sur (−∞, ∞), c’est-à-dire seule-
ment si Z ∞
|f (t)|dt < ∞ (2.72)
−∞
Cependant, si cette condition est suffisante, elle n’est pas nécessaire. On dé-
montre que tous les signaux physiquement réalisables possèdent une transfor-
mée de Fourier.
• Il existe trois considérations importantes relatives au calcul de la réponse har-
monique par transformation de Fourier des signaux d’entrée et de sortie:
1. Comme il n’est pas possible d’intégrer dans l’intervalle (−∞, ∞), il faut
nécessairement intégrer entre des bornes temporelles finies, ce qui intro-
duit des erreurs de troncature.
2.4 MÉTHODES FRÉQUENTIELLES 69
Soit le signal x(t) = cos(ω0 t), avec t ∈ (−∞, ∞). Sa transformée de Fourier est
donnée par (cf. tableau A.1, annexe A):
... ... t
0
f
1
t
-θ 0 θ
z
-θ θ
t
0
Fig. 2.18 – Relation entre les signaux temporels x(t), f (t) et z(t) = x(t)f (t).
X( ω)
7
6.5
5.56
4.55
3.54 π π
3
2.52
1.51
0.5
0
-0.5 ω
-1
-1.5 −ω 0 +ω
0 0
0
F(ω)
2θ
ω
0
0 2π
θ
Z(ω)
* 1.51
0.50
-0.5
ω
-1 0
-1.5 -ω 0 ω0
f(t)
F(ω)
1
2θ
t ω
−θ 0 θ
-2π 0 2π
θ θ
2
lim F (ω) = lim sin(ωθ) = 2πδ(ω) (2.79)
θ→∞ θ→∞ ω
2π
Rectangulaire 1 F (ω) = 2 θ sinc(ωθ) θ
21.7%
|t|
θ sinc2 ωθ 4π
Triangulaire 1− θ 2 θ
4.7%
πt 1
F (ω) + 41 F ω + π 4π
Hann 0.5[1 + cos θ
] 2 ω θ
2.7%
1 π
+4F ω − θ
πt π 4π
Hamming 0.54 + 0.46 cos θ
0.54F (ω) + 0.23F ω + ω θ
0.7%
+0.23F ω − πθ
x(t)
| X(ω) |
a) A
F
t ω
0 ωs 0 ωs
-
2 2
b)
x e(t) ≡ ∑ x(nT)δ(t-nT) |X e(ω) |
n = -∞
A
T
F
t ω
0 T - ωs - ωs 0 ωs ωs
2 2
Fig. 2.21 – Signaux analogique (a) et échantillonné (b) avec les transformées de
Fourier correspondantes.
d(t)
Fig. 2.22 – Système dynamique avec la sortie non bruitée yp (t), la perturbation d(t)
et la sortie mesurée bruitée y(t).
pour signaux numériques (cf. annexe A.4) peut être utilisée pour calculer X(Ω) avec
Ω = ωT . Il est bien évident que Xe (ω) = X(ωT ). La réponse harmonique du système
échantillonné s’écrit ainsi:
Y (ωT )
G(ejωT ) = (2.84)
U(ωT )
La réponse harmonique d’un processus réel est influencée par les perturbations
possibles (dérives, bruits de mesure, etc.). Celles-ci sont représentées par la pertur-
bation d(t) ajoutée à la sortie non bruitée du système (figure 2.22).
Pour un système linéaire et stationnaire, on obtient ainsi:
Z ∞
y(t) = g(t − τ )u(τ )dτ + d(t) (2.85)
−∞
Pour le système dynamique perturbé de la figure 2.22, et pour autant que l’entrée
u(t) et la perturbation d(t) ne soient pas corrélées, la relation de convolution donnée
par Ruy (τ ) = g(τ ) ∗ Ruu (τ ) et la relation équivalente dans le domaine fréquentiel
φuy (ω) = G(jω)φuu(ω) (illustrée à la figure 2.23) sont applicables.
Les grandeurs φuu (ω) et φuy (ω) sont appelées respectivement la densité spec-
trale de u(t) et la densité interspectrale de u(t) et y(t) et correspondent aux
transformées de Fourier des fonctions d’autocorrélation Ruu (τ ) et d’intercorrélation
Ruy (τ ).
Le principe de l’analyse spectrale consiste à estimer la fonction de transfert par
déconvolution dans le domaine fréquentiel pour obtenir:
φuy (ω)
G(jω) = (2.92)
φuu (ω)
ou
φuy (ωT )
G(ejωT ) = (2.93)
φuu (ωT )
N −1
1 X
Ruy (h) = u(n)y(n + h) h = 0, 1, . . . , N − 1 (2.95)
N n=0
N −1
X k
φuy (ωk ) = Ruy (h)e−j2πkh/N ωk = ωs k = 0, 1, . . . , N − 1 (2.97)
h=0
N
φuy (ωk )
G(ejωk ) = (2.98)
φuu (ωk )
Comme le signal y(n) est périodique de période N (en absence du bruit), il suffit
de considérer les valeurs numériques y(n), n = 0, 1, ...N − 1. On obtient ainsi:
n+N
X−1 N
X −1
−j2πks/N
y(s)e = y(s)e−j2πks/N
s=n s=0
Les grandeurs U(k) et Y (k) sont les transformées de Fourier discrètes des signaux
numériques u(n) et y(n). U(−k) correspond au conjugué complexe de U(k) car le
signal u(n) est réel.
Montrer ce dernier point en explicitant U(k) et son conjugué complexe.
De manière analogue, on obtient:
1
φuu (ωk ) = U(−k)U(k) (2.102)
N
Ce qui donne:
φuy (ωk ) U(−k)Y (k) Y (k)
G(ejωk ) = = = (2.103)
φuu (ωk ) U(−k)U(k) U(k)
Quel est l’effet de conditions initiales non nulles sur le résultat de l’identification
(par exemple le fait de ne pas travailler avec des variables écart)?
L’idée est d’améliorer l’estimation de φuu (ωk ) et φuy (ωk ) avant de procéder au
calcul de G(ejωk ).
Deux approches propres à l’analyse spectrale sont proposées pour réduire cette
variabilité: une méthode directe (moyenne sur plusieurs estimations) et une méthode
indirecte (lissage fréquentiel).
a) Moyenne sur plusieurs estimations
L’idée est de réduire la variabilité de nature aléatoire des densités spectrale
et interspectrale φuu (ωk ) et φuy (ωk ) en calculant une moyenne sur plusieurs
estimations. Pour le cas de m estimations indépendantes, on a:
m
1 X
φuu (ωk ) = φuu,i (ωk ) (2.106)
m i=1
m
1 X
φuy (ωk ) = φuy,i(ωk ) (2.107)
m i=1
et finalement:
φuy (ωk )
G(ejωk ) = (2.108)
φuu (ωk )
78 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
temporel
1
Rectangulaire
0.9 Triangulaire
Hann
0.8
0.7
0.6
f (h)
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50
h
Hann
0.5 + 0.5 cos(πh/M) h = 0, 1, . . . , M
f (h) = (2.113)
0 h>M
Hamming
0.54 + 0.46 cos(πh/M) h = 0, 1, . . . , M
f (h) = (2.114)
0 h>M
Les fenêtres rectangulaires et de Hann sont illustrées dans les domaines tem-
porel et fréquentiel aux figures 2.25 et 2.26. L’effet du choix de M est illustré
à la figure 2.27 pour le cas de la fenêtre de Hann.
Si M est grand, l’effet de lissage de la fenêtre sera réduit. D’autre part si M est
trop petit, des parties essentielles des fonctions de corrélation seront perdues
par effet de lissage. On choisira donc M comme un compromis entre les deux
objectifs suivants:
• bon lissage de façon à réduire la variabilité de G(ejωk )(M petit par rapport
à N),
• bonne résolution (M suffisamment grand de façon à ce que |Ruu (M)| <<
Ruu (0) et ainsi à ne pas perdre de l’information utile).
La valeur M = 20 − 30 est souvent recommandée. Si un système possède des
pics de résonance serrés, il convient de moins lisser (M plus grand). Notons
enfin que pour M = N, il n’y a plus d’effet de lissage et l’on retrouve l’es-
timation donnée par (2.103). Si l’entrée est un bruit blanc à variance unité
(Ruu (0) = 1), Ruy (h) représente la réponse impulsionnelle du système (Eq.
2.56). Dans ce cas, M doit être plus grand que le temps d’établissement de la
réponse impulsionnelle du système.
80 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
35
Rectangulaire
Hann
30
25
|F (ω)|
20
15
10
0
0 0.2 0.4 0.6 0.8 1
ω
35
Hann (M=15)
Hann (M=60)
30
25
|F (ω)|
20
15
10
0
0 0.2 0.4 0.6 0.8 1
ω
fonctions lissage
pour l'estimation de i spectrales moyennes harmonique
temporel
Fig. 2.28 – Etapes de calcul pour l’analyse spectrale basée sur un lissage fréquentiel
et une moyenne sur plusieurs estimations.
s d
yc + + yp +
e GR(s) u GP (s) y
+ +
-
Fig. 2.29 – Système bouclé illustrant l’excitation externe yc (t) ou s(t) et la pertur-
bation d(t).
L’équation (2.115) indique que pour le cas réaliste φud (ω) 6= 0 avec excitation
82 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
externe, l’estimation de GP (jω) sur la base de φuu (ω) et φuy (ω) est erronée. Deux
cas limites se présentent:
i) S’il n’y a pas de perturbation (d = 0), il en résulte φud (ω) = 0 et ĜP (jω) =
GP (jω).
ii) Si yc = s = 0 (sans excitation externe), on a: e = −y et
φsy (ω)
ĜP (jω) = (2.119)
φsu (ω)
φyc y (ω)
ĜP (jω) = (2.122)
φyc u (ω)
y(t)
τ τ
K
0.63K
0 t
0 τ t1 t1 +τ
y(t)
K
τ
0.37K
τ
0 t
0 τ t1 t1 +τ
0 t
θ θ+τ
Bien que cette méthode ne représente qu’une approximation grossière, elle est
souvent suffisante pour la synthèse d’un régulateur.
Ces pôles peuvent être réels distincts, réels confondus ou conjugués complexes, donc
trois cas peuvent être considérés:
86 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
Cas sur-amorti: (ζ > 1) La fonction de transfert G(s) peut dans ce cas être dé-
composée en deux facteurs du premier ordre:
1
G(s) = K (2.129)
(τ1 s + 1)(τ2 s + 1)
τ1 e−t/τ1 − τ2 e−t/τ2
y(t) = K 1 − t≥0 (2.130)
τ1 − τ2
K
G(s) = (2.131)
(τ s + 1)2
K
y(t) = K − p e−ζωn t sin(ωt + θ) t≥0 (2.133)
1 − ζ2
p
avec ω = ωn 1 − ζ 2 et θ = arccos ζ est représentée à la figure 2.33. Un point
particulier est le premier maximum qu’il est important de connaı̂tre et facile
à mesurer. Ses coordonnées tp et y(tp ) sont obtenues en exploitant la première
dérivée de la réponse indicielle qui est également la réponse impulsionnelle de
G(s):
Kωn −ζωn t
ẏ(t) = p e sin ωt t≥0 (2.134)
1 − ζ2
Le premier maximum est obtenu pour ωtp = π. Ainsi
π √−ζπ
tp = p et y(tp ) = K + Ke 1−ζ 2 (2.135)
ωn 1 − ζ 2
10
9
√−ζπ
Ke 1−ζ 2
8
K
7
6
Amplitude
1 tp = √π
ωn 1−ζ 2
0
0 5 10 15 20 25 30 35
Time (sec)
Fig. 2.33 – Réponse indicielle d’un système sous-amorti du deuxième ordre sans
zéro.
a = G−1 g (2.142)
a = G+ g (2.143)
G(jω)
K
-1
-2
ω
1 1
τ1 τ2
Fig. 2.34 – Approche graphique pour déterminer les paramètres d’un système du
second ordre.
S’il est nécessaire d’inclure un retard pur, lequel se manifestera sur l’argument
de G(jω), on choisira alors:
Ke−θs
G(s) = (2.146)
(τ1 s + 1)
N N m
2
X
2
X bm (jω k ) + · · · + b1 (jω k ) + b0
min |εs (jωk )| = min G(jωk ) −
n
(2.147)
θ θ an (jωk ) + · · · + a1 (jωk ) + 1
k=1 k=1
où θ = [a1 , ...an , b0 , ...bm ]T est le vecteur de paramètres. Comme l’erreur entre la va-
leur expérimentale G(jωk ) et la valeur correspondante du modèle est non linéaire par
rapport aux paramètres à estimer, il n’existe en général pas de solution analytique
et donc de garantie d’un minimum global.
On peut contourner ce problème avec la méthode de Levy qui propose de
minimiser le critère quadratique suivant:
N
X
Jℓ (θ) = min [an (jωk )n + . . . + a1 (jωk ) + 1]G(jωk )
θ
k=1
2
− [bm (jωk )m + . . . + b1 (jωk ) + b0 ] (2.148)
90 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
ε(jωk ) = [an (jωk )n +. . .+a1 (jωk )+1]G(jωk )−[bm (jωk )m +. . .+b1 (jωk )+b0 ] (2.149)
En définissant:
Re {G(jω1 )}
Re {G(jω2 )}
..
.
Re {G(jωN )}
G= (2.151)
Im {G(jω1 )}
Im {G(jω2 )}
..
.
Im {G(jωN )}
−Re {(jω1 )G(jω1 )} ... −Re {(jω1 )n G(jω1 )} 1 Re {jω1 } ... Re {jω1 }m
−Re {(jω2 )G(jω2 )} ... −Re {(jω2 )n G(jω2 )} 1 Re {jω2 } ... Re {jω2 }m
.. .. .. .. ..
. . . . .
−Re {(jωN )G(jωN )} . . . −Re {(jωN )n G(jωN )} 1 Re {jωN } ... Re {jωN }m
Φ=
−Im {(jω1 )G(jω1 )} . . . −Im {(jω1 )n G(jω1 )}
0 Im {jω1 } ... Im {jω1 }m
−Im {(jω2 )G(jω2 )} . . . −Im {(jω2 )n G(jω2 )} Im {jω2 }m
0 Im {jω2 } ...
.. .. .. .. ..
. . . . .
−Im {(jωN )G(jωN )} . . . −Im {(jωN )n G(jωN )} 0 Im {jωN } ... Im {jωN }m
et
E = G − Φθ
le critère (2.148) devient:
Jℓ (θ) = min E T E
θ
Remarque: Il faut noter que ε(jωk ) = [an (jωk )n + . . . + a1 (jωk ) + 1]εs (jωk )
qui montre que l’erreur linéaire ε(jωk ) est beaucoup plus importante en hautes
fréquences qu’en basses fréquences. Ceci conduit en général à une mauvaise
identification de la fonction de transfert aux basses fréquences. Il est pos-
sible de modifier la méthode de Levy avec une pondération adéquate (avec
1
) de l’erreur ε(jωk ) où ân , . . . , â1 sont des paramètres
ân (jωk )n + . . . + â1 (jωk ) + 1
estimés avec la méthode de Levy standard.
j= 0 j= 0
!
j= 0 g(K − 1) R uu ( N − 1) ! R uu ( N − K ) R uy ( N − 1)
Analyse fréquentielle Analyse spectrale
conv
Y( k ) − D(k) φ uy (ω k )
déconv G(e jω k ) = G(e jω k ) =
U( k ) φ uu (ω k )
Exercice 1
Enoncé :
a) Déterminer la transformée de Fourier discrète X(k) du signal numérique suivant
défini pour 8 points d’échantillonnage (T = 1; n = 0, 1, ...7):
xn
4 6 n
0 2
-1
N
X −1
X(k) = xn e−j2πnk/N k = 0, 1, . . . , N − 1
n=0
2.8 EXERCICES RÉSOLUS 93
Ici N = 8, ainsi k = 0, 1, . . . , 7 :
7
X 3
X 7
X
−j2πnk/8 −j2πnk/8
X(k) = xn e = 1e + (−1)e−j2πnk/8
n=0 n=0 4
(1 − e−jπk )2 (1 − e−j4ωk )2
X(k) = = k = 0, 1, . . . , 7
1 − e−j(π/4)k 1 − e−jωk
2π k π
ωk = =k k = 0, 1, . . . , 7
1 8 4
b) Signal périodique
• La transformée de Fourier discrète suppose déjà un signal qui se répète
périodiquement. Ainsi, le contenu spectral trouvé sous a) ne changera pas si
plusieurs périodes sont considérées. Seule l’amplitude variera: si p périodes
sont considérées, l’amplitude sera amplifiée par p.
• Dans le cas de la série de Fourier d’un signal numérique, comme l’amplitude
ck est pondérée par le terme 1/N, la série de Fourier sera strictement la
même.
c) Signal du point a) échantillonné plus rapidement (T = 0.5)
15
X 7
X 15
X
−j2πnk/16 −j2πnk/16
X(k) = xn e = 1e + (−1)e−j2πnk/16
n=0 n=0 n=8
avec la pulsation:
2π k π
ωk = =k k = 0, 1, . . . , 15
0.5 16 4
0 0 0
x
-0.5 -0.5 -0.5
-1 -1 -1
0 5 10 0 20 40 60 0 5 10 15
k k k
6 50 12
5 40 10
4 8
abs( X(k) )
abs( X(k) )
abs( X(k) )
30
3 6
20
2 4
1 10 2
0 0 0
0 2 4 6 0 2 4 6 0 5 10 15
pulsation [rad/sec] pulsation [rad/sec] pulsation [rad/sec]
Exercice 2
Enoncé : Les échantillons suivants de la réponse impulsionnelle d’un système du
deuxième ordre ont été observés (T = 0.05).
k 0 1 2 3 4 5 6 7 8
g(k) 0 0.68 1.07 1.27 1.34 1.34 1.28 1.21 1.11
• Evaluer G(z) et G(s) ainsi que les pôles et les zéros correspondants pour ce
système.
Solution :
b0 + b1 z −1 + b2 z −2
G(z) =
1 + a1 z −1 + a2 z −2
Réponse impulsionnelle: u(k) = δ(k) ; y(k) = g(k)
k = 0 g(0) = b0 → b0 = 0
1 g(1) + a1 g(0) = b0 δ(1) + b1 → b1 = 0.68
2 g(2) + a1 g(1) + a2 g(0) = b0 δ(2) + b1 δ(1) + b2 → b2 = 1.07 + 0.68a1
3 g(3) + a1 g(2) + a2 g(1) = 0
...
8 g(8) + a1 g(7) + a2 g(6) = 0
−g(3) −g(2) g(1)
a1 a1 −1.575
... = ... ... ⇒ = b2 = −0.0015
a2 a2 0.614
−g(8) −g(7) g(6)
2.8 EXERCICES RÉSOLUS 95
0.68z −1 − 0.0015z −2
G(z) =
1 − 1.576z −1 + 0.614z−2
G(s) à partir de G(z), en utilisant MATLAB d2cm:
7.98s + 344.5 0.41s + 17.8
• zoh: G(s) = 2 =
s + 9.77s + 19.3 0.052s2 + 0.51s + 1
z1 = −43.2 p1 = −2.74 p2 = −7.03
2
−0.21s + 0.036s + 340.4 −0.0011s2 + 0.0019s + 17.9
• tustin: G(s) = =
s2 + 9.69s + 19.03 0.052s2 + 0.51s + 1
z1 = −39.8 z2 = 40.0 p1 = −2.73 p2 = −6.79
Exercice 3
Enoncé : Un signal binaire pseudo-aléatoire de période 7 échantillons:
0.7z −1
G(z) = (2.153)
1 − 0.3z −1
a) Calculer la sortie y(k) ainsi que les fonctions d’autocorrélation Ruu (h) et d’in-
tercorrélation Ruy (h).
b) Utiliser Ruu (h) comme entrée du système et comparer la sortie correspondante
à Ruy (h).
c) Calculer la réponse impulsionnelle du système et la comparer à Ruy (h).
Solution :
a) Calcul de y(k), Ruu(h), Ruy (h)
1. Calcul de la réponse impulsionnelle g(k) à partir de:
∞
X
G(z) = g(k)z −k
k=0
k
X
2. y(k) = g(k − j)u(j) k = 0, 1, 2, . . .
j=0
∗
Ruu (h) Ruy (h)
g(h)
b)
∗
Ruy (h) ≈ Ruy (h) , la différence étant due au nombre fini de points, (N = 1024)
utilisés pour calculer Ruu (h) et Ruy (h).
c) g(h) 6= Ruy (h) car l’entrée aléatoire utilisée n’est pas vraiment blanche.
2.8 EXERCICES RÉSOLUS 97
Exercice 4
Enoncé : Soit le signal analogique suivant:
sin(2t)
x(t) = = sinc(2t)
2t
AW ) Wt
x(t) = sinc
2π 2
Ici:
Wt
2
= 2t → W =4
AW 2π π
2π
=1 → A= W
= 2
98 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
π
→ F {sinc(2t)} = P4 (ω)
2
xn = sinc(2nT )
xn = sinc(nπ)
T = π2
1 pour n = 0
sinc(nπ) = voir figure 2.19
0 pour n 6= 0
∞
X ωπ
X(Ω) = xn e−jΩn = 1 Ω = ωT =
n=−∞
2
Exercice 5
Enoncé : Soient les signaux u(n) et y(n) donnés comme suit pour 3 points d’échan-
tillonage:
n 0 1 2
u(n) 2 1 1
y(n) 1 2 2
Solution :
a) On suppose que les signaux u et y se continuent périodiquement. Pour N = 3,
on peut écrire:
2
1X
Ruy (h) = u(n)y(n + h) h = 0, 1, 2
3 n=0
1 1
Ruy (0) = [u(0)y(0) + u(1)y(1) + u(2)y(2)] = (2 + 2 + 2) = 2
3 3
1 1 7
Ruy (1) = [u(0)y(1) + u(1)y(2) + u(2)y(3)] = (4 + 2 + 1) =
3 3 3
2.8 EXERCICES RÉSOLUS 99
1 1 7
Ruy (2) = [u(0)y(2) + u(1)y(3) + u(2)y(4)] = (4 + 1 + 2) =
3 3 3
N −1
X k
Φuy (ωk ) = Ruy (h)e−j2πkh/N avec ωk = ωs k = 0, 1, 2
h=0
N
7 7 20
Φuy (ω0 ) = 2 + + =
3 3 3
7 −j2π/3 7 −j4π/3
Φuy (ω1 ) = 2 + e + e
3 3
7 −j4π/3 7 −j8π/3 7 7
Φuy (ω2 ) = 2 + e + e = 2 + e−j4π/3 + e−j2π/3
3 3 3 3
1 U(k)
b) Φuy (ωk ) = N U(−k)Y (k) TFD
Y (k)
N
X −1 2
X
j2πkn/N
U(−k) = un e = u(n)ej2πkn/3 k = 0, 1, . . . , N − 1
n=0 n=0
2
X
U(0) = u(n) = 4 Y (0) = 1 + 2 + 2 = 5
n=0
X2
U(−1) = u(n)ej2πn/3 = 2 + ej2π/3 + ej4π/3 Y (1) = 1 + 2e−j2π/3 + 2ej4π/3
n=0
2
X
U(−2) = u(n)ej4πn/3 = 2 + ej4π/3 + ej2π/3 Y (2) = 1 + 2e−j4π/3 + 2ej2π/3
n=0
On obtient ainsi:
1 20
Φuy (ω0 ) = (4)(5) =
3 3
1
Φuy (ω1 ) = (2 + ej2π/3 + ej4π/3 )(1 + 2e−j2π/3 + 2e−j4π/3 )
3
1
= [6 + 7e−j2π/3 + 7e−j4π/3 ]
3
1
Φuy (ω2 ) = (2 + ej4π/3 + ej2π/3 )(1 + 2e−j4π/3 + 2e−j2π/3 )
3
1
= [6 + 7e−j2π/3 + 7e−j4π/3 ]
3
c) Les résultats sont identiques car tous les signaux ont été répétés périodiquement,
de façon explicite pour yn sous point a), de façon implicite pour u(n) et y(n)
sous point b). Si on n’avait pas considéré le signal y(n) comme périodique pour
évaluer Ruy (1), Ruy (2) et φuy (ωk ), k = 0, 1, 2, alors les résultats auraient été
différents.
100 MODÈLES DE REPRÉSENTATION NON PARAMÉTRIQUES
101
Chapitre 3
MODÈLES DE REPRÉSENTATION
PARAMÉTRIQUES
3.1 INTRODUCTION
n
u yp +
PROCESSUS
+ y
ym + es
MODÈLE -
θ̂
IDENTIFICATION CRITÈRE
Fig. 3.1 – Schéma pour l’identification des paramètres du modèle: u, entrée (ajus-
table); yp , sortie du processus (non mesurable); n, bruit (inconnu); y, sortie bruitée
(mesurée); ym , sortie du modèle (calculable); es , erreur de sortie (calculable);θ̂, vec-
teur des paramètres estimés.
se fera sur la base d’un critère d’écart entre des mesures expérimentales provenant
du processus et une «simulation» des équations constituant le modèle (fig. 3.1).
Pour cela, il faudra choisir au préalable:
• la structure du modèle (ou caractérisation du processus),
• le critère de performance,
• l’algorithme d’identification (c’est-à-dire la méthode de calcul des paramètres),
• le signal d’excitation u .
La validation du modèle ainsi obtenu représentera une étape importante de l’iden-
tification.
Par rapport à l’identification d’un modèle paramétrique à partir d’une représen-
tation non paramétrique présentée à la section 2.6, les méthodes présentées dans ce
chapitre comportent de nombreux avantages:
• possibilité d’utiliser des signaux d’excitation d’amplitude réduite,
• meilleure précision,
• suivi des paramètres du modèle en temps réel permettant, si nécessaire, un
ajustement du régulateur pendant le fonctionnement du processus,
• identification des perturbations et des bruits de mesure ce qui permet de mieux
identifier le processus lui-même,
• procédure d’identification plus courte,
• possibilité de valider le modèle obtenu.
Ce chapitre traitera uniquement de l’identification de systèmes dynamiques qui
peuvent être représentés par des modèles monovariables discrets lscr (linéaires, sta-
tionnaires, causals et initialement au repos) de la forme:
n
X m
X
ym (k) + ai ym (k − i) = bj u(k − d − j) k = 0, 1, 2, 3, . . . (3.1)
i=1 j=0
et d connues a priori.
La transformée en z de l’équation aux différences (3.1) donne:
d’où
Ym (z) b0 + b1 z −1 + . . . + bm z −m B(z)
G(z) = = z −d −1 −n
= z −d (3.3)
U(z) 1 + a1 z + . . . + an z A(z)
Opérateur retard
Dans le but de simplifier l’écriture des équations aux différences, on introduit
l’opérateur retard q −1 défini comme suit:
avec
A(q −1 ) = 1 + a1 q −1 + . . . + an q −n (3.9)
B(q −1 ) = b0 + b1 q −1 + . . . + bm q −m (3.10)
ym (k) B(q −1 )
G(q −1 ) = = q −d (3.11)
u(k) A(q −1 )
Le bruit n(t) est généralement un signal analogique qui perturbe la sortie analo-
gique du processus yp (t). Comme on considère ici un modèle discret vu au travers de
convertisseurs A/N et N/A, on note par n(k) la contribution discrète du bruit à la
sortie y(k). Le bruit n représente l’effet global de plusieurs sources d’erreur: erreurs
de caractérisation, bruits de mesure, perturbations.
Il existe deux analyses possibles de l’identification selon que l’on considère la
nature aléatoire du bruit comme négligeable et donc y de nature déterministe, ou
alors le bruit comme un signal aléatoire important et y de nature stochastique. Ceci
est décrit brièvement ci-dessous.
• Approche déterministe: La sortie d’un système déterministe est parfaitement
déterminée à partir de ses entrées passées et présente. Bien que les processus
réels soient rarement déterministes, si les erreurs de nature aléatoire (bruits de
mesure) sont faibles, elles peuvent être ignorées et les signaux d’entrée et de
sortie considérés comme parfaitement connus (déterministes). Les paramètres
estimés sont alors également déterministes et peuvent être obtenus à partir
d’un nombre réduit de mesures.
• Approche stochastique: Dans un système stochastique, le signal de sortie est
de type aléatoire et change donc de manière imprévisible. Les paramètres es-
timés sont, à leur tour, des variables aléatoires qu’il convient de caractériser
statistiquement. Le nombre de mesures nécessaires est en général plus élevé
que pour une approche déterministe.
Exemple Soit le circuit électrique RCL donné à la figure 3.2. La mise en équation
donne:
d2 u c duc
u = LC + RC + uc
dt2 dt
duc
y = RC
dt
et ainsi la fonction de transfert suivante:
Y (s) RCs
G(s) = = (3.12)
U(s) LCs2 + RCs + 1
y(k) b0 + b1 q −1
G(q −1 ) = = q −1 (3.13)
u(k) 1 + a1 q −1 + a2 q −2
Si le retard d était zéro, y(k) répondrait instantanément à un saut de tension
u(k), ce qui est impossible aux bornes d’une capacité. Le vecteur de paramètres,
dans ce cas θ = (a1 , a2 , b0 , b1 )T , peut être identifié à partir de mesures de u(k) et
y(k) comme on le verra plus loin. A partir de G(q −1 ), on peut calculer une fonction
de transfert analogique de la forme (cf. § 1.3.3.2):
βs
G(s) = (3.14)
α2 s2 + α1 s + 1
3.2 MODÈLE DU PROCESSUS 105
iL L C
uC
u R y
L’identification des paramètres physiques se fait alors sur la base d’une compa-
raison des coefficients des fonctions de transfert (3.12) et (3.14):
LC = α2 (3.15)
RC = α1 = β (3.16)
Il s’agit là d’un système de deux équations algébriques non linéaires possédant
trois inconnues R, L et C. Il sera donc impossible d’identifier les paramètres phy-
siques au-delà d’un facteur multiplicatif près.
n(k)
u(k) y p(k) +
N/A PROCESSUS A/N +
y(k)
y m(k) + es(k)
G(q-1) -
Pour le modèle
ym (k) B(q −1 )
G(q −1 ) = = q −d (3.18)
u(k) A(q −1 )
l’équation aux différences correspondante s’écrit:
ym (k) = −a1 ym (k − 1) − . . . − an ym (k − n)
+ b0 u(k − d) + b1 u(k − d − 1) + . . . + bm u(k − d − m) (3.19)
B(q −1 )
es (k) = y(k) − ym (k) = y(k) − q −d u(k) (3.20)
A(q −1 )
dans laquelle les paramètres ai et bj interviennent de façon non linéaire.
Afin d’exprimer la qualité d’un modèle proposé, on considère la somme des er-
reurs de sortie quadratiques. Pour déterminer le meilleur modèle, on minimisera
3.3 CRITÈRES DE PERFORMANCE 107
n(k)
u(k) y p(k) +
N/A PROCESSUS A/N y(k)
+
- +
q-d B (q-1) A (q-1)
ee(k)
et est donc la différence entre la sortie y(k) filtrée à l’aide du dénominateur A(q −1 )
de la fonction de transfert et l’entrée u(k) filtrée à l’aide du numérateur q −d B(q −1 )
de la fonction de transfert (fig. 3.4).
Comme les échantillons u(k − d), . . . , u(k − d − m) sont donnés et les échantillons
y(k), . . . , y(k − n) sont mesurés, l’erreur d’équation ee (k) est linéaire par rapport
aux paramètres θ, c’est-à-dire ai et bj (i = 1, 2, ...n; j = 0, 1, . . . , m).
On peut également écrire l’équation (3.22) sous la forme:
n(k)
u(k) yp (k) +
N/A PROCESSUS A/N +
y(k)
ŷ(k) + ε(k)
q −1 F -
Dans le cas d’un modèle correct, on a ym (k) = yp (k) et donc y(k) = ym (k)+n(k).
En remplaçant y(k) par ym (k) + n(k) dans l’équation (3.23) et en utilisant l’équation
(3.18), on obtient:
ee (k) = A(q −1 )n(k) (3.25)
où F est une fonction à définir. A la section 3.5, plusieurs prédicteurs seront définis
et leur propriétés étudiées dans le cadre de la méthode de l’erreur de prédiction. Ici,
on peut mentionner que l’erreur de sortie es (k) et l’erreur d’équation ee (k) sont des
cas particuliers de l’erreur de prédiction. Si l’on prend la sortie du modèle pour la
sortie prédite (ŷ(k) = ym (k)) on retrouve le critère de l’erreur de sortie. Dans ce cas
la sortie prédite s’écrit:
L’erreur d’équation dans l’équation (3.24) peut aussi être écrite comme une er-
reur de prédiction en choisissant la sortie prédite égale au terme entre crochets de
l’équation (3.24):
L’équation (3.41) indique que θ̂ peut également être interprété comme le résultat
d’une analyse de corrélation (cf. section 2.3) si le nombre de données N tend vers
l’infini:
−1
θ̂ = Rϕϕ (0)Rϕy (0) (3.42)
−1
Notons également que la matrice Pk+1 peut se calculer de façon récurrente comme
suit:
k+1
X k
X
−1
Pk+1 = ϕ(i)ϕT (i) = ϕ(i)ϕT (i) + ϕ(k + 1)ϕT (k + 1)
i=1 i=1
= Pk−1 T
+ ϕ(k + 1)ϕ (k + 1) (3.47)
Il est facile à démontrer que (A + BCD)(A−1 − A−1 B[C −1 + DA−1 B]−1 DA−1 ) = I.
Prenons A = Pk−1 , B = ϕ(k + 1), C = 1, D = ϕT (k + 1) dans l’équation (3.52),
on obtient:
Pk ϕ(k + 1)ϕT (k + 1)Pk
Pk+1 = Pk − (3.55)
1 + ϕT (k + 1)Pk ϕ(k + 1)
Cette équation a l’avantage de ne pas nécessiter l’inversion d’une matrice, mais
uniquement celle d’un scalaire.
Il existe deux façons d’initialiser la récurrence:
• des valeurs initiales sont fixées, généralement θ̂0 = 0 et P0 = αI où α représente
un très grand scalaire (par exemple α = 10000) et I la matrice unité,
• la récurrence commence à l’itération p + 1 (si l’on estime p paramètres) avec:
θ̂p = Φ−1
p yp et Pp = [ΦTp Φp ]−1 (3.56)
EW ≡ W [Y − Φθ] (3.58)
Un critère de choix indique que les mesures plus anciennes possèdent une in-
fluence réduite dans le calcul des paramètres actuels. L’influence des mesures plus
anciennes est artificiellement réduite par l’introduction du facteur d’oubli λ, par
exemple:
λN −1 0
..
.
T 0
W W = avec λ ≤ 1 (souvent 0.9 ≤ λ ≤ 0.99) (3.63)
1
λ
0 λ0
3.4.2.4 Exemple
avec θ0 = [a0 b0 ]T les vrais paramètres du système, u(k) l’entrée spécifiée, y(k) la
sortie mesurée et e0 (k) un bruit blanc de moyenne nulle. Remarquons que dans cet
exemple e0 (k) ne correspond pas au traditionnel bruit additif sur la sortie («bruit
de sortie»), mais plutôt à un «bruit d’équation» blanc.
L’objectif est d’estimer le vecteur de paramètres θ sur la base des séquences
d’entrée et de sortie u(k) et y(k). La minimisation du critère quadratique basé sur
l’erreur d’équation sera utilisé.
[−0.5 0.5]T
k < 200
θ0 = T pour
[0.5 − 0.5] k ≥ 200
Le même algorithme que précédemment est utilisé et donne les résultats repré-
sentés à la figure 3.7. On remarque que les paramètres estimés ne convergent pas
vers les vraies valeurs car la matrice P , et donc le gain P ϕ, sont trop faibles pour
forcer une correction lorsque le système change à k = 200. Il faudra introduire un
facteur d’oubli de façon à ce que les éléments de P ne tendent pas asymptotiquement
vers 0.
Système non stationnaire, avec facteur d’oubli: Pour le système non stationnaire
précédent, l’utilisation d’un facteur d’oubli (λ = 0.97) permet de conserver un gain
suffisant pour suivre la variation des paramètres. Les éléments de P augmentent
(grâce à λ < 1) lorsque l’excitation du système est faible mais, comme auparavant,
diminuent rapidement lorsque le système est fortement excité (il est intéressant de
116 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
u a) y b)
2
1
0.5 1
0 0
-0.5 -1
-1
-2
0 200 400 600 0 200 400 600
-1 0
0 200 400 600 0 200 400 600
Fig. 3.6 – Identification des paramètres d’un système stationnaire: (a) signal d’en-
trée; (b) sortie bruitée; (c) paramètres estimés; (d) éléments de la matrice P .
u a) y b)
2
1
0.5 1
0 0
-0.5 -1
-1
-2
0 200 400 600 0 200 400 600
^
θ c) P11, P12 = P21, P22 d)
1 1
0.8
0.5
^
b
0.6
0
0.4
-0.5
0.2
^a
-1 0
0 200 400 600 0 200 400 600
Fig. 3.7 – Identification des paramètres d’un système non stationnaire sans facteur
d’oubli: (a) signal d’entrée; (b) sortie bruitée; (c) paramètres estimés; (d) éléments
de la matrice P .
3.4 ALGORITHME DES MOINDRES CARRÉS 117
u a) y b)
2
1
0.5 1
0 0
-0.5 -1
-1
-2
0 200 400 600 0 200 400 600
^
θ c) P11, P12 = P21, P22 d)
1 3
0.5 2
^
b
0 1
-0.5 0
^a
-1 -1
0 200 400 600 0 200 400 600
Fig. 3.8 – Identification des paramètres d’un système non stationnaire avec facteur
d’oubli (λ = 0.97): (a) signal d’entrée; (b) sortie bruitée; (c) paramètres estimés; (d)
éléments de la matrice P .
comparer le comportement des éléments de P dans les figures 3.7d et 3.8d). Comme
le gain d’adaptation reste suffisant, l’algorithme peut ajuster correctement la valeur
des paramètres (fig. 3.8c).
y(k) = −a01 y(k −1)−· · ·−a0n0 y(k −n0)+b00 u(k −d0 )+· · ·+b0m0 u(k −d0 −m0 )+e0(k)
= ϕT (k)θ0 + e0 (k) (3.69)
où θ0 est le vecteur de vrais paramètres. On peut expliciter les paramètres du modèle
du processus sous la forme régressive vectorielle suivante:
Y = Φθ0 + E0 (3.70)
118 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
E = Y − Φθ (3.71)
où θ est le vecteur des paramètres à identifier et E le vecteur des erreurs de prédiction
à minimiser. Pour le cas d’une structure de modèle correcte (c’est-à-dire n = n0 ,
m = m0 et d = d0 ), en combinant ces deux dernières équations, on peut expliciter
le vecteur des erreurs de prédiction comme suit:
Ainsi, le biais sera nulle si les deux conditions suivantes sont satisfaites:
1. la matrice Rϕϕ (0) est régulière,
2. Rϕe0 (0) = 0
La condition 1 est remplie si le système est «suffisamment» excité (cf. § 3.7.3).
La condition 2 impose que le bruit d’équation e0 (k) du (vrai) système ne soit pas
corrélé avec le régresseur ϕ(k). Cette condition est vérifiée si e0 (k) est un bruit blanc.
Mais en réalité, il est très peu probable que e0 (k) soit blanc. Supposons que e0 (k)
est un bruit coloré et peut s’exprimer comme C0 (q −1 )e(k), c’est-à-dire le bruit blanc
de moyenne nulle e(k) filtré par le polynôme C0 (q −1 ) = 1 + c01 q −1 + · · · + c0p q −p .
Rϕe0 (0) devient ainsi:
−y(k − 1)
..
.
−y(k − n)
Rϕe0 (0) = E [e(k) + c01 e(k − 1) + · · · + c0p e(k − p)] (3.76)
u(k − d)
..
.
u(k − d − m)
3.4 ALGORITHME DES MOINDRES CARRÉS 119
En général, Rϕe0 6= 0 car, par exemple, e(k − 1) influence à la fois e0 (k) et ϕ(k)
par l’intermédiaire de y(k − 1).
La matrice de covariance des paramètres estimés peut être déterminée à partir
de l’équation (3.73):
Si le bruit d’équation e0 (k) est blanc nous avons E{E0 E0T } = σ02 I, où σ02 est la
variance du bruit e0 (k) et I est la matrice unité. On obtient donc:
" #−1
2 N
2 T −1 σ0 1 X
T
cov(θ̂) = σ0 E{(Φ Φ) } = E ϕ(k)ϕ (k) (3.79)
N N k=1
où ΦIV est une matrice de variables instrumentales (ou, de manière équivalente, ϕIV
est un vecteur de variables instrumentales).
Une analyse tout à fait similaire à celle de la section 3.4.3 indique que l’erreur
d’estimation sera nulle si les deux conditions suivantes sont satisfaites:
• la matrice ΦTIV Φ est régulière,
• RϕIV e0 (0) = 0
ce qui signifie que les variables instrumentales doivent être corrélées avec le ré-
gresseur ϕ mais non corrélées avec le bruit e0 . Pour un nombre fini de données,
RϕIV e0 (0) n’est pas nulle mais elle sera très petite. Il en résulte que la grandeur
du biais dépendra aussi de la grandeur de la matrice ΦTIV Φ. Le meilleur vecteur de
variables instrumentales est celui qui rend le plus grand possible la matrice ΦTIV Φ.
Pour cela, ϕIV (k) doit être une approximation non bruitée du régresseur ϕ(k).
Plusieurs possibilités existent pour le choix des variables instrumentales, notam-
ment:
1. Décalage de h coups d’horloge des variables bruitées dans le régresseur ϕ
où yM (k) est une approximation de yp (k) (la sortie non bruitée) générée à partir
d’un modèle auxiliaire dont l’entrée est u(k). Comme il faut disposer d’un mo-
dèle auxiliaire suffisamment représentatif, on initialise souvent cette approche
avec la solution obtenue à partir des moindres carrés linéaires. L’avantage de
ce choix est qu’il n’a pas besoin d’informations et d’hypothèses sur le bruit.
3.5 MÉTHODE DE L’ERREUR DE PRÉDICTION 121
Supposons que la sortie mesurée du système puisse être exprimée comme suit:
y(k) = G0 (q −1 )u(k) + n(k) (3.85)
où n(k) est un bruit stationnaire à moyenne nulle indépendant de l’entrée et G0 (q −1 )
est le vrai modèle du système avec une fonction de transfert d’ordre fini représentée
par:
q −d0 B0 (q −1 )
G0 (q −1 ) = (3.86)
A0 (q −1 )
122 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
n(k)
avec
où ŷ(k, θ0 ) est la sortie prédite à l’instant k qui dépend du vecteur de paramètres du
vrai modèle θ0 . Comme θ0 est en principe inconnu, on peut construire un prédicteur
paramétrisé où le vecteur θ0 est remplacé par un vecteur de paramètres inconnu θ
comme suit:
q −d B(q −1 )
ŷ(k, θ) = G(q −1 , θ)u(k) = u(k) (3.91)
A(q −1 )
où G(q −1 , θ) est l’ensemble des modèles candidats pour le vrai modèle avec:
B(q −1 ) = b0 + b1 q −1 + · · · + bm q −m (3.92)
A(q −1 ) = 1 + a1 q −1 + · · · + an q −n (3.93)
θT = [a1 , . . . an , b0 , . . . , bm ] (3.94)
n(k)
prédiction s’écrit:
L’estimation des paramètres est donc non biaisée car n(k) n’est pas corrélé avec le
régresseur ϕf (k) qui ne contient que le signal d’entrée.
Comme le bruit à l’instant k est un bruit blanc filtré, il dépend aussi des valeurs
passées de e (donc disponibles) à l’instant k −1. Pour trouver les éléments prévisibles
du bruit, il est exprimé comme suit:
C0 (q −1 ) − D0 (q −1 )
On observe que n(k) contient deux termes: e(k) et e(k). Le
D0 (q −1 )
deuxième terme e(k) est toute à fait imprévisible à l’instant k − 1, tandis que le
premier terme est prévisible si H0 (q −1 ) est connu. Ceci peut être expliqué en déve-
loppant la différence de C0 (q −1 ) et D0 (q −1 ) qui sont des polynômes moniques:
n(k)
ym +
G(q −1) -
H −1(q −1)
ε(k)
On s’aperçoit que le premier terme de n(k) à l’équation (3.104) ne dépend que des
valeurs de e(k − 1), e(k − 2), . . . et est donc accessible à l’instant k − 1. Ceci nous
permet de définir le meilleur prédicteur de la sortie pour la structure générale (3.103)
comme suit:
ŷ(k, θ0 ) = G0 (q −1 )u(k) + [H0 (q −1 ) − 1]e(k) (3.106)
où θ0 contient les paramètres du modèle du processus G0 (q −1 ) et du modèle du bruit
H0 (q −1 ). Avec ce prédicteur idéal, l’erreur de prédiction sera égale au bruit blanc
e(k) et donc également blanche:
ce qui donne:
ε(k, θ) = H −1 (q −1 )[y(k) − G(q −1 )u(k)] (3.110)
La figure 3.11 montre le schéma de calcul de l’erreur de prédiction explicitant les
modèles du processus et du bruit. En remplaçant y(k) de l’équation (3.103) dans
126 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
Cette structure modélise le bruit n(k) par un bruit blanc filtré à l’aide du déno-
minateur du modèle du processus (fig. 3.12):
q −d0 B0 (q −1 ) 1
y(k) = u(k) + e(k) (3.112)
A0 (q −1 ) A0 (q −1 )
Cette hypothèse est très contraignante mais, comme on le verra par la suite, a l’avan-
tage que le prédicteur basé sur cette structure est linéaire par rapport aux vecteur
de paramètres du modèle à identifier. Ceci nous permet de résoudre le problème de
minimisation de l’erreur de prédiction de façon analytique et trouver le minimum
global.
Cette structure est connue sous la dénomination ARX, où AR fait référence au
terme auto-regressif A0 (q −1 )y(k) (quand on multiplie les deux cotés de l’équation
(3.112) par A0 (q −1 )) et X à l’entrée externe u(k).
Le prédicteur de la sortie pour le modèle ARX s’obtient en remplaçant H(q −1)
1
par dans l’équation (3.108):
A(q −1 )
q −d B(q −1 ) 1
ŷ(k) = −1
u(k) + [ − 1]ε(k) (3.113)
A(q ) A(q −1 )
3.5 MÉTHODE DE L’ERREUR DE PRÉDICTION 127
e(k)
1
A0 (q −1 )
n(k)
u(k) q −d0 B0 (q −1 ) yp (k) + y(k)
A0 (q −1 ) +
1
L’erreur de prédiction est obtenu aussi en remplaçant H(q −1 ) par dans
A(q −1 )
l’équation (3.110):
q −d B(q −1 )
ε(k) = A(q −1 )[y(k) − u(k)]
A(q −1 )
= A(q −1 )y(k) − B(q −1 )u(k − d)
= y(k) − a1 y(k − 1) − · · · − an y(k − n) + b0 u(k − d) + · · · + bm u(k − d − m)
= y(k) − ϕT (k)θ
On observe que l’équation de l’erreur de prédiction pour le modèle ARX et la même
que l’erreur d’équation (3.23). Ceci nous permet d’utiliser l’algorithme des moindres
carrés pour la minimisation du critère quadratique basé sur l’erreur de prédiction.
L’estimation du vecteur de paramètres sera non biaisé si le bruit sur la sortie est un
bruit blanc filtré par le dénominateur du modèle du processus.
e(k)
C0 (q −1 )
A0 (q −1 )
n(k)
u(k) q −d0 B0 (q −1 ) yp (k) + y(k)
A0 (q −1 ) +
C(q −1 )
En remplaçant H(q −1) par dans l’équation (3.108) on obtient la prédic-
A(q −1 )
tion de la sortie pour le modèle ARMAX:
q −d B(q −1 ) C(q −1 )
ŷ(k) = u(k) + [ − 1]ε(k) (3.115)
A(q −1 ) A(q −1 )
A(q −1 ) q −d B(q −1 )
ε(k) = [y(k) − u(k)]
C(q −1 ) A(q −1 )
1
= −1
[A(q −1 )y(k) − B(q −1 )u(k − d)] (3.116)
C(q )
La structure proposée par Box et Jenkins 3.14 est plus générale car les modèles
du processus et du bruit n’ont pas de facteur communs. Ainsi, on a plus de degré de
liberté pour modéliser le bruit mais également plus de paramètres à identifier. La
sortie mesurée est représentée par:
q −d0 B0 (q −1 ) C0 (q −1 )
y(k) = u(k) + e(k) (3.117)
A0 (q −1 ) D0 (q −1 )
Cette structure conduit aussi à un prédicteur non linéaire par rapport au vecteur
de paramètres:
q −d B(q −1 ) C(q −1 )
ŷ(k) = u(k) + [ − 1]ε(k) (3.118)
A(q −1 ) D(q −1 )
3.5 MÉTHODE DE L’ERREUR DE PRÉDICTION 129
e(k)
C0 (q −1 )
D0 (q −1 )
n(k)
u(k) q −d0 B0 (q −1 ) yp (k) + y(k)
A0 (q −1 ) +
D(q −1 ) q −d B(q −1 )
ε(k) = [y(k) − u(k)] (3.119)
C(q −1 ) A(q −1 )
Pour les structures FIR et ARX, l’erreur de prédiction est linéaire par rapport au
vecteur de paramètres à identifier et donc le minimum du critère (3.84) peut être
calculé avec la méthode des moindres carrés présentée à la section 3.4. Les autres
structures résultent en un problème d’optimisation non linéaire pour laquelle on
utilise le plus souvent l’algorithme itératif de Gauss-Newton. Une autre approche
est de résoudre ce problème de manière itérative en résolvant à chaque itération
un problème de régression linéaire d’où le nom de régression pseudo-linéaire.
Il convient de noter qu’un problème d’optimisation non linéaire possède en général
plusieurs solutions avec la possibilité d’optima locaux. Nous allons étudier ces deux
approches par la suite.
Cette équation peut être représentée sous forme vectorielle comme suit:
où
ϕTe (k) = [−ŷ(k − 1), . . . , −ŷ(k − n), u(k − d), . . . , u(k − d − m)] (3.123)
θT = [a1 , . . . , an , b0 , . . . , bm ] (3.124)
L’erreur de prédiction ε(k) = y(k) − ϕTe (k)θ a la forme d’une régression linéaire
mais en réalité c’est un problème de régression non linéaire car le régresseur ϕe (k)
contient la sortie estimée ŷ qui est une fonction de θ. Ce problème peut être résolu
avec une méthode itérative avec l’algorithme suivant:
" N #−1 " N #
X X
θ̂i+1 = ϕe (k, θ̂i )ϕTe (k, θ̂i ) ϕe (k, θ̂i )y(k) (3.125)
k=1 k=1
ϕTx (k) = [−y(k − 1), . . . , −y(k − n), u(k − d), . . . , u(k − d − m),
ε(k − 1), . . . , ε(k − p)] (3.127)
T
θ = [a1 , . . . , an , b0 , . . . , bm , c1 , . . . , cp ] (3.128)
Une estimation de θ s’obtient en remplaçant ϕe (k, θ̂i ) par ϕx (k, θ̂i ) dans l’équation
(3.125).
Reformuler l’erreur de prédiction de la structure Box-Jenkins sous forme d’une
régression pseudo-linéaire.
Le deuxième terme de Hessien est ignoré car il est très petit par rapport au premier
terme au voisinage de la solution (ε(k) s’approche du bruit blanc e(k) dont la somme
sur N données converge vers zéro quand N tend vers l’infini). Pour implanter l’al-
gorithme de Gauss-Newton on a besoin de calculer le gradient de la prédiction de la
sortie ψ(k).
A titre d’exemple, on calcule ψ(k) pour la structure de l’erreur de sortie avec le
prédicteur suivant:
q −d B(q −1 ) b0 + b1 q −1 + · · · + bm q −m
ŷ(k) = u(k) = u(k − d) (3.133)
A(q −1 ) 1 + a1 q −1 + · · · + an q −n
On calcule la dérivée de ŷ(k) pour les paramètres du numérateur et du dénominateur
séparément:
∂ ŷ q −i 1
= −1
u(k − d) = u(k − d − i) i = 0, . . . , m (3.134)
∂bi A(q ) A(q −1 )
∂ ŷ −q −i B(q −1 ) −1
= u(k − d) = ŷ(k − i) i = 1, . . . , n (3.135)
∂ai A2 (q −1 ) A(q −1 )
On obtient donc:
1
ψ T (k) = [−ŷ(k − 1), . . . , −ŷ(k − n), u(k − d), . . . , u(k − d − m)]
A(q −1 )
1
= −1
ϕTe (k) (3.136)
A(q )
132 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
ϕTe (k, θ̂i ) = [−ŷ(k − 1, θ̂i ), . . . , −ŷ(k − n, θ̂i ), u(k − d), . . . .u(k − m)]
N
−2 X
′
6. Calculer le gradient du critère J (θ̂i ) = ψ(k, θ̂i )ε(k, θ̂i )
N k=1
N
2 X
′′
7. Calculer le Hessien du critère J (θ̂i ) = ψ(k, θ̂i )ψ T (k, θ̂i )
N k=1
8. Calculer θ̂i+1 = θ̂i − [J ′′ (θ̂i )]−1 J ′ (θ̂i )
9. Si (θ̂i+1 − θ̂i )T (θ̂i+1 − θ̂i ) < ǫ, arrêter l’algorithme avec θ̂ = θ̂i+1 sinon i = i + 1
et retourner à 3.
Cet algorithme utilisé aussi dans MATLAB converge normalement après moins d’une
dizaine d’itérations.
1
Montrer que pour la structure ARMAX le vecteur ψ(k) = ϕx (k) avec
C(q −1 )
ϕx (k) défini à l’équation (3.127).
Remarque: Rappelons que la sortie mesurée d’un système est une variable aléatoire
à cause de l’influence du bruit sur la sortie. De même, l’erreur de prédiction ε(k) et
le vecteur de paramètres estimés θ̂ sont aussi des variables aléatoires dans le sens
qu’avec l’ acquisition d’une nouvelle donnée on a une réalisation du bruit et donc
également une réalisation du vecteur θ̂. La covariance du vecteur de paramètres esti-
més dépendra de la variance du bruit sur la sortie σ02 . La covariance des paramètres
est déterminée à l’aide de la relation suivante (quand N est suffisamment grand):
" N
#−1
2
σ0 1 X
cov(θ̂) = E{(θ̂ − θ0 )(θ̂ − θ0 )T } = ψ(k)ψ T (k) (3.137)
N N k=1
φuy (ω) = G(ejω )φuu (ω), φyy (ω) = G(ejω )φyu (ω), φuy (ω) = φyu (−ω)
on démontre facilement:
φyy (ω) = |G(ejω )|2 φuu (ω) (3.139)
(3.144)
De façon similaire, en appliquant le théorème de Parseval, on obtient:
Z π
1
θ̂ = arg min |H −1 (ejω )|2 [|G0 (ejω ) − G(ejω )|2 φuu (ω)
θ 2π −π
pour des raisons de stabilité ou de performance, il n’est souvent pas possible d’ou-
vrir la boucle du système commandé. D’autre part, dans le cas d’une commande
adaptative indirecte, la synthèse du régulateur est basée sur un modèle du processus
identifié en boucle fermée. Il est donc utile d’étudier la performance des algorithmes
d’identification paramétrique dans un contexte boucle fermée. On verra qu’il est né-
cessaire de distinguer deux approches: sans et avec excitation externe additionnelle.
Il est évident que la matrice d’information n’est pas de rang plein et est singulière,
donc les paramètres du modèle ne sont pas identifiables. On peut démontrer qu’une
condition suffisante d’identifiabilité est que l’ordre du régulateur soit plus grand ou
égale à l’ordre du modèle. Si un modèle n’est pas identifiable en boucle fermée avec
un régulateur simple (par exemple un PID) on peut changer les paramètres du PID
au cours de l’acquisition des données pour rendre régulière la matrice d’information.
e(k)
H0 (q −1 )
n(k)
yc (k)+ u(k) G (q −1 ) yp (k) + y(k)
GR (q −1 ) 0 +
-
Fig. 3.15 – Schéma d’identification en boucle fermée avec l’excitation externe yc (k).
Dans la pratique, on préfère varier yc (k) plutôt que l’entrée du procédé car cette
variation a un effet plus prévisible sur la grandeur commandée y(k). En effet, le
gain statique du système n’étant pas connu avant le résultat de l’identification, la
variation choisie pour l’entrée du procédé peut s’avérer trop faible (à peine mesurable
en y(k)) ou trop forte (perturbation inacceptable de la production).
Il est possible d’identifier G0 en boucle fermée de façon directe ou indirecte.
Dans cette méthode, le modèle de la boucle fermée entre le signal d’excitation yc (k)
et la sortie y(k) est tout d’abord identifié (avec une identification de type boucle
3.7 ASPECTS PRATIQUES DE L’IDENTIFICATION 137
ouverte). yM (k) est la sortie simulée de ce modèle dont l’entrée est yc (k). Ensuite,
un autre modèle de la boucle fermée entre yc (k) et l’entrée du processus u(k) est
identifié. La sortie de ce modèle à l’entrée yc (k) nous donne le signal uM (k). Ainsi,
le vecteur des variables instrumentales n’est pas corrélé avec le bruit mais fortement
corrélé avec le régresseur.
y(k) GR (q −1 )G0 (q −1 )
GBF (q −1 ) = = (3.151)
yc (k) 1 + GR (q −1 )G0 (q −1 )
et
GBF (q −1 )
GP (q −1 ) = (3.152)
GR (q −1 )[1 − GBF (q −1 )]
Il est surprenant de constater avec l’expérience la diversité des artefacts que peut
ramasser un essai industriel réel (Richalet, 1991):
• défaut d’instrumentation: capteur bloqué, dérive du transducteur, etc.
• défaut d’acquisition: parasite aléatoire sur la chaı̂ne de traitement (isolement
défectueux, etc.),
• défaut de codage (très fréquent): un bit du convertisseur saute aléatoirement
pendant un ou plusieurs échantillons (très pernicieux si cela affecte une entrée),
• défaut de stockage: écrasement partiel du fichier de données,
• défaut d’actionneur: point dur aléatoire d’une vanne, saturation liée à un mau-
vais calibrage de l’essai, etc.
• incident sur le processus: perturbation à basse fréquence de petite amplitude
mais très autoritaire; modification inconnue de l’environnement, etc.
• action intempestive des opérateurs mal informés ou peu coopératifs, etc.
La liste ne sera jamais close. Une inspection attentive de bon sens permet d’éli-
miner les artefacts les plus grossiers. Il ne faut pas hésiter à éliminer les parties
douteuses d’un essai et ne garder que ce qui est interprétable. Quelle que soit la
qualité des traitements ultérieurs, aucun algorithme ne crée d’information («gar-
bage in → garbage out»).
Certains points de mesure, carrément faux, doivent être éliminés afin de ne pas
trop influencer les résultats de l’identification.
Cela peut se faire en représentant graphiquement les valeurs mesurées et en
éliminant (ou corrigeant) les valeurs aberrantes. On peut également détecter ces
valeurs aberrantes en visualisant l’erreur de prédiction (qui sera relativement très
grande pour les points de mesure aberrants).
3.7 ASPECTS PRATIQUES DE L’IDENTIFICATION 139
N
1 X
y= ye (k) (3.156)
N k=1
Pour une identification en temps réel, on utilise la version récurrente des équa-
tions précédentes:
1
u = u(k − 1) + [ue (k) − u(k − 1)] (3.157)
k
1
y = y(k − 1) + [ye (k) − y(k − 1)] (3.158)
k
Il est également possible d’éliminer l’influence du point de fonctionnement en
travaillant avec la dérivée des signaux expérimentaux. Concrètement, on peut
filtrer les données expérimentales à l’aide du filtre L(q −1 ) = 1 − q −1 , ce qui
donne:
u(k) = L(q −1 )ue (k) = ue (k) − ue (k − 1) (3.159)
140 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
n(k)
ue (k) y p (k) + y e (k)
N/A PROCESSUS A/N
+
L (q-1) L (q-1)
u(k) y (k)
y = β0 + β1 k
1 5 10 15 k
y = β0 + β1 k (3.161)
1 2π
ωf = < ω0 = n (3.165)
τf (2 − 1)T
c’est-à-dire:
(2n − 1)T
τf > (3.166)
2π
Le processus à identifier est excité à l’aide du signal d’entrée u(k). Il est impor-
tant de choisir une entrée qui excite tous les modes du système, et donc toutes les
fréquences correspondantes.
Par exemple, un signal d’entrée sinusoı̈dal de pulsation ω0 ne donnera de l’in-
formation qu’à cette pulsation ω0 . Il existe une infinité de systèmes qui génèreront
la même sortie pour cette entrée particulière. Il importe donc que u(k) contiennent
suffisamment de fréquences.
Il convient également que cette excitation soit persistante de façon à assurer que
la matrice ΦT Φ, laquelle contient les entrées et les sorties passées, soit régulière (cf.
équation 3.38). La qualité de l’identification dépend de la «richesse» de l’excitation.
144 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
b̂ b
= (3.176)
1 + â 1+a
avec â 6= a et b̂ 6= b. Si l’entrée reste constante à la valeur u, les sorties du système
et du modèle resteront elles-mêmes constantes aux valeurs suivantes:
b
y(k + 1) = y(k) = u (3.177)
1+a
b̂
ŷ(k + 1) = ŷ(k) = u (3.178)
1 + â
En raison de la relation (3.176), l’erreur de prédiction sera nulle:
avec p
q≥ si p est pair
2
q ≥ p + 1 si p est impair
2
Pour bien identifier les paramètres, il faut donc appliquer une entrée riche en
fréquences. En pratique, on utilise souvent des excitations binaires (deux niveaux de
signal) avec une durée variable par niveau. Cette durée peut varier linéairement ou
être générée de manière pseudo-aléatoire.
3.7 ASPECTS PRATIQUES DE L’IDENTIFICATION 145
3.7.3.2 Amplitude
Les relations (3.182) et (3.183) fixent une borne inférieure pour n et L. Par
exemple pour τ /T = 10, on obtient:
n > max(5, 40/p)
L > (2n − 1)pT
Afin d’éviter des longueurs d’essai prohibitives tout en garantissant une bonne
identification des basses fréquences, on choisit souvent p = 2, 3 ou même 8. Pour
l’exemple précité, on obtient:
pour p = 1 n = 40 L > (240 − 1)T
pour p = 8 n = 5 L > (25 − 1)8T
146 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
a)
y(t)
t
τ 4τ
b) nTa
u(t)
Ta
t
Fig. 3.18 – (a) Réponse indicielle d’un système avec son temps d’établissement
(environ 4τ ); (b) Impulsion la plus longue (nTa ) d’un SBPA.
7
p=8
6
p=4
4
p=3
3
2
p=2
p=1
1
0
0 0.5 1 1.5 2 2.5 3 3.5
Pulsation (rad/s)
Les méthodes d’identification paramétrique peuvent aussi être utilisées pour es-
timer l’ordre d’un système. Considérons qu’on fixe le retard d = 1 et qu’on trace
l’évolution du critère d’identification J pour la structure ARX en fonction de la
valeur de n = m pour n = 0, . . . , nmax où nmax est l’ordre maximum qu’on consi-
dère pour le système. Autrement dit, pour chaque valeur de n, on lance l’algorithme
d’identification avec la structure ARX et on calcule les résidus en fonction de n
comme suit:
N
1 X 2
J(n) = ε (k, θ̂) (3.184)
N k=1
En théorie, s’il s’agit d’un exemple simulé et non bruité, une courbe présentant un
coude net suivi d’un segment horizontal sera obtenue qui indique que l’accroissement
du nombre de paramètres n’améliore pas le critère. En pratique, comme l’ordre
des systèmes réels est infini et les données sont bruitées, ce coude n’est pas franc.
Cependant, on peut s’apercevoir qu’à partir d’un certain ordre l’amélioration du
critère n’est plus significative et donc qu’il n’est pas raisonnable d’augmenter plus
l’ordre du modèle. Pour avoir un critère quantitatif on peut rajouter un terme qui
pénalise la complexité du modèle au critère d’identification J(n) comme suit (figure
3.20):
Cg (n) = J(n) + S(n, N) (3.185)
où Cg (n) est le critère global et S(n, N) est le terme de pénalité qui typiquement
augmente linéairement avec n est décroı̂t en fonction du nombre de données N. Le
minimum du critère globale nous donne l’ordre estimé n̂ du système. Les termes de
pénalité proposés dans la littérature donnent asymptotiquement une estimation non
biaisé de n̂ mais en pratique, pour un nombre fini de données, l’ordre du système
est surestimé par ces méthodes.
Pour les structures avec un modèle du bruit, en règle générale et en absence
d’informations a priori, on choisi comme ordre du modèle du bruit la valeur de n.
Cg (n)
critère global
terme de pénalité
critère d’identification
n
1 2 nmax
Plusieurs termes de pénalité sont proposés et chacun conduit à des valeurs optimales
pour m, n et d. Cependant, une vérification de l’ordre avec d’autre méthodes est
indispensable.
Il faut noter que le modèle identifié avec les ordres estimés ne vérifie pas né-
cessairement les critères de validation expliqués à la section suivante. Si l’essai de
toutes les méthodes ne permet pas d’obtenir un modèle valide, alors une solution est
d’augmenter n et m.
Cette méthode consiste à utiliser, pour l’étape de validation, des données non
utilisées lors de l’établissement du modèle. Il s’agit de comparer la sortie du modèle
et la sortie mesuré en terme d’un critère quadratique. L’inconvénient d’une telle
démarche réside dans le fait que toutes les données à disposition ne sont pas utilisées
pour l’élaboration du modèle.
Cette méthode est très utile, car les éléments à comparer ne possèdent pas né-
cessairement les mêmes hypothèses de départ: le modèle identifié est de type pa-
ramétrique, donc avec un choix préalable de structure, d’ordre, etc., le relevé dans
le diagramme de Bode constitue une approche non paramétrique sans aucun choix
structurel a priori.
Donc, Rεε (h) sera différent de zéro pour h ≥ 1 car un nombre fini de mesures est
disponible et, d’autre part, ε(k) contient des erreurs résiduelles de structure (erreurs
sur l’ordre, effets non linéaires, etc.). On considère alors comme critère pratique de
validation (avec un seuil de confiance de 95%):
Rεε (h) 1.96
Rεε (0) ≤ √N pour 1 ≤ h < 20, N > 100 (3.188)
Ce critère est basé sur le théorème de la limite centrale. Selon ce théorème si l’erreur
√ Rεε (h)
de prédiction est blanche, alors N pour h 6= 0 est une variable aléatoire
Rεε (0)
à moyenne nulle, variance unité et distribution gaussienne. Ceci nous permet de
calculer l’intervalle de confiance de 95%.
3.8 VALIDATION DU MODÈLE 151
NX
−h−1
1
Ruε (h) = u(k)ε(k + h) h = 0, 1, . . . , N − 1 (3.189)
N − h k=0
Une corrélation entre u(k) et ε(k + h) pour des valeurs négatives de h indiquera
la présence d’un feedback de la sortie sur l’entrée, et non pas une erreur de modèle.
Si ym (k) et ε(k) sont indépendants, leur intercorrélation sera nulle, mais l’esti-
mation non biaisée de la fonction d’intercorrélation donne:
NX
−h−1
1
Rym ε (h) = ym (k)ε(k + h) h = 0, 1, . . . , N − 1 (3.191)
N − h k=0
3.8.4.2 Réification
Les paramètres physiques, qui sont soit identifiés directement, soit reconstruits à
partir de paramètres estimés, doivent être plausibles. Cette étape, appelée réification,
3.9 PROCÉDURE D’IDENTIFICATION PARAMÉTRIQUE 153
est très indicative de compensations possibles entre différents termes du modèle (le
comportement entrée-sortie est plausible sans que le modèle physique soit correct).
Il est également recommandé de calculer la sensibilité du comportement entrée-
sortie du modèle par rapport à ces paramètres et de vérifier ainsi leur identifiabilité
pratique.
3. Utiliser les structures ARMAX, OE et BJ avec ces degrés pour les polynômes
du modèle du processus.
4. Valider les meilleurs modèles obtenus en comparant leur sortie avec des données
nouvelles ainsi qu’à l’aide des tests de blancheur de l’erreur de prédiction et
d’indépendance entre les entrées passées et l’erreur de prédiction.
Cette procédure est présentée à la figure 3.21.
Exercice 1
Enoncé: Soit le système dynamique donné par la fonction de transfert discrète:
z 3 + 2z 2 + z − 1
G(z) =
z 4 + 1.6z 2 − 0.8z
a) Ce système est-il physiquement réalisable?
b) Représenter ce système sous la forme d’une équation aux différences.
c) Exprimer la fonction de transfert sous la forme de puissances négatives de z en
explicitant le retard éventuel.
Solution:
a) Ce sytème est physiquement réalisable car
degré de A(z) > degré de B(z)
b) Equation aux différences:
y(k + 4) + 1.6y(k + 2) − 0.8y(k + 1) = u(k + 3) + 2u(k + 2) + u(k + 1) − u(k)
ou de façon équivalente:
y(k) + 1.6y(k − 2) − 0.8y(k − 3) = u(k − 1) + 2u(k − 2) + u(k − 3) − u(k − 4)
z 3 + 2z 2 + z − 1 −1 1 + 2z
−1
+ z −2 − z −3 B(z)
c) G(z) = 3
= z −2 −3
= z −1
z(z + 1.6z − 0.8) 1 + 1.6z − 0.8z A(z)
retard:d = 1
degrés de A(z) et B(z): n = m = 3
Exercice 2
Enoncé: La réponse indicielle d’un système lscr a donné pour les 3 premiers points
d’échantillonnage (T = 0.2) les valeurs suivantes: y1 = 0.18; y2 = 0.33 et y3 = 0.45.
Le système peut être modélisé par la fonction de transfert du premier ordre:
b1 z −1
G(z) =
1 + a1 z −1
3.10 EXERCICES RÉSOLUS 155
Début
Réponse indicielle
→ K, τ, θ expérimentation
→ niveau de bruit
→ période d’échantillonnage
Estimation de l’ordre
→ méthode paramétrique (ARX, IV)
→ simplification pôles/zéros
→ estimation de retard
augmenter l’ordre n, m, d
Erreur de prédiction
→ ARMAX
→ OE
→ BJ
θ̂, ε(k, θ̂)
Non
Bon modèle ?
Oui
Fin
Prédiction du modèle sur la base des entrées et sorties passées (erreur d’équation):
ym (1) = −a1 · 0 + b1 · 1 = b1
ym (2) = −a1 · b1 + b1 · 1 = b1 (1 − a1 )
ym (3) = −a1 · b1 (1 − a1 ) + b1 · 1 = b1 (1 − a1 + a21 )
ŷ(1) = −a1 · 0 + b1 · 1 = b1
ŷ(2) = −a1 · 0.18 + b1 · 1 = −0.18a1 + b1
ŷ(3) = −a1 · 0.33 + b1 · 1 = −0.33a1 + b1
A partir de (3.196):
∂J
= 2(0.33 − b1 (1 − a1 ))b1 + 2(0.45 − b1 (1 − a1 + a21 ))b1 (1 − 2a1 )
∂a1
= −6b21 + 1.56b1 − 1.8a1 b1 + 4a1 b21 + 6a21 − 4a31 b2a = 0
∂J
= 2(0.18 − b1 )(−1) + 2(0.33 − b1 (1 − a1 ))(−1 + a1 )
∂b1
+2(0.45 − b1 (1 − a1 + a21 ))(−1 + a1 − a21 )
= −1.92 − 0.9a21 + 0.66a1 − 4a1 b1 + 4a21 b1 + 4a31 b1 − 2a41 b1 + 6b1 = 0
Ce système de deux équations algébriques à deux inconnues est de degré 5. Il
existe donc plusieurs solutions dont l’une d’entre elles est:
a1 = −0.8191 b1 = 0.1809
On obtient ainsi la fonction de transfert:
0.1809z −1
Ĝ(z) =
1 − 0.8191z −1
Minimisation de l’erreur d’équation 3k=1 e2e (k)
P
A partir de (4):
∂J
= 2(0.33 + 0.18a1 − b1 )0.18 + 2(0.45 + 0.33a1 − b1 )0.33
∂a1
= 0.4158 − 1.02b1 + 0.2826a1 = 0
∂J
= 2(0.18 − b1 )(−1) + 2(0.33 + 0.18a1 − b1 )(−1)
∂b1
+2(0.45 + 0.33a1 − b1 )(−1) = −1.92 − 1.02a1 + 6b1 = 0
Ce système de deux équations algébriques à deux inconnues possède une solu-
tion unique qui est aisément calculable:
a1 = −0.819 b1 = 0.181
On obtient ainsi la fonction de transfert:
0.181z −1
Ĝ(z) =
1 − 0.819z −1
158 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
a1 = −0.8333 b1 = 0.18
ou
0.18z −1
Ĝ(z) =
1 − 0.8333z −1
y
1.4
1.2
0.8
: mesures
0.6
: modèle sur la base de 3 mesures
: modèle sur la base de 2 mesures
0.4
0.2
0
0 2 4 6 8 10 12 14 16 18 20 k
Exercice 3
Enoncé: Soit le modèle linéaire:
ym (k) = a + bk
ym (k) = a
c) Supposer que le paramètre a est d’abord identifié comme indiqué sous point b).
Identifier ensuite le paramètre b du modèle:
ym (k) − â = bk
Solution:
a) Identification de a et b par moindres carrés
Critère quadratique pour minimiser l’erreur de sortie y(k) − ym (k):
N
X
J= (y(k) − (a + bk))2
k=1
ou
N
X N
X N
X
y(k) − â 1 − b̂ k=0 (3.198)
k=1 k=1 k=1
XN XN XN
y(k)k − â k − b̂ k2 = 0 (3.199)
k=1 k=1 k=1
Exercice 4
Enoncé: Les mesures suivantes ont été effectuées sur un processus dynamique ini-
tialement au repos dont la sortie y(k) est perturbée par un bruit de mesure n(k):
k 0 1 2 3 4 5 6 7 8 9 10
u(k) 0 1 -1 1 1 1 -1 -1 0 0 0
y(k) 0 1.1 -0.2 0.1 0.9 1 0.1 -1.1 -0.8 -0.1 0
a) Calculer b0 et b1 du modèle:
Solution:
b0
ε(k) = y(k) − [ u(k) u(k − 1) ] = y(k) − ϕT (k)θ (3.202)
b1
Pour N mesures: E = Y − Φθ
3.10 EXERCICES RÉSOLUS 161
Exercice 5
Enoncé: Soit l’erreur de prédiction est donnée par l’équation aux différences sui-
vante:
ε(k) = y(k) − [−ay(k − 1) + bu(k − 1)]
• Montrer que si l’entrée correspond à une rétroaction proportionnelle de la
sortie, l’identification des paramètres a et b par la méthode des moindres carrés
n’est pas possible.
Solution:
a
ε(k) = y(k) − [ −y(k − 1) u(k − 1) ] = y(k) − ϕT (k)θ
b
Φ est donc singulière et ΦT Φ non inversible. Dans un cas comme celui-là, il faut
considérer le prédicteur suivant:
Exercice 6
Enoncé: Soit le système dynamique à temps continu suivant:
n(t )
Solution:
a) Discrétisation (basée sur la réponse indicielle):
YP (z) −1 −1 G(s)
G(z) = = (1 − z )Z L
U(z) s kT
−1 −1 2 −1 −1 1
= (1 − z )Z L = 2(1 − z )Z L
s(s + 1) kT s(s + 1) kT
(1 − e−T )z −1 (1 − e−T )z −1
= 2(1 − z −1 ) = 2
(1 − z −1 )(1 − e−T z −1 ) 1 − e−T z −1
n(k) = H0 (q −1 )e(k)
avec H0 (q −1 ) = 1. Comme le bruit n’est pas corrélé avec l’entrée, les structures
OE et FIR sont appropriées. Cependant pour identifier le dénominateur du
processus on ne peut utiliser que la structure OE. D’autre part, toutes les
structures capables à identifier H0 (q −1 ) = 1 (ARMAX et BJ) peuvent être
utilisées .
→ structures appropriées: OE, ARMAX et BJ
Structure OE:
b0
ε(k) = y(k) − q −1 u(k)
1 + a1 q −1
Structure ARMAX:
1 + a1 q −1 −1 b0
ε(k) = [y(k) − q u(k)]
1 + c1 q −1 1 + a1 q −1
Structure BJ:
1 + d1 q −1 b0
ε(k) = −1
[y(k) − q −1 u(k)]
1 + c1 q 1 + a1 q −1
Pour cet exemple l’erreur de prédiction sera blanche pour toutes les structures.
ARMAX identifie C ≈ A et BJ identifie C ≈ D.
Exercice 7
Enoncé:
a) Formuler les critères quadratiques basés sur l’erreur de sortie et l’erreur d’équa-
tion pour identifier le système dynamique
bz −3
G(z) =
1 + az −1
b) Montrer que le critère basé sur l’erreur de sortie génère un problème de régression
non linéaire contrairement au critère basé sur l’erreur d’équation.
Solution:
a) Erreur de sortie
es (k) = y(k) − ym (k) (3.203)
bq −3
ym (k) = u(k) ⇒ ym (k) = −aym (k − 1) + bu(k − 3) (3.204)
1 + aq −1
N
X
min [y(k) + aym (k − 1) − bu(k − 3)]2 (3.205)
a,b
k=1
avec: ym (0) = 0 u(0) = u(−1) = u(−2) = 0
164 MODÈLES DE REPRÉSENTATION PARAMÉTRIQUES
N
X
min [y(k) + aym (k − 1) − bu(k − 3)]2 (3.207)
a,b
k=1
avec: y(0) = 0 u(0) = u(−1) = u(−2) = 0
Exercice 8
b00
Enoncé: On souhaite identifier le système dynamique G0 (q −1 ) = q −1 sur
1 + a01 q −1
la base de mesures entrée-sortie.
n (k)
1. n(k) = e(k)
2. n(k) = e(k) + c01 e(k − 1)
Annexe A
TRANSFORMATION DE FOURIER
avec
t0 +θ
1
Z
ck = x(t)e−jkω0 t dt t0 quelconque (A.2)
θ t0
A.1.1 Exemple
Calculons la série de Fourier pour le signal périodique donné à la figure A.2.
|c k|
x(t)
1
t
-θ 0 θ/4 3θ/4 θ
... -1 ...
|c |
k
2/π
2/3π
2/5π
∞
X 2π
x(t) = ck ejkω0t ω0 =
θ
k=−∞
avec:
θ
1
Z
ck = x(t)e−jkω0 t dt
θ
"0Z #
θ/4 3θ/4 θ
1
Z Z
= 1e−jkω0t dt + (−1)e−jkω0 t dt + 1e−jkω0t dt
θ 0 θ/4 3θ/4
h
1 1 θ/4 3θ/4
i
= − e−jkω0t |0 + e−jkω0 t |θ/4 + e−jkω0t |θ3θ/4
θ jkω0
1 −jkπ/2
− 1 − e−jk3π/2 + e−jkπ/2 + e−jk2π − e−jk3π/2
= − e
jk2π
1 −jkπ/2
− 2e−jk3π/2 + e−jk2π − 1
= − 2e
jk2π
0 si k est pair 0 si k est pair
2
= 2 −jkπ/2 = pour k = ±1, ±5, ±9, . . .
− jkπ e si k est impair kπ2
− kπ pour k = ±3, ±7, ±11, . . .
A.2.1 Remarque
Il est possible de déplacer le terme constant 1/2π à l’intérieur des crochets, ce
qui reviendrait à modifier d’un facteur 2π les définitions de la transformée et de la
transformée inverse. Cependant, les expressions (A.3) et (A.4) sont celles utilisées le
plus couramment.
A.2.2 Exemple
1. X(ω) = δ(ω)
∞
1 1 jωt 1
Z
x(t) = δ(ω)ejωt dω = e |ω=0 =
2π −∞ 2π 2π
Il s’ensuit: F A = 2πAδ(ω)
2. x(t) = δ(t) Z ∞
X(ω) = δ(t)e−jωt dt = e−jωt |t=0 = 1
−∞
A − T2 ≤ t < T2
3. x(t) =
0 sinon
Z T /2
A −jωt T /2 A −jωT /2
X(ω) = Ae−jωt dt = e |−T /2 = [e − ejωT /2 ]
−T /2 −jω −jω
sin ω T2
−jωT /2
jωT /2
2A −e
+e 2A T
= = sin ω = AT
ω 2j ω 2 ω T2
T
= AT sinc ω
2
170 TRANSFORMATION DE FOURIER
A − W2 ≤ ω < W
4. X(ω) = 2
0 sinon
W/2
1 AW Wt
Z
jωt
x(t) = Ae dω = sinc
2π −W/2 2π 2
Ces paires x(t) ↔ X(ω) sont représentées à la figure A.4. D’autres paires sont
données dans le tableau A.1. On remarque qu’il est possible de calculer la
transformée de Fourier d’un signal périodique (cf. entrées 10 et 11). Dans ce
cas, la nature discrète des spectres est représentée par des impulsions de Dirac.
(1)
(2)
(3)
(4)
Z t
X(ω)
4. Intégration temporelle F x(τ )dτ = + πX(0)δ(ω)
−∞ jω
dX(ω)
5. Dérivation fréquentielle F [tx(t)] =
dω
Z ∞
1
6. Intégration fréquentielle F x(t) = j X(u)du
t ω
1 ω
7. Mise à l’échelle F [x(at)] = X( )
|a| a
Z ∞
8. Convolution temporelle F[ x(τ )y(t − τ )dτ ] = X(ω)Y (ω)
−∞
Z ∞
9. Corrélation F[ x(τ − t)y(τ )dτ ] = X(−ω)Y (ω)
−∞
∞
1
Z
10. Convolution fréquentielle F [x(t)y(t)] = X(u)Y (ω − u)du
2π −∞
avec
N −1 N −1
1 X 1 X
ck = xn e−j2πkn/N = xn e−jknΩ0 k = 0, 1, . . . , N − 1 (A.6)
N n=0 N n=0
et
2π
Ω0 =
N
A.3.1 Exemple
Calculons le spectre de fréquence du signal numérique périodique
2π
xn = cos(nΩ0 ) Ω0 =
N
Pour k = 0, 1, . . . , N − 1, on a:
N −1 N −1
1 X −jknΩ0 1 X −jnΩ0
ck = cos(nΩ0 )e = (e + ejnΩ0 )e−jknΩ0
N n=0 2N n=0
N −1
1 X −j(k+1)nΩ0
= (e + e−j(k−1)nΩ0 )
2N n=0
174 TRANSFORMATION DE FOURIER
ck
1/2
- 2π 0 2π Ωk = k Ω0
-N 0 N k
Pour
N −1
1 X
k =0 c0 = cos(nΩ0 )1 = 0
N n=0
N −1 N −1
1 X −j2nΩ0 1 X 1
k =1 c1 = e + 1=
2N n=0 2N n=0 2
k = 2, . . . , N − 2 ck = 0
N −1 N −1
1 X 1 X −j(N −2)nΩ0 1
k =N −1 cN −1 = 1+ e =
2N n=0 2N n=0 2
et
2πω
Ω = ωT =
ωs
A.4.1 Exemple
Soit le signal numérique donné à la figure A.6.
A.5 SPECTRE D’UN SIGNAL ÉCHANTILLONNÉ 175
xn
1
-M 0 M n
Fig. A.6 – Signal numérique apériodique.
X( Ω )
0.025
M
X e−jΩ(2M +1) − 1
X(Ω) = 1e−jΩn = ejΩM [1 + e−jΩ + . . . + e−jΩ2M ] = ejΩM
n=−M
e−jΩ − 1
Cette dernière relation lie les transformées de Fourier d’un signal temporel ana-
logique et de sa version échantillonnée. On remarque que Xe (ω) est périodique de
période ωs = 2π/T , et que son amplitude est multipliée par le facteur 1/T par
rapport à X(ω) (cf. fig. 2.21).
L’analyse fréquentielle présentée dans les sections précédentes a montré les ca-
ractéristiques suivantes:
– un signal analogique possède un spectre apériodique, alors qu’un signal numé-
rique est caractérisé par un spectre périodique,
– un signal périodique possède un spectre discret, alors qu’un signal apériodique
a un spectre continu.
Les quatre cas possibles sont résumés dans le tableau A.3.
La transformation de Fourier discrète permettra de faire correspondre à un signal
numérique, pas nécessairement périodique, un spectre de fréquences discret. Cela
sera d’une grande utilité pour travailler avec l’ordinateur car le signal et son spectre
seront tous deux numériques.
Considérons un signal temporel analogique x(t) et sa transformée de Fourier
X(ω) comme indiqué à la figure A.8(a). Afin de simplifier les représentations gra-
phiques, nous avons choisi x(t) limité dans le temps et X(ω) de bande fréquentielle
limitée. Ceci est tout à fait hypothétique, car un signal limité dans le temps aura
une transformée de Fourier à bande fréquentielle illimitée et, inversement, un signal
à bande fréquentielle limitée ne sera pas limité dans le temps (cf. fig. A.4). Les
limites temporelle et fréquentielle sont des conditions mutuellement exclusives (cf.
également la propriété 7 du tableau A.2).
Formons le signal périodique xp (t) qui est une extension de x(t) avec une période
θ. L’équation (A.2) nous permet de calculer un spectre de fréquences discret (fig.
178 TRANSFORMATION DE FOURIER
X(ωk )
ck =
θ
avec
k
ωk = ωs = kω0 k = 0, 1, . . . , N − 1 (A.12)
N
et
2π
ω0 =
θ
Si nous échantillonnons le signal x(t) avec une période T pour obtenir xe (t) ou
x(nT ), l’équation A.11 donne la situation décrite à la figure A.8(c).
Une comparaison des illustrations A.8(b) et A.8(c) met bien en évidence la pro-
priété de dualité de la transformation de Fourier.
Le calcul de X(Ω) à partir de l’équation (A.8) présente deux difficultés. D’une
part, la somme contient une infinité de termes. En pratique, on considère un nombre
fini N de termes, notés de 0 à N − 1. D’autre part, la pulsation ω est continue: pour
des raisons de calcul sur ordinateur, on préférerait disposer d’une représentation
discrète. On considère donc uniquement N points fréquentiels espacés uniformément
sur une période de X(Ω).
A l’aide de ces deux approximations, l’équation (A.8) donne:
N
X −1
X(k) = xn e−j2πKn/N k = 0, 1, . . . , N − 1 (A.13)
n=0
N −1
1 X
xn = X(k)ej2πKn/N n = 0, 1, . . . , N − 1 (A.14)
N
k=0
A.6.1 Remarque
Les équations (A.14) et (A.13) sont, à un facteur N près, identiques à celles de
la série de Fourier pour signaux numériques périodiques (équations A.5 et A.6). La
remarque de la section A.2 s’applique également ici. Il est usuel de définir la série
de Fourier pour signaux numériques périodiques selon les équations (A.5) et (A.6)
et la transformée de Fourier discrète selon les équations (A.13) et (A.14).
A.6 TRANSFORMATION DE FOURIER DISCRÈTE 179
x (nT) |X (Ω)|
Section
A (A 4 ) B/Τ
↔ ... ...
Ω = ωΤ
nT Ω
0
c) -2π 0 2π
xn Section |X(k)|
(A3) ω s = N ω0
↔
A B/Τ
d) k
-N 0 N n -N 0 N
-θ θ tn = nT -ωs ωs ω k = k ωs
N
A.6.2 Exemples
1. Soit le signal numérique formé des 3 points donnés à la figure A.9 (période
d’échantillonnage T = 1).
Sa transformée de Fourier discrète se calcule ainsi:
2
X
X(k) = xn e−j2πkn/3 k = 0, 1, 2
n=0
1.5 √ pour k = 0
0 −j4πk/3 3
= 1e + 0 + 0.5e = 0.75 + √4 j k=1
3
0.75 − 4 j
k=2
xn
1
0.5
-1 0 1 2 3 n
0 3 tn = nT = n
X(k)
1.5
3/2
-1 0 1 2 3 k
0 2π ωk = k ωs = k 2π
N 3
2
1X
xn = X(k)ej2πkn/3 n = 0, 1, 2
3 k=0
" √ ! √ ! #
1 3 3
= 1.5e0 + 0.75 + j ej2πn/3 + 0.75 + j ej4πn/3
3 4 4
1 pour n = 0
= 0 n=1
0.5 n=2
xn
0.5
-1 0 1 2 3 4 5 6 n
0 6 tn = nT = n
X(k)
3
-2 0 2 4 6 k
0 2π ωk = k ωs = k 2π
N 6
5
X
X(k) = xn e−j2πkn/6 k = 0, 1, . . . , 5
n=0
Le fait d’avoir doublé le nombre de points (les trois points initiaux répétés)
donne un spectre deux fois plus fort (il ne s’agit ici que d’une mise à l’échelle).
Cependant, le contenu spectral est le même car les trois valeurs spectrales
additionnelles sont nulles. Cela n’étonne pas puisque la transformée de Fou-
rier discrète se calcule avec l’hypothèse implicite que le signal se continue
périodiquement (cf. fig. A.8(d)). Par conséquent, le fait d’étendre le signal
périodiquement ne modifie pas l’information spectrale obtenue à l’aide de la
transformation de Fourier discrète.
3. Considérons maintenant une extension non périodique du signal numérique de
la figure A.9 (N = 6, T = 1, fig. A.13).
182 TRANSFORMATION DE FOURIER
xn
0.5
-1 0 1 2 3 4 5 6 n
0 6 tn = nT = n
5
X
X(k) = xn e−j2πkn/6 k = 0, 1, . . . , 5
n=0
= 1e + 0 + 0.5e−j4πk/6 + 0 + 0 + 0
0
1 + 0.5e−j2πk/3
=
1.5 √ pour k = 0
3
0.75 − √4 j k=1
3
0.75 + 4 j k=2
=
1.5 √ k=3
3
0.75 − √4 j
k=4
3
0.75 + 4 j k=5
Comme il fallait s’y attendre, le contenu spectral du cas 3 (fig. A.14) est
différent de celui des cas 1 et 2 (fig. A.10 et A.12). Cependant, les points pour
k = 0, 2, et 4 correspondent exactement à ceux de la figure A.10. Les valeurs
spectrales additionnelles ajoutent de l’information intermédiaire.
X(k)
1.5
3 /2
-2 0 2 4 6 k
0 2π ωk = k ωs = k 2π
N 6
xn
1
0.75
0.5
0.25
-2 0 2 4 6 n
0 3 tn = nT
X(k)
1.29
0.43
-1 0 1 2 3 4 5 6 k
0 2π 4π ωk = k ωs = k 2π
N 3
N
X −1 N
X −1
kn
X(k) = xn z + xn z kn k = 0, 1, . . . , N − 1
n=0 n=N
N
X −1
= [xn + xn+N z kN ]z kn (A.18)
n=0
Notons que:
kN −jπk 1 pour k pair
z =e =
−1 pour k impair
N
X −1 N
X −1
qn
X(2q) = [xn + xn+N ](z) = x+
n (z)
qn
= X + (q) (A.19)
n=0 n=0
où x+
n = xn + xn+N (n = 0, 1, . . . , N − 1)
• Pour k impair, k = 2q + 1 = 1, 3, . . . , N − 1 (q = 0, 1, . . . , N − 1)
N
X −1 N
X −1
X(2q + 1) = [xn − xn+N ]z n (z)qn = x−
n (z)
qn
= X − (q) (A.20)
n=0 n=0
N2 ∼
= 106 multiplications
Np ∼
= 104 multiplications
x = Z −1 X
Annexe B
MATRICE PSEUDO-INVERSE
B.1 DÉFINITIONS
B.2 PROPRIÉTÉS
1.
(A+ )+ = A (B.8)
2.
(AT )+ = (A+ )T (B.9)
3.
1 +
(λA)+ = λ+ A+ = A λ scalaire, λ 6= 0 (B.10)
λ
4.
(AT A)+ = A+ (AT )+ = A+ (A+ )T (B.11)
(AAT )+ = (AT )+ A+ = (A+ )T A+ (B.12)
Mais en général:(AB)+ 6= B + A+
5. Pour A de dimension p × r et B de dimension r × q, on a:
(AB)+ = B + A+ (B.14)
y = Ax
(B.15)
(p × q)
x = A+ y = A−1 y (B.16)
2. p > q = rang(A)
Il y a plus d’équations que d’inconnues et le système d’équations est incon-
sistant (sur-déterminé). Dans ce cas, on peut utiliser la pseudo-inverse de A
pour calculer la solution moindres carrées x̂, c’est-à-dire celle qui minimise la
norme euclidienne ky − Axk:
3. rang(A) = p < q
Il y a moins d’équations que d’inconnues si bien que le système d’équations est
sous-déterminé. Il existe donc une infinité de solutions. Il est possible d’utiliser
la pseudo-inverse de A pour obtenir la solution x̂ à norme minimale, c’est-à-dire
celle qui minimise la norme euclidienne kxk:
x̂ = A+ y = AT (AAT )−1 y (B.18)
4. rang(A) < min(p, q)
Si la matrice A n’est pas de rang plein, les matrices A, (AT A) et (AAT ) ne
sont pas régulières. Il est cependant possible de calculer la solution à norme
minimale comme suit:
x̂ = A+ y (B.19)
On voit donc que, quel que soit le système d’équations algébriques linéaires,
l’utilisation de la matrice pseudo-inverse permet d’obtenir une solution intéres-
sante (solution vraie, solution moindres carrés ou solution à norme minimale,
selon les cas). Il est donc utile de calculer cette matrice pseudoinverse.
Le rang de la matrice A est donné par le nombre de valeurs singulières non nulles.
La matrice pseudo-inverse de A se calcule aisément comme suit:
A+ = V Σ+ U T (B.24)
A+ = V1 Σ+ T
1 U1 (B.25)
191
Annexe C
TRANSFORMATIONS DE
LAPLACE ET EN Z
BIBLIOGRAPHIE