Leçon 1 : Généralité sur la transmission des signaux
Objectifs :
o Donner une vision globale sur les techniques de transmission
o Définir la transmission et ses concepts
o Comment numériser ou coder un signal (analogique, numérique) sous forme de 0 et 1.
o Distinguer la transmission en bande de base de la transmission en large bande
Introduction
Un réseau suppose plusieurs équipements informatiques situés à distance les uns des autres. La
première chose à mettre en œuvre pour constituer le réseau est la transmission des informations
d’un équipement à l’autre : on utilise, pour cela, des supports de transmission. L’étude de la
transmission de l’information nécessite la connaissance :
• des principes du signal
• des supports d transmission et de leurs caractéristiques
• des méthodes utilisées pour transmettre l’information sur ces supports
I- Généralités sur la transmission du signal
1- L’information
C’est la probabilité qu’une donnée i soit différente de la donnée i-1.
Les informations à transmettre sur les réseaux informatiques sont de natures différentes et
nécessitent une représentation physique (signal).
Figure 1.1 : Flux d’informations
Son : Téléphone, musique, Messagerie vocale, Informations téléphoniques (horloge parlante,
météo), Radiodiffusion, Téléphonie mobile.
Données : Textes, télétex, Courrier électronique (EDI, messagerie etc), Documentation
électronique, Vidéotex, Télécopie.
Données multimédias ou Images : Télévision, Visiophonie, Visioconférence,
Vidéocommunication sur réseau câblé.
2- Notion de signal
Un signal est une représentation physique de l’information qu’il transporte de sa source vers sa
destination. En d’autres termes, un signal est un moyen ou un vecteur de transmission à
l’information. On distingue :
▪ Les signaux analogiques : lumière, parole, son, vidéo, ondes acoustiques et sismiques,
données collectées ou produites par les capteurs, amplificateurs ou convertisseurs
numériques-analogiques (CNA).
Le signal analogique est une onde électrique ou électromagnétique variant de façon continue
dans le temps ; Autrement dit, un signal est dit analogique si l’amplitude de la grandeur
physique le représentant peut prendre une infinité de valeurs dans un intervalle donné.
▪ Les signaux numériques : texte, image, entiers, données issues des ordinateurs, des
terminaux, de la lecture d’un support numérique ou convertisseur analogique numérique
(CAN).
Un signal numérique est une onde électrique « carrée » variant de façon discontinue dans le
temps (sous forme d’une séquence d’impulsions). Un signal est numérique si l’amplitude de la
grandeur physique le représentant ne peut prendre qu’un nombre fini de valeurs (2n valeurs).
3- Système de transmission
D’une façon générale, le système de transmission du signal comprend essentiellement : la
source, le canal de transmission et la destination.
Figure 1.2.a : Schématisation du système de transmission
D’une façon plus spécifique, le système ou chaine de transmission se présente comme suit :
Figure 1.2.b: Schématisation du système de transmission
4- Le bruit
Lors du transfert de la source à la destination, plusieurs signaux parasites (électriques ou
électromagnétiques) peuvent s’ajouter au signal d’origine. Ces signaux parasites sont appelés
bruit. Le bruit c’est donc tout phénomène perturbateur qui dénature le signal ou qui affecte la
voie de transmission et est susceptible d’introduire des erreurs d’interprétation du signal reçu.
Figure 1.3 : Signal bruité
Il y existe plusieurs sources de bruit (processus aléatoire) dont principalement :
▪ Le bruit thermique (bruit interne) : causé par les différents éléments ohmiques dans les
circuits d’émission et de réception. Il est inévitable.
▪ Le bruit dû aux rayonnements parasites (bruit externe ou brut impulsif) : éclaire,
équipements électriques industriels.
Remarque : Les notions d'information utile (le signal) et d'information inutile (le bruit) sont
subjectives.
5- Caractéristiques des réseaux de transmission
a- Valence d’une voie de transmission
Le codage associe une valeur physique (un signal électrique) à une valeur logique (un signal
binaire). La valence notée n est le nombre de valeurs ou d’état que peut prendre le signal à un
instant t.
Par exemple lorsque le signal prend 2 valeurs de tension +V et -V, on parle de bivalence et n=2.
b- Vitesse de modulation ou rapidité d’une modulation
La vitesse de modulation représente le nombre d’intervalles de modulation transmis en une
seconde et caractérise le rythme de travail du modem. Elle se note R et s’exprime en Baud.
1
R= ;
avec Δ (s) : Durée de l’intervalle de modulation
Critère de Nyquist :
Il existe une relation étroite entre le nombre maximal d’impulsion ou nombre d’alternance ou
encore de transition noté Rmax appelé rapidité de modulation et la bande passante BP du canal.
Rmax 2 BP
c- Notion de débit
On distingue deux types de débit en transmission : le débit de symbole et le débit binaire.
• Débit de symboles Ds : c’est le nombre de symboles émis par seconde. Il est égal à la
1
Ds (en Baud ) = = f
fréquence de modulation. T
• Débit binaire :
On appelle débit binaire (D), le nombre d’éléments binaires, ou nombre de bits, transitant sur
le canal ou support de transmission pendant une unité de temps.
D :(bit / s )
V
D= avec V : volume à transmettre en (bit )
t t : durée de transmission en ( s )
Remarque :
- Le débit binaire est lié au débit de symbole par la relation :
D = Ds log 2 ( M )
avec log2(M) en bit/s, le nombre de bits codés par symbole.
- Le débit binaire dépend des caractéristiques physiques du support de transmission et des
techniques de transmission utilisées.
Exemples : Débits bruts de quelques signaux numériques connus
• Signal de la parole : 64 Kbps
• Visioconférence couleur : 100 Mbps
• Télévision couleur : 204 Mbps
d- Relation le débit binaire et la rapidité de modulation
Supposons que, durant un temps élémentaire, le symbole prenne plusieurs états, la quantité
d’information transportée alors par un symbole est supérieure à 1 bit. Dans ce cas, le débit
binaire et la rapidité de modulation sont liés par la relation :
• D : débit binaire exprimé en bit/s ;
• R : rapidité de modulation en baud
D = R Q = R log 2 (1/ p)
• Q : quantité d’information en bit ou Shannon ;
• p : probabilité d’apparition d’un état ou d’une valeur
• n =1/p et Q = log2(1/p) exprimé en bit ou en Shannon
• D (bit/s) : débit binaire
R
D = log 2 n • n la valence : nombre d’état possible d’un signal transmis
k
• k : nombre de valeurs physiques utilisées pour coder une information.
Exemples :
➢ Le code NRZ permet de transmettre 1 bit pour une tension donnée ±V. Dans ce cas, on
a : k =1 et n = 2 donc D = R ; le débit D est égal à la vitesse de modulation R.
➢ Pour les codes Manchester, k = 2 et n = 2 donc R = 2*D ; la vitesse de modulation est
le double du débit.
➢ Pour d’autres ensembles de combinaison binaire :
e- Largeur spectrale du signal et Bande passante d’un canal
La largeur de bande spectrale est la zone de fréquence que le signal occupe. Pour tout signal
réel s(t), on a un spectre borné pour lequel on peut définir une fréquence minimale fm et une
fréquence maximale fM.
Par exemple :
▪ Signal de parole « téléphonie » : fm = 300 Hz et fM = 3,4 kHz
▪ Signal sonore « haute-fidélité » : fm = 20 Hz et fM = 16 kHz
La bande de fréquences dans laquelle les signaux sont « correctement » transmis et caractérise
le support de transmission est appelée bande passante du support.
Figure 1.4 : Bande passante d’une voie de transmission
Remarque :
▪ La largeur de bande d’un signal correspond à la bande passante minimale que le
système doit posséder pour restituer correctement l’information.
▪ La bande passante est utilisé non seulement pour désigner un espace fréquentiel (bande
passante ou BP en Hz), mais aussi pour qualifier le débit binaire d’un système (bande
passante exprimée en bit/s).
f- Rapport signal sur bruit (S/B ou S/N)
Le rapport signal sur bruit (RSB ou SNR : Signal Noise Ratio) est une mesure du degré de
S S PS
= = =
contamination du signal par du bruit. Il s’exprime sous la forme du rapport B N PB
des puissances (énergies) respectives du signal transmis PS et du bruit PB ; est souvent
indiqué selon une échelle logarithmique mesurée en décibel (dB). Le RSB mesure la qualité du
signal et c‘est une caractéristique du canal.
dB =10log10 (S / N )dB =10log10 (S / N )(en puissance)
.
Figure 1.5 : Effet du bruit sur la transmission d’un signal numérique
g- Capacité d’un canal
➢ Théorème de Nyquist (canal parfait)
C (bit / s)
C = W log 2 n 2
où W ou BP ( Hz )
n : valence ( nombre d ’états que peut prendre chaque symbole ) .
Exemple d’un câble téléphone avec un signal binaire à 2 niveaux :
BP = 3100 Hz et Capacité C = 2 x 3100 x log 2( 2) = 6200 bps
➢ Théorème de Shannon (canal bruité)
Pour un canal bruité, il convient dès lors de déterminer la proportion des symboles qui risquent
d'être entachés d'erreur.
D’après le théorème de SHANNON-HARTLEY, On peut estimer la capacité théorique du canal C
en bit/s, c'est-à-dire le nombre maximum de bits par seconde qu'il est possible de transmettre
avec une erreur aussi faible que voulue par la relation suivante :
C (bit / s)
S
C = W log 2 (1 + ) où W ou BP ( Hz )
B
S (bit / s ) avec n = 1 + S (relation de Shannon)
B B
Exemple d’un câble de téléphone bruité où BP = 3100 Hz et S/N = 30 dB
10 log 10 (S/N) = 30 ↔S/N = 1000 bit/s
Capacité C = 3100 log 2 (1 + 1000) = 30,894 bps
Rappel sur les logarithmes :
6- La transmission
Il y a transmission lorsqu’il y a échange d’informations entre deux points distants. En
télécommunication, La transmission est l’opération qui consiste à transporter le signal d’une
machine vers une autre sur un support donné.
Il existe de façon générale deux types de techniques de transmission : la transmission en bande
de base et la transmission en large bande ou modulation. En fonction de la nature du signal, on
distingue deux types de transmission :
▪ La transmission analogique
On appelle transmission analogique, la transmission d’un signal quelconque (variation de
tension, courant, de fréquence) sur un support de transmission donné.
Ce signal est, en général, représenté par une onde sinusoïdale appelée onde porteuse de forme :
s (t ) = A sin(t + )
❖ A : amplitude ;
❖ t + : phase à un instant quelconque ;
❖ : pulsation avec = 2 F où F est la fréquence en Hz ;
❖ : phase à t=0 ou décalage par rapport à l’origine ;
Figure 1.6 : signal sinusoïdal s(t)
La transmission des signaux analogiques est réalisée à l’aide d’appareils appelés des Modems.
▪ La transmission numérique
On appelle transmission numérique, la transmission dont le signal est codé sous forme binaire
(succession de 0 et 1 appelés bits). C’est le transport d’un signal numérique (ou analogique,
mais codant des données numériques) sur un support métallique.
Figure 1.7 : Codage du signal électrique sous forme binaire
7- Combinaison nature du signal /type de transmission
▪ Transmission analogique d’un signal analogique :
Exemples : Emission de la parole sur un réseau téléphonique, émission du son sur les ondes
radio, émission d’images de télévision sur le réseau de télédiffusion, …
▪ Transmission analogique d’un signal numérique
Exemples : Transmission de données informatiques sur des lignes téléphoniques, par satellite.
▪ Transmission numérique d’un signal analogique
Exemples : Transmission de la parole, du son ou d’images en bande de base
▪ Transmission numérique d’un signal numérique
Exemples : Transmission des données informatiques en bande de base sur fibres optiques.
8- Les différents modes de transmission
En télétransmission, les équipements (émetteur et récepteur) qui sont aux extrémités d'une
liaison ne peuvent échanger des informations (suites binaires de caractères) que s'ils utilisent
les mêmes règles ou les mêmes modes de transmission.
a- Transmission parallèle
Dans le cas d’une transmission parallèle, les bits d’un même caractère sont envoyés sur des fils
distincts de façon qu’ils arrivent ensemble à destination. Elle est utilisée sur de très courtes
distances (sur des bus d’ordinateur par exemple).
NB : Une série de 8 bits est appelé octet.
b- Transmission série
En transmission série, tous les bits d’un mot sont transmis successivement sur une même ligne.
T est la durée d’un état significatif
Remarque :
Il est possible de passer d’une transmission parallèle à une transmission série :
Supposons que notre information se trouve sur un câble à 8 fils ; il faut la transmettre sur un
seul fil. Cette opération, appelée sérialisation, est réalisée par des circuits électroniques appelés
registres à décalage.
NB : A la réception, le chargement se fait de façon inverse pour restituer les informations sous
forme parallèle.
c- Modes synchrones et asynchrones
La succession de mots ou caractères (regroupement de 8 bits = octet) peut se faire de deux
façons distinctes : en mode synchrone ou en mode asynchrone.
Les transmissions synchrones (utilisé pour les transmissions de grande vitesse) sont
synchronisées par une horloge externe même en absence de transmission, tandis que les
transmissions asynchrones (simples et plus utilisés) sont synchronisées par des signaux
spéciaux (bit de Start et bit de Stop) le long du support de transmission.
Remarque :
➢ Lorsqu’il n'y a pas de transmission, le récepteur va détecter un 0 ou un 1. Au repos, la
valeur du signal est 1 et que le passage à 0 signale un début de transmission (l'envoi d'un
octet).
➢ Le bit de start ou bit de service indique le début d’un caractère mais ne représente pas
une information utile. A l'arrivée du bit de start, le récepteur constate qu'il va recevoir
des informations mais il ne sait pas à quel rythme. Il faut donc convenir d'une nouvelle
règle, la vitesse de transmission des bits par exemple 300 bps (1 bit tous les 1/300ème
de seconde).
➢ Les 8 bits sont suivis en général d'un bit de parité, puis d'un bit de stop. Le bit de parité
permet de détecter une erreur sur les bits d'information. Le bit de stop indique la fin du
caractère et permet de créer un intervalle de temps minimum avant d'envoyer le
caractère suivant.
9- Les supports de transmission
Les supports physiques d’interconnexion qui permettent l’acheminement des signaux
transportant l’information de l’émetteur (A) vers le récepteur (B) sont indispensable à la
transmission. On distingue :
▪ La liaison physique entre A et B se faisant par continuité physique :
➢ Les fils métalliques : câbles à paires torsadés (UTP et STP), câbles coaxiaux
(bons mais plus chers).
➢ Fibre de verre : fibres optiques (fibres monomodes et multimodes)
▪ La liaison entre A et B se faisant en espaces libres :
➢ Faisceaux hertziens : air, vide ;
➢ Ondes radioélectriques
Ces différents types de liaisons entre A et B sont appelés : canal ou support de transmission.
Remarque :
Le choix d’un support de transmission se fait en fonction de deux choses :
• le réseau qui sera implémenté et
• son évolution future.
Les supports de transmission ne sont pas parfaits donc souffrent de plusieurs problèmes majeurs
:
• L'atténuation : est la perte d'énergie que subit le signal pendant sa propagation. Elle est
exprimée en dB/km et son ampleur varie selon la fréquence du signal.
• La distorsion : Les composantes (phase et amplitude) d'un signal se propagent à des
vitesses différentes.
• Le bruit : est constitué d'énergie parasite provenant de sources autres que l'émetteur.
• La diaphonie : est causée par un couplage inductif entre deux câbles qui sont proches
l'un de l'autre.
• La dispersion : Tous les milieux de propagation (sauf le vide) sont dispersifs, c’est à
dire que les composantes spectrales d’une onde ne se propagent pas toutes à la même
vitesse
10- Différents sens de transmission
Dans l’organisation des échanges dans la transmission d’un signal entre deux points, trois sens
de transmission se présentent :
11- Numérisation d’un signal
Le terme numérisation englobe différentes opérations dont la nature dépend fondamentalement
des signaux originaux. Ainsi, on distingue les informations initialement numériques, les
informations textuelles et les informations analogiques. Il est évident que seules les
informations analogiques doivent être échantillonnés ; quant aux informations textuelles, elles
requièrent un codage qui établit la correspondance entre l’alphabet et un code définissant, pour
chaque caractère, une série de bits unique. C’est essentiellement le rôle des différents codes
comme le code ASCII, du code de Baudot ou de l’Unicode, les codes à longueur variables, etc.
Figure 1.8 : Mise en forme de l’information
Définition : On appelle numérisation d’un signal analogique l’opération qui consiste à faire
passer un signal de la représentation dans le domaine des temps et des amplitudes continus au
domaine des temps et des amplitudes discrets.
Principe : Cette opération de numérisation d’un signal peut être décomposée en trois étapes :
l’échantillonnage, la quantification et le codage.
▪ L’échantillonnage consiste à représenter un signal analogique continu s(t) par un
ensemble de valeurs discrètes s(nTe) avec n entier et Te : période d’échantillonnage.
Le choix de Te est fait à partir du théorème de Shannon qui permet de déterminer la
fréquence d’échantillonnage minimale afin que les échantillons contiennent toutes les
informations du signal s(t) :
Fech 2 Fmax
▪ La quantification consiste à représenter un échantillon par une valeur numérique au
moyen d’une loi de correspondance. La loi la plus simple consiste à diviser l’ordonnée
en segments égaux appelé pas de quantification. Le nombre de segments dépend du
nombre n de bits choisi pour la numérisation (n = 2 bits engendrent 22 = 4 segments).
amplitude crête à crête
pas de quantification = n
2
▪ Le codage consiste à affecter une valeur numérique aux échantillons obtenus lors de la
phase d’échantillonnage.
Exemple : code = 10 11 11 11 11 11 11 10 01 00 00 00 …
pas de quantification
Figure 1.9 : Numérisation d’un signal analogique
Remarque : Plus la quantification est grande, meilleure sera la numérisation.
Figure 1.10 : Classification morphologique des signaux
II- Codage des informations
1- Définitions
Coder l’information consiste à faire correspondre à chaque symbole d’un alphabet (élément à
coder) une représentation binaire (mot code). L’ensemble des mots codes constitue le code.
Un code est un système de signaux permettant la transformation d’un message en vue de sa
transmission.
2- Les types d’information à coder
Ces informations peuvent aussi bien être un ensemble de commandes d’une machine-outil que
des caractères alphanumériques (lettres de l’alphabet, symbole de ponctuation, symbole de
nationaux (é, è, ..), les symboles semi-graphiques, les chiffres de la numération usuelle, les sauts
de ligne, les sauts de page, …)
3- Codage de source
Soit une source discrète X, à n valeurs possibles {x1, x2, . . . , xn} dans un alphabet fini A = {a1,
a2, . . . , aM}. Les statistiques de cette source sont caractérisées par une distribution de probabilité
p(x) sous la forme {p1, p2, . . . , pM}, où pi est la probabilité d’occurrence du symbole xi Є A.
a- Code
Un code de source C pour la variable aléatoire X est une fonction de A (l’ensemble des valeurs
possibles de X) vers D*, l’ensemble des chaînes de symboles d’un alphabet D-aire. ci est le mot
de code correspondant au symbole xi Є A, et Li est sa longueur. Le code est l’ensemble des
mots de codes {c1, . . . , cM}.
b- Différents types de codes
Le codage des différents états d’un système peut s’envisager selon deux approches :
➢ La première, la plus simple, considère que chacun des états du système est
équiprobable.
➢ La seconde prend en compte la fréquence d’apparition d’un état. Cette approche conduit
à définir deux types de code : les codes de longueur fixe et les codes de longueur
variable.
c- Les codes de longueur fixe
Un code de longueur fixe est tel que tous les mots de code possèdent la même longueur en bits.
Chaque état du système est codé par un certain nombre de bits, appelé longueur du code ou
moments.
• Avec 1 bit on peut coder 2 états (0,1)
• Avec 2 bits on peut coder 4 états (00, 01, 10, 11)
• Avec 3 bits on peut coder 8 états (000, 001, 010, 011, 100, 101, 110, 111).
D’une manière générale avec n bits on code P = 2n états avec 2(n−1) < P ≤ 2n et n = log2 P.
Plusieurs codes ont été normalisés dans le but de faciliter les échanges entre matériels
informatiques. Les principaux codes de longueur fixe sont les suivants :
• Le code Baudot, code télégraphique à 5 moments, utilisé dans le réseau télex autorise
25 soit 32 caractères, ce qui est insuffisant pour représenter toutes les lettres de
l’alphabet (26), les chiffres (10) et les commandes (fin de ligne ….).
• Le code ASCII (American Standard Code for Information Interchange), code à 7
moments, soit 128 caractères (32 codes de commandes et 96 codes de caractères), est
utilisé pour l’échange d’informations (code générique des télécommunications). Ce
code, étendu à 8 moments constitue l’alphabet de base des micro-ordinateurs de type
PC.
• Le code EBCDIC (Extended Binary Coded Decimal Interchange Code), code à 8
moments, autorise 256 caractères. Le code EBCDIC. Ce code d’origine IBM, est utilisé
dans la plupart des ordinateurs modernes et les calculateurs.
• Le code Unicode est un système de codage mis au point en 1991 qui permet de
représenter n'importe quel caractère par un code sur 16 bits, indépendamment de tout
système d'exploitation ou langage de programmation. Il regroupe ainsi la quasi-totalité
des alphabets existants (arabe, arménien, cyrillique, grec, hébreu, latin, ...). Il est
compatible avec le code ASCII.
L'ensemble des codes Unicode est disponible sur le site http://www.unicode.org.
d- Les codes de longueur variable
Un code de longueur variable est tel que tous les mots de code ne possèdent pas la même
longueur, en bits.
Lorsque les états du système ne sont pas équiprobables, la quantité d’information apportée par
la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité de se
réaliser.
La quantité moyenne d’information apportée par la connaissance d’un état, appelée entropie,
est donnée par la relation :
n
1
H = pi log 2
i =1 pi
où pi est la probabilité d’apparition du symbole de rang i.
L’entropie représente la longueur optimale du codage des symboles du système.
Exemple : Déterminons la longueur optimale du code (entropie) pour le système décrit par le
tableau suivant.
- H = 2,09 bits ≡3 bits pour les 6 états.
- (22 < 6 ≤ 23 )
Remarque :
• Il n’existe pas de code standard qui permette d’atteindre cette limite théorique.
• Cependant, en 1952, Huffman introduit une méthode de codage (codage d’entropie).
e- Code de Huffman
Les étapes pour construire un dictionnaire à partir d’un code de Huffman
- Dénombrez les différents états du système et créez la table des symboles.
- Classez ces symboles par ordre des fréquences décroissantes (occurrence).
- Réalisez des réductions successives en rassemblant les deux occurrences de plus
petite fréquence en une nouvelle occurrence.
- Insérez la nouvelle occurrence obtenue dans la table et trier celle-ci à nouveau
par ordre décroissant.
- Poursuivez les réductions jusqu’à ce qu’il n’y ait plus d’élément (répétition des
étapes 3, 4, 5).
- Construisez l’arbre binaire en reliant chaque occurrence à la racine.
- Établissez le code en lisant l’arbre construit du sommet aux feuilles et en
attribuant par exemple la valeur 0 aux branches basses et 1 aux branches hautes.
Figure 1.11 : Arbre de Huffman
La longueur moyenne (Lmoy) du code est de :
Lmoy = 0,48 · 1 + 0,21 · 2 + 0,12 · 3 + 0,08 · 4 + 0,06 · 5 + 0,05 · 5 = 2,13
Conclusion : Le codage de Huffman permet de réduire le nombre de bits utilisés pour coder
l’information.
Références bibliographiques :
[1]. Guy Pujolle : Cours réseaux et télécoms avec exercices corrigés, 3ème édition Eyrolles.
[2]. Claude Servin : Réseaux et Télécoms, cours avec 129 exercices corrigés, 2ème édition
Duunod.
[3]. Réseaux Télécommunication, Hikmet Sari publié le 10 juin 1995.