Vous êtes sur la page 1sur 47

Cours

Communications Numériques

Chapitre I: - Rappels généraux

  

Cne: TEGUIG Djamel


Historique

 En 1837, Samuel Morse met au point le télégraphe électrique. En 1844, Il effectue une transmission entre
Washington et Baltimore.
 En 1864, James Clerck Maxwell formule la théorie électromagnétique et prédit l’existence des ondes
radio dont l’existence est prouvée expérimentalement par Heinrich Hertz en 1887.
 En 1875, Alexander Graham Bell invente le téléphone.
 En 1894, Olivier James établie une communication sans-fil sur une distance de 140 mètres.
 En 1901, Guglielmo Marconi effectue la première transmission trans-atlantique.
 En 1904, John Ambrose Fleming invente le tube-diode, et en 1906, Lee de Forest conçoit la triode,
élément de base dans les amplificateurs jusque l’invention du transistor.
 En 1918, Edwin H. Armstrong invente le circuit récepteur superhétérodyne.
En 1928, Harry Nyquist publie un article sur la transmission des signaux en télégraphie. En particulier, il
publie les critères à observer pour une réception correcte de signaux télégraphiques transmis sur des canaux
dispersifs en l’absence de bruit.
 En 1933 Edwin H. Armstrong proposa un autre concept révolutionnaire : la FM (modulation de
fréquence).
 En 1939, la BBC (British Broadcasting Corporation) diffuse de la télévision commerciale.
 En 1948, la théorie mathématique des communications est établie par Claude Shannon.
 En 1948, le transistor est inventé par Brattain, Bardeen et Shockley des laboratoires Bell.
 En 1958, la mise au point du premier circuit intégré par Robert Noyce.
 En 1971, un projet ARPANET (renommé Internet en 1985), utilise le concept de commutation de paquets.
 En 1971, Intel développe le 4004.
 En 1982, une autre contribution historique est due à G.Ungerboeckqui introduit les modulations codées.
 En 1990, l’interface logicielle hypermédia proposée par Berners-Lee, et appelée WorldWideWeb.

2/31
Bandes de Fréquences

La répartition est régie par deux facteurs importants :


􀂾 Contraintes physiques : caractéristiques du Milieu de transmission et débit
d’information.
􀂾 Réglementation :

ITU –International Telecommunications Union. L’assignement de fréquences ainsi que


les standards

3/31
Bandes de fréquences

4/19
4/31
Bandes de fréquences

5/19
5/31
Classification des signaux

Analogique:
Un signal analogique est défini comme étant une quantité
physique qui varie dans le temps et souvent continu et “lisse“,
e.g. variation de la pression acoustique quand on parle.

Numérique:
Un signal numérique est composé de symboles discrets
sélectionnés à partir d‘un ensemble fini, e.g. lettres d‘un
alphabet ou donné binaire.

Signaux déterministe: peut être exprimé explicitement par une formule


mathématique.

Signaux aléatoires: Signaux avec un certain degrés d’improbabilité.

6/31
Variables aléatoires discrètes et continues

Variables aléatoires discrètes

 Une variable aléatoire est dite variable aléatoire discrète si l'ensemble


des valeurs qu'elle peut prendre est un ensemble fini, e.g. l'ensemble{0,π/2, π,3
π/2} ou un ensemble infini dénombrable (e.g. l'ensemble des nombres entiers).
La sortie d'une source de symboles binaires est un exemple de variable aléatoire
discrète. La source X émet les symboles A0 et B0 avec des probabilités P0 et P1 .

Variables aléatoires continues

 Une variable aléatoire continue est une variable aléatoire qui peut
prendre toutes les valeurs d'un intervalle fini ou infini, par exemple, l'ensemble
des nombres réels compris dans l'intervalle [-5,+5].
Un exemple courant de variable aléatoire continue est la tension (ou voltage) du
bruit causé par un canal de transmission. La tension de bruit est un nombre réel.

7/31
Fonction de répartition et fonction de
densité de probabilité

Deux fonctions probabilistes permettent de décrire le comportement de


variables aléatoires: la fonction de répartition et la fonction de densité de
probabilité.
La fonction de répartition, ou encore fonction de distribution cumulative,
FX(x)indique la probabilité qu'une variable aléatoire X soit plus petite ou
égale à une variable x:

La fonction de répartition FX(x) est donc bornée par: 0 ≤ FX(x)≤1: elle


croît de manière monotone en fonction de la valeur de la variable x:

8/31
Fonction de répartition et fonction de
densité de probabilité

La variation de la fonction de répartition FX(x) par rapport à x donne la


fonction de densité de probabilité(pdf), dénotée par f X(x):

Lorsque x tend vers l’infini, Fx(∞) = P(X≤∞) = 1, ce qui représente un


événement certain. La probabilité que la valeur de la variable aléatoire X
soit comprise dans un intervalle [x1, x2] peut être déterminé par la fonction
de répartition, FX (x), ou par la fonction de densité de probabilité, fX (x):

9/31
Fonction de répartition et fonction de
densité de probabilité

Exemple: variable aléatoire gaussienne

10/31
Espérance mathématique d’une
variable aléatoire

L'espérance mathématique ou moyenne d'une variable aléatoire X,


que l'on dénote E[X], est donnée par le barycentre de l'aire sous sa
fonction de densité de probabilité fX(x) ou, dans le cas de variables
aléatoires discrètes, des probabilités des évènements.

15/01/2018
11/31
Espérance mathématique d’une
variable aléatoire

Supposons que Θ est une variable aléatoire représentant une phase


uniformément distribuée dans l'intervalle [0, 2π):

Soit une nouvelle variable aléatoire Y= A cos(Θ), alors l'espérance


mathématique de Y est:

12/31
Moments d’ordre supérieur

Le moment d'ordre n d'une variable aléatoire X est obtenu par la fonction:


g(X) = Xn

Ainsi le moment d'ordre n= 1 de la fonction de densité de probabilité fX (x) est tout


simplement sa moyenne, c'est-à-dire E[X1] = μx. Le moment d'ordre 2 de X donne sa
valeur moyenne au carré:

On peut définir aussi des moments centraux d'ordre n, centrés autour de leur
moyenne μX : on s'intéresse alors à la variable aléatoire centrée: (X-μX). La variance
σX2 de X s'obtient de son moment central d'ordre 2:

13/31
Moments conjoints d’ordre
supérieur

 Covariance et coefficient de corrélation

Le moment conjoint de deux variables aléatoires centrées, (X-μX) et (Y-μX), est la


covariance de X et Y:

14/31
Moments conjoints d’ordre
supérieur

 Covariance et coefficient de corrélation

Le coefficient de corrélation ρ entre deux variables aléatoires X et Y est défini par:

Deux variables aléatoires X et Y sont dites non corrélées si, et seulement si, leur
covariance, cov[XY] = E[XY] – μX μY, est nulle. Elles sont orthogonales si et
seulement si leur corrélation E[XY] = 0.

15/31
Moments conjoints d’ordre
supérieur

Exemple: Indépendance, orthogonalité et corrélation

Soient Θ une variable aléatoire uniformément distribuée dans l’intervalle [−π,


π]ainsi que deux autres variables aléatoires, X et Y, toutes deux fonction de Θ:

La fonction de covariance, cov[XY], de X et Y, est donnée par:

Or les espérances mathématiques, E[X], E[Y] et E[XY], sont:

16/31
Moments conjoints d’ordre
supérieur

Exemple: Indépendance, orthogonalité et corrélation

De même pour E[XY]:

La covariance de X et Y, cov[XY] = E[XY] –E[X]E[Y], est donc nulle, ce qui


implique que les variables aléatoires X et Y sont non corrélées.

Cependant ces deux mêmes variables aléatoires, X et Y, sont dépendantes car elles
dépendent toutes deux de la variable aléatoire: quelle que soit la valeur de Θ, X et Y
seront toujours déphasées de π/2. Les variables aléatoires X et Y sont donc non
corrélées mais dépendantes.

17/31
Processus aléatoires

􀁺 Définition d’un processus aléatoire


􀁺 Processus aléatoires stationnaires
􀁺 Moyenne, fonction d’autocorrélation et fonction
d’auto covariance d’un processus aléatoire
􀁺 Fonction d’inter corrélation de processus aléatoires
􀁺 Processus aléatoires ergodiques

18/31
Définition d’un processus aléatoire (stochastique)

En télécommunications, on rencontre des signaux, tels que le bruit ou de


la voix par exemple, qui sont des fonctions du temps mais qui sont aussi
imprévisibles.
Considérons une expérience aléatoire dont les résultats h appartiennent à
un espace d’événement S. Si l’on associe à chaque résultat S une fonction du
temps à valeur réelle X (t, ), on définit un processus aléatoire ou stochastique. Le
processus aléatoire X (t, ) est donc une fonction de deux paramètres, le temps t et
le résultat .

A un résultat donné i, on associe une fonction unique X(t, i) = xi(t), dite
fonction temporelle élémentaire. L’ensemble de toutes ces fonctions constitue une
famille. A un instant donné tj, X(tj, ) = Xj devient une variable aléatoire , et si l’on
fixe (t= tj ) ainsi que ( = i), X(tj, i) = xi ((tj) est une valeur numérique.

19/31
Définition d’un processus aléatoire
 Concept de processus aléatoire

20/31
Processus aléatoires stationnaires

Plusieurs processus aléatoires ont la caractéristique statistique d'être invariant


dans le temps, c'est-à-dire que le fait de les observer à différents instants ne
change pas leurs propriétés statistiques. Considérons, par exemple, un processus
stochastique X(t) à k instants bien définis dans le temps: X(t1), X(t2), …, X(tk).On
obtient ainsi, un ensemble de k variables aléatoires.

21/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

La moyenne d'un processus aléatoire X(t) est définie comme étant la moyenne de
la variable aléatoire X à l'instant t:

La moyenne du processus X(t), dépend en général du temps.

Si le processus aléatoire X(t) est stationnaire, alors sa fonction de densité de


probabilité, fX(t)(x), ne dépend plus du temps d'observation t et sa moyenne μX(t)
X(t)= μX(, c'est-à-dire une constante.

22/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

23/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

La fonction d'autocorrélation d'un processus aléatoire X(t) est l'espérance


mathématique du produit des variables aléatoires X(t1) et X(t2) obtenues aux
instants t1 et t2.

Si le processus aléatoire X(t) est stationnaire, alors la fonction de densité de


probabilité conjointe ne dépend que de la différence de temps τ= t2 -t1 entre les
deux instants d'observation du processus aléatoire:

24/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

25/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

• Exemple1: Sinusoïde avec phases aléatoires


• Soit X(t) un processus aléatoire décrit par:

Où A est une constante et Θ une variable aléatoire uniforme dans l'intervalle [0,2π).

Le processus aléatoire X(t) est-il stationnaire au sens large? La moyenne de X(t) est
donnée par:

26/31
Moyenne, fonction d’autocorrélation et fonction d’auto-
covariance d’un processus aléatoire

• Exemple1: Sinusoïde avec phases aléatoires


• La fonction d'autocorrélation RX(t1t1) est donnée par:

27/31
Fonction d’inter-corrélation de processus aléatoires

Donc μX (t) = μX= 0 est une constante et RX(t1t1) = RX (τ) est fonction du
retard τ. X(t) est un processus aléatoire stationnaire au sens large.

• Soient X(t) et Y(t) deux processus aléatoires.


• On définit la fonction d'inter-corrélation (ou fonction de corrélation) de X(t) au
temps t1 et Y(t) au temps t2 de la façon suivante:

28/31
Fonction d’inter-corrélation de processus aléatoires

29/31
Fonction d’inter-corrélation de processus aléatoires

La matrice de corrélation des processus aléatoires X(t) et Y(t)est:

Si les processus X(t) et Y(t) sont conjointement stationnaires alors les


fonctions d'autocorrélation, RX(t1,t2) et RY(t1,t2), ainsi que les fonctions
d'inter-corrélation, RX,Y (t1,t2) et RY,X (t1,t2), ne dépendent que du décalage
temporel τ=t2-t1 et la matrice de corrélation R(t1,t2) s'écrit tout
simplement:

30/31
Fonction d’inter-corrélation de processus aléatoires

Exemple: fonction d’inter-corrélation d’un signal avec bruit

Supposons que Y(t) est la sortie d'un canal bruité, caractérisé par un
processus aléatoire N(t), et que X(t) représente le signal transmis:

Quelle est la fonction d'inter-corrélation, RX,Y(t1,t2) entre le signal X(t) à


l’entrée du canal et le signal Y(t) à sa sortie?

31/31
Fonction d’inter-corrélation de processus aléatoires

Exemple: fonction d’inter-corrélation d’un signal avec bruit

La fonction d'inter-corrélation RX,Y(t1,t2) est donc la somme de la fonction


d'autocorrélation de l'entrée X(t) aux instants t1 et t2, i.e. RX(t1,t2),et du
produit μX (t1) μN(t2) des moyennes des processus aléatoires X(t), le signal
à l'entrée du canal, et N(t), le bruit présent dans le canal.

32/31
Fonction d’inter-corrélation de processus aléatoires

Moyennes temporelles et Ergodicité


La moyenne temporelle d’une aléatoire fonction élémentaire x(t) d’un processus X(t)
a pour définition :

De façon identique, la moyenne temporelle de l’autocorrélation de la fonction


élémentaire x(t) a pour définition

33/31
Densité spectrale de puissance

34/31
Densité spectrale de puissance

Propriétés de la densité spectrale de puissance

La valeur de la densité spectrale de puissance à f=0 (i.e. en courant continu) est à


l'aire sous la courbe de la fonction d'autocorrélation RX (τ)

La valeur moyenne quadratique du processus aléatoire est égale à l'aire sous la


courbe de la densité spectrale de puissance PX (f):

La densité spectrale de puissance PX(f) est non négative:

La densité spectrale de puissance PX (f) d'un processus aléatoire réel X(t) est une
fonction paire de la fréquence:

35/31
Densité spectrale de puissance

Exemple: Densité spectrale de puissance d’une sinusoïde avec phase


aléatoire
Le processus aléatoire X(t) :

Où Θ uniformément distribué entre 0 et 2π et A constante est un


processus stationnaire au sens large. Sa moyenne statistique et sa
fonction d’autocorrélation sont invariantes dans le temps:

Nous avons vu aussi que le processus X(t) est ergodique.

36/31
Densité spectrale de puissance

Exemple: Densité spectrale de puissance d’une sinusoïde avec phase


aléatoire
La densité spectrale de puissance PX(f) du processus aléatoire
X(t) peut se calculer comme suit :

37/31
Densité spectrale de puissance

Exemple: Densité spectrale de puissance d’une sinusoïde avec


phase aléatoire
La puissance P s’obtient de la densité spectrale de puissance
PX(f) :

38/31
Bruit Blanc

Définition

39/31
Bruit Blanc

h: dénote le constant de Planck c


(égale à 6.6 x 10-34 J x sec) et k est le
constant de Boltzmann (égale à 1 .38
x10-23 J/K). T dénote la température
en degrés Kelvin

40/31
Relation Entrée-Sortie

41/31
Bruit Blanc = Relation Entrée-Sortie
Exemple:

42/31
Processus à bande passante limitée
Exemple:

43/31
Transformée de Fourier et Propriétés

44/31
Transformée de Fourier des signaux discrets

 Signal discret x[k]


 Transformée de Fourier discrète, périodique

Fréquence définie sur la période principale de 0 à1 ou de -½ à ½

 Fréquence d’échantillonnage réelle Fe=1/Te

Fréquence définie de 0 à Fe ou de -Fe/2 à Fe/2

 Mêmes propriétés que la transformée de Fourier des signaux continus

45/31
Exemple d'application

46/31
Exemple (Signal télégraphique et code morse)
Le télégraphe électrique qui a été conçu en 1832 et breveté en 1840 par SAMUEL
MORSE (1791 - 1872), un inventeur américain né à Charlestown, fut le premier dispositif
filaire de transmission d’informations à distance. Le signal représentant l’information
codée est contenu dans un canal dont la bande de 120HZ est suffisante pour contenir

toutes les fréquences mises en jeu. Ce signal est acheminé sur des lignes bifilaires de
cuivre reliant les stations d’émission et de réception. Le codage correspond en la transcription
de l’alphabet alphanumérique en une suite de deux tops sonores de durées différentes : C’est
l’alphabet MORSE du nom de son inventeur.

47/31

Vous aimerez peut-être aussi