Vous êtes sur la page 1sur 87

1

THEORIE DES OBSERVATIONS


(1ère Partie)
1.1 Notions de statistiques et de probabilités
1.1.1 Événements aléatoires et probabilités
L’une des bases des notions de la théorie des probabilités est l’événement aléatoire. Exemple pile ou
face d’une pièce de monnaie ou la face d’un dé quand on les jette ; la probabilité pour le pile ou face
est 1/2, et 1/6 pour le dé. Un événement aléatoire est celui dont la fréquence relative de sa réalisation
tend vers une limite stable lorsque le nombre d’observations ou répétitions d’une expérience tend vers
l’infini. Cette limite s’appelle la probabilité de réalisation de l’événement. Cette probabilité est comprise
entre 0 et 1. Si cette probabilité vaut 0, l’événement ne se réalisera jamais si par contre elle est égale
à 1, l’événement se réalisera toujours (on dit qu’on est en présence d’un événement certain) ; si
maintenant la probabilité est comprise entre 0 et 1, l’événement peut comme il ne peut pas se réaliser,
cela dépend de la valeur de cette probabilité. Mathématiquement, cette probabilité est symbolisée
par :
0 P[ X ] 1
Où P[X] est la probabilité de réalisation de l’événement X.

Exemple 1.1
Un angle a été mesuré soigneusement 200 fois au Wild T2 à 10-5 grades près. Les observations ont
été corrigées des erreurs systématiques et arrondies à 10-4 grades. Pour chaque mesure on a calculé
la fréquence relative (table 1.1).

On considère que le nombre de mesures est suffisamment grand pour que les fréquences relatives
calculées soient considérées des valeurs limites donc des probabilités.

Obs. Erreur sur Nombre de Probabilités P(X)


arrondies la mesure mesures (Fréquences
au 10-4 grades (seconde relatives )
centésimale)

234.3452 0 030 0.0321


234.3453 1 116 0.1242
234.3454 2 120 0.1285
234.3455 3 125 0.1338
234.3456 4 145 0.1553
234.3457 5 140 0.1499
234.3458 6 132 0.1413
234.3459 7 122 0.1306
234.3460 8 004 0.0043

Total 934 1.0000

Table 1.1

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
2

Affectons aux événements des mesures respectivement les variables A, B, C, D, E, F, G, H, I , et


donnons leur probabilité de réalisation (table 1.2).

Mesure Événement Probabilité


correspondant ~
P[ X ]

234.3452 A P[A]=0.0321
234.3453 B P[B]=0.1242
234.3454 C P[C]=0.1285
234.3455 D P[D]=0.1338
234.3456 E P[E]=0.1553
234.3457 F P[F]=0.1499
234.3458 G P[G]=0.1413
234.3459 H P[H]=0.1306
234.3460 I P[I]=0.0043

Table 1.2
Dans la théorie de probabilité, on dit que 2 événements A et B sont indépendants quand l’avènement
(réalisation) de l’un est indépendant de l’avènement de l’autre. Dans ce cas particulier la probabilité
pour que les 2 événements se réalisent ensemble au même moment est égale au produit de leur
probabilité respective , i.e ;
P[ A B] P [ A ].P [ B ] (1.1)

1.1.2 – Variables aléatoires


~ ~ ~ ~
Une variable aléatoire est un symbole noté X ,Y , H , ~
x , B etc, qui peut prendre, d’une façon aléatoire,
~
toutes les valeurs d’un ensemble donné appelé domaine de la variable. Exemple, la variable D peut
prendre aléatoirement les valeurs numériques des 6 faces (1,2,3,4,5,6) d’un dé lors d’un jet.
Le concept d’une variable peut être étendu à des grandeurs non numériques ; ainsi la couleur de l’arc-
~
en-ciel peut être symbolisée par la variable C qui peut prendre les valeurs , rouge, orange, jaune,
vert, bleu, indigo, et violet.
Lorsqu’une variable ne peut prendre qu’une seule valeur, on dit qu’elle est constante.

1.1.2.1 Le caractère discret


Lorsqu’une variable ne peut, théoriquement, prendre toutes les valeurs comprises dans un domaine,
~
N symbolisant le nombre d’enfants d’une famille. Ce
on dit qu’elle est discrète. Exemple, la variable
~
nombre ne peut être qu’un entier naturel, 0,1,2,3, 4, ….., etc. Jamais N ne prend une valeur
décimale comme par exemple 1.5 ou 2.3324 etc. Ce caractère est représenté graphiquement, en
général, par un diagramme en bâtons. A titre d’illustration, dressons le diagramme en bâtons (Fig. 1.1)
de l’exemple 1.1.

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
3

Figure 1.1 : Diagramme en bâtons Figure 1.2 : Polygone de


fréquences

En joignant les sommets de ces différents sommets par des segments de droite, on obtient le
polygone de fréquences (Fig. 1.2) de la série de mesures de la table (1.1).

1.1.2.2 Le caractère continue- histogramme


Une variable qui peut prendre, théoriquement, toutes les valeurs de son domaine est une variable
continue. Par exemple, dépendamment de la précision de la mesure, la taille d’un individu peut être
1.67 mètre, 1.672 m ou 1.6721 m etc. Cette variable est donc continue. Dans ce cas, le nombre de
valeurs distinctes est en principe infini. Le traitement se fait par le biais de la constitution de classes
ou catégories en divisant l’étendue de la série de mesures en un certain nombre d’intervalles partiels.
On fixe donc les limites et le centre de chaque classe. Le centre de la classe correspond à la valeur
de la moyenne des 2 limites (ou extrémités de la classe). Exemple, on mesure le poids de 100
étudiants de l’Institut Agronomique et vétérinaire Hassan II. La série des mesures effectuées est
groupée en classes (Table 1.3). Chaque classe ainsi définie correspond à un nombre N d’étudiants,
appelé fréquence ou effectif de la classe. L’arrangement des données sous format de la table (1.3), où
pour chaque classe on a l’effectif correspondant, s’appelle fonction de fréquence ou distribution des
effectifs ou encore tableau des effectifs. La représentation graphique de cette distribution d’effectifs
est un histogramme de fréquence. C’est un ensemble de rectangles ayant comme longueur sur l’axe
des X, l’amplitude de la classe (toutes les classes ont la même dimension).

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
4

Poids Effectif
(en Kg) (Nombre d’étudiants)

50 – 52 5
52 – 54 18
54 – 56 42
56 – 58 27
58 – 60 8

Total 100

Table 1.3

Les surfaces de ces rectangles sont proportionnelles aux effectifs des classes. Dans le cas des
classes ayant la même amplitude, la hauteur des rectangles est proportionnelle aux effectifs des
classes.

Figure 1.3 : Histogramme de la distribution Figure 1.4 : Polygone de fréquences de la


(Table 1.3) distribution (Table 1.3)
.

La fréquence ou l’effectif relatif d’une classe est l’effectif de cette classe divisé par l’effectif total de
toutes les classes. La distribution correspondante est appelée une distribution de fréquences, une
distribution de pourcentages ou encore un tableau de fréquences. La représentation graphique de
cette distribution s’obtient en remplaçant sur l’axe des ordonnées les effectifs par les effectifs relatifs.

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
5

Figure 1.5 : Distribution de fréquences ou de pourcentages

On appelle effectif cumulé d’une classe l’effectif total correspondant à toutes les valeurs plus petites
que la borne supérieure de la même classe. Exemple, l’effectif cumulé de la classe (56 – 58) de la
table (1.3) est : 5 + 18 + 42 + 27 = 92 , i.e il y a 92 étudiants qui pèsent moins de 58 kg. La
distribution correspondante à l’effectif cumulé s’appelle distribution cumulée des effectifs. On construit
le tableau des effectifs cumulés et le graphe comme indiqué à la table (1.4) et la figure (1.6)
suivantes :

Poids Nombre d’étudiants


(kilogrammes) (effectif cumulé)
<50 0
<52 5
<54 23
<56 65
<58 92
<60 100

Table 1.4 : distribution cumulée des effectifs.

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
6

Figure 1.6

1.1.3 Les mesures de tendance centrale


Une mesure à tendance centrale est toute valeur à tendance à se situer au milieu d’un ensemble de
données rangées par ordre croissant. Exemple, la moyenne qui est une caractéristique d’un ensemble
de données est une tendance centrale. Il y a plusieurs types de moyenne : la moyenne arithmétique,
la médiane, le mode, la moyenne géométrique et la moyenne harmonique. L’utilisation de chaque
type dépend du but recherché et de la nature des données.

1.1.3.1 La moyenne arithmétique


Soit un ensemble de n nombres x1, x2 , x3 , …, xn. On désigne par x la moyenne arithmétique donnée
par l’expression suivante :
n
xi
x1 x2 x3 ... xn i 1
x (1.2)
n n
Exemple 1.2
Calculer la moyenne arithmétique de la série des 6 mesures (en grades) d’un angle suivante :
113.1234 ; 113.1225, 113.1230 ; 113.1236 .
Alors la moyenne arithmétique x de cette série est :

113 G .1234 113 G .1225 113 G .1230 113 G .1236


x 113 G .123125
4

Si xi se produit fi fois, alors la moyenne x est calculée comme suit :

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
7

n
f i xi
f 1 x1 f 2 x2 f 3 x 3 .... f n x n i 1
x (1.3)
n
f1 f 2 f 3 .... f n
fi
i 1

Exemple 1.3
Soit à calculer la moyenne arithmétique des mesures de l’exemple 1.2, qui se sont produites
respectivement 3, 5, 2 et 4 fois.
Dans ce cas la moyenne arithmétique x est calculée selon la relation (1.3). Ainsi

3 113 G .1234 5 113 G .1225 2 113 G .1230 4 113 G .1236


x 113 G .12308
14

1.1.3.2 La moyenne arithmétique pondérée


Si l’on a des préférences pour des mesures par rapport à d’autres, on transforme ces préférences en
facteurs d’importance p1, p2, …, pn appelés poids, et la moyenne à calculer est appelée moyenne
arithmétique pondérée. Elle est calculée au moyen de l’expression suivante :
n
pi xi
p1 x1 p 2 x 2 .... p n x n i 1
x n
(1.4)
p1 p 2 ... p n
pi
i 1

Exemple 1.4
On a mesuré une distance D au moyen de 3 rubans. Le 1er et le 2ème ruban sont respectivement 2
fois et 3 fois plus précis que le 3ème. Si les mesures sont respectivement : 234.456 m ; 234.421 m ;
234.487 m , calculer la moyenne arithmétique pondérée.
Selon la relation (1.4) ;

2 234.456 3 234.421 1 234.487


x 234.4436667 m
2 3 1

1.1.3.3 – Les propriétés de la moyenne arithmétique


1 • La somme des écarts d’un ensemble de valeurs par rapport à leur moyenne x est nulle.
Si xi (i=1, 2,…, n) sont les éléments de l’ensemble des valeurs et x leur moyenne arithmétique,
alors :
n n
( xi x) vi 0 (1.5)
i 1 i 1

Dans le cas de la moyenne pondérée, la somme des écarts pondérés est nulle c'est-à-dire que :
n n
p i ( xi x) pi vi 0
i 1 i 1

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
8

2 • On démontre, plus loin, que la somme des carrés de ces écarts v i est minimale,
c'est-à-dire que :
n n
( xi x )2 vi2 est min imale (1.6)
i 1 i 1

n n
pi ( xi x )2 pi v i2 est min imale (1.7)
i 1 i 1

Exemple 1.5
Calculons les écarts de l’exemple 1.3 comme suit:

vi xi x (1.8)

Ainsi ;

v1 113.1234 113.12325 0.000275


v2 113.1225 113.123125 0.000625
v3 113.1230 113.12325 0.000125
v4 113.1236 113.12325 0.000475

Alors la somme de ces écarts est :


4
vi 0.000275 0.000625 0.000125 0.000475 0
1

Dans le cas où les mesures se répètent ou elles sont pondérées (Exemples 1.3 et 1.4), la somme des
écarts pondérés est nulle.
Calculons la somme des écarts pondérés de l’exemple 1.4 :

2 234.456000 234.44367 3 234.421 234.44367


1 ( 234.487 234.44367 ) 0.025 0.068 0.043 0

3 • Soit x 1 , x 2 ,...., x k les moyennes arithmétiques respectives des ensembles E1 de n1


valeurs, E2 de n2 valeurs …… Ek de nk valeurs. La moyenne arithmétique x des k ensembles , i.e de
(n1+ n2+ ….+nk) valeurs est donnée par la relation suivante :
k
ni xi
n1 x1 n2 x2 .... nk xk i 1
x k
(1.9)
n1 n2 .... nk
ni
i 1

4 • Si Y est une valeur centrale d’un ensemble de n valeurs xi (ou un nombre quelconque) et
si l’on note les écarts de ces valeurs par rapport à Y par vi tels que :

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
9

vi xi Y

alors la moyenne arithmétique des valeurs xi pourrait être calculée par la relation suivante :
n
vi
i 1
x Y (1.10)
n
Quant à la moyenne pondérée, elle est donnée par l’expression suivante :
n
p i vi
i 1
x Y n
(1.11)
pi
i 1

1.1.3.4 La médiane (md)


La médiane d’un ensemble de N nombres rangés par ordre de grandeur croissante est la valeur du
milieu si N est impair, et la moyenne arithmétique des 2 valeurs centrales si N est pair.
Géométriquement, la médiane est l’abscisse x qui correspond à l’axe des ordonnées qui divise
l’histogramme en 2 parties d’aires égales. Dans le langage probabilistique, xi est médiane si :

F ( xi 1 ) 0.50 F ( xi ) (1.12)

pour une variable discrète ; et pour une variable continue :


xi
F ( xi ) P [ x xi ] f ( x )dx 0.50 (1.13)

Dans ces relations :

F(x) = fonction de distribution de probabilité ou de répartition ou


encore fonction cumulative de probabilité de la variable aléatoire x;
f(x) = fonction de densité de probabilité de la variable aléatoire x.

F(x) et f(x) sont étudiées dans le sous chapitre 1.1.6.

Exemple 1.6
Soit à déterminer la médiane de chacune des 2 séries de nombres suivantes :
Série 1 : 2, 2, 5, 5, 5,7, 10, 13, 13, 13, 13, 17, 25
Série 2 : -5, -5, -5, -1, 13, 14, 16, 24, 35, 35
Solution :
Série 1 : N est impaire, alors la médiane est la valeur centrale soit 10.
Série 2 : N est paire, alors la médiane est donné par la moyenne
arithmétique des 2 valeurs centrales de la série, soit : 13 et
14. Ainsi, la médiane est 13.5.

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
10

1.1.3.5 Le mode (mo)


Le mode d’un ensemble de nombres est le nombre qui se répète le plus, donc celui qui a la plus
grande fréquence (plus grande probabilité).

1.1.3.6 Exemples d’illustration


Les notes en compensations géodésiques de 152 étudiants sont comprises entre 9 et 16. La table 1.5
donne ces notes, leurs fréquences, et leurs fonctions de répartition.

On se propose de calculer les mesures de tendance centrale de la distribution de la table 1.5.

1 – La moyenne arithmétique x des notes.

x xi . f ( xi )
i

x 9 0.30 10 0.22 11 0.16 12 0.10


13 0.09 14 0.08 15 0.04 16 0.01 10.91

2 – La médiane ( md)
On constate dans la colonne des fonctions de répartition F(xi) (Table 1.5) que :

F ( xi 1 ) 0.30 pour xi 1 x1 9 , et F ( xi ) 0.52 pour


xi x2 10 ; ainsi d’après la définition, x2 md 10 .

Fréquence Fonction de
Notes Fréquences relative répartition
(/ 20) (nombre f(xi ) F(xi )=P[X
xi d’étudiants) densité de xi]
probabilité (Probabilités
cumulées)
9 45 0.30 0.30
10 33 0.22 0.52
11 24 0.16 0.68
12 15 0.10 0.78
13 14 0.09 0.87
14 12 0.08 0.95
15 6 0.04 0.99
16 3 0.01 1.00
Total 152 1.00

Table 1.5

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
11

3 – Le mode (mo).

D’après la définition, il apparaît que x1 9 , puisque cette note correspond à la plus


grande probabilité.

1.1.3.7 La moyenne géométrique


La moyenne géométrique xG d’une série de nombres xi (i=1,2,…,n) est la racine nème du produit des

nombres, soit :

xG n x1 x2 x3 ...x n (1.14)

Exemple 1.7
La moyenne géométrique de la série de nombres suivante : 3, 4,7 10, 15, 16 est :
6
xG 3 4 7 10 15 16 6.376

1.1.3.8 La moyenne harmonique

La moyenne harmonique x H d’une série de nombres xi (i=1,2,…,n) est l’inverse de la moyenne


arithmétique des inverses de ces nombres, soit :
1 n
xH n n
(1.15)
1 1 1
n i n xi i n xi

Exemple 1.8
La moyenne harmonique de la série de nombres de l’exemple 1.7 est :

n 6
xH 6.280
n
1 1 1 1 1 1 1
i n xi 3 4 7 10 15 16
Remarque
La moyenne arithmétique, la moyenne géométrique et la moyenne harmonique sont telles que :
xH xG x (1.16)

1.1.3.9 La moyenne quadratique


La moyenne quadratique x Q d’une série de nombres xi (i=1,2,…,n) est la racine carrée de la moyenne

arithmétique des carrés de ces nombres, soit :


n
x i2
i 1
xQ (1.17)
n

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(Mars 2021)
1

THEORIE DES OBSERVATIONS


(2ème Partie)

1.1.4 Espérance, variance, écart type


1.1.4.1 Espérance mathématique
~
Si X est une variable aléatoire discrète d’une distribution de probabilité x1, x2, x3, x4,
~
…, xn , et f(xi) la fonction de densité de probabilité, la quantité, notée E[ X ] ,obtenue
au moyen de l’expression suivante :
n
~
E[ X ] xi f ( xi ) x1 f ( x1 ) x 2 f ( x 2 ) ... x n f ( x n ) (1.18)
i 1

~
est appelée l’espérance ou la valeur espérée de la variable X .
~
Si X est une variable aléatoire continue dans un domaine fermé [a,b], l’espérance
~
de X a pour expression :
~ b
E[ X ] x f ( x)dx (1.19)
a

Les relations (1.18) et (1.19) expriment l’espérance mathématique d’un échantillon


d’une population ; pratiquement, c’est la moyenne notée x de l’échantillon, c’est une
valeur qui marque le centre de la distribution de probabilité considérée. En effet une
population est une série d’observations en nombre quasi infini dont la moyenne est
~
donnée par l’espérance mathématique de la variable X , soit :
~
E[ X ] x f ( x )dx (1.20)

x est considérée comme étant le meilleur estimé de .

1.1.4.2 Variance et écart type (ou déviation standard)


~ ~
La variance notée 2 ( X ) ou var( X ) d’une population est définie par la relation
suivante :
2 ~ ~
(X ) E [( X )2 ] (x ) 2 f ( x )dx (1.21)
~ ~
L’estimé s 2 (X) de 2
(X) est obtenue à travers un échantillon, telle que :

n
~ ~
~ E[( X x )2 ] ( xi x ) 2 f ( xi ) X est discrète
s2 ( X ) i 1 (1.22)
~ b ~
E[( X x )2 ] ( x x ) 2 f ( x)dx X est continue
a

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
2

L’écart type d’une distribution est la racine carrée de la variance, souvent appelé
déviation standard.

1.1.5 Les distributions de probabilité continues


Une distribution de probabilité continue est un modèle de probabilité qui a une
fonction de distribution continue F(x), c'est-à-dire une fonction qui ne présente pas de
sauts ou qui ne cascade pas. Or pour une telle fonction de distribution, la fonction
de probabilité est nulle partout et de ce fait son utilisation n’a pas de sens. A sa place
on utilise la fonction de densité de probabilité f(x) dont la définition mathématique est
donnée par la relation suivante :

dF ( x )
f(x) F' ( x ) (1.23)
dx
Comme F(x) n’est pas décroissante, sa pente ne doit pas être négative, ainsi :
f(x) 0
Alors dans un intervalle fermé [a,b] et compte tenu de la relation (1.23).
b
f ( x )dx F( b ) F( a ) (1.24)
a

qui n'est autre que la probabilité telle que :


b
P[ a x b] F( b ) F( a ) f ( x )dx (1.25)
a

On note que ( a x b ) est un événement aléatoire dont la probabilité de réalisation

est donnée par l’intégrale de la fonction de densité de probabilité f( x1 ) dans


l’intervalle ]a,b]. Cette probabilité est représentée par l’aire comprise entre la courbe
f(x), l’axe des x et les perpendiculaires à ce dernier en x = a et x = b (Fig. 1.7). Si
l’on utilise la fonction de distribution de

Figure 1.7: mesure de la probabilité Figure 1.8 : mesure de la


par f(x) probabilité par F(x)..
Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
3

probabilité F( x ), la probabilité de l’événement ( a x b ) est mesurée sur l’axe des

ordonnées par la différence F(b)-F(a) (Fig.1.8).


La figure 1.8 montre que le domaine de variation de F(x) est l’intervalle fermé [0,1].
Par ailleurs, 2 relations fortement utiles découlent de la relation (1.25). La première
s’obtient en posant : [ a , b ] ] , [ , et par référence à la relation (1.25) :

f ( x )dx P[ x ] F( ) F( ) 1.0 (1.26)

Qui signifie que la surface totale comprise entre la courbe f(x) et l’axe des abscisses
x, doit être égale à l’unité (Fig. 1.9).

Figure 1.9

La seconde relation s’obtient en posant [ a , b ] ] , u ] , et comme F ( ) 0 et


donc l’événement (x u ) est équivalent à l’événement ( x u ) , et par
conséquent :
u
F (u) P[ x u] P[ x u] F (u) F ( ) f ( x)dx (1.27)

1.1.6 - La distribution normale (ou distribution de Gauss)


La fonction de densité de probabilité de Gauss pour une variable aléatoire ~ est de la
forme suivante :
~2

1
g( ~ )
2
2
e (1.28)
2
Cette fonction peut être généralisée pour une variable aléatoire ~
x dont la moyenne
et la variance sont respectivement μ et σ2 en utilisant la relation suivante :
~ ~ x (1.29)

En portant (1.29) dans (1.28), nous obtenons :


(~
x )2
1
g( ~
2
2
x) e (1.30)
2
Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
4

On dit dans ce cas, que la variable ~


x suit une loi normale que l’on note par
N( , ; ~
x ) . Ainsi on peut écrire :
(~
x )2
1
N( , ; ~
2
2
x) e (1.31)
2
La fonction de répartition correspondante s’exprime comme suit :
(~
x )2
x 1 x
(~ N( , ; ~
2
x) x ) dx e 2
dx (1.32)
2

~
x (~
x) ~
x (~
x)

4 0.0000 13 0.6915
5 0.0002 14 0.8413
6 0.0013 15 0.9332
7 0.0062 16 0.9772
8 0.0228 17 0.9938
9 0.0668 18 0.9987
10 0.1587 19 0.9998
11 0.3085 20 1.0000
12 0.5000 10 0.1587
9.5 0.1056 10.5 0.2266

Table 1.6 : valeurs de (~


x)
(~
x ) reste dans sa forme intégrale, car elle ne peut pas être intégrée. Pour l’évaluer
on utilise des séries d’approximation. La table (1.6) donne les valeurs de ( ~
x ) pour
x ) et pour différentes valeurs de la variable aléatoire ~
N ( 12 , 2; ~ x.

Exemple 1.9 : utilisation de la table (1.6) : Trouver la probabilité :


a – telle que X soit plus petite ou égale à 10.5 ;
b – telle que X se trouve entre 18 et 20 ;
c – telle que X soit plus grande que 19.

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
5

Solution
a – P[ X 10.5 ] (~
x ) 0.2266 ; (Fig.1.10)

Figure 1.10 : P [ X 10.5 ] (~


x)

b– P [ 18 X 20 ] ( 20 ) ( 18 ) 1.0000 0.9987 0.0013


c- P[ X 19 ] ( ) ( 19 ) 1.0000 0.9998 0.0002

Lorsque 0 , la loi normale N est dite centrée. Si en plus 1 , N est dite


réduite. Dans ce dernier cas, posons ;
x
z (1.33)

z est appelée variable réduite. Par conséquent la relation (1.31), s’écrit comme suit :
z2
1
N ( 0 ,1; z ) e 2
(1.34)
2
Vérifions si la variable z a les statistiques suivantes :

Z 0
Z 1

En effet la moyenne Z est donnée par l’expression suivante :


Z2
1
Z E[ z ] z .N ( 0 ,1; z )dz ze 2
dz (1.35)
2

dont le résultat est ;

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
6

z2
1
Z e 2
0 (1.36)
2

2
Par ailleurs, la variance Z de la variable z est donnée par l’expression (1.21), soit :

2
Z E [( z Z )2 ] E[ z 2 ]
Z2
2 1 2
z .N ( 0 ,1; z )dz z e 2
dz
2
(1.37)

Posons, pour intégrer par parties ;


Z2 Z2
du e zdz
2
u e 2

dv dz v z

et comme ;

vdu vu udv

on en déduit pour la relation (1.37) ;

z2 z2
2 1 1
z e 2
z e 2
dz (1.38)
2 2

or ;
z2
1
e 2
z 0
2

et l’on sait que d’après le résultat (1.23) ;

z2
1
e 2
dz 1
2
donc ;

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
7

2
z 1

l’objectif de la loi réduite est l’établissement des tables statistiques (Table 1.7) une
fois pour toutes. L’argument d’entrée dans ces tables est la variable réduite z définie
par la relation (1.39) soit :
x
z (1.39)

z2
1
1.1.6.1 Etude de la fonction de Gauss ; N ( 0 ,1; z ) e 2

Figure 1.11 : courbe de Gauss

la fonction N(0,1 ; z) est paire par rapport à Oy, par conséquent on limitera l’étude à
l’intervalle [ 0 , [ . La dérivée N’(0,1 ; z) de N (0,1 ; z) est :
z2
z
N' ( 0 ,1; z ) e 2
z .N ( 0 ,1; z )
2
(1.40)
N’(0,1 ; z) est négative dans l’intervalle considéré, ce qui prouve que la fonction
N(0,1 ; z) est décroissante. Calculons maintenant la dérivée seconde N (0,1 ; z) ;
z2 z2
z2 1
N " (0,1; z ) e 2
e 2
( z 2 1). N (0,1; z )
2 2
(1.41)
N (0,1 ; z) s’annule pour z =1 ce qui correspond au point d’inflexion I (Fig.1.11).
Lorsque N(0,1 ; z) est centrée ( c'est-à-dire 0 ) , la relation (1.39) se réduit à ;

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
8

x
z (1.42)

ainsi, au point d’inflexion I sur la courbe réduite pour z=1, correspond le point
d’inflexion x sur la courbe non réduite.

Par ailleurs, on définit les fonctions de répartition (z) et F(z) comme suit :
z
( z ) P[ Z z] N ( 0 ,1; Z )dZ
z
(1.43)
F( z ) P[ 0 Z z] N ( 0 ,1; Z )dZ
0

où N (0,1 ;z) est la densité de probabilité. Dans le cas de la loi normale :


z2
1
N ( 0 ,1; z ) e 2
(1.44)
2
Donc les relations (1.43) s’écrivent comme suit :
Z2
1 z
( z ) P[ Z z] e 2
dZ (1.45)
2
Z2
1 z
F ( z ) P[ 0 Z z] e 2
dZ (1.46)
2 0

( z ) correspond à la partie teintée du graphe de la figure suivante ;

Figure 1.12 : Fonction de répartition (z)=P[Z<z]

Si l’on s’intéresse uniquement à l’intervalle (0,z) c'est-à-dire F(z)=P[0<Z<z], ceci


équivaut à :
Z2
z 1 z
F ( z ) P[ 0 Z z] N ( 0 ,1; Z )dZ e 2
dZ (1.47)
0 2 0

et correspond à l’aire teintée sur le graphe de la figure (1.13).

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
9

Figure 1.13 : Fonction de répartition F(z)=P[0<Z<z]

Pour tout z o , le graphe de la figure (1.12) correspond à la relation suivante ;


P[ Z z] P[ Z 0] P[ 0 Z z]

qui correspond à la fonction de répartition suivante ;

(z) ( 0 ) F( z ) (1.48)
Or ;
1
( 0)
2

donc ;
1
(z) F( z ) (1.49)
2

Comme la fonction de densité N(0,1 ;Z) est paire, on peut écrire ;


z z
P[ Z z] N ( 0 , 1; Z )dZ 2 N ( 0 , 1; Z )dZ 2F( z ) (1.50)
z 0

soit ;
Z2 Z2
2 z 2 z
P[ Z z] e 2
dZ e 2
dZ (1.51)
2 0 0

ce qui correspond à l’aire teintée sur le graphe de la figure suivante :

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
10

Z2
2 z
Figure 1.14 : P [ Z z] e 2
dZ
0

Comme il a été signalé ci-avant, la loi normale réduite est utilisée pour établir la table
statistique de la fonction de répartition F(z) (Table 1.7). La variable d’entrée z est la
variable réduite donnée par la relation suivante :

x
z (1.52)

Où ;
x = étant une variable non réduite ;
= la moyenne de la variable x.

Table 1.7 : Valeurs de F(z) pour différentes valeurs de z (Fig.1.4)


F( z ) P[ 0 Z z]
(D’Hollander,1970).

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(16 Mars 2021)
1

THEORIE DES OBSERVATIONS


(3èmePartie)

Table 1.7 : Valeurs de F(z) pour différentes valeurs de z (Fig.1.4)

F ( z ) P[ 0 Z z]

(D’Hollander,1970).

Par ailleurs,comme il a été signalé auparavant, pour une loi centrée, c'est-à-
dire 0 , la relation (1.52) devient ;

x
z (1.53)

Pour z = 1, 2, 3, le point d’inflexion I sur la courbe correspond respectivement aux


abscisses, x = ; x =2 ; x=3 .

Utilisons la table (1.7) pour extraire les valeurs de la fonction de répartition F(z) qui
correspondent à ces différentes abscisses ; soit :

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
2

z F(Z)=P[0<Z<z] 2F(z)=P[ Z z] Probabilité

par tranche
d’écart type

F( ) = 0.3413 =
34.1%
1( ) 0.3413 0.682
F(2 ) - F( ) =
2 0.4772 0.954
0.1359 = 13.6%
(2 )
0.4986 0.997
F(3 ) - F(2 ) =
3
0.0214 = 2.15%
(3 )
F(∞) - F(3 ) =
0.0014 = 0.15%

Total = 50.00%

Table 1.8 : Probabilités correspondant à x= ; 2 ; 3 ; (D’Hollander,1970

Figure 1.15 : Illustrations des probabilités en pourcentage

correspondant à ;2 ;3 ; (D’Hollander,1970).

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
3

Les probabilités en pourcentage correspondantes par tranche d’écart type sont


illustrées sur le graphe de la figure (1.15).

0n peut aussi relever, de la table statistique (1.7), les données particulières relatives
à z = 0.6745, 1.96 et 2.58 (Table 1.9), et tenant compte de la relation (1.52) comme
suit :

x z.

z x F(z)

0.6745 0.675 0.2500

1.96 1.96 0.4750

2.58 2.58 0.4950

Table 1.9 : Valeurs particulières importantes

La table (1.9) peut être illustrée par le graphe de la figure (1.16a) suivante :

Figure 1.16a : Les probabilités en pourcentage des valeurs

particulières de la table 1.9. (D’Hollander,1970).


Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
4

On constate d’après la figure (1.16a) que :

x
P[ z 2.58] 0.5% P[ 2.58] 0.5% P[ x 2.58 x 0] 1%
x

x (1.54)
P[0 z 2.58] 49.5% P[0 2.58] 49.5% P[ 2.58 x x 2.58 x ] 99%
x

x
P[ z 1.96] 2.5% P[ 1.96] 2.5% P[ x 1.96 x 0] 5%
x

x
P[0 z 1.96] 47.5 P[0 1.96] 47.5% P[ 1.96 x x 1.96 x ] 95%
x

1.1.6.2 – Expressions de la moyenne et de la variance d’échantillon.

x ayant comme distribution N(μ, σ, ~


Considérons une variable aléatoire ~ x ). Soit un
échantillon L= li (i=1,2,…,n), à partir duquel on calcule x et s2 les estimés respectifs de
μ et σ2.

• L’estimé x de la moyenne .

x est obtenu par la relation suivante :

n
1
x li
n i 1

or, si l’on note, par i, la variation de la mesure li par rapport à , on peut écrire ;

li i ; (i 1, 2 , ... , n ) (1.55)

et par conséquent, la relation précédente donnant x , devient :

n
1
x ( i )
n i 1

n
1 1
x n i (1.56)
n n i 1

D’après la théorie de Gauss, εi sont les erreurs accidentelles et proviennent d’une


population normale N(0, σ2ε, ~ ), i.e με=o ; on peut donc s’attendre à ce que → 0, de
sorte que x = μ .

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
5

2
• Variance ( x ) de la moyenne x : La moyenne x de n variables li avec (i=

1,2,….,n) est donnée par :

n
li
i 1
x (1.57)
n

Comme la variance d’une somme est la somme des variances de ses éléments,
alors :

n
2 1 2
(x) i ( li ) (1.58)
n2 i 1

Or les éléments li appartiennent à la même population, donc ils ont la même


2 2 2
variance ( variance de ladite population), i.e ( li ) . Ainsi,

n
2 2
( li ) n (1.59)
i 1

et par conséquent la relation (1.58) se réduit à :

2
2 2
(x) x (1.60)
n

• L’estimé de la variance de la population

2
Comme la variance de la population n’est pas connue, on l’estime de la façon

suivante, à partir d’un échantillon donné. Soit s 2 cet estimé:

n n
1 1
s2 ( li x )2 ( li )2 (1.61)
n 1 i 1 n 1 i 1

n
2 1
s ( i )2 s2 (1.62)
n 1 i 1

L’expression (1.62) nous permet de dire que la variance s 2 d’un échantillon est

identique à la variance s2ε de l’échantillon des erreurs aléatoires εi correspondantes.


Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
6

C’est pourquoi s 2 est appelée "erreur moyenne quadratique (MSE) ". Sa racine

carrée s est appelée déviation standard ou RMSE (Root Mean Square Error).

• L’estimé de la variance de la moyenne.

Par voie de conséquence, la variance de la moyenne est obtenue en portant (1.61)


2
dans (1.60), en assimilant s 2 à :

2
s2 1 n
s x ( li x )2 (1.63)
n n( n 1 ) i 1

On remarque que plus la taille n de l’échantillon est grande ( n 30 ) et plus


s 2 (relation 1.61 ou 1.62), estimée de la variance 2
de la population, est petite et

par conséquent, elle constitue le meilleur estimé.

• L’intervalle de confiance de la moyenne.

1 - Cas des grands échantillons dont les variables suivent la même loi de probabilité.

Dans ce cas la moyenne x de la relation (1.57) suit, approximativement, une loi


2
normale de moyenne vraie µ et de variance x estimée par la relation (1.60).

Puisque l’observation x est une variable aléatoire gaussienne de moyenne µ (du fait
que les observations li sont aléatoires), on peut construire la variable réduite
suivante :

x x
z (1.64)
x

Des relations (1.54) , on déduit :

P[ x x 2.58 x ] 0.99
(1.65)
P[ x x 1.96 x ] 0.95

d’où les encadrements de la moyenne suivants :

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
7

P[ x 2.58 x x x 2.58 x ] 0.99


P [ x 1.96 x x x 1.96 x ] 0.95
(1.66)

Ces encadrements de la moyenne s’appellent les intervalles de confiance de la


moyenne, respectivement, à 99% et 95%. Ils sont valables uniquement dans le cas
où la taille n de l’échantillon est telle que : n 30

Cours de la Théorie des Observations donné à distance (via Google Meet) par Prof.Dr Benaim
(18 Mars 2021)
THEORIE DES OBSERVATIONS
(4ème partie du cours)

2 – Cas des moyennes des petits échantillons (loi de student – Fischer).


La distribution de la moyenne des petits échantillons est très souvent éloignée de la
loi normale et à titre de comparaison, si l’on considère un même degré de sécurité, on
constate que l’intervalle de confiance dans le cas des grands échantillons est plus
étendu que dans le cas des petits échantillons.
Un échantillon est dit de petite taille quand le nombre n de ses effectifs est tel que
n  30 . On considère, dans ce cas, la variance expérimentale s 2 au lieu de la variance

de la population  2 et on remplace la variable réduite z (relation 1.64) :

x
z

n
par :
x
t (1.67a)
s
n
la nouvelle variable t s’appelle variable de Student – Fischer. Ces derniers ont étudié
la distribution de cette variable t pour différentes valeurs de (n -1) et ont construit des
tables (Annexe A, Table 1) à entrée horizontale par la probabilité et entrée verticale
par le nombre (n -1) appelé degré de liberté. La table donne les valeurs de la variable
t correspondantes aux probabilités d’être dépassées. Pour illustrer, traitons l’exemple
suivant : soit n=7 et la probabilité pour que t soit dépassée est =0.05. En entrant

dans la table 1a (Annexe A) par (n -1)=6 et  0.025 , nous pouvons obtenir t  ; soit
2 2

t0.025 =2.447 . Cela signifie qu’il y a 5% de chance pour que cette valeur de t soit
dépassée en plus ou en moins.
Dans le cas des petits échantillons (loi de Student-Ficher), l’encadrement de la
moyenne est tel que :
s s
P[ x  t  .    x  t . ]  1 (1.67b)
2 n 2 n

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
1.1.6.3 Ellipse d’erreur
La variance ou l’écart type mesurent la précision dans un espace monodimensionnel
c'est-à-dire la précision d’une variable telle qu’une distance ou un angle par exemple.
Dans le cas de problèmes bidimensionnels, tels que la position horizontale (x,y) d’un
point, des ellipses d’erreur doivent être établies autour du point calculé pour désigner
les régions de précision pour différentes probabilités. Les demi grand axe et demi petit
axe de ces ellipses sont déduits de la matrice de variances covariances des
coordonnées (x, y), de la manière suivante, soit :
  2  xy 
  x 2 
(1.67c)
 xy  y 
La matrice de variances covariances des coordonnées (x,y) d’un point P, et a et b les
demi grand axe et demi petit axe respectifs de l’ellipse d’erreur du point P. On
démontre que a et b se déduisent de l’équation du second degré en  suivante :

(  ) 2  tr(  )(  )    0 (1.67d)

Où ;
tr(  ) = trace de la matrice  ;
 = déteminant de la matrice  .

La relation (1.67d) est le polynôme caractéristique de la matrice de variances


covariances  (relation 1.67c) . En tenant compte des valeurs de la trace et du
déterminant de  , l’ équation (1.67d) s’écrit sous la forme suivante :
2  (  x2   y2 )  (  x2 y2   xy2 )  0 (1.67e)

Si l’on note par 1 et 2 (valeurs propres de la matrice  ), les racines de cette


dernière équation, a et b s’en déduisent comme suit :

a  k 1 et b  k 2 (1.67f)

k est le facteur-échelle de l’ellipse. La dimension de l’ellipse peut être réduite ou élargie


par la multiplication des demi axes a et b par le facteur-échelle k qui est lié à une

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
probabilité P (Table 1.10). Plus k est grand, plus la probabilité est grande pour que le
résultat tombe à l’intérieur de l’ellipse d’erreur.

k 1.000 1.177 2.146 2.447 3.035


P 0.394 0.500 0.900 0.950 0.990

Table 1.10 : Les valeurs usuelles du facteur echelle k.

L’orientation  de l’ellipse d’erreur correspondante, par rapport à l’axe des x, s’obtient


au moyen de la relation suivante :
2 xy sin 2
tan 2  2  (1.67g)
 x   y cos 2
2

Dont la solution ;

1  2 xy  
   arctan  2   K   (1.67h)
2  
 x   2
y 



K est arrêté en étudiant les signes du sin 2 et cos 2 qui sont , en fait, les signes de
( 2 xy ) et (  x2   y2 ) respectivement .

Figure 1.16b : l’ellipse d’erreur

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
Exemple 1.10
La matrice de variances covariances des coordonnées (x,y) déterminées à partir des
observations d’un angle et d’une distance est :

 0.7867  0.5495
 
 0.5495 0.8940 

Solution

1- calcul des demi axes de l’ellipse d’erreur :

Le polynôme caractéristique de  en vertu de l’équation (1.67e) est :

2  ( 0.7867  0.8940 )  0.7867  0.8940  ( 0.5495 ) 2  0

Que l’on réduit à ;

2  1.6804  0.4014  0

Ou encore sous forme factorisée suivante ;

(   1.39 )(   0.29 )  0

Les solutions sont alors ;

1  1.39 a  1.18 k
et par conséquent ;
2  0.29 b  0.54 k

2- Calcul de l’orientation  ;
On applique la relation (1.67h) ;

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
  1.099 
2  arctan   K
  0.1073 

Or par référence aux signes de ( 2 xy ) et (  x2   y2 ) , il apparaît que sin 2  0 et

cos 2  0 , par conséquent l’angle 2 est tel que 180  2  270 , c'est-à-dire que
K =1 (figure 1.16 c) . Ainsi ;

2  84 .42365  180 
d’où ;
  132 .21182  132 12 ' 43"

Figure 1.16 c : Cercle trigonométrique et l’angle 2

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
Figure 1.16d : L’ellipse d’erreur solution de l’exemple 1.10

1.2 Concepts de mesures et erreurs en topographie


Une mesure ou observation est le résultat de plusieurs opérations dont chacune d’elles
constitue une contribution à l’utilité définitive de cette mesure.
Exemple 1.11:
- mesure d’une distance entre 2 points ;
- mesure d’un angle entre 2 directions….etc.

Une mesure est un processus assujetti à des variations provoquées par des facteurs
physiques, tels que par exemple la température et la pression ou dues à l’imperfection
des instruments ou de nos sens…etc. Les petites variations qui se produisent dans les
opérations élémentaires provoquent des variations dans les mesures. Ainsi : toutes les
mesures sont soumises à des variations. Par conséquent, aucune quantité mesurée
n’est complètement déterminée. On doit chercher une valeur fixe pour une quantité
que nous considérons par la suite comme étant sa vraie valeur. Mais en réalité cette
valeur n’est qu’une valeur estimée de la valeur vraie. Mathématiquement, une mesure
doit être considérée comme variable. Il est à souligner que la variation obtenue dans
les valeurs d’une quantité mesurée est un phénomène naturel qui peut être attendu

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
toujours quand les conditions sous lesquelles les mesures ont été effectuées sont
essentiellement constantes. Si l’on attend une variation, on doit s’attendre à une
différence entre la valeur mesurée d’une quantité et sa valeur vraie quoique ce soit.
Cette différence est appelée l’erreur sur la valeur mesurée.
L’étude des erreurs d’observation et de leur comportement est équivalente
essentiellement à l’étude des observations elles-mêmes. En d’autres termes, tout ce
qui est classiquement référé à la théorie des erreurs est équivalent à ce qui est appelé
aujourd’hui théorie des observations. Si l’on note par  la valeur vraie d’une quantité
(distance, angle, .. etc) et par x sa valeur observée, alors l’erreur vraie sur cette valeur
x est définie comme suit :

=x- (1.68)
Où ;
 = erreur vraie sur la valeur mesurée x,
x = valeur mesurée (observée),
 = valeur vraie.

Puisqu’on ne peut jamais connaître la valeur vraie , on ne pourra jamais connaître la


valeur exacte . Si l’on peut avoir, par quelques moyens que soient, un bon estimé x̂
de , on peut utiliser cet estimé à la place de  comme référence pour exprimer la
variation dans les valeurs observées. Alors si :
x̂ = l’estimé de ,
x = la valeur observée,
v = résiduelle.
Alors,
v  x  x̂ (1.69)

La résiduelle v est la quantité qui exprime la variation de la mesure.

1.2.1 Les types d’erreurs


Les erreurs sont classées en trois catégories, qui sont :

1 – Erreurs grossières ou fautes,

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
2 – Erreurs systématiques,
3 – Erreurs aléatoires ou accidentelles.

1.2.1.1 Les erreurs grossières ou fautes


Les erreurs grossières ou fautes sont dues à un oubli ou une maladresse de
l’observateur. Par exemple l’observateur peut faire un pointé sur une mauvaise cible,
ou lire une échelle ou inscrire une lecture incorrectement, exemple : transposition des
chiffres d’une lecture. On peut citer plusieurs exemples de fautes que l’observateur
peut commettre inattentivement. Cette catégorie d’erreurs n’est pas tolérée. Parmi les
procédures à adopter lors des observations sur le terrain pour éviter et détecter les
fautes sont :

1 – contrôler soigneusement tous les pointés ;


2 – faire des lectures multiples sur des échelles différentes et vérifie
leur consistance ;
3 – Vérifier les données enregistrées par une autre lecture sur une autre
échelle ;
4 – Répéter les mesures d’une façon indépendante et contrôler leur
consistance ;
5 – Utiliser des contrôles géométriques ou algébriques (ex. somme des
angles d’un triangle plan =180°).

Les fautes doivent être détectées et éliminées avant l’utilisation de toute mesure.

1.2.1.2 Les erreurs systématiques


Ce sont celles dont la cause et le comportement sont connus et dont on peut éliminer
l’influence par le calcul ou par un mode opératoire donné. Les erreurs systématiques
par définition peuvent et doivent être éliminées. On peut corriger les erreurs
systématiques par des procédés opératoires tels que par exemple :

1 – Exploitation d’un dispositif particulier de l’instrument (2


verniers par exemple),

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
2– l’agencement appropriée de la méthode de mesure (méthode de
réitération pour éliminer l’erreur de graduation de cercles pour les
mesures des angles).

Ou par l’utilisation d’un modèle mathématique pour évaluer leur effet et l’éliminer par
la suite.

Cours de la Théorie des Observations donné à distance par Pr. Benaim


(23 Mars 2021)
1

1.2.1.2 Les erreurs systématiques


Ce sont celles dont la cause et le comportement sont connus et dont on peut éliminer
l’influence par le calcul ou par un mode opératoire donné. Les erreurs systématiques
par définition peuvent et doivent être éliminées. On peut corriger les erreurs
systématiques par des procédés opératoires tels que par exemple :

1 – Exploitation d’un dispositif particulier de l’instrument (2


verniers par exemple),
2– l’agencement appropriée de la méthode de mesure (méthode de
réitération pour éliminer l’erreur de graduation de cercles pour les
mesures des angles).

Ou par l’utilisation d’un modèle mathématique pour évaluer leur effet et l’éliminer par
la suite.

1.2.1.3 Les erreurs aléatoires ou accidentelles.


Ce sont les erreurs qui subsistent après élimination ou correction des erreurs
grossières ou des erreurs systématiques. Elles paraissent soumises aux caprices du
hasard (d’où leur appellation : aléatoires). Toute tentative de calcul individuel est
vouée à l’échec en raison de la complexité et de la multiplicité de leurs causes. On ne
peut les atteindre qu’en bloc à partir d’une théorie basée sur le calcul des probabilités
( théorie des erreurs de Gauss). On tente de réduire leur influence en multipliant le
nombre des observations.

1.2.1.3.1 Relation entre la définition des erreurs aléatoires et celle d’échantillon


aléatoire et de variable aléatoire.
Soit L le vecteur qui représente une série d’observations (ou mesures) d’une même quantité
physique x ; c’est à dire :
L = (l1, l2, l3, …, ln) (1.70)
Chaque élément li (i=1 ,2, ..., n) représente la même variable aléatoire ~x dont
l’espérance mathématique :
x]= 
E[ ~
(1.71)
D’où l’on peut écrire :

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
2

li – ε i =  (i =1 ,2, 3, …, n)
(1.72)
où  i sont les erreurs accidentelles (aléatoires) et  pourrait être appelée valeur vraie

de la variable ~
x.
L’ensemble (ε1, ε2, ε3, …, εn) correspondant à une série de mesures données constitue un
échantillon de la variable aléatoire ~ que l’on pourrait définir en considérant l’équation
précédente par :

~ = ~x - 
(1.73)

Une erreur accidentelle est donc une variable aléatoire qui appartient à une
population caractérisée par une fonction de probabilité donnée.

Le traitement des observations qui sont nécessairement affectées par les erreurs
accidentelles, sera donc basé sur les notions de probabilités et statistiques rattachées
aux variables aléatoires.
1.2.1.3.2 La loi des erreurs aléatoires - Fonction de probabilité de Gauss.
 Constatations
Les histogrammes (ou polygones) des échantillons aléatoires
représentant les résultats de la mesure d’un phénomène physique,
présentent en général la même forme caractéristique (Fig.1.17).

Figure 1.17 : cloche de Gauss

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
3

En effet, les grands échantillons d’observations ont en général les caractéristiques


suivantes :
➢ Toutes les observations se situent symétriquement par rapport à
une valeur centrale ;
➢ Les déviations positives et négatives par rapport à cette
valeur centrale sont en nombre égal ;
➢ Les petites déviations sont plus nombreuses que les grandes.

L’explication de la théorie de la loi régissant ce comportement des observations a été


donnée par Gauss et Laplace d’une façon indépendante. Le résultat de cette théorie
est la fonction de probabilité de Gauss suivante :
h  h 2~ 2
g( ~ )  e (1.74)

Où l’argument ~ est l’erreur aléatoire et où h est le seul paramètre qui décrit la
distribution. La fonction ci-dessus a les caractéristiques suivantes :

➢ g( ~ ) est symétrique ;
➢ La valeur maximum de l’ordonnée de g( ~ ) est à ~ =0 et
h
est égale à et varie donc avec h ;

➢ g ( ~ ) est asymptotique pour ~ tendant vers ± ∞ ;
1
➢ g( ~ ) a 2 points d’inflexion à ~ = ± ;
h 2
La forme de cette fonction illustre les énoncés de la loi des grands échantillons
d’erreurs :

- Les plus petites erreurs sont plus probables que les plus grandes ;
- Les erreurs positives et négatives ont la même probabilité.

A noter que, comme toute fonction de probabilité :

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
4

 h 

 
 h 2~ 2
g( ~ )d~  e d~  1 (1.75)
 

1.2.1.3.3 Moyenne et variance des erreurs aléatoires.


Soit με la moyenne des erreurs accidentelles εi. με est donnée par la relation suivante :
 h  h ~ ~
    ~
2 2
e d (1.76)
 
Posons :
h  h 2~ 2
t( ~ )  ~ e (1.77)

comme t(ε) est impaire c’est à dire que t(-ε) = - t(ε) quelque soit ε, l’intervalle
d’intégration est symétrique par rapport à l’origine, alors :

με = 0

Maintenant notons la variance des erreurs accidentelles par σε . Nous savons que :


 2  E ~        2 g(  )d
2
 


(1.78)

En explicitant g( ~ ), nous obtenons :


 h
 2    2
 h 2 2
e d (1.79)
 
Ou encore ;
h 


 h 2 2
 2   2e d (1.80)
 

Nous pouvons aussi écrire :


2h 


 h 2 2
 2   2e d (1.81)
 0

Et nous savons que pour h>0 :


 

 h 2 2
 2e d  (1.82)
 4h 3

Alors la relation (1.81) devient :

2h 
 2   (1.83)
 4h
3

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
5

1
 2  (1.84)
2h 2

D’où ;
1
h (1.85)
 2
Par conséquent la fonction de probabilité de Gauss g( ~ ) devient :
~ 2

1 2 ~2
g ( ~ )  e (1.86)
 ~ 2
1
Remarque : Les 2 points d’inflexion de g( ~ ) sont à ε = ± .
h 2

1.2.2 La fiabilité des mesures et tolérance

1.2.2.1 Les types d’expression de la fiabilité d’une mesure


La fiabilité des mesures est exprimée par plusieurs termes dont 3 sont plus utilisés :

● - Précision : C’est le degré de conformité de mesures répétées d’une même


quantité, l’une par rapport à une autre. Si ces mesures sont fermement groupées on
dit qu’elles sont de grande précision. Si par contre elles sont largement dispersées, on
dit qu’elles sont de faible précision. Une grande précision reflète un fort degré de soin
et de raffinement dans l’instrumentation et la procédure utilisée dans les mesures. La
précision est indiquée par la dispersion de la distribution de probabilité. Plus la
distribution est serrée plus la précision est grande, et vice versa.
● - Exactitude : C’est le degré d’exactitude d’une mesure par rapport à la vraie valeur.
Elle ne renferme pas uniquement les effets des erreurs aléatoires mais aussi tout biais
dû aux erreurs systématiques non corrigées. S’il n’y a pas de biais, la déviation
standard peut aussi être utilisée comme une mesure de la justesse.
● - Incertitude : c’est l’intervalle de confiance dans lequel, l’erreur ou la mesure est
espérée. Un niveau de probabilité est généralement associé à l’incertitude.
● - Chiffres significatifs : Le nombre de chiffres significatifs dans une quantité
numérique est égal au nombre de chiffres dans cette quantité affranchi du nombre de
zéros qui sont utilisés dans cette quantité pour fixer le point décimal.

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
6

Exemple 1.12 : 235 3 chiffres significatifs


0.035 2 / /
1.004 4 / /
2340 4 ou 3 chiffres significatifs

Une valeur numérique devrait renfermer tous les chiffres sûrs plus le 1 er chiffre
douteux. Ex. considérant que les 4 premiers chiffres de la valeur 137.824 sont sûrs et
les deux derniers sont douteux, alors ladite valeur devrait être exprimée par les 5
premiers chiffres soit 137.82 (les chiffres 1,3,7 et 8 sont sûrs mais le chiffre 2 est
douteux). Le nombre de chiffres significatifs dans une quantité mesurée directement
n’est pas difficile à déterminer puisqu’il dépend essentiellement de la plus petite
graduation de mesure dans l’instrument utilisé. Si, par exemple, une distance est
mesurée avec une chaîne graduée en centimètre avec estimation du millimètre, alors
dans une lecture de 562.315 m, les 5 premiers chiffres sont sûrs, le 6 ème est estimé
(douteux). Ainsi la figure numérique de cette mesure a 6 chiffres significatifs.
Le nombre de chiffres significatifs d’une quantité numérique est réduit par défaut ou
par excès.
1 – si k est le nombre des chiffres significatifs requis, ignorer tous les chiffres à
droite du (k+1) ème chiffre, notons le par x ;
2 – si 0≤ x ≤4 , ignorer x,

Exemple 1.13
considérons la quantité numérique y=18.3342 et fixons le nombre de
chiffres significatifs à k = 4, alors y s’écrit 18.33. Le (k+1)ème chiffre est le x
= 4 donc 0≤ x ≤4. D’après la règle le chiffre 4 est à ignorer.
3 - si 5≤ x ≤9 , ignorer x et augmenter kème chiffre de 1 ;
Exemple 1.14
si y = 365.4569, k=5 alors y s’écrit 365.45, puisque le (k+1)ème x=6, i.e
5≤x≤9, alors le kème chiffre doit être augmentée de 1 et par conséquent
l’écriture exacte de y d’après l’hypothèse est y = 365.46

1.2.2.2 Les critères de fiabilité.


● – La moyenne des erreurs
C’est la moyenne arithmétique des valeurs absolues des erreurs :

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
7


1
  i (1.87)
n i 1

Où ;
n = nombre des observations ;
εi = erreur vraie sur l’observation i ;
 = la moyenne des erreurs.

Ce critère est introduit par Laplace.

● – L’erreur moyenne quadratique.


Gauss trouva que la moyenne des erreurs  n’est pas significative pour juger la
fiabilité d’une mesure. Il introduisit l’erreur moyenne quadratique. C’est la racine
carrée de la moyenne des carrés des erreurs.

1/ 2
 [  ] 
e   i i 
 n 
(1.88)

On constate que l’erreur moyenne quadratique est plus significative que l’erreur
moyenne  des erreurs. Pour preuve, prenons deux séries d’erreurs :

εI = 4, 7, 3, 7, 4
εII = 15, 4, 1, 0, 5

Calculons les erreurs moyennes  I et  II


et les erreurs moyennes quadratiques eI et
eII des 2 séries. On trouve :

25 25
1  5  II  5
5 5

139 267
eI   5.27 eII   7.31
5 5

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
8

On remarque dans cet exemple que la moyenne des erreurs  qualifie les 2 séries
d’égale fiabilité, par contre l’erreur moyenne quadratique démontre que la 1 ère série
est plus fiable que la seconde. Ce qui est évident puisque la 1 ère série présente une
dispersion plus faible que la seconde série.

● – L’erreur moyenne quadratique relative.


Cette erreur est définie comme étant le quotient du rapport de l’erreur moyenne
quadratique par la quantité concernée. Par exemple si l’erreur moyenne quadratique
d’une distance D est eD, alors l’erreur moyenne quadratique relative est donnée par :

eD
er  (1.89)
D

Exemple 1.15
0.0102 1
D= 5422.00 m ; eD = 10.2 cm ; alors, er  = .
5422.00 531569

1.2.2.3 Tolérance ou erreur maximale


Mesurons une quantité n fois soit li (i =1, 2, …,n) ces mesures. Calculons la moyenne
x de ces n valeurs. x est le meilleur estimé de la quantité considérée. Comparons x
à chacune des n mesures. Les écarts v trouvés représentent une population dans le
sens statistique. L’estimé s x2 de la variance  x2 de x est donnée par la relation (1.63),

soit :
n

( l
1
s 
2
 x )2 (1.89a)
n( n  1 )
x i
i 1

Il a été établi ( § 1.1.6.1, relations 1.54, Figure 1.16a) que la probabilité de l’écart
2.58  x ou 2.58 s x (puisque s x est le meilleur estimé de  x ) a la probabilité de
1
 0.495  0.005  0.5% d’être dépassé si son signe est précisé. En valeur absolue, il
2
a la probabilité de 1  0.99  0.01  1% d’être dépassé. L’écart 2.58  x ( 2.58 s x ) est

considéré comme étant l’erreur maximale  m ou tolérance T:


T  2.58 s x  2.58  x   m (1.89b)

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
9

et compte tenu de la relation (1.60) ou (1.63);


𝑇 = 2.58𝑠𝑥̄ √𝑛 = 2.58𝜎𝑥̄ √𝑛 = 𝜀𝑚 (1.89c)
Pratiquement, on utilise souvent la relation suivante :
T  3s x n  3 x n   m (1.89d)
Correspondante au niveau de confiance de 99.7% (voir table 1.7).

Remarque importante.
Pour tenir compte des relations (1.54), on pose x = v (v étant l’écart entre la moyenne
x et chacune des mesures).

1.3 Les lois de la propagation des erreurs.


1.3.1 Introduction.
En topographie, comme dans plusieurs sciences d’ingénierie les quantités mesurées
directement sur le terrain sont souvent utilisées dans le calcul d’autres quantités. Dans
tels cas, les quantités calculées sont exprimées mathématiquement en fonction des
quantités mesurées directement sur le terrain. Si les mesures terrain sont entachées
d’erreurs, les quantités calculées à partir de ces mesures seront, inévitablement
entachées d’erreurs. L’évaluation des erreurs dans les quantités calculées, comme
fonction des erreurs dans les mesures, est appelée : Propagation des erreurs.

1.3.1.1 Cas des fonctions linéaires.


Soit x une quantité mesurée et y une nouvelle quantité à calculer à partir de x selon
l’expression suivante :
y = ax + b (1.90)

a et b sont considérés connus sans erreurs. Pour les objectifs de l’analyse utilisons
le concept de la valeur vraie. Si :

xv = valeur vraie de x
yv = valeur vraie de y
tels que :
x = xv + dx (1.91)
y = yv + dy

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
10

et
yv = axv + b (1.92)

dx et dy sont les variations de l’observation x et du paramètre y par rapport à leur vraie


valeur. En vertu de la relation (1.91), l’équation (1.90) devient:

y = a (xv + dx) + b
y = axv + adx + b
c'est-à-dire ;
y = yv + adx (1.93)
D’où
dy = adx
(1.94)

C’est à dire que:


dy
a (1.95)
dx

La relation (1.95) représente la dérivée de la relation (1.90) par rapport à x. Portons


la relation (1.95) dans la relation (1.94) ; on obtient :
y
dy  dx (1.96)
x
L’équation (1.96) est l’expression de la différentielle totale de la relation (1.90).

Figure 1.18

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
11

On constate que dy est l’erreur sur y produite par une erreur sur x. dy est considéré
comme une différentielle totale de y = ax + b, qui est une fonction linéaire. Pour des
fonctions non linéaires, dy de la relation (1.96) aura une autre expression.

Exemple 1.16
Une parcelle de terrain de forme trapézoïdale ( voir dimensions sur la figure 1.18 ci-
dessus). On demande de calculer l’ordonnée h pour une distance d = 23.560 m,
mesurée avec une erreur de 0.016 m. Calculer l’erreur sur h.
La pente a de la droite CD sur le repère xAy est de :
60  20
a  0.5
80
Ainsi l’équation de la droite CD a l’expression suivante : y = 0.5 x + 20
La pente 0.5 et l’ordonnée à l’origine 20 sont considérées sans erreurs. Alors pour
x  d  23.560 m , on a :
h  y  0.5( 23.560 m )  20 m
D’où : h  31.780 m
Et selon l’équation (1.53),
dh  adx  0.5( 0.016 m )  0.008 m

5ème partie du cours de la théorie des observations donné à distance par Pr Benaim
25 mars 2021
1

THEORIE DES OBSERVATIONS


(6ème Partie du cours)

1.3.1.2 Cas de fonctions non linéaires.


Considérons maintenant le cas des fonctions non linéaires. Soit :
y = x2 (1.97)
une fonction liant une quantité mesurée x à une quantité calculée y. Nous posons que
xv et yv représentent les valeurs vraies respectivement de x et y, alors :
yv = xv2 (1.98)

mais ; x = xv + dx (1.99)
y = yv + dy

Ainsi (1.98) devient :


y = yv + dy = x2 = (xv + dx)2 (1.100)
y = xv2 + 2xvdx + (dx)2
d’où l’on obtient :
dy = 2xvdx + (dx)2 (1.101)

Dans la relation (1.101), nous reconnaissons 2xv , dérivée de y par rapport à x évaluée
en xv ; ainsi la relation (1.101) pourrait s’écrire comme suit :
y
dy = dx + ( dx ) 2 (1.102)
x
la relation (1.102) diffère de la relation (1.96) par le terme (dx)2. En pratique nous
négligeons ce terme compte tenu de la petitesse de l’erreur dx.

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
2

Figure 1.19

La figure (1.19) illustre bien ce problème :


y
dy = y' − y v = dx
x
au lieu de :
y 2
dy = y − yv = dx + ( dx )
x

car le terme (dx)2 = (y – y’) 2 est négligé. C’est à dire qu’au lieu d’utiliser le point P sur
la courbe y = x2, on utilise P’ sur la tangente à cette même courbe en T.

Exemple 1.17
Soit à calculer la surface y d’une parcelle de terrain ayant une forme carrée. La
longueur x du coté est mesurée avec une chaîne de 20 m et on a trouvé x = 50.170 m.
Cette mesure est utilisée pour calculer la surface de la parcelle comme suit :

Cette surface est représentée par le carré ABCD de la Figure (1.20). Si la chaîne est
courte de 0.020m calculer l’erreur sur la surface.

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
3

Figure 1.20

Solution

La longueur de la chaîne lors des opérations est de 19.970 m ; par conséquent la


longueur vraie de la parcelle est de :
19.980
xv = ( 50.170 ) = 50.120 m
20
Ainsi la surface exacte est :
yv = xv2 = 2512.0144 m2
Alors que la surface erronée est :
y = (50.170)2 = 2517.0289 m2
Donc l’erreur exacte sur la surface y du carré est de :
dy = y - yv= 2517.0289 – 2512.0144 = 5.0145 m2
dy représente l’aire totale des rectangles AB1B’A’, CB2B’C’ et B1BB2B’. Cette erreur
exacte peut être obtenue directement en utilisant dx (erreur sur x), comme suit :
dx = x – xv = 50.170 – 50.120 = 0.05 m
par conséquent :
dy = 2xvdx + (dx)2 = 5.0145 m

Maintenant si nous utilisons la formule suivante :


y
dy = dx
x
Nous devons calculer la dérivée de y par rapport à x au point x =50.170 m, telle que :

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
4

dy d
= ( x 2 ) = 2 x = 100.240 m
dx dx
Par conséquent,
y
dy = dx = 100.240  0.05 = 5.017 m 2
x
dy représente l’aire totale des rectangles AB1B’A’ et CB2B’C’. La différence entre la
détermination exacte de l’erreur sur l’aire du carré et sa détermination par la formule
tronquée est de 0.0025m2 seulement. Cette différence est l’aire du petit carré
B1BB2B’. ; elle représente 0.05% de l’erreur. Par conséquent, cette différence est
insignifiante.

1.3.1.3 Cas de la contribution de plusieurs mesures x dans le calcul d’une


quantité y.
Dans ce cas l’erreur sur y est donnée par (exprimée dans la base vectorielle dxn ):

y y y
dy = dx 1 + dx2 + ......... + dxn (1.103)
x1 x 2 x n
y y y
Où , ,......, sont les dérivées partielles évaluées en x1, x2, …., xn.
x1 x 2 x n

Exemple 1.18
On mesure, avec une chaîne de 30 m courte de 0.030 m la largeur x1 et la longueur x2
d’un rectangle et on se propose d’évaluer l’erreur sur l’aire calculée du dit rectangle
(Fig. 1.21).
.

Figure 1.21

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
5

Solution

- Notons par y la surface (ou l’aire) calculée du rectangle telle que :


y = x1 x2 = 3064.900 m2
Evaluons les dérivées partielles en x1 et x2 :
y y
= x 2 = 61.090 m et = x1 = 50.170 m
x1 x 2
Les erreurs dx1 et dx2 respectivement sur x1 et x2 sont de :

0.030
dx1 = ( 50.170 ) = 0.050 m
30
0.030
dx 2 = ( 61.090 ) = 0.061 m
30
Ainsi l’erreur dy sur y est donnée par :

2 2
 y   y 
dy =  dx1  +  dx2  = 4.492 m 2
 x1   x 2 

1.3.2 Principe et techniques de la propagation des erreurs.


Dans le paragraphe 1.3.1 nous avons introduit la technique de base de la propagation
des erreurs. Connaissant les erreurs sur les observations, la technique de la
propagation des erreurs est utilisée pour évaluer les erreurs résultantes sur les
quantités calculées à partir de ces observations. Dans le même paragraphe cette
technique est basée sur l’hypothèse que les erreurs sur les mesures sont connues ;
ce qui n’est pas vrai, puisque si les erreurs sont connues elles seront éliminées avant
les calculs.
La propagation consiste à déterminer les caractéristiques de variables aléatoires à
partir de caractéristiques d’autres variables aléatoires dont ils sont fonctions :

~ ~
Y = G( X ) (1.104)
( u ,1 ) ( u ,1 ) ( n ,1 )

Où ;

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
6

Y = ~y1 ~y 2    ~y u 
~ T
( u ,1 )


G = g 1 g 2 ... g u
( u ,1 )

T

X = ~ xn 
~
x1 ~
x2 ... ~
T
( n ,1 )

Ainsi la relation vectorielle peut être explicitée comme suit :


~y = g ( ~ ~ ~
1 1 x1 , x 2 ,...., x n )

~y = g ( ~ ~ ~ (1.105)
2 2 x1 , x 2 ,....., x n )

....................
~y = g ( ~ ~ ~
u u x1 , x 2 ,...., x n )

Nous considérons 3 cas de propagation :

1 – La propagation des moyennes (espérances mathématiques) ;


2 - La propagation des variances covariances (loi de la
covariance) ;
3 - La propagation des erreurs systématiques.

1.3.2.1 Loi de la propagation des moyennes


~ ~
Soit deux vecteurs aléatoire Y et X liés par la relation (1.104). L’espérance
~
de Y s’obtient en exploitant sa forme explicite (1.105) comme suit :

 E [ ~y 1 ]
  E [ ~
x1 ]
   ~ 
~  E [ ~y 2 ] ~ E [ x2 ]
E[Y ] =   et E[ X ] =  "  (1.106)
 "   
 "   " 
 ~  E [ ~ ] 
 xn
E [ yu ]

On aura ;
E [ ~y i ] = E [ g i ( ~
x1 , ~
x 2 ,....., ~
x n )] (1.107)

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
7

C’est à dire :
+
E[ ~
yi ] =  
....
−
gi ( ~
x1 , ~
x 2 ,...., ~
xn ) f ( ~
x1 , ~
x 2 ,...., ~
x n )dx1 dx 2 ......dx n

(1.108)
~
Où f ( ~
x1 , ~
x 2 ,...., ~
x n ) est la fonction conjointe de densité de probabilité de X .
Dans le cas de fonctions linéaires ou linéarisées, la propagation des moyennes est
beaucoup plus simplifiée. Soit :

~y = a~
x
Alors ;:
E [ ~y ] = E [ a~
x ] = aE [ ~
x] (1.109)
C’est à dire ;:
 y = a x (1.110)

~ ~
Dans le cas des vecteurs aléatoires X et Y liés par la relation suivante :
~ ~
Y = AX (1.111)
telle que chaque variable ~yi est exprimée comme suit :

~y = a ~ ~ ~
i i 1 x1 + a i 2 x 2 + ...... + a in x n (1.112)

L’espérance est obtenue de la manière suivante ;

E [ ~y i ] = a i 1 E [ ~
x1 ] + a i 2 E [ ~
x 2 ] + ....... + a in E [ ~
xn ]

C'est-à-dire ;
 y = ai 1  x + ai 2  x + ...... + ain  x (1.113)
i 1 2 n

Remarque .
Contrairement au cas des fonctions non linéaires, les fonctions linéaires n’exigent pas
~
la connaissance de la fonction conjointe de densité de probabilité de X pour exécuter
la propagation des moyennes.

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
8

Exemple 1.19 :
soit ~
x n dont la fonction de densité de probabilité est :
2
1 ~x −  ~x 
−  

1 2   ~x 
f(~
x )= e
 ~x 2
Déterminer  y de ~y tel que :
~y = ~
x2

Solution

on sait que ;
 y = E [ ~y ] = E [ ~x 2 ]
c’est à dire que ;
2
1  x−x 
+ −  

1 2  x
 y =  x2 e 
dx
−  x 2
ou encore ;
2
1  x−x 
+ −  

1 2  x

2 

y = x2e
x −

Introduisons maintenant le changement de variables suivant :


2
x − x 1~ x − x 
z=  z = 
2

x 2 2   x 

Alors ;
x = z x 2 +  x

Et ;
dx =  x 2 dz

d’où ;

( ) ( )
+ 2
1
2 
−z2
y = + z x 2 e 2 dz
y
x x
−

ou encore ;

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
9

y =
 x 2
1
−
+
 x2 e
−z2
( x ) +
2 dz +  2  x  x z 2e
−
−z2
( x 2 dz )
+
+  2 x2 z 2 e
−
−z2
( x )
2 dz

1  2
dz 
+ − z 2 + +

  
−z2 −z2
y = x e dz + 2  x  x 2 ze dz + 2 x2 z 2e
2  − − − 

1  2π 
μy =  2 π μ 2
x
+ 0 + 2 σ 2
x 
2π  2 

d’où ;
 y =  x2 +  x2
avec ;
 x = E [ ~x ] et  x2 = E [( ~x −  x ) 2 ] )

On aurait pu déduire ce résultat de la façon suivante :

 y = E [ ~y ] = E [ ~x 2 ]

et sachant que la variance de ~


x est donnée par :

 x2 = E [( ~x −  x ) 2 ]

en développant le 2ème membre, on obtient :

 x2 = E [ ~x 2 − 2 ~x  x +  x2 = E [ ~x 2 ] − 2  x E [ ~x ] +  x2 ]

Soit en réduisant ;

 x2 = E [ ~x 2 ] − 2  x2 +  x2

d’où ;

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
10

 y =  x2 +  x2

1.3.2.2 Loi de la propagation des variances covariances (loi de la covariance).


1.3.2.2.1 Covariance et corrélation.
Si deux variables aléatoires sont incluses dans le même modèle de probabilité, on dit
qu’elles sont conjointement distribuées. La distribution conjointe est :
F ( x , y ) = P [ X  x ,Y  y ]
qui pourrait être interprétée comme la probabilité de l’événement que X est plus petit
ou égal à x et que Y est plus petit ou égal à y au même moment.

Les distributions des variables aléatoires individuelles sont obtenues à partir de la


fonction de distribution conjointe comme suit :

F( x ) = P[ X  x ] = P[ X  x, y   ] = F( x, )
(1.114)
F ( y ) = P [ Y  y ] = P [ x   ,Y  y ] = F (  , y )

Lorsque F(x) et F(y) sont déduites de la fonction de distribution conjointe de cette


manière, elles sont appelées : Fonctions de distribution marginales de x et y,
respectivement.
Si x et y sont des variables aléatoires continues, leur fonction de densité conjointe est
donnée par la relation suivante :
2
f ( x, y ) = F( x, y ) (1.115)
xy
et leur fonction de distribution conjointe peut être exprimée comme suit :

x y
F( x, y ) =   f ( u , v )dudv (1.116)
− −

où f(x,y) est la fonction de densité conjointe. On peut démontrer que les fonctions de
distribution marginale de x et y sont données respectivement par :

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
11

+
F( x ) =  f ( x , y )dy
−
+
(1.117)
F( y ) =  f ( x , y )dx
−

Par ailleurs deux événements sont dits indépendants si l’occurrence de l’un n’a
pas d’influence sur l’autre. De la même manière, deux variables aléatoires sont
dites indépendantes si la valeur prise par l’une n’a pas d’influence sur la valeur
prise par l’autre.

L’indépendance de deux événements s’exprime par la relation suivante :

P[A∩B]=P[A].P[B] (1.118)

qui peut être étendue aux fonctions de distribution en admettant simplement que
(X≤x) et (Y≤y) sont des événements. Ainsi :
P[X≤x, Y≤y] = P[X≤x] .P[Y≤y] (1.119)
ou ;
F(x,y) = F(x) . F(y) (1.120)
pour deux variables aléatoires indépendantes x et y. Si x et y ont une distribution
conjointe et elles sont indépendantes, la différentiation des 2 cotés de la relation
(1.120) donne :
 2 F ( x , y ) F ( x , y ) F ( x , y )
=
xy x y
C'est-à-dire ;
f(x,y) = f(x). f(y) (1.121)

Cette relation de l’indépendance peut être étendue aux espérances mathématiques en


particulier :

E[XY] = E[X].E[Y] (1.122)


C'est-à-dire ;
E[XY] = μX.. μY (1.123)

où X et Y sont deux variables aléatoires indépendantes.

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
12

Les distributions marginales de X et Y ont leurs propres moyennes et variances ; ce


sont  x et  y ,  x2 et  y2 respectivement. En plus de ces quatre paramètres, il existe

un 5ème qui mesure le degré de corrélation entre les 2 variables aléatoires. Ce


paramètre est connu sous le nom de covariance désignée par le symbole COV(X,Y) ou
par  xy . La covariance est définie comme étant l’espérance mathématique suivante :

σxy = E[(x - μx)(y - μy)] (1.124)

qui peut s’écrire pour le cas continu comme suit :

+ +
 xy =   ( x − x )( y −  y ) f ( x , y )dxdy (1.125)
− −

xy peut être positive, nulle ou négative. Quand :

σxy>0 → x et y sont corrélées positivement.


σxy=0 → x et y sont non corrélées.
σxy<0 → x et y sont corrélées négativement.

Développons la relation (1.124) et simplifions :

 xy = E [( x −  x )( y −  y )]

 xy = E [ xy − y x − x y +  x  y ]

σ xy = E [ xy ] − μ x E [ y ] − μ y E [ x ] + μ x μ y
 xy = E [ xy ] −  x  y −  y  x +  x  y
D’où ;
E [ xy ] =  x  y +  xy (1.126)

On dit que les variables x et y sont corrélées (existence de xy). Si au contraire, elles
sont indépendantes, alors : E [ xy ] = E [ x ].E [ y ] =  x  y et la relation (1.126) se

réduit :

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
13

 xy = 0
Remarque :
Bien que l’indépendance implique une covariance nulle, la réciproque n’est pas
nécessairement vraie ; c’est à dire qu’une covariance nulle n’implique pas
généralement l’indépendance. Heureusement, quand les variables aléatoires x et y ont
une distribution normale conjointe, la covariance nulle est une condition suffisante
d’indépendance. Par conséquent pour des observations distribuées normalement, la
covariance nulle et indépendance sont des conditions équivalentes.

1.3.2.2.2 Coefficient de corrélation.

Si l’on normalise les variables aléatoires x et y selon la transformation suivante :

x−
z=

l’espérance du produit des variables normalisées est appelée coefficient de


corrélation, et est désigné par ρxy tel que :

 x −   y −  y 
x  
 xy = E   (1.127)
  
 x   y 

ou encore ;

 xy
 xy = (1.128)
 x y

comme σx et σy sont toujours positifs, ρxy prend le signe de  xy . Par ailleurs, on

démontre que :

-1 ≤ ρxy ≤ 1 (1.129)

Exemple 1.20 :

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
14

Calculer le coefficient de corrélation des coordonnées x et y d’un point sachant que


σ2x=1.72 cm2, σ2y =1.18 cm2 et σxy =0.32 cm2.

Solution :

 x = 1.72 = 1.31cm

σ y = 1.18 = 1.09 cm

Alors ;

0.32
 xy = = 0.22
1.31  1.09

Remarques générales :

Figure 1.22

La somme de 2 variables aléatoires distribuées conjointement est une variable


aléatoire. Selon le type de la distribution conjointe, la somme peut comme elle ne peut
pas avoir la même loi de distribution que ses composantes. Par exemple si x et y sont
uniformément distribuées leur somme (x+y) n’a pas une distribution uniforme mais
triangulaire.

1.3.2.2.3 Moyenne et variance d’une somme

●- Moyenne d’une somme

Si x et y sont distribuées normalement, on démontre que (x+y) a

une distribution normale. Dans tous les cas :

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
15

E[ x + y ] = E[ x ] + E[ y ] ou  x+ y =  x +  y (1.130)

●-Variance d’une somme.

Soit x et y deux variables aléatoires, cherchons la variance de leur

somme ( x + y ) . On sait que :

 (2x + y ) = E [( x + y −  x + y )2 ]

 (2x + y ) = E  [( x −  x ) + ( y −  y )] 2  (1.131)

Soit en développant :

 (2x + y ) = E [( x −  x )2 + 2 E [( x −  x )( y −  y )] + E [( y −  y )2 ]

d’où ;

 (2x+ y ) =  x2 + 2 xy +  y2
(1.132)

Exemple 1.21 :

Calculer la moyenne et la variance de la somme de x et y (coordonnées d’un point)


sachant que :

μx = 43.00 cm ; σ2x = 1.72 cm2

μy = 27.00 cm ; σ2y = 1.18 cm2

σxy = 0.32 cm2

Solution :

- Moyenne de la somme :

μx+y= μx + μy = 43.00 + 27.00 = 70.00 cm

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
16

-Variance de la somme :

σ2 (x+y) = σ2x + 2 σxy + σ2y = 1.72 + 0.64 + 1.18 = 3.54 cm2

Remarque importante :

Si x et y sont deux variables aléatoires indépendantes, la variance de leur somme est


donnée se réduit à :

 (2x+ y ) =  x2 +  y2 (1.133)

Cours de la Théorie des observations donné à distance par Pr Benaim


(30 Mars 2021)
1

THEORIE DES OBSERVATIONS


(7ème Partie)

1.3.2.2.4 Propagation des variances covariances dans le cas des fonctions


linéaires.

~
Déterminons la matrice de variances covariances  Y~ d’un vecteur aléatoire Y qui
( u ,1 )
( u ,u )

~
est une fonction linéaire d’un vecteur aléatoire X dont  X~ est connue, tel que :
( n ,1 )
( n ,n )

~ ~
Y  A X (1.134)
( u ,1 ) ( u ,n ) ( n ,1 )

Où ;

~y1   a11 a12     a1n  ~x1 


    
~ ~ y   ~ ~x 
Y   2  ; A        ; X   2  (1.135)
(u,n) 
u,1  
      (n,1)   
~    ~ 
 yu  au,1 au,2     au,n   xn 

Solution :
 ~
Y
est définie par :
( u ,u )

~ ~ ~ ~
 Y~  E [( Y  E [ Y ])( Y  E [ Y ])T ] (1.136)

Or, on sait que ;

E[Y] = E[AX] = A E[X]

Donc la relation (1.136) peut être développée comme suit:

Y = E[(AX – A E[X])(AX – A E[X])T]


Y = E[A(X – E[X])( X – E[X])TAT]

D’où;

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
2

Y = AE[(X –E[X])( X – E[X])T]AT

C’est –à-dire;
𝛴𝑌 = 𝐴𝛴𝑋 𝐴𝑇 (1.137)

Exemple 1.22 :
Considérons les vecteurs aléatoires suivants X et Y tels que :
X = [x1 x2]T et Y = [y1 y2]T
X et Y sont liés par les relations suivantes ;
𝑦1 = 3𝑥1 + 2𝑥2
𝑦2 = 𝑥1 + 5𝑥2 (1.138)
Sachant que la matrice de variances covariances de X est :
1 0
𝛴𝑋 = [ ]
0 3
Déterminer la matrice de variances covariances de Y.

Solution :
Les relations (1.138) peuvent être groupées sous la forme matricielle suivante :
Y=AX
Où ;
3 2 
A 
1 5 

Notons la matrice de variances covariances de Y par ΣY . Appliquons la relation


(1.137) :

3 2   1 0   3 1   21 33
Y      
1 5  0 3 2 5 33 76 

1.3.2.2.5 Loi de la propagation des variances covariances dans le cas des


fonctions non linéaires.

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
3

~
Soit à déterminer  Y d’un vecteur Y qui est une fonction non linéaire d’un vecteur
~ ~
aléatoire X ayant une matrice de variances covariances  X connue. Y est de la
forme suivante :

~ ~
Y F(X ) (1.139)

Pour pouvoir appliquer la propagation des variances covariances dans ce cas, on doit
~ ~
procéder à la linéarisation de la fonction F ( X ) en premier lieu. F ( X ) sera linéarisée
en lui appliquant le développement en série de Taylor au voisinage d’une valeur
~
initiale du vecteur X ; soit X o , cette valeur:

~ F
Y  F( X 0 )  ~ X~  X 
0
(1.140)
X Xo

~ F ~
où F ( X 0 ) est la valeur de F ( X ) en X 0 et ~ la Jacobienne JXY de la variable Y
X X0

~
par rapport à la variable X , évaluée en X 0 telle que :

 y1 y1 y1 


   
 x1 x 2 x n 
 y 2 y 2 y 2 
  
  x1 x 2 x n 
J XY  (1.141)
      
      
 y y u y u 
 u   
 x1 x 2 x n  X 0

~
et X est un vecteur aléatoire, X 0 est le vecteur des valeurs initiales (approchées) de
( n ,1 )
( n ,1 )

~
X . Alors la relation (1.140) s’écrit comme suit :
( n ,1 )

~ ~
Y  F ( X 0 )  J XY ( X  X 0 ) (1.142)

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
4

~
Calculons maintenant l’espérance mathématique de Y .

~ ~ ~
E [ Y ]  E [ F ( X 0 )  J XY ( X  X 0 )]  F ( X 0 )  J XY E [( X  X 0 )]

D’où ;

~ ~
E [ Y ]  F ( X 0 )  J XY E [ X ]  X 0   (1.143)

~
 ~
Formons le vecteur Y  E [ Y ] : 
~ ~ ~ ~
Y  E [ Y ]  F ( X 0 )  J XY ( X  X 0 )  F ( X 0 )  J XY E [ X ]  X 0  
~ ~
 J XY X  J XY X 0  J XY E [ X ]  J XY X 0
~
 ~
 J XY X  E [ X ] 
(1.144)

Or  Y étant définie par :

~ ~ ~ ~
 Y  E [( Y  E [ Y ])( Y  E [ Y ])T ] (1.145)

Tenant compte de l’équation (1.144), nous pouvons écrire :


~ ~ ~ ~
 Y  E [ J XY ( X  E [ X ])( X  E [ X ])T J XY
T
]
~ ~ ~ ~
 Y  J XY E [( X  E [ X ])( X  E [ X ])T ] J XY
T

Qui s’écrit aussi comme suit :

 Y  J XY  X J XY
T
(1.146)
( u ,u ) ( u ,n ) ( n ,n ) ( n ,u )

Remarque :
Cette équation est analogue au cas de fonctions linéaires. Mais, il faut noter que suite
à la linéarisation,  Y n’est valable qu’au 1er ordre. Pour que l’effet des termes d’ordre

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
5

supérieur soit négligeable il faut que la valeur de X 0 soit choisie de façon adéquate (la

valeur la plus proche possible de la valeur réelle).

Exemple 1.23 :
~ ~
soit 2 vecteurs aléatoires X et Y tels que :

~x1 
~ ~ 
X   x2  et Y~   y1 
~
~ 
~x   y2 
 3

et tels que :

~  2 1~ ~
y1  ~x3  x1 x3
8 2

~y  1 ~
x1 ~
1 ~
x2  ~x 2 x3
2
2 2
~
Sachant que la matrice de variances covariances de X est :

2 2 1
 X  2 4 3
1 3 4 

et ,
X 0  2 1 1
T

~
Calculer la matrice de variances covariances  Y de Y .

Solution :
On sait que ;
  J XY  X J XY
Y
T

( u ,u ) ( u ,n ) ( n ,n ) ( n ,u )

Calculons J XY ;

1 0  1 0 
 2 x3 0 ( x30 
x1 )   
4 2 0.5 0.0 (  1 )
J XY   4
1 o 1 0  0.5 1.5 0.5 
1 1 0
 x 20  x1  x 3  x2
 2 2 2  2 

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
6

Calculons maintenant  Y .

2 2 1  0.5 0.5
0.5 0.0 1.785 
Y     2 4 3  0.0 1.5
0.5 1.5 0.5  1 3 4  1.785 0.5
  

Soit ;
15.03 14.75 
Y   
14.75 18.50 

1.3.2.3 Loi de propagation des erreurs aléatoires.


~
Dans ce cas on applique la loi des variances covariances à un vecteur X appelé
~
vecteur des paramètres fonction d’un vecteur L des observations. Soit  L la matrice
~ ~
de variances covariances des observations L .  L et L sont estimées à partir d’un
ensemble d’observations des quantités nécessaires à la détermination des éléments
~
inconnus. Les estimés de L et  L sont notés L et  L . Si l’on dispose uniquement
~
du nombre minimum nécessaire d’observations pour la détermination d’un vecteur X

, la solution Xˆ , sera obtenue en exprimant Xˆ explicitement en fonction de L à l’aide


~ ~
du modèle mathématique définissant les relations entre X et L , tel que :
~ ~
X  F( L ) (1.147)

La solution Xˆ de ce modèle sera donnée par :

Xˆ  F ( L ) (1.148)
où,
 x̂1   f1  l1 
     
 .  .  . 
ˆ
X  . ; F  .  ; L  .  (1.149)
( u ,1 )   ( u ,1 )   ( n ,1 )  
 .  .  . 
 x̂  f  l 
 u  u  n 

Le système pourrait ainsi être explicité comme suit :

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
7

 x̂1  f 1 ( l1 ,l2 ,....,ln )


 
 ........................ 
 ........................ 
 
 ........................ 
 x̂  f u ( l1 ,l2 ,....,ln )
 u

L étant connu, alors Xˆ est directement déterminé.

Le problème de la propagation des erreurs accidentelles consiste à déterminer la


matrice de variances covariances  Xˆ connaissant  L . Selon la loi des variances

covariances (relation 1.145),  Xˆ est donnée par :

 Xˆ  J XL  L J XL
T
(1.150)
( u ,u ) ( u ,n ) ( n ,n ) ( n ,u )

La forme explicite de  Xˆ , J XL et de  L est donnée par :

  x̂2  x̂ x̂ . . . .  x̂ x̂ 
 1 1 3 1 u

 . . . 
 . . . . 
  ;
 Xˆ   . . . . 
( u ,u )  . . . . 
 
 . . . . 
  x̂ x̂ . . . .  x̂2 
 x̂u x̂1 u 2 u 

 ~
x1 ~
x1 ~
x1 
 ~ ~ . . . . 
  l1  l2 l n 
 . . . . . . . 
J XL   . . . . . . .  ;
( u ,n )  
 . . . . . . . 
 ~
xu ~
xu 
 ~ . . . . . ~ 
  l1  ln 

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
8

 sl2 sl1l2     sl1ln 


 1 
        
        
 
L          
        
 
        
s      sln 
 l1ln

1.3.2.4 Loi de propagation des erreurs moyennes quadratiques.


C’est un cas particulier de la loi de propagation des erreurs aléatoires où le vecteur est
constitué d’un seul élément et où les éléments de L sont indépendants, c’est à
dire que :

 sl2 0 . . 0 . 0
 1 
 . sl2 . . . . . 
 . . 
2

. . . . .
 
L   . . . . . . . 
( n ,n )  . . . . . . . 
 
 . . . . . . . 
 
 0 0 . 0 . . sl2 
n 

Comme le vecteur Xˆ est constitué d’un seul élément et d’après la relation (1.149), on
peut écrire :
x̂  f ( l1 , l 2 ,....., l n )
Alors la matrice de variances covariances sera calculée selon l’expression (1.150) ;
telle que :
 x̂2   Xˆ  J XL  L J XL
T

( 1 ,1 ) ( 1 ,1 ) ( 1 ,n ) ( n ,n ) ( n ,1 )

où ;
 ~ x ~ x ~ x 
J XL   ~ ~ . . . . ~ 
( 1 ,n )   l1  l2  ln 

d’où ;

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
9

 ~ x 
s 2
0..... . . 0  ~ 
   l1
~

l1
0 . . 
 ~ x ~x ~x   . 
 x̂2   ~ ~ . . ~  . . .  . 
  l1  l2  ln  .  
 . .  . 
0 . . . 2
s ~l   ~ x 
  ~ 
  ln
n

C'est-à-dire ;
2
 ~
n
 2

x
   ~
2

 s
 li (1.151)
i 1   li 
Exemple 1.24 :
pour déterminer la superficie d’une parcelle de terrain de forme trapézoïdale, on a
mesuré la petite base a, la grande base b et la hauteur h. Les résultats sont les
suivants :
a  235.10 m ; b  316.25 m ; h  87.31m
La matrice de variances covariances de ces observations est de :
9 0 0 
 L  0 8 0  cm 2
0 0 6 

Déterminer la superficie  de la parcelle et sa variance  Â2 .

Solution :
1° - Modèle mathématique de A.
~
~  a~  b  ~
A   h

 2 
2° - Calcul de la superficie A :
a b 
A    h  24069.184 m²
 2 
3° - Calcul de J AL :

 A A A   1 1 ( a  b )
J AL    h h 
 a b h   2 2 2 

Soit ;

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
10

J AL  43.655 43.655 275.675 ( m )

4° - Calcul de la variance de A :
 Â2  10 4 J AL  L J AL
T
  48.8 m²
5° - Résultas :

  24069.2 m² ;  Â2  48.8 m²

Exemple 1.25 :
Les observations des angles  et  et du côté c d’un triangle plan ABC ont donné les
estimés suivants :

Figure 1.23

   90 
L       45 
 c  10 m

et ;

 4 (" )²  1(" )² 0 
 
 L   1(" )² 16 (" )² 0 
 0 0 9cm² 

Déterminer le vecteur Xˆ  ˆ  â b̂  T
de même que leur matrice de variances

covariances  Xˆ .

Solution :
Posons :

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
11

ˆ     90 
       4 (" ) 0 
2
(" )2
      1
  (" )2 
X   ;
ˆ â
L    =  45  ;  L   1 16
(" ) 2
0 
     
    10 m  0 0 9cm 2 
b̂  c    
     

Etablissons le modèle mathématique pour Xˆ , soit :


γ  180  (α  β)
La loi de sinus appliqué au triangle plan en question donne :
a b c sin  sin 
   ac c
sin  sin  sin  sin  sin(    )
et
sin 
bc
sin(    )

Ainsi le modèle mathématique s’écrit comme suit :

γ  180 o  (α  β)
sin 
ac
sin(    )
sin 
bc
sin(    )

Calcul des valeurs de  , a et b : l’application des valeurs observées dans les formules
précédentes permettent de calculer ces valeurs, soit :
  45 , a= 14.14 m et b= 10 m
Calculons la Jacobienne JXL :

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
12

    
   c 

a a a 
J XL 
   c 
 b b b 
 
   c 

 1 1 0 
 
 
 c sin  sin  
 sin  cos(    )
J XL  sin (    )
2
c sin(    ) 
 sin 2 (    ) 
 
 sin  cos(    ) sin  sin  
 c sin 2 (    ) c
sin (    )
2
sin(    ) 

d’où, par application numérique (les unités sont le cm et ").

 1 1 0 
J XL 
 1414 1413 1.414 
1000 2000 1 

Or la matrice de variances covariances  Xˆ a pour expression :

 Xˆ  J XL  L J XL
T

Alors :

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
13

   (" )2 (" )2 0 
  4 1 
 1 1 0   
1.414    1
0 

1414cm 1413cm (" )2 (" )2
 Xˆ 16
 " "   
 1000cm 2000cm   2
 1   0 0 9cm 
 " "   

 1414cm 1000cm 
 1 " " 
 
1413cm 2000cm 
  1
 " " 
 0 1.414 1 
 
 

 1 1 0 
 Xˆ 
 0.00686 cm /" 0 .00685cm /" 1.414 
0.00485cm /" 0.00970cm /" 1 

 (" )2 (" )2 0 
4 1   1 0.00686 cm /" 0.00485cm /" 
   
0   1 0.00685cm /" 0.00970cm /" 
  1
(" )2 (" )2
16  
   
 2  
 0 0 9 cm 

0 1.414 1

   

 18 (" )²  0.1233( cm )(" )  0.1602 ( cm )(" ) 


 
 Xˆ   0.1233( cm )(" ) 17.9950 ( cm )² 12.7270 ( cm )² 
 0.1602 ( cm )(" ) 12.7270 ( cm )² 9.0015 ( cm )² 

Les résultats de ce dernier problème montrent qu’une grande précision dans la mesure
des angles a très peu d’effet sur l’estimé de la précision (déviation standard) des côtés
calculés â et b̂ comparativement à la précision dans la mesure du côté ĉ . On peut
donc utiliser la loi de la propagation des erreurs accidentelles (variances covariances)
pour connaître à priori les principaux facteurs dans les observations qui influenceraient
la précision des quantités mesurées. Ce procédé de pré-analyse permet de déterminer
les spécifications relatives à des techniques d’observation. Cette pré-analyse étant
faite avant la collecte des mesures, l’évaluation de la matrice jacobienne (J) sera faite
à l’aide des observations et des valeurs approchées des paramètres

Cours de la Théorie des observations donné à distance par Pr Benaim


(7ème Partie, 1 avril 2021)
1

THEORIE DES OBSERVATIONS


(8ème Partie)
1.3.2.5 Matrice de poids – Facteur de variance.
1.3.2.5.1 Matrice des coefficients de poids (cofacteurs).
La variance  2 reflète la précision avec laquelle la mesure a été faite. Plus cette

variance est grande, moins la mesure est précise.


Quand on utilise les estimés L des observations dans la solution d’un modèle
mathématique de la forme :

F ( Xˆ , L ) = 0 (1.152)
Il est normal que l’on accorde plus d’importance aux éléments dont la variance est
plus petite par rapport à ceux dont la variance est plus grande. L’importance donnée
à une observation par rapport aux autres observations est appelée : le poids de
l’observation. Le poids d’une observation est inversement proportionnel à sa
variance. Ainsi, la matrice de poids du vecteur des observations L sera défini comme
étant proportionnelle à l’inverse de sa matrice de variances covariances. En d’autres
termes le poids P est inversement proportionnel à  L . Mathématiquement, ceci se

traduit par la relation suivante :


P = c . L−1 (1.153)

c étant une constante positive différente de zéro.


La valeur réelle de la matrice de variances covariances des observations n’est
connue qu’à un facteur échelle près appelé Facteur de Variance  02 de façon que :

 L =  02 QL (1.154)

Q L est la matrice de variances covariances relative. La matrice de poids est donnée

alors par :

P = Q L−1 =  02  L−1 (1.155)

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
2

 02 (n’est autre que c de la relation (1.153), valeur choisie à priori) est une constante
positive dont la valeur est tout à fait arbitraire. Elle joue un rôle très important dans
les compensations géodésiques par moindres carrés.

Remarque :
Si les observations sont indépendantes (statistiquement) la matrice de variances
covariances des observations sera diagonale. C’est à dire
 sl2 . . . 0
 1 
0 sl2 . . .
que :  L =  . .
2

. . . (1.156)
( n ,n )  
 . . . . .
0 . . . sl2 
 n 

et par conséquent :
 o² 
 ² 0 . . 0 
 sl1 
  o² 
0 . . 0 
sl²
P = ² −1
=  (1.157)
 . . 
2
o L
( n ,n )
. . .
 
 . . . . . 
  o² 
0 . . . 
 sl² 
n 

Ceci veut dire que dans le cas des observations indépendantes le poids de
chaque observation li est donné par :
 o²
pi = (1.158)
s l²
i

Si l’on choisit  o² = sl² , alors pi =1. C’est pourquoi on appelle  o² la variance de


i

poids unitaire (ou poids d’une observation dont le poids est égal à l’unité).

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
3

1.3.2.5.2 Propagation des poids (ou cofacteurs).

Soit :
~ ~
Y = F( X )
On peut écrire :
 Y =  o² QY (1.159)

 X =  o² Q X

Q étant la matrice des coefficients de poids.

La loi de la propagation des variances permet d’écrire :


 Y = J XY  X J YX
T
(1.160)
Portons (1.159) dans (1.160), on obtient ;
 o² QY = J YX  o² Q X J YX
T

d’où :
QY = J YX QX J YX
T
(1.161)

L’expression (1.161) exprime la loi de propagation des cofacteurs ou encore la loi de


propagation des poids, puisque :
PY = QY−1

1.3.2.6 Propagation des erreurs systématiques


~
Soit ~
x une variable aléatoire exprimée en fonction d’un vecteur L d’observations,
telle que :
~ ~ ~ ~ ~
x = f ( L ) = f ( l1 , l2 ,...., ln ) (1.162)

Posons :
L = Vecteur des observations non affectées d’erreurs systématiques ;

Lo = Vecteur des mêmes observations affectées d’erreurs systématiques ;

L = L − Lo = Vecteur des erreurs systématiques ;

x = f ( L ) − f ( Lo ) = Effet des erreurs systématiques sur x.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
4

Appliquons le développement en séries de Taylor à (1.162) pour Lo et tronquons au

1er ordre , alors :


~
f ( L )
x = f ( Lo ) + ~ ( L − Lo )
L Lo

ou encore ;
n
x
x = xo +  l
i =1 i
lio
( li − li o ) (1.163)

d’où ;
n
 x 
x − xo = x =   l
i =1
 li
i  lio
(1.164)

1.3.2.7 L’erreur totale.


On appelle erreur totale l’effet combiné des erreurs systématiques et aléatoires, telle
que :
1
x = [( x )² +  x̂² ] 2 (1.165)

Tenant compte de (1.151) et (1.164), (1.165) peut s’écrire comme suit :


1
2

 n
x n
x 
x = (  li )² + ( l )² sl²  (1.166)
 i =1 li i =1 i
i

(1.166) peut être développée comme suit :
1

 n  x 2
( ) 
2 j =n
 i = n −1
x x

x =  
 i =1  li
 ( li )2 + sl2 + 2

i
i =1 li l j
li l j 

(1.167)
ji

1.4 Exercices et problèmes.


1- X étant une variable aléatoire normale de moyenne 2 et variance 9, trouver le
nombre a tel que la probabilité pour que X compris entre -2 et a, soit égale à 0.800
c'est-à-dire que : P [ −2  X  a ] = 0.800 . Utiliser l’interpolation linéaire à partir des
tables statistiques.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
5

Nb. Lecture. Nb. Lectu Nb. obs Lectur


n ;
obs " arc nobs "re,
arc n "e,arc
1 27.2 43 31.9 85 34.1
2 29.0 44 30.5 86 32.9
3 37.4 45 35.7 87 36.2
4 37.0 46 30.0 88 33.9
5 32.0 47 89 28.2
6 32.5 48 35.6
36.7 90 33.0
7 36.0 49 33.8 91 31.2
8 35.0 50 30.8 92 32.1
9 33.8 51 37.1 93 34.0
10 34.0 52 33.9 94 33.0
11 35.0 53 32.4 95 33.6
12 30.0 54 33.9 96 33.5
13 34.7 55 33.9 97 33.8
14 35.5 56 34.5 98 36.2
15 36.0 57 36.7 99 37.3
16 37.0 58 32.9 10 33.9
17 35.0 59 32.1 10
0 35.8
18 36.0 60 36.3 10
1 36.2
19 34.8 61 30.1 10
2 38.3
20 33.5 62 32.8 10
3 39.9
21 35.0 63 31.8 10
4 37.4
22 35.7 64 33.1 10
5 37.1
23 38.0 65 30.8 10
6 37.9
24 31.3 66 35.7 10
7 33.2
25 33.0 67 34.5 10
8 35.8
26 31.0 68 30.6 11
9 39.1
27 31.2 69 35.6 11
0 31.0
28 31.5 70 37.2 11
1 34.0
29 32.0 71 31.7 11
2 34.0
30 36.1 72 32.0 11
3 31.0
31 37.5 73 35.7 11
4 33.1
32 36.1 74 35.5 11
5 32.0
33 33.0 75 32.1 11
6 34.1
34 36.0 76 35.2 11
7 36.5
35 28.8 77 34.5 11
8 39.1
36 28.8 78 34.9 12
9 36.0
37 37.4 79 33.9 12
0 41.1
38 27.0 80 32.7 12
1 35.6
39 31.2 81 35.6 12
2 38.7
40 31.1 82 34.3 12
3 40.7
41 31.2 83 34.2 12
4 35.2
42 34.0 84 35.0 12
5 40.6
12
6 33.1
1er intervalle, 26.7- n=
7 127
Dernier intervalle,
27.7". moyenne =
40.8-41.7". 34.2"
Table 2

2 – Montrer que la matrice de variances covariances d’un vecteur aléatoire


X = x1 x 2 x3  T dont la moyenne est  X = [  1  2  3 ] T est donnée par :
 X = E [( X − E [ X ])( X − E [ X ]) T ]

3 – 127 observations micrométriques ont été effectuées (table 2). Calculer la


moyenne x des observations, la déviation standard ̂ x , l’estimé de la déviation
standard de la moyenne ̂ x , ainsi que les ordonnées de la courbe de la densité de
distribution et tracer la courbe sur l’histogramme.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
6

4 – Une distance a été mesurée par 2 observateurs d’une façon indépendante. Les 2
mesures sont x1= 110.00 m et x2= 110.10 m. Si les déviations standard de ces
mesures sont respectivement 5 cm et 7 cm. Calculer l’estimé de la distance par la
moyenne pondérée de ces mesures ainsi que la déviation standard de cet estimé
sachant que le facteur de variance de référence  o2 = 1

5 – Le tableau suivant donne la distribution des salaires journaliers de 65 employés


d’une société P.

Salaires en Nombres
dirhams d’employés
60.00 - 69.99 8
70.00 - 79.99 10
80.00 – 89.99 16
90.00 – 99.99 14
100.99 – 109.99 10
110.00 – 119.99 5
120.00 - 129.99 2

Table 3

Construire,
1°) –une distribution des fréquences
2°) –un histogramme
3°) –un histogramme des fréquences relatives
4°) – un polygone de fréquences
5°) – un polygone des fréquences relatives
6°) – la distribution cumulée des effectifs
7°) – la distribution cumulée des pourcentages
Montrer que l’aire totale des rectangles d’un histogramme est égale à l’aire totale
limitée par le polygone des fréquences correspondant à l’axe des x.
6 – La déviation standard de chacune de 2 directions angulaires partant d’un même
point est SD. Quel est le poids P de l’angle  compris entre ces 2 directions.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
7

7 – Dans un triangle, on observe les angles  et  et le côté c. Si ces mesures sont


non corrélées, donner l’expression du cofacteur q aa du côté a, connaissant les
cofacteurs q , q et qcc des angles  et  et du côté c respectivement.
8 - Sachant que la matrice de variances covariances des coordonnées d’un point
déterminé par rayonnement est :

 0.3767 − 0.2195
 =
− 0.2195 0.6300 

calculer le demi grand axe et le demi petit axe de l’ellipse d’erreur et son orientation.
9 - Dans un triangle ABC, on mesure les angles  et  et le côté adjacent. Si ces
observations sont :
a = 400.20 m ; a= 0.19 m
 = 45° 20 11 ; = 20
 = 52° 03 43 ;  = 20

Déterminer les côtés b et c, l’angle  et leurs déviations standard.


10 - soit, u1 = 3.0 ; u2 = 4.0 ; u3 = 5.0, trois observations statistiquement dépendantes
telles que :
x1 = u12 + 3u 23 + u3
1 1
x2 = 2
+ 4u 2 +
u1 u3

La matrice de variances covariances relative Quu des observations est :

2 0.5 0.6 

Quu = 0.5 1 − 0.7 
0.6 − 0.7 3 

Calculer x1 et x2 et leur matrice de variances covariances si le facteur de variance à


priori  o2 = 10 −2
11 – Soit un triangle ABC rectangle en A. Notons les côtés BC, AC et AB
respectivement par a, b et c et l’angle droit par . Les côtés a et b sont mesurés
d’une façon indépendante et leurs mesures sont respectivement 416.050 m et
202.118 m avec des déviations standard respectives de 0.020 m et 0.012 m.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
8

Evaluer les éléments c et  du triangle et leurs déviations standard ainsi que le


coefficient de corrélation, si elle existe, entre c et .
12 - soit x, y, z trois variables aléatoires indépendantes ayant les moyennes x , y , z.
Trouver l’espérance mathématique  de :
u = 3 x + 5 xy − z
13 – Si x est une variable aléatoire ayant la distribution N (  x , x2 ) , montrer que

pour la variable aléatoire z définie par :

x − E( x )
z=
x

 z = 0 ;  z2 = 1

14 – Pour déterminer le périmètre et la surface d‘une parcelle de terrain de forme


circulaire on mesure son rayon R . On trouve, R=100 m avec une déviation standard
 R = 6 cm .
a- Quelle est l’erreur moyenne quadratique du périmètre P de la parcelle ?
b- Quelle est l’erreur moyenne quadratique de l’aire S de la parcelle ?
15 – L’erreur moyenne quadratique de chacune de 2 directions partant du même
point est  D . Quelle est la déviation standard de l’angle  compris entre ces 2
directions ?, quel est le poids p de cet angle si le poids d’une direction est pD ?

16 – Les erreurs moyennes quadratiques de 2 directions partant de la même station


M sont respectivement :
o o
1 = ; 2 =
p1 p2

Quelle est l’erreur moyenne quadratique de l’angle sous-tendu par les 2 directions ?
17 – Dans un triangle plan ABC, on mesure les éléments suivants :
a = 400.20 m ;  = 4520' 14" ;  = 52 03' 43"
La mesure linéaire a été faite avec une déviation de 30 cm par km, et celle angulaire
de 20  . Calculer les valeurs des 3 autres éléments du triangle et leurs déviations
standard.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
9

18 – L’altitude orthométrique d’un point B a été déterminée à partir d’un point connu
A par nivellement trigonométrique. L’altitude orhométrique de A est HA= 423.45 m de
déviation standard  H A = 15 cm . On désigne la distance horizontale AB par D, la

hauteur de l’instrument (station totale) par hI, la hauteur du signal par hS et la distance
zénithale par z. Les valeurs observées des variables et leurs déviations standard
sont :
D = 875.30 m; sD= 0.10 m ; hI =1.64 m; s hI =0.01 m.
hS = 4.50 m; s hs = 0.01 m ; z= 98.4576 grades; sz= 0.0020 grades.

Quelle est l’erreur moyenne quadratique de l’altitude orthométrique HB du point B?

19 – Un angle  a été mesuré par 3 instruments différents comme indiqués ci-


dessous. Déterminer le meilleur estimé de  ainsi que sa déviation standard.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)
10

20 – Une distance AB a été mesurée au moyen de 4 systèmes de mesure différents.


Les valeurs observées sont les suivantes :

Calculer le meilleur estimé de la distance AB et sa déviation standard.


PX = Q X−1
C’est sous la forme de (1.161) que seront démontrées les expressions permettant
l’obtention des matrices de variances covariances des différents estimés résultant
de l’application de la méthode de compensation par moindres carrés.

Cours de la théorie des observations donné à distance par Pr Benaim


(6 mars 2021)

Vous aimerez peut-être aussi