Vous êtes sur la page 1sur 10

PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

MESURES ET INCERTITUDES

I Variabilité de la mesure d’une grandeur physique : incertitude et incertitude-type

1) Définition

Exemple :
On souhaite mesurer une résistance. Le conducteur ohmique dont on souhaite mesurer la résistance est branché aux bornes
d’un ohmmètre. Notre instrument communique avec un ordinateur et l’on utilise un programme d’acquisition de données. Ce
programme effectue N = 2000 mesures m de la résistance R, repère les valeurs mmin et mmax, divise l’intervalle [ mmin ;
mmax ] en 10 intervalles (classes), calcule le nombre n de résultats dans chaque classe et affiche les résultats sous la forme
d’un diagramme appelé histogramme où l’on représente la fréquence en % (pourcentage de résultats dans chaque classe :
100.n/N) en fonction de la résistance de chaque classe.
On obtient le tracé ci-dessous :

On constate donc sur cet exemple la variabilité de la mesure. On considère donc que le résultat de la mesure d’une
grandeur physique n’est pas constitué par une unique valeur mais par un ensemble de valeurs numériques
raisonnablement attribuables à la grandeur d’intérêt.
Le résultat d’une seule mesure apparaît donc comme une valeur particulière de cet ensemble.

Pour décrire un ensemble d’observations de manière encore plus économe qu’un histogramme, on peut se restreindre à seulement
deux paramètres :
* Un premier indique la position de l’histogramme sur l’axe des abscisses. On prend généralement la moyenne arithmétique
𝒙 des N observations xi :
∑𝑵𝒊#𝟏 𝒙𝒊
𝒙=
𝑵
* Un second indique la dispersion des observations, autrement dit son étalement. On prend généralement l’écart-type des
observations, encore appelé par définition incertitude-type et notée u pour « uncertainty » :
∑𝑵 (𝒙𝒊 − 𝒙)𝟐
𝒖(𝒙) = ( 𝒊#𝟏
𝑵−𝟏

1/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

2) Évaluation

a) Évaluation de type A (approche statistique)

On se place dans le cas où on a effectué plusieurs observations, et qu’elles ne sont pas toutes identiques. Une évaluation de
nature statistique peut alors être envisagée.
Quand la valeur mesurée est la moyenne de N observations, alors on peut se demander comment évaluer l’incertitude-type
associée à cette moyenne unique (l’intérêt de la moyenne est qu’elle va réduire les variabilités).
Pour estimer l’incertitude-type de cette moyenne, il faut par définition reproduire un grand nombre de fois l’expérience et
calculer l’écart-type de la distribution obtenue. Or chaque expérience est déjà la reproduction de la mesure unique un grand
nombre de fois, on comprend bien que cette opération peut vite être chronophage.
Heureusement, il existe une formule mathématique permettant d’estimer cet écart-type. Il stipule que le résultat de l’expérience
quand on réalise N fois le même protocole est :

𝒙 ± 𝒖(𝒙)
𝟏
avec 𝒙 = 𝑵 ∑𝑵 𝒙
𝒊#𝟏 𝒊 : la moyenne de la distribution
𝒖(𝒙)
et 𝒖(𝒙) = : l’incertitude-type sur la moyenne.
√𝑵

Exemple : des mesures de résistances ont donné R = 534, 529, 535, 527 et 530 W.
+,-.+/0.+,+.+/1.+,2
𝑅= = 531Ω.
+
(+,-3+,4)! .(+/03+,4)! .(+,+3+,4)! .(+/13+,4)! .(+,23+,4)! ,,,0
𝑢(𝑅) = 2 -
= 3,39Ω et 𝑢5𝑅6 = = 1,52Ω .
√+

Réalisation avec Excel : on utilise respectivement les fonctions « MOYENNE » pour 𝑅 et « ECARTYPE » pour u(R).

Réalisation avec Python : on utilise respectivement les fonctions « mean » pour 𝑅 et « std » pour u(R) de la bibliothèque
« numpy ».
import numpy as np
data=[534,529,535,527,530] #création de la liste des données
n=len(data) #calcul du nombre de données
moyenne=np.mean(data) #calcul de la moyenne
print('moyenne =',moyenne)
ecartype=np.std(data,ddof=1) #calcul de l'écart-type
#ddof=1 pour bien diviser par n-1 au dénominateur
print('ecart-type =',ecartype)
incertitudetype=ecartype/(n**(1/2)) #calcul de l'incertitude-type
print('incertitude-type =',incertitudetype)

Réalisation avec une calculatrice : consulter la notice en fonction du modèle utilisé.

b) Évaluation de type B

On se place ici dans le cas où on n’a pu réaliser qu’une observation unique, ou bien d’expériences sans variabilité observée,
c’est-à-dire que la répétition des observations conduit exactement à la même valeur.
Cette absence de variabilité observée n’implique pas une absence de variabilité. Cela signifie juste qu’à l’échelle de cette
expérience, avec l’appareil de mesure choisi, la variabilité est plus faible que la précision de la mesure.
Il faut donc estimer théoriquement la variabilité de la mesure, qui est masquée par l’appareil employé, sans l’observer.
L'incertitude-type est alors évaluée par un jugement scientifique qui repose sur l'expérience et les connaissances générales de
l’expérimentateur ou de l’expérimentatrice : c'est une compétence qui s’apprend par la pratique. Dans ce jugement il demeure
une part d’arbitraire, qui doit être assumée et documentée.

On se restreint ici à deux situations simples :

* Si on n’a aucune autre information qu’une limite basse et une limite haute pour la grandeur d’intérêt (le
constructeur de l’appareil fournit une “incertitude constructeur”, ou “précision”, sans explicitation), alors on
suppose que la répartition est uniforme entre ces deux bornes.
On estime la plus petite plage dans laquelle l’expérimentateur est certain de trouver la valeur recherchée.
On note 𝒙 la valeur centrale de cette plage et D sa demi-largeur.
Autrement dit, l’expérimentateur est certain de trouver la valeur recherchée dans l’intervalle [𝑥 − D, 𝑥 + D].
𝚫
Dans ce cas, le résultat de la mesure est 𝒙 ± 𝒖(𝒙) avec 𝒖(𝒙) = (écart type de la distribution).
√𝟑

2/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

La justification de ce facteur √3 suppose que l’ensemble des valeurs mesurée peut-être modélisé par une variable aléatoire
ayant une densité de probabilité uniforme sur l'intervalle [𝑥 − D, 𝑥 + D], c’est-à-dire que si on représentait un histogramme
avec un grand nombre de valeurs dans cet intervalle, celui-ci serait rectangulaire.

Exemple (figure ci-dessous à gauche) :


Histogramme représentant 100 000 valeurs aléatoires choisies de manière équiprobable dans l’intervalle [69 ; 73] kg
donné par le constructeur d’un pèse-personne. Il est approximativement rectangulaire (et le serait pour un nombre infini
d’observations).
Donc la valeur mesurée est m = 71 kg, valeur centrale de l’intervalle, et l’incertitude-type associée vaut 2/√3 = 1,15
kg.

* Si on connait la valeur mesurée et l’incertitude-type associée (fournie par le constructeur de l’appareil), mais
qu’on ne connaît pas la distribution sous-jacente, alors on suppose que la distribution est gaussienne (encore appelée
normale) ; figure ci-dessus à droite.

II Composition d’incertitudes : incertitudes-types composées

On cherche souvent l’incertitude-type d’une grandeur calculée à partir d’une ou plusieurs grandeurs mesurées.
On se place dans le cas d’une grandeur y dépendant de n autres grandeurs x1, x2, …, xn indépendantes :
y = f(x1, x2, …, xn).

1) Utilisation d’une formule mathématique

a) Cas général

L’incertitude-type composée sur y notée uc(y) est telle que :

9: /
𝑢8/ (𝑦) = ∑=<#4 ;9; < 𝑢/ (𝑥< ) où u(xi) est l’incertitude-type sur xi.
"

b) Cas particuliers simples

* Somme
9> 9>
z=x+y 9;
=1 9?
=1
𝑢8/ (𝑧) =𝑢 / (𝑥) /
+ 𝑢 (𝑦) 𝑢8 (𝑧) = ?𝑢/ (𝑥) + 𝑢/ (𝑦)

Exemple : deux résistors en série de résistances R1 = R2 = 1,0 kW connues à 5% près, R = R1 + R2


@# (A)
𝑢(𝑅4 ) = 𝑢(𝑅/ ) = 50Ω ; 𝑢8 (𝑅) = 71Ω avec R = 2,0 kW ; = 3,5%.
A

* Différence
9> 9>
z=x-y 9;
=1 9?
= −1
𝑢8/ (𝑧) =𝑢 / (𝑥) /
+ 𝑢 (𝑦) 𝑢8 (𝑧) = ?𝑢/ (𝑥) + 𝑢/ (𝑦)

Exemple : pour une double lecture (détermination d’une distance comprise entre deux positions, sur un banc d’optique par
exemple) : 𝑢BC@DEF EF8H@IF = ?2(𝑢EF8H@IF )/ = √2𝑢EF8H@IF

Avec une règle graduée en millimètres (D = 1 mm), l’incertitude sur une distance d est √2 = 0,8𝑚𝑚.
√,

3/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

* Produit
9> 9>
z = xy =𝑦 =𝑥
9; 9?
@#! (>) @! (;) @! (?) @! (;) @! (?)
𝑢8/ (𝑧) = 𝑦 / 𝑢/ (𝑥) + 𝑥 / 𝑢/ (𝑦) = + 𝑢8 (𝑧) = 𝑧2 +
>! ;! ?! ;! ?!

* Quotient
; 9> 4 9> 3;
𝑧=? 9;
=? 9?
= ?!
4 ;! @#! (>) @! (;) @! (?) @! (;) @! (?)
𝑢8/ (𝑧) = 𝑢/ (𝑥) + 𝑢/ (𝑦) = + 𝑢8 (𝑧) = 𝑧2 +
?! ?$ >! ;! ?! ;! ?!

K
Exemple : 𝑅 = L
avec U = 20 V ; I = 100 mA ; u(U) = 0,4 V ; u(I) = 1 mA. R = 200 W.
@# (A) @! (K) @! (L)
Incertitude relative : A
=2 K!
+ L!
= 2,23%,

soit uc(R) = 4,47 W donc R = 200 W ± 4,47 W, soit 196 W < R < 204 W.

En résumé, il faut mémoriser que pour une somme ou une différence on ajoute les u2(y), et que pour un produit ou un
𝒖𝟐 (𝒚)
quotient, on ajoute les .
𝒚𝟐

* Multiplication par un nombre exact


Une grandeur y peut être obtenue à partir d’une grandeur y0 multipliée par un nombre exact A. On a alors y = A y0.
Dans ce cas, l’incertitude u(y) est donnée par : u(y) = A.u(y0).
Ce résultat n’est pas le même que celui obtenu pour une somme, car, dans ce cas, les grandeurs ne sont pas indépendantes.
@(42N)
Exemple : si l’on mesure 10 longueurs d’onde l, on a 𝑢(𝜆) = 42 .

2) Utilisation d’une simulation informatique : algorithme de type Monte-Carlo

Les choses deviennent plus difficiles lorsque les expressions sont plus compliquées. Par exemple en calorimétrie pour la méthode
des mélanges :

𝑚4 𝑐4 𝑇4 + 𝑚/ 𝑐/ 𝑇/
𝑇: =
𝑚4 𝑐4 + 𝑚/ 𝑐/

Les calculs deviennent alors fastidieux et donc sans grand intérêt.


On réalise un algorithme de type Monte-Carlo qui utilise la variabilité d’une mesure pour simuler un calcul d’incertitude.
À l’aide des informations dont on dispose, on synthétise numériquement des observations fictives correspondant aux mesures
données. On travaille ensuite sur ces observations, pour estimer la valeur mesurée et l’écart-type. On se ramène effectivement à
une situation où on peut faire une évaluation de type A de l’incertitude.
Voir la mise en œuvre dans l’annexe.

III Comparaison de deux valeurs : écart normalisé (z-score)

Il s’agit ici de se doter d’un critère quantitatif permettant de comparer deux mesures pour indiquer si elles peuvent être considérées
comme compatibles ou incompatibles. Il permet aussi de comparer l’écart entre une valeur mesurée et une valeur de référence, c’est-
à-dire une grandeur telle qu’elle est attendue (valeur tabulée, résultat théorique…).
L’écart normalisé EN (encore appelé z-score) entre deux processus de mesure donnant les valeurs m1 et m2 et d’incertitudes-
types u(m1) et u(m2) est défini par :

|𝒎𝟏 − 𝒎𝟐 |
𝑬𝑵 =
?𝒖𝟐 (𝒎𝟏 ) + 𝒖𝟐 (𝒎𝟐 )

Par convention, on qualifie souvent deux résultats de compatibles si leur écart normalisé vérifie : 𝑬𝑵 ≾ 𝟐.
Ce seuil à 2 est d’origine historique. On le retrouve dans de nombreux champs scientifiques, comme la médecine, la pharmacie, la
biologie, la psychologie, l’économie, l’écologie, ... Ce seuil peut différer selon le domaine : par exemple pour démontrer l’existence
d’une nouvelle particule en physique subatomique, il faut atteindre un seuil de 5.

4/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

Pour justifier cette convention, on peut revenir à la définition de l’incertitude-type. Celle-ci quantifie les fluctuations potentielles de
la valeur mesurée annoncée. Lorsque deux mesures sont cohérentes, on s’attend à ce qu’elles ne coïncident pas exactement, mais
qu’elles ne s’écartent pas l’une de l’autre de plus que de quelques incertitudes-type.
Pour respecter cette définition, prenons deux valeurs expérimentales que l’on souhaite comparer m1 et m2, d’incertitudes-type u(m1)
et u(m2). Si m1 et m2 peuvent être considérées comme compatibles, cela implique que la valeur 0 n’est éloignée de m1 − m2 que de
quelques u(m1 − m2).
On sait par ailleurs (paragraphe précédent) que 𝑢(𝑚4 − 𝑚/ ) = ?𝑢/ (𝑚4 ) + 𝑢/ (𝑚/ ).
Ainsi, EN compare (m1 − m2) − 0 et u(m1 − m2). Autrement dit, ce rapport donne le nombre d’incertitudes-type séparant 0 de m1
−m2. Si ce nombre est trop grand, 0 n’est pas compatible avec m1 −m2 et donc m1 et m2 ne sont pas compatibles.
Dans les trois figures 3a, 3b et 3c ci-dessous, la barre verticale représente la valeur 0. On constate bien que, si EN est trop grand,
alors cela implique que la valeur 0 est séparée de tous les points de mesure d’un trop grand nombre de fois l’incertitude-type.

IV Régression linéaire

Comment peut-on tester l’adéquation d’un modèle avec des résultats expérimentaux ?
Une des solutions consiste en la réalisation d’une régression linéaire si l’on pense qu’il existe une fonction affine y = ax + b
reliant deux variables x et y du modèle (par exemple pour un modèle de Thévenin en électrocinétique : u = ri – e), c’est-à-dire en
la recherche d’une droite passant au plus près des N points expérimentaux (xi, yi). On cherche alors à déterminer le coefficient
directeur a (pente) de la droite et son ordonnée à l’origine b.
On utilise pour ce faire par exemple la méthode « des moindres carrés » en cherchant à minimiser la quantité ∑O /
<#4[𝑦< − (𝑎𝑥< − 𝑏)] .
∑&
"'((;" 3;)(?" 3?)
On obtient alors 𝑎 = ∑& ! et 𝑏 = 𝑦 − 𝑎𝑥.
"'((;" 3;)

Réalisation avec Excel : on peut utiliser les fonctions « PENTE » et « ORDONNEE.ORIGINE » à partir d’un tableau de valeurs,
ou à partir d’une représentation graphique du nuage de points en utilisant l’option « Ajouter une courbe de tendance … ».

Réalisation avec Python : on peut utiliser la fonction « polyfit » de la bibliothèque « numpy ». Elle nécessite trois arguments : la liste
des abscisses, la liste des ordonnées et le degré du polynôme choisi pour le modèle (un ici). Les listes sont déclarées comme des
tableaux numpy (« array »).

Pour s’assurer qu’une régression linéaire est correcte, on tracera systématiquement sur un graphique les données mesurées ainsi que
la droite de la régression linéaire. Le modèle sera validé si, à l’œil, les points de mesure sont bien alignés et que la droite passe le

5/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

plus proche de tous les points possibles, en incluant leurs incertitudes-type. On rappelle que l’incertitude-type est une estimation de
la variabilité de la mesure. Ainsi, il est naturel que les points expérimentaux soient éloignés de la valeur de la modélisation de quelques
incertitudes-types.
On évitera en général l’utilisation du coefficient de corrélation r2 dont l’interprétation est notoirement délicate.
On peut par contre tracer les résidus (écart entre l’ordonnée du point expérimental et la droite de régression) pour confronter
visuellement les données aux hypothèses de l’algorithme ; on le fera notamment si on ne voit pas de manière évidente que la droite
tracée “passe” par les barres d’incertitudes, parce que celles-ci sont trop petites. On pourra enfin rapporter les résidus à l’incertitude-
type qui leur est associée, pour tracer les écarts normalisés EN.

Graphique cartésien

Résidus (écarts verticaux à la droite)

Écarts normalisés EN

La régression linéaire est validée dans le graphe des résidus si, pour la quasi-totalité des points, l’ordonnée zéro passe dans ou près
des barres d’incertitudes, ou si les écarts normalisés EN (résidu/incertitude-type) restent modérés (|𝐸O | < quelques unités).

Comment déterminer l’incertitude sur les paramètres a et b du modèle ?

Principe :
On réalise une simulation Monte-Carlo en réalisant un très grand nombre de régressions linéaires sur une série de points
sans incertitudes. Pour obtenir ces points, on génère aléatoirement pour chaque point mesuré une valeur à l’aide des
incertitudes-types expérimentales. Conformément aux préconisations citées précédemment, si on n’a pas d’information
pour savoir de quelle façon générer les valeurs, on choisit une distribution de probabilité uniforme. On a alors ∆= √𝟑𝒖(𝒙).
Les valeurs finales de la pente et de l’ordonnée à l’origine sont alors les moyennes de toutes leurs valeurs, et leurs
incertitudes-types sont les écarts-types de ces deux ensembles de valeurs.

Réalisation :
* On réalise une régression linéaire unique pour estimer la pente et l’ordonnée à l’origine.
* On crée deux listes vides pour stocker les pentes et les ordonnées à l’origine des régressions.
* Pour chaque i compris entre 1 et n (très grand), on réalise :
- Pour chaque j compris entre 1 et n, on réalise un tirage aléatoire d’une valeur de Yj donnée par une loi de probabilité uniforme

6/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

entre yj − √3 u(yj) et yj + √3 u(yj).


- Pour chaque j compris entre 1 et n, on réalise un tirage aléatoire d’une valeur de Xj donnée par une loi de probabilité uniforme
entre xj − √3 u(xj) et xj + √3 u(xj).
* On réalise une régression linéaire sur cet ensemble (Xj , Yj) puis on ajoute dans les listes la pente et l’ordonnée à l’origine de
cette régression.
* On calcule pour les écarts-types des deux listes des pentes et des ordonnées à l’origine pour obtenir les incertitudes-types.
* On trace sur un graphique la droite obtenue avec la pente moyenne et l’ordonnée à l’origine moyenne.
* On superpose sur le même graphique les points de mesures en indiquant leurs incertitudes-types sous la forme de barres d’erreur.

Exemple : obtention des paramètres A et B ainsi que de leurs incertitudes respectives u(A) et u(B) de la loi de Cauchy en optique
Q
donnant l’indice d’un milieu dispersif en fonction de la longueur d’onde : 𝑛 = 𝐴 + N!.

Script python :
# Loi de Cauchy : n = A + B/(lamba)2

import numpy as np
import numpy.random as rd

# Saisie des valeurs expérimentales

# longueurs d'onde (en nm)


lamb = np.array([404.7, 435.8, 480.0, 546.1, 578.1, 615])
# indices optiques
n = np.array([1.77610, 1.76325, 1.74957, 1.73481, 1.72942, 1.72397])
# incertitudes-types sur les indices
u_n = np.array([1.4, 1.4, 1.4, 1.3, 1.3, 1.3])*1e-4

# Simulation Monte-Carlo

# nombre d'expériences simulées


N = 50000
# initialisation des listes dans lesquelles on va stocker
# les valeurs de A et B correspondant à chaque expérience simulée
AMC, BMC = [], []
# pour chaque expérience
for i in range(N):
# on simule la mesure des n pour les 6 longueurs d'onde
nMC = n + rd.normal(0, u_n, size = 6)
# on reprend l'ajustement affine avec cette série de valeurs de n
p = np.polyfit(1/lamb**2, nMC, 1)
# on stocke les valeurs des paramètres d'ajustement dans les listes AMC et BMC
AMC.append(p[1])
BMC.append(p[0])

# Analyse statistique de l'ensemble des valeurs de A et de B obtenues

Amoy = np.mean(AMC)
u_A = np.std(AMC, ddof = 1)
print("Estimation du paramètre A de la loi de Cauchy :")
print("* Valeur mesurée : A = {}".format(Amoy))
print("* Incertitude-type : u(A) = {}\n".format(u_A))

Bmoy = np.mean(BMC)
u_B = np.std(BMC, ddof = 1)
print("Estimation du paramètre B de la loi de Cauchy :")
print("* Valeur mesurée : B = {}".format(Bmoy))
print("* Incertitude-type : u(B) = {}".format(u_B))

Résultat du script :
Estimation du paramètre A de la loi de Cauchy :

7/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

* Valeur mesurée : A = 1.6844426956807537


* Incertitude-type : u(A) = 0.00018631557158738332

Estimation du paramètre B de la loi de Cauchy :


* Valeur mesurée : B = 14998.18123765697
* Incertitude-type : u(B) = 44.1630754349699

Si le modèle recherché implique b = 0 (loi d’Ohm pour un résistor, loi de Hooke pour un ressort, …), dans ce cas, on cherche
uniquement à estimer a. Il est en général difficile avec la plupart des logiciels d’imposer une ordonnée à l’origine nulle. La méthode
alors la plus simple consiste à calculer un grand nombre de valeur de a par la relation yi/xi puis réaliser un traitement statistique sur
ces valeurs en calculant la moyenne et l’écart-type des yi/xi.

Exemple : On réalise un montage courte dérivation, alimenté par une alimentation stabilisée, afin de tracer la caractéristique d’un
dipôle supposé purement résistif. En faisant varier la tension U aux bornes du dipôle, on obtient un ensemble de points expérimentaux
U, I ; comment exploiter ces points pour déterminer la résistance électrique R modélisant le dipôle ?

On calcule la moyenne arithmétique et l’écart-type expérimental des 10 valeurs de U/I.


On obtient alors R = 1025 W et u(R) = 1,3 W.

Script Python :
import numpy as np
from math import *
import matplotlib.pyplot as plt

# Saisie des tensions (en V)

U = np.array([0.937,1.875,2.809,3.745,4.682,5.618,6.679,7.633,8.582,9.536])

# Saisie des intensités (en mA)

I = np.array([0.9098,1.8251,2.7346,3.6503,4.5544,5.4868,6.503,7.448,8.430,9.384])/1000

# Tracé de la courbe U(I)

plt.plot(I,U, 'bo')
plt.xlabel("I (en A)")
plt.ylabel("U (en V)")
plt.show()

# Calcul des résistances (en Ohm)

R0 = []
for i in range(0,len(U)):
res=U[i]/I[i]
R0.append(res)

# Calcul de la résistance (moyenne des valeurs)

R = np.mean(R0)
print ('Résistance : R = ',R,'Ohm')

# Calcul de l'incertitude sur la résistance (écart type des valeurs/racine(10))

uR = np.std(R0)*10**(-1/2)
print('Incertitude sur la résistance : u(R) =',uR,'Ohm')

Résultat du script :
Résistance : R = 1024.8448362821023 Ohm
Incertitude sur la résistance : u(R) = 1.3251340581958255 Ohm

8/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

Annexe : Algorithme de type Monte-Carlo

Le terme méthode de Monte-Carlo désigne une famille de méthodes algorithmiques visant à calculer une valeur numérique approchée
en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Le nom de ces méthodes, qui fait allusion aux jeux de
hasard pratiqués au casino de Monte-Carlo, a été inventé en 1947 par Nicholas Metropolis, et publié pour la première fois en 1949
dans un article coécrit avec Stanislaw Ulam.
Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en
particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des
simulations probabilistes permettent d'estimer la forme d'un signal ou la sensibilité d'un détecteur. La comparaison des données
mesurées à ces simulations peut permettre de mettre en évidence des caractéristiques inattendues, par exemple de nouvelles particules.
La méthode de simulation de Monte-Carlo permet aussi d'introduire une approche statistique du risque dans une décision financière.

; / ? /
Exemple : calcul de l’aire d’une ellipse d’équation cartésienne ;R< + ;D< = 1 (demi-grand axe a et demi-petit axe b) avec la
fonction aire_ellipse(n, a, b) en tirant n points aléatoirement dans un rectangle de longueur a et de largeur b.

Script python :
import random
import numpy as np
def aire_ellipse(n,a,b):
pt=0
for i in range(n):
# On prend aléatoirement uniformément un point (x,y) du rectangle [-a,a]*[-b,b]
x=random.uniform(-a,a)
y=random.uniform(-b,b)
# On teste si le point (x,y) est dans l'ellipse
if (x/a)**2+(y/b)**2<=1:
pt+=1
# La probabilité approximée par pt/n qu'un point appartienne à l'ellipse
# est donc , si l'on note A l'aire de l'ellipse A/(2*a*2*b) :
return(pt/n*(2*a)*(2*b))

#Exemple 1 : aire d'un cercle de rayon unité


print('aire approchée =',aire_ellipse(10**5,1,1))
print('aire exacte =',np.pi) # valeur exacte
#Exemple 2 : aire d'une ellipse de demi-grand axe 3 et de demi-petit axe 2
print('aire approchée =',aire_ellipse(10**5,3,2))
print('aire exacte =',np.pi*2*3) # valeur exacte

Résultats du script:
aire approchée = 3.14212
aire exacte = 3.141592653589793
aire approchée = 18.81552
aire exacte = 18.84955592153876

L’algorithme de Monte-Carlo sera utilisé ici pour la composition des incertitudes en visant à évaluer l’espérance et la variance d’une
variable aléatoire en générant un grand nombre d’échantillons qui suivent la même loi de probabilité que la variable aléatoire.

Exemple : incertitude sur la différence x1 – x2 de deux grandeurs (par exemple sur une longueur obtenue en mesurant deux positions
sur une règle)

Script python :
# Entrez les deux valeurs
x1 =5
x2 =3
# Entrez les incertitudes absolues des deux valeurs
Deltax1=0.1
Deltax2=0.5
# Entrez le nombre de simulation que vous voulez effectuer
N = 6000
# Calculs avec une distribution de probabilité gaussienne ou uniforme
# Pour changer la distribution de probabilité, il faut juste changer la ligne commentée dans la boucle for

9/10
PCSI2 – Lycée Carnot, Dijon Mesures et incertitudes

resx=[]
resy=[]
resd=[]
for i in range(0,N):
x=np.random.normal(x1,Deltax1)
#x=np.random.uniform(low=x1-Deltax1,high=x1+Deltax1)
resx.append(x)
y=np.random.normal(x2,Deltax2)
#y=np.random.uniform(low=x2-Deltax2,high=x2+Deltax2)
resy.append(y)
resd.append(abs(x-y))
plt.figure(1)
plt.hist(resx,bins = 100)
plt.hist(resy,bins = 100)
plt.figure(2)
plt.hist(resd,bins = 100)
# Calcul et affichage moyenne et écart type
moy = np.mean(resd)
std = np.std(resd)
print('Moyenne =', moy)
print('Ecart type =', std)

Résultats du script :

Moyenne = 1.9976485783581366
Ecart type = 0.5055799197455497

Distribution pour x1 et x2 Distribution pour x = x1 - x2

Résultats par le calcul :

x = x1 – x2 = 5 – 3 = 2
𝑢(𝑥) = ?𝑢/ (𝑥4 ) + 𝑢/ (𝑥/ ) = ?0,1/ + 0,5/ = 0,51

Avec Excel :

On utilise la fonction : LOI.NORMALE.INVERSE(ALEA() ;espérance, écart-type) pour générer la série de valeurs aléatoires
avec une loi normale pour les variables x1 et x2.
On prend ensuite la moyenne et l’écart-type de la variable x1 – x2.

10/10

Vous aimerez peut-être aussi