Académique Documents
Professionnel Documents
Culture Documents
Y. Hammal
2
Points à bien comprendre :
Toute évaluation quantitative ou qualitative de la sûreté
est guidée et dirigée par les questions posées sur le
fonctionnement du système.
Tant que ces questions ne sont pas bien posées , c'est-à-
dire tant que la spécification du problème amenant la
question n'est pas formalisée de manière complète, il est
inutile de rechercher la/les formule(s) définissant telle ou
telle grandeur liée à la sûreté.
C'est la formalisation de la spécification, puis de la
conception qui doit guider le choix de la formule.
3
1) Rappels sur la théorie
des probabilités
4
1) Notions de probabilités
Le mot probable signifie, pour le grand public, « qui peut
se produire dans le cas de futures éventualités » , ou
« vraisemblable » dans les cas où on tente d'inférer des
évidences.
La théorie des Probabilités est une théorie mathématique
permettant de quantifier l'incertain.
L'incertitude peut naître de notre ignorance, être due à une
incompréhension, ou provoquée par l'aspect aléatoire du
phénomène observé. Dans tous les cas, nous mesurons
l'incertitude des évènements sur une échelle de 0 (pour les
évènements impossibles) à 1 (pour les évènements
certains).
5
Interprétations de la notion de
probabilité
La notion de probabilité recouvre deux concepts :
La probabilité de l'aléatoire, qui représente la probabilité
d‘évènements futurs dont la réalisation dépend de
phénomènes physiques aléatoires : lancement de dé.
La probabilité-incertitude que nous avons devant des
affirmations, lorsque nous ne disposons pas de la
connaissance complète des circonstances et des causalités.
De telles affirmations peuvent avoir été vérifiées sur des
évènements passés ou seront peut-être vrais dans le futur.
Mais il n'y a pas moyen de les vérifier au moment de
l'estimation de leur incertitude.
6
La théorie des probabilités : fournit des modèles mathématiques
permettant l’étude d’expériences dont le résultat ne peut être prévu avec une
totale certitude. En voici quelques exemples :
8
Fréquence et Probabilité
Lançons 100 fois un dé. Il retombe 20 fois sur la face 1.
Quelle est la fréquence d'apparition de la face 1 ?
Quelle est sa probabilité d'apparition ?
La fréquence d'apparition de la face 1 est 20/100.
Sa probabilité d'apparition est 1/6 (si le dé est parfait).
9
Point de vue combinatoire
Lancer d'une pièce : probabilité de 1/2 de retomber sur
face. Qu'est-ce que cela signifie exactement ?
Soit F le nombre de fois où la pièce retombe sur face et
N le nombre total de lancers. On considère
l‘évènement E « Tomber sur face » .
On fait l'hypothèse que les lancers sont indépendants.
Par définition, la probabilité de E est la limite, quand
N devient très grand, du nombre F/N.
La Loi des Grands Nombres dit que, quel que soit , il
existe N, tel que, n > N ; abs(P(E) – F/n) < .
C'est la notion même de limite !
10
Point de vue combinatoire
Comparer la différence entre le nombre de « Tombé sur
face » et de « Tombé sur pile » quand N devient grand.
Cette approche, fondée sur l'idée de répétition d'un
évènement donné, n'est pas satisfaisante... car on ne répète
jamais suffisamment, quelque soit la personne...
On peut parler d'une probabilité de défaillance de 10-9 sans
faire un milliard d'essais... et la défaillance peut apparaitre à
la 4ème utilisation...
Une probabilité est-elle nécessairement objective ?
Deux campagnes de mesure faites à différents moments sur
la présence d'amiante dans les locaux donneront des
probabilités différentes... Mais la présence d'amiante dans
un local donné est 1 ou 0.
11
Rappels sur la Théorie des
Probabilités
Une expérience aléatoire est par définition non
prévisible.
Donnée :
un ensemble de valeurs dites observables
et une méthode dite épreuve (réalisation d'une
expérience aléatoire) pour exhiber un élément de .
12
L'espace des observables
Nous conviendrons qu'effectuer une expérience
aléatoire, c'est sélectionner par un procédé quelconque
un élément dans un ensemble .
Par exemple, jeter un dé revient à sélectionner un
élément de = {1; 2; 3; 4; 5; 6}.
Cet ensemble est appelé l'espace des observables
(ou espace des issues ou espace des événements
élémentaires).
Ses points sont appelés observables (ou
événements élémentaires).
Il est très important qu'il soit clairement défini afin de
regrouper au moins tous les résultats possibles de
l'expérience aléatoire.
13
Événements
La théorie moderne des probabilités utilise le langage
des ensembles pour modéliser une expérience
aléatoire.
Notons que les éléments de l’ensemble représentent
tous les résultats possibles ou événements
élémentaires d’une expérience aléatoire donnée.
Les événements (ou événements composés) seront
représentés par des parties (sous-ensembles) de .
Un évènement A est un sous-ensemble de .
Il caractérise une propriété qui est ou non observée
après une épreuve.
14
15
Exemple 1 : Tirage de deux nombres
Epreuve : tirer simultanément deux nombres entre 1 et 10.
Evènement : observer leur produit.
= i* j/ i ; j [1; 10]
Evènements identiques : non discernables par une épreuve. En
existe-t-il dans l'exemple ?
Oui. A = n > 10 et n et B = n > 11 et n .
A et B sont deux événements qui ne correspondent pas à la
même propriété mais sont cependant observables par les
mêmes épreuves.
16
Exemple 2 : Contrôle de production
17
Rappels sur la Théorie des Probabilités
: complementaire de A, A B, A B, A B, ...
Deux évènements sont incompatibles si A B = .
Si l'ensemble des observables est fini, L'ensemble F
des évènements A est une algèbre de Boole. Qu'est-ce
que cela signifie ?
Si n'est pas fini, on retrouve les axiomes des tribus
qui définissent les espaces de probabilité en
mathématiques.
18
La tribu des événements F
Le résultat d'une expérience aléatoire est par définition
imprévisible.
Toutefois, une fois fixé A un sous ensemble de l'espace des
observables , on s'intéresse à la possibilité qu'a le résultat
de l'expérience de tomber dans A.
Les parties de pour lesquelles on se pose ce genre de
question sont appelées des événements.
Un des premiers points délicats de la théorie est qu'on ne
va pas considérer tous les sous ensembles de comme des
événements.
L'idée de Kolmogorov est que l'ensemble F des événements
a une structure de tribu :
19
20
Le langage de la théorie des ensembles permet des calculs
systématiques sur les événements.
Toutefois, il faut savoir que le langage courant, que nous
utilisons dans une première étape pour décrire des
événements a sa traduction ensembliste :
21
D'après cette traduction ensembliste, le fait qu'on ne sorte
pas de la famille des événements intéressants à considérer
en prenant une intersection ou une réunion d'événements,
est raisonnable, tant qu'on considère un nombre fini
d'événements.
C'est toujours le cas si l'ensemble est fini, le nombre de
parties de étant aussi fin.
Le fait de se permettre ces opérations aussi pour un nombre
infini d'événements est plus subtil.
Le passage à l'infini est le passage de l'algèbre à l'analyse,
donc à des approximations maniables et à de puissantes
techniques issues du calcul différentiel et intégral.
Remarquer que dans ce passage à l'infini, on se limite à une
infinité dénombrable d'événements
22
La probabilité P
On quantifie désormais la possibilité qu'a le résultat de
l'expérience de tomber dans un événement A F, sous-
ensemble de l'espace des observables .
La puissance du calcul des probabilités réside dans le fait
qu'il ne manipule pas directement le résultat de
l'expérience aléatoire mais mesure les chances d'arrivée
d'un événement A dû au hasard.
23
Probabilités d‘évènements
24
Définition formelle de la probabilité :
25
Quelques propriétés :
26
Indépendance
La notion d'indépendance est une hypothèse utilisée depuis
longtemps en théorie des probabilités.
On dit que deux évènements sont indépendants lorsque le fait
de connaître le résultat du premier évènement ne nous aide
pas pour prévoir le second et inversement.
Plusieurs lancers de dés successifs sont considérés indépendants.
L'indépendance peut se définir sur les ensembles, deux
évènements A et B sont dits indépendants si la probabilité
que A apparaisse ne dépend pas de la connaissance de
l'obtention de B.
Mathématiquement, les évènements sont indépendants si et
seulement si la probabilité de leur intersection est égale au
produit de leur probabilité :
A et B sont indépendants P(AB)=P(A)P(B).
27
Théorèmes majeurs (1)
Théorème de Poincaré :
P(A B) = P(A) + P(B) - P(A B)
Théorème des Probabilités conditionnelles :
Notons P(A│X) la probabilité que A se produise
sachant que X est réalisé, dite probabilité
conditionnelle de A rapportée à X.
P(A X) = P(A│X) P(X)
Deux évènements sont indépendants ssi
P(A│B) = P(A) ssi P(A B) = P(A)P(B)
28
Théorèmes majeurs (2)
29
P(Ai) = P(Ai) / P()
P(Ai/B) = P(Ai B) / P(B)
31
Dans le cas de la théorie discrète, pour une expérience non répétée,
l'axiomatique s'écrit :
={1, 2, …, n} pour le cas d’un univers fini,
={1, 2, 3, 4, … } pour le cas d’un univers infini dénombrable,
où le choix 1, 2, 3, 4, … peut être effectué pour représenter les
différents résultats équiprobables de l'expérience.
Plusieurs choix de tribu sont possibles, cependant il est raisonnable pour
une étude discrète de choisir la tribu de ensemble des parties puisqu'il
contient tous les évènements possibles : F = P()
Dans le cas de la théorie discrète, la mesure de probabilité possède la
particularité de pouvoir être définie uniquement sur les singletons :
P({1}), P({2}), … . Les probabilités des autres évènements s'obtiennent
grâce aux axiomes des probabilités.
Lorsque l'univers est fini, contenant n éléments, il est possible de choisir
la mesure uniforme : P({1}) = … =P({2}) = 1/n et ainsi obtenir la
formule utile et cohérente à l'intuition des scientifiques plus anciens : P(A)
= Card(A)/n pour tout A F.
Grâce à l'utilisation de ces formules, la théorie des probabilités discrète
repose sur la théorie des combinaisons ( la combinatoire et
le dénombrement.
32
Exemple du lancer de deux dés :
L'ensemble de tous les possibles est :
= {1,2,3,4,5,6}2 = {1,2,3,4,5,6}{1,2,3,4,5,6}
= {(1,1),(1,2),…,(1,6),(2,1),(2,2),…}
C'est-à-dire que contient tous les couples de deux chiffres, le
premier correspondant au résultat du premier dé, le
deuxième au résultat du deuxième. Un choix possible pour la
tribu F est l'ensemble des parties de : F = P()
Le choix de l'espace (, F) est fait de tel sorte que les
singletons de aient tous la même probabilité, ils sont
dits équiprobables. Il est alors possible de calculer les
probabilités de plusieurs évènements comme :
A={obtenir 1 pour les deux dés} ={(1,1)}, donc P(A)=1/36.
B={obtenir 1 pour le premier dé} ={(1,1),…,(1,6)},
donc P(B)=6/36 = 1/6.
P(B) s'obtient également en décomposant en singletons :
P(B)=P({(1,1)})+…+P({(1,6)})=1/36+…+1/36 = 1/6.
33
Théorie des probabilités continue
La théorie des probabilités est dite continue lorsque
l'univers n'est plus dénombrable mais quelconque.
C'est-à-dire lorsque la théorie des probabilité n'est plus
discrète.
Il est possible de choisir plusieurs tribus, cependant lorsque
l'univers est l'ensemble des réels, il est classique de lui
munir la tribu borélienne qui possède de bonnes propriétés.
Si ce n'est pas le cas, l'utilisation des variables aléatoires
permet de représenter l'univers par l'ensemble des réels .
Le terme théorie des probabilités continue est également
utilisé pour désigner le cas où la variable aléatoire, ou la loi
de probabilité, associée est absolument continue, c'est-à-
dire qu'elle possède une densité.
34
La mesure de probabilité se définit plus facilement sur R,
c'est-à-dire qu'il est plus facile de définir la loi de
probabilité de la variable aléatoire.
P(A)= P({,X()B}=P(XB) pour tout A tel que
B soit l’image réciproque de A par X : A = X-1(B).
P(XB)=Bf(x)dx.
La fonction f est appelée la densité de probabilité de X.
35
Variables aléatoires
Soit (;A;
F P) un espace de probabilité (ensemble des
observables, ensemble d‘évènements, loi de probabilité).
Soit X, une fonction de dans R. X est dite variable aléatoire si
elle vérifie la propriété suivante :
x R;X-1(] ,x[) A
Une telle variable peut être continue ou discontinue. Exemples.
La fonction de répartition d'une variable aléatoire X est la
fonction F(y) = P(X ≤ y).
Quelles sont les propriétés de toute fonction de répartition ?
lim F(x) = 0 quand x tend vers ;
lim F(x) = 1 quand x tend vers ;
F croissante au sens large 0 <= F(x) <= 1.
Si F(y) est dérivable, sa dérivée f est appelée densité de
probabilité.
36
Variable Aléatoire Discrète
37
Loi d’une variable aléatoire discrète
L’application X permet de transporter la probabilité P de
sur R : on considère les P(X = xk) comme des masses
ponctuelles situées aux points xk de la droite réelle.
La probabilité d’une partie quelconque de R est alors définie
comme la somme des masses ponctuelles.
38
Fonction de répartition
39
Processus Aléatoire
Processus de Bernoulli (Evénement Discret, à temps discret,
Sans mémoire)
|---|---|---|---|--- … (| représente l’issu d’un test de Bernoulli)
40
Lois discrètes classiques
41
Loi de Poisson
42
Variable aléatoire réelle
43
Fonction de densité
44
Moments des variables à densité
46
Loi exponentielle :
Si la loi de Poisson peut être considérée comme le nombre
de survenue d'un évènement dans un intervalle de temps, la
loi exponentielle est l'intervalle de temps séparant deux
évènements poissonniens.
Cela peut être la durée de vie d'une pièce, l'intervalle de
temps séparant deux pannes consécutives, etc.
Cette loi est très utilisée en étude de fiabilité.
47
Loi de Weibull
Utilisée également en fiabilité (Sciences de l'ingénieur), la loi de Weibull,
par rapport à la loi exponentielle, introduit une information
supplémentaire : le régime d'utilisation de la pièce.
48