Vous êtes sur la page 1sur 48

Master 1 - Sécurité des Systèmes Informatiques

Cours de Sûreté de Fonctionnement


et Fiabilité des Logiciels
Plan
1. Introduction
2. Défaillances, Erreurs et Fautes
3. Evaluation quantitative (Fiabilité, Maintenabilité, …)
4. Méthodes d‘Analyse de Sûreté de Fonctionnement
 Analyse préliminaire des dangers
 Analyse des Modes de Défaillances et de leurs Effets
 Analyse des défaillances
 Diagramme de Fiabilité
 Arbres de défaillances
1
Cours de Sûreté de Fonctionnement
et Fiabilité des Logiciels

Y. Hammal

2
Points à bien comprendre :
 Toute évaluation quantitative ou qualitative de la sûreté
est guidée et dirigée par les questions posées sur le
fonctionnement du système.
 Tant que ces questions ne sont pas bien posées , c'est-à-
dire tant que la spécification du problème amenant la
question n'est pas formalisée de manière complète, il est
inutile de rechercher la/les formule(s) définissant telle ou
telle grandeur liée à la sûreté.
 C'est la formalisation de la spécification, puis de la
conception qui doit guider le choix de la formule.

3
1) Rappels sur la théorie
des probabilités

4
1) Notions de probabilités
 Le mot probable signifie, pour le grand public, « qui peut
se produire dans le cas de futures éventualités » , ou
« vraisemblable » dans les cas où on tente d'inférer des
évidences.
 La théorie des Probabilités est une théorie mathématique
permettant de quantifier l'incertain.
 L'incertitude peut naître de notre ignorance, être due à une
incompréhension, ou provoquée par l'aspect aléatoire du
phénomène observé. Dans tous les cas, nous mesurons
l'incertitude des évènements sur une échelle de 0 (pour les
évènements impossibles) à 1 (pour les évènements
certains).

5
Interprétations de la notion de
probabilité
 La notion de probabilité recouvre deux concepts :
 La probabilité de l'aléatoire, qui représente la probabilité
d‘évènements futurs dont la réalisation dépend de
phénomènes physiques aléatoires : lancement de dé.
 La probabilité-incertitude que nous avons devant des
affirmations, lorsque nous ne disposons pas de la
connaissance complète des circonstances et des causalités.
 De telles affirmations peuvent avoir été vérifiées sur des
évènements passés ou seront peut-être vrais dans le futur.
Mais il n'y a pas moyen de les vérifier au moment de
l'estimation de leur incertitude.

6
 La théorie des probabilités : fournit des modèles mathématiques
permettant l’étude d’expériences dont le résultat ne peut être prévu avec une
totale certitude. En voici quelques exemples :

Expérience Résultat observable


Lancer d’un dé Un entier k  {1, . . . , 6}
Prélèvement de n objets en sortie Nombre d’objets défectueux dans
d’une chaîne de production l’´echantillon
Questionnaire à 100 questions Suite  de 100 réponses. {oui, non}100
binaires
Lancer d’une pièce jusqu’à la Un entier k  : le temps d’attente du
première obtention de pile premier succès
Mise en service d’une ampoule Durée de vie T  R
Lancer d’une fléchette sur une cible; Point d’impact
Mouvement d’un grain de pollen Une fonction continue : la trajectoire
dans un liquide
Mélange de deux gaz Répartition spatiale de deux types de
molécules
7
Interprétations de la notion de probabilité
 On peut interpréter les probabilités comme :
 La réalisation de calculs combinatoires dans le cas de
jeux de hasard (Pascal, Bernoulli, …).
 La traduction numérique d'un état de connaissance et
donc comme des manipulations rationnelles de valeurs
subjectives car le contexte d'interprétation d'un
évènement diffère d'un observateur à l'autre
(interprétation Bayésienne).
Mais le processus de calcul sur les combinaisons des
évènements n'est pas influencé par l'interprétation.
 Ces deux interprétations cohabitent aussi dans le cadre
de la Sûreté de Fonctionnement

8
Fréquence et Probabilité
 Lançons 100 fois un dé. Il retombe 20 fois sur la face 1.
Quelle est la fréquence d'apparition de la face 1 ?
Quelle est sa probabilité d'apparition ?
 La fréquence d'apparition de la face 1 est 20/100.
 Sa probabilité d'apparition est 1/6 (si le dé est parfait).

9
Point de vue combinatoire
 Lancer d'une pièce : probabilité de 1/2 de retomber sur
face. Qu'est-ce que cela signifie exactement ?
 Soit F le nombre de fois où la pièce retombe sur face et
N le nombre total de lancers. On considère
l‘évènement E « Tomber sur face » .
 On fait l'hypothèse que les lancers sont indépendants.
 Par définition, la probabilité de E est la limite, quand
N devient très grand, du nombre F/N.
 La Loi des Grands Nombres dit que, quel que soit , il
existe N, tel que, n > N ; abs(P(E) – F/n) <  .
 C'est la notion même de limite !

10
Point de vue combinatoire
 Comparer la différence entre le nombre de « Tombé sur
face » et de « Tombé sur pile » quand N devient grand.
 Cette approche, fondée sur l'idée de répétition d'un
évènement donné, n'est pas satisfaisante... car on ne répète
jamais suffisamment, quelque soit la personne...
 On peut parler d'une probabilité de défaillance de 10-9 sans
faire un milliard d'essais... et la défaillance peut apparaitre à
la 4ème utilisation...
 Une probabilité est-elle nécessairement objective ?
 Deux campagnes de mesure faites à différents moments sur
la présence d'amiante dans les locaux donneront des
probabilités différentes... Mais la présence d'amiante dans
un local donné est 1 ou 0.

11
Rappels sur la Théorie des
Probabilités
 Une expérience aléatoire est par définition non
prévisible.
 Donnée :
 un ensemble  de valeurs dites observables
 et une méthode dite épreuve (réalisation d'une
expérience aléatoire) pour exhiber un élément de .

12
L'espace des observables
 Nous conviendrons qu'effectuer une expérience
aléatoire, c'est sélectionner par un procédé quelconque
un élément  dans un ensemble .
 Par exemple, jeter un dé revient à sélectionner un
élément de  = {1; 2; 3; 4; 5; 6}.
 Cet ensemble  est appelé l'espace des observables
(ou espace des issues ou espace des événements
élémentaires).
 Ses points  sont appelés observables (ou
événements élémentaires).
 Il est très important qu'il soit clairement défini afin de
regrouper au moins tous les résultats possibles de
l'expérience aléatoire.
13
Événements
 La théorie moderne des probabilités utilise le langage
des ensembles pour modéliser une expérience
aléatoire.
 Notons que les éléments de l’ensemble  représentent
tous les résultats possibles ou événements
élémentaires d’une expérience aléatoire donnée.
 Les événements (ou événements composés) seront
représentés par des parties (sous-ensembles) de .
 Un évènement A est un sous-ensemble de .
 Il caractérise une propriété qui est ou non observée
après une épreuve.

14
15
Exemple 1 : Tirage de deux nombres
 Epreuve : tirer simultanément deux nombres entre 1 et 10.
 Evènement : observer leur produit.
  =  i* j/ i ; j  [1; 10] 
 Evènements identiques : non discernables par une épreuve. En
existe-t-il dans l'exemple ?
 Oui. A =  n > 10 et n    et B =  n > 11 et n    .
 A et B sont deux événements qui ne correspondent pas à la
même propriété mais sont cependant observables par les
mêmes épreuves.

16
Exemple 2 : Contrôle de production

17
Rappels sur la Théorie des Probabilités

 : complementaire de A, A  B, A  B, A  B, ...
 Deux évènements sont incompatibles si A  B = .
 Si l'ensemble des observables  est fini, L'ensemble F
des évènements A est une algèbre de Boole. Qu'est-ce
que cela signifie ?
 Si  n'est pas fini, on retrouve les axiomes des tribus
qui définissent les espaces de probabilité en
mathématiques.

18
La tribu des événements F
 Le résultat d'une expérience aléatoire est par définition
imprévisible.
 Toutefois, une fois fixé A un sous ensemble de l'espace des
observables , on s'intéresse à la possibilité qu'a le résultat
 de l'expérience de tomber dans A.
 Les parties de  pour lesquelles on se pose ce genre de
question sont appelées des événements.
 Un des premiers points délicats de la théorie est qu'on ne
va pas considérer tous les sous ensembles de  comme des
événements.
 L'idée de Kolmogorov est que l'ensemble F des événements
a une structure de tribu :

19
20
 Le langage de la théorie des ensembles permet des calculs
systématiques sur les événements.
 Toutefois, il faut savoir que le langage courant, que nous
utilisons dans une première étape pour décrire des
événements a sa traduction ensembliste :

21
 D'après cette traduction ensembliste, le fait qu'on ne sorte
pas de la famille des événements intéressants à considérer
en prenant une intersection ou une réunion d'événements,
est raisonnable, tant qu'on considère un nombre fini
d'événements.
 C'est toujours le cas si l'ensemble  est fini, le nombre de
parties de  étant aussi fin.
 Le fait de se permettre ces opérations aussi pour un nombre
infini d'événements est plus subtil.
 Le passage à l'infini est le passage de l'algèbre à l'analyse,
donc à des approximations maniables et à de puissantes
techniques issues du calcul différentiel et intégral.
 Remarquer que dans ce passage à l'infini, on se limite à une
infinité dénombrable d'événements

22
La probabilité P
 On quantifie désormais la possibilité qu'a le résultat  de
l'expérience de tomber dans un événement A  F, sous-
ensemble de l'espace des observables .
 La puissance du calcul des probabilités réside dans le fait
qu'il ne manipule pas directement le résultat  de
l'expérience aléatoire mais mesure les chances d'arrivée
d'un événement A dû au hasard.

23
Probabilités d‘évènements

 Une probabilité P sur l'ensemble des observables  est une


fonction de
 AF  [0; 1] vérifiant :
 P() = 1 ;
 P(A  B) = P(A) + P(B) si A et B sont incompatibles.
F P) est appelé espace de probabilité.
 Le triplet (;A;
 On en déduit :
 P() = 0 ;
 P( ) = 1 - P(A) ;
 Si A  B, alors P(A) ≤ P(B).
 Remarques :
 P(A) = 0 n'implique pas A est vide.
 De même, P(A) = 1 n'implique pas A =  .

24
Définition formelle de la probabilité :

25
Quelques propriétés :

26
Indépendance
 La notion d'indépendance est une hypothèse utilisée depuis
longtemps en théorie des probabilités.
 On dit que deux évènements sont indépendants lorsque le fait
de connaître le résultat du premier évènement ne nous aide
pas pour prévoir le second et inversement.
 Plusieurs lancers de dés successifs sont considérés indépendants.
 L'indépendance peut se définir sur les ensembles, deux
évènements A et B sont dits indépendants si la probabilité
que A apparaisse ne dépend pas de la connaissance de
l'obtention de B.
 Mathématiquement, les évènements sont indépendants si et
seulement si la probabilité de leur intersection est égale au
produit de leur probabilité :
 A et B sont indépendants P(AB)=P(A)P(B).

27
Théorèmes majeurs (1)

Théorème de Poincaré :
P(A  B) = P(A) + P(B) - P(A  B)
Théorème des Probabilités conditionnelles :
 Notons P(A│X) la probabilité que A se produise
sachant que X est réalisé, dite probabilité
conditionnelle de A rapportée à X.
P(A  X) = P(A│X)  P(X)
 Deux évènements sont indépendants ssi
P(A│B) = P(A) ssi P(A  B) = P(A)P(B)

28
Théorèmes majeurs (2)

P(Ai/B) = P(AiB) / P(B)


= P(B/Ai)xP(Ai) / P(B)

29
P(Ai) = P(Ai) / P()
P(Ai/B) = P(Ai B) / P(B)

P(B) = P(B) =P((A1 …  An)B)


= P((A1 B) …  (AnB))
= P(A1 B) +… + P(AnB)
= P(B/A1)P(A1) +… + P(B/An)P(An)
30
Théorie des probabilités discrète
 La théorie des probabilités est dite discrète lorsque l'ensemble de l'espace
probabilisé est fini ou dénombrable.
 Le plus simple exemple d'étude en théorie des probabilités discrète est le jeu
de pile ou face, dans ce cas l'univers ne contient que deux éléments : pile et face.
 Les études d'un lancer de dé, d'un tirage d'une carte dans un jeu de cartes ou par
exemple du loto font également parties de la théorie des probabilités discrète.
 Avant que la théorie de la mesure soit introduite, la probabilité d'un
évènement a été définie comme le nombre de cas favorables divisé par le
nombre de cas possibles.
 De manière plus pratique, une expérience aléatoire était répétée un
nombre N de fois, le nombre de fois où l'évènement A est réalisé est
noté NA.
 Lorsque N tend vers l'infini, la proportion NA/N converge vers une valeur
dite probabilité de A.
 Cependant ce raisonnement n'est pas si simple pour toute question relative
à une expérience aléatoire.

31
 Dans le cas de la théorie discrète, pour une expérience non répétée,
l'axiomatique s'écrit :
 ={1, 2, …, n} pour le cas d’un univers fini,
 ={1, 2, 3, 4, … } pour le cas d’un univers infini dénombrable,
où le choix 1, 2, 3, 4, … peut être effectué pour représenter les
différents résultats équiprobables de l'expérience.
 Plusieurs choix de tribu sont possibles, cependant il est raisonnable pour
une étude discrète de choisir la tribu de ensemble des parties puisqu'il
contient tous les évènements possibles : F = P()
 Dans le cas de la théorie discrète, la mesure de probabilité possède la
particularité de pouvoir être définie uniquement sur les singletons :
P({1}), P({2}), … . Les probabilités des autres évènements s'obtiennent
grâce aux axiomes des probabilités.
 Lorsque l'univers  est fini, contenant n éléments, il est possible de choisir
la mesure uniforme : P({1}) = … =P({2}) = 1/n et ainsi obtenir la
formule utile et cohérente à l'intuition des scientifiques plus anciens : P(A)
= Card(A)/n pour tout A F.
 Grâce à l'utilisation de ces formules, la théorie des probabilités discrète
repose sur la théorie des combinaisons ( la combinatoire et
le dénombrement.
32
Exemple du lancer de deux dés :
 L'ensemble de tous les possibles est :
  = {1,2,3,4,5,6}2 = {1,2,3,4,5,6}{1,2,3,4,5,6}
= {(1,1),(1,2),…,(1,6),(2,1),(2,2),…}
 C'est-à-dire que contient tous les couples de deux chiffres, le
premier correspondant au résultat du premier dé, le
deuxième au résultat du deuxième. Un choix possible pour la
tribu F est l'ensemble des parties de  : F = P()
 Le choix de l'espace (, F) est fait de tel sorte que les
singletons de  aient tous la même probabilité, ils sont
dits équiprobables. Il est alors possible de calculer les
probabilités de plusieurs évènements comme :
 A={obtenir 1 pour les deux dés} ={(1,1)}, donc P(A)=1/36.
 B={obtenir 1 pour le premier dé} ={(1,1),…,(1,6)},
donc P(B)=6/36 = 1/6.
 P(B) s'obtient également en décomposant en singletons :
P(B)=P({(1,1)})+…+P({(1,6)})=1/36+…+1/36 = 1/6.
33
Théorie des probabilités continue
 La théorie des probabilités est dite continue lorsque
l'univers n'est plus dénombrable mais quelconque.
 C'est-à-dire lorsque la théorie des probabilité n'est plus
discrète.
 Il est possible de choisir plusieurs tribus, cependant lorsque
l'univers est l'ensemble des réels, il est classique de lui
munir la tribu borélienne qui possède de bonnes propriétés.
 Si ce n'est pas le cas, l'utilisation des variables aléatoires
permet de représenter l'univers par l'ensemble des réels .
 Le terme théorie des probabilités continue est également
utilisé pour désigner le cas où la variable aléatoire, ou la loi
de probabilité, associée est absolument continue, c'est-à-
dire qu'elle possède une densité.

34
 La mesure de probabilité se définit plus facilement sur R,
c'est-à-dire qu'il est plus facile de définir la loi de
probabilité de la variable aléatoire.
 P(A)= P({,X()B}=P(XB) pour tout A tel que
B soit l’image réciproque de A par X : A = X-1(B).
 P(XB)=Bf(x)dx.
 La fonction f est appelée la densité de probabilité de X.

35
Variables aléatoires
 Soit (;A;
F P) un espace de probabilité (ensemble des
observables, ensemble d‘évènements, loi de probabilité).
 Soit X, une fonction de  dans R. X est dite variable aléatoire si
elle vérifie la propriété suivante :
x  R;X-1(] ,x[)  A
Une telle variable peut être continue ou discontinue. Exemples.
 La fonction de répartition d'une variable aléatoire X est la
fonction F(y) = P(X ≤ y).
 Quelles sont les propriétés de toute fonction de répartition ?
 lim F(x) = 0 quand x tend vers ;
 lim F(x) = 1 quand x tend vers ;
 F croissante au sens large 0 <= F(x) <= 1.
 Si F(y) est dérivable, sa dérivée f est appelée densité de
probabilité.
36
Variable Aléatoire Discrète

37
Loi d’une variable aléatoire discrète
 L’application X permet de transporter la probabilité P de 
sur R : on considère les P(X = xk) comme des masses
ponctuelles situées aux points xk de la droite réelle.
 La probabilité d’une partie quelconque de R est alors définie
comme la somme des masses ponctuelles.

38
Fonction de répartition

39
Processus Aléatoire
 Processus de Bernoulli (Evénement Discret, à temps discret,
Sans mémoire)
 |---|---|---|---|--- … (| représente l’issu d’un test de Bernoulli)

 Processus de Poisson (Evénement Discret, à temps continu,


Sans Mémoire)
 |-------|---|---------|---|--------- …

 Processus de Markov (Discret/Continu, L’état actuel dépend


uniquement de l’état précédent)

40
Lois discrètes classiques

41
Loi de Poisson

42
Variable aléatoire réelle

43
Fonction de densité

44
Moments des variables à densité

Écart type  = Var(X)1/2 / Var(X) = E((X-E(X))²


45
Lois à densité classique

46
Loi exponentielle :
 Si la loi de Poisson peut être considérée comme le nombre
de survenue d'un évènement dans un intervalle de temps, la
loi exponentielle est l'intervalle de temps séparant deux
évènements poissonniens.
 Cela peut être la durée de vie d'une pièce, l'intervalle de
temps séparant deux pannes consécutives, etc.
 Cette loi est très utilisée en étude de fiabilité.

47
Loi de Weibull
 Utilisée également en fiabilité (Sciences de l'ingénieur), la loi de Weibull,
par rapport à la loi exponentielle, introduit une information
supplémentaire : le régime d'utilisation de la pièce.

48

Vous aimerez peut-être aussi