Vous êtes sur la page 1sur 25

L3 É CONOMIE Année 2022/2023

M ODULE 2 - O UTILS Q UANTITATIFS &


Q UALITATIFS
S TATISTIQUES ET A NALYSE DE D ONNÉES 3

Fascicule d’exercices

Julie Scholler

T ABLE DES MATIÈRES

T HÈME 1 - I NTRODUCTION À LA STATISTIQUE BAYÉSIENNE 1


1.1 Réflexions bayésiennes (et fréquentistes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Loi a priori discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 R à notre service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
T HÈME 2 - E STIMATION BAYÉSIENNE D ’ UNE PROPORTION 6
2.1 Loi a priori quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Loi a priori Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 R à notre service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
T HÈME 3 - E STIMATION BAYÉSIENNE D ’ UN PARAMÈTRE ( AUTRES CAS ) 11
3.1 Lois a priori et a posteriori Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Vraisemblance normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Autres situations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
T HÈME 4 - AUTOUR DES TESTS BAYÉSIENS 21
Thème 1

Introduction à la statistique bayésienne

1. Réflexions bayésiennes (et fréquentistes)

Exercice 1.
Questions inspirées de Bayes Rules! de Alicia A. Johnson, Miles Ott, Mine Dogucu

1. Pensez à une situation récente au cours de laquelle vous avez changé d’avis.
Identifiez votre avis en amont, les données/informations qui vous ont fait changer d’avis, ainsi que votre
avis après coup.
2. Pensez à une situation récente au cours de laquelle vous avez fait changer d’avis quelqu’un.
Identifiez son avis en amont de la discussion, les données/informations qui vous lui avez fourni et qui
l’ont fait changer d’avis, ainsi que son avis après coup.
3. Pensez à une situation récente au cours de laquelle vous n’avez pas changé d’avis malgré des informations
contraires à votre avis.
Identifiez votre avis en amont, les données/informations qui vous ont fait changer d’avis, ainsi que votre
avis après coup.
4. Dans chaque situation, estimez la force des avis et des données.

Exercice 2.
Regardez des vidéos de la playlist sur la statistique fréquentiste via la chaine YouTube JScholler UnivTours.

2. Loi a priori discrète

Exercice 3.
Regardez des vidéos de la playlist sur la statistique bayésienne via la chaine YouTube JScholler UnivTours, en
priorité l’épisode 26 d’Hygiène Mentale et pour les non-réfractaires à l’anglais la vidéo de 3Blue1Brown.

Exercice 4.
Une amie possède trois types de disques à flèche : plus précisément 2 de type A, 2 de type B et un de type C.

Type A Type B Type C


1 1
3 1 2
2 3 2

1. Cachée, elle choisit un disque au hasard, fait tourner la flèche et obtient 2.

(a) Donner le tableau de mise à jour bayésienne (loi a priori, vraisemblance, numérateur de Bayes et loi
a posteriori).
Et en déduire le type de disque le plus probable.

1
Hyp. A priori Vraisemblance N. de Bayes A posteriori

H P(H) PH (X = 2) ··· P{X=2} (H)

2 1 2 1 3
A =
5 4 20 10 10
2 1 2 4
B
5 3 15 10
1 1 2 1 3
C =
5 2 20 10 10
1
Total 1 / 1
3
(b) Toujours si vous avez obtenu 2, quel est la probabilité d’obtenir à nouveau 2 lors d’un second lancer ?

1 3 1 4 1 3 43
P{X=2} (X2 = 2) = × + × + × = ≃ 0.36
4 10 3 10 2 10 120
2. Elle choisit une nouvelle fois au hasard un disque et fait tourner la flèche 100 fois.
(a) Si elle a obtenu 100 fois le résultat 2, à votre avis, sans calcul, quel disque a-t-elle choisi ?
(b) Si elle a obtenu 99 fois le résultat 2 et une fois 3, à votre avis, sans calcul, quel disque a-t-elle choisi ?

Exercice 5.
Une personne choisit un dé au hasard de façon uniforme entre un dé à 4 faces, un dé à 6 faces et un dé à 8
faces. Puis elle lance ce dé n fois (n ∈ N∗ ) et elle vous dit qu’elle a obtenu n fois le résultat 5.
On note T la variable représentant le nombre de faces du dé choisi et Xi le résultat du ie lancer de dé, pour
tout entier i strictement positif.
1. Donner la loi a priori de T .
1
On a T (Ω) = {4, 6, 8} et, pour tout θ ∈ T (Ω), P(T = θ) = .
3
2. Cas où n = 1.
Donner la vraisemblance de la donnée observée. Déterminer la loi a posteriori du type de dé choisi par la
personne. Quelle est la probabilité d’obtenir à nouveau 5 si on relance ce dé ?

0
 si θ = 4
1


P{T =θ} (X1 = 5) = si θ = 6
6
1


si θ = 8


8

On a évidemment P{X1 =5} (T = 4) = 0. Soit θ ∈ {6, 8}.
P{T =θ} (X1 = 5) × P(T = θ) 1
× 31 1
P{X1 =5} (T = θ) = P = θ
= θ
t∈T (Ω) P{T =t} (X1 = 5) × P(T = t) 0× + × 13 + +
1 1 1 1 1 1
3 6 8 × 3 6 8
On obtient, comme loi a posteriori :
4
• P{X1 =5} (T = 6) = ;
7
3
• P{X1 =5} (T = 8) = ;
7
• P{X1 =5} (T = 4) = 0.
On cherche P{X1 =5} (X2 = 5).
1 4 1 3 1 25
P{X1 =5} (X2 = 5) = P{X1 =5} (T = t) × P{T =t} (X2 = 5) = 0 × + × + × = ≃ 0.15
X

t∈T (Ω)
4 7 6 7 8 168

3. Cas général.

2
(a) Donner la vraisemblance des données : {X1 = 5, X2 = 5, . . . , Xn = 5}.

0 si θ = 4
P{T =θ} (X1 = 5, X2 = 5, . . . , Xn = 5) =
 1 si θ ∈ {6, 8}
θn
(b) Déterminer la loi a posteriori du type de dé choisi par la personne.
On procède comme à la question
 2.(b).

 0 si θ = 4
1


si θ = 6


   n
P{X1 =5,X2 =5,...,Xn =5} (T = θ) = 1+ 6
8
1


si θ = 8


  n
1 + 8


6

(c) Quelle est la limite, quand n tend vers +∞, pour chacune des probabilités de la question précédente ?

On a donc 
0
si θ = 4


lim P{X1 =5,X2 =5,...,Xn =5} (T = θ) = 1 si θ = 6
n→+∞ 
0 si θ = 8

(d) Expliquer pourquoi cela a du sens.

(e) Classer les résultats possibles pour le prochain lancer (le (n + 1)e ) du plus probable au moins
probable (les ex-æquo sont possibles). Aucun calcul n’est attendu mais vous devez expliquer votre
raisonnement proprement et de façon précise.
Résultats les plus probables : J1; 6K (car ils peuvent être obtenus par le dé 6 et par le dé 8).
Résultats les moins probables : {7, 8} (car ils ne peuvent être obtenu que par le dé 8).

Exercice 6.
Une association sportive vend des badges lors de ses manifestations. Arthur et Lidia se partagent la
responsabilité du stand selon les manifestations. Le nombre de badges vendus pendant une heure est modélisé
par une loi de Poisson et on suppose que le nombre de badges vendus chaque heure est indépendant du
nombre vendus les autres heures. Lidia vend en moyenne 15 badges par heure et Arthur seulement 10.
Lors de la dernière rencontre sportive, Luc, le trésorier, n’était pas présent. Il sait que c’est Lidia qui devait
s’occuper du stand de badges mais il pense qu’elle arrive à se faire remplacer par Arthur une fois sur 10.
Il observe le carnet de compte et constate que sur les 5 heures, il y a eu 12, 10, 11, 4 et 11 badges vendus
chaque heure.
1. Quel est le paramètre θ à étudier dans cette situation ?
Le paramètre θ à étudier pour savoir qui a tenu le stand est le paramètre de la loi de Poisson du nombre
de badges vendus pendant une heure. Le paramètre de la loi de Poisson correspond à son espérance.

2. Quelle est la variable T à introduire pour étudier θ ? Quelles sont ses valeurs possibles ?
Préciser sa loi a priori.
On pose T la variable aléatoire valant 10 si Arthur tient le stand et 15 s’il s’agit de Lidia. On a
T (Ω) = {10, 15}.
Loi a priori : P(T = 15) = 0.9 et P(T = 10) = 0.1.

3. On note Xi la variable aléatoire modélisant le nombre de badges vendus lors de la ie heure.


Exprimer la vraisemblance de {X1 = x1 , . . . , Xn = xn }.

3
Vraisemblance : Xi |T = θ ∼ P(θ)
P 1
PT =θ (X1 = x1 , . . . , Xn = xn ) = e−nθ θ xi
xi !
Q

4. Calculer le ratio des deux probabilités a posteriori pour les différentes valeurs que peut prendre T .
On a PT =θ (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) ∝ e−5θ θ48 .
Au passage on a PT =15 (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) = 1.14 × 10−8 et
PT =θ (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) = 2.9 × 10−6 .
Pour savoir s’il est probable que ce soit Arthur qui a tenu le stand, on calcule le ratio suivant :

P{X1 =12,X2 =10,X3 =11,X4 =4,X5 =11} (T = 10) 0.1 × e−50 1048 1 2
 48
= = × e25 × ≃ 28
P{X1 =12,X2 =10,X3 =11,X4 =4,X5 =11} (T = 15) 0.9 × e−75 1548 9 3

5. Est-il raisonnable de penser que Lidia ait réussi à se faire remplacer ?


Il semble que Lidia ait réussi à se faire remplacer.

Exercice 7.
Lors de la journée d’accueil des nouveaux étudiants à la faculté des Deux Lions, l’AeT tient un stand
d’informations. Elle profite de ce stand pour faire adhérer les nouveaux étudiants à l’association. On peut
considérer que le nombre d’adhésions réalisées pendant deux heures suit une loi de Poisson. Les chargées de
communication ont demandé au président de tenir le stand pendant deux heures l’après-midi.
Le président est un peu fainéant et pas le meilleur pour faire aboutir les adhésions. En moyenne, il fait
10 adhésions sur un créneau de 2h contre 20 pour le trésorier. Justement on pense que la fainéantise du
président fait qu’il y a une chance sur 10 qu’il se fasse remplacer par le trésorier.
Le soir vous constatez qu’il y a eu 16 nouvelles adhésions réalisées cet après-midi.
À votre avis, le président a-t-il réellement tenu le stand cet après-midi ou s’est-il fait remplacer par le
trésorier ?
1. Quel est le paramètre θ à étudier dans cette situation ?
Le paramètre θ à étudier pour savoir qui a tenu le stand est le paramètre de la loi de Poisson du
nombre d’adhésions réalisées lors d’un créneau de 2h. Le paramètre de la loi de Poisson correspond à son
espérance.

2. Quelles sont les valeurs possibles de T ? Préciser sa loi a priori.


Les valeurs possibles de T sont 10 s’il s’agit du président et 20 s’il s’agit du trésorier.
P(T = 10) = 0.9 et P(T = 20) = 0.1

3. On note X la variable aléatoire représentant le nombre d’adhésions réalisées sur un créneau de 2h.
Donner la vraisemblance de X = 16 pour les différentes valeurs que peut prendre T .
θ16
PT =θ (X = 16) = e−θ
16!
1016 2016
D’où PT =10 (X = 16) = e−10 et PT =20 (X = 16) = e−20
16! 16!
4. Calculer le ratio des deux probabilités a posteriori pour les différentes valeurs que peut prendre T .
P[X=16] (T = 10) P(T = 10) × PT =10 (X = 16) 1
= = 9e10 16 ≃ 3
P[X=16] (T = 20) P(T = 20) × PT =20 (X = 16) 2

5. Quel message allez-vous envoyer au président : « Félicitations pour le nombre d’adhésions » ou « Arrête
d’exploiter le trésorier » ?
Je vais lui envoyer un message de félicitations car il y a 3 fois plus de chances que ce soit bien lui qui a
tenu la stand et non le trésorier.

4
6. (*) On note p la probabilité que le président se fasse remplacer par le trésorier. À partir de quelle valeur
de p, les données vous ferons conclure que ce n’est pas le président qui a tenu le stand ?
P(T = 10) = 1 − p et P(T = 20) = p
P[X=16] (T = 10) 1 − p e10
= × 16
P[X=16] (T = 20) p 2
P[X=16] (T = 10) 1 − p e10 216 1
< 1 ⇐⇒ × 16 < 1 ⇐⇒ 1 − p < 10 p ⇐⇒ p > −10 16 (≃ 0.252)
P[X=16] (T = 20) p 2 e e 2 +1
À partir du moment où on pense qu’il y a plus d’une chance sur 4 que le président se soit fait remplacer
par le trésorier on commencera à douter qu’il a bien réaliser ces 16 nouvelles adhésions.

3. R à notre service
Exercice 8 (A priori discret).
On revient à notre sac contenant des dés de type différents (4, 6, 8, 12 et 20 faces). Cette fois on en met un
de chaque type dans le sac et surtout on utilisera R et le code du document 01-combien_de_faces.R pour
faire les mises à jour bayésiennes et pour visualiser ce qui se passe.
1. On note k le résultat d’un lancer. Exprimer la vraisemblance de k (en fonction de la valeur de k) pour
chaque hypothèse.
2. Lancer les lignes de code 9 à 25. Comprendre le code et mettre un titre adapté au graphique.
3. Lancer les lignes 27 à 36. Admirer le travail de ggplot2.
4. Lancer les lignes 39 à 46.
Comprendre le code et décommenter et compléter la ligne 48 permettant le calcul de la loi a posteriori.
5. Représenter graphique la loi a posteriori obtenu en lançant les lignes 50 à 53.
6. Vous pouvez réitérer l’expérience en relançant les lignes 42 à 53.
7. Maintenant nous allons effectuer 20 lancers du dé choisi. Lancer et comprendre les lignes de code 58 à 90.
8. Créer une fonction prenant en paramètre : les types de dés possibles, la loi a priori, le nombre de lancers
effectués ; et renvoyant le graphique de l’évolution de la loi du dé choisi et la loi a posteriori finale.

5
Thème 2

Estimation bayésienne d'une proportion

1. Loi a priori quelconque


Exercice 9 (Loi a priori discrète).
Un devoir sous forme de projet doit être réalisé par groupe de 3 étudiants.
J’ai surpris une conversation durant laquelle j’ai appris que dans le groupe de Buzz, Woody et Rex, un seul
étudiant a réalisé tout le travail : recherche, réflexion et rédaction.
Ma connaissance de ces trois étudiants durant leurs études en licence d’Économie à Tours me fait penser que :
• sur une page la probabilité que Buzz fasse au moins une faute d’orthographe ou de grammaire est de 0.6,
alors qu’elle est de 0.5 pour Woody et 0.1 pour Rex ;
• qu’il est très peu probable que ce soit Rex qui ait fait le travail tout seul (fixons cette probabilité à 4%),
et qu’il est 2 fois plus probable que ce soit Buzz que Woody.
Pour un étudiant fixé, je suppose que le fait qu’il y ait au moins une erreur sur une page est indépendante de
du fait qu’il y ait des erreurs sur les autres pages.
Lors de ma lecture des 5 pages du document, je n’ai trouvé aucune erreur.
Je cherche à savoir qui a fait le travail.
1. Quel est le paramètre θ à étudier/estimer pour tenter de déterminer qui a fait le travail ?
Pour déterminer quel est l’étudiant qui a réalisé le travail tout seul, on peut étudier le paramètre θ
représentant la probabilité qu’un étudiant fasse au moins une faute quand il rédige une page.

2. Préciser la loi a priori de la variable T représentant mes connaissances sur θ ?


On a T (Ω) = {0.1; 0.5; 0.6} et

P (T = 0.1) = 0.04, P (T = 0.5) = 0.32, P (T = 0.6) = 0.64

3. Quelle variable aléatoire permet de représenter les données de l’expérience (lecture des 5 pages) ? Donner
sa loi sachant T = θ.
On note X la variable aléatoire comptant le nombre de pages contant au moins une faute dans un lot de
5 choisi au hasard, et 0 sinon. Ainsi X|T = θ ∼ Bin(5; θ).

4. Déterminer la loi a posteriori de T . Si vous le souhaitez, vous pouvez utiliser un tableau de mises à jour
bayésienne (loi a priori, vraisemblance, numérateur de Bayes et loi a posteriori).

Hyp. A priori Vraisemblance N. de Bayes A posteriori


θ P(T = θ) P{T =θ} (X = 0) ··· P{X=0} (T = θ)
0.1 0.04 0.95 0.04 × 0.95 ≃ 0.588
0.5 0.32 0.55 0.32 × 0.55 ≃ 0.2489
0.6 0.64 0.45 0.64 × 0.45 ≃ 0.1631
Total 1 / ≃ 0.0402 1

6
5. Selon vous (et mon a priori) qui a réalisé le devoir et pourquoi ?
La valeur de θ la plus probable, a posteriori, est 0.1. Donc on considère qu’il est plus probable que ce
soit Rex.

6. Ah zut ! J’avais oublié de lire la dernière page de conclusion. Quelle est la probabilité qu’il y ait encore
aucune erreur sur cette dernière page ?
On note Y la variable aléatoire valant 1 s’il y a au moins une faute sur une page choisi au hasard, et 0
sinon. Ainsi on a Y |T =
Xθ ∼ Ber(θ). Et on cherche a savoir
P{X=0} (Y = 0) = P{X=0} (T = θ) × P{T =θ} (Y = 0)
θ∈{0.1;0.5;0.6}
= P{X=0} (T = θ) × (1 − θ) ≃ 0.72
X

θ∈{0.1;0.5;0.6}

Exercice 10 (Loi a priori continue).


On dispose d’une pièce qui a de forte chance d’être biaisée. La probabilité qu’elle renvoie face correspond à
un paramètre θ. Nos connaissances de ce paramètre θ se traduisent par le fait que sa loi a priori est continue
de densité fT (θ) = 2θ1]0;1[ (θ).
Afin d’avoir une meilleure idée du paramètre de la pièce, on souhaite la lancer une fois et observer le résultat.
1. Donner les deux lois a posteriori selon les deux résultats possibles du lancer.
On note X la variable aléatoire qui vaut 1 si on obtient face et 0 sinon.
Vraisemblance : P[T =θ] (X = 1) = θ
Lois a posteriori : fT |X=1 (θ) = 3θ2 1]0;1[ (θ) et fT |X=0 (θ) = 6θ(1 − θ)1]0;1[ (θ)

2. Que pensez-vous de son biais si le résultat est face ? pile ?


Pour cela, vous pouvez utiliser : une estimation du paramètre d’intérêt, un ou des intervalles de crédibilité,
calculer différentes probabilités a posteriori, etc.
7
Z 1
P[X=1] (T > 0.5) = 3θ2 dθ = [θ3 ]10.5 =
Z0.5 8
1 1
P[X=0] (T > 0.5) = 6(θ − θ2 )dθ =
0.5 2
Donc si on a obtenu face, il est fort probable que la pièce soit biaisée en faveur de face. Pour étayer nos
propos, on pourrait calculer d’autres probabilités comme P[X=1] (T > 0.7) par exemple pour montrer à
quel point la pièce est biaisée.
Z 1
P[X=1] (T > x) = 3θ2 dθ = [θ3 ]1x = 1 − x3 ce qui donne
x
P[X=1] (T > 0.6) = 0.784, P[X=1] (T > 0.7) = 0.657 et P[X=1] (T > 0.8) = 0.488
Par contre si on a obtenu pile, les probabilités que la pièce soit biaisée en faveur de face ou en faveur de
pile sont identiques.
on peut également utiliser l’égalité P[X=1] (T > x) = 1 − x3 pour obtenir des intervalle de crédibilité par
exemple on a
P[X=1] (T ∈ [0.29, 0.99]) ≃ 0.95

3. Si vous avez obtenu face, quelle est la probabilité d’obtenir encore face au lancer suivant ?
On souhaite calculer P[X1 =1] (X2 = 1). On utilise la formule des probabilité totale version continue :

3
Z 1 Z 1
P[X1 =1] (X2 = 1) = fT |X=1 (θ)P[T =θ] (X2 = 1)dθ = 3θ3 dθ =
0 0 4

4. Vous décidez finalement de lancer n fois la pièce pour avoir une idée plus précise de θ.

7
(a) Exprimer la loi a posteriori de θ en fonction du nombre x de faces obtenues.
On note S le nombre de lancers ayant donnés face sur les n lancers.!
n x
Vraisemblance : S|T = θ ∼ Bin(n; θ) c’est-à-dire P[T =θ] (S = x) = θ (1 − θ)n−x quand x ∈ J0; nK
x
Loi a posteriori : fT |S=x (θ) ∝ θx (1 − θ)n−x θ1]0;1[ (θ) c’est-à-dire fT |S=x (θ) ∝ θx+1 (1 − θ)n−x 1]0;1[ (θ).
On a donc T |S = x ∼ Beta(x + 2; n − x + 1).
En fait le loi a priori est une loi Beta(2; 1).

(b) Proposer un estimateur de θ.


x+2
Une estimation de θ est donnée par l’espérance conditionnelle : E(T |S = x) = .
n+3
S+2
Un estimateur est donc θb = .
n+3
(c) Concrètement vous avez lancé 10 fois la pièce et obtenu 6 fois face. Quelle est la probabilité d’obtenir
face lors d’un onzième lancer ?
On a n = 10 et x = 6 d’où la loi a posteriori T |S = 6 ∼ Beta(8; 5).
On veut calculer P[S=6] (X11 = 1).

1
Z 1 Z 1
P[S=6] (X11 = 1) = fT |S=6 (θ)P[T =θ] (X11 = 1)dθ = θ8−1 (1 − θ)5−1 θdθ
0 0 B(8; 5)
1 B(9; 5) Γ(8 + 5) Γ(9)Γ(5) Γ(9) Γ(13)
Z 1
= θ9−1 (1 − θ)5−1 dθ = = × = ×
B(8; 5) 0 B(8; 5) Γ(8)Γ(5) Γ(9 + 5) Γ(8) Γ(14)
8! 12! 8
= × = ≃ 0.62
7! 13! 13
Au vu de ces informations, la probabilité d’obtenir face lors d’un onzième lancer est de 8 chances sur
13.

2. Loi a priori Beta


Exercice 11.
On souhaite estimer la proportion θ d’étudiants de troisième année de Licence d’Économie préférant LATEX à
Word. On choisit 10 étudiants aléatoirement et on suppose leurs réponses indépendantes entre elles. On pose
X le nombre d’étudiants préférant LATEX dans un échantillon de 10 étudiants.
1. Donner la loi de X en fonction de θ.
X|T = θ ∼ Bin(10; θ)

2. On décide de commencer avec comme loi a priori T ∼ Beta(2 ; 2).


Commenter ce choix (famille de lois et paramètres).
Ce choix d’a priori est non biaisé (espérance : 0.5). Il agit comme si on avait déjà interroger 4 étudiants
et que la moitié préfère LATEX et l’autre Word. Il n’est pas très fort mais comme on n’interroge que 10
étudiants, il va quand même influer de façon non négligeable sur le résultat.

3. Avec la loi a priori proposée précédemment, exprimer la loi a posteriori de T sachant que X = x.
T |X = x ∼ Beta(2 + x ; 12 − x)

4. On a observé 6 étudiants préférant LATEX à Word. En déduire une estimation de θ.


2+x 8 4
E(T |X = x) = donc E(T |X = 6) = = ≃ 0.57
14 14 7

8
5. Quelle est la probabilité que plus de la majorité des étudiants préfèrent LATEX à Word ? Utilisez R pour
l’obtention des probabilités.
P[X=6] (T > 0.5) = 1-pbeta(0.5,8,6) ≃ 0.71

6. Fournir un intervalle de crédibilité à 90% pour θ (utiliser R pour obtenir les quantiles nécessaires). Idem
à 50%.
T |X = 6 ∼ Beta(8 ; 6)
Intervalle de crédibilité à 90% : [ qbeta(0.05,8,6) ; qbeta(0.95,8,6)] ≃ [0.355 ; 0.776]
Intervalle de crédibilité à 50% : [ qbeta(0.25,8,6) ; qbeta(0.75,8,6)] ≃ [0.483 ; 0.663]

7. Proposer une autre loi a priori correspondant à votre croyance à ce propos en justifiant les paramètres.
Est-ce que la conclusion change beaucoup ?

Exercice 12 (CC1 - 2018-2019).


On souhaite estimer les intentions de vote pour une élection. On interroge 10 personnes de notre entourage et
seulement une compte voter pour le candidat sortant. On planifie une enquête sur 100 personnes comptant
voter à l’élection.
On note X la variable aléatoire représentant le nombre de personnes comptant voter pour le candidat
sortant parmi 100 et T la variable aléatoire représentant la valeur du paramètre inconnu θ. On a comme
vraisemblance : X|T = θ ∼ Bin(100; θ).

1. Proposer une loi a priori pour la proportion de personnes prévoyant de voter pour le candidat sortant
correspondant à l’information fournie par notre entourage.
Justifier tous les aspects de votre choix.
On cherche à estimer un paramètre représentant une proportion donc compris entre 0 et 1. La loi a priori
doit donc avoir pour support les réels entre 0 et 1.
La vraisemblance est une loi binomiale. Il est donc pratique de choisir comme loi a priori une loi Beta
car celle-ci est conjuguée avec la loi binomiale, c’est-à-dire que la loi a posteriori sera à nouveau une loi
Beta et ses paramètres s’obtiennent aisément.
De plus la famille de lois Beta est flexible, c’est-à-dire beaucoup de situations (mais pas toute) peuvent
se modélisé avec une loi Beta.
On prend donc comme une loi a priori de la forme T ∼ Beta(α; β). Il reste à choisir α et β en accord
avec l’information sur notre entourage.
α
La taille effective de l’échantillon a priori est α + β = 10 et l’espérance vaut = 0.1. On obtient
α+β
α = 1 et β = 9.
Une loi a priori correspondant aux informations sur notre entourage est la loi Beta(1; 9).

2. Comme l’échantillon initial de 10 individus n’est pas aléatoire, on souhaite diminuer de moitié son poids
dans la construction de notre loi a priori. Proposer en justifiant une loi a priori adaptée.
Diminuer le poids correspond à diminuer la taille effective de l’échantillon a priori. On souhaite donc
α
avoir α + β = 5. On garde notre a priori sur l’espérance : = 0.1. On obtient α = 0.5 et β = 4.5.
α+β
La nouvelle loi a priori est la loi Beta(0.5; 4.5).

3. Notre enquête a trouvé 38 personnes sur 100 comptant voter pour le candidat sortant. En utilisant
la loi a priori de la question précédente, donner la loi a posteriori et une estimation de la proportion
d’individus souhaitant voter pour le candidat sortant.
On a observé x = 38. La loi a posteriori est T |X = 38 ∼ Beta (38.5; 66.5).
38.5 38.5 11
On obtient comme estimation de θ : E(T |X = 38) = = = ≃ 0.367
38.5 + 66.5 105 30
On estime ainsi la proportion d’individus souhaitant voter pour le candidat sortant à environ 37%.

9
4. Finalement si on ne souhaite pas utiliser les informations fournies par notre entourage, proposer en
justifiant (succinctement) d’autres lois a priori.
En absence d’information, on peut utiliser les lois a priori non ou peu informatives suivantes :
• Beta(0, 0) : loi impropre mais correspondant à une taille effective de l’échantillon a priori de 0 ;
• Beta(0.5; 0.5) : loi Beta équilibrée de taille effective de l’échantillon a priori de 1, il s’agit de la loi
préconisée par Jeffreys ;
• Beta(1, 1) : loi uniforme sur [0; 1] ;
• Beta(α; β) avec α = β pour qu’elle soit équilibrée et α + β très petite pour que l’information apportée
par cette loi a priori ait peu de poids.

3. R à notre service
Exercice 13 (Mise à jour de la loi).
1. Charger dans R la fonction maj_beta contenu dans le fichier 02-update_beta.R.
2. L’utiliser avec différents paramètres pour expérimenter l’évolution d’une loi a posteriori selon les données.
3. Tenter de la modifier pour pouvoir démarrer avec une loi a priori Beta quelconque.

10
Thème 3

Estimation bayésienne d'un paramètre


(autres cas)

1. Lois a priori et a posteriori Gamma


Exercice 14 (Vraisemblance exponentielle).
L’attente des clients (en heures) à un restaurant très populaire ne prenant pas de réservation peut être
modélisé par une loi exponentielle de paramètre θ (θ ∈ R∗+ ). On suppose que la loi a priori est donnée par la
1
densité suivante fT (θ) = θ3 e−θ 1R∗+ (θ).
6
1. Quelles informations contient cette loi a priori sur le paramètre θ ? (espérance, intervalle de crédibilité a
priori avec R, etc.)
On reconnaît que T suit une loi Gamma Γ(4, 1), ainsi son espérance a priori vaut 4.
1
Intervalles de crédibilité de T et a priori (les quantiles sont obtenus avec R) :
T
• ICr95% (T ) ≃ [1.09 ; 8.77] ;
• ICr75% (T ) ≃ [1.90 ; 6.32] ;
1
 
• ICr95% ≃ [0.114 ; 0.918] ≃ [6.8 min ; 55.1 min] ;
T
1
 
• ICr75% ≃ [0.158 ; 0.527] = [9.5 min ; 31.6 min].
T

2. Cinq personnes vous rapportent les temps d’attente suivants : 0.23, 0.80, 0.12, 0.35, 0.50.
Mettez à jour votre a priori sur θ.
On a :
• Loi a priori : T ∼ Γ(4; 1) ;
• Vraisemblance : X|T = θ ∼ Exp(θ).
La vraisemblance exponentielle et la loi a priori Gamma sont conjuguées, ainsi la loi de T a posteriori
est une loi Gamma avec la mise à jour des paramètres suivantes :

T |(X1 = 0.25, X2 = 0.80, . . . , X5 = 0.50) ∼ Γ(9; 3)

3. Rendez compte de vos résultats en synthétisant la loi a posteriori : espérance, intervalle de crédibilité a
posteriori avec R, etc.
9
On a comme espérance de T a posteriori E(T |X = x) = = 3.
3
1
Intervalles de crédibilité de T et a posteriori (les quantilles sont obtenus avec R) :
T
• ICr95% (T |X = x) ≃ [1.37 ; 5.25] ;
• ICr75% (T |X = x) ≃ [1.91 ; 4.17] ;
1
 
• ICr95% X = x ≃ [0.190 ; 0.729] ≃ [11.4 min ; 43.7 min] ;
T
1
 
• ICr75% X = x ≃ [0.240 ; 0.525] = [14.4 min ; 31.5 min].
T

11
4. Au vu de toutes ces informations, si vous allez à ce restaurant, quelle est la probabilité d’attendre plus
d’une heure ?
Quelle est l’espérance du temps d’attente ?
On cherche la probabilité P(X6 > 1|X = x). On va utiliser la version continue de la formule des
probabilités totales pour décomposer selon les valeurs possibles de θ.
Z +∞
P(X6 > 1|X = x) = P{T =θ} (X6 > 1) × fT |X=x (θ)dθ
0
X6 |T = θ ∼ Exp(θ) donc P{T =θ} (X6 > 1) = e−θ×1 = e−θ
Ainsi on a
39 39 +∞ 49 3
Z +∞ Z  9
−θ 9−1 −3θ 9−1 −4θ
P(X6 > 1|X = x) = e θ e dθ = 9 θ e dθ = ≃ 0.075
0 (9 − 1)! 4 0 (9 − 1)! 4
La dernière intégrale correspond à l’intégrale de la densité d’une loi Γ(9, 4) et vaut donc 1.
Au final, suite à nos connaissances (a priori et observations), si l’on va à ce restaurant, on a environ
7.5% de chance d’attendre plus d’une heure.

On peut également récupérer la loi précise de X6 via sa densité et ainsi calculer son espérance.
Soit x > 0.
39
Z +∞ Z +∞
fX6 |X=x (x) = fX6 |T =θ (x) × fT |X=x (θ)dθ = θe−θx θ9−1 e−3θ dθ
−∞ 0 (9 − 1)!
39 × (10 − 1)! (3 + x)10 10−1 −(3+x)θ 39 × 9 311
Z +∞
= θ e dθ = × 1 =
(9 − 1)! × (3 + x)10 0 (10 − 1)! (3 + x)10 (3 + x)10
311
On a donc fX6 |X=x (x) = 1R∗ (x).
(3 + x)10 +
Pour calculer l’espérance, Il faut procéder par intégration par partie (non rédigée ici). E(X6 |X = x) =
311 3
Z +∞
x dx = ≃ 22.5 min
0 (3 + x) 10 8

Exercice 15 (Vraisemblance de Poisson - CC2 - 2018/2019).


On souhaite étudier le nombre de pépites de chocolat dans un cookie. Ce nombre X suit une loi de Poisson
de paramètre θ inconnu.
On part avec comme a priori une loi Gamma de paramètre α et β.
1. Constater que la famille de loi Gamma est conjuguée avec les vraisemblance de Poisson et énoncer la
règle de mise à jour des paramètres de la loi Gamma.
On a
• A priori : T ∼ Γ(α; β) ;
• Vraisemblance : X|T = θ ∼ P(θ).
fT |X=x (θ) ∝ e−θ θx θα−1 e−βθ 1R+ (θ)
∝ θα+x−1 e−(β+1)θ 1R+ (θ)
On obtient comme loi a posteriori T |X = x ∼ Γ(α + x; β + 1).

2. On réalise une première observation en dégustant un premier cookie attentivement.


On a observé 8 pépites. Donner une estimation de θ en fonction des paramètres de la loi a priori.
On note X la variable aléatoire représentant le nombre de pépites de chocolat par cookie et T la variable
aléatoire représentant la valeur inconnue du paramètre de la loi de Poisson suivie par X.
α+8
Une estimation est fournie par l’espérance de la loi a posteriori : E(T |X = 8) = .
β+1
3. Soit n ⩾ 2. On réalise n observations : x1 , . . . , xn .
(a) Exprimer la loi a posteriori suite à une série d’observations X1 = x1 , . . . , Xn = xn .
n
!
En itérant, on obtient T |X1 = x1 , . . . , Xn = xn ∼ Γ α + xi ; β + n .
X

i=1

12
(b) Donner l’estimateur de θ obtenu via l’espérance conditionnelle.
Une estimation est fournie par l’espérance de la loi a posteriori :
α + ni=1 xi α + nx
P
E(T |X1 = x1 , . . . , Xn = xn ) = = .
β+n β+n
α + nX
On en déduit l’estimateur suivant : θb = .
β+n
(c) Déduire de l’expression de l’estimateur la taille effective de l’échantillon a priori (prior effective
sample size).
α + ni=1 xi α + nx
P
β α n
E(T |X1 = x1 , . . . , Xn = xn ) = = = × + ×x
β+n β+n β+n β β+n
Dans ce contexte, la taille effective de l’échantillon a priori correspond au paramètre β.

4. Au vu de votre travail (théorique) à la question précédente, proposer en justifiant une loi a priori
informative synthétisant votre croyance d’avoir observé une moyenne d’environ 10 pépites par cookie sur
20 cookies.
Notre croyance :
• taille effective de l’échantillon a priori : β = 20 ;
α
• valeur moyenne : E(T ) = = 10.
β
On obtient α = 200 et β = 20, d’où la loi a priori T ∼ Γ(200; 20).

5. Effectuer à nouveau une estimation de θ dans le cadre de la question 1 avec la loi a priori construite à la
question précédente.
208
E(T |X = 8) = ≃ 9.905
21
6. Vous vous intéressez à de nouveaux cookies. Vous n’avez aucun a priori.
Essayer de proposer une ou plusieurs lois a priori peu informatives.
Pour prendre la loi peu informative, on peut penser à une loi de type uniforme sur R+ (qui est donc
impropre) : fT (θ) ∝ 1R+ (θ). Une autre idée est de conservée une loi Gamma et de diminuer la taille
effective de l’échantillon a priori. On peut prendre β très petit et choisir α pour conserver notre a priori
sur l’espérance.
1
Le cas limite nous donne une loi Γ(0; 0) qui est impropre et correspond à fT (θ) ∝ 1R+ (θ). Avec cet a
θ
nX
priori, on obtient comme estimateur a posteriori E(T |X) = = X qui correspond à l’estimateur par
n
la méthode du maximum de vraisemblance du paramètre d’une loi de Poisson.

Exercice 16 (Vraisemblance Gamma).


Pour la lampe de votre chambre, vous possédez un lot de 3 ampoules halogènes identiques. La durée de vie
en année d’une ampoule suit une loi exponentielle de paramètre λ et leurs durées de vie sont indépendantes
entre elles.
On note T la variable aléatoire représentant nos connaissances sur le paramètre λ et X la variable aléatoire
représentant le temps avant de devoir acheter à nouveau des ampoules.
1. Déterminer la loi de X|T = λ.
X correspond à la somme de trois lois exponentielles de même paramètre λ donc X|T = λ ∼ Γ (3, λ).

2. Montrer que la famille de lois Gamma est conjuguée avec une vraisemblance suivant une loi Gamma de
second paramètre inconnu.
Soient T ∼ Γ(α, β) et X|T = θ ∼ Γ(a, θ).
On a pour tout réel x strictement positif :
fT |X=x (θ) ∝ fT (θ) × fX|T =θ (x)

13
β α α−1 −βθ θa a−1 −θx
∝ θ e 1R+ (θ) × x e 1R+ (x)
Γ(α) Γ(a)
∝ θα−1 e−βθ 1R+ (θ) × θa e−θx
∝ θα+a−1 e−(β+x)θ 1R+ (θ)
Donc T |X = x ∼ Γ(α + a; β + x).

3. Il s’agit d’ampoules halogènes ayant un durée de vie d’environ 2000 à 3000 heures (la moitié du temps)
et vous les laissez allumées en moyenne 8 heures par jour.
À l’aide de R et du script 03-find_gamma.R, proposer une loi a priori pour T .
On va choisir une loi Gamma car elle est conjuguée à elle même.
On laisse notre lampe allumée 2920h par an. Donc la moitié du temps une ampoule dure entre 0.685 et
1.027 année.
1
 
Ce n’est pas exactement cela mais on peut traduire cette information par P ∈ [0.685; 1.027] = 0.50
T
soit P (T ∈ [0.973; 1.46]) = 0.50
Via R on obtient que la loi Γ(11, 9) correspond.

4. La dernière ampoule de votre lot vient de lâcher au bout de 5 années.


Vous achetez un nouveau lot de trois ampoules exactement du même modèle.
Quelle est la probabilité que la première ampoule dure moins d’un an ?
Avec la loi a priori précédente et les données, on obtient la loi a posteriori suivante :

T |X = 5 ∼ Γ(14, 14).

On note Y la durée de vie d’une nouvelle ampoule.

1414
Z +∞
PX=5 (Y ⩽ 1) = 1 − PX=5 (Y > 1) = 1 − θ14−1 e−14θ e−θ×1 dθ
0 Γ(14)
14 1514 14
 14 Z +∞  14
=1− θ14−1 e−15θ dθ = 1 − ≃ 0.62
15 0 Γ(14) 15

Exercice 17 (Vraisemblance de Poisson).


Un détaillant a remarqué qu’un certain type de clients a tendance à appeler le service client plus souvent que
les autres clients. Il décide d’étudier cela.
Un processus de Poisson est classiquement approprié pour compter le nombre d’appels téléphoniques reçus.
Ainsi le nombre d’appels peut être modélisé par la loi de Poisson P(ntθ) avec n le nombre de clients du
groupe étudié, t le nombre de jours et θ le taux d’appel par jour par client.
1. On décide de choisir notre loi a priori dans la famille des lois Gamma.
Vérifier qu’il s’agit bien d’une famille de lois conjuguées avec une vraisemblance de Poisson et exprimer
les paramètres de la loi a posteriori en fonction de ceux de la loi a priori et d’une observation.
On a :
• Loi a priori : T ∼ Γ(α; β) donc fT (θ) ∝ θα−1 e−βθ 1R+ (θ)
(ntθ)x
• Vraisemblance : X|T = θ ∼ P(ntθ), c’est-à-dire ∀x ∈ N, on a P{T =θ} (X = x) = e−ntθ .
x!
(ntθ)x
Loi a posteriori : f{T |X=x} (θ) ∝ θα−1 e−βθ 1R+ (θ) × e−ntθ ∝ θ(α+x)−1 e−(nt+β)θ 1R+ (θ)
x!
Ainsi T |X = x ∼ Γ(α + x; β + nt).
La loi a posteriori est encore une loi Gamma donc les lois Gamma et de Poisson sont conjuguées.

2. En moyenne, le détaillant reçoit 0.01 appels par client par jour. Pour fixer son a priori, il décide de
choisir un écart type de 0.5.
Donner la loi a priori correspondant à cela et montrer les conséquence de son choix d’écart type.

14
α α 1
On souhaite E(T ) = 0.01 et σT = 0.5. On a donc = 0.01 et 2 = . Au final on a comme loi a priori
β β 4
1 1
 
T ∼Γ ; .
2500 25
3. Dans ce groupe d’intérêt, il y a 24 clients. Sur 5 jours, il a 6 appels de clients de ce groupe.
Exprimer la loi a posteriori.
1 1
 
On a n = 24, t = 5 et x = 6. La loi a posteriori est donc T |X = 6 ∼ Γ + 6; + 120 ce qui
2500 25
donne T |X = 6 ∼ Γ (6.0004; 120.04)

4. Synthétiser les informations de cette loi a posteriori éventuellement en utilisant R.


15001 25 15001
On a comme espérance a posteriori E(T |X = 6) = × = ≃ 0.05.
2500 3001 300100
Un intervalle de crédibilité a posteriori à 95% pour le taux d’appel par jour par client est

ICr95% (T |X = 6) ≃ [0.018 ; 0.097].


5. Est-ce que les clients de ce groupe appellent effectivement plus que les autres ? Vous pouvez utiliser R.
L’intervalle de crédibilité a posteriori à 95% pour le taux d’appel par jour par client fourni précédemment
ne contient pas la valeur 0.01. On peut donc conclure qu’il y a de forte chance que les clients de ce
groupe appellent effectivement plus que les autres.
On peut également calculer la probabilité que le taux d’appel par jour par client de ce groupe soit
supérieur à 0.01 :

PX=6 (T > 0.01) = 0.9985

2. Vraisemblance normale
Exercice 18.
On dispose d’un câble de longueur θ. On dispose d’un mètre disposant d’une erreur de mesure distribuée
selon une loi normale d’espérance 0 et d’écart type 0.01. Un résultat d’une mesure du câble suit donc une loi
normale d’espérance θ et d’écart type 0.01.
1. On suppose que la loi a priori de la longueur du câble est une loi normale d’espérance 9 et d’écart type 1.
On mesure le câble avec le mètre et on obtient 10. Donner la loi a posteriori de θ.
On note X la variable aléatoire représentant la mesure du câble obtenue et T la variable aléatoire
représentant la longueur du câble.
Vraisemblance : X|T = θ ∼ N (θ; 0.01)
Loi a priori : T ∼ N (9; 1)
100009 1 1
   
Loi a posteriori : T |X = 10 ∼ N ;√ , c’est-à-dire T |X = 10 ∼ N 9.9999 ;
10001 10001 100.005
2. Donner un intervalle de crédibilité à 95% pour θ.
1
 
9.9999 ± 1.96 × ≃ [9.980301 ; 10.0195]
100.005
3. Quelle est la probabilité qu’il soit de longueur inférieure à 9.99 ?
P[X=10] (T < 9.9) = F (−9.99) ≃ 0(≃ 8 × 10−24 )
P[X=10] (T < 9.99) = F (−0.99) ≃ 0.16
On a environ 16% de chance que la câble fasse moins de 9.99 mètres si on le mesure à 10 mètres.

4. Toujours avec la même loi a priori, calculer le nombre de mesures nécessaires pour que l’écart type de la
loi a posteriori soit inférieur à 0.001.
1 1 1
σp = √ = √ =√
τp τ0 + nτ 1 + 10 000n

15
1 1 0002 − 1
σp < 0.001 ⇔ √ < 0.001 ⇔ n > = 99.9999
10 000n + 1 10 000
Il faut donc au moins 100 observations pour que la variance a posteriori soit inférieure à 0.001.

Exercice 19.
Dans une usine de sachet de thé, chaque sachet de thé est supposé contenir 5.5g de thé et le processus de
remplissage a un écart type de 0.106g par sachet (on suppose que la loi est normale). On se demande s’il y a
eu une modification de la quantité moyenne de thé par sachet.
1. Déterminer une loi a priori correspondant au processus de remplissage spécifié et faisant comme si cette
information provient d’une connaissance sur 100 observations.
On note X la variable aléatoire qui représente la quantité de thé dans un sachet et T la variable aléatoire
correspondant au poids moyen de thé dans un sachet.
Vraisemblance : X|T = θ ∼ N (θ; 0.106)
σ2
Prior effective sample size : 100 = 2
σ0
σ
Il faut donc choisir σ0 = = 0.0106
10
Ainsi on prend comme loi a priori T ∼ N (5.5 ; 0.0106).

2. Sur un échantillon de 40 sachets, on a obtenu une moyenne de 5.494g par sachet.


(a) Donner la loi a posteriori.
On a n = 40 et x = 5.494.
On obtient T |X = 5.494 ∼ N (5.49829 ; 0.00896)

(b) Quelle est la probabilité a posteriori que le processus ne se soit pas décalé de plus de 0.001 g ?
On cherche PX=5.494 (|T − 5.5| > 0.001) ou PX=5.494 (T < 5.499).
On a PX=5.494 (T < 5.499) ≃ 0.532 et
PX=5.494 (|T − 5.5| > 0.001) = PX=5.494 (T < 5.499) + PX=5.494 (T > 5.501) ≃ 0.913

Exercice 20.
Une usine d’embouteillage de lait envisage de changer de doseuses. Le fournisseur lui assure que son nouveau
modèle est bien plus précis que celui utilisé actuellement dans l’usine.
On suppose que la contenance d’une bouteille de lait est une variable aléatoire X qui suit une loi normale
d’espérance 1.01 (le calibrage moyen n’est pas un problème, il est facilement réglable et sûr) et d’écart type
σ inconnu dû à la doseuse utilisée.
Actuellement le modèle utilisé à l’usine a un écart type de 0.02 et le fournisseur annonce un écart type de
0.01 pour son nouveau modèle.
On a pu tester le nouveau modèle sur 25 bouteilles. Sur cet échantillon de taille n = 25, les contenances
x1 , . . . , xn fournissent les données suivantes :
25 25
xi = 25.153 et x2i = 25.31156.
X X

i=1 i=1

1
On note T la variable qui synthétise les croyances sur la valeur de la précision, τ = , de la nouvelle doseuse.
σ2
1. On vous propose d’utiliser comme loi a priori la loi Γ(8; 0.001). Qu’est-ce que cela signifie sur les croyances
a priori ? (Vous pouvez utiliser R.)
1
E(T ) = 8000 d’où p = 0.0112
E(T )
1
On obtient comme intervalles de fluctuation pour T et par conséquent pour √ :
T

16
1
 
• IF0.95 (T ) = [3453.8 ; 14422.7] et IF0.95 √ = [0.0083; 0.0170] ;
T
1
 
• IF0.75 (T ) = [11297.5 ; 4918.5] et IF0.75 √ = [0.0098; 0.0143].
T
2. Déterminer la loi a posteriori de T au vu des observations.
25 i=1 (xi − µ)
P25 !
2
T |X1 = x1 , . . . , X25 = x25 ∼ Γ 8 + ; 0.001 +
2 2
25 25 25
Or (xi − µ)2 = x2i − 2µ xi + 25µ2 = 0.005
X X X

i=1 i=1 i=1


D’où T |X1 = x1 , . . . , X25 = x25 ∼ Γ (20.5; 0.0035)

3. Que pensez-vous des affirmations du fournisseur sur la précision du nouveau modèle de doseuse ? (Utilisez
des arguments de plusieurs natures.)
On peut donner une estimation ponctuelle (mais c’est un peu pauvre en informations) :
1
E (T |X1 = x1 , . . . , X25 = x25 ) ≃ 5857.143 et p ≃ 0.013
E (T |X1 = x1 , . . . , X25 = x25 )
On peut également s’intéresser à
1
 
• la probabilité PX1 =x1 ,...,X25 =x25 √ ⩽ 0.01 = PX1 =x1 ,...,X25 =x25 (T ⩾ 10000) ≃ 0.003 ;
T
1
 
• la probabilité PX1 =x1 ,...,X25 =x25 √ < 0.02 = PX1 =x1 ,...,X25 =x25 (T > 2500) ≃ 0.9995 ;
T
1
 
• la probabilité PX1 =x1 ,...,X25 =x25 √ ⩽ 0.015 ≃ PX1 =x1 ,...,X25 =x25 (T ⩾ 4444.44) ≃ 0.8685
T
1
• des intervalles de fluctuation pour √ sachant X1 = x1 , . . . , X25 = x25 :
T
1
– pour T à 90% : [3900; 8100] d’où pour √ : [0.0111; 0.0160] ;
T
1
– pour T à 95% : [3600; 8650] d’où pour √ : [0.0108; 0.0167].
T

Exercice 21 (CC2 - 2018/2019).


Dans la population générale, la valeur du QI standard suit une loi normale d’espérance 100 et d’écart type
15. Les tests de QI sont supposés non biaisés mais l’écart type est de 5, c’est-à-dire que lorsqu’une personne
passe un test de QI, le QI mesuré diffère de son véritable QI selon une loi normale d’espérance 0 et d’écart
type 5.
M. Paix et Mme Haisse, deux fantastiques statisticiens, souhaitent comparer leurs QI. Ils passent donc un
test. M. Paix obtient 95 et Mme Haisse 130.
Très humble, Mme Haisse ne commente pas les résultats. M. Paix s’empresse de préciser que les résultats
des tests de QI ayant un écart type de 10, les deux intervalles de confiance à 95% pour leurs véritables
QI s’intersectent et que, du coup, on ne peut rien dire. Mme Haisse sait bien qu’en prenant en compte
notre connaissance a priori de la répartition du QI d’une personne choisie au hasard, les intervalles de
crédibilité pour les valeurs de leurs QI respectifs ne s’intersectent pas au même seuil de 95 % mais elle préfère
silencieusement sourire et acquiescer.
1. Point de vue fréquentiste de M. Paix
Construire les intervalles de confiance auxquels fait référence M. Paix
On note XP , resp. XS , la variable aléatoire représentant le résultat au test de QI de M. Paix, resp. de
Mme Haisse
On note θP , resp. θS , la véritable valeur du QI de M. Paix, resp. de Mme Haisse
On a QP ∼ N (θP ; 10) et QS ∼ N (θS ; 10).
On obtient comme intervalle de confiance pour θP et θS :

17
• IConf 0.95 (θP ) = [95 ± 1.96 × 10] = [75.4 ; 114.6] ;
• IConf 0.95 (θS ) = [130 ± 1.96 × 10] = [110.4 ; 149.6].

2. Point de vue bayésien de Mme Haisse


• Formaliser le contexte bayésien : loi a priori, basée sur la population générale, et vraisemblance.
Formalisation :
– A priori : T ∼ N (100; 15) ;
– Vraisemblance : X|T = θ ∼ N (θ; 5).

• Déterminer les deux lois a posteriori des QI de M. Paix et de Mme Haisse


On a comme loi a posteriori : T |X = x ∼ N (µpost ; σpost ) avec
2 + 52
100 x
100 + 9x 9
µpost = 151 1 = = 10 + x
152
+ 52 10 10

1 3 10
σpost = q = (≃ 4.74).
1
+ 1 2
152 52
On obtient donc
√ ! √ !
3 10 3 10
TP |X = 95 ∼ N 95.5; et TS |X = 130 ∼ N 127;
2 2

• Construire les intervalles de crédibilité auxquels fait référence Mme Haisse


On obtient comme intervalle de crédibilité pour θP et θS :
– ICred0.95 (θP ) = [86.20 ; 104.79] ;
– ICred0.95 (θS ) = [117.70 ; 136.30].

• Commenter.
No comment.

3. Hors barème. Seulement si vous avez du temps à perdre.


Avez-vous un autre a priori ? Comment cela change les intervalles de crédibilité des QI de M. Paix et de
Mme Haisse ?

3. Autres situations
Exercice 22 (*Loi exponentielle tronquée).
On cherche à estimer le paramètre θ d’une loi exponentielle tronquée.
Soit X une variable aléatoire de densité fX|T =θ (x) = eθ−x 1[θ;+∞[ (x).
On a observé 10 valeurs d’un phénomène suivant la même loi que X.

9.2 9.5 9.6 10.7 11.1 11.2 11.3 11.4 12.6 13.6

1. Cadre fréquentiste
(a) Déterminer un estimateur sans biais de θ à partir de la méthode des moments.
On peut Zcalculer l’espérance de X en procédant par intégration par partie.
+∞
E(X) = xeθ−x dx = θ + 1
θ
θb = X − 1 : estimateur sans biais de θ (car E(X) = θ + 1)

18
(b) En supposant (faites moi confiance ou vérifiez-le avec R) que l’on peut approcher la loi de moyenne
empirique par une loi normale, construire un intervalle de confiance à 95% pour θ à partir des
données observées.
On obtient l’intervalle de confiance observé suivant : [9.40; 10.64].

(c) Commenter.
Au vu des données et du support de la loi, on a forcément θ ⩽ 9.2.

2. Cadre bayésien.
(a) En utilisant comme a priori la pseudo loi uniforme sur R, déterminer la loi a posteriori pour une
observation de X valant x.

• Loi a priori : fT (θ) ∝ 1 × 1R (θ)


• Vraisemblance : fX|T =θ (x) = eθ−x 1[θ;+∞[ (x)
• Loi a posteriori : fT |X=x (θ) ∝ eθ−x 1]−∞;x] (θ)

(b) Dans le même cadre, déterminer la loi a posteriori pour n observations.


On répète n observations. On obtient fT |X n =xn (θ) ∝ en(θ−x) 1]−∞;min(xi )] (θ).

(c) Au vu de nos observations, déduire la loi a posteriori.


n = 10 et xi = 110.2
X

fT |X n =xn (θ) ∝ e10θ−110.2 1]−∞;9.2] (θ) ∝ e10θ 1]−∞;9.2] (θ)

En calculant l’intégrale, on obtient fT |X n =xn (θ) = 10e10θ−92 1]−∞;9.2] (θ)

(d) Déterminer un intervalle de crédibilité à 95 % le plus étroit possible.


Si on visualise la densité, on constate que pour qu’il soit le plus étroit possible, il faut qu’il soit de la
forme [x; 9.2[. Déterminons x.
Z 9.2 h i9.2  
10e10x−92 dx = e−92 e10x = e−92 e92 − e10x = 1 − e10x−92
x x
1
1−e = 0.95 ⇔ x =
10x−92
(ln(0.05) + 92) ce qui donne x ≃ 8.9
10
On obtient comme intervalle de crédibilité à 95% pour θ : [8.9, 9.2[.

Exercice 23 (** Vraisemblance uniforme).


En début d’année, M. A. a prévenu qu’il arriverai en retard en cours à 8h. Plus précisément uniformément en
retard. Donc si on note X le temps de retard après le début du cours en heure, alors X suit une loi uniforme
sur [0; θ]. Comme les cours durent 2h et que plus d’une heure de retard, c’est clairement abusé, l’enseignante
part avec l’idée que θ est inférieur à 1.
Plus précisément, l’enseignante part avec comme loi a priori la loi uniforme sur [0; 1].
1. M. A. est en retard de x heure au premier cours.
(a) Donner la loi a posteriori selon x.
1 1
fT |X=x (θ) = − × 1 (θ)
ln(x) θ [x;1]

(b) Donner la loi a posteriori dans les cas particuliers où x = 0.2 et x = 0.4.
simple application numérique

2. Après n cours (n ⩾ 2), M. A. a été en retard des durées suivantes : x1 , . . . , xn .

19
(a) Exprimer la loi a posteriori selon les valeurs x1 , . . . , xn .
1
fT |X1 =x1 ,...,Xn =xn (θ) ∝
1 (θ)
θn [max(xi );1]
n−1 1
Plus précisément on a fT |X1 =x1 ,...,Xn =xn (θ) = 1−n × n 1[max(xi );1] (θ)
(max(xi )) −1 θ
(b) Exprimer la loi a posteriori dans les cas particuliers où les observations des retards dont : (0.1; 0.5),
(0.5; 0.5), (0.1, 0.2, 0.3, 0.4, 0.5).
Il s’agit d’applications numériques.
1
fT |(X1 ,X2 )=(0.1,0.5) (θ) = fT |(X1 ,X2 )=(0.5,0.5) (θ) = 2 1[0.5;1] (θ)
θ
4 1 4
fT |(X1 ,...,X5 )=(0.1,0.2,0.3,0.4,0.5) (θ) = × 5 1[0.5;1] (θ) = 1 (θ)
0.5 − 1 θ
4 15θ5 [0.5;1]
3. (*) On suppose que la fois où M. A. est arrivé le plus en retard, il avait 30 minutes de retard.
Trouver la probabilité que M. A. arrive avec plus de 30 min de retard la prochaine fois.
Le calcul demandé est compliqué et est hors programme.
Cela dépend du nombre n d’observations de retard.
n−1 1
fT | max(Xi )=0.5 (θ) = n−1 × n 1[0.5;1] (θ)
(2) −1 θ

20
Thème 4

Autour des tests bayésiens

Exercice 24.
On va étudier le biais prétendu des pièces d’un euro belge orné du portrait du roi Albert II. Pour cela on
se réfère à l’expérience relatée dans l’article du New Scientist du 4 janvier 2002(www.newscientist.com/
article/dn1748-euro-coin-accused-of-unfair-flipping/).
Suite à 250 expériences, ils ont obtenu 140 fois face. On note X la variable correspondant au nombre de face
après 250 essais et p la probabilité d’obtenir face lors d’un essai.
1. Calculer le facteur de Bayes des hypothèses : H1 : « la pièce est équilibrée » et H2 : « face sort dans
60% des cas ». Commenter.
On a n = 250 et x = 140.
250 1 250
! !
Cela donne P(X = 140|H1 ) = et P(X = 140|H2 ) = 0.6140 0.4110 . Le facteur de Bayes
140 2250 140
de H1 face à H2 est

P(X = 140|H1 ) 1
BF (H1 ; H2 ) = = 250 140 110 ≃ 0.376
P(X = 140|H2 ) 2 0.6 0.4

Donc H2 est plus vraisemblable que H1 mais pas nécessairement plus probable. Cela dépend de notre a
priori.
On pose p la probabilité a priori de H1 , c’est-à-dire que la pièce soit équilibrée.
P{X=140} (H1 ) p
On conclura en faveur de H1 si >1⇔ × BF (H1 ; H2 ) > 1.
P{X=140} (H2 ) 1−p
1
Au final, H1 sera a posteriori plus probable dès que l’on juge que p > ≃ 0.727.
BF (H1 ; H2 ) + 1
2. En utilisant la loi uniforme comme loi a priori de T sous l’hypothèse H2 , calculer le facteur de Bayes des
1 1
hypothèses : H1 : p = et H2 : p ̸= . Commenter.
2 2
A priori sous H2 , T |H2 ∼ U([0; 1]) et la vraisemblance est X|T = θ ∼ Bin(250; θ).
On obtient
250 140
Z 1 !
PH2 (X = 140) = fT |H2 (θ) × θ (1 − θ)110 dθ
0 140
250 140! × 110! 1 (141 + 111 − 1)! 1
! Z
= × θ140 (1 − θ)110 dθ =
140 251! 0 (141 − 1)! × (111 − 1)! 251
250
× 251
Cela fournit comme facteur de Bayes BF (H1 ; H2 ) = 140 250 ≃ 2.098.
2
On pose p la probabilité a priori de H1 , c’est-à-dire que la pièce soit équilibrée.
1
Comme précédemment, on conclura en faveur de H1 si on juge que p > ≃ 0.323.
BF (H1 ; H2 ) + 1

3. (*) Proposer une façon de réaliser un test de la forme suivante

1 1 1
H1 : p = , H2 : p > , H3 : p < .
2 2 2

Il faut décider des lois a priori de T sous H2 et sous H3 . On peut choisir des lois uniformes sur ]0.5; 1] et
sur [0; 0.5[.
Lois a priori : fT |H2 (θ) = 2 × 1]0.5;1] (θ) et fT |H3 (θ) = 2 × 1[0;0.5[ (θ).

21
Cette fois, pour obtenir les vraisemblances, le calcul des intégrales est assez laborieux (140 intégrations
par parties ou changement de variables) mais on peut utiliser R et la commande integrate pour en
obtenir une valeur approchée.
! On a besoin des intégrale suivantes :
Z 1
250 140 250 140
Z 1 !
2
PH2 (X = 140) = θ (1 − θ) dθ et PH3 (X = 140) =
110
θ (1 − θ)110 dθ
1
2
140 0 140
Avec R, on peut les obtenir (ainsi que la marge d’erreur car il s’agit de calculs approchés) avec le code
suivant :

integrand <- function(x) {x^(140)*(1-x)^(110)} # fonction à intégrer


vH2<-choose(250,140)*integrate(integrand, lower = 0.5, upper = 1)$value
errvH2<-choose(250,140)*integrate(integrand, lower = 0.5, upper = 1)$abs.error
vH3<-choose(250,140)*integrate(integrand, lower = 0, upper = 0.5)$value
errvH3<-choose(250,140)*integrate(integrand, lower = 0, upper = 0.5)$abs.error

choose permet de calculer le coefficient binomial.


On peut continuer les calculs avec R. On obtient les différents facteurs de Bayes avec le code suivant.

vH1<-choose(250,140)/2^(250)
> vH1/vH2
[1] 2.160373
> vH1/vH3
[1] 72.25316
> vH2/vH3
[1] 33.44477

Cela nous donne


BF (H1 ; H2 ) ≃ 2, BF (H1 ; H3 ) ≃ 72, BF (H2 ; H3 ) ≃ 33
Comme précédemment, on note p = P(H1 ). On décide que les probabilités a priori des hypothèses de
1−p
pièces non équilibrées sont identiques. Ainsi on a P(H2 ) = P(H3 ) = .
2
P{X=140} (H1 ) P{X=140} (H1 )
Du coup on décidera en faveur de H1 si > 1 et > 1, c’est-à-dire si
P{X=140} (H2 ) P{X=140} (H3 )
1 1
 
p > max ; Or on a
2BF (H1 , H2 ) + 1 2BF (H1 , H3 ) + 1
> 1/(2*vH1/vH2+1)
[1] 0.1879436
> 1/(2*vH1/vH3+1)
[1] 0.006872554

Donc on décidera en faveur de H1 dès que notre a priori correspond à une probabilité supérieure à 19%
que la pièce soit équilibrée.

4. Proposer une étude de la situation sans faire appel aux tests.


On peut plus classiquement construire une loi a posteriori de T à partir d’une loi a priori Beta.
A priori T ∼ Beta(α, β)
A posteriori : T |X = 140 ∼ Beta(α + 140, β + 110)
Si on décide de prendre une loi a priori non informative, par exemple la pseudo-loi impropre Beta(0, 0),
on a comme loi a posteriori T |X = 140 ∼ Beta(140, 110).
Avec cette loi on peut calculer des probabilités et des intervalles de crédibilité sur T :
P{X=140} (T > 0.5) ≃ 0.97 et ICr95% (T ) ≃ [0.498; 0.621]

Exercice 25.
On suppose qu’une valeur, X, est transmise par un moyen de communication. Le récepteur reçoit le message
bruité Y = X + W avec W ∼ N (0, σ) indépendant de X. Le message X vaut 1 avec probabilité p ∈]0; 1[ et

22
−1 avec probabilité 1 − p.
L’objectif est de décider une fois un message reçu si ce message vaut 1 ou −1.
1. Poser les deux hypothèses H1 et H2 entre lesquelles il faut choisir.
On a
• H1 : X = 1 ;
• H2 : X = −1.

2. Donner la loi de Y sous chacune de ces hypothèses.


• Sous H1 , on a X = 1 donc Y |H1 ∼ N (1; σ) ;
• Sous H2 , on a X = −1 donc Y |H2 ∼ N (−1; σ)

3. Exprimer le facteur de Bayes de H1 face à H2 .


(y−1)2
fY |H1 (y) √ 1 e− 2σ 2
1  2
  2y
2πσ 2
BF (H1 ; H2 ) = = = exp − 2 y − 2y + 1 − y − 2y − 1 = e σ2
2
fY |H2 (y) √ 1 e−
(y+1)2
2σ 2

2πσ 2

4. Expliciter la règle de décision entre les deux hypothèses en fonction de la valeur reçue y, ainsi que les
paramètres p et σ.
On va décider en faveur de l’hypothèse H1 si sa probabilité a posteriori est supérieure à la probabilité a
posteriori de H2 . On va donc comparer le ratio de probabilités a posteriori à 1.
P{Y =y} (H1 ) P(H1 ) 2y p
= BF (H1 ; H2 ) × = e σ2
P{Y =y} (H2 ) P(H2 ) 1−p
P{Y =y} (H1 ) p 1−p σ2 1−p
 
2y 2y
Donc ⩾ 1 ⇔ eσ 2 ⩾ 1 ⇔ eσ ⩾ 2 ⇔y⩾ ln
P{Y =y} (H2 ) 1−p p 2 p
σ2 1−p
 
Ainsi si le message reçu y est supérieur à ln , l’hypothèse H1 est plus probable a posteriori
2 p
que l’hypothèse H2 .
Dans le cas où les deux hypothèses sont a priori équiprobables, le seuil est 0. Ainsi si le message reçu est
positif, on décidera que le message initial X vaut 1. Si le message reçu est négatif, on décidera que le
message initial X vaut −1.

Exercice 26.
Un système de surveillance est en charge de détecter les intrusions dans un lieu. Il doit choisir entre deux
hypothèses
H1 : Aucun intrus n’est présent et H2 : Des intrus sont présents.
Le système enverra un message d’alerte s’il décide que c’est l’hypothèse H2 qui est vraie. On suppose que le
coût de manquer un intrus est 10 fois plus élevé que celui d’une fausse alerte.
1. Le système analyse ses données et obtient P(H2 | données détectées) = 0.05. Le système doit-il envoyer
un message d’alerte ?
Décisions : d1 : « décider que H1 est vraie » et d2 : « décider que H2 est vraie ».
Définition de la fonction de coût : L(Hi , dj ) signifie le coût de prendre la décisions dj quand c’est
l’hypothèse Hi qui est vraie. 
 0

si i = j
L(Hi , dj ) =
 Kj

si i ̸= j
K1 (L(H2 , d1 )) est donc le coût de la mauvaise décision : « on décide qu’il n’y a aucun intrus alors qu’il
y en a » ; et K2 (L(H1 , d2 )) est le coût de la mauvaise décision : « on décide qu’il y a des intrus alors
qu’en fait il n’y en a pas ».
P{data} (H1 ) K1
Quand il y a des coût différents selon les mauvaises décisions, on choisit d1 si ⩾ .
P{data} (H2 ) K2

23
P{data} (H1 )
Ici on a K1 = 10K2 . On décidera donc qu’il n’y a aucun intrus si ⩾ 10.
P{data} (H2 )
P{data} (H1 ) 0.95
Les conclusions du système sont P{data} (H2 ) = 0.05 donc = = 19 > 10.
P{data} (H2 ) 0.05
Comme ici la probabilité a posteriori qu’il n’y ait pas d’intrus est 19 fois plus grande que celle qu’il y ait
un intrus, le système ne va pas envoyer de message d’alerte. Dans cette situation, il enverra un message
d’alerte unique si le coût de manquer un intrus est plus de 19 fois plus élevé que celui d’une fausse alerte.

2. Quel est le seuil sur la probabilité a posteriori de H2 à partir duquel le système envoie une alerte ?
P{data} (H1 )
Le système envoie une alerte si < 10. Si on note p = P(H2 | données détectées), cela
P{data} (H2 )
1−p 1
correspond à < 10 ce qui équivaut à p > ≃ 0.091.
p 11
Donc si la probabilité a posteriori qu’il y ait un intrus dépasse 0.091 alors le système enverra un message
d’alerte.

Exercice 27.
1. Exécuter dans R le code contenu dans le script 04-Bayes_factor.R.
2. Que représente le graphique produit ?
graphique donnant en fonction de la force de la preuve fournie par le facteur de Bayes l’évolution de
votre croyance en une hypothèse.

3. Étudier et essayer de comprendre les commandes utilisées.

24

Vous aimerez peut-être aussi