Académique Documents
Professionnel Documents
Culture Documents
Fascicule d’exercices
Julie Scholler
Exercice 1.
Questions inspirées de Bayes Rules! de Alicia A. Johnson, Miles Ott, Mine Dogucu
1. Pensez à une situation récente au cours de laquelle vous avez changé d’avis.
Identifiez votre avis en amont, les données/informations qui vous ont fait changer d’avis, ainsi que votre
avis après coup.
2. Pensez à une situation récente au cours de laquelle vous avez fait changer d’avis quelqu’un.
Identifiez son avis en amont de la discussion, les données/informations qui vous lui avez fourni et qui
l’ont fait changer d’avis, ainsi que son avis après coup.
3. Pensez à une situation récente au cours de laquelle vous n’avez pas changé d’avis malgré des informations
contraires à votre avis.
Identifiez votre avis en amont, les données/informations qui vous ont fait changer d’avis, ainsi que votre
avis après coup.
4. Dans chaque situation, estimez la force des avis et des données.
Exercice 2.
Regardez des vidéos de la playlist sur la statistique fréquentiste via la chaine YouTube JScholler UnivTours.
Exercice 3.
Regardez des vidéos de la playlist sur la statistique bayésienne via la chaine YouTube JScholler UnivTours, en
priorité l’épisode 26 d’Hygiène Mentale et pour les non-réfractaires à l’anglais la vidéo de 3Blue1Brown.
Exercice 4.
Une amie possède trois types de disques à flèche : plus précisément 2 de type A, 2 de type B et un de type C.
(a) Donner le tableau de mise à jour bayésienne (loi a priori, vraisemblance, numérateur de Bayes et loi
a posteriori).
Et en déduire le type de disque le plus probable.
1
Hyp. A priori Vraisemblance N. de Bayes A posteriori
2 1 2 1 3
A =
5 4 20 10 10
2 1 2 4
B
5 3 15 10
1 1 2 1 3
C =
5 2 20 10 10
1
Total 1 / 1
3
(b) Toujours si vous avez obtenu 2, quel est la probabilité d’obtenir à nouveau 2 lors d’un second lancer ?
1 3 1 4 1 3 43
P{X=2} (X2 = 2) = × + × + × = ≃ 0.36
4 10 3 10 2 10 120
2. Elle choisit une nouvelle fois au hasard un disque et fait tourner la flèche 100 fois.
(a) Si elle a obtenu 100 fois le résultat 2, à votre avis, sans calcul, quel disque a-t-elle choisi ?
(b) Si elle a obtenu 99 fois le résultat 2 et une fois 3, à votre avis, sans calcul, quel disque a-t-elle choisi ?
Exercice 5.
Une personne choisit un dé au hasard de façon uniforme entre un dé à 4 faces, un dé à 6 faces et un dé à 8
faces. Puis elle lance ce dé n fois (n ∈ N∗ ) et elle vous dit qu’elle a obtenu n fois le résultat 5.
On note T la variable représentant le nombre de faces du dé choisi et Xi le résultat du ie lancer de dé, pour
tout entier i strictement positif.
1. Donner la loi a priori de T .
1
On a T (Ω) = {4, 6, 8} et, pour tout θ ∈ T (Ω), P(T = θ) = .
3
2. Cas où n = 1.
Donner la vraisemblance de la donnée observée. Déterminer la loi a posteriori du type de dé choisi par la
personne. Quelle est la probabilité d’obtenir à nouveau 5 si on relance ce dé ?
0
si θ = 4
1
P{T =θ} (X1 = 5) = si θ = 6
6
1
si θ = 8
8
On a évidemment P{X1 =5} (T = 4) = 0. Soit θ ∈ {6, 8}.
P{T =θ} (X1 = 5) × P(T = θ) 1
× 31 1
P{X1 =5} (T = θ) = P = θ
= θ
t∈T (Ω) P{T =t} (X1 = 5) × P(T = t) 0× + × 13 + +
1 1 1 1 1 1
3 6 8 × 3 6 8
On obtient, comme loi a posteriori :
4
• P{X1 =5} (T = 6) = ;
7
3
• P{X1 =5} (T = 8) = ;
7
• P{X1 =5} (T = 4) = 0.
On cherche P{X1 =5} (X2 = 5).
1 4 1 3 1 25
P{X1 =5} (X2 = 5) = P{X1 =5} (T = t) × P{T =t} (X2 = 5) = 0 × + × + × = ≃ 0.15
X
t∈T (Ω)
4 7 6 7 8 168
3. Cas général.
2
(a) Donner la vraisemblance des données : {X1 = 5, X2 = 5, . . . , Xn = 5}.
0 si θ = 4
P{T =θ} (X1 = 5, X2 = 5, . . . , Xn = 5) =
1 si θ ∈ {6, 8}
θn
(b) Déterminer la loi a posteriori du type de dé choisi par la personne.
On procède comme à la question
2.(b).
0 si θ = 4
1
si θ = 6
n
P{X1 =5,X2 =5,...,Xn =5} (T = θ) = 1+ 6
8
1
si θ = 8
n
1 + 8
6
(c) Quelle est la limite, quand n tend vers +∞, pour chacune des probabilités de la question précédente ?
On a donc
0
si θ = 4
lim P{X1 =5,X2 =5,...,Xn =5} (T = θ) = 1 si θ = 6
n→+∞
0 si θ = 8
(e) Classer les résultats possibles pour le prochain lancer (le (n + 1)e ) du plus probable au moins
probable (les ex-æquo sont possibles). Aucun calcul n’est attendu mais vous devez expliquer votre
raisonnement proprement et de façon précise.
Résultats les plus probables : J1; 6K (car ils peuvent être obtenus par le dé 6 et par le dé 8).
Résultats les moins probables : {7, 8} (car ils ne peuvent être obtenu que par le dé 8).
Exercice 6.
Une association sportive vend des badges lors de ses manifestations. Arthur et Lidia se partagent la
responsabilité du stand selon les manifestations. Le nombre de badges vendus pendant une heure est modélisé
par une loi de Poisson et on suppose que le nombre de badges vendus chaque heure est indépendant du
nombre vendus les autres heures. Lidia vend en moyenne 15 badges par heure et Arthur seulement 10.
Lors de la dernière rencontre sportive, Luc, le trésorier, n’était pas présent. Il sait que c’est Lidia qui devait
s’occuper du stand de badges mais il pense qu’elle arrive à se faire remplacer par Arthur une fois sur 10.
Il observe le carnet de compte et constate que sur les 5 heures, il y a eu 12, 10, 11, 4 et 11 badges vendus
chaque heure.
1. Quel est le paramètre θ à étudier dans cette situation ?
Le paramètre θ à étudier pour savoir qui a tenu le stand est le paramètre de la loi de Poisson du nombre
de badges vendus pendant une heure. Le paramètre de la loi de Poisson correspond à son espérance.
2. Quelle est la variable T à introduire pour étudier θ ? Quelles sont ses valeurs possibles ?
Préciser sa loi a priori.
On pose T la variable aléatoire valant 10 si Arthur tient le stand et 15 s’il s’agit de Lidia. On a
T (Ω) = {10, 15}.
Loi a priori : P(T = 15) = 0.9 et P(T = 10) = 0.1.
3
Vraisemblance : Xi |T = θ ∼ P(θ)
P 1
PT =θ (X1 = x1 , . . . , Xn = xn ) = e−nθ θ xi
xi !
Q
4. Calculer le ratio des deux probabilités a posteriori pour les différentes valeurs que peut prendre T .
On a PT =θ (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) ∝ e−5θ θ48 .
Au passage on a PT =15 (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) = 1.14 × 10−8 et
PT =θ (X1 = 12, X2 = 10, X3 = 11, X4 = 4, X5 = 11) = 2.9 × 10−6 .
Pour savoir s’il est probable que ce soit Arthur qui a tenu le stand, on calcule le ratio suivant :
P{X1 =12,X2 =10,X3 =11,X4 =4,X5 =11} (T = 10) 0.1 × e−50 1048 1 2
48
= = × e25 × ≃ 28
P{X1 =12,X2 =10,X3 =11,X4 =4,X5 =11} (T = 15) 0.9 × e−75 1548 9 3
Exercice 7.
Lors de la journée d’accueil des nouveaux étudiants à la faculté des Deux Lions, l’AeT tient un stand
d’informations. Elle profite de ce stand pour faire adhérer les nouveaux étudiants à l’association. On peut
considérer que le nombre d’adhésions réalisées pendant deux heures suit une loi de Poisson. Les chargées de
communication ont demandé au président de tenir le stand pendant deux heures l’après-midi.
Le président est un peu fainéant et pas le meilleur pour faire aboutir les adhésions. En moyenne, il fait
10 adhésions sur un créneau de 2h contre 20 pour le trésorier. Justement on pense que la fainéantise du
président fait qu’il y a une chance sur 10 qu’il se fasse remplacer par le trésorier.
Le soir vous constatez qu’il y a eu 16 nouvelles adhésions réalisées cet après-midi.
À votre avis, le président a-t-il réellement tenu le stand cet après-midi ou s’est-il fait remplacer par le
trésorier ?
1. Quel est le paramètre θ à étudier dans cette situation ?
Le paramètre θ à étudier pour savoir qui a tenu le stand est le paramètre de la loi de Poisson du
nombre d’adhésions réalisées lors d’un créneau de 2h. Le paramètre de la loi de Poisson correspond à son
espérance.
3. On note X la variable aléatoire représentant le nombre d’adhésions réalisées sur un créneau de 2h.
Donner la vraisemblance de X = 16 pour les différentes valeurs que peut prendre T .
θ16
PT =θ (X = 16) = e−θ
16!
1016 2016
D’où PT =10 (X = 16) = e−10 et PT =20 (X = 16) = e−20
16! 16!
4. Calculer le ratio des deux probabilités a posteriori pour les différentes valeurs que peut prendre T .
P[X=16] (T = 10) P(T = 10) × PT =10 (X = 16) 1
= = 9e10 16 ≃ 3
P[X=16] (T = 20) P(T = 20) × PT =20 (X = 16) 2
5. Quel message allez-vous envoyer au président : « Félicitations pour le nombre d’adhésions » ou « Arrête
d’exploiter le trésorier » ?
Je vais lui envoyer un message de félicitations car il y a 3 fois plus de chances que ce soit bien lui qui a
tenu la stand et non le trésorier.
4
6. (*) On note p la probabilité que le président se fasse remplacer par le trésorier. À partir de quelle valeur
de p, les données vous ferons conclure que ce n’est pas le président qui a tenu le stand ?
P(T = 10) = 1 − p et P(T = 20) = p
P[X=16] (T = 10) 1 − p e10
= × 16
P[X=16] (T = 20) p 2
P[X=16] (T = 10) 1 − p e10 216 1
< 1 ⇐⇒ × 16 < 1 ⇐⇒ 1 − p < 10 p ⇐⇒ p > −10 16 (≃ 0.252)
P[X=16] (T = 20) p 2 e e 2 +1
À partir du moment où on pense qu’il y a plus d’une chance sur 4 que le président se soit fait remplacer
par le trésorier on commencera à douter qu’il a bien réaliser ces 16 nouvelles adhésions.
3. R à notre service
Exercice 8 (A priori discret).
On revient à notre sac contenant des dés de type différents (4, 6, 8, 12 et 20 faces). Cette fois on en met un
de chaque type dans le sac et surtout on utilisera R et le code du document 01-combien_de_faces.R pour
faire les mises à jour bayésiennes et pour visualiser ce qui se passe.
1. On note k le résultat d’un lancer. Exprimer la vraisemblance de k (en fonction de la valeur de k) pour
chaque hypothèse.
2. Lancer les lignes de code 9 à 25. Comprendre le code et mettre un titre adapté au graphique.
3. Lancer les lignes 27 à 36. Admirer le travail de ggplot2.
4. Lancer les lignes 39 à 46.
Comprendre le code et décommenter et compléter la ligne 48 permettant le calcul de la loi a posteriori.
5. Représenter graphique la loi a posteriori obtenu en lançant les lignes 50 à 53.
6. Vous pouvez réitérer l’expérience en relançant les lignes 42 à 53.
7. Maintenant nous allons effectuer 20 lancers du dé choisi. Lancer et comprendre les lignes de code 58 à 90.
8. Créer une fonction prenant en paramètre : les types de dés possibles, la loi a priori, le nombre de lancers
effectués ; et renvoyant le graphique de l’évolution de la loi du dé choisi et la loi a posteriori finale.
5
Thème 2
3. Quelle variable aléatoire permet de représenter les données de l’expérience (lecture des 5 pages) ? Donner
sa loi sachant T = θ.
On note X la variable aléatoire comptant le nombre de pages contant au moins une faute dans un lot de
5 choisi au hasard, et 0 sinon. Ainsi X|T = θ ∼ Bin(5; θ).
4. Déterminer la loi a posteriori de T . Si vous le souhaitez, vous pouvez utiliser un tableau de mises à jour
bayésienne (loi a priori, vraisemblance, numérateur de Bayes et loi a posteriori).
6
5. Selon vous (et mon a priori) qui a réalisé le devoir et pourquoi ?
La valeur de θ la plus probable, a posteriori, est 0.1. Donc on considère qu’il est plus probable que ce
soit Rex.
6. Ah zut ! J’avais oublié de lire la dernière page de conclusion. Quelle est la probabilité qu’il y ait encore
aucune erreur sur cette dernière page ?
On note Y la variable aléatoire valant 1 s’il y a au moins une faute sur une page choisi au hasard, et 0
sinon. Ainsi on a Y |T =
Xθ ∼ Ber(θ). Et on cherche a savoir
P{X=0} (Y = 0) = P{X=0} (T = θ) × P{T =θ} (Y = 0)
θ∈{0.1;0.5;0.6}
= P{X=0} (T = θ) × (1 − θ) ≃ 0.72
X
θ∈{0.1;0.5;0.6}
3. Si vous avez obtenu face, quelle est la probabilité d’obtenir encore face au lancer suivant ?
On souhaite calculer P[X1 =1] (X2 = 1). On utilise la formule des probabilité totale version continue :
3
Z 1 Z 1
P[X1 =1] (X2 = 1) = fT |X=1 (θ)P[T =θ] (X2 = 1)dθ = 3θ3 dθ =
0 0 4
4. Vous décidez finalement de lancer n fois la pièce pour avoir une idée plus précise de θ.
7
(a) Exprimer la loi a posteriori de θ en fonction du nombre x de faces obtenues.
On note S le nombre de lancers ayant donnés face sur les n lancers.!
n x
Vraisemblance : S|T = θ ∼ Bin(n; θ) c’est-à-dire P[T =θ] (S = x) = θ (1 − θ)n−x quand x ∈ J0; nK
x
Loi a posteriori : fT |S=x (θ) ∝ θx (1 − θ)n−x θ1]0;1[ (θ) c’est-à-dire fT |S=x (θ) ∝ θx+1 (1 − θ)n−x 1]0;1[ (θ).
On a donc T |S = x ∼ Beta(x + 2; n − x + 1).
En fait le loi a priori est une loi Beta(2; 1).
1
Z 1 Z 1
P[S=6] (X11 = 1) = fT |S=6 (θ)P[T =θ] (X11 = 1)dθ = θ8−1 (1 − θ)5−1 θdθ
0 0 B(8; 5)
1 B(9; 5) Γ(8 + 5) Γ(9)Γ(5) Γ(9) Γ(13)
Z 1
= θ9−1 (1 − θ)5−1 dθ = = × = ×
B(8; 5) 0 B(8; 5) Γ(8)Γ(5) Γ(9 + 5) Γ(8) Γ(14)
8! 12! 8
= × = ≃ 0.62
7! 13! 13
Au vu de ces informations, la probabilité d’obtenir face lors d’un onzième lancer est de 8 chances sur
13.
3. Avec la loi a priori proposée précédemment, exprimer la loi a posteriori de T sachant que X = x.
T |X = x ∼ Beta(2 + x ; 12 − x)
8
5. Quelle est la probabilité que plus de la majorité des étudiants préfèrent LATEX à Word ? Utilisez R pour
l’obtention des probabilités.
P[X=6] (T > 0.5) = 1-pbeta(0.5,8,6) ≃ 0.71
6. Fournir un intervalle de crédibilité à 90% pour θ (utiliser R pour obtenir les quantiles nécessaires). Idem
à 50%.
T |X = 6 ∼ Beta(8 ; 6)
Intervalle de crédibilité à 90% : [ qbeta(0.05,8,6) ; qbeta(0.95,8,6)] ≃ [0.355 ; 0.776]
Intervalle de crédibilité à 50% : [ qbeta(0.25,8,6) ; qbeta(0.75,8,6)] ≃ [0.483 ; 0.663]
7. Proposer une autre loi a priori correspondant à votre croyance à ce propos en justifiant les paramètres.
Est-ce que la conclusion change beaucoup ?
1. Proposer une loi a priori pour la proportion de personnes prévoyant de voter pour le candidat sortant
correspondant à l’information fournie par notre entourage.
Justifier tous les aspects de votre choix.
On cherche à estimer un paramètre représentant une proportion donc compris entre 0 et 1. La loi a priori
doit donc avoir pour support les réels entre 0 et 1.
La vraisemblance est une loi binomiale. Il est donc pratique de choisir comme loi a priori une loi Beta
car celle-ci est conjuguée avec la loi binomiale, c’est-à-dire que la loi a posteriori sera à nouveau une loi
Beta et ses paramètres s’obtiennent aisément.
De plus la famille de lois Beta est flexible, c’est-à-dire beaucoup de situations (mais pas toute) peuvent
se modélisé avec une loi Beta.
On prend donc comme une loi a priori de la forme T ∼ Beta(α; β). Il reste à choisir α et β en accord
avec l’information sur notre entourage.
α
La taille effective de l’échantillon a priori est α + β = 10 et l’espérance vaut = 0.1. On obtient
α+β
α = 1 et β = 9.
Une loi a priori correspondant aux informations sur notre entourage est la loi Beta(1; 9).
2. Comme l’échantillon initial de 10 individus n’est pas aléatoire, on souhaite diminuer de moitié son poids
dans la construction de notre loi a priori. Proposer en justifiant une loi a priori adaptée.
Diminuer le poids correspond à diminuer la taille effective de l’échantillon a priori. On souhaite donc
α
avoir α + β = 5. On garde notre a priori sur l’espérance : = 0.1. On obtient α = 0.5 et β = 4.5.
α+β
La nouvelle loi a priori est la loi Beta(0.5; 4.5).
3. Notre enquête a trouvé 38 personnes sur 100 comptant voter pour le candidat sortant. En utilisant
la loi a priori de la question précédente, donner la loi a posteriori et une estimation de la proportion
d’individus souhaitant voter pour le candidat sortant.
On a observé x = 38. La loi a posteriori est T |X = 38 ∼ Beta (38.5; 66.5).
38.5 38.5 11
On obtient comme estimation de θ : E(T |X = 38) = = = ≃ 0.367
38.5 + 66.5 105 30
On estime ainsi la proportion d’individus souhaitant voter pour le candidat sortant à environ 37%.
9
4. Finalement si on ne souhaite pas utiliser les informations fournies par notre entourage, proposer en
justifiant (succinctement) d’autres lois a priori.
En absence d’information, on peut utiliser les lois a priori non ou peu informatives suivantes :
• Beta(0, 0) : loi impropre mais correspondant à une taille effective de l’échantillon a priori de 0 ;
• Beta(0.5; 0.5) : loi Beta équilibrée de taille effective de l’échantillon a priori de 1, il s’agit de la loi
préconisée par Jeffreys ;
• Beta(1, 1) : loi uniforme sur [0; 1] ;
• Beta(α; β) avec α = β pour qu’elle soit équilibrée et α + β très petite pour que l’information apportée
par cette loi a priori ait peu de poids.
3. R à notre service
Exercice 13 (Mise à jour de la loi).
1. Charger dans R la fonction maj_beta contenu dans le fichier 02-update_beta.R.
2. L’utiliser avec différents paramètres pour expérimenter l’évolution d’une loi a posteriori selon les données.
3. Tenter de la modifier pour pouvoir démarrer avec une loi a priori Beta quelconque.
10
Thème 3
2. Cinq personnes vous rapportent les temps d’attente suivants : 0.23, 0.80, 0.12, 0.35, 0.50.
Mettez à jour votre a priori sur θ.
On a :
• Loi a priori : T ∼ Γ(4; 1) ;
• Vraisemblance : X|T = θ ∼ Exp(θ).
La vraisemblance exponentielle et la loi a priori Gamma sont conjuguées, ainsi la loi de T a posteriori
est une loi Gamma avec la mise à jour des paramètres suivantes :
3. Rendez compte de vos résultats en synthétisant la loi a posteriori : espérance, intervalle de crédibilité a
posteriori avec R, etc.
9
On a comme espérance de T a posteriori E(T |X = x) = = 3.
3
1
Intervalles de crédibilité de T et a posteriori (les quantilles sont obtenus avec R) :
T
• ICr95% (T |X = x) ≃ [1.37 ; 5.25] ;
• ICr75% (T |X = x) ≃ [1.91 ; 4.17] ;
1
• ICr95% X = x ≃ [0.190 ; 0.729] ≃ [11.4 min ; 43.7 min] ;
T
1
• ICr75% X = x ≃ [0.240 ; 0.525] = [14.4 min ; 31.5 min].
T
11
4. Au vu de toutes ces informations, si vous allez à ce restaurant, quelle est la probabilité d’attendre plus
d’une heure ?
Quelle est l’espérance du temps d’attente ?
On cherche la probabilité P(X6 > 1|X = x). On va utiliser la version continue de la formule des
probabilités totales pour décomposer selon les valeurs possibles de θ.
Z +∞
P(X6 > 1|X = x) = P{T =θ} (X6 > 1) × fT |X=x (θ)dθ
0
X6 |T = θ ∼ Exp(θ) donc P{T =θ} (X6 > 1) = e−θ×1 = e−θ
Ainsi on a
39 39 +∞ 49 3
Z +∞ Z 9
−θ 9−1 −3θ 9−1 −4θ
P(X6 > 1|X = x) = e θ e dθ = 9 θ e dθ = ≃ 0.075
0 (9 − 1)! 4 0 (9 − 1)! 4
La dernière intégrale correspond à l’intégrale de la densité d’une loi Γ(9, 4) et vaut donc 1.
Au final, suite à nos connaissances (a priori et observations), si l’on va à ce restaurant, on a environ
7.5% de chance d’attendre plus d’une heure.
On peut également récupérer la loi précise de X6 via sa densité et ainsi calculer son espérance.
Soit x > 0.
39
Z +∞ Z +∞
fX6 |X=x (x) = fX6 |T =θ (x) × fT |X=x (θ)dθ = θe−θx θ9−1 e−3θ dθ
−∞ 0 (9 − 1)!
39 × (10 − 1)! (3 + x)10 10−1 −(3+x)θ 39 × 9 311
Z +∞
= θ e dθ = × 1 =
(9 − 1)! × (3 + x)10 0 (10 − 1)! (3 + x)10 (3 + x)10
311
On a donc fX6 |X=x (x) = 1R∗ (x).
(3 + x)10 +
Pour calculer l’espérance, Il faut procéder par intégration par partie (non rédigée ici). E(X6 |X = x) =
311 3
Z +∞
x dx = ≃ 22.5 min
0 (3 + x) 10 8
i=1
12
(b) Donner l’estimateur de θ obtenu via l’espérance conditionnelle.
Une estimation est fournie par l’espérance de la loi a posteriori :
α + ni=1 xi α + nx
P
E(T |X1 = x1 , . . . , Xn = xn ) = = .
β+n β+n
α + nX
On en déduit l’estimateur suivant : θb = .
β+n
(c) Déduire de l’expression de l’estimateur la taille effective de l’échantillon a priori (prior effective
sample size).
α + ni=1 xi α + nx
P
β α n
E(T |X1 = x1 , . . . , Xn = xn ) = = = × + ×x
β+n β+n β+n β β+n
Dans ce contexte, la taille effective de l’échantillon a priori correspond au paramètre β.
4. Au vu de votre travail (théorique) à la question précédente, proposer en justifiant une loi a priori
informative synthétisant votre croyance d’avoir observé une moyenne d’environ 10 pépites par cookie sur
20 cookies.
Notre croyance :
• taille effective de l’échantillon a priori : β = 20 ;
α
• valeur moyenne : E(T ) = = 10.
β
On obtient α = 200 et β = 20, d’où la loi a priori T ∼ Γ(200; 20).
5. Effectuer à nouveau une estimation de θ dans le cadre de la question 1 avec la loi a priori construite à la
question précédente.
208
E(T |X = 8) = ≃ 9.905
21
6. Vous vous intéressez à de nouveaux cookies. Vous n’avez aucun a priori.
Essayer de proposer une ou plusieurs lois a priori peu informatives.
Pour prendre la loi peu informative, on peut penser à une loi de type uniforme sur R+ (qui est donc
impropre) : fT (θ) ∝ 1R+ (θ). Une autre idée est de conservée une loi Gamma et de diminuer la taille
effective de l’échantillon a priori. On peut prendre β très petit et choisir α pour conserver notre a priori
sur l’espérance.
1
Le cas limite nous donne une loi Γ(0; 0) qui est impropre et correspond à fT (θ) ∝ 1R+ (θ). Avec cet a
θ
nX
priori, on obtient comme estimateur a posteriori E(T |X) = = X qui correspond à l’estimateur par
n
la méthode du maximum de vraisemblance du paramètre d’une loi de Poisson.
2. Montrer que la famille de lois Gamma est conjuguée avec une vraisemblance suivant une loi Gamma de
second paramètre inconnu.
Soient T ∼ Γ(α, β) et X|T = θ ∼ Γ(a, θ).
On a pour tout réel x strictement positif :
fT |X=x (θ) ∝ fT (θ) × fX|T =θ (x)
13
β α α−1 −βθ θa a−1 −θx
∝ θ e 1R+ (θ) × x e 1R+ (x)
Γ(α) Γ(a)
∝ θα−1 e−βθ 1R+ (θ) × θa e−θx
∝ θα+a−1 e−(β+x)θ 1R+ (θ)
Donc T |X = x ∼ Γ(α + a; β + x).
3. Il s’agit d’ampoules halogènes ayant un durée de vie d’environ 2000 à 3000 heures (la moitié du temps)
et vous les laissez allumées en moyenne 8 heures par jour.
À l’aide de R et du script 03-find_gamma.R, proposer une loi a priori pour T .
On va choisir une loi Gamma car elle est conjuguée à elle même.
On laisse notre lampe allumée 2920h par an. Donc la moitié du temps une ampoule dure entre 0.685 et
1.027 année.
1
Ce n’est pas exactement cela mais on peut traduire cette information par P ∈ [0.685; 1.027] = 0.50
T
soit P (T ∈ [0.973; 1.46]) = 0.50
Via R on obtient que la loi Γ(11, 9) correspond.
T |X = 5 ∼ Γ(14, 14).
1414
Z +∞
PX=5 (Y ⩽ 1) = 1 − PX=5 (Y > 1) = 1 − θ14−1 e−14θ e−θ×1 dθ
0 Γ(14)
14 1514 14
14 Z +∞ 14
=1− θ14−1 e−15θ dθ = 1 − ≃ 0.62
15 0 Γ(14) 15
2. En moyenne, le détaillant reçoit 0.01 appels par client par jour. Pour fixer son a priori, il décide de
choisir un écart type de 0.5.
Donner la loi a priori correspondant à cela et montrer les conséquence de son choix d’écart type.
14
α α 1
On souhaite E(T ) = 0.01 et σT = 0.5. On a donc = 0.01 et 2 = . Au final on a comme loi a priori
β β 4
1 1
T ∼Γ ; .
2500 25
3. Dans ce groupe d’intérêt, il y a 24 clients. Sur 5 jours, il a 6 appels de clients de ce groupe.
Exprimer la loi a posteriori.
1 1
On a n = 24, t = 5 et x = 6. La loi a posteriori est donc T |X = 6 ∼ Γ + 6; + 120 ce qui
2500 25
donne T |X = 6 ∼ Γ (6.0004; 120.04)
2. Vraisemblance normale
Exercice 18.
On dispose d’un câble de longueur θ. On dispose d’un mètre disposant d’une erreur de mesure distribuée
selon une loi normale d’espérance 0 et d’écart type 0.01. Un résultat d’une mesure du câble suit donc une loi
normale d’espérance θ et d’écart type 0.01.
1. On suppose que la loi a priori de la longueur du câble est une loi normale d’espérance 9 et d’écart type 1.
On mesure le câble avec le mètre et on obtient 10. Donner la loi a posteriori de θ.
On note X la variable aléatoire représentant la mesure du câble obtenue et T la variable aléatoire
représentant la longueur du câble.
Vraisemblance : X|T = θ ∼ N (θ; 0.01)
Loi a priori : T ∼ N (9; 1)
100009 1 1
Loi a posteriori : T |X = 10 ∼ N ;√ , c’est-à-dire T |X = 10 ∼ N 9.9999 ;
10001 10001 100.005
2. Donner un intervalle de crédibilité à 95% pour θ.
1
9.9999 ± 1.96 × ≃ [9.980301 ; 10.0195]
100.005
3. Quelle est la probabilité qu’il soit de longueur inférieure à 9.99 ?
P[X=10] (T < 9.9) = F (−9.99) ≃ 0(≃ 8 × 10−24 )
P[X=10] (T < 9.99) = F (−0.99) ≃ 0.16
On a environ 16% de chance que la câble fasse moins de 9.99 mètres si on le mesure à 10 mètres.
4. Toujours avec la même loi a priori, calculer le nombre de mesures nécessaires pour que l’écart type de la
loi a posteriori soit inférieur à 0.001.
1 1 1
σp = √ = √ =√
τp τ0 + nτ 1 + 10 000n
15
1 1 0002 − 1
σp < 0.001 ⇔ √ < 0.001 ⇔ n > = 99.9999
10 000n + 1 10 000
Il faut donc au moins 100 observations pour que la variance a posteriori soit inférieure à 0.001.
Exercice 19.
Dans une usine de sachet de thé, chaque sachet de thé est supposé contenir 5.5g de thé et le processus de
remplissage a un écart type de 0.106g par sachet (on suppose que la loi est normale). On se demande s’il y a
eu une modification de la quantité moyenne de thé par sachet.
1. Déterminer une loi a priori correspondant au processus de remplissage spécifié et faisant comme si cette
information provient d’une connaissance sur 100 observations.
On note X la variable aléatoire qui représente la quantité de thé dans un sachet et T la variable aléatoire
correspondant au poids moyen de thé dans un sachet.
Vraisemblance : X|T = θ ∼ N (θ; 0.106)
σ2
Prior effective sample size : 100 = 2
σ0
σ
Il faut donc choisir σ0 = = 0.0106
10
Ainsi on prend comme loi a priori T ∼ N (5.5 ; 0.0106).
(b) Quelle est la probabilité a posteriori que le processus ne se soit pas décalé de plus de 0.001 g ?
On cherche PX=5.494 (|T − 5.5| > 0.001) ou PX=5.494 (T < 5.499).
On a PX=5.494 (T < 5.499) ≃ 0.532 et
PX=5.494 (|T − 5.5| > 0.001) = PX=5.494 (T < 5.499) + PX=5.494 (T > 5.501) ≃ 0.913
Exercice 20.
Une usine d’embouteillage de lait envisage de changer de doseuses. Le fournisseur lui assure que son nouveau
modèle est bien plus précis que celui utilisé actuellement dans l’usine.
On suppose que la contenance d’une bouteille de lait est une variable aléatoire X qui suit une loi normale
d’espérance 1.01 (le calibrage moyen n’est pas un problème, il est facilement réglable et sûr) et d’écart type
σ inconnu dû à la doseuse utilisée.
Actuellement le modèle utilisé à l’usine a un écart type de 0.02 et le fournisseur annonce un écart type de
0.01 pour son nouveau modèle.
On a pu tester le nouveau modèle sur 25 bouteilles. Sur cet échantillon de taille n = 25, les contenances
x1 , . . . , xn fournissent les données suivantes :
25 25
xi = 25.153 et x2i = 25.31156.
X X
i=1 i=1
1
On note T la variable qui synthétise les croyances sur la valeur de la précision, τ = , de la nouvelle doseuse.
σ2
1. On vous propose d’utiliser comme loi a priori la loi Γ(8; 0.001). Qu’est-ce que cela signifie sur les croyances
a priori ? (Vous pouvez utiliser R.)
1
E(T ) = 8000 d’où p = 0.0112
E(T )
1
On obtient comme intervalles de fluctuation pour T et par conséquent pour √ :
T
16
1
• IF0.95 (T ) = [3453.8 ; 14422.7] et IF0.95 √ = [0.0083; 0.0170] ;
T
1
• IF0.75 (T ) = [11297.5 ; 4918.5] et IF0.75 √ = [0.0098; 0.0143].
T
2. Déterminer la loi a posteriori de T au vu des observations.
25 i=1 (xi − µ)
P25 !
2
T |X1 = x1 , . . . , X25 = x25 ∼ Γ 8 + ; 0.001 +
2 2
25 25 25
Or (xi − µ)2 = x2i − 2µ xi + 25µ2 = 0.005
X X X
3. Que pensez-vous des affirmations du fournisseur sur la précision du nouveau modèle de doseuse ? (Utilisez
des arguments de plusieurs natures.)
On peut donner une estimation ponctuelle (mais c’est un peu pauvre en informations) :
1
E (T |X1 = x1 , . . . , X25 = x25 ) ≃ 5857.143 et p ≃ 0.013
E (T |X1 = x1 , . . . , X25 = x25 )
On peut également s’intéresser à
1
• la probabilité PX1 =x1 ,...,X25 =x25 √ ⩽ 0.01 = PX1 =x1 ,...,X25 =x25 (T ⩾ 10000) ≃ 0.003 ;
T
1
• la probabilité PX1 =x1 ,...,X25 =x25 √ < 0.02 = PX1 =x1 ,...,X25 =x25 (T > 2500) ≃ 0.9995 ;
T
1
• la probabilité PX1 =x1 ,...,X25 =x25 √ ⩽ 0.015 ≃ PX1 =x1 ,...,X25 =x25 (T ⩾ 4444.44) ≃ 0.8685
T
1
• des intervalles de fluctuation pour √ sachant X1 = x1 , . . . , X25 = x25 :
T
1
– pour T à 90% : [3900; 8100] d’où pour √ : [0.0111; 0.0160] ;
T
1
– pour T à 95% : [3600; 8650] d’où pour √ : [0.0108; 0.0167].
T
17
• IConf 0.95 (θP ) = [95 ± 1.96 × 10] = [75.4 ; 114.6] ;
• IConf 0.95 (θS ) = [130 ± 1.96 × 10] = [110.4 ; 149.6].
• Commenter.
No comment.
3. Autres situations
Exercice 22 (*Loi exponentielle tronquée).
On cherche à estimer le paramètre θ d’une loi exponentielle tronquée.
Soit X une variable aléatoire de densité fX|T =θ (x) = eθ−x 1[θ;+∞[ (x).
On a observé 10 valeurs d’un phénomène suivant la même loi que X.
9.2 9.5 9.6 10.7 11.1 11.2 11.3 11.4 12.6 13.6
1. Cadre fréquentiste
(a) Déterminer un estimateur sans biais de θ à partir de la méthode des moments.
On peut Zcalculer l’espérance de X en procédant par intégration par partie.
+∞
E(X) = xeθ−x dx = θ + 1
θ
θb = X − 1 : estimateur sans biais de θ (car E(X) = θ + 1)
18
(b) En supposant (faites moi confiance ou vérifiez-le avec R) que l’on peut approcher la loi de moyenne
empirique par une loi normale, construire un intervalle de confiance à 95% pour θ à partir des
données observées.
On obtient l’intervalle de confiance observé suivant : [9.40; 10.64].
(c) Commenter.
Au vu des données et du support de la loi, on a forcément θ ⩽ 9.2.
2. Cadre bayésien.
(a) En utilisant comme a priori la pseudo loi uniforme sur R, déterminer la loi a posteriori pour une
observation de X valant x.
(b) Donner la loi a posteriori dans les cas particuliers où x = 0.2 et x = 0.4.
simple application numérique
19
(a) Exprimer la loi a posteriori selon les valeurs x1 , . . . , xn .
1
fT |X1 =x1 ,...,Xn =xn (θ) ∝
1 (θ)
θn [max(xi );1]
n−1 1
Plus précisément on a fT |X1 =x1 ,...,Xn =xn (θ) = 1−n × n 1[max(xi );1] (θ)
(max(xi )) −1 θ
(b) Exprimer la loi a posteriori dans les cas particuliers où les observations des retards dont : (0.1; 0.5),
(0.5; 0.5), (0.1, 0.2, 0.3, 0.4, 0.5).
Il s’agit d’applications numériques.
1
fT |(X1 ,X2 )=(0.1,0.5) (θ) = fT |(X1 ,X2 )=(0.5,0.5) (θ) = 2 1[0.5;1] (θ)
θ
4 1 4
fT |(X1 ,...,X5 )=(0.1,0.2,0.3,0.4,0.5) (θ) = × 5 1[0.5;1] (θ) = 1 (θ)
0.5 − 1 θ
4 15θ5 [0.5;1]
3. (*) On suppose que la fois où M. A. est arrivé le plus en retard, il avait 30 minutes de retard.
Trouver la probabilité que M. A. arrive avec plus de 30 min de retard la prochaine fois.
Le calcul demandé est compliqué et est hors programme.
Cela dépend du nombre n d’observations de retard.
n−1 1
fT | max(Xi )=0.5 (θ) = n−1 × n 1[0.5;1] (θ)
(2) −1 θ
20
Thème 4
Exercice 24.
On va étudier le biais prétendu des pièces d’un euro belge orné du portrait du roi Albert II. Pour cela on
se réfère à l’expérience relatée dans l’article du New Scientist du 4 janvier 2002(www.newscientist.com/
article/dn1748-euro-coin-accused-of-unfair-flipping/).
Suite à 250 expériences, ils ont obtenu 140 fois face. On note X la variable correspondant au nombre de face
après 250 essais et p la probabilité d’obtenir face lors d’un essai.
1. Calculer le facteur de Bayes des hypothèses : H1 : « la pièce est équilibrée » et H2 : « face sort dans
60% des cas ». Commenter.
On a n = 250 et x = 140.
250 1 250
! !
Cela donne P(X = 140|H1 ) = et P(X = 140|H2 ) = 0.6140 0.4110 . Le facteur de Bayes
140 2250 140
de H1 face à H2 est
P(X = 140|H1 ) 1
BF (H1 ; H2 ) = = 250 140 110 ≃ 0.376
P(X = 140|H2 ) 2 0.6 0.4
Donc H2 est plus vraisemblable que H1 mais pas nécessairement plus probable. Cela dépend de notre a
priori.
On pose p la probabilité a priori de H1 , c’est-à-dire que la pièce soit équilibrée.
P{X=140} (H1 ) p
On conclura en faveur de H1 si >1⇔ × BF (H1 ; H2 ) > 1.
P{X=140} (H2 ) 1−p
1
Au final, H1 sera a posteriori plus probable dès que l’on juge que p > ≃ 0.727.
BF (H1 ; H2 ) + 1
2. En utilisant la loi uniforme comme loi a priori de T sous l’hypothèse H2 , calculer le facteur de Bayes des
1 1
hypothèses : H1 : p = et H2 : p ̸= . Commenter.
2 2
A priori sous H2 , T |H2 ∼ U([0; 1]) et la vraisemblance est X|T = θ ∼ Bin(250; θ).
On obtient
250 140
Z 1 !
PH2 (X = 140) = fT |H2 (θ) × θ (1 − θ)110 dθ
0 140
250 140! × 110! 1 (141 + 111 − 1)! 1
! Z
= × θ140 (1 − θ)110 dθ =
140 251! 0 (141 − 1)! × (111 − 1)! 251
250
× 251
Cela fournit comme facteur de Bayes BF (H1 ; H2 ) = 140 250 ≃ 2.098.
2
On pose p la probabilité a priori de H1 , c’est-à-dire que la pièce soit équilibrée.
1
Comme précédemment, on conclura en faveur de H1 si on juge que p > ≃ 0.323.
BF (H1 ; H2 ) + 1
1 1 1
H1 : p = , H2 : p > , H3 : p < .
2 2 2
Il faut décider des lois a priori de T sous H2 et sous H3 . On peut choisir des lois uniformes sur ]0.5; 1] et
sur [0; 0.5[.
Lois a priori : fT |H2 (θ) = 2 × 1]0.5;1] (θ) et fT |H3 (θ) = 2 × 1[0;0.5[ (θ).
21
Cette fois, pour obtenir les vraisemblances, le calcul des intégrales est assez laborieux (140 intégrations
par parties ou changement de variables) mais on peut utiliser R et la commande integrate pour en
obtenir une valeur approchée.
! On a besoin des intégrale suivantes :
Z 1
250 140 250 140
Z 1 !
2
PH2 (X = 140) = θ (1 − θ) dθ et PH3 (X = 140) =
110
θ (1 − θ)110 dθ
1
2
140 0 140
Avec R, on peut les obtenir (ainsi que la marge d’erreur car il s’agit de calculs approchés) avec le code
suivant :
vH1<-choose(250,140)/2^(250)
> vH1/vH2
[1] 2.160373
> vH1/vH3
[1] 72.25316
> vH2/vH3
[1] 33.44477
Donc on décidera en faveur de H1 dès que notre a priori correspond à une probabilité supérieure à 19%
que la pièce soit équilibrée.
Exercice 25.
On suppose qu’une valeur, X, est transmise par un moyen de communication. Le récepteur reçoit le message
bruité Y = X + W avec W ∼ N (0, σ) indépendant de X. Le message X vaut 1 avec probabilité p ∈]0; 1[ et
22
−1 avec probabilité 1 − p.
L’objectif est de décider une fois un message reçu si ce message vaut 1 ou −1.
1. Poser les deux hypothèses H1 et H2 entre lesquelles il faut choisir.
On a
• H1 : X = 1 ;
• H2 : X = −1.
4. Expliciter la règle de décision entre les deux hypothèses en fonction de la valeur reçue y, ainsi que les
paramètres p et σ.
On va décider en faveur de l’hypothèse H1 si sa probabilité a posteriori est supérieure à la probabilité a
posteriori de H2 . On va donc comparer le ratio de probabilités a posteriori à 1.
P{Y =y} (H1 ) P(H1 ) 2y p
= BF (H1 ; H2 ) × = e σ2
P{Y =y} (H2 ) P(H2 ) 1−p
P{Y =y} (H1 ) p 1−p σ2 1−p
2y 2y
Donc ⩾ 1 ⇔ eσ 2 ⩾ 1 ⇔ eσ ⩾ 2 ⇔y⩾ ln
P{Y =y} (H2 ) 1−p p 2 p
σ2 1−p
Ainsi si le message reçu y est supérieur à ln , l’hypothèse H1 est plus probable a posteriori
2 p
que l’hypothèse H2 .
Dans le cas où les deux hypothèses sont a priori équiprobables, le seuil est 0. Ainsi si le message reçu est
positif, on décidera que le message initial X vaut 1. Si le message reçu est négatif, on décidera que le
message initial X vaut −1.
Exercice 26.
Un système de surveillance est en charge de détecter les intrusions dans un lieu. Il doit choisir entre deux
hypothèses
H1 : Aucun intrus n’est présent et H2 : Des intrus sont présents.
Le système enverra un message d’alerte s’il décide que c’est l’hypothèse H2 qui est vraie. On suppose que le
coût de manquer un intrus est 10 fois plus élevé que celui d’une fausse alerte.
1. Le système analyse ses données et obtient P(H2 | données détectées) = 0.05. Le système doit-il envoyer
un message d’alerte ?
Décisions : d1 : « décider que H1 est vraie » et d2 : « décider que H2 est vraie ».
Définition de la fonction de coût : L(Hi , dj ) signifie le coût de prendre la décisions dj quand c’est
l’hypothèse Hi qui est vraie.
0
si i = j
L(Hi , dj ) =
Kj
si i ̸= j
K1 (L(H2 , d1 )) est donc le coût de la mauvaise décision : « on décide qu’il n’y a aucun intrus alors qu’il
y en a » ; et K2 (L(H1 , d2 )) est le coût de la mauvaise décision : « on décide qu’il y a des intrus alors
qu’en fait il n’y en a pas ».
P{data} (H1 ) K1
Quand il y a des coût différents selon les mauvaises décisions, on choisit d1 si ⩾ .
P{data} (H2 ) K2
23
P{data} (H1 )
Ici on a K1 = 10K2 . On décidera donc qu’il n’y a aucun intrus si ⩾ 10.
P{data} (H2 )
P{data} (H1 ) 0.95
Les conclusions du système sont P{data} (H2 ) = 0.05 donc = = 19 > 10.
P{data} (H2 ) 0.05
Comme ici la probabilité a posteriori qu’il n’y ait pas d’intrus est 19 fois plus grande que celle qu’il y ait
un intrus, le système ne va pas envoyer de message d’alerte. Dans cette situation, il enverra un message
d’alerte unique si le coût de manquer un intrus est plus de 19 fois plus élevé que celui d’une fausse alerte.
2. Quel est le seuil sur la probabilité a posteriori de H2 à partir duquel le système envoie une alerte ?
P{data} (H1 )
Le système envoie une alerte si < 10. Si on note p = P(H2 | données détectées), cela
P{data} (H2 )
1−p 1
correspond à < 10 ce qui équivaut à p > ≃ 0.091.
p 11
Donc si la probabilité a posteriori qu’il y ait un intrus dépasse 0.091 alors le système enverra un message
d’alerte.
Exercice 27.
1. Exécuter dans R le code contenu dans le script 04-Bayes_factor.R.
2. Que représente le graphique produit ?
graphique donnant en fonction de la force de la preuve fournie par le facteur de Bayes l’évolution de
votre croyance en une hypothèse.
24