Vous êtes sur la page 1sur 47

Inférence Statistique

Ouazza Ahmed

Institut National de Statistique et d’Economie Appliquée (INSEA)

2022-2023

1 / 47
Plan

1 Ch I : Introduction à l’inférence statistique

2 Ch II : Estimation ponctuelle

3 Ch III: Estimation par intervalle de confiance

4 Ch IV: Tests Statistiques

2 / 47
Chapitre IV:

Tests Statistiques

3 / 47
Tests Statistiques

I: Tests paramétriques

II: Tests non paramétriques

4 / 47
Tests Statistiques

I: Tests paramétriques

Les tests statistiques constituent une approche décisionnelle de la statistique


inférentielle. Un tel test a pour objet de décider sur la base d’un échantillon si
une caractéristique d’une loi répond ou non à une certaine spécification que
l’on appelle hypothèse, par exemple : la moyenne µ de la loi est supérieure à
12.
Dans l’approche paramétrique, un test statistique consiste à décider d’accepter
ou de rejeter une hypothèse spécifiant que θ appartient à un ensemble de
valeurs Θ0 . Cette hypothèse de référence est appelée hypothèse nulle, notée
H0 . Au contraire on définit l’hypothèse alternative, notée H1 , pour laquelle
θ appartient à Θ1 = Θc0 où Θc0 dénote le complémentaire de Θ0 par rapport à
Θ (Θ = Θ0 ∪ Θ1 ).

5 / 47
Tests Statistiques

C-à-d on dispose le problème du test suivant:



H0 : θ ∈ Θ0
H1 : θ ∈ Θ1

6 / 47
Tests Statistiques

Suivant la nature de Θ0 et de Θ1 on distingue trois cas :


• hypothèse nulle simple et alternative simple où Θ = {θ0 , θ1 }:

H0 : θ = θ0
H1 : θ = θ1

• hypothèse nulle simple et alternative multiple :



H0 : θ = θ0
H1 : θ 6= θ0

• hypothèse nulle multiple et alternative multiple :



H0 : θ ∈ Θ0
H1 : θ ∈ Θ1

7 / 47
Tests Statistiques

Dans le deuxième cas, l’hypothèse alternative peut prendre différentes formes:


• H1 : θ 6= θ0 (test bilatéral).
• H1 : θ < θ0 (test unilatéral à gauche).
• H1 : θ > θ0 (test unilatéral à droite).

8 / 47
Tests Statistiques

Les étapes d’un test statistique:

• Formuler l’hypothèse nulle et l’hypothèse alternative.


• Choisir le seuil de signification du test.
• Déterminer la statistique du test.
• Définir la région critique.
• Prendre la décision.

9 / 47
Tests Statistiques

Soit {Xn , B(Xn ), P⊗n


θ , θ ∈ Θ} un modèle d’échantillonnage paramétrique
dominé.
Définition 0.1
• Un test statistique est donné par une fonction ϕ : Xn → {0, 1} on retiendra
H0 si ϕ(X1 , · · · , Xn ) = 0, on rejette H0 si ϕ(X1 , · · · , Xn ) = 1.
• On appelle région critique (ou zone de rejet) l’ensemble
W = {ϕ(X1 , · · · , Xn ) = 1}.
Évidemment, étant donnée une zone de rejet W , on définit un test statistique
en posant ϕ(x) = 1W (x):
C-à-d on rejette H0 si x ∈ W , et on accepte H0 si x ∈
/W

10 / 47
Un test statistique est basé sur un modèle probabiliste et comporte un certain
risque.
Définition 0.2
• On appelle risque de première espèce, notée α, la probabilité de rejeter
l’hypothèse H0 alors qu’elle est vraie, c-à-d α = P (W/H0 ).
α : Θ0 → [0, 1]
θ0 → α(θ0 ) = Eθ0 (ϕ(X)) = Pθ0 (ϕ(X) = 1)
• La probabilité de retenir l’hypothèse H0 alors qu’elle est fausse s’appelle
risque de deuxième espèce, notée 1 − β, c-à-d 1 − β = P (W c /H1 ).

1 − β = Eθ (1 − ϕ(X)) = Pθ (ϕ(X) = 0) ∀θ ∈ Θ1
• La probabilité β s’appelle puissance du test (c-à-d la puissance du test est
la probabilité d’accepter H1 alors qu’elle est vraie).

11 / 47
Tests Statistiques

Les différentes situations que l’on peut rencontrer dans le cadre des tests
d’hypothèse sont résumées dans le tableau suivant :
Décision \ Réalité H0 est vraie H0 est fausse
Accepter H0 conclusion correcte erreur de deuxième espèce
(1 − α) (1 − β)
Rejeter H0 erreur de première espèce conclusion correcte
(α) (β)

α = P (rejeterH0 /H0 est vraie)


1 − α = P (accepterH0 /H0 est vraie)
1 − β = P (accepterH0 /H0 est f ausse)
β = P (accepterH1 /H1 est vraie)

12 / 47
Définition 0.3
• Soit H0 : θ ∈ Θ0 une hypothèse nulle multiple et α(θ) le risque de première
espèce pour la valeur θ ∈ Θ0 . On appelle niveau du test (ou seuil du test) la
valeur α telle que :

α = sup α(θ) = sup Eθ (ϕ(X))


θ∈Θ0 θ∈Θ0

• La puissance du test est la fonction β : Θ1 → [0, 1] définie par


β(θ) = Pθ ((X1 , · · · , Xn ) ∈ W ).
• Le test est dit sans biais si sa fonction puissance reste supérieure ou égale à
son niveau α, soit:
β(θ) ≥ α ∀θ ∈ Θ1

Dans la pratique, on fixe un seuil α et on cherche la région critique W telle que, pour θ ∈ Θ0 ,
Pθ ((X1 , · · · , Xn ) ∈ W ) = α, en utilisant la méthode de Neymann-Pearson et test les plus
puissants, la méthode du maximum de vraisemblance...

13 / 47
Tests Statistiques

Test uniformément plus puissant

Définition 0.4
Étant donnés deux tests ϕ1 et ϕ2 de niveau ≤ α pour tester l’hypothèse
H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .
Le test ϕ1 est uniformément plus puissant (UPP) que ϕ2 si et seulement si
∀θ ∈ Θ1 β1 (θ) ≥ β2 (θ).

La recherche des tests UPP consiste donc à minimiser uniformément le risque


de deuxième espèce (ou à maximiser uniformément la puissance) sous la
contrainte que le risque de première espèce est inférieur à un seuil α.

14 / 47
Tests Statistiques

Lemme fondamental de Neyman-Pearson


On suppose que H0 et H1 sont des hypothèses simples, c-à-d Θ0 = {θ0 } et
Θ1 = {θ1 }, donc le problème de test est le suivant:

H0 : θ = θ0
H1 : θ = θ1

Soit X1 , · · · , Xn un échantillon de taille n, de loi Pθ et


(Xn , B(Xn ), P⊗n θ , θ ∈ Θ = {θ0 , θ1 }) le modèle d’échantillonnage associé.

15 / 47
Tests Statistiques
On pose:
L0 (X1 , · · · , Xn ) = vraisemblance quand θ = θ0
L1 (X1 , · · · , Xn ) = vraisemblance quand θ = θ1
Définition 0.5
L1 (X1 , · · · , Xn )
Soit R(X) = le rapport de vraisemblance.
L0 (X1 , · · · , Xn )
On considère la famille de tests ϕk dont la région critique Wk est de la forme
:
L1 (X1 , · · · , Xn )
R(X) = >k
L0 (X1 , · · · , Xn )
On appelle test de Neyman-Pearson tout test de cette forme.

Dans un test de Neyman-Pearson, on rejette H0 si


L1 (X1 , · · · , Xn ) > kL0 (X1 , · · · , Xn )
16 / 47
Tests Statistiques

Théorème 0.1 (Lemme de Neyman-Pearson I)


Soit k > 0 , α > 0 tels que la statistique R(X) du rapport de vraisemblance
vérifie: Pθ0 (R(X) > k) = α alors:
1) Le test 
1 si R(x) > k
ϕk : x → 1R(x)>k =
0 si R(x) ≤ k
est un test UPP de niveau α pour le test de H0 contre H1 , de plus il est sans
biais.
2) Si ϕ est un autre test UPP de niveau α, alors pour ν-presque tout x,

1 si R(x) > k
ϕ(x) =
0 si R(x) < k

17 / 47
Tests Statistiques

Remarque
Le deuxième point nous dit que tout test UPP de niveau α coïncide avec ϕk ,
ν-presque partout sur l’ensemble {x/R(x) 6= k}. C-à-d ∀θ ∈ {θ0 , θ1 }

Pθ (ϕ(X) 6= ϕk (X), R(X) 6= k) = 0

18 / 47
Tests Statistiques
Existence d’un test UPP avec randomisation:
Si on utilise des tests randomisés ( c-à-d le test ϕk prend des valeurs dans
[0, 1]), on a un résultat plus fort, qui garantit l’existence d’un test UPP de
niveau α, quel que soit α ∈]0, 1[.
Théorème 0.2 (Neyman-Pearson II: existence avec randomisation)
Soit α ∈]0, 1[, il existe des constantes k > 0 et γ ∈ [0, 1] tels que le test:

 1 si R(x) > k
ϕk (x) = γ si R(x) = k
0 si R(x) < k

vérifie Eθ0 (ϕk ) = Pθ0 (R > k) + γPθ0 (R = k) = α


Alors, le test ϕk est UPP de niveau α et il est sans biais. De plus, si ϕ est un
autre test UPP de niveau α, alors ϕ coïncide avec ϕk sur l’ensemble
{x/R(x) 6= k}, ν-presque partout
19 / 47
Tests Statistiques
Exemple
Soit X1 , · · · , Xn iid avec Xi ∼ N (m, σ02 ), ici le paramètre est θ = m, σ02 est
connu.
On cherche à déterminer la région critique, en utilisant le lemme de N-P, pour
le problème du test suivant:

H0 : m = m0
H1 : m = m1

On suppose que m1 > m0 (avec m0 et m1 connus)


Soit α ∈]0, 1[ d’après le lemme de N-P, ∃ϕk UPP de niveau α tel que

 1 si R(x) > k
ϕk (X1 , · · · , Xn ) = γ si R(x) = k
0 si R(x) < k

20 / 47
Tests Statistiques
On a:
n
!
1 −1 X
L1 (x1 , · · · , xn ) = √ exp (xi − m1 )2
( 2πσ02 )n 2σ02 i=1
n
!
1 −1 X
et L0 (x1 , · · · , xn ) = √ exp 2 (xi − m0 )2
( 2πσ02 )n 2σ0 i=1
Donc
L1 (x1 , · · · , xn )
R(x) =
L0 (x1 , · · · , xn )
n n
!
−1 X 2 1 X 2
= exp (xi − m1 ) + 2 (xi − m0 )
2σ02 i=1 2σ0 i=1
 
n(m1 − m0 ) n 2 2
= exp x − 2 (m1 − m0 )
σ02 σ0
21 / 47
Tests Statistiques

où x = n1 ni=1 xi et donc R(x) = R̃(x) dépend uniquement de la statistique


P
exhaustive x
On remarque que la fonction x → R̃(x) est une fonction strictement
croissante de x, la condition R(x) = R̃(x) > k est équivalente à x > d
Donc on définit ϕk tel que:

 1 si X > d
ϕk (X1 , · · · , Xn ) = γ si X = d
0 si X < d

et on prend le test ϕk suivant:



1 si X > d
ϕk (X1 , · · · , Xn ) =
0 si X ≤ d
car Pθ0 (X = d) = 0

22 / 47
Tests Statistiques

Le seuil d est donné par:

Eθ0 (ϕk ) = Pθ0 (X > d) = α


σ02
Or sous H0 , on a X ∼ N (m0 , n )

n(X−m0 )
Donc Z = σ0 ∼ N (0, 1)
√ √ 
n(X−m0 ) n(d−m0 )
⇒ Pθ0 (X > d) = Pθ0 σ0 > σ0 =α
 √ 
c-à-d Pθ0 Z > n(d−m
σ0
0)

23 / 47
Tests Statistiques

Soit z1−α le quantile d’ordre 1 − α d’une loi normale N (0, 1)



n(d−m0 )
On a Pθ0 (Z ≤ z1−α ) = 1 − α et donc z1−α = σ0
⇒ d = z1−α √σ0n + m0
Par conséquent, on rejette H0 : m = m0 si et seulement si
σ0
X > z1−α √ n
+ m0
σ0
c-à-d W = {X > z1−α √ n
+ m0 } est la région de rejet du test.
A.N: m0 = 2 , m1 = 4 , α = 5% , n = 16 , σ0 = 1
⇒ d = z1−α √σ0n + m0 = 1.645 √116 + 2 = 2.41

Donc on rejette H0 ssi X > 2.41

24 / 47
Tests Statistiques

Calcul de puissance du test:


 
On a β = Eθ1 (ϕk ) = Pθ1 X > z1−α √σ0n + m0
σ02
Or sous H1 , on a X ∼ N (m1 , n )

n(X−m1 )
⇒ σ0 ∼ N (0, 1), sous H1
donc
√ √ σ 

σ0

n(X−m1 ) n(z1−α √0n +m0 −m1 )
Pθ1 X > z1−α √ n
+ m0 = P θ1 σ0 > σ0

On pose m1 = m0 + δ avec δ > 0

25 / 47
Tests Statistiques
Donc

 
σ0
β = Pθ1 X > z1−α √ + m0
n
√ √ 
n(X − m1 ) z1−α σ0 − δ n
= P θ1 >
σ0 σ0
√ √ 
n(X − m1 ) n
= P θ1 > z1−α − δ
σ0 σ0

n
= 1 − φ(z1−α − δ)
σ0
= g(δ)

Si δ → 0 alors β → α
Si δ → +∞ alors β → 1
26 / 47
Tests Statistiques

Tests d’hypothèses multiples unilatérales:

On considère dans cette partie des situations de test du type :


 
H0 : θ ≤ θ0 H0 : θ = θ0

H1 : θ > θ0 H1 : θ > θ0

ou
 
H0 : θ ≥ θ0 H0 : θ = θ0

H1 : θ < θ0 H1 : θ < θ0

27 / 47
Tests Statistiques

Rapport de Vraisemblance Monotone (RVM)


Soit (X, B, Pθ , θ ∈ Θ) un modèle statistique dominé par la mesure µ σ-finie.
Définition 0.6 (Familles à RVM)
Une famille (Pθ , θ ∈ Θ) est à RVM en S, avec S est une statistique définie
sur (X, B), si et seulement si:
0
0 L(x,θ )
∀θ < θ , L(x,θ) est une fonction monotone en S(x) , x ∈ X
0
L(x,θ )
et on écrit L(x,θ) = G(S(x)) avec G monotone en S(x)

28 / 47
Tests Statistiques
Exemple 1:
La famille (N (θ, 1), θ ∈ R) est à RVM, en effet:
0
Pour θ < θ , on a:
0
 0

√1 exp − 12 ni=1 (xi − θ )2
P
L(x1 , · · · , xn , θ ) = ( 2π)n
1 1 Pn 2

et L(x1 , · · · , xn , θ) = (√2π)n exp − 2 i=1 (xi − θ)

donc
0
L(x1 , · · · , xn , θ )  0 n 02 
= exp (θ − θ)nx − (θ − θ2 )
L(x1 , · · · , xn , θ) 2
1 Pn
on pose S(x) = x = n i=1 xi
donc
0
L(x1 , · · · , xn , θ )  0 n 02 
= exp (θ − θ)nS(x) − (θ − θ2 ) = G(S(x))
L(x1 , · · · , xn , θ) 2
on remarque que G est monotone, donc la famille (N (θ, 1), θ ∈ R) est à
29 / 47
Tests Statistiques

Exemple 2:
La famille (N (0, θ2 ), θ ∈ R?+ ) est à RVM, puisque:
n
0  n !
L(x1 , · · · , xn , θ ) θ 1 0 −2 X
= exp − (θ − θ−2 ) x2i
L(x1 , · · · , xn , θ) θ0 2
i=1
Pn 2
on pose S(x) = i=1 xi
donc
0
L(x1 , ·, xn , θ )
= G(S(x)) et G est monotone.
L(x1 , ·, xn , θ)

30 / 47
Tests Statistiques

Exemple 3:
La famille (B(θ), θ ∈]0, 1[) est à RVM, en effet:
0 0
!n 0
!Pni=1 xi
L(x1 , · · · , xn , θ ) 1−θ θ (1 − θ)
=
L(x1 , · · · , xn , θ) 1−θ θ(1 − θ0
on pose S(x) = ni=1 xi
P

donc
0
L(x1 , ·, xn , θ )
= G(S(x)) et G est monotone.
L(x1 , ·, xn , θ)
d’où la famille (B(θ), θ ∈]0, 1[) est à RVM.

31 / 47
Tests Statistiques

Remarque:
De façon générale, si (X1 , · · · , Xn ) est un échantillon iid d’une famille
exponentielle de densité:

f (x, θ) = C(θ)h(x)exp(Q(θ)T (x))

Où T est une statistique,


alors, le rapport de vraisemblance est monotone si la fonction θ → Q(θ) est
monotone. De plus, si θ → Q(θ) est croissante alors le rapport de
vraisemblance est une fonction croissante de T . Il est décroissant dans le cas
contraire.

32 / 47
Tests Statistiques

Proposition 0.7 (Lehmann)


Soit le problème du test suivant:

H0 : θ = θ0
H1 : θ > θ0
Si la famille (Pθ , θ ∈ Θ) est à RVM (croissant) en S , avec S est une
statistique définie sur (X, B), alors ∀α ∈]0, 1[, il existe un test ϕα UPP de
niveau α,

1 si S(x) > t0
ϕα =
0 si S(x) ≤ t0
t0 est calculé tel que Eθ0 (ϕα ) = α

H0 : θ = θ0
Remarque: Pour le problème de test: on change les
H1 : θ < θ0
inégalités dans ϕα
33 / 47
Tests Statistiques
Exemple :
Soit X1 , · · · , Xn iid avec Xi ∼ N (m, σ02 ) où σ0 est connu.
On considère le problème de test suivant:

H0 : m = m0
H1 : m > m0
avec m0 donné (connu).
Le modèle d’échantillonnage associé est (Rn , B(Rn ), N ⊗n (m, σ 2 ), m
0 ∈ R)
La famille (N ⊗n (m, σ02 ), m ∈ R) est à RVM croissant en
S(X1 , · · · , Xn ) = X
d’après Lehmann, on a ∀α ∈]0, 1[, ∃ϕα (X1 , · · · , Xn ) UPP de niveau α tel
que:

1 si X > t0
ϕα =
0 si X ≤ t0
34 / 47
Tests Statistiques
On a Eθ0 (ϕα ) = E0 (ϕα ) = α
donc P0 (X > t0 ) = α
σ2
or, sous H0 on a X ∼ N (m0 , n0 )

⇒ n (X−m σ0
0)
∼ N (0, 1)
donc
√ √
P0 (X > t0 ) = α ⇒ P0 ( n (X−m
σ0
0)
> n (t0 −m
σ0
0)
)=α
Soit z1−α le quantile d’ordre 1 − α d’une loi normale N (0, 1)

c-à-d P0 ( n (X−m
σ0
0)
≤ z1−α ) = 1 − α
√ (t0 −m0 )
⇒ n σ0 = z1−α
σ0
⇒ t0 = √ z
+ m0
n 1−α
n o
σ0
d’où W = X > √ z
n 1−α
+ m0 est la région de rejet de H0
35 / 47
Tests Statistiques
Exercice 1:
Soit X1 , · · · , Xn iid avec Xi ∼ N (µ0 , σ 2 ) où µ0 est connu.
Déterminer la région de rejet associée au problème de test suivant:
H0 : σ 2 = σ02


H1 : σ 2 > σ02
avec σ02 donné (connu).

Exercice 2:
Soit X1 , · · · , Xn iid avec Xi ∼ U]0,θ[ , θ > 0.
Déterminer la région de rejet associée au problème de test suivant:

H0 : θ = θ0
H1 : θ > θ0
avec θ0 donné (connu).
36 / 47
Tests Statistiques

Tests d’hypothèses bilatérales:

Dans ce cas, on considère le problème de test suivant:



H0 : θ = θ0
H1 : θ 6= θ0
Malheureusement, on ne peut s’attendre dans cette situation à obtenir un test
UPP, même si on a un test UPP pour le problème de test unilatéral à gauche et
un test UPP pour le problème de test unilatéral à droite.
D’où l’idée de se restreindre à une classe plus petite: c’est la classe des tests
UPP sans biais.

37 / 47
Tests Statistiques

D’une façon générale la région d’acceptation aura la forme c1 ≤ T ≤ c2 , où


c1 < c2 , avec T est une statistique appropriée (c-à-d la région de rejet est de la
forme {T < c1 ou T > c2 })
L’idée est de déterminer les valeurs c1 et c2 en répartissant α2 sur chaque
extrémité. Ainsi, pour le cas H0 : θ = θ0 , ces valeurs seront telles que
Pθ0 (T < c1 ) = Pθ0 (T > c2 ) = α2 . Mais cette règle ne conduit pas au test
UPP sans biais si la loi de T n’est pas symétrique.

38 / 47
Tests Statistiques

Exemple:
Soit X1 , · · · , Xn iid, avec Xi ∼ N (m, σ02 )
Le paramètre m ∈ R est inconnu et σ02 > 0 est connu (spécifié).
On considère le problème de test suivant:

H0 : m = m0
H1 : m 6= m0
avec m0 connu.
∀α ∈]0, 1[ le test ϕα (X1 , · · · , Xn ) défini par

1 si X < c1 ou X > c2
ϕα (X1 , · · · , Xn ) =
0 si c1 ≤ X ≤ c2
est UPP sans biais au niveau α.

39 / 47
Tests Statistiques

Déterminons c1 et c2 tels que:


α
Pθ0 (X < c1 ) = Pθ0 (X > c2 ) = 2
(ou tq: Pθ0 (c1 ≤ X ≤ c2 ) = 1 − α)

or Xi ∼ N (m, σ02 ) ⇒ n (X−m σ0
0)
∼ N (0, 1) sous H0
Soit z α2 le quantile d’ordre α
2 d’une loi N (0, 1)
On a
√ √
Pθ0 (X < c1 ) = α2 ⇒ Pθ0 ( n (X−mσ0
0)
< n (c1 −m
σ0
0)
)= α
2
√ (c1 −m0 )
donc on prend n σ0 = z α2
⇒ c1 = z α2 √σ0n + m0

40 / 47
Tests Statistiques
α
on remarque que z α2 = −z1− α2 où z1− α2 est le quantile d’ordre 1 − 2 d’une
loi N (0, 1)
d’où
c1 = −z1− α2 √σ0n + m0
de la même façon on trouve :
c2 = z1− α2 √σ0n + m0
Par conséquent, on rejette H0 si
σ0
X < c1 = −z1− α2 √ n
+ m0 ou X > c2 = z1− α2 √σ0n + m0
Remarque: La région d’acceptation de H0 est
σ0 σ0
{−z1− α2 √ + m0 ≤ X ≤ z1− α2 √ + m0 }
n n

cette région est donnée telle que Pθ0 (c1 ≤ X ≤ c2 ) = 1 − α


41 / 47
Tests Statistiques

Test du rapport de vraisemblance généralisé:

On considère maintenant les hypothèses paramétriques les plus générales.


Soit (X, B, Pθ , θ ∈ Θ) un modèle statistique, avec Θ ⊂ Rp , p ≥ 1
Soit le problème de test suivant:

H0 : θ ∈ Θ0
H1 : θ ∈ Θ1
avec Θ = Θ0 ∪ Θ1 et Θ0 ∩ Θ1 = ∅

42 / 47
Tests Statistiques

Définition 0.8
• On appelle rapport de vraisemblance généralisé (RVG), la fonction
λ(x1 , · · · , xn ) telle que:

sup L(θ, x1 , · · · , xn )
θ∈Θ0
λ(x1 , · · · , xn ) =
supL(θ, x1 , · · · , xn )
θ∈Θ

• On appelle test du RVG, le test défini par une région de rejet de la forme :

λ(x1 , · · · , xn ) < k ≤ 1

La valeur de k est déterminée telle que:

sup Pθ (λ(X1 , · · · , Xn ) < k) = α


θ∈Θ0

43 / 47
Tests Statistiques

Exemple:
Soit X1 , · · · , Xn iid avec Xi ∼ N (m, σ 2 ), avec (m, σ 2 ) inconnu.
Déterminer la région critique pour le problème du test suivant:

H0 : σ 2 = σ02


H1 : σ 2 6= σ02

44 / 47
Tests Statistiques

p-value (p-valeur):

45 / 47
Tests Statistiques

Les tests paramétriques classiques:




46 / 47
Tests Statistiques

Partie II: Tests non paramétriques

47 / 47

Vous aimerez peut-être aussi