Académique Documents
Professionnel Documents
Culture Documents
Membres du groupe :
ASSENGONE – NTOUTOUME Jessica
BIBANG Theresa Yolande
BOUSSOUGOU MALAGA Kerry
Dirigé par :
Mr MOUNDJIEGOUT Tessa
CARACTÉRISTIQUES
Loi normale N (µ, δ)
Espérance Mathématiques µ
Variance Δ2
Ecart-type δ
probabilité f(t) = 2 .
√2 n e
Remarque : il faut connaitre la représentation graphique de cette fonction, savoir utiliser une
calculatrice ou un logiciel de mathématiques pour obtenir les différentes probabilités
recherchées.
+∞ 0 +∞
Le test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la
distribution des données sous H0. La statistique repose sous l’hypothèse sous-jacente qu’il
existe une distribution normale de la variable et que la moyenne est connue ou supposée être
connue.
La variance de la population est calculée par l’échantillon. On suppose que les variables
d’intérêts, dans la population, sont mesurées sur une échelle d’intervalle.
COMMENT CHOISIR ?
Les tests paramétriques, quand leur utilisation est justifiée, sont en général plus puissants que
les tests non paramétriques. Elles reposent ce pendant sur l’hypothèse forte que l’échantillon
considéré est tiré d’une population suivant une distribution appartenant à une famille donner.
Il est possible de s’en affranchir pour des échantillons suffisamment grands en utilisant des
théorèmes asymptotiques tels que le théorème central imite.
Les tests paramétriques fonctionnent en supposant due les données que l’on a à disposition
suivent un type de la loi de distribution connue (en générale la loi normale). Pour calculer le
risque alpha du test statistique, il suffit de calculer la moyenne et l’écart-type de l’échantillon
afin d’accorder à la loi de distribution de l’échantillon.
La loi de distribution étant ainsi parfaitement connue, on peut calculer le risque alpha en se
basant sur les calculs théoriques de la loi gaussienne.
Ces tests sont en général très fins, mais ils ne nécessitent que les données suivent
effectivement la loi de distribution supposée. Ils sont en particuliers très sensibles aux valeurs
aberrants et ne sont pas conseillés si de valeurs aberrantes sont détectées.
Test de Shapiro-Wilk
Les statisticiens ont proposé un autre test, nettement plus puissant que les tests précédent : le
test de Shapiro-Wilk. Le calcul de la valeur observée de la statistique de test et de son niveau
de significativité est très fastidieux.
Le tes non paramétrique est un test ne nécessitant pas d’hypothèse sur la distribution des
données ; c’est-à-dire qu’il n’exige pas que la distribution de la population soit indiquée par
des paramètres spécifiques. Le test repose principalement sur les différences des médianes.
Par conséquent, il est également connu sous le nom de test sans distribution. Le test suppose
que les variables sont mesurées au niveau nominal ou ordinal. Il est utilisé lorsque les
variables indépendantes sont non métriques.
COMMENT CHOISIR ?
Les tests non paramétriques sont cependant a préféré dans de nombreux cas pratique pour
lesquels les tests paramétriques ne peuvent être utilisés sans violer les postulats dont ils
dépendent (notamment dans le cas d’échantillon trop petit c’est-à-dire par convention, quand
l’effectif de l’échantillon est inférieur à 30). Les données soient également parfois récupérées
sous forme de rang et non de données brutes. Seuls les tests non paramétriques sont alors
applicables.
Lorsque les données sont quantitatives, les tests non paramétriques transforment les valeurs en
rang. L’appellation « test de rang » est souvent rencontrer. Lorsque les données sont
quantitatives seuls les tests non paramétriques sont utilisables.
NB : lorsque deux caractères sont standardisés, leur coefficient de corrélation est égal à leur
variance puisque leurs écart-type sont égaux à 1.
6 ×90 180
Rs = 1 - 3 = 210 = 1 – 0.85
6 −6
Rs = 0.15
L’ANOVA est une méthode d’analyse qui permet d’envisager l’étude de la dépendance d’une
variable quantitative continue à une ou deux variables qualitatives.
Les variables qualitatives impliqués sont appelées facteurs et on peut s’intéresser aux effets
principaux de ses facteurs ainsi qu’à l’effet de leur interaction sur la variable quantitative
étudiée. On parle alors d’ANOVA à un ou deux facteurs et l’analyse est alors bi variée
lorsque un seul facteur est considéré, tandis qu’elle est multi variée lorsque deux facteurs sont
considérés. La variable quantitative est appelée variable dépendante notée (VD), les facteurs
sont les variables indépendantes notées (VI).
Exemple : la performance sportive à une épreuve étudiée en fonction du temps de repos
décliné en trois modalités : « mois de 6 h » ; « entre 6h et 8h » ; et « plus de 8h ».
Le facteur : temps de repos qui est une valeur qualitative pourrait expliquer la performance
sportive à une épreuve qui est la variable dépendante quantitative évaluée en nombre de point
ou bien en temps mis pour effectuer l’épreuve. Nous avons à faire ici à une Anova à un
facteur, analysant la dépendance ou non de la variable quantitative performance au facteur
qualitatif temps de repos. Il va s’agir d’établir si la dépendance étudiée est ou non
significative pour le facteur considéré. Sans vous expliquer dans le détail la théorie sous-
jacente de l’Anova, il faut tout de même savoir que nous allons tester si la moyenne de la
variable quantitative d’étude est ou non homogène sur l’ensemble des modalités prises par la
ou les variables qualitatives pour lesquelles elle a été calculée. Ce que l’on espère pour
montrer qu’une ou deux variables qualitatives influent sur la variable quantitative était
d’amener à rejeter l’hypothèse nulle H0 d’égalité des moyennes par l’analyse de la variance.
Le test d’hypothèse réalisé est un test f de Fisher qui permet de comparer la variance inter
échantillon à la variance intra échantillon. Le rapport de ses deux variances devra s’éloigner
assez fortement de 1 pour être conduit à rejeter l’hypothèse nulle : lorsque f ≥ 1 → ρvalue
≪ 0.05H0 rejetée (f = variance inter/variance intra). On essaye d’expliquer la cause de la
diversité des informations recueillies par l’analyse de leur variance.