Vous êtes sur la page 1sur 10

NOM DES PARTICIPANTS DU PROJET

MEGOALE IVAN JORDAN 20u2786 100%

MIMCHE MOLUH ISHAK NAZIR 21T2466 90%

YANGO BANG MADO CARLA 20U2798 100%

DAN YVES BRICE AYOMBA II 21U2142 (CHEF)


100%
I-) LA LOI DE STUDENT

1-) UTILITÉS EN GÉNÉRALE

La loi de Student est une distribution de probabilité continue qui est utilisée pour tester des
hypothèses sur la moyenne d'une population lorsque l'écart-type est inconnu. Elle est également
utilisée pour la construction d'intervalles de confiance pour la moyenne d'une population.

2-) DESCRIPTION

La loi de Student est définie comme la distribution de probabilité de la variable aléatoire t, qui est
calculée à partir d'un échantillon de taille n tiré d'une population normalement distribuée. La
variable aléatoire t est définie comme suit : t = (X - μ) / (S / sqrt(n))
où X est la moyenne de l'échantillon, μ est la moyenne de la population, S
est l'écart-type de l'échantillon et n est la taille de l'échantillon.
La loi de Student a plusieurs propriétés et caractéristiques importantes :- La loi de Student est
toujours centrée sur zéro, c'est-à-dire que la moyenne
de la distribution est égale à zéro. - La forme de la distribution de la loi de Student dépend du
nombre de degrés de liberté.
Plus le nombre de degrés de liberté est élevé, plus la distribution se
rapproche d'une distribution normale. - La distribution de la loi de Student est symétrique
autour de zéro.
- La valeur de la loi de Student est toujours positive ou négative.
- La moyenne et la variance de la loi de Student dépendent du nombre de degrés de liberté.

3-) UTILISATION DANS LA RÉGRESSION LINÉAIRE

La loi de Student est utilisée dans la régression linéaire car elle permet de calculer l'intervalle de
confiance pour la pente de la droite de régression et de tester l'hypothèse nulle selon laquelle la
pente est égale à zéro. Si la pente est significativement différente de zéro, cela signifie qu'il y a une
relation linéaire significative entre les variables indépendantes et dépendantes.

La loi de Student est également utilisée pour calculer les intervalles de confiance pour les
prévisions de la variable dépendante à partir des valeurs des variables indépendantes. Cela permet
de déterminer la précision des prévisions et d'évaluer la qualité du modèle de régression linéaire.
La loi de student peut être utilisée dans le cas de la régression linéaire pour tester l'hypothèse nulle
selon laquelle le coefficient de régression est égal à zéro. Pour ce faire, vous devez suivre les étapes
suivantes :
a Collecter les données : collectez les données pour les variables indépendantes et
dépendantes.

b Effectuer la régression linéaire : utilisez un logiciel statistique pour effectuer la régression


linéaire et obtenir le coefficient de régression.

c Calculer le test de student : calculez le test de student en divisant le coefficient de régression


par son erreur standard et en comparant le résultat avec une distribution de student à n-2 degrés de
liberté, où n est le nombre d'observations.
d Interpréter les résultats : si la valeur de p du test de student est supérieure au seuil de
signification (généralement 0,05), cela suggère que le coefficient de régression n'est pas
significativement différent de zéro et que l'hypothèse nulle ne peut pas être rejetée. En revanche, si
la valeur de p est inférieure au seuil de signification, cela suggère que le coefficient de régression
est significativement différent de zéro et que l'hypothèse nulle doit être rejetée.

En résumé, la loi de student peut être utilisée pour tester l'hypothèse selon laquelle le coefficient de
régression est égal à zéro dans le cadre de la régression linéaire. Cela permet de vérifier
l'importance statistique du coefficient de régression et son impact sur la variable dépendante.

II-) LA LOI DU Khi-2

1-) UTILITÉS EN GÉNÉRALE

La loi de khi-2 est utilisée pour évaluer la qualité de l'ajustement d'un modèle statistique à un
ensemble de données. Elle permet de comparer les valeurs observées avec les valeurs attendues
selon le modèle, en calculant la somme des écarts au carré normalisés par la variance attendue.
La loi de Khi-2 est une distribution de probabilité continue qui est utilisée pour tester
l'indépendance ou l'homogénéité de deux variables catégorielles. Elle est également utilisée pour
l'analyse de données de contingence, comme les tableaux de contingence.

2-) DESCRIPTION

La loi de Khi-2 est définie comme la somme des carrés de k variables aléatoires normalement
distribuées et indépendantes. Si Z1, Z2, ..., Zk sont des variables aléatoires normalement distribuées
et indépendantes, alors la variable aléatoire Khi-2 est définie comme suit :
X^2 = Z1^2 + Z2^2 + ... + Zk^2
La distribution de probabilité de la loi de Khi-2 dépend du nombre de degrés de liberté (ddl)
associés à la distribution. Le nombre de degrés de liberté est égal au nombre de variables aléatoires
normalement distribuées utilisées pour calculer la loi de Khi-2.
La loi de Khi-2 a plusieurs propriétés et caractéristiques importantes : - La loi de Khi-2
est toujours une distribution à droite, c'est-à-dire que la majorité des valeurs se trouvent sur le côté
droit de la distribution.
- La forme de la distribution de la loi de Khi-2 dépend du nombre de degrés de liberté. Plus
le nombre de degrés de liberté est élevé, plus la distribution se rapproche d'une distribution normale.
- La valeur de la loi de Khi-2 est toujours positive, c'est-à-dire que X^2 > 0. - La distribution
de la loi de Khi-2 est symétrique pour les valeurs élevées de ddl.
- La moyenne et la variance de la loi de Khi-2 dépendent du nombre de degrés de liberté. 3-)
UTILISATION DANS LE CAS DE LA RÉGRESSION LINÉAIRE

En régression linéaire, la loi de khi-2 est utilisée pour tester l'hypothèse nulle selon laquelle les
résidus (différences entre les valeurs observées et les valeurs prédites par le modèle) suivent une
distribution normale avec une variance constante. Si cette hypothèse est rejetée, cela peut indiquer
que le modèle ne convient pas bien aux données et doit être révisé ou que des transformations
doivent être appliquées aux données pour mieux s'adapter au modèle;permet aussi de comparer les
effectifs (fréquences) observées dans un échantillon qui découlent des hypothèses statistiques.
Src : PAF-1010 : analyse quantitative de gestion

La loi du khi-2 peut être utilisée dans le cas de la régression linéaire pour tester l'hypothèse
nulle selon laquelle les résidus de la régression sont distribués normalement. Pour ce faire, vous
devez suivre les étapes suivantes :

a Collecter les données : collectez les données pour les variables indépendantes et
dépendantes.

b Effectuer la régression linéaire : utilisez un logiciel statistique pour effectuer la régression


linéaire et obtenir les résidus.

c Calculer le test du khi-2 : calculez le test du khi-2 en comparant la distribution des résidus
avec une distribution normale. Pour ce faire, vous pouvez utiliser un graphique de probabilité
normale ou un test d'ajustement du khi-2.

d Interpréter les résultats : si la valeur de p du test du khi-2 est supérieure au seuil de


signification (généralement 0,05), cela suggère que les résidus sont distribués normalement et que
l'hypothèse nulle ne peut pas être rejetée. En revanche, si la valeur de p est inférieure au seuil de
signification, cela suggère que les résidus ne sont pas distribués normalement et que l'hypothèse
nulle doit être rejetée.

En résumé, la loi du khi-2 peut être utilisée pour tester l'adéquation de la distribution des résidus à
une distribution normale dans le cadre de la régression linéaire. Cela permet de vérifier une
hypothèse importante pour l'interprétation des résultats de la régression linéaire.

III-) LA LOI DE FISHER

La loi de Fisher, également connue sous le nom d'analyse de la variance ( ANOVA), est
utilisée dans la régression linéaire pour tester l'hypothèse nulle selon laquelle toutes les pentes des
différentes variables indépendantes sont égales à zéro. Cette hypothèse est testée en comparant la
variation entre les groupes de données avec la variation au sein des groupes de données. Si la
variation entre les groupes est significativement plus grande que la variation au sein des groupes,
cela suggère qu'il y a une relation linéaire significative entre les variables indépendantes et
dépendantes.

La loi de Fisher est également utilisée pour évaluer la qualité du modèle de régression
linéaire en comparant le modèle complet avec un modèle réduit qui ne contient qu'une partie des
variables indépendantes. Si le modèle complet est significativement meilleur que le modèle réduit,
cela suggère que toutes les variables indépendantes sont importantes pour expliquer la variance de
la variable dépendante. En revanche, si le modèle réduit est presque aussi bon que le modèle
complet, cela suggère que certaines variables indépendantes peuvent être supprimées du modèle
sans perdre beaucoup d'information.
La loi de Fisher est utilisée pour tester l'hypothèse nulle selon laquelle tous les coefficients de
régression sont égaux à zéro. Dans le cas de la régression linéaire, cela signifie que la variable
indépendante n'affecte pas la variable dépendante.
Src : Introduction aux statistiques -JMP

Pour utiliser la loi de Fisher dans le cas de la régression linéaire, il faut d'abord estimer le modèle de
régression et calculer la somme des carrés des résidus (RSS) et la somme des carrés totaux (SST).
Ensuite, on calcule le carré de la statistique F en divisant la différence entre SST et RSS par le
nombre de variables indépendantes et en divisant ensuite par RSS. Ce ratio est ensuite comparé à
une valeur critique de F pour déterminer si l'hypothèse nulle doit être rejetée ou non.

Si la valeur de F calculée est supérieure à la valeur critique de F, on peut conclure que la variable
indépendante a un effet significatif sur la variable dépendante. Si la valeur de F calculée est
inférieure à la valeur critique de F, on ne peut pas rejeter l'hypothèse nulle et on peut conclure que
la variable indépendante n'a pas d'effet significatif sur la variable dépendante.

En résumé, la loi de Fisher est utilisée pour tester l'effet global des variables indépendantes dans un
modèle de régression linéaire.

IV-) APPLICATIONS DES LOIS PRÉCÉDENTES

IV.1-) AVEC LES DEUX STAGIAIRES

Pour appliquer les lois de Khi-2 Student et Fisher, nous devons d'abord vérifier si les données
suivent une distribution normale. Pour cela, nous pouvons tracer un histogramme pour chaque
épreuve : Histogramme épreuve A :

Histogramme épreuve B :

Les histogrammes semblent suivre une distribution normale, nous pouvons donc appliquer les lois
de Khi-2 Student et Fisher.
Pour calculer la loi de khi-2 student et Fisher nous avons besoin de :
- Variance de l'échantillon
- covariance de l'échantillon
- coefficient de corrélation
Tout d'abord, pour calculer la variance et l'écart type, nous devons trouver la moyenne de chaque
épreuve:
- Moyenne de l'épreuve A: (3+4+6+7+9+10+9+11+12+13+15+4)/12 = 8, 58
- Moyenne de l'épreuve B: (8+9+10+13+15+14+13+16+13+19+6+19)/12 = 12, 92 Ensuite, nous
pouvons calculer la variance de chaque épreuve en utilisant la formule suivante:
Var(x) = ∑(xi - μ)² / n
- Variance de l'épreuve A: [(3-8,58)² + (4-8,58)² + (6-8,58)² + ... + (15-8,58)² + (4-8,58)²] / 12 ≈
13,58
- Variance de l'épreuve B: [(8-12,92)² + (9-12,92)² + (10-12,92)² + ... + (6-
12 ,92)² + (19-12,92)²] / 12
≈ 15,41
Puis, nous pouvons calculer l'écart type en prenant la racine carrée de la variance:
- Ecart type de l'épreuve A: √16,25 ≈ 3,69
- Ecart type de l'épreuve B: √16,25 ≈ 3,93
Ensuite, nous pouvons calculer la covariance en utilisant la formule suivante: cov(x,y) = ∑[(xi - μx)
(yi - μy)] / n
- Covariance : [((3-8,58)*(8-12,92)) + ((4-8,58)*(9-12,92)) + ((6-8,58)*(10-12,92)) + ... +
((15-8,58)*(6-12,92)) + ((4-8,58)*(19-12,92))] / 12 = 1.48
Enfin, nous pouvons calculer le coefficient de corrélation en utilisant la formule suivante: r(x,y) =
cov(x,y) / (σx * σy) - Coefficient de corrélation: 1,48 / (3,69 * 3,93) = 0, 1

A) Test de Student

Nous allons utiliser le test de Student pour vérifier s'il y a une différence significative entre les
résultats des épreuves A et B.

H0 : Les résultats des épreuves A et B ne sont pas significativement différents


H1 : Les résultats des épreuves A et B sont significativement différents Nous allons utiliser un test
bilatéral avec un seuil de significativité de 5 % (alpha = 0.05).

Pour appliquer le test de Student, nous avons besoin de calculer la moyenne, l'écart-type et le
nombre de degrés de liberté pour chaque épreuve :
Moyenne épreuve A : 8.58
Ecart-type épreuve A : 3.69
Nombre de degrés de liberté épreuve A : 12-1 = 10
Moyenne épreuve B : 12.92
Ecart-type épreuve B : 3.93
Nombre de degrés de liberté épreuve B : 12-1 = 11

Nous pouvons maintenant calculer la t-statistique :


t = (Moyenne B - Moyenne A) / (Ecart-type B / racine carrée de n) = (12,92- 8,58) / (3,93 / racine
carrée de 12) = 4.34
La valeur critique pour t avec 10 degrés de liberté et un seuil de significativité de 5% est de 2.228.

B) Test de Fisher

Nous allons utiliser le test de Fisher pour vérifier si les variances des épreuves A et B sont
significativement différentes.
H0 : Les variances des épreuves A et B ne sont pas significativement différentes
H1 : Les variances des épreuves A et B sont significativement différentes Nous allons utiliser un
test bilatéral avec un seuil de significativité de 5 % (alpha = 0.05).
Pour appliquer le test de Fisher, nous avons besoin de calculer le ratio des variances :
Ratio des variances = variance épreuve A / variance épreuve B = 13.58 / 15.41 = 0.89
La valeur critique pour le ratio des variances avec 10 degrés de liberté
( épreuve A) et 11
degrés de liberté (épreuve B) et un seuil de significativité de 5% est de 0.371. Comme notre ratio
des variances est supérieur à la valeur critique, nous pouvons rejeter l'hypothèse nulle
et conclure que les variances des épreuves A et B sont significativement différentes.

C) Test du khi-2

Le test de Khi-2 permet de vérifier s'il y a une différence significative entre les distributions de
chaque épreuve.
H0 : Les distributions des épreuves A et B ne sont pas significativement différentes H1 : Les
distributions des épreuves A et B sont significativement différentes
Nous allons utiliser un test bilatéral avec un seuil de significativité de 5 % (alpha = 0.05).
Nous allons d'abord construire une table de contingence pour le nombre de stagiaires obtenant
chaque note dans chaque épreuve :

| Note | Epreuve A | Epreuve B |


|---------|----------|----------|
|3|1|0|
|4|2|1|
|6|1|1|
|7|1|0|
|8|0|1|
|9|2|2|
| 10 | 1 | 1 |
| 11 | 1 | 1 |
| 12 | 1 | 0 |
| 13 | 1 | 3 |
| 14 | 0 | 1 |
| 15 | 1 | 1 |
| 19 | 0 | 2 |

Nous pouvons maintenant calculer le test de Khi-2 :


Khi-2 = somme(observé - attendu)^2 / attendu
Pour calculer les valeurs attendues, nous pouvons utiliser la formule suivante :valeur attendue =
(somme lignes * somme colonnes) / somme totale
Nous obtenons les valeurs suivantes pour le test de Khi-2 :
Khi-2 = 10.718
Nombre de degrés de liberté = (nombre de lignes - 1) * (nombre de colonnes - 1) = 11
La valeur critique pour le test de Khi-2 avec 11 degrés de liberté et un seuil de significativité
de 5% est de 19.68. Comme notre valeur de Khi-2 est inférieure à la valeur critique, nous ne
pouvons pas rejeter l'hypothèse nulle et conclure qu'il n'y a pas de différence significative entre les
distributions des épreuves A et B.
IV.2) SANS LES DEUX STAGIAIRES QUI SE DISTINGUENT

Pour calculer la variance, nous avons besoin de la moyenne de chaque ensemble de données :
Moyenne de X = (3+4+6+7+9+10+9+11+12+13) / 10 = 8.4
Moyenne de Y = (8+9+10+13+15+14+13+16+13+19) / 10 = 13

Maintenant, nous pouvons calculer la variance :


Variance de X = [(3-8.4)^2 + (4-8.4)^2 + … + (13-8.4)^2] / 10 = 10.04
Variance de Y = [(8-13)^2 + (9-13)^2 + ….+ (19-13)^2 ] / 10 = 10
La covariance mesure la relation lineaire entre les deux ensembles de
données. Nous pouvons la calculer ainsi :
Covariance de X et Y = [(3-8.4)(8-13) + (4-8.4)(9-13) + ... + (13-8.4)(19-13)]/10 = 9
Le coefficient de corrélation mesure la force et la direction de la relation linéaire entre les deux
ensembles de données. Nous pouvons le calculer ainsi :
Coefficient de corrélation de X et Y = covariance de X et Y / (écart-type de X x écart-type de
Y) = 9 / (√10.04 x √10) ≈ 0.90

A-) Test de Student

Pour le test de Student, nous allons comparer les moyennes des résultats des épreuves A et B pour
déterminer s'il y a une différence significative entre les deux.
Nous avons :
Moyenne des résultats de l'épreuve A = (3+4+6+7+9+10+9+11+12+13) / 10 = 8.4
Moyenne des résultats de l'épreuve B = (8+9+10+13+15+14+13+16+13+19) / 10 = 13 Nous allons
maintenant calculer la variance de l'échantillon combiné :
Variance combinée = [(n1-1)*s1^2 + (n2-1)*s2^2] / (n1+n2-2) n1 = n2 = 10 (nombre de
stagiaires dans chaque épreuve) s1 = écart type des résultats de l'épreuve A = 3.17 s2 = écart
type des résultats de l'épreuve B = 3.16 Variance combinée = [(10-1)*3.17^2 + (10-
1)*3.16^2] / (10+10-2) = 9.087

Nous allons maintenant calculer la statistique T :


T = (M1 - M2) / sqrt(Sp * (1/n1 + 1/n2))
M1 = Moyenne des résultats de l'épreuve A = 8.4
M2 = Moyenne des résultats de l'épreuve B = 13
Sp = Variance combinée = 9.087
T = (8.4 - 13) / sqrt(9.087 * (1/10 + 1/10)) = -6.008

La valeur critique pour le test de Student avec 18 degrés de liberté et un seuil de


significativité de 5% est de 2.101. Comme notre valeur de T est inférieure à la valeur critique, nous
pouvons rejeter l'hypothèse nulle et conclure qu'il y a une différence significative entre les
distributions des épreuves A et B.

C) Test de Fisher
Pour le test de Fisher, nous allons comparer les variances des résultats des épreuves A et B pour
déterminer s'il y a une différence significative entre les deux.
Nous avons :
Variance des résultats de l'épreuve A = 10.04
Variance des résultats de l'épreuve B = 10 Nous allons
maintenant calculer la statistique F :
F = s1^2 / s2^2
s1 = variance des résultats de l'épreuve A = 10.04 s2 = variance des
résultats de l'épreuve B = 10
F = 100.8016 / 100 = 1.008
La valeur critique pour le test de Fisher avec 9 degrés de liberté dans le numérateur et 9
degrés de liberté dans le dénominateur et un seuil de significativité de 5% est de 2.70. Comme notre
valeur de F est inférieure à la valeur critique, nous ne pouvons pas rejeter l'hypothèse nulle et
conclure qu'il n'y a pas de différence significative entre les distributions des épreuves A et B en
termes de variances des résultats.

V-) INTERPRÉTATION DES RÉSULTATS

V-1) Test de student

a) Avec les deux stagiaires

Comme notre valeur de t est supérieure à la valeur critique, nous pouvons rejeter l'hypothèse nulle
et conclure que les résultats des épreuves A et B sont significativement différents.

b) Sans les deux stagiaires qui se distinguent

Le test de Student nous permet de conclure qu'il y a une différence significative entre les
distributions des épreuves A et B en termes de moyennes des résultats. Les résultats de l'épreuve B
sont significativement plus élevés que ceux de l'épreuve A, ce qui pourrait indiquer une
amélioration des compétences des stagiaires après la formation.

V-2) Test de Fisher

a) Avec les deux stagiaires

Le test de Student nous permet de conclure qu'il y a une différence significative entre les
résultats des épreuves A et B. Cette différence peut être due à l'effet de la formation sur les
stagiaires.
Le test de Fisher nous permet de conclure que les variances des épreuves A et B sont
significativement différentes. Cela peut indiquer que la formation a eu un effet différent sur la
dispersion des résultats des stagiaires pour chaque épreuve.
En conclusion, la formation semble avoir eu un effet significatif sur les résultats des stagiaires aux
épreuves A et B, mais cet effet a été différent pour chaque épreuve, ce qui a entraîné une dispersion
différente des résultats.

b) Sans les deux stagiaires qui se distinguent

Le test de Fisher nous permet de conclure qu'il n'y a pas de différence significative entre les
distributions des épreuves A et B en termes de variances des résultats. Cela signifie que les
distributions ont des niveaux de dispersion similaires, ce qui est important pour interpréter les
différences de moyennes que nous avons observées avec le test de student

V-3) Test du khi-2

a) Avec les deux stagiaires

Le test de Khi-2 nous permet de conclure qu'il n'y a pas de différence significative entre les
distributions des épreuves A et B. Cela signifie que les stagiaires ont obtenu des notes similaires
dans les deux épreuves, ce qui peut indiquer que les compétences évaluées dans les deux épreuves
sont similaires.

Vous aimerez peut-être aussi