Académique Documents
Professionnel Documents
Culture Documents
La loi de Student est une distribution de probabilité continue qui est utilisée pour tester des
hypothèses sur la moyenne d'une population lorsque l'écart-type est inconnu. Elle est également
utilisée pour la construction d'intervalles de confiance pour la moyenne d'une population.
2-) DESCRIPTION
La loi de Student est définie comme la distribution de probabilité de la variable aléatoire t, qui est
calculée à partir d'un échantillon de taille n tiré d'une population normalement distribuée. La
variable aléatoire t est définie comme suit : t = (X - μ) / (S / sqrt(n))
où X est la moyenne de l'échantillon, μ est la moyenne de la population, S
est l'écart-type de l'échantillon et n est la taille de l'échantillon.
La loi de Student a plusieurs propriétés et caractéristiques importantes :- La loi de Student est
toujours centrée sur zéro, c'est-à-dire que la moyenne
de la distribution est égale à zéro. - La forme de la distribution de la loi de Student dépend du
nombre de degrés de liberté.
Plus le nombre de degrés de liberté est élevé, plus la distribution se
rapproche d'une distribution normale. - La distribution de la loi de Student est symétrique
autour de zéro.
- La valeur de la loi de Student est toujours positive ou négative.
- La moyenne et la variance de la loi de Student dépendent du nombre de degrés de liberté.
La loi de Student est utilisée dans la régression linéaire car elle permet de calculer l'intervalle de
confiance pour la pente de la droite de régression et de tester l'hypothèse nulle selon laquelle la
pente est égale à zéro. Si la pente est significativement différente de zéro, cela signifie qu'il y a une
relation linéaire significative entre les variables indépendantes et dépendantes.
La loi de Student est également utilisée pour calculer les intervalles de confiance pour les
prévisions de la variable dépendante à partir des valeurs des variables indépendantes. Cela permet
de déterminer la précision des prévisions et d'évaluer la qualité du modèle de régression linéaire.
La loi de student peut être utilisée dans le cas de la régression linéaire pour tester l'hypothèse nulle
selon laquelle le coefficient de régression est égal à zéro. Pour ce faire, vous devez suivre les étapes
suivantes :
a Collecter les données : collectez les données pour les variables indépendantes et
dépendantes.
En résumé, la loi de student peut être utilisée pour tester l'hypothèse selon laquelle le coefficient de
régression est égal à zéro dans le cadre de la régression linéaire. Cela permet de vérifier
l'importance statistique du coefficient de régression et son impact sur la variable dépendante.
La loi de khi-2 est utilisée pour évaluer la qualité de l'ajustement d'un modèle statistique à un
ensemble de données. Elle permet de comparer les valeurs observées avec les valeurs attendues
selon le modèle, en calculant la somme des écarts au carré normalisés par la variance attendue.
La loi de Khi-2 est une distribution de probabilité continue qui est utilisée pour tester
l'indépendance ou l'homogénéité de deux variables catégorielles. Elle est également utilisée pour
l'analyse de données de contingence, comme les tableaux de contingence.
2-) DESCRIPTION
La loi de Khi-2 est définie comme la somme des carrés de k variables aléatoires normalement
distribuées et indépendantes. Si Z1, Z2, ..., Zk sont des variables aléatoires normalement distribuées
et indépendantes, alors la variable aléatoire Khi-2 est définie comme suit :
X^2 = Z1^2 + Z2^2 + ... + Zk^2
La distribution de probabilité de la loi de Khi-2 dépend du nombre de degrés de liberté (ddl)
associés à la distribution. Le nombre de degrés de liberté est égal au nombre de variables aléatoires
normalement distribuées utilisées pour calculer la loi de Khi-2.
La loi de Khi-2 a plusieurs propriétés et caractéristiques importantes : - La loi de Khi-2
est toujours une distribution à droite, c'est-à-dire que la majorité des valeurs se trouvent sur le côté
droit de la distribution.
- La forme de la distribution de la loi de Khi-2 dépend du nombre de degrés de liberté. Plus
le nombre de degrés de liberté est élevé, plus la distribution se rapproche d'une distribution normale.
- La valeur de la loi de Khi-2 est toujours positive, c'est-à-dire que X^2 > 0. - La distribution
de la loi de Khi-2 est symétrique pour les valeurs élevées de ddl.
- La moyenne et la variance de la loi de Khi-2 dépendent du nombre de degrés de liberté. 3-)
UTILISATION DANS LE CAS DE LA RÉGRESSION LINÉAIRE
En régression linéaire, la loi de khi-2 est utilisée pour tester l'hypothèse nulle selon laquelle les
résidus (différences entre les valeurs observées et les valeurs prédites par le modèle) suivent une
distribution normale avec une variance constante. Si cette hypothèse est rejetée, cela peut indiquer
que le modèle ne convient pas bien aux données et doit être révisé ou que des transformations
doivent être appliquées aux données pour mieux s'adapter au modèle;permet aussi de comparer les
effectifs (fréquences) observées dans un échantillon qui découlent des hypothèses statistiques.
Src : PAF-1010 : analyse quantitative de gestion
La loi du khi-2 peut être utilisée dans le cas de la régression linéaire pour tester l'hypothèse
nulle selon laquelle les résidus de la régression sont distribués normalement. Pour ce faire, vous
devez suivre les étapes suivantes :
a Collecter les données : collectez les données pour les variables indépendantes et
dépendantes.
c Calculer le test du khi-2 : calculez le test du khi-2 en comparant la distribution des résidus
avec une distribution normale. Pour ce faire, vous pouvez utiliser un graphique de probabilité
normale ou un test d'ajustement du khi-2.
En résumé, la loi du khi-2 peut être utilisée pour tester l'adéquation de la distribution des résidus à
une distribution normale dans le cadre de la régression linéaire. Cela permet de vérifier une
hypothèse importante pour l'interprétation des résultats de la régression linéaire.
La loi de Fisher, également connue sous le nom d'analyse de la variance ( ANOVA), est
utilisée dans la régression linéaire pour tester l'hypothèse nulle selon laquelle toutes les pentes des
différentes variables indépendantes sont égales à zéro. Cette hypothèse est testée en comparant la
variation entre les groupes de données avec la variation au sein des groupes de données. Si la
variation entre les groupes est significativement plus grande que la variation au sein des groupes,
cela suggère qu'il y a une relation linéaire significative entre les variables indépendantes et
dépendantes.
La loi de Fisher est également utilisée pour évaluer la qualité du modèle de régression
linéaire en comparant le modèle complet avec un modèle réduit qui ne contient qu'une partie des
variables indépendantes. Si le modèle complet est significativement meilleur que le modèle réduit,
cela suggère que toutes les variables indépendantes sont importantes pour expliquer la variance de
la variable dépendante. En revanche, si le modèle réduit est presque aussi bon que le modèle
complet, cela suggère que certaines variables indépendantes peuvent être supprimées du modèle
sans perdre beaucoup d'information.
La loi de Fisher est utilisée pour tester l'hypothèse nulle selon laquelle tous les coefficients de
régression sont égaux à zéro. Dans le cas de la régression linéaire, cela signifie que la variable
indépendante n'affecte pas la variable dépendante.
Src : Introduction aux statistiques -JMP
Pour utiliser la loi de Fisher dans le cas de la régression linéaire, il faut d'abord estimer le modèle de
régression et calculer la somme des carrés des résidus (RSS) et la somme des carrés totaux (SST).
Ensuite, on calcule le carré de la statistique F en divisant la différence entre SST et RSS par le
nombre de variables indépendantes et en divisant ensuite par RSS. Ce ratio est ensuite comparé à
une valeur critique de F pour déterminer si l'hypothèse nulle doit être rejetée ou non.
Si la valeur de F calculée est supérieure à la valeur critique de F, on peut conclure que la variable
indépendante a un effet significatif sur la variable dépendante. Si la valeur de F calculée est
inférieure à la valeur critique de F, on ne peut pas rejeter l'hypothèse nulle et on peut conclure que
la variable indépendante n'a pas d'effet significatif sur la variable dépendante.
En résumé, la loi de Fisher est utilisée pour tester l'effet global des variables indépendantes dans un
modèle de régression linéaire.
Pour appliquer les lois de Khi-2 Student et Fisher, nous devons d'abord vérifier si les données
suivent une distribution normale. Pour cela, nous pouvons tracer un histogramme pour chaque
épreuve : Histogramme épreuve A :
Histogramme épreuve B :
Les histogrammes semblent suivre une distribution normale, nous pouvons donc appliquer les lois
de Khi-2 Student et Fisher.
Pour calculer la loi de khi-2 student et Fisher nous avons besoin de :
- Variance de l'échantillon
- covariance de l'échantillon
- coefficient de corrélation
Tout d'abord, pour calculer la variance et l'écart type, nous devons trouver la moyenne de chaque
épreuve:
- Moyenne de l'épreuve A: (3+4+6+7+9+10+9+11+12+13+15+4)/12 = 8, 58
- Moyenne de l'épreuve B: (8+9+10+13+15+14+13+16+13+19+6+19)/12 = 12, 92 Ensuite, nous
pouvons calculer la variance de chaque épreuve en utilisant la formule suivante:
Var(x) = ∑(xi - μ)² / n
- Variance de l'épreuve A: [(3-8,58)² + (4-8,58)² + (6-8,58)² + ... + (15-8,58)² + (4-8,58)²] / 12 ≈
13,58
- Variance de l'épreuve B: [(8-12,92)² + (9-12,92)² + (10-12,92)² + ... + (6-
12 ,92)² + (19-12,92)²] / 12
≈ 15,41
Puis, nous pouvons calculer l'écart type en prenant la racine carrée de la variance:
- Ecart type de l'épreuve A: √16,25 ≈ 3,69
- Ecart type de l'épreuve B: √16,25 ≈ 3,93
Ensuite, nous pouvons calculer la covariance en utilisant la formule suivante: cov(x,y) = ∑[(xi - μx)
(yi - μy)] / n
- Covariance : [((3-8,58)*(8-12,92)) + ((4-8,58)*(9-12,92)) + ((6-8,58)*(10-12,92)) + ... +
((15-8,58)*(6-12,92)) + ((4-8,58)*(19-12,92))] / 12 = 1.48
Enfin, nous pouvons calculer le coefficient de corrélation en utilisant la formule suivante: r(x,y) =
cov(x,y) / (σx * σy) - Coefficient de corrélation: 1,48 / (3,69 * 3,93) = 0, 1
A) Test de Student
Nous allons utiliser le test de Student pour vérifier s'il y a une différence significative entre les
résultats des épreuves A et B.
Pour appliquer le test de Student, nous avons besoin de calculer la moyenne, l'écart-type et le
nombre de degrés de liberté pour chaque épreuve :
Moyenne épreuve A : 8.58
Ecart-type épreuve A : 3.69
Nombre de degrés de liberté épreuve A : 12-1 = 10
Moyenne épreuve B : 12.92
Ecart-type épreuve B : 3.93
Nombre de degrés de liberté épreuve B : 12-1 = 11
B) Test de Fisher
Nous allons utiliser le test de Fisher pour vérifier si les variances des épreuves A et B sont
significativement différentes.
H0 : Les variances des épreuves A et B ne sont pas significativement différentes
H1 : Les variances des épreuves A et B sont significativement différentes Nous allons utiliser un
test bilatéral avec un seuil de significativité de 5 % (alpha = 0.05).
Pour appliquer le test de Fisher, nous avons besoin de calculer le ratio des variances :
Ratio des variances = variance épreuve A / variance épreuve B = 13.58 / 15.41 = 0.89
La valeur critique pour le ratio des variances avec 10 degrés de liberté
( épreuve A) et 11
degrés de liberté (épreuve B) et un seuil de significativité de 5% est de 0.371. Comme notre ratio
des variances est supérieur à la valeur critique, nous pouvons rejeter l'hypothèse nulle
et conclure que les variances des épreuves A et B sont significativement différentes.
C) Test du khi-2
Le test de Khi-2 permet de vérifier s'il y a une différence significative entre les distributions de
chaque épreuve.
H0 : Les distributions des épreuves A et B ne sont pas significativement différentes H1 : Les
distributions des épreuves A et B sont significativement différentes
Nous allons utiliser un test bilatéral avec un seuil de significativité de 5 % (alpha = 0.05).
Nous allons d'abord construire une table de contingence pour le nombre de stagiaires obtenant
chaque note dans chaque épreuve :
Pour calculer la variance, nous avons besoin de la moyenne de chaque ensemble de données :
Moyenne de X = (3+4+6+7+9+10+9+11+12+13) / 10 = 8.4
Moyenne de Y = (8+9+10+13+15+14+13+16+13+19) / 10 = 13
Pour le test de Student, nous allons comparer les moyennes des résultats des épreuves A et B pour
déterminer s'il y a une différence significative entre les deux.
Nous avons :
Moyenne des résultats de l'épreuve A = (3+4+6+7+9+10+9+11+12+13) / 10 = 8.4
Moyenne des résultats de l'épreuve B = (8+9+10+13+15+14+13+16+13+19) / 10 = 13 Nous allons
maintenant calculer la variance de l'échantillon combiné :
Variance combinée = [(n1-1)*s1^2 + (n2-1)*s2^2] / (n1+n2-2) n1 = n2 = 10 (nombre de
stagiaires dans chaque épreuve) s1 = écart type des résultats de l'épreuve A = 3.17 s2 = écart
type des résultats de l'épreuve B = 3.16 Variance combinée = [(10-1)*3.17^2 + (10-
1)*3.16^2] / (10+10-2) = 9.087
C) Test de Fisher
Pour le test de Fisher, nous allons comparer les variances des résultats des épreuves A et B pour
déterminer s'il y a une différence significative entre les deux.
Nous avons :
Variance des résultats de l'épreuve A = 10.04
Variance des résultats de l'épreuve B = 10 Nous allons
maintenant calculer la statistique F :
F = s1^2 / s2^2
s1 = variance des résultats de l'épreuve A = 10.04 s2 = variance des
résultats de l'épreuve B = 10
F = 100.8016 / 100 = 1.008
La valeur critique pour le test de Fisher avec 9 degrés de liberté dans le numérateur et 9
degrés de liberté dans le dénominateur et un seuil de significativité de 5% est de 2.70. Comme notre
valeur de F est inférieure à la valeur critique, nous ne pouvons pas rejeter l'hypothèse nulle et
conclure qu'il n'y a pas de différence significative entre les distributions des épreuves A et B en
termes de variances des résultats.
Comme notre valeur de t est supérieure à la valeur critique, nous pouvons rejeter l'hypothèse nulle
et conclure que les résultats des épreuves A et B sont significativement différents.
Le test de Student nous permet de conclure qu'il y a une différence significative entre les
distributions des épreuves A et B en termes de moyennes des résultats. Les résultats de l'épreuve B
sont significativement plus élevés que ceux de l'épreuve A, ce qui pourrait indiquer une
amélioration des compétences des stagiaires après la formation.
Le test de Student nous permet de conclure qu'il y a une différence significative entre les
résultats des épreuves A et B. Cette différence peut être due à l'effet de la formation sur les
stagiaires.
Le test de Fisher nous permet de conclure que les variances des épreuves A et B sont
significativement différentes. Cela peut indiquer que la formation a eu un effet différent sur la
dispersion des résultats des stagiaires pour chaque épreuve.
En conclusion, la formation semble avoir eu un effet significatif sur les résultats des stagiaires aux
épreuves A et B, mais cet effet a été différent pour chaque épreuve, ce qui a entraîné une dispersion
différente des résultats.
Le test de Fisher nous permet de conclure qu'il n'y a pas de différence significative entre les
distributions des épreuves A et B en termes de variances des résultats. Cela signifie que les
distributions ont des niveaux de dispersion similaires, ce qui est important pour interpréter les
différences de moyennes que nous avons observées avec le test de student
Le test de Khi-2 nous permet de conclure qu'il n'y a pas de différence significative entre les
distributions des épreuves A et B. Cela signifie que les stagiaires ont obtenu des notes similaires
dans les deux épreuves, ce qui peut indiquer que les compétences évaluées dans les deux épreuves
sont similaires.