Vous êtes sur la page 1sur 8

Réalisé par : Ettalbi Houria

Introduction  :

La rémunération d’une catégorie d’emplois présente le taux maximum de


salaire ou le maximum de l’échelle de salaire des emplois qui y sont regroupés.
Le même taux ou la même échelle de salaire ne signifie pas nécessairement le
même salaire versé. La Loi prévoit que le taux maximum de salaire ou le
maximum de l’échelle de salaire des emplois regroupés dans une catégorie doit
être le même.
On ne tient généralement pas compte des heures supplémentaires dans le
calcul de la rémunération. Il s’agit de la rémunération prévue pour l’emploi et
non du salaire versé à chacune des personnes occupant ces emplois. Les
salaires versés aux personnes dont les emplois sont regroupés dans une
catégorie peuvent varier, notamment en raison de règles de progression
connues du personnel basées, par exemple, sur les années de service au sein
de l’entreprise (ancienneté) ou sur le mérite.
Donc il est possible de regrouper au sein d’une même catégorie des emplois
qui n’ont pas le même salaire si cette différence s’explique par une logique de
progression. Si un emploi ne partage pas avec d'autres les caractéristiques
communes spécifiées, il constitue à lui seul une catégorie d'emplois.
De plus, il peut être pertinent de vérifier si la rémunération relative d'une
catégorie dans une entreprise a été établie lorsque la catégorie était à
prédominance féminine ou lorsqu'elle était à prédominance masculine.
Dans le cas où la rémunération aurait été déterminée alors que la catégorie
comptait surtout des femmes, il pourrait être possible qu'elle soit empreinte de
discrimination fondée sur le sexe.
Dans tous les cas, le choix de la prédominance sexuelle des catégories
d’emplois doit se faire dans l’esprit de la loi qui, rappelons-le, demeure la
correction des écarts salariaux entre les catégories d’emplois occupées par les
femmes et celles occupées par les hommes.
Donc le salaire dépend de plusieurs variables, mais comment on peut
expliquer cette variabilité ?
I- Analyse de la variance :
1- Définition ;

En statistique l’analyse de la variance (terme souvent abrégé par le terme


anglais ANOVA : analysis of variance) est un modèle statistique utilisé pour
comparer les moyennes d'échantillons.
Ce test s’applique lorsque l’on mesure une ou plusieurs variables explicatives
catégorielle (appelées alors facteurs de variabilité, leurs différentes modalités
étant parfois appelées « niveaux ») qui ont de l'influence sur la loi d'une
variable continue à expliquer. On parle d'analyse à un facteur lorsque l'analyse
porte sur un modèle décrit par un seul facteur de variabilité, d'analyse à deux
facteurs ou d'analyse multifactorielle sinon.

2- Le test de Fisher

La forme générale de l'analyse de variance repose sur le test de Fisher et donc


sur la normalité des distributions et l'indépendance des échantillons.

 Normalité de la distribution : on suppose, sous l'hypothèse nulle, que les


échantillons sont issus d'une même population et suivent une loi
normale. Il est donc nécessaire de vérifier la normalité des distributions
et l'homoscédasticité (homogénéité des variances, par des tests
de Bartlett ou de Levene par exemple). Dans le cas contraire, on pourra
utiliser les variantes non paramétriques de l'analyse de variance (ANOVA
de Kruskal-Wallis ou ANOVA de Friedman).

 Indépendance des échantillons : on suppose que chaque échantillon


analysé est indépendant des autres échantillons. En pratique, c'est la
problématique qui permet de supposer que les échantillons sont
indépendants. Un exemple fréquent d'échantillons dépendants est le cas
des mesures avec répétitions (chaque échantillon est analysé plusieurs
fois). Pour les échantillons dépendants, on utilisera l'analyse de variance
à mesures répétées ou l'ANOVA de Friedman pour les cas non
paramétriques.

3- Pourquoi choisir ANOVA ?

Pour simplifier les choses je vais considérer que ma recherche comporte


deux groupes (indépendants ou non) et que la variable dépendante est
quantitative.
De plus, ANOVA sert :

 Pour comparer la variance de ces groupes (variable x) afin d'inférer


une relation entre X et Y. (dans notre exemple X représente : jobcateg
(Manager, Clerical, Custodial) et Y (le salaire).
 Les tests statistiques comme l'analyse de variance permettent au
chercheur de rejeter ou non l'hypothèse nulle.
 Donc de prendre une décision quant à la valeur de cette hypothèse
(est-elle vraie ou fausse ?).
 Avant de procéder à une analyse de variance, il faut formuler vos
hypothèses statistiques (Ho et H1).

 Et dans notre exemple :

 Ho : il n'y a pas de différence entre les moyennes des trois groupes.
 H1 : 'il existe une différence entre les moyennes des trois groupes.

II- ANOVA avec SPSS :


1- Qu’est ce que SPSS  ?

IBM SPSS Statistics est le premier logiciel statistique au monde utilisé pour
résoudre les problèmes métier et les enjeux de la recherche au moyen
d'analyses, de tests d'hypothèses, de l'analyse géospatiale et de l'analyse
prédictive.

Les entreprises utilisent IBM SPSS Statistics pour comprendre les données,
analyser les tendances, réaliser des prévisions et définir des plans afin de
valider les hypothèses et de tirer des conclusions exactes.

2- Un outil complet  :

IBM SPSS Statistics propose toutes les fonctions de base de statistiques, de


manipulation des données et de reporting.
Mais il permet également :

Pour l’analyse avancée  :


 « Advanced Statistics »: modèles linéaires généralisés (GLM) et mixtes
(GLMM), équations d’estimation généralisées (GEE), estimation de
composant de variance, analyse de la variance multivariée (MANOVA),
analyses de survie dont Kaplan-Meier, régression de Cox,  analyses log-
linéaires.
 « Regression »  : aller au-delà de la régression linéaire : régression
logistique binaire et multinomial, régression non linéaire, (doubles)
moindres carrés.
 « Custom Tables »  :  construire rapidement des tableaux d’analyse
simple, avec une interface purement graphique.

Pour les échantillons complexes :


 « Missing  Values »  : méthodes statistiques pour estimer et remplacer
les données manquantes.
 « Categories »  :  révéler les relations sous-jacentes entre variables
multivariées à l’aide de cartes factorielles sur les données catégorielles à
l’aide de nuage de points et de cartes factorielles
 « Complex Samples »  :  créer des échantillons complexes et mettre en
œuvre des inférences statistiques plus robustes.
 « Conjoint »  :  analyse conjointe, typiquement pour identifier les
caractéristiques d’un produit importantes pour le consommateur
 « Exact Tests  » : traiter les cas d’échantillons de faible taille ou
d’occurrences rares.
Pour l’analyse prévisionnelle  :
 « Forecasting  » : Simulation et prévision pour les séries de données
temporelles à l’aide de modèles autorégressifs (ARMA/ARIMA) ou de
lissage.
 « Decision Trees  » : créer des arbres de décisions graphiquement et de
façon intuitive.
 « Direct Marketing  » : pour les responsables marketing sans expertise
approfondie en statistiques pour des analyses RFM, des classifications,
des profilages de prospects, des scores de propension, et des tests de
contrôle.
 « Neural Networks  » : mise en œuvre des réseaux de neurones de type
Multi-Layer Perceptron (MLP) et Radial Basis Function (RBF).
III- Le résultat du test ANOVA :
SPSS produit de nombreuses données pour le test ANOVA unidirectionnel.

Descriptifs  :

Cela vaut la peine d’avoir un rapide coup d’œil aux statistiques descriptives
générées par SPSS.

Si vous regardez dans le tableau « Descriptifs », vous verrez que nos données
d’échantillon produisent une différence dans les scores moyens des 3 niveaux
de notre variable « jobcatg ».

Homogénéité des variances  :

Une exigence pour le test ANOVA est que les variances de chaque groupe de
comparaison soient égales. Je l’ai testé en utilisant la statistique de Levene. Ce
que nous cherchons ici est une valeur de signification supérieure à 0.05.

Dans cet exemple, on a la valeur de signification de la statistique de Levene


basée sur une comparaison des médianes est de est de 0,00. Ce résultat n’est
pas significatif, ce qui signifie que l’exigence d’homogénéité de la variance a été
remplie et que le test ANOVA peut être considéré comme robuste.

Statistique F (résultat ANOVA).

Le tableau présente l'effet inter-groupes et l'effet intra-groupes. Il présente


également le total des deux effets pour la somme des carrés et les degrés de
liberté.
La colonne de la somme des carrés indique
 pour la variabilité inter-groupes, la sommation de l'écart de chaque
moyenne de groupe par rapport à la moyenne totale au carré multiplié
par le nombre de sujets;
 pour la variabilité intra-groupes, la variance (écart-type au carré) de
chaque groupe multipliée par le nombre de sujets de ce groupe moins
un.
Les degrés de libertés sont les mêmes que pour le test d'homogénéité des
variances.
La moyenne des carrés est calculée pour les deux effets en divisant la somme
des carrés par le degré de liberté associé.
La valeur de F est de 434 ,481. Cela signifie qu’il existe une différence
statiquement significative entre les moyennes des différents niveaux de la
variable « jobcatg ».

Vous aimerez peut-être aussi