Vous êtes sur la page 1sur 244

4*'ÉDITION MASSON m

STATISTIQUE
CHEZ LE MÊME ÉDITEUR

Dans la même collection


Méthode statistique. Applications à la Biologie, la Médecine et
l'Écologie, par S. Frontier, 1981, 248 pages, 54 figures.

Annales PCEM I. Prohahilltés et statistique. Années 1976-1979, par


J. L. Mathieu et J. M. Monnez. 1980, 128 pages.

Exercices et problèmes commentés. Mathématiques pour biologistes,


par J. M. Legay et al. 1981, 208 pages.

Initiation aux méthodes de la statistique et du calcul des proba¬


bilités, par P, Jaffard. 1978, 3® tirage, 340 pages.

Probabilités, par P. Jaffard. 1979, 2® tirage, 68 pages.

Statistique, par P. Jaffard. 1981, 2® tirage, 56 pages.

Analyse factorielle. Programmation sur micro-ordinateurs, par


Th. Foucart. 1982, 248 pages.

Introduction aux modèles mathématiques en biologie, par


E. JOLIVET, 1982, 160 pages.

La régression : nouveau regard sur une ancienne méthode sta¬


tistique, par R. Tomassone, E. Lesquoy et C. Miller. 1983,
208 pages.
STATISTIQUE

S. GELLER
Président du Centre d’Exploration Fonctionnelle
et d’Etude de la Reproduction (C.E.F.E.R.)
de Marseille.

Quatrième édition mise à jour

MASSON IR
Paris New York Barcelone
Milan Mexico Sao PaulO"
1983
Tous droits de traduction, d'adaptation et de reproduction par tous procédés
réservés pour tous pays
La loi du 11 mars 1957 n'autorisant, aux termes des alinéas 2 et 3 de l'article 41,
d'une part, que les «copies ou reproductions strictement réservées à l'usage privé du
copiste et non destinées à une utilisation collective » et, d'autre part, que les analyses et.
les courtes citations dans un but d'exemple et d'illustration, « toute représentation ou
reproduction intégrale, ou partielle, faite sans le consentement de l'auteur ou de ses
ayants droit ou ayants cause, est illicite » (alinéa l®"^ de l'article 40).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue¬
rait donc une contrefaçon sanctionnée par les articles 425 et suivants du Code pénal.

© Masson, Paris, 1974, 1983


ISBN 2-225-79 123-6

Masson S.A. 120 Bd Saint-Germain, 75280 Paris Cedex 06


Masson Publishing U.S.A. Inc. 133 East, 58 th Street, New York, N.Y. 10022
Toray-Masson S.A. Balmes 151, Barcelona 8
Masson Italia Editori S.p.A. "Via Giovanni Pascoli 55, 20133 Milano
Masson Editores Dakota 383, Colonia Napoles, Mexico 18 DF
Editora Masson Do Brasil Ltda Rua Dr Cesario Motta Jr. 61, 01221 Sao Paulo
TABLE DES MATIÈRES

Avant-propos . ]
Introduction . 3

Première partie
STATISTIQUE DESCRIPTIVE

Chapitre premier. — Description d’une série statistique . 7


Mise en ordre des données. Distribution des fréquences . 7
Groupement des données en classes . 8
Intervalle de classe . 9
Fréquences relatives . 11
Diagramme des fréquences . 11
Principaux types de diagrammes de fréquences. 13
Polygone des fréquences . 15
Fréquences cumulées . 15
Diagramme cumulatif . 16
Cas d’un critère qualitatif . 17

Chapitre II. — Paramètres caractéristiques d’une distribution de fré¬


quences . 19
Moyenne . 19
Moyenne pondérée . 20
Données groupées . 21
Moyenne provisoire . 21
Insuffisance de la moyenne pour caractériser une distribution de
fréquences . 23
Variance . 23
Données groupées . 25
Calcul simplifié de la variance . 25
Formules pratiques de la variance . 26
Petits échantillons . 27
Ecart type . 28
Coefficient de variation . 28
Approche non paramétrique : quantités, percentiles . 29

Deuxième partie
STATISTIQUE PROBABILISTE

Chapitre III. — Introduction à l’étude des phénomènes aléatoires .. 33


Notion de probabilité . 33
Probabilité et fréquence : Loi des grands nombres . 35
Variable aléatoire. Distribution de probabilités . 36
VI TABLE DES MATIÈRES

Moyenne . 37
Espérance mathématique . 37
Variance. Ecart type . 38
Diagramme des probabilités . 39
Diagramme des probabilités et diagramme des fréquences . 40
Fonction de densité de probabilité . 40
Courbe de fréquence . 41
Probabilités partielles et probabilités totales . 42
Probabilités cumulées. Diagramme intégral . 43
Fonction de répartition . 44
Exploitation probabiliste . 45

Chapitre IV. — Distribution binomiale . 48


Epreuve du double tirage . 48
Tirages multiples; distribution binomiale . 49
Expression du terme de rang r . 51
Signification de la distribution binomiale . 51
Distribution binomiale symétrique ou asymétrique . 52
Rang du terme le plus probable . 54
Moyenne d’une distribution binomiale . 55
Variance. Ecart type . 56
Distribution d’un pourcentage . 57
Exemple de distribution binomiale . 57

Chapitre V. — Distribution normale . 60


Définition . 60
Importance de la courbe normale . 61
Equation de la courbe de Gauss ... 61
Courbe centrée . 62
Ecart réduit . 63
Courbe réduite . 63
Morphologie de la courbe de Gauss . 64
Signification probabiliste de la courbe de Gauss . 66
Probabilités cumulées de la distribution normale . 67
Tables de la courbe normale . 69
Aires remarquables de la courbe de Gauss . 72

Chapitre VI. — Distribution de Poisson . 75


Exemple introductif . 75
Génèse et expression mathématique de la distribution de Poisson 75
Propriétés caractéristiques de la distribution de Poisson . 76
Applications de la distribution de Poisson . 79
Aspect différentiel de la loi de Poisson . 80

Troisième partie
INTERPRETATION STATISTIQUE

Chapitre VII. — Estimation de la moyenne . 85


Distribution des moyennes . 86
TABLE DES MATIÈRES VII

Intervalle de confiance de la moyenne . 88


Détermination de l’intervalle de confiance d’une moyenne . 88
Cas des petits échantillons. Distribution de Student . 92
Valeurs de référence . 95
Normalité biologique. Bases statistiques de la sémiologie . 101

Chapitre VIII. — Estimation d’un pourcentage . 102


Distribution des pourcentages . 102
Intervalle de confiance d’un pourcentage . 103
Abaques d’estimation d’un pourcentage . 104
Cas de petits échantillons ou de petits pourcentages . 106

Chapitre IX. — Comparaison de deux moyennes . 108


Position du problème . 109
Hypothèse nulle .. 109
Distribution des différences entre les moyennes . 110
Différence significative entre deux moyennes . 111
Cas de petits échantillons . 113

Chapitre X. — Comparaison de deux pourcentages . 116


Distribution des différences . 116
Signification d’un pourcentage . 118
Petits échantillons ou petits pourcentages . 119

Chapitre XI. — Comparaison de deux variances . 121

Chapitre XII. — Analyse de la variance . 123


Variance intragroupe . 124
Variance intergroupe .. 125
Comparaison des variances . 126

Chapitre XIII. — Adaptation d’une distribution expérimentale . 129


Adaptation d’une distribution binomiale . 130
Adaptation d’une distribution normale . 132
Distribution de Poisson . 135

Chapitre XIV. — Critère du . . 137


Notion de . 137
Distribution du . 138
Détermination pratique du X^ 139

Chapitre XV. — Critères graphiques de normalité 143


Droite de Henry . 143
Echelle gausso-métrique . 144
Loi de Galton-Mac Allister . 145
Echelle gausso-logarithmique . 145

Chapitre XVI. — Corrélation statistique 149


Diagramme de dispersion . 150
Notion de covariance . 152
VIII TABLE DES MATIÈRES

Ligne de régression . 153


Droite de régression . 155
Coefficients linéaires de régression . 157
Droite de régression et corrélation linéaire . 158
Coefficient de corrélation linéaire . 159
Principe du calcul d’un coefficient de corrélation linéaire . 161
Données groupées. Tableau de corrélation . 164
Sécurité d’un coefficient de corrélation . 170
Cas d’un petit échantillon . 171
Corrélation significativement différente de zéro . 173
Erreur type d’estimation . 174
Indice de précision . 177
Corrélation non linéaire . 178
Corrélation multiple. Corrélation partielle . 179

Chapitre XVII. — Association entre caractères qualitatifs . 181

Chapitre XVIII. — Statistiques prospectives et statistiques rétrospec¬


tives . 185

Chapitre XIX. — Statistique et méthodologie . 189


Echantillon représentatif . 189
Randomisation . 190
Conclusion . 191

Rappel mathématique . 193


Formule du binôme . 193
Triangle de Pascal . 194
Notion d’aire intégrale . 195
Expression mathématique de l’aire intégrale . 196
Fonction intégrale . 198
Représentation graphique . 199
Calcul d’une intégrale entre deux valeurs particulières. 199
Courbe en cloche . 201
Intégrale de la courbe en cloche : courbe sigmoïde . 202

Tables numériques . 203


Légende et utilisation des tables . 203
Tables numériques . 208

Exercices . 220

Index alphabétique des matières. 227


AVANT-PROPOS

C E PETIT LIVRE est le Complément naturel de notre Abrégé de Mathéma¬


tiques (1) à l’usage des étudiants en médecine. Comme ce dernier sur
le plan mathématique, il vise en effet à apporter à l’étudiant les pre¬
miers éléments d’une « culture statistique » qui doit faire partie intégrante,
croyons-nous, du bagage intellectuel du médecin.

Certes, il ne saurait être question de faire du médecin un statisticien.


Ce n’est là ni son rôle, ni d’ailleurs son désir. Mais parce qu’il est appelé
à recourir constamment aux données de la Statistique, il nous paraît indis¬
pensable que le médecin ait une compréhension claire des concepts fonda¬
mentaux de cette méthode et de la démarche intellectuelle qu’elle met en
œuvre. Ainsi seulement pourra-t-il faire un emploi judicieux de l’outil statis¬
tique, en connaître toutes les possibilités, comme aussi les limites et les sujé¬
tions qu’il comporte.

C’est pourquoi, bien plus que sur les procédés de calcul, nous avons
insisté sur les bases et le support probabiliste de cette méthode, auxquels
nous avons consacré les quatre chapitres de la deuxième partie, ainsi que
sur les principes de l’interprétation statistique qui fait l’objet de toute la
troisième partie de cet ouvrage.

Bien que les calculs statistiques n’aient pas constitué notre objectif essen¬
tiel, il nous a paru utile de donner dans chaque cas une application numé¬
rique, généralement tirée de notre expérience personnelle, destinée à illustrer
d’une manière concrète le raisonnement statistique et à montrer l’intérêt pra-

(1) S. Geller, « Abrégé de Mathématiques » à l’usage des étudiants en médecine


et en biologie, Masson 1979, 2* édition.
2 A VANT-PROPOS

tique des notions étudiées. Des tables simplifiées placées en fin d’ouvrage
permettent de suivre ces applications numériques et, au besoin, de résoudre
dans les cas simples les problèmes pratiques du même type avec lesquels le
lecteur peut se trouver confronté. Dans le même esprit, afin de permettre
à ceux qui le désireraient de tester leurs aptitudes à cet égard, ont été proposés
en fin d’ouvrage un certain nombre d’exercices, avec leurs solutions (i).

On croit souvent que les calculs statistiques sont très compliqués. On sera
surpris de constater que les opérations mises en jeu ne dépassent pas en
général le niveau du certificat d’études primaires. En revanche la compré¬
hension du raisonnement statistique nécessite quelques bases mathématiques,
comme par exemple la notion d’aire intégrale, la courbe en cloche, le déve¬
loppement du binôme, etc., toutes notions qui ont été exposées dans notre
Abrégé de Mathématiques dont la lecture devrait en principe précéder celle de
cet ouvrage. Toutefois, pour éviter des recherches au lecteur préoccupé uni¬
quement par la Statistique, nous avons résumé l’essentiel de ces bases mathé¬
matiques, d’ailleurs peu nombreuses, dans un Rappel placé à la fin de cet
ouvrage et auquel le lecteur pourra commodément se reporter en cas de
besoin.

Ainsi conçu, ce petit livre, comme l’indique son titre, ne prétend pas être
autre chose qu’un ouvrage d’initiation, ce qui rend compte de la présentation
très élémentaire que nous avons adoptée, ainsi que des libertés que, comme
précédemment et pour les mêmes raisons, nous avons parfois prises avec
l’orthodoxie. Mais muni des bases qu’il y aura puisées, le lecteur sera à même,
du moins nous l’espérons, d’aborder éventuellement par la suite, si son propos
le justifie, des ouvrages plus classiques et moins élémentaires que celui-ci.

Q) Je remercie vivement le docteur R. Scholler, directeur de la Fondation de Recherche


en Hormonologie de Paris, de l’aide qu’il a bien voulu m’apporter pour la mise au point
de ces exercices.
INTRODUCTION

Quel est le taux normal de la glycémie ? Le tabac est-il un facteur étio¬


logique du cancer du poumon ? La rubéole contractée pendant la grossesse
-est-elle réellement responsable de malformations cardiaques? Faut-il opérer
les nodules « froids » du corps thyroïde pour empêcher leur transformation
maligne éventuelle ? Faut-il compléter l’exérèse du cancer mammaire par une
castration systématique ?... Autant de questions du domaine médical dont la
réponse ne peut être fournie que par la Statistique.
Qu’est-ce donc que la Statistique ?
En 1870 Rumolin déclarait qu’en comptant la sienne, il n’existait pas
moins de soixante-trois définitions de la Statistique. Depuis, on s’en doute,
ce nombre à dû augmenter considérablement. Aussi bien n’est-il pas dans
notre intention d’en donner ici une définition supplémentaire. Il importe
cependant de distinguer la Statistique et les statistiques.
Historiquement, comme étymologiquement parlant, les statistiques ne sont
que des dénombrements, des inventaires, fournissant aux Etats des renseigne¬
ments d’ordre administratif.
Depuis les temps les plus reculés, chez les Egyptiens, les Grecs, les
Romains, on trouve ainsi des exemples de recensement des personnes et des
biens dont on conçoit toute l’utilité sur le plan étatique.
Mais jusqu’au xviii® siècle, l’enregistrement des faits conserve un carac¬
tère passif. C’est l’étude des jeux de hasard, développée jusqu’à former bientôt
une branche distincte des mathématiques, le Calcul des probabilités, où s’illus¬
trèrent notamment Pascal, Fermât, Bernouilli, Laplace, Gauss, qui vint
donner à la Statistique les bases théoriques de cette science et sa démarche
méthodologique.
Il ne suffit pas en effet d’accumuler des statistiques. Encore faut-il pou¬
voir en tirer parti, « exploiter », comme on dit, les données numériques ainsi
recueillies, en dégager la signification exacte, en dehors de toute appréciation
subjective de l’observateur. C’est à quoi s’emploie la Statistique proprement
4 INTRODUCTION

dite qui a pour objet précisément le traitement d’un ensemble de données


numériques susceptibles d’être influencées par le hasard.
Tel est le cas notamment des données biologiques, comme le poids, la
taille, la pression artérielle, les constantes humorales, etc. dont la caractéris¬
tique fondamentale est d’être essentiellement variables suivant les individus,
ces variations individuelles étant conditionnées par ce qu’il est convenu
d’appeler a le hasard ».
C’est dire que la démarche statistique est la méthode spécifique, la seule
possible d’ailleurs, pour appréhender ces phénomènes qui ne peuvent être
reproduits par l’expérimentation, comme dans les sciences expérimentales,
mais seulement observés, décrits, répertoriés.
Cette démarche statistique passe schématiquement par trois phases qui
reproduisent d’ailleurs l’évolution historique des faits.
La première phase consiste à colliger les données numériques et à les
présenter sous une forme condensée, et par suite plus accessible, qui résume
l’essentiel de l’information contenue dans ces données : c’est la statistique
descriptive, qui représente la forme historique de la Statistique.
Dans une deuxième phase, à partir d’ailleurs des résultats condensés
obtenus au terme de cette première étape, on essaie de dégager la signification
des données numériques recueillies, de les interpréter : c’est Vinterprétation
statistique qui s’appuie, elle, entièrement sur les enseignements du Calcul
des probabilités.
Enfin, dans un stade ultime, on peut espérer tirer de la connaissance
statistique du passé des hypothèses sur le futur : c’est ce qu’on appelle parfois
« la conjoncture » qui intervient essentiellement dans les problèmes d’ordre
économique.
Ce rappel historique et méthodologique rend compte du plan que nous
adopterons pour cet ouvrage ;

— une première partie sera consacrée à la statistique descriptive ;


— une deuxième partie sera consacrée à l’exposé des bases probabilistes de
la Statistique ;
— l’interprétation statistique, enfin, fera l’objet de la troisième partie, de
beaucoup la plus importante, où seront traités les principaux problèmes
d’interprétation statistique qui peuvent se présenter en pratique médicale
et biologique.
PREMIÈRE PARTIE

STATISTIQUE DESCRIPTIVE
■ iFai>>-' '-. '■ ^' * ,S f v*i-^ r
«;^,S..v , ■ .;.v.,. ;! > .

felF"' -i'" JffiÉ® , '.’"^ •'» -'!;-,-.f'%?ji ' ' ,„e-]'''^P^5Lm—


' ■ ''.; ' ’ ■'• >.1

Mùf%v^ ■ 'N-f:l A '.^r

ÿ.■
ï.fÿ\ V«
v, . '3'^' '-'<^î^'

H
'
f??-v‘^W ï,Vs^*: n-.. .• rtç
' ' ■ ’‘''‘V‘ 'WÊU ' rÆ 2r'^#i :

Puilf • •■-' .■■•■• y-i^- i-.


î^.^-rV- ’-V'''^ ■■■' ■ ' -'r.'^'^^i'ff:'' ;• ’

't '.^
\ ‘ >x-^,
CHAPITRE PREMIER

DESCRIPTION D’UNE SÉRIE STATISTIQUE

Une série statistique est constituée par un ensemble de valeurs numé¬


riques résultant de l’observation. Par exemple, on a étudié le nombre de gar¬
çons par famille dans un groupe de familles, les poids ou les tailles dans un
groupe de conscrits, les taux urinaires ou sanguins d’un métabolite dans un
groupe de malades, etc.
La première étape du travail statistique consiste à classer les résultats
obtenus, à les présenter sous une forme facilement accessible et qui en donne
cependant une description aussi fidèle que possible.

Mi»e en ordre des données. Distribution des fréquences

Soit un groupe de valeurs numériques expérimentales du type que nous


venons de citer. Les résultats sont obtenus dans un ordre quelconque. Il est
logique de commencer par les ranger par ordre de grandeur croissante, par
exemple : c’est ce qu’on appelle la mise en ordre des données.
On peut alors inscrire en regard de chacune des valeurs observées .v
le nombre de fois F où on l’a rencontrée, qui représente sa fréquence, encore
appelée effectif de la valeur.
L’ensemble des valeurs affectées de leurs fréquences respectives constitue
une distribution de fréquences que l’on peut présenter dans un tableau :

Exemple (^). — On a étudié le nombre de garçons dans 1 877 familles de


7 enfants. Les résultats sont présentés en fonction du nombre a' de garçons, rangé
de 0 à 7.
En regard de chacune de ces valeurs on indique son effectif F, c’est-à-dire le
nombre de fois où on l’a rencontrée, c’est-à-dire le nombre de familles ayant ce nombre
de garçons [tableau I, colonne (1) et (2)].

(^) Données de M. P. Schutzenberger, La Semaine des Hôpitaux, 1949.


8 STATISTIQUE DESCRIPTIVE

TABLEAU I

Distribution du nombre de garçons dans 1 877 familles de 7 enfants

(1) (2) (3) (4)


Nombre de garçons Nombre de familles Fréquences Pourcentages

X F 100 /p. 100

0 21 0,011 1,1
1 111 0,059 5,9
2 287 0,153 15,3
3 480 0,256 25,6
4 529 0,282 28,2
5 304 0,162 16,2
6 126 0,067 6,7
7 19 0,010 1,0

Total n = 1877 1,000 100,0

Groupement des données en classes

Lorsque les valeurs étudiées varient de manière continue, comme c’est


le cas pour le poids, la taille, le taux humoral d’une substance, etc., c’est-à-dire
quand la variable peut prendre toutes les valeurs possibles dans un intervalle
donné, les différentes valeurs observées peuvent être très nombreuses. La
distribution des fréquences est alors trop dispersée pour être maniable. Aussi
est-on amené à réduire le nombre de valeurs possibles en groupant plusieurs
valeurs voisines. Plus précisément, on divise le domaine des variations pos¬
sibles en un certain nombre d’intervalles ou classes à l’intérieur desquelles
on groupe toutes les valeurs qui tombent dans l’intervalle correspondant.

Exemple. — On a étudié la distribution des poids dans un groupe de cent adultes


normaux de sexe féminin.
Les poids s’étagent de 41 à 74 kg. On divise le domaine de variation en inter¬
valles de 5 kg allant de 40 à 44 kg inclus, de 45 à 49 kg inclus, de 50 à 54 kg inclus, etc.,
qui constituent autant de classes à l’intérieur desquelles on groupe tous les sujets dont
les poids sont compris dans les limites correspondantes et qui constituent l'effectif
de la classe [tableau II, colonnes (1) et (2)].
DESCRIPTION D’UNE SÉRIE STATISTIQUE 9

TABLEAU II
Distribution des poids de 100 adultes du sexe féminin

(1) (2) (3) (4)


Classes Effectifs Fréquences Pourcentages

X F 100/p. 100

40-44 5 0,05 5,0


45-49 12 0,12 12,0
50-54 31 0,31 31,0
55-59 31 0,31 31,0
60-64 16 0,16 16,0
65-69 3 0,03 3,0
70-74 2 0,02 2,0

Total «=100 1,00 100,0

Intervalle de cla»$e

Il importe de bien préciser le domaine des classes choisies, encore appelé


« intervalle de classe », qui doit être en principe le même pour toutes les
classes, lesquelles doivent être contiguës et sans chevauchement.

On peut le faire de trois façons (fig. 1 et tableau III).

limites reellesTB.b 44,5 49,5 54,5


' ' I .
\
!

n—'—'— '—Tn ' ' ^ n n ' ' '


Mesures limites 40 ^2 43 45 44 ^ 48 'g s'o
4 51 52 53 sVi
^ J -- i
Points médians 42 47 52
Fig. 1.

— Soit en indiquant, comme dans l’exemple précédent, les mesures


limites de chaque classe, c’est-à-dire la plus petite et la plus grande des
mesures devant appartenir à la classe, compte tenu de la précision des
mesures (ici le kg).
— Soit en indiquant ce qu’on appelle « les limites réelles » de chaque
classe, c’est-à-dire la plus petite et la plus grande des valeurs théoriques de la
10 STATISTIQUE DESCRIPTIVE

variable dans cette classe, auquel cas la limite supérieure d’une classe et la
limite inférieure de la classe suivante sont communes, par exemple la valeur
44,5 pour les classes [39,5 à 44,5] et [44,5 à 49,5] (0.

— Soit enfin en indiquant la valeur qui se trouve exactement au centre


de la classe, dite point médian de la classe, et qui est donnée par la demi-
somme des limites d'une classe, par exemple ici 42, 47, 52, etc.

TABLEAU ni
Distribution des poids de 100 adultes du sexe féminin

Mesures limites Limites «réelles» Points médians Effectifs

40-44 59,5-44,5 42 5
45-49 44,5-49,5 47 12
50-54 49,5-54,5 52 31
55-59 54,5-59.5 57 31
60-64 59.5-64,5 62 16
65-69 64.5-69,5 67 3
70-74 69.5-74.5 72

100

Le groupement des données en classes revient, on le remarquera, à assi¬


miler toutes les valeurs d'une même classe à une valeur unique (^). celle du
point médian. On est ainsi ramené au cas d'une variable discontinue.

(D On doit s’arranger polir que les limiies réelles ne coïncident p.is avec une
valeur possible de la variable. Il suffit pour cela de les prendre en dehors de la limite
de précision des mesures, par exemple. 0.5 kg si la précision des mesures est de I kg.
O.O.S kg si la précision des mesures est de 0.1 kg. etc. Sinon, il faut convenir à quelle
classe appartient la limite elle-même.
(2) Il en résulte une perte d’information qui est d’autant plus importante que
l’intervalle de classe choisi est plus étendu, c’est-à-dire qu’il y a moins de classes. Si
l'intervalle de classe est très étroit, c'est-à-dire s’il y a un très grand nombre de classes,
le groupement en classes perd tout son intérêt. Si. au contraire, l’intervalle de classe
est très large, c’est-à-dire si le nombre de classes est très réduit, la perte d’information
devient rédhibitoire. Le choix de l’intervalle de classe doit réaliser un compromis
entre ces deux tendances nécessairement contradictoires. L’expérience montre qu’en
pratique il y a intérêt à adopter un intervalle de classe tel que le nombre de classes
soit compris entre 10 et 20.
DESCRIPTION D UNE SÉRIE STATISTIQUE 11

Fréquence» relative»

L’eflfectif F d’une valeur (ou d’une classe) représente sa fréquence absolue,


c’est-à-dire le nombre de fois où l’on a rencontré cette valeur (ou cette classe)
dans l’ensemble de la distribution.
Mais si l’on veut pouvoir comparer des séries statistiques comportant
un nombre différent de sujets, il y a intérêt à rapporter cette fréquence absolue
au nombre n de cas, dit effectif total que comportait la série étudiée. On défi¬
nit ainsi la fréquence relative, ou fréquence proprement dite de la valeur consi¬
dérée, que nous symboliserons /

On peut alors compléter le tableau de la distribution des fréquences par


une colonne supplémentaire indiquant en regard de chaque valeur sa fré¬
quence relative qui peut également être exprimée sous forme de pourcentage
[colonnes (3) et (4) des tableaux I et II].
L’effectif total n fait évidemment la somme des effectifs de chaque valeur,
ce que nous écrirons

et la somme des fréquences relatives est égale à 1, ce qui représente l’ensem¬


ble. c’est-à-dire 100 p. 100 des cas de la distribution

Z/=1

Diagramme de» fréquence»

Au tableau de chiffres d’une distribution de fréquences, il est intéressant


de substituer une représentation graphique qui donne de la distribution des
fréquences une image plus « parlante », permettant d’en faire apparaître
d’emblée l’allure générale et les caractéristiques essentielles : c’est le dia~
gramme des fréquences.
Le mode de représentation le plus couramment utilisé est Vhistogramme ;
chaque valeur (ou classe) est figurée par un rectangle dont la base correspond
12 STATISTIQUE DESCRIPTIVE

à la valeur (ou l’intervalle de classe) repérée sur l’axe des abscisses et dont
la hauteur est proportionnelle à l’effectif de cette valeur (ou de cette classe),
qui est porté en ordonnée.
On obtient ainsi un ensemble de rectangles de même largeur et dont les
hauteurs, et par conséquent les siuiaces, sont respectivement proportionnelles
aux effectifs de chaque valeur (ou classe) (âg. 2 et 3).

40-** 45-^9 50-5455-5960-6465-6870-74


Nombre de garçons C/asses de poids (kg)

Fio. 2. Fig. 3.

On peut également construire le diagramme des fréquences en portant


en ordonnées, non pas les fréquences absolues, mais les fréquences relatives

Cette façon de procéder, on le remarquera, ne modifie pas l’aspect de


l’histogramme. à condition toutefois d’adopter pour l’échelle des fréquences
relatives des unités n fois plus grandes. L’axe des ordonnées est alors gradué
en pourcentage par rapport au nombre total de cas (fig. 2 et 3, échelles de
droite). (*)

(*) Il en résulte que la surface totale de l’histogramme fait alors la somme des
fréquences relatives, c’est-à-dire qu’elle est égale à 1.
DESCRIPTION D'UNE SÉRIE STATISTIQUE 13

Principaux types de diagramme de fréquences

Les diagrammes de fréquences qu’on est amené à observer en biologie et


en médecine peuvent revêtir, on le conçoit, des aspects très variables. Toute¬
fois, on peut les ramener assez souvent à quelques types bien définis évoquant
certaines distributions théoriques du calcul des probabilités.

1“ Diagramme symétrique. — Les fréquences des différentes classes se


groupent symétriquement en décroissant de part et d’autre d’une fréquence
centrale maximale (fig. 4).

Fig. 4. — Distribution de 8 879 dosages


d’iode lié aux protéines (d'après Ast-
wooD et coll.).

0 2 4 6 8 10 12 14 16 18 20
Iode Hé aux protéines jtg/lOOml

Ce type de distribution s’apparente à une distribution théorique du calcul


des probabilités, dite distribution « normale » ou « gaussienne » et qui, nous
le verrons, joue un rôle fondamental en statistique.
On le rencontre effectivement lorsque, ce qui est très souvent le cas en
biologie, l’échantillon étudié appartient à une population « normalement dis¬
tribuée »,

Fig. 5. — Distribution des diamètres de


100 coquilles de Cepaea nemoralis
(d’après Lamotte).

19 20 21 22 2 3 24 25 26
Diamètre de ta coquille en mm
14 STATISTIQUE DESCRIPTIVE

T Diagramme asymétrique. — Ce type de diagramme comporte égale¬


ment une fréquence maximale autour de laquelle se groupent les fréquences
des différentes classes. Mais les fréquences décroissent plus rapidement d’un
côté du maximum que de l’autre (fig. 5). Il évoque un autre type de distribution
théorique, la distribution dite « binomiale » qui, nous le verrons, peut parfois
revêtir cet aspect.

3° Diagramme en J (dit encore « hyperbolique »). — Ce type de


diagramme n’est qu’un cas particulier du précédent où la fréquence maximale
se situe à l’une des extrémités de la distribution (fig. 6). Il s’agit du reste
souvent d’une distribution du type précédent dont le caractère asymétrique a
été masqué par l’adoption d’un intervalle de classe trop large (fig. 7).

Age Age

Fig. 6. — Morts dues à la scarla¬ Fig. 7. — Détails de la distri¬


tine aux différents âges, en Angle¬ bution de la figure 6.
terre, durant l’année 1933 (d’àprès
Lamotte).

4° Distribution bimodale. — C’est une distribution qui présente deux


fréquences maximales correspondant à des valeurs différentes de la variable
(fig. 8). Un tel aspect suggère l’existence, dans l’échantillon étudié, de deux
« populations » distinctes.
DESCRIPTION D’UNE SÉRIE STATISTIQUE 15

Fig. 8. — Age d'apparition de la gynécomastie chez


98 sujets (d’après Geller et Amalric).

Age

Polygone des fréquences

Joignons les milieux des bords supérieurs de chacun des rectangles de


Thistogramme représentatif d’une série de fréquences. On obtient une ligne
brisée, appelée polygone des fréquences de la série correspondante, qui indique
comment varie la fréquence lorsqu’on se
déplace le long de l’ensemble des valeurs
de la série (fig. 9).
D’après la construction même du
polygone des fréquences, on voit que
chacun de ses côtés ampute un rectangle
de l’histogramme d’un o coin » triangu¬
Fig. 9. — Polygone des fréquences.
laire, mais fait apparaître un triangle
équivalent au-dessus du rectangle adjacent.
La surface englobée dans le polygone de fréquence reste donc sensi¬
blement équivalente à la surface de l’histogramme.
Du point de vue des aires, retenons-le, le polygone de fréquence a donc
la même signification que la bordure supérieure de l’histogramme.

Fréquences cumulées

Si, partant de la valeur la plus faible, l’on additionne successivement les


fréquences de chaque valeur (ou classe) et si l’on porte en regard de chacune
16 STATISTIQUE DESCRIPTIVE

d’elles, non plus sa fréquence propre, mais la somme de cette fréquence


et de celle de toutes les valeurs qui lui sont inférieures, on obtient une distri¬
bution des fréquences dites « cumulées » (tableau IV).

TABLEAU IV
Tableau des FRiQUENCES cumulées (type « jusqu’à »)

Nombre cumulé Nombre cumulé


Nombre de garçons Nombre de familles de familles
de garçons
X F
Xc Fc

0 21 0 21
1 111 Oàl 132
2 287 0à2 419
3 480 0à3 899
4 529 0à4 1 428
5 304 0à5 1 732
6 126 0à6 1 858
7 19 0à7 1 877

n = 1 877

Diagramme cumulatif

A partir de ce tableau, on peut réaliser, moyennant un choix convenable


des ordonnées, un diagramme des fréquences cumulées ou diagramme cumu¬
latif, où à chaque valeur correspond un rectangle dont la surface est propor¬
tionnelle à sa fréquence cumulée, c’est-à-dire à la somme des fréquences de
cette valeur et de toutes celles qui lui sont inférieures : on obtient ainsi un
diagramme cumulatif dit du type < jusqu’à » (fig. 10).
On peut également construire ce diagramme en partant de l’autre extré¬
mité de l’histogramme, c’est-à-dire de la valeur la plus élevée.
On additionne alors successivement pour chaque valeur les fréquences
de cette valeur et de toutes celles qui lui sont supérieures ; diagramme cumu¬
latif du type « plus de » (tableau V et fig. 11) (^).

(^) Noter que ces deux types de diagramme ne sont pas exactement symétriques.
C’est ainsi que dans le diagramme du type t jusqu’à » le premier rectangle, c’est-à-dire
le plus à gauche, correspond ici à la fréquence de la valeur zéro, soit 21, alors que
dans le diagramme du type t plus de », le premier rectangle, c’est-à-dire le plus à
droite, correspond à la fréquence de la valeur 7, soit 19.
DESCRIPTION D’UNE SÉRIE STATISTIQUE 17

Nombre de garçons Nombre de garçons

Fig. 10. — Diagramme cumulatif du Fig. 11. — Diagramme cumulatif du


type « jusqu'à ». type « plus de ».

TABLEAU V
Tableau des fréquences cumulées (type t plus de »)

Nombre cumulé Nombre cumulé


Nombre de garçons Nombre de familles
de garçons de familles
X F
Xc Fc

7 19 7 19
6 126 6 ou plus 145
5 304 5 ou plus 449
4 529 4 ou plus 978
3 480 3 ou plus 1 458
2 287 2 ou plus 1 745
1 111 1 ou plus 1 856
0 21 0 ou plus 1 877

1 877

Cas d’un critère qualitatif

Jusqu’ici nous avons étudié seulement des caractères quantitatifs, c’est-


à-dire susceptibles de prendre une certaine valeur numérique. Lorsqu’il s’agit
18 STATISTIQUE DESCRIPTIVE

d’un caractère qualitatif, tel que le sexe, la profession, la nationalité, la


couleur des yeux ou des cheveux, etc., on classe les résultats en catégories
ou classes et l’on indique le nombre F de cas qui rentrent dans chaque caté¬
gorie. Ce nombre F représente la fréquence absolue ou effectif de la classe
correspondante. En rapportant cette fréquence absolue à l’effectif total n de la
série, on obtient, comme précédemment, la fréquence relative f = Fjn de la
classe correspondante, qui peut également être exprimée sous forme de pour¬
centage.

Exemple ('). — On a étudié la couleur des cheveux chez 6 800 sujets. Le caractère
« couleur des cheveux » a été réparti en quatre catégories différentes ; blond, brun,
noir, roux. Le tableau ci-dessous (tableau VI) indique les résultats observés :

TABLEAU VI
Distribution de la couleur des cheveux chez 6 800 sujets

Effectifs Fréquence Pourcentages


Couleur des
cheveux F 100/p. 100

Blonds . . . 2 829 0,416 0 41,60


Bruns . . . 2 632 0,387 1 38,71
Noirs . . . 1 223 0,179 8 17,98
Roux . . . 116 0,017 1 1,71

Total 71 = 6 800 1,000 0 100,00

0) D’après Ammon, Zur Anthropologie der Badener.


CHAPITRE II

PARAMÈTRES CARACTÉRISTIQUES
D’UNE DISTRIBUTION DE FRÉQUENCES

Une distribution de fréquences présente la totalité de l’information conte¬


nue dans la série numérique étudiée. Mais pour peu que cette série soit
importante, le tableau de chiffres de la distribution de fréquences devient peu
maniable. Sa lecture devient mal commode et ne permet pas de se faire rapi¬
dement une idée générale de la distribution.
On a donc cherché à en présenter les caractéristiques essentielles sous
une forme plus concise, à l’aide d’un certain nombre de valeurs typiques, dites
paramètres caractéristiques. Ces valeurs numériques présentent, en outre,
l’avantage considérable de se prêter aux calculs et aux tests de comparaison
qui sont indispensables pour dégager la signification des résultats observés.

Moyenne

La moyenne d’une distribution de fréquences, symbolisée Wx ou Jc(‘) est


la moyenne arithmétique, c’est-à-dire la somme, rapportée à leur nombre n,
des valeurs de la distribution

.T, -f- X2 + ... -I- _ Somme des x


n n
ce qui s’écrit

{*) Ce qui se lit « x barré » ou « a: surligné ».


(2) De manière générale si l’on appelle .r, une valeur de la distribution de rang i,
on peut symboliser « la somme des x » par l'expression

(Voir suite de la note p. 20.)


20 STATISTIQUE DESCRIPTIVE

Par exemple, si l’on a effectué une série de cinq mesures qui ont donné
les résultats suivants :

1.5 1,8 2.1 3.3 4.8

la moyenne sera égale à ;

1,5 + 1,8 + 2,1 + 3,3 + 4,8 _ 13,5 _


5 1

Moyenne pondérée

Si une même valeur est représentée plusieurs fois, il faut évidemment


la compter autant de fois qu’elle a été observée, c’est-à-dire la multiplier par
sa fréquence absolue F.
Ainsi, dans la distribution décrite au tableau I, la moyenne sera égale à :

(0x21)-|-(l X lll)-|-(2 x287)-|-...-|-(6x 126)-l-(7 x 19) 6 650


1 877 ~ 1 877
La formule de la moyenne, qui est dite alors « pondérée » devient donc :

fl Fl F„
— ■Xi+ — -X2 + ... + —-X„
n n n n
Les coefficients Fijn, Fzin.FJn, appelés t coefficients de pondéra¬
tion » ou encore « poids » de chaque caractère, ne sont autre chose que les
fréquences relatives fi. fz./„ de chaque valeur.
On a donc :
X =fiXy -\-fzXz -I-... +fn • x„

= Somme des produits tels que f. x, ce que nous écrirons :

x = Y,f.x

(Suite de la note de la p. 19.)


qui signifie que l’on a additionné toutes les valeurs telles que .r, depuis i = 1 jusqu'à
/ = n. L’expression de la moyenne devient alors
PARAMÈTRES CARACTÉRISTIQUES 21

Données groupées

Lorsque la distribution a été groupée en classes, chaque classe, nous


Pavons vu, est représentée par la valeur de son point médian, soit X. C’est
donc cette valeur qu’il faut multiplier par l’effectif F de la classe pour calculer
la moyenne dont la formule devient alors ;

IF.X
A' =
n

Exemple. — Dans la distribution qui a été décrite au tableau III la moyenne sera
égale à :

(5 x42)4-(12x47) + ... + (3 x67) + (2x 72) 5 490


54,90
100 100

Moyenne provisoire

Lorsque les données sont nombreuses, on peut simplifier le calcul de la


moyenne en adoptant le procédé dit « de la moyenne provisoire », encore
appelée « moyenne de travail ».

Pour faire comprendre cette possi¬


bilité. représentons les différents termes
0 M
de la série statistique par des points I - I I > 1 » <-D
Pj , . situés sur une droite D Pt Pz Pn
(fig, 12 haut).
Soit .Tj . .Vj.etc.. .v„ les abscisses O 0' M
r < I Ml < I-
respectives de ces points comptées à par¬ Pi Pz Pn
tir d’une origine O.
Fig. 12.
L’abscisse de la moyenne .V/ sera,
par définition.
.V2-|-...-l-Arn
OM = .V = —
n n

Comptons maintenant les abscisses à partir d’une nouvelle origine 0\ dont


l’abscisse par rapport à O est OO' = A (fig. 12 bas).
Les nouvelles abscisses sont

O'Pi = -v; , O'P2 = x\ ... etc., O'P n = .


La nouvelle abscisse de la moyenne sera, par définition.

.. .x;-f.ri + ...-far;
O M = .V = --- = -•
n n
22 STATISTIQUE DESCRIPTIVE

Et l'on aura évidemment :


OM = OO' + O'M.
C’est-à-dire :
x = A+x'. (1)
Au lieu de calculer ;c directement, il est donc possible de calculer d’abord x\
dont le calcul est plus facile du fait que les abscisses jr' sont plus petites que les
abscisses primitives x, et de revenir ensuite à x par la relation (1).
La valeur A, qui n’est autre que l’abscisse de la nouvelle origine des abscisses,
est dite « moyenne provisoire » ou moyenne de travail. On peut donc simplifier notable¬
ment le calcul de la moyenne par un choix convenable de cette valeur.

Exemple. — Reprenons la distribution du tableau II et adoptons comme moyenne


provisoire, c’est-à-dire comme nouvelle origine, la valeur du point médian de la pre¬
mière classe, soit 42. Cela revient à enlever 42 à chacune des valeurs X de la distribution
qui devient alors X' = X — 42. Les produits FX' et le calcul de X' sont alors beaucoup
plus simples que les produits FX et le calcul de X respectivement (tableau VII).

TABLEAU VII
II'

N)

X F FX’
1

42 0 5 0
47 5 12 60
52 10 31 310
57 15 31 465
62 20 16 320
67 25 3 75
72 30 2 60

100 1 290

On obtient ainsi :
Y^FX' 1290
12,90
“ n ~ 100
d’où :
i^'-t-42 = 12,90-1-42 = 54,90.

De manière générale, par conséquent, l’adoption d’une moyenne provisoire A


revient à retrancher cette valeur à celle de la variable X qui devient X’ = X~A. On
obtient ainsi une nouvelle distribution dont la moyenne est, par définition :

-YF.X'=
PARAMÈTRES CARACTÉRISTIQUES 23

On revient ensuite à la moyenne X cherchée en rajoutant A k la. moyenne X'


de la variable transformée :

X = X'+A= Ly^f.{X-A) JrA

Insuffisance de la moyenne
pour caractériser une distribution de fréquences

Considérons deux sujets ^ et B dont les glycémies sont respectivement


égales à 0,95 et 1,05 g. La glycémie moyenne est égale à 1 g.
Considérons maintenant deux sujets A' et B' dont les glycémies sont
respectivement égales à 0,50 et 1,50 g.
La moyenne est encore égale à 1 g. Et pourtant la situation est tout à fait
différente ; dans le premier cas les deux valeurs individuelles, très voisines
de leur moyenne, étaient normales. Dans le deuxième cas, les deux valeurs
individuelles, très éloignées de leur moyenne, représentent des taux franche¬
ment pathologiques.
On voit par cet exemple caricatural que la moyenne, qui indique l’ordre
de grandeur de la distribution, ne renseigne cependant en rien sur la façon
dont les différentes valeurs de cette distribution se groupent plus ou moins
étroitement autour de cette moyenne.
Si l’on veut caractériser plus complètement une distribution de fré¬
quences, il est donc nécessaire d’associer aux indications fournies par la
moyenne, un indice qui renseigne sur cette « dispersion » des valeurs indi¬
viduelles autour de la moyenne.

V ariance

Il s’agit donc de caractériser de façon globale l'écart plus ou moins impor¬


tant de l’ensemble des valeurs de la distribution par rapport à la valeur
moyenne.
Si X est la moyenne, l’écart d'une valeur individuelle x à la moyenne est
(x —xj.Pour apprécier globalement la dispersion de la distribution, on serait
tenté de faire la somme de ces écarts pour toutes les valeurs de la distribution.
24 STATISTIQUE DESCRIPTIVE

Mais de ces écarts, les uns sont positifs, les autres sont négatifs, de telle
sorte que si l’on en faisait la somme algébrique, les écarts de signe contraire
se compenseraient.
On a donc été amené à envisager les carrés des écarts, soit (oc — x)\ pour
lesquels le signe n’intervient pas. La somme de ces carrés, encore appelés
« écarts quadratiques », pour les n valeurs de la distribution, qui se symbolise :

donne bien une idée de la dispersion globale des valeurs de la distribution


par rapport à leur valeur moyenne. En effet, plus les diverses valeurs sont
éloignées de la moyenne, c’est-à-dire plus elles sont c dispersées », plus les
écarts à la moyenne, donc leurs carrés, seront importants et plus leur somme
sera élevée.
Toutefois, si l’on veut pouvoir comparer entre elles des distributions
comportant un nombre différent de valeurs, il convient de rapporter cette
somme au nombre de ces écarts, qui est évidemment égal au nombre n de
valeurs de la distribution.
On est ainsi amené à définir un paramètre appelé « variance » (ou encore
« dispersion », ou encore « fluctuation »), symbolisé qui est égal à la
somme, divisée par leur nombre, des carrés des écarts :

n 1

La variance, on le voit, n’est pas autre chose que la moyenne arithmé¬


tique des carrés des écarts. Elle donne donc un indice « moyen » de la disper¬
sion globale de la distribution, comme la moyenne donnait un indice
« moyen » de l’ordre de grandeur de la distribution.

Données groupées

Bien entendu, si une valeur est répétée plusieurs fois, ce qui est toujours
le cas, nous l’avons vu, lorsque les données sont groupées, il faut compter
autant de fois son écart quadratique, ce qui revient à multiplier les écarts
quadratiques par la fréquence F.
PARAMÈTRES CARACTÉRISTIQUES 25

La formule de la variance devient alors :

Ainsi, pour la distribution des sept classes du tableau Vil, qui admet pour moyenne
^ = 54.9, la variance s'établit comme suit :

3J
5 ■ (42-54,9)^ + 12 ■ (47-54,9)»-j-,,, 4-3 . (67-54,9)»+2 . (72-54,9)»
lôô
3 809
= 38,09 .
100

Calcul aimplifié de la variance

Comme pour la moyenne, on peut simplifier le calcul de la variance en recourant


à une moyenne provisoire A.
On montre en effet que l’on a :

, YF.iX-X)^ YFAX-A)^ „
^^-- -(X-A)^ . (1)
n n
Ce qui peut encore s’écrire ;
al = al.-{Jt-AŸ . (2)
Le calcul de ïFfAT —étant naturellement plus simple que celui de IF (A"—JP)*,
le calcul de la variance se trouve facilité.

Exemple. — Reprenons le calcul de la variance de la distribution du tableau Vil


en adoptant comme moyenne provisoire A la valeur 57 qui se trouve au centre de la
distribution. Celle-ci devient (tableau VIII) :

TABLEAU VIII
II'

X F A'» F. A'»
1

42 -15 5 225 1 125


47 -10 12 100 1 200
52 - 5 31 25 775
57 0 31 0 0
62 “h 5 16 25 400
67 +10 3 100 300
72 + 15 2 225 450

Total 100 4 250


1

3
26 STATISTIQUE DESCRIPTIVE

On a donc :

2
4 250
aX* 42,5.
100
On en déduit
= 42,5-(54,9-57)2 ^ 35 09 .

Signalons enfin qu’il peut être intéressant de choisir pour A la valeur zéro. La
formule du calcul de la variance s’obtient alors en faisant A = 0 dans (1). Il vient :

(3)

formule qui permet de simplifier encore le calcul de la variance en évitant de faire


les n soustractions individuelles (X — A).

Formule» pratiques de la variance

On montre que la formule de la variance

<72 = {x-xY (1)


peut encore s’écrire

<t2 = 1
(2)
n

t X par 'Lx/n :

(3)

Lorsqu’on dispose d’une table des carrés et d’une machine à calculer, les
formules (2) et (3) ci-dessus permettent de calculer plus commodément la
variance car les carrés sont donnés directement par les tables et il n’est pas
nécessaire par ailleurs de calculer les différences {x -Je) pour chaque valeur
individuelle.
Aussi ces formules sont-elles souvent utilisées en pratique pour le calcul
de la variance, surtout lorsqu’on doit traiter un grand nombre de données.
PARAMÈTRES CARACTÉRISTIQUES 27

Petits échantillons

La formule :

= l5](x-x)2
n
que nous avons précédemment donnée de la variance n’est valable que pour
une distribution d’effectif suffisamment important (en pratique au moins égal
à 100), qui permet de se placer dans des conditions comparables à celles du
calcul des probabilités. Lorsqu’on a affaire à une distribution d’effectif plus
limité, les calculs montrent qu’il est préférable de prendre comme quotient non
pas le nombre n, mais le nombre («-1) dit encore nombre de degrés de
liberté (‘).
L’expression de la variance devient alors :

Exemple. — Ainsi, dans la distribution des cinq valeurs données précédemment en


exemple p. 20 et dont la moyenne est 2,7 la variance sera égale à :

(1,5 — 2,7)* + (1,8 — 2,7)* + (2,1 — 2,7)* + (3,3 - 2,7)* + (4,8 - 2,7)* _ 7,38 _
fZTl 4
7 38
alors que si l’on avait divisé par n, soit 5, on aurait trouvé = 1,47.

(*) Le nombre de degrés de liberté est le nombre de données véritablement indé¬


pendantes. On conçoit que seules ces dernières doivent être prises en considération.
Si, en effet, une donnée n’est pas véritablement indépendante, elle n’apporte rien de
plus, puisque l'information qu’elle fournit est déjà contenue implicitement dans les
autres données. Les n valeurs de la série de mesures sont véritablement indépendantes,
en ce sens qu’aucune d’elles ne peut se déduire de la connaissance des autres. Le nombre
de degrés de liberté dans la série des mesures est donc n et c’est pourquoi, pour calculer
la moyenne de la série des mesures, on divise par n. Mais dans la série des écarts, il
n’en est plus de même. En effet, ces écarts sont liés à la moyenne par la relation :
somme algébrique des écarts =0. Si donc on connaît (n —1) de ces écarts, le «* s’en
déduira automatiquement. Dans la série des écarts, il y a seulement (n — 1) données ind^)en-
dantes, c’est-à-dire (n — 1) degrés de liberté, et c’est pourquoi pour les écarts il faut diviser
par (n — 1). Si n est grand, on peut considérer que (n — 1)2: n. Si n est petit en revanche,
l’approximation n’est plus valable. C’est pourquoi il faut alors nécessairement diviser par
(n — 1) et non par n.
28 STATISTIQUE DESCRIPTIVE

Ecart type

Mais la variance est un carré. C’est ainsi que si la variable x est un poids
exprimé en kg la variance sera exprimée en « kg au carré ».
Afin d’avoir un indice de même équation dimensionnelle que la variable,
c’est-à-dire qui puisse s’exprimer dans la même unité que cette dernière, on
est amené à considérer la racine carrée de la variance, qui est homogène avec
X et qui constitue l’écart type a, encore appelé « écart quadratique moyen ».

tlix-xf
ou
n-\

L’écart type indique bien la dispersion plus ou moins grande des mesures
autour de leur moyenne : plus l’écart type est faible en effet, plus les valeurs
sont f resserrées » autour de leur moyenne, et inversement bien entendu, plus
l’écart type est important, plus la distribution est étalée.

Coefficient de variation

Le Coefficient de variation V est le rapport entre l’écart type a et la


moyenne T o-
V = — %
X

ce qui peut s’exprimer également en pourcentage


ff
V = 100 —
X

En effet, l’écart-type et la moyenne sont des grandeurs de même espèce


que la variable étudiée: longueur, poids, etc. Ainsi, s’il s’agit de longueur
et si les mesures sont exprimées en centimètres, il en sera de même de la
rnoyenne et de l’écart-type. Si l’on désire comparer entre elles plusieurs
séries, il est intéressant de disposer d’un indice indépendant de la variable
étudiée et de l’unité de mesure. C'est le cas précisément du coefficient de
variation qui est un nombre « pur » répondant à ces conditions.
Le coefficient de variation donne une idée de la variabilité du phéno¬
mène^ étudié, ainsi que de l’approximation permise par la méthodologie
utilisée. Ainsi, un coefficient de variation de 0,50 (ou 50 %) par exemple,
où le a est égal à la moitié de la valeur de la moyenne, suggère une grande
variabilité du phénomène étudié et une approximation toute relative de la
méthode utilisée pour le mesurer.
PARAMÈTRES CARACTÉRISTIQUES 29

Approche non paramétrique : quantités, percentiles

La moyenne et l’écart-type sont, de beaucoup, les paramètres carac¬


téristiques les plus importants. Ce sont eux, en effet, qui traduisent le plus
fidèlement la quantité d’information contenue dans les données de la dis¬
tribution. De plus, ce sont les indices qui se prêtent le mieux aux calculs
permettant de comparer entre elles des distributions différentes. Enfin, la
moyenne et l’écart-type suffisent, nous le verrons, à caractériser parfaitement
une distribution gaussienne, type de distribution le plus souvent rencontré
dans les sciences de la vie.
Toutefois, les distributions biologiques ne sont pas toujours gaus¬
siennes ('). Il est donc intéressant de pouvoir caractériser une distribution
sans faire appel à ces paramètres, ce qui permet de ne pas préjuger de la
nature de la distribution en question. Cette approche est possible en s’ap-
jpuyant sur la notion de rang. Il est toujours licite, en effet, de classer des
valeurs par ordre croissant et de situer une valeur donnée selon son rang
dans cet ordre.

Ainsi, pour étudier la distribution des tailles dans un groupe d’enfants,


on peut ranger les tailles par ordre croissant de la plus petite à la plus
grande, et diviser ensuite l’échantillon obtenu en un certain nombre de
fractions, dites «quantités », par exemple des fractions de 100 (centiles ou
percentiles), qui englobent alors un pourcentage donné de cas de la distri¬
bution (fig. 13).
Ainsi, le 10" percentile est la valeur au-dessous de laquelle on trouve
10 % des tailles de l’échantillon, le 50' percentile, encore appelé médiane,
est la valeur au-dessous de laquelle on trouve 50 % des cas de la distribution
(et 50 % au-dessus), le 90' percentile la valeur au-dessous de laquelle on
trouve 90 % des tailles de l’échantillon, etc.
Lorsque la valeur étudiée varie avec le temps, ce qui est le cas en
particulier dans l’étude des phénomènes de croissance, ce mode de repré¬
sentation définit des « couloirs de percentiles » qui donnent, en fonction du
temps, révolution de la limite correspondante (fig. 14).

(1) ScHOLLER (R.), Soldat (J. C.), Avigor (R.), Elimination de l’estriol urinaire
au cours des deux derniers trimestres de la grossesse normale. Pathol. Biol., 1973, £1,
375-383.
30 STATISTIQUE DESCRIPTIVE

Fig. 13. — Distribution des tailles d’un groupe d’enfants


en centiles (d’après Morley).

Poids en grammes

28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45Age gestationnel en semaines

Fig. 14. — Normes pondérales en fonction de l’âge


gestationnel (d’après Leroy et col.).
DEUXIÈME PARTIE

STATISTIQUE PROBABILISTE
CHAPITRE IH

INTRODUCTION A L’ÉTUDE
DES PHÉNOMÈNES ALÉATOIRES

Quel est le numéro qui sortira à la roulette ou au tirage d’une loterie ?


Quelle est la face du dé qui va apparaître au lancement d’un dé ? Quel
sera le poids d’un enfant à la naissance ?
Il est impossible de répondre avec certitude à ces diverses questions. Il
s’agit là en effet de phénomènes dont les variations sont soumises à l’influence
de ce qu’il est convenu d’appeler « le hasard »
De tels phénomènes, dont les variations ne peuvent, de ce fait, être
déterminées avec certitude, sont dits « aléatoires ».
L’absence de certitude concernant les variations de ces phénomènes n’im¬
plique pas pour autant qu’on ne puisse en avoir aucune connaissance.
En effet, si nous ne sommes pas en mesure de prédire quel sera par
exemple le poids exact d’un enfant à la naissance, du moins peut-on s’attendre
à ce que ce poids ne soit pas supérieur à une certaine valeur, ni inférieur
à telle autre. Ainsi pourrons-nous dire que ce poids sera probablement com¬
pris entre 2 et 5 kg, par exemple.
C’est dire que, pour aborder l’étude des phénomènes aléatoires, il nous
faut recourir à un concept nouveau représentant un mode de connaissance
intermédiaire entre l’indétermination totale et la certitude : c’est le concept
de probabilité.

Notion de probabilité

Jetons en l’air une pièce de monnaie. Nous avons une chance sur deux
d’amener « pile » et une sur deux également d’amener a face » : on dit que la
probabilité d’amener « pile » est de 1/2 = 0,50 (ou encore 50 p. 100). De
même celle d’amener t face ».
Lançons un dé à six faces que nous supposerons parfaitement cubique.
Chacune des six faces a une chance égale d’apparaître. Nous avons donc une
34 ST A TISTIQ UE PR OBA BIU STE

chance sur six d’amener une quelconque des faces que nous aurons choisie,
par exemple le 4. On dit que la probabilité d’amener le 4 est de 1/6 = 0,166
(ou encore 16,6 p. 100). De même pour toute autre face du dé.
Soit encore un sac contenant une boule blanche et 2 boules noires,
que nous supposerons absolument identiques, à la couleur près. Si l’on tire
« au hasard » une boule du sac (^) chaque boule a une chance égale de sortir.
On a donc une chance sur 3 de tirer une boule blanche et 2 sur 3 de tirer
une boule noire : on dit que la probabilité de tirer une blanche est
P — 1/3 = 0,333 (ou encore 33,3 p. 100) et la probabilité de tirer une noire
est q = 213 = 0,666 (ou encore 66,6 p. 100).

La probabilité d’un événement se définit ainsi comme le rapport entre


le nombre de cas favorables à l’arrivée de cet événement (ici 1 pour la boule
blanche, 2 pour la boule noire) et le nombre total de cas possibles (ici 3),
chacun de ces cas ayant une chance égale de se produire (ce que réalise ici
l’identité morphologique de toutes les boules).
11 apparaît immédiatement que la somme des probabilités de toutes les
éventualités possibles est toujours égale à 1 :

1 1 ,
2 + 2-1

Une probabilité est donc un rapport O et plus précisément une fraction

(1) Ce tirage «au hasard » d'une boule à partir d’un sac définit ce qu’on appelle
« le schéma d’urne » auquel nous aurons souvent recours pour expliciter la notion
de probabilité. Quand, comme c est le cas ici, le sac est supposé contenir seulement
deux variétés de boules on dit qu'il s'agit d’une urne « binaire ».
(2) La probabilité étant un rapport, il en résulte qu’elle ne fait pas intervenir
le nombre absolu, mais seulement le nombre relatif d’éventualités. C’est ainsi que si
l'on avait procédé au tirage à partir d'un sac de 300 boules dont lOD blanches et
200 noires, on aurait obtenu pour p et q respectivement :

100 _ 200 2
300 ~ 3 3ÔÔ ~ 3 ’

donc les mêmes valeurs que pour le sac de 3 boules. Le nombre absolu de boules
n intervient donc pas dans le schéma d urne. Seules comptent les proportions respectives
des diverses variétés de boules, c’est-à-dire la « composition » de l'urne.
INTRODUCTION À L'ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 35

de 1 unité, elle est exprimée par un nombre qui est toujours compris entre 0
(qui représente / impossibilité), et I (ou encore 100 p. 100) qui représente la
certitude, de l’événement considéré : chaque billet d’une loterie confère une
certaine probabilité de gagner le gros lot, mais si l’on n’en prend aucun, il est
évidemment impossible de gagner, alors que si, au contraire, on prend tous
les billets, on a la certitude de gagner le gros lot.

Probabilité et fréquence : loi des grands nombres

Dire que la probabilité de tirer une blanche est de 1/3 ne signifie nulle¬
ment que si l’on répète par exemple trois fois l’épreuve, on tirera forcément
une fois une blanche et deux fois une noire.
Rien n'empêche en effet que sur les trois épreuves on tire 2 fois ou même
3 fois la boule blanche.
Mais répétons l’épreuve 10 fois par exemple. On constatera que la
blanche va sortir, par exemple, 2 fois sur 10. Répétons l’épreuve 100 fois :
la blanche sortira par exemple, 30 fois sur ces 100 tirages. Répétons l’épreuve
1 000 fois : la blanche sortira mettons 320 fois sur ces 1 000 tirages. Les
chiffres 2, 30, 320, c’est-à-dire le nombre de fois où l’on observe l’événement
constitué par le tirage d’une boule blanche, sont les fréquences absolues de cet
événement. Si l’on rapporte ces valeurs au nombre d’épreuves dans chaque
cas respectivement, on obtient les rapports : 2/10, 30/100, 320/1 000, etc. qui
représentent les fréquences relatives de l’événement considéré au cours de
ces différentes expériences.
On constate que les rapports observés se rapprochent de plus en plus du
rapport p = 0,33 (ou encore 33 p. 100), qui exprime la probabilité du tirage de
la boule blanche.
// apparaît ainsi un caractère essentiel de la notion de probabilité, à
savoir qu’elle implique la répétition, le grand nombre des épreuves : Lors¬
qu’on répète l’épreuve un nombre suffisant de fois, la fréquence relative de
l’événement tend à se rapprocher de plus en plus d’une valeur théorique
donnée par le calcul et qui représente précisément la probabilité de l’événe¬
ment considéré.
C’est ce qu’exprime la célèbre « Loi des grands nombres » ou « Loi empi¬
rique du hasard » formulée par Bernouilli à propos du tirage de boules dans
une urne ; « Lorsque les événements sont nombreux, ils se produisent avec
36 STATISTIQUE PROBABILISTE

des fréquences voisines de leur probabilité, et ceci d’autant plus que les
épreuves sont plus nombreuses. »
Si donc le nombre n d’épreuves devient infiniment grand, la fréquence
relative se rapprochera de plus en plus de la probabilité : on peut donc
considérer la probabilité d’un événement comme la limite vers laquelle tend
la fréquence relative de cet événement lorsqu’on augmente indéfiniment le
nombre d’épreuves Q).

Variable aléatoire. Distribution de probabilités

De manière générale, à tout événement aléatoire, on peut associer une


variable x susceptible de prendre certaines valeurs Xi, Xz, .... Xn correspon¬
dant aux diverses éventualités possibles.
Une telle variable dont les diverses valeurs possibles sont uniquement
commandées par le hasard est dite variable aléatoire.
Aussi, dans le jet d’un dé, le numéro sortant est une variable aléatoire
susceptible de revêtir six valeurs, à savoir la suite des entiers de 1 à 6.
Il résulte des considérations précédentes que si l’on ne peut déterminer
à l’avance quelle sera, parmi toutes les valeurs possibles, la valeur qui sera
effectivement prise par la variable aléatoire, on peut en revanche calculer pour
chacune d’elles quelle est sa probabilité d’apparition.
L’ensemble des probabilités pi, pz, .... Pn des différentes valeurs pos¬
sibles xi, xz , d’une variable aléatoire x constitue une distribution des
probabilités de cette variable aléatoire.
Ainsi, pour le jet d’un dé, on aura la distribution
x; 1 2 3 4 5 6

• 1 i i i i i
^‘666666

(1) Il ne s’agit pas cependant d’une « limite » au sens mathématique du terme,


car si grand que soit n, il peut toujours arriver que la fréquence observée diffère sensi¬
blement de la probabilité théorique. Mais cette divergence est de moins en moins vrai¬
semblable à mesure que n augmente. Plus précisément, on montre — et cette démons¬
tration est due au mathématicien russe Tchebitcheff — que, dans une série d’épreuves,
la probabilité pour que la différence \f — p\ entre la fréquence relative / d’un événe¬
ment et sa probabilité p dépasse un nombre donné e choisi aussi petit que l’on voudra,
tend vers zéro quand le nombre n d’épreuves par série augmente indéfiniment :
probabilité [|/—p|^e] -♦0
quand n 00
INTRODUCTION Â L’ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 37

Moyenne

La moyenne d’une distribution de probabilités, symbolisée x, est la valeur


obtenue en faisant la somme des produits tels que x . p pour toutes les valeurs
de la variable :
X = Xi .Pi+X2.p2 + ..- + x„.p„
ce qui se symbolise :
i —n

x = Y.^iPi-

ou encore, plus simplement ;


n

x = Y.XiPi
1

Ainsi, pour la distribution constituée par le jet d’un dé, la moyenne sera

v= (l.^) + (2xi)+...+ (5xi)+(6xi) =3,5.

Cette somme a bien la signification d’une moyenne. En effet, si l’on se


souvient que la probabilité p se définit comme le rapport du nombre de cas
favorables (soit ici, pour chaque valeur de la variable, sa fréquence f) au
nombre de cas possibles (soit ici n) la relation

X = A'i Pi +X2P2+--- + X„ Pn
peut s’écrire :

Ÿ - Y + V + +Y —

= — [Vi/i + -Vj/z + ... + -Vn/n] .


n

X est donc égal à la somme, divisée par leur nombre, des produits tels que
f .X \ c’est la moyenne arithmétique de ces produits.

Espérance mathématique

La valeur moyenne d’une distribution des probabilités d’une variable aléatoire


est encore appelée « espérance mathématique », symbolisée E(.x) :
n
E U) = JTiP, - .V2P1 + ... = Y, X.Pi ■
38 STATISTIQUE PROBABILISTE

En matière de jeu de hasard, en effet, c’est la valeur moyenne que l’on peut espérer
obtenir (d’où le nom) si l’on joue un grand nombre de parties.
Ainsi, dans le jet d’un dé. l'espérance mathématique est ;

£W-(lxl) + (2xl) + (3xi) + (4xl) + (5x !) + («. 1)

= -(1+2 + 3 + 4 + 54-6) = 3,5 .


O

A chaque partie, n’importe quelle face du dé peut apparaître. Mais si l’on fait
la moyenne des numéros qui sortent lors d’un grand nombre de parties, on trouvera
un chiffre voisin de 3,5 et qui s’en rapprochera d’autant plus que le nombre de parties
sera plus grand.

Variance. Écart type

Comme pour une distribution de fréquences, on a été amené à définir


également un indice de dispersion traduisant la façon dont les différentes
valeurs de la distribution se répartissent autour de la moyenne.
Comme pour une distribution de fréquences et pour les mêmes raisons,
afin de traiter identiquement les écarts de sens opposé, on a été amené à
considérer les carrés des écarts à la moyenne, soit et à en faire la
moyenne arithmétique, ce qui définit la variance

0-2 =

dont la racine carrée est l’écarl type a

a= /X(x-.x)^

Exemple. — Dans le jeu d'un dé. où la moyenne, nous venons de le voir,


vaut 3.5 on a :

^[(l-3,5)^ + (2-3.5)^+... + (5-3,5)^ + (6 -3,5)^] = ^ =3,67

et :

^'3,67 = 1,9 .
INTRODUCTION À L’ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 39

Diagramme des probabilités

Comme une distribution de fréquences, une distribution de probabilités


peut être représentée graphiquement.
A cet effet, on porte sur l’axe des abscisses
des segments égaux à l’imité choisie pour l’axe
des X, chacun d’eux correspondant respective¬
ment à chacune des valeurs possibles de la
variable aléatoire.
Sur chacun de ces segments comme base,
on construit un rectangle dont la hauteur (et
par suite la surface) est proportionnelle, compte
1
tenu de l’unité choisie pour l’axe des y, à la Fig. 15.
probabilité de la valeur correspondante.
On obtient ainsi un diagramme dit « diagramme des probabilités » qui
indique la probabilité de chacune des valeurs de la variable aléatoire (fig. 15).
La figure 16 donne les diagrammes des probabilités correspondant aux
trois exemples précités.

P
2/3

'/3

1 6

B N Sou.'p

Fig. 16.

Chacun des rectangles du diagramme étant construit sur l’unité comme


base et ayant la probabilité p correspondante comme hauteur, sa surface, qui
est égale à p x 1, c’est-à-dire à p, mesure donc la probabilité de l’éventualité
correspondante. Oe plus, puisque la somme totale des diverses probabilités,
nous l’avons vu, est égale à 1, on peut dire que la surface globale du dia¬
gramme des probabilités est égale à 1
40 STATISTIQUE PROBABILISTE

Diagramme des probabilités et diagramme des fréquences

Le diagramme théorique des probabilités est ainsi tout à fait super¬


posable, on le voit, au diagramme des fréquences d’une distribution expéri¬
mentale, où chaque rectangle de Thistogramme mesurait la fréquence relative
de la valeur correspondante.
On peut en déduire que dans ce dernier cas la fréquence relative d’une
valeur a la signification d’une probabilité. Comme le montre bien sa formu¬
lation en pourcentage, en effet, la fréquence relative d’une valeur exprime la
probabilité que l’on a de rencontrer cette valeur sur l’ensemble des cas de la
distribution ; ainsi, dire que la valeur 3 du tableau I a une fréquence de 0,256
ou de 25,6 p. 100, cela signifie que l’on a 25,6 chances sur 100 de rencontrer
cette valeur sur l’ensemble des cas de la distribution.
Plus précisément, et compte tenu de la loi des grands nombres suivant
laquelle la fréquence tend vers la probabilité, on peut considérer la fréquence
observée comme une mesure expérimentale de la probabilité.

Fonction de densité de probabilité

Jusqu’ici, nous avons admis que la variable aléatoire x ne pouvait prendre


que certaines valeurs, par exemple, dans le jet d’un dé, la suite des nombres
entiers de 1 à 6. Dans ce cas, la variable aléatoire est dite discontinue et sa loi
de probabilité est exprimée graphiquement par le diagramme des probabilités
tel que nous venons de le décrire.
Supposons maintenant que le nombre des valeurs que la variable aléatoire
est susceptible de prendre devienne très grand, pratiquement infini.
Il en est ainsi lorsque la variable aléatoire,
dite alors continue, est susceptible de prendre
n’importe quelle valeur à l’intérieur d’un intervalle
donné, comme c’est le cas par exemple pour la
taille ou le poids dans un groupe d’individus.
Dans ce cas, le nombre de rectangles du
diagramme devient lui-même très grand. Par suite,
la base de chacun d’eux se rétrécit jusqu’à devenir
infiniment petite. De même les sommets des rec¬
tangles deviennent de plus en plus étroits, de
telle sorte que la bordure supérieure du diagramme se transforme en une ligne
continue, une courbe (fig. 17).
INTRODUCTION À L'ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 41

Au cours de cette transformation, chaque rectangle du diagramme tend


à se réduire à une ordonnée linéaire dont l’abscisse indique la position de
la valeur correspondante sur l’axe des abscisses et dont la hauteur y, n’est
autre que la probabilité pi de cette valeur.
Chaque ordonnée yt de la courbe ainsi obtenue indique donc la proba*
bilité de la valeur correspondante : la courbe en laquelle s’est transformée
la bordure supérieure du diagramme est donc l’expression graphique d’une
loi de probabilité. La fonction correspondante y = / (x) dont elle traduit les
variations est appelée « fonction de densité de probabilité • (').

Courbe de fréquence

Revenons au diagramme des fréquences dont nous venons de voir qu’il


avait la signification d’un diagramme des probabilités et supposons que le
nombre de cas (ou classes) que comporte la distribution devieime très élevé.
Le nombre de rectangles de l’histogramme va devenir très grand. En même
temps que le nombre de rectangles augmente, chacun d’eux se rétrécit et la
bordure supérieure de l’histogramme (et par suite le polygone des fréquences
correspondant, dont nous avons vu qu’il a la même signification) vont dessiner
des dentelures de plus en plus étroites.
A la limite, le polygone des fréquences devient une courbe continue dite
courbe de fréquence (fig. 18).

(1) L’ordonnée y n’est pas la probabilité proprement dite, qui est représentée par
la surface du rectangle élémentaire, c’est-à-dire le produit (y . dx) de sa hauteur y par sa
base devenue l’infiniment petit dx. A la limite,-ce produit (y. dx) est nul. C’est pourquoi
l'on ne parle pas de la « probabilité » d’obtenir une valeur donnée X d’une variable
aléatoire continue, cette probabilité étant nulle. Rigoureusement parlant, y indique la
probabilité pour qu’une valeur donnée X d’une variable aléatoire continue x soit com¬
prise dans un petit intervalle dx de cette variable, au voisinage de x. entre x et (x+dx).
C’est pourquoi on l’appelle « densité » de probabilité de X.
42 STATISTIQUE PROBABILISTE

Cette courbe de fréquence dont la genèse est ainsi tout à fait super¬
posable, on le voit, à celle d’une courbe de densité de probabilité, a, on le
devine, la même signification que cette dernière.
On peut la considérer comme la représentation géométrique d’une loi
idéale de distribution du caractère étudié. Du reste, on retrouve souvent alors
des courbes qui se rapprochent des courbes théoriques du calcul des proba¬
bilités, et en particulier la courbe en cloche de Gauss (fig. 18).
On peut interpréter ces données en considérant que la série statistique
étudiée, caractérisée par son diagramme des fréquences, est un échantillon
limité d’une population (^) d’effectif très grand, théoriquement infini, dite
« population d’origine » (ou encore « population parente »), dont la courbe
des fréquences exprime la loi véritable de distribution. C’est là une notion très
importante, car elle permet d’étendre à des ensembles réels et limités des
résultats établis dans l’hypothèse théorique d’une population infinie. Nous
aurons souvent l’occasion d’y recourir notamment pour les problèmes d’inter¬
prétation statistique.

Probabilités partielles et probabilités totales

Reprenons l’exemple du dé et demandons-nous quelle est la probabilité


d’amener, par exemple, le 4 om le 5.
Une première manière de réaliser cet événement est d’amener le 4, éven¬
tualité qui, nous l’avons vu, a une chance sur 6 de se réaliser.
Une deuxième manière consiste à amener le 5, éventualité qui a égale¬
ment une chance sur 6 de se réaliser. L’événement consistant à amener le 4
ou le 5 comporte donc 2 cas favorables sur 6. Sa probabilité est donc de 2/6
c’est-à-dire la somme 1/6 4-1/6 des probabilités respectives des deux événe¬
ments par lesquels il peut se réaliser.
C’est ce qu’exprime un principe fondamental du calcul des probabilités
dit principe des probabilités totales :
Si un événement peut être réalisé de plusieurs manières qui s’excluent
mutuellement la probabilité de cet événement s’obtient en faisant la somme

(^) Le terme de « population » s'applique, en statistique, à tout ensemble de


valeurs ou de nombres sans qu’il y ait lieu, bien entendu, d’envisager obligatoirement
des individus dotés d’une existence réelle.
INTRODUCTION À L'ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 43

des probabilités partielles correspondant


à chacun des modes de réalisation de cet
événement (^).
Pour obtenir la probabilité totale, il
sufiira donc de considérer sur le dia¬
gramme des probabilités la surface repré¬
sentée par la somme des rectangles cor¬
respondant aux différentes probabilités
partielles envisagées (fig. 19).

Probabilités cumulées. Diagramme intégral

Soit une variable aléatoire discontinue x pouvant prendre les valeurs


Xl xz, etc. Xn, supposées rangées par ordre de grandeur croissante et dont
les probabilités sont respectivement pi, pz , etc. p„ mesurées par les hauteurs
(et plus précisément les surfaces) des rectangles correspon¬
dants du diagramme des probabilités (fig. 15). La proba¬
bilité d’avoir xi est pi mesurée par la surface du rectangle
correspondant à cette valeur. Celle d’avoir xz est pz,
mesurée par la surface du rectangle correspondant à xz.
La probabilité d’avoir Xi ou xz , sera d’après le prin¬
cipe des probabilités totales.

P{xi, Xz) = Pi+Pi


x, X2X3X4 X

Cette probabilité peut être représentée par un rec¬


P2 tangle ayant pour base Xz et dont la hauteur (et par suite
Ps
F la surface) fait la somme de celles des rectangles corres¬
x, X2 X3 X4 X
pondant respectivement à Xi et Xz (fig. 20).
Fig. 20. Cela étant, la probabilité d’avoir xi ou xz ou X3 sera,
toujours d’après le principe des probabilités totales :

PiXi , Xz , X3) = P1+P2+P3 =PiXi, Xz) + P3 •

(1) Il importe de souligner que les événements considérés doivent s’exclure


mutuellemeru, c’est-à-dire qu’ils ne peuvent se produire en même temps, ce qui est le
cas dans l’exemple cité où l’on ne peut évidemment amener à la fois le 4 et le 5. Cela
ne serait plus vrai s’il s’agissait d’événements pouvant se produire simultonément. Dans
ce cas l’expression des probabilités totales est plus complexe.
44 STATISTIQUE PROBABILISTE

Cette probabilité peut donc être représentée par un rectangle ayant pour
base xz et dont la hauteur (et par conséquent la surface) fait la somme de
celles du rectangle précédent et du rectangle correspondant à (fig. 20).
Puisque les valeurs sont supposées rangées par ordre de grandeur crois¬
sante, la surface de ce rectangle, qui fait la somme des probabilités de Xy,
de X2 et de x^, donne la probabilité totale de xs et de toutes les valeurs de
la distribution inférieures à X3, c’est-à-dire de toutes les valeurs de la distri¬
bution jusqu’à X3 inclusivement.
On peut continuer ainsi de la même façon en progressant de gauche à
droite tout au long de la distribution et faire correspondre à chacune des
valeurs de la distribution un rectangle dont la surface mesure la probabilité
globale de cette valeur et de toutes les valeurs qui lui sont inférieures (fig. 20).
Le dernier rectangle, le plus à droite, fera la somme de toutes les proba¬
bilités de la distribution : sa surface sera donc égale à 1, c’est-à-dire à la
surface globale du diagramme de distribution (^).
Ce diagramme où l’on additionne successivement les probabilités au fur
et à mesure et qui est tout à fait superposable, on le voit, au diagramme des
fréquences cumulées, est appelé « diagramme des probabilités cumulées »,
ou encore diagramme intégral. En effet, comme dans une intégration, la sur¬
face qui, sur ce diagramme, correspond à une valeur donnée, fait la somme,
en partant de la gauche, de toutes les surfaces du diagramme de distribution
jusqu’à celle, inclusivement, qui correspond à cette valeur.

Fonction de répartition (^)

Appliquons ces notions au cas d’une variable aléatoire continue.


Dans ce cas, nous l’avons vu. le diagramme de distribution comporte
un nombre infini de rectangles infiniment étroits et la bordure supérieure
de ce diagramme tend vers une courbe continue y = f{x) qui exprime les
variations de la densité de probabilité (fig. 21).
Le diagramme intégral correspondant va donc comporter lui-même un
nombre infini de rectangles infiniment étroits et sa bordure supérieure

(^) On se souvient en effet que, par définition, la somme de toutes les probabilités
et par suite des surfaces de tous les rectangles du diagramme de distribution est
égale à 1.
(2) Avant d’aborder la lecture de ce qui suit nous vous conseillons de lire les
pages 193 à 202 du Rappel mathématique placé à la fin de cet ouvrage.
INTRODUCTION À L'ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 45

va devenir aussi à la limite une courbe continue


(fig. 21 haut).
D’après la construction du diagramme intégral, le
rectangle de ce diagramme correspondant à une valeur
donnée x<. par exemple, fait la somme des surfaces
de tous les rectangles du diagramme de distribution
jusqu’à la valeur inclusivement. Lorsque le nombre
de ces rectangles devient infini, cette somme devient à
la limite, par définition, l'aire intégrale correspondante
, comprise sous la courbe y = f (x), à gauche de l’ordon¬
née Xi et elle est mesurée par l’ordonnée Yt à laquelle
Xi X
s’est réduit le rectangle correspondant du diagramme Fig. 21.
intégral (fig. 21).
La courbe continue vers laquelle tend la bordure supérieure du dia¬
gramme intégral n’est donc autre que l’intégrale Y = F {x) de la courbe de
densité de probabilité y = f{x)

Y=F{x)= ^f{x).dx. (1)

Cette nouvelle fonction Y = F{x) est dite fonction de répartition de la


variable aléatoire continue x.

Exploitation probabiliste

Les données ci-dessus montrent que la fonction de répartition a, dans le


cas d’une variable aléatoire continue, la même signification probabiliste que
le diagramme des probabilités cumulées dans le cas d’une variable aléatoire
discontinue.
D’où la possibilité de l’exploiter pour résoudre un certain nombre de
problèmes où sont impliquées les probabilités cumulées d’une variable aléa¬
toire continue :

1° La fonction de répartition permet de déterminer la probabilité d’obte-


' nir une valeur donnée X inférieure à une valeur Xi de la variable aléatoire.

(^) Le diagramme intégral fait du reste, par définition, la somme intégrale des
probabilités de la distribution qui sont représentées alors, nous l’avons vu, par les
produits (y . dx). C’est donc l’intégrale J y .dx, c’est-à-dire J f (x) dx.
46 STATISTIQUE PROBABILISTE

Cette probabilité, qui n’est autre que la probabilité cumulée de toutes les
valeurs de x inférieures à xi, est représentée par la surface comprise sous la
courbe de densité de probabilité à gauche de Xi et elle est mesurée par
l’ordonnée correspondante Yi de la courbe de répartition (fig. 22).
Xl

Prob Xl] = J
— 00
f{x). dx = F(xt) = .

2° La fonction de répartition permet également de calculer la probabilité


d’obtenir une valeur X comprise entre deux valeurs Xi et xa de la variable
aléatoire x : cette probabilité, qui n’est autre que la probabilité cumulée de
toutes les valeurs de x comprises entre Xi et xa , est donnée par la surface
comprise sous la courbe de densité de probabilité entre les ordonnées Xi et xa
et elle est mesurée par la différence Y2 — Y1 entre les ordonnées correspon¬
dantes de la courbe intégrale (fig. 23).
X2

Prob [xi<A'<X2] = J/(x)^/x = /•(x2)-/•(Xl)= ya-J'i.


*1

Fig. 22. Fig. 23. Fig. 24.

3“ On notera d’autre part que la probabilité cumulée de l’ensemble des


valeurs de la distribution, soit Pt (qui est représentée par l’ensemble de la
surface englobée sous la courbe entre — 00 et -f- 00. et qui est mesurée par
l’ordonnée la plus à droite de F = F (x), soit Yj (fig. 24), est, par définition,
égale à 1.
INTRODUCTION À L’ÉTUDE DES PHÉNOMÈNES ALÉATOIRES 47

J
00

= f{x) .dx=\.
- 00

On en déduit que la probabilité cumulée de toutes les valeurs de x supé¬


rieures à xi, qui est représentée par la surface comprise sous la courbe de
densité à droite de x^ (aire non hachurée de la figure 22) est égale à:

l-F(jti)

et que la probabilité cumulée de toutes les valeurs de x extérieures à F inter¬


valle (xi , Xz), qui est représentée par la surface comprise sous la courbe de
densité en dehors de l’intervalle [j:i , Xz] (aire non hachurée de la figure 23).
est égale à :

1- [f(;c2)-^'(^i)] .

On voit tout le parti que l’on peut tirer de l’étude d’une fonction de
répartition. En associant ces données à celles déjà fournies par la fonction
de densité de probabilité ou celles du diagramme de distribution et du dia¬
gramme cumulatif dans le cas d’une variable discontinue, il est possible, on le
conçoit, d’approcher de manière satisfaisante les problèmes posés par les
variations d’un phénomène aléatoire.
CHAPITRE IV

DISTRIBUTION BINOMIALE

Épreuve du double tirage

Revenons à notre sac de trois boules, dont une blanche et deux noires
et voyons ce qui se passe sur le plan des probabilités lorsque nous procédons,
non plus à un tirage isolé, mais à deux tirages successifs.
Nous supposerons que la boule tirée lors du premier tirage, est remise
dans le sac afin que la composition de ce dernier ne change pas lors du
deuxième tirage.
Dans ces conditions, il y a à ce deuxième tirage, comme au premier, une
probabilité p = 1/3 de tirer une blanche et une probabilité q — 2/3 de tirer une
noire.
Mais ce qui nous intéresse c’est la probabilité des associations qui
peuvent résulter de ce double tirage.
Lors de cette épreuve, chacune des trois boules susceptibles de sortir au
premier tirage, peut s’associer à chacune des trois boules susceptibles de sortir
au deuxième tirage. U y a donc au
total 3x3 = 9 associations pos¬
1*tirage O sibles de deux boules à savoir
(fig. 25):
/i\ m /w
2«tirt.geO0® O®® O— — une association B + fl ;
B N N B N N B N N — deux associations B + N -,
Fig. 25. — deux associations N B -,
— quatre associations N + N.

Les probabilités de ces différentes associations sont donc respectivement ;

1 (c’est-à-dire p^), pour l’association B + B ;

2
- (c’est-à-dire p . q), pour l’association B + N ;
DISTRIBUTION BINOMIALE 49

ÿ (c’est-à-dire p . q), pour l’association N+B;

4
^ (c’est-à-dire pour l’association N-I-N (^).

Si l’on ne tient pas compte de l’ordre dans lequel se présentent les boules
(ce qui peut être réalisé en effectuant un tirage de deux boules à la fois à partir
d’un sac de même composition, c’est-à-dire comportant la même proportion
de boules blanches et noires, mais contenant un grand nombre de boules) on
voit que ces éventualités peuvent se ramener à trois :
— association BB. de probabilité ;
— associaticn BN (ou NB), de probabilité pq+pq = (*) ;
— association NN, de probabilité q^.

Ces diverses associations de deux boules qui comportent respectivement,


notons-le, zéro, ime et deux boules noires, ont donc pour probabilité respecti¬
vement pour la pranière, 2 pq pour la deuxième et pour la troisième,
c’est-à-dire, on le voit, les termes successifs du développement bien connu de :

(p + q)^ = + .

Tirages multiples ; Distribution binomiale

En raisonnant de la même façon à


partir des données précédentes, on trouve¬
rait que dans le cas d’un tirage triple,
c’est-à-dire de trois boules à la fois, il y a
3 -f 1 = 4 combinaisons possibles de trois
boules blanches ou noires comportant res¬
pectivement 0, 1, 2 et 3 boules noires et
dont les probabilités sont représentées
respectivement par les termes successifs

(^) On voit que les probabilités dites t composées i de ces associations obtenues
au double tirage sont égales au produit des probabilités p ou q, dites * élémentaires »,
des événements isolés (tirage simple) qui les composent. C’est là un théorème fonda¬
mental du calcul des probabilités, dit « théorème des probabilités composées », que
nous venons de vérifier sur cet exemple.
(2) D’après le principe des probabilités totales, en effet, la probabilité d avoir BN
ou NB est égale à
PiBN) +P(NB) = pq + pq == 2 pq.
50 STATISTIQUE PROBABILISTE

TABLEAU IX

Associations Associations Nombre


Troisième Probabilités Probabilités
au double au troisième de boules
tirage correspondantes finales
tirage tirage noires

BBB .P P’ 0
BB
(/»") \ N iq) BBN .q
3p^q 1
BNB (ou NBB) Ipq .p = lp^q
BNfouNB)/*
0.pq) \ N iq) BNN (ou NBN) Ipq . q = lpq^
3pq^ 2
NN ^ B (;>) NNB q^ . P

N(,) NNN q^ . q 3

du développement de (p + qY, c’est-à-dire p^, 3 p^q, 3 pq^ et q^ (tableau IX).


Pour P = 1/3 et q = 213, on obtient pour ces termes les valeurs 1/27,
6/27, 12/27 et 8/27 ainsi que le diagramme représenté à la figure 26.

De manière générale, on montre qui si l’on procède à n tirages successifs


(ou, ce qui revient au même, si, à partir d’une urne binaire de même compo¬
sition, c’est-à-dire comportant les mêmes proportions de boules blanches et
noires, mais contenant un très grand nombre de boules, on retire chaque fois
un échantillon de n boules) on obtient (n -i-1) combinaisons de n boules
blanches et noires contenant respectivement 0, 1,2, 3, etc. n boules noires et
que les probabilités de ces différentes combinaisons sont données resp>ective-
ment par les termes successifs du développement de (j) + q)", p et q étant les
probabilités élémentaires du tirage d’une boule
blanche et du tirage d’une boule noire respecti¬
vement.
Prenons comme variable aléatoire le nombre

£ 0 12 3 n-i n r'
r de boules noires contenues dans l’échantillon
de n boules, r pouvant prendre toutes les valeurs
Fig. 27. discrètes, c’est-à-dire entières, de 0 à « : on obtient
une distribution où les probabilités des différentes
valeurs de la variable aléatoire sont données par les termes successifs du
DISTRIBUTION BINOMIALE 51

développement du binôme (p + qY d’où le nom binomiale donné à cette distri¬


bution particulière des probabilités (fîg. 27) (i).

Expression du terme de rang r

Le développement de (p-bç)” comporte, rappelons-le (2), (n-|-l) termes (le terme


de rang zéro et n autres termes) comptés de 0 à n de gauche à droite. Le terme de
rang zéro (c’est-à-dire le plus à gauche) vaut toujours p", et le terme de rang n, c’est-
à-dire le plus à droite vaut q^. De manière générale le terme de rang r (r variant de
zéro à n) est donné par l’expression :

où q se trouve à la puissance r et p à la puissance c complémentaire t n — r.


Quant à. (qui s’énonce « C. r sur n »), c’est un coefiBcient affecté de deux
indices, l’un supérieur r, qui n’est autre que le rang du terme correspondant, l’autre
inférieur n, identique pour tous les termes du développement, indiquant qu’il s’agit
du développement de la puissance du binôme.
On montre (3) que ce coefficient C', qui n’est autre que le nombre de combinai¬
sons de n objets pris r k r, est donné par l’expression :

Cr _ _ - ni
" r ! (n — r) !

où la quantité n ! (qui s’énonce c n factorielle ») représente le produit des n premiers


nombres entiers :
n\ = « (n — 1 ) (« — 2) (n — 3) ... etc. ...3.2.1.
L’expression générale du terme de rang r, que nous symboliserons P,., dans le
développement de (p+q)^ est donc finalement

Signification de la distribution binomiale

Il résulte des considérations précédentes que dans une distribution bino¬


miale, le terme de rang r, c’est-à-dire celui qui correspond à un échantillon

(^) Notons que la somme des termes de cette distribution est bien, comme il se
doit pour une distribution de probabilités, égale à 1, puisque (p-f^) = 1, donc éga¬
lement (p-bq)".
(2) Cf. Rappel mathématique, p. 193.
(3) Cf. S. Geller, Abrégé de Mathématiques, Masson éd., Paris 1979, p. 221.
52 STATISTIQUE PROBABILISTE

de r boules noires, a une probabilité qui est donnée par la valeur du terme de
rang r dans le développement de (p + qY, c’est-à-dire par Pr ■
Pr indique donc la probabilité qu’il y a de tirer, à partir dune urne
binaire, un échantillon comportant r boules noires sur les n boules de l’échan¬
tillon (^).
Appelons « événement favorable ». ou « succès », le tirage d’une boule
noire, celui d’une boule blanche étant considéré comme la non-réalisation de
l’événement favorable.
On peut dire alors que F, exprime la pro¬
babilité d’avoir r succès sur n épreuves succes¬
sives : Les termes respectifs de la distribution

km Q
0 1 2 3
.
r

Fig. 28.
binomiale, représentent donc, dans l’ordre, les
probabilités d’avoir 0, 1,2, 3, ..., n .... n succès
.£1 nombr-e
n de succès
sur n épreuves répétées (fig. 28).
Ainsi, lorsque l’événement aléatoire se
réduit à une alternative (tirage ou non tirage
d’une boule noire) dont la probabilité élémentaire de réalisation q (ou de
non-réalisation p = l—q) tst constante, la probabilité du nombre de succès
sur n épreuves répétées est donnée par les termes successifs du développement
de (p + qT.

Distribution binomiale symétrique ou asymétrique

Supposons que p = q. L’expression générale du terme de rang r, abstrac¬


tion faite du coefficient C. devient
. p’’ = = p" .

Tous les termes du développement sont donc alors de la forme p" et ils
ne diffèrent les uns des autres que par la valeur du coefficient C.
Mais il résulte de l’expression du coefficient C que si deux termes sont
situés à égale distance des extrémités du développement, ils ont même coef¬
ficient.
En effet, si un terme a pour rang r, son « symétrique » aura pour rang
(n — r). Le coefficient de ce dernier terme sera donc obtenu en remplaçant r (*)

(*) Remarquons que cet échantillon comporte un nombre de boules blanches égal
à (n — r) qui est l’exposant de p dans l’expression de P^, alors que r, nombre de boules
noires, est l’exposant de q.
DISTRIBUTION BINOMIALE 53

par (/I —r) dans l’expression de C^, ce qui, on le constatera, ne change pas
cette expression.
Il en résulte que, si p = q, les termes situés à égale distance des extré¬
mités du binôme deviennent respectivement égaux entre eux : la distribution
est dite alors symétrique (fig. 29).

Fig. 29. — Distribution binomiale


symétrique.

Si p^q, la distribution binomiale est dite asymétrique et son aspect sera


différent suivant que p est inférieur ou supérieur k q : si p <q, comme p et q,
ne l’oublions pas, sont des fractions de l’unité, p” sera beaucoup plus petit
que q", la distribution sera déplacée obliquement vers la droite (fig. 30). Si
p>q, c’est le contraire et la distribution est déplacée obliquement vers la
gauche (fig. 31).

Fig. 30. — Distribution binomiale


déplacée vers la droite.

Cependant, même si p^q, la dissymétrie de la distribution tend à s’effa¬


cer lorsque n augmente et, pour des valeurs suffisamment élevées de n, la
54 STATISTIQUE PROBABILISTE

distribution peut être aussi considérée comme pratiquement symétrique, même


si P est différent de q (fig. 32).

Fig. 32. — Distribution binomiale asymé¬


trique (p.= 0,9, q = 0,l) pour différentes
valeurs de n (d'après Pepe et Tisserand).

Rang du terme le plu» probable

Les diagrammes montrent que, quelle que soit la forme, symétrique ou


asymétrique, de la distribution, les différents termes vont tout d’abord en
croissant, passent par un maximum, pour décroître ensuite. Il existe donc
toujours un terme dont la probabilité est la plus grande.
Il est intéressant de rechercher le rang de ce terme qui correspond à la
probabilité maximale.
Cela revient à se demander quelle est la composition la plus probable de
l’échantillon de n boules retiré à partir d’une urne binaire de composition
donnée.
Soit une urne contenant par exemple 100 boules dont 30 blanches et
70 noires. Retirons-en un grand nombre de fois un échantillon de 10 boules.
Nous savons qu’il y a 10 -f 1 = 11 combinaisons possibles de ces 10 boules
blanches et noires, comportant, respectivement 0, 1, 2. etc. jusqu’à
10 boules noires. N’importe laquelle de ces combinaisons peut être obtenue.
En particulier rien ne s’oppose à ce que l’on retire, par exemple, un échantillon
ne renfermant que des boules noires ou inversement que des boules blanches.
Mais nous sentons bien intuitivement que nous avons plus de chances de
retirer un échantillon contenant 3 blanches et 7 noires, c’est-à-dire ayant
les mêmes proportions de boules blanches et noires, c’est-à-dire la même
composition que l’ume elle-même.
DISTRIBUTION BINOMIALE 55

On montre effectivement qu’il en est bien ainsi, sous certaines conditions


cependant, à savoir en particulier que n soit suflBsamment élQvé et que p et q
ne soient pas trop voisins de 1 ou 0.
Dans ces conditions, il devient facile de calculer le rang du terme cor¬
respondant à la probabilité maximale : nous savons en effet que ce rang
correspond au nombre de boules noires que comporte la combinaison corres¬
pondante. Or, si q est la proportion de boules noires, le nombre r de boules
noires dans l’échantillon de n boules sera tel que :

d’où :
r = nq.

Dans les conditions précitées, c’est-à-dire, rappelons-le, n grand et p


ou q pas trop voisins de 1 ou de 0, le rang du terme le plus probable est donc
donné par Texpression :

r = nq

qui correspond à un échantillon ayant la même composition que l’ume binaire


dont il a été tiré.

Moyenne tTune distribution binomiale

On montre que ce terme le plus probable r = nq représente également


la moyenne de la distribution binomiale.
La moyenne de la distribution binomiale est donc :

m = nq

et, lorsque les conditions précitées sont réalisées, cette moyenne correspond
au rang du terme le plus probable (^).
Cela veut dire que dans xme série de n épreuves dont la probabilité cons¬
tante de succès est q, le nombre de succès auquel on doit s’attendre est nq.

(1) Lorsque p = q, la distribution, qui est alors symétrique, est donc symétrique
autour de la moyenne.
56 ST A TISTIQUE PR OBA Bl LISTE

C’est ainsi que si l’on joue 100 parties de pile ou face, on doit s’attendre à sortir
pile (ou face) 100 x i = 50 fois. Ce qui veut dire que si l’on fait un grand nombre
de séries de 100 parties, la moyenne du nombre de piles (ou de faces) sera voisine
de 50, bien que l’arrivée de 50 fois pile (ou face) exactement puisse être très rare.

Variance. Écart type

Si la moyenne est nq, l’écart à la moyenne pour une valeur quelconque Xt


de la distribution sera :
{Xi-nq)
et la variance :
1
<t2= - YiXi-nq)^.
n «=o

On montre que cette expression est égale à n .p .q.

La. variance d’une distribution binomiale est donc donnée par la formule :

=n.p . q

et par suite l’écart type de la distribution binomiale vaudra :

a =yjn.p.q

Ainsi pour 100 parties de pile ou face, on doit s'attendre à un écart type théorique

a-j/lOOx 1x1=5.

Ce qui veut dire que lorsqu’on fait un grand nombre de séries de 100 parties, la
moyenne des écarts par rapport à la moyenne (ici égale à 50) sera voisine de 5.

Distribution d’un pourcentage

Si l’on considère non plus le nombre r mais la proportion rjn (encore


appelée « pourcentage ») de boules noires contenues dans l’échantillon, sa
DISTRIBUTION BINOMIALE 57

distribution pour les différentes composi¬


tions possibles de l’échantillon sera aussi
une distribution binomiale, mais dans
laquelle les abscisses sont divisées par n.
C’est-à-dire qu’on trouvera en abscisses,
non plus le nombre 0, 1, 2, 3, .... r, .... n
de boules noires, mais les pourcentages
f]
0.1 2 3 X 1 pourcentages
n n n n n
0/n, 1/n, 2/n, .... r/n. njn qui s’étalent Fig. 33.
donc de 0 à 100 % (fig. 33).
La moyenne m, de cette distribution des pourcentages sera donc égale¬
ment divisée par n. Elle vaudra par suite :
m nq
m, = — = = 9.
' n n
La moyenne de la distribution des pourcentages est donc q

mg = q

Cela veut dire que la proportion la plus probable est précisément, comme
on pouvait s’y attendre, celle qui correspond à la composition de turne
binaire.

Exemple de diêtribution binomiale

La répartition des sexes à la naissance offre un exemple bien classique


de distribution binomiale. On peut considérer en effet qu’il y a à chaque
naissance une probabilité constante et égale à 1/2 d’avoir une hile comme
d’avoir un garçon. La détermination du sexe peut donc être représentée par
le tirage à partir d’une urne binaire contenant un nombre égal de boules
blanches et de boules noires, qui donne une probabilité constante et égale
à 1/2 de tirer une blanche comme de tirer une noire (‘).
C’est ainsi que pour 6 naissances, par exemple, il y aura 6 -f-1 = 7 éven¬
tualités possibles, comportant respectivement 0, 1, 2, 3, .... 6 garçons et leurs

(1) En réalité, la probabilité de naissance d’un garçon est très légèrement supé¬
rieure à la probabilité de naissance d'une fille et l’urne binaire représentative de la déter¬
mination des sexes devrait contenir environ 105 boules « garçons » pour 100 boules
« filles ».
58 STATISTIQUE PROBABILISTE

probabilités respectives seront données par les termes correspondants du


développement de (p + g)^ avec p = q = Xjl.
Il y aura donc une probabilité de :

1/64 = 0,016 = 1,6 % pour l’éventualité 0 garçon (et 6 filles)


6 P* 6/64 = 0,094 = 9,4 % pour l’éventualité 1 garçon (et 5 filles)
15 p6 = 15/64 = 0,234 = 23,4 % pour l’éventualtié 2 garçons (et 4 filles)
20 p6 20/64 = 0,312 = 31,2 % pour l’éventualité 3 garçons (et 3 filles)
15 15/64 = 0,234 = 23,4 % pour l’éventualité 4 garçons (et 2 filles)
6 P® 6/64 = 0,094 = 9,4 % pour l’éventualité 5 garçons (et 1 fille )
= 1/64 = 0,016= 1,6% pour l’éventualité 6 garçons (et 0 fille )

La figure 34 donne le dia¬


gramme correspondant.
La moyenne de cette distri¬
bution est m = «g = 6 . 1/2 = 3.
Elle est représentée par
l’éventualité « 3 garçons (et
3 filles) » qui est, comme on pou¬
vait s’y attendre, l’éventualité la
plus probable.
Mais cela ne veut pas dire que
les autres éventualités soient exclues
pour autant. Toutes les éventualités
peuvent en effet se produire, même par exemple celle qui comporte uniquement des
garçons ou uniquement des filles, mais la probabilité de ces éventualités est infiniment
plus faible, comme on peut le voir.
Il ne faudrait pas croire cependant que le fait d’avoir déjà cinq filles, par
exemple, permette d'espérer avec de très grandes chances que la grossesse suivante
donnera naissance à un garçon. En effet, la probabilité d’avoir un garçon ou une
fille est la même à chaque naissance, de même que celle de tirer une boule blanche
ou noire à chaque tirage considéré isolément. Tout ce qu’on peut dire, c’est que sur un
grand nombre d’épreuves, c’est-à-dire si l’on étudie un grand nombre de familles de
six enfants, on observera une répartition des diverses éventualités qui se rapprochera
des probabilités théoriques indiquées par le calcul. C’est ce que confirme effectivement
l’observation (fig. .35).
DISTRIBUTION BINOMIALE 59

Fig. 35. — Nombre de garçons dans


I 920 familles de 6 enfants (d’après
Lamotte).

En revanche, cette distribution permet de calculer la probabilité qu’il y a, sur


six naissances, d’avoir au moins 1, 2, 3, etc. jusqu’à 6 garçons (ou filles). L’éventualité
€ au moins 1 garçon », par exemple, peut se réaliser par la naissance de 1,2, 3, 4, 5 ou
6 garçons. En vertu du principe des probabilités totales la probabilité de cette éven¬
tualité s’obtiendra donc en additionnant les probabilités partielles correspondantes,
à savoir :
^ M ^
64 64 64 64
Pour calculer la probabilité d’avoir au moins 2, 3, etc. jusqu’à 6 garçons (ou
filles), il suffit d’additionner les probabilités de naissance de 2, 3, etc. jusqu’à 6 garçons
(ou filles). Ces probabilités ne sont autre chose, on le voit, que des probabilités cumu¬
lées prises entre deux valeurs de la variable.

Nous verrons ultérieurement comment la distribution binomiale peut


être exploitée pour résoudre certains problèmes statistiques, en particulier
la compaiaison des pourcentages de deux éventualités qui s’excluent mutuel¬
lement (pourcentage de guéris ou de non-guéris dans un groupe de malades
traités, par comparaison avec un groupe témoin, par exemple).
Mais un des intérêts essentiels de la distribution binomiale, et c’est la
raison pour laquelle nous nous sommes étendu sur cette distribution, c’est
qu’elle est à l’origine d’autres types de distributions théoriques et en particulier
de la distribution dite « normale » qu’il nous faut maintenant envisager.
CHAPITRE V

DISTRIBUTION NORMALE

Définition

Soit une distribution binomiale symétrique où p = q = 112. Voyons ce qui


se passe lorsque n augmente indéfiniment, c’est-à-dire quand n tend vers -1- oo.
Dans ces conditions, la distribution des valeurs s’étend de 0 à -I- oo, le
nombre de termes de la distribution,
c’est-à-dire le nombre de rectangles du
diagramme, devient infini. Chacun d’eux
devient donc infiniment étroit et, à la
limite, la bordure supérieure du dia¬
gramme se transforme en une ligne con¬
tinue, une courbe, qui n’est autre que la
courbe de densité de probabilité corres¬
pondante (fig. 36).
La courbe ainsi obtenue est parfai¬
tement définie sur le plan mathématique, c’est la courbe de Laplace-Gauss
qui permet de caractériser une forme de distribution théorique d’importance
fondamentale : la distribution dite < normale », ou encore « gaussienne ».
Cette distribution, issue d’une distribution binomiale symétrique dont
elle représente la limite, est forcément symétrique, comme la distribution
binomiale d’origine, autour de sa moyenne, c’est-à-dire le terme dont la pro¬
babilité est la plus grande.
D’autre part, les termes extrêmes, situés à égale distance de l’axe de
symétrie de la distribution, et qui sont de la forme p" où, rappelons-le, p est
une fraction de l’unité, deviennent rapidement très petits à mesure que n aug¬
mente. Il en résulte que la courbe s’abaisse rapidement et de façon symétrique
de part et d’autre de la moyenne sur l’axe des abscisses ce qui lui confère
un aspect < en cloche » très caractéristique (fig. 36).
DISTRIBUTION NORMALE 61

Importance de la loi normale

La loi normale s’observe lorsque sont réunies un certain nombre de


conditions qui ont été précisées par le mathématicien français Borel. à savoir,
en particulier, lorsque les variations d’un phénomène sont la résultante de
facteurs nombreux, agissant de manière indépendante et produisant des effets
petits et du même ordre de grandeur.
Or il se trouve que ces conditions sont très souvent réalisées dans la
nature : il en est ainsi notamment pour les variations des caractères biomé¬
triques tels que le poids, la taille, les mensurations diverses, la pression arté-
-rielle, les constantes biologiques, etc., tant chez l’homme que chez les diverses
espèces animales, pour les variations morphologiques observées en bota¬
nique, les variations météorologiques, la répartition des erreurs expérimen¬
tales en physique, des point d’impact en balistique, des variations de cote
des pièces usinées par des machines automatiques, etc.
L’importance de la loi normale tient donc à ce qu’elle peut servir de
modèle mathématique pour représenter un très grand nombre de distributions
expérimentales. C’est du reste ce caractère très général qui a conduit à la
qualifier de « loi normale des écarts », ou, plus brièvement, « loi normale ».
Mais l’importance de la loi normale vient aussi de ce qu’elle peut être
exploitée, comme nous le verrons, pour résoudre un grand nombre de pro¬
blèmes d’interprétation statistique. Cette exploitation s’appuie sur certaines
particularités de la courbe de Gauss qu’il nous faut maintenant envisager
dans le détail.

Équation de la courbe de Causa

Lorsque, dans les conditions ci-dessus, n tend vers l’infini, p et q restant


égaux (et non voisins de 1 ou de 0), on montre (‘) que l’expression
n\ ~(n-r)
Pr = r\{n-r)\‘

qui donne la valeur du terme de rang r dans la distribution binomiale, tend


vers l’expression

(1) En utilisant la formule de Stirling suivant laquelle, si n est grand, on peut


écrire :
n \ ^ n* . e'" ^2 nn .
62 STATISTIQUE PROBABILISTE

P — _ p-{r-nq)^l2npq
yj2 n npq
où e est la base des logarithmes népériens.
Mais on se souvient que dans une distribution binomiale la moyenne
est m = nq et la variance = npq. L’expression précédente peut donc
s’écrire :

P, = —L=:. e-^'-<t2 (2)


a y/2 n

A la limite, le rectangle de rang r


et dont la hauteur représente la probabi¬
lité Pr de ce terme se réduit à une ordon¬
née linéaire y dont l’abscisse x n’est autre
que r (fig. 37).
La valeur de y sera donc obtenue
en remplaçant r par x dans l’expression
de Pr, ce qui donne :

y= __ . p-(x-myi2a^
(3)
Oyj2n

qui est l’équation de la courbe de Gauss.

Courbe centrée

L’expression (3) correspond t une courbe de Gauss où l’origine des coor¬


données est placée, comme pour la distribution binomiale, à une des extré¬
mités de la distribution (fig. 38).

Fig. 38. Fig. 39.


DISTRIBUTION NORMALE 63

Il y a intérêt cependant à exprimer l’équation de la courbe par rapport


à son axe de symétrie, qui passe par l’abscisse de la moyenne m. Cela revient
à prendre pour nouvelle abscisse l’écart à la moyenne X = x — m.
L’équation de la courbe devient alors :

y= (4)
Oyj2n

où X représente l’écart à la moyeime, et qui est l’équation de la courbe de


Gauss rapportée à son axe de symétrie, dite encore i équation de la courbe
centrée », qui admet pour moyenne zéro (fig. 39).

Écart réduit

Mais il y a intérêt à rapporter les écarts au a. En effet, l’écart à la


moyenne AT et l’écart type a étant exprimés dans la même équation dimen¬
sionnelle, le rapport

t=
£
<T

appelé écart réduit, est un nombre pur indépendant de l’unité de mesure, ce


qui permet de comparer entre elles des courbes différentes.
L’expression de y devient alors :

y = —î—. e (5)
a yjln

avec :
x—m
t=
a a

Courbe réduite

Pour donner une portée plus générale à l’équation de la courbe de Gauss


et obtenir un aspect unique de sa courbe représentative, on a été enfin amené
à prendre le a comme unité de mesure des écarts, ce qui revient à faire a = 1
dans (5). On obtient alors ;
64 STATISTIQUE PROBABILISTE

(6)

qui est l’équation de la courbe dite t réduite » (fig- 40) (').

On voit qu’au facteur l/>/2 n près, cette équation est celle de la courbe
en cloche que nous avons précédemment étudiée (^).

Morphologie de la courbe de Gauss

Les données ci-dessus vont nous permettre de préciser la morphologie


de la courbe de Gauss dont nous coimaissons déjà l’allure générale « en
cloche ».
Nous avons vu en effet que la courbe de la forme présente deux
points d’inflexion symétriques pour x = ± 1, La courbe o réduite » présentera
donc aussi deux points d’inflexion symétriques pour t = ±1, ce qui corres¬
pond à A' = ± 1 a sur la courbe centrée, mais non réduite, dont les abscisses
sont, par rapport à celles de la courbe réduite, multipliées par a, et
X = m±l a sur la courbe non centrée (fig. 41).
Dans tous les cas la courbe décroît de part et d’autre du maximum,
d’abord lentement, puis plus rapidement, jusqu’aux points d’inflexion, puis

(^) Il en résulte, comme on peut le voir en comparant les relations (S) et (6),
que l’ordonnée ^ de la courbe < réduite » et l’ordonnée y de la courbe non réduite,
sont liées par la relation = ay. Si donc les abscisses de la courbe t réduite » ont été
divisées par a, en revanche ses ordonnées ont été multipliées par a- La t réduction »
a donc conservé les aires. Les aires comprises sous la courbe réduite entre des abscisses
données sont donc exactement équivalentes aux aires correspondantes comprises sous
la courbe non réduite.
(-) Cf, Rappel mathématique, p. 201.
DISTRIBUTION NORMALE 65

plus lentement au-delà de ces points, jusqu’à devenir asymptote à l’axe des
abscisses. Il est clair que la forme de la courbe sera déterminée par la valeur
du a ; plus le a est faible, plus les points d’inflexion seront près de l’axe et
plus la courbe sera resserrée autour de la moyenne, et inversement bien
entendu.

Fig. 41.

Par ailleurs, l’ordoimée à l’origine (ou à la valeur moyenne) s’obtient en


faisant x = m dans (3), ou AT = 0 dans (4), ou encore t = 0 dans (5). Le terme,
en e devient c’est-à-dire 1. Il reste

_ 1
^ a yjln

Cette valeur est donc en raison inverse de a. Donc plus le a sera petit, plus
le sommet de la courbe sera élevé, et inversement
Au total, par conséquent, plus le a est faible, plus la courbe est étroite
et haute, plus le a est grand, plus la courbe est basse et étalée (fig. 42).

Fig. 42. — Morphologie de la courbe de Gauss sur

vant différentes valeurs du a (d’après Lamotte).

On voit rimportance considérable du a qui commande la morphologie


de la courbe de Gauss.
66 ST A TISTIQUE PR OBA BI LISTE

Associée à la connaissance de la moyenne qui détermine la position de


l’axe de symétrie de la courbe, cette donnée suffit à caractériser parfaitement
la courbe de Gauss. La courbe de Gauss ne dépend donc que de deux para¬
mètres, la moyenne et le a. C’est une des raisons de l’intérêt qui s’attache
à l’étude de ces deux paramètres en statistique.

Signification probabiliste de la courbe de Gauss

Lorsqu’on fait tendre n vers l’infini, chaque rectangle du diagramme de


la distribution binomiale se réduit à une ordonnée linéaire y de la courbe de
Gauss qui mesure la densité de probabilité de la valeur x correspondante.
La courbe de Gauss a donc la signification d’une fonction de densité de
probabilité et elle indique pour chaque valeur de la variable aléatoire x la
probabilité y qui lui correspond (fig. 37).
Mais tandis que dans la distribution binomiale la variable aléatoire ne
pouvait prendre qu’un certain nombre de valeurs discrètes (c’est-à-dire
entières), ici la variable aléatoire est continue et elle peut prendre toutes les
valeurs entre 0 et -f oo (fig. 38).
Lorsqu’on passe à la courbe centrée, on substitue à la variable jc les
écarts à la moyenne X = {x - m) qui peuvent être positifs ou négatifs. La nou¬
velle variable aléatoire X couvre donc tout le domaine des valeurs entre — oo
et 0 d’une part et entre 0 et -t- oo d’autre part (fig. 43). La courbe indique
donc alors la probabilité que l’on a de rencontrer un écart à la moyenne de
valeur donnée. On voit que la moyenne, dont l’écart est nul, est la valeur
dont la probabilité est la plus grande
(fig. 43). De plus, s’il est vrai que
n’importe quelle valeur peut être
observée, toutes les valeurs ne sont
pas également probables ; il résulte
en effet de la forme « en cloche »
de la courbe que la probabilité
d’observer une valeur donnée est
d’autant plus faible qu’elle s’écarte
davantage de la moyenne, de part
Fig. 43.
et d’autre de celle-ci, cette proba¬
bilité diminuant très nettement dès que cet écart dépasse 1 a, comme l’indique
l’affaissement marqué de la courbe au-delà de ses points d’inflexion (fig. 41).
DISTRIBUTION NORMALE 67

Cette notion très importante, qui montre bien le caractère représentatif


de la moyenne dans une distribution normale, est une des bases essentielles,
nous le verrons, de l’exploitation statistique de la courbe de Gauss.

Probabilité» cumulée» de la distribution normale

Lorsque, n tendant vers l’infini, la distribution binonaiale tend vers la


courbe de Gauss, le diagramme des probabilités cumulées qui lui correspond
tend vers la fonction de répartition correspondante, c’est-à-dire l’intégrale
de la courbe de Gauss, qui n’est autre, au facteur 1/^2 rt près, que la courbe
intégrale en S que nous avons précédemment étudiée (fig. 44) (’).
Les probabilités cumulées de la distribution gaussienne seront donc
obtenues par les intégrales correspondantes de la courbe de Gauss.

Ainsi, la probabilité cumulée de toutes les valeurs comprises entre - oo


et une valeur particulière Xi, c’est-à-dire la probabilité de toutes les valeurs
inférieures à xi, qui correspond à la surface comprise sous la courbe de Gauss
à gauche de l’ordonnée de Xt, sera donnée par l’intégrale de la courbe de
Gauss prise entre — oo et , soit

r -l=e-^^/^.dx
J ^ 2 7t V

(1) Cf. Rappel mathématique, p. 202.


68 STATISTIQUE PROBABILISTE

que mesure l’ordonnée Yi=F[^Xi) correspondante de la courbe intégrale


(fig. 45).
De même la probabilité cumulée de toutes les valeurs de x comprises
entre deux valeurs particulières Xi et X2 , qui correspond à la surface englobée
sous la courbe de Gauss entre les deux ordonnées correspondantes, sera
donnée par l’intégrale de la courbe de Gauss prise entre les limites xi et Xz ,
soit

«I

que mesure la différence Yz — Yi entre les ordonnées correspondantes de la


courbe intégrale (fig. 46).

Fig. 47.

Quant à la probabilité cumulée de toutes les valeurs de la distribution,


qui est par définition égale à 1, elle correspond à la totalité de la surface
englobée sous la courbe de Gauss, c’est-à-dire à l’intégrale de la courbe de
Gauss prise entre — 00 et -l- 00, soit
DISTRIBUTION NORMALE 69

qui est mesurée par l’ordonnée la plus à droite de la courbe intégrale, soit Yt
(fig. 47), laquelle est égale à 1 (*)•

Tables de la courbe normale

En pratique, il n’est pas nécessaire de calculer chaque fois ces différentes


intégrales. En effet, à partir des caractéristiques numériques de la courbe de
Gauss, on a établi des tables de la courbe normale dont on trouvera des
extraits à la fin de cet ouvrage (tables I et II. pp. 208 et 209) qui per¬
mettent de résoudre très simplement tous ces problèmes.
Ces tables ont été établies pour la courbe réduite, qui a pour abscisse,
rappelons-le, t = {x — m)la et pour ordonnée 9 = ay.

Elles indiquent pour chaque valeur de / :

1“ la valeur de l’ordonnée 'S'i de la courbe réduite qui lui correspond


(fig. 48):
2° la valeur de la surface

(D -L=e-*^i^.dt
yj2n
0

comprise sous la courbe réduite entre


l’ordonnée à l’origine et l’ordonnée de
t] (fig. 48) et qui mesure la probabilité
cumulée de toutes les valeurs comprises
entre 0 et ti ;
3® la surface 2^>(ti) comprise sous la
courbe entre les ordonnées d’abscisse — et -f ti (fig. 49), qui mesure
les probabilités cumulées de toutes les valeurs comprises entre -/i et

(1) On montre du reste que l’intégrale


+ OO

J . dx vaut n.
— 00

L’intégrale précédente, qui n’est autre que celle-ci multipliée par est donc bien
^2n
égale à 1.
70 ST A TISTIQ UE PR OBA BI LISTE

+ h , ainsi que la surface [1 — 2 O (/j)] qui mesure les probabilités cumu¬


lées de toutes les valeurs extérieures à cet intervalle (fig. 49) ;

4° la surface

7r(r,) = r 1
J y! 2n
“ 00

comprise sous la courbe entre — oo et /i (fig. 50), et son complément à 1,


soit [1 —7r(/i)], qui mesurent respectivement les probabilités cumulées
de toutes les valeurs inférieures et celles de toutes les valeurs supérieures
à /i (fig. 50et table II, p. 209).

Exemple. — Pour /j z= 0,5, on trouve dans les tables des pages 200 et 201 :
= 0,352 1
<I)(/i) = 0,191 5
2a)(/i) = 0,383 0
1 - 2 0(/i) = 0,617 0
(/i) = 0,691 5
1 -;r (ti) = 0,308 5

On peut en outre calculer à partir de ces données la probabilité cumulée


de toutes les valeurs comprises entre deux valeurs ti et tz et qui est égale à
t: (tz) — (ti) ou encore |<I>(/2) —® (/i) | si ti et tz sont de même signe
(fig. 51) ou 1 O (/i) + O (tz) i si ti et tz sont de signe contraire (fig. 52).

0^1 <2 +00 t


Fig. 51. Fig. 52.
DISTRIBUTION NORMALE 71

Exemple. — Pour = 0,5 et = 0,7, on a :

<1> (ti) = 0,191 5, «P (/j) = 0,258 0


d’où :
<I>(t2)-»I>('i) = 0,066 5.

Ces tables permettent donc d’obtenir facilement pour toute valeur x d’une
distribution normale la probabilité qui lui correspond, ainsi que les différentes
probabilités cumulées qui peuvent s’y rattacher.

Nota. — Les tables ayant été établies pour la courbe réduite, il faut préalablement
calculer t à partir de la valeur considérée de x, par la relation

x—m
t = -.
a

L’ordonnée réduite correspondante une fois obtenue dans les tables, on revient à
l’ordonnée non réduite cherchée y par la relation y = lcr.
Ainsi pour la valeur x = 6 d’une distribution normale de moyenne m = 5 et de
a = 2, on a

= 0,5.

Pour / = 0,5 on trouve dans les tables = 0,352 1. d’où

0,352 1
y = 0,176 0.
a 2
La probabilité de la valeur x est donc 0,176 0, soit 17,6 %.

La détennination des probabilités se trouve ainsi considérablement faci¬


litée par rapport à la loi binomiale où il était nécessaire de calculer séparé¬
ment les différents termes de la distribution. Par ailleurs, la distribution nor¬
male concernant des valeurs continues, elle a une portée beaucoup plus
générale que la distribution binomiale qui, nous l’avons vu, ne concerne que
des valeurs discrètes. C’est pourquoi chaque fois que cela est possible, c’est-
à-dire quand n est suffisamment grand et p (ou q) pas trop voisins de 1 ou
de 0 (ce qui rendrait la distribution trop asymétrique), il y a intérêt à substi¬
tuer à la distribution binomiale, dont le maniement est peu commode, la dis¬
tribution normale qui lui correspond, c’est-à-dire qui a même moyeime et
même effectif et qui, dans les conditions précitées, en représente une approxi¬
mation satisfaisante. Aussi bien ce procédé est-il souvent exploité, nous le
verrons, dans les problèmes d’interprétation statistique.
72 STATISTIQUE PROBABILISTE

Aires remarquables de la courbe de Gauss

Les données ci>dessus permettent de comprendre qu’à une valeur donnée


de l’écart t correspond une valeur déterminée de l’aire 2 O (/). donc de l’aire
correspondante sur la courbe non réduite.
Certaines de ces valeurs de l’aire 2 <I> (/) méritent une attention particu¬
lière, ce sont celles qui correspondent à des valeurs remarquables de l’écart
en rapport avec le a.

On montre ainsi (fig. 53) que :

1° L’aire 20(0 qui correspond à un écart /=±1, c’est-à-dire


X — ± 1 <7, donc l’aire comprise sous la courbe non réduite entre les abscisses
JC = (m - (7) et x = (m -I- a), représente 68,3 % (‘) de la surface totale englobée
par la courbe.

2* * L’aire 2 O (0 qui correspond à un écart t= ±1, c’est-à-dire


AT = ± 2 (7, donc l’aire comprise sous la courbe non réduite entre les abscisses
JC = (m - 2 <7) et JC = (m -f- 2 (7), représente 95,5 % (*) de la surface totale.

(^) Plus précisément 68,26 %, comme on peut le vérifier dans la table de la courbe
de Gauss, p. 208.
(*) Plus précisément 95,44 %, comme on peut le vérifier dans la table de la courbe
de Gauss, p. 208.
DISTRIBUTION NORMALE 73

3° L’aire 2 O (t) qui correspond à un écart t = ± 2,6, c’est-à-dire


A' = ±2,6 a, donc l’aire comprise sous la courbe non réduite entre les
abscisses x = {m — 2.6 a) tt x = {m + 2.6 a), représente 99 % (^) de la surface
totale.

La surface totale englobée sous la courbe de Gauss correspond, nous


le savons, à la probabilité cumulée de toutes les valeurs, c’est-à-dire 100 %
des cas de la distribution. Les aires 2 0(r) ci-dessus mentionnées corres¬
pondent donc respectivement à la probabilité cumulée de 68,3 %, 95,5 % et
99 % des cas de la distribution.
Si l’on considère maintenant les probabilités des valeurs de x extérieures
aux intervalles ci-dessus, on peut en déduire que

— l’intervalle extérieur à (m — a), (m-fa)


englobe 100-68,3 = 31,1 % des cas de
la distribution (fig. 52) ;
— l’intervalle extérieur à (m - 2 a), -1a m +1a

{m + 2 a) englobe 100 — 95.5 = 4,5 % Fig. 54.


des cas de la distribution (fig. 55) ;
— l’intervalle extérieur à (m —2,6 a), (m-t-2,6a) englobe 1(X) —99 = 1 %
des cas de la distribution (fig. 56).

Il en résulte que dans une distribution normale il y a seulement

— 31,7 chances sur 100 d’observer un écart à la moyenne supérieur à 1 a ;


— 4,5 chances sur 100 d’observer un écart à la moyenne supérieur à 2 a ;
— 1 chance sur 100 d’observer un écart à la moyenne supérieur à 2.6 a.

(1) Plus précisément 99,06 %, comme on peut le vérifier dans la table de la courbe
de Gauss, p. 208.
74 STATISTIQUE PROBABILISTE

Ces aires remarquables de la courbe de Gauss permettent ainsi de déter¬


miner la probabilité que l’on a dobserver dans une distribution gaussienne
un écart réduit supérieur à une valeur donnée. Cette propriété fondamentale
est exploitée, comme nous le verrons, pour résoudre un grand nombre de
problèmes d’interprétation statistique.
CHAPITRE Vl{^)

DISTRIBUTION DE POISSON

La distribution de Poisson est une distribution théorique qu’on peut éga¬


lement faire dériver de la distribution binomiale : elle correspond à une
distribution binomiale où l’une des éventualités a une probabilité très faible.

Exemple introductif

Supposons par exemple que l’ume binaire qui nous a servi à étudier la
distribution binomiale contienne 999 boules blanches et seulement une boule
noire. On conçoit que la boule noire unique a très peu de chances de sortir,
en fait une chance sur 1 000 seulement, soit 0,1 % : la probabilité de cet
événement est donc très faible. Elle n’est cependant pas nulle et si nous
effectuons 1 000 tirages, par exemple, nous pouvons espérer tirer une fois
la boule noire. Au cours de ces 1 000 tirages, la boule noire a cependant
beaucoup plus de chances de ne pas sortir. Inversement, il n’est pas impos¬
sible qu’elle sorte deux ou trois fois, ou même davantage. On devine, cepen¬
dant, que ces éventualités seront d’autant moins probables qu’elles impliquent
un plus grand nombre de fois le tirage de la boule noire.
C’est effectivement ce qui se passe : si l’on établit le graphique des proba¬
bilités, on constate, en effet, que les probabilités deviennent rapidement très
petites dès que le nombre r de boules noires à tirer augmente (fig. 57).

Genèse et expression mathématique de la distribution de Poisson

La distribution de Poisson représente, en effet, la limite d’une distri¬


bution binomiale dans laquelle un des termes, q par exemple, devient très
petit (en pratique inférieur à 0,03), ce qui rend la distribution très asymé¬
trique, alors que n augmente indéfiniment. Dans ces conditions, on montre
que l’expression :

(^) La connaissance de ce chapitre n’est pas indispensable à la compréhension des


chapitres suivants. Il peut donc être négligé dans une première lecture.
76 STATISTIQUE PROBABILISTE

n !
Pr = g'
r\{n-r)\‘
qui donnait la probabilité du terme de rang r, tend alors vers l’expression :

(1)
r! •
On montre d’autre part que, comme la distribution binomiale dont elle
est issue, la distribution de Poisson a pour moyenne m = nq.
L’expression de P, devient alors :

Pr = (2)

Mais m’/r ! est le terme générique du développement en série de


On sait en effet (^) que peut s’écrire :
m
e"» = 1 +
TT + ^ +••• + r\

La formule (2) indique donc que les termes successifs de la distribution


de Poisson peuvent être représentés par les termes successifs du produit de
par le développement en série de e”. c’est-à-dire :
(, mm?' m^ \
TT IT TT
où r peut prendre toutes les valeurs entières 0, 1,2, 3, etc., et dont la somme
est bien égale à 1, puisqu’elle est le produit de e’” par e~^.

Propriété» caractéristique» de la distribution de Poisson

L’expression mathématique de la distribution de Poisson montre que les


différents termes de cette distribution ne dépendent que du paramètre m :

— le terme de rang 0 est toujours e~^ (^) ;

(1) Cf. s. Geller, Abrégé de Mathématiques, Masson éd., Paris, 1969, p. 220.
(2) Il en résulte que si l’on connaît la fréquence relative de ce terme, on peut
en déduire la valeur de m et, par suite, la valeur de tous les termes de la distribution.
En effet, soit /q la fréquence relative du terme de rang zéro, = e"" d’où :

log/o = — m . loge et
-log/o -log/o
loge 0,434 3 ■
DISTRIBUTION DE POISSON 11

— si m est inférieur à 1, le terme e”"* est le plus élevé de la série : la distri¬


bution décroît alors constamment depuis ce terme de rang 0 et tend
vers 0, revêtant un aspect en J renversé (fig. 58) ;
— pour m = 1, le terme de rang 0, qui vaut e”"
est égal à c’est-à-dire Me soit ^0,37. Il en
est de même du terme de rang 1 qui vaut
m . e~”'. Ces deux termes représentent alors une
valeur maximale (fig. 58) ;
— pour m entier et supérieur à 1, il existe deux
valeurs maximales, dites a modales », correspon¬
dant àr = metr = m—1 (^).

Les termes successifs vont d’abord en augmen¬


tant jusqu’à ce double maximum ; ils décroissent
ensuite pour tendre vers zéro quand r augmente.
La distribution a alors un aspect en cloche dissy¬
métrique avec étalement vers la droite. Mais la dis¬
symétrie s’atténue rapidement quand m croît (fig. 58
et 59).

On montre également que la variance de la dis¬


tribution de Poisson est aussi égale à m.
En effet, la variance de la distribution binomiale, on s’en souvient, est
cr^ = npq. c’est-à-dire (puisque p = l — q), nq (l — q) = ni (l — q).

(1) Dans ce cas, en effet ces deux termes sont égaux : si r = w, le terme en r.
qui est
m’’

■I

devient :
m"
e .
I ’
m
c’est-à-dire ;

m . (m— 1) ! ’
c'est-à-dire :
w”

(m-D!

qui est, par définition, la valeur du terme de rang (m—1).


78 STATISTIQUE PROBABILISTE

Fig. 58. — Représentation graphique Fig. 59. — Représentation de quelques


de quelques lois de Poisson pour distributions de Poisson pour diffé¬
différentes valeurs de m (d’après rentes valeurs de m (d’après Pepe et
Lamotte). Tisserand).

Si q tend vers 0, on voit que cette expression tend vers m.


On a donc ;

—m

et par suite pour l’écart type

a = y/m

m est ainsi, à la fois, la moyenne et la variance de la distribution. En outre,


la formule

e-m
Pr =
7i ■

montre que le terme de rang r peut s’exprimer directement en fonction de la


moyenne m. La distribution de Poisson est donc entièrement déterminée par
le seul paramètre m.
DISTRIBUTION DE POISSON 79

Applications de la distribution de Poisson

La distribution de Poisson, dite encore loi des petites probabilités, peut


s’appliquer dans certaines circonstances où des événements ont une probabilité
faible : accidents mortels rares, tels que les accidents d’aviation, les maladies
exceptionnelles, les suicides, etc. Dans ces
cas. elle peut être avantageusement substi¬
tuée à la distribution binomiale, alors très
asymétrique, dont elle représente alors une
bonne approximation, à condition cependant
' que les échantillons soient suffisamment
importants (« grand), c’est-à-dire que les
événements considérés soient en nombre
suffisant.
Le recours à la distribution de Poisson
est alors d’autant plus intéressant que le cal¬
cul des différents termes de la distribution
binomiale devient, dans ces cas, particuliè¬
rement laborieux. En revanche, le calcul des
termes de la série de Poisson est facile et il
existe du reste des tables numériques de cette
distribution qui permettent d’éviter tout calcul (^) (cf. table III, p. 210).

Exemple. — Un exemple classique de distribution de Poisson est celui de Bort-


Iciewicz (1898) qui a colligé le nombre de militaires tués (par an et par corps d’armée)
par coups de pied de cheval dans dix corps d’armée de la Cavalerie autrichienne
pendant 20 ans (ensemble assimilable à 200 épreuves).
Le tableau X suivant et la figure 60 montrent que les fréquences observées
se distribuent d’une façon presque parfaite suivant une loi de Poisson.

(1) Ces tables donnent pour les différentes valeurs de r, la probabilité du terme
correspondant en fonction de la moyenne m trouvée pour un grand nombre de mesures.
80 STATISTIQUE PROBABILISTE

TABLEAU X

Exemple de distribution de Poisson

Nombre de tués Fréquence observée Fréquence théorique *

0 109 109,7
1 65 65,8
2 22 18,8
3 3 4,1
4 1 0,6
5 0 0.1

Total 200 200

Aspect différentiel de la loi de Poisson

Mais la distribution de Poisson a une portée plus générale.


En effet, son expression mathématique montre sa parenté avec la fonction
exponentielle. Nous avons vu que la caractéristique essentielle de ce type de
fonction, c’était de présenter un même taux de variation dans des intervalles
de temps égaux.
De manière analogue, on constate que, lorsque des événements sur¬
viennent au hasard dans le temps, leur répartition dans des tranches égales
de temps se fait suivant une distribution de Poisson (^).
Il en est ainsi, en particulier du nombre d’atomes qui se désintègrent dans
un intervalle de temps donné : lorsqu’on mesure l’activité d’un radio-élément,
on enregistre au compteur un certain nombre de coups dans un intervalle

(1) Nous verrons ultérieurement (p. 133) comment on peut effectuer ce calcul.
(2) Plus précisément, on montre que l’on est conduit à une loi de Poisson lorsque
la probabilité qu’un événement se produise dans un intervalle de temps infiniment petit
dt est proportionnelle à la durée de cet intervalle : p = Xdl, c’est-à-dire

P
— = A = constante .
dt
La probabilité de l’événement est donc constante pour un même intervalle de temps dt
(d’où le nom d’aspect « différentiel »), ce qui explique la parenté de cette loi avec la
fonction exponentielle.
DISTRIBUTION DE POISSON 81

de temps donné, par exemple une minute. Si l’on fait plusieurs comptages
pour des intervalles de temps égaux, on obtient des chiffres différents qui se
répartissent autour d’une moyenne suivant une loi de Poisson.

L’écart typ» de la distribution est donc ^ m. Si on le rapporte au nombre moyen


m de coups enregistrés, on obtient Vécart relatif

Si l’on veut que cet écart ne soit pas trop important, il faut prendre m assez grand,
donc compter sur un intervalle de temps suffisamment long.

De façon analogue, lorsque des événements surviennent au hasard, non


plus dans le temps, mais dans l’espace, leur répartition dans des tranches
égales d’espace se fait suivant une distribution de Poisson. Il en est ainsi
notamment du nombre des éléments d’une solution très diluée (bactéries,
hématies, leucocytes) observés dans le champ d’un hémocytomètre. Si la
préparation est homogène, la fréquence des éléments de surface (tous égaux)
qui contiennent respectivement 0, 1, 2, 3, ... etc., r organismes, doit se distri¬
buer suivant une loi de Poisson et la vérification de cette propriété constitue
précisément un test d’homogénéité de la préparation.
Notons encore, parmi les applications de la loi de Poisson, le contrôle
industriel de fabrication quand le pourcentage des objets défectueux est
faible, les phénomènes d’attente tels que la fréquence des appels téléphoniques
sur un réseau, les délais d’attente des avions à l’atterrissage, l’encombrement
de la circulation, la recherche du stock optimum à maintenir (« recherche
opérationnelle »), etc., et, de manière générale, toutes les circonstances où des
événements indépendants se succèdent dans le temps avec une « densité »
constante.
F ^ ■> FV» .

•r»,T
^‘- .A“‘ ’i
;
il ..
V
V-
it ■ ■.'* .'W V :
**' *,
,..^1
'1 .«.riU=-«îl£.-/.'V f *
r^Y *■ -"J -
|l‘V* V , ••■.; *■'-■.'■ , ♦' i-1 -W’

■ ■ : '.ïl K;..-'fcùi;. •:i<è(\- -t 1 iu,‘ ..;>■(■’

m\r:‘
,-^^sA f'si'.“if-irji'.’ '

.''‘■V , '.,
-, - ^
■Sf5tiï«. ' f ..'• ■"*■•' w . ' . t ■ * îi.*-. i'
" ■■ • “^î-. ' •■.«»■■ ^ "'à Y- :><
îf;- - ; "K

.r -f , »■
A V F> ^ ' /
..

■ '7., ’.iifii,
> .■^j-'*4llEwl
rSdiîSÆfltt. sM' • ‘«rifTlMû

Ü»âS':.iSLJÉÊi
TROISIÈME PARTIE

INTERPRÉTATION STATISTIQUE
CHAPITRE VU

ESTIMATION DE LA MOYENNE

Tout travail statistique, par la force des choses, ne peut porter que sur
un nombre limité de valeurs dont l’ensemble constitue l’effectif de l’échan¬
tillon statistique. Or ce qui intéresse l’observateur, ce n’est pas tellement
l’échantillon lui-même, mais la population d'origine, d’effectif théoriquement
infini, dont on peut considérer, nous l’avons vu, que cet échantillon a été tiré.

Ainsi, si nous étudions par exemple le taux du cholestérol sanguin dans un groupe
de trente adultes jeunes normaux, ce qu’il nous importe de connaître ce n'est pas le taux
du cholestérol de ces trente sujets-là, mais bien celui de l’adulte jeune normal, c’est-
à-dire de l’ensemble des adultes jeunes à l’état normal qui constituent i la population
d’origine > dont on peut considérer que l’échantillon étudié a été tiré.

Il est évidemment impossible d’appréhender directement l’ensemble de la


population d’origine et l’observateur doit se contenter d’étudier un échantillon
d’effectif plus ou moins important de cette population.
Le problème se pose donc de savoir dans quelle mesure les données
recueillies sur l'échantillon peuvent renseigner sur la population d’origine,
dans quelle mesure elles permettent t d’estimer » les caractéristiques de cette
population d’origine sur laquelle se concentre tout l’intérêt : c’est là un
problème fondamental d’interprétation statistique dit problème d’estimation
ou encore a d’échantillonnage », dont on devine toute l’importance pratique.
En particulier, chaque fois que l’on aura calculé un des paramètres carac¬
téristiques d’un échantillon, on devra se demander dans quelle mesure le
paramètre observé permet d’estimer le paramètre correspondant de la popu¬
lation d’origine.
Bien entendu, on ne peut espérer déterminer avec certitude la valeur
véritable du paramètre correspondant de la population d’origine. Cette certi¬
tude ne pourrait être acquise, en effet, que par la connaissance de l’ensemble
des valeurs qui constituent la population totale, ensemble qu’il est, par hypo¬
thèse, et du reste également en pratique, impossible d’appréhender.
86 INTERPRÉTATION STATISTIQUE

Toutefois, les méthodes statistiques permettent de déterminer les limites


entre lesquelles on peut estimer, avec un degré de crédibilité donné, que doit
se situer la valeur du paramètre envisagé de la population d origine ; c est
ce qui s’appelle déterminer F intervalle de confiance du paramètre en question.
La solution de ce problème diffère suivant le paramètre dont il s’agit
et nous l’étudierons d’abord pour ce paramètre fondamental qu’est la
moyenne. Mais il nous faut pour cela définir au préalable la notion de « distri¬
bution des moyennes » sur laquelle s’appuie cette solution.

Dûtribution de» moyennes

Considérons une population statistique d’effectif N très grand et que


nous supposerons normalement distribuée. Soit M la moyenne et S l’écart
type de cette distribution.
Extrayons par tirage au sort, c’est-à-dire au hasard, des échantillons
de même effectif n.
Soit : mi. ma, ma. ... etc., les moyennes trouvées pour ces divers
échantillons.
Du fait des fluctuations statistiques, ces diverses moyennes différeront
entre elles et également de la moyenne M de la population d’origine.
Cependant, dans une distribution gaussienne, les valeurs qui avoisinent
la moyenne, nous l’avons vu, sont celles dont la probabilité est la plus grande.
Il en résulte que les diverses valeurs mi, ma,
ma, etc. que l’on peut trouver pour m ne s’écar-
_ __ teront pas sensiblement de M : l’on constate effec-
tivement que les valeurs des diverses moyennes
Fig. 61. obtenues pour les différents échantillons de même
effectif n, prélevés à partir d’une même popula¬
tion d’origine, sont beaucoup moins dispersées que les valeurs individuelles
(fig. 61) (1).

Ainsi en étudiant le taux du cholestérol sanguin chez cent adultes jeunes, on a


trouvé un taux moyen de 1,50 g/l, avec des valeurs individuelles allant de 0,80 à 2 g.
Si l’on constitue dix groupes de dix sujets pris au hasard et que l’on recherche les
moyennes dans ces dix groupes, on trouvera des taux voisins de 1,50, allant par exemple
de 1,40 à 1,60, donc beaucoup moins dispersés que les valeurs individuelles.

(1) C’est, du reste, ce qui justifie la confiance qu’intuitivement on accorde à la


moyenne d’un certain nombre de mesures plutôt qu’à une mesure isolée.
ESTIMATION DE LA MOYENNE 87

Plus précisément on montre que les différentes moyennes trouvées pour


les échantillons de même effectif n, prélevés au hasard dans une population
d’effectif N très grand se répartissent de
façon gaussienne autour de la moyenne M
de la population d’origine. L’ensemble de
ces moyennes forme donc une distribu¬
tion, dite « distribution des moyennes »
qui est une distribution gaussienne ayant
même moyenne M que la distribution de
l’ensemble des valeurs individuelles, mais
moins dispersée que cette dernière (fig. 62).
L’écart type de cette distribution des
moyermes est appelé écart standard de la
moyenne, symbolisé Sm afin de le distin¬
guer de l’écart type a des valeurs de
l’échantillon.
La distribution des moyennes étant moins dispersée, son écart type 5m
est toujours plus petit que l’écart type 5 de la population d’origine (fig. 62).
Il le sera d’autant plus, on le conçoit, que l’effectif n de l’échantillon sera plus

Fig. 63. — Distribution des moyennes


d’échantillons de différents effectifs
(n = 8, n = 20, n = 80) prélevés à partir
d'une même population dorigine (d’après
Lamotte).

grand. En effet, plus n sera grand, c’est-à-dire plus il se rapprochera de


l’effectif N de la population d’origine, plus les valeurs trouvées pour m se rap-
88 INTERPRÉTATION STATISTIQUE

procheront de la vraie moyenne M (qui sera obtenue à la limite quand n


deviendra exactement égal à N).
Les distributions des moyennes pour les diverses valeurs de n, seront
donc d’autant plus o resserrées ® autour de la vraie moyenne M que n sera
plus grand (fig- 63) : l’écart standard Sm variera donc en sens inverse de n.
Plus précisément, on montre que Sm est inversement
proportionnel à la racine carrée de l’effectif n de l’échan¬
tillon :

Ainsi, l’ensemble des moyennes que l’on peut trouver


pour les divers échantillons de même effectif n prélevés au hasard à partir
d’une population gaussienne de moyenne M et d’écart type S, forme une distri¬
bution gaussienne de même moyenne M et d’écart type Sm = S/^/n (fig. 64).

Intervalle de confiance de la moyenne

Considérons la distribution des moyennes obtenue pour un effectif n


donné de l’échantillon.
Puisque cette distribution des moyennes est gaussienne et qu’une telle dis¬
tribution couvre tout l’intervalle des écarts possibles, rien ne s’oppose, en
théorie, à ce que les fluctuations du hasard fassent apparaître une quelconque
des valeurs de m, même très éloignée de la moyenne vraie M de cette distri¬
bution.
Cependant, comme nous l’avons déjà noté, si toutes les valeurs d’une
distribution gaussienne sont théoriquement possibles, elles ne sont pas éga-

(^) Ce résultat découle du principe dit de « l’additivité des variances », suivant


lequel la variance d'un ensemble de populations indépendantes est égale à la somme des
variances des populations qui le composent. Il résulte de ce principe que si, à
partir d’un ensemble d’éléments dont la variance est 5^, on forme des échantillons
indépendants de n unités, l’ensemble des échantillons aura pour variance totale nS^,
donc pour écart type S ^ n. Lzl distribution des moyennes aura donc pour écart type ;
ESTIMATION DE LA MOYENNE 89

lement probables : la forme de la courbe de Gauss montre bien, en effet, que


dans une distribution normale la probabilité d’une valeur est d’autant plus
faible qu’elle ^écarte davantage de la moyenne : sitôt que cet écart dépasse
1 a, la probabilité de la valeur correspondante diminue rapidement, comme
l’indique l’affaissement de la courbe au-delà de ses points d’inflexion, et elle
devient très faible quand l’écart atteint 2 a. Nous avons vu en effet qu’au-delà
de cette limite on ne trouvait plus que 4.S % seulement des valeurs de la
distribution.
L’intervalle correspondant de la distribution des moyennes, soit
iM — 2sm), {M+2sm) comprend donc 95,5 % des valeurs qu’est susceptible
* de prendre la moyenne m de l’échantillon par suite des fluctuations fortuites
(flg. 65). En estimant que la moyenne doit se trouver dans cet intervalle,
nous sommes donc assurés que cette assertion sera exacte 9S,S fois sur 100.
C’est pourquoi cet intervalle qui va de (A/ — 2 Sm) k(M + 2 Sm) est dit inter¬
valle de confiance de la moyenne au coefficient de sécurité de 95,5 %.

Fig. 65.

On définit de manière tout à fait analogue l’intervalle de confiance de la


moyenne au coefficient de sécurité de 99 % : c’est l’intervalle {M ± 2.6 Sm) qui,
d’après les propriétés de la courbe normale, englobe, on s’en souvient, 99 %
des valeurs de la distribution (fig. 66). Nous avons donc 99 chances sur 100
de ne pas nous tromper en estimant que la moyenne se trouve dans cet inter¬
valle (^). (*)

(*) On voit tout le caractère conventionnel de la définition de l’intervalle de


confiance, dont les limites ne sont pas fixes mais dépendent seulement des exigences
de l'expérimentateur et plus précisément du degré de certitude qu'il veut attacher à
ses conclusions. Si l’on voulait définir les limites de l’intervalle avec une certitude
absolue il faudrait adopter l’intervalle (-oo, -Foo), dans lequel se trouve certainement
la vraie moyenne. Mais il est bien évident qu’une telle assertion est sans intérêt.
Inversement, on pourrait songer à adopter un intervalle plus étroit, par exemple
l’intervalle iM±s„) qui englobe 68,3 % des cas de la distribution, ou même l’intervalle
(M ± 2/3 5„), dont on montre qu’il englobe 50 % des cas de la distribution. Mais le
risque de se tromper serait alors de 31,7 % dans le premier cas et de 50 % dans le
(Voir suite de la note p. 90.)
90 INTERPRÉTATION STATISTIQUE

L’intervalle de confiance de la moyenne est donc :


M ±2 Sm
au coefficient de sécurité de 95 %, et
M ± 2,6 Sm

au coefficient de sécurité de 99 % ; avec


5

Détermination de Vintervalle de confiance d’une moyenne

Mais, objectera-t-on, lorsque nous étudions un échantillon et que nous


cherchons à déterminer l’intervalle de confiance de la moyenne observée pour
cet échantillon, soit nio, nous ne connaissons pas la vraie moyenne M, ni
même le Sm dont la connaissance suppose celle de l’écart type S de la popu¬
lation d’origine. C’est même pour obtenir des informations sur cette popula¬
tion d’origine que l’échantillon a été étudié.
Toutefois, l’expérience montre qu’en pratique, pour peu que l’échantillon
soit suffisamment important, les distributions d’échantillonnage sont des distri¬
butions sensiblement normales. Dans ces conditions, la valeur mo trouvée
pour m représente la valeur dont la probabilité est la plus grande. Dès lors,
il est logique de la considérer comme la meilleure estimation que nous ayons
de la moyenne vraie M et de la substituer à celle-ci dans l’expression de
l’intervalle de confiance.
De même, le a de l'échantillon représente une estimation de l’écart type
vrai S de la population d'origine et l’on pourrait songer à le substituer à ce 5
inconnu pour le calcul de Sm ■ En fait, le a de l’échantillon serait une estima¬
tion un peu trop faible de S. En effet certaines valeurs extrêmes de la popu¬
lation d’origine échappent forcément à l’échantillon, ce qui contribue à réduire

(Suite de la note de la p. 89.)


deuxième. Tout se passe comme si l'on pariait que la moyenne .se trouve dans un
intervalle déterminé dont on peut choisir à son gré l’étendue. Si l’on adopte un intervalle
trop large, on risque peu de se tromper, mais le pari perd de son intérêt. Inversement,
si, voulant augmenter la précision du pari, on choisit un intervalle trop étroit, le risque
d’erreur devient prohibitif. En adoptant l’intervalle de confiance correspondant au
coefficient de sécurité de 95 ou éventuellement 99 %. on dispose donc d’une précision
intéressante moyennant un risque qui reste « raisonnable » et l’on réalise ainsi un
compromis satisfaisant entre ces deux tendances nécessairement contradictoires.
ESTIMATION DE LA MOYENNE 91

la dispersion de ce dernier. Pour estimer correctement S il faut donc prendre


une valeur un peu supérieure au cr de l’échantUlon. Le calcul montre effecti¬
vement que la meilleure estimation de S, que nous symboliserons S,, est légè¬
rement supérieure à a, et qu’elle est plus précisément égale à

l~ir (‘)
° N n-r
On peut donc utiliser cette valeur pour calculer le Sm qui sera donc égal à

^ a ! " - ^

s„ = — .
Vn-1
A partir des valeurs estimées de M et de , on pourra exprimer l’inter'
valle de confiance de la moyenne qui sera donc finalement

"»o ± 2

au coeflScient de sécurité de 95 %, et

"»o±2,6

au coefficient de sécurité de 99 %. avec

a
n-\

(^) On voit que la correction diminue à mesure que n augmente. Pour

n = 30, elle n’est plus que de

1,017, soit 1,7%.

(2) On notera que le varie en raison inverse de n. Si donc on veut réduire


l’intervalle de confiance dans le rapport de 1/2 par exemple, il faudra multiplier par 4
le nombre d’observations.
92 INTERPRÉTATION STATISTIQUE

En pratique, lorsqu’on exprime le résultat d’un travail statistique, on


donne la moyenne suivie de (et non, comme on le voit trop souvent, de
l’écart type a des mesures elles-mêmes) et on laisse au lecteur le soin de
déterminer lui-même l’intervalle de confiance en adoptant le coeflficient de
sécurité qu’il désire.
Exemple. — On a dosé les corticoïdes urinaires dans un groupe de 253 femmes
de poids normal. On a trouvé une moyenne m = 4,50 mg/24 h et un écart type
a = 1,50. Quel est l’intervalle de confiance de la moyenne trouvée ?
1,50
On a = 0,10
7^2
L’intervalle de confiance de la moyenne est donc :
">0 ± 2 = 4,50 ± (2 X 0,10) = 4,50 ± 0,20, soit 4,30 à 4,70

au coefficient de sécurité de 95 % et de :
wo ± 2,6 = 4,50 + (2,6 x 0,10) = 4^0 + 0,26, soit 4,24 à 4,76

au coefficient de sécurité de 99 %

Ca» des petits échantillons. Distribution de Student

Le raisonnement ci-dessus n’est valable, en toute rigueur, que si l’échan¬


tillon étudié comporte un effectif suffisamment important, en pratique au
moins égal à 30.
S’il n’en est pas ainsi, en effet, la distribution des moyennes n’est plus
€ normale » et les estimations précédentes de la moyenne et de son écart stan¬
dard ne sont plus acceptables.
Le problème a cependant été résolu par le mathématicien anglais Gosset.
Pour comprendre le principe de cette solution, il faut noter tout d’abord
que la distribution des moyennes peut être également considérée comme une
distribution des écarts (m — M) entre les moyennes trouvées m et la moyenne
vraie M de la population d’origine, distribution qui, dans le cas d’un échan¬
tillon suffisamment important, est une distribution normale de moyenne zéro
et d’écart type Sm (fig. 67).
Gosset a donc été amené à étudier comment se distribuaient les écarts
(m — M) dans le cas d’échantillons de faible effectif. Plus précisément, et afin
de pouvoir donner à cette solution une formulation générale, Gosset a étudié
la distribution du rapport
m—M
ESTIMATION DE LA MOYENNE 93

dit encore paramètre t de Student (^), qui est l’écart réduit de la moyenne (^),
c’est-à-dire rapporté à l’écart type de la moyenne.

Dans le cas d’échantillons d’effectif important, la distribution des écarts


à la moyenne vraie étant normale, il en est de même de celle de l’écart
réduit. Par suite l’écart ±2Sm qui est égal à deux fois l’écart type, et qui
correspond à la valeur t = 2 de l’écart réduit, englobe 95 % des valeurs de la
moyenne (fig. 68).
Il en va différemment dans le cas d’échantillons de faible effectif.
Gosset a montré en effet que, dans ce cas, les valeurs du paramètre t
obtenues pour les différents échantillons de même effectif n inférieur à 30
se distribuaient suivant une loi dite
Distribution de Student qui diffère
de la courbe normale. La courbe
représentative de cette distribution,
pour une valeur donnée de n infé¬
rieur à 30, est également une courbe
en cloche symétrique, mais plus
aplatie que la courbe de Gauss. Il
en résulte que son écart type est un
peu supérieur à celui de la courbe normale ; c’est une courbe dite hypernor-
male (fig. 69).
Par suite, l’intervalle qui englobe 95 % des valeurs de cette distribution
et qui correspond à deux fois son écart type est atteint pour une valeur
de t, dite h,os . supérieure à 2 (fig. 69). L’intervalle de confiance de la

(1) Gosset avait publié son travail sous le pseudonyme de Student.


(2) A ne pas confondre avec t = (x — m)la qui est l’écart réduit des valeurs
individuelles jc à la moyenne ni trouvée pour l’échantillon.
94 INTERPRÉTATION STATISTIQUE

moyenne (au coeflBcient de sécurité de 95 %) sera alors non pas mo±2sm,


mais

^0 ± ^0,05 • avec /o,o5 > 2.

11 n’y a évidemment pas qu’une seule distribution de t mais toute une


famille de distributions de t correspondant aux différentes valeurs possibles
de l’effectif n inférieur à 30 de l’échantillon étudié. Les courbes représenta¬
tives de ces différentes distributions de t sont d’autant plus aplaties, et par
suite les valeurs du paramètre t sont d’autant plus grandes que l’effectif de

l’échantillon est plus réduit (fig. 70). Le paramètre t varie donc en fonction
de n, et il est d’autant plus petit, on le voit, que la taille de l’échantillon se
rapproche de l’effectif limite n = 30. A partir de cette valeur de n, la distribu¬
tion du paramètre t se confond pratiquement avec une courbe de Gauss
(fig. 70) et to.os devient, par suite, égal à 2.
Des tables spéciales, dont on
trouvera un extrait page 211 donnent
en fonction de l’effectif de l’échan¬
tillon étudié, et plus précisément en
fonction du « nombre de degrés de
liberté » v, qui est égal ici à /i — 1 Q),
les valeurs limites du paramètres t
qui ont seulement 5 chances sur 100,
(soit /o.o5. fig. 71), ou une chance
sur 100, (soit /oo,i . fig. 71) d’être dépassées sous l’influence des fluctuations

Q) En effet dans une série de n valeurs dont on connaît la somme, il y a seule¬


ment (n —1) valeurs indépendantes, car si (n—1) valeurs sont connues la s’en déduit
automatiquement.
ESTIMATION DE LA MOYENNE 95

fortuites. On en déduit les intervalles de confiance correspondants, à savoir :

"î ± h.OS Sm

au coeflBcient de sécurité de 95 %. et

m±to.oi Sm

au coefficient de sécurité de 99 %.

Exemple. — Supposons que la moyenne m = 4,50 de l’exemple précédent ait été


obtenue sur un échantillon de six sujets. Quel serait son intervalle de confiance ?

L’écart standard de la moyenne devient :

1.50
= 0,67 .

La table de t montre que pour un échantillon de six sujets, soit v = n —1 =5, la


valeur limite du paramètre / qui n'a que 5 chances sur 100 d'être dépassée est
/q Qj = 2,57 et celle qui n’a qu’une chance sur 100 d’être dépassée est to_oi =4,03.
L’intervalle de confiance cherché sera donc

">0 ± '0.05 = 4.50 ± (2,57 X 0,67) = 4,50 ± 1,72, soit 2,78 à 6.22

au coefficient de sécurité de 95 % et
"«o±'o,oi = 4,50+ (4,03 x0,67) = 4,50 + 2,70 soit 1,80 à 7,20

au coefficient de sécurité de 99 %.

Comme on peut en juger par comparaison avec les chiffres précédemment


obtenus, la petitesse de l’échantillon entraîne, on le voit, un élargissement
notable de l’intervalle de confiance de la moyenne.

Valeurs de référence

Pour dégager la signification pathologique d’une mesure, quelle qu’elle


soit, biochimique (taux plasmatiques, urinaires, etc.), biophysique (tempé¬
rature, pression, etc.) ou même simplement morphologique (taille, poids, dia¬
mètre bipariétal, etc.), il est nécessaire de déterminer préalablement com¬
ment se distribuent les valeurs, dites « valeurs de référence », de cette
mesure chez le sujet sain.
Lorsque la distribution en question est gaussienne, le problème se
ramène à déterminer la moyenne et le tr.
96 INTERPRÉTATION STATISTIQUE

Exemple (>)• — L’étude de la phosphatasémie observée chez des adultes sains de


30 à 60 ans a abouti à un échantillon de 143 valeurs présentées dans les 10 colonnes
du tableau XI.

TABLEAU XI
Phosphatasémies (mg/ml)

I II III IV V VI VII VIII IX X

33 37 28 32 29 32 23 36 42 30
29 42 28 36 34 30 33 34 35 32
26 31 29 27 32 30 32 28 27 35
30 39 31 33 27 38 18 32 37 30
27 29 33 30 32 33 34 29 35 29
28 30 29 33 36 30 31 37 31 36
28 25 30 26 32 28 29 33 31 34
36 39 37 27 34 28 31 34 26 30
30 29 37 28 29 22 24 31 33 28
30 26 40 30 24 28 26 22 32 34
25 31 28 34 34 33 38 30 27 38
28 31 29 30 28 27 34 30 38 31
37 27 30 41 27 30 19 27 31 26
29 32 27 35 25 31 34 41 24 33
27 30 34

Ce tableau, où les valeurs ont été consignées sans ordre, au fur et à mesure de
leur présentation, est dit « tableau brut ». Le premier travail consiste à ordonner les
valeurs par ordre croissant, ce qui amène au tableau XII, dit « tableau ordonné » :

(I) Tiré de A. Albert et R. Gueguen. Information Scientifique du Biologiste,


1982, 3-19.
ESTIMATION DE LA MOYENNE 97

TABLEAU XII

I II III IV V VI VII VIII IX X

18 19 22 22 23 24 24 24 25 25
25 26 26 26 26 26 26 27 27 27
27 27 27 27 27 27 27 27 27 28
28 28 28 28 28 28 28 28 28 28
28 28 29 29 29 29 29 29 29 29
29 29 29 29 30 30 30 30 30 30
30 30 30 30 30 30 30 30 30 30
30 30 30 31 31 31 31 31 31 31
31 31 31 31 31 32 32 32 32 32
32 32 32 32 32 33 33 33 33 33
33 33 33 33 33 34 34 34 34 34
34 34 34 34 34 34 34 35 35 35
35 36 36 36 36 36 37 37 37 37
37 37 38 38 38 38 39 39 40 41
41 42 42

Mais un certain nombre de valeurs se répètent. On est ainsi amené à dresser le


tableau XIII, dit « tableau recensé » des observations, où sont consignées les valeurs
« distinctes » x, (ici au nombre de 23), avec leurs répétitions respectives (/•,), leur
fréquence ft = rjn, leurs répétitions cumulées (rc,) et leur fréquence cumulée
/c, = rcjn.
98 INTERPRÉTATION STATISTIQUE

TABLEAU XIII

La moyenne x et l’écart type se calculent à partir du tableau recensé, complété


par les colonnes appropriées * :

= rj jcj + .. . + r^x^. = 4 421

ryx\ + r^xl= 139,409

4 421
d ou JC = -- __ ^ 30,916
n 143

'l. ix-xŸ
et a 4,38

(*) Certaines machines à calculer, même de poche, comportent un programme


permettant d’obtenir directement la moyenne et le a.
ESTIMAT [ON DE LA MOYENNE 99

Dans une distribution gaussienne, l’aire de distribution normale est représentée par
la surface comprise sous la courbe entre les ordonnées — 2ff et + 2a, qui englobe 95 %
de la surface totale (cf. p. 72). Les limites de l’aire « normale » sont donc respec¬
tivement ici
x — la- 30,9 — 2 X 4.38 = 22,14
et
.X- -I- 2o- = 30,9 -t- 2 X 4.38 = 39,66.
soit, en arrondissant à l’unité, respectivement 22 et 40.
Toute valeur de la phosphatasémie extérieure à cet intervalle 1 22 — 40 1 pourra
donc être considérée comme pathologique.

Méthode non paramétrique.

Si, cependant, la distribution étudiée n’est pas gaussienne, ce calcul n’est pas
utilisable. Si donc le caractère gaussien de la distribution de référence ne peut être
affirmé, il est préférable de recourir à l’approche non paramétrique qui ne préjuge
pas du type de la distribution étudiée.
Dans cette approche, rappelons-le, les valeurs sont rangées par ordre croissant
x,, X.,... x„. On notera que, comme certaines valeurs se répètent, des valeurs égales
auront cependant des rangs différents (Tableau XII).
Afin de pouvoir comparer les résultats avec ceux des méthodes paramétriques,
proposons-nous de déterminer respectivement les quantiles 0,025 (c’est-à-dire le per¬
centile 2,5) et 0,975 (c’est-à-dire le percentile 97,5) qui laissent chacun à l’extérieur
2,5 % des valeurs et qui englobent donc également entre eux 95 % des valeurs de la
distribution.
On montre que, pour estimer le quantile 0,025, il suffit de prendre la valeur dont
le rang est égal à 0,025 (n -|- 1), soit ici 0,025 X 144 = 3,6. Le quantile cherché se situe
donc entre la valeur de rang 3, soit ici 22 (tableau XII) et la valeur de rang 4, qui est
également 22 (tableau XII). C’est donc le quantile 22.
De la même façon, le quantile 0,975 est égal à 0,975 (n -f 1), soit ici
0,975 X 144 = 140,4. Le quantile 140 est 41 et le quantile 141 également (tableau XII).
Le quantile cherché est donc le quaiitile 41.
On aboutit ainsi aux valeurs limites 22 — 41, assez proches, on le voit, dans ce cas
particulier, des valeurs obtenues par la méthode paramétrique.

Intervalle de confiance des limites de référence.

Les limites de référence ainsi obtenues ne représentent qu’une estimation. On


peut évaluer le degré de fiabilité de cette estimation en déterminant l’intervalle de
confiance correspondant.
Dans le cas de la méthode paramétrique, on montre que l’intervalle de confiance
(au niveau d’incertitude de 0,10) des limites

2,82 a 2,82 X 4,38


^0,025 ^0,975
est égal à ± soit ici = ± 1,03

ce qui donne respectivement

22 ± 1, soit 21 à 23 pour la limite inférieure


et
40 ± 1, soit 39 à 41 pour la limite supérieure.
100 INTERPRÉTATION STATISTIQUE

Avec la méthode non paramétrique, le calcul est beaucoup plus complexe. Il existe
des tables spéciales (i) qui ne sont utilisables cependant que pour un nombre d’obser¬
vations au moins égal à 120. Dans l’exemple étudié, on trouverait qu’au niveau d’in¬
certitude de 0,10 les intervalles de confiance des limites de référence 22 et 41 sont
respectivement 18 à 24 et 38 à 42, donc un peu plus étendus qu’avec la méthode
paramétrique.

La sémiologie biochimique a donc, on le voit, une base statistique.


Mais ces notions s’appliquent également à toute grandeur mesurable, taille,
poids, tension artérielle, mensuration d’un membre ou d’un segment de
membre, ou même d’un organe quelconque. Lorsque nous disons « le foie
est gros », ou encore « l’utérus est augmenté de volume », nous ne faisons
qu’exprimer la constatation que le volume enregistré s’écarte significativement
du volume moyen. Et c’est cet écart, cette divergence, qui confère préci¬
sément au signe constaté une valeur sémiologique.

Normalité biologique. Bases statistiques de la sémiologie

La sémiologie biochimique a donc, on le voit, une base statistique.


Mais ces notions s’appliquent également à toute grandeur mesurable,
taille, poids, tension artérielle, mensuration d'un membre ou d’un seg¬
ment de membre, ou même d’un organe quelconque. Lorsque nous disons
« le foie est gros », ou encore « l’utérus est augmenté de volume », nous ne
faisons qu’exprimer la constatation que le volume enregistré s’écarte significa¬
tivement du volume moyen. Et c’est cet écart, cette divergence, qui confère
précisément au signe constaté une valeur sémiologique.
La sémiologie clinique a donc également une base statistique : tout
diagnostic repose en fait, on le voit, sur un calcul conscient ou inconscient de
probabilités. « L’expérience personnelle » dont se targue volontiers le clini¬
cien, n’est pas autre chose, en définitive, qu’une statistique subjective
inconsciente : comme M. Jourdain faisait de la prose, le clinicien fait donc
de la statistique sans le savoir . Toutefois, il importe de le souligner, la
statistique n’est pas le seul élément qui doive être pris en considération dans
la délimitation du normal et du pathologique en médecine. Pour qu’un symp-

(1) Reed A.H., Henry R.J., Mason W.B. : Influence of statistical method used
on the resulting estimate of normal range. Clin. Chem., 1971, 17, 275.
ESTIMATION DE LA MOYENNE 101

tome chiffrable devienne pathologique, il ne suffit pas, en effet, qu’il s’écarte


significativement de la moyenne. Il faut, en outre, qu’il s’accompagne de
troubles déterminés qui apparaissent chaque fois que cette valeur anormale
est observée. Ainsi, au-dessous d’un certain seuil, une valeur insuffisante de
la glycémie s’accompagne des malaises plus ou moins marqués du syndrome
hypoglycémique. Inversement, un chiffre élevé de la glycémie est associé aux
manifestations pathologiques du diabète, un taux élevé de l’urée sanguine
aux signes cliniques du syndrome hyperazotémique, etc. Et si l’on confronte
les valeurs observées dans ces circonstances avec celles de sujets « normaux »
qui ne présentent pas ces manifestations, on constate qu’elles t sortent » de
l’aire gaussienne des valeurs « normales » (fig. 72).

1 3 5 7 9 11 13 15 17 19 21
/ode protéique p.g/100 ml

Fig. 72. — Evaluation de l’iode san¬


guin lié aux protéines chez 117 sujets
normaux, 37 sujets hypothyrdidiens
et 126 sujets hyperthyroïdiens (d’après
Astwood et coll.).

C'est donc en définitive cette corrélation entre un écart statistiquement


significatif et un état pathologique donné qui confère au symptôme chiffrable
U valeur sémiologique ; c’est ce qu’on a appelé « le critère physio-patholo»
gique » qui est indispensable, à côté des notions statistiques proprement dites,
pour définir le domaine des variations pathologiques en biologie (^).

(^) Jayle, M. F., Philosophie de la Physiologie clinique. Conférence d’ouverture


du 3« Congrès international de Biologie clinique, Bruxelles, 14 juillet 1957 (Archiva
Medica Belgica, 1957, n® 4).
CHAPITRE VIII

ESTIMATION D’UN POURCENTAGE

A la suite d’un traitement appliqué à un groupe de n malades, disons


120 par exemple, on a observé un nombre r = 36, pîir exemple, de cas de gué¬
rison. La proportion (souvent appelée « pourcentage ») de guérisons observées
dans ce groupe est donc

Si l’on avait étudié dans les mêmes conditions un autre groupe numéri¬
quement identique de 120 malades comparables, atteints de la même affection
et traités de la même façon, on aurait trouvé, par suite des fluctuations for¬
tuites, un pourcentage différent, disons, par exemple, 25 % de guérisons.
Comme dans le cas d’une moyenne, on est donc amené à rechercher jus¬
qu’à quelles limites les variations du pourcentage peuvent être mises sur le
compte des fluctuations fortuites, c’est-à-dire à déterminer l’intervalle de con¬
fiance du pourcentage observé.

Distribution des pourcentages

Pour résoudre ce problème, il faut, par analogie avec ce que nous avons
vu pour l’intervalle de confiance d’une moyenne, rechercher comment se dis¬
tribuent les différents pourcentages qi, q2, qz, etc. correspondant aux
nombres r\, r2, r^, etc. de guérisons que l’on observerait en recommençant
un grand nombre de fois l’expérience avec différents échantillons de même
effectif n, à partir d’une population théoriquement infinie ayant la même
composition, c’est-à-dire comportant une proportion identique q de guéris
[et une proportion identique p = (1 — ^) de non-guéris].
Considérons donc une urne binaire comportant la même proportion q
de boules noires correspondant aux malades guéris et la même proportion
P = 1 — (? de boules blanches correspondant aux malades non guéris.
ESTIMATION D’UN POURCENTAGE 103

Le problème revient à rechercher comment se distribuent les différentes


proportions 0/n, l/n, lin, .... n/n de boules noires dans toutes les combi¬
naisons possibles des échantillons de même effectif n que l’on peut retirer à
partir de cette urne.
Cette distribution, nous l’avons vu p. 57, est une distribution binomiale ;
la distribution binomiale des pourcentages, dont les termes correspondent au
développement de (p+ (?)".
L’échantillon le plus probable de cette distribution est celui, nous l’avons
vu, qui a la même composition que Tume, c’est-à-dire qui contient la même
proportion q de boules noires que l’urne binaire elle-même. Il est donc logique
de prendre le pourcentage observé qo comme valeur estimée du pourcentage
vrai Q, par hypothèse inconnu, de la population d’origine.
La proportion q représente, nous l’avons vu, la moyenne de cette distri¬
bution des pourcentages, obtenue en divisant par n la moyenne nq de la dis¬
tribution du nombre r de boules noires (cf. p. 57).
L’écart standard de cette distribution des pourcentages, que nous appel¬
lerons Sq, sera donc également divisé par n. Il vaudra donc

valeur dont la proportion observée qo peut fournir une estimation ^,o •

Les différents pourcentages possibles pour des échantillons de même


effectif n forment donc une distribution binomiale de moyenne q et d’écart
type Sq que l’on peut estimer respectivement par qo et •

Intervalle de confiance éPun pourcentage

Si n est suflasamment grand (en pratique au moins égal à 100) et si p


ou q ne sont pas voisins de 1 ou de 0, on peut, nous le savons, assimiler
la distribution binomiale à une distribution normale de même effectif ayant
104 INTERPRÉTATION STATISTIQUE

même moyenne q et même écart type, soit . Dans ces conditions, la distri¬
bution des pourcentages est une distribution normale de moyenne q et d’écart
type Sg (fig. 73). L'intervalle de confiance du pourcentage sera donc q±2s^,
c’est-à-dire, d’après les valeurs estimées

^0 ± 2 ^80

pour le coefficient de sécurité de 95 %, et

qo±2,bSq^

Fig. 73.
pour le coefficient de sécurité de 99 %, avec

Exemple. — Reprenons l’exemple mentionné au début de cet exposé, où l'on a


observé une proportion de 0,30, soit 30 % de guérisons sur un groupe de 120 malades.
Calculons :

_ / Qo (1 -<?o) /0,30x0,70
= 0,0418 = 4,18 Vo .
120
Le pourcentage vrai est donc compris, au coefficient de sécurité de 95 %. dans
l’intervalle à (^o + 2J,o), soit

30-(2 X 4,18) = 21,64 %, à 30 + (2 x4,18) = 38,36 %, soit entre 21.64 et 38,36 %.

et au coefficient de sécurité de 99 %, dans l'intervalle (qQ — 2,6s^^) à ((/q + ,,).


2.65 soit

30-(2,6 X 4,18) = 19,13 %, à 3C +(2.6 x 4,18) = 40.87 %, soit entre 19.1 3 et 40.87 %.

On voit que les limites de confiance d’un pourcentage sont beaucoup plus
larges que pour une moyenne. // jaut donc toujours interpréter avec réserve
les résultats portant sur des pourcentages.

Abaques d’estimation d’un pourcentage

Bien souvent, on désire simplement connaître l’ordre de grandeur des


limites de l’intervalle de confiance d’un pourcentage, sans avoir besoin d’une
très grande précision à cet égard.
ESTIMATION D’UN POURCENTAGE 105

On peut alors recourir à des abaques à alignement, comme celui de la


figure 74, qui permettent de faire cette détermination de manière approxima¬
tive mais sans aucun calcul.

Fig. 74. — A bague d'estimation d'un pourcentage


(d’après Liorzou).

On voit que. pour un échantillon de n = 120 et un pourcentage de 30 %


correspondant à l’exemple précédent, l’abaque donne comme limites de
l’intervalle de confiance au seuil de 95 % respectivement 22 et 39 %, ce qui
est assez voisin des chiffres fournis par le calcul.
106 INTERPRÉTATION STATISTIQUE

Cm de petits échantillons ou de petits pourcentages

Le calcul ci-dessus (comme du reste l’abaque) n’est plus valable lorsque


l’effectif de l’échantillon est peu important ou lorsque la proportion trouvée
qo est voisine de 1 ou de 0.
Lorsque l’échantillon est petit, en effet on ne peut plus assimiler la
distribution binomiale du pourcentage à une distribution normale. Il faut,
alors, calculer les probabilités Po, Pi, P2, etc., F„ de chaque composition
possible de l’échantillon en utilisant les formules adéquates de la distribution
binomiale, et exclure ensuite l’ensemble des termes dont la probabilité globale
est inférieure ou au plus égale à 5 % pour le coeflBcient de sécurité de 95 %,
ou à 1 % pour le coeflBcient de sécurité de 99 %.
Les calculs peuvent être alors très longs et laborieux. Toutefois, comme
il n’est pas exceptionnel, surtout en médecine, qu’on soit réduit à n’utiliser
que de petits échantillons, on a établi des tables dont on trouvera un extrait
pp. 212 et 213, qui donnent directement les limites de l’intervalle de confiance
pour les échantillons d’effectif n ^ 100. On notera que les intervalles de con¬
fiance ainsi déflLois sont très étendus. C’est ainsi que ptour un effectif de 10
seulement, l’intervalle de confiance d’une proportion de 30 %, c’est-à-dire de
3 sur 10, a pour limites, au coeflBcient de sécurité de 95 %, 7 et 65 % !
C’est dire combien il faut être circonspect dans l’évaluation d’un pour¬
centage calculé sur un échantillon d’effectif limité.

Il en est de même lorsque, bien que réchantillon soit numériquement


suffisant, le pourcentage observé est faible.

On peut s’cn rendre compte en évaluant l’erreur relative faite sur l’intervalle
de confiance. Pour le seuil de 95 % elle vaut

2 ^
<1
c’est-à-dire

(1-g)
q nq
ou encore, en % :

4x100 .
N nq
On voit que si q diminue, simultanément le numérateur augmente tandis que le
dénominateur diminue. Par suite l’erreur relative augmente très vite quand q diminue.
ESTIMATION D'UN POURCENTAGE 107

n en résulte que l’estimation dune proportion devient très imprécise


quand cette proportion est peu élevée.
En pratique, des tables qu’on trouvera dans les ouvrages spécialisés
permettent d’obtenir directement les limites de l’intervalle de confiance pour
des proportions inférieures à 10 %.
CHAPITRE IX

COMPARAISON DE DEUX MOYENNES

Les considérations précédentes relatives aux problèmes d’estimation per¬


mettent de déterminer le degré de confiance que, compte tenu des fluctuations
d’échantillonnage, on peut légitimement accorder aux résultats concernant
une série statistique donnée.
Mais le problème se pose très souvent de confronter les résultats obtenus
sur une série avec ceux à'une autre série ou même de plusieurs autres séries
statistiques. Il s’agit là de problèmes de comparaison, qui peuvent porter soit
sur un paramètre caractéristique donné, par exemple comparer deux
moyennes, ou deux pourcentages, soit sur l’ensemble d’une distribution, par
exemple savoir si une distribution expérimentale peut, ou non, être assimilée
à une distribution théorique donnée.
La question générale qui se pose dans ces problèmes de comparaison,
c’est de savoir si les séries étudiées peuvent être considérées comme réellement
différentes. En effet, même si les échantillons étudiés provenaient d’une même
population d’origine, les résultats obtenus différeraient forcément en raison
des fluctuations fortuites. Le problème se pose donc de savoir si les diffé¬
rences inévitablement constatées entre les séries comparées ne s’expliquent
pas simplement par les fluctuations d’échantillonnage, liées au caractère forcé¬
ment limité des effectifs étudiés, auquel cas les différences observées dans les
résultats respectifs ne doivent pas être prises en considération.
Si, au contraire, les différences observées sont trop importantes pour être
mises sur le compte des seules fluctuations d’échantillonnage, elles sont dites
« significatives » et l’on est conduit à admettre que les séries statistiques étu¬
diées appartiennent à des « populations d’origine » différentes.
Bien entendu, comme toujours, les méthodes statistiques ne peuvent nous
apporter une certitude absolue pour la solution de ce problème. Elles peuvent
cependant nous indiquer si, compte tenu de la divergence observée, on peut
admettre — et avec quel degré de sécurité — l’hypothèse suivant laquelle
les séries étudiées proviendraient de populations différentes.
COMPARAISON DE DEUX MOYENNES 109

Nous allons envisager les solutions apportées à ce problème dans les


principales éventualités qui se posent en pratique médicale et biologj.que en
commençant par la comparaison de deux moyennes.

Position du problème

Dans un groupe de 253 femmes de poids normal, on a trouvé un taux


moyen de corticoïdes urinaires égal à 4.5 mg/24 heures. La même recherche
effectuée dans un groupe de 100 femmes présentant une obésité a donné un
taux moyen de 6,3 mg/24 heures. Est-on en droit d’afiBrrner que le groupe
des femmes obèses a un taux de corticoïdes urinaires supérieur à celui des
femmes de poids normal, comme il paraît à première vue ? La différence
constatée entre ces deux moyennes traduit-elle une différence réelle dans la
nature des deux populations étudiées ou bien est-elle seulement liée aux
fluctuations fortuites qui ont pu affecter les deux échantillons observés ?
De manière générale, en opérant sur des échantillons d’effectifs différents
«1 et «2, on trouve des moyennes différentes mi et m2 . On est alors amené

à se demander si la différence observée entre ces moyennes correspond à une


différence réelle dans la nature des deux collections, si elle est, comme on dit.
€ significative », ou bien si elle ne s’explique pas simplement par les fluctua¬
tions fortuites d’échantillonnage.

Hypothèse nulle

Pour résoudre ce problème, on pourrait songer à étudier l’intervalle de


confiance de la moyenne dans chacun des échantillons. En effet si les deux
intervalles de confiance se chevauchent largement, toute valeur qui tombe
dans la zone de chevauchement peut appartenir à l’une comme à l’autre
distribution et la différence observée peut être purement fortuite (fig. 75).

Au contraire, si les intervalles de confiance respectifs dans chacun des


échantillons sont distincts (fig. 76), on peut penser que les échantillons appar-
110 INTERPRÉTATION STATISTIQUE

tiennent à des c populations d’origine » différentes et que la différence obser¬


vée est significative. Mais on ne peut rien dire lorsque, comme c’est souvent le
cas, les intervalles de confiance res¬
pectifs se chevauchent légèrement
(fig. 77). Aussi a-t-on cherché à
résoudre le problème directement.
Pour cela, on va faire l’hypo¬
thèse (dite « hypothèse nulle », car P,g 77.
elle suppose que le paramètre étudié
n’a pas réellement varié d’un échantillon à l’autre) que les deux échantillons
appartiennent à la même population d’origine et l’on va rechercher quel serait,
dans ce cas, l’écart maximum, técart « limite » en quelque sorte, qui peut être
observé entre les deux moyennes considérées, sous l’influence des seules fluc¬
tuations statistiques. On est ainsi amené à étudier comment se distribuent les
différences entre les moyennes de deux échantillons d’effectifs différents ni et
«2 respectivement, prélevés un grand nombre de fois à partir d’une même

population d’origine.

Distribution des différences entre les moyennes

Nous savons que si, à partir d’une même population d’effectif N très
grand, théoriquement infini, on tire un premier échantillon d’effectif «1, la
valeur la plus probable pour la moyenne mi de cet échantillon sera M. vraie
moyenne de la population globale. Si l’on recom¬
mence avec un autre échantillon d’effectif /I2. la
valeur la plus probable pour la moyenne mz sera
aussi M. Cette probabilité étant d’autant plus
0 Sjj grande que l’effectif de l’échantillon en question
Fi«- 78. est plus grand. Il en résulte que si l’on étudie la
différence (mi—mz). on doit s’attendre, intuitive¬
ment, à ce que sa valeur la plus probable soit zéro.
On montre effectivement que si d’une population d’effectif N très grand
on tire au hasard des échantillons d’effectifs différents ni et nz ayant respec¬
tivement pour moyenne mi et mz et qu’on recommence un grand nombre de
fois l’expérience, les différences (mi—mz) se répartissent suivant une distri¬
bution normale autour de la valeur zéro (représentée par l’éventualité
mi = m2 = M).
COMPARAISON DE DEUX MOYENNES 111

La distribution des différences des moyennes est donc dans ce cas une
distribution normale qui a pour moyenne zéro (fig. 78).
On montre en outre que la variance, dite o variance standard », des
différences que nous symboliserons s\ de cette distribution des différences
des moyennes est égale à la somme des variances respectives des distributions
des moyennes de chaque échantillon (^).

c’est-à-dire (cf. p. 91)

«1 — 1 «2 — 1

ce qui, si «1 et «2 sont grands, peut s’écrire

s d2 ^ ^ fi
«1 «2

d’où l’on tire l’écart standard sa de la distribution des différences ;

Différence significative entre deux moyennes

Si l’on se réfère aux propriétés de la distribution normale, on peut dire


que, pour des échantillons distincts prélevés à partir d’une même population
d’origine, une différence d = (mi —mz) supérieure
à 2 Jd ne s’observera par suite des fluctuations for¬
tuites que dans moins de 5 p. 100 des cas (fig. 79).
Il en résulte que si, comme on l’a supposé au
-2sd 0 +2sd départ, les deux échantillons appartiennent à la
Fig. 79. même population d’origine, la différence observée
entre ces deux moyennes n’a que peu de chances
(en fait moins de 5 chances sur 100) d’être supérieure à 2 .

(^) Ceci résulte du principe de l’additivité des variances qui est également valable
pour les différences : en effet, du fait que les écarts peuvent se faire en sens inverse,
la dispersion propre de chaque distribution contribue à augmenter la dispersion de la
différence.
112 INTERPRÉTATION STATISTIQUE

Si donc nous trouvons que cette différence est supérieure à 2 s'd, plutôt
que d’accepter une éventualité qui n'a que 5 chances sur 100 de se réaliser,
nous admettrons (avec cependant 5 chances sur 100 de nous tromper) que
notre hypothèse initiale était fausse et que les deux échantillons appartiennent
en réalité à des populations différentes ; nous dirons alors que la différence
observée est significative au seuil de probabilité de 5 %.
Une différence sera donc considérée comme significative au seuil de
probabilité de 5 % si elle est supérieure à 2 Sd :

d > Isd

De façon analogue, on dira qu’une différence entre deux moyennes est


significative au seuil de probabilité de l % si elle est supérieure à 2,6 Sd ,

d>2,6sd

avec dans les deux cas

Pour savoir si une différence d observée entre deux moyennes est, ou non,
significative, il suffira donc de calculer, à partir des écarts types cri et CT2 de
chaque échantillon, l’écart standard de la différence, Sd et de voir si la diffé-

(^) Comme pour la détermination de l intervalle de confiance, on voit le caractère


conventionnel du test de signification. Le choix de l’intervalle de signification (dit encore
1 intervalle d’acceptation ») est, là encore, laissé à l’appréciation de l’expérimentateur
en fonction du degré de sécurité qu’il désire attacher à ses conclusions. Mais, ici, le
risque est double ; si l'on se montre très exigeant pour la signification, en demandant
par exemple un intervalle de 2,6 , on réduit certes à 1 % le risque de se tromper en
disant que la différence constatée est significative, mais on s’expose à ne pas pouvoir
affirmer comme telle une différence réellement significative.
Inversement, si l'on est moins exigeant pour la signification, ce dernier risque est
réduit, mais on s’expose davantage à considérer comme significative une différence qui
ne l’est pas. C’est à l’expérimentateur de choisir dans chaque cas l’intervalle qui lui
paraît le plus approprié eu égard au problème particulier qui lui est posé.
COMPARAISON DE DEUX MOYENNES 113

rence constatée d est, ou non, supérieure à 2 ou à 2,6 suivant le degré


de sécurité choisi (^).

Exemple. — Reprenons le problème posé au début de cet exposé, où il s’agissait


de comparer le taux moyen de 6,3 mg/24 h trouvé pour les corticoïdes urinaires dans
un groupe de 100 femmes obèses au taux moyen de 4,5 mg/24 h précédemment trouvé
dans un groupe de 253 femmes de poids normal.
Supposons que l’écart type a ait été trouvé égal à 1,7 dans le groupe des obèses
et à 1,5 dans le groupe des femmes de poids normal. On a ;

a.
m2 = 6,3

00
5

3
II

3
Il
Kl

II
1
= 1,5 <T2 = 1,7
ni = 253 «2 = 100
On calcule :

Sa = /-1-—
1 5)2 /( ,
(XJ)2
/ --TV- H—77^ = 0,194
V «t «2 V 253 100
d'où
2 î. = 0,39 et 2,6 i. = 0,47.

La différence d entre les deux moyennes, qui vaut 1,8, est donc très supérieure à
2s^ et même à 2,6 s^. La probabilité qu’une telle différence soit purement fortuite est
donc très inférieure à 1 %. On doit donc la considérer comme très significative. On peut
donc conclure légitimement que les corticoïdes urinaires sont plus élevés chez les obèses
dans les conditions étudiées.

Cas de petits échantillons

Comme pour l’étude de l’intervalle de confiance, ceci n’est vrai, en toute


rigueur, que si les échantillons étudiés comportent un effectif au moins égal
à 30. Lorsqu’il n’en est pas ainsi, la distribution de l’écart réduit / = d/sa
suit, non pas une loi « normale », mais une loi de Student.
Pour être considérée comme significative au seuil de probabilité de 95 %,
la diÿérence d devra donc être supérieure non pas seulement à 2 Sa, mais à
fo.os • Si avec to.os > 2.

(2) Il faut savoir qu’une différence en réalité significative peut cependant ne pas
apparaître comme telle si les effectifs des échantillons étudiés sont insuffisants. Si donc
une différence n’est pas trouvée significative, cela ne veut pas dire nécessairement que
les deux échantillons appartiennent à la même population. Ce mode de raisonnement,
il importe de ne pas l’oublier, permet d’affirmer, avec une probabilité donnée, une
divergence, mais non une identité.
114 INTERPRÉTATION STATISTIQUE

Par ailleurs, [expression de la variance standard est différente. En effet,


les estimations de la variance fournies séparément par chaque échantillon
devenant imprécises, on adopte comme estimation de la variance la valeur

* «1+/I2-2

qui tient compte à la fois des variances estimées de chaque échantillon, soit
(cf. p. 91)

2 »2 <72
(T
ei
et
«1-1 «2 - 1 ■

L’expression de la variance standard de la différence devient alors

d’où l’on tire Sa.

avec

La table de t donne, en fonction des effectifs «i et «2 de chaque échan¬


tillon et plus précisément du nombre v de degrés de liberté qui vaut ici
«1 —l-frt2 —l=«i-f«2 —2 (on «perd» un degré de liberté pour chacun
des échantillons), les valeurs limites to.os et /o.oi du paramètre t qui ont
respectivement 5 et 1 chance sur 100 d’être dépassées par suite des fluc¬
tuations fortuites.
On peut alors calculer les produits to.os xJd et /o.oi qui permettent
de vérifier si la différence constatée est. ou non, significative, au seuil de
probabilité correspondant.

Exemple. — Reprenons l’exemple précédent en supposant que le premier groupe


n’ait comporté que 6 sujets et le deuxième 8.
On calcule d’abord la variance estimée
^€
COMPARAISON DE DEUX MOYENNES 115

2 _ nial + n2al _ 6 x (1.5)^+ 8 x (1,7)^


/11+/12 —2 6+8 —2
d’où

a, = = 1.75.

On peut alors calculer :

Pour V = n^ + n^ —2 = 6 + S —2 = 12 degrés de liberté, la table de t donne :

^0,05 = ^0,01 = 3,06.

On a donc :

/o.05X''d = 2.18x0,94 = 2,05 et /q qj x = 3.06 X 0.94 = 2,87.

La différence d entre les deux moyennes, qui vaut 1,80, est donc inférieure à
/q 05 . . Elle ne peut donc pas être considérée comme significative, même au seuil
de probabilité de 0,05 (').

(1) Les tables de la courbe de Gauss indiquent que l'écart réduit

d _ 1,80
1.91
“ 0,94

correspond à une aire [1-2 <!>(/)] qui vaut 0,0574, c’est-à-dire qu’un tel écart a exacte¬
ment 5,74 chances sur 100, donc un peu plus de 5 chances sur 100, de se produire sous
l’influence des seules fluctuations fortuites.
CHAPITRE X

COMPARAISON DE DEUX POURCENTAGES

Dans un groupe de 200 malades atteintes de cancer du col utérin, un


traitement par application locale de radium a donné 50 guérisons, soit un
pourcentage de guérisons égal à 25 %. Un autre groupe de 150 malades com¬
parables a été traité chirurgicalement et dans ce groupe on a observé 54 cas,
soit 54/150 = 36 % de guérisons. Cette différence entre ces deux pourcentages
est-elle significative ? Permet-elle de conclure que le deuxième traitement a été
plus efficace que le premier, comme il semble à première vue, ou bien est-elle
à mettre sur le compte des fluctuations fortuites, ne permettant pas, dès lors,
de conclusions en faveur de l’un ou l’autre traitement ?

Distribution des différences

Le problème de la comparaison des pourcentages se pose donc dans les


mêmes termes que celui de la comparaison des moyennes. Aussi, pour le
résoudre, s’appuie-t-on de façon analogue sur la distribution des différences
entre les pourcentages observés dans deux échantillons d’effectifs différents
provenant d’une même population d’origine.
Nous avons vu que la valeur la plus probable du pourcentage pour un
échantillon d’effectif donné était précisément celle du pourcentage vrai Q de
la population d’origine. Il en résulte que la valeur la plus probable pour la
différence entre deux pourcentages obtenus dans deux échantillons tirés de
cette population sera zéro.
On montre effectivement que, lors¬
qu’on recommence un grand nombre
de fois l’expérience, les différences
d, = qi— <72 entre les pourcentages qi et
q
<72 observés pour des échantillons d'effec-

tifs différents n\ et «2, prélevés au hasard à partir d’une même population d’ori¬
gine d’effectif N très grand, se distribuent normalement autour de la valeur zéro.
COMPARAISON DE DEUX POURCENTAGES 117

Comme pour la différence des moyennes, la distribution des différences


des pourcentages est donc une distribution normale de moyenne zéro (fig. 80).
On montre également que la variance standard, que nous symboliserons
sIg. de cette distribution des différences des pourcentages est égale à la somme
des variances respectives des distributions de chaque pourcentage :

Si Q est la proportion vraie de la population d’origine, la variance de


la distribution des pourcentages pour un échantillon d’effectif «i sera
(cf. p. 103)
Ô(l-Ô)

et la variance de la distribution des pourcentages pour un échantillon d’effec¬


tif «2 sera
, ^ g(»-e)

On aura donc, pour la variance standard s^^ de la différence entre les


pourcentages des deux échantillons :

<2(1-0,6(1-g)
Ug Qi Q1 «1 «2

Ainsi,

On en tire l’écart standard s^g de la distribution des différences entre les


deux pourcentages :

(1)

Bien entendu, on ne connaît pas la proportion vraie Q qui figure dans


cette formule. Mais on peut en avoir une estimation, symboÜsée 0, à partir
des pourcentages q\ et Qz observés. En effet, ri et r2 étant le nombre de cas
respectivement observés dans l’échantillon d’effectif ni et dans 1 échantillon
d’effectif nz, on a par définition
118 INTERPRÉTATION STATISTIQUE

et

Il est logique d’adopter pour le pourcentage estimé 0* une valeur qui


tienne compte à la fois des deux pourcentages observés et l’on adopte en géné¬
ral la valeur

^1+^2
ô.= ni+/»2 *
valeur que l’on substitue à Q dans l’expression (1) qui devient finalement :

avec

^1+^2
Qe =
«1 +«2

Signification d^un pourcentage

Comme précédemment pour les moyennes, l’écart standard permet de


résoudre le problème de la signification d’un
pourcentage.
En effet, si les deux échantillons appar¬
tiennent à la même population, en se référant
aux propriétés de la distribution normale, il y a
seulement 5 chances sur 100 pour qu’une diffé¬
rence dq supérieure à 2sdg soit purement for¬
tuite (fig. 81). On dira que la différence dg = (<?i —^2) est significative
au seuil de probabilité de 5 % si elle est supérieure à 2 Saq.

dç > 2 Sdg

De même dira-t-on qu’une différence dq = qi— q2 entre les pourcentages


qi et qz est significative au seuil de probabilité de 1 %, si elle est supérieure
à 2,6 Saq
COMPARAISON DE DEUX POURCENTAGES 119

dg > 2,6

Pour savoir si une différence rf, entre deux pourcentages qi et qi est, ou


non, significative, il suffit par conséquent de calculer et de vérifier si d
est supérieur, ou non, à 2 ou 2,6 suivant le seuil de probabilité choisi.

Exemple. — Reprenons le problème posé au début de cet exposé. On a :

= 200 =50 = 0,25 .


«2 = 150 rj =54 q2 = 0,36.

La différence dg = 92~9i = 0,36 — 0,25 = 0,11 .

On calcule d’abord Q,
ri+ri 50 + 54
G.= = 0,297
n,+/i2 200+150

On en déduit la variance standard de la différence, s^g

-yo.297x 0,703 X + i) -0.049

et par suite
2r,, = 0,098 et 2,6 r,, = 0,127.

La différence des pourcentages dg, qui vaut 0,11, est donc légèrement supérieure
à 2 s^g mais inférieure à 2,6 s^g. Elle serait donc significative au seuil de probabilité
de 0,05 mais pas au seuil de probabilité de 0,01 (^). C’est un cas où il est préférable de
réserver la conclusion et de considérer qu’une nouvelle enquête est nécessaire avant de
conclure.

Petit» échantillon» ou petits pourcentage»

Comme précédemment pour l’estimation d’un pourcentage, le raisonne¬


ment ci-dessus n’est valable que si les échantillons ont un effectif important

(^) On peut calculer que l’écart réduit

0,11
vaut
0,049
= 2,2.
Sdq

D’après les tables de <I> f r) cette valeur de i correspond à une valeur de l’aire
[1 — 2 <I> (/)] qui vaut 0,027 8. Ce qui veut dire qu’il y a exactement 2,78 chances sur 100
d’observer un tel écart sous l’influence des fluctuations fortuites.
120 INTERPRÉTATION STATISTIQUE

(en pratique au moins égal à 100) et si les pourcentages observés ne sont pas
voisins de 1 ou de 0. S’il n’en est pas ainsi, la distribution des pourcentages
et, par suite, celle de leurs différences, ne sont plus normales. La méthode
précédente ne peut plus être appliquée et l’on doit résoudre le problème
dans chaque cas particulier en s’appuyant sur les propriétés de la distribution
binomiale.
Toutefois, on peut éviter les calculs, particulièrement laborieux, qui sont
alors nécessaires, en recherchant dans les tables les intervalles de confiance de
chaque pourcentage.

Exemple. — Supposons que les pourcentages de 25 % et 36 % de l’exemple


précédent aient été observés sur des échantillons de 100 et 50 malades respectivement,
ce qui correspond à rj = 25 et rj = 18.
La table de la page 212 donne pour r = 25 et n = 100 un intervalle qui va de
17 à 35 % et pour r = 18 et n = 50 un intervalle qui va de 23 à 50 % ; les deux inter¬
valles de confiance se chevauchent. On peut en déduire que les deux pourcentages ne
diffèrent pas de manière significative.

Comme précédemment, à propos de l’intervalle d’un pourcentage, et pour


les mêmes raisons, on voit que les limites de signification d’une différence
entre des pourcentages sont très larges. Il faut donc interpréter avec beaucoup
de réserve les différences observées entre des pourcentages, surtout lorsque
les séries statistiques étudiées sont d’effectif limité.
CHAPITRE XI

COMPARAISON DE DEUX VARIANCES

Lorsqu’il s’agit de comparer deux variances, on ne peut plus, comme


pour les moyennes ou les pourcentages, recourir à la distribution de leurs
différences. Celle-ci est en effet trop complexe pour être exploitable. C’est
alors le rapport, que l’on note F 1,2 , des variances a\ tl a\

que l’on utilise pour en tester la signification.


Ce rapport, dans lequel on convient de mettre au numérateur la variance
la plus élevée, traduit la divergence entre les deux variances a f et a |.
Si, en effet, les échantillons sont tirés de la même population d’origine,
les variances aj et <t| représentent une estimation de la variance vraie S*
de cette population. On devrait donc avoir théoriquement

et, par suite.

En raison des fluctuations fortuites d’échantillonnage, cependant, ces


variances diffèrent forcément, même si les échantillons proviennent d’une
même population d’origine, et le rapport F sera différent de 1, en fait supé¬
rieur à 1 puisqu’on convient de mettre en numérateur la variance la plus
élevée. Toutefois, les variations fortuites ne sont responsables de l’augmen¬
tation du rapport que jusqu’à une valeur limite, valeur que l’on peut calculer
et qui varie évidemment avec les effectifs des échantillons en présence.
Lorsque le rapport F dépasse cette valeur limite, la divergence est trop impor¬
tante pour être attribuable aux seules fluctuations que le hasard peut déter¬
miner à l’intérieur d’une population unique. Cette hypothèse doit donc être
rejetée et la divergence doit être considérée comme significative.
122 INTERPRETATION STATISTIQUE

Snédécor a établi des tables du rapport F qui permettent de résoudre le


problème du point de vue pratique. Ces tables, dont on trouvera des extraits
pp. 214 et 215 donnent directement, pour les coefficients de sécurité habi¬
tuels, 95 et 99 %, en fonction des effectifs «i et «2 des échantillons (plus pré-
sément en fonction du nombre de degrés de liberté vi = ni — 1 et
V2 = ni — 1 de chaque échantillon) les valeurs limites de F au-dessus des¬
quelles on peut considérer que les variances étudiées diffèrent de manière
significative.
Il suffît donc de former le rapport a\la\ des deux variances et de recher¬
cher s’il est ou non supérieur à la valeur limite donnée par les tables (^).

Exemple. — Après administration d’un somnifère à un groupe de 11 sujets, on a


observé un temps moyen de sommeil de 10,6 heures, avec un écart type de 2,3. Un
autre groupe de 13 sujets a reçu un placebo et l’on a observé dans ce groupe une
durée de sommeil de 8,1 heures avec un écart type de 1,9. Proposons-nous de comparer
les variances de ces deux groupes.
On a :
ai = 2,3 02 = 1.9

«1 = 11 «2 = 13
Formons le rapport Fj j des variances :

(2.3)2 = 1,46
cfi (1.9)2
Reportons-nous à la table de Snédécor : Pour vi = ni —1 = 11 —1 = 10 et
V2 = «2 — 1 = 13 — 1 = 12, la table indique que la valeur limite de F au seuil de proba¬
bilité de 0,05, c’est-à-dire qui a seulement 5 chances sur 100 d’être dépassée par suite
des fluctuations fortuites, est Fq q, = 2,76. La valeur trouvée pour F, soit 1,46 est
nettement inférieure. Il n’y a donc pas de différence significative entre les deux variances
observées. (*)

(*) Le risque indiqué les tables donne la probabilité de dépasser la limte supérieure,
correspondant au rapport de l’intervalle de fluctuation du rapport des variances. Pour

la limite inférieure de cet intervalle, qui correspond au rapport inverse il existe un risque
égal de rester inférieur à cette limite. Pour obtenir le risque réel total U convient donc de
multiplier par 2 le risque indiqué par les tables (cf. à ce sujet par exemple : D. Schwartz,
Méthodes statistiques à l'usage des médecins et biologistes. Éditions médicales Flammarion!
1963, p, 164). ’
CHAPITRE XII

ANALYSE DE LA VARIANCE

Supposons que l’on désire savoir si le taux urinaire ou sanjroin d’une


substance, par exemple celui des corticoïdes urinaires, varie en fonctior du
poids. On va répartir les sujets à étudier en plusieurs groupes en fonction
du poids, par exemple de 10 en 10 kg, et effectuer les mesures dans chacun
de ces différents groupes. Les moyennes obtenues dans chaque groupe diffé¬
reront plus ou moins. Mais on s’apercevra, par exemple, que, dans l’ensemble,
les moyennes observées sont un peu plus fortes chez les sujets dont les poids
sont les plus élevés. Dans quelle mesure peut-on considérer que cette aug¬
mentation traduit l’influence du poids, facteur en fonction duquel on a dis¬
tingué les différents groupes, et qu’elle n’est pas liée simplement aux fluctua¬
tions d’échantillonnage ?
De même, on veut expérimenter chez l’animal l’action de différentes
doses d’un même produit dont l’activité s’apprécie, par exemple, par l’aug¬
mentation de poids d’un organe. On va former différents lots d’animaux aux¬
quels on administrera respectivement les différentes doses à tester, par
exemple par ordre de grandeur croissante. Dans quelle mesure les différences
observées entre les poids moyens de chaque groupe traduisenf-elles réellement
une différence d’action entre les différentes doses testées, facteur en fonction
duquel on a distingué les différents groupes, et non simplement les variations
liées aux inévitables fluctuations fortuites ?
De manière générale, chaque fois que l’observation a conduit à distinguer
dans la population étudiée plusieurs groupes A, B, C, etc., pour lesquels on a
obtenu les moyennes mi, mz, ms, etc., on est amené à se demander si les
différences observées entre ces diverses moyennes sont t significatives », c’est-
à-dire si elles traduisent une influence réelle du facteur qui a conduit à distin¬
guer les différents groupes, ou bien si elles peuvent s’expliquer simplement
par les fluctuations d’échantillonnage.
Il s’agit là encore, on le voit, d’un problème de comparaison et plus
précisément de comparaison de moyennes mais qui porte sur plusieurs termes.
124 INTERPRÉTATION STATISTIQUE

Sans doute, pour résoudre ce problème, pourrait-on songer à comparer deux


à deux les moyennes de ces différents groupes. Mais il existe un procédé qui
permet de tester à la fois T homogénéité de T ensemble des groupes étudiés,
c’est-à-dire de faire la comparaison simultanée de ces différentes moyennes
et de savoir si l’on peut, ou non, les considérer comme appartenant à une
même population ; c’est la méthode dite de T analyse de la variance que l’on
doit au statisticien anglais R. A. Fisher et qui a pris aujourd’hui une impor¬
tance considérable, en particulier pour l’exploitation des données expérimen¬
tales (*).
Suivant le principe général des problèmes de comparaison, on teste
« l’hypothèse nulle » suivant laquelle tous les échantillons appartiendraient à
la même population, auquel cas la variabilité de l’ensemble serait condi¬
tionnée uniquement par les fluctuations d’échantillonnage. Mais on s’arrange
pour distinguer, dans la dispersion totale de l’ensemble, la part qui revient
aux fluctuations individuelles qui se produisent à l’intérieur <f un groupe et
celle qui revient aux fluctuations qui se produisent d’un groupe à l’autre :

Variance intra-groupe

A l’intérieur de chaque groupe, les fluctuations d’échantillonnage sont


représentées par les écarts (x — m) entre chaque valeur individuelle x et la
moyenne m du groupe. Comme toujours, on est amené à considérer les écarts
quadratiques (x — my pour lesquels le signe n’intervient pas. En faisant la
somme de ces écarts quadratiques pour les n valeurs individuelles que com¬
porte le groupe, soit

on obtient un indice des fluctuations qui se produisent à l’intérieur du groupe


envisagé.
En faisant la somme de ces carrés pour les k groupes de l’échantillon, on
obtient donc un indice, que nous symboliserons Si, de la dispersion globale
introduite dans l’ensemble par la dispersion qui existe à l’intérieur de chaque
groupe.

(^) Lison, L., Statistique appliquée à la biologie expérimentale, Gauthier-Villars,


éd.. Paris, 1958
ANALYSE DE LA VARIANCE 125

+ ...-f-

ni ni ni, k

= Z (^1 -"Îl)^ + Z (JC2-'«2)^ + ...+Z {Xk-nikŸ = ZI K-W,)2(l) .


Il 11

= ZZ(^<-"'i)^-
1

Pour donner à cette somme de carrés la signification générale d’une


_ dispersion, il faut la rapporter au nombre de termes sommés et plus préci¬
sément au nombre de degrés de liberté, qui est ici, du fait qu’on perd un
degré de liberté par groupe,

. Vi = («1 - l)-l-(rt2 - l)-l-...-l-(/Jic - 1) = ni+n2 + ... + nk-k = N -k .


Vi = N — k .

On obtient ainsi la variance dite « intra-groupe » (o Within-variance » des


Anglo-Saxons), que nous symboliserons Va , et qui exprime la dispersion
introduite dans l’ensemble par la dispersion existant à l’intérieur de chaque
groupe

Z Z iXi-m,y

Variance inter-groupe

Si maintenant l’on assimile toutes les valeurs d’un groupe à la moyenne


m de ce groupe, on annihile les effets de la dispersion à l’intérieur de ce
groupe et le groupe en question peut alors être considéré comme un tout
représenté par sa moyenne m.
Dans ces conditions, l’écart de chacune des valeurs du groupe ainsi traité
par rapport à la moyenne générale M de l’ensemble de l’échantillon étudié
est (m - M) et son écart quadratique {m — MŸ.
L’écart quadratique global du groupe ainsi « unifié » pour les n valeurs
qu’il comporte, est donc
= n{m — My .

(1) Le symbole qui se lit « somme des sommes •, signifie simplement que
l’on fait la somme de toutes les sommes telle que ^ (Vj —pour tous les k groupes
de l’ensemble.
126 INTERPRÉTATION STATISTIQUE

En faisant la somme de ces écarts quadratiques de groupe pour tous les


k groupes de l’ensemble, on a un indice, que nous symboliserons S\, qui
reflète la dispersion introduite dans l’ensemble de Véchantillon par chaque
groupe considéré comme un tout, c’est-à-dire par les variations de groupe
à groupe :

S| = «1 (mi — M)^ + n2 (m2 — + etc.,-f-«t (Wf-A/)^

Sl = f,n{m-My .
1

Bien entendu, pour donner à cette somme de carrés la signification géné¬


rale d’une dispersion, il faut encore la rapporter au nombre de termes, et plus
précisément au nombre de degrés de liberté, qui est égal à V2 = ^ — 1 (on
perd en effet un degré de liberté du fait qu’on connaît la somme k du nombre
de groupes).
On obtient ainsi la variance inter-groupe, ou c between-variance » Q) des
auteurs anglo-saxons, que nous symboliserons Va. qui exprime la dispersion
liée aux variations de groupe à groupe

Vb =

Comparaison des variances

Variance intra-groupe et variance inter-groupe sont donc deux éléments


qui conditionnent la variabilité de l’ensemble. Si tous les groupes appar¬
tiennent à une même population d’origine, ces deux variances ne pourront
s’écarter l’une de l’autre que dans une certaine mesure, permise par les fluc¬
tuations d’échantillonnage. Au-delà d’une certaine limite, qu’il est possible de
calculer, il sera légitime de considérer que l’écart entre ces deux variances est
trop important pour pouvoir être p.ttribué aux seules fluctuations fortuites.

(1) Dite encore dispersion « factorielle », car elle met en évidence l’influence éven¬
tuelle du facteur en fonction duquel on a distingué les différents groupes, la variance
intra-groupe étant alors appelée la variance « résiduelle ».
ANALYSE DE LA VARIANCE 127

' Le problème se ramène donc à tester la divergence entre deux variances (*), ce
qui, nous venons de le voir, se fait par l’étude du rapport des deux variances
à comparer.
On formera donc le rapport Va/Vb (ou VbIVa si Vg > Va) et on recher¬
chera dans les tables de Snédécor le seuil de signification de ce rapport au
coefficient de sécurité désiré de 95 ou 99 % (^). Si ce rapport est supérieur au
seuil de signification, on doit rejeter l’hypothèse de population unique et
. admettre que les différences constatées entre les différentes moyennes sont
bien significatives.

Exemple. — On a dosé les corticoïdes urinaires chez 40 sujets de sexe féminin qui
, ont été répartis en fonction du poids en quatre groupes : I, de 50 à 59 kg ; II, de 60 à
69 kg ; III, de 70 à 79 kg ; IV, de 80 à 89 kg, comportant chacun 10 sujets.
Le tableau ci-dessous donne les résultats obtenus (en mg/24 h).

TABLEAU XIV
Corticoïdes urinaires chez 40 sujets de sexe féminin

I II III IV

3,3 4.3 6,4 3.3


2,5 4.8 7,6 5,4
3,0 6,3 6,6 5,7
3.4 6,5 4,5 6,5
3.7 8,7 4,6 11,5
3.5 4,5 8,0 7,5
5.2 5,2 6,3 9,3
5.2 2,5 6,8 8,0
4,0 4,0 5,7 6,0
4.0 5,8 3.2 4,7

y^x, = 37.B yx2 = 52,6 y ATj = 59,7 y = 67,9


/W2 = 5,26 m} = S,97 m4 = 6,79

Peut-on en conclure que les différences observées entre ces moyennes sont signifi¬
catives et que, par suite, le facteur < poids > en fonction duquel on a distingué ces
différents groupes a une influence sur le taux des corticoïdes urinaires ?

(^) D’où la dénomination t d'analyse de la variance », qui ne doit pas faire perdre
UC vue cependant qu’il s’agit d’un problème de comparaison de moyennes.
(2) On entre dans les tables de Snédécor avec le degré de liberté correspondant à
chacune des variances envisagées, c’est-à-dire va = (N — k) pour la variance intra-
groupe et vb = (^ —0. Pour la variance inter-groupe.
128 INTERPRÉTATION STATISTIQUE

On pourrait songer à comparer les moyennes deux à deux en appliquant le test /


de Student (puisqu’il s’agit de petits échantillons), mais ce procédé serait long (il
faudrait faire six comparaisons !). De plus, en agissant ainsi on négligerait l’information
contenue dans l’ensemble des données, puisqu’on ne ferait intervenir chaque fois que
10 + 10 = 20 d’entre elles. Le procédé de l’analyse de variance va permettre de tester
l’hypothèse unique en une seule opération.

1° Calculons la variance intra-groupe Vj^.


Il faut pour cela calculer les écarts quadratiques dans chaque groupe.
On trouve

^2 = = 22,26

•^3 = = 19,94
si = Y(x — m4)^ = 20,83
d’où
SI = sl+sl + sl+sl = 69,87
et
1 ^ 69,87
yA = 1,94.
N-k^ ^ 40-4

2° Calculons maintenant la variance inter-groupe .


Il faut préalablement calculer la moyenne générale M :

M _ Z^»+Z^2 + Z^3 + Z^-^ _ 37,8 + 52,6 + 59,7 + 67,9 = 5,45.


N 40
On peut alors calculer les écarts quadratiques de groupe :

si, = ni {mi-MŸ = 10(3,78-5,45)2 = 27,89

si, = «2(m2-Af)2 = 10(5,26-5,45)2 = 0,36

si, = n3(m3-M)2 = 10(5,97-5,45)2 =. 2,70


j2 = n4("Î4-A/)2 = 10(6,79-5,45)2 = 17,96
d’où
*^2 = + = 48,91
et
1
Vb =

3° On forme alors le rapport des variances, soit (puisqi-e V^>V^),

16,30
= 8,4.
1,94
ANALYSE DE LA VARIANCE 129

Les tables de Snédécor montrent que pour vi=Vb = ^—1 = 3 et pour V2 =


= N —Â: = 30 —4 = 26, la valeur limite de F au seuil de probabilité de 0,05 est
Fq Q5 = 2,9 et au seuil de probabilité de 0,01, = 4,6.
La valeur 8,4 trouvée pour F est donc nettement supérieure à Fq 05 et même
^ ^0.01 •
Une telle divergence a donc moins d’une chance sur 100 de se produire par suite
des fluctuations fortuites dans une population unique. Cette hypothèse doit donc être
rejetée et il faut admettre que les différents groupes appartiennent à autant de popu¬
lations différentes, donc que les différences constatées entre les diverses moyennes sont
bien significative et que, par suite, le facteur poids a une influence réelle sur le taux des
corticoïdes urinaires.
CHAPITRE XIII

ADAPTATION
D’UNE DISTRIBUTION EXPÉRIMENTALE

Il peut arriver qu’une distribution expérimentale, en raison par exemple


de l’aspect de son diagramme des fréquences, ou encore des conditions dans
lesquelles on l’a observée, évoque une distribution théorique donnée, par
exemple une distribution normale ou une distribution binomiale.
Dans ces cas on peut avoir intérêt à substituer à la distribution expéri¬
mentale observée la distribution théorique correspondante (quitte à vérifier,
comme nous le verrons au chapitre suivant, que cette assimilation est bien
légitime) : c’est ce qui s’appelle « adapter la distribution expérimentale à une
distribution théorique » (on dit encore qu’on a « ajusté » une distribution
théorique à la distribution expérimentale observée).
Le problème se pose en des termes différents suivant le type de distri¬
bution dont il s’agit et nous l’envisagerons successivement pour chacune des
distributions théoriques que nous avons étudiées.

Adaptation d’une distribution binomiale

11 s’agit de calculer les termes respectifs de la distribution binomiale


théorique correspondante, c’est-à-dire ayant le même effectif n que la distri¬
bution expérimentale observée.
Les formules de la distribution binomiale donnent les valeurs des proba¬
bilités, c’est-à-dire des fréquences relatives des termes correspondants

dont la somme est égale à 1.


Pour passer aux fréquences absolues correspondantes, c’est-à-dire aux
effectifs de chaque valeur, dont la somme est égale à n, il suffit donc de
les multiplier par n.
ADAPTATION D’UNE DISTRIBUTION EXPÉRIMENTALE 131

Le problème se ramène donc à calculer les éléments de Pr, c’est-à-dire


C; et . q\
Pour les valeurs faibles de n, le calcul se fait directement, étant donné
par le triangle de Pascal (^).

Exemple. — Reprenons la distribution du tableau I, p. 8, dont on peut présumer


qu'il s’agit d’une distribution binomiale.
La distribution théorique correspondante est donnée par le développement de
(1/2 +1/2)7.
C’est une distribution binomiale symétrique dont tous les termes sont de la forme

les coefScients étant respectivement : 1, 7, 21, 35, 35, 21, 7, 1, figurant à la septième
ligne du triangle de Pascal.
Les effectifs correspondants seront donc les produits de 1 877 par les termes
successifs du développement de (1/2+1/2)7, soit

1877
Li28 128 128 128 128 128 128 ^ 128j

dont la somme est bien égale à 1 877 (puisque la parenthèse est égale à 1).

Fig. 82.

(1) Cf. Rappel mathématique, p. 194.


132 INTERPRÉTATION STATISTIQUE

Les résultats obtenus sont indiqués dans la colonne (3) du tableau ci-dessous
(tableau XV) et la figure 82 reproduit les deux diagrammes correspondant resi>ecti-
vement à la distribution réelle et à la distribution théorique.

TABLEAU XV
Adaptation d’une distribution binomiale

(1) (2) (3)


Nombre de garçons Effectifs réels Effectifs théoriques

0 21 14,6
1 111 102,6
2 287 307,9
3 480 513,2
4 529 513,2
5 304 307,9
6 126 102,6
7 19 14,6

Total 1 877 1 877,0

Lorsque n est grand, il faut recourir à des tables de logarithmes pour


calculer p""’’ et q^. Quant au coeflScient , il se calcule alors à l’aide de
tables spéciales, comme celles de Fisher et Yates qui donnent les factorielles
avec leurs logarithmes (^).

Adaptation d*une distribution normale

Lorsqu’il s’agit d’une distribution normale, on lui substitue la distribution


normale théorique de même effectif N, qui a même moyenne x et même écart
type a que la distribution expérimentale observée.
Il faut donc calculer les effectifs théoriques, c’est-à-dire les fréquences

(^) On peut également dans ce cas utiliser pour le calcul des factorielles la formule
approchée de Stirling :

h! n" . e~’'^lnn

dont la transformation logarithmique donne

log n ! = n . log n-n . log e-\- - log 2 n-b i log /i.


ADAPTATION D’UNE DISTRIBUTION EXPÉRIMENTALE 133

absolues théoriques correspondant aux diverses valeurs ou classes de la


distribution observée.
Ceci se fait au moyen des tables de la courbe de Gauss. Celles-ci ayant
été établies pour la courbe réduite, il faut préalablement calculer les écarts
réduits par la relation
x—m
t= -.
a
Les tables donnent alors les probabilités, c’est-à-dire les fréquences
relatives correspondantes. Il suffit alors de multiplier ces dernières par l’effec¬
tif N pour obtenir les fréquences absolues cherchées.
Bien entendu, si les valeurs ont été groupées en classes, l’effectif de
chaque classe correspond à la probabilité cumulée de toutes les classes com¬
prises entre les limites inférieure et supérieure de chaque classe et on l’obtient
par les tables de la fonction n (t).

Exemple. — Reprenons la distribution des poids de 100 adultes du sexe féminin


étudiée au chapitre I et qui avait pour moyenne x = 54,90 et pour écart type

n = 738;Ô9 = 6,2 .

Le tableau ci-contre (tableau XVI) reproduit cette distribution dans les colonnes (1)
et (2).
La colonne (3) indique les limites des classes, qui sont disposées verticalement
de façon à encadrer la classe correspondante.
Dans la colonne (4) on indique les écarts réduits correspondant à ces limites,
obtenus par la relation
x—x
t = -.
a

Ainsi, pour la première valeur, x = 394, on a

39,5-54,9
t= = 2,5(0.
6.2
Connaissant les écarts réduits, on trouve dans les tables de la fonction n (0 les
fréquences cumulées correspondantes qui sont indiquées dans la colonne (5).

(1) Pour les valeurs suivantes, il est inutile de refaire le calcul. En effet, les valeurs
réduites suivantes se déduisent de la précédente en lui ajoutant la largeur de l’intervalle
de classe réduit, soit hia, qui est ici égal à 5/6,2 = 0,8. On les calcule donc de proche
en proche à partir de la première valeur. Il est prudent cependant de recalculer direc¬
tement la dernière valeur à titre de vérification.
134 INTERPRÉTATION STATISTIQUE

En faisant la différence entre les fréquences cumulées correspondant aux limites


supérieure et inférieure de chaque classe, on obtient la fréquence cumulée de toutes
les valeurs de la classe correspondante, c’est-à-dire la fréquence de la classe, qui est
indiquée dans la colonne (6). Ainsi, la fréquence de la classe 44,5 à 49,5, soit 0,1395,
s’obtient par différence entre la fréquence 0,1841 correspondant à la limite supérieure
et la fréquence 0,0446 corespondant à la limite inférieure de cette classe.

TABLEAU XVI

Adaptation d’une distribution normale

(1) (2) (3) (4) (5) (6) (7)


Ecarts Fréquences Fréquences Fréquences
Classes Effectifs Limites
réduits cumulées des classes absolues

— OO
—00-39,5 0 0,0062 0,62
39,5 -2,5 0,0062
39,5-44,5 5 0,0384 3,84
44,5 -1,7 0,0446
44,5-49,5 12 0,1395 13,95
49,5 -0,9 0,1841
49,5-54,5 31 0,2761 27,61
54,5 -0,1 0,4602
54,5-59,5 31 0,2978 29,78
59,5 -h0,7 0,7580
59,5-64,5 16 0,1752 17,52
64,5 + 1,5 0,9332
64,5-69,5 3 0,0561 5,61
69,5 +2,3 0,9893
69,5-74,5 2 0,0097 0,97
74,5 + 3,1 0,9990
74,5-+ oo —
0,0010 0,10
+ 00

1,0000 100,00

Il faut encore compléter cette colonne par la fréquence cumulée des valeurs
comprises entre — oo et la limite inférieure de la première classe (qui est donnée par la
fréquence cumulée de cette limite, soit ici 0,0062) d’une part et, d’autre part, par la
fréquence cumulée des valeurs comprises entre la limite supérieure de la classe supé¬
rieure et + 00 (qui est donnée par le complément à 1 de la fréquence cumulée de cette
limite supérieure, soit ici 1 —0,9990 = 0,0010).
Il s’agit là de fréquences relatives. Pour obtenir les fréquences absolues corres¬
pondantes, il suflSt de les multiplier par l’effectif N ici égal à 100 [colonne (7)].
La confrontation des colonnes (2) et (7) du tableau permet de se rendre compte
de la qualité de l’ajustement qui peut être également appréciée par la confrontation des
diagrammes de fréquence correspondants (fig. 83).
ADAPTATION D’UNE DISTRIBUTION EXPÉRIMENTALE 135

Distribution de Poisson

Pour ajuster une distribution de Poisson à une distribution expérimentale,


il faut calculer les termes correspondants de la distribution de Poisson qui a
même effectif N et même moyenne m que la distribution observée.

On peut à cet effet utiliser les formules donnant les termes génériques
de la série de Poisson :

Plus simplement, on peut recourir aux tables de la loi de Poisson qui


dorment directement les valeurs de Pr en fonction de la moyenne m.
Dans les deux cas il s’agit de fréquences relatives et il faut encore,
comme d’habitude, les multiplier par l’effectif N de la distribution expéri¬
mentale pour obtenir les fréquences absolues cherchées.
136 INTERPRÉTATION STATISTIQUE

Exemple. — Reprenons la distribution du tableau X p. 80 et qui est reproduite


dans les colonnes (1) et (2) du tableau ci-dessous (tableau XVII).

TABLEAU XVII
Adaptation d’une distribution de Poisson

(1) (2) (3) (4) (5)


X F F. X Pr N. Pr

0 109 0 0,5488 109,7


1 65 65 0,3293 65,8
2 22 44 0,0988 18,8
3 3 9 0,0198 4,0
4 1 4 0,0030 0,6
5 0 0 0,0004 0,1

Total At=200 122 200,0

La colonne (3) donne les produits F. x. Elle permet de calculer la moyenne

Y Fx 122
m= ^- = - =0,61
N 200
Pour cette valeur de ni, les tables de la loi de Poisson (table III, p. 210) donnent
les valeurs successives de P, qui sont indiquées dans la colonne (4).
Il suffit de les multiplier par l’efiectif N pour obtenir les effectifs théoriques cor¬
respondants qui sont indiqués dans la colonne (5). On a déjà noté la qualité de l’ajus¬
tement obtenu (fig. 60, p. 79).
CHAPITRE XIV

CRITÈRE DU

Même si une série empirique suit effectivement une loi de distribution


théorique donnée, les fréquences expérimentales observées différeront forcé¬
ment, en raison des fluctuations fortuites d’échantillonnage, des fréquences que
l’on devrait théoriquement observer, compte tenu de l’effectif de la série.
Chaque fois que l’on aura ajusté une distribution théorique à une distri¬
bution expérimentale on devra donc se demander si les différences constatées
entre la distribution expérimentale et la distribution théorique supposée restent
dans les limites des fluctuations fortuites d’échantillonnage (auquel cas l’assi¬
milation de la distribution expérimentale à la distribution théorique est légi¬
time), ou bien si ces différences sont trop importantes pour être mises sur le
compte de ces dernières (auquel cas l’hypothèse de travail avancée sur la
nature de la distribution devrait être rejetée).
// s’agit donc de comparer non plus seulement deux paramètres statis¬
tiques entre eux, mais bien deux distributions dans leur ensemble. Plus préci¬
sément, il s’agit de caractériser, pour l’ensemble de la distribution, la diver¬
gence entre les effectifs Fi, F2, etc., observés pour chacune des valeurs (ou
classes) de la distribution expérimentale et les effectifs théoriques Oi, O2 , etc.
qiie l’on aurait dû observer respectivement pour chacune de ces valeurs (ou
classes) dans une distribution théorique de même effectif total que la distri¬
bution expérimentale étudiée.

Notion de

Pour chacune de ces valeurs (ou classes), cette divergence est définie
par l’écart (F — O) qui sépare son effectif expérimental F de son effectif théo¬
rique O. Comme pour les écarts à la moyenne, on est amené à prendre en
considération les écarts quadratiques (F-O)^ qui sont indépendants du signe.
Par ailleurs, on conçoit qu’un écart donné n’aura pas la même signification
suivant qu’il se rapporte à une classe comprenant un grand ou un petit

10
138 INTERPRÉTATION STATISTIQUE

nombre de cas. Pour donner à chaque écart le « poids » qui lui revient, on
est donc amené à rapporter l’écart quadratique correspondant à l’effectif théo¬
rique que l’on aurait dû observer pour cette valeur. On est ainsi amené à
définir pour chaque valeur ou classe de la distribution l’écart quadratique
relatif (F —qui caractérise au mieux la divergence entre son effectif
expérimental F et son effectif théorique O.
Pour l’ensemble de la distribution, on est ainsi amené à définir un para¬
mètre appelé (lire « khi deux » ou a khi carré ») qui fait la somme de tous
les écarts quadratiques relatifs pour les k classes qu’elle comporte :

^ “ ô; ^
ce qu’on peut symboliser ;

Le paramètre x^ ainsi défini caractérise bien la divergence de l’ensemble


de la distribution. En effet, si les écarts sont faibles pour chacun des termes,
le x^ sera peu élevé. Si, au contraire, les écarts sont importants, le x^. qui fait
leur somme, sera d’autant plus élevé.

Distribution du x^

A partir de quelle valeur du peut-on considérer que la divergence est


trop importante pour être mise sur le compte des fluctuations fortuites ?
Pour répondre à cette question, il faut étudier la distribution des valeurs
du x^ que l’on obtiendrait si, à partir d’une population d’effectif infini, con¬
forme aux proportions théoriques, on retirait un grand nombre de fois un
échantillon de même effectif que l’échantillon expérimental.
Ce problème de statistique théorique a été résolu par Pearson qui a mon¬
tré que la distribution du avait l’aspect d’une courbe en cloche unimodale
asymétrique avec étalement vers la droite (fig. 84).
La valeur du x^ augmente évidemment avec le nombre de termes, c’est-
à-dire le nombre k de valeurs ou classes de l’échantillon (et plus précisément
le nombre v de degrés de liberté correspondant au nombre de différences indé¬
pendantes qui entrent dans le calcul du x^)-
CRITÈRE DU 139

D y a donc toute une famille de courbes de la distribution du corres¬


pondant aux différentes valeurs de v. L’asymétrie des courbes, très marquée
pour les valeurs faibles de v, tend à s’effacer à mesure que v augmente
(fig. 85).

Détermination pratique du x^

Pearson a établi des tables de la distribution du x^> dont on trouvera


un extrait p. 216. Ces tables donnent, en fonction du degré de liberté v, les
valeurs limites du x^ correspondant aux coeflScients de sécurité habituels de
95 et 99 %, c’est-à-dire qui n’ont respectivement que 5 (x^o.os) ou une
(X^o.oi) chance sur 100 d’être dépassées par suite des variations fortuites
(fig. 84).
140 INTERPRÉTATION STATISTIQUE

Si le trouvé est supérieur à la valeur limite du x^ fournie par les


tables, on doit admettre que la divergence constatée est trop importante pour
être mise sur le compte des seules fluctuations fortuites. L’hypothèse de travail
qui avait été formulée sur la nature de la distribution escomptée doit donc
être rejetée. Si le x^ trouvé est inférieur à la valeur limite donnée par les
tables, on peut dire que l’hypothèse de travail n’a pas été infirmée par les
constatations expérimentales (‘).

Exemple i. — Reprenons l’exemple étudié page 8 de la distribution du nombre


de garçons dans 1 877 familles de 7 enfants. S’agit-il réellement, comme on est en droit
de le penser, d’une distribution binomiale ? Pour tester cette hypothèse, il faut comparer
cette distribution à la distribution binomiale théorique correspondante.
Nous avons précédemment calculé ces effectifs théoriques (cf. p. 132). Us sont
rappelés dans le tableau ci-dessous qui donne également les résultats obtenus pour les
différences (F —<I>) et les termes correspondants (F —d>)2/<l) du

TABLEAU XVni
VÉRIFICATION d’adaptation D’UNE DISTRIBUTION BINOMIALE

Nombre de garçons Nombre Effectifs Différences (F-«I>)»


de familles théoriques
par famille F <I> (F-4>) <I)

0 21 14,6 -1- 6,4 2,80


1 111 102,6 + 8,4 0,69
2 287 307,9 -20,9 1.42
3 480 513,2 -33,2 2,15
4 529 513,2 + 15,8 0,49
5 304 307,9 - 3,9 0,30
6 126 102,6 + 23,4 5,33
7 19 14,6 + 4,4 1.33

Totaux 1 877 1 877 7> = 14,51

Pour entrer dans les tables du x^ A f^ut encore déterminer le nombre de degrés
de liberté, c’est-à-dire le nombre de différences indépendantes. 11 y a huit termes à
comparer. Mais ces huit termes sont liés par deux relations, à savoir, d’une part ;
somme des effectifs de chaque classe = 1 877. D’autre part ; somme des termes = 8.
11 y a donc seulement 8 — 2 = 6 degrés de liberté.

(1) Ce qui ne veut pas dire, il importe de le souligner, que sa valadité soit
démontrée.
CRITÈRE DU 141

Pour 6 degrés de liberté, la table du x^ donne Xq os = 12,59.


La valeur 14,51 trouvée pour le x^ donc supérieure à la valeur limite du x^
pour le seuil de probabilité de 0,05. La divergence constatée a donc moins de 5 chances
sur 100 d’être provoquée par des fluctuations fortuites. On doit donc la considérer
comme significative et par suite rejeter l’hypothèse de la nature binomiale de la
distribution étudiée. On est conduit à admettre en effet qu’à partir d’un certain nombre
de garçons, la probabilité de naissance d’un garçon devient nettement supérieure, sans
doute pour des raisons d’ordre génétique, au taux habituel de 50 p. 100.

Exemple 2. — Faisons le même calcul pour la distribution des poids de 100 adultes
de sexe féminin dont nous avons calculé précédemment les effectifs théoriques pour une
distribution supposée normale.
Le tableau ci-dessous (tableau XIX) rappelle les effectifs réels F trouvés et les
effectifs théoriques <I> calculés [colonnes (2) et (3)]. On a inclus dans ce tableau les
effectifs théoriques calculés pour les classes comprises entre — oo et la première et
entre la dernière et -foo- Par ailleurs, afin d’avoir un nombre suffisant de valeurs
par classe on a groupé les deux premières classes d’une part et les trois dernières classes
d’autre part.

TABLEAU XIX
VÉRIFICATION d’adaptation D’UNE DISTRIBUTION NORMALE

(2) (3) (4) (5)


(1) Effectifs réels Effectifs (F-<1>)'
Classes théoriques <I> F-<l> <l>
F

-00-39,5 0,5 0,05


^\5 3,84/ ’
39,5-44,5 sP
44,5-49,5 12 13,9 1,9 0,26
49,5-54,5 31 27,6 3,4 0,42
54,5-59,5 31 29,8 1,2 0,05
59,5-64,5 16 17,5 1,5 0,13
64,5-69,5 31 5,611
69,5-74,5 2 5 0,97 6,7 1,7 0,52
74,5—1-00 ol 0,101

100 100,00 = 1,43

Pour déterminer le nombre de degrés de liberté, on note qu il existe en tout


6 classes qui sont reliées par 3 liaisons : l’effectif total d une part, et, d autre part, la
moyenne et le a qui ont permis de calculer les effectifs de la distribution théorique. On
a donc 6 — 3 = 3 degrés de liberté.
Pour V = 3, les tables du x^ donnent x-q,o5 =
Le x^ trouvé, soit 1,43, est donc très inférieur à la limite fournie par les tables :
les divergences observées entre la distribution expérimentale et la distribution théo-
142 INTERPRÉTATION STATISTIQUE

rique restent dans les limites des fluctuations fortuites. On peut en déduire que l’hypo¬
thèse qui avait été faite sur la nature normale de la distribution n’a pas été infirmée
par les constatations expérimentales.

Exemple 3. — Faisons enfin ce même calcul par la distribution de Poisson dont


nous avons précédemment calculé les effectifs théoriques (tableau XX). On a groupé
les trois dernières classes de cette distribution.

TABLEAU XX
VÉRincATioN d’adaptation d’une distribution de Poisson

Effectifs réels Effectifs (/r_rt.)2


Classes théoriques F-«h
F <h 4)

0 109 109,7 0.7 0,04


1 65 65,8 0,8 0,01
2 22 18,8 3,2 0,54
3 4,01
4 14 0.6 4,7 0.7 0,10
5 ol 0,lj

Xï = 0,69

En ce qui concerne le nombre de degrés de liberté, il y a 4 classes et 2 liaisons :


la somme des effectifs et la moyenne m utilisée pour le calcul de la distribution théo¬
rique. On a donc v = 4 —2 = 2.
Pour V = 2 les tables indiquent Xq = 5,99.
La valeur trouvée pour le x^^ soit 0>69 est donc très inférieure à la valeur limite
àn x^ fournie par les tables. Les constatations expérimentales sont donc, comme on
pouvait le prévoir, compatibles avec l’hypothèse de la nature poissonienne de la
distribution.
CHAPITRE XV

CRITÈRES GRAPHIQUES DE NORMALITÉ

Dans les cas où l’on présume qu’il s’agit d’une distribution gaussienne,
on peut vérifier de façon approximative la normalité de la distribution par des
procédés graphiques simples.

Droite de Henry

En effet, la relation
t =

qu’on peut écrire


^ X m
a O '
t
montre que la courbe représentative de t en fonc¬
tion de X est une droite.
Si donc, sur un diagramme cartésien ordinaire,
on porte en abscisses les valeurs x et en ordonnées
les écarts réduits correspondants t, les points repré¬
sentatifs, dans le cas d’une distribution normale,
doivent s’aligner sur une droite, dite droite de
Henry (fig. 86).
11 suffit donc de calculer les valeurs de t
qui correspondent aux fréquences expérimentales
observées et de les reporter sur le graphique en
regard des valeurs correspondantes de x. Si l’ali¬
gnement est satisfaisant, on conclut que la distri¬
bution étudiée est vraisemblablement normale (^). (*)

(*) L’équation de la droite de Henry montre qu’elle a pour pente Ija et qu elle
coupe l’axe des x au point x = m. On obtient donc une estimation approximative de
(Voir xniu’ tte la note p. 144.)
144 INTERPRÉTATION STATISTIQUE

Exemple. — Reprenons la distribution des poids de 100 adultes de sexe féminin


dont nous avons précédemment vérifié la normalité par le critère du )(}.
Le tableau ci-dessous (tableau XXI) rappelle dans les colonnes (1) et (2) les
classes de cette distribution avec leurs effectifs. La colonne (3) indique la limite supé¬
rieure des classes. La colonne (4) les effectifs cumulés. En divisant ces derniers par
l’effectif total N. ici égal à 100, on obtient les fréquences cumulées correspondantes qui
sont indiquées dans la colonne (5). En fonction de ces dernières, on trouve alors dans la
table de n (0 les valeurs des écarts réduits t correspondants qui sont figurés dans la
colonne (6).
On peut alors reporter sur le graphique les points correspondants de la fonction
r = /(x). On constate (fig. 87) que l’alignement est satisfaisant. On est donc fondé à
première vue à considérer la distribution observée comme gaussienne (^).

TABLEAU XXI
Détermination de la droite de Henry

(I) (2) (3) (4) (5)


Effectifs Fréquences ^ms
Classes Effectifs Limites
cumulés cumulées réduits
X F Fc h t

39,5-44,5 5 44,5 5 0,05 -1,65


44,5-49,5 12 49,5 17 0,17 -0,95
49,5-54,5 31 54,5 48 0,48 -0,05
54,5-59,5 31 59,5 79 0,79 -1-0,80
59,5-64,5 16 64,5 95 0,95 + 1,65
64,5-69,5 3 69,5 98 0,98 +2,05
69,5-74,5 2 74,5 100 1,00 +4,50=^

Echelle gausao-métrique

Si, sur le graphique précédent on gradue Taxe des ordonnées en y


marquant, non pas les valeurs de t, mais les valeurs correspondantes de n {t),
c’est-à-dire celles des fréquences cumulées correspondant à chaque valeur de t,
la droite de Henry donne pour chaque valeur de x la valeur de n (t) qui lui
correspond : le tracé sigmoïde de la fonction n (t) s’est anamorphosé en droite
(fig. 88).

(Suite (Je la note de la p. 143.)


la moyenne qui est donnée par l’abscisse du point où la droite coupe l’axe des x, et éga¬
lement du a. qui est égal à l’inverse de la pente (fig. 86).
(^) Le graphique montre en outre que la droite obtenue coupe l’axe des x au point
d’abscisse x = 54,7. On peut donc estimer que la moyenne vaut 54,7 (les calculs avaient
donné exactement 54,9).
CRITÈRES GRAPHIQUES DE NORMALITÉ 145

Sur un tel graphique, dit gausso-métrique, et dont il existe des exemplaires


tout préparés dans le commerce, les points représentatifs de n (t) s’alignent
donc sur ime droite, ü suffit, dès lors, de porter directement sur le graphique
les fréquences cumulées expérimentales sans avoir à consulter les tables de
n{t) pour y rechercher les valeurs correspondantes de t (fig. 88).

Loi de Galtori'Mac Alliêter

Dans certains cas, ce ne sont pas les valeurs elles-mêmes du caractère,


mais les logarithmes de ces valeurs, soit z = log x, qui suivent une distribution
gaussienne.
C’est ce qui se passe notamment pour la relation « effet-dose », où les
effets — qui, nous l’avons vu (^), sont proportionnels aux logarithmes des
doses — sont normalement distribués.

(1) Cf. s. Geli.er, Ahréifé de Maihémciiiques, Masson éci., 1969, p. 96.


146 INTERPRÉTATION STATISTIQUE

Dans ces cas, la distribution du caractère x lui-même est une courbe en


cloche déformée avec « étalement » vers la droite et au contraire, « tassement »
des valeurs vers la gauche (fig. 89 haut).

En effet, le maximum de la courbe de distribution du caractère correspond à la


valeur x = 1 pour laquelle log x = 0. Quand log x tend vers + c», il eu est de même
de X, et la branche droite de la courbe admet également l’axe des abscisses pour asymp¬
tote. Au contraire quand logx tend vers — oo, x tend vers zéro : la branche gauche
coupe donc l’axe des abscisses au point x = 0. Î1 en résulte un t tassement » vers les
valeurs faibles du caractère, alors qu’au contraire la distribution s’étire indéfiniment
à mesure que s’accroît l’intensité du caractère (fig. 89).

Cette distribution est connue sous le nom de loi de Galton-Mac Allister


ou encore loi de Gibrat, dite encore loi de l'effet proportionnel, car dans ce
CRITÈRES GRAPHIQUES DE NORMALITÉ 147

cas les variations du caractère sont pro¬


portionnelles aux valeurs mêmes du carac¬
tère. C’est ainsi qu’on observe une distri¬
bution de ce type en matière économique
pour les salaires dont les modifications (en
plus, par l’adjonction de primes, ou en
moins, par la déduction d’impôts) sont
habituellement d’autant plus importantes
que le salaire est plus élevé.

Echelle gausso-logarithmique

Si l’on porte en abscisses non plus


les valeurs x du caractère, mais z = log x,
on retrouve par hypothèse une distribu¬
tion gaussienne (fig. 90).
Si donc l’on utilise un graphique
semi-logarithmique dont l’axe logarith¬
mique est celui des x, la courbe en cloche
asymétrique de la loi de Galton-Mac Allister redevient une courbe en cloche
ordinaire (fig. 91).

Fig. 90. Fio. 91.


148 INTERPRÉTATION STATISTIQUE

Et par suite sa courbe cumulative de répartition est alors une courbe


intégrale en S (fig. 91, haut).

Si donc, en outre, l’on adopte pour l’axe des ordonnées, non plus une
échelle métrique, mais une échelle gaussienne, la courbe cumulative de répar¬
tition s’anamorphosera en droite de Henry. Un tel graphique, dit gausso-
logarithmique permet donc de vérifier directement la normalité d’une distri¬
bution lorsqu’un phénomène relève de la loi de Galton-Mac Allister (fig. 92).
CHAPITRE XVI

CORRÉLATION STATISTIQUE

Les notions développées dans les chapitres précédents nous ont permis
d’étudier un caractère quantitatif donné, par exemple ; le poids, la taille, la
tension artérielle, un taux humoral, etc. dans une population statistique déter¬
minée, de définir des paramètres numériques permettant de caractériser les
variations de cette grandeur, de préciser le degré de confiance que l’on pouvait
attacher à ces résultats et de les confronter avec ceux obtenus pour le même
caractère quantitatif dans une autre population statistique.
Mais l’on est souvent amené dans les sciences expérimentales et tout
particulièrement en médecine et en biologie, à s’intéresser, non pas aux varia¬
tions d’une seule grandeur, mais aux variations respectives de deux grandeurs,
c’est-à-dire de deux caractères quantitatifs, dans une même population statis¬
tique. Par exemple, on veut savoir s’il existe dans un groupe de sujets une
relation entre le poids et la taille, entre la tension artérielle et le taux humoral
d’une substance, ou encore, dans un lot d’animaux en expérience, une relation
entre le poids global de l’animal et le poids d’un de ses organes, par exemple
la capsule surrénale, etc.
Sur le plan mathématique, ce problème est résolu par la notion de fonc¬
tion qui traduit, on le sait, la relation entre les variations de deux grandeurs,
relation qui est matérialisée par sa courbe représentative y — f (x). Dans ce
cas, à une valeur donnée de la variable indépendante x correspond une valeur
et une seule de la variable dépendante y, que la relation y = f(x) permet
précisément de calculer.
Cette relation étant établie, la connaissance d’une des grandeurs suffit
alors pour déterminer complètement la valeur correspondante de l’autre. Ce
type de relation, dit relation fonctionnelle, est celui qu’on rencontre dans les
sciences dites c exactes >.
Mais le problème se complique lorsque les grandeurs envisagées sont
soumises à des fluctuations statistiques. En effet, en raison de ces fluctuations.
150 INTERPRÉTATION STATISTIQUE

à une valeur donnée d’une des variables il correspond non pas une seule, mais
toute une distribution des valeurs de l’autre variable. Et inversement.

C’est ainsi que dans un groupe de sujets dont on étudie la taille et le poids, pour
une valeur donnée de la taille, par exemple 1,70 m, on trouvera toute une série de sujets
ayant cette taille mais différant entre eux par le poids. Inversement, pour une valeur
donnée du poids, on trouvera toute une série de sujets différant entre eux par la taille.

D ne saurait donc être question de dire que le poids est une « fonction »
de la taille au sens mathématique de ce terme, ou inversement. Cependant,
l’on sent très bien, intuitivement, que si l’on étudie cette population, on trou¬
vera que, dans l’ensemble, les poids les plus importants seront associés aux
tailles les plus élevées. 11 y a donc toute de même une dépendance, une cer¬
taine relation entre les deux grandeurs, mais elle est plus lâche, moins rigide,
que la relation fonctionnelle proprement dite.
Cette relation d’une nature particulière constitue la corrélation statistique
qui joue un rôle important dans les sciences de la vie et plus particulièrement
dans la science médicale, du fait que celle-ci, nous l’avons vu, est essentielle¬
ment une science de corrélation.
Des procédés spéciaux permettent d’étudier cette corrélation statistique,
de mettre en évidence la loi générale qui relie les variations réciproques des
grandeurs envisagées et d’apprécier quantitativement le degré, c’est-à-dire le
caractère plus ou moins étroit de cette liaison. Nous les envisagerons dans ce
chapitre en nous limitant essentiellement au cas le plus simple et du reste
le plus fréquent de la corrélation dite linéaire où l’une des grandeurs varie
proportionnellement à l’autre.

Diagramme de dispersion

Une première façon d’aborder le problème consiste à recourir à la repré¬


sentation graphique. Comme pour l’étude d’une fonction, on peut utiliser un
système d’axes rectangulaires ox et oy sur lesquels on repérera les valeurs
respectives des deux grandeurs x (par exemple : la taille) et y (par exemple :
le poids). Pour chaque individu, il existe un couple de valeurs x et y.
Chaque individu peut donc être représenté par un point du graphique
d’abscisse x et d’ordoimée y. L’ensemble de la population étudiée sera repré¬
senté par un « nuage de points » qui visualisera la dispersion de la popu¬
lation étudiée (hg. 93).
CORRÉLATION STATISTIQUE 151

X tailles -
Fig. 93. Fig. 94. — Corrélation
positive (directe).

Un tel diagramme, justement appelé diagramme de dispersion, permet


déjà une approche de la notion de corrélation : en effet, s’il existe une
corrélation telle que. par exemple, les poids les plus importants soient associés
aux tailles les plus élevées, le nuage de points aura une forme allongée,
oblique en haut et à droite, comme l’indique la figure 94.
Si l’on étudiait une corrélation entre deux grandeurs telles qu’aux plus
grandes valeurs de l’une correspondent les plus petites valeurs de l’autre, on
trouverait encore un nuage de points analogue mais dirigé en bas et à droite,
comme l’indique la figure 95. La corrélation est dite alors négative ou inverse,
au lieu de positive ou directe dans le cas précédent.

X
Fig. 95. — Corrélation Fig. 96. — Absence de
négative (inverse). corrélation.

En revanche, si l’on étudiait deux grandeurs dont les variations ne


s’influencent pas mutuellement, par exemple la taille et le taux de la glycémie,
aux valeurs élevées de l’une, par exemple la taille, pourraient correspondre
aussi bien des valeurs fortes que des valeurs faibles de l’autre : le nuage de
points ne serait donc plus orienté, mais diffus et réparti au hasard sur
l’ensemble du plan (fig. 96). Dans ce cas, il n’y a pas corrélation, mais indé¬
pendance des caractère étudiés : la connaissance d’une grandeur n’apporte
alors aucune information sur l’autre.
152 INTERPRÉTATION STATISTIQUE

Notion de covariance

Mais nous pouvons serrer davantage le phénomène en utilisant les para¬


mètres statistiques dont nous disposons déjà pour caractériser une population.
Nous pouvons en effet considérer dans cet ensemble la sous-population
constituée par toutes les valeurs des x et calculer la moyenne de cette distri¬
bution, soit JC, ainsi que les écarts à la moyenne, soit (jc—jf), pour chaque
valeur individuelle de x. De même pouvons-nous calculer la moyenne ÿ de la
sous-population des y, ainsi que les écarts individuels à cette moyenne, soit
(y-ÿ)-
Soit M le point de coordoimées Je et ÿ, dit point central du diagramme ou
encore « centre de gravité » du nuage de points (fig. 97).
Traçons par ce point M deux
nouveaux axes de coordonnées
Mx' et My' respectivement paral¬
lèles amt précédents. Ces axes
partagent le plan en quatre zones.
Dans le quadrant supériem droit
(quadrant n° I, fig. 97) les écarts
(x — x) sont positifs. De même les
écarts (y—ÿ). Donc également les
produits (x — .X) (y — ÿ).
Dans le quadrant inférieur
gauche (quadrant n° III, fig. 97),
les écarts à la moyenne sont
négatifs tant pour les x que pour les y. Donc leur produit (x — Je) (y — ÿ) se
trouve positif.
En revanche, dans les quadrants II et IV, la figure montre que ces écarts
sont de signe contraire et par conséquent le produit (x - x) (y - ÿ) est négatif.
S’il existe une corrélation positive entre x et y, la majorité des points du
nuage se trouveront dans les quadrants I et III. Par conséquent, si nous
calculons pour chaque couple de valeurs (x, y) le produit ix-x)(y— ÿ) et si
nous faisons la somme algébrique de tous les produits, soit — (>’—>')
nous trouverons que cette somme est positive :

Hix-x) (y-ÿ)>0.

Dans le cas d’une corrélation négative, inversement, la majorité des


CORRÉLA TION ST A TISTIQUE 153

. points du nuage se situeront dans les quadrants II et IV et cette somme sera


trouvée négative :

'Zix-x) iy-ÿ)<0.
Si, enfin, il n’y a pas de corrélation, les points seront uniformément répar¬
tis dans les quatre quadrants, les écarts positifs et négatifs se compenseront
et la somme envisagée sera voisine de 0 :

Hix-x) {y-ÿ)~0.
Par l’étude de cette somme des produits des écarts, on peut donc déjà
-préciser davantage la notion de corrélation.
Bien entendu, cette somme sera d’autant plus grande en valeur absolue
qu’il y aura davantage de couples d’observation. Pour lui donner une signifi¬
cation plus générale, il y a donc intérêt à rapporter cette somme au nombre N
de couples d’observation. On est ainsi amené à définir un paramètre p appelé
covariance qui est égal à la somme des produits des écarts divisée par le
nombre N de couples d’observation :

Z(x-x) (y-ÿ)
^ N

On devine que ce paramètre est appelé à jouer un rôle important dans les
problèmes de corrélation.

Ligne de régression

Nous avons vu que, lorsqu’on étudiait une série statistique importante,


il y avait intérêt à grouper les valeurs en classes.

(1) On remarquera l’analogie de cette expression avec celle de la variance

N
qu’on pourrait écrire
y(x-x)(x-x)
= —-
N

et qui traduit la dispersion dans le cas d’une seule série statistique.

11
154 INTERPRÉTATION STATISTIQUE

Nous pouvons procéder ainsi pour la distribution représentée par toutes


les valeurs de x, ce qui revient à découper notre nuage de points en bandes
verticales ayant pour largeur l’intervalle de classe choisi (fig. 98).
Cela fait, nous pouvons noter toutes les valeurs de y qui correspondent
aux valeurs de x d’une même classe et calculer les valeurs moyennes de ces y.
En procédant ainsi pour chaque classe des x, c’est-à-dire pour chaque bande
verticale du nuage de points, on obtient un certain nombre de valeurs
moyennes de y (autant que l’on a distingué de classes de x) : yi, yz. etc.
que l’on peut figurer sur le graphique par des points correspondants sur
l’ordonnée du point médian de chaque classe (fig. 98).
La ligne brisée qui joint ces points est dite ligne de régression^), ou
mieux ligne d’estimation de y en x. Elle donne, en effet, la valeur moyenne,
c’est-à-dire la plus probable, que peut prendre y pour une valeur donnée de x :
elle permet t d’estimer * y en (fonction de) x.

Fig, 98. — Ligne de


régression de y en x. régression de x en y. sion.

Bien entendu, nous pouvons, inversement, estimer x en fonction de y.


D suflSt pour cela de partir des y et de partager le nuage de points en bandes
horizontales correspondant à chacune des classes individualisées sur oy. Les
valeurs moyennes de x obtenues dans chacune de ces bandes horizontales
permettent de définir une ligne de régression de x en y, évidemment différente
de la précédente (fig. 99).

(^) Le terme de c régression » a une origine historique. Il a été utilisé par le bio¬
logiste Galton, créateur de la méthode, qui étudiait la relation entre la taille des enfants
et celle de leurs parents, pour rechercher dans quelle mesure la taille des enfants mar¬
quait un retour, une t régression » vers la taille des parents.
CORRÉLATION STATISTIQUE 155

Les lignes de régression donnent l’image des variations moyennes d’une


grandeur en fonction de l’autre. Elles expriment, par conséquent, la loi
générale qui relie les variations de ces deux grandeurs ; elles sont l’équivalent
de la courbe représentative d’une fonction. Comme cette dernière, en effet,
elles permettent, à partir d’une des grandeurs, dite variable contrôlée ou expli¬
cative (qui joue le rôle de la variable indépendante) d’obtenir des informations
sur l’autre, dite variable de contrôle, ou variable expliquée (qui joue le rôle
de la fonction).
C’est ainsi que si y est le poids et x la taille, la ligne d’estimation de y en x indi¬
quera le poids moyen y correspondant à une taille x donnée, exactement comme si ce
poids moyen était une fonction de la taille.

Toutefois, il s’agit là de données expérimentales soumises aux fluctuations


dues au hasard de l’échantillonnage. C’est ce qui explique l’aspect brisé,
irrégulier, que revêtent, en général, les lignes d’estimation, quelle que soit par
ailleurs l’allure générale de la loi qu’elles traduisent (fig. 100).

Droite de régression

Un des cas les plus intéressants en pratique est celui où la loi des varia¬
tions moyennes représentée par la ligne de régression est une loi hnéaire,
c’est-à-dire qu’une des grandeurs varie proportioimellement à l’autre. Dans
ce cas, la ligne de régression est en fait une droite dont la linéarité est plus
ou moins masquée par les fluctuations d’échantillonnage.
Lorsqu’on présume qu’il en est ainsi, il est donc naturel de chercher à
f ajuster » à la ligne brisée obtenue expérimentalement la droite théorique,
dite « droite de régression », ou mieux « droite d’estimation », qui lui corres¬
pond, quitte à vérifier par la suite la légitimité de cette assimilation.
On peut certes essayer de tracer cette droite à vue d’oeil, au besoin en
s’aidant d’un fil tendu, si du moins les points ne sont pas trop nombreux ni
trop dispersés. Mais ce procédé est évidemment peu précis et il est préférable
d’utiliser une méthode plus rigoureuse. La méthode généralement adoptée
est la méthode dite des moindres carrés.
En effet, la droite à trouver doit donner la meilleure estimation d’une
variable en fonction de l’autre. Par exemple, pour la droite d’estimation de y,
il faut trouver la droite qui, pour une valeur donnée de x, fournisse la meil¬
leure estimation de y, c’est-à-dire, par conséquent, celle pour laquelle les
valeurs de y seront le moins dispersées possible.
156 INTERPRÉTATION STATISTIQUE

Soit d les distances verticales (appelées « résidus ») des différents points


du diagramme à la droite D (fig. 101). Ces résidus torrneiil une distribution
avec une moyenne d et une dispersion S\ .
De toutes les droites possibles, la « meilleure » sera donc celle pour
laquelle la dispersion S\ , c’est-à-dire la somme des carrés des distances des
points du diagramme à la droite, sera minimum (d’où le nom de la méthode).
Cette condition implique que la droite passe par le point central du
diagramme et que la somme des résidus d’un côté soit égale à la somme des
résidus de l’autre côté de la droite.

Fig. 101. Fig. 102.

On montre que la droite qui correspond à ces conditions a pour équation

Y-ÿ^a,{X-x)
avec

^ ^ E (x-x) (y-ÿ)

(') En effet, soit (fig, 102) un point P du diagramme, .v et y ses coordonnées par
rapport aux axes ox et oy ; x' = (x—x) et y' = (y— ) ses coordonnées par rapport
aux axes Mxf t\. My' \ A le point de la droite D situé sur la verticale passant par P ;
X et Y ses coordonnées par rapport aux axes ox et oy ; a = tg a la pente de la droite D.
Dans le triangle rectangle MAB, on a

AB = MBtg(x = a.x' = a(x — x) = a{X—x)


(Voir suite de la note p. 157.)
CORRÉLATION STATISTIQUE 157

Coefficients linéaires de régression

Qx qui mesure la pente de la droite D sur l’horizontale Ox est le coeffi¬


cient linéaire de régression de y en x. Il indique combien de fois en moyenne
y est plus grand ou plus petit que x. Il est positif ou négatif suivant que la
droite est ascendante ou descendante de gauche à droite.
De manière symétrique (il suflBt de changer ;c en y et réciproquement), on
définit une droite de régression de x en y qui répond à l’équation

X-x = ay{Y-ÿ)
et un coefficient linéaire de régression de x en y

- Z jy-ÿ) jx-x)
" liy-ÿ)^
qui mesure la pente de cette droite par rapport à Oy.

{Suite de la note de la p. 156.)


Mais la figure montre que

AB = AC-BC = Y-ÿ

d’où
Y—ÿ = a{X—x).

Ce qui représente l’équation d’une droite passant par A et par M. c’est-à-dire de


la droite D.

La figure montre d’autre part que d = PA = PB — AB = y' — ax'. Donc :

^ = Y,iy’^-2ax' .y' + a^x’^).

= Yy'^-2aYx'y'-ya^Y.^'^ •
Cette somme est un trinôme du second degré en a qui passe par un minimum
lorsque sa dérivée s’annule, c’est-à-dire quand

la Yx'^—2 Y^'y' — ®
ce qui a lieu pour

a =
Yx'^
c’est-à-dire

a =
Z(x-;c)2 '
ce qui démontre la proposition.
158 INTERPRÉTATION STATISTIQUE

Les formules des coefficients linéaires de régression montrent qu’ils


peuvent également s’exprimer en fonction de la covariance p :
En effet, pour a^ par exemple, l’expression

Z {x-x) {y-ÿ)
Z {x-xf
peut s’écrire
Z (x-x) (y-ÿ)
N
lix-xy
N
Le numérateur de cette expression est la covariance p et le dénominateur
n’est autre que la variance des x, soit . On a donc

et de la même façon

Droite de régression et corrélation linéaire

Les droites de régression permettent de préciser davantage la notion


de corrélation linéaire.
En effet, s’il existe une corrélation parfaite, ce qui est le cas de la relation
fonctionnelle où à une valeur donnée de x correspond une valeur et une seule
de y et inversement, la droite de régression de y en x soit sera la même que
la droite de régression de x en y soit et D* sont confondues en une
seule droite qui exprime la relation directe de proportionnalité entre les varia¬
tions des deux grandeurs (fig. 103c).
Si, à l’opposé, il n’y a pas de corrélation entre les variations de ces deux
grandeurs, la valeur moyenne de y sera indépendante de la valeur des x ;
elle sera donc la même quelle que soit la valeur prise par x : la droite Dy de
régression de y en x sera donc parallèle à l’axe des x (fig. 103a).
CORRÉLATION STATISTIQUE 159

Réciproquement, la valeur moyenne des x sera indépendante de la valeur


des y et la droite Dx de régression de Jc en y sera parallèle à l’axe des y
(fig. I03«).

y' y y'
Dx y'
Jx
M M M
■ r Y y-
Dy X' ^ x'

X X

Fig. IO.Iw. Fig. IO.Vj. Fig. lO.lr.

Entre ces deux extrêmes, c’est-à-dire lorsqu’il existe une certaine corré¬
lation, il y a deux droites de régression qui font entre elles un angle inférieur
à 90 degrés (fig. 103/>).
Par conséquent, si l’on part de l’absence de corrélation pour aboutir à la
corrélation parfaite, on voit que les deux droites de régression, initialement
parallèles aux axes, tournent autour du point M en se rapprochant l’une de
l'autre pour finalement venir se confondre (fig. I()3«, 103/), l()3(). La conver¬
gence ou la divergence de ces deux droites donne donc un aspect visuel du degré
de liaison entre les deux variables, cette liaison étant d’autant plus étroite que
les deux droites sont plus voisines l’une de l’autre. On pourra donc évaluer
quantitativement le degré de corrélation, à condition de trouver un paramètre
qui renseigne sur la position respective des deux droites. On devine que dans
ce paramètre seront impliquées les pentes respectives de ces deux droites.

Coefficient de corrélation linéaire

On utilise en effet comme paramètre de corrélation le produit ax .Oy - r^


des pentes des deux droites de régression.
r, qui est donc la moyenne géométrique des deux pentes de régression
' est appelé le coefficient de corrélation linéaire.
La relation ax .Oy — r^ peut s’écrire

L.L
rr^
= j!-
2 /t
160 INTERPRÉTATION STATISTIQUE

d’où

r représente donc la covariance p lorsque les deux séries de variables sont


rapportées à leurs écarts types respectifs et .

Cette formulation de r permet d’exprimer les pentes et Oy en fonction


de r.
En effet, de l’expression précédente, on tire p — r . . Oy .
On a donc

et de façon symétrique

Quand il n’y a pas de corrélation, les droites de régression, nous l’avons


vu, sont parallèles aux axes respectivement. On a donc

ûx = 0 et ay = 0,

ce qui implique, d’après les formules (1) et (2) que r = 0.


Quand la corrélation est parfaite, les deux droites de régression sont con¬
fondues. Les pentes sont donc complémentaires (fig. I03f ). On a donc
1

Leur produit Ox . est alors égal à 1 : = 1 et r = +1.


Le coefficient de corrélation peut donc prendre alors deux valeurs, soit
-1-1, soit —1, qui expriment la corrélation parfaite, soit positive (fig. 104rt).
soit négative (fig. I()4^) respectivement.
CORRÉLATION STATISTIQUE 161

Lorsqu’on passe de l’absence de corrélation à la corrélation parfaite,


r varie donc de 0 à +1 ou de 0 à — 1 suivant que la corrélation est positive
ou négative.

y
y'
y 0
M rr
yX y X'
D

XX XX

Fig. 104. — Corrélation parfaite


a) positive ; b) négative.

Les formules (1) et (2) montrent que plus r est petit en valeur absolue,
plus les pentes des droites de régression sont faibles et plus elles seront par
conséquent écartées l’une de l’autre. Inversement, plus r est grand en valeur
absolue, plus les pentes des droites de régression seront grandes, plus ces deux
droites se rapprochent l’une de l’autre jusqu’à se confondre complètement
dans le cas de la corrélation parfaite où | r 1 = 1.
L’étude du paramètre r permet donc bien, conformément au but que l’on
s’était proposé, une évaluation quantitative de la corrélation.

Principe du calcul d’un coefficient de corrélation linéaire

Pour calculer un coefficient de corrélation linéaire, on applique la formule

<7j; .

Il est donc nécessaire de calculer préalablement la covariance

p= (y-ÿ)

ainsi que les écarts types CTx et Oy de la distribution des x et des y. Si les don¬
nées sont peu nombreuses, on peut calculer directement ces divers éléments
qui entrent dans la formule du coefficient de corrélation :

Exemple. — Nous avons constaté précédemment (cf. p. 127) que le taux des corti¬
coïdes urinaires s’élevait avec le poids.
Ceci suggère une corrélation entre le poids et le taux urinaire des corticoïdes.
162 INTERPRÉTATION STATISTIQUE

Proposons-nous de vérifier et d’évaluer cette corrélation sur les 40 sujets précédemment


étudiés dont le tableau ci-dessous (tableau XXII) indique les poids (x) en kg et les taux
urinaires de corticoïdes (y) en mg/24 h.

TABLEAU XXII
Corticoïdes urinaires et poids de 40 sujets de sexe féminin

Poids Corticoïdes Poids Corticoïdes Poids Corticoïdes Poids Corticoïdes


(AT) (» ix) {y) ix) (y) ix) iy)

52 3,3 65 4,3 75 6,4 80 3,3


56 2,5 62 4.8 75 7,6 80 5,4
54 3,0 63 6,3 75 6.6 86 5.7
56 3.4 60 6,5 75 4,5 87 6,5
50 3.7 66 8,7 70 4,6 80 11.5
58 3,5 68 4,5 70 8,0 87 7.5
50 5.2 65 5.2 70 6,3 81 9,3
56 5,2 61 8,5 74 6,8 80 8,0
51 4,0 61 4,5 70 5,7 81 6,0
55 4,0 68 5,8 72 3.2 85 4,7

1° On calcule d'abord et en utilisant à cet effet les formules simplifiées

= -{.xY
n

Z(^^)
t2 ^
■(PY
On trouve
= 2 730 = 191 158
d’où

Z^ 2 730
X = = 68,25
40

x = 68,25
On peut alors calculer

.2 _ , 191 158
-(xY = ——-(68,25)2 ^ 120,8
40
et

CT* = 1 1
CORRÉLATION STATISTIQUE 163

de la même façon, pour y :

X; y = 224 (y2) = 1 406,28

Yy 224
ÿ= ^ = 5,60
n 40

P = 5,60

=4x1 406,28-(5,60)2 = 3,80


n 40
et

= 1,95

2° On calcule ensuite la covariance

P = - Y.^x-x){y-p)

qu’on peut écrire également (2)

P = - Y^x.y-x.p.

On trouve

'Y^xy= 15 663,90
d’où

P = — X 15 663,90 - (68,25 x 5,60) = 9,40

P = 9,40

3° D'où finalement r :

9,40
r = = 0,438
Ox . Oy 11 X l ,95

r =0,438

(2) II suffit de développer le produit en remarquant que

^ -
= X et ly
^ = P
n n
164 INTERPRÉTATION STATISTIQUE

Il existe donc une corrélation assez nette entre le poids et le taux urinaire des
corticoïdes (i).
Nous pouvons également calculer l’équation de la droite de régression.
Le coefficient linéaire de régression est

_ P 9,40
0,077
^ “ 120,80

= 0,077

L’équation de la droite de régression est donc :

Y-P = aAy-x)
c’est-à-dire
y-5,60 = 0,077 (A'-68,25) = 0,077 2r-(0,077 x 68,25)
c’est-à-dire

Y = 0,077 X-fO,35

Nous savons que cette droite


passe par le point central du dia¬
gramme, soit M, de coordonnées
je = 68,25 et ÿ= 5,60. D’autre part
l’ordonnée à l’origine, obtenue pour
A" = 0, est yQ = 0,35. Nous pouvons
donc la tracer (fig. 105).
Cette droite indique que le taux
des corticoïdes urinaires augmente en
moyenne de 0,077 mg, soit un peu
moins d'un dixième de mg, par kg
de poids. Elle permet, pour un poids
donné, « d’estimer » le taux corres¬
pondant de corticoïdes urinaires.
Ainsi, pour une femme de 60 kg, le
taux y des corticoïdes urinaires
devrait être approximativement :

y = 0,077 X 60 4- 0,35 = 4,97 soit ~ 5 mg/24 h (fig. 105).

Données groupées. Tableau de corrélation

Mais pour peu que les données soient nombreuses, il est nécessaire de les
grouper en classes et de les présenter dans un tableau à double entrée, dit

(^) Sous réserve que cette corrélation soit significative comme nous le verrons
plus loin.
CORRÉLATION STATISTIQUE 165

: tableau de corrélation où l’on dispose horizontalement les classes de la distri¬


bution des X et verticalement les classes de la distribution des y.

TABLEAU XXIII
Tableau de corrélation

Poids en kg (j:)
Total
40-44

60-64
50-54

55-59

65-69 (Fy)

70-74

85-89

90-94
OS

95-99
Ov
t 00
V •r» O
r- 00

1,5-2,4 1 1

2,5-3,4 2 3 4 2 1 2 1 1 16

3,5^,4 2 7 10 17 II 3 4 1 2 57
CORTICOÏDES, en mg/24 h (>>)

4,5-5,4 2 11 6 7 11 9 6 1 3 5 1 62

5,5-6,4 1 2 4 10 9 8 10 6 4 3 1 58

6,5-7,4 1 1 1 3 5 5 7 1 2 1 27

7,5-8,4 3 1 1 4 1 4 2 3 1 20

8,5-9,4 1 3 2 2 2 1 11

9,5-10,4 1 1 1 1 1 5

10,5-11,4 2 1 3

11,5-12,4 1 1 2 4

Total 34 35 36 34 34 17 15 9 5 264
5 10 30
(F.)
166 INTERPRÉTATION STATISTIQUE

Le tableau se trouve ainsi divisé en cases à l’intérieur desquelles figure


le nombre de cas, soit Fxy appartenant à la fois aux deux classes correspon¬
dantes. Des colonnes supplémentaires permettent d’effectuer les calculs des
résultats partiels qui rentrent dans la formule du coefficient de corrélation.

Exemple. — En confrontant le poids et le taux des corticoïdes urinaires chez


264 femmes, on a obtenu le tableau de corrélation suivant (tableau XXllI).
On voit que, dans ce tableau, la distribution des poids est sous-distribuée verti¬
calement suivant le taux des corticoïdes urinaires.
Inversement, la distribution des taux des corticoïdes urinaires est sous-distribuée
horizontalement suivant le poids.
En totalisant les effectifs des cases sur une même ligne horizontale, on obtient
successivement de haut en bas les effectifs des diverses classes de y, soit Fy, indiqués
dans la colonne de droite.
En totalisant les effectifs des cases sur une même colonne verticale, on obtient
successivement de gauche à droite les effectifs des diverses classes de x, soit ,
totalisés dans la ligne du bas.
Bien entendu la somme de ces effectifs donne, dans un cas comme dans l’autre,
l’effectif global n représentant le nombre de couples de valeurs x et y, soit ici 264,
que l’on retrouve en bas et à droite du tableau.
Pour calculer les éléments du coefficient de relation, il faut d’abord calculer les
moyennes et les variances de chaque distribution.
Les données étant groupées en classes, les formules à utiliser sont, en appelant X le
point médian de la classe et A la moyenne provisoire,
— pour la moyenne (cf. p. 23)

X = A+-TF:,{X-A)
n
— pour la variance (cf. p. 25)

= \iY.^AX-aÿ-{x-aÿ
de même pour Y, avec une moyenne provisoire B

^=B+‘iYFy{Y-B)
et

Il est donc nécessaire de compléter le tableau de corrélation par des colonnes et


des lignes fournissant les divers éléments de ces calculs, à savoir (X — A) (Y —B)
(X-A)2, (Ÿ-B)2.
Faisons-le en repérant les classes par leurs points médians, respectivement pour
les X et pour les y, et choisissons pour moyenne provisoire des x : A = 67 et pour
moyenne provisoire des y : B = 1.
On obtient le tableau suivant (tableau XXIV) ;
TABLEAU XXIV
Tableau de corrélation

1 !
42 47 52 57 1 62 72 77 82 87 92 97

3'^
a-À
1

<<a-ÀYj
ziS-AYJ

<N
*r\

-
25

(N
(N
(N
-
-64 256

O
ro
<N

-
r*
fO
-171 513

<s
-
On

nO
h'
-
<s

VO
-
w->
-
>o
-124 248
CORRÉLATION STATISTIQUE

1
1

CS
00

O
o\
O
00

sO
ro
00
W-)

-
58

-
-
-

S
CS

v->
-
<s
O
O
O

00
-
-
CS

s-
CS
O

-
+

+20 20

O
-
CS
CS

CO
CS
-
CS
?

4-

+ 22

O
-
-
-
fO

-
•O
4-

+ 15 45

CS
CO

+4 + 12 48

CS
-
CS
CS
O

»r>
+
4-

100

*o
ro
sO
•O
Os
<o

10 30 34 35 34 34 264 -333 1 357

1
1

7
7
VS
O
VS

VS
O
O
VS

+
CS

+
4-

-25 -20 + 15 +20 + 30

1
!
S*
VS
O
O
-125 -200 -340 -175 + 170 + 340 +255 + 300 + 225 + 150 + 150

<N

1
O

tC
'iw'
3 125 4000 6 750 3 400 875 850 3400 3 825 6 000 5 625 4 500 42 350
167
168 INTERPRÉTATION STATISTIQUE

En faisant les totaux des lignes et des colonnes, on obtient donc respectivement

= +150 et = 42 350

= -333 et ^Fj,.(y-5)2= 1357


On peut donc calculer

^=/l+l^F^.(A'-+) = 67+^ =67.57

X = 67,57

et
1
= =5.74

Ÿ = 5,74
ainsi que

= \ Y.Pz-{X-AŸ-{X-AŸ = -(67,57-67,0)2 = 160,09


et
= 7160,09 = 12,69

j = 12,69
de même

-(5,74-7)2 = 3,55
et
Oy = = 1,88.

Oy = 1,88

Reste à calculer la covariance

P =

On montre que dans le cas de données groupées, avec utilisation de moyenne


provisoire, cette formule devient

P= ^'LPxv(X-A)iY-B)-X.Ÿ

^xv représente 1 effectif commun des x et des y, c’est-à-dire le nombre qui figure
CORRÉLATION STATISTIQUE 169

dans les cases du tableau de corrélation, et y étant les points médians des classes
et A et B les moyennes provisoires, respectivement pour les x et les y.
Il faut donc calculer pour chaque case du tableau de corrélation le produit
(X — A) (Y — B). Tous les éléments de ce produit sont déjà dans le tableau de
corrélation ; est le nombre qui figure dans la case, (X — A) et (Y —B) sont donnés
par la colonne et la ligne correspondante.
Ainsi, pour la case de coordonnées AT = 42 et y = 3 on a F^ = 2,iX — A)= — 25
et (y — B) = — 4. On effectue donc le produit {X — A) {Y —B), soit — 25 x — 4 = +100,
qu’il suffit de multiplier par F^, soit 2, ce qui donne F^ (X — A)(Y — B) = 200.
En pratique, il est commode d’écrire F^ soit ici 2, en haut et à gauche de la
case, le produit (X — A) {Y —B), soit ici 100, en haut et à droite de la case, et le
produit F^{X — A){Y — B), soit ici 200, à la partie inférieure :

2 X + 100

200

On procède ainsi pour chacune des cases du tableau de corrélation et l’on obtient
autant de produits F^ (X — A) (Y —B), dont il reste à faire la somme, ce qui se fait en
additionnant par exemple verticalement tous les chiffres d’une même colonne, puis
horizontalement, tous les totaux de colonnes ainsi obtenues, en tenant compte des signes.
On obtient ici
Y^F^^(X-A){Y-B) = 2 443.
D’où

^-(67,57 x5,74) = 11,24.

Donc

P = 11,24

Nous disposons maintenant de tous les éléments du calcul de r :

11,24
r = 0.471
12,69 X 1,88

r = 0.471

Nous pouvons également déterminer l’équation de la droite de régression ; Le coef¬


ficient de régression est
11,24
0,070.
160,09

12
170 INTERPRÉTATION STATISTIQUE

L’équation de la droite de régression est donc

Y-P = a^iX-x).
C’est-à-dire
y-5,74 = 0,070 (X-67,57)

Y = 0,070 X-(0,070 X 67,57) -f- 5,74


d’où

y = 0,070 A'-l-1,01

Elle diffère donc légèrement de la droite obtenue précédemment avec un petit


nombre de données (fig. 106).
Elle indique que le taux des corticoïdes urinaires augmente en moyenne de
0,070 mg par kg de poids (au lieu de 0,077), à partir d’une ordonnée à l’origine de
1,01 mg (au lieu de 0,35).
Pour un poids de 60 kg on obtient Y = 0,070 x 60 + 1,01 = 5,21 mg/24 h (au lieu
de 4,97 précédemment).

Sécurité d'un coefficient de corrélation

Comme pour tout paramètre statistique, le coefficient de corrélation r


ainsi calculé à partir d’un échantillon d’effectif limité est affecté par les fluc¬
tuations d’échantillonnage et il ne représente qu’une estimation du coefficient
de corrélation réel p que l’on aurait trouvé dans la population d’origine.
CORRÉLATION STATISTIQUE 171

Il est donc nécessaire de préciser les limites de sécurité de cette estima¬


tion, c’est-à-dire les limites de l’intervalle de confiance de ce paramètre.
Comme toujours ces limites sont définies à partir de la distribution
d’échantillonnage du paramètre envisagé. Pour le coeflScient de corrélation,
on montre que, dans le cas d’un échantillonnage d’effectif suffisamment élevé,
cette distribution d’échantillonnage peut être considérée comme pratiquement
normale autour de la valeur estimée r* qui a été trouvée dans l’échantillon,
avec un écart standard Sr qui vaut

Sf = —- ■ * ~ —

sJn-\ yj n

n étant le nombre de couples de valeurs x et y.


L’intervalle de confiance du coefficient est donc re±2sr au coefficient
de sécurité de 95 % et re±2,6Sr au coefficient de sécurité de 99 %.
Comme pour les moyennes, les résultats sont généralement présentés
sous la forme r±5r et on laisse au lecteur le soin de déterminer lui-même
l’intervalle de confiance suivant le degré de sécurité choisi.

Exemple. — Calculons les limites de l’intervalle de confiance du coefficient de


corrélation r = 0,471 trouvé dans l’exemple précédent :
On a :
1-r^ 1-(0,471)^
= 0,048 .
y/n — 1 y/264^

Les limites de l’intervalle de confiance du coefficient trouvé sont donc


0,471+2x0,048, soit 0,375 à 0,567 au seuil de 95% et 0,471+2,6x0,048 soit
0,346 à 0,596 au seuil de 99 %.

Ces limites sont donc assez larges. Cela tient à ce que nous sommes à la
limite d’application de ce procédé. Pour que la distribution de r puisse être
considérée comme normale il faut en effet qu’il y ait au moins 250 à
300 couples de valeurs, et davantage si r est sensiblement différent de 0,5.

Cas d’un petit échantillon

Lorsque l’échantillon est relativement limité (en pratique inférieur à 300)


la distribution d’échantillonnage du coefficient r ne peut plus être assimilée
à une distribution normale et la méthode ci-dessus n’est plus utilisable. 11 en
est de même dans les cas où le coefficient de corrélation est voisin de 1. En
effet, si la vraie valeur de r est par exemple 0,95, les déviations positives ne
172 INTERPRÉTATION STATISTIQUE

peuvent dépasser 0,05, alors que les déviations négatives peuvent être beau¬
coup plus importantes. Il en résulte que la distribution est trop dissymétrique
pour pouvoir être assimilée à une distribution normale.
On recourt alors à un paramètre intermédiaire, désigné par la lettre z,
dit paramètre de corrélation transformée, qui est lié à r par la relation
l+r
Z =
l-r '
La distribution d’échantilloimage de ce paramètre z est une distribution
normale autour d’une valeur Ze correspondant à , avec une erreur standard
1
-7=f

En pratique, des tables dont on trouvera un extrait p. 216 permettent de


lire directement, sans avoir à les calculer, les valeurs de z correspondant à r
et inversement.
Il suflSt donc de chercher la valeur Ze de z qui correspond à , et de cal¬
culer ensuite par la formule ci-dessus les limites de l’intervalle de confiance
de Ze.
On revient alors à celles de r en lisant dans les tables les valeurs de r
correspondant aux limites trouvées pour z.

Exemple. — Calculons les limites de l'intervalle de confiance du coefficient de


corrélation r = 0,438 trouvé dans notre premier exemple qui comportait seulement
n = 40 couples de valeurs.
La table X page 216 indique que pour r = 0,44 (entre 0,42 et 0,46) on a
z = 0,475 (entre 0,45 et 0,50).
Par ailleurs on a
1
Se = 0,164.
^n-3 V4Ô^
Les limites de confiance de z sont donc, au coefficient de sécurité de 95 % :

z±2 = 0,475 ±2 X 0,164, soit 0,147 à 0,803.


et au coefficient de sécurité de 99 % :

z±2,6s^ = 0,475±2,6x0,164, soit 0,049 à 0,901.

La table indique que ces valeurs limites de z correspondent pour r respectivement à

0,149-0,664 et 0,050-0,716.

On voit que les intervalles de confiance sont encore plus étendus quand l’effectif
est petit.
CORRÉLATION STATISTIQUE 173

Corrélation significativement différente de zéro

Dans bien des cas en biologie on désire simplement savoir s’il existe
ou non une corrélation entre deux phénomènes étudiés, sans être intéressé
par la valeur exacte du coefficient de corrélation.
Le fait de trouver un coefficient de corrélation différent de zéro, il
importe de le souligner, ne signifie pas forcément qu’il existe effectivement
vme corrélation. En effet, même dans le cas où il n’y aurait pas de corrélation
et où le coefficient réel serait égal à zéro, le coefficient trouvé serait cependant
différent de zéro en raison des inévitables fluctuations d’échantillonnage.
Avant d’admettre l’existence d’une corrélation, il faut donc prouver que le
chiffre trouvé ne peut s’expliquer simplement par les fluctuations d’échantil¬
lonnage, donc que le coefficient de corrélation trouvé diffère significativement
de zéro.
On montre que, dans une population de deux séries de valeurs où la
corrélation est nulle, le coefficient de corrélation est distribué normalement
1
autour de zéro avec une erreur standard sq égale à , . qui représente la
yjn— 1
valeur prise par Sr pour r = 0

1
5o=

On pourra donc dire que la valeur r* trouvée pour r est significativement


2
différente de zéro si r* est supérieur à 2 , c’est-à-dire à ---. au seuil
y/n - 1
2 ^
de sécurité de 95 % et à 2.6 So, c’est-à-dire à ’ ^ au seuil de sécurité
•^n-l
de 99 %.

Ainsi, pour le coefficient de corrélation r = 0,471 trouvé dans notre deuxième


exemple, le seuil de signification serait

2
à 95 % =0,122
^264-1

et
2,6 2,6
à 99 % : = 0,159
^n-1 7264^
174 INTERPRÉTATION STATISTIQUE

Pour des échantillons d’effectif ^ 100, la distribution du coefficient de


corrélation pour une corrélation nulle n’est plus normale et le raisonnement
ci-dessus n’est plus valable. Toutefois, pour les valeurs de n inférieures à 100,
Fisher a établi des tables, dont on trouvera un extrait p. 217, donnant direc¬
tement en fonction de n (et plus précisément du degré de liberté qui est ici
V — n —2) les valeurs correspondantes de 2 et 2,6 i'o . Pour savoir si le
coefficient de corrélation trouvé diffère significativement de zéro, il suffît donc
de regarder s’il est supérieur à ces valeurs.

Exemple. — Vérifions que le coefficient de corrélation r = 0,438 trouvé dans notre


premier exemple est bien significativement différent de zéro.
Pour V = n — 2 = 40 — 2 = 38, la table de la page 217 indique (*) comme limites
de signification : au coefficient de 95 % : 0,312 et au coefficient de 99 % : 0,406.
Le coefficient trouvé est donc là aussi significatif même au seuil de 99 %.

Erreur type estimation

La droite d’estimation exprime seulement la tendance centrale de l’esti¬


mation de la variable correspondante, y par exemple pour la droite d’estima¬
tion de y en x.
Mais, comme toujours, il y a intérêt à associer à la connaissance de la
tendance centrale un indice qui renseigne sur la o dispersion » correspondante.
Ici, cette « dispersion » de l’estimation est représentée par les écarts des
points du diagramme par rapport à la droite d’estimation correspondante.
Plus précisément, elle sera évaluée par la somme, rapportée à leur

nombre, des carrés des écarts à la droite d’estimation de y, soit — Y ,


n ^
c’est-à-dire la variance des résidus par rapport à la droite d’estimation de y.
que nous symboliserons

On montre que
Y^dl = n.al{\-r^) (^).

(M II faut interpoler entre les valeurs données pour v = 40 et v = 35.


(2) En effet, nous avons vu que

(1)

[Voir suite de la note p. 175.)


CORRÉLATION STATISTIQUE 175

On a donc

La racine carrée de la variance des résidus, soit

Say = <Ty^ l-r^

peut être considérée comme l’écart type de cette distribution des résidus par
rapport à la droite D.
Si l’on admet que cette distribution est gaus¬
sienne (^), en traçant deux parallèles à la
droite D situées à une distance égale à Say (mesu¬
rée verticalement) de part et d’autre de celle-ci,
on doit englober environ 68 p. 100 des données,
c’est-à-dire des points du diagramme de distribu-
Fici. 107. lion (fig. 107).

(Suite de la note de la p. 174.)

Par ailleurs de la formule de , on déduit que


Yx'y' = =a. n. O.X •
L’expression (I) devient alors

n.al-2al.n.al+al. n. ai
c’est-à-dire
n[al-al.al].
Mais a, peut s’exprimer en fonction de r :

a^ = r. .
Ox
II vient donc finalement :

Y^dl = n[al-r^ . al] = n.a^Cl-r^).

Q) Ce qui revient à admettre que les variations de y autres que celles qui sont
conunandées directement par les variations de x sont normalement distribuées, ce qui
implique qu'elles sont liées à des causes nombreuses, indépendantes et dont les effets
sont du même ordre de grandeur.
25 35 45 55 65
Volume globulaire en centièmes de mrnymm^
de sang total
Cet écart type, encore appelé erreur type d’estimation de y, est souvent
utilisé pour visualiser les limites de l’estimation d’une variable à partir de la
droite d’estimation correspondante (fig. 108).

Fig. 109.

Roids (Hg)
La formule de montre que S^y est d’autant plus petit, donc que la
bande ainsi déterminée est d’autant plus étroite, que se rapprochera de 1.
Pour = 1, c’est-à-dire r = ± 1, Sdy = 0, la bande se réduit à la ligne sans
épaisseur de la corrélation parfaite.
CORRÉLATION STATISTIQUE 177

Le tracé d’une droite d’estimation doit donc toujours s’accompagner du


calcul de l’erreur type d’estimation qui permet d’en préciser la signification.

Ainsi pour la droite d'estimation que nous avons étudiée dans notre premier
exemple, on trouve _
^dy = oy = 1,95 ^1 -(0,438)2 = 1,75

d’où le diagramme correspondant (fig. 109).

Indice de précision
On définit bien entendu de la même façon une dispersion des résidus par rapport
à la droite de régression de x en >

Hx = (l-H).
Les formules 5^^ et peuvent encore s'écrire

^dy = aX2 •
Sous cette forme, on voit que la variance des résidus est égale à la variance de la
variable correspondante amputée d'une fraction de cette variance qui est proportion¬
nelle à r^.
Plus r2 sera élevé, plus cette fraction sera importante, donc plus la dispersion
des résidus sera faible, donc plus grand sera le gain de précision obtenu par le recours
à la droite d’estimation.
C’est pourquoi le coefficient r^, qui n’est autre que le carré du coefficient de corré¬
lation, est encore appelé indice de précision.
Ces formules peuvent encore s’écrire :

Il apparaît ainsi que la dispersion d’une variable dépendante, par exemple y.


comporte deux éléments : l’un qui correspond à la dispersion d’estimation et qui
représente l'incidence globale de toutes les variations de y qui sont indépendantes de x.
l’autre r^ cty , qui représente la partie de la dispersion de y qui est liée aux variations
de X.
L’indice de précision indique donc dans quelle mesure la variable indépendante x
influence la variable dépendante y. Un indice de précision de 0,60 par exemple, signifie
que 60 % des modifications de y s’expliquent par celles de x.
Au maximum, quand _ 1, ou 100 %, cela veut dire que 100 % des modifications
de y s’expliquent par celles de x et réciproquement.
En effet, on a alors : 5^^ = 0, ce qui implique que tous les résidus sont nuis,
donc tous les points sont situés sur la droite de régression de y en .x.
Mais il en est de même pour 5^^ et tous les points doivent se trouver également
sur la droite de régression de x en y, ce qui implique que ces deux droites sont confon¬
dues, comme nous le savions déjà.
Inversement, quand r = 0, S'^y devient égal à ^ ^dx à al. ce qui implique que
les droites de régression se confondent respectivement avec les axes Mx' et My' : les
variations d’une variable sont alors totalement indépendantes de l’autre.
178 INTERPRÉTATION STATISTIQUE

Corrélation non linéaire


Nous n’avons envisagé jusqu’ici que le cas simple, mais en pratique fré¬
quent, de la corrélation linéaire, c’est-à-dire où les lignes de régression peuvent
être assimilées à des droites.
Lorsqu’il n’en est pas ainsi, on peut, dans certains cas, à l’aide d’une
transformation simple, s’arranger pour retomber sur une loi linéaire.
C’est le cas en particulier lorsque la courbe de régression suit une loi
exponentielle ou logarithmique, comme cela se rencontre souvent en biologie,
soit dans les problèmes de croissance (loi
d’allométrie), soit dans les problèmes des
relations effet/dose.
On sait en effet que ces fonctions
peuvent se mettre facilement sous forme
linéaire.
Lorsque cette transformation n’est pas
possible, mais que l’aspect du nuage de dis¬
persion suggère, par le groupement des
points, la possibilité d’une corrélation, on
Fig. 110.
peut encore préciser l’existence de cette cor¬
rélation, dite alors « non linéaire » et même en donner une expression quan¬
titative.
En effet, en procédant comme nous l’avons fait pour établir la ligne de régression,
on peut toujours tracer une courbe de régression des y en x, qui est dite courbe des
moyennes des y (ffg. 110).
Nous pouvons ensuite, comme pour la corrélation linéaire, déterminer la somme
des carrés des résidus par rapport à cette courbe, somme que nous symboliserons

L’écart 5^^ peut alors être considéré comme une erreur type d’estimation, comme
précédemment .
Par analogie avec ce que nous avons vu pour la régression linéaire, nous pouvons
écrire que cette dispersion évaluée par rapport à la courbe de régression est égale à la
dispersion globale soit diminuée d’une fraction ^2 de cette dispersion, » étant
un nombre pur analogue à r. "

On voit alors que si r}y = 0, = a y ; la meilleure estimation de y est alors indé¬


pendante de x : il n’y a pas de corrélation. Si, au contraire = 1, = 0 : tous les
points du nuage sont sur la courbe des moyennes, il y a corrélation parfaite, c’est-à-dire
dépendance fonctionnelle de y par rapport à x et inversement.
CORRÉLATION STATISTIQUE 179

ril, qui varie entre 0 et 1, c’est-à-dire entre 0 et 100 %, est appelé f rapport empi¬
rique de corrélation de y en x ». Il indique, comme r^, le pourcentage de la variance
des y qui est expliqué par les variations de x. On peut montrer que est toujours
supérieur ou au moins égal à (i). *'
Il en résulte que la quantité r)l— r^ peut être utilisée pour évaluer la linéarité de la
régression de y par rapport à x : si tjJ _ ;.2 ^ q régression peut être considérée comme
linéaire.
De la même façon, on peut définir un nombre rjx tel que

Le nombre également compris entre 0 et 1, est le rapport empirique de corré¬


lation de X en y. On a également
ni > r2
et la différence rj^—r^ peut servir à mesurer la linéarité de la régression de x par
rapport à y.

Corrélation multiple. Corrélation partielle

Jusqu’à maintenant, nous n’avons étudié que la liaison entre deux


variables. Certains phénomènes peuvent cependant mettre en jeu un plus
grand nombre de variables ; ainsi le poids peut être lié à la taille, mais égale¬
ment à l’âge. La corrélation entre plus de deux variables est dite corrélation
multiple.
Dans le cas de trois variables, x, y, z (représentant, par exemple . le
poids, la taille et l’âge d’un groupe de sujets), chaque sujet peut être repré¬
senté par un point dans un système de coordonnées trirectangulaires Ox, Oy,
Oz : on obtient ainsi un nuage statistique dans l’espace (fig. 111).
Par analogie avec ce qui se passe pour
la corrélation simple, on peut définir un
point central du nuage de points, dont les
coordonnées sont représentées par les
moyennes x,ÿ tt z dans chacune des distri¬
butions.
Chacune des trois distributions peut
être groupée en classes et en raison¬
nant comme précédemment, on montre Fig. 111.
qu’on peut individualiser non plus une

(*) En effet, la somme des déviations par rapport à la moyenne étant un minimum,
est toujours inférieur ou au plus égal à 5^2 .
180 INTERPRÉTATION STATISTIQUE

droite, mais un plan de régression de l’une des variables, par exemple z,


par rapport aux deux autres, c’est-à-dire x et y. Ce plan passe par le point
central du nuage et il est tel que la somme des carrés des résidus par rapport
à ce plan soit minimum.
On peut alors définir un coefficient de corrélation, dit coefficient de corré¬
lation multiple de z par rapport à x, y, symbolisé r^, xy.
Bien entendu, on définit de manière analogue un coefficient de corrélation
multiple de x par rapport à yz, symbolisé r,, yz et un coefficient de corré¬
lation multiple de y par rapport à xz symbolisé /•„, xz.
On montre que ces coeflBcients de corrélation multiple peuvent s’exprimer
en fonction des coefficients de corrélation simple correspondants r^^, r^z. fxz •
Dans le cas d’une corrélation multiple, on peut enfin se proposer d’étudier
une liaison entre deux variables pour une valeur donnée de la troisième, par
exemple la corrélation entre la taille et le poids pour des sujets d’âge donné.
Le coefficient de corrélation correspondant, par exemple entre x et y pour une
valeur Zo de z, est appelé coefficient de corrélation partielle de x et y et on le
symbolise rxy , Zq .

Analyse factorielle et classification automatique

Lorsqu’il existe un grand nombre de variables on peut être amené à


recourir k l’analyse factorielle.
Comme son nom l’indique, celle-ci a pour but de mettre à jour les
différents facteurs qui concourent à la détermination d’un phénomène.
Par exemple le poids d’un sujet est fonction de sa taille, de son âge,
mais aussi de son sexe, de sa morphologie, etc. Toutefois, parmi les in¬
dividus d’une taille donnée, le poids varie moins que dans l’ensemble de la
population : on dit que fixer la taille “réduit la dispersion’’ du poids. L’ana¬
lyse factorielle consiste à chercher le caractère dont la fixation réduit le
plus la dispersion du poids, ce sera le premier facteur, puis à chercher un
second caractère qui, lorsque le premier est déjà fixé et qu’on le fixe à son
tour, réduit encore le plus possible cette dispersion, ce sera le second fac¬
teur, et ainsi de suite. Une fois qu’on a bien précisé ce qu’on entend par
“réduire le plus possible la dispersion” tout le problème est de savoir parmi
quels caractères on va chercher le facteur. On ne peut évidemment le faire
que parmi ceux qui se déduisent des renseignements qu’on possède sur les
individus étudiés. Cela posé, il demeure un large arbitraire sur la classe des
CORRÉLATION STATISTIQUE 181

caractères pouvant jouer le rôle de facteur. On réduit cet arbitraire de son


mieux et on laisse à l’ordinateur le soin de trouver lui-méme des facteurs
dans la classe restante de caractères. Mais l’ordinateur ne dira pas ce que
concrètement ils veulent dire et l’interprétation des résultats de son calcul
est laissée à l’imagination et au jugement du chercheur.
Ce qui vient d’être dit d’un caractère unique, dont l’exemple était
ici le poids d’un individu, s’étend aisément à une famille de caractères.
On cherche les facteurs qui réduisent le plus la somme des dispersions des
caractères de la famille, ou plus généralement une “dispersion totale’’ qu’on
aura définie comme une certaine fonction bien choisie des dispersions. Si
la famille de caractères considérée est nombreuse, on voit alors que trouver
des facteurs, c’est trouver des caractères, peu nombreux, dont la fixation
simultanée réduit le plus possible les dispersions d’autres caractères, beau¬
coup plus nombreux. En pratique, les facteurs sont des caractères latents
peu nombreux dont la donnée fixe à peu près les nombreux caractères
patents directement observés. Tout se passe donc comme si la variation
de ces derniers, d’un individu à l’autre, était l’effet de la variation des
facteurs choisis.
Parente de l’analyse factorielle, la classification automatique part
d’un indice mesurant le plus ou moins de ressemblance entre eux des in¬
dividus d’une population. Il faut évidemment savoir bien choisir cet indice.
L’ordinateur cherche à répartir les individus en catégories distinctes de façon
que chacun ressemble plus à ceux de sa catégorie qu’aux autres. Il restera
à trouver un sens à ces catégories.
Souvent on a à étudier une collection d’individus sans savoir quels
sont les caractères essentiels, profonds, fondamentaux, dont les variations
les distinguent les uns des autres. On peut alors se contenter de décrire
ces individus par des caractères apparents, faciles à observer, même s’ils
sont secondaires et superficiels, pourvu qu’ils soient assez nombreux
et qu’ils varient suffisamment lorsque varient les caractères essentiels in¬
connus. Opérant sur ces caractères superficiels, l’analyse factorielle et la
classification automatique peuvent permettre de trouver derrière ces der¬
niers les caractères essentiels.
Il faut enfin noter que si ces techniques statistiques se comprennent
plus aisément dans les cas où les caractères observés sont quantitatifs, elles
s’étendent également aux cas où Ton a affaire à des caractères quahtatifs
dont l’association est étudiée au chapitre suivant.
CHAPITRE XVII

ASSOCIATION
ENTRE CARACTÈRES QUALITATIFS

Nous avons étudié jusqu’ici la corrélation entre caractères quantitatifs.


Le problème est tout à fait différent lorsqu’il s’agit de caractères quali¬
tatifs. On peut se demander, en effet, s’il existe une association entre deux
caractères qualitatifs appartenant à une même population, ou si ces deux
caractères sont indépendants l’un de l’autre. Dans la première éventualité, on
les rencontrera ensemble dans une proportion importante de cas. Au contraire,
si les deux caractères sont indépendants, la proportion des cas où ils sont
associés ne différera pas sensiblement de ceux où ils ne le sont pas.
Ainsi, après une vaccination, si l’on observe une proportion plus faible
de sujets qui n’ont pas contracté la maladie (c’est-à-dire une proportion plus
grande de sujets immunisés) dans le groupe de sujets vaccinés que dans un
groupe comparable de sujets non vaccinés, on pourra dire qu’il y a association
entre le caractère a vacciné » et le caractère a immunisé » et l’on conclura à
l’efficacité de la vaccination. Si, au contraire, les proportions sont identiques
entre les deux groupes, c’est que les caractères sont indépendants ; la vaccina¬
tion a été inefficace.
Toutefois, en raison des fluctuations fortuites d’échantillonnage, même si
les caractères sont réellement indépendants, les proportions ne seront pas
exactement semblables dans les deux groupes et les caractères se trouveront
associés dans une certaine proportion de cas. Le problème se pose donc de
déterminer dans quelle mesure la proportion d’association observée est signi¬
ficative.
Il s’agit donc, en fait, non pas d’un problème de corrélation, mais d’un
problème de comparaison et plus précisément de comparaison de pourcen¬
tages. Ce problème pourrait donc être résolu suivant la méthode habituelle
par l’étude de la différence entre le pourcentage observé et le pourcentage
théorique correspondant à l’hypothèse de l’indépendance des caractères
observés.
ASSOCIATION ENTRE CARACTÈRES QUALITATIFS 183

Il existe cependant une méthode plus générale qui a l’avantage d’être


applicable au cas où l’un des deux caractères (ou même les deux) existe sous
plus de deux états différents (par exemple : couleur des yeux, bleus, gris,
marron, d’une part et couleur des cheveux, blonds, châtains, bruns, d’autre
part). Elle consiste à utiliser le test du x^-
En effet, tester l’association de deux caractères revient à comparer la
série des fréquences observées pour les différentes catégories distinguées aux
fréquences théoriques que l’on aurait pu observer pour ces mêmes catégories
sous la seule influence du hasard.
On calculera donc d’abord pour les différentes catégories les fréquences
théoriques respectives correspondant à l’indépendance rigoureuse des deux
caractères. On obtient ainsi une distribution théorique que l’on comparera
ensuite à l’aide du x^ ^^ec la distribution des fréquences qui ont été réelle¬
ment observées pour ces mêmes catégories.

Exemple Q). — Après une vaccination, l’étude des sujets ayant ou n’ayant pas
contracté la maladie a donné les résultats indiqués dans le tableau suivant dit « tableau
de contingence 2x2» (tableau XXV).

TABLEAU XXV

NM'*' M>*» totaux

NV'*' 603 117 720

Y**! 695 95 790

totaux 1 298 212 1 510

(•) M = Malades. NM = Non malades. V = Vaccinés, NV = Non vaccinés.

Si la vaccination avait été inefficace (hypothèse d’indépendance), on aurait dû


trouver une proportion de malades et de non malades identique dans les deux groupes
« vaccinés » et « non vaccinés » et, par suite, dans l’ensemble des sujets étudiés. Dans ces
conditions la proportion fournie par la colonne de droite entre le nombre de sujets
vaccinés et non vaccinés doit se retrouver dans chacune des colonnes.

(1) Emprunté à A. Monjallon, Introduction à la Méthode statistique, Vuibert, Paris,


1961.
184 INTERPRÉTATION STATISTIQUE

C’est ainsi que la proportion théorique des sujets « vaccinés-non malades » doit
être les 790/1 510 du total des sujets non malades, c’est-à-dire :
790
1298 = 679.
1 510

De même, la proportion des sujets « non vaccinés-non malades » doit être les
720/1 510 du total des sujets non malades, c’est-à-dire

720
. 1 298 = 619.
1 510

On est ainsi conduit au tableau des effectifs théoriques suivants (tableau XXVI).

TABLEAU XXVI

NM M totaux

NV 619 101 720

V 679 111 790

totaux 1 298 212 1 510

Dès lors le s'établit de la façon suivante ;

- (603-619)^ , (117-101)^ , (695-679)^ , (95-111)^


^ 619 ■ 101 679 111 ■

Pour interpréter ce résultat à l’aide de la table du *1 faut connaître le degré


de liberté. On montre que, pour un tableau de L lignes et de C colonnes, le degré
de liberté est donné par la formule :

(L— 1) X (C— 1) c’est-à-dire ici ; (2— 1) (2— 1) = I.

La table du montre que pour un degré de liberté la valeur limite du x^


à P(,_o5 3,84. La valeur trouvée 5,61 pour le x^ est donc nettement supérieure. Il y a
donc très peu de chances que l’écart observé avec la distribution théorique soit le fait
du hasard, l’hypothèse d'inefficacité de la vaccination doit donc être rejetée.
CHAPITRE XVIII

STATISTIQUES PROSPECTIVES
ET STATISTIQUES RETROSPECTIVES

Incertitude, ô mes délices


Vous et moi nous nous en allons
Comme s’en vont les écrevisses
A reculons, à reculons.
(Apollinaire).

Compte tenu des objectifs de ce petit livre, il paraît utile de dire ici
quelques mots d’une variété de statistiques que l’on peut être amené à
rencontrer en médecine, et plus particulièrement en épidémiologie, à savoir
les statistiques rétrospectives.
Supposons que l’on désire savoir si les thromboses observées chez des
femmes sous « pilule » sont, ou non, attribuables à cette dernière. Pour
répondre correctement à cette question, il faut constituer au départ 2 grou¬
pes de patientes, les unes prenant (groupe « traité ») et les autres ne
prenant pas (groupe « témoin ») la pilule. Au bout d’un certain temps (« à
l’arrivée »), on arrête l’expérience et l’on recherche dans chacun de ces
groupes qu’elle a été l’incidence de l’effet (thrombose) auquel on s’inté¬
resse. S’il apparaît que cette incidence est «significativement » plus grande
chez les sujets traités que chez les témoins, alors on est en droit d’incri¬
miner la responsabilité du facteur en question (la « pilule ») dans l’appari¬
tion de l’effet étudié (thrombose). C’est ainsi que procèdent les statistiques,
dites « prospectives », usuelles (fig. 112).
Il en va tout autrement avec les statistiques dites « rétrospectives ».
Dans ce cas, en effet, on étudie des patientes ayant déjà présenté l’accident
en question (thrombose) et l’on recherche par une enquête rétrospective
(d’où la terminologie) quelle a été, chez ces patientes non pas l’incidence du
trouble (qui est de 100 % dans ce groupe) mais la proportion des utilisa¬
trices de pilule. Cela fait, et dans une optique de comparaison, on constitue
un groupe « témoin ». A cet effet, dans la très vaste population de sujets
n’ayant pas présenté l’accident en question, on sélectionne, selon des critères
que l’on se donne arbitrairement, par exemple même tranche d’âge, même
statut familial, mêmes conditions d’habitation, etc., un certain nombre de

13
186 INTERPRÉTATION STATISTIQUE

sujets que l’on « apparie » aux sujets correspondants du groupe étudié, et


l’on recherche également quelle a été, dans ce groupe, étiqueté « témoin »,
la proportion des utilisatrices de « pilule ». S’il apparaît que cette pro¬
portion est significativement plus grande dans le groupe étudié (avec accident)
que dans le groupe « témoin » (sans accident), on en déduit que la pilule
est un « facteur de risque » (fig. 112), au sens épidémiologique du terme,
pour l’effet en question, c’est-à-dire qu’elle pourrait multiplier par un facteur
que l’on peut calculer le « risque » de présenter l’accident en question.
Toutefois, il faut bien comprendre que cela n’implique nullement la
responsabilité du facteur en cause : s’il y a plus d’amateurs de chewing-gum
dans un groupe de sujets atteints de cancer de la langue que dans le groupe
témoin, on ne saurait pour autant en déduire que le chewing-gum est
« responsable » du cancer de la langue !
Ces statistiques rétrospectives, il faut le savoir, permettent seulement
de formuler une hypothèse. En aucun cas elles ne sauraient prétendre avoir
une valeur de preuve (’).
La démarche adoptée dans ce type de statistiques expose à de nombreux
biais méthodologiques (2). A titre d’exemple, nous allons démonter le mé¬
canisme d’un biais méthodologique qui a été mis en évidence par Horwitz
et Feinstein O^) dans la détermination du risque de cancer de l’endomètre
attribué au traitement oestrogénique de la ménopause.
Pour comprendre le mécanisme de ce biais, il faut rappeler le mode de calcul
du « risque » dans ce type d’étude : soit a et a' le nombre de sujets ayant reçu des
œstrogènes, respectivement chez les sujets atteints et chez les témoins, et 6 et 6' le
nombre de sujets n’ayant pas eu d’œstrogènes, respectivement dans le groupe cancer
et dans le groupe témoin.
cancer témoins
œstrogènes . a'
pas d’œstrogènes . b b'

Le « rapport de risque » R est mesuré par le rapport des « taux d’exposition » respec¬
tifs a/b et a'/b' dans le groupe « cancer » et dans le groupe « témoin » :

a a'
R = —: —
b b'

Pour que ce calcul soit valable statistiquement, il faut que les quatre groupes
a, a', b, b' aient la même probabilité d’être hospitalisés. Or, l’administration d’œstro¬
gènes à une patiente ayant un cancer de l’endomètre latent méconnu — ce qui n’est
pas exceptionnel — entraîne naturellement l’apparition de saignements, ce qui augmente
donc, pour ce sous-groupe, la probabilité d’être hospitalisé. Si a augmente, R augmente
également, ce qui conduit donc à une fausse majoration du risque.

(1) Mainland (D.), Elementary Medical Statistics. W.B. Saunders, Philadelphie,


1963, p. 11.
(2) Hayden (G.F.), Kramer (M.S.), Horwitz (R.I.), The case-control study.
A practical review for the clinician. J.A.M.A., 1982, 247, 326.
(3) New Engl. J. Med., 1978, 299, 2089-1094.
STATISTIQUES PROSPECTIVES ET RETROSPECTIVES 187

On peut « compenser » ce biais en utilisant comme témoins des sujets ayant une
affection utérine, un polype par exemple, susceptible de saigner également sous oestro-
génothérapie : a' augmente alors également et le rapport R reste conservé. C’est ainsi
qu’ont raisonné Horwitz et Feinstein. Dans une première étude utilisant la méthode
habituelle, ils aboutissent effectivement à un rapport de risque significativement élevé
de 11,89. Mais dans une deuxième étude, réalisée dans la même institution, mais cette
fois avec l’approche « compensée » ci-dessus décrite, ils arrivent à un rapport de risque
de 1,7 seulement, augmentation qui n’est pas significative. Il est intéressant de noter
que des études bien antérieures, dont les auteurs avaient justement choisi ce même
type de sujets-témoins, avaient abouti à des chiffres exactement semblables : 1,1 pour
Dunn et Bradbury en 1967 (i) et 0,5 pour Pacheco et Kempers en 1968 (2) — ce qui
, paraît bien confirmer cette analyse.

Ainsi, le degré de « risque » auquel on aboutit dans ce type d’étude


est-il conditionné par le type de témoin choisi. Mais surtout, quel que soit
le soin que l’on mette à constituer le groupe témoin, on ne peut jamais
• affirmer qu’il ne diffère pas du groupe étudié par d’autres facteurs, connus
ou inconnus, qui pourraient également intervenir dans la génèse de l’acci¬
dent. Le groupe étudié et le groupe « témoin » ne sont donc pas ici réelle¬
ment « comparables » au sens statistique du terme, ce qui n’autorise donc
aucune conclusion. Toute évaluation de « risque » tirée d’une étude rétro¬
spective est donc dépourvue de signification (^’ ^). Qu’une autre statistique,
également rétrospective, aille apparemment dans le même sens, ne lui donne
pas, notons-le, plus de valeur probante (®) : elle ne représente en effet qu’un
nouvel énoncé de la même hypothèse.
« On peut tout démontrer avec les statistiques, et d’abord l’existence
de statisticiens ». Cette boutade de Bernard Shaw s’applique plus particu¬
lièrement aux statistiques rétrospectives dont il ne faut jamais oublier qu’elles
sont en fait dépourvues de toute valeur probante (*).

(1) Am. J. Obstet. Gynecol., 1967, 97, 465-471.


(2) Obstet. Gynecol., 1968, 32, 40-46.
(3) PncE (M.C.), Morrow (R.H.), Statistical analysis of patient-control studies in
epidemiology, Br. J. Rev. Soc. Med., 1970, 24, 42.
(4) Feinstein (A.R.), Clinical biostatistics. Clin. Pharmacol. Therm., 19Ti, 14, 291.
(5) Peacock (P.B.), The non comparability of relative risks from different studies.
Biométries, 1971, 2'7, 903-907.
(’") Ce qui ne veut pas dire qu’elles soient sans intérêt. Elles permettent en effet
de savoir si une hypothèse mérite d’être testée. Dans les cas où l’incidence du trouble
étudié est très faible (ce qui est le cas précisément des décès par thrombose associés
à la pilule, dont l’incidence est de l’ordre de 1/10 000), il serait alors nécessaire, en
effet, pour qu’une différence significative apparaisse entre le groupe traité et le groupe
non traité, d’étudier un très grand nombre de sujets pendant de nombreuses années.
Avec les études rétrospectives, la réponse peut être obtenue beaucoup plus rapidement
et, si elle s’avère positive, elle justifie d’entreprendre une étude prospective qui, elle
permettra de confirmer (ou d’infirmer) cette hypothèse. C’est ainsi par exemple que
l’action cancérigène du tabac a pu être suspectée sur la ba^se d études rétrospectives
et confirmée secondairement par des études prospectives. De meme le rôle du cholestérol
dans l’athérosclérose, notamment coronarienne. Mais seule l’étude prospective, il faut
y insister, peut avoir une valeur de preuve.
188 INTERPRÉTATION STATISTIQUE

Fig. 112. — Statistiques prospectives et statistiques rétrospectives.


(légende dans le texte).
CHAPITRE XIX

STATISTIQUE ET MÉTHODOLOGIE

Au terme de cette incursion dans le domaine de l’interprétation statis¬


tique, il paraît utile, en matière de conclusion, d’insister sur certaines
notions d’ordre méthodologique.
Tous les raisonnements mis en œuvre dans les problèmes d’interpré¬
tation statistique supposent, nous l’avons vu, que l’échantillon étudié a été
pris « au hasard » dans la population à laquelle il appartient. Qu’il s’agisse
en effet d’estimer les caractères de la population d’origine à partir des don¬
nées recueillies sur l’échantillon ou qu’il s’agisse de comparer entre eux des
échantillons dont on se demande s’ils appartiennent, ou non, à la popu¬
lation d’origine, les tests d’estimation comme les tests de comparaison pos¬
tulent que le matériel étudié a été puisé « au hasard » dans la population
d’origine. C’est là une condition sine qua non pour que puissent s’appliquer
les règles du calcul des probabilités sur lesquelles s’appuie l’interprétation
statistique. Cette condition commande par suite toute la méthodologie en
matière de statistique.

Echantillon représentatif

Supposons que l’on désire estimer la proportion de boules blanches et


noires dans un sac à partir d’un échantillon pris dans ce sac. Il est clair
que les boules doivent être préalablement bien mélangées. Sinon, suivant
que nous puiserons un échantillon dans un endroit où il y aura un excès
de boules blanches ou de boules noires, l’estimation faite à partir de l’échan¬
tillon sera faussée dans un sens ou dans un autre.
Un tel échantillon est dit « non représentatif », ou encore « biaisé ».
Pour que l’échantillon soit représentatif et que, par suite, les règles du
calcul des probabilités soient applicables, il faut que toutes les boules du
sac aient des chances égales d’être tirées, ce qui sera obtenu par un brassage
convenable des boules permettant de les tirer véritablement « au hasard ».
Pour pouvoir appliquer les tests statistiques d’interprétation, il faut
donc, en principe, que le matériel étudié ait été obtenu par un prélèvement
« au hasard », dit encore « prélèvement aléatoire », et non par un choix
190 INTERPRÉTATION STATISTIQUE

systématique. En particulier, pour pouvoir comparer deux groupes de sujets,


par exemple un groupe « traité » et un groupe « non traité », il faut que
la répartition des sujets entre les deux groupes ait été faite strictement au
hasard. Faute de quoi, les deux groupes ne seront pas « comparables »
au sens statistique du terme, et tous les tests statistiques, si élaborés soient-ils
qui seront faits par la suite, seront dépourvus de valeur.

Randomisation

Cette répartition au hasard, dite « randomisation » (*) ou encore


« casualisation » (Lison) conditionne donc toute la validité des tests statis¬
tiques.
Or, contrairement à ce qu’on pourrait croire, il n’est pas facile de
faire véritablement un choix au hasard. Si, par exemple, expérimentant sur
des rats, on prend les 10 premiers animaux attrapés dans une cage, on
pourrait s’imaginer qu’on a fait un choix au hasard. En réalité, il n’en est
rien. Car les rats ainsi choisis sont vraisemblablement les moins agiles,
les moins agressifs, et sans doute les plus déficients. Ils constituent donc une
sélection systématique et non un échantillon représentatif de la population
de la cage. Il en serait de même des malades choisis soi-disant « au hasard »
dans une consultation hospitalière, les malades venant consulter à l’hôpital
représentant déjà en effet une sélection dans la population.
En fait, l’expérience montre qu’il est pratiquement impossible à un
investigateur de désigner lui-même correctement des individus au hasard.
La seule façon d’y parvenir c’est de tirer au sort les individus à désigner.
Ainsi dans l’exemple ci-dessus, il faudrait affecter un numéro à chacun des
rats de la cage et tirer au sort 10 numéros de l’ensemble. En pratique, on
utilise des « tables de nombres au hasard », dites encore «table de nombres
casualisés », dont on trouvera un exemple p. 218. Ainsi, par exemple, les
sujets choisis seront affectés au groupe « témoin » ou au groupe « traité» ,
selon qu’on rencontrera un chiffre pair ou impair dans une série de nombres
successifs de la table.
Cette randomisation, dont on vient de voir toute l’importance, n’est
cependant pas toujours possible à réaliser. C’est même le plus souvent impos¬
sible en médecine clinique ou, contrairement à ce qui se passe lorsqu’on
expérimente sur l’animal, on est obligé de se contenter des données de
l’observation. Il existe cependant des procédés, tels que la constitution de
groupes « témoin », la technique des observations appariées, etc., dont on
trouvera la description dans les ouvrages spécialisés, qui permettent de
pallier cet inconvénient. Mais on devra garder en mémoire cette limitation.

(*) De l’anglais a/ random, au hasard.


STATISTIQUE ET METHODOLOGIE 191

inhérente à sa nature meme, des possibilités de l’outil statistique, si l’on ne


veut pas s’exposer à faire dire aux chiffres plus qu’ils ne sauraient dire.
Danger d’autant plus insidieux qu’on s’abrite alors derrière une apparence
de garantie statistique.

Conclusion

Qu’il s’agisse d’une étude expérimentale ou d’une enquête clinique,


on voit que c’est dès la mise en œuvre de l’expérience ou de l’enquête
qu’il convient de l’organi.ser en vue de son exploitation statistique et non
pas seulement au stade de l’interprétation des résultats, comme c’est mal¬
heureusement trop souvent le cas en pratique. Bien des gens s’imaginent en
effet qu’il suffit d’amasser des chiffres et de les donner en vrac au Statisticien
pour qu’il pratique ses tests de signification. On voit par les remarques qui
précèdent ce qu’une telle attitude a d’irrationnel : en procédant ainsi on
risque en effet de livrer au Statisticien une masse de données absolument
inutilisables quel que soit le soin avec lequel on les a recueillies ! En « pen¬
sant statistiquement » l’organisation de l’expérience ou de l’enquête on évite
ce gaspillage regrettable et, d’autre part, on peut espérer une meilleure
exploitation des résultats. C’est dire tout l’intérêt qu’il y a à faire appel au
Statisticien dès le stade de l’organisation de l’expérience ou de l’enquête
statistique projetée. N’aurait-il réussi qu’à persuader le lecteur de cette
nécessité que ce petit livre n’aurait pas été inutile.
-
RAPPEL MATHÉMATIQUE

Toutes les notions mathématiques auxquelles il est fait appel dans cet
ouvrage ont été précédemment exposées dans votre ouvrage Abrégé de
Mathématiques (M-
Aussi bien nous contenterons-nous de présenter ici très sommairement
et de façon volontairement très élémentaire les quelques notions de mathé¬
matiques qui nous paraissent indispensables, notamment pour la compréhen¬
sion des bases probabilistes de la Statistique, renvoyant le lecteur, pour plus
de détail, à l’ouvrage précité.

Formule du binôme

Elle concerne le développement de la n® puissance du binôme (a + b),


c’est-à-dire (a + b)".
On peut calculer directement de proche en proche :

(a + bP = a^+ 2 ab +b^

(a + b)^ = a^-f-3 a^b+ 3 ab^ +6^

(a + by — +4 a^b + 6 «^6^ + 4 ab^-{-b*

On voit que dans ce développement on retrouve toujours aux extrémités


a et 6 isolés à la même puissance que le binôme. Par ailleurs, tous les autres
termes du développement contiennent à la fois a et b, les puissances succes¬
sives de a allant en diminuant, celles de b en augmentant, de telle sorte que
la somme des puissances de a et de ô dans chaque terme reste égale à la
puissance du binôme.

S. Geller, Abrégé de Mathématiques, Masson éd., Paris, 1979.


194 RAPPEL MATHÉMATIQUE

Notons en outre que le développement de (a + bY comporte 2+ 1 termes,


celui de {a-\-bY, 3 + 1 termes, celui de {a + bY, 4+ 1 termes, etc.
Le développement de la puissance du binôme, qui comportera donc
(au- 1) termes, sera donc, abstraction faite des coefficients, de la forme

(û -f bT = a" -t-a’'~^b^ -t-... +iYb''~^ + ab^~^ + b^-


Reste à trouver les coefficients des termes intermédiaires.
On montre que le coefficient du terme de rang r (r étant compté de 0 à ai
en partant de la gauche) dans le développement de la ai® puissance du binôme,
que l’on symbolise (ce qui se lit « C, r sur n ») est donné par la formule

^ n-
C = -
" r\(n-r)\

où n ! (qui se lit « factorielle n ») représente le produit des n entiers jus¬


qu’à n :
AI ! = 1, 2, 3, .... AI.

La formule générale du développement du binôme s’écrira donc :

(û-l- è)" = a" -i- * ^>-1- -t-... -f a""'’


-I- ... ^

Triangle de Pascal

Les valeurs des coefficients du développement du binôme sont données


par un tableau classique dit Triangle arithmétique de Pascal qui donne les
valeurs de C’'n en fonction de r et de ai

r ■* 0 1 2 3 4
n

1 1 1

2 1 + 2 1
T
3 1 3 - 3 1
t
4 1 4 6 4 1
RAPPEL MATHÉMATIQUE 195

Le coefficient cherché se trouve à l’intersection de la colonne et de la


ligne correspondantes. Ainsi le coefficient du terme de rang 3 dans le déve¬
loppement de {a-{-b)*, soit C|, sera à l’intersection de la colonne 3 et de la
ligne 4, soit 4.
Chaque terme, on le remarquera, est la somme de celui qui se trouve
immédiatement au-dessus de lui, soit et de celui qui est immédiate¬
ment à gauche de ce dernier, et qui n’est autre que \.

Notion d’aire intégrale

Soit (fig. 113).la courbe représentative d’une fonction y = f (x) que nous
supposerons régulière et continue dans l’intervalle étudié et deux points A
et B de cette courbe, de coordonnées Xa. ya et Xb, (fig- 113).
Proposons-nous d’évaluer la surface englobée sous la courbe, entre la
courbe, l’axe des x et les ordonnées de A et de B, c’est-à-dire la surface du
trapèze mixtiligne AA'B'B = S (fig- 113).

Fig. 113. Fig. 114.

Une première approximation, très grossière, consiste à assimiler cette


surface à celle du rectangle AA'B'Q construit sur AA' et A'B' (fig. 114).
Mais cette évaluation laisserait de côté toute la surface du triangle mixti¬
ligne AQB (fig. 114).
On peut obtenir une meilleure approximation en divisant la surface étu¬
diée par l’ordonnée CC telle que A'C = CB' (fig. 115). En faisant la somme
du rectangle AA'C'L, construit sur AA' et A'C et du rectangle CCB'M
construit sur CC et CB', on « récupère » en effet sur le triangle mixtiligne
AQB toute la surface du rectangle CLQM (fig. 115).
196 RAPPEL MATHÉMATIQUE

Sans doute cette estimation est-elle encore insuffisante, puisqu’elle laisse


de côté les triangles mixtilignes ALC et CM B. Mais rien ne nous empêche,
si nous désirons une meilleure approximation, de diviser chacune de ces
surfaces de la même façon, « récupérant » ainsi chaque fois une partie de la
surface du triangle mixtiligne correspondant (fig. 116).

Fig. 116.

On voit que plus on divise les surfaces, c’est-à-dire plus les rectangles
deviennent étroits (donc plus il y a de rectangles), plus la somme de ces
surfaces élémentaires se rapproche de la vraie valeur de la surface cherchée S.
Celle-ci représente donc la limite vers laquelle tend la somme de ces
surfaces élémentaires quand leur nombre augmente infiniment.
Si donc on veut obtenir la valeur exacte de cette surface, il faut la
diviser en un nombre infini de surfaces élémentaires à dimensions transver¬
sales infiniment petites et faire la somme de toutes ces surfaces élémentaires.
La limite de cette somme sera l’aire « exacte » de la surface 5 : c’est pourquoi
on l’appelle aire « intégrale » de la surface 5.

Expression mathématique de Paire intégrale

Considérons donc une de ces surfaces élémentaires, soit MM'FP = dS


(fig. 117).
Elle a pour largeur une fraction infiniment petite de x, soit dx, et pour
hauteur, à gauche : MM' = y, et à droite : PF = y + dy.
RAPPEL MATHÉMATIQUE 197

Quand dx tend vers zéro, c’est-à-dire quand le rectangle devient infini¬


ment étroit, PP' vient rejoindre MM', (y -t- dy) se confond alors avec >■. On peut
donc, à la limite, assimiler la surface élémentaire dS à celle du rectangle de
hauteur y et de largeur dx, soit
dS = y . dx.

Par définition, la surface S fait la somme « intégrale » de ces surfaces


élémentaires dS, ce que l’on symbolise par
le signe J qui n’est autre qu’un S allongé et
l’on écrit ;

S= I dS= J y.dx

qui se lit « somme intégrale de y . dx » (').


Mais dans cette somme de rectangles
élémentaires on envisage seulement ceux qui
sont compris entre l’ordonnée de A et
l’ordonnée de B, c’est-à-dire seulement ceux
qui correspondent à des valeurs de x com¬
prises entre Xa = a x^ = b : a et b sont les « bornes », ou encore « les
limites » de l’intégrale (^), ce que l’on indique en mettant ces deux valeurs en
indice respectivement à la partie inférieure et supérieure du signe / :
x=b

5 = j y . dx
Z=a

ou encore, plus simplement


b
S = j y .dx
a

ce qui se lit « somme intégrale, de a k b, de y dx ». (*)

(*) Le signe j indique qu’il s’agit de la limite d’une somme comportant un


nombre infini de termes eux-mêmes infiniment petits. On ne doit pas le confondre avec
le signe Y qui se rapporte à une addition ordinaire et qui indique la somme elle-même
(et non une limite) d’un nombre déterminé de termes eux-mêmes déterminés ou finis.
(2) Signifiant ici simplement les valeurs extrêmes, à ne pas confondre, bien
entendu, avec t la limite > (au sens de la théorie des limites) que représente l’intégrale
elle-même, comme nous venons de le voir.
198 RAPPEL MATHÉMATIQUE

Mais y c’est / (x) et l’expression de l’aire intégrale devient finalement :

■S" = I f{x) . dx

ce qui se lit « somme intégrale, de a à Z), de / de x iix » et qui représente


l’aire intégrale comprise sous la courbe représentative de y = / (x) entre les
valeurs x — a et x = b (fig. 109).

Fonction intégrale

Supposons que des deux ordonnées qui limitent latéralement l’aire inté¬
grale, l’une, par exemple AA', soit fixe et l’autre, BB', soit mobile, c’est-à-dire
qu’elle puisse se déplacer parallèlement à elle-même, soit vers la droite, soit
vers la gauche (fig. 118).
Soit OA' = a l’abscisse fixe du point A et x = OB' l’abscisse, supposée
variable, du point B.
L’aire intégrale correspondant à B est, par définition, la surface

J
X

AA'B'B = S= f{x).dx.

Lorsque le point B se déplace sur y = / (x), la valeur de cette aire inté¬


grale varie. Elle dépend donc de la position du point B, donc de x : c’est donc
aussi une fonction de x. Comme elle mesure l’aire intégrale (variable) corres¬
pondant à la fonction y = / (x), on l’appelle fonction intégrale de la fonction
y = / (x) ou, plus brièvement, « intégrale » de y = / (x). Nous la désignerons
par Y = F (x).
RAPPEL MATHÉMATIQUE 199

La fonction intégrale d’une fonction y = f {x) est donc la fonction


y = F (x) qui mesure à chaque instant les variations de la surface englobée
sous la courbe représentative de y = / (x) depuis l’ordonnée à l’origine jusqu’à
l’ordonnée correspondant à x (fig. 119).

Y = F (x) = fonction intégrale de la fonction [y = f (x)]


Z

= I f{x).dx,
a

= surface englobée sous la courbe {y = f (x)] jusqu’à l’ordonnée correspon¬


dant à X.

La fonction intégrale Y - F (x) est encore appelée « primitive » et la


fonction y = f (x), dont F (x) est l’intégrale est dite « dérivée » de la fonction
Y = F (x).

Représentation graphique

Tout comme la fonction y = f (x) qui nous a servi à la définir, la fonction


intégrale Y = F (x) est susceptible, bien entendu,
d’être représentée graphiquement.
Il suffit pour cela de porter pour chaque
valeur de x, moyennant un choix convenable des
unités, la valeur Y de la surface intégrale corres¬
pondante. On obtient une courbe Y = F (x) qui
est la courbe intégrale de la fonction y = / (x)
(fig. 120 haut).
Par construction, par conséquent, l’ordonnée
Yi de la courbe intégrale correspondant à une
valeur donnée Xi de l’abscisse mesure la surface
comprise sous la courbe y = / (x) jusqu'à l'ordon¬
née correspondant à Xi (fig. 120).

Calcul d’une intégrale


entre deux valeurs particulières

Soit Xi et X2 deux valeurs particulières de x


correspondant à deux points donnés Mi et M2 de la courbe y = f (x) (fig. 121).
200 P.APPEL MATHÉMATIQUE

Proposons-nous de calculer Vsiiic ^ qui correspond à Tinté-


grale
*2

jm dx.
Xl

La figure montre que

Surf. = Surf. AA'M'^M^ - Surf. AA'M'^M^ .


La surface AA'M'2M2 n’est autre que l’intégrale (comptée à partir de
Tordoimée AA') correspondant à la valeur X2
de X. soit
*2

J f(x). dx.
C’est la valeur que prend l’intégrale
Y = F (x) pour X = X2 , soit F (^2), et qui est
mesurée par l’ordonnée correspondante Y2 de
la courbe intégrale (fig. 117 haut).
La surface AA'M'^M^ n’est autre que
l’intégrale, également comptée à partir de AA',
correspondant à la valeur xi de x, soit

J f{x). dx .
C’est la valeur que prend l’intégrale
Y = F {x) pour X = xi, c’est-à-dire F (ri), qui est mesurée par l’ordonnée Yi
correspondante de la courbe intégrale (fig. 121 haut).
On peut donc écrire
X2
J f{x) -dx^ j f(x) ‘àx- j f{x). dx = i=’(x2) - Fx^)
Xi
C’est-à-dire
X2
J f{x).dx = F{x2)-F{x,) = Y2-Yi.
RAPPEL MATHÉMATIQUE 201

Ce qui veut dire que / aire intégrale comprise entre deux valeurs particulières
Xi et X2 est mesurée par la différence entre les ordonnées correspondantes de
la courbe intégrale (fig. 121 haut).

Courbe en cloche

Elle répond à l’équation


y =

dans laquelle e est la base des logarithmes népériens : 2,718 28...

Essayons de préciser son tracé point par point :


— pour x = 0,y = e° = l : la courbe passe par le point P de Oy d’ordonnée
OP=l ,
— pour x= +00, y est de la forme l/e®, donc tend vers zéro ; la courbe
admet donc la branche positive de Ox comme asymptote ;
— pour j: = 1, on a

y = e-i= — = -L -0,60:
yje

la courbe passe donc par le point M de coordonnées x = 1 et y = 0,60.

Par ailleurs, si on remplace x par — x, y ne change pas et reste toujours


positif : la courbe est donc symétrique par rapport à Oy.
Toutes ces données permettent de dégager l’allure générale de la courbe
cherchée : c’est une courbe « en cloche » ayant son sommet sur l’axe Oy en P
d’ordonnée +1, qui admet l’axe des x comme asymptote horizontale et qui
passe par le point M et son symétrique M', dont on montre qu’ils sont des
points d’inflexion pour la courbe (fig. 122).

U
202 RAPPEL MATHÉMATIQUE

Intégrale de la courbe en cloche : courbe sigmoïde

Proposons-nous maintenant de déterminer l’intégrale Y = F (x) de la


courbe en cloche.
Elle mesure par définition la surface 5 comprise sous la courbe en cloche
lorsque x varie de — oo à -f- oo.
Y part évidemment de zéro pour x = — oo et vaudra la totalité, soit
100 % de la surface S pour x = -f oo.
Plus précisément, pour x = — oo, du fait que la courbe en cloche, nous
l’avons vu, tend alors vers zéro, la surface qu’elle englobe n’est pas nulle,
mais tend vers zéro. Il en résulte que pour x = — oo, la courbe intégrale n’est
pas exactement égale à zéro, mais tend elle-même vers zéro. Ce qui veut dire
qu’elle admet aussi l’axe des x comme asymptote horizontale.
De même, pour x = -F oo, la courbe intégrale n’est pas exactement égale
à 100 % de la surface totale, mais tend indéfiniment vers cette valeur. Ce qui
veut dire que la courbe intégrale est asymptote à l’horizontale d’ordonnée
100%.
Par ailleurs, la courbe en cloche étant symétrique par rapport à Oy,
la surface de gauche est égale à la surface
de droite et représente exactement 50 %
de la surface totale. Donc pour x = 0,
l’ordonnée de la courbe intégrale sera la
moitié exactement de celle correspondant
à X = -1-00.

Au total, la courbe intégrale a l’aspect


représenté à la figure 123 : c’est une courbe
en S allongé, dite a sigmoïde », symé¬
Fig. 123. trique par rapport à son point d’inter¬
section avec l’axe des y, qui est un point
d’inflexion pour la courbe ( à ce niveau, la courbe passe d’un côté à l’autre de
sa tangente représentée par la bissectrice des axes) et admettant l’axe des x
et l’horizontale d’ordonnée 100 % comme asymptotes horizontales.
TABLES NUMÉRIQUES

LÉGENDE ET UTILISATION DES TABLES(>)

Table I : Table de la courbe de Gauss


Cette table donne pour chaque valeur de l’écart réduit t indiquée dans
la colonne de gauche les valeurs de l’ordonnée S', correspondante de la courbe
réduite (fig. 120), ainsi que les aires O (/), 2 0(0 et [1-2 0(0] correspon¬
dantes (fig. 124 et 125).
Exemple. — Pour / = 1,9 on trouve :
= 0,065 6
<I> (/) = 0,471 3
2 <I) (0 = 0,942 6
1 _ 2 0(0 = 0,057 4 .

Fig. 125.

(1) Les tables présentées ici sont des tables simplifiées destinées essentiellement
à permettre au lecteur non initié de suivre les calculs de ce livre, et éventuellement
d’effectuer par lui-même quelques calculs simples. Pour une utilisation plus poussée,
le lecteur est invité à se reporter aux tables des ouvrages spécialisés (voir notamment
Fisher et Yates, Statistical Tabhs for Biological. Agricultural and Medical Research.
Oliver and Boyd, Edinburgh).
204 TABLES NUMÉRIQUES

Table II ; Table de n (/)


Cette table donne pour chaque valeur de l’écart réduit t indiquée dans la
colonne de gauche les valeurs des aires tt (0 et [1 — rr (/)] qui lui correspondent
sur la courbe réduite (fig. 126).

Fig. 126.

La table comporte deux parties, l’une pour les valeurs négatives de /


(table de gauche), l’autre pour les valeurs positives (table de droite).

Exemple. — Pour —1,2 on trouve (table de gauche) :


;:(/) = 0,115 1
= 0,884 9 .

Table ni : Table de la distribution de Poisson


Cette table donne en fonction de la moyenne m qui figure en tête des
colonnes, les probabilités Pr correspondant aux diverses valeurs de la
variable r figurant dans la colonne la plus à gauche.
La probabilité cherchée se trouve à l’intersection de la ligne et de la
colonne correspondante.
La table comporte deux parties, l’une correspondant aux valeurs de m
comprises entre 0,1 et 0,9 (table du haut), l’autre aux valeurs de m comprises
entre 1 et 10 (table du bas).

Exemple. — Pour m = 0,5 et r = 3 on trouve (table du haut) :


Pr = 0,012 6 .

Table IV : Table du paramètre t de Student


Cette table donne en fonction du degré de liberté v = n—\ figurant dans
la colonne de gauche les valeurs limites /o.os et /o,oi du paramètre t qui ont
respectivement 5 et une chance sur 100 d’être dépassées par suite des fluc¬
tuations fortuites.
LÉGENDE ET UTILISATION DES TABLES 205

Exemple. — Pour y = 8 on trouve :


^0,05 = 2.31
^0.01 ~ 3,36.

Tables V et VI ; Intervalle de confiance d’un pourcentage

La table donne en fonction de l’effectif n de l’échantillon et du nombre r


de sujets les limites de l’intervalle de confiance (au coefficient de sécurité de
95 %) de la proportion q = rjn observée dans l’échantillon.

Exemple. — Pour r = 13 et n = 50 on trouve les chiffres 15 et 41 %, qui repré¬


sentent les limites de l’intervalle de confiance (au coefficient de sécurité de 95 %) de
la proportion
r ]3
q 0,26 26 %.
n 50

Tables VII et VIII : Tables de Snédécor

Ces tables donnent, en fonction du nombre de degrés de liberté vi


(correspondant à la variance la plus grande) figurant en tête des colonnes et
du nombre de degrés de liberté vi (correspondant à la variance la plus petite)
figurant dans la colonne de gauche, les valeurs limites du rapport

qui ont respectivement 5 (coefficient de sécurité de 95 %) et une (coefficient de


sécurité de 99 %) chance sur 100 d’être dépassées par suite de fluctuations
fortuites.
La valeur limite au coefficient de sécurité de 95 % (Fo.os) est donnée par
le chiffre supérieur (caractères droits) et la valeur limite au coefficient de
sécurité de 99 % (Fo.oi) par le chiffre inférieur (en italiques) qui se trouvent
dans la case correspondante.

Exemple. — Pour y^ = 12, y2 = 9, on trouve :


Fq 05 = 3,07 (chiffre droit)
Fq.oi = I (chiffre italique).

Table IX : Table du 2:'

Cette table donne, en fonction du degré de liberté v figurant dans la


colonne de gauche, les valeurs limites du 9^1 onl respectivement 5 (^f^.os)
et une (xo.oi) chance sur 100 d’être dépassées par suite des fluctuations
fortuites.
206 TABLES NUMÉRIQUES

Exemple. — Pour v = 12 on trouve :

^0,05 = 21,03

Xloi = 26,22 .

Table X : Paramètre de corrélation transformée


La table donne les valeurs du paramètre de corrélation transformée z
correspondant aux valeurs du coeflScient de corrélation r.

Exemple. — Pour r — 0,380, on trouve z = 0,40.

Table XI : Signification d’un coefficient de corrélation


La table donne, en fonction du degré de liberté v figurant dans la
colonne de gauche, les limites du coefficient de corrélation r qui ont respecti¬
vement 5 (ro.os) et une (ro.oi) chance sur 100 d’être dépassées par suite des
fluctuations fortuites.

Exemple. — Pour v = 13, on trouve :


^0,05 = 0,513 9
^'0,01 = 0,641 1 .

Table XII : Table de nombres au hasard

Cette table fournit une série de nombres « au hasard ».


Elle peut être utilisée en partant d’un point quelconque pour obtenir
des nombres permettant de désigner véritablement o au hasard » les sujets
à étudier.

Exemple. — Soit à désigner 10 sujets pris « au hasard » dans un lot de 100 rats.
Chaque rat sera affecté d’un numéro de 1 à 100.
On va prendre les dix premiers nombres de deux chiffres rencontrés en parcourant
la table par exemple de gauche à droite à partir par exemple de la treizième ligne : soit
68 - 50 - 85 - 88 - 60 - 04 - 54 - 71 - 48 - 12 et l’on choisira les animaux porteurs du
numéro correspondant.

Table Xni : Table des carrés et racines carrées

Les carrés et les racines carrées sont fournis par des tables qu’on trouve
dans le commerce, par exemple les tables de Barlow qui donnent les carrés
et les racines carrées des nombres entiers inférieurs à 10 000.
LÉGENDE ET UTILISATION DES TABLES 207

Nous présentons ici à titre d’exemple une table de carrés et de racines


carrées que nous avons limitée aux nombres entiers de 1 à 100. Les formules
indiquées en tête des tables permettent de calculer les carrés et les racines
carrées pour des multiples ou des sous-multiples des nombres de la table.

Exemples. — 1° Soit à calculer .y 0,28.

La table indique = 5,291 503,

I 2g
on a yo,28 = / JQQ = 7^ = 0,529 150 3.

2° Soit à calculer y 4 500.

La table indique yJ~ÂS = 6,708 204,

on a ^4 500 = ^45 x 100 = 10 -JTs = 67,082 04.

3° Soit à calculer ^3,9.

/39x 10
On a
V 100

La table indique ^ 10 x 39 = 19,748 42,

on a donc
V ’
= _L
,0^
yi0x 39 = 1,974 842.
208 TABLES NUMÉRIQUES

I. — Table de la courbe de Gauss

t 0(0 2 0(0 1 -2(D(/)

0,0 0,3889 0,0000 0,0000 0,0000


0,1 0,3969 0,0398 0,0796 0,9204
0,2 0,3910 0,0793 0,1586 0,8414
0,3 0,3814 0,1179 0,2358 0,7642
0,4 0,3683 0,1554 0,3108 0,6892
0,5 0,3521 0,1915 0,3830 0,6170

0,6 0,3332 0,2257 0,4514 0,5486


0,7 0,3123 0,2580 0,5160 0,4840
0,8 0,2897 0,2881 0,5762 0,4238
0,9 0,2661 0,3159 0,6318 0,3682
1,0 0,2420 0,3413 0,6826 0,3174

1,1 0,2179 0,6343 0,7286 0,2714


1,2 0,1942 0,3849 0,7698 0,2302
1.3 0,1714 0,4032 0,8064 0,1936
1,4 0,1497 0,4192 0,8384 0,1616
1,5 0,1295 0,4332 0,8664 0,1336
1,6 0,1109 0,4452 0,8904 0,1096
1.7 0,0940 0,4554 0,9108 0,0892
1,8 0,0790 0,4&41 0,9282 0,0718
1,9 0,0656 0,4713 0,9426 0,0574
2,0 0,0540 0,4772 0,9544 0,0456

2,1 0,0440 0,4821 0,9642 0,0358


2.2 0,0335 0,4861 0,9722 (,0278
2,3 0,0283 0,4893 0,9786 0,0214
2,4 0,0224 0,4818 0,9836 0,0164
2,5 0,0175 0,4938 0,9876 0,0124
2,6 0,0136 0,4953 0,9906 0,0094
2,7 0,0104 0,4965 0,9930 0,0070
2,8 0,0079 0,4974 0,9948 0,0052
2,9 0,0060 0,4981 0,9962 0,0038
3,0 0,0044 0,4986 0,9973 0,0027
3,1 0,0033 0,4990 0,9980 0,0020
3,2 0,0024 0,4993 0,9986 0,0014
3,3 0,0017 0,4995 0,9990 0,0010
3,4 0,0012 0,4997 0,9994 0,0006
3,5 0,0009 0,4998 0,9996 0,0004
3,6 0,0006 0,4998 0,9997 0,0003
3.7 0,0004 0,4999 0,9998 0,0002
3,8 0,0003 0,4999 0,9998 0,0002
3,9 0,0002 0,4999 0,9998 0,0001
4,0 0,0001 0,5000 1,0000 0,0000
TABLES NUMÉRIQUES 209

II. — Table de jt (0

t n(t) 1-^(0 t n{t) l-2jr(0

-4,5 0,000 003 0,999 97 0,0 0,500 0,500


-4.0 0,000 032 0,999 68 0,1 0,539 8 0,460 2
0,2 0,579 3 0,420 7
0,3 0,617 9 0,382 1
-3,8 0,000 072 0,999 928 0,655 4 0,344 6
0.4
-3,6 0,000 159 0,999 841 0,6915 0,308 5
0,5
-3.5 0,000 24 0,899 76 0,725 7 0,274 3
0,6
-3,4 0,000 34 0,999 66 0,758 0 0,242 0
0.7
-3,3 0,000 48 0,999 52 0,788 1 0,211 9
0,8
-3.2 0,000 69 0,999 31 0,815 9 0,1841
0,9
-3,1 0,000 96 0,999 04
-3.0 0,001 35 0,999 65
1.0 0,841 3 0,158 7
1,1 0,864 3 0,135 7
-2,9 0,001 9 0,998 1 0,884 9 0,115 1
0,997 4 1.2
-2,8 0,002 6 0,903 2 0,096 8
1.3
-2,7 0,003 5 0,996 5 0,919 2 0,080 8
1,4
-2,6 0,004 7 0,995 3 0,933 2 0,066 8
1,5
-2,5 0,006 2 0,993 8 0,945 2 0,054 8
1,6
-2,4 0,008 2 0,991 8 0,955 4 0,044 6
1,7
-2,3 0,010 7 0,989 3 1,8 0,964 1 0,035 9
-2,2 0,013 9 0,986 1 0,971 3 0,028 7
1.9
-2,1 0,017 9 0,982 1
-2,0 0,022 8 0,977 2
2,0 0,977 2 0,022 8
2.1 0,982 1 0,017 9
-1,9 0,028 7 0,971 3 0,986 1 0,013 9
2,2
-1.8 0,035 9 0,964 1 2,3 0,989 3 0,010 7
-1,7 0,044 6 0,955 4 2,4 0,991 8 0,008 2
-1,6 0,054 8 0,945 2 2,5 0,993 8 0,006 2
-1,5 0,066 8 0,933 2 2,6 0,995 3 0,004 7
-1,4 0,080 8 0,919 2 2,7 0,996 5 0,003 5
-1,3 0,096 8 0,903 2 2,8 0,997 4 0,002 6
-1,2 0,115 1 0,884 9 2,9 0,998 1 0,001 9
-1,1 0,135 7 0,864 3
-1,0 0,158 7 0,841 3
3,0 0,998 65 0,001 35
3,1 0,999 04 0,000 96
-0,9 0,184 1 0,815 9 3,2 0,999 31 0,000 69
-0,8 0,2119 0,788 1 3,3 0,999 52 0,000 48
-0,7 0,242 0 0,758 0 3,4 0,999 66 0,000 34
-0,6 0,274 3 0,725 7 3,6 0,999 841 0,000 159
-0,5 0,308 5 0,691 5 3,8 0,999 928 0,000 072
-0,4 0,344 6 0,655 4
-0,3 0,382 1 0,617 9
-0.2 0,420 7 0,579 3 4,0 0.999 968 0,000 032
0,460 2 0,539 8 4,5 0.999 997 0,000 003
-0,1
210 TABLES NUMÉRIQUES

III. — Table de la distribution de Poisson


(0,1 ^m^0,9)

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9

0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4443 0,4666


1 0,0905 0,1637 0,2222 0,2681 0,3033 0,3293 0,3476 0,3595 0,3659
2 0,0045 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0,1438 0,1647
3 0,0002 0,0011 0,0033 0,0071 0,0126 0,0198 0,0284 0,0383 0,0494
4 0,0001 0,0003 0,0007 0,0016 0,o030 0,0050 0,0077 0,0111
5 0,0001 0,0002 0,0004 0,0007 0,0012 0,0020
6 0,0001 0,0002 0,0000

(1 ^m^lO)
TABLES NUMERIQUES 211

IV. — Table du paramètre t de Stxrjent

h.Oi to.Oi V =«— 1 ^0.03 ^O.OI

1 12,71 63,66 16 2,12 2,92


2 4,30 9,93 17 2.11 2,90
3 3,18 5,84 18 2,10 2,88
4 2,78 4,60 19 2,09 2,86
5 2,57 4,03 20 2,086 2,845

6 2,45 3.71 21 2,080 2,831


7 2,37 3,50 22 2,074 2,819
8 2,31 3,36 23 2,069 2,807
9 2,26 3.25 24 2,064 2,797
10 2,23 3.17 25 2,060 2,787

11 2,20 3,11 26 2,056 2,779


12 2,18 3,06 27 2,052 2,771
13 2,16 3,01 28 2,048 2,763
14 2,15 2,98 29 2,045 2,756
15 2,13 2,95 30 2,042 2,750

OO 1,96^2) 2.58~2,6)
212 TABLES NUMÉRIQUES

V. — Intervalle de confiance d*un pourcentage (*)


(10^/1^100)

10 15 20 30 40 50 100
r

0 0 31 0 22 0 17 0 12 0 9 0 7 0 4
1 0 45 0 32 0 25 0 17 0 13 0 11 0 5
2 3 56 2 40 1 31 1 22 1 17 0 14 0 7
3 7 65 4 48 3 38 2 27 2 20 1 17 1 8
4 12 74 8 55 6 44 4 31 3 24 2 19 1 10
5 19 81 12 62 9 49 6 35 4 27 3 22 2 11

6 26 88 16 68 12 54 8 39 6 30 5 24 2 12
7 35 93 21 73 15 59 10 43 7 33 6 27 3 14
8 44 97 27 79 19 64 12 46 9 36 7 29 4 15
9 55 100 32 84 23 68 15 50 11 38 9 31 4 16
10 69 100 38 88 27 73 17 53 13 41 10 34 5 18

11 45 92 32 77 20 56 15 44 12 36 5 19
12 52 96 36 81 23 60 17 46 13 38 6 20
13 60 98 41 85 25 63 19 49 15 41 7 21
14 68 100 46 88 28 66 21 51 16 43 8 22
15 78 100 51 91 31 69 23 54 18 44 9 24

16 56 94 34 72 25 56 20 46 9 25
17 62 97 37 75 27 59 21 48 10 26
18 69 99 40 77 29 21 23 50 11 27
19 75 100 44 80 31 64 25 53 12 28
20 83 100 47 83 34 66 27 55 13 29
)

21 50 85 36 68 28 57 14 30
22 54 88 39 71 30 59 14 31
23 57 90 41 73 32 61 15 32
24 61 92 43 75 34 63 16 33
25 65 94 46 77 36 64 17 35

(1) Au coefficient de sécurité de 95 %.


TABLES NUMÉRIQUES 213

VI. — Intervalle de confiance d’un pourcentage (suite) {^)


(10<«<100)

(1) Au eoeffideot de sécurité de 9S %.


VII. — Table de Snédécor (*)
214

>
001

ïM

00

NO
20 30 50

-
10

// >^
/
161 200 216 225 230 234 239 242 244 248 250 252 253 254

-
4 052 4 999 5 403 5 625 5 764 5 859 5 981 6056 6106 6 208 6 258 6 302 6 334 6366

18,51 19,00 19.16 19.25 19.30 19.33 19,37 19.39 19.41 19.44 19.46 19.47 19.49 19.50

CA
98,49 99,01 99.17 99.25 99.30 99.33 99,36 99.40 99.42 99.45 99.47 99.48 99.49 99.50

10,13 9,55 9,28 9,12 9,01 8,94 8,84 8,78 8,74 8,66 8,62 8,58 8,56 8,53
34,12 30,81 29,46 28,71 28,24 27,91 27,49 27,23 27,05 26,69 26,50 26,35 26,23 26,12

7,71 6,94 6,59 6,39 6,26 6,16 6,04 5,96 5.91 5,80 5,74 5,70 5,66 5,63
27,20 18,00 16,69 15,98 75,52 15,21 14,80 74,54 14,37 74,02 /i,«i 13,64 13,57 13,46
O

6,61 5,79 5,41 5,19 5,05 4,95 4,82 4,74 4,68 4,56 4,50 4,44 4,36
16,26 13,27 12,06 11,39 10,97 10,67 10,27 10,05 9,89 9,55 9,38 9,24 9,02
00

5,99 5.14 4,76 4,53 4,39 4,28 4.15 4,06 4,00 3,87 3,75 3.71 3,67

NO
fs.

13,74 70,92 9,75 9,75 5,75 8,47 8,10 7,87 7,72 7,J9 7,09 6,99 6,88
fn

5,59 4,74 4,35 4,12 3,97 3,87 3,63 3,57 3,44 3,38 3,23
ts

m «0
00 ^

«s «4^

6,47 5,95 5,65

ro^’<r
72,25 9,55 5,45 7,55 7,46 7,79 6,62 6,75

5,32 4,46 4,07 3,84 3,69 3,58 3,44 3,34 3,15 3,08 3,03 2,98 2,93

00
00 ^S

77,26 5,65 7,59 7,01 6,6i 6,37 6,03 5,52 i,J6 5,20 5,06 4,96 4,56
1

5,12 4,26 3,86 3,63 3,48 ' 3,23 3,13 3,07 2,93 2,86 2,80 2,76 2,71

ON
Oo
r-- Cl
10,56 5,02 6,99 6,42 6,06 5,47 5,26 5,77 4,80 4,64 4,57 4,47 4,31

4,96 4,10 3,71 3,48 3.33 3,22 3,07 2,97 2,77 2,70 2,64 2,59 2,53

O
^ ts

70,04 7,56 6,55 5,99 5,64 5,J9 5,06 4,55 4,41 4,25 4,72 4,01 3,91
TABLES NUMÉRIQUES

(1) La table donne les valeurs limites du rapport F pour les coefficients de sécurité de 95 % (chiffres droits) et de 99 % (chiffres Italiques).
TABLES NUMÉRIQUES 215

O ^ rt Ns St ri rv n 00 er^
en P Os 'r oo ^ r* "««» 8§

(1) La table donne les valeurs limites du rapport F pour les eoeflîcients de sécurité de 95 % (chiffres droits) et de 99 % (chiffres italiques).
8 VO C n
<N en <N en ri ri ^ «N *N ^ ri ^ «N ^ ■'N *-A
3,46

2,86
2,35

2,19

2,07

2,68
3,11

1,90
1,98

2,53

2,29
1,77

2,13

1,82
1,69

1,59
1,52

1,36
100

1,39

1.24
en vc SO fO SO > 00en SO ri
o^ 5f5
50

<N ^ Os VO 00 r» rvi S5 ^ IV en SO
fS en «S en n (N n ri —< <N <-H <N —i ri ^ •«-» 1— -i *«>.

^ > O c <N > Tt 00 OS C r» Os SO Ov


30

en n ^ Os Os SO 00 en SO SO 0© Tt SC
er^ «N ^ ri en ri n ri ri «N — ri ^ ri ^ •'H

-et VO Os
srs 00 en os
^ O
K rt > en *o 00 SC 00 SC r* iv
S
V-V Oo m n r» Os 8R Os «O r* ri SO C SO 0©
en <N en n en ri en ri rsj »S <N —. ri ^ ri ^ “««t

en n •V î:; 00 en SO Vc
SNéoéooit (*) (suite)

Os 'O C SO SO SC SO 0©
SO «n 00 ^ *n en en n r^ O 0© OS *0 00 en r-
CS > «N en <s 'n ri en n fo <N ri n <N ri — ri ^ ri

SO Cl Os p\ SO N. ^ en SO «O n c n en ri
O en ^ VC 5 *n en en rs •- Os O Os ^O 00 en
rs > (N ri en en n en ri en n ri <N ri «—1 ri ^ ri

v-> O O > Os Os -N ■*»«» •O SQ Tt «N tv en ûo en Ov Tt


00 00 »r> 0© K. ^ n en en n — 0© O 'C os SO
<s > ri > <N en n en rt en r4 en ri en (N ri n «N « ri
— Table de

•n VO os Os ^ O
so
Q <N
O «0 00 >
•St C
r- <N
\0
sO C ss^ rj K.
^ >
OS 0©
n ^ — Os
<>
O QO
n >»■ ri > ri ri en r4 <0 n en rj e^ n ri (N «N

-N >0 SO ^ «r> n ^ O Q 'C en c ® P ^ ri


Os vc 00 r- <N SO N. en ri n O
en *n (N ri > ri V n > rj *0 ri en ri er{ ri en ri en
VIII.

\C ^ en en 0© en SO ûO Os <N SO «N SO *- r* ri
<s > ^ c O os n 00 > r> SO O SO N. «O en en
en en ^ en yt‘ ri V ri > ri > ri > rt en rl n en

Os C
en
Os*0
^ Os
Tt 'O
en ^
rr Ov
rs <N
SO ^
^ O — Os
Os û©
Os SO
n
Os »o «N
O û©
r» ov s?s
en *n en n en n >»• ri V ri V n V ri en ri en

00 en rt ^ en en SO Os n 00 N. n Os 00 ^ ^ ri Os C
ts 00 ^ \o rj «O C '•et 0© en O en en c O «0 Os VO
'O en O rA VO fO 'O en *o fO en »o en SO en ^ n >

•n en Os en ^ 0© SO C ^ !> r* 'c m rs. c> >


en ^ ri en «N tr — S/-, O Os 0\ 00 SC
rfO\ ^ «0 ■St 00 Tt C© OeJ Tt n! 't en 'C en SC
100
20

30

CN SO 00 SO O
n SO 8
216 TABLES NUMÉRIQUES

IX. — Table du

V V
Zo.os Xo.oi Zo.OS ^0,01

1 3,84 6,64 16 26,30 32,00


2 5,99 9,21 17 27,60 33,41
3 7,82 11,34 18 28,87 34,80
4 9,49 13,28 19 30,14 36,19
5 11,07 15,09 20 31,41 37,57

6 12,59 16,81 21 32,67 38,93


7 14,07 18,48 22 33,92 40,29
8 15,51 20,09 23 35,17 41,64
9 10,92 21,67 24 36,42 42,98
10 18,31 23,21 25 37,65 44,31

n 19,68 24,72 26 38,89 45,64


12 21,03 26,22 27 40,11 46,96
13 22,36 27,69 28 41,34 48,28
14 23,69 29,14 29 42,56 49,59
15 25,00 30,58 30 43,77 50,89
TABLES NUMERIQUES 217

XI. — Signification d’un coefficient de corrélation

V ^0,05 ''0.01 V ''0,05 ''0,01

1 0,9969 0,9999 16 0,4683 0,5897


2 0,9500 0,9900 17 0,4555 0,5751
3 0,8783 0,9587 18 0,4438 0,5614
4 0,8144 0,9172 19 0,4329 0,5487
5 0,7545 0,8745 20 0,4227 0,5368

6 0,7067 0,8343 25 0,3809 0,4869


7 0,6664 0,7977 30 0,3494 0,4487
8 0,6319 0,7646 35 0,3246 0,4182
9 0,6021 0,7348 40 0,3044 0,3982
10 0,5760 0,7079 45 0,2875 0,3721

11 0,5529 0,6835 50 0,2732 0,3541


12 0,5324 0,6614 60 0,2500 0,3248
13 0,5139 0,6411 70 0,2319 0,3017
14 0,4973 0,6226 80 0,2172 0,2830
15 0,4821 0,6055 90 0,2050 0,2673
100 0,1946 0,2540

15
218 TABLES NUMÉRIQUES

XII. — Table de nombres « au hasard »

88-49-06-59-36 20-42-08-95-23 41-74-11-97-91 60-85^-69-36


82-05-36-38-77 18-92-74-55-03 73-38-60-37-18 70-04-58-94-95
09-64-59-01-04 74-66-01-91-05 02-01^4-28-34 95-12-63-04-76
19-52-50-39-10 32-39-08-86-78 25-54-96-80-63 77-28-28-30-25
77-32-66-02-79 27-22-02-66-81 70-96-72-96-93 73-58-59-64-35

82-30-97-03-32 24-24-76-26-85 83-32-98-80-70 42-14-64-97-72


04-53-98-08-03 39-48-73-18-63 95-79-11-18-41 77-94-58-36-89
75-57^1-88-93 07-91-55-72-26 12-13-91-00-97 40-14-74-89-37
43-10-02-60-87 55-27-85-54-99 46-29-85-73-75 20-19-21-30-80
73-22-46-84-72 61-34^9-10-71 64-45-23-32-29 22-62-14-74-05

56-22-11-06-95 50-58-83-75-85 47- 69-69-75-09 50-58-64-09-60


69-52-42-79-08 39-74-09-48-62 20-38-14-61-67 16-35-48-12-60
68-50-85-88-60 04-54-71-48-12 24-30-84-52-56 76-27-07-23-61
10-88-37-39-89 22-83-51-47-07 70-45-50-21-48 82-03-83-26-23
09-28-41-39-69 38-40-30^4-55 48- 96-08-34-24 26-23-79-58-28

16-74-01-47-16 66-59-53-60-26 41-63-17-98-46 70-30-32-27-05


15-31-28-92-06 10-26-28-99-16 41-22-45-12-79 13-62-27-99-68
61-26-45-84-06 53-18-91-01-81 03-33^8-69-52 04-26-65-08-07
85-45-84-51-12 98-18-59-89-05 05-93-88-16-00 38-54-57-05-18
49-92-43-05-85 33-03-82-82-57 62-52-22-19-01 99-84-01-08-11

88-20-06-03-29 09-09-49-37-07 31-41-87-33-51 11-97-54-00-16


34-08-97-13-98 01-68-94-74-97 78-43-87-34-58 65-58-69-21-89
76-86-67-78-84 57-90-12-35-28 65-15-13-63-52 61-06-48-99-62
82-71-25-11-60 52-27-66-68-13 92-12-84-13-27 01-54^1-45-62
38-27-44-81-05 82-80-40-32-81 83-64-14-97-73 02-07-11-31-39

15-33-29-51-53 37-21-27-25-60 61-26-13-77-25 83-57-70-08-80


46-79-94-13-23 33-86-19-93-17 63-07-63-36-64 31-51-23-27-22
81-86-10-90-55 90-39-19-91-04 39-21-05-55-52 77-95-53-75-65
02-27-32-62-32 13-55-78-41-24 16-93-24-57-63 10-74-80-00-83
41-79-44-59-86 63-27-67-72-57 37-03-98-44-66 18-99-62-47-50
TABLES NUMÉRIQUES 219

XIII. — Carrés et racines carrées

^\00n= lO^n 71000/1=10710/1 jL„=^^/iQn

1
i II
n 7« 710, 1 n V"
^\0n
1 1 1,000 000 3,162 278 51 2 601 7,141 428 22,583 18
2 4 1,414 214 4,472 136 52 2 704 7,211 103 22,803 51
3 9 1,732 051 5,477 226 53 2 209 7,280 110 23,021 73
4 16 2,000 000 6,324 555 54 2 916 7,348 469 23,237 90
5 25 2,236 068 7,071 068 55 3 025 7,416 198 23,452 08

6 36 2,449 490 7,745 967 56 3 136 7,483 315 23,664 32


7 49 2,645 751 8,366 600 57 3 249 7,549 834 23,874 67
8 64 2,828 427 8,944 272 58 3 364 7,615 773 24,083 19
9 81 3,000 000 9,486 833 59 3 481 7,681 146 24,289 92
10 100 3,162 278 10,000 000 60 3 600 7,745 967 24,494 90

11 121 3,316 625 10,488 09 61 3 721 7,810 250 24,698 18


12 144 3,464 102 10,954 45 62 3 844 7,874 008 24,899 80
13 169 3,605 551 11,401 75 63 3 969 7,937 254 25,099 80
14 196 3,741 657 1 1,832 16 64 4 096 8,000 000 25,298 22
IS 225 3,872 983 12,247 45 65 4 225 8,062 258 25,495 10

16 256 4,000 000 12,649 11 66 4 356 8,124 038 23,690 47


17 284 4,123 106 13,038 40 67 4 489 8,185 353 25,884 36
18 324 4,241 641 13,416 41 68 4 624 8,246 211 26,076 81
19 361 4,358 899 13,784 05 69 4 761 8,306 624 26,267 85
20 400 4,472 136 14,142 14 70 4 900 8,366 600 26,457 51

21 441 4,582 576 14,491 38 71 5 041 8,426 150 26,645 83


22 484 4,690 416 14,832 40 72 5 184 8,485 281 26,832 82
23 529 4,795 832 15,165 75 73 5 329 8,544 004 27,018 51
24 576 4,898 979 15,491 93 74 5 476 8,602 325 27,202 94
25 625 5,000 000 15,811 39 75 5 625 8,660 254 27,386 13

26 676 5,099 020 16,124 52 76 5 776 8.717 798 27,568 10


27 729 5,196 152 16,431 68 77 5 929 8,774 964 27,748 87
28 784 5,291 503 16,733 20 78 6 084 8,831 761 27.928 48
29 841 5,385 165 17,029 39 79 6 241 8.888 194 28,106 94
900 5,477 226 17,320 51 80 6 400 8,944 272 28,284 27
30

31 961 5,567 764 17,606 82 81 6 561 9,000 000 28,460 50


32 1 024 5,656 854 17,888 54 82 6 724 9,055 385 28 635 64
33 1 089 5,744 563 18,165 90 83 6 889 9,110434 28,809 72
34 1 156 5,830 952 18,439 09 84 7 056 9,165 151 28,982 75
1 225 5,916 080 18,708 29 85 7 225 9,219 544 29,154 76
35

36 1 296 6,000 000 18,973 67 86 7 396 9,273 618 29,325 76


1 369 6,082 763 19,235 38 87 7 569 9,327 379 29,495 76
37
1 444 6,164 414 19,493 59 88 7 744 9,380 832 29,664 79
38
1 521 6,244 998 19,748 42 89 7 921 9,433 981 29,832 87
39
1 600 6,324 555 20,000 00 90 8 100 9,486 833 30,000 00
40

1 681 6,403 124 20,248 46 91 8 251 9,539 392 30,166 21


41
I 764 6,480 741 20,493 90 92 8 464 9.591 663 30,331 50
42
1 849 6,557 439 20,736 44 93 8 649 9,643 651 30,495 90
43
6,633 250 20,976 18 94 8 836 9,695 360 30,659 42
44 1 936
6,708 204 21,213 20 95 9 025 9,746 794 30,822 07
45 2 025

6,782 330 21,447 61 96 9 216 9,797 959 30,983 87


46 2 116
6,855 655 21,679 48 97 9 409 9,848 858 31,144 82
47 2 209
6,928 203 21,908 90 98 9 604 9,899 495 31,304 95
48 2 304
7,000 000 22,135 94 99 9 801 9.949 874 31,464 27
49 2 401
7,071 068 22,360 68 1 100 10 000 10,000 000 31,622 78
50 2 500
EXERCICES
Réponses p. 215

1. Soit l’échantillon suivant de pesées exprimées en milligramme ;


7 9 14 8 13 10 9 7 11 12

a) Calculer la moyenne arithmétique x, la variance et l’écart


type a de cet échantillon.
b) Donner l’estimation de la moyenne ^ et de l’écart type s de la
population dont est issu cet échantillon.

2. La mesure de la taille en métré d’un groupe d’enfants de 14 ans a donné


les résultats suivants :
1,58 1,54 1,42 1,54 1,50 1,48 1,51 1,46 1,53 1,61
1,45 1,53 1,56 1,59 1,53 1,54 1,56 1,60 1,49 1,58.

Calculer, par deux formules différentes, les estimations de la variance s^


et de l’écart type s de la population d’où est tiré cet échantillon.

3. La créatinine urinaire, exprimée en gramme par 24 heures, a été dosée


chez 200 femmes normales de 40 ans. Les valeurs observées ont donné
lieu au tableau suivant :

Classes Classes
Fréquences Fréquences
(g/24 h) (g/24 h)

0 45-0,55 2 1,05-1,15 43
0,55-0,65 2 1,15-1,25 40
0,65-0,75 4 1,25-1,35 29
0,75-0,85 13 1,35-1,45 8
0,85-0,95 20 1,45-1,55 5
0,95-1,05 34
EXERCICES 221

Les calculs effectués à l’aide d’une machine et à partir des valeurs


non groupées en classes ont abouti aux résultats suivants :
X = 1,089 ~ 1,09 g/24 h; a = 0,189 2 ~ 0,19 g/24 h.

Estimation de l’écart type de la population : s — 0,189 6 ~ 0,19 g/24 h.

1® Construire l’histogramme. Type de distribution évoqué par


celui-ci.
2° Calculer à partir du tableau ci-dessus la moyenne x, l’écart
type a de cet échantillon, ainsi que l’estimation de l’écart type s de la
population d’où est tiré cet échantillon.
fl) Par la méthode directe n’utilisant pas la moyenne provisoire.
b) Après un changement de variable consistant à multiplier
toutes les valeurs par 10 et en utilisant une moyenne provisoire.
3° Entre quelles limites a-t-on 95 chances sur 100 de trouver la
moyenne de la population?
4° Est-ce que cet échantillon peut être considéré comme tiré d’une
population normale?

4. Le pregnanediol urinaire exprimé en mg/24 h a été dosé dans 2 groupes


de femmes enceintes, les résultats ont été les suivants :

Échantillon 1 ;
10,7 9,2 10,0 8,2 9,1 10,8 15,1 10,6 14,1 11,5 14,2
12,6 10,0 13,8 10,9 9,3 10,0 10,8 9,2 11,8 13,1 14,9
10,1 10,2 11,0 11,6 12,7 15,5 12,4 11,3 11,8 13,3 13,8
13,8 8,0 10,7.

Échantillon 2 ;
15,7 16,3 13,5 14,0 15,8 10,2 12,0 14,9 11,9 12,5
12,9 12,6 10,9 14,3 13,3 14,4 13,0 12,0 18,3 14,4
11,1 13,6 16,1 11,1 12,1 12,7 13,6 17,1 17,7 12,3
13,1 14,3 17,1 15,0 14,8 16,1 13,5 15,9 13,6 12,8
15,2 14,2.
fl) Calculer à l’aide d’une table de carrés et éventuellement d’une
machine à calculer les moyennes xi et X2 des échantillons ainsi que les
estimations des écarts types si et ^2 des populations d’où sont tirés les
échantillons.
222 EXERCICES

b) Traiter la question précédente en groupant les valeurs par classes.


c) Peut-on dire que ces échantillons sont issus de la même population?

5. Des enfants de même âge ont été groupés en deux séries en vue de déter¬
miner l’influence d’un paramètre biologique sur le développement sta¬
tural. La mesure en mètre de la taille a donné les résultats suivants :

série :

1,42 1,68 1,48 1,42 1,55 1,49 1,38 1,57 1,43 1,40
1,61 1,28 1,57 1,35.

2* série

1,36 1,38 1,41 1,50 1,25 1,23 1,33 1,21.

a) Calculer les moyennes xi et X2 de ces groupes et les estimations


des variances ae^ et des populations correspondantes.
b) Existe-t-il une différence significative entre les deux groupes?

6. On compare la 1'* série de tailles de l’exercice précédent à la nouvelle


série suivante :

1,44 1,44 1,27 1,44 1,24 1,43 1,26 1,33

Existe-t-il une différence significative entre la moyenne de cette série


et la moyenne de la première série précédente?

7. La radioactivité jS d’un échantillon à faible teneur a été mesurée 46 fois


de suite pendant un temps très court (0,2 mn). Soit x le nombre de coups
enregistré par le compteur et F le nombre de fois où x: émissions ^ ont
été observées :
x:0 12 3 45678
F: 0 3 13 14 10 5 2 2 1

Quel type de distribution théorique peut être ajusté à cette distri¬


bution expérimentale? Justifier la réponse.

8. On note la direction de fuite d’animaux captifs qu’on lâche dans la nature.


RÉPONSES 223

Les résultats obtenus avec deux groupes de 160 individus ont été les
suivants ;
Direction : Nord N.-O. Ouest S.-O. Sud S.-E. Est N.-E
Série 1 26 17 9 2 3 16 33 54
Série 2 : 17 25 13 28 19 20 22 16

Est-ce que la direction du 1 groupe comme du 2' est aléatoire


c'est-à-dire sans prédominance de direction?

9. La droite d’étalonnage d’un dosage y — ax + h esl tracée à partir des


données suivantes :
X (en microg) 1 23456789 10
;; (absorbance) 0,10 0,17 0,21 0,28 0,32 0,39 0,43 0,49 0,55 0,60

1° Calculer x, ÿ, ax et ay, a, b.
2° L’erreur type d’estimation Sdy et r.

10. La comparaison des concentrations urinaires de deux substances a conduit


à l’établissement du tableau suivant :
X (mg/litre) ; 1,0 2,1 2,9 3,2 5,0 5,5 7,3 7,8 8,9 9,6
10,0
Y (mg/litre) : 2,0 2,9 3,5 4,2 6,0 7,0 8,2 9,0 8.1 9,0
11,0.

a) Calculer x. ÿ, ax, ay, l’équation de la droite de régression et r.


b) Existe-t-il une corrélation significative entre Y et XI

RÉPONSES

/. a) X = 10,0 mg = 5,40 tng a = 2,32 mg

b) M = 10,0 mg s 2,45 mg.


224 RÉPONSES

2. méthode : On applique la formule : ^(x — xŸ

Zx = 30,60 X = 1,53 // = 20

'L(x— 1,53)2 = 0,050 8 si = lz{x— 1,53)2 = 0,002 7

5 = 0,05.

2® méthode : On applique la formule : = Sa-2


n— 1

Ex2 = 46,868 8 ^46,868 8 — = 0,002 7

i. 1° Distribution normale.
2° a) X = 1,095 5 1,10
a = 0,190 3 ~ 0,19
5 = 0,190 8 ~ 0,19

b) On choisit comme origine des valeurs de x multiplié par 10 le nombre <4=11,


qui est le centre de la classe la plus peuplée.
Transformations successives de la variable :

a:-► X = \0x -► X' = X— A = A'—Il

Jk" 4- 11 200 ^ * *
J = d_L_ü = —^- = 1,095 5
10 10
2 2 - 725
ax = al’ — (A' — /02 = ^ — (10,955 — 11)2 = 3,622 975 ~ 3,623 0

nr* = -1 ffAT = 0,190 3

3" .ïm = = 0,013 5 1,96 = 0,026


y/200

les limites à 0,05 sont donc


(1,096 — 0,026) = 1,07
et (1,096 + 0,026) = 1,12

4“ Appliquer le test du x~- H y a en tout 13 classes si l’on tient compte des classes extrê¬
mes : — 00 à 0,45 et 1,55 à -I- oo. De façon à avoir dans les classes des effectifs théoriques
supérieurs à 5, on regroupe les classes de — oo à 0,75 et de 1,45 à -h oo, ce qui ne laisse
subsister que 9 classes. Dans ce cas on trouve = 4,63 avec 9 — 3 = 6 degrés de liberté.
Pour V = 6, la valeur du x ' donnée par la table est xo.os = 12,59. L'échantillon observé
peut être supposé tiré d’une population normale caractérisée par les paramètres A/ = 1,10
et tr = 0,19.

4. a) !«'■ échantillon ;

«i =36 2:jr = 416,10 2:jit2 = 4 947,63


Tl = 11,56 ,vi = 1,99
RÉPONSES 225

2'’ échantillon ;
^x = 585,90

II
2:x2 = 8 324,49
X2 = 13,95 52 = 1,92

h) L'"'échantillon 2® échantillon
Classe Effectif Classe Effectif
7,25- 8,75 2 8,75-10,25 1
8,75-10,25 9 10,25-11,75 3
10,25-11,75 10 11,75-13,25 12
11,75-13,25 6 13,25-14,75 12
13,25-14,75 6 14,75-16,25 9
14,75-16,25 3 16,25-17,75 4
17,75-19,25 1
XI = 11,58 X2 = 13,96
.ïi = 2,10 .52 = 1,91
c) Compte tenu des résultats de a)
/( 1,99)2
d = X2 —XI = 2,39 ~
V 36 + 42 - 0 445 / =

Si l’on se contente des valeurs calculées en b) et arrondies à 3ci = 11,6, jcz = 14,0,
,yi = 2,10 et .ï2 = 1,92, ce qui est acceptable compte tenu de la précision de la méthode,
on obtient :
,10)2
/ÔJÔ] (I 92)2
d = 2,4 + 0,46 t ~ 5,2
= V-3r 42

Les valeurs de t trouvées dépassent de très loin celle qui correspond au seuil de
probabilité de 0,01. Les échantillons ne proviennent pas de la même population.

^2 2: (x—1,47)2
m = 14 X. = 1,47 13 = 0,012 4

2 Lfx—1,33)2
«2 = 8 X2 = 1,33 "«2 7 = 0,009 9

h) la valeur de F calculée à partir des estimations des variances précédentes est


0,012 4 _
1,25
0,009 9 “

avec j’i = 13 et V2 = 7 degrés de liberté. D’après la table de Snédécor, il n’existe pas de


différence significative entre ces variances. On peut donc prendre pour estimation de la
variance commune

^2 ^ n\ +
+(r,2 -l)>T.^
«2 — 2
^ ,,
00 525

a, = 0,107 s, = 0,107 J\ + ^ = 0,047

! = = 2,98 pour l• = 14 + 8 — 2 = 20 degrés de liberté.


0,047
D’après la table de Student, la différence observée entre les tailles est significative même
au seuil de 0,01.
226 RÉPONSES

6. En procédant comme dans l’exercice n" 5 on obtient t = 2,38. Si les calculs avaient été
exécutés sans arrondir les moyennes et les résultats intermédiaires, on aurait trouvé
t = 2,SS. Quoi qu’il en soit, la conclusion n’en serait pas changée. D’après la table
de Student et pour 20 degrés de liberté, la différence est significative au seuil de 0,05,
mais elle ne l’est pas au seuil de 0,01.

7. Loi de Poisson.
Regrouper les classes jc = 0 et jr = 1, ainsi que x = 6, x = 7, x = S et x > S,
V = 6 — 2 = 4,. x** = 5,25.

S. — possibilité de fuite dans une direction pt = l


O

— série 1 : »> = 7 x* = 106, non aléatoire,


— série 2 : v = 7 = 8,40, aléatoire.

9. X = 5,5 ÿ = 0,354 Oi = 2,87 Oy = 0,158 a = 0,055 b = 0,051


Sdv = 0,006 r = 0,999 2.

10. a) i = 5,8 ÿ=6,4 <7r = 3,02 (t„ = 2,80 >=0,90x4-1.25 r = 0,975


6) Les limites de l’intervalle de confiance de r au seuil 0,05 sont 0,900 et 0,995. Le coef¬
ficient de corrélation est significativement différent de zéro.
INDEX ALPHABÉTIQUE DES MATIÈRES

Les chiffres renvoient aux numéros des pages

A Comparaison de deux pourcentages,


116.
Adaptation d’une distribution expéri¬
mentale, 130. Comparaison de deux variances, 121.
Adaptation d’une distribution bino¬ Confiance (Intervalle de), 86.
miale, 130. Corrélation, 150.
Adaptation d’une distribution normale, Corrélation (Tableau de), 164.
132. Corrélation linéaire, 158.
Adaptation d’une distribution de Pois- • Corrélation multiple, 179.
son, 134. Corrélation non linéaire, 178.
Additivité des variances, 88. Corrélation partielle, 179.
Aléatoire (Phénomène), 33. Corrélation significativement diffé¬
rente de zéro, 173.
Aléatoire (Variable), 36.
Analyse de la variance, 123. Corrélation transformée (Paramètre
de), 162.
Analyse factorielle, 180.
Courbe centrée, 62.
Association entre caractères qualitatifs
181. Courbe de fréquence, 41.
Courbe de Gauss (Aires remarquables
B de la), 72.
Bimodale (Distribution), 14. Courbe de Gauss (Equation de la), 61.
Binôme (Formule du), 193. Courbe de Gauss (Morphologie de la),
64.
Binomiale (Distribution), 48.
Courbe de Gauss (Signification proba¬
biliste de la), 66.
C Courbe en cloche, 201.
Courbe intégrale, 202.
Caractère qualitatif (Description d’un),
Courbe normale (Tables de la), 69.
17.
Courbe réduite, 63.
Caractères qualitatifs (Association
Courbe sigmoïde, 202.
entre), 182.
Covariance, 152.
Caractéristiques (Paramètres), 19.
Critère du X^, 137.
Classe (Intervalle de), 9.
Classes (Groupement des données en),
D
8.
Coefficient de corrélation (Sécurité Degrés de liberté (Nombre de), 28.
d’un), 170. Densité de probabilité (Fonction de),
Coefficient de corrélation linéaire, 158. 40.
Coefficient de corrélation linéaire Diagramme asymétrique, 14.
(Principe du calcul d’un), 172. Diagramme cumulatif, 16.
Coefficient de pondération, 20. Diagramme de dispersion, 150.
Coefficient de sécurité, 89. Diagramme des fréquences, 11.
Coefficient de variation, 28. Diagramme des probabilités, 39.
Coefficient linéaire de régression, 157. Diagramme en J, 14.
Comparaison de deux moyennes, 108. Diagramme hyperbolique, 14.
228 INDEX ALPHABÉTIQUE DES MATIÈRES

Diagramme intégral, 43. Fréquences absolues, 11-35.


Diagramme symétrique, 13. Fréquences cumulées, 15.
Dispersion, 24. Fréquences relatives, 11-35.
Dispersion (Diagramme de), 150.
Distribution bimodale, 14. G
Distribution binomiale, 48. Galton (Loi de), 145.
Distribution binomiale (Adaptation Gauss (Courbe de), 61.
d’une), 130. Gausso-logarithmique (Echelle), 147.
Distribution de Poisson, 75. Gausso-métrique (Echelle), 144.
Distribution de Poisson (Adaptation Gibrat (Loi de), 147.
d’une), 134.
Distribution des fréquences, 7. H
Distribution des moyennes, 86.
Distribution des probabilités, 36. Henry (Droite de), 143.
Distribution de Student, 92. Histogramme, 11.
Distribution d’un pourcentage, 57-98. Hyperbolique (Diagramme), 14.
Distribution du X^, 138. Hypothèse nulle, 109.
Distribution normale, 60.
Distribution normale (Adaptation I
d’une), 132.
Indice de précision, 177.
Droite de Henry, 143.
Intégral (Diagramme), 43.
Droite de régression, 155.
Intégrale (Aire), 195.
Intégrale (Courbe), 202.
Intégrale (Fonction), 198.
Ecart quadratique, 24.
Intervalle de classe, 9.
Ecart réduit, 63. Intervalle de confiance d’un paramètre,
Ecart standard (de la moyenne), 85.
86.
Ecart type, 28-38. Intervalle de confiance de la moyenne,
Echantillon, 44.
88.
Echantillon représentatif. ?
Intervalle de confiance d’un pourcen¬
Echantillonnage (Problèmes d’), 85.
tage, 103.
Echelle gausso-logarithmique, 147.
Echelle gausso-métrique, 144.
L
Effectif, 7.
Effectif total, 11. Liberté (Nombre de degrés de), 28.
Erreur type d’estimation, 174. Ligne de régression, 153.
Espérance mathématique, 37. Ligne d’estimation, 153.
Estimation (Erreur type d’), 174. Limites, 9.
Estimation (Ligne d’), 153. Linéaire (Corrélation), 158.
Estimation (Problèmes d’), 85. Loi de Galton, 145.
Estimation de la moyenne, 85. Loi de Gibrat, 146.
Estimation d’un pourcentage, 99. Loi des grands nombres, 35.
F
M
Fluctuation, 24.
Fonction de densité de probabilité, 40. Médian (Point), 10.
Fonction de répartition, 44. Médiane, 29.
Fonction intégrale, 198. Mise en ordre des données, 7.
Formule de binôme, 193. Mode, 29.
Fréquence (Courbe de), 41. Moindres carrés (Méthode des), 155
Fréquences (Diagramme des), 11. Moyenne, 18-37.
Fréquences (Distribution des), 7. Moyenne (Ecart standard de la), 85.
Fréquences (Polygones des), 15. Moyenne (Estimation de la), 85.
INDEX ALPHABÉTIQUE DES MATIÈRES 229

Moyenne (Intervalle de confiance de Probabilités élémentaires, 49.


la), 88. Probabilités partielles, 42.
Moyenne de travail, 21. Probabilités totales, 42.
Moyenne pondérée, 20. Prospectives (Statistiques), 185.
Moyenne provisoire, 21.
Moyennes (Comparaison de deux), Q
108.
Moyennes (Différence significative entre Quadratique (Ecart), 24.
deux), 111. Qualitatif (Caractère), 17.
Quantités, 28.
Moyennes (Distribution des), 86.

N R
Rautomisation,
Nombre de degrés de liberté, 28. Référence (Valeurs de), 95.
Nombres (Loi des grands), 35. Régression (Coefficients linéaires de),
Non paramétrique (Méthode), 28. 157.
Normale (Distribution), 60. Régression (Droite de), 155.
Normalité biologique, 95. Régression (Lignes de), 153.
Répartition (Fonction de), 44.
P Rétrospectives (Statistiques), 185.
Paramètre de corrélation transformée,
172.
S
Paramètre t de Student, 93. Série statistique, 7.
Paramètres caractéristiques, 19. Sigmoïde (Courbe), 202.
Pascal (Triangle de), 197. Statistiques prospectives, 185.
Percentiles, 28. Statistiques rétrospectives, 185.
Poids (d’un caractère), 20. Student (Distribution de), 92.
Point médian, 10. Student (Paramètre de), 93.
Poisson (Distribution de), 74.
Polygone de fréquences, 15. T
Pondération (Coefficient de), 20.
t (Paramètre — de Student), 93.
Pondérée (Moyenne), 20.
Triangle de Pascal, 194.
Population, 42.
Pourcentage (Abaque d’estimation
d’un), 103.
V
Pourcentage (Distribution d’un), 57- Variable aléatoire, 36.
102. Variable contrôlée^ 155.
Pourcentage (Estimation d’un), 102. Variable de contrôle, 155.
Pourcentage (Intervalle de confiance Variable explicative, 155.
d’un), 103. Variable expliquée, 155
Pourcentage (Signification d’un), 118. Variance, 23-28.
Pourcentages (Comparaison de deux), Variance (Analyse de la), 123.
116. Variance (Calcul simplifié de la), 25.
Précision (Indice de), 177. Variance (Formules pratiques de la),
Probabilité (Fonction de densité de), 26.
40. Variance intergroupe, 125.
Probabilité (Notion de), 33. Variance intragroupe, 124.
Probabilités composées, 49. Variance factorielle, 125.
Probabilités cumulées, 43. Variance résiduelle, 125.
Probabilités (Diagramme des), 39. Variances (Additivité des), 88.
Probabilités (Distribution des ), 36. Variances (Comparaison de deux), 121.
V>, ' ■ ., ■ ’■ X-'t'»' -
.1 ■■ v' . ’. ..
•• '•
• ■ ‘ .'•T'^i''.//V-'fj
-J : , • • ’te’J

S.S. '•ff•' ' t . : J?.,*.. .*. ^ *^ ■ *' ; ■ *•'

^ ■ *,. s;,* .'■ à ^ ■ \

" '• 'T:i '.-'f’’ / ". - •■


1»^- '*, ■v'’* ■'■ ■
'^ *■ •■‘' ■'■.■'■■■ -• , . *. ' ■ - ■■ ' ' •>
^ - - ^. v-. - - v.*,.. ■
./ •■ / V ■

'Vt ^ -vi .'r*j-,’ '


•*. - - ■ ■ \V-- * '^vn ’f»
V’‘.
.'..-'v <:,'•
. ■ . . ^ .■.S:.;;„f!9v, -■
.<4wr. • ;* • .. ..-• ''f-.- ■ ■ .->

A '. * . •'■ •- i\ -

■■>'■ . V'

•.- ■ , * ^* '

'\ ■ r'''‘-'' •

/• > /
V. ' '^.

. . ■■

•'v^-- i-;
-*t '. ■

- ^,. ■

■■■■i--

. ' ' ■ ■-’■■• s ^;îw 'H-.'■ ,


■'.. ■•■ - “ ‘ ïA-.',
■ ■■ ■'•■" '■ . • '■ ''i"' ,].'■' ■■ • -

/•,#;. • ■ ?_, -,, <• ■'“ • ■, ; : -■ !•' î ■ . ■ ■' ' ■ '-


■ > ■^•- v‘
''iigi. ' . . ■

' ‘ ^t. ''* * ’

••'■m'4

'■■ i^v. ■ •,• ,♦* V


. V • ' -■ •; ■ '.; V I „■ ". ,. '•>*1
^ ■ ■■'’ ''' . ' '■■ > ■'. :'■-«.
MASSON, Editeur.
120, boulevard Saint-Germain
75280 Paris Cedex 06
Dépôt légal Avril 1983

Imprimé en France

IMPRIMERIE LOUIS-JEAN
av. d’Embrun, 05002-GAP
Dépôt légal 183-Mars 1983
I .* ff

Süt’ait.» V,'’» ; ■ ', / SijiJE

" '■ * ‘'S.- '., ^‘ji. .?


fef y. '' ■■
fc . - ; Va .-. r, V'-'. • «%
r <■. T > **- '’^«. ’ ’ .-11'. • - '. 'i'’ JL

■■•'■' ... ail ’

■■■. -''v.'■■,<<’,’ ■'*1,..^ ■ >* '“ ■^'"'.'i,- —' ' ''V


.lï.fiV:;■■ '/vv-', ■ . _ ■ 4*:îj- ^,' ■ ,--•

1'-^'Âv ' '■•':^^ÏT .:^àaHL


' ff

c
ISBN ; 2-225 791

Vous aimerez peut-être aussi