Vous êtes sur la page 1sur 396

METHODES

DE SONDAGE

^ Enquêtes électorales

^ Enquêtes dans le domaine

de la santé

^ Enquêtes dans les pays

en développement
Consultez nos parutions sur dunod.com
-ir.l x|
• Ié, hn eirod :» "3 ^ r
W V ét «tr onl-i MM Uiswoti ^ - Q - A>
R»ch«rch« Ccietinns Me* rejointe
Lc<Kivn;*
FTsr Mon compte
Ifttwf atlfln» - H
m
iiiïUJitXi.'Uti
-l-ll-.-y
DiicMB 2C£
Unoeon;
3*« Vçf»» D« 1
ccxçr-'Or 11
Ramst-B 2008 : Bûiioïftècue au DSI
exioet la nouve«e
formule : . rîiin Picrr ( .r.iii Rm Gesaon mduslneiie
Therry de Uoottroi Ukl: J KmV Mélos ae l> wgne
les ntevew^ élOj^n
!•*:«*• e. ManeDno «
Commurecalon
v^riiara Direoeu'
délssiissement social
rWcouvro/ Mt méoco-socul
Profowroo bit.olheQuc^
il5W£^l
Mvdopmmwl usioonnal Ta'êl :
et concnna tJecoj.rer le
/
>v;i h x tel éclco sociale
P is::ilI egiiin Psycnotegn
FlK-IjDfVl
Rcsnel Dé*eioopenier(!
îlecnatiê posonrel ei Biw-éire
RisinsK Entfepnse
Eipolise comolabe
Inlonnainrje oIN'IC
Infljsliie
toutes les newsietios
'lolte tmh
METHODES

DE SONDAGE

>■ Enquêtes électorales

^ Enquêtes dans le domaine

de la santé

>■ Enquêtes dans les pays

en développement

Cours et cas pratiques

Sous la direction de

Philippe Guilbert

Directeur adjoint des affaires scientifiques à


L'Institut national de prévention et d'éducation pour la santé

David Haziza

Professeur adjoint à l'Université de Montréal

Anne Ruiz-Gazen

Maître de conférences à l'Université Toulouse 1

Yves Tillé

Professeur à l'Université de Neuchâtel

DUNOD
Illustration de couverture : Digitalvision

Le pictogramme qui figure ci-contre d'enseignement supérieur, provoquant une


mérite une explication. Son objet est baisse brutale des achats de livres et de
d'alerter le lecteur sur la menace que revues, au point que la possibilité même pour
représente pour l'avenir de l'écrit, les auteurs de créer des œuvres
particulièrement dans le domaine DANGER nouvelles et de les faire éditer cor-
de l'édition technique et universi- rectement est aujourd'hui menacée.
taire, le développement massif du Nous rappelons donc que foute
photocopillage. reproduction, partielle ou totale,
Le Code de la propriété intellec- de la présente publication est
tuelle du 1er juillet 1992 interdit LE PHOTOCOPILLAGE interdite sans autorisation de
en effet expressément la photoco- TUE LE LIVRE l'auteur, de son éditeur ou du
pie à usage collectif sans autori- Centre français d'exploitation du
sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
s'est généralisée dans les établissements Grands-Augustins, 75006 Paris).

© Dunod, Paris, 2008


ISBN 978-2-10-053829-4

Le Code de la propriété intellectuelle n'autorisant, aux fermes de l'article


L. 1 22-5, 2° et 3° a), d'une part, que les « copies ou reproductions strictement
réservées à l'usage privé du copiste et non destinées à une utilisation collective »
et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et
d'illustration, « foute représentation ou reproduction intégrale ou partielle faite
sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est
illicite » (art. L. 1 22-4),
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Table des matières

AVANT-PROPOS

CHAPITRE 1 • QUALITÉ DES ENQUÊTES ET STATISTIQUE PUBLIQUE


1. Remarques sur l'estimation à partir de sources multiples
Jean-Michel Charpin 1
2. Défis liés à la mise en place d'outils de gestion de la qualité dans les enquêtes
France Lapointe, Jimmy Baulne et Louise Bourque 6
3. Eurobarométres, EVS, ISSP, ESS : quatre enquêtes internationales
Pierre Bréchon 11
4. Développements en cours du projet OCTOPUSSE de nouvel
échantillon-maître de l'Insee
Marc Christine et Sébastien Faivre 16
5. Vérification sélective des données pour le futur système français de statistiques
structurelles d'entreprises
Gwennaëlle Brilhault et Philippe Brion 21
6. Garantir la qualité de données d'entreprises françaises pour une enquête européenne
Agnès Checcaglini, Isabelle Recotillet et Patrick Roussel 26
7. Comparaison des déclarations des salariés et des employeurs dans
l'enquête Familles-Employeurs
Nicolas Razafindratsima, Anne Papadopoulos et Bernard De Clédat 31
ii Enquêtes et sondages

CHAPITRE 2 • ENQUÊTES LONGITUDINALES


1. Le traitement combiné des effets de non-réponse non-ignorable et de sondage
informatif dans l'analyse des données issues des enquêtes longitudinales
Gad Nathan et Abdulhakeem Eideh 37
2. L'imputation dans les enquêtes longitudinales au Canada
Michelle Simard 45
3. Calcul de la précision des estimations longitudinales dans l'Enquête Emploi en Continu
Dominique Place 53
4. Mise en place d'un système d'observation longitudinale des enfants en danger
Lucy Marquet, Juliette Halifax, Emmanuelle Guyavarch,
Olivier Cohen et Catherine Quantin 58
ème
5. Le panel d'élèves entrés en 6 en 1995
Nathalie Caron et Sylvie Lemaire 63
6. Étude de l'attrition du panel suisse de ménages : applications à l'enquête
SILC en Suisse
Eric Graf. 67
7. Impact de l'attrition d'un panel de jeunes conducteurs sur l'analyse du risque
Sylvain Lassarre, Cécile Coquelet, Pierre-Alain Hoyau et Agénor Lahatte 72

CHAPITRE 3 • ENQUÊTE ET SANTÉ


1. Les cohortes épidémiologiques prospectives : principes, difficultés,
solutions envisagées
Marcel Goldberg, Alice Gueguen, Annette Leclerc, Jean-Louis Lanoé et Marie Zins 79
2. Enquêter les soignés
Patrick Peretti-Watel 87
3. Enquête de prévalence du VIH et du VHC, complétée par une recherche socio-
anthropologique chez les usagers de drogues en France métropolitaine, 2004-2007
Marie Jauffret-Roustide, Yann Le Strat, Nicolas Razafindratsima,
Julien Emmanuelli et Jean-Claude Desenclos 94
4. Les nouveaux développements dans les enquêtes sur la santé au Canada
Michelle Simard et Johane Dufour 99
5. Événements de vie et santé : principes et méthodes
Catherine Cavalin 108
6. Le recours à un répondant Proxy importe-t-il dans les enquêtes sur la santé ?
Bérengère Davin, Xavier Joutard, Alain Paraponaris et Pierre Verger 113
7. Les évolutions méthodologiques d'une enquête répétée : avantages et inconvénients.
L'exemple du Baromètre santé
Arnaud Gautier, Christophe Léon, François Beck et Philippe Guilbert 118
8. L'Enquête suisse sur la santé : présentation et méthodologie d'une grande enquête
nationale de santé
Renaud Lieberherr 122
9. Approche biographique de l'espace de vie, de la santé et des événements
marquants auprès de seniors vivant en Belgique
Laurence Thomsin, Yannick Banturiki, Nicolas Rogister et Ingrid Schockaert 127
10. La mesure des consommations alimentaires par l'étude INCA2
Ariane Dufour, Lionel Lafay et Jean-Luc Volatier 132
Table des matières iii

CHAPITRE 4 • SONDAGES ÉLECTORAUX


1. La commission des sondages et les campagnes électorales
Elisabeth Dupoirier 139
2. Délibération et changement d'opinion lors d'un sondage
Patrick Fournier, Mathieu Turgeon, André Biais, Elisabeth Gidengil,
Neil Nevitte et Joanna Everitt 147
3. L'espace politique français à la veille de l'élection présidentielle (2007) :
analyse géométrique des données
Jean Chiche, Viviane Le Hay et Brigitte Le Roux 152
4. La détermination par les instituts de l'indétermination des électeurs
Patrick Lehingue 158
5. Les probabilités de vote
Bernard Denni et Philippe Caillot 164
6. L'appui à la souveraineté du Québec : effets de formulation de la question et
effets de contexte
François Yale et Claire Durand 169

CHAPITRE 5 • SONDAGES DANS LES PAYS EN DÉVELOPPEMENT


1. L'estimation du nombre d'enfants victimes de traite au Bénin :
un défi méthodologique majeur
Blandine C. Dansou 175
2. La pratique des enquêtes par sondages auprès des ménages au Liban
Najwa Yaacoub 180
3. Gouvernance, démocratie et lutte contre la pauvreté : enseignements tirés des enquêtes
officielles auprès des ménages en Afrique francophone et dans la Communauté andine
Javier H errera, Mireille Razafmdrakoto et François Roubaud 188
4. L'apport des outils décisionnels dans la réalisation des enquêtes des pays en
développement : le cas de Madagascar et du Mali
Jean-Marc Philip et Myriam Maumy 194
5. Peut-on se fier aux bases de données internationales sur la corruption ? Une
confrontation entre enquêtes-experts et enquêtes-ménages en Afrique subsaharienne
Mireille Razafindrakoto et François Roubaud 199
6. Effet du plan de sondage dans les enquêtes 1-2-3 en Afrique de l'Ouest
Aude Vescovo et Eloi Ouedraogo 204
7. Précision des indicateurs de niveau de vie de l'enquête ECAM 2
Justin Bem, Martin MBA et Ludovic Subran 209
8. Prévalence de l'obésité en Algérie : résultats d'une enquête sur un échantillon national
Mohamed Lamine Atif, Salim Benkhedda, Kamel Merad-Boudia et
Abdeldjallil Bezzaoucha 215
9. Sondage simplifié et coût-efficace dans les enquêtes Origine-Destination (OD)
de type entreprise
Orner Ramsès Zang Sidjou 219
10. Exemple de méthodologie pour une enquête auprès des populations
d'Afrique subsaharienne
Nathalie Lydié, Philippe Guilbert et Gaël Sliman 224
iv Enquêtes et sondages

CHAPITRE 6 • MÉTHODES DE COLLECTE ET APPLICATIONS


1. Techniques d'orientation et de manipulation dans les questionnaires
Gérard Dahan 229
2. Du questionnaire papier au support électronique : l'expérience du
recensement canadien de 2006
Rossana Manriquez 234
3. Questionnaire : apports et limites de la rotation des items
Robert Revat 238
4. La technique du questionnaire unique
Souleymane Ouedraogo 243
5. L'apport d'un échantillon de possesseurs exclusifs de téléphones mobiles
dans l'enquête « Contexte de la sexualité en France » (2005-2006)
Laurent Toulemon, Nicolas Razafindratsima et le groupe CSF 249
6. L'acharnement téléphonique dans les enquêtes est-il justifié ?
François Beck, Arnaud Gautier, Philippe Guilbert et Pierre Arwidson 254
7. Enquête EFE : retour méthodologique sur la collecte (papier et Internet)
Céline Dauplait, Bernard de Clédat et Tania Vichnevskaia 259
8. Utilisation de modes de recueil de données mixtes dans une enquête
auprès des étudiants
Jean-Baptiste Combes, Valérie Guagliardo, Patrick Perreti-Watel et Pierre Verger 264
9. D'une approximation statistique à une approximation géographique ;
l'exemple d'une enquête santé à Luxembourg
Philippe Gerber et Sébastien Fleuret 269
10. Enquête Web ; une opportunité pour réduire la non-réponse totale dans
les enquêtes ménages déplacements
Caroline Bayart et Patrick Bonne/ 275
11. Tests méthodologiques sur les questionnaires « en ligne »
Olivier Lé Van Truoc et Benoît Parraud 279

CHAPITRE 7 • ÉCHANTILLONNAGE
1. Contraintes d'équilibrage non linéaires
Éric Lesage 285
2. Sondage systématique et sondages à support minimal
Johan Pea, Lionel Qualité et Yves Tillé 290
3. Échantillonnage sous contraintes à entropie maximale : un algorithme rapide basé sur
l'optimisation linéaire en nombres binaires
Philippe Périé 294
4. Amélioration de l'allocation de Neyman en tenant compte de la précision
dans les strates de publication
Malik Koubi et Sandrine Mathern 299
5. Coordination des échantillons en utilisant la sélection contrôlée
Alina Matei 305
6. Tirages coordonnés d'échantillons stratifiés : méthodes basées sur des microstrates
Desislava Nedyalkova et Yves Tillé 309
7. Échantillonnage sur les flux de données : état de l'art
Raja Chiky, Alain Dessertaine et Georges Hébrail 314
Table des matières v

CHAPITRE 8 • ESTIMATION
1. Calages successifs, calages itérés
Jean-Claude Deville 319
2. Sur l'utilisation de la régression non paramétrique pour des données d'enquêtes
Torsten Harms et Pierre Duchesne 327
3. Un échantillon double pour minimiser le biais dû à la non-réponse dans
un sondage par courrier
Herbert L. Smith 334
4. Sondage à deux systèmes d'unités primaires couplées
Sébastien Hallépée et Vincent Loonis 339
5. Intégration de deux sources de données dans les inventaires forestiers du Québec
Sophie Baillargeon et Louis-Paul Rivest 344
6. Comparaison de trois méthodes d'estimation du loyer fictif
Modou Dia 348
7. Estimation de courbes de consommation électrique à partir de mesures
non synchrones
Alain Dessertaine 353
8. Méthodes de Bootstrap en population finie
Guillaume Chauvet 357
9. Une méthode Bootstrap pratique pour tester des hypothèses à partir
de données d'enquête
Jean-François Beaumont et Cynthia Bocci 365
10. Estimation de variance en présence de deux échantillons : linéarisation et Bootstrap
Guillaume Chauvet, Camélia Goga et Anne Ruiz-Gazen 369
11. Évaluation de précision par Bootstrap pour des algorithmes de tirage
à probabilités inégales : une étude empirique
Aurore Kervella, Emmanuel L'Hour, Nicolas Raillard, Stevenn Volant et
Guillaume Chauvet 374

INDEX DES AUTEURS


û
CO
o
o
fM

ai
>-
CL
O
u
Avant-propos

L'abondance toujours plus grande de données administratives pourrait laisser


croire que le recours aux enquêtes par échantillonnage deviendra vite une
technique obsolète. A quoi bon constituer des estimations basées sur des
données partielles si des données exhaustives sont disponibles ? Pourtant, les
données d'enquêtes sont de plus en plus utilisées. En témoigne le nouveau
recensement français, où un relevé décennal a été remplacé par l'utilisation
annuelle de groupes de rotation en appliquant les techniques d'échantillon-
nage et d'estimation les plus modernes. Ce nouveau recensement, rénové en
partie grâce à l'utilisation de méthodes de sondage, pennet maintenant une
publication annuelle des statistiques démographiques.
Les statisticiens d'enquête doivent affronter de nouveaux défis. De plus en
plus d'informations sont disponibles par voies administratives, mais les
fichiers existants ne contiennent pas nécessairement les infonnations
pertinentes. Les statisticiens doivent donc mettre à profit ces sources parfois
hétéroclites pour concevoir les plans de sondage et pour estimer les
paramètres d'intérêt. L'utilisation de sources multiples en statistique publique
est un enjeu majeur qui nécessitera de nouveaux développements théoriques
et méthodologiques.
Les huit chapitres de ce livre reprennent les principales communications du
cinquième colloque francophone sur les sondages qui s'est tenu à Marseille
en novembre 2007 sous l'égide du groupe Enquêtes, modèles et applications
de la Société française de statistique. Ce livre est destiné aux chercheurs, aux
praticiens d'enquêtes et aux enseignants qui veulent actualiser leurs
connaissances et s'intéressent aux applications les plus récentes de la théorie
des sondages. Cet ouvrage est le cinquième tome d'une série publiée par
Dunod reprenant les interventions des quatre colloques précédents qui se sont
viii Enquêtes et sondages

tenus à Rennes en 1997, Bruxelles en 2000, Grenoble en 2002 et Québec en


2005.
Le colloque francophone sur les sondages est un lieu d'échange important
où sont exposées les dernières innovations statistiques de la théorie des
sondages et les applications les plus récentes. En 2007, le comité scientifique
a voulu organiser un colloque tourné vers les applications dans les domaines
de la santé et des enquêtes électorales, en espérant que le dialogue entre la
théorie et les applications soit fécond. L'analyse des enquêtes longitudinales a
également été un thème privilégié, car c'est un outil crucial dans le domaine
de la santé publique. Le comité scientifique a également souhaité que les
chercheurs de tous les pays francophones aient la possibilité de participer à
cette conférence. Dans cet esprit, les meilleures communications émanant de
pays en développement ont été sélectionnées. La participation de leurs auteurs
au colloque sondage a été financée par des bourses. Nous tenons à remercier
la Fondation « la Science Statistique » présidée par le Professeur Edmond
Malinvaud, qui a contribué au financement de ces bourses.
Le premier chapitre porte sur la qualité des données et la statistique
publique. L'estimation à partir de sources multiples est l'un des thèmes
privilégiés avec un premier article de Jean-Michel Charpin, ancien directeur
général de l'Institut National de la Statistique et des Etudes Économiques
(Insee), et deux contributions, illustrant d'une part la nécessité de mettre en
œuvre une vérification sélective des données sur une enquête de l'Insee et
cherchant d'autre part à expliquer les divergences des données des différentes
sources sur une enquête de l'Institut national d'études démographiques (Ined).
Ce chapitre contient aussi une description de la mise en place d'outils de
gestion de la qualité à l'Institut de la Statistique du Québec ainsi qu'une
présentation du nouvel échantillon maître de l'Insee. Les difficultés de la mise
en œuvre d'enquêtes internationales font l'objet de deux articles avec
l'exemple de quatre grandes enquêtes internationales en sciences sociales et
l'étude de la qualité des données d'entreprises sur une enquête coordonnée
par Eurostat.
Le thème des enquêtes longitudinales est abordé dans le chapitre 2. L'article
de Gad Nathan et Abdulhakeem Eideh aborde la question du traitement de la
non-réponse dans les enquêtes répétées. Michelle Simard décrit ensuite les
méthodes d'imputation dans les enquêtes longitudinales au Canada. Puis, une
contribution traite de la question du calcul de précision dans l'enquête emploi
de l'Insee. Vient ensuite la présentation de deux enquêtes consacrées aux
enfants en France : une enquête sur panel d'élèves entrés en 6eme en 1995 et la
mise en place d'un système d'observation longitudinale des enfants en
danger. S'ensuivent deux textes étudiant le phénomène de l'attrition : le
premier dans le contexte du panel suisse de ménages et le second dans le
contexte de l'enquête « Mobilité, attitudes, risque et comportements »
(MARC) visant à étudier le risque routier des jeunes automobilistes français.
Avant-propos ix

Le chapitre 3, consacré aux enquêtes dans le domaine de la santé, est


introduit par Marcel Goldberg qui propose un tour d'horizon des principes
méthodologiques et des difficultés rencontrées dans les cohortes épidé-
miologiques prospectives. D'autres enquêtes ont pour vocation d'estimer des
prévalences ou de décrire des comportements de santé au niveau national et
régional. Deux exemples d'enquêtes multithématiques de santé publique sont
ici présentés. Il s'agit des enquêtes de Statistique Canada, de l'Office fédéral
de la statistique (Suisse) et de l'Institut national de la prévention et de
l'éducation pour la santé (Inpes, France). Le chapitre 3 donne également des
exemples d'enquêtes thématiques avec le détail de leur méthodologie. Il s'agit
d'une enquête sur la nutrition de l'Agence française de sécurité sanitaire des
aliments (AFSSA), d'une enquête sur la prévalence de VIFI et du VHC de
l'Institut de veille sanitaire (InVS), d'une enquête auprès de personnes
actuellement soignées présentée par Patrick Peretti-Watel et d'une étude sur
l'opportunité d'interroger une personne en capacité de répondre {répondant
proxy) à la place de celle sélectionnée par le protocole mais en incapacité de
le faire. Deux autres articles rappellent l'importance du lien entre santé et
événement de vie : une enquête de la Direction de la recherche, des études, de
l'évaluation et des statistiques (DREES) et une de l'Université de Liège.
Les sondages électoraux font l'objet du chapitre 4 qui commence par une
présentation et une analyse du rôle de la commission des sondages en France
par Elisabeth Dupoirier. L'article suivant étudie l'impact du positionnement
des questions sur les intentions de vote pour des enquêtes électorales
canadiennes. Les trois articles suivants traitent des élections présidentielles
françaises de 2007 et présentent une analyse de l'espace politique français et
deux études sur l'indétermination et l'hésitation des électeurs dans les
enquêtes préélectorales. Finalement, François Yale et Claire Durand analysent
les effets de formulation de la question et les effets de contexte dans les
enquêtes concernant la souveraineté du Québec.
Le chapitre 5, dédié aux sondages réalisés dans les pays en développement,
offre une photographie des principaux enjeux et des principales difficultés de
la statistique publique dans ces pays. Les responsables des enquêtes
statistiques doivent souvent faire face à des pénuries de moyens humains et
financiers. Najwa Yaacoub décrit ainsi toute la mise en place de l'Institut de
Statistique du Liban à travers l'évolution de la situation politique et
économique de son pays. Dans des contextes parfois délicats, les instituts
nationaux de statistique ou les chercheurs doivent souvent faire preuve d'un
grand sens pragmatique et jouer d'astuces pour limiter les coûts de collecte
(sondage simplifié, recours aux outils décisionnels). Les sujets des enquêtes
exposés dans le cadre de ce colloque montrent également à quel point la
statistique des pays en développement peut jouer un rôle majeur d'alerte aussi
bien auprès des pouvoirs publics que de l'ensemble de la communauté
internationale (estimation du nombre d'enfants victimes de la traite au Bénin,
X Enquêtes et sondages

lutte contre la pauvreté, estimation de la corruption). Le lecteur trouvera aussi


des sujets moins spécifiques à ces pays avec un article sur l'estimation de la
précision dans une enquête « ménage » camerounaise, un autre sur
l'estimation de l'obésité en Algérie ou encore une étude sur le rôle des
enquêtes dans les prises de décisions politiques. Un dernier article présente
les comportements, attitudes, opinions et connaissances des populations
subsahariennes vivant en France dans le domaine du sida/VIH.
Les contributions du chapitre 6 portent sur les méthodes de collecte et
applications. Les points successivement abordés sont les techniques
d'orientation et de manipulation dans les questionnaires, l'analyse de
nouveaux modes de saisie dans le recensement canadien de 2006, les apports
et limites de la rotation des items dans un questionnaire, la technique du
questionnaire unique, l'apport d'un échantillon de possesseurs exclusifs de
téléphones mobiles sur une enquête de l'Institut national de la santé et de la
recherche médicale (Inserm), l'étude de l'acharnement téléphonique, la
description et l'évaluation d'un double mode de collecte, (internet et papier),
pour une enquête de l'Ined, l'analyse de l'interchangeabilité de différentes
stratégies de collecte sur une enquête de l'Observatoire régional de la santé,
Provence-Alpes-Côte d'Azur (ORS PACA), la mise au point d'une
reconstitution de répartition spatiale à partir de données échantillonnées dans
la ville de Luxembourg, l'utilisation du web comme une opportunité pour
réduire la non-réponse totale et enfin l'évaluation de l'incidence de la mise en
forme des questions dans les enquêtes « en ligne ».
Au chapitre 7, le lecteur trouvera des développements formels récents sur
plusieurs aspects de l'échantillonnage. Deux articles sont consacrés au
problème de l'échantillonnage équilibré : un algorithme utilisant une
technique de parcours 'intelligente' de l'ensemble des solutions dite de
« Branch and Bound » et une méthode permettant d'équilibrer sur des
contraintes non-linéaires. Deux textes traitent du problème de la coordination
d'échantillons. L'un étudie une méthode de sélection contrôlée et
l'application de cette méthode à la coordination des échantillons. L'autre
propose huit nouvelles méthodes basées sur des permutations de nombre
aléatoires dans des microstrates et compare ces dernières à des méthodes
existantes. Les autres contributions portent sur les propriétés de l'échan-
tillonnage systématique, sur le problème de la répartition de l'échantillon dans
le contexte de l'échantillonnage stratifié et sur l'échantillonnage sur les flux
de données.
Plusieurs questions relatives à l'estimation en populations finies font l'objet
du chapitre 8. Jean-Claude Deville développe les propriétés théoriques du
calage successif. Pierre Duchcsne présente les propriétés asymptotiques des
estimateurs polynomiaux locaux faisant intervenir le plan de sondage.
Guillaume Chauvet fait une synthèse des méthodes bootstrap applicables en
population finie. L'estimation de la variance par la méthode du boostrap en
Avant-propos xi

populations finies est traitée dans deux autres textes. Une méthode utilisant
les poids bootstrap pour tester des hypothèses sur des paramètres analytiques
est présentée. Ce chapitre contient aussi la présentation de l'utilisation du
modèle linéaire mixte pour l'intégration de deux sources de données dans les
inventaires forestiers du Québec, une comparaison de trois méthodes
d'estimation de loyer fictif, l'utilisation de l'échantillonnage à deux-phases
pour réduire les biais de non-réponse, une présentation de certaines facettes de
l'estimation dans le cadre de l'enquête Vie Quotidienne et Santé ainsi qu'une
description de l'estimation de courbes de consommation électrique à partir de
mesures non synchrones.
Nous voulons remercier toutes les personnes qui ont contribué au succès du
cinquième colloque francophone sur les sondages en particulier les membres
du comité scientifique1 et du comité d'organisation2 qui ont consacré
beaucoup de temps pour que cette manifestation soit une réussite. Les
principaux partenaires de cette manifestation ont été l'Observatoire Régional
de la Santé (ORS) de Provence-Alpes-Côte d'Azur, la Direction régionale
Provence Alpes Côte d'Azur de Institut national de la statistique et des études
économiques (Insee), le Centre d'études et de recherches sur les qualifications
(Céreq), le Laboratoire population-environnement-développement (Lped), le
Laboratoire d'économie et de sociologie du travail (Lest), l'Institut fédératif
de recherches sciences humaines économiques & sociales d'Aix-Marseille
(IFR 134 SHESS-AM) et le Centre sur la Population et le Développement
(CEPED). Nous exprimons également notre gratitude envers les institutions et
les entreprises suivantes qui, par leur soutien financier, ont permis la
réalisation du colloque et de cet ouvrage : Ined, Insee, Fondation pour la
science, Cnrs, Drees, InVS, Inpes, Office fédéral suisse de la statistique,
Institut de la statistique du Québec, Ville de Marseille, BVA, IPSOS, LH2,
IRDES. Nous remercions les auteurs des articles de cet ouvrage qui ont
travaillé avec diligence pour se conformer à nos exigences éditoriales. Enfin,
nous voulons remercier tout particulièrement Céline Ethier qui a réalisé la

1 Yves Tillé (Président, Université de Neuehâtel, Suisse), Louise Bourque (Vice-


Présidente, Institut de la statistique du Québec, Canada), Jean Chiche (CEVIPOF,
CNRS, Sciences Po, Paris), Vancssa Di Paola (LEST, Université de la Méditerranée,
Aix-en-Provence), Philippe Guilbcrt (INPES, Paris), David Haziza (Université de
Montréal, Montréal), Farhad Mehran (Ancien directeur du service statistique du BIT,
Genève), Jean-Paul Moatti (INSERM U379, Marseille), Camélia Protopopescu,
(INSERM U379, ORS PACA, Marseille), Anne Ruiz-Gazen (Université Toulouse 1),
Paul-André Salamin (Office Fédéral de la Statistique, Neuehâtel), Olivier Sautory
(Insee, Paris), Laurent Toulemon (INED, Paris).
2 Docteur Yolande Obadia, Présidente, directrice de l'Observatoire régional de santé
PACA, François Clanché, vice-président et trésorier, directeur régional de l'Insee
PACA, Odile Bcllardi (INSEE PACA), Vancssa Di Paola (LEST, Université de
Provence, Aix en Provence), Alberto Lopcz (Céreq, Marseille), William Molmy
(Céped, Paris), Jean-Luc Perrot (Insee PACA), Benoît Riandey (SFdS, INED, Paris),
Michel Stoësz (Céreq, Marseille), Jacques Vaugelade (LPED, 1RD, Marseille),
Christine Voto (ORS, PACA).
xii Enquêtes et sondages

mise en page de ce livre et Soazig L'Helgouac'h qui a assuré la plus grande


partie du travail de secrétariat du comité scientifique et du comité éditorial de
cet ouvrage.

Philippe Guilbert, David Haziza, Anne Ruiz-Gazen et Yves Tillé


Chapitre 1

Qualité des enquêtes

et statistique publique

1. Remarques sur l'estimation à partir de

sources multiples

1
Jean-Michel CHARPIN

1.1 Introduction

Après presque cinq années à la tête de l'Insee, j'ai acquis une expérience
pratique de l'estimation statistique à partir de sources multiples. C'est sur la
base de cette expérience que je formulerai quelques remarques modestes.
Même quand je pourrais le faire, je ne chercherai pas à entrer dans les aspects
scientifiques de l'estimation à partir de sources multiples.

1.2 Première remarque : la comptabilité

nationale nous a habitués à procéder de

façon courante à des estimations à partir de

sources multiples

Dans la comptabilité nationale, il y a un chiffre et un seul dans chaque case.


Il y a un chiffre. Il faut donc en mettre un, même quand on n'a pas
d'informations. L'estimation se fait alors par solde ou en appréciant la

l Inspecteur général des Finances, ancien directeur général de l'Insee de janvier 2003 à
octobre 2007.
2 Enquêtes et sondages

cohérence en ligne et en colonne. Cette méthode, qui surprend toujours les


vrais comptables, permet à la comptabilité nationale d'être disponible très
rapidement. Ce fut l'une des raisons qui firent choisir la comptabilité
nationale comme langage de la procédure de déficit excessif créée par le
Traité de Maastricht, décision qui n'allait pas de soi.
Mais surtout, il n'y a qu'un seul chiffre. Lorsqu'existent des sources
multiples, ce qui est fréquent, il est alors nécessaire d'en choisir un parmi tous
les candidats possibles, de procéder à des arbitrages entre les différentes
sources.
Cette contrainte d'unicité, de synthèse est très exigeante. En même temps,
elle a sa part dans l'explication du succès considérable, peut-être excessif, de
la comptabilité nationale tant dans le débat public que dans les procédures
politiques, particulièrement au niveau européen.
Dans la plupart des pays, ce sont les statisticiens qui sont responsables de
l'établissement de la comptabilité nationale. Ils ont donc acquis une
expérience de l'estimation à partir de sources multiples. Le principal
enseignement qu'ils en ont tiré est qu'il faut éviter de trop fréquents
changements dans les procédures d'arbitrage. Ce sont les variations des
agrégats comptables qui intéressent au premier chef les utilisateurs, plus que
la précision des estimations en niveau. Or les changements ont un impact
direct sur les variations. La fidélité de l'instrument est donc essentielle. Elle
nécessite beaucoup de stabilité, voire de conservatisme : les changements ne
doivent intervenir qu'en cas d'apparition de sources nouvelles ou de fort
basculement dans la qualité respective des sources.

1.3 Deuxième remarque : de plus en plus, la

statistique elle-même estime à partir de

sources multiples

Je vais en donner deux exemples qui me paraissent très illustratifs.

1.3.1 Les populations légales en France

La loi du 27 février 2002, qui a réformé le recensement français, prévoit que


l'Insee établit les populations légales en utilisant les enquêtes de recensement,
certes, mais aussi les données issues des fichiers administratifs ainsi que de
toutes les enquêtes statistiques. A lire l'article concerné de cette loi, on
comprend clairement que, sur le plan juridique, ce n'est plus le recensement
qui détermine la population légale, c'est la décision de l'Insee, fondée sur
l'ensemble des sources à sa disposition.
Le hasard a d'ailleurs fait que nous avons très rapidement fait usage de cette
possibilité lors du recensement conduit en 2004 en Nouvelle-Calédonie, alors
même qu'il s'agissait d'une enquête de recensement exhaustive, à l'ancienne,
mais qui avait donné lieu à des mouvements localisés de boycott.
1. Qualité des enquêtes et statistique publique 3

Pour la France métropolitaine, il restera à voir l'usage que l'Insee fera de


cette possibilité lors de la publication, fin 2008, des populations légales. Un
usage est certain, celui de sources administratives pour procéder, pour les
communes de moins de 10 000 habitants, aux extrapolations nécessaires. En
effet, ces communes sont enquêtées de façon exhaustive, mais par roulement,
à raison du cinquième d'entre elles chaque année. Pour ramener les
estimations de population à l'année commune (2006 pour les populations
légales publiées en 2008), il faudra procéder à des interpolations, ce qui est
facile, et à des extrapolations, ce qui l'est moins. Notamment les
extrapolations nécessaires pour établir les populations des villes de moins de
10 000 habitants recensées en 2004 et 2005 seront fondées sur des données
administratives recueillies pour collecter la taxe d'habitation. On verra s'il est
utile d'aller au-delà, c'est-à-dire d'utiliser d'autres sources pour compléter le
recensement, en fonction de l'appréciation que l'Insee portera sur la qualité
des résultats du recensement. Il n'est pas impossible, si celle-ci est aussi
bonne que nous l'espérons actuellement, que l'on fasse systématiquement
confiance au recensement. Mais le choix de faire appel exclusivement à cette
source résulterait alors d'une appréciation sur la supériorité de celle-ci par
rapport à toutes les autres, et non d'une obligation.

1.3.2 Les estimations conjoncturelles d'emploi

Pour les estimations publiées 70 Jours après la fin du trimestre, l'Insee utilise
systématiquement une enquête, l'enquête sur l'activité et les conditions
d'emploi de la main-d'œuvre (ACEMO) de la Direction de l'animation de la
recherche, des études et des statistiques (DARES) (exploitation dite de 2eme
tour, le 1er tour ayant servi pour les premières estimations publiées 45 jours
après la fin du trimestre), et deux sources administratives, celle de l'Union
nationale interprofessionnelle pour l'emploi dans l'industrie et le commerce
(UNEDIC) et celle de l'Agence centrale des organismes de Sécurité sociale
(ACOSS).
Le principe d'arbitrage consiste à déterminer dans chaque catégorie, fondée
sur le secteur et la taille des entreprises, la source qui s'est révélée la plus
performante dans le passé récent et à l'adopter jusqu'au prochain réexamen,
en général annuel. Au cours des dernières années, la source ACOSS a vu son
importance augmenter, d'une part, parce qu'elle est la seule à couvrir les
établissements de moins de 10 salariés (ce qui lui donnait un avantage majeur
en période de montée en charge du contrat nouvelles embauches), d'autre
part, du fait de sa fiabilité croissante.
En raison de la forte volatilité de ses résultats, et bien que ceux-ci soient
disponibles dans les délais, l'enquête Emploi n'a jamais été mise à
contribution pour établir les estimations conjoncturelles d'emploi. Il s'agit
d'un cas intéressant et relativement rare de renoncement à l'utilisation d'une
source pourtant disponible.
4 Enquêtes et sondages

1.4 Troisième remarque : les raisons qui

poussent à l'estimation à partir de sources

multiples sont puissantes, suffisamment

pour être certain de la poursuite de cette

tendance

Trois raisons m'apparaissent décisives :


1. D'abord, la multiplication des sources, condition nécessaire. Elle tient
notamment à la disponibilité pour les statisticiens d'un nombre
croissant de sources administratives. L'article 7bis de la loi de 1951
modifié en 2004 permet désormais à l'Insee et aux services statistiques
ministériels un accès facile aux sources administratives. Même si
chacune d'elles livre des informations qui ne correspondent pas
toujours exactement aux besoins de la statistique, puisque leur raison
d'être était administrative et non statistique, elles ont l'avantage de
pouvoir être mobilisées à faible coût.
2. Ensuite, la rareté des cas où une source a des perfonnances sans
conteste supérieures aux autres. Dans la plupart des cas, chaque source
a ses zones, voire ses périodes de bonne performance et d'autres où ses
performances sont moins bonnes. Dès lors, choisir de ne s'appuyer que
sur une source, quand il en existe plusieurs, peut être hasardeux. C'est
cependant, en un sens, le cas quand les sources sont spécialisées, avec,
par exemple, une source utilisée pour des analyses structurelles et une
autre à des fins conjoncturelles, ou encore une source pour estimer la
moyenne et une autre pour estimer les indicateurs de dispersion. C'est
ainsi que l'Insee fonde ses indicateurs de dispersion des revenus des
ménages, notamment le taux de pauvreté monétaire, sur l'enquête
revenus fiscaux, mais qu'il n'utilise pas cette enquête pour estimer
l'agrégat macroéconomique correspondant, en raison de l'incertitude
liée à l'échantillonnage.
3. Enfin, le public et la presse supportent mal l'existence de plusieurs
sources pour la même variable, ils demandent de la cohérence, ils
estiment, probablement à juste titre, que les statisticiens sont les mieux
placés pour procéder aux arbitrages. Ceux-ci sont en conséquence
soumis à des pressions constantes pour qu'il n'y ait, à un moment
donné, qu'une mesure pour chaque variable économique ou sociale.
Les administrations propriétaires de sources donnant des informations
sur des sujets grand public sont évidemment enclines à les publier, à la
fois pour communiquer sur leur action et dans un objectif de notoriété.
C'est alors à l'institution statistique qu'il revient usuellement
d'élaborer une estimation faisant la synthèse entre les meilleures
sources disponibles. Il ne faut cependant pas se cacher que le risque
1. Qualité des enquêtes et statistique publique 5

existe toujours que l'estimation de synthèse soit considérée comme une


source supplémentaire ajoutant à la confusion. C'est ainsi que certains
organes de presse considèrent parfois l'estimation conjoncturelle
d'emploi publiée par l'Insee comme une source statistique autonome,
alors qu'il ne s'agit que d'une synthèse obtenue à partir de trois sources
extérieures à l'Insee.

1.5 Quatrième remarque : l'estimation à partir

de sources multiples suppose des choix du

statisticien, en général sur la méthode,

quelquefois sur le résultat, sur lesquels il

doit s'expliquer et risque d'être mis en

cause

La situation dans laquelle chaque source est publiée en tant que telle sans
tentative de synthèse avec les autres sources est susceptible de dérouter
l'utilisateur, mais elle est confortable pour le statisticien. C'est pourquoi, par
exemple, l'Insee a décidé fin septembre 2007 d'y revenir en matière
d'estimation du chômage. Si la mise en cohérence des différentes sources
n'est pas possible, ce qui s'est avéré avoir été le cas en 2006, pourquoi en
effet ne pas publier séparément chacune d'elles à son rythme, mensuel pour la
source administrative de l'Agence nationale pour l'emploi (ANPE),
trimestriel pour l'enquête Emploi, annuel pour le recensement. Dans une telle
configuration, les trois estimations seront de fait en concurrence.
L'approche de la synthèse suppose de déterminer, soit avant de connaître
les résultats, soit au vu des résultats, comment on pondère les apports des
différentes sources. La démarche est plus objective et plus rigoureuse, et en
conséquence la pédagogie facilitée, quand la méthode est choisie avant que
les résultats soient disponibles et qu'elle résulte d'un processus d'optimisation
rationnel testé et calibré sur les données passées.
La statistique publique se fixe pour règle d'être toujours totalement
transparente dans l'explication de ses méthodes. Mais il est clair que ses choix
sont soumis à débat public, et peuvent donc faire l'objet de critiques. A cet
égard, l'estimation à partir de sources multiples crée des configurations plus
propices à la controverse que l'estimation à partir d'une source unique ou la
publication séparée des résultats découlant de chaque source.

1.6 Conclusion

Les problèmes soulevés par l'estimation à partir de sources multiples sont des
problèmes de riches. A tout prendre, ils sont peu de choses par rapport aux
difficultés des statisticiens confrontés à une pénurie de chiffres, dans les pays
en développement ou, sur certains sujets, dans les pays développés.
6 Enquêtes et sondages

Je ne doute pas que l'estimation à partir de sources multiples va continuer à


se développer. Elle constitue en effet fondamentalement une réponse au souci
de cohérence exprimé par les utilisateurs de la statistique. Dans de nombreux
cas, elle n'est pas en contradiction avec le besoin de statistiques détaillées,
voire de micro-données. A défaut de pouvoir être accompagnée d'indicateurs
statistiques de précision calculés ex ante, elle peut donner lieu, comme la
comptabilité nationale, à des mesures ex post, fondées sur les écarts par
rapport à l'estimation définitive.
Finalement, l'estimation à partir de sources multiples ne nécessite de la part
du statisticien public que la mise en œuvre de ses qualités habituelles :
l'écoute, la rigueur et la transparence. Ainsi qu'une capacité à s'habituer à
être objet de débat.

2. Défis liés à la mise en place d'outils de

gestion de la qualité dans les enquêtes

2
France LAPOINTE, Jimmy BAULNE et Louise BOURQUE

2.1 Introduction

L'Institut de la statistique du Québec est un organisme relativement jeune. Il a


été créé en 1999 par la fusion de trois organismes québécois du domaine de la
statistique officielle, soit le Bureau de la statistique du Québec, l'Institut de
recherche et d'information sur la rémunération et Santé Québec.
Sa loi constituante contient des dispositions très claires quant aux
obligations de qualité que l'Institut doit respecter dans la production de
l'information statistique. En effet, l'article 2 de cette loi établit que « l'Institut
a pour mission de fournir des informations statistiques qui soient fiables et
objectives sur la situation du Québec quant à tous les aspects de la société
québécoise pour lesquels de telles informations sont pertinentes ». Par
ailleurs, l'article 5 donne notamment le mandat à l'Institut de traiter
l'information qu'il produit « de façon à permettre des comparaisons à
l'intérieur et à l'extérieur du Québec ». Pertinence, fiabilité, objectivité et
comparabilité sont donc les critères de base qui doivent orienter la gestion de
la qualité à l'Institut.
Conformément aux orientations qui font consensus sur le plan international
dans ce domaine, l'Institut de la statistique du Québec définit la notion de
qualité en fonction des six critères suivants : la pertinence, la fiabilité et
l'objectivité, la comparabilité, l'actualité, l'intelligibilité et l'accessibilité.

2 Institut de la statistique du Québec, Québec, Canada. (france.lapointe@stat.gouv.qc.ca,


jimmy.baulne@stat.gouv.qc.ca, louise.bourque@stat.gouv.qc.ca).
1. Qualité des enquêtes et statistique publique 7

Une politique générale en matière de gestion de la qualité (Institut de la


statistique du Québec, 2006) a été adoptée, en novembre 2005, afin de
mobiliser une partie des énergies de l'Institut vers un nouvel objectif,
« traduire, en une approche plus méthodique et plus intégrée à sa gestion, son
engagement d'assurer la qualité de ses produits et services en vue de garantir
la plus grande satisfaction possible de ses utilisateurs ». Cette politique vise à
systématiser, à harmoniser et à améliorer les moyens déjà en place pour
assurer la qualité de ses produits et services. Elle répond aussi aux
recommandations que lui a faites le Vérificateur général du Québec dans son
rapport à l'Assemblée nationale pour l'année 2002-2003. En ce qui a trait à la
gestion de la qualité, le Vérificateur général recommandait d'« établir une
politique d'assurance de la qualité ». Enfin, il recommandait à l'Institut
d'élaborer un mécanisme de suivi de la qualité de ses produits.
Concernant la production d'enquêtes statistiques à l'Institut, les deux
pierres angulaires de l'assurance qualité sont un recueil de bonnes pratiques
permettant l'harmonisation des façons de faire et une grille d'autoévaluation
de la qualité.
Les défis associés à l'élaboration et à l'implantation de ces outils de gestion
de la qualité sont de plusieurs natures. Il importe notamment de prendre en
considération que l'introduction du recueil de bonnes pratiques doit se faire à
l'intérieur d'une organisation regroupant plusieurs entités réalisant des
enquêtes statistiques dans des contextes différents, ayant à l'origine des
cultures différentes à l'égard de la qualité et en travaillant selon un mode de
gestion matriciel. En outre, pour l'Institut, il est impératif que les efforts
consentis à la gestion de la qualité des enquêtes permettent d'assurer un suivi
de l'utilisation des bonnes pratiques et la mesure de la qualité obtenue.
Ultimement, ce suivi devra permettre de mesurer l'adéquation des pratiques
retenues et de corriger le tir, le cas échéant. Il devra aussi permettre de déceler
des lacunes et d'orienter la réalisation de travaux devant servir à combler ces
lacunes.
A l'automne 2007, le recueil est adopté et se trouve en phase
d'implantation. Quant à la grille d'évaluation, elle en est à l'étape de
finalisation.

2.2 Le recueil de bonnes pratiques

2.2.1 Objectifs et utilités du recueil

L'objectif premier du recueil des bonnes pratiques est de promouvoir


l'utilisation des meilleures pratiques pour la réalisation d'enquêtes
statistiques, et ce, à toutes les étapes de la production. Pour ce faire, un
découpage de la production en 17 étapes de réalisation a été considéré. Par
exemple, le recueil constitue un guide pour la détermination des objectifs de
8 Enquêtes et sondages

l'enquête, pour le choix de la méthode de collecte des données et pour la


diffusion des données.
Le recueil produit doit servir aussi à valider les pratiques actuelles de
l'Institut et à trouver des pistes potentielles d'amélioration de la qualité.
Comme aide-mémoire, on peut le consulter au moment d'établir le plan de
projet d'une enquête et tout au long de la réalisation afin d'assurer la
meilleure qualité possible, compte tenu des utilisations des statistiques à
produire et des contraintes que sont le fardeau de réponse, les coûts et les
échéanciers.

2.2.2 Sources

Le recueil des bonnes pratiques réunit des pratiques reconnues par plusieurs
organismes statistiques. En effet, l'élaboration du document s'appuie d'abord
sur un rapport de recension des pratiques de référence. Celui-ci a été rédigé à
partir des lignes directrices sur la qualité de Statistique Canada (Statistique
Canada, 2003) et de Statistique Finlande (Statistics Finland, 2002) et sur des
documents de l'Office for National Statistics (Government Statistical Service,
1997 et National Statistics, 2006) et de Statistique Nouvelle-Zélande
(Statistics New Zealand, 1998).
Plusieurs de ces pratiques sont déjà couramment en usage à l'Institut. C'est
ce qu'a montré le rapport de constat des pratiques actuelles en matière de
qualité dans les enquêtes de l'Institut, qui est la seconde source au recueil des
bonnes pratiques. Pour établir ce constat, on a procédé à l'examen de
plusieurs types de projets d'enquêtes au moyen d'une grille d'observation
commune. Par exemple, des enquêtes effectuées auprès des ménages et
d'autres faites auprès des entreprises ont été revues ; certaines utilisaient la
collecte téléphonique, d'autres, des entrevues en personne et certains projets
examinés utilisaient un mode mixte de collecte de données. On s'est
également assuré que l'échantillon de projets choisis permettait de représenter
les différentes entités et les différents contextes de réalisation d'une enquête
présents à l'Institut. Par exemple, certaines enquêtes font partie de la
programmation régulière des travaux statistiques de l'Institut et d'autres sont
réalisées pour le compte de clients externes. Certaines enquêtes sont de nature
récurrente, alors que d'autres ne sont produites qu'à une seule occasion.
La grille d'observation commune qui a servi à établir le constat est basée
sur le questionnaire européen DESAP (Laiho et Nimmergut, 2004). Ce
questionnaire a d'abord été conçu pour répondre à une recommandation du
Leadership Group on Quality (Lyberg, 2001), qui stipulait qu'un outil
générique standardisé devait être mis au point pour un programme
d'autoévaluation de la qualité par les gestionnaires d'enquête du système
statistique européen. La grille DESAP comporte des questions portant
spécifiquement sur l'évaluation de la qualité obtenue, mais elle contient aussi
plusieurs questions sur les processus de réalisation de l'enquête. Ces
1. Qualité des enquêtes et statistique publique 9

questions, adaptées à la réalité de l'Institut, ont servi à faire un constat des


pratiques.

2.2.3 Élaboration du recueil

L'un des défis de l'implantation d'outils de gestion de la qualité des enquêtes


est associé au fait que plusieurs entités de l'organisation réalisent des
enquêtes statistiques dans des contextes parfois différents. Pour s'assurer que
le recueil de bonnes pratiques reflète adéquatement cet état de fait,
l'élaboration du document a été confiée à un groupe multi-disciplinaire,
composé de personnes issues de toutes les entités de l'Institut impliquées dans
la réalisation d'enquêtes statistiques. Le travail de ce groupe, coordonné par
une statisticienne d'enquête, a permis l'élaboration d'une grille d'observation
commune pour faire le constat des pratiques, l'établissement de ce constat, le
choix des pratiques retenues pour le recueil parmi celles recensées, en les
comparant à celles constatées.

2.3 La grille d'autoévaluation de la qualité

2.3.1 Objectifs poursuivis par l'élaboration de la grille

La politique générale en matière de gestion de la qualité de l'Institut de la


statistique du Québec prévoit l'élaboration d'une grille d'autoévaluation de la
qualité des enquêtes, laquelle est actuellement en cours. En plus de servir à
l'étape d'évaluation, la grille devra servir d'aide-mémoire à consulter dès
l'étape de conception de l'enquête et tout au long de sa réalisation. Un tel
outil devrait permettre une vérification de l'adéquation des bonnes pratiques
retenues dans le recueil des bonnes pratiques et la mesure de la qualité
obtenue dans une enquête donnée.

2.3.2 Sources

La grille d'observation commune constituée pour établir un constat des


pratiques sera revue et adaptée au contenu du recueil des bonnes pratiques en
matière de qualité dans les enquêtes. Cette grille comporte déjà des questions
portant sur la mesure de la qualité en fonction des six critères de la qualité
retenus par l'Institut.

2.3.3 Élaboration de la grille

L'adaptation de la grille a été confiée au groupe de travail ayant élaboré le


recueil des bonnes pratiques. Le travail en comité permettra de finaliser le
questionnaire d'autoévaluation et la formulation de recommandations quant à
son utilisation dans les projets d'enquête.
10 Enquêtes et sondages

2.4 Conclusion

Les prochains pas à franchir pour la mise en application des outils de gestion
de la qualité des enquêtes de l'Institut de la statistique du Québec seront
déterminants. Pour le moment, l'important défi que posent la multiplicité des
contextes de réalisation des enquêtes et la présence au sein de l'organisation
de plusieurs cultures de qualité a, dans une certaine mesure, été pris en
considération. En effet, la constitution d'un groupe de travail multi-
disciplinaire pour l'élaboration des outils assure une certaine représentation
des différents contextes et la participation de toutes les entités concernées.
Reste que la manière de présenter le recueil des bonnes pratiques et la grille
d'autoévaluation de la qualité à l'ensemble du personnel de l'Institut devra
faire l'objet d'une attention particulière. Certes, le leadership de la direction
de l'Institut relativement à la gestion de la qualité favorisera une bonne
réception de la part du personnel concerné. Les expériences passées de
l'introduction de nouvelles politiques au sein de l'organisation, celles
relatives à la confidentialité notamment, pourront aussi être mises à profit. En
effet, comme lors de l'introduction des politiques de confidentialité, des
activités de communication et de formation de tout le personnel associé à la
réalisation d'enquêtes statistiques sont prévues. Ces activités seront des
moyens privilégiés de mesurer la réception des outils mis au point et d'en
assurer l'appropriation souhaitée.
Enfin, une politique sur la qualité dans les enquêtes suivra l'élaboration du
recueil des bonnes pratiques et de la grille d'autoévaluation. Cette politique
viendra préciser l'utilisation de ces outils de gestion et d'amélioration de la
qualité des produits d'enquêtes de l'Institut de la statistique du Québec.

BIBLIOGRAPHIE

Government Statistical Service (1997). Statistical Quality Checklist, London,


Crown.
Institut de la statistique du Québec (2006). Politique générale en matière de
gestion de la qualité de l'Institut de la statistique du Québec, Québec,
Gouvernement du Québec.
Laiho, J., et Nimmergut, A. (2004). Using Self-Assessments for Data Quality
Management - DESAP Expériences. Proceedings of the European
Conférence on Quality and Methodology in Officiai Statistics, 24-26 mai
2004, Mainz.
Lyberg, L. (2001). Summary Report from the Leadership Group (LEG) on
Quality. Proceedings of the International Conférence on Quality in Officiai
Statistics, 14/15 mai 2001, Stockholm.
National Statistics (2006). Guidelines for Measuring Statistical Quality,
London, Crown.
1. Qualité des enquêtes et statistique publique 11

Statistics Finland (2002). Quality Guidelines for Officiai Statistics, Helsinki,


Hakapaino Oy.
Statistique Canada (2003). Lignes directrices concernant la qualité, Ottawa
Ministre de l'Industrie du Canada.
Statistics New Zealand (1998). Protocols for Officiai Statistics. Wellington.

3. Eurobaromètres, EVS, ISSP, ESS :

quatre enquêtes internationales

3
Pierre BRÉCHON

Les enquêtes internationales de sciences sociales ne se sont développées que


depuis les années 1970. Les Eurobaromètres existent depuis 1974, les
enquêtes sur les valeurs des Européens (EVS) depuis 1981, l'International
Social Survey Programme {ISSP) depuis 1985, la European Social Survey
(ESS) depuis 2001. On peut considérer qu'il n'y a pas d'autre tradition de
recherche sociologique réellement comparative dans le temps et l'espace.
Commençons par présenter chacune de ces opérations.

3.1 Quatre logiques de recherches

Les Eurobaromètres sont créés par la Commission européenne en 1974. Ses


responsables estiment que, pour faire progresser l'intégration européenne, il
est capital de bien connaître les opinions publiques (Bréchon et Cautrès,
1998). Une vague d'enquête est réalisée deux fois par an avec des questions
régulièrement répliquées, portant surtout sur la mesure du sentiment
européen. Mais des modules spécifiques sont souvent ajoutés, par exemple
sur l'environnement, l'énergie, le cancer, la santé, la pauvreté, le racisme, etc.
Un rapport détaillé est publié très rapidement, les résultats sont donc
disponibles pour tous les acteurs politiques et sociaux, publics ou privés,
comme le montre le très riche site internet4. L'échantillon est réalisé par
random route, il est stratifié par pays (en général 1 000 interviewés), ce qui
est symptomatique du caractère encore largement national de l'espace public.
Au fil du temps, de nombreux autres outils ont été créés, permettant
notamment de mesurer les attitudes européennes de nombreux pays non
européens. On est donc en face d'un observatoire impressionnant de l'opinion
publique et d'un formidable outil de comparaison, qui permet de mieux
comprendre la lente et difficile construction d'une identité européenne.

3 Professeur à Sciences Po Grenoble, chercheur au laboratoire PACTE/CNRS, Président


de l'ARVAL, Association pour la recherche sur les systèmes de valeurs, membre du
groupe ISSP France.
4 http://cc.curopa.cu/public_opinion/indcx_fr.htm.
12 Enquêtes et sondages

L'enquête sur les valeurs des Européens (EVS) est faite pour la première
fois en 1981 pour mieux comprendre les bouleversements des sociétés
3
occidentales . La morale traditionnelle étant en crise, sur quel socle de valeurs
la cohésion des sociétés peut-elle se construire ? La passation du
questionnaire dure une heure et permet de mesurer les attitudes dans tous les
grands domaines de l'existence : éthique et sens de la vie, relations sociales,
famille, travail, religion, politique (voir: www.uvt.nl/evs). Très vite, une
opération voisine s'est développée, la World Values Survey. Elle utilise assez
largement le même questionnaire dans des pays non européens. La EVS est
répliquée tous les neuf ans (1981, 1990, 1999, 2008), la WVS tous les cinq
ans. Au fil du temps, le nombre de pays enquêtés a beaucoup progressé (34
pays européens en 1999 et probablement autour de 40 en 2008). Au total, 85
pays dans le monde ont été enquêtés au moins une fois sur tous les continents,
ce qui soulève une question épistémologique. Un même questionnaire, diffusé
dans des pays dont le développement et la culture sont très différents,
constitue-t-il un outil adéquat pour mesurer les différences de valeurs ?
L'analyse des résultats permet cependant de discuter solidement sur les
fondements religieux et économiques des différences culturelles (Inglehart,
1999).
L'enquête ISSP a été au départ mise en œuvre par des sociologues de 4
pays, engagés dans des enquêtes sociopolitiques nationales (Grande-Bretagne,
États-Unis, Allemagne, Australie). Pour pouvoir comparer leurs sociétés, ils
ajoutent chaque année à partir de 1985 un module commun sur un thème
particulier, répliqué quelques années plus tard : rôle du gouvernement,
réseaux sociaux, inégalités, famille et rôles sexués, sens du travail, religion,
environnement, identité nationale, citoyenneté, loisirs et sports. Aujourd'hui
43 nations participent à TISSP : 21 de l'Union européenne, presque tous les
pays développés hors de l'Europe, des pays émergents comme par exemple le
Brésil, le Mexique, l'Afrique du Sud, la Corée du Sud ou les Philippines6.
L'augmentation du nombre de pays s'est accompagnée d'une diversification
des modes d'administration de l'enquête. L'échantillonnage est toujours
aléatoire mais l'enquête est parfois en face-à-face, parfois auto-administrée.
Cette diversité peut troubler la comparaison. Par ailleurs, l'ISSP étant dans
certains pays couplé avec une enquête nationale, il y a des différences dans la
formulation des variables sociodémographiques. Pour une présentation de
résultats comparatifs basés sur TISSP, voir Tos, Mohler et Malnar, (1999).
L'enquête ESS vise des objectifs assez voisins de ceux de la EVS et de
TISSP, mais une attention beaucoup plus grande a été portée dès l'origine à la
méthodologie (voir : http://www.europeansocialsurvey.org). Le contrôle des

5 Jean Stoctzcl (1983) et Hélène Riffault (1994) font partie des fondateurs de cette
entreprise européenne.
6 On pourra compléter son information sur le site www.issp.org. La France participe à
l'opération depuis 1996 : on peut consulter le site français : www.issp-francc.info.
1. Qualité des enquêtes et statistique publique 13

procédures nationales par un centre coordonnateur doté de moyens importants


fait de cette enquête un modèle de rigueur (traductions contrôlées du
questionnaire maître, échantillonnage probabiliste rigoureux, délivrance d'un
label de conformité aux requisits du centre...)- Ce modèle n'est cependant pas
sans poser question. La rigueur de l'échantillonnage ne permet pas de garantir
la représentation de certains groupes défavorisés puisque, dans un pays
démocratique, quelle que soit la méthode d'échantillonnage adoptée, la
réponse à une enquête d'opinion relève d'une libre décision de l'individu.
D'autre part, l'enquête, faite tous les deux ans depuis 2002, comporte une
partie fixe et des modules mobiles. Le questionnaire est très long (plus d'une
heure de face-à-face) et la rédaction des questions est souvent lourde, ce qui
oblitère quelque peu leur compréhension. La volonté de précision devient
souvent contre-productive. Ce qu'on gagne sur la qualité de l'échantillonnage
risque d'être perdu du fait d'un questionnaire quelque peu « étouffe-sondé ».

3.2 Points communs et différences

Chaque tradition a développé son propre modèle organisationnel.


L'Eurobaromètre est entièrement financé par la Commission, ce qui facilite sa
pérennité ; une bureaucratie statistique légère met au point les questionnaires,
passe des marchés publics avec des instituts de sondages et rédige les rapports
d'enquêtes permettant notamment de voir comment évolue l'opinion à l'égard
des politiques européennes. Les trois autres entreprises sont fédératives,
chaque équipe nationale devant trouver ses financements, ce qui est en France
souvent difficile. Comme l'Eurobaromètre, l'ESS a des aspects
bureaucratiques puisque des moyens importants ont été trouvés pour le
contrôle des procédures nationales. L'enquête Valeurs fonctionne sur un
modèle notabiliaire : quelques personnes clefs de la coordination européenne,
qui se connaissent depuis longtemps, prennent les décisions importantes sur la
base de discussions préalables et d'une recherche de compromis. Dans l'ISSP
au contraire, tout est organisé selon des procédures démocratiques très
formalisées. Chaque module est préparé par un draft commitee, avec 5 ou 6
pays membres élus par l'ensemble des représentants nationaux. Les axes du
questionnaire sont discutés au cours de l'assemblée générale annuelle en
année n - 2, le questionnaire rédigé est discuté et amendé en année n - 1 dans
la même assemblée. La manière dont on peut déposer des amendements est
très codifiée, le questionnaire est donc adopté par de nombreux votes qui
ressemblent beaucoup à ceux d'une assemblée parlementaire.
Quel que soit le processus de décision, il intervient au tenue de difficiles
négociations entre des chercheurs appartenant à des cultures différentes, ce
qui peut toujours déboucher sur un questionnaire quelque peu monstrueux,
tout comme peut parfois l'être un texte législatif né de longues discussions
entre points de vue divergents. Deuxième point commun aux enquêtes
internationales : les indicateurs retenus sont toujours décontextualisés car ils
14 Enquêtes et sondages

ne peuvent être trop marqués par les débats propres à un pays particulier. Les
questionnaires perdent du coup en convivialité.
On peut cependant observer des différences dans les types de questions
choisis, notamment entre les enquêtes Valeurs et ISSP. EVS comporte très
peu d'indicateurs de comportements. Selon la théorie sous-jacente à cette
enquête, les individus agissent en fonction des valeurs qu'ils ont intériorisées.
Ce sont donc ces valeurs qu'il convient de mesurer de manière comparative,
pour comprendre les cultures profondes. Du fait de ses liens avec des
enquêtes sociales nationales, l'ISSP mesure beaucoup plus des
comportements concrets et pas seulement des principes. De plus, EVS,
probablement plus marquée par une culture catholique, aimait beaucoup, à
l'origine, les questions dichotomiques, comme si les croyances et les
systèmes de pensée devaient s'adopter de manière totale. L'ISSP correspond
davantage à une culture protestante où l'univers des valeurs et des croyances
est relativiste. On s'efforce donc de permettre aux enquêtés d'exprimer des
positions nuancées et on leur offre souvent 5 ou 6 modalités différentes de
réponses. Alors que ces enquêtes abordent souvent les mêmes thématiques,
les questions entièrement communes sont très rares7.
Il faut souligner une difficulté commune à toutes les enquêtes
internationales, celui de la traduction du questionnaire maître dans les
différentes langues nationales. Il est très difficile d'arriver à une traduction
complètement identique parce que les mots n'ont pas les mêmes connotations
dans les différentes langues. Il faut donc toujours se demander si un écart
enregistré sur un indicateur correspond à une véritable différence culturelle ou
seulement aux connotations fluctuantes du vocabulaire. Pour faire face à ce
problème, il est conseillé de comparer des échelles d'attitudes construites sur
plusieurs indicateurs plutôt que les résultats de chaque question.

3.3 Apports à la connaissance des sociétés

Ces enquêtes internationales comportent quelques faiblesses, mais il faut


surtout souligner leur apport considérable à la connaissance des cultures. Il
n'y a de véritable explication sociologique que sur base comparative. Jusque
dans les années 1970, le repérage des différences culturelles entre pays et leur
explication reposaient essentiellement sur la comparaison de monographies
consacrées à des territoires ruraux. La culture anthropologique villageoise
devenait la référence pour expliquer les spécificités de chaque nation.
L'existence des enquêtes permet de se référer aux cultures vécues à partir

7 En comparant les questions posées dans le domaine des croyances religieuses, on a pu


montrer que la diversité des formulations aboutit à modifier de quelques points les
résultats, mais l'ordre des pays sur chaque question est à peu près le même et le système
de relations entre variables religieuses et sociodémographiques est très semblable
(Brcchon, 2002).
1. Qualité des enquêtes et statistique publique 15

d'échantillons représentatifs, donc à partir de ce que ressentent les individus


d'aujourd'hui, dans des sociétés urbaines qui connaissent des changements
importants, ce qui disqualifie largement les approches ruralistes.
Les enquêtes internationales ont permis de repérer, pour tous les grands
domaines de la vie, la montée d'une culture d'individualisation (Futuribles,
2002). Celle-ci se traduit dans les transformations de la famille, désormais
fondée sur les riches interrelations de ses membres. La famille se doit d'être
épanouissante, si elle ne l'est pas, le couple préférera souvent se séparer.
L'individualisation peut aussi se lire dans le sens qui est donné au travail, qui
doit non seulement fournir des moyens d'existence mais être aussi de
qualité et contribuer à l'épanouissement du salarié. L'individualisation se
marque encore dans le rapport au politique : la compétence politique de
citoyens plus critiques se développe, les hésitations avant de voter sont de
plus en plus fortes, la volatilité électorale augmente et le clivage gauche droite
devient plus flou. En matière religieuse, les enquêtes montrent enfin le
bricolage des croyances, chacun se composant son petit univers de possibles
religieux, en mixant apports de la religion d'origine et des religions exotiques.
Les grandes enquêtes permettent aussi d'opposer des pays de matrice
culturelle catholique et de matrice culturelle protestante (Bréchon, Galland et
Tchemia, 2002). On peut aussi souvent montrer des différences entre Europe
de l'Ouest, Europe centrale et orientale (Galland et Roudet, 2005). Il semble
bien que si les sociétés développées évoluent toutes vers des valeurs
d'individualisation, elles le fassent cependant à des rythmes différents et sous
des formes plurielles, du fait des spécificités de chaque pays. La
mondialisation ne produit pas une homogénéisation rapide des cultures.

BIBLIOGRAPHIE

Bréchon, P., et Cautrès, B. (dir.) (1998). Les enquêtes Euro baromètres.


Analyse comparée des données sociopolitiques. Paris, L'Harmattan (coll.
Logiques politiques).
Bréchon, P., Galland, O. et Tchernia, J.-F. (2002). La dynamique des valeurs
en Europe, Futuribles, Les valeurs des Européens. Les tendances de long
terme, numéro spécial 277, juillet-août, pages 177-186.
Bréchon, P. (2002). Mesurer les croyances religieuses, dans Donegani J.-M.,
Duchesne S., Haegel F. (dir.). Aux frontières des attitudes entre le politique
et le religieux. Textes en hommage à Guy Michelat, Paris, L'Harmattan
(coll. Logiques politiques), pages 153-172.
Futuribles (2002). Les valeurs des Européens. Les tendances de long terme,
numéro spécial 277, juillet-août 2002 (dir. Bréchon, P. et Tchernia, J.-F.).
Galland, O., et Roudet, B. (dir.) (2005). Les jeunes Européens et leurs
valeurs. Europe occidentale, Europe centrale et orientale, Paris, La
Découverte.
16 Enquêtes et sondages

Inglehart, R. (1999). Choc des civilisations ou modernisation culturelle du


monde ?, Le Débat, no105, mai-août, pages 23-54.
Riffault, H. (1994). Les valeurs des Français, Paris, PUF (coll. Sociologies).
Stoetzel, J. (1983). Les valeurs du temps présent, Paris, PUF (collection
Sociologies).
Tos, N., Mohler, P.Ph. et Malnar, B. (éds.) (1999). Modem Society and
Values. A Comparative Analysis Based on ISSP Project. Ljubljana : FSS,
University of Ljubljana ; Mannheim : ZUMA.

4. Développements en cours du projet

OCTOPUSSE de nouvel échantillon-

maître de l'Insee

8
Marc CHRISTINE et Sébastien FAIVRE

4.1 introduction

4.1.1 Rappels sur l'organisation du nouveau


recensement

Depuis janvier 2004, le recensement de la population s'effectue de manière


annuelle. Pour les petites communes (moins de 10 000 habitants au
recensement de 1999), il est réalisé de manière exhaustive au cours d'une
période de 5 ans : l'ensemble des petites communes a été partagé aléatoire-
ment en 5 groupes de rotation, qui sont chacun recensés une année donnée.
Pour les grandes communes (10 000 habitants ou plus), on dispose d'un
Répertoire d'Adresse Localisé (RIL) mis à jour chaque année, qui contient
des listes d'adresses. Les adresses sont réparties aléatoirement en 5 groupes
de rotation et, au sein de chaque groupe annuel, un échantillon d'adresses est
tiré9. L'ensemble des logements qu'elles contiennent sont alors recensés :
ainsi le recensement couvre chaque année une fraction de chaque grande
commune, mais il n'y a plus d'exhaustivité de la couverture, même sur une
période supra-annuelle.
Les échantillons des enquêtes ménages réalisées par l'Insee (à l'exception
notable de l'enquête Emploi dont l'échantillonnage est aréolaire) sont, depuis
les années 1960, tirés dans les fichiers de logements constitués à l'issue de

8 Insce, Direction générale, Unité Méthodes Statistiques, 18 bd Adolphe Pinard, 75675


Paris Cedex 14 (marc.christine@insee.fr, sebastien.faivre@insee.fr).
9 Les adresses au-dessus d'un certain seuil, dites « grandes adresses », étant retenues
exhaustivement.
1. Qualité des enquêtes et statistique publique 17

chaque recensement « général »10. Ce système n'est plus compatible avec la


révolution opérée par le nouveau recensement et, notamment, son caractère
désormais rotatif et partiel. Il était donc nécessaire de repenser complètement
le système d'échantillonnage des enquêtes ménages. Dans ce cadre, un projet
baptisé OCTOPUSSE11 a été lancé en 2003 et doit déboucher en 2009 sur un
nouveau système de tirage d'échantillons, opérationnel et pérenne pour les
années à venir.

4,1.2 Principes fondamentaux du système


OCTOPUSSE

Les enquêtes de l'Insee étant réalisées pour l'essentiel en face-à-face, il


importe de concentrer la collecte dans des zones géographiques données
{mais déterminées aléatoirement) pour limiter les coûts d'enquête et garantir
la qualité en réduisant les déplacements des enquêteurs. La phase de
conception et de tirage d'unités primaires est donc maintenue, même si le
nouveau recensement conduit à repenser la nature des unités primaires à
constituer {cf. paragraphe 4.2.2).
Par ailleurs, l'innovation principale du futur système consiste à bénéficier
de la « fraîcheur» du nouveau recensement, c'est-à-dire à tirer parti du fait
que l'on dispose chaque année d'une base de logements récemment recensés
couvrant une fraction certes aléatoire du territoire, mais sélectionnée de
manière à fournir des estimateurs sans biais de paramètres relatifs à la
population et aux logements. De cet objectif découle un principe structurant :
se servir comme base de sondage, pour les enquêtes réalisées au cours de
l'année /7 + 1, des listes de logements recensés au début de l'année n. Ce
principe permettra en particulier de mieux cibler des populations spécifiques
(à partir de caractéristiques récentes connues au dernier recensement), de
réduire les cas de hors-champ (transformations ou destructions de logements),
et de s'affranchir d'un système spécifique complémentaire pour la couverture
des logements les plus récents (base de logements neufs).
Par ailleurs, un échantillon-maître complémentaire pour les extensions
régionales d'enquête (EMEX) sera construit simultanément à l'échantillon-
maître principal, tandis qu'un échantillon spécifique permettra la couverture
des Zones Urbaines Sensibles (ZUS).

10 Lesquels étaient complétés par des listes de logements « neufs », construits après le
dernier recensement, alimentées par les fichiers de permis de construire.
1 1 Organisation Coordonnée de Tirages Optimisés Pour une Utilisation Statistique des
Echantillons.
18 Enquêtes et sondages

4.2 L'échantillon-maître : un échantillon à

plusieurs phases et plusieurs degrés

4.2.1 Les phases RP

En amont, la fourniture des bases de logements par le RP constitue deux


premières phases de sondage par rapport à la population théorique de
référence composée de l'ensemble des logements principaux existant à une
date donnée : d'une part, l'affectation aléatoire des communes ou des adresses
en 5 groupes de rotation dont un seul est couvert annuellement par le
recensement, d'autre part, pour les grandes communes, le tirage d'un
échantillon d'adresses au sein du groupe de rotation de l'année, représentant
40 % de l'ensemble des logements, mais avec des probabilités inégales
puisque les grandes adresses sont retenues d'office.

4.2.2 De nouvelles unités primaires

a) Constitution des ZAE

La construction des nouvelles unités primaires (ou ZAE ; Zones d'Action


Enquêteurs) a nécessité la mise au point d'algorithmes innovants et
relativement complexes. Chaque grande commune constitue une ZAE à elle
toute seule car elle contient par définition des logements des 5 groupes de
rotation. Pour les petites communes, il s'est agi de constituer des agrégats
composés de petites communes appartenant aux 5 groupes de rotation, avec
un nombre minimal de 300 logements principaux dans chacun de ces groupes
(afin de disposer chaque année d'une réserve suffisante de logements), tout en
visant à minimiser l'étendue géographique de ces zones. La lere contrainte
doit permettre de tirer à tout moment des échantillons dans la base annuelle
du recensement de l'année précédente, la 2eme traduit la nécessité de limiter
les déplacements des enquêteurs. On a ainsi constitué 2 893 ZAE (petites
communes) sur l'ensemble du territoire (auxquelles s'ajoutent 850 grandes
communes).

b) Tirage des ZAE

Un échantillon de ZAE sera ensuite tiré au sein de chaque région avec des
probabilités proportionnelles à leur taille, et sous des conditions d'équilibrage
impliquant différentes données sociodémographiques : nombre de logements
principaux, revenu, type d'espace (rural/urbain). Les grandes communes au-
dessus d'un certain seuil (défini par e/z, où x est le taux de sondage d'une
enquête standard et e le nombre moyen de logements à tirer par ZAE,
paramètres fixés en tenant compte de la pratique usuelle x = 1/2 000,^ = 20)
seront retenues d'office et affectées à plusieurs enquêteurs. Chaque ZAE tirée
1. Qualité des enquêtes et statistique publique 19

aléatoirement sera affectée à un enquêteur, avec des nombres de logements à


enquêter les plus voisins possibles d'une ZAE à l'autre et d'une année sur
l'autre, ceci afin d'assurer une charge de travail équilibrée à tout enquêteur.
Un échantillon spécifique de ZAE devant alimenter l'EMEX et mobilisées
en cas d'extension régionale sera tiré dans les mêmes conditions,
simultanément à celles retenues pour l'échantillon-maître principal. Pour cela,
on met en œuvre une séquence de tirages équilibrés emboîtés. En effet, on
souhaite d'une part que les ZAE mobilisées en cas d'extension régionale
(ZAE EM tirées pour les enquêtes nationales et ZAE EMEX supplémentaires
tirées pour les extensions régionales) fonuent un échantillon équilibré pour
les variables d'équilibrage retenues et d'autre part que les ZAE mobilisées en
l'absence d'extension régionale (ZAE EM tirées pour les enquêtes nationales
uniquement) soient également équilibrées sur les mêmes variables d'intérêt.
On est donc amené à enchaîner deux tirages équilibrés, d'abord
l'échantillon global de ZAE mobilisé en cas d'extension régionale
comprenant à la fois les ZAE EM et les ZAE EMEX, puis au sein de cet
échantillon, le sous-échantillon de ZAE EM mobilisé en l'absence
d'extension régionale.
Une méthode de tirage permettant d'obtenir deux tirages équilibrés
successifs a été mise au point par Marc Christine : sous une condition
technique d'équilibrage du premier tirage sur la taille des unités, il est
possible d'obtenir un jeu de probabilités d'inclusion des ZAE dans le second
échantillon conditionnellement à leur tirage dans le premier échantillon
permettant de réaliser en pratique le tirage équilibré des ZAE EM au sein de
l'échantillon global des ZAE EM et EMEX.

4,2.3 Le tirage des logements

L'objectif fondamental lors du tirage de l'échantillon d'une enquête donnée


est d'assurer (ou d'approcher au mieux) l'équiprobabilité finale des
logements (sauf dans le cas où le concepteur d'enquête souhaite assurer une
12
surreprésentation de certaines catégories de logements ou de ménages ).
Cependant, l'autre objectif de tirer, au sein de chaque ZAE sélectionnée
aléatoirement, un nombre égal (ou des nombres voisins) de fiches-adresses,
conduit à la recherche d'une solution de compromis.
L'obtention d'un échantillon de logements à probabilités égales se fait en
deux étapes :
- au sein des grandes communes, on cherche tout d'abord à corriger les
inégalités entre les probabilités de tirage des logements au sein d'une
même ZAE (dues aux taux de sondage différents des logements dans

12 Cependant, même en cas de surreprésentation de certaines catégories de population, la


première étape reste un tirage à probabilités égales (avant un tirage de seconde phase
pour surreprésenter certains groupes).
20 Enquêtes et sondages

le RP, selon le type d'adresse à laquelle ils appartiennent). On


procède pour cela à un rééchantillonnage des logements, qui
L U
constitue une 3 " phase de tirage. On obtient à l'issue de cette phase
une « base utile » dans laquelle chaque logement chargé à une
probabilité identique13 ;
- pour une enquête donnée, les logements seront tirés au moyen d'un
tirage systématique à probabilités égales au sein de la base utile de
chaque ZAE sélectionnée.

Le poids final des logements dépend donc : de la Ierc phase RP consistant en


l'affectation aléatoire des communes ou adresses en 5 groupes de rotation
(avec une valeur théorique de cette probabilité de 1/5), de la 2cmc phase RP
d'échantillonnage des logements recensés en grande commune, de la 3cmc
phase de rééchantillonnage, de probabilité de tirage de la ZAE et enfin du
dernier degré de tirage (logements) dans la base utile.
Les allocations de logements à tirer dans chaque ZAE sont calculées en
cherchant à rendre les poids finaux des logements les plus voisins possibles,
sous la contrainte de la taille totale d'échantillon et de contraintes pratiques à
respecter au niveau de la réalisation des enquêtes (nombre minimum et
maximum de fiches-adresses à tirer par ZAE...).
Dans le cas d'une extension régionale, des ZAE complémentaires sont
mobilisées dans les régions concernées et le tirage se fait globalement sur la
base de la taille requise d'échantillon dans la région. Au final, les logements
de la partie « nationale » de l'enquête et de la partie « régionale » sont
rassemblés dans un seul échantillon global exploité de manière homogène.

BIBLIOGRAPHIE

Caron, N., et Christine, M. (2006). Les échantillons des enquêtes « ménages »


fondés sur le nouveau recensement français. Méthodes d'enquêtes et
sondages, pratiques européennes et nord-américaine, P. Lavallée et
L.-P. Rivest (dir.), pages 175-180, Paris, Dunod.

13 Aux arrondis près dans le calcul du nombre de logements à rccchantillonncr.


1. Qualité des enquêtes et statistique publique 21

5. Vérification sélective des données pour

le futur système français de statistiques

structurelles d'entreprises

14
Gwennaëlle BRILHAULT et Philippe BRI ON

5.1 Le projet de refonte des statistiques

annuelles d'entreprises

L'Insee a démarré en 2005 une rénovation de son système de production de


statistiques structurelles d'entreprises (RESANE, REfonte des Statistiques
ANnuelles d'Entreprises, voir par exemple le rapport d'activité de l'Insee
2006, pages 35-36, pour une présentation plus détaillée).
Il est prévu que le futur système de production s'appuie au maximum sur
des données administratives existantes : données de la Direction Générale des
Impôts sur les comptes annuels des entreprises (bénéfices industriels et
commerciaux, bénéfices non commerciaux), déclarations annuelles de
données sociales des entreprises (sur les salaires et l'emploi), ainsi que
données des douanes.
Cependant, les données administratives ne peuvent à elles seules fournir
l'ensemble des informations attendues en matière de statistiques structurelles
d'entreprises. En particulier, la décomposition du chiffre d'affaires selon les
différentes branches d'activité d'une entreprise est une information
importante pour l'élaboration des comptes nationaux, et non disponible dans
la source fiscale. Il est donc nécessaire de mener une enquête statistique,
réalisée par sondage et par courrier, pour compléter les données
administratives. Cette enquête sera de fait plus légère que l'enquête
structurelle actuelle (enquête annuelle d'entreprise, EAE).
Le dispositif prévu s'appuiera donc sur une collecte multi-sources (données
d'enquête sur échantillon, données administratives exhaustives), d'où un
travail de contrôle-redressement complexe et une réflexion à mener sur les
estimateurs à utiliser dans ce contexte.
De plus, le dispositif envisagé utilisera de manière plus intensive qu'avant
des méthodes de vérification sélective des données, afin de concentrer le
travail de reprise manuelle des questionnaires sur les unités pesant le plus sur
la qualité des statistiques produites.

14 Insce, Direction des statistiques d'entreprises.


22 Enquêtes et sondages

5.2 Principes de la vérification sélective des

données

Sur le sujet de la vérification sélective des données, beaucoup de papiers ont


été produits ces dernières années, en particulier dans le domaine des
statistiques d'entreprises (par exemple Latouche et Berthelot, 1992, Lawrence
et McKenzie, 2000, et Hedlin, 2003). A notre connaissance, peu de papiers
ont utilisé une approche théorique du problème, à l'exception de celui de
Hesse (2005).
L'idée de base des méthodes proposées est de s'appuyer sur un classement
des unités selon un certain critère, et de définir un seuil au-dessus duquel les
unités vont être contrôlées « à la main » (et souvent recontactées), et au-
dessous duquel les données ne font que l'objet d'un processus de contrôle-
redressement automatisé. On considère donc que l'impact du contrôle manuel
(et non automatique) des données de ce deuxième paquet serait relativement
faible comparé à celui du premier paquet.
Plusieurs méthodes ont été proposées pour définir le critère servant à classer
les unités. Une première méthode consiste à regarder la contribution de
chaque unité à une statistique donnée en calculant la statistique qu'on
obtiendrait avec l'ensemble de l'échantillon sauf cette unité (cette méthode ne
s'applique qu'à une statistique du type ratio de deux agrégats ou évolution
d'un agrégat par rapport à la période précédente). Plus la statistique obtenue
sans l'unité est différente de celle obtenue avec l'ensemble des unités, plus
cette unité est considérée comme importante à contrôler. On parlera par la
suite de « drop-out » pour désigner cette méthode.
Une autre méthode a été proposée par certains auteurs : la fonction « diff ».
Elle consiste à calculer la valeur suivante, pour une variable donnée et une
unité i :

diff = poids(z) * valeur _brute(/) - valeur _attendue(z) .

Pour la valeur attendue, on peut utiliser la valeur de la même variable à une


période précédente, si elle est disponible, ou imaginer d'autres façons de
procéder.
Par une de ces deux méthodes (ou d'autres que nous ne mentionnons pas
ici), on obtient un score dit « score local », pour une statistique donnée des
unités. On peut ensuite combiner les scores locaux de différentes statistiques
qui seront produites à partir de l'enquête, pour arriver à un score global de
chaque unité, score qui classe de manière unique l'ensemble des entreprises
enquêtées selon l'importance qu'on leur donne quant à la nécessité de les
contrôler de façon approfondie.
Il est alors nécessaire de procéder au réglage du seuil (pour le score global
ou chaque score local) au-dessus duquel on décide de contrôler manuellement
une unité. Ceci se fait en général de façon expérimentale, par simulation sur
1. Qualité des enquêtes et statistique publique 23

des données d'une enquête passée fournissant à la fois des données finales
(jugées comme correctes, qu'on assimile à des données contrôlées
manuellement) et des données brutes (qu'on utilise comme proxy des données
redressées uniquement de manière automatique). On observe sur ces données
l'impact, sur différentes statistiques, du fait d'utiliser des données brutes en-
dessous du seuil et des données finales au-dessus, et au vu des courbes
obtenues pour les statistiques en question en faisant varier le seuil15, on décide
de la valeur à partir de laquelle les estimations semblent suffisamment
stabilisées : on détermine ainsi combien d'entreprises il « suffit » d'avoir
corrigé manuellement pour que l'agrégat étudié approche de manière
satisfaisante sa valeur finale (connue pour l'enquête passée utilisée).

5.3 La mise en place concrète : les problèmes

rencontrés

Des premiers essais visant à implémenter une vérification sélective des


données dans l'enquête statistique du futur dispositif ont utilisé les deux
méthodes « diff » et « drop-out » décrites précédemment. Ils ont été conçus
plus précisément dans l'optique du test grandeur nature du nouveau dispositif
qui a été lancé au printemps 2007 sur trois secteurs d'activité ; pour chacun de
ces trois secteurs, ils ont porté dans une première étape sur trois statistiques
(le chiffre d'affaires du secteur, le chiffre d'affaires par salarié du secteur, et
le chiffre d'affaires de la branche principale de ce secteur) et dans une
deuxième étape sur une cinquantaine de statistiques (des variables d'intérêt
plus spécifiques aux trois secteurs étudiés).
Le but de ces essais était de fournir des seuils « locaux » (et non un seuil
global) pour chacune des statistiques étudiées et chaque secteur, afin de
déterminer quelles entreprises nécessitaient un contrôle manuel dans les deux
étapes correspondantes du test grandeur nature. Pour évaluer ces seuils, les
essais ont utilisé les données de l'EAE actuelle.

5.3.1 Une difficulté pratique dans l'implémentation de


la vérification sélective des données d'enquête :
les données manquantes pour calculer les scores

Le premier problème auquel ces essais nous ont confrontés est celui des
données manquantes pour les variables étudiées. Ces données manquantes
peuvent être liées au renouvellement partiel de l'échantillon enquêté (unités
absentes de l'échantillon de l'année précédente) ou à la non-réponse de

15 Chaque courbe est obtenue en plaçant en abscisse le nombre k d'entreprises corrigées


manuellement (selon l'ordre du score considéré) et en ordonnée la valeur de l'agrégat
que l'on obtient en utilisant les données finales pour ces k entreprises et les données
brutes pour les autres (ayant un score plus faible que la Cmc).
24 Enquêtes et sondages

certaines imités. Elles peuvent donc concerner des données de l'année


précédente ou des données brutes de l'année d'enquête.
Or les unités présentant des données manquantes posent problème dans la
pratique de la vérification sélective des données, car il peut être impossible de
calculer leur score et donc de les classer correctement. De ce fait, si l'on ne
fait rien concernant les données manquantes brutes de l'année d'enquête par
exemple, ces unités se retrouvent à tort en fin de classement.
Il a donc fallu trouver comment contourner ce problème des données
manquantes. Ceci a été fait de deux façons :
- d'une part en estimant autant que possible les données brutes
manquantes (par exemple en prédisant la donnée manquante par la
valeur moyenne de cette donnée calculée sur les données renseignées
des autres entreprises de la catégorie de l'entreprise, considérée
homogène pour cette variable) ;
- d'autre part en se restreignant, dans le calcul des scores portant sur
l'évolution d'un agrégat par rapport à la période précédente, aux
seules entreprises présentes en et /? - 1.

Ces solutions ont été utilisées dans les essais sur données passées visant à
fixer les seuils, mais également dans le véritable calcul des scores du test en
vraie grandeur.

5.3.2 La difficulté centrale : fixer le seuil

Le problème principal de la vérification sélective des données réside dans le


réglage du seuil d'un score donné (local) au-dessus duquel on décide de
contrôler manuellement une unité. Pour cela, la méthode la plus satisfaisante
en théorie est celle décrite précédemment (tracé sur données passées de
courbes faisant varier le seuil).
L'utilisation de cette méthode pour les essais réalisés montre que les seuils
ainsi déterminés sur données passées « fonctionnent » bien pour les données à
venir, qui désignent pour la reprise manuelle des nombres d'entreprises à peu
près conformes à ceux attendus au vu des calculs sur données passées. Mais
cette méthode est coûteuse en temps, le tracé des courbes en particulier. Par
ailleurs, la détermination graphique du nombre d'entreprises qu'il suffit de
traiter manuellement est finalement assez subjective : on aura tendance à
baisser ses exigences si l'on constate qu'on en sélectionne trop en regard des
contraintes pratiques de l'enquête, sans qu'une justification théorique
n'appuie ce choix.
1. Qualité des enquêtes et statistique publique 25

5.3.3 Conclusions provisoires

À ce stade de l'étude, les premiers résultats sont encourageants :


- les courbes tracées (qui convergent en général rapidement) montrent
qu'on peut obtenir une bonne estimation de l'agrégat étudié en
contrôlant relativement peu d'entreprises, bien sélectionnées ;
- les scores testés semblent capables de bien repérer les unités à
contrôler en priorité (ceci aussi bien pour le score « diff » que pour le
score « drop-out », qui donnent des résultats proches) ;
- on dispose d'une méthode pour calculer sur données passées, pour un
score donné, le seuil au-dessus duquel on décide de contrôler
manuellement une unité, et les seuils ainsi calculés semblent
utilisables et pertinents sur les données à venir.

Toutefois, plusieurs problèmes restent à résoudre pour la mise en place


complète de la vérification sélective à grande échelle dans le futur système
français de statistiques structurelles d'entreprises : comment industrialiser le
calcul des seuils (ils devront être calculés pour un grand nombre de
statistiques et de secteurs d'activité) et comment interclasser les entreprises
sélectionnées par les divers scores (ceci afin de pouvoir déterminer des
priorités générales de traitement pour les gestionnaires d'enquête) ? Ces
problèmes devront être résolus en 2008 pour une mise en place effective de la
vérification sélective en 2009.
On peut également souligner en conclusion que la vérification sélective, si
elle présente un intérêt certain, ne produit pas pour autant des résultats
miraculeux : si Ton veut contrôler beaucoup de statistiques, on est forcément
amené à contrôler beaucoup d'unités. Nous avons été confrontés à ce
problème dans la deuxième étape des essais réalisés, qui portait sur une
cinquantaine de variables ; des réglages devront être prévus pour prendre en
compte cette difficulté.

BIBLIOGRAPHIE

Hedlin, D. (2003). Score functions to reduce business survey editing at the


U.K. Office for National Statistics. Journal of Officiai Statistics, vol. 19,
n02,pages 177-199.
Hesse, C. (2005). Vérification sélective de données quantitatives. Document
de travail à lucarne noE2005/04, Paris, Insee.
Insee (2007). Rapport d'activité 2006, pages 35-36 (évoque le programme
Resane).
Latouche, M., et Berthelot, J.-M. (1992). Use of a score function to prioritize
and limit recontacts in editing business surveys. Journal of Officiai
0
Statistics, vol. 8, n 3, pages 389-440.
26 Enquêtes et sondages

Lawrence, D., et McKenzie, R. (2000). The général application of


0
significance editing. Journal of Officiai Statistics, vol. 16, n 3, pages 243-
253.

6. Garantir la qualité de données

d'entreprises françaises pour une

enquête européenne

Agnès CHECCAGLINI, Isabelle RECOTILLET et


Patrick ROUSSET16

6.1 L'enquête CVTS

L'enquête CVTS III (Continuing Vocational Training Survey) est la troisième


édition d'une enquête quinquennale coordonnée par Eurostat, portant sur la
fonuation professionnelle continue financée par les entreprises européennes
en 2005. Un questionnaire identique est soumis dans chaque pays aux
entreprises de plus de dix personnes du secteur privé (hors santé, éducation et
agriculture). Sa mise en œuvre en France est assurée par le Céreq, la Dares et
TInsee. Cet article pointe à la fois les difficultés rencontrées et les solutions
expérimentées pour améliorer les données collectées. Eurostat fixe un cadre
précis à l'enquête en termes de délais et temporalité de réalisation, de
méthodologie conseillée, de définitions des variables et concepts, de qualité
des données. Ceci nécessite des efforts d'adaptation aux spécificités
françaises et confère une certaine lourdeur. Selon la taille de l'entreprise, sa
structure interne, l'existence ou non d'un service formation, d'une direction
des ressources humaines, l'existence d'un ou plusieurs établissements ou son
positionnement au sein d'un groupe, les configurations d'interrogation se sont
multipliées.
Par ailleurs, l'entreprise, unité statistique de l'enquête, est parfois délicate à
appréhender dans un environnement économique de plus en plus constitué de
groupes d'entreprises, pour lesquels la localisation des informations à
collecter est à un échelon qui dépasse l'entreprise. L'entreprise peut
également être confondue sur le terrain avec la notion d'établissement,
nécessitant une attention accrue sur la qualité des données recueillies.
L'échantillon a été stratifié par taille et secteur d'activité à partir du
répertoire SIRENE de l'Insee. Le taux de réponse prévu a été atteint avec
4 790 entreprises répondantes. Mentionnons que l'enquête participe du

16Céreq, 10 Place de la Joliette, BP2132I, 13567 Marseille cedex 02 ; (checcaglini@


cereq.fr, 04 91 13 6440; recotillet@cereq.fr, 0491 13 6442; rousset@cereq.fr;
04 9113 28 60).
1. Qualité des enquêtes et statistique publique 27

couplage avec l'enquête ménage sur la formation des adultes réalisée en 2006
pour la France (AES - Adult Education Survey) avec des conséquences
directes sur l'échantillonnage : des entreprises issues des interrogations
ménages ont constitué une partie de l'échantillon, complété par un tirage dans
SIRENE.

6.2 Difficultés du recueil auprès d'entreprises

Outre les difficultés habituelles de manque de disponibilité des entreprises


pour des enquêtes téléphoniques, les données collectées étaient nombreuses et
répondaient à des définitions européennes nécessitant une adaptation des
données habituellement collectées par les entreprises.

6.2.1 L'échec d'une collecte par Web

Pour alléger la charge des entreprises, un mode de collecte mixte téléphone et


web a été retenu. Les entreprises pouvaient choisir de répondre à la partie
quantitative du questionnaire sur un site Internet sécurisé. Les autres étaient
interrogées intégralement par téléphone. Lors des premiers contacts
téléphoniques avec les entreprises, la possibilité d'utiliser Internet a été bien
reçue. Si 1219 entreprises se sont connectées au site17, seules 954 ont
répondu à l'enquête. Au final, 643 questionnaires ont été complétés par
Internet, dont 628 ont été validés avec le complément téléphonique prévu. Le
nombre d'entreprises répondantes par Internet a été plus faible que celui
attendu, et la complexité introduite par un double mode d'interrogation n'a
pas été compensée par un taux d'utilisation satisfaisant. L'utilisation du site
n'a pas été plus rejetée (ou plus favorisée) par un profil d'entreprise plus
qu'un autre. Les entreprises se déclarent favorables à l'introduction de
nouvelles technologies dans les modes de collecte mais, en pratique, elles
l'utilisent peu et plutôt pour s'informer ou préparer l'interrogation.

6.2.2 Proximité avec des données administratives : à la


fois un piège et un support d'enquête

Dans les précédentes éditions de l'enquête CVTS, les données quantitatives


étaient issues des déclarations fiscales des entreprises sur la formation
continue (2483) et complétées par une interrogation téléphonique pour les
rendre conformes aux définitions européennes18. Pour CVTS III, les
entreprises ont été interrogées sur l'intégralité des variables. Cependant, pour
préparer leurs données et répondre à l'enquête, elles ont eu recours aux
mêmes documents que ceux leur permettant de réaliser leur déclaration

17 Soit 17 % des entreprises ayant reçu un identifiant et un mot de passe pour l'accès au
site.
18 Par exemple, introduction dans le décompte des formations de celles relatives à
l'hygiène et à la sécurité.
28 Enquêtes et sondages

fiscale. Les variables demandées étaient proches mais avec des champs et des
définitions européennes un peu plus larges. Ceci présentait un risque -que les
entreprises n'adaptent pas leurs données- et un avantage -elles pouvaient
s'appuyer sur le premier travail de collecte effectué19.
Un travail systématique a été entrepris sur des variables quantitatives afin
de valider la cohérence des données recueillies avec la source 2483 (Lavallée,
2005). Dans environ 10 % des cas, une divergence de plus de 40 % existait
entre l'effectif enregistré dans SIRENE (source de tirage) et le déclaratif de
l'entreprise. Cela nous a conduit à nous interroger plus globalement sur la
cohérence des effectifs salariés entre les données statistiques (CVTS) et la
source administrative (2483) et sur l'impact qu'ont pu avoir les données 2483
sur les réponses des entreprises. Nous avons comparé l'« effectif salarié »
SIRENE et 2483 et « effectif salarié CVTS » entreprise par entreprise lorsque
la source 2483 le permettait et les distributions sur la base la plus large.
L'étude de la fonction de répartition (moyenne, écart-type, graphiques des
distributions) fait apparaître par exemple, pour les entreprises de moins de 50
salariés, un plus grand rapprochement de CVTS avec 2483 qu'avec SIRENE
et une grande conformité entre les ensembles d'entreprises hors et dans 2483.
De sorte que les différences observées entre l'effectif salarié SIRENE et
CVTS sont davantage dues à des problèmes de mise à jour de l'effectif dans
la source SIRENE. Un travail de même nature a été réalisé sur la variable de
coût du travail (rapport entre la masse salariale et l'effectif salarié). Dans tous
les cas, les distributions ne présentent pas de dissimilitudes marquées. Nous
avons conclu que les informations issues des deux sources de données étaient
cohérentes en ce qui concerne le coût du travail.

6.2.3 Effet de la persévérance auprès des entreprises

Un questionnaire assez long, des questions quantitatives difficiles à collecter,


et un calendrier d'interrogation étroit : la réalisation des enquêtes a du
bénéficier d'un coefficient d'insistance téléphonique élevé et d'un
élargissement de la période d'interrogation. Ces deux facteurs ont amélioré le
taux de réponse. Ainsi, à la fin de la période d'interrogation initialement
prévue, environ 3 500 entreprises étaient comptées répondantes. En ajoutant
un mois d'interrogation, le nombre de répondants a presque atteint 4 800. De
nombreuses entreprises ont donné leur accord de participation mais sont
restées difficilement joignables, et ont constitué tout au long de l'enquête une
sorte de « réservoir ». Un peu moins de 15 % de l'échantillon initial est resté
« injoignable », sorte de refus déguisés, de rendez-vous sans succès ou
d'appels restés sans réponse. Globalement, les entreprises pour lesquelles un
accord de participation a été obtenu au préalable, ont bien participé à

19 Notons que l'interrogation CVTS intervenait dans les jours qui suivaient la date limite
de déclaration fiscale 2483 pour les entreprises.
1. Qualité des enquêtes et statistique publique 29

l'enquête au final (78 % des répondantes avaient donné leur accord), mais un
peu plus de 23 % des entreprises pour lesquelles le contact amont n'avait pas
permis d'obtenir d'accord ont tout de même répondu à l'enquête. La phase
dite de « qualification » a porté ses fruits, mais de manière limitée. Le choix
d'insister auprès des entreprises non jointes en phase de qualification a permis
d'améliorer sensiblement le taux de réponse global et de limiter le biais de
non-réponse.

6.3 S'assurer de la qualité des données

6.3.1 L'accompagnement « qualitatif »

Des procédures qualitatives ont été mises en place afin de garantir la qualité
des données en amont et en cours d'interrogation. Une des difficultés relève
de la capacité à contacter la « bonne personne » dans l'entreprise et lui
permettre de préparer l'interrogation. Cette phase avait pour objectif de
limiter les réponses incorrectes ou manquantes. Par ailleurs, durant toute la
période d'interrogation, les entreprises avaient la possibilité de se connecter
au site Internet, sur lequel étaient mis à disposition les documents officiels,
les définitions européennes et la partie web du questionnaire. Le numéro vert
a également été sollicité par plus de 2 200 appels d'entreprises. 45 %
concernaient des demandes d'informations, 39 % étaient des prises de rendez-
vous, 15 % rencontraient des difficultés de connexion au site et 1 % des
appels signifiaient le refus de l'entreprise de participer. Du côté des
enquêteurs, deux accompagnements ont été mis en place : des formations
spécifiques régulières et des précisions techniques sur leur écran CATI pour
garantir une fiabilité et une harmonie dans les précisions apportées aux
entreprises. Des procédures de contrôles automatiques ont également permis
de limiter les erreurs de saisie et les incohérences globales. Un apurement sur
les données collectées a cependant été nécessaire à l'aide d'un traitement
semi-automatique des données, d'une manière un peu semblable à celle de
l'Enquête Annuelle Entreprise décrite par Mauguin (2004).

6.3.2 Les procédures de contrôle automatiques

Les contrôles de cohérence internes au sein du questionnaire ont permis


d'organiser l'apurement des données au cours de l'interrogation et d'établir
des indicateurs de fréquence du déclenchement des contrôles. Au final, moins
de 15 % des questionnaires sont entièrement remplis. Il s'avère que chaque
entreprise s'est abstenue de répondre, en moyenne, à une dizaine questions.
Une analyse des fréquences de déclenchement des contrôles témoigne de trois
types de difficultés : 1) divergence entre la source d'échantillonnage et
l'effectif déclaré (contrôle déclenché dans 23 % des cas), 2) incohérence entre
des variables liées entre elles (exemple : nombre d'heures de travail
30 Enquêtes et sondages

incohérent avec l'effectif salarié, 6 % des cas), 3) difficultés de recensement


d'information (total des heures de formation par type d'organisme
dispensateur différent du total déclaré, 9 % des cas). Généralement, face à un
contrôle de cohérence déclenché, l'entreprise confirme sa réponse.
Les contrôles de cohérence externes se sont appuyés sur la source
administrative 2483 - source externe précieuse à la fois comme outil de
contrôle de cohérence externe et comme source pour l'imputation. Plusieurs
arguments plaident en faveur de ces contrôles externes. D'une part, il est
possible de comparer la variable d'intérêt à partir de l'enquête CVTS (taux
d'entreprises formatrices) et de la source administrative. D'autre part, pour un
ensemble de variables, un rapprochement est possible avec les déclarations
fiscales 2483. L'hypothèse de cohérence entre déclarations fiscales et
déclarations à l'enquête pour les variables telles que les effectifs salariés, le
coût du travail, le nombre de participants aux cours et stages, les dépenses de
fonnation a été validée et justifie le recours partiel à la source fiscale pour
l'imputation. Enfin, le caractère exhaustif des déclarations 2483 pour les
grandes entreprises permet de contrôler les effets de la présence ou de
l'absence d'une entreprise dans une strate.

BIBLIOGRAPHIE

Lavallée, P. (2005). Indicateurs de la qualité : combinaison des données


d'enquêtes et des données administratives, article présenté au Symposium
2005 de Statistique Canada, Ottawa, Canada.
Mauguin, J. (2004). Les procédures automatiques de contrôles de données
dans les enquêtes annuelles d'entreprises, Méthodes d'enquêtes et sondages,
pratiques européennes et nord-américaine, P. Lavallée et L.-P. Rivest
(dir.), pages 91-96, Paris, Dunod.
1. Qualité des enquêtes et statistique publique 31

7. Comparaison des déclarations des

salariés et des employeurs dans

l'enquête Familles-Employeurs

Nicolas RAZAFINDRA TSIMA, Anne PAPADOPOULOS et


20
Bernard DE CLÉDA T

7.1 Introduction
r m
21 •
Dans l'enquête Familles-Employeurs" , certaines caractéristiques des
établissements répondants de plus de 20 salariés sont disponibles à partir des
deux sources, volet individu et volet employeur, ce qui rend la comparaison
possible. L'utilisation d'autres données sur l'établissement, provenant du
répertoire SIRENE22 de l'Insee permet aussi, pour certaines variables,
d'affiner la comparaison. Lorsqu'on compare les données à partir des trois
sources, des divergences apparaissent parfois, concernant par exemple
l'effectif de salariés de l'établissement. On se pose alors la question de savoir
quelles sont les caractéristiques au niveau des établissements (caractère
public/privé, existence de plusieurs établissements au sein de l'entreprise,
secteur d'activité, etc.) ou au niveau des individus (fonction, responsabilité,
etc.) qui expliquent les divergences des données des différentes sources.

7.2 Comparaison des données déclarées par le

salarié et son employeur

Nous nous intéresserons en particulier à deux variables essentielles qui n'ont


pas fait l'objet d'imputation : la taille de l'établissement et l'activité. Pour ce
faire, on dispose d'un fichier de 3 050 individus travaillant dans 2 673
établissements. Pour ce qui concerne la variable « taille de l'établissement »,
on a regroupé le nombre de salariés en six tranches présentées ci-dessous.
L'indicateur de « cohérence » individu/employeur est composé de trois
modalités. On parle de « cohérence totale » lorsque la tranche est identique
(68,3 %), de « cohérence forte » lorsqu'ils divergent d'une tranche (23,1 %) et
d'« incohérence » lorsqu'ils divergent d'au moins deux tranches (8,7 %).

20 Institut National d'Études Démographiques (Ined), 133 Boulevard Davout, 75980 Paris
cedex 20, France (razafind@ined.fr, anne.papadopoulos@ined.fr, decledat@ ined.fr).
21 Voir l'article de Dauplait et de Clcdat dans cet ouvrage ou Pailhé et Solaz (2007) pour
une présentation de l'enquête.
22 Système Informatique pour le Répertoire des Entreprises et des Établissements. Nous
remercions la division Harmonisation des Enquêtes auprès des Entreprises (H2E) de
l'Insee pour avoir mis à notre disposition les données du répertoire SIRENE qui servent
de support à cette étude.
32 Enquêtes et sondages

Tableau 1.1 : Répartition des entreprises selon la taille de


rétablissement déclarée par le salarié et Femployeur
Salarié 20-49 50-199 200-499 500-999 > 1 000 Total
Employeur
<20 2,9 1,2 0,9 0,4 0,5 1,3
20-49 73 11,4 3,3 1,5 3,1 20,7
50-199 17,5 71,1 18,0 6,0 5,2 32,5
200-499 3.2 10,6 62,7 17,3 6.2 19,4
500-999 1,2 2,9 10,0 52,6 12,3 10,2
> 1 000 2.2 2,7 5,1 22,2 72,8 15,8
Total 100 100 100 100 100 100

Un pourcentage plus élevé d,« incohérences » est observé pour les


établissements du secteur public ou nationalisé, ou de la fonction publique
territoriale, caractérisés par une déclaration d'effectifs supérieure de
l'employeur par rapport au salarié.
D'autres variables concernant l'établissement, d'une part déclarées par
l'individu telles que le fait d'être mono-établissement et, d'autre part
déclarées par l'employeur telles que le service d'appartenance du répondant,
la situation géographique, l'activité, sont fortement corrélées à notre
indicateur. Par contre, les caractéristiques de l'individu, par exemple, sa
catégorie socio-professionnelle ou ses responsabilités dans l'entreprise ne
semblent pas jouer de rôle significatif.
Pour ce qui concerne l'activité principale de l'établissement, une
déclaration identique de l'employeur et du salarié a été observée dans 69,9 %
des cas. Les désaccords ont été observés essentiellement dans les secteurs de
l'industrie des biens d'équipement, des activités immobilières ainsi que celui
des services aux entreprises, avec respectivement seulement 29%, 41 % et
40 % de déclarations concordantes. Toutefois, une étude plus détaillée montre
que les divergences proviennent, pour une part, de problèmes de
codifications, des nomenclatures d'activité différentes ayant été utilisées dans
les volets individus et établissement.

7.3 Comparaison des données déclarées par

l'employeur dans EFE et SIRENE

Le deuxième niveau de comparaison des réponses porte sur la comparaison


d'une enquête auto-administrée (volet employeur EFE) et d'un fichier admi-
nistratif d'entreprises (répertoire SIRENE). Nous disposons d'un échantillon
23 ' *
composé de 2 506" établissements pour lesquels on dispose d'informations

23 Correspondant aux établissements ayant répondu à l'enquête et ayant pu être appariés


avec SIRENE.
1. Qualité des enquêtes et statistique publique 33

communes : l'effectif, l'activité principale selon la nomenclature NES 16 et le


secteur (public/privé). Les données SIRENE sont celles de décembre 200524.
Pour ce qui concerne la variable « taille de l'établissement », la
comparaison a pu être effectuée pour 2 376 observations présentes dans les
deux sources. Le nombre de salariés a été regroupé de nouveau en six
tranches. Sur l'ensemble du fichier, 21 % des établissements ont un effectif
égal à zéro d'après SIRENE. On retrouve parmi eux une proportion très
importante d'établissements du secteur public, et notamment la quasi-totalité
de ceux appartenant à la fonction publique d'Etat. Nous pouvons alors
supposer que ces effectifs sont reportés sur l'administration de tutelle dont ils
dépendent.
Un indicateur de cohérence a été construit pour les établissements avec un
effectif SIRENE supérieur à zéro (1 956 établissements) pour des effectifs
présents dans les deux fichiers ( 1 842 observations). Cet indicateur comporte
trois modalités, comme précédemment. Nous obtenons alors 83 % de
déclarations totalement cohérentes, 12 % de déclarations « fortement
cohérentes » et 5 % de déclarations « incohérentes ». Ces dernières
concernent principalement le secteur de la fonction publique territoriale, et
dans 63 % des cas, les employeurs déclarent un effectif supérieur par rapport
à SIRENE.
Pour ce qui concerne la variable « activité de l'établissement », on observe
91 % de déclarations totalement cohérentes entre EFE et SIRENE. Les
établissements présentant les divergences les plus fortes appartiennent
principalement au secteur des activités immobilières, mais aussi dans les
secteurs des services aux particuliers et de l'administration.
Dans l'ensemble, hors secteur de l'administration, les données enregistrées
dans SIRENE et EFE correspondent donc bien, tant au niveau des effectifs
qu'au niveau de l'activité principale.

7.4 Modélisation de la cohérence des données

concernant la taille de l'établissement

La taille étant une variable fondamentale entrant dansr le calcul des


r • • r • 25 ^ "
pondérations de niveau établissement" , nous avons cherché à modéliser la
probabilité d'obtenir des données « incohérentes » (au moins deux tranches
d'écart) concernant la taille de l'établissement déclarée par l'employeur et le
salarié grâce à un modèle logit. La variable expliquée oppose les déclarations
cohérentes (cohérence totale et forte) aux déclarations incohérentes. En
variables explicatives, nous avons contrôlé l'effectif, l'activité croisée avec le

24 Les effectifs du répertoire, mis à jour à partir des déclarations annuelles de données
sociales, portent sur 2004.
25 Elle intervient en effet lors de l'application de la méthode du « partage des poids »
(Lavallcc, 2002), qui est appliquée lors du calcul des pondérations de l'enquctc EFE.
34 Enquêtes et sondages

caractère public ou privé, le service d'appartenance du répondant, la région


ainsi que le fait d'être mono ou multi-établissement.

Tableau 1.2 : Résultats de la modélisation de la probabilité


d'obtenir des données incohérentes (extraits
Coefficient estimé26 Ecart-type
Taille de l'établissement
< 50 0,93*** 0,23
50-199 Réf.
200-499 0,61** 0,23
500-999 0,92** 0,25
> 1 000 1,24*** 0,23
L'entreprise possède d'autres
établissements ?
Oui Réf.
Non -0,80*** 0,18
2
N = 2 743;x = 111.9***;DL = 15

Au delà de 50 salariés la probabilité d'obtenir des déclarations différentes


de la part du salarié et de l'employeur augmente avec la taille. C'est dans le
secteur de l'administration que les données sont les plus divergentes. Le fait
d'être multi-établissement augmente aussi la probabilité de divergence sur les
déclarations d'effectif.

7.5 Conclusion

Si l'on se donne une certaine marge pour accepter la cohérence des données,
les comparaisons effectuées montrent que celles obtenues à partir du volet
employeur de EFE, du volet individu et du répertoire SIRENE concordent
fortement. En effet, les données concernant la taille de l'établissement sont
cohérentes dans 93 % des cas au niveau volet individu/volet employeur et
dans 95 % des cas au niveau volet employeur/S IRENE. Lorsqu'on s'intéresse
à l'activité principale, les données sont cohérentes dans, respectivement 79 %
et 91 % des cas. La pertinence de ces résultats peut bien sûr être discutée,
notamment en regard de la définition de la « cohérence ». Pour notre part,
nous avons considéré ici une définition assez large, étant donné la nature des
données disponibles.
Lorsque les données semblent incohérentes il est difficile de déterminer
alors si les divergences constatées proviennent de caractéristiques propres aux
établissements, à la position du salarié dans l'établissement, au codage ou
encore à la définition de chacun quant à la notion d'établissement (lieu de
travail, établissement payeur, numéro SIRET, etc.). Cependant, il ressort que
les établissements faisant partie de la fonction publique territoriale et ceux

26*** : signifîcativitc au seuil de 1 %, ** : significativitc au seuil de 5 %.


1. Qualité des enquêtes et statistique publique 35

appartenant aux activités immobilières, posent des problèmes de cohérence


respectivement au niveau des déclarations d'effectif et au niveau de l'activité
principale d'un point de vue individu/employeur ou employeur/SIRENE.
Une modélisation a mis en relief les facteurs conduisant à une divergence
de déclarations entre salariés et employeurs pour la taille de l'établissement.
Le secteur d'activité, sa situation géographique, le service d'appartenance du
répondant au questionnaire ainsi que le caractère mono ou multi-
établissement influent ainsi fortement sur la concordance des réponses aux
questions portant sur l'effectif total de l'établissement.

BIBLIOGRAPHIE

Lavallée, P. (2002). Le sondage indirect, ou la méthode généralisée du


partage des poids, Bruxelles-Paris, éditions de l'Université libre de
Bruxelles et Ellipses.
Pailhé, A., et Solaz, A. (2007). L 'enquête Familles et employeurs - Protocole
d'une double enquête et bilan de collecte, document de travail Ined n0143.
û
CO
o
o
fM

ai
>-
CL
O
u
Chapitre 2

Enquêtes longitudinales

1. Le traitement combiné des effets de

non-réponse non-ignorable et de

sondage informatif dans l'analyse des

données issues des enquêtes

longitudinales

1 2
Gad NA THAN et Abdulhakeem EIDEH

1.1 Introduction

Les données issues des enquêtes par sondage, et surtout par les enquêtes
longitudinales, sont employées fréquemment pour inférer sur des modèles
supposés. Souvent on ne tient pas compte des traits du plan du sondage
(stratification, sondage par grappes ou à probabilités inégales) et les données
venant de l'enquête par sondage sont analysées en employant des méthodes
classiques, basées sur le plan de sondage aléatoire simple. Cette approche
peut mener à des inférences erronées à cause du biais de sélection, impliqué
par un plan de sondage informatif. Pour traiter les effets de tirage par
probabilités inégales sur l'analyse de données issues des enquêtes
longitudinales, Feder, Nathan et Pfeffermann (2000) ont appliqué des modèles
hiérarchiques en combinaison avec des modèles de séries chronologiques.
Pfeffermann, Krieger et Rinott (1998) ont proposé l'emploi de la distribution

1 Département de Statistique, Université Hébraïque de Jérusalem, gad@huji.ac.il.


2 Département de Mathématique, Université Alquds, Palestine, msabdul@ppu.edu.
38 Enquêtes et sondages

dans l'échantillon induite par un modèle supposé pour la population, sous un


plan de sondage informatif, pour une enquête en temps unique, et ont
développé des expressions pour son calcul. Une approche similaire est
employée par Nathan et Eideh (2004) et par Eideh et Nathan (2006), en
proposant des modèles de séries chronologiques pour l'analyse des données
issues des enquêtes longitudinales sous un plan de sondage informatif général.
En plus de l'effet du plan de sondage complexe, un des problèmes
principaux pour l'analyse des données issues des enquêtes longitudinales est
celui des données manquantes. Pour l'analyse longitudinale on cherche à
mesurer une série d'observations pour chaque unité dans l'échantillon. Des
données manquantes peuvent apparaître quand des observations sont
indisponibles pour un ou plusieurs des temps de la série, ou par intenuittence,
ou pour une période continue jusqu'à la fin de la série.
Dans le contexte d'enquêtes par sondage, le traitement des données
manquantes dans les enquêtes longitudinales est considéré, sur la base du plan
de sondage, par Kalton (1986) et Lepkowski (1989). Pfeffermann et Nathan
(2001) développent des méthodes de redressement des données manquantes
dans les enquêtes longitudinales, par un modèle multiniveau intégré dans un
modèle auto régressif. Skinner et Holmes (2003) proposent un modèle
hiérarchique avec un effet aléatoire permanent au niveau de l'unité et des
effets aléatoires temporaires, qui sont autocorrélés, pour les différentes
périodes de l'enquête.
Dans cet article nous étudions le traitement combiné de non-réponse non-
ignorable et de sondage informatif pour l'analyse des données issues des
enquêtes longitudinales, par la spécification de la distribution jointe des
observations quand le plan de sondage est informatif. Cette distribution décrit
simultanément l'effet du plan de sondage informatif et celui de la réponse
informative.

1.2 La distribution dans la population

Soit yi[ la valeur observée pour l'unité /(= 1,..., Af) en période r(= 1,..., T).
Avec chaque valeur, yti, sont associées les valeurs (connues), xjik,
£(= 1,...,/?), de p variables explicatives. On suppose que les valeurs y(.
suivent le modèle de régression : ya = p,*., + ... + p + s., où les valeurs
de 8(; pour t = l, ...,r, sont une série aléatoire de longueur f, associée à
chacun des N unités. La structure longitudinale des données suggère que les
valeurs de s a sont corrélées à l'intérieur des unités.
Soit y, =(y,l,-,y.T)', x„ = et soit P = le vecteur des
coefficients de régression inconnus. Le modèle linéaire général multivarié
pour les données longitudinales considère les vecteurs aléatoires y,-,
/ = 1,..., N, comme des variables normales multivariées, qui sont distribuées
yj | x) ~ MVN(\i P, V), où xi est la matrice de taille f x /? de variables
2. Enquêtes longitudinales 39

explicatives pour l'unité /, et V a pour élément {jk) : vik =


co\p(ylj,ylk), j, k = \,T, (Diggle, Liang et Zeger, 1994).

1.3 La distribution dans l'échantillon

Pour beaucoup d'exemples d'études longitudinales on emploie un sondage de


panel, où les unités sélectionnées pour la première période restent dans
l'échantillon jusqu'à la fin de l'étude (voir, par exemple, Nathan, 1999). Nous
supposons, donc, un plan de sondage informatif à un degré pour un
échantillon de panel sélectionné à temps / = l et que toutes les unités restent
dans l'échantillon jusqu'au temps t = T. \\ est raisonnable, alors, de supposer
que les probabilités d'inclusion du premier ordre, n., dépendent des valeurs
de la variable de réponse à la première occasion seulement, yiV et des valeurs
des variables explicatives pour la première période, x,, = (x,Si
y, ~ /.(y, x,7 0) est la distribution conditionnelle dans la population, la
distribution marginale dans l'échantillon de y , étant donné X(, est donnée
par :

0) = £
|^rx^r/p0'jx"' e)^y'2' ^ x; e) (1)

où £(71, I x„,0) = 1 x(I, y)/'(xJx.p ^)dy,r La démonstration de ce


résultat est donnée par Eideh et Nathan (2006).
En supposant l'indépendance des observations dans la population,
Pfeffermann, Krieger, et Rinott (1998) démontrent l'indépendance
asymptotique des valeurs des unités sélectionnées sous la distribution dans
l'échantillon, pour les plans de sondage avec des probabilités inégales,
souvent employés. En conséquence, l'emploi de la distribution dans
l'échantillon permet l'utilisation des procédures efficaces d'inférence
standards, comme l'inférence basée sur le maximum de vraisemblance.
Notons qu'étant donnée la distribution dans la population, fp{yn \ X^, 0), la
distribution dans l'échantillon, /(y,Ix.,,0), est entièrement déterminée par
les valeurs des espérances des probabilités d'inclusion, ^ (^jy.,, x,,). Nous
considérons les modèles approximatifs suivants pour ces espérances des
probabilités d'inclusion, proposés par Pfeffermann, Krieger, et Rinott (1998)
et par Skinner (1994) :
(a) Modèle exponentiel :

£ (XILp x„) = exp{a0'+a0yi,+a,x11+a2x,2+...+apx,p) (2)

(b) Modèle linéaire :

= K+Kya+b*xlu+\xm+---+i>*np (3)

Eideh et Nathan (2004) considèrent, en plus, les modèles logit et probit pour
les espérances des probabilités d'inclusion.
40 Enquêtes et sondages

Dans le cas du modèle exponentiel pour les espérances des probabilités


d'inclusion, équation (2), on peut démontrer que la distribution dans
l'échantillon de j(, étant donnée la valeur de x., est :

exp(a
/.(y,IM') = "^'')^)1 ^ 9) /pCy^ yl>'-,y.T I y* (4)

où 0 = («(1,0) sont des paramètres informatifs, que l'on doit estimer à partir
de l'échantillon, et M = isjexp^,,^,)] est la fonction génératrice des
moments de la distribution dans la population de y., étant donnée la valeur
de x i .
Si on suppose que la distribution de y., étant donnée la valeur de x., dans la
population est la distribution multivariée normale, on peut démontrer, en
supposant le modèle exponentiel pour les espérances des probabilités
d'inclusion, que la distribution dans l'échantillon de y., étant donnée la valeur
de x, est multivariée normale :

yjx. (5)

où = [x^p + a^^x'. p,..., x'rP]' et la matrice des covariances, V*, est


définie par :

v v v 0 et v 2 T
'1 = v i" = ', = - ' > ^ ,'- = = > - (6)
n

Notons que si a0 = 0, c'est-à-dire que le plan de sondage n'est pas


informatif, la moyenne de la distribution dans l'échantillon, égale à celle de la
distribution dans la population. Des résultats similaires sont obtenus pour les
modèles linéaires, logit et probit.

1.4 Le traitement des effets de la non-réponse

informât! ve

Des observations manquent dans les enquêtes longitudinales de plusieurs


manières et pour des raisons différentes ; par exemple, des entreprises qui
naissent et meurent, les individus qui cessent de répondre etc. Nous
considérons ici seulement le cas des observations manquantes qui ne sont
suivies que par des observations manquantes, c'est-à-dire que la non-réponse
est finale. Si y.,, ..., y.T est la série d'observations souhaitées pour l'unité i
(= on suppose que si yn manque, alors toutes les observations ja,
pour t'>t, manquent aussi. Une question importante se pose quand le manque
d'observations est lié aux valeurs observées. En employant la terminologie
introduite par Rubin (1976), nous traitons ici le cas du manque informatif
(NMAR), c'est-à-dire que le processus de non-réponse dépend des valeurs
observées et des valeurs non observées que l'on aurait obtenues, pour une
unité qui n'a pas répondu, si elle avait répondu.
2. Enquêtes longitudinales 41

Supposons qu'une série complète des observations pouvait être obtenue


pour l'unité /, qu'on l'indique par y' = (y*, yet supposons que sa
distribution est la distribution normale multivariée. Soit v , , =
{yn, yj2,yi J le vecteur des valeurs observées, où d. indique la première
période de non-réponse (avec di = T + \ si l'unité / répond pour toutes les
périodes). On suppose que yu = y] si t < d., et indiquons par D.
(2 < D < T + 1) la variable aléatoire qui prend la valeur de la première
période de non-réponse pour l'unité /(= 1,Soit //. = {y.,, y,2,...,y.x,}
l'ensemble des observations obtenues pour l'unité i avant la période t (pour
t < d).
Le modèle général pour le processus de non-réponse informative suppose
que la probabilité de non-réponse à la période t dépend de y. ^ et de y*.
Alors il faut spécifier un modèle pour le processus de la non-réponse de la
forme Pr(D = d, I HJ = ; (p), où (p est un vecteur de paramètres
inconnus. Diggle et Kenwarcl (1^94)'proposent le modèle logistique :

ex
p(<|)i.y,i+"-+(t)j-iX.i. i+§d.y' )
V\{D=d
V , ,1\ HV)=P'P(H : Sid.WI
y" ;<p) = .| + CXp^J,,+...+
/x t
,() ' (7)

ou un modèle logit semblable.


Une fois que le modèle du processus de non-réponse est déterminé, on peut
obtenir la distribution conjointe du vecteur des observations y , ,, à partir de
la distribution normale multivariée de y] et de la série des' distributions
conditionnelles dans l'échantillon de y., étant donné //.. En employant les
équations (1), on obtient pour la densité conjointe de la probabilité dans
l'échantillon de la série incomplète de d.-X observations, y( (/ et de
l'événement que la non-réponse commence à temps d., l'expression suivante :

/.(yjx) = ly , , xj *{îj[l - P(/f„^;<p)]jp(D( = d}H:d) (8)

où estla
I l I densité de probabilité
marginale dans l'échantillon de la série yi et Fr(Di = dj\Hid) =
P, (Hid , y*(l ; (p) est défini par l'équation (7). Notons que ces résultats traitent
en même temps les effets de la non-réponse informative et ceux du plan de
sondage informatif.

1.5 L'estimation des paramètres

Nous décrivons dans cette partie les méthodes d'estimation des paramètres
des modèles, proposés pour l'analyse des données issues des enquêtes
longitudinales, pour tenir compte des effets du plan de sondage informatif et
de ceux de la non-réponse non-ignorable. On propose deux méthodes
d'estimation, toutes les deux basées sur la distribution dans l'échantillon
précédemment décrite, en supposant le modèle exponentiel de l'équation (2).
42 Enquêtes et sondages

1.5.1 Estimation en deux étapes

Les deux ensembles de paramètres dans l'équation (8) que l'on doit estimer
sont ceux de la distribution dans la population, 0 = (p,V), et les paramètres
de la distribution dans l'échantillon des valeurs observées : a0, le paramètre
du plan de sondage informatif, défini par l'équation (2) ; et (p, le paramètre du
modèle pour le processus de non-réponse, selon les équations (7). Indiquons
par 0 =(0, a,,,(p) l'ensemble des paramètres à estimer. D'abord les
paramètres de la distribution dans la population sont estimés par une méthode
en deux étapes sur base de la distribution dans l'échantillon des valeurs
observées. A la première étape les paramètres de l'espérance des probabilités
d'inclusion sont estimés. À la deuxième étape les autres paramètres sont
estimés par la minimisation de la log-vraisemblance, avec les estimateurs
issus de la première étape remplaçants les vraies valeurs des paramètres.
Selon Pfeffermann, Krieger et Rinott (1998), l'emploi de ce processus
d'estimation en deux étapes est nécessaire quand l'espérance conditionnelle
des probabilités d'inclusion est exponentielle, car dans ce cas il y a un
problème d'identifiabilité.
En réalité, les espérances conditionnelles des probabilités d'inclusion,
(tt lyj, ne sont pas connues et les seules données disponibles pour
l'analyste pour la première période sont les valeurs de {y.,, w. ; i e s}, où w =
l/rc sont les poids de l'échantillon. L'estimation des valeurs de £ (ti |y(l), en
employant seulement les données {y(1, w ;i g s}, peut être basée sur la
relation suivante (Pfeffermann et Sverchkov, 1999) :

eàwM
'ëMK)(9)

Pour le modèle exponentiel des espérances des probabilités d'inclusion,


équation (2), l'estimation en deux étapes se déroule comme suit :
Ie étape - l'estimation de a0 : selon l'équation (9) on peut estimer aQ par la
régression de -log(H'() sur les valeurs de yiX, x(ll, ..., jcv, pour toutes les unités
dans l'échantillon.
2'' étape - on substitue les estimateurs, à{) de a0, obtenus par la méthode des
moindres carrés dans la distribution dans l'échantillon des valeurs observées.
La contribution à la fonction de la log-vraisemblance pour les valeurs
observées de l'unité i dans l'échantillon est obtenue par l'équation (8).

1.5.2 Estimation par la pseudo-vraisemblance

Cette approche est basée sur la solution des équations estimées par le
maximum de vraisemblance dans la population. Cet estimateur de maximum
de la pseudo-vraisemblance des paramètres 0 = (P,V) est défini comme la
solution des équations du maximum de vraisemblance dans la population,
qu'on peut exprimer, dans ce cas, comme :
2. Enquêtes longitudinales 43

«7(6) = (0) = î 5|logZ,p(p,V) = 0. (10)

Alors l'estimateur de maximum de la pseudo-vraisemblance est défini


/\ /V
comme la solution des équations U(0) = 0, où U(0) est un estimateur, basé
sur l'échantillon, de U(0), défini par l'équation (10) (voir Binder, 1983).

1.6 Application empirique

Nous avons appliqué les résultats précédents aux données de l'enquête sur le
travail Britannique (LFS), pour l'estimation des flux bruts entre les statuts
d'activité pendant deux trimestres consécutifs, en supposant la non-réponse
informative, comme étudié déjà par Chambers et Clarke (1998) et par Clarke
et Tate (2002). On considère trois statuts de participation à la force du
travail - employé (E), non employé (U), et n'appartient pas à la population
active (N) - parmi lesquels on veut estimer les flux bruts. Pour l'application
des méthodes proposées, on doit modifier les résultats obtenus plus haut pour
traiter une variable catégorielle. En effet, on se base sur la distribution
multinomiale des fréquences pour les neuf catégories de flux entre les paires
de statut, avec les probabilités qu'on indique par œ(a, b) pour le flux entre
statut a et b, (a, b = 1,2,3). Les observations sont les nombres d'individus
dans le ménage h(= \,..., n), n^a, b), avec le flux {a,b). On suppose que la
non-réponse concerne les ménages entiers, c'est-à-dire que tous les individus
du ménage répondent si le ménage répond. Ceci correspond
approximativement à la situation réelle pour la plupart des enquêtes sur le
travail chez les ménages.
Les méthodes d'estimation considérées sont: (1) l'estimation simple a la
base des données non-pondérées ; (2) l'estimation pondérée avec les poids
individuels calibrés utilisés généralement pour le LFS (Clarke et Tate, 2002) ;
(3) maximum de vraisemblance dans l'échantillon selon le modèle
exponentiel par la méthode d'estimation en deux étapes ; et (4) maximum de
vraisemblance dans l'échantillon en employant le modèle de Heckman (1976,
1979).
Les résultats montrent des différences importantes entre les estimateurs
simples, d'un côté, et les estimateurs pondérés et ceux qui sont basés sur la
vraisemblance dans l'échantillon, de l'autre. Au contraire, les différences
entre les différentes méthodes pour traiter les effets du plan du sondage
complexe et ceux de la non-réponse sont assez petites. Les résultats sont aussi
semblables à ceux obtenus par Clarke et Tate (2002). Une explication
possible est le fait que toutes les méthodes appliquées emploient, de
différentes façons, les mêmes poids individuels calibrés du LFS.
44 Enquêtes et sondages

BIBLIOGRAPHIE

Binder, D.A. (1983). On the variances of asymptotically normal estimators


from complex surveys. International Statistical Review, vol. 51, 279-292.
Chambers, R.L., et Clarke, P.S. (1998). Estimation des flux bruts de la
population active provenant d'enquêtes donnant lieu à une non-réponse
dont il faut tenir compte au niveau du ménage. Techniques d'enquête, vol.
24, 133-140.
Clarke, P.S., et Tate, P.F. (2002). An application of non-ignorable non-
response models for gross flows estimation in the British labour force
survey. Australian and New Zealand Journal of'Statistics, vol. 4, 413-425.
Diggle, P., et Kenward, M.G. (1994). Informative drop-out in longitudinal
data analysis. Applied Statistics, vol. 43, 49-73.
Diggle, P.J., Liang, K.Y. et Zeger, S.L. (1994). Analysis of Longitudinal
Data. Oxford : Science Publication.
Eideh, A.H., et Nathan, G. (2006). Fitting time sériés models for longitudinal
survey data under informative sampling. Journal of Statistical Planning and
Inference, vol. 136, 3052-3069.
Feder, M.F, Nathan, G. et Pfeffermann, D. (2000). Modélisation multiniveaux
des données longitudinales d'enquêtes complexes à effets aléatoires
variables en fonction du temps. Techniques d'enquête, vol. 26, 53-65.
Heckman, J.J. (1976). The common structure of statistical models of
truncation, sample sélection and limited variables, and a simple estimation
af such models. Annals of Econometric and Social Measurement, vol. 54,
475-492.
Heckman, J.J. (1979). Sample sélection bias as a spécification error.
Econometrica, vol. 47, 153-161.
Kalton, G. (1986). Handling wave nonresponse in panel surveys. Journal of
Officiai Statistics, vol. 2, 303-314.
Lepkowski, J.M. (1989). Treatment of wave nonresponse in panel surveys.
Dans Panel Surveys, D. Kasprzyk et coll. (éds.), New York : John Wiley &
Sons, Inc., 348-374.
Nathan, G. (1999). A review of sample attrition and representativeness in
three longitudinal surveys, GSS Methodology Séries n013, Londres : Office
ofNational Statistics.
Nathan, G., et Eideh, A.H. (2004). L'analyse des données issues des enquêtes
longitudinales sous un plan de sondage informatif. Dans Echantillonage et
Méthodes d'Enquêtes, P. Ardilly (éd.). Paris : Dunod, 227-240.
Pfeffermann, D., Krieger, A.M., et Rinott, Y. (1998). Parametric distributions
of complex survey data under informative probability sampling. Statistica
Sinica, vol. 8, 1087-11 14.
2. Enquêtes longitudinales 45

Pfeffermann, D., et Nathan, G. (2001). Imputation for wave nonresponse -


existing methods and a time sériés approach. Dans Survey Nonresponse,
R. Groves et coll. (éds.), Chap. 28, 417-429.
Pfeffermann, D., et Sverchkov, M. (1999). Parametric and semi-parametric
estimation of régression models fitted to survey data. Sankhyâ, vol. 61, Sér.
B, 66-186.
Rubin, D.B. (1976). Inference and missing data. Biometrika, vol. 63, 581-592.
Skinner, C.J. (1994). Sample models and weights. Proceedings ofthe Survey
Research Methods Section, American Statistical Association, 133-142.
Skinner, C.J., et Holmes, D. (2003). Random effects models for longitudinal
data. Dans Analysis of Survey Data, R. Chambers et C. Skinner (éds.), New
York : John Wiley & Sons, Inc., 175-195.

2. L'imputation dans les enquêtes

longitudinales au Canada

3
Michelle SIMARD

2.1 Introduction

Statistique Canada mène présentement six enquêtes longitudinales sociales


qui sont toutes sujettes à la non-réponse. On définit pour celles-ci, trois types
de non-réponse ayant des conséquences différentes. Le premier type est la
non-réponse totale où toutes les valeurs sont manquantes pour une vague
donnée ou pour toutes les vagues. Puis, la non-réponse partielle « de vague »
où pour une vague donnée un bloc de variables relié par une thématique
(appelé module) est manquant. Finalement, on réfère à la non-réponse d'item
lorsqu'une valeur est manquante pour une variable donnée. Pour ce dernier
type de non-réponse, les items manquants sont répartis un peu partout dans le
questionnaire du répondant et aucun lien n'existe entre eux. Il est reconnu
dans la littérature (Kass, 1980 ; Kalton, 1986 ; Lepkowski, 1989 ; Little, 1986
et Shao et Sitter, 1996), qu'il y a plusieurs enjeux et défis associés à la
non-réponse. Il s'agit entre autre de biais potentiels, de la réduction de la taille
effective de l'échantillon pour les analyses et la complexité additionnelle pour
l'estimation de variance pour n'en nommer que quelques-uns.
En général, on recourt à cinq techniques pour traiter la non-réponse : (1) la
repondération, (2) l'imputation, (3) le suivi des non-répondants, (4) le
changement du contexte de l'analyse (c'est-à-dire, ne limiter l'inférence que
sur l'univers où il n'y a pas de variables ou données manquantes) et (5)

3 Statistique Canada 16cmc, R.-H. Coats, 100 Promenade Tunney's Pasture, Ottawa,
Ontario, Canada, Kl A 0T6.
46 Enquêtes et sondages

l'utilisation de techniques d'analyse qui tiennent compte des valeurs


manquantes. À Statistique Canada, on utilise en grande majorité la
repondération, basée sur la théorie des Groupes homogènes de réponse
(GHR), et le changement de contexte de l'analyse pour traiter la non-réponse
totale. Toutefois, on tente de développer (Binder, Roberts et Lafortune, 2003)
des techniques d'analyse qui tiennent compte de la non-réponse, mais il est
très difficile d'en généraliser l'approche.
A l'occasion, lorsque les ressources financières et opérationnelles le
permettent, on effectue un suivi auprès des non-répondants. Une telle
approche demeure la meilleure des solutions, mais c'est malheureusement
l'exception à la règle. Pour la non-réponse d'item, l'imputation reste la
technique de prédilection, et en général, plusieurs méthodes d'imputation sont
disponibles : par la moyenne, le quotient, régression, le plus proche voisin,
multiple, etc. A l'exception des données du Recensement très peu d'enquêtes
sociales effectuent de l'imputation. Les techniques d'imputation sont par
ailleurs grandement utilisées dans les enquêtes économiques.
Pour les enquêtes longitudinales sociales, à l'exception des modules de
revenu et des dépenses, les techniques d'imputation pour la non-réponse
d'item, partielle ou totale, ne sont que rarement utilisées. Dans ces modules
particuliers, la présence de nombreuses variables quantitatives, ainsi que leurs
corrélations sous-jacentes, facilitent l'application des méthodes d'imputation
traditionnelles. Pour les autres modules, on code les valeurs comme
manquantes et on diffuse le fichier de microdonnées comme tel, en laissant à
l'analyste le choix de sa méthode corrective.
Cette approche occasionne deux problèmes majeurs. Premièrement,
l'incidence de la non-correction est cumulée d'une vague à l'autre ; ce qui
correspond en pratique, à une réduction systématique des données utilisables
par les analystes (Brick et Kalton, 2003). Deuxièmement, étant donné qu'à
Statistique Canada, les fichiers de microdonnées sont diffusés dans les
Centres de données de recherches (CDR), les chercheurs des CDR ne
possèdent pas tous le même niveau de connaissances de la méthodologie
d'enquête incluant les méthodes d'imputation ; en fait, très peu en possèdent.
Plus souvent qu'autrement, les enregistrements avec des valeurs manquantes
sont tout simplement ignorés dans les analyses sans aucune compensation, ou
bien des résultats incohérents sont obtenus car les chercheurs utilisent des
méthodes différentes pour un même ensemble de données manquantes.
Cet article présente les récentes innovations utilisées pour corriger la non-
réponse dans les enquêtes longitudinales sociales à Statistique Canada. La
section 2.2 présente un exemple d'imputation utilisée pour la non-réponse
partielle de vague pour l'Enquête longitudinale auprès des immigrants au
Canada. La section 2.3, quant à elle, décrit la méthode d'imputation utilisée
pour la non-réponse totale utilisée pour l'Enquête sur les jeunes en transition.
Finalement, la section 2.4 présente brièvement une toute nouvelle initiative de
2. Enquêtes longitudinales 47

recherche pour l'Enquête longitudinale nationale auprès des enfants et des


jeunes, soit l'utilisation de la repondération pour la non-réponse partielle.

2.2 Le cas de l'Enquête longitudinale auprès

des immigrants au Canada

L'Enquête longitudinale auprès des immigrants au Canada (ELIC) a pour


objectif de comprendre le processus d'adaptation à la société canadienne des
récents immigrants et d'identifier les facteurs qui aident ou qui limitent les
efforts de ceux-ci à s'adapter. L'enquête a débuté en 2001 avec un échantillon
initial d'environ 20 300 immigrants reçus entre octobre 2000 et septembre
2001. Le questionnaire comprend plusieurs modules composés de questions
thématiques (variant ente 15 et 50 questions) sur un sujet particulier. Pour la
vague 1, il y avait des modules sur les interactions sociales (IS), langues
(LA), logements (LO), éducation (ED), emploi (EM), santé (SA), revenu
(RE), valeurs et attitudes (VA), citoyenneté (CI) et perception d'établissement
(PE) pour n'en nommer que quelques-uns.
Durant les premiers mois de collecte de la vague 1, il devenait évident que
certaines hypothèses avancées pendant le développement de l'enquête était
incorrectes. Après la première vague de collecte, un peu moins de 60 % de
l'échantillon avaient répondu, incluant les répondants partiels. Il était clair
que, si la tendance se maintenait, il y aurait très peu d'enregistrements
potentiellement complets pour effectuer des analyses longitudinales après les
3 vagues prévues. Plusieurs méthodes innovatrices ont été développées,
pendant et après la collecte, pour tenter de pallier aux problèmes de non-
réponse de la vague 1 (Simard, Dubois, Grenier et Poulin, 2001 et Simard,
Leesti et Denis, 2003). Parmi celles-ci, une méthode d'imputation pour la
non-réponse partielle de vague a été utilisée.
Les modules pour lesquels l'imputation a été faite sont les modules
contenant des variables dites « factuelles » et non celles de perceptions.
Conséquemment, les modules IS, LA, LO, ED, EM, SA et RE ont été
imputés, quoique pour le module RE, des méthodes plus traditionnelles ont
été utilisées. Aucune imputation n'a été complétée sur les modules VA, CI et
PE. Le donneur remplace toutes les données des modules incomplets du
receveur. La cohérence des données est ainsi conservée pour tous les
enregistrements.
Dans ce cas-ci, la méthode d'imputation est celle par donneur par le plus
proche voisin, qui n'est pas très innovatrice en soi. Par contre, le défi de cette
application réside dans le choix de la fonction de distance pour identifier le
plus proche donneur, étant donné l'absence de variables quantitatives
disponibles pour tous les enregistrements. Une fonction de distance a été
développée, basée sur l'information auxiliaire disponible pour tous (complet
et partiel). On construit d'abord un modèle de régression logistique prédisant
48 Enquêtes et sondages

le statut de réponse : complet ou incomplet. Ensuite, on utilise les probabilités


de réponse prédites qui sont des variables continues sur [0, 1], générées par le
modèle et utilisées comme variable d'appariement. L'enregistrement qui
obtient la probabilité la plus proche de celle du receveur sera choisi comme
donneur. Les classes d'imputation sont dérivées de la méthode des scores telle
que décrite par Haziza et Beaumont (2007) et Eltinge et Yanseneh (1997).
Pour la vague 2, la même stratégie d'imputation aurait pu être répétée, mais
pour éviter qu'un donneur différent soit choisi d'une vague à l'autre, une
stratégie d'imputation longitudinale a été introduite. En d'autres mots,
l'imputation a été faite simultanément pour les deux vagues, sans considérer
ce qui avait été fait pour la vague 1. Dans le cas contraire, des incohérences
longitudinales auraient été introduites. Il est donc possible que des données
imputées à la vague 1 soient différentes de celles imputées à la vague 2 pour
un même répondant.
L'imputation est effectuée en utilisant encore une fois avec la méthode du
plus proche voisin. Tout comme la technique utilisée à la vague 1, un modèle
de régression logistique est construit en utilisant le statut de répondant
longitudinal complet ou partiel, basé sur les variables auxiliaires disponibles
pour tous. Alavi et Phillips (2005) présentent les détails techniques de la
stratégie. Pour un répondant partiel longitudinal avec plus d'un module
incomplet, le même donneur est utilisé pour l'ensemble des modules
incomplets des deux vagues. On favorise cette méthode afin de conserver la
cohérence longitudinale des enregistrements.

2.3 Le cas de l'Enquête sur les jeunes en

transition

L'Enquête sur les jeunes en transition (EJET) est une enquête longitudinale
répétée (nouvelles cohortes à tous les trois ans) dont la première vague est
coordonnée avec le Programme international sur le suivi des acquis (PISA).
L'objectif principal de cette enquête est d'obtenir de l'information sur la
transition des jeunes adultes du milieu scolaire au marché du travail. La taille
d'échantillon de chaque cohorte est d'environ 26 000 répondants. Un aspect
particulier de cette enquête est qu'elle possède trois composantes, ou
questionnaires distincts, à remplir à la première vague. Concrètement, cela
signifie que le questionnaire PISA est complété (souvent le matin) par le
jeune étudiant de 15 ans à l'école et le questionnaire EJET est complété dans
l'après-midi de la même journée. Ensuite, un questionnaire-papier est posté
aux parents qui eux le complètent à la maison. Seule la composante EJET est
longitudinale. Ainsi les composantes PISA et Parent ne sont remplies qu'une
fois. La pondération de la composante PISA est effectuée, comme pour tous
les pays participants à ce Programme, par WESTAT aux États-Unis et non par
Statistique Canada.
2. Enquêtes longitudinales 49

Pour la cohorte qui a débuté en 2000, la méthode retenue afin de compenser


pour la non-réponse totale a été la repondération et ce de façon distincte pour
chacune des composantes. La repondération de la composante PIS A étant déjà
prédéterminée par WESTAT, les méthodologistes de Statistique Canada ont
réalisé les deux autres pondérations. Cette approche de trois poids finaux est
devenue rapidement assez complexe à expliquer aux analystes quant à savoir
quels poids finaux devraient être utilisés pour leurs analyses. En pratique,
pour le même enregistrement, il y avait trois poids potentiellement utilisables.
De plus, sans tentative de coordination ou de cohérence, cela devenait
extrêmement difficile d'expliquer les différences dans les totalisations pour
tout sous-domaine dans une province donnée. On a même observé que
certaines différences significatives obtenues avec une pondération pour
certaines variables, n'étaient pas significatives avec une autre.
Après quelques réflexions, il a été convenu d'envisager une autre technique
afin de compenser pour la non-réponse totale. Une stratégie d'imputation a
donc été mise en place pour la cohorte de 2003. Les taux de réponse entre les
composantes PISA et EJET étant similaires, on a recodé certains répondants
de la composante EJET comme non-répondants pour ne prendre que les poids
finaux calculés par WESTAT. Ces deux composantes possédaient donc le
même nombre d'enregistrements finaux et donc un même poids final.
Etant donné un taux de non-réponse assez élevé pour la composante
Parents, il a été décidé d'imputer massivement toutes les variables dites
essentielles de cette composante, pour les parents non-répondants des
étudiants répondants. Non seulement cette méthode augmentait la capacité
analytique du fichier mais assurait également la cohérence des pondérations.
Un total de 4 850 enregistrements ont nécessité une imputation massive, ce
qui représentait environ 17 % des enregistrements des parents des étudiants
qui avaient répondu à PISA et à l'EJET.
La méthode d'imputation retenue est celle par donneur pour préserver la
cohérence à l'intérieur des enregistrements puisqu'un enregistrement complet
sera imputé aux non-répondants. L'imputation par donneur sera effectuée par
classe d'imputation et ensuite par plus proche voisin à l'intérieur de la classe.
La méthode pour construire les classes d'imputation est celle utilisée par
Impudon, programme développé à Statistique Canada pour trouver un
donneur. Les classes d'imputation sont dérivées selon l'information auxiliaire
disponible pour tous, appelée champ d'appariement par Impudon. Il faut
noter ici que le système utilise des variables qualitatives ou catégoriques pour
les champs d'appariement, et des variables quantitatives appelées variables de
similitude pour la fonction de distance. La méthodologie générale est
comparable à celle de l'appariement probabiliste où l'approche est
hiérarchique, en ce sens que pour la première itération, le système cherche à
apparier les enregistrements donneur et receveur avec le plus grand nombre
de champs d'appariement exactement pareils. Ensuite, pour la deuxième
50 Enquêtes et sondages

itération, on doit spécifier quelles variables on peut relâcher, enlever ou


rajouter. Le système cherchera un donneur selon les spécifications voulues et
il est possible qu'un enregistrement donneur soit utilisé plus qu'une fois
Pour déterminer les classes d'imputation, trois sources de données sont
disponibles. Pour chacune, une liste de variables corrélées avec l'information
du questionnaire Parent a été sélectionnée. L'information du questionnaire
Parent concerne surtout le parent : éducation, travail, revenu, etc. Les
variables des trois sources sont donc :
- questionnaire PISA : la structure de la famille, l'éducation des
parents, les biens disponibles à la maison, les aspirations de
l'étudiant, l'intérêt face aux mathématiques et la capacité
informatique ;
- questionnaire EJET (Étudiant) : activités parascolaires, activités en
dehors de l'école, relation avec les parents ;
- base de sondage : Province, langue, sexe, urbain ou rural, école
publique ou privée.

Une analyse statistique basée sur des tests d'homogénéité du chi-carré a


détenuiné qu'il existait quatre groupes chez les parents avec des
caractéristiques différentes : famille monoparentale, famille nucléaire, autre
famille (exemple : la mère et son conjoint) et structure de la famille non
disponible. Pour chaque groupe, différentes classes hiérarchiques ont été
obtenues. Les variables de similitude disponibles sont le nombre de minutes
de travail en mathématique, le nombre de minutes total d'étude, le ratio
minute d'étude en mathématique/minutes totales d'étude et leurs résultats
pondérés en mathématique.

2.4 Les récents développements pour l'Enquête

longitudinale auprès des enfants et des

jeunes

L'Enquête longitudinale nationale auprès des enfants et des jeunes (ELNEJ) a


pour objectif d'identifier les facteurs qui influencent le développement de la
population canadienne de la naissance jusqu'à l'âge adulte. Depuis 1994,
l'enquête recueille quelque 1 500 variables à chaque deux ans et celles-ci sont
rendues disponibles dans les CDR. Malgré les réussites d'implantation de
méthodes d'imputation pour l'ELIC et l'EJET, le cas de l'ELNEJ est un peu
moins prometteur en termes d'utilisation de méthodes d'imputation autrement
que pour certains cas de non-réponse d'item ou dans le cas des variables du
module de revenu. L'ELIC et l'EJET étant basées sur des designs
monotoniques, les correctifs sont relativement plus faciles à implanter. Pour
un design non monotonique tel que pour l'ELNEJ le problème est plus
complexe.
2. Enquêtes longitudinales 51

On envisage être plus actif dans le développement de mesures correctives


de la non-réponse partielle pour les enquêtes longitudinales. En particulier
pour l'ELNEJ, on travaille présentement sur trois fronts simultanément.
Premièrement, on désire améliorer la formation donnée aux analystes en ce
qui a trait les méthodes correctives disponibles. Une série d'ateliers a été
développée présentant les enjeux et la non-réponse partielle ainsi que
décrivant des méthodes d'imputation et de repondération.
Deuxièmement, on travaille sur le développement d'un outil de
repondération personnalisé à l'analyse qui pourrait être utilisé pour traiter la
non-réponse partielle. Comme on le fait pour la non-réponse totale, les non-
répondants partiels seraient analysés pour créer des GHR de non-réponse
partielle. Par la suite, un poids serait recalculé tenant compte de la non-
réponse partielle des variables impliquées pour une analyse donnée et re-
postratifié pour obtenir des estimations cohérentes. Même si les
enregistrements contenant la non-réponse partielle étaient exclus de l'analyse,
le biais serait moindre puisqu'ils sont compensés par la repondération. Une
autre caractéristique intéressante est que l'estimation de variance ne serait pas
un enjeu car l'outil produirait également les poids bootstrap appropriés qui
teindraient compte de la repondération.
Finalement, on considère également augmenter le nombre de variables à
imputer. Par contre, avec le nombre considérable de variables à diffuser et le
nombre de vagues déjà diffusées, il serait peu judicieux d'imputer toutes les
variables manquantes. Par contre, étant donné les exemples cités plus hauts,
des méthodes d'imputation massives seront considérées.

2.5 Conclusion

Les enquêtes longitudinales sont encore relativement nouvelles à Statistique


Canada en comparaison des pays comme la Grande Bretagne et les États-
Unis. A Statistique Canada, on réalise qu'il faut porter plus d'attention au
développement et à l'implantation de stratégies d'imputation longitudinales
au lieu de constamment penser en termes transversal. De plus, on doit
considérer plus sérieusement les besoins des utilisateurs ainsi que leur
formation statistique dans le choix de nos stratégies. Les développements
récents en modélisation pour la non-réponse totale et les nouvelles
applications telles que décrites ici répondent à ce besoin.
Même si ces approches semblent attrayantes et faciles, on réalise vite que
d'autres enjeux inattendus surviennent au cours du développement de celles-
ci. Par exemple, s'assurer d'incorporer la variance due à l'imputation dans
l'estimation totale de la variance, et de préserver la structure de covariance
longitudinale et transversale. Des approches comme l'imputation multiple et
l'imputation massive, doivent être considérées sérieusement. Finalement,
l'idée d'un outil de repondération personnalisé pourrait s'avérer être la
52 Enquêtes et sondages

solution pour les enquêtes longitudinales complexes comme l'ELNEJ et


pourrait répondre à de nombreux besoins des utilisateurs.

BIBLIOGRAPHIE

Alavi, A., et Phillips, O. (2005). Imputation Stratégies for the Longitudinal


Survey of Immigrants to Canada. Proceedings of the American Statistical
Association Meeting, Survey Research Method.
Binder, D.A., Roberts, G. et Lafortune, Y. (2003). Log-linear modeling for
categorical longitudinal survey data with nonresponse. Bulletin of the
International Statistical Institute, 54Ih Session. Invited Paper Meeting IPM-
72 on Emerging methods in longitudinal data an a lys is. Berlin 2003.
Brick, J.M., et Kalton, G. (2003). Handling Missing Data in Survey Research.
Statistical Methods in Médical Research, vol. 5, 215-238.
Eltinge, J.L., et Yansaneh, I.S. (1997). Méthodes diagnostiques pour la
construction de cellules de correction pour la non-réponse, avec application
à la non-réponse aux questions sur le revenu de la U.S. Consumer
Expenditure Survey. Technique d'enquête, vol. 23, 33-40.
Haziza, D., et Beaumont, J.-F. (2007). On the Construction of imputation
Classes in Surveys. Revue Internationale de Statistique, vol. 75, 1, 25-43.
Kalton, G. (1986). Handling wave nonresponse in panel surveys. Journal of
Officiai Statistics, vol. 2, 303-314.
Kass, G.V. (1980). An explanatory technique for investigating large quantities
of categorical data. Applied Statistics, 29, 119-127.
Lepkowski, J.M. (1989). Treatment of wave nonresponse in panel surveys.
Dans Panel Surveys, Kasprzyk, D., Duncan, G., Kalton, G., Singh, M.P.,
éds., New York : John Wiley & Sons, Inc., 348-374.
Little, R.J.A. (1986). Survey Nonresponse Adjustments for Estimâtes of
Means. Revue Internationale de Statistique, vol. 54, 139-157.
Shao, J., et Sitter, R.R. (1996). Bootstrap for Imputed survey Data. Journal of
the American Statistical Association, vol. 91, 1278-1288.
Simard, M. Dubois, J.-F., Grenier, D. et Poulin, J. (2001). La méthodololgie
de l'Enquête longitudinale auprès des immigrants au Canada. Statistique
Canada, Document de travail de la direction de la Méthodologie, SSMD-
20020-01.
Simard, M., Leesti, T. et Denis, J. (2003). Dépistage et ajustement pour la
non-réponse pour l'Enquête longitudinale auprès des immigrants au
Canada. Recueil du Symposium 2003 de Statstique Canada.
2. Enquêtes longitudinales 53

3. Calcul de la précision des estimations

longitudinales dans l'Enquête Emploi

en Continu

Dominique PLACE4

3.1 Introduction

L'Enquête Emploi en Continu (EEC) est une enquête conduite chaque


trimestre par l'Insee sur un échantillon d'environ 54 000 logements ordinaires
de France Métropolitaine. Ses objectifs majeurs sont de fournir des
informations quantitatives et structurelles sur le marché du travail français,
notamment en évaluant chaque trimestre la population active, le nombre de
chômeurs et le taux de chômage au sens du Bureau International du Travail.
Elle est réalisée en continu selon un schéma rotatif, un sixième de
l'échantillon étant renouvelé d'un trimestre à l'autre.
Le calcul de précision des estimations transversales est effectué de manière
courante selon la méthode décrite par Ardilly et Osier (2005). Une difficulté
majeure pour ce calcul tient à la sélection d'échantillons de taille 1 pour deux
degrés du plan de sondage. Elle est résolue par des regroupements d'unités et
l'utilisation d'un plan de sondage approché, ce qui conduit à une
surestimation de la variance.
L'article présente le calcul de la variance des estimateurs longitudinaux
naturels, ceux des moyennes annuelles et des évolutions, calculés simplement
à partir des estimateurs transversaux, tenant compte du plan de sondage et de
l'aspect rotatif de l'enquête. En particulier, ce calcul ne pose pas l'hypothèse
d'une covariance nulle entre les sous-échantillons sortants et entrants,
contrairement à Caron et Ravalet (2002).

3.2 Variance des estimateurs longitudinaux

3.2.1 Plan de sondage et notations

L'échantillon de l'enquête Emploi est aréolaire. Les aires contiennent environ


20 logements et ont été sélectionnées à l'intérieur de zones plus grandes,
contenant entre 120 et 240 logements, appelés secteurs, préalablement
sélectionnés selon un tirage à trois degrés (pour tous les détails des
découpages des unités et du plan de sondage, voir Christine, 2002).

4 Unité Méthodes Statistiques, Inscc, France (doininiquc.place@insce.fr). L'auteur tient à


remercier Sébastien Hallépée pour son aide précieuse apportée sur l'utilisation du
programme de calcul de variance Poulpe et la mise en œuvre pratique du calcul de
précision.
54 Enquêtes et sondages

L'échantillon de secteurs a été divisé en six sous-parties de taille égale par des
tirages aléatoires simples. Ces six sous-échantillons ont été intégrés
successivement dans le dispositif lors d'une phase d'initialisation en 2001 et
2002. Dans un secteur, une seule aire est enquêtée à un trimestre donné. Elle
est enquêtée pendant six trimestres puis est remplacée par une autre aire du
secteur, l'ordre d'interrogation des aires ayant été déterminé aléatoirement. Le
taux de rotation entre deux trimestres consécutifs est donc de 1/6.
Comme la rotation s'effectue à l'intérieur des secteurs, on considère ici le
plan de sondage comme un plan à deux degrés : le premier degré, qui
regroupe les trois premiers degrés effectifs, est celui des secteurs, stables au
cours du temps, et les unités secondaires sont les aires, enquêtées
exhaustivement. Les variables d'intérêt sont les totaux par aire, par exemple
le nombre de chômeurs ou d'actifs dans une aire.
Les aires sont indicées par k, et les secteurs par i. La valeur de la variable
d'intérêt au trimestre t pour l'aire k est noté yk. Son total sur la population
est 7 U! désigne l'ensemble de tous les secteurs, sI l'échantillon de secteurs
tirés dans Ul et si l'échantillon d'aires du trimestre t. n. est la probabilité
d'inclusion du secteur i et nki la probabilité de sélection conditionnelle de
l'aire k contenue dans le secteur i : tl,.
k\i = \ /N.i où Ni est le nombre d'aires
dans le secteur. Ces probabilités sont indépendantes de la date t. Le premier
degré inclut aussi la sélection du schéma de rotation entre les deux trimestres
fixés t et c'est-à-dire la partition de 5, en deux sous-échantillons s'k" et
s""". Le premier sous-échantillon est celui des secteurs où l'aire enquêtée en t
est remplacée par une autre aire en t' et le second, celui des secteurs non
soumis à rotation. On note avec l'indice II les espérances et les covariances
^ ^ i ^
conditionnelles au premier degré: EII{Y) = E{Yi\sri\ s^") où Y est
l'estimateur de Horvitz-Thompson de K L'indice I indique une espérance
ou une covariance relative au plan de premier degré, s]'"'), rest le
taux de rotation entre les trimestres t et r' : r ;+l = 1/6 ; r /+2 = 1/3, etc.

3.2.2 Variance d'une évolution

L'estimateur considéré est l'estimateur naturel de l'évolution entre les deux


trimestres t et t',' A i,i. = Y.ii
- Y. Il est ^ défini^ comme la différence des
estimateurs de Horvitz-Thompson : Ai . = Y. - Y. Si les estimateurs
transversaux sont des estimateurs obtenus par calage ou des ratios, on se
ramène par linéarisation à une variance d'un estimateur de cette forme (voir
par exemple Goga et al, 2006).
Comme la variance de cet estimateur s'écrit :

V(ÂJ = V(Y) + V(Y)-2Cov(Y,Y) (1)

il suffit de calculer la covariance que l'on décompose selon les degrés :


2. Enquêtes longitudinales 55

Cov(t Y,) = Cov,(£„(¥),£„(¥.)) + E+Cov„(¥„¥,)). (2)

Comme la sélection des aires se fait de manière indépendante d'un secteur à


l'autre, on a :

Cov,,(¥,¥) = I iCovjtt) + Z iCov„.o,(tt) (3)


les," K. iesy 71.

où T = Y^kes^k, !71 k, est


l'estimateur du total dans le secteur i, s. étant
l'échantillon d'aires du trimestre t dans le secteur i (en fait, réduit à une
seule aire). Cov ^Y, Y ) est la covariance dans le secteur i quand il y a un
changement d'aire tandis que Cov (7, Y.) est la covariance dans un secteur
sans rotation. On a :

2
Cov srot {Y
V i,Y)
il s = Ni S.., (4)
'-i

Cov roi (Y,


y //' Y.)
il ' = -Ni Si. Il. (5)

OU

_
.S . = 1
z^., - y)(yb. - Y,).
AT-U-

L'égalité (5) résulte de Tarn (1984).

Puisque s"" est obtenu par un sondage aléatoire simple au taux ^des
secteurs de s,, le second terme de (2) peut finalement s'écrire :

N
E.iCov„(¥,¥)) = I ' Covm„(tt) - r ,.Z JS: :r (6)
ieU, 71. ieU,

Le premier terme du second membre de (6) est indépendant du schéma de


rotation. Il en est de même pour le terme de la covariance se rapportant au
premier degré et pour les variances des estimations transversales. En
combinant cela et les égalités (1), (2) et (6), il vient :

mj = n^7') + 2ril.Z^Si„ (7)


ieU, 71.

où Â|ia"cl est l'estimateur panélisé de l'évolution, c'est-à-dire l'estimateur que


l'on aurait si, au lieu d'avoir un échantillon rotatif, on avait un panel basé sur
un échantillon trimestriel avec les mêmes aires enquêtées aux deux périodes.
Une formule analogue à (7) peut être obtenue pour la variance d'une
moyenne annuelle en faisant intervenir les covariances intra-secteurs entre les
quatre trimestres de l'année et l'estimateur panélisé sur l'année entière. La
contribution des covariances intra-secteurs est alors négative.
56 Enquêtes et sondages

3.3 Estimation des variances

Il n'existe pas d'estimateur sans biais de la variance. L'estimation sans biais


de (7) requiert l'estimation des covariances intra-secteurs S i! pour lesquelles
il faudrait connaître les valeurs aux deux dates, yki et yki., pour les deux aires
interrogées dans les secteurs soumis à rotation. Or une seule aire par secteur
est interrogée à un trimestre donné.
On peut contourner ce défaut d'information par l'utilisation de l'imputation
comme dans Lavallée (2005). On impute dans les aires sortantes, c'est-à-dire
interrogées en t mais pas en t\ les valeurs en et dans les aires entrantes en
les valeurs en t. Dans les secteurs soumis à rotation, il est possible de
calculer avec les données imputées une estimation S. t( des covariances intra-
secteurs. Une estimation du second terme de (7) est ensuite donnée par :

La méthode d'imputation la plus simple est l'imputation historique qui fait


l'hypothèse d'une égalité des valeurs aux deux trimestres / et Une méthode
plus réaliste est le hot-deck longitudinal stratifié, les donneurs étant les
personnes interrogées aux deux dates. Pour les variables concernant l'activité
et l'emploi, il est possible d'utiliser les réponses au calendrier mensuel
rétrospectif d'activité pour imputer les valeurs passées individuelles dans les
aires entrantes. Cependant, il reste nécessaire de poser un modèle
d'imputation pour les valeurs en t' dans les aires sortantes.
En revanche, même si l'estimateur panélisé, A|,a"el, n'est pas calculable, il est
possible d'estimer sans biais ou avec un biais positif leur variance en se
basant sur l'échantillon cylindré s., celui des aires enquêtées en t et t'. En
effet, c'est l'estimateur de Horvitz-Thompson du total de la variable
d,k = sy,kl- - sy,kl sur un échantillon transversal. Cette variable n'est bien sûr
connue en toute rigueur que sur l'échantillon cylindré sc. Comme celui-ci est
obtenu à partir de si par un sondage aléatoire simple d'aires au taux
f = \ —r l'estimateur défini sur l'échantillon cylindré est :

tj

En utilisant les résultats pour les plans à deux phases, on en déduit un


estimateur de la variance de l'estimateur panélisé :

(8)

où n est le nombre d'aires enquêtées, n le nombre d'aires dans sc et S:( la


variance empirique sur s de la variable bk = dk!iik.
2. Enquêtes longitudinales 57

La précision de l'estimateur cylindré peut se calculer comme celle d'un


estimateur transversal. Avec l'estimation des covariances intra-secteurs, on
obtient une estimation de la variance de l'évolution.
Pour les variables sur l'activité, la méthode avec hot-deck longitudinal et
celle avec utilisation du calendrier rétrospectif donnent des estimations de
variance voisines. Il apparaît bien qu'à cause de l'effet de grappe, la
covariance entre les échantillons sortants et entrants n'est pas négligeable et
qu'elle est d'autant plus grande que l'intervalle de temps considéré est grand.
Par exemple, pour le nombre de chômeurs, entre deux trimestres consécutifs,
elle vaut environ 10 % de la covariance totale. En revanche, l'estimation de
variance reposant sur l'imputation historique conduit sans doute à une sous-
estimation de la covariance.

BIBLIOGRAPHIE

Ardilly, P., et Osier, G. (2005). Calcul de précision transversale dans


l'enquête emploi en France, /A*' journées de méthodologie statistique de
l'Insee, Paris.
Caron, N., et Ravalet, P. (2002). Estimations dans les enquêtes répétées :
application à l'enquête emploi en continu. Dans Actes des journées de
méthodologie statistique des 4 et 5 décembre 2000, Insee Méthodes, no100,
pages 327-391.
Christine, M. (2002). La construction de la future enquête emploi en continu à
partir du recensement de 1999. Dans Actes des journées de méthodologie
statistique des 4 et 5 décembre 2000, Insee Méthodes, no100, pages 175-
229.
Goga, C., Deville, J.-C. et Ruiz-Gazen, A. (2006). Linéarisation par la
fonction d'influence pour des données issues de deux échantillons. Dans
Méthodes d'enquêtes et sondages, Paris, Dunod, pages 382-387.
Lavallée, P. (2005). Estimation et calcul de précision pour des échantillons
rotatifs non chevauchants. /A*'s journées de méthodologie statistique de
l'Insee, Paris.
Tarn, S.M. (1984). On covariance from overlapping samples. The American
Statistician, vol. 38, n04, pages 288-289.
58 Enquêtes et sondages

4. Mise en place d'un système

d'observation longitudinale des enfants

en danger

Lucy MARQUET 5, Juliette HALIFAX6,


7 8
Emmanuelle GUYAVARCH , Olivier COHEN et
9
Catherine QUANTIN

L'observation de l'enfance en danger en France s'effectue actuellement à


partir de différentes sources de données visant des finalités gestionnaires et
non la connaissance d'une population précise (Frechon, 2003 ; Oned, 2005).
Les remontées de données sont agrégées, l'unité de compte est rarement
l'enfant. Les sources ne peuvent être appariées pour offrir une idée
d'ensemble de la population prise en charge en protection de l'enfance, ce qui
rend particulièrement difficile l'analyse de l'évolution de la population en
termes de prises en charges nouvelles et achevées sur l'année.
La mise en place d'un système de recueil de données individuelles,
longitudinales et anonymisées sur un panel de départements volontaires
répond à cette carence de données chiffrées tout en offrant des perspectives
pour approfondir la connaissance des « enfants en danger » pris en charge.

4.1 Population des « enfants en danger » :

définition, objectifs, méthode

Ce projet, qui repose sur l'exploitation des données recueillies par les
institutions intervenant en protection de l'enfance (Conseils généraux,
tribunaux pour enfants, parquets, Direction de la protection judiciaire de la
jeunesse), aboutit à étudier la population des enfants repérés par ces
institutions et identifiés en danger après évaluation de leur situation. Dans le
dispositif d'observation proposé, la population des « enfants en danger » se
définit comme les mineurs de moins de 18 ans faisant l'objet d'une prestation

5 Observatoire national de l'enfance en danger (Oned) et Université Montesquieu-


Bordeaux IV.
6 Observatoire national de l'enfance en danger (Oned) et Institut national d'études
démographiques (Ined).
7 Observatoire national de l'enfance en danger (Oned).
8 Faculté de médecine de Grenoble et HC forum, 38240 Mcylan, olivicr.Cohcn@
hcforum.fr.
9 Département d'information médicale (DIM) du CHU de Dijon, Université de
Bourgogne.
2. Enquêtes longitudinales 59

de l'Aide sociale à l'enfance (ASE)10 ou d'une décision judiciaire en


assistance éducative". Aussi longtemps qu'il est pris en charge en protection
de l'enfance et ce jusqu'à son 18cmc anniversaire, l'enfant fera partie de la
population des « enfants en danger » dans la mesure où il serait en danger s'il
n'était pas pris en charge. Au même titre, cette étude prend en compte les
Pupilles de l'État qui seraient en danger s'ils n'étaient pas accueillis par
l'ASE. A des fins de suivi du parcours de l'enfant, l'observation de la prise en
charge en protection de l'enfance sera poursuivie jusqu'aux 21 ans du jeune.
Le traitement des informations collectées dans le cadre du suivi des enfants
pris en charge en protection de l'enfance vise plusieurs objectifs d'étude
(Oned, 2006). Il s'agit tout d'abord d'étudier la situation de l'enfant au fil de
son parcours en protection de l'enfance. Ainsi, pour un même enfant, nous
nous intéresserons à son itinéraire de prise en charge, à l'évolution de son
environnement familial au regard des mesures mises en œuvre, et à la façon
dont la situation a été repérée et traitée. Ensuite, dans les départements du
panel, nous analyserons l'évolution de la population des « enfants en danger »
en tenue de mesures nouvelles et achevées dans l'année, au regard de leurs
caractéristiques sociodémographiques et familiales et en comparaison avec les
moyens d'intervention disponibles et utilisés dans le temps et l'espace
(départements, territoires d'action sociale, ressort de tribunaux). Enfin, ce
recueil doit permettre de constituer une base de données pour réaliser
ultérieurement des enquêtes avec échantillon représentatif sur des sous-
populations ciblées et des problématiques spécifiques.
Pour répondre aux objectifs de l'étude, les données, d'ores et déjà collectées
dans le cadre du suivi de l'enfant par les institutions, doivent être
individuelles, anonymisées et longitudinales.
Les données individuelles concernent chaque enfant et le situent dans son
environnement familial et social. Elles caractérisent l'enfant dans une vision
individuelle (sexe, âge, scolarité...), comme l'enfant de deux parents (vie en
couple, nombre de frères et sœurs...), dans son environnement de vie lorsqu'il
n'est pas placé (nombre de personnes du ou des lieux de vie de l'enfant,
conditions de logement, lien marital entre les adultes du ménage...).
Une vision longitudinale suppose de caractériser l'enfant à l'occasion de
chaque « événement en protection de l'enfance » (réception d'une
information préoccupante, première intervention, changements de prise en
charge). Ceci se fait au moment de la caractérisation des événements eux-
12
mêmes : origine et auteur de l'information préoccupante, forme(s) de danger

10 Selon l'article L. 221-1 du Code l'action sociale et des familles, les missions de l'ASE
sont attribuées au Conseil général.
11 Décision du juge des enfants au regard de l'article 375 du code civil.
12 «Violence sexuelle», «violence physique», «négligence lourde», «violence
psychologique », « condition d'éducation défaillante sans maltraitancc évidente » et
« danger résultant du comportement de l'enfant lui-même ».
60 Enquêtes et sondages

suspectée(s) par le professionnel dans son rapport destiné au juge des enfants
ou au responsable ASE, nature administrative ou judiciaire de la décision de
prise en charge...
« Une méthodologie pour le chaînage des données sensibles tout en
respectant l'anonymat » des personnes, développée par le DIM du CHU de
Dijon et avalisée par la Cnil13 permettra à la fois un « hachage » irréversible
de l'identité de l'enfant et le chaînage des données individuelles et
anonymisées afin de reconnaître les enfants d'une même famille et de
reconstituer leurs parcours de prise en charge.

4.2 Discussion

L'une des difficultés majeures associées à ce projet d'observation concerne la


reconstitution de trajectoires individuelles et anonymisées. Celle-ci repose sur
l'exploitation de données non harmonisées recueillies dans un cadre
d'intervention sociale par les départements à des fins de gestion.

4.2.1 Méthode d'appariement ou de chaînage des


données

Les méthodes d'appariement, ou de chaînage, permettent d'associer les


observations qui se rapportent au même individu dans deux fichiers.
L'objectif du chaînage est donc de confronter des fichiers anonymisés par
hachage provenant de sources ou de périodes différentes, pour associer les
observations qui se rapportent à un même individu.
Le croisement de fichiers peut être déterministe ou probabiliste. Le
chaînage déterministe repose sur la concordance exacte des identifiants, et
considère donc chaque variable comme apportant la même quantité
d'informations. Sa performance dépend de la qualité et de la disponibilité des
identifiants. Deux types d'erreurs peuvent survenir dans le processus de
chaînage. Le premier correspond au chaînage de deux observations
concernant deux individus différents : cela constitue une erreur
« d'homonymie » (collision). Ce type d'erreur survient par exemple si l'on
associe à tort des informations concernant deux personnes dénommées
respectivement Dupond et Dupont, du fait d'une erreur dans la saisie de leur
identité. Le deuxième type d'erreur correspond à l'absence de chaînage de
deux observations d'un même individu : cela constitue l'erreur « de
synonymie » (doublon). Ce type d'erreur survient par exemple en cas
d'utilisations successives du nom de jeune fille et du nom marital pour la
même femme.

13 Le numéro identifiant à composante familiale pour le suivi de maladies génétiques a été


avalisé par la Cnil dans sa délibération du 4 mars 2004, avis no04006.
2. Enquêtes longitudinales 61

Pour limiter l'impact des erreurs de saisie des noms et prénoms, nous
appliquerons un traitement phonétique avant anonymisation. De plus, pour
limiter l'impact des autres erreurs de saisie, nous utiliserons un chaînage
probabiliste qui étudie la concordance entre les différents identifiants en les
pondérant selon leur valeur discriminante. Le poids est d'autant plus élevé
que le pouvoir discriminant de l'identifiant est important. Ainsi, on attribue
une valeur plus importante à l'information fournie par la date de naissance
qu'à celle fournie par le sexe, la probabilité que deux personnes aient la
même date de naissance étant très inférieure à la probabilité qu'elles aient le
même sexe. Un poids composé, obtenu par la somme des poids de chaque
variable, est attribué à chaque paire d'enregistrements. La décision de chaîner
ou non deux observations dépend de la valeur de ce poids composé (Quantin
et al., 1998), et donc de l'ensemble des variables. Beaucoup plus
reproductible que le chaînage déterministe, il est recommandé lorsque les
données de fichiers sont incomplètes ou imprécises.
Le DIM du CHU de Dijon a adapté la méthode de chaînage probabiliste
« AUTOMATCH », très utilisée aux États-Unis et depuis 1998 par la cellule
d'évaluation du réseau périnatal de la région Bourgogne. Le recueil des
données se fait au travers du programme de médicalisation des systèmes
d'information (PMSI) ; celui-ci a été choisi comme outil de recueil en raison
de son caractère obligatoire dans tous les établissements publics et privés. Les
données sont anonymisées avant sortie de l'établissement et centralisées dans
la cellule d'évaluation du Réseau Périnatal située au CHU de Dijon (Quantin
et al., 2005).

4.2.2 Mise en application dans des systèmes


d'observation hétérogènes

Les départements finançant 95 % des mesures en protection de l'enfance, ce


système d'observation prend appui sur l'exploitation des données recueillies
par les services de l'ASE. Depuis la décentralisation, les Conseils généraux se
munissent, chacun selon leurs besoins, d'équipements informatiques : nous
observons ainsi autant de façon d'enregistrer les informations que de
départements. Dans une observation suivie des trajectoires institutionnelles, la
nécessaire datation des événements, au cours desquels la situation de l'enfant
est observée, doit être réfléchie au regard de l'utilisation actuelle des
différents logiciels informatiques des Conseils généraux. Ceux-ci remplissent
avant tout une fonction de gestion et renseignent donc sur les situations
actuelles et non sur leur historique. Bien que nous ayons repéré dans certains
départements une sauvegarde de l'historique pour certaines informations
(comme les différentes décisions de prises en charge pour un enfant), la
majorité des informations sont « écrasées », rendant impossible l'étude
longitudinale de la population des « enfants en danger ».
62 Enquêtes et sondages

L'utilisation de la méthode d'anonymisation et d'appariement développée


par le DIM du CHU de Dijon permettra de sauvegarder ces informations et de
reconstituer les parcours des enfants à l'Oned. Tout d'abord, elle offre le
moyen, pour chaque enfant, de constituer un numéro d'identification pérenne
dans le temps et identique d'un département à l'autre ou d'une institution à
l'autre. En effet, dans le cadre de la protection de l'enfance, aucun système
d'identification n'est commun au niveau national ou même entre le Conseil
général et le tribunal de grande instance d'un même département. Alors que
dans d'autres expériences similaires, il est possible d'envisager des suivis de
population en anonymisant le NIR, cette donnée ne peut être recueillie dans le
cadre de la protection de l'enfance. Ainsi, l'identification des individus
reposera sur l'anonymisation de données personnelles de l'enfant telles son
nom, prénom, sexe, date de naissance, ainsi que celles caractérisant son
entourage : caractéristiques personnelles des parents de l'enfant et des
personnes avec qui il vit. Par ailleurs, le dispositif de chaînage familial
permettra alors d'envisager l'analyse de trajectoires de fratries prises en
charge ou d'enfants vivant sous le même toit à un moment donné.

BIBLIOGRAPHIE

Frechon, I. (2003). Insertion sociale et familiale de jeunes femmes


anciennement placées en foyer socio-éducatif Thèse de sociologie et
démographie sociale, Nanterre, Université de Paris X.
Oned (2005 et 2006). Premier rapport annuel au Parlement et au
Gouvernement, septembre 2005, Paris.
Oned (2006). Deuxième rapport annuel au Parlement et au Gouvernement,
décembre 2006, Paris.
Quantin, C., Bouzelat, H., Allaert, F., Benhamiche, A., Faivre, J. et
Dusserre, L. (1998). Automatic record hash coding and linkage for
epidemiological follow-up data confidentiality, Methods of Information in
Medicine, vol. 37, 271-277.
Quantin, C., Binquet, C., Allaert, F.A., Cornet, B., Pattisina, R., Le Teuff, G.,
Ferdynus, C. et Gouyon, B. (2005). Décision analysis for the assessment of
a record linkage procédure: Application to a périnatal network. Methods of
Information in Medicine, vol. 44, 72-79.
2. Enquêtes longitudinales 63

5. Le panel d'élèves entrés en 6eme en 1995

14
Nathalie CARON et Sylvie LEMAIRE

5.1 Le dispositif initial

La technique du panel a été régulièrement mise en oeuvre en France par le


ministère de l'éducation nationale à partir de I972 pour observer le
déroulement des carrières scolaires :
- 1972: suivi pendant onze ans d'une cohorte de 36 000 élèves
scolarisés en 6e recrutés en trois vagues de 12 000 élèves aux rentrées
1972, 1973 et 1974.
- 1978 : suivi pendant sept ans d'une cohorte de 20 000 élèves de cours
préparatoire.
- 1980 : suivi pendant dix ans d'une cohorte de 20 000 élèves de 6e.
- 1989 : mise en place du suivi d'une cohorte de 27 000 élèves de 6e.

Le panel de collégiens le plus récent a été mis en place en 1995 pour suivre
le parcours des collégiens qui ont bénéficié des réformes engagées depuis le
début des années 90 ; un nouveau panel de 40 000 collégiens a été initié à la
rentrée 2007.

5.1.1 Schéma de sondage

Le panel 1995 est constitué d'élèves entrant pour la première fois en 6eme dans
un établissement public ou privé de France métropolitaine à la rentrée 1995.
L'échantillon a été constitué en prenant les élèves nés le 17 d'un mois. Pour
obtenir un taux de sondage proche de l/40cme, les élèves nés en mars, juillet et
octobre n'ont pas été retenus.
Le ministère de l'éducation nationale ne disposant pas à l'époque de
fichiers exhaustifs d'élèves, l'échantillon a été constitué en demandant à
l'ensemble des collèges de sélectionner les élèves de leur établissement
correspondant aux critères de sondage, soit 17 830 élèves.

5.1.2 Recueil d'informations

Le recueil initial d'informations sur les élèves du panel s'est fait par
l'intermédiaire d'un questionnaire adressé aux chefs d'établissement. Il
comprend des informations sur le collège, l'identification de l'élève, sa

14Ministère de l'éducation nationale, de l'enseignement supérieur et de la recherche,


Direction de l'Évaluation, de la Prospective et de la Performance, bureau des études
statistiques sur renseignement supérieur, 61-65 rue Dutot, 75732 Paris cedex 15.
64 Enquêtes et sondages

situation scolaire à la rentrée 1995, son niveau à l'entrée au collège, la


reconstitution de sa scolarité élémentaire et des informations sur sa famille.
Chaque année, l'actualisation de la situation scolaire des élèves et des
caractéristiques de l'établissement fréquenté est réalisée par croisement avec
les Bases Académiques d'Élèves lorsque le collège utilise le système
d'information individuelle « Scolarité ». Lorsque ce n'est pas le cas, un
questionnaire papier est adressé au chef d'établissement de l'année
précédente. Compte tenu du mode de collecte, l'attrition est relativement
faible : au terme de la neuvième année d'observation, la proportion d'élèves
toujours suivis s'élève à 91 %.
Ce dispositif central est complété par des enquêtes ponctuelles :
- une enquête a été réalisée auprès des familles en 1998 afin de
disposer d'informations plus fines sur l'environnement familial ;
- les scores obtenus par les élèves de l'échantillon aux épreuves
nationales d'évaluation ont été recueillis ;
- la procédure d'orientation en fin de 3cmc, devenue le premier palier
d'orientation, a donné lieu à une enquête réalisée auprès du chef de
l'établissement ;
- enfin, tous les jeunes de l'échantillon, y compris ceux qui étaient déjà
sortis du système éducatif, ont été interrogés en mai 2002 sur leurs
projets professionnels, leurs projets d'études supérieures, la façon
dont ils avaient vécu leur scolarité secondaire et leur image de soi.
78,6 % d'entre eux ont répondu. L'enquête a pennis également
d'actualiser les informations qui avaient déjà été recueillies.

5.2 Le suivi des parcours après le baccalauréat

5.2.1 L'interrogation des bacheliers du panel 1995

Depuis le panel 1989, le suivi des élèves a été étendu aux parcours après le
baccalauréat (Lemaire, 2006). Ainsi en 2007, 10 200 élèves lauréats des
sessions 2002 à 2006 ont été interrogés au moins une fois sur leur situation à
la rentrée suivant l'obtention de leur baccalauréat. Tous les répondants sont
réinterrogés chaque année jusqu'à ce qu'ils déclarent ne pas poursuivre
d'études deux années consécutives.
Les objectifs sont triples : observer les choix d'orientation et les parcours
des bacheliers, détenniner les facteurs susceptibles d'influer sur ces parcours
et mesurer ainsi les évolutions intervenues depuis le précédent panel.
La mise en place d'un suivi après le baccalauréat nécessitait le passage à
une interrogation individuelle des élèves. Le choix a été fait d'utiliser deux
modes d'enquête complémentaires : envoi d'un questionnaire postal dans la
2. Enquêtes longitudinales 65

dernière semaine de mars, suivi d'une première relance par courrier puis
d'une relance par téléphone entre juin et juillet.
Un tronc commun de questions répétées chaque année portent sur la
situation à la rentrée, puis au 1er mars, sur la formation suivie, le degré de
satisfaction à l'égard des études engagées, les difficultés rencontrées, les
projets universitaires et professionnels, ainsi que l'évolution de la situation
personnelle. Mais chaque questionnaire comprend également des questions
spécifiques selon le nombre d'années écoulées depuis le baccalauréat.
Compte tenu de la mise à jour régulière des fichiers d'adresse, les taux de
réponse sont élevés. Le taux de réponse global à l'enquête 2006 est de
91,2% : 65,7% des bacheliers interrogés ont répondu par voie postale et
25,5 % par téléphone. En 2006, les trois quarts des bacheliers du panel 1995
sont encore suivis.

5.2.2 La mise en place d'un échantillon complémentaire


de bacheliers 2002

Le simple suivi des élèves du panel après le baccalauréat est rapidement


apparu comme insuffisant pour la connaissance des parcours dans
l'enseignement supérieur : en effet, l'accès au baccalauréat des élèves entrés
en même temps en 6eme s'étale sur plusieurs années. Les « générations »
successives de bacheliers accèdent donc à l'enseignement supérieur dans un
contexte d'offre de formation et de marché du travail qui évolue.
Pour résoudre cette difficulté, l'opération mise en place dans le cadre du
panel 1989 a été reconduite en 2002 (2002 correspondant à l'année où les
premiers élèves du panel 1995 sont devenus bacheliers). Un échantillon
complémentaire de 2 000 bacheliers comportant des bacheliers généraux et
technologiques âgés de 19 ans ou plus et des bacheliers professionnels a été
sélectionné dans les fichiers nationaux du baccalauréat de la session 2002
pour compléter la population des bacheliers « à l'heure » du panel 1995. Cet
échantillon a été constitué sur la base de trois critères : série de bac, sexe et
âge. Les bacheliers 2002 du panel et cet échantillon complémentaire
constituent une cohorte représentative de l'ensemble des bacheliers de la
session 2002 qui est suivie chaque année (Dethare, 2006).

5.3 Mise en place par l'Insee d'un suivi du

parcours des jeunes après leur sortie du

système éducatif

5.3.1 L'intérêt d'une poursuite du panel

L'idée d'une prolongation du panel 1995 au-delà de la fin de la scolarité


initiale a été avancée pour la première fois par Vallet (2000). Tels qu'ils
66 Enquêtes et sondages

existent, les panels d'élèves présentent en effet beaucoup d'atouts pour


constituer le socle d'une observation d'un échantillon d'individus tout au long
de leur existence, que ce soit les carrières professionnelles, les parcours
familiaux ou encore les comportements socio-culturels.

5.3.2 Les modalités de mise en œuvre

La poursuite du panel d'élèves 1995 au-delà de la fin de la scolarité initiale a


été prise en charge par l'Insee en 2005, en collaboration avec la Direction de
l'Évaluation, de la prospective et de la Perfonuance (DEPP). Ont été
interrogés les jeunes ayant fini leurs études, avec ou sans le bac, mais
également les jeunes qui avaient été « perdus » par la DEPP durant leur
scolarité secondaire, ainsi que les bacheliers qui n'avaient pas répondu à
l'enquête de suivi dans l'enseignement supérieur. La première enquête
« entrée dans la vie adulte » s'est ainsi déroulée en mars 2005 par voie postale
et téléphonique.

5.3.3 Les volets complémentaires

L'introduction d'interrogations complémentaires sur des thèmes spécifiques,


en partenariat avec d'autres institutions, a été envisagée dès l'origine. Un
premier volet complémentaire proposé par la Drees sur le thème de la santé,
concernant autant la santé physique que psychique, a été administré en mars
2007 à l'ensemble des jeunes suivis par la DEPP et par l'Insee, en
complément de leurs enquêtes annuelles de suivi.

5.4 Les différentes pondérations

Les élèves participant au panel 1995 ont été sélectionnés par sondage
aléatoire simple. La même pondération leur a donc été affectée au départ.
Durant leur scolarité dans le secondaire, le mode d'actualisation annuelle des
données des jeunes a limité au maximum l'attrition du panel. Par conséquent,
aucune correction de la non-réponse n'a été effectuée.
Dans le supérieur, une modélisation de la non-réponse est réalisée chaque
année et deux jeux de pondération sont affectés aux bacheliers 2002 suivis, le
premier au titre de leur appartenance à la cohorte 2002 et le second au titre de
leur appartenance au panel. Après la première interrogation, le fichier a donc
été redressé par calage sur la population de référence. Les années suivantes, la
correction de la non-réponse se fait en estimant les probabilités de réponse par
une régression logistique. Le poids initial est alors corrigé en le multipliant
par l'inverse du taux de réponse obtenu une année considérée. En ce qui
concerne les autres bacheliers du panel, la correction de la non-réponse
s'effectue par millésime de bacheliers sur le même principe.
Pour l'exploitation du suivi du parcours des jeunes après leur sortie du
système éducatif par l'Insee, il a été décidé de mettre en place un nouveau jeu
2. Enquêtes longitudinales 67

de pondération. La catégorie des « non-répondants » est constituée par des


sous-populations très hétérogènes. Aussi la modélisation de la non-réponse
(régression logistique) a été réalisée en isolant trois catégories : les élèves de
la cohorte qui sont toujours dans le secondaire, ceux qui sont dans le
supérieur et ceux qui sont sortis du système scolaire. Après correction des
pondérations initiales en fonction des probabilités de réponse estimées, un
calage a été réalisé sur les 3 variables suivantes : secteur (en deux postes
public et privé), sexe et âge d'entrée en sixième (en 3 postes : en avance, à
l'heure et en retard).

BIBLIOGRAPHIE

Dethare, B. (2006). Que deviennent les bacheliers trois ans après le


baccalauréat, note d'information, no0629, Paris, Ministère de l'Éducation
nationale de l'enseignement supérieur et de la recherche.
Lemaire, S. (2006). Le devenir des bacheliers : parcours après le
baccalauréat des élèves entrés en sixième en 1989, note d'information,
no0601, Paris, Ministère de l'Éducation nationale de l'enseignement
supérieur et de la recherche.
Vallet, L.-A. (2000). Les échantillons longitudinaux d'individus et leur apport
aux sciences humaines. La lettre du Lasmas, 17, pages 1-3.

6. Étude de l'attrition du panel suisse de

ménages : applications à l'enquête SILC

en Suisse

15
Eric G RAF

6.1 Les enquêtes PSM et SILC

L'enquête Panel suisse de ménage (PSM) a débuté en 1999 (vague 1) avec un


échantillon (dénoté dans la suite par PSM_I) de 7 799 personnes interrogées
dans 5 074 ménages. Depuis 2004, un nouvel échantillon (appelé PSM LI) est
interrogé en parallèle au PSM I. Le PSM_II fut introduit pour augmenter la
taille de l'échantillon total de l'enquête PSM. La figure 2.1 illustre la
situation. On voit que jusqu'en 2005 (vague 7 du PSM_I, vague 2 du
PSM II), l'attrition (ou l'érosion) des échantillons au cours des vagues, c'est-
à-dire la perte des personnes et ménages répondants, fut importante et dans les
mêmes proportions tant au niveau des ménages que des individus. Pour 2006,

15 Office Fédéral de la Statistique (OFS) et Panel Suisse de Ménages (PSM).


68 Enquêtes et sondages

on observe les effets d'une série de mesures qui furent prises pour freiner
ladite attrition.
L'enquête Revenus et conditions de vie en Suisse (SILC) a débuté en mars
2007, environ 11 400 personnes dans 6 900 ménages ont été interrogés pour
la vague 1. SILC est un panel rotatif sur 4 ans.
Les échantillons des enquêtes PSM I, PSM II et SILC ont tous été
sélectionnés selon le même plan d'échantillonnage. Il s'agit d'un tirage
aléatoire simple, stratifié par rapport aux 7 régions géographiques NUTSII de
Suisse. Le cadre de sondage est la base de sondage pour les enquêtes auprès
des ménages (SRH). C'est un registre de numéros de téléphone actualisé
quatre fois par année. Le PSM_I a été sélectionné dans le SRH de 1999, le
PSM II dans celui de 2004 et le SILC dans celui de décembre 2006.
Les trois enquêtes sont traitées par le même institut de sondage et par des
interviewers ayant suivi les mêmes formations. Les règles de suivi des
personnes sont semblables et la structure des enquêtes est également pareille :
un bref questionnaire préliminaire documentant les caractéristiques
sociodémographiques du ménage, un questionnaire ménage et un
questionnaire individuel adressé à toutes les personnes de 14 ans et plus
vivant dans le ménage.

Figure 2.1 : l'attrition de l'enquête PSM.


Nombre d'individus/ménages interrogés
ouuu
7000 -
6000 - □ PS M l individus
5000 •1: PSM_I ménages
4000 a PSM_II individus.
3000 ■ PSM_II ménages
2000
1000
0 IMt
1999 2000 2001 2002 2003 2004 2005 2006
vague 1 vague 2 vague 3 vague 4 vague 5 vagues vagues vagues
6 et 1 7 et 2 8 et 3

6.1.1 Ampleur de l'attrition

Comme on peut le voir dans la figure 2.1, l'attrition est un aspect très
préoccupant. À sa T vague en 2005, le PSM_I ne contenait plus que la moitié
de ses répondants de 1999.
De gros efforts sont faits, d'abord pour limiter la non-réponse, ensuite pour
améliorer les modèles qui tentent de la corriger dans les pondérations. Malgré
cela, l'attrition n'étant pas uniforme, on se doute que certaines de ses
caractéristiques nous échappent. Le travail présenté ici a pour but d'identifier,
selon les méthodes décrites dans la section 6.3, quelles variables sont
2. Enquêtes longitudinales 69

concernées par l'attrition et non prises en compte dans la modélisation de la


non-réponse des pondérations.

6.2 Ajustement pour la non-réponse dans les

procédures de pondération

Il serait trop long de détailler ici toutes les étapes de la modélisation pour fins
de pondération dans le contexte des enquêtes PSM et SILC. L'important pour
notre étude est que la méthode utilisée pour la modélisation de la non-réponse
est l'analyse par segmentation. Cette dernière mène à la création d'un certain
nombre de groupes homogènes de réponse (GHR). Les répondants de chaque
GHR voient leur poids initial multiplié par un facteur correspondant à
l'inverse du taux de réponse pondéré de leur GHR. Il est très important que
certaines contraintes soient toujours satisfaites pour chaque GHR (nombre
minimal d'unités et taux de réponse minimum). Les variables les plus souvent
choisies par l'algorithme de segmentation nous donnent des infonnations sur
le profil des non-répondants. Ces variables doivent être renseignées tant pour
les répondants que pour les non-répondants, ce qui limite passablement la
palette des variables à disposition. On utilise en principe l'information d'une
des vagues antérieures du panel, ou celle récoltée par proxy au niveau du
ménage.
Évidemment les variables à disposition ne sont pas exactement les mêmes
suivant qu'on modélise la non-réponse au niveau du ménage ou au niveau
individuel.
La deuxième remarque d'importance au sujet des pondérations est que tous
les jeux de poids (individus ou ménages) sont calés sur des totaux connus de
la population de l'année courante pour les pondérations transversales, et de
l'année de sélection du panel pour les pondérations longitudinales. Les
informations disponibles au niveau de toute la population étant assez limitées,
les totaux de contrôles pour les calages sont le sexe, les classes d'âge, la
nationalité (suisse, non suisse), la région géographique et l'état civil.

6.3 Méthodes utilisées pour cibler les variables

touchées par l'attrition

Afin d'identifier quelles variables des questionnaires ménage et individuel


sont les plus touchées par l'attrition, on tente de cibler des caractéristiques des
répondants par rapport aux non-répondants en étudiant les distributions de
leurs réponses aux mêmes questions posées répétitivement au cours des
vagues des enquêtes PSM I et PSM II.
Les calculs de variance nécessaires pour déterminer si les résultats sont
statistiquement significatifs ont été faits par la méthode de linéarisation par
70 Enquêtes et sondages

série de Taylor et certaines fois aussi par la méthode du bootstrap pour


vérification.
La méthode 1 pour cibler l'attrition compare dans une première phase, pour
l'année 2004, les distributions de différentes variables de l'enquête PSM en
exploitant d'une part l'échantillon du PSM_I vague 6 et d'autre part
l'échantillon du PSM_II vague 1. Puis, dans une deuxième phase, afin
16
d'éliminer les différences non attribuables à l'attrition, on a encore comparé
avec les distributions de ces mêmes variables à la vague 1 du PSM I, c'est-à-
dire avec les données récoltées en 1999. Les variables identifiées en phase 1
pour lesquelles les différences significatives disparaissent peuvent être
classées comme étant sujettes à l'attrition.
Notons que cette méthode n'utilise que des pondérations transversales et
présente l'avantage de pouvoir tester également les variables récoltées au
niveau du ménage17 en leur appliquant les poids ménages.
La méthode 2 n'utilise que l'échantillon PSM_I. Il s'agit d'étudier
l'évolution de la distribution des variables du questionnaire individuel de la
vague 1 (année 1999) à la vague 8 (année 2006) du panel. Pour l'année 1999,
on applique la pondération transversale individuelle, pour les années
suivantes les pondérations longitudinales individus de chaque vague. A
chaque vague on se restreint au sous-échantillon des individus ayant répondu
en 1999 et à la vague considérée. On peut également juger de l'effet des
pondérations en recalculant les estimateurs sans pondérations.
Les variables, pour lesquelles une différence significative apparaît entre le
calcul fait avec la pondération transversale de 1999 et celui fait avec la
pondération longitudinale d'une vague donnée, sont potentiellement
'18
touchées par l'attrition.

6.4 Résultats et conclusions

Les deux méthodes présentées dans la section précédente ayant des avantages
et des inconvénients, on a décidé de retenir une variable comme étant touchée
par l'attrition que lorsque les deux méthodes la repère comme telle.
La figure 2.2 donne un exemple : à gauche le résultat de la méthode 2 pour
la variable du questionnaire individuel mesurant, sur une échelle de 0 à 10,
l'intérêt pour la politique. La série des carrés reflète l'intérêt moyen calculé

16 Dues entre autre au fait que le PSM I et le PSM II ont été sélectionnés dans des cadres
de sondages différents et à 5 années d'intervalle. Aussi, le taux de réponse en vague 1
n'était pas le même pour le PSM II en 2004 par rapport à celui du PSM I en 1999.
17 En effet, le panel suit des individus et non des ménages ; les exploitations longitudinales
ne peuvent se faire qu'au niveau individuel.
I 8 Cette méthode ne peut pas prendre en compte les nouveaux individus se joignant au
panel au cours des vagues. Les résultats qu'elle fournit peuvent de ce fait être trop
pessimistes. Par ailleurs, on ne peut pas étudier l'érosion au niveau des ménages,
puisque ce n'est pas une unité stable dans le temps.
2. Enquêtes longitudinales 71

sur le sous-échantillon des répondants en 1999 et à la vague courante, sans


pondération. La série des traits illustre les mêmes calculs mais avec la
pondération longitudinale de la vague courante. Le calcul repose donc sur les
données récoltées en 1999 pour tous les « traits » et « carrés ». La série du
haut, symbolisée par des triangles, résulte des mêmes analyses que pour les
« traits » mais en remplaçant les données de 1999 par celles de la vague en
cours. Les intervalles de confiance pour 1999 ne recoupant pas ceux de 2005
et 2006, cette variable semble touchée par l'attrition. A droite le résultat selon
la méthode 1. Là aussi la variable semble touchée par l'attrition.
On observe (par la méthode 1) que la pondération longitudinale compense
pour l'attrition jusqu'en 2004, mais plus après. Sans pondération, les résultats
sont biaisés dès 2002 (vague 4). Dans le cas considéré, l'évolution va dans le
même sens que l'attrition (méthodes 1 et 2).
Bien que l'attrition touche très clairement une certaine sous-population
d'individus ou de ménages, il est très difficile de définir précisément le profil
des non-répondants. En effet, ce dernier est très complexe, varie d'une année
à l'autre et ne peut être décrit de manière exhaustive19 avec l'enquête.
Néanmoins, cette étude permet d'une part, comme mesure a posteriori, de
dresser une liste de variables sujettes à l'attrition parmi celles livrées aux
utilisateurs de données, ce qui constitue une infonuation importante pour ces
derniers. D'autre part, comme mesure a priori, on peut mettre des « flags »
aux ménages et aux individus rares et fragiles de notre échantillon du point de
vue de l'attrition. Le fait de connaître des caractéristiques des individus ou
ménages plus sensibles à l'attrition que d'autres permet de prendre des
mesures ciblées dans la gestion de l'enquête et de réduire le risque de perdre
ces individus.

Figure 2.2 : Illustration des méthodes 1 (à droite) et 2 (à gauche)


6.1
5.9 I 5.9
t
) 5.7
1
I57 évolutloi + pr] ^attrition
5.5 I | T 1 5.5
i 1
11 Tt Tt attritio
5.3 I T I 5.3
T,
5.1 h Ay'
4— -H 5.1
1 évolution
49 4.9
1999 2000 2001 2002 2003 2004 2005 2006 PSM I vague 1 PSM J vague 6 PSMJI vague 1
1999
2004
Enfin, nos modèles de non-réponse peuvent être affinés en y incluant
quelques variables supplémentaires pouvant mieux expliquer l'attrition. Nos
jeux de poids finaux s'en trouveront améliorés.

19 D'autres facteurs, non mesures par l'cnquctc, peuvent influencer l'attrition.


72 Enquêtes et sondages

7. Impact de l'attrition d'un panel de

jeunes conducteurs sur l'analyse du

risque

Sylvain LASSARRE, Cécile COQUELET,


20
Pierre-Alain HOYAU et Agénor LAHATTE

7.1 introduction

L'enquête MARC (Mobilité, Attitudes, Risque et Comportements) vise à


étudier le risque routier des jeunes automobilistes. La première vague de cette
enquête a été menée entre décembre 2002 et mars 2003 auprès d'un
échantillon représentatif de 3 051 détenteurs de permis B, hommes et femmes,
âgés de 18 à 25 ans, résidant en France. Il s'agit d'une enquête par panel
rétrospective car les individus sont interrogés à trois reprises à un an
d'intervalle sur les événements de l'année écoulée. L'enquête MARC est
essentiellement administrée par questionnaire informatisé. Seules quelques
questions plus sensibles sont auto-administrées sur format papier. Un des
objectifs de l'enquête est de pouvoir modéliser l'évolution du risque
d'accident matériel et corporel de la route en tenant compte du mode de
fondation à la conduite, de l'expérience de conduite et des événements de vie
du jeune (Coquelet, Hoyau et Lassarre, 2006).
Dans une première partie, on qualifiera et quantifiera le biais d'attrition
entraîné par la perte d'environ 30 % de jeunes conducteurs entre les vagues.
Dans une deuxième partie, une modélisation conjointe du nombre d'accident
et du choix de participation aux vagues par un modèle probit bivarié servira
d'entrée à l'analyse longitudinale de l'évolution du risque routier chez les
conducteurs débutants par une régression extra-poissonienne.

7.2 Étude de l'attrition

Étudier l'attrition d'un panel, issue de la perte des individus de l'échantillon


conservés, c'est étudier l'évolution de la structure de l'échantillon au cours du
temps, en validant l'existence d'un biais éventuel dans cette structure et, le
cas échéant, en qualifiant ce biais. Les 3 051 individus enquêtés (jeunes
détenteurs du permis de conduire B, résidant en France et ayant parcourus
plus de 100 kilomètres dans l'année en cours) ont été tirés au hasard par le
sondeur dans une base de 30 000 ménages en respectant les quotas sur 6
variables de structure : le sexe, l'âge, la région ZEAT, le type d'agglomé-
ration de résidence, le nombre de personnes au foyer et la PCS du chef de
famille. La structure considérée est donc celle de ces 6 variables de

20 INRETS/GARiG, 23 rue Alfred Nobel, 77420 Champs sur Marne.


2. Enquêtes longitudinales 73

redressement (Ahem et Le Brocque, 2005). L'échantillon obtenu après les


pertes (non-réponses) a été calé sur les marges de ces 6 variables, donnant
lieu à la création d'une variable de pondération.

7.2.1 Légère déformation des distributions des poids


par disparition des individus « rares »

Cette variable de pondération, est utilisée pour détecter la présence d'un biais
de structure : si une instabilité de la distribution du poids de redressement
était constatée dans le temps, il serait alors possible de conclure à l'existence
d'un tel biais.
Du fait de la distribution non gaussienne (test de Student inapplicable), il est
nécessaire de se tourner vers des tests non paramétriques de comparaison de
distribution de la variable POIDS dans deux échantillons indépendants et de
tailles différentes (Kolmogorov-Smirnov, Wilcoxon-Mann-Whitney, Saporta,
1998).

Tableau 2.1 : Poids moyen par échantillons et sous-échantillons


Echantillons Effectifs bruts Effectifs pondérés Poids moyens
V1 3 051 3 051 1
V2 2 085 2 031 0,974
V3 1 212 1 161 0,958
21
V1-V2 966 1 020 1,056
V2-V322 873 871 0,997

Trois tests ont été effectués :


1. entre l'échantillon des individus n'ayant participé qu'à la vague 1 et
celui des individus ayant participé à la vague 2,
2. entre les individus ayant participé aux vagues 1 et 2 mais pas à la vague
3 et ceux ayant participé aux trois vagues d'enquête,
3. entre les individus n'ayant participé qu'à la vague 1 et ceux ayant
participé aux trois vagues.

Au vu des trois tests, l'hypothèse que nos deux échantillons proviennent


d'une même population peut être rejetée. Il y a bien un biais de structure entre
les échantillons pris deux à deux, c'est-à-dire qu'au regard des variables qui
ont servi au calcul de la variable POIDS de redressement de la vague 1, les
individus qui disparaissent entre la vague 1 et la vague 2 sont
significativement différents de ceux qui participent à la vague 2, ceux qui
disparaissent entre les vagues 2 et 3 sont significativement différents de ceux

21 Sous-échantillon des individus n'ayant participé qu'à la lere vague d'enquête (à VI ).


22 Sous-échantillon des individus n'ayant participé qu'aux deux premières vagues
d'enquête (à VI ctV2).
74 Enquêtes et sondages

qui participent à la vague 3 et enfin ceux qui ne participent qu'à la vague 1


sont significativement différents de ceux qui participent aux trois vagues. Plus
on avance dans les vagues successives d'enquête et plus les individus
auxquels le redressement a affecté un poids supérieur à 1 disparaissent, c'est-
à-dire des individus sous représentés dans l'échantillon initial par rapport à la
base de redressement. Autrement dit, les individus rares le deviennent de plus
en plus.

7.2.2 Modélisation et test du biais d'attrition

Afin de qualifier le biais de structure de l'échantillon de l'enquête, il est


nécessaire d'utiliser des modèles de régression logistique sur la probabilité
pour un individu de faire partie d'une vague sachant qu'il a participé à la
vague précédente. Seront donc hiérarchiquement modélisées la probabilité
d'appartenir à la vague 2 sachant que l'individu a participé à la vague 1, et la
probabilité d'appartenir à la vague 3 sachant que l'individu a déjà participé
aux vagues 1 et 2. Concernant les variables qui permettent de qualifier ce
biais, autrement dit les variables explicatives du modèle, deux types de
variables seront exploités : les variables dites de structure, c'est-à-dire les
variables ayant servi au redressement et les variables d'intérêt de l'enquête
concernant le risque routier avec le nombre d'accidents et l'infractionnisme
avec le nombre d'infractions sanctionnées déclarées.
En ce qui concerne l'attrition du panel entre les vagues 1 et 2, selon les
résultats du modèle logistique, on perd plutôt les individus les plus âgés (23-
25 ans) alors que l'on conserve les plus jeunes (18-20 ans). Les individus
habitants dans les grandes villes (>20 000 habitants), de Paris ou de la région
parisienne disparaissent au profit des enquêtés venant de zones rurales de la
région Sud-Est. L'échantillon perd également, de manière significative, des
enquêtés qui vivaient chez leurs parents au cours de la première vague, ainsi
que beaucoup d'étudiants. On conserve plutôt les individus qui vivent chez
leurs parents au détriment de ceux qui vivent seuls.
Pour l'attrition du panel entre les vagues 2 et 3, on perd très significa-
tivement plus d'hommes que de femmes, ce qui n'était pas le cas
précédemment. A nouveau, l'échantillon perd significativement des individus
plus âgés, et comme précédemment les individus qui vivent en couple ou chez
leurs parents sont significativement conservés au détriment de ceux qui vivent
seuls.
Après introduction, dans les deux modèles de choix de participation aux
deux dernières vagues d'enquête, des deux variables d'intérêt, celles qui
qualifient le plus directement le risque routier (le nombre d'accidents et le
nombre d'infractions sanctionnées), le choix n'est pas affecté significative-
ment par ces variables. Ce premier test, qui écarte la présence d'un biais
2. Enquêtes longitudinales 75

d'attrition sur le risque, demande à être complété par un modèle conjoint du


risque d'accident et de choix de participation aux vagues d'enquête.

7.3 Analyse longitudinale du risque d'accident

routier

L'indicateur de risque est le taux d'accident pour 100 000 kilomètres qu'on
estime sur les trois vagues en fonction de l'expérience de conduite mesurée
par le nombre d'années post-permis. L'effet de l'ancienneté du permis B sur
le risque est très discernable sur les vagues 1 et 3 avec une décroissance à
caractère exponentielle au fur à mesure des années (figure 2.3). La
décroissance, bien que marquée, est plus chaotique pour la vague 2, avec une
plus grande sensibilité aux aléas des accidents.
En plus de cet effet « ancienneté du permis », on détecte, particulièrement
bien, un effet période entre la vague 1 (année 2003) et la vague 3 (année
2005) à la baisse.

Figure 2.3 : Taux d'accident pour 100 000 kilomètres par


ancienneté de permis b selon les vagues d'enquête

Vague 1
Vague 2
4— Vague 3

1,5

0,5 î

[0-1 a] ]1-2a] ]2-3a] ]3-4a] ]4-5a] ]5-6a] ]6-7a] ]7-8a] [+8a]

Ancienneté du permis B

Un modèle bivarié de l'occurrence d'au moins un accident dans l'année


avec le choix de la formation : traditionnelle ou apprentissage accompagné de
la conduite (AAC) a été estimé pour tester le biais de sélection possible
généré par l'attrition de 30 % entre les deux premières vagues. Le coefficient
de corrélation des résidus n'est pas significativement différent de zéro, ce qui
nous libère de la contrainte de modélisation conjointe. Des modèles extra-
poissonniens (négatif binomial) du nombre d'accident ont été estimés en
tenant compte du kilométrage parcouru, de l'ancienneté du permis, du niveau
d'étude, du sexe, de l'âge, de la possession du véhicule (propriétaire,
76 Enquêtes et sondages

emprunteur, mixte), de la variable 'Profession et catégorie Socio-


professionnelle' (PCS) et de la vie maritale. L'expérience de conduite agit en
interaction sur l'élasticité du nombre d'accidents au kilométrage. Une
comparaison des paramètres des modèles est proposée pour trois
échantillons : 3 051 individus de la vague 1, le panel de la vague 1 et 2 (3 051
en vague 1 et 2 085 en vague 2), le panel cylindré des vagues 1 et 2 (2 085
individus).
Les trois modèles fournissent des résultats cohérents. L'élasticité au
kilométrage est de l'ordre de 0,2. L'expérience de conduite réduit cette
élasticité de manière significative. Ce qui se traduit par une décroissance lente
du risque routier. Il faut entre 3 et 4 ans pour atteindre un niveau plancher.
Les hommes sont plus à risque que les femmes. Les jeunes passés par l'AAC
ont un surrisque significatif. La vie en couple a un effet protecteur. Le
passage du statut d'emprunteur à propriétaire est soumis à un surrisque.

Tableau 2.2 : Paramètres des trois modèles extra-poissoniens


Quasi-Poisson Quasi-Poisson Quasi-Poisson
Coupe transversale Coupe longitudinale Coupe cylindrée
Écart- Écart- Écart-
Estimateur type Estimateur type Estimateur type
Kilométrage ln(KM12m) 0,22 0,05 0,19 0,04 0,19 0,05
Age au Permis Age permis -0,08 0,058 -0,065 0,04 -0,06 0,04
Sexe Homme 0,53 0,13 0,49 0,11 0,42 0,12
Interaction Km*Ancienneté KM12m*AncPerB -0,0009 0,0003 -0,0008 0,0002 -0,0008 0,0002
Propriété véhicule Emprunteur -0,18 0,16 -0,19 0,13 -0,23 0,14
Mixte 0,3 0,16 0,31 0,11 0,29 0,13
Formation au Permis Formation AAC 0,65 0,14 0,48 0,2 0,41 0,22
Interac Sexe*Formation Homme*AAC -0,4 0,23 -0,31 0,18 -0,27 0,2
Interac Proprio*Formation Emprunteur* AAC -0,33 0,21 -0,15 0,21 -0,11 0,23
Mixte* AAC -0,42 0,25 -0,28 0,21 -0,24 0,23
Vie et Habitat AmiAutFS 0,38 0,25 0,2 0,2 0,2 0,13
Couple -0,35 0,15 -0,24 0,11 -0,22 0,09
Seul 0,11 0,11 0,09 0,12 0.1 0,13
Vague Vaguel 0,09 0,08 0,1 0,09
Constante Cste -2,33 1 -2,37 0,9 -2,47 1
Alpha Alpha 0,59 0,2 0,81 0,15 0,73 0,16
Effectif 2852 4815 3910

7.4 Conclusion

On voit bien à travers l'analyse des caractéristiques des individus qui


disparaissent de notre échantillon au cours du temps, qu'il s'agit des jeunes
les plus mobiles et volatils avec lesquels il est difficile de garder contact
d'une vague sur l'autre, malgré les moyens mis en œuvre pour les retrouver
aux vagues suivantes (fiches contact et de suivi, adresses relais ...).
Les plus âgés partent de chez leur parents, ceux qui vivent seuls et qui
déménagent ou changent de statuts (vie maritale, passage du statut d'étudiant
à celui d'actif) ne laissent pas d'adresse pour un contact futur. Les jeunes des
grandes villes ont une plus grande mobilité que les ruraux. Les garçons
2. Enquêtes longitudinales 77

semblent plus mobiles que les filles. Cette sélectivité qui opère sur les
observables est contrôlée via des variables explicatives, et la correction du
biais de sélection sur les inobservables n'est pas nécessaire, vu les tests de
biais de sélection. Les modèles extra-poissoniens estimés sur le panel : en
coupe, en longitudinal et en cylindrée donnent des résultats similaires avec un
effet lent de l'apprentissage de la conduite par l'expérience, un effet négatif
de l'apprentissage accompagné de la conduite et un surrisque des jeunes
hommes.

BIBLIOGRAPHIE

Ahern, K., et Le Brocque, R. (2005). Methodological issues in the effects of


attrition: Simple solutions for social scientists. Field methods, vol. 17, 1,
53-69.
Saporta, G. (1998). Probabilités, Analyse des Données et Statistiques, Paris,
Technip.
Coquelet, C., Hoyau, P.-A. et Lassarre, S. (2006). Jeunes automobilistes et
risque routier: un panel multi-objectifs. Dans Méthodes d'enquêtes et
sondages Pratiques européenne et nord-américaine, P. Lavallée, et
L.-P. Rivest (dir.), pages 245-250, Paris, Dunod.
û
CO
o
o
fM

ai
>-
CL
O
u
Chapitre 3

Enquêtes et santé

1. Les cohortes épidémiologiques

prospectives : principes, difficultés,

solutions envisagées

Marcel GOLDBERG, Alice GUEGUEN, Annette LECLERC,


12
Jean-Louis LANGÉ et Marie ZINS 1-2'3

1.1 Objectifs généraux et principes des

cohortes épidémiologiques

La cohorte épidémiologique est un type d'enquête dont le principe est le suivi


individuel longitudinal d'un groupe de sujets. Sa particularité est donc surtout
liée à la façon de s'intéresser au temps. Dans un contexte épidémiologique, on
peut en effet considérer le temps de diverses façons, selon les questions que
l'on se pose.
Dans certains cas, on veut étudier l'évolution d'un phénomène popula-
tionnel dans le temps : la fréquence du tabagisme diminue-t-elle ? L'incidence
des cancers augmente-t-elle ? Les approches pertinentes sont alors l'enquête
transversale répétée ou l'enregistrement systématique permanent.

1 Inserm Unité 687, Villcjuif, F-94807 France.


2 IFR 69, Villcjuif, F-94807 France.
3 Équipe Risques Post Professionnels - Cohortes du Cetaf - Inserm Unité 687 Villcjuif, F-
94807 France.
80 Enquêtes et sondages

Mais c'est aussi souvent à l'évolution de processus à l'échelle individuelle


que les épidémiologistes s'intéressent. Deux questions notamment sont au
cœur de la problématique épidémiologique. La première est « l'histoire
naturelle » des processus physiopathologiques et des maladies (quelles sont
les étapes qui vont de la primo-infection par le VIH à la maladie sida
constituée et au décès ?). La seconde question est celle de la causalité :
l'exposition à un « facteur de risque » modifie-t-elle le risque de survenue
d'une maladie ? Cette recherche de la causalité n'est pas l'apanage de
l'épidémiologie traditionnelle « d'organe » (épidémiologie du cancer, des
maladies cardio-vasculaires...). Elle concerne aussi « l'épidémiologie
sociale » qui s'intéresse aux déterminants sociaux de la santé : il ne s'agit pas
seulement de décrire les inégalités de santé selon des variables sociales
diverses, mais de tenter de comprendre les mécanismes par lesquels la
situation sociale se traduit par la survenue de problèmes de santé, en tenant
compte de l'exposition aux facteurs de risques « classiques » comme le tabac,
l'alcool ou l'alimentation par exemple (Goldberg et al, 2003). Pour répondre
à ces deux questions, il est nécessaire d'analyser la temporalité à l'échelle
individuelle, et les épidémiologistes ont conçu à cette fin différentes
méthodes, dont l'approche canonique est le suivi longitudinal des mêmes
sujets au cours du temps, qui en pratique se traduit par des études de cohorte,
qui offrent la possibilité d'analyses permettant de tenir compte au mieux de
phénomènes liés au temps : séquence temporelle « exposition - effet », « effet
génération », « effet période ». Un autre avantage des cohortes est dû au fait
que les données d'exposition étant recueillies avant la survenue des effets
analysés, on évite certains biais potentiels des études rétrospectives : il est en
effet préférable de recueillir les données d'exposition aux facteurs de risque
au moment où les personnes sont exposées, plutôt que de tenter de les recons-
tituer ultérieurement, à un moment où certains sujets peuvent être malades.

1.1.1 Les cohortes épidémiologiques prospectives


dans le monde

Il est évidemment impossible de recenser toutes les cohortes existantes à


l'échelle internationale, et on ne décrira ici que quelques cohortes
particulièrement illustratives des apports de cet outil épidémiologique.
Aux États-Unis, certaines grandes cohortes sont en place depuis plusieurs
décennies. La plus ancienne et la plus célèbre est sans doute Framingham, qui
concerne le domaine cardio-vasculaire (Oppenheimer, 2005), et qui suit
depuis 1948, 5 209 hommes et femmes âgées de 30 à 62 ans à l'inclusion ; à
partir de 1971, leurs enfants (5 124 garçons et filles) ont été suivis, et depuis
2002, 3 500 petits enfants sont inclus dans l'étude. La Nurses' Health Study
assure depuis 1976 le suivi prospectif de 122 000 infirmières ; une deuxième
vague a inclus 117 000 femmes en 2000 (Egan et ai, 2002).
3. Enquêtes et santé 81

La British Doctors's Study a été mise en place dès 1951 auprès de tous les
médecins britanniques, avec au total, 34 440 hommes et 6 194 femmes qui y
ont participé. Des analyses ont été publiées après 10, 20 et 40 ans de suivi.
Cette étude a contribué de façon décisive à la connaissance des différents
effets du tabagisme sur la santé (Doll et Hill, 1964). La cohorte Whitehall qui
depuis 1985 suit 10 308 fonctionnaires britanniques, contribue de façon
majeure à la recherche sur les déterminants sociaux de la santé (Marmot et al,
1991).
En Norvège, pays de 4,5 millions d'habitants (soit 13 fois moins peuplé que
la France), le projet CONOR (Cohort of Norway) suit 200 000 personnes sur
le plan de leurs habitudes de vie, pratiquant des examens cliniques et des
prélèvements biologiques.

1.1.2 Les cohortes épidémiologiques prospectives en


France

En France, l'Étude Prospective Parisienne mise en place dès 1967


(Ducimetière étal, 1981) a joué un rôle pionnier pour les cohortes
épidémiologiques en population ; elle continue, presque 40 ans après, à
apporter régulièrement des résultats originaux. Il a cependant fallu attendre la
fin des années 80 pour voir se développer dans notre pays des grandes
cohortes épidémiologiques prospectives aux objectifs divers.
L'exemple de la cohorte GAZEL en donne une illustration. Mise en place
en 1989 par l'Unité 687 de l'Inserm, cette cohorte est composée de plus de
20 000 agents d'EDF-GDF. Les données sont recueillies auprès de différentes
sources et le suivi est particulièrement efficace : fin 2006 (18 ans de suivi), le
nombre de perdus de vue était de 0,9 %. Plus d'une trentaine de projets de
recherche épidémiologique portant sur des thèmes très diversifiés ont été mis
en place dans cette cohorte par une vingtaine d'équipes françaises et
étrangères. Des problèmes de santé et des facteurs de risque aussi diversifiés
que la migraine, l'ostéoporose, la dépression, l'alcool, le tabac, le soutien
social ou l'organisation du travail font l'objet de projets de recherche au sein
de la cohorte (Goldberg et al, 2007 ; http://www.gazel.insenu.fr).
Les cohortes françaises se caractérisent cependant par leur taille
relativement faible, aucune ne dépassant un petit nombre de dizaines de
milliers de sujets, alors que certaines cohortes dans d'autres pays peuvent
atteindre, voire dépasser, plusieurs centaines de milliers de sujets, comme
l'ont illustré quelques exemples cités.
82 Enquêtes et sondages

1.2 Quelques problèmes méthodologiques

1.2.1 Effets de sélection, biais et représentativité

Un biais est une erreur qui entraîne une différence systématique entre le
paramètre que l'on cherche à estimer (l'incidence d'une maladie, ou une
mesure d'association entre une maladie et un facteur de risque) et le
paramètre estimé par l'étude.
Une des sources majeures de biais dans les enquêtes épidémiologiques
provient des effets de sélection, qui surviennent lorsque la population
observée diffère de la population cible en raison de phénomènes liés au
recrutement ou au suivi des sujets. L'estimation de la fréquence de la maladie
ou de l'exposition, ou de l'association exposition - maladie est biaisée si la
probabilité d'être malade (ou exposé) n'est pas indépendante de la
probabilité d'être inclus dans l'étude, ou si la relation exposition - maladie
est différente entre les sujets inclus et ceux qui ne sont pas inclus.
Or, les cohortes épidémiologiques prospectives incluent presque toujours
les sujets sur la base du volontariat : des biais de sélection peuvent donc
intervenir lors de la constitution de la cohorte et tout au long du suivi de celle-
ci (attrition) (Goldberg et Luce, 2001). Le problème des biais potentiels lié
aux effets de sélection se présente de façon très différente selon que les
objectifs sont analytiques (étude des relations entre exposition à des facteurs
de risque et survenue de maladies) ou descriptifs.

a) Étude analytique des relations entre expositions et maladies

Au sein d'une cohorte dont les procédures d'inclusion ont été les mêmes pour
tous les sujets, la relation exposition - maladie n'est a priori pas différente
entre les sujets volontaires et ceux qui ne le sont pas (Greenland, 1977). Une
des raisons est qu'au moment de l'inclusion, tous sont indemnes des maladies
qui seront analysées, seuls les cas incidents pendant le suivi étant pris en
compte : des conditions très particulières seraient en effet nécessaires pour
entraîner un biais dans la relation entre une exposition et une maladie. Ainsi,
pour analyser les effets du tabac sur le risque de cancer, il n'est pas nécessaire
d'observer un échantillon représentatif de la population, mais de disposer
d'effectifs suffisants de non-fumeurs et de fumeurs parmi lesquels le niveau
d'exposition est contrasté : en effet, sur la base des connaissances actuelles, il
est très vraisemblable que les mécanismes physiopathologiques et biologiques
de la cancérogenèse liée au tabac sont identiques dans un échantillon de
volontaires et dans l'ensemble de la population.
Le problème de l'attrition au cours du suivi peut par contre être à l'origine
de biais importants si la probabilité de ne plus être suivi diffère chez les
exposés et non exposés, et/ou chez ceux qui sont ou ne sont pas devenus
malades, ce qui est souvent le cas {cf. ci-dessous).
3. Enquêtes et santé 83

b) Étude descriptive de la fréquence des problèmes de santé et


des expositions

Dans ce type d'étude, les paramètres d'intérêt doivent être estimés sur un
échantillon représentatif de la population cible. Or, les cohortes
épidémiologiques prospectives étant habituellement composées uniquement
de volontaires, il existe inévitablement des effets de sélection, même
lorsqu'on procède à un tirage au sort aléatoire d'un échantillon dans une base
de sondage appropriée.
Lors de l'inclusion initiale, les non participants constituent une source
potentielle de biais. Pour y remédier on s'efforce de recueillir un minimum de
données sur les non participants (essentiellement/âge, sexe, profession et
PCS), afin de procéder ultérieurement à des redressements. Cette approche,
utilisée dans de nombreuses enquêtes de santé, connaît cependant certaines
limites. Ainsi, il n'est pas toujours possible de recueillir les données de
redressement (âge, sexe, PCS) pour l'ensemble des sujets non participants. De
plus, il n'est pas toujours facile de savoir si ces données sont suffisantes pour
contrôler les biais potentiels, car on sait par exemple qu'au sein de la même
catégorie socio-économique existent de larges différences à bien des égards,
notamment en termes de santé, de comportements, de modes de vie, de
réseaux sociaux, etc. (Goldberg et al., 2001). Finalement, on est rarement en
situation de contrôler complètement les biais de sélection, faute de disposer
des données pour les participants et l'ensemble des non participants.
Le même problème se pose tout au long du suivi, les non-répondants et les
perdus de vue différant toujours des participants pour divers facteurs, en
particulier les comportements de vie et les problèmes de santé qui jouent un
rôle majeur, même à catégorie socioprofessionnelle égale, comme on a pu
l'observer dans la cohorte GAZEL : à âge, genre et PCS égaux, les risques
d'attrition diffèrent en fonction des consommations d'alcool et de tabac, de
l'état de santé, de l'absentéisme, de la survenue de problèmes de santé
mentale et de cancers notamment (Goldberg étal, 2006). Or, ce sont
justement ce type de facteurs qui sont étudiés dans les cohortes
épidémiologiques.

c) Des solutions possibles

On s'appuiera ici sur les solutions qui ont été élaborées pour le projet
CONSTANCES, qui vise à constituer une cohorte épidémiologique d'environ
200 000 sujets en population générale. La démarche générale retenue est la
suivante.
Les sujets éligibles seront tirés au sort par sondage stratifié avec
probabilités inégales en sur-représentant les individus ayant une probabilité de
non-volontariat plus forte, les probabilités d'inclusion étant empiriquement
définies en se basant sur des enquêtes déjà réalisées.
84 Enquêtes et sondages

Lors de l'inclusion et chaque année pendant le suivi, un poids sera attribué à


chaque sujet permettant, à partir de la cohorte, de produire des estimations de
structures ou de niveaux de certaines variables relatives à la population cible.
Le principe général de calcul de ces pondérations consiste à appliquer au
poids de tirage initial attribué à chaque individu un coefficient de correction
de « non-réponse » déterminé à partir de l'analyse des variables liées à la non
participation à la cohorte, la non-réponse observée une année étant le résultat
de la non participation initiale à la cohorte combinée à la non-réponse
ponctuelle ou l'attrition d'individus déjà présents dans la cohorte. Avec le
poids avant calage ainsi calculé, on peut alors déterminer une pondération
finale par calage sur les marges décrivant de façon pertinente la population à
laquelle on souhaite généraliser les résultats.
La comparaison des participants et non participants doit prendre en compte
la non participation et l'attrition au cours du suivi. L'analyse des facteurs liés
à l'attrition ne pose pas de problème particulier, car on disposera de
nombreuses informations sur tous les sujets qui abandonnent la cohorte.
Le problème de la non participation est à la fois plus classique et plus
complexe à résoudre puisque la non participation équivaut le plus souvent à
une absence d'information.
Une solution consiste à constituer et à suivre une « cohorte de non
participants » formée d'un échantillon aléatoire issu de la population des non
participants. Les bases de données de la Caisse nationale d'assurance
vieillesse (Cnav) et du Système national d'information inter régimes de
l'assurance maladie (SNIIR-AM)4, seront utilisées à cette fin pour extraire
certaines données également présentes pour les participants de la cohorte et
qui sont habituellement associées à des phénomènes de sélection dans les
études épidémiologiques (Goldberg et Luce, 2001): hospitalisations,
accidents, absentéisme, consommation de soins, etc.
Un tel dispositif permet le calcul d'un coefficient de traitement de non-
réponse pour chaque individu. Pour cela, une fois l'analyse de la non
participation et de l'attrition réalisée, seules les variables explicatives de l'une
et l'autre seront retenues pour la constitution de groupes de réponse
homogène. Dans un premier temps le coefficient de traitement de la non-
réponse « non participation » est calculé comme l'inverse du taux de
participation pondéré du groupe relatif à l'individu considéré. De la même
façon et dans un second temps, le coefficient de traitement de la non-réponse
« attrition » est calculé comme l'inverse du taux de « non attrition » pondéré

4 On peut en trouver une description plus complète des ces bases de données dans deux
documents téléchargeables (http://www.rppc.fr/publications.html) : Ribet C., Genet L,
Zins M. Les bases de données socioprofessionnelles. Rapport. Saint Mandé, Unité 687
Inserm - CNAMTS, 2006 ; Coeurct-Pélisser M., Zins M. Les bases de données de
l'assurance maladie. Rapport. Saint Mandé, Unité 687 Inserm - CNAMTS, 2006.
3. Enquêtes et santé 85

du groupe relatif à l'individu considéré. Le coefficient de traitement de non-


réponse final est alors calculé comme le produit de ces deux coefficients, ce
qui permet d'obtenir des estimations non biaisées (Jones et al, 2006).
L'établissement des marges permettant le calage repose aussi sur
l'utilisation des mêmes bases de données nationales. Pour cela, on tirera au
sort dans les fichiers de la Cnav un échantillon d'assurés au régime général.
Après appariement de ce fichier avec le SNIIR-AM, on peut calculer les
marges pertinentes qui, outre les habituelles caractéristiques socio-démo-
économiques doivent intégrer des variables relatives à la santé et
caractéristiques du recours aux soins. La qualité du calage sera donc
sensiblement améliorée par le calcul de marges ayant un rapport spécifique
avec la finalité de la cohorte.

1.2.2 Données répétées et données manquantes

Les cohortes épidémiologiques prospectives présentent deux caractéristiques


particulières qui nécessitent la mise en œuvre de méthodes statistiques
adaptées : (i) les mêmes variables sont recueillies à plusieurs reprises au cours
du suivi pour les mêmes sujets ; (ii) ces variables peuvent être manquantes à
un ou plusieurs points de mesure au cours du suivi. On dispose cependant de
méthodes d'analyse éprouvées pour la prise en compte de ces difficultés :
modèles marginaux et modèles mixtes (Fitzmaurice et al, 2004) pour la prise
en compte de la corrélation entre variables répétées, imputations multiples
pour les données manquantes (Rubin, 1996), par exemple.

1.3 Conclusion : le nécessaire développement

des cohortes épidémiologiques

L'épidémiologie se trouve aujourd'hui face à la nécessité de développer des


études de taille autrefois inimaginable. Qu'il s'agisse de mettre en évidence
des risques de faible ampleur associés à l'exposition à des agents
potentiellement pathogènes, d'évaluer l'efficacité d'interventions dont on
attend des bénéfices d'ampleur modeste, ou de décrire la distribution et
l'évolution d'événements peu fréquents, ce sont aujourd'hui des effectifs très
importants qu'il faut réunir dans les études épidémiologiques. Des cohortes de
centaines de milliers de sujets qui sont suivis de façon prospective pendant
des périodes qui s'étendent sur des décennies sont indispensables pour
répondre à des questions multiples. Or, si l'on veut que la France se dote
d'outils épidémiologiques d'envergure comparable à ce qui existe dans
plusieurs pays, de nouvelles cohortes prospectives sont indispensables, dont
l'effectif ne se comptera plus en dizaines, mais en centaines de milliers de
sujets.
86 Enquêtes et sondages

BIBLIOGRAPHIE

Doll, R., et Hill, A.B. (1964). Mortality in relation to smoking: Ten years'
observations of British doctors. British Médical Journal, vol. 5395, 1399-
1410.
Ducimetière, P., Richard, J. et Claude, J.R. et al. (1981). Les cardiopathies
ischémiques : incidence et facteurs de risque. L'Etude Prospective
Parisienne. Paris, Inserm.
Egan, K.M., Stampfe, M.J., Hunter, D., Hankinson, S., Rosner, B.A.,
Holmes, M., Willett, W.C. et Colditz, G.A. (2002). Active and passive
smoking in breast cancer: Prospective results from the Nurses' Health
Study. Epidemiology,vo\. 13, 138-145.
Fitzmaurice, G.M., Laird, N.M. et Ware, J.H. (2004). Applied longitudinal
analysis. New York : John Wiley & Sons, Inc.
Goldberg, M., et Luce, D. (2001). Les effets de sélection dans les cohortes
épidémiologiques. Nature, causes et conséquences. Revue d'Epidémiologie
et de Santé Publique, vol. 49, n05, 477-492.
Goldberg, M., Chastang, J.F., Leclerc, A., Zins, M., Bonenfant, S., Bugel, L,
Kaniewski, N., Schmaus, A., Niedhammer, L, Piciotti, M., Chevalier, A.,
Godard, C. et Imbernon, E. (2001). Socioeconomic, démographie,
occupational and health factors associated with participation in a long-term
epidemiologic survey. A prospective study of the French Gazel cohort and
its target population. American Journal of Epidemiology, vol. 154(4), 373-
384.
Goldberg, M., Melchior, M., Leclerc, A. et Lert, F. (2003). Épidémiologie et
déterminants des inégalités sociales de santé. Apports récents et problèmes
actuels. Revue d'Epidémiologie et de Santé Publique, vol. 51, 381-401.
Goldberg, M., Leclerc, A., Bonenfant, S., Chastang, J.F., Schmaus, A.,
Kaniewski, N. et Zins, M. (2007). Cohort profile: The GAZEL Cohort
Study. International Journal of Epidemiology, vol. 36(1), 32-39.
Goldberg, M., Chastang, J.F., Zins, M., Niedhammer, I. et Leclerc, A. (2006).
Attrition during follow-up: Health problems are the strongest predictors. A
Study of the Gazel Cohort. Journal of Clinical Epidemiology, vol. 59, 1213-
1221.
Greenland, S. (1977). Response and follow-up bias in cohort studies.
American Journal of Epidemiology, \o\. 106, 184-187.
Jones, A.M., Koolman, X. et Rice, N. (2006). Health-related non-response:
Using inverse-probability-weighted estimators in non-linear models.
Journal of the Royal Statistical Society A, vol. 69(3), 543-569.
3. Enquêtes et santé 87

Marmot, M.G., Smith, G.D, Stansfeld, S., Patel, C., North, F., Head, J.,
White, L, Brunner, E., Feeney, A. (1991). Health inequalities among British
civil servants: The Whitehall II study. Lancet, June 8, vol. 337(8754), 1387-
1393.
Oppenheimer, G.M. (2005). Becoming the Framingham Study. American
Journal of Public Health, Apr, vol. 95(4), 602-610.
Rubin, D.B. (1996). Multiple imputation after 18+ years. Journal of the
American Statistical Association, vol. 91, 473-489.
Mauguin, J. (2004). Les procédures automatiques de contrôle de données dans
les enquêtes annuelles d'entreprises. Dans Ardilly, P. (dir.).
Echantillonnage et méthodes d'enquêtes, Paris, Dunod, pages 91-96.

2. Enquêter les soignés

5
Patrick PERETTI-WA TEL

2.1 Introduction

On définira ici très simplement les soignés comme des personnes qui à un
moment donné ont un problème de santé qui nécessite des soins médicaux
réguliers. On s'intéressera plus précisément aux personnes qui sont soignées
sur la durée, autrement dit aux malades chroniques. Ces soignés font
aujourd'hui l'objet de nombreuses enquêtes par sondage, d'abord parce qu'ils
constituent une proportion croissante de la population ; d'après les enquêtes
de l'Institut National de Prévention et d'Éducation pour la Santé, en 2000,
15 % des Français âgés de 12 à 75 ans déclaraient souffrir d'une maladie
chronique, contre 23 % en 2005.
S'il y a aujourd'hui plus de soignés, c'est bien sûr d'abord grâce aux
progrès thérapeutiques, qui accroissent l'espérance de vie des malades. Dans
le cas du VIH, depuis 1996 les nouveaux traitements permettent de limiter la
charge virale des personnes séropositives et de restaurer leurs défenses
immunitaires, sans pour autant les guérir : avec ces traitements, les
séropositifs deviennent donc des « soignés à vie ». L'augmentation du
nombre de soignés résulte aussi de la « médicalisation de l'existence », qui se
traduit par une prise en charge médicale de plus en plus précoce, souvent en
amont de la maladie.
L'augmentation des maladies chroniques induit de nouvelles
problématiques de recherche. En effet, à la maladie comme épisode bref et
aigu, qui suspend provisoirement les différents rôles sociaux de l'individu,
succède une maladie chronique, la personne affectée devant suivre des
traitements pendant plusieurs années, voire toute sa vie, tout en menant de

5 Inserm UMR379, Observatoire Régional de la Santé, Provcncc-Alpcs-Côte d'Azur.


88 Enquêtes et sondages

front ses activités « normales » sur les plans affectif, familial, professionnel...
Se pose alors la question de savoir quel est l'impact de la maladie et des
traitements sur le quotidien : sur la capacité à trouver ou conserver un emploi,
sur le regard qu'autrui porte sur le soigné, sur ses projets de vie, etc.

2.2 De la difficulté d'enquêter les soignés

2.2.1 Des malades aux soignés : défaut de couverture


et de base de sondage

Quand on veut sonder une population particulière définie par un problème de


santé, le premier obstacle est souvent l'absence de base de sondage, même si
dans certains cas le recensement ou des registres administratifs peuvent servir
de point de départ (c'est le cas dans l'enquête ALD-Drees (Affections de
Longue Durée - direction de la Recherche, des Etudes, de l'Evaluation et des
Statistiques, Drees) réalisée auprès des survivants d'un cancer à deux ans du
diagnostic, (Le Corroller-Soriano et al., 2006).
La meilleure méthode consiste souvent à recruter les enquêtés sur leur lieu
de soins. Cela nécessite que l'on fasse attention à la population cachée, qui ne
fréquente pas ce lieu : tous les malades ne sont pas soignés. Dans le cas de
patients séropositifs recrutés lors de leur consultation à l'hôpital (enquête
VESPA : VIH, Enquête Sur les Personnes Atteintes, Peretti-Watel et al.,
2005), on laisse par exemple échapper les personnes qui ne se savent pas
encore infectées, celles qui refusent de se faire soigner ou sont suivies en
médecine de ville, mais aussi les patients hospitalisés.
Dans ce cas, après avoir fait le choix d'interroger les patients lors de leur
consultation à l'hôpital, il faut constituer une base de sondage, en répertoriant
les établissements prenant en charge les patients séropositifs sur toute la
France métropolitaine, puis en estimant pour chaque établissement le nombre
de patients séropositifs suivis chaque année (la file active annuelle). Pour
cela, dans VESPA, deux sources étaient disponibles : les déclarations
obligatoires de cas de sida, disponibles pour tous les hôpitaux, et les files
actives recherchées, disponibles pour seulement 10% des hôpitaux. On a
supposé que les cas de sida répertoriés constituent une fraction stable des
patients suivis, donc de la file active, donc que le ratio {file active/cas de
sida} est constant. On l'a donc estimé lorsque les deux données étaient
disponibles, puis les cas de sida de chaque établissement dont la file active
était inconnue ont été multipliés par ce ratio pour estimer la file active.

2.2.2 Des soignés peu disponibles, « triés » par les


soignants

Autre difficulté, lorsque l'on décide d'interroger une population de malades


dans un lieu où ces personnes viennent pour recevoir des soins, ou bénéficier
3. Enquêtes et santé 89

d'autres services : ces lieux où l'on veut recruter les patients peuvent
constituer un environnement hostile à l'enquête, et les enquêtés potentiels
sont souvent peu disponibles, et en tout cas moins disponibles que lorsqu'ils
sont interrogés à leur domicile, en face-à-face ou par téléphone.
L'hôpital fournit ainsi un accès privilégié à certaines sous-populations,
mais cet accès se fait sous contrainte. En particulier, le recrutement
d'enquêtés parmi les patients doit généralement passer par un intermédiaire
obligé : le médecin. Or celui-ci ne choisit pas les patients auxquels il propose
l'enquête au hasard : certains médecins vont plutôt solliciter les « bons »
patients, plus enclins à accepter (ou môme au contraire choisir des patients en
difficulté, pour alarmer les pouvoirs publics commanditaires de l'enquête).
Pour éviter ce biais de sélection, dans l'enquête VESPA le pas de tirage parmi
les patients éligibles, présents à une consultation donnée, était déterminé par
la disponibilité de l'enquêteur, qui dépendait elle-même de la durée,
forcément variable, de chaque passation. Le prix à payer, pour cette procédure
qui vise à préserver l'aléa, est souvent un moindre taux de réponse.
Par contre, une enquête au sein du système de soins permet en général de
récolter de nombreuses informations sur les non-répondants, ce qui est très
utile pour mesurer et de corriger les biais de sélection. Par exemple, dans
l'enquête VESPA, pour tous les patients présents à une consultation un jour
d'enquête, on disposait grâce au dossier médical de l'hôpital de données
anonymisées : sexe, âge, statut d'activité, groupe de transmission, mais aussi
charge virale et statut immunologique, qui sont des données médicales clés
pour mesurer l'avancée de la maladie et l'efficacité des traitements.
La prise en compte du biais de sélection est également nécessaire dans les
analyses, en particulier lorsque la variable à laquelle on s'intéresse est
corrélée avec la participation, ou a des déterminants communs. On peut ici
mobiliser des outils statistiques assez sophistiqués, avec par exemple le
modèle conditionnel en deux étapes de Heckman (1976): on modélise
d'abord la participation à l'enquête, afin de calculer l'inverse du ratio de Mills
(rapport entre la fonction de densité et la fonction cumulative), lequel sera
ensuite introduit comme facteur correctif du biais de sélection dans tous les
modèles estimés sur l'échantillon des répondants.

2.2.3 Des facteurs contextuels à prendre en compte

Enfin, lorsque les enquêtes auprès des soignés se déroulent dans des centres
de soins, elles s'apparentent à un sondage stratifié, avec des effets de grappe :
par exemple, tous les patients interrogés dans un même service hospitalier
partagent certaines similarités, dans la mesure où ils bénéficient des mêmes
conditions de soins, voire sont suivis par les mêmes soignants, ce qui peut être
déterminant pour expliquer un certain nombre de variables d'intérêt :
90 Enquêtes et sondages

amélioration de l'état de santé, satisfaction à l'égard des soignants, ou encore


type de traitements prescrits, etc.
Ces similarités sont des « facteurs contextuels » qui caractérisent des
groupes d'individus, des grappes d'enquêtés, et leur influence sur une
variable d'intérêt doit prendre en compte cette structure hiérarchique des
données et la non-indépendance des observations au sein d'une même grappe,
grâce aux modèles multiniveaux. Par exemple, des analyses menées avec de
tels modèles ont montré que la pratique de la césarienne, la survie de
personnes atteintes d'un cancer colorectal, ou encore la mortalité maternelle,
dépendent non seulement des caractéristiques individuelles des patients, mais
aussi des caractéristiques des hôpitaux qui les prennent en charge (Chauvin et
Chaix, 2002).

2.3 Opportunités des enquêtes auprès des

soignés

2.3.1 Un suivi longitudinal facilité

Aujourd'hui, de nombreuses problématiques de recherche nécessitent la mise


en place d'enquêtes longitudinales, notamment pour tenter de mettre en
évidence des liens de causalité en s'appuyant sur la succession temporelle des
événements. Le principal obstacle auquel se heurtent ces enquêtes
longitudinales est l'attrition des cohortes : plus l'enquête dure, plus on perd
des individus. Si les questions de recherche autour des soignés se prêtent bien
à une démarche longitudinale, il se trouve aussi que le suivi médical peut
faciliter le suivi statistique d'une cohorte, et en limiter l'attrition.
Les enquêtes longitudinales auprès des patients séropositifs ont notamment
permis de montrer que l'adhérence aux traitements antirétroviraux, qui est
cruciale pour leur efficacité, avait une dimension dynamique, et ne pouvait
être convenablement prédite à partir des seules caractéristiques des patients
avant leur mise sous traitement. Ces résultats ont une portée importante, car
ils mettent en garde les cliniciens, ou les autorités de santé publique, contre la
tentation de définir a priori les « mauvais » patients, c'est-à-dire les patients
non-adhérents, auxquels il ne serait pas forcément pertinent de prescrire des
traitements parfois très coûteux (Spire et ai, 2002).

2.3.2 Le croisement des sources : points de vue des


soignés et des soignants

Par leur construction même, les enquêtes auprès des soignés permettent
souvent de recueillir en parallèle des données auprès des patients et de leurs
soignants. La confrontation de ces données peut être très riche
d'enseignements.
3. Enquêtes et santé 91

a) Croiser les sources pour valider un échelle clinique

D'abord, la confrontation des sources peut permettre de tester la validité d'un


outil de mesure issu de la clinique en population générale. En effet,
aujourd'hui, pour estimer la prévalence nationale de tel ou tel problème de
santé, les enquêtes en population générale intègrent de plus en plus des séries
de questions standardisées qui sont en fait des versions très simplifiées de
tests cliniques (censés permettre de mesurer la santé mentale, la dépendance
tabagique, l'abus d'alcool...).
Par exemple, la Drees a réalisé en 2000 une enquête sur la prévalence des
problèmes d'alcool parmi les personnes ayant recours au système de soins un
jour donné, à l'hôpital et en médecine de ville, avec un questionnaire pour le
patient mais aussi un questionnaire pour le médecin, les deux questionnaires
étant appariés. Le croisement de ces deux sources montre qu'il arrive
fréquemment que le diagnostic éventuel d'alcoolisation excessive fait par le
médecin ne coïncide pas avec les résultats des mesures recueillies directement
auprès de son patient (Mouquet et al., 2000).

b) Croiser les sources pour une modélisation jointe des


comportements

Disposer de données sur les soignés et les soignants peut aussi permettre de
procéder à une modélisation jointe de leurs comportements. Par exemple, on
peut étudier de front d'une part les comportements de prescription des
médecins généralistes qui suivent des toxicomanes sous traitement de
substitution, et d'autre part le « nomadisme médical » de ces derniers (c'est-à-
dire leur propension à consulter plusieurs médecins à la suite pour avoir plus
de buprénorphine prescrite), avec donc un système d'équations simultanées.
Les résultats obtenus suggèrent que ce qu'on appelle le « nomadisme
médical » semble être une conséquence du sous-dosage des prescriptions,
plutôt que l'inverse (Feroni et al., 2005).

c) Croiser les sources pour confronter les points de vue

La confrontation des points de vue du soigné et du soignant sur une même


question peut permettre d'éclairer certaines problématiques de la sociologie
de la santé et de la médecine. Par exemple, en interrogeant à la fois le patient
et le médecin à l'issue d'une consultation, il est possible de comparer leurs
perceptions de l'interaction sociale qui s'est nouée à cette occasion,
notamment concernant la clarté de l'information transmise par le médecin au
patient, et son aptitude à répondre aux questions de celui-ci.
On peut aussi comparer le mode de transmission du V1H imputé à un
patient par le médecin et celui que le patient s'attribue lui-même. Dans
l'échantillon VESPA, on constate ainsi que relativement aux médecins les
patients ont tendance à sous-déclarer l'infection par injection de drogue, mode
92 Enquêtes et sondages

de transmission le plus stigmatisé, et à sur-déclarer l'infection par transfusion,


mode de transmission exempt de toute condamnation morale. Les patients ont
aussi plus souvent tendance à envisager plusieurs modes de transmission, ou à
se montrer indécis.
Ces écarts entre déclarations des soignés et des soignants sont révélateurs
d'un travail cognitif, d'une reconstruction par les patients de leur trajectoire
de malade à partir de son point d'origine, sans doute en partie parce que les
patients ont le sentiment que le groupe de transmission qui leur est assigné est
un enjeu identitaire dans leurs rapports avec les soignants, voire pour leur
accès à certains traitements.
De même, l'enquête ALD-Drees permet de confronter le point de vue du
patient atteint d'un cancer sur l'avancée de sa maladie et ce qu'en dit son
médecin, par exemple pour mieux comprendre les conceptions profanes de la
guérison.

Tableau 3.1 : Mode de transmission du VIH selon le


patient et son médecin (VESPA-ANRS 2003)
selon le médecin selon le patient
Homosexuel 1 224 1 055
Injection de drogue 494 356
Hétérosexuel 1 050 958
autre (transfusion) 93 238
Ne sait pas 132 460
Plusieurs 49 157

2.4 Conclusion

Les enquêtes auprès des soignés posent des difficultés spécifiques, et cela à
toutes les étapes de la réalisation d'un sondage : conception du plan de
sondage, phase de recueil des données, analyses statistiques. La résolution de
ces difficultés passe souvent par l'emploi d'outils statistiques sophistiqués,
qui participent au développement des techniques de sondage au-delà du seul
champ de la santé, mais elle s'appuie aussi parfois sur le bon sens et
l'ingéniosité des sondeurs.
Outre ces aspects méthodologiques, les enquêtes auprès des soignés et leurs
outils offrent des opportunités et participent à des grands débats
contemporains en santé publique, comme par exemple l'adhérence et l'accès
aux traitements antirétroviraux, la prise en compte des effets contextuels
longtemps ignorés par l'épidémiologie, ou encore une meilleure compréhen-
sion de la relation thérapeutique qui se noue entre soignés et soignants.

BIBLIOGRAPHIE

Chauvin, P., et Chaix, B. (2002). L'apport des modèles multiniveaux dans


l'analyse contextuelle en épidémiologie sociale : une revue de la littérature.
Revue Epidémiologie et Santé Publique, vol. 50(5), 489-499.
3. Enquêtes et santé 93

Feroni, I., Peretti-Watel, P., Paraponaris, A., Masut, A., Ronfle, E.,
Mabriez, J.C. et Obadia, Y. (2005). French General Practitioners' attitudes
and prescription patterns toward buprenorphine maintenance treatment:
Does doctor shopping reflect buprenorphine misuse? Journal of Addictive
Diseases, vol. 24, n03, 7-22.
Heckman, J. (1976). The common structure of statistical models of truncation,
sample sélection and limited dépendent variables and a simple estimator for
such models. An nais of Economie and Social Measurement, vol. 5, 475-
492.
Le Corroller-Soriano, A.G., Malavolti, L. et Mermilliod, C. (2006). Les
conditions de vie des patients atteints du cancer deux ans après le
0
diagnostic. Etudes et Résultats, n 486, Paris, Drees.
Mouquet, M.C., et Villet, H. (2002). Les risques d'alcoolisation excessive
chez les patients ayant recours aux soins un jour donné. Études et Résultats
n0192, Paris, Drees.
Peretti-Watel, P., Riandey, B., Dray-Spira, R., Bouhnik, A.D., Sitta, R. et
Obadia, Y. (2005). Comment enquêter la population séropositive en
France? L'enquête ANRS-EN12-VESPA 2003. Population, vol. 60, n04,
525-550.
Spire, B., Duran, S., Souville, M., Leport, C., Raffi, F. et Moatti, J.P. (2002).
Adhérence to highly active antiretroviral thérapies (HAART) in HFV-
infected patients: From a prédictive to a dynamic approach. Social Science
& Medicine, vol. 54, no10, 1481-1496.
94 Enquêtes et sondages

3. Enquête de prévalence du VIH et du

VHC, complétée par une recherche

socio-anthropologique chez les usagers

de drogues en France métropolitaine,

2004-2007

6J
Marie JAUFFRET-ROUSTIDE , Yann LE STRAT6,
8 6
Nicolas RAZAFINDRA TSIMA , Julien EMMANUELLI et
6
Jean-Claude DESENCLOS

3.1 Introduction

3.1.1 Contexte

Les usagers de drogues (UD) constituent une population ayant des pratiques
illégales et socialement stigmatisées. Afin de minimiser le risque d'infections
en lien avec l'usage de drogues par voie intraveineuse, une politique de
réduction des risques a été mise en place en France, il y a une dizaine
d'années (Jauffret-Roustide, 2004). Jusqu'à présent, les données de
9
prévalence du VIH et du VHC chez les UD en France étaient issues de
données déclaratives et portaient sur des échantillons non aléatoires. Aucune
estimation de la prévalence du VIH et du VHC portant sur un échantillon
aléatoire d'UD et s'appuyant sur des données biologiques n'était disponible
en France. Il était donc difficile d'évaluer précisément l'importance de ces
deux infections chez les UD et l'impact de la politique de réduction des
risques.
En 2004, l'Institut de Veille Sanitaire (InVS) a initié, après une phase pilote
(Jauffret-Roustide étal., 2006) une enquête de séroprévalence auprès d'UD
(enquête Coquelicot), soutenue par l'Agence Nationale de Recherches sur le
Sida et les Hépatites virales (ANRS) et réalisée en collaboration avec
l'Institut National d'études Démographiques (Ined) et le Centre National de
Référence (CNR) du VIH de Tours. Les objectifs de cette enquête séro-
épidémiologique étaient d'estimer les prévalences du VIH et du VHC chez les
UD à partir de données biologiques, de décrire les caractéristiques
sociodémographiques de la population UD, leurs consommations de produits

6 Département des Maladies Infectieuses (Institut de Veille Sanitaire).


7 Centre de Recherche Psychotropes, Santé Mentale, Société CES AMES (INSERM-
CNRS-Paris 5).
8 Service des enquêtes et sondages (Ined).
9 Virus de l'hépatite C.
3. Enquêtes et santé 95

psychoactifs et leurs modalités et d'identifier leurs pratiques à risque. Un


dispositif de recherche socio-anthropologique a été associé au volet séro-
épidémiologique afin d'explorer certains déterminants psychosociaux de la
prise de risques (réseaux sociaux, représentations des risques, dynamiques liés
à la sexualité,..). L'ensemble du dispositif de recherche avait également
comme objectif pragmatique de contribuer à l'évaluation de la politique de
réduction des risques et notamment son impact différentiel sur le VIH et le
VHC chez les UD.
Afin de répondre à ces objectifs, dans le cadre de l'enquête
épidémiologique, un échantillon aléatoire d'UD a été constitué selon un plan
de sondage que nous décrivons par la suite. Le recueil des données, qui s'est
déroulé de septembre à décembre 2004, comprend un questionnaire socio-
comportemental administré à l'UD par un enquêteur professionnel et un auto-
prélèvement de sang au doigt déposé sur buvard. Le volet de recherche socio-
anthropologique s'est déroulé entre 2005 et 2007.

3.1.2 Défis organisationnels et méthodologiques

L'enquête Coquelicot s'est efforcée de répondre à des défis organisationnels


et méthodologiques. Concernant l'échantillonnage, il s'agissait de mettre en
œuvre la méthode généralisée du partage des poids (Lavallée, 2002) et de
faire accepter le recueil des données d'inventaire par les intervenants des
structures pour la constitution de la base de sondage en limitant la perception
de la recherche comme un regard évaluateur sur leur activité. Concernant la
validité des estimations de prévalences du VIH et du VHC, elle a été
considérablement améliorée par l'obtention de données biologiques grâce à
l'utilisation d'un auto-prélèvement de sang au doigt sur buvard, par rapport à
des données déclaratives. Concernant la fiabilité, la collecte d'informations
sensibles relatives à des comportements stigmatisés (usage de drogues,
pratiques à risque) a été facilitée par le recours à des enquêteurs
professionnels extérieurs aux structures enquêtées.

3.2 Matériel et méthodes

3.2.1 Population d'étude

Les sujets inclus sont des UD volontaires ayant injecté et/ou sniffé « au moins
une fois dans leur vie ». Cette enquête est multivilles (Lille, Strasbourg, Paris,
Bordeaux, Marseille) et le recrutement des UD s'est effectué dans l'ensemble
des services issus de la chaîne thérapeutique spécifique aux UD (Centre de
Soins Spécialisés pour Toxicomanes, Centres de Post-Cure, Appartements
thérapeutiques, Sleep-in, Boutiques, Programmes d'Échange de Seringues,
Equipes de rue) et dans des cabinets de médecins généralistes prescripteurs de
96 Enquêtes et sondages

traitements de substitution aux opiacés. Sur 2 389 UD à qui il a été proposé de


participer, 1 462 UD ont accepté, soit un taux de participation de 61 %.

3.2.2 Plan de sondage

Un plan de sondage stratifié (villes et services/médecins) a été mis en œuvre.


Concernant les services, pour chaque ville, une base de sondage des services
par demi-journée d'ouverture a été constituée. Des couples (services-demi-
journée) basés sur les files actives déclarées par les services ont été tirés au
sort par un sondage aléatoire simple sans remise, permettant de constituer un
calendrier des visites au cours de la période d'enquête. Au sein de chaque
service, les UD étaient tirés au sort de manière aléatoire, à l'exception des
hébergements où tous les UD étaient interrogés. Concernant les médecins, un
sondage en grappe a été appliqué dans chaque ville. Un sondage aléatoire
simple des médecins prescripteurs, avec stratification sur le volume de pres-
cription de traitements de substitution (gros/moyen prescripteurs) a été mis en
place. Puis tous les UD ont été enquêtés chez les médecins tirés au sort.

3.2.3 Aspects éthiques

Pour obtenir des données de séroprévalence, des échantillons biologiques ont


été recueillis auprès des UD interrogés au moyen de l'auto-prélèvement de
sang au doigt sans restitution individuelle des résultats. Les tests utilisés
pouvaient, en effet, être utilisés à des fins épidémiologiques, mais n'étaient
pas validés pour une utilisation à des fins diagnostiques. Les investigateurs se
sont donc engagés à fournir des informations aux UD, par le biais de
brochures et d'affiches, sur l'intérêt de se faire dépister et prendre en charge.
Les enquêteurs ont orienté les UD qui le souhaitaient vers les intervenants
spécialisés afin de favoriser la démarche de dépistage. La Commission
Nationale Informatique et Libertés (Cnil) a été sollicitée, mais a estimé que
notre enquête ne relevait pas de la loi « Informatique et Libertés » de 1978,
car l'enquête ne recueillait aucune information indirectement nominative. Le
Comité Consultatif de Protection des Personnes dans le cadre de la Recherche
Biomédicale (CCPPRB) de Créteil a émis un avis favorable avec « Bénéfice
Individuel Direct » pour l'étude. Le recueil des données a pu alors se dérouler
dans le cadre d'un protocole aménagé conciliant le respect des personnes par
l'information individuelle (lettre d'infonuation personnalisée) et le conseil
aux personnes inclues (brochures et affiches de prévention et orientation vers
les intervenants de la structure en cas de demande de dépistage) ; et l'intérêt
de la santé publique par la réalisation d'une enquête permettant d'obtenir des
informations séro-épidémiologiques jusque-là non disponibles.
En amont de la mise en place de l'enquête, un long travail de sensibilisation
des acteurs de terrain à l'intérêt de l'enquête en termes de santé publique a été
réalisé sur plusieurs mois durant l'année 2004. Cette démarche pédagogique
3. Enquêtes et santé 97

d'explicitation de la méthodologie complexe auprès des acteurs de terrain a


créé les conditions de l'acceptabilité de l'enquête. En aval, l'année 2006 a été
consacrée à la restitution des données auprès des professionnels des services
et des UD afin que les acteurs puissent se réapproprier les données. L'enjeu
était ici pour les chercheurs de concilier les enjeux éthiques et la rigueur
scientifique.

3.3 Analyse statistique

Les estimations ont pris en compte le plan de sondage. Dans un premier


temps, les poids de sondage ont été calculés classiquement à partir des
probabilités d'inclusion de chaque UD. Ces poids ont ensuite été modifiés
pour prendre en compte les fréquentations multiples de certains UD dans les
structures d'accueil au cours de la période d'enquête. Plusieurs questions
posées aux UD concernant les fréquences de visites au cours de l'enquête
dans les différents services ont permis de calculer de nouveaux poids, en se
plaçant dans le cadre théorique de la méthode généralisée du partage des
poids et illustrée, par exemple, dans l'enquête réalisée chez les sans domicile
fixe (Ardilly et Leblanc, 2001). L'analyse statistique a été réalisée sous
STATA 8.2®.

3.4 Apports du volet socio-anthropologique

Le volet socio-anthropologique (Jauffret-Roustide, 2006) de l'enquête avait


pour objectifs d'atteindre des populations difficiles d'accès, d'approfondir
mais aussi d'interroger certains résultats quantitatifs. La méthodologie était
constituée par des entretiens semi-directifs (100) et des observations
ethnographiques sur lieux de consommation et de deal.
Dans le cadre de l'enquête Coquelicot, l'intérêt d'une approche socio-
anthropologique est sa capacité à atteindre des populations difficiles à joindre
voire « cachées ». La partie épidémiologique de l'étude porte sur une
population d'UD relativement « captive » puisque reçue dans les institutions
spécialisées et chez les médecins généralistes de ville. Ces données ne nous
renseignent donc pas sur les populations d'usagers qui ne fréquentent pas ces
dispositifs. Une partie de cette population dite « cachée » est constituée par
des UD qui ne se reconnaissent pas dans une identité « toxicomane ».
L'intérêt de l'entretien non directif est ici de recueillir des données sans
directement nommer les pratiques, ce qui permet d'obtenir des informations
sur ce type d'UD.
La population de l'étude socio-anthropologique n'étant pas connue
précisément au départ, l'échantillon est constitué de manière progressive par
une méthode dite boule de neige. Plusieurs sous-groupes d'usagers ont été
contactés et étudiés, des jeunes (moins de 30 ans), des femmes, et des
étudiants. L'apport d'une approche socio-anthropologique est ici de faire
98 Enquêtes et sondages

émerger des réseaux d'individus qui ne sont pas habituellement captés dans
les études épidémiologiques et qui constituent une partie de la population
cible. La prise en compte de ces sous-populations permet donc d'améliorer la
description des caractéristiques sociodémographiques, des modes de vie et
des pratiques des usagers et potentiellement d'adapter les politiques de
prévention qui leur sont destinées.
Une approche socio-anthropologique permet d'aller au-delà des résultats
quantitatifs de l'enquête épidémiologique en contextualisant socialement les
données recueillies, en travaillant sur les trajectoires des individus, et en
adoptant une approche compréhcnsive de la prise de risques. Une attention
particulière a été accordée à la hiérarchisation des risques pour l'UD et aux
stratégies de préservation de soi. L'utilisation de la technique des récits de vie
donne la possibilité d'interroger l'usager de drogues sur la place qu'occupe le
risque aux différents moments de sa trajectoire de vie, d'étudier les espaces
dans lesquels il consomme des produits psychoactifs, et d'explorer les liens
de proximité entre l'usager et ses partenaires de partage. Les récits des
trajectoires biographiques des individus permettent de repérer les points de
rupture propices à la prise de risques. Cette approche permet d'aller au-delà
du caractère instantané des données recueillies dans le volet épidémiologique.
Il s'agit également d'appréhender dans le temps les changements de normes
comportementales individuelles et collectives en analysant si le discours de la
réduction des risques a été intériorisé et dans quelle mesure il contribue à une
normalisation des comportements et/ou des discours. Aller au-delà des
pratiques déclarées (accessibles par le questionnaire ou l'entretien) en
accédant à des pratiques observées (par le biais d'observations ethnogra-
phiques) permet d'évaluer si cette normalisation des comportements est
ancrée dans les pratiques ou simplement dans les discours.

3.5 Discussion

Cette enquête utilise des aspects statistiques relativement peu utilisés en


épidémiologie (par exemple la méthode généralisée du partage des poids)
mais aussi la confrontation des données obtenues à partir de différentes
techniques d'enquête permettant d'améliorer la connaissance scientifique sur
les savoirs, pratiques et croyances de ces populations vis-à-vis d'infections
telles que le VIH ou le VHC, de comprendre plus finement les déterminants
psychosociaux de la prise de risque chez les UD et de mesurer indirectement
l'impact des politiques publiques destinées aux populations étudiées. Le volet
socio-anthropologique permet de mieux comprendre les raisons d'une
prévalence du VHC élevée par la prise en compte du contexte social et
relationnel de la prise de risque, l'identification des logiques d'action mises
en œuvre par les UD dans des situations définies comme « objectivement à
risque » par l'épidémiologiste.
3. Enquêtes et santé 99

L'épidémiologie, utilisant des outils statistiques en pleine évolution permet


ici de décrire, mesurer et d'accéder dans une certaine mesure à la généra-
lisation alors que la socio-anthropologie permet quant à elle d'approfondir des
données et de comprendre des processus sociaux à partir d'un nombre plus
limité de cas.

BIBLIOGRAPHIE

Ardilly, P., et Le Blanc, D. (2001). Échantillonnage et pondération d'une


enquête auprès de personnes sans domicile : un exemple français.
Techniques d'enquête, 27-1, 117-127.
Jauffret-Roustide, M. (2004). Les drogues : approche sociologique, écono-
mique et politique. Paris, La Documentation française.
Jauffret-Roustide, M., Emmanuelli, J., Barin, F., Quaglia, M., Arduin, P. et
Laporte, A. et al. (2006). Impact of a hanu-reduction policy on HIV and
HCV transmission among drug users. Recent French data - The ANRS-
Coquelicot Study. Substance Use & Misuse, vol. 41, 1603-1622.
Jauffret-Roustide, M., Couturier, F., Le Strat, Y., Barin, F., Emmanuelli, J. et
Semaille, C., et al. (2006). Estimation de la séroprévalence du VIH et du
VHC et profils des usagers de drogues en France, étude InVS-ANRS
Coquelicot, 2004. Bulletin Epidémiologique Hebdomadaire, vol. 33, 244-
247.
Jauffret-Roustide, M. (2006). Sciences sociales et épidémiologie : des
approches méthodologiques qui se complètent, à propos de la question des
pratiques à risque chez les usagers de drogues. Bulletin Epidémiologique
Hebdomadaire, vol. 2/3, 21-23.
Lavallée, P. (2002). Le sondage indirect ou la méthode généralisée du
partage des poids. Paris, Éditions de l'Université de Bruxelles, Ellipses.

4. Les nouveaux développements dans les

enquêtes sur la santé au Canada

10
Michelle SIMARD et Johane DUFOUR

4.1 Introduction

Dans les années 1990, Statistique Canada (SC) a reçu le mandat d'augmenter
l'information recueillie sur la santé des Canadiens. Il s'agissait de répondre au
besoin grandissant en ce qui a trait aux données sur l'état de santé, les
déterminants de la santé et l'utilisation du système de soins de santé. Ce

10 Statistique Canada 16-N, R.-H. Coats, 100 Promenade Tunney's Pasture, Ottawa,
Ontario, Canada, Kl A 0T6.
100 Enquêtes et sondages

mandat avait pour but d'informer les différents paliers de gouvernement, la


communauté de chercheurs et les professionnels de la santé.
En 1994, SC a lancé une première Enquête longitudinale sur la santé de la
population (ENSP) afin de suivre un panel de 17 000 personnes tous les deux
ans et pour une durée de 20 ans. Le but est de suivre l'évolution de l'état de
santé des Canadiens et les déterminants de la santé (Tambay étal, 1995). A
ses débuts, l'ENSP joue un rôle longitudinal et transversal. Quoique cette
enquête soit une excellente source d'information, la taille de l'échantillon est
insuffisante pour déceler des différences pour l'état de santé pour les régions
sous-provinciales, de même que pour des populations spécifiques. En 2000,
après son 4ecycle, l'ENSP délaisse son rôle transversal.
En 1999, SC mène des consultations auprès d'intervenants clés afin de
cerner les besoins en matière de données. Elles permettent d'établir les
exigences qui ont dicté le développement de l'Enquête sur la santé dans les
collectivités canadiennes (ESCC). SC se doit de développer un instrument
flexible qui permet de produire des estimations transversales pour les régions
sociosanitaires (RSS). L'enquête doit aussi répondre à trois besoins : un
contenu commun qui s'adresse à tous, un contenu optionnel adapté aux
besoins des régions et un contenu thématique. Par sa flexibilité, l'ESCC doit
offrir la possibilité d'augmenter la taille de l'échantillon, d'élargir le contenu
et de servir de véhicule pour la collecte sur des phénomènes émergents.
L'ESCC comprend deux enquêtes transversales formant un cycle bisannuel
répétitif. La première enquête du cycle (régionale) est conçue pour recueillir
des données auprès d'un échantillon de 130 000 répondants pour produire des
statistiques pour près de 130 RSS. La deuxième enquête (provinciale) est
conçue pour fournir des estimations provinciales sur une thématique à partir
de 30 000 répondants. Plusieurs thématiques ont été abordées jusqu'à
maintenant notamment la santé mentale et le bien-être, la nutrition et en 2008,
vieillir en santé. Après six années d'existence, l'ESCC fait l'objet d'une
refonte (Béland et al., 2005).
Une nouvelle enquête, l'Enquête canadienne sur les mesures de la santé
(ECMS) lancée en 2007, obtient en plus d'administrer un questionnaire sur la
santé, des mesures directes prises aux cliniques mobiles de SC. On procède
aussi à un examen de santé bucco-dentaire pour étudier les relations entre la
santé bucco-dentaire et certains états de santé suscitant des inquiétudes. En
outre, on prélève des échantillons de sang et d'urine pour le dépistage de
maladies infectieuses, de problèmes de nutrition et dépister des marqueurs
environnementaux. L'ECMS engendre de nouveaux défis que ce soit au
niveau de l'infrastructure de collecte, de la confidentialité, de la sécurité des
lieux, du transfert des données, de la vie privée, des cliniques ou encore des
hivers canadiens... . Une étude pilote, réalisée en 2004, a démontré que les
Canadiens étaient prêts à participer à une telle enquête.
3. Enquêtes et santé 101

Les données administratives (la base de données sur la morbidité


hospitalière au Canada et le Registre canadien du cancer) viennent compléter
ce tableau. La mise en commun de ces données et celles d'enquêtes génère
une richesse d'information inégalée.

4.2 Enquête sur la santé dans les collectivités

canadiennes

Pour alléger le texte, on référera aux cycles x.l pour dénoter la composante
régionale de l'ESCC et aux cycles x.2 pour la composante provinciale. Les
périodes de collecte durent un an et alternent sur une base annuelle. Les
cycles x.l coïncident avec les années impaires et les cycles x.2 avec les
années paires. Ainsi, le cycle 1.1 a débuté en 2001, puis le cycle 1.2 en 2002,
etc. Le plan de sondage est un plan complexe, à bases multiples, avec un
échantillonnage en grappes stratifié à plusieurs degrés (Béland et al, 2000).

4.2.1 Demandes prioritaires : soudaines et


grandissantes

Durant les trois premiers cycles d'existence de l'ESCC (x.l), le plan de


sondage de l'enquête a dû être adapté pour répondre aux demandes
émergentes. Les types de modifications étaient nombreuses : augmentation
des tailles d'échantillon, utilisation de nouvelles bases de sondage, enquêtes
supplémentaires, estimations pour de petits domaines, nouvelles limites
géographiques des RSS, etc.
L'instrument de collecte de l'ESCC était également flexible afin de
répondre aux priorités des RSS. Pour relever ce défi, l'ESCC ne pouvait
adopter qu'une seule version d'un questionnaire. A l'intérieur des 45 minutes
d'interview, les responsables des RSS pouvaient choisir 10 minutes de
contenu optionnel provenant d'une liste prédéterminée de modules. Le reste
de l'interview consistait en un contenu commun pour tous les répondants,
défini comme prioritaire suite à des consultations. Durant la collecte du cycle
1.1, un nouveau module a pu être ajouté au dernier trimestre de collecte en
réponse aux besoins urgents exprimés par les ministères de la santé. En
parallèle, une enquête supplémentaire s'est greffée à l'ESCC et on a
également inséré une enquête spéciale auprès d'un sous-échantillon. L'ESCC
a bien réussi à relever le défi qu'on lui avait lancé en matière de flexibilité.
Toutefois, il restait encore à créer un cadre mieux structuré et une gestion plus
efficace causés en fait par cet engouement de flexibilité.
102 Enquêtes et sondages

4.2.2 Développement du cycle 4.1 : augmenter encore


plus la flexibilité !

Malgré les ajustements apportés au plan initial, l'ESCC demeurait toujours


sous la pression des demandes. Dans le but d'améliorer et d'augmenter
l'efficacité et la flexibilité des cycles x.l, une refonte du plan a été proposée.
Trois points essentiels ont été identifiés : l'adoption d'une collecte continue,
une révision de la structure du questionnaire et une analyse approfondie de la
stratégie de diffusion des données.
Afin de stabiliser l'infrastructure de collecte de SC, l'ESCC a opté pour une
collecte continue. Une collecte sans aucune interruption entre les cycles x.l,
combinée avec un échantillonnage par panels, permet de mieux répondre aux
nouvelles demandes. Cette continuité permet de réaliser une enquête
régionale sur une base continue et non plus aux deux ans puisque l'ESCC a
une présence constante dans les régions. De plus, il devient plus facile
d'utiliser l'ESCC comme véhicule pour des enquêtes supplémentaires.
L'ajout de questions filtres identifiant des populations peut aussi être implanté
plus facilement. La collecte continue permet de stabiliser les tâches des
intervieweurs et de réduire les périodes de pointe et les périodes creuses.
Avec l'introduction du cycle 4.1, on a mis en place un plan
d'échantillonnage basé sur un échantillon de panels, non chevauchants et
d'une périodicité de 6 mois, qui peuvent être cumulés sur différentes périodes
de temps. Par exemple, après 6 mois de collecte, l'échantillon est représentatif
à l'échelle des RSS. Pour certaines RSS, il est possible d'obtenir des
estimations fiables après 6 mois, pour d'autres, il faut attendre 12 mois ou
même 24 mois.
L'objectif principal de la refonte du questionnaire était de pouvoir assurer
pour chaque année l'inclusion d'éléments du contenu commun qui sont soit
requis sur une base continue ou soit comme covariables dans les analyses.
Tous les autres éléments ont été identifiés comme pouvant être recueillis via
des modules optionnels. La nouveauté de ces modules repose sur leur
propriété d'être présents sur le questionnaire pour des périodes variables : 6,
12 ou 24 mois selon les besoins. Cette structure engendre une plus grande
flexibilité pour les RSS pour modifier du contenu, mais elle permet surtout à
l'ESCC de s'adapter aux demandes prioritaires soudaines.
Pour la diffusion des données, la refonte envisage de modifier la façon de
procéder en diffusant des produits plus fréquemment. L'ESCC pourrait
produire des tableaux et un fichier de microdonnées anonymisées six mois
suivants le 12e et le 24e mois de collecte. Après 24 mois, deux ensembles de
produits seraient diffusés : les thèmes des contenus recueillis aux mois 13 à
24 en plus des éléments communs. Le deuxième comprendrait tous les thèmes
recueillis sur les 24 mois, ainsi que les éléments communs et tous les modules
3. Enquêtes et santé 103

optionnels recueillis sur la période de 24 mois. Les fichiers de microdonnées à


grande diffusion (FMGD) ne seraient produits qu'à la fin du cycle.
Un autre défi est la pondération pour les différentes structures de contenu et
des produits de diffusion. Le poids final est le poids maître associé au fichier
de microdonnées de tous les répondants (poids individu). Mais en plus, il faut
produire un poids ménage, un poids pour le ficher partage (c'est-à-dire un
fichier contenant les données des répondants ayant accepté de partager avec
nos partenaires), un poids pour le fichier d'appariement (c'est-à-dire un
fichier contenant les données des répondants ayant accepté que leurs données
soient appariées), un poids pour le FMGD et un poids pour tous les sous-
échantillons. Il faut aussi détenuiner les poids pour l'estimation de variance à
l'aide du bootstrap. Si on préconise une stratégie de production à tous les 6
mois, la cohérence des pondérations devient un enjeu important.

4.2.3 Les défis des composantes provinciales de


l'ESCC

En 2002, le Programme des statistiques de la santé lance le premier volet


provincial de l'ESCC. L'Enquête sur la santé mentale et le bien-être (Béland
étal., 2001), ou cycle 1.2, a pour but principal de déterminer les taux de
prévalence de certains désordres mentaux au Canada. Le plan de sondage fait
appel à un plan d'échantillonnage en grappes stratifié à plusieurs degrés
utilisant également la base de sondage aréolaire conçue pour l'Enquête sur la
population active (EPA). La taille de l'échantillon est de 30 000 répondants.
Les défis pour cette enquête relèvent plutôt du développement de l'instrument
de collecte ainsi que de la formation des intervieweurs, de la durée des
interviews et de la possibilité d'une réceptivité négative. Pour relever un tel
défi, le développement du questionnaire s'est basé sur celui de l'Enquête
mondiale sur la santé mentale 2000. SC a également fait appel à des experts
du sujet, et plusieurs essais cognitifs ont eu lieu. La fonuation des
intervieweurs était un élément clé pour la réussite de cette enquête. Pour aider
les interviewers durant les interviews, des experts en santé mentale offraient
leur support.
En 2004, l'Enquête sur la nutrition (Béland et al, 2003), ou cycle 2.2, vise à
fournir une information fiable et d'actualité sur l'apport alimentaire et le bien-
être nutritionnel des Canadiens, de même que sur leurs détenuinants clés afin
d'orienter les programmes et les politiques des différents paliers de
gouvernement. Le questionnaire a été conçu avec la collaboration de
spécialistes provenant de SC, Santé Canada, du « United States Department of
Agriculture » (USDA) et des experts en nutrition. L'instrument de collecte de
l'USDA a dû être adapté au marché canadien dans les deux langues
officielles. Il s'agissait de l'application Interview assistée par ordinateur
(IAO) la plus complexe utilisée à SC.
104 Enquêtes et sondages

Un échantillon de 35 000 personnes a été sélectionné à partir de quatre


bases de sondage : la base aréolaire de l'EPA, une liste de logements du cycle
2.1 et deux registres de santé. Il fallait recourir à autant de bases pour garantir
le nombre minimum de personnes requis dans chaque domaine. Les 35 000
répondants devaient se soumettre à un rappel alimentaire individuel de 24
heures pour recueillir de l'information sur tous les aliments et boissons con-
sommés au cours des 24 heures précédant la journée de l'interview. Pour éva-
luer la variabilité interpersonne, 10 000 répondants étaient contactés par télé-
phone pour un deuxième rappel de 24 heures. Durant cette enquête, les
intervieweurs prélevaient également des mesures anthropométriques (taille et
poids).
En 2006, la composante provinciale a cédé son budget à l'Enquête
canadienne sur les mesures de la santé. En 2008, la thématique sera : vieillir
en santé ! Les objectifs de cette enquête consistent à examiner les liens entre
le vieillissement en santé et différentes caractéristiques, de collecter des
données sur l'utilisation des soins de santé et sur les limitations d'activités,
ainsi que les défis associés au fait de vieillir.

4.3 Enquête canadienne sur les mesures de la

santé

L'Enquête canadienne sur les mesures de la santé (ECMS) recueille non


seulement de l'information sur la santé des Canadiens âgés entre 6 et 79 ans,
mais le fait d'une manière innovatrice : par des mesures physiques prises
directement des répondants dans des cliniques mobiles. Cette information
servira à créer la première base de données nationale sur l'ampleur réelle des
problèmes de santé tels l'hypertension et l'exposition aux maladies
infectieuses ainsi qu'aux contaminants environnementaux. L'ECMS est la
première enquête d'envergure au Canada qui effectuera un ensemble de tests
et de mesures physiques aussi approfondis, détaillés et complets.
Le plan de sondage de l'ECMS est un plan complexe à trois degrés. Tout
d'abord étant donné l'utilisation de cliniques mobiles, le Canada est divisé en
sites de collecte (257) selon des distances raisonnables pour les répondants.
Ces sites sont créés selon la géographie de la base aréolaire de l'EPA. Après
avoir sélectionné les sites (Giroux, 2007), les données du Recensement de
2006 sont utilisées pour obtenir les compositions des logements selon leur
nombre de personnes par groupe âge-sexe. Après avoir stratifié et sélectionné
les logements, on choisit une ou deux personnes par ménage. L'ECMS vise à
obtenir des estimations nationales à l'aide d'un échantillon de 5 000
Canadiens répartis sur 15 sites de collecte.
Après avoir complété une interview en personne à la maison, les répondants
sont invités à se rendre à la clinique d'examen mobile (CEM) de SC. Le CEM
demeurera dans un site de collecte sélectionné (15 au total) pour une période
3. Enquêtes et santé 105

d'environ six semaines. La collecte est possible grâce à 30 intervieweurs et


cliniciens qui voyageront pendant deux ans. Les mesures directes incluent une
panoplie de tests et d'évaluation de la forme physique, de mesures diverses en
plus des prélèvements de sang et d'urine. Ces échantillons seront analysés par
trois laboratoires, et ensuite préservés dans un centre d'entreposage
biologique de l'ECMS. Le répondant recevra un bilan de santé préliminaire à
partir des tests effectués à la clinique. Lin rapport des tests faits en laboratoire
suivra.

4.3.1 Logistique, informatique et confidentialité

Toute collecte faite par ordinateur à SC requiert une transmission sécuritaire


encryptée du Bureau central aux intervieweurs et vice-versa. Le fait de fournir
un rapport aux répondants dans un court laps de temps a demandé un nombre
d'ajouts important aux procédures, aux protocoles et à tous les processus de
transmission.
Un autre exemple de défi pour SC est l'envoi des spécimens aux
laboratoires, et leur suivi avec comme seuls identificateurs des codes-barres.
Les spécimens, identifiables seulement par SC, représentent de l'information
hautement confidentielle recueillie sous la Loi sur la Statistique. En plus, ces
échantillons doivent être transportés sous certaines conditions pour être
utilisables et analysables.
Le centre d'entreposage de l'ECMS a demandé une implantation très
prudente. Un échantillon représentatif de spécimens biologiques peut
représenter une ressource inestimable pour la santé publique et la recherche
en général. Le centre doit préserver la confidentialité et la vie privée des
répondants, il doit reconnaître le caractère limité de cette ressource et
n'approuver que des projets de recherche respectant l'esprit de consentement
signé par les répondants.

4.3.2 Éthique, vie privée et législations

Plusieurs des défis de l'ECMS soulèvent des enjeux sociaux reliés à l'éthique
et à la vie privée. Ces enjeux requièrent pour une première fois, qu'une
enquête de SC soit revue par un conseil externe d'éthique de recherche. De
plus, des rencontres régulières avec le Bureau du commissaire à la vie privée
du Canada ont été nécessaires. Des discussions sur les enjeux sociaux, de la
vie privée et d'éthique biologique ; particulièrement ceux reliés à la génétique
ainsi que les recherches sur les génomes, sont en pleine évolution. Il faut
trouver un équilibre entre la collecte de spécimens et son utilisation.
Au Canada, certaines maladies infectieuses, si elles sont identifiées durant
un examen médical, doivent être légalement rapportées aux autorités de la
santé publique. Ces lois provinciales entrent en conflit avec la Loi de la
Statistique qui préserve la confidentialité des données du répondant.
106 Enquêtes et sondages

Légalement, la Loi de la Statistique a préséance sur les lois de santé publique.


Néanmoins, l'ECMS a pu respecter les deux lois en demandant la penuission
aux répondants de partager les résultats des tests avec les autorités de santé.
Sans le consentement, les tests ne sont pas effectués.

4.3.3 Défis méthodologiques

Un défi méthodologique découle de l'ampleur et de la complexité de la


logistique. En effet, cette dernière a souvent été mise en priorité au détriment
de la robustesse et l'efficacité du plan de sondage. Idéalement, l'enquête
aurait sélectionné plus de 30 sites de collecte pour obtenir des estimations
robustes. Il est sans contredit que les coûts auraient été faramineux. Il faudra
donc choisir des méthodes robustes pour analyser les données obtenues étant
donné le petit nombre d'unités répondantes espérées.
Un autre défi concerne la non-réponse. On estime à environ 35 % la perte
d'échantillon entre le ménage et la clinique (environ 3 000 unités). Il faudra
alors recourir à des méthodes d'imputation massive de variables-clés de la
composante clinique pour ces unités qui auront répondu uniquement à la
composante ménage. Les méthodes d'estimation à deux phases seront aussi
analysées. La méthode d'ajustement pour la non-réponse devra être robuste
étant donné le plan de sondage et les différents niveaux de non-réponse
possibles. Une méthode de construction de groupes homogènes de réponse
basée sur des modèles (Simard et al, 2003) sera étudiée. Une série
d'ajustements en cascade, tenant compte de l'incidence sur l'estimation de la
variance à l'aide du bootstrap, est à prévoir.
De plus, l'analyse de certains contaminants environnementaux est trop
coûteuse pour être effectuée auprès des 5 000 répondants. En conséquence,
des sous-échantillons ont été identifiés. Un nouveau poids devra être produit.
De plus, dès le début du projet, il était entendu que pour démontrer la
faisabilité de ce genre d'enquête et pour permettre au grand public d'avoir
accès aux données, un FMGD serait produit. Plusieurs évaluations et défis
sont à prévoir.

4.4 Défis futurs

À cette liste de tous ces défis viennent s'ajouter ceux des autres enquêtes sur
la santé, les données administratives et les données déjà diffusées. SC doit
continuer à mettre en œuvre des ateliers et des cours pour aider les utilisateurs
à mieux gérer et comprendre tout ce volume d'information. De plus, plusieurs
d'entre-eux désirent intégrer les données des cycles d'enquête afin de réaliser
des analyses plus détaillées. De plus, on recourt à l'estimation sur des petits
domaines pour obtenir les estimations voulues et la recherche se poursuit en
ce sens. Il faut aussi poursuivre les travaux de recherche en ce qui a trait à
l'analyse de données longitudinales. L'ENSP a diffusé six cycles de données ;
3. Enquêtes et santé 107

il faut donc continuer à travailler avec les utilisateurs pour utiliser ces
données à bon escient. Finalement, la capacité analytique des données
administratives n'est pas à négliger et plusieurs travaux de recherche ont
débuté en ce sens.
Le Programme des statistiques sur la santé est de toute évidence encore en
pleine évolution et poursuit l'envol amorcé au début des années 2000. Les
défis sont nombreux et inusités sollicitant réflexion et créativité de la part des
participants aux différents projets. SC a démontré un leadership certain face
aux nombreux défis du Programme et espère continuer à répondre le plus
efficacement possible aux besoins des partenaires, anciens et nouveaux.

BIBLIOGRAPHIE

Béland, Y., Dale, V., Dufour, J. et Hamel, M. (2005). The Canadian


Community Health Survey: Building on thc Success from the Past. Actes de
la conférence de VAmerican Statistical Association, Section sur la
recherche en méthodes d'enquêtes, 2738-2746.
Béland, Y., et Dufour, J. (2000). Le développement de l'Enquête sur la santé
dans les collectivités canadiennes. Article présenté aux Journées de
Méthodologie Statistique de l'Insee.
Béland, Y., Dufour, J. et Gravel, R. (2001). Sample Design of the Canadian
Mental Health and Wellbeing Survey. Actes de la conférence de la Société
Statistique du Canada, 93-98.
Béland, Y., Dufour, J., MacNabb, L. et Pierre, F. (2003). Sample Design of
the 2004 Canadian Nutrition Survey. Actes de la conférence de la Société
Statistique du Canada, 91-96.
Giroux, S. (2007). Survol de la stratégie de l'échantillonnage de l'Enquête
canadienne sur les mesures de la santé. Rapports sur la santé, Ottawa,
Statistique Canada (en impression).
Simard, M., Leesti, T. et Denis, J. (2003). Dépistage et ajustement de non-
réponse pour l'Enquête longitudinale auprès des immigrants au Canada.
Article présenté au Symposium 2003 de Statistique Canada.
Tambay, J.-L., et Catlin, G. (1995). Plan d'échantillonage de l'Enquête
nationale sur la santé de la population. Rapports sur la santé. Statistique
Canada, Cat. No. 82-003, vol. 7(1), 33-42.
108 Enquêtes et sondages

5. Événements de vie et santé : principes

et méthodes

11
Catherine CAVALIN

5.1 Introduction

L'enquête Événements de vie et santé (EVS), réalisée par la direction de la


Recherche, des Etudes, de l'Evaluation et des Statistiques, Drees12, en
partenariat avec l'Institut national de la statistique et des études économiques
(Insee), cherche à établir des liens signifiants entre les violences subies (vols,
cambriolages et dégradations de biens, violences verbales, physiques,
sexuelles, morales et psychologiques), l'état de santé (présent et passé) et les
difficultés (affectives, matérielles, familiales...) rencontrées au cours de la vie
entière. Elle a permis d'interroger 10 000 personnes en 2005-2006, avec un
taux de réponse de 73 %. Il s'agit ici de rendre compte des principes retenus
pour la construction du questionnaire et des méthodes de collecte innovantes
adoptées.

5.2 Principes retenus

5.2.1 Objectif ; une meilleure connaissance des liens


entre violences et santé

« Le Rapport mondial sur la violence et la santé (pour la version intégrale,


voir Krug et al, 2002), qui déplore le manque de données propres à permettre
la mesure des violences, est le point de départ de l'enquête EVS. »
Pour mieux connaître les liens entre violences et santé au sein des ménages
« ordinaires » (donc sans cibler une population particulière a priori), les
enquêtés âgés de 18 à 75 ans ont été sélectionnés de la manière la plus
aléatoire possible au sein des ménages, après tirage de leurs logements dans
l'échantillon-maître de l'Insee.

5.2.2 Assumer la normativité des notions de violence et


de santé

Une réflexion pour essayer de donner un contenu objectif à la notion de


violence apparaît rapidement vaine. Rechercher l'objectivité en limitant la
violence à son expression physique semble très réducteur et ignore l'idée,

11 Direction de la Recherche, des Etudes, de l'Evaluation et des Statistiques, Drees.


12 Ministère du Travail, des Relations sociales, de la Famille et de la Solidarité, ministère
de la Santé, de la Jeunesse, des Sports et de la Vie associative, ministère du Budget, des
Comptes publics et de la Fonction publique.
3. Enquêtes et santé 109

beaucoup plus étendue que celle de blessure (au sens traumatologique du


terme), d'une « atteinte à l'intégrité de la personne ».
Pour cette raison, le questionnaire d'EVS aborde les violences de type
« atteintes aux biens » (même non accompagnées d'atteintes directes sur la
personne), les violences verbales, physiques, sexuelles, morales et
psychologiques.
La perception de la violence étant subjective, il faut s'efforcer d'encadrer au
mieux la subjectivité des répondants, sans leur parler de « violence » ou
d'« agression », et en décrivant concrètement des gestes ou des types de
situations ne faisant pas intervenir des connotations de douleur ou de
gravité13.
En matière de santé, la mesure est aussi affaire de normes. Après le choix
d'une exploration multidimensionnelle (santé physique, fonctionnelle,
mentale, comportements « à risque ») et couvrant la vie entière des enquêtés,
le questionnaire a suivi celui de quelques outils particuliers de mesure, à
savoir quelques questionnaires standardisés de santé, en assignant à ceux-ci
des objectifs limités et réalistes.

5.2.3 Prendre en compte le contexte biographique

Les liens entre violences subies et santé sont complexes, si bien qu'il a paru
indispensable de réserver une place importante aux aspects biographiques. En
la matière, le questionnaire d'EVS est centré sur les événements tels que
décès, maladies graves, tentatives de suicide, suicides, alcoolisme ou
consommation de drogues illicites dans l'entourage, séparation des parents,
violence éventuelle entre ceux-ci,... ces situations pouvant former une caisse
de résonance aux relations entre violences et santé.

5.3 Méthode et protocole de collecte

5.3.1 Dans la construction du questionnaire

a) De la progressivité (si tant est qu'elle est possible)

Beaucoup de questions contenues dans le questionnaire EVS ont un caractère


intime. Autant que faire se peut, les questions avancent donc dans un ordre
qui va a priori crescendo dans le degré de sensibilité. La tâche est plus ardue
à faire qu'à dire : si l'on peut supposer que les rapports sexuels forcés
revêtent toujours pour leur victime un caractère grave et rendent donc la

13 Stratégie redevable à l'Enquête nationale sur les violences envers les femmes
(ENVEFF), réalisée par l'Institut national d'études démographiques (Ined) et l'Institut
de démographie de l'université Paris-I (IDUP) en 2000, cf. Jaspard et al. (2003).
110 Enquêtes et sondages

parole difficile, il est en revanche impossible d'estimer par avance si un


« simple » cambriolage est source de traumatisme.

b) Un questionnaire auto-administré par ordinateur avec interface


audio

L'idée de placer une bonne partie des questions de l'enquête en mode auto-
administré pouvait sembler pertinente, puisque beaucoup d'entre elles sont
a priori sensibles. Mais à défaut de pouvoir laisser les enquêtés répondre
longuement seuls, du fait d'une possible lassitude, un auto-questionnaire
directement réalisé sur l'ordinateur portable des enquêteurs14 a été conçu,
pour les questions sur les comportements sexuels, la consommation d'alcool
et de drogues illicites. Un tel questionnaire permet une meilleure adaptation
aux enquêtés illettrés, aidés dans leurs réponses par une voix lisant les
questions affichées à l'écran, et assure des conditions de confidentialité très
manifestes, pour améliorer la sincérité des réponses.

c) Des choix à opérer pour traiter la polyvictimation

La polyvictimation désigne la survenue de plusieurs violences pour une même


victime, que celles-ci soient ou non simultanées. Il faut donc à la fois tracer
les frontières entre les événements pour prendre une connaissance exacte de la
nature de chacun d'eux et éviter d'interroger inutilement les répondants à
plusieurs reprises sur un seul et même fait.
Dans EVS, lorsque plusieurs violences d'un même type se sont produites
dans les deux années précédentes, c'est le dernier événement qui est interrogé
plus précisément (circonstances, conséquences, comportement de la victime).
Et dès qu'une violence d'un type donné est déclarée, son association avec
d'éventuelles violences d'un autre type est repérée, de même qu'est posée une
question visant à savoir si le fait en question ne recoupe pas un événement
violent déjà questionné précédemment.

d) Choisir des périodes de référence pertinentes

Les enquêtes de victimation interrogent les répondants sur des périodes


courtes (rarement plus de deux ans en arrière), lorsqu'il s'agit de recueillir des
informations détaillées sur les violences subies. La période détaillée par EVS
couvre deux années en amont de la date de l'entretien, période assez courte
pour obtenir des informations factuelles fiables et préférable à une seule

14 Ordinateur sur lequel les questionnaires se déroulent grâce à une programmation avec le
logiciel Biaise et dans renvironnement propre à l'application Capi (Computer assistcd
Personal interview). Sur des sujets tels que la violence, la sexualité, la consommation
d'alcool, de drogues illicites..., la sincérité des réponses délivrées en mode auto-
administré par ordinateur fait débat. Pour avoir un aperçu des arguments à ce propos,
cf. : MacMillan et al. (2006) et Rogcrs et al. (1999).
3. Enquêtes et santé 111

année pour pouvoir disposer d'effectifs de victimes suffisants sur les


violences les plus rares, celles-ci devenant alors statistiquement exploitables.
Une interrogation plus rapide des mêmes violences survenues depuis la
naissance jusqu'à l'année n - 2 fait suite à ce questionnaire détaillé.

5.3.2 Un protocole de collecte spécifique à l'enquête

Le besoin des enquêteurs de trouver des soutiens pour une collecte anticipée
comme difficile a rejoint la nécessité de la prudence dans la méthode. C'est
ainsi que se trouvent détaillés, dans le cahier d'instructions confié aux
enquêteurs : la manière d'annoncer l'enquête (pourquoi parler de « violence »
biaiserait-il le recrutement des enquêtés ?), l'isolement des enquêtés (quelles
dérogations éventuelles admet ce principe sur de tels thèmes de question-
nement ?), l'approche possible du document à distribuer aux enquêtés en fin
d'entretien, comportant des numéros de téléphone de recours (comment, sans
transformer les enquêteurs en travailleurs sociaux, leur permettre d'adopter
une position déculpabilisée et efficace pour aider les personnes en
difficulté ?), l'éventualité d'avoir à affronter des dilemmes à la frontière de
questions morales et juridiques (possible contradiction entre l'alinéa 2 de
l'article 40 du code de procédure pénale et le secret professionnel défini par
les articles 226-13 et 226-14 du code pénal, lorsque l'on se trouve dépositaire
de la révélation de crimes ou de délits).

5.3.3 Des dispositifs connexes : accompagnement


psychologique de la pratique professionnelle des
enquêteurs et de leurs formateurs, numéro vert
EVS

C'est aussi la « délicatesse » du travail de terrain qui a conduit à :


- mettre en place un numéro vert d'information, de secours et
d'orientation propre à l'enquête pour tous ceux, enquêtés, enquêteurs
et leurs formateurs qui, pendant une durée de six mois à compter du
début de la collecte, ressentiraient le besoin de parler, de poser des
questions, pratiques ou non, au sujet de tous les thèmes abordés dans
le questionnaire. Psychologues, juristes, médecins, travailleurs
sociaux... habitués à ce type d'écoute téléphonique ont donc pu
répondre à ceux qui souhaitaient poursuivre l'entretien occasionné
par EVS ;
- proposer aux enquêteurs et à leurs formateurs des séances
d'accompagnement psychologique de leur pratique animées par des
psychologues cliniciens. Ceux-ci ont été recrutés pour leur expérience
de ce genre de travail auprès de professionnels dont la pratique se
déploie sur des terrains psychologiquement éprouvants et
112 Enquêtes et sondages

susceptibles de fragiliser l'exercice même de leur profession


(soignants ou travailleurs sociaux par exemple).

Des éléments de bilan de ces dispositifs d'accompagnement peuvent être


tirés, qui montrent tout l'intérêt qu'il a présenté et permettent de réfléchir aux
possibles modifications qui pourraient y être apportées pour la réédition d'une
opération du même genre.

5.4 Conclusion

Au début des années 2000, le manque de données portant sur plusieurs des
sujets sensibles abordés par EVS était patent. Aujourd'hui, alors que les
résultats ont commencé d'être publiés et que l'exploitation des données
d'EVS se poursuit sur des sujets divers, que permettent d'aborder les
multiples facettes du questionnaire, l'heure est venue de faire d'utiles
comparaisons : avec les enquêtes de santé en population générale, avec
l'ENVEEE et avec l'enquête de victimation de l'Insee, désormais annuelle et
réalisée sur de grands échantillons.

BIBLIOGRAPHIE

Jaspard, M., Brown, E., Condon, S., Fougeyrollas-Schwebel, D., Houel, A.,
Lhomond, B., Maillochon, F., Saurel-Cubizolles, M.-J. et Schiltz, M.-A.
(2003). Les violences envers les femmes en France. Une enquête nationale,
Paris : la Documentation française.
Krug, E.G., Dahlberg, L.L., Mercy, J.A., Zwi, A. et Lozano-Ascensio, R.
(dir.) (2002). Rapport mondial sur la violence et la santé, Genève :
organisation mondiale de la santé.
MacMillan, H.L. et al (2006). Approaches to screening for intimate partner
violence in health care settings. A randomized trial. Journal of the American
Médical Association, vol. 296, n0 5, August 2, 530-536.
Rogers, S.M., Gribble, J.N., Turner, C.F. et Miller, H.G., (1999). Entretiens
auto-administrés sur ordinateur et mesure des comportements sensibles.
Population, vol. 54 (2), 231-250.
3. Enquêtes et santé 113

6. Le recours à un répondant Proxy

importe-t-il dans les enquêtes sur la

santé ?

15 16
Bérengère DAVIN , Xavier JOUTARD ,
17 18
Alain PARAPONARIS et Pierre VERGER

6.1 Introduction

Les enquêtes en population générale portant sur la santé des individus se


heurtent le plus souvent à la difficulté d'interroger les personnes les plus
malades, qui sont pourtant au cœur même de la population qu'elles cherchent
à cibler. L'éviction par l'enquêteur des personnes dans l'incapacité de
répondre pour des raisons de santé ou le refus des enquêtés de répondre pour
les mêmes raisons introduisent des biais, respectivement de sélection ou de
participation. Une option couramment employée, afin d'obtenir tout de même
une information sur la santé des individus enquêtés, consiste à recourir à un
répondant proxy, recruté dans l'entourage des personnes interrogées.
Implicitement, il est ainsi supposé que le biais d'estimation qui en résulte est
moins fort que celui qui existerait si seules les réponses des personnes en
bonne santé étaient considérées. Mais, qu'il s'agisse d'enquêtes sur la
consommation de soins, les limitations fonctionnelles ou leurs conséquences
lors de la réalisation d'activités de la vie quotidienne (Todorov étal, 2000 ;
Desai étal, 2001), l'intégration du statut du répondant (la personne
interrogée elle-même ou un répondant proxy) s'y limite le plus souvent à
l'introduction d'une variable indicatrice dans les modèles estimés. Dans la
mesure où le recours à un proxy est expliqué par les mêmes arguments que
ceux liés à l'état de santé, une telle pratique présente un risque évident
d'endogénéité qui demande à être correctement traité.
Nous proposerons ici une modélisation prenant spécifiquement en compte
le mode de collecte de l'information dans l'analyse de la non-satisfaction du

15UMR Inserm 912 et Observatoire Régional de la Santé PACA, Marseille, davin@


marseille.inserm.fr.
16 Faculté de Sciences Économiques et de Gestion (Université de la Méditerranée) et
GREQAM-EHESS-CNRS, Marseille, xavier.joutard@univmcd.fr.
17 Faculté de Sciences Économiques et de Gestion (Université de la Méditerranée), UMR
Inserm 912 et Observatoire Régional de la Santé PACA, Marseille, paraponaris@
marscille.inscnTi.fr.
18 UMR Inscnu 912 et Observatoire Régional de la Santé PACA, Marseille,
verger@marseille.inserm.fr.
Les auteurs remercient l'Agence nationale de la recherche (Programme Jeunes
chercheuses-jeunes chercheurs 2006, contrat ANR-06-JCJC-0022) pour le financement
obtenu dans le cadre de cette recherche.
114 Enquêtes et sondages

besoin d'aide humaine, conditionnellement à la déclaration d'un besoin d'aide


pour la réalisation d'activités de la vie quotidienne (AVQ) ou d'activités
instrumentales de la vie quotidienne (AIVQ), en tenant compte du possible
recours endogène à un répondant proxy. La comparaison des résultats
d'estimation d'un modèle récursif à trois équations probit à ceux tirés d'une
estimation séparée aboutit à deux conclusions contrastant fortement avec
celles établies dans la littérature : le recours à un proxy n'a pas d'effet propre
sur la déclaration d'un besoin d'aide, mais majore de façon positive et
fortement significative la probabilité de déclaration d'un besoin non ou sous-
satisfait.

6.2 Données et modèle

Nous utiliserons les données de l'enquête française Handicaps-Incapacités-


Dépendance (HID), conduite par l'Insee, et consacrée aux conséquences des
problèmes de santé sur l'intégrité physique, la vie quotidienne et la vie sociale
des personnes (Mormiche, 2003). Nous considérerons la vague d'enquête
réalisée en 1999 auprès des personnes vivant en ménages ordinaires, dont on
retient le sous-échantillon des 8 727 personnes âgées de 60 ans et plus (voir
Davin et al, 2006 pour des exploitations du même sous-échantillon). Les
informations ont été recueillies à l'aide de questionnaires en face-à-face, le
cas échéant à l'aide d'un membre de l'entourage, avec le consentement de la
personne interrogée. La structure du modèle est donnée par la figure 3.1.

Figure 3.1 : Structure du modèle

Répondant proxy ?

Oui Non
n = l 194 n = I 533

Besoin d?aide ? Besoin d'aide ?

Oui Non Non Oui


« = 3 123 /7 = 4 071 n = 364 n — \ 169

Besoin d'aide non ou Besoin d'aide non ou


sous-satisfait ? sous-satisfait ?

Oui Non Non-observé Oui Non


72 = 415 72 = 2 708 72 = 4 435 72= 173 72 = 996

La modélisation de la non-satisfaction du besoin d'aide pose deux types de


problèmes. Le premier porte sur la nature de l'échantillon considéré.
L'estimation du besoin non ou sous-satisfait ne peut être réalisée sur
l'échantillon complet des répondants, car une trop forte hétérogénéité serait
3. Enquêtes et santé 115

introduite par le fait de classer, dans la catégorie des personnes n'ayant pas de
besoin non-satisfait, les personnes sans aucun besoin d'aide avec celles dont
le besoin d'aide se trouve satisfait. Dans le même temps, restreindre
l'échantillon aux seules personnes ayant besoin d'aide introduirait un biais de
sélection. L'utilisation d'un modèle à deux équations estimées simultanément,
où l'équation (3), définie ci-après, porte sur un échantillon sélectionné grâce à
l'équation (2), permet de dépasser cette première limite. De plus, cette
modélisation tient compte de la corrélation possible entre les termes d'erreur
tirés des deux équations, due à la contribution de variables non-observables
ou omises. Le second problème réside dans l'endogénéité probable du statut
du répondant dans les équations (2) et (3). La nature endogène du recours à un
répondant proxy peut provenir par exemple du fait que l'état de santé et la
faculté du patient à répondre sont mal mesurés ; la présence d'un proxy révèle
alors un état de santé suffisamment dégradé pour nécessiter le besoin d'une
aide. En conséquence, le recours à un proxy est modélisé dans l'équation (1)
et introduit comme régresseur dans les équations (2) et (3), formant ainsi un
modèle probit à équations simultanées récursif (Trujillo, 2003) :

(!) X = ^iP, "

(2) y'2 = x,p, + yla2 - u2

(3) yl = x$l + ylai - u, si y, = 1

où y*, yl et y] sont des variables latentes, non-observables, qui représentent


respectivement la présence d'un répondant proxy, d'un besoin d'aide et d'un
besoin d'aide non ou sous-satisfait.
V/, yi = 1 si y* > 0, 0 sinon, y, = 1 signifie donc que la personne
enquêtée a recours à un répondant proxy, y, = 1 qu'un besoin d'aide au
moins a été déclaré et y, = 1 qu'il existe au moins un besoin d'aide non-
satisfait ou sous-satisfait. Les variables supposées exogènes sont notées x..
Les termes d'erreurs des trois équations s'écrivent :

w, = yy + s,

u, = y2v + 8,

1/3 = Y3V + £3

avec v « N{0, /) et (s,, 82, 83) « N(0, S).


Si les termes d'erreur ne sont pas indépendants, l'estimation jointe des trois
équations par maximum de vraisemblance permet d'obtenir des estimateurs
sans biais et consistants. Pour des raisons d'identification, y, est fixé à 1 et y.
et y, permettent de calculer la corrélation des termes d'erreur u^, ly et ui tirés
des trois équations. La fonction de vraisemblance est définie par :
116 Enquêtes et sondages

L
= njPrO, = O,^, = 0 I v)(t)(v)rfvnJPrO'l = h y2 = 0 \ v)^(v)dv

njPrO, = 0,y2 = \,y, = 0 | v)<j)(v)rfvn jPr^, = 0, v, = 1, ^ = 1 | v)$(v)dv

nlPr(^, = ly2 = ly, = o | v)(j)(v)rfvnjPrO'1 = ly2 = 1, y, = 1 I v)<b(v)dv.

Les estimations ont été réalisées à l'aide de la procédure NLMIXED du


logiciel SAS, version 9.1.

6.3 Résultats et discussion

Les contributions des variables exogènes retenues dans les équations (2) et (3)
sont globalement cohérentes avec celles trouvées dans la littérature en la
matière. La discussion porte dans ce qui suit exclusivement sur la contribution
du répondant proxy dans les équations (2) et (3) (Tableau 3.2).
Par rapport à une modélisation séparée, le contrôle de l'endogénéité fait
perdre sa significativité à la contribution du recours à un répondant proxy
dans la déclaration du besoin d'aide pour la réalisation d'une ou plusieurs
AVQ ou AIVQ (équation 2). Contrairement aux résultats de la littérature
(Todorov et al, 2000 en autre), on ne retrouve aucune subjectivité introduite
par le proxy dans l'évaluation du besoin d'aide humaine de la personne qu'il
remplace pour répondre. Dans ces travaux, l'usage d'une indicatrice pour
marquer le statut du répondant ne ferait qu'exprimer la contribution des
variables qui conditionnent le recours au proxy, au premier rang desquelles
l'état de santé des individus enquêtés, et non pas un effet propre relevant du
jugement du répondant proxy.
Si on contrôle le biais lié à la sélection des seules personnes ayant exprimé
un besoin en même temps que l'endogénéité du recours au proxy, cette
dernière variable affecte positivement et de façon très significative la
déclaration d'un besoin d'aide non ou sous-satisfait (équation 3), alors que
des travaux antérieurs avaient abouti à l'existence d'une contribution négative
(Desai et al, 2001). Les répondants proxy ajouteraient ainsi de la subjectivité
à leur évaluation de la non-satisfaction du besoin, qui ne peut être réduite aux
seuls déterminants (en l'occurrence l'état de santé du sujet enquêté) de leur
recours.
Les corrélations entre le terme d'erreur de l'équation (3) et les deux autres
sont négatives. En l'absence de tout contrôle, on sous-évaluerait donc
l'influence du répondant proxy dans l'expression de la non-satisfaction du
besoin d'aide. Le biais relatif à l'endogénéité du recours à un proxy zgrt en
revanche en sens inverse dans l'équation (2), du fait de la corrélation positive
des termes d'erreur : si ce biais n'était pas contrôlé, on sur-évaluerait
l'influence du répondant proxy dans la formulation d'un besoin d'aide.
Contrairement aux préconisations tirées des résultats existant, les
estimations de prévalence des besoins d'aide des personnes âgées vivant en
domicile ordinaire, issues des déclarations de répondants proxy, n'ont donc
3. Enquêtes et santé 117

pas à être corrigées à la baisse, au contraire de celles de la prévalence des


besoins d'aide non ou sous-satisfaits.

Tableau 3.2 : Estimations à l'aide d'équations probit simultanées et


d'équations probit indépendantes
Estimation récursive Estimation séparée
Variables avec sélection d'échantillon
(1) (2) (3) (D (2) (3)
Constante -4,754**** -3,830**** -0,165 -3,315**** -3,403**** -0,841***
Âge 0,039**** 0,037**** -0,016*** 0,027**** 0,032**** -0,005*
Homme (réf = femme) 0,189*** -0,388**** -0,228*** 0,136*** -0,376**** -0,177***
En couple (réf = seul) 0,375**** 0,042 -0,212*** 0,254**** 0,014 -0,134**
Nombre d'enfants 0,005 / / 0,005* / /
Non-diplômé (réf = diplômé) / 0,345**** -0,143** / 0,324**** -0,084
Revenu3 ^ 540 € (réf = revenu>1080) / 0,281**** 0,366*** / 0,259**** 0,308****
540<revenu<1080 € (réf = revenu>1080) / 0,145*** 0,221*** / 0,133*** 0,197***
Vit en zone rurale (réf = zone urbaine) / / -0,090 / / -0,081
Troubles moteurs (réf = non) 0,155*** 0,780**** / 0,113*** 0,714**** /
Troubles visuels (réf = non) 0,235**** 0,518**** / 0,164**** 0,462**** /
Troubles auditifs (réf = non) 0,200**** -0,010 / 0,144**** -0,027 /
Troubles de la parole (réf = non) 1,617**** 0,914**** / 1,151**** 0,651**** /
Troubles métaboliques (réf = non) -0,141*** 0,274**** / -0,115*** 0,256**** /
Troubles cognitifs (réf = non) 1.127**** 0,846**** / 0,816**** 0,670**** /
Troubles neuropsychiatriques (réf = non) 0,681**** 0,419**** / 0,467**** 0,320****
Autres troubles (réf = non) -0,018 0,604**** / -0,007 0,568**** /
Maladie chronique (réf = non) -0,398**** -0,543**** / -0,278**** -0,470**** /
Aides techniques équipement (réf = non) / 0,627**** -0,110 / 0,582**** -0,023
Aides techniques mobilité (réf = non) / 0,752**** 0,096 / 0,700**** 0,163***
Aides techniques sensorielles (réf = non) / 0,095 -0,096 / 0,086 -0,070
Autres aides techniques (réf = non) / 0,213**** 0,144** / 0,201**** 0,163***
Recours à un proxy (réf = non) / 0,172 0,994**** / 0,693**** 0,105*
3
: revenu par unité de consommation Yi = 1 fixé corr(ui, U2) = 0,286
*: p <0,1 ; p <0,05 ; ***: p <0,01 ; : p <0,0001. Y2 = 0,442** corr(ui. U3) = -0,259
Y3 = -0,836*** corr(u2, U3) = -0,453

BIBLIOGRAPHIE

Davin, B., Joutard, X., Moatti, J.-P., Paraponaris, A. et Verger, P. (2006).


Besoins et insuffisance d'aide humaine aux personnes âgées à domicile :
une approche à partir de l'enquête « Handicaps, Incapacités, Dépendance ».
Sciences Sociales et Santé, vol. 24, n03, 59-94.
Desai, M.M., Lentzner, H.R. et Weeks, J.D. (2001). Unmet need for personal
assistance with activities of daily living among older adults. The
0
Gerontologist, vol. 41, n l, 82-88.
Mormiche, P. (2003). L'enquête Handicaps, Incapacités, Dépendance :
apports et limites. Revue Française des Affaires Sociales, vol. 57, n0l-2, 13-
29.
118 Enquêtes et sondages

Todorov, A., et Kirchner, C. (2000). Bias in proxies' reports of disability:


Data from the National Health Interview Survey on disability. American
Journal of Public Health, vol. 90, n08, 1248-1253.
Trujillo, A. (2003). Médical care use and sélection in a social health insurance
with an equalization fund: Evidence from Colombia. Health Economies,
vol. 12, n03, 231-246.

7. Les évolutions méthodologiques d'une

enquête répétée : avantages et

inconvénients. L'exemple du Baromètre

santé

Arnaud GAUTIER, Christophe LÉON, François BECK et


19
Philippe GUILBERT

7.1 Introduction

L'Institut national de prévention et d'éducation pour la santé (INPES) dispose


d'enquêtes périodiques, les « Baromètres santé », qui mesurent à un instant
précis l'état de l'opinion, des connaissances, des attitudes et des
comportements en matière de santé des Français. Ces enquêtes téléphoniques,
mises en place en 1992 afin de contribuer à l'élaboration de programmes de
prévention et de promotion de la santé sont répétées à intervalles réguliers
(quinquennales depuis 1995). Elles alimentent ainsi une base de données de
plus de 50 000 individus et permettent donc de suivre certaines évolutions sur
bientôt deux décennies.
Cette enquête multithématique (abordant les principaux thèmes de santé
publique tels que la consommation de produits psycho-actifs, la vaccination
ou le dépistage des cancers...) suit un protocole de sélection probabiliste des
interviewés. Le mode de tirage est dit à deux degrés : un premier tirage au
sort est effectué dans une base de numéros téléphoniques afin d'obtenir un
ménage. Il est procédé ensuite au tirage au sort d'un individu à l'intérieur du
ménage par la méthode de la date du prochain anniversaire, individu à qui il
est affecté une probabilité de tirage dépendant de la constitution du ménage
auquel il appartient.
Diverses évolutions méthodologiques ont été apportées au Baromètre santé
depuis 15 ans. Certaines d'entre-elles (telle que l'augmentation de la taille de
l'échantillon) s'expliquent par une volonté d'augmenter la précision des
estimations, alors que d'autres sont principalement liées à une volonté

19 Institut National de Prévention et d'Éducation pour la Santé (INPES), 42 bd de la


Libération, Saint-Denis cedex, France, 93203.
3. Enquêtes et santé 119

d'assurer une meilleure représentativité de la population française


(interrogation des personnes ne disposant que d'un téléphone portable et pas
de téléphone filaire par exemple). Les raisons et les conséquences de chacune
de ces évolutions seront abordées ici.

7.2 Les évolutions

7.2.1 La taille des échantillons

Dans le souci d'accroître la précision des résultats, de pouvoir travailler sur


des sous-échantillons et exploiter réellement les comportements rares
recueillis dans l'enquête, le nombre de personnes interrogées a augmenté de
manière importante depuis la fin des années 90. Environ 2 000 personnes
étaient interrogées en 1992 en population générale ; elles étaient plus de
30 000 en 2005. Par ailleurs, de nombreux sur-échantillons régionaux (Pays
de la Loire, Picardie, Ile-de-France, Picardie...) ont été mis en place en 2000
et 2005 afin d'étudier plus précisément les jeunes de chacune de ces régions.
Les estimations ont donc gagné en précision : pour une proportion estimée
de 30 % (correspondant approximativement à la pré valence tabagique
observée en population générale), les intervalles de confiance à 95 % passent
de [28,0 %- 32,0 %] en 1992 à [29,5 %- 30,5 %] en 2005. Cette
augmentation a cependant entraîné un allongement de la durée du terrain
d'enquête (2 mois en 1992 et près de 4 mois en 2005) ainsi qu'une
augmentation du nombre d'enquêteurs à fonuer pour la passation du
questionnaire. Cette dernière conséquence a eu pour inconvénient une plus
grande difficulté à maintenir des taux de participation élevés dans la mesure
où il est plus difficile de disposer d'un nombre important de bons enquêteurs
et d'en assurer le suivi.

7.2.2 Les questions et les thèmes abordés

Le Baromètre santé aborde les principaux thèmes de santé publique tels que la
consommation de produits psycho-actifs, la vaccination, le dépistage des
cancers ou encore les accidents de la vie courante... Pour répondre à de
nouvelles et multiples sollicitations et par intérêt des institutions partenaires,
de nombreuses thématiques se sont ajoutées au fil des ans. Ainsi, une échelle
de qualité de vie (profil de santé de Duke) a été posée pour la première fois en
1995 ; des questions relatives à la douleur sont apparues en 1999 et à la santé
mentale en 2005. Cette multiplication des sujets explorés s'est accompagnée
d'une augmentation importante du nombre de questions (126 questions en
1992 à plus de 400 en 2005) et donc de la durée de passation de questionnaire
(près de 45 minutes en 2005). Là encore, la conséquence a été une plus
grande difficulté à convaincre les personnes de participer à l'enquête compte
tenu de la contrainte temporelle que cela représentait pour eux.
120 Enquêtes et sondages

Si la majorité des questions des Baromètres santé n'a pas varié au cours du
temps, certaines d'entre elles ont tout de même fait l'objet d'une
reformulation afin d'en améliorer la pertinence. De même, certains
indicateurs utilisés ont fait l'objet de précisions ; par exemple, en 1999, afin
d'estimer au mieux la proportion d'expérimentateurs d'alcool, la question « et
avez-vous déjà bu une boisson peu alcoolisée comme du cidre, du panaché ou
des bières légères » a été posée aux personnes déclarant n'avoir jamais bu de
boissons alcoolisées (Guilbert, 2002). Ces changements opérés sur le
questionnaire qui visaient à en renforcer sa pertinence pose la question du
suivi des évolutions.

7.2.3 Le critère d'éligibilité

Jusqu'en 1997, seuls les Français âgés de 18 à 75 ans étaient interrogés dans
les Baromètres santé. Or, la volonté de disposer d'informations sur les
opinions, connaissances et comportements des adolescents en matière de
santé, a conduit à la première enquête française par téléphone auprès d'un
échantillon représentatif de jeunes de 12 à 19 ans. La méthodologie étant
identique à celle utilisée pour les adultes et afin de pouvoir suivre les opinions
et les comportements de santé sur une plus longue période, il a été décidé de
mettre en place une enquête globale, interrogeant ces deux populations. Ainsi,
à partir du Baromètre santé 2000 (Guilbert, 2001), la base interrogée n'a plus
été uniquement les 18-75 ans mais les 12-75 ans.
Cette modification du champ de l'enquête a donc permis de mieux suivre la
mise en place de certains comportements de santé, mais a contribué dans un
' 20
même temps, entre autre par l'utilisation plus fréquente de filtres" , à la
complexification du questionnaire.

7.2.4 La base de sondage

Entre 1992 et 1995, le Baromètre santé interrogeait les personnes abonnées à


France Telecom et inscrites sur liste blanche et orange. Deux populations ne
pouvaient être interrogées : celle ne disposant d'aucune ligne téléphonique
(proportion inférieure à 5 % des ménages en 1995) ainsi que celle inscrite sur
liste rouge, proches de 20 % à la fin des années 90 (Beck, 2005).
Le développement récent des nouvelles technologies en matière de
téléphonie depuis le début des années 2000 a par ailleurs entraîné une
diminution des abonnés à la téléphonie fixe au profit des utilisateurs exclusifs
de portables (personnes ne disposant pas de téléphone fixe mais uniquement
d'un portable). Ces personnes représentent en 2006 près de 15% de la
population française (Bigot, 2006).

20Certaines questions posées ne concernent pas directement l'ensemble des classes d'âges
interrogées ; par exemple celles sur le dépistage des cancers pour les adolescents ou
celles sur la consommation quotidienne de cannabis pour les personnes les plus âgées.
3. Enquêtes et santé 121

D'après différentes enquêtes, l'ensemble de ces personnes (inscrites sur


liste rouge et ne disposant que d'un téléphone portable) présente des
caractéristiques sociodémographiques et des comportements de santé
spécifiques (Beck, 2005). Les exclure de la base de sondage constituerait
donc un biais de représentativité. Ainsi, après introduction des personnes
inscrites sur liste rouge en 1999, un échantillon de 3 842 utilisateurs exclusifs
de portables a été interrogé sur une partie du questionnaire de 2005 (Guilbert,
2006). Ce gain en terme de représentativité a cependant entraîné la
complexification des procédures d'échantillonnage ainsi qu'un accroissement
des coûts de l'enquête.

7.3 Conclusion

Le Baromètre santé a pour principal objectif d'analyser les opinions,


comportements et attitudes de santé afin notamment de construire les
politiques de prévention. Sa répétition dans le temps depuis plus de 15 ans le
conduit par ailleurs à mesurer certaines évolutions. Si la recherche d'une plus
grande précision et représentativité ont apportés au fil du temps quelques
modifications méthodologiques, répondant parfaitement au souci de fournir
les estimations les plus proches de la « réalité », ces modifications ont
largement complexifié la mesure des évolutions. En effet, une modification
du questionnement ou de la base de sondage peut largement modifier les
estimations. Ainsi, une différence observée entre deux enquêtes peut résulter
d'une évolution de comportements ou s'expliquer par les différences
méthodologiques. Par ailleurs, si l'accroissement de la taille des échantillons
augmente la précision des estimations, il augmente aussi la durée du recueil
des données. Si la multiplication des thèmes penuet de répondre à diverses
sollicitations, elle modifie dans le même temps le contexte de l'interrogation
et peut favoriser une moindre participation de part l'augmentation de la durée
totale du questionnaire.

BIBLIOGRAPHIE

Beck, F., Legleye, S. et Peretti-Watel, P. (2005). Aux abonnés absents : liste


rouge et téléphone portable dans les enquêtes en population générale sur les
drogues. Bulletin de Méthodologie Sociologique, vol. 86, 5-29.
Bigot, R. (2006). La diffusion des technologies de l'information dans la
société française, Paris : CREDOC.
Guilbert, P., Baudier, F. et Gautier, A. (2001). Baromètre santé 2000.
Volume 1. Méthode. Vanves, CFES.
Guilbert, P., et Gautier, A. (2002). Repérage des consommateurs d'alcool
dans une enquête nationale par téléphone. Alcoologie et Addictologie, vol.
24(1), 67-71.
122 Enquêtes et sondages

Guilbert, P., et Gautier, A. (2005). Baromètre santé 2005. Premiers résultats.


Saint-Denis, INPES.

8. L'Enquête suisse sur la santé :

présentation et méthodologie d'une

grande enquête nationale de santé

21
Renaud LIEBERHERR

8.1 introduction

L'Enquête suisse sur la santé est réalisée par l'Office fédéral de la statistique
no
(OFS) sur mandat du gouvernement suisse". En complément des statistiques
de la santé plus administratives (statistique des hôpitaux, statistique des
établissements de santé non hospitaliers, statistique médicale, etc.), l'Enquête
suisse sur la santé décrit de manière plus détaillée et différenciée les
problèmes de santé de la population générale résidant en Suisse.
L'enquête s'appuie aussi bien sur les expériences faites par l'Office fédéral
de la statistique en matière de micro-recensements, que sur les expériences
suisses et internationales dans le domaine des enquêtes sanitaires.
Initiée en 1992, elle se réalise à un rythme quinquennal (1992, 1997, 2002,
2007...). Chaque enquête se déroule sur une année entière, de janvier à
décembre, afin d'évaluer l'influence de la période annuelle sur la santé et de
pouvoir déterminer les variations saisonnières des phénomènes saisis.

8.2 Cadre global

S'éloignant d'une seule définition strictement médicale et clinique basée sur


les résultats diagnostics, elle prend ainsi en considération les troubles de la
santé de manière plus large comme détérioration de la qualité de vie, troubles
souvent considérés comme mineurs mais qui peuvent rester relativement
invalidants dans la vie quotidienne.
L'Enquête suisse sur la santé ne se contente pas d'aborder les maladies ou
les incapacités. Elle s'intéresse aussi à la perception qu'a la population de la

21 Office fédéral de la statistique, section de la santé, Neuchâtel.


22 Elle a pour fondement juridique la loi sur la statistique fédérale du 9 octobre 1992, ainsi
que diverses ordonnances du Conseil fédéral. L'Office fédéral de la statistique est
chargé de la préparation, de l'exécution de l'enquête, et du dépouillement des résultats.
La protection des données est réglée par la loi sur la statistique fédérale et par la loi sur
la protection des données. Toutes les données sont traitées de manière strictement
confidentielle et anonyme et utilisées uniquement à des fins statistiques. Un groupe
d'encadrement, comprenant des experts des milieux scientifiques et de l'administration,
conseille et seconde l'Office fédéral de la statistique.
3. Enquêtes et santé 123

santé, de la vie et d'elle-même, à ses comportements et habitudes, à sa région


d'habitation, à ses conditions de travail, à ses caractéristiques socio-
démographiques (âge, sexe) et socioéconomiques (fonnation, revenu), c'est-
à-dire tous les facteurs qui exercent une influence indéniable sur son état de
santé.
L'Enquête suisse sur la santé se base sur un modèle global et dynamique,
qui considère la santé comme le résultat des processus d'adaptation entre
l'individu et divers éléments, tels que son environnement (écologique, social,
culturel), les services de santé et leur organisation, son mode de vie et ses
comportements par rapport à la santé. Elle poursuit trois objectifs principaux :
a) l'étude de l'état de santé et de ses facteurs déterminants, l'étude des
conséquences médico-sociales de la maladie, de l'utilisation des services de
santé, et des conditions d'assurance de la population résidante de la Suisse ;
b) l'observation chronologique de l'évolution de l'état de santé de la
population et de l'utilisation des services de santé publique (à travers des
collectes périodiques et régulières) ; c) l'évaluation de stratégies et de
mesures de politiques de la santé - par exemple dans le domaine de la
prévention et de la promotion de la santé.
L'Enquête suisse sur la santé est largement utilisée tant dans la recherche
épidémiologique (utilisation des méthodes de l'épidémiologie descriptive
telles que taux d'incidence et de prévalence, et de celles de l'épidémiologie
analytique) que dans les disciplines de la recherche scientifique dans le
domaine de la santé.
Précisons encore qu'en complément de l'enquête en population générale,
une enquête dans les institutions se déroule, de manière ponctuelle et
irrégulière. Si la première a eu lieu en 1993 et concernait diverses institutions
(hôpitaux, homes, prisons, couvents), la deuxième se réalisera en 2008 dans
les institutions médico-sociales pour personnes âgées et/ou pour malades
chroniques, âgé(e)s de 65 ans ou plus.

8.3 Méthodologie

8.3.1 Population interrogée et échantillonnage

La population cible de l'Enquête suisse sur la santé se compose de la


population de 15 ans et plus résidant en permanence en Suisse, vivant dans
des ménages privés et possédant un raccord téléphonique - y compris les
personnes de nationalité étrangère habitant depuis plus de 3 mois en Suisse.
C'est ainsi qu'un certain nombre de personnes, qui, au moment de l'enquête,
vivent dans une institution (hôpital, établissements médico-sociaux, prison,
couvent, caserne), ou ne disposent pas de raccordement téléphonique dans
leur ménage, ou sont âgées de moins de 15 ans, ne sont pas interviewées.
124 Enquêtes et sondages

L'échantillon interrogé se compose de 12 000 personnes environ,


auxquelles s'ajoute un nombre variable de personnes (7 000 en 2007 par
exemple) suite à la demande de nombreux cantons d'augmenter la taille de
l'échantillon à des fins d'analyse au niveau cantonal. Le nombre de
répondants diffère ainsi selon les enquêtes : plus de 15 000 personnes furent
interrogées en 1992, 13 000 environ en 1997, presque 20 000 en 2002, et
18 500 environ en 2007.
^ f 23 '
Détaillons à présent quelque peu le processus" . Le plan d'échantillonnage
est stratifié par canton, ce qui s'explique notamment par le fait que la plupart
des cantons ont augmenté la taille de l'échantillon en finançant le nombre
d'interviews supplémentaires.
Comme pour toutes les autres enquêtes par échantillonnage auprès des
ménages et des personnes que mène LOFS en Suisse, le cadre de sondage de
l'Enquête suisse sur la santé se constitue du registre téléphonique (SRH),
contenant les numéros de téléphone des ménages qui y sont inscrits. Celui-ci
est réactualisé par livraison trimestrielle de la part de Swisscom Directories.
Le cadre de sondage conduisant à des ménages privés ne permettant
cependant pas de réaliser directement un échantillonnage de personnes, il
s'avère nécessaire de procéder à un tirage aléatoire à deux niveaux,
distinguant les unités primaires (ménages) des unités secondaires (personnes).
Au premier niveau, l'unité d'échantillonnage est le ménage privé (l'unité de
tirage correspond au raccordement téléphonique du ménage). Au deuxième
niveau, on procède, pour chaque ménage de l'échantillon tiré au premier
niveau, à un tirage aléatoire d'une (et une seule !) personne âgée de 15 ans et
plus. Le tirage de l'échantillon s'effectue en 4 vagues trimestrielles selon le
déroulement global de l'enquête : s'étalant sur une année entière, l'enquête se
répartit en 4 vagues trimestrielles successives correspondant aux 4 saisons.
Précisons que le cadre de sondage ne recouvre pas parfaitement la
population cible, et ceci même si le registre téléphonique contient la plupart
des personnes âgées de 15 ans ou plus résidant de manière permanente en
Suisse vivant dans des ménages privés et disposant d'un raccordement
téléphonique. Afin de traiter les effets de ces défauts de couverture (comme
ceux liés à la non-réponse au questionnaire par ailleurs) par des méthodes
appropriées permettant de réduire les risques de biais, le recours au calage sur
marges à partir de la statistique annuelle sur la population (ESPOP) s'avère
judicieux dans cette enquête (voir à ce sujet Graf et al, 2005).

8.3.2 Instrument et relevé des données

La grande partie de l'instrument de relevé des données se compose des


mêmes questions à chaque enquête, afin de dégager des tendances

23 Pour de plus amples détails, le lecteur est invité à se référer au rapport de méthodes de
l'cnquctc de 2002 ; Graf, E., et Rcnfcr, J.-P. (2005).
3. Enquêtes et santé 125

chronologiques. S'y ajoutent quelques nouvelles questions liées aux thèmes


actuels dans le débat social et la recherche scientifique24. La Suisse
n'appartenant pas à l'Union européenne, l'Enquête suisse sur la santé a
néanmoins intégré à son questionnaire un certain nombre de questions
• • r r 25 * * • ^
utilisées dans les enquêtes européennes" , afin de pouvoir participer à la
comparabilité internationale dans le domaine de la santé.
Le relevé des données se déroule en deux phases principales. Pour la
première, trois types d'interviews existent. En règle générale, les personnes
cibles sont interviewées par téléphone, au moyen d'interviews assistées par
ordinateur (CATI), d'une durée moyenne de 40 minutes. Une alternative
existe cependant pour les personnes de 75 ans ou plus ayant de grandes
difficultés à faire une interview CATI : une interview assistée par ordinateur
en face-à-face (CAPI). Une interview (interview téléphonique de
remplacement, avec une personne proche de la personne cible) peut avoir lieu
si la personne cible est absente et inatteignable pendant plus de 4 semaines ou
qu'elle ne peut s'exprimer dans une des trois langues d'interview ou que ses
capacités ne lui permettent pas de comprendre et répondre correctement. Les
interviews sont réalisées par un institut de sondages mandaté.
La deuxième phase du relevé des données consiste en un questionnaire
postal autoadministré. Toutes les personnes qui participent à l'enquête
téléphonique ou face-à-face reçoivent un questionnaire postal (sauf celles qui
ont réalisé une interview). Ce questionnaire est en règle générale rempli par
écrit et renvoyé par courrier - mais il peut également être rempli online au
moyen d'internet (nouveauté de l'enquête 2007).

24 Le questionnaire recouvre les six grands thèmes suivants : l'état de santé (santé perçue,
troubles physiques, maladies, difficultés dans la vie quotidienne, santé psychique...), les
comportements et conditions de vie (consommation d'alcool, de tabac, de drogues, de
médicaments, alimentation, activité physique...), les attitudes (face à la santé,
compétences par rapport à la santé...), la médecine préventive (vaccination contre la
grippe, prévention du cancer, du cholestérol, du diabète, contraception, comportements
sexuels...), la sécurité sociale, le soutien social (aide informelle, assurance-maladie,
réseau social...), l'utilisation des services de santé (hospitalisations, consultations
médicales, médecine complémentaire, soins à domicile...), ainsi que divers aspects
sociodémographiques (type de ménage, statut matrimonial, niveau de formation, revenu,
activité professionnelle, nationalité...).
25 A titre d'exemple, citons : « Minimum Europcan Health Module » (MEHM) de EHIS,
« International Physical Activity Questionnaire » (IPAQ), « European Working
Condition Survey » (EWCS), « MOS SF-36 MHI-5 », « C1DI-SF 12 MONTH DSM-IV
VERSION Vl.l, déc. 2002 », diverses questions sur la santé fonctionnelle (ADL et
IADL) de EHIS, etc.
126 Enquêtes et sondages

Le relevé de données s'effectue dans une des trois langues nationales,


l'allemand, le français ou l'italien26.
Le relevé de données terminé, il s'agit ensuite de préparer la base de
données en vue de la pondération d'abord, puis des analyses pour les diverses
publications27.

BIBLIOGRAPHIE

Bayingana, K., et Tafforeau, J. (2006). Comparison of European Health


Surveys Results for the Period 2000-2002. Scientific Institute of Public
Health, Epidemiology Unit, Brussels.
Bayingana, K., Tafforeau, J., Van Oyen, H., Rasmussen, N., Lieberherr, R.,
Deverill, C., Kjoller, M., Ramm, J. et Alfaro Latorre, M (2008). Smoking
prevalence in six European countries: Comparison based on national health
survey data. European Journal for Public Health (à paraître).
Calmonte, R., Galati-Petrecca, M., Lieberherr, R. et Neuhaus M. (2005).
Santé et comportements vis-à-vis de la santé en Suisse 1992-2002. OFS,
Neuchâtel.
Graf, E., et Renfer, J.-P. (2005). Enquête suisse sur la santé 2002, rapport de
méthodes. Plan d'échantillonnage, pondération et estimation de la
précision. OFS, Neuchâtel.
Lieberherr, R., et Wiedenmayer, G. (communication 2007). L'Enquête suisse
sur la santé : méthodologie et résultats d'une grande enquête nationale de
santé. Colloque francophone sur les sondages, 5-1 novembre 2007,
Marseille.
OFS, OFSPO (2006). Activité physique, sport et santé. Faits et tendances se
dégageant des Enquêtes suisses sur la santé de 1992, 1997 et 2002,
Statsanté 1/2006. OFS, Office fédéral du sport, Neuchâtel, Macolin.

26 La quatrième, le romanche, n'est pas une langue d'enquête, car elle est « inclue » dans
l'allemand ou l'italien : les individus parlant le romanche s'expriment dans une de ces
deux autres langues nationales.
27 Les diverses publications sont accessibles à l'adresse suivante: http://www.bfs.
admin.ch.
3. Enquêtes et santé 127

9. Approche biographique de l'espace de

vie, de la santé et des événements

marquants auprès de seniors vivant en

Belgique

28 29
Laurence THOMSIN , Yannick BANTURIKI ,
29
Nicolas ROGISTER et Ingrid SCHOCKAERT30

9.1 Introduction

Cet article présente les spécificités et les originalités d'un dispositif de récolte
biographique dont la passation a été menée en 2006 en Belgique auprès de
902 personnes âgées de 55 à 74 ans. Cette enquête biographique, dénommée
« Parcours de vie des seniors. Une approche biographique étendue aux
événements de santé et à l'espace de vie. Mise en perspective quali/quanti » a
eu pour ambition théorique et méthodologique de poursuivre l'approche
conceptuelle et opérationnelle d'une collecte biographique complète (depuis
l'enfance jusqu'à la date de l'enquête) de concepts novateurs.

9.2 L'espace de vie

Au regard de la littérature, c'est une évolution théorique et méthodologique


de la notion d'espace de vie qui a prévalu (Barbary et Dureau, 1993 ;
Courgeau, 1988 ; Domenach et Picouet, 1987 ; Lelièvre et Robette, 2005 ;
Poulain, 1983).
Cette notion s'est affinée par la prise en compte successive (1) de l'individu
dans son inscription spatiale, (2) de la signification sociale allouée à cet
espace fréquenté puis (3) de la nécessaire introduction du temps en référence
duquel l'individu évoque cette fréquentation. Toutes les réflexions ont
souligné, tout d'abord, la nécessité d'une prise en compte de plusieurs lieux
dans les études sur la migration comme une réponse aux limites conceptuelles
du lieu de résidence considéré comme seul indicateur de la position
géographique de l'individu. Ensuite a été évoquée la signification sociale des
mouvements géographiques. Un lieu ne devient partie de l'espace de vie que
par le sens que les individus lui confèrent : il est ainsi défini par l'activité de
l'individu et/ou la relation sociale qu'elle implique. En d'autres mots, « lieu »

28 Chercheur qualifie FNRS, Université de Liège (ULg), Life Evcnts'Data Analysis


(LEDA), laurcncc.thomsin@ulg.ac.bc.
29 Attaché de recherche, doctorant, LEDA, (yannick.banturiki@ulg.ac.be,
nicolas.rogister@ulg.ac.be).
30 Attache de recherche, doctorant, Université Catholique de Louvain (UCL), Institut de
démographie, ischockacrt72@gmail.com.
128 Enquêtes et sondages

et « activités/relations sociales » sont des éléments indissociables du concept


d'espace de vie. Cette double approche, sociale et spatiale, se retrouve
clairement dans l'enquête de l'Ined de 2001 « Biographies et entourage » qui
propose une première transgression d'une approche qui n'était jusqu'ici que
transversale de la mesure de l'espace de vie. Le temps, enfin, est un troisième
aspect non sans importance participant à cette définition. Les lieux importants
persistent dans l'esprit des individus. Les lieux du passé, et la façon dont on
les a vécus, ont une influence sur la perception et l'appropriation de l'espace
social d'aujourd'hui. L'espace de vie est donc une construction dans le temps.
Son étude suggère, dans le cadre d'une nouvelle étape d'analyse de l'espace
de vie, de disposer de données directement collectées au départ d'un
questionnaire selon un pas temporel garantissant une complétude de
l'observation des formes évolutives du réseau spatial de relations sociales
fortes de l'individu ; en ce compris les liens sociaux articulés par le biais de
certaines de ses activités tout au long du parcours de vie.
L'opérationnalisation de la récolte longitudinale, qui a été centrée sur le lieu
de résidence, consiste en une triple articulation. La première repère chronolo-
giquement le lieu de tous les logements, individuels ou collectifs, occupés par
l'individu pendant au moins un an depuis sa naissance (ce compris les
logements où l'individu n'a pas forcément été domicilié). La seconde cible
toutes les personnes que l'enquêté a fréquentées le plus parmi sa famille, sa
belle-famille et ses amis (excepté par unique contact téléphonique ou
courrier) au cours de sa vie et au-delà de la simple co-résidence. C'est en
s'aidant d'un découpage du temps en cycle de vie de l'enquêté et en
sollicitant sa remémoration depuis son adolescence que cette collecte identifie
pour chaque figure l'origine de la fréquentation, les périodes de fréquentation
et les lieux successifs de leurs résidences durant ces périodes de
fréquentation. Enfin, la troisième complète ce dispositif de collecte en allant
récupérer dans le parcours éduco-professionnel (et/ou de formation
permanente) tous les lieux de scolarité depuis l'âge de 6 ans et tous les lieux
de travail et/ou de formation permanente.

9.3 Le parcours de santé

Le concept de santé considéré d'abord sous une dimension statique, un « état


complet de bien-être physique, mental et social » (selon l'OMS en 1946), est
désonuais reconnu comme un processus dynamique qui évolue tout au long
de la trajectoire de vie d'un individu. Plusieurs travaux de diverses disciplines
ont mis en évidence les limites de données transversales et ont montré la
nécessité d'une prise en compte de la dimension longitudinale des risques de
santé dont celle de l'influence des conditions de vie durant l'enfance agissant
elle-même sur la santé à l'âge adulte. Il peut dès lors être intéressant de le
3. Enquêtes et santé 129

collecter comme un phénomène continu ; c'est ce que le concept de


continuum Santé-Maladie a permis d'introduire.
La santé apparaît par ailleurs comme une construction sociale qui évolue
dans le temps et cette dynamique ne peut être appréhendée que dans une
perspective longitudinale. Si des cadres théoriques ont été élaborés en tenant
compte de cette dynamique de la santé, rares sont les études qui prennent en
compte des circonstances de parcours de vie ou la durée d'exposition aux
facteurs de risque dans l'étude des déterminants de la santé (Monden, 2005).
Si les méthodes longitudinales de suivi de cohortes d'enfants ont été mises en
place et présentent des résultats d'un intérêt incontestable pour les études de
trajectoire de santé, elles présentent quelques limites (comme le coût très
élevé de production des données, le problème d'attrition, la vulnérabilité aux
nouvelles questions de recherche et aux changements de conditions
d'observation dans lesquelles elles ont été initialement lancées) (Berney et
Blane, 2003). Mais, c'est surtout la longue durée d'attente des résultats,
comme c'est souvent le cas avec les maladies chroniques qui ne se
manifestent surtout que durant l'âge adulte ou la vieillesse, qui pose problème
pour le traitement de ce type de données. Face aux limites de la méthode
longitudinale, la méthode biographique a été proposée comme une méthode
alternative et complémentaire (Lelièvre, 2006). Cet enjeu de recherche, sous
l'angle de son opérationnalisation, a conduit à quelques choix
méthodologiques.
L'opérationnalisation de la collecte de cet événement santé s'articule en
deux volets (Banturiki étal, 2008). Le premier volet, selon un repérage
annuel depuis l'enfance de l'enquêté jusqu'à la date de l'enquête, vise à
recenser et dater toutes les interruptions des activités quotidiennes de
l'enquêté. Il s'agit de toutes les interruptions d'au moins un mois qui ont
affecté ses activités scolaire, professionnelle, domestique ou de loisir suite à
une maladie physique ou psychologique ou à un accident (de travail,
domestique, sportif ou de la route). Sont également récoltés, durant cette
interruption, les types de soins ou d'aides apportés par un membre de
l'entourage de l'enquêté ou un professionnel, l'issue de l'interruption en
termes de guérison ou de handicap(s) reconnu(s), de même que la durée des
hospitalisations éventuelles induites. Le second volet vise à identifier si
l'enquêté est affecté d'une part, de maladies chroniques (arthrite, asthme,
bronchite à répétition, cancer, cataracte, diabète, glaucome, hypertension,
maladie cardio-vasculaire, ostéoporose) et à quelle date origine est (sont)
survenue(s) celle(s)-ci, et, d'autre part, s'il est également affecté d'handicaps
ou de maladies congénitaux. Enfin, est également relevé dans quelle mesure
cette maladie chronique ou congénitale ou ce handicap a constitué une gêne et
selon quelle fréquence.
130 Enquêtes et sondages

9.4 Les événements marquants

Un des objectifs de recherche a été de développer, au sein du dispositif


biographique, une approche par le sens (Ledrut, 1984) qui permette de
récolter non plus des données factuelles mais bien représentationnelles
relevant en ligne directe de la subjectivité des enquêtés. L'opérationnalisation
de cette mise en relief des biographies s'est traduite par la création du concept
d'événement marquant (Leclerc-Olive, 1997). En mettant en œuvre une
approche issue de la sociologie de la perception (Berger et Luckmann, 2003 ;
Goffman, 1991), compréhensive, les événements marquants ont été conçus
comme des périodes de doute au cours desquelles la légitimité des définitions
sociales constitutives de la réalité s'avère problématique. L'originalité de la
démarche tient principalement au fait qu'aucun parcours initial n'ait été
privilégié pour l'étude de ce type d'événement. En effet, les différentes
recherches menées en la matière privilégient généralement un parcours de vie
et se limitent ainsi à l'étude d'un type particulier d'événement en vue de saisir
la logique interne de cheminement au sein de ce parcours (définition d'une
situation sociale préalable en vue de l'échantillonnage, De Connincl et
Godart, 1989). Cette focalisation sur un parcours en particulier dévie l'objet
d'étude et ne permet pas la mise à jour du processus de réalisation, de
constitution de l'univers de sens des individus, qui constitue l'épicentre de
cette étude.
La récolte des données s'est organisée autour de trois axes principaux et
sous la forme de questions semi-ouvertes ; l'événement tel qu'il s'est passé
(la façon dont l'enquêté l'a vécu), l'événement aujourd'hui avec le recul et
enfin l'entourage significatif. De plus, chaque événement marquant a fait
l'objet d'un post-codage sur base des catégories suivantes : parcours d'origine
de l'événement, contamination, parcours contaminé(s), intentionnalité,
structure de l'événement, polarité, entourage significatif, imprévisibilité,
caractère marquant de l'événement, adoption d'un rôle. L'exploitation de ces
bases de données ainsi constituées devraient permettre non seulement de créer
une typologie d'événements marquants, mais également de constituer un
corpus de données textuelles établi sur base d'un échantillon de personnes
ayant connu au moins un événement marquant tel que nous l'avons
conceptualisé et ce sans avoir défini de situation sociale préalable.

BIBLIOGRAPHIE

Banturiki, Y., et Nganawara, D. et Thomsin, L. (2008). Conceptualisation


d'un événement de santé et sa prise en compte dans la collecte des
biographies individuelles. Cahiers Québécois de Démographie (sous
presse).
3. Enquêtes et santé 131

Barbary, O., et Dureau, F. (1993). Des citadins en mouvement. Analyse des


pratiques résidentielles à Quito (Equateur). Cahiers des Sciences Humaines,
vol. 29,395-418.
Berger, P., et Luckmann, T. (2003). La construction sociale de la réalité,
Paris, Armand Colin.
Berney, L., et Blane, D. (2003). The lifegrid method of collecting
rétrospective information from people at older âges. Research Policy and
Planning, \o\.2\,n02, 13-21.
Courgeau, D. (1988). Méthodes de mesure de la mobilité spatiale. Migrations
internes, mobilité temporaire, navettes, Paris : Ined.
De Connincl, F., et Godart, F. (1989). L'approche biographique à l'épreuve
de l'interprétation. Les formes temporelles de la causalité. Revue française
de sociologie, vol. 31, 23-53.
Domenach, H., et Picouet, M. (1987). Le caractère de réversibilité dans
l'étude de la migration. Population, vol. 3, 469-484.
Goffman, E. (1991). Les cadres de l'expérience. Les éditions de minuit, Paris.
Ledrut, R. (1984). La Forme et le Sens dans la Société, Condé-sur-l'Escaut,
Librairie des Méridiens.
Lelièvre, E., et Robette, N. (2005). Les espaces de référence des individus :
définir et mesurer l'espace de vie. XXVè Congrès International de la
Population (IUSSP), Tours.
Lelièvre, E. (2006). Introduction à une approche quantitative des parcours de
vie. Analyse et collecte des données. Dans Guillaume, J.F.,
Lalive d'épainay, C. et Thomsin, L., éd. Parcours de vie. Regards croisés
sur la construction des biographies contemporaines, Liège, Editions de
l'Université de Liège.
Monden, C.W.S. (2005). Current and lifetime exposure to working
conditions. Do they explain educational différences in subjective health?,
Social Science & Medicine, vol. 60, 2465-2476.
Organisation Mondiale de la Santé. (1946). Constitution de l'Organisation
mondiale de la santé, adoptée par la Conférence internationale de la santé,
New York, 19 juin-22 juillet 1946, et signée le 22 juillet 1946 par les
représentants de 61 Etats.
Poulain, M. (1983). La migration : concept et méthodes de mesure. Chaire
Quételet 1983, Louvain-la-Neuve : Académia-Bruylant.
132 Enquêtes et sondages

10. La mesure des consommations

alimentaires par l'étude INCA2

31
Ariane DU FOUR, Lionel LAFAY et Jean-Luc VOLATIER

10.1 Introduction : objectifs de l'étude INCA2

L'étude Individuelle nationale sur les consommations alimentaires (INCA2)


s'inscrit dans un vaste projet de surveillance de l'état nutritionnel et de la
santé de la population vivant en France, appelé INCA2/Enns et en lien avec le
Plan national nutrition santé (Pnns) lancé en 2001 par le ministère de la santé.
L'étude nationale nutrition santé (Enns, 2006-2007), pilotée par l'Institut de
veille sanitaire (InVS), est axée sur l'état nutritionnel et la santé avec un
important volet biologique. L'enquête INCA2 (2006-2007) est davantage
axée sur les risques nutritionnels et sanitaires liés à l'alimentation que
l'Agence française de sécurité sanitaire des aliments (Afssa) a en charge
d'évaluer. L'Observatoire des consommations alimentaires (OCA) de l'Afssa
pilote cette étude et avait déjà réalisé en 1998-99 une première étude sur
l'alimentation (enquête INCA1).
L'objectif principal de l'enquête INCA2 est de disposer d'une base de
données très précise de la consommation alimentaire auprès d'un échantillon
représentatif de la population vivant en France. L'étude permettra de suivre
l'évolution des consommations par rapport aux études précédentes, d'évaluer
les apports nutritionnels, de les comparer aux Apports nutritionnels conseillés
(Ane), de déterminer la prévalence d'inadéquation des apports ou de
dépassement des limites de sécurité. Combinée aux bases de données sur la
contamination des aliments et de l'eau de boisson par des substances telles
que les résidus de pesticides ou les contaminants de l'environnement, l'étude
permettra aussi d'estimer l'exposition à ces substances indésirables et les
dépassements éventuels des seuils toxicologiques de référence.

10.2 Méthodologie de l'enquête INCA2

Divers travaux ont été menés pour élaborer les outils de recueil et la
méthodologie précise de l'enquête. Une étude conduite en 2002 a permis de
valider la méthode de recueil des consommations par carnet de 7 jours par le
recueil en parallèle de l'excrétion d'azote urinaire sur 3 fois 24 heures (Lafay
et al, 2002). Elle a également permis de valider un questionnaire pour estimer
la consommation de sel ajouté. En 2004, une étude pilote conduite dans 3

31 Agence française de sécurité sanitaire des aliments (AFSSA)/Direction de l'évaluation


des risques nutritionnels et sanitaire (DERNS)/Pôle d'appui scientifique à l'évaluation
des risques (PASER), 27-31 avenue du Général Lcclcrc 94 701 Maisons-AIfort.
3. Enquêtes et santé 133

départements auprès de 300 personnes a permis de vérifier la faisabilité des


outils mis en place, de mettre au point la méthodologie du plan de sondage
avec les bases Insee et de tester l'utilisation des fiches adresses.

10.2.1 Population et bases de sondage

La population de référence est la population vivant en France métropolitaine


(hors Corse). L'effectif final de l'étude est de 4 079 individus (2 624 adultes
de 18 à 79 ans et 1 455 enfants de 3 à 17 ans). La base de sondage utilisée
pour tirer les logements (résidences principales) est le Recensement général
de la Population de 1999 (RP99) de l'Insee complété par la Base de Sondage
de Logements Neufs (BSLN) et la base SITADEL32. La Cnil33 a autorisé
l'Insee à transmettre les données nominatives de l'échantillon tiré à l'Institut
de sondages Lavialle (ISL) chargé de la réalisation du terrain de l'enquête en
raison de l'impossibilité de couvrir de façon satisfaisante par une autre
méthode les personnes ne disposant pas de téléphone fixe et susceptibles
d'avoir des pratiques alimentaires spécifiques. Le tirage de l'échantillon a été
réalisé par l'Unité de méthodologie statistique (UMS) de l'Insee.

10.2.2 Plan de sondage

Le plan de sondage élaboré est un échantillonnage stratifié à trois degrés.


Au premier degré, on tire des unités primaires (UP) suivant une
stratification selon le degré d'urbanisation et la région. Le tirage se fait à
probabilités inégales, proportionnel à la taille de l'UP en nombre de
résidences principales et équilibré sur l'âge et le revenu.
Au deuxième degré, on tire des logements au sein des UP. Le tirage est à
probabilités égales, systématique sur la taille des communes. Deux tirages
successifs ont été effectués afin de constituer deux bases distinctes : base
« adultes » et base « enfants ». Afin de ne pas interroger des ménages
potentiellement enquêtés par l'Insee, une disjonction a été faite avec les
logements de l'échantillon maître (EM), de son extension régionale (EMEX)
et de l'enquête emploi.
Enfin, au troisième degré de sondage, on tire au sort un individu dans le
logement, un adulte ou un enfant selon la base. Ce tirage est réalisé par
l'enquêteur selon la méthode de la date anniversaire.

10.2.3 Prise de contact et déroulement des visites

Les ménages des logements tirés au sort ont été contactés soit par téléphone
soit en face-à-face par des enquêteurs professionnels formés pour l'étude.

32 Système d'information et de traitement automatisé des données élémentaires sur les


logements et les locaux.
33 Commission nationale de l'informatique et des libertés.
134 Enquêtes et sondages

Le contact était établi par téléphone pour les personnes de moins de 65 ans
et lorsque cette infonuation était accessible. Les enquêteurs faisaient jusqu'à
12 tentatives pour entrer en contact avec un foyer. Une fois le contact établi,
après la présentation de l'étude, ils établissaient la composition du foyer et
effectuaient le tirage au sort de l'individu à inclure dans l'étude. Ils devaient
ensuite recueillir son accord de participation et fixer un rendez-vous pour la
première visite de l'enquêteur. Lors de la première visite, l'enquêteur
recueillait l'accord définitif du participant, expliquait la manière de remplir
les carnets et l'auto-questionnaire et fixait le jour de démarrage du
remplissage des carnets. Dans les jours suivants, il procédait à des appels de
relance et de soutien pour s'assurer du bon déroulement du remplissage. La
seconde visite, effectuée 8 à 14 jours après la première, consistait à vérifier le
remplissage des carnets et de l'auto-questionnaire ainsi qu'à administrer un
questionnaire CAPI34.
Si le contact par téléphone n'était pas possible et pour les logements neufs,
les enquêteurs prenaient contact en face-à-face (avec au moins 4 tentatives à
des jours et heures différents). Une fois le contact établi, la méthodologie était
identique à celle utilisée pour les ménages contactés par téléphone.
Le recueil des données s'est effectué en 3 vagues de décembre 2005 à mars
2007 et ce afin de couvrir toutes les saisons.

10.2.4 Recueil des données : questionnaires, carnets

Le remplissage du carnet de consommation se fait sur 7 jours consécutifs en


décrivant de manière détaillée tous les aliments et boissons consommés à
chaque repas et entre les repas avec l'aide d'un manuel d'utilisation.
L'estimation des quantités est faite à l'aide d'un cahier photographique de
portions33. Au cours de la même période, les sujets complètent le cas échéant
un carnet de consommation de compléments alimentaires.
Le questionnaire auto-administré est relatif aux habitudes alimentaires, aux
attitudes et opinions vis-à-vis de l'alimentation, à l'utilisation des matières
grasses et du sel à la cuisine ou à table, et à l'état de santé et au statut
tabagique. Tous ces outils (carnets, questionnaires, cahier photos) sont laissés
au domicile lors de la première visite de l'enquêteur.
Le questionnaire administré en seconde visite comporte un volet
sociodémographique, un volet sur l'activité physique et la sédentarité et un
volet spécifique à la consommation de compléments alimentaires au cours des
12 mois précédents l'enquête. De plus, lors de cette seconde visite, les sujets
sont pesés et mesurés.

34Computer-assisted personal interviewing.


35«Portions alimentaires: manuel de photos pour l'estimation des quantités»,
SUVIMAX, 1994.
3. Enquêtes et santé 135

Les questionnaires administrés et auto-administrés sont adaptés à l'âge des


personnes enquêtées : 3 à 10 ans, 11 à 14 ans, 15 à 17 ans et 18 ans et plus.

10.3 L'estimation des habitudes alimentaires sur

longue période à partir d'un recueil des

consommations sur courte période

Dans le domaine de la santé publique, les consommations alimentaires sont


souvent interprétables sur longue période. Par exemple en nutrition, les
apports en vitamines et minéraux varient d'un jour à l'autre en fonction de la
composition des repas mais les besoins physiologiques portent sur des
périodes longues. Un déficit d'apport en une vitamine un jour donné ne pose
pas de problème de santé. En matière de risque sanitaire lié aux apports en
contaminants environnementaux via l'alimentation comme les dioxines, ces
apports peuvent aussi varier d'un jour à l'autre alors que la toxicité est
chronique. Les seules moyennes d'apports ne sont pas satisfaisantes car ce
sont les percentiles élevés d'exposition qui sont les plus importants à estimer.
Or les épidémiologistes et statisticiens d'enquête reconnaissent qu'il n'est
pas possible de recueillir en population générale et avec une précision
suffisante les consommations alimentaires pour une durée de plusieurs
semaines. En raison de la baisse des taux de participation aux enquêtes,
plusieurs pays comme les États-Unis ont même fait le choix d'une durée
d'enquête réduite à deux jours. En Europe également, certains pays ont opté
pour un carnet de consommation de 2 ou 3 jours ou pour des rappels de 24
heures répétés deux ou trois fois.
Il faut donc estimer la distribution statistique des habitudes alimentaires sur
longue période à partir d'observations sur courte période. Pour ce faire,
plusieurs modèles ont été proposés basés principalement sur l'analyse de la
variance intra- et inter-individuelle. Les modèles diffèrent selon la méthode
utilisée pour transformer la distribution initiale des consommations à la
normalité et selon qu'une contrainte sur la constance de l'espérance des
apports avant et après modélisation est introduite (Dodd et al, 2006).
En notant pour l'individu i et le jour j :

yi = E(Yij|i) la consommation sur longue période de i

C = y. + 8;V la consommation déclarée le jour j

cti = /(C) la consommation après transformation à la normalité

on pose c. = Ti + co. avec T ~ AA(p, aj.) et eu - N{0, cr), T. et co indépen-


dants et a; = cr - cr lk où ci. est la moyenne empirique de consommation
mesurée sur â: jours après transformation à la normalité.
136 Enquêtes et sondages

yi = EtC lO y, = £(/-'(cs)IO = E(f '{T + oi)|0.

Appliquée au cas des dioxines et furanes, cette approche permettait en 2002


d'estimer le 95cmc percentile de l'exposition sur longue période à
36
88,3pg/kg pc/j alors que l'estimation directe avant réduction de la variance
intra-individuelle était de 101,3 pg/kg pc/j pour 7 jours d'observation et de
119,9 pg/kg pc/j pour 1 jour d'observation (Dufour étal, 2002). Si ces
différences d'estimation sont difficilement interprétables en termes de risques
induits pour la santé, elles sont importantes pour la surveillance, les
comparaisons internationales et la réglementation. Le percentile élevé calculé
sur 7 jours est nettement moins biaisé que celui calculé sur un seul jour.
Cette approche de réduction de la variance intra-individuelle n'est
applicable que dans le cas d'une variable de consommation continue. Quand
il y a des non-consommateurs, il n'existe pas à l'heure actuelle de méthode
universellement reconnue pour estimer la distribution des apports alimentaires
sur longue période.
Or certains critères de santé publique portent sur des taux de consommation.
Par exemple, le Programme national nutrition santé recommande de
consommer trois ou quatre produits laitiers par jour. Le taux de
consommateurs adultes (de 15 ans et plus) atteignant ce critère un jour donné
varie de 31 % à 42 % selon les tranches d'âge alors qu'il est nettement plus
faible (13 à 23 %) si l'on prend en compte ceux qui atteignent ce critère 7
37
jours consécutifs d'une semaine choisie aléatoirement (Afssa-Inpes , 2004).

10.4 Conclusion

L'étude INCA2 apportera des informations utiles pour l'évaluation des


politiques nutritionnelles et l'évaluation des risques sanitaires liés à
l'alimentation. Un arbitrage est nécessaire entre un recueil de données détaillé
et sur une période la plus longue possible et un taux de réponse et une qualité
des données suffisants. Cet arbitrage rend nécessaire le recours à une
modélisation dont la méthode fait encore l'objet de recherches méthodo-
logiques. Le choix de réduire encore la durée d'observation à deux ou trois
jours dépend de la capacité de ces méthodes à rendre compte des habitudes
alimentaires sur plus longue période.

BIBLIOGRAPHIE

Afssa-Inpes (2004). Comparaison de deux enquêtes nationales de


consommation alimentaire auprès des adolescents et des adultes -
Baromètre santé nutrition (2002) et INCA (1998-99). Rapport Afssa, 67 p.

36 Pg = picogramme , kg pc = kilogramme de poids corporel.


37 Institut national de prévention et d'éducation pour la santé.
3. Enquêtes et santé 137

Dodd, K.W., Guenther, P.M. et Freedman, L.S. et al. (2006). Statistical


methods for estimating usual intake of nutrients and foods: A review of the
theory. J. Am. Diet. Assoc., vol 106, 10, 1640-1650.
Dufour, A., Pouillot, R. et Volatier, J.-L. (2002). Sensibilité des études
d'exposition chronique aux contaminants de la population française,
application au cas des dioxines et furanes. Rapport Afssa 2002-521, 77 p.
Lafay, L., et Volatier, J.-L. et al. (2002). Étude de validation d'un carnet de
consommation alimentaire de 7 jours pour l'enquête INCA2-Enns. Journée
méthodologie statistique.
û
CO
o
o
fM

ai
>-
CL
O
u
Chapitre 4

Sondages électoraux

1. La commission des sondages et les

campagnes électorales

1
Elisabeth DUPOIRIER

La Commission des sondages a eu 30 ans en 2007. Elle est née de l'émotion


suscitée dans la classe politique par l'intrusion des sondages dans les
campagnes électorales dès 1965 lors de la première élection présidentielle au
suffrage universel puis leur rapide multiplication. Elle est le produit d'un
compromis entre partisans d'une interdiction totale de publication et de
diffusion en période d'élection au nom de la préservation de la libre
détermination des électeurs, et adversaires d'une telle loi pouvant entraver la
liberté d'expression de la presse, priver l'électeur d'un droit à l'information et
pour finir brider la liberté d'entreprendre des organismes de sondage et de
presse. La loi du 19 juillet 1977, modifiée par celle du 19 février 2002,
organise les conditions de publication et de diffusion des sondages électoraux
et par son article 5 crée une Commission des sondages (CS) chargée de veiller
à l'application des prescriptions du législateur.

1.1 Une structure inédite

La commission des sondages est une structure inédite qui n'a pas eu de
modèle et qui n'a pas d'équivalent aujourd'hui dans les autres démocraties

l Directeur de recherche Cevipov/Sciences Po, Paris, membre de la commission des


sondages.
140 Enquêtes et sondages

qui partagent avec la France une certaine tendance à la « sondagemania ».


C'est une structure de contrôle généraliste composée de 11 membres, 9
magistrats et hauts fonctionnaires rejoints par « deux personnalités qualifiées
en matière de sondages » depuis la loi du 19 février 2002". Le Président est
désigné parmi les membres du Conseil d'État3. Il est assisté par un Secrétaire
général qui doit appartenir à la même institution. Le besoin d'expertise est
assuré par des experts indépendants chargés d'examiner chaque dossier de
sondage reçu par la commission et de lui en rendre compte par un rapport
écrit. Pour finir et malgré le développement vertigineux de la publication de
sondages relevant de sa compétence, la commission est restée une structure
légère ne comptant qu'un seul permanent, fonctionnaire de catégorie A.
Son indépendance est garantie par la collégialité des décisions prises et la
pluralité des institutions d'appartenance de ses membres, qui par ailleurs
présentent toutes garanties d'absence de liens avec des organismes réalisant
des sondages depuis au moins 3 ans.
Pour finir, la commission est une structure de contrôle décisionnaire. Elle
est juge de la transgression des règles fixées par le législateur et peut exercer
un pouvoir de sanction. A la seule condition que la transgression soit effective
ce qui suppose qu'elle attende pour réagir que le sondage délictueux soit
publié. On verra que cette condition réduit la portée du pouvoir de sanction.

1.2 Une définition souple du cadre d'action et

des missions

Le cadre d'action posé par la loi de 1977 et conservé en l'état par la loi de
2002 est circonscrit à la « la publication et la diffusion de tout sondage ayant
un rapport direct ou indirect avec un référendum, une élection présidentielle
ou l'une des élections réglementées par le code électoral ainsi qu'avec
l'élection de représentants à l'Assemblée des communautés européennes»
(article 1).
Le périmètre d'exercice des compétences est certes précisément limité à la
publication et la diffusion de sondages (et non à leur production comme cela
est parfois cru à tort). Mais lorsque que les sondages sont destinés à être
publiés, le pouvoir d'intervention de la CS est vaste puisqu'elle est
compétente pour suivre tous ceux qui ont un rapport « direct ou indirect »
avec des consultations politiques. Cette formulation ouverte permettra à la
commission d'adapter son contrôle à la multiplication des angles

2 Les 9 magistrats et hauts fonctionnaires appartiennent à parts égales au Conseil d'État, à


la Cour de Cassation et à la Cour des comptes. Ils sont nommés pour 3 ans en Conseil
des ministres sur proposition de leurs chefs de corps. Les 2 personnalités qualifiées sont
nommées l'une sur proposition du président de la République, l'autre du Premier
ministre.
3 Parmi les Conseillers d'État ou Présidents de section.
4. Sondages électoraux 141

d'investigation des campagnes électorales par les sondages. Ce que certains


experts nomment le développement de la « péri-électoralité ».
Pour l'exercice concret de ses compétences, le législateur laisse aussi à la
commission de sérieuses marges de manœuvre. Tout d'abord il ne définit pas
ce qu'il considère comme un sondage. Cette sage précaution laisse à la CS la
possibilité de faire évoluer au fil du temps ce qu'elle considère comme
« sondage ». On peut dire d'une certaine manière qu'elle a un droit de regard
permanent sur la définition du périmètre de sa compétence et l'évolution de
celui-ci.
De la même manière, la loi de 1977 confère à la commission le soin
d'édicter les règles qui lui serviront à remplir sa première mission à savoir
garantir « la qualité » et « l'objectivité » des résultats d'un sondage. Seuls
quelques critères généraux sont indiqués dans le décret d'application de la loi4
concernant principalement l'assurance de représentativité de l'échantillon
(article 2), la durée nécessairement limitée du recueil des opinions (article 4)
et les redressements des résultats bruts qui ne doivent pas « affecter la
sincérité des résultats du sondage » (article 5).
Pour sa seconde mission, garantir l'information sur les conditions de
réalisation des sondages, la loi de 1977 détaille le contenu minimal des
éléments qui doivent figurer dans la notice qui accompagne la publication
d'un sondage. Elle donne aussi au public la possibilité de saisir la commission
d'une réclamation concernant la qualité d'un sondage publié à la condition
que le motif de la réclamation relève du domaine de sa compétence. La loi de
2002 va plus loin dans l'exigence d'information du public en chargeant la
commission d'accueillir toute personne qui souhaiterait consulter le dossier
technique que lui a déposé pour chaque enquête publiée l'organisme de
sondage.
Ces deux missions sont exercées dans un contexte en évolution permanente
tant du point de vue des techniques de production que des usages médiatiques
des sondages électoraux.

1.3 Qualité des sondages et évolution continue

des méthodes de production

En l'espace de trente ans la commission a du faire face à trois évolutions


majeures de son champ d'action.
La première concerne la montée en puissance des publications de sondages
à l'occasion de chaque nouvelle campagne électorale. Pour s'en tenir à la
période récente, le référendum de mai 2005 sur le projet de constitution
européenne entraîne la publication de 81 sondages, soit 22 de plus que pour le
référendum de 1992 portant lui aussi sur un projet de traité européen à fort

4 Décret 80-351 du 16 mai 1980.


142 Enquêtes et sondages

enjeu de politique intérieure. Mais c'est à l'occasion des campagnes


d'élection présidentielle que « l'inflation » de sondages est la plus
spectaculaire {cf. tableau 4.1). Lors de la dernière élection de 2007, la
commission a dû examiner 293 sondages soit 182 de plus que lors de sa
première mission de contrôle en 1981, ce qui correspond à une augmentation
de plus de 160 % des dossiers traités.

Tableau 4.1 : L'activité de contrôle de la commission des sondages


pour les élections présidentielles : 19 81-200 7
Campagnes de sondages 1981 1988 1995 2002 2007 Evolutions
présidentiels de....
Nombre de sondages examinés par 111 153 157 193 293 + 182
la commission
Nombre de réclamations reçues et 7 17 9 5 7 - 10
traitées par la commission
Source : rapports d'activité annuels de la commission des sondages.

En revanche le même tableau montre que le nombre de réclamations a


sérieusement chuté sur les vingt dernières années5, attestant de l'amélioration
de la qualité technique des sondages6. La concentration de la production entre
un petit nombre d'organismes possédant un département dédié aux sondages
d'opinion et rassemblant des équipes aguerries par l'expérience à la
réalisation de sondages politiques a indiscutablement joué en faveur de
l'amélioration de la qualité des enquêtes : en 2007, la quasi-totalité des 446
sondages (campagne présidentielle et législative) transmis à la commission
provenait de six organismes7 que l'on peut qualifier de « vétérans » des
campagnes électorales compte tenu du nombre de celles qu'ils ont couvertes
précédemment !
La seconde évolution significative concerne la diversification galopante des
catégories de sondages « ayant un effet direct ou indirect » sur un scrutin. Ce
qui amène la commission à revoir sans cesse le contenu de son champ
d'intervention. Depuis 1995 elle se déclare compétente pour contrôler les
sondages concernant les « primaires » organisées par les partis pour choisir
leurs candidats présidentiels. Parallèlement, le sondage dit « d'intention de
vote » se pratique aujourd'hui de plus en plus tôt et avec de moins en moins
de précautions puisque des pronostics de victoire de seconds tours sont
donnés très en amont de la tenue des premiers tours. En toute rigueur on ne
devrait employer cette dénomination « d'intention de vote » que lorsque les

5 Après l'élection présidentielle, la « passion sondagière » est un peu retombée puisque


153 sondages seulement ont été publics concernant la campagne des élections
législatives. Ils n'ont donné lieu qu'à 3 réclamations.
6 Sans préjuger de la qualité des hypothèses de politologie formulées par les sondeurs
pour établir leurs intention de vote.
7 BVA, CSA, IFOP, IPSOS, LH2 et TNS Sofrcs.
4. Sondages électoraux 143

déclarations des personnes interrogées sont recueillies en toute connaissance


de l'offre électorale complète et véritable. Enfin une nouvelle catégorie de
sondages s'est développée : les baromètres présidentiels testant la popularité,
l'image, la crédibilité des candidats par des vagues mensuelles commençant
très en amont de l'élection. Ils sont examinés par la commission dès lors
qu'ils comportent une mise en concurrence des candidats et a fortiori se
concluent par des intentions de vote.
La troisième évolution concerne les technologies de production des
sondages. Les méthodes de recueil des opinions ont sérieusement évolué
depuis trente ans : hier révolution du sondage par téléphone et aujourd'hui
révolution du sondage par Internet dont le volume des publications a été
encore mineur lors de la campagne de 2007 mais sera selon toute
vraisemblance majeur dans cinq ans lors de la prochaine campagne
présidentielle'.
Une quatrième évolution, préoccupante bien que rarement soulignée par les
détracteurs des sondages, est la tendance à publier des résultats calculés sur
des sous-échantillons ne présentant pas de garantie de représentativité
suffisante. Soit que les effectifs soient trop faibles pour être statistiquement
fiables, soit que les personnes interrogées n'aient pas exactement le profil
recherché et annoncé dans la publication : en 2007 dans certains sondages qui
ont suivi le processus de désignation de la candidate socialiste au sein de son
parti, il y a eu un glissement sémantique de la qualité de militant à celle de
sympathisant que la commission a eu parfois du mal à faire clairement
expliciter dans la notice de publication.
Enfin, les techniques de redressement des résultats bruts des sondages ont
elles aussi connues de sérieuses évolutions dont certaines font l'objet de
controverses et méritent d'être discutées un peu plus longuement.

1.4 Qualité des sondages et contrôle des

redressements politiques

C'est en effet sur la pratique des redressements politiques que le contrôle de


la commission s'exerce avec le plus de méticulosité mais aussi que sa
démarche est la plus critiquée, à la fois pas les sondeurs - qui l'accusent
parfois de se montrer insensible ou hostile à leurs innovations - et par certains
acteurs et observateurs qui lui reprochent de cautionner par son silence - qui
vaut approbation - des résultats jugés « fantaisistes ». La question du contrôle
des redressements politiques n'est pas une mince affaire car c'est elle qui se
prête le plus difficilement à la dissociation nécessaire entre le contrôle
technique sur des arguments objectivables - qui est la mission de la

8 En 2007, un nouvel organisme dédié exclusivement aux sondages réalisés auprès


d'échantillons d'internautes, Opinionway, a publié plusieurs sondages présidentiels.
144 Enquêtes et sondages

commission - et le contrôle de fond qui relève d'un jugement sur le bien


fondé de l'hypothèse de redressement retenue par le sondeur - qui n'entre pas
dans la mission de la commission.
La méthode de redressement pratiquée de longue date par tous les
organismes de sondage est celle qui consiste à redresser les déclarations
brutes d'intention de vote données par les personnes interrogées par leurs
« souvenirs de vote » recueillis dans la même enquête. Comme aucune
élection panui celles appartenant au passé - même récent - n'offre des
conditions politiques de choix identiques à celles présentées par le nouveau
scrutin, le sondeur recueille plusieurs souvenirs de vote qui lui servent à
établir plusieurs hypothèses de calage possible des comportements à estimer
sur les comportements antérieurs. Dans le vocabulaire de la commission, on
parle de « fourchette de redressement » qui comporte autant de « dents » que
de résultats potentiels fournis par les différentes hypothèses de redressement
parmi lesquelles le choix final a été effectué.
Cette méthode éprouvée repose sur le postulat de la relative pérennité des
structures du vote au fil des élections. Or depuis le milieu des années 90, les
résultats d'enquêtes scientifiques convergent pour démontrer un déclin « du
vote partisan » - qui se décidait tôt et demeurait inchangé jusqu'au jour du
vote et contribuait ainsi à la reproduction massive des comportements - et la
montée en puissance du « vote sur enjeux » décidé de plus en plus
tardivement dans la campagne, par des électeurs pouvant hésiter longtemps
entre plusieurs candidats voire hésiter à participer au scrutin. Parmi ces
électeurs, la probabilité de se décider au dernier moment pour des candidats
ou des partis « hors système » au détriment des grands partis est élevée. Cela
aurait été une des principales raisons de la sous appréciation du vote Le Pen
dans la campagne de sondages présidentiels de 2002. C'est aujourd'hui la
justification principale avancée par les sondeurs qui cherchent à faire évoluer
la méthode de redressement fondée sur le seul souvenir de vote. La tendance
est d'enrichir cette méthode - la déformer voir la dénaturer diront les
adversaires de cette nouvelle approche - en utilisant des indicateurs
complémentaires cherchant à mieux anticiper la décision électorale de plus en
plus tardivement prise. On pourrait dire que pendant longtemps l'objectif a
été d'estimer au plus près la stabilité des comportements électoraux et qu'il
est aujourd'hui d'estimer au plus près leur volatilité.
Dès son rapport d'activité portant sur la campagne de sondages de 2002 la
commission « admet que les instituts disposent avec le recours aux souvenirs
de vote à références multiples et avec la pratique de redressements faisant
appel à plusieurs critères d'une certaine marge d'appréciation dans le choix
des scores finalement publiés ». Pour exercer son contrôle elle demande à
chaque institut de lui fournir de la manière la plus détaillée possible les
justificatifs de tous les redressements opérés y compris ceux qui aboutissent à
« une sortie » des bornes de redressement établies sur le seul souvenir de vote.
4. Sondages électoraux 145

En ce qui concerne les nouveaux critères d'opinion utilisés, elle exige que
tous soient issus de l'enquête qui a servi au recueil des intentions de vote et
qu'ils soient reproduits à l'identique lors de chaque nouvelle vague
d'intention de vote. Le recours à ces critères est loin de faire l'unanimité
parmi les sondeurs et la campagne de 2007 a été placée sous le signe de la
grande diversité des méthodes de redressements politiques.

1.5 Les règles de la méthode et leur bilan

En définitive, la commission a peu à peu dégagé une méthode de régulation


de l'activité sondagière durant les campagnes électorales (Timsit, 2004) dont
les deux principales règles peuvent s'énoncer comme suit : garantir la qualité
et la sincérité des résultats d'un sondage par l'exigence de transparence de ses
modalités de production. Assurer le respect de « bonnes pratiques » de
publication qui évitent le recours aux sanctions prévues par la loi. La règle de
transparence des conditions de réalisation des sondages s'adresse surtout aux
organismes de sondages et sa mise en œuvre relève des relations de confiance
nouées entre la commission et ces organismes : tous aujourd'hui acceptent de
déposer un dossier technique beaucoup plus documenté que ne l'exigent les
prescriptions des textes réglementaires, en échange d'un engagement de total
confidentialité de la commission qui préserve le « secret fabrication » du
produit. Il est maintenant banal qu'un institut de sondage vienne présenter à
son initiative à la commission un nouveau produit ou une innovation
technologique qu'il compte utiliser dans sa prochaine campagne de sondage.
Des réunions ont lieu au moins une fois l'an réunissant l'ensemble des
organismes - ce qui est une configuration rare ! - sur un ordre du jour de
débriefing collectif de la campagne de sondages précédente et d'échanges
concernant les principales évolutions à prévoir pour l'avenir. Dans son
rapport d'activité 2007, la commission qualifie la méthode de « coopération
sans connivence » avec les organismes de sondage.
La seconde règle consiste à multiplier les garanties de bonnes pratiques de
publicité entourant la publication des sondages. Elle mobilise la commission
très en amont des campagnes électorales. Un premier communiqué de cadrage
général et une conférence de presse destinés aux média rappellent plusieurs
mois avant le début d'une campagne électorale les principales dispositions de
la loi, informent de la date choisie par la commission pour commencer ses
missions de contrôle de qualité et de publicité, précisent les catégories de
sondages qui seront examinées et enfin mettent en garde envers les principaux
manquements des campagnes antérieures.
Toutefois la commission a le plus grand mal à faire mettre en oeuvre ses
règles de bonnes pratiques par les média ou même à obtenir d'eux - dans le
cas des média publics - qu'ils respectent l'obligation que leur fait la loi de
diffusion des communiqués et des « mises en garde » de la commission. Il y a
146 Enquêtes et sondages

sur ce point parfois une évidente réticence du média audiovisuel


commanditaire d'un sondage à diminuer la portée de ses résultats par la
diffusion simultanée en prime time d'une mise en garde de la commission
envers la qualité des résultats annoncés : il y a dans un tel cas un évident
conflit d'intérêt pour le média entre l'exercice de sa mission de service public
et la stratégie d'information de la rédaction fondée sur les résultats d'une
enquête inédite...
La réticence à respecter les règles de présentation des résultats de sondages
s'observe aussi dans la presse écrite. Libres du choix du titre et du
commentaire accompagnant le sondage qu'ils ont achetés, les organismes de
presse n'hésitent pas parfois à tronquer la présentation des résultats pour
qu'ils appuient efficacement leur ligne éditoriale. Quitte à s'émouvoir d'une
atteinte à la liberté de la presse si la commission demande la publication
d'une mise au point. Pour l'avenir la multiplication des supports de
publication et diffusion - journaux gratuits, sites internes, chaînes
d'information câblées, blogues - rendra de en plus problématique le contrôle
des conditions de diffusion prévues par la loi.
Au regard enfin du public auquel elle doit garantir l'accès aux informations,
la commission est face à une contradiction insoluble. D'un coté l'exercice de
son contrôle de la qualité des sondages implique la confidentialité totale des
informations transmises par les sondeurs en sus de celles - aujourd'hui
insuffisantes - définies par le législateur il y a trente ans. De l'autre coté, la
loi de 2002 renforce l'exigence de transparence vis-à-vis du public qui doit
pouvoir consulter auprès de la commission la notice technique de réalisation
d'un sondage publié. Ces deux exigences - transparence vers le public et
confidentialité vers les sondeurs - sont incompatibles. Le résultat est que le
droit à l'information des citoyens se limite à la consultation de la notice
technique « officielle » et minimale des sondages telle qu'elle avait été prévue
il y a trente ans et que compte tenu de la pauvreté de ces informations, le droit
de consultation est de moins en moins utilisé.
L'inadéquation entre certaines prescriptions de la loi et les réalités de
l'usage actuel des sondages s'observe aussi à propos de procédures de
sanction prévues dans un autre « âge des sondages ». Que veut dire en effet un
pouvoir de sanction qui ne peut s'exercer qu'une fois que « le mal est fait »
c'est-à-dire que le sondage délictueux a été publié ? Que veut dire une
poursuite pénale qui mettra des mois à aboutir alors que les faits reprochés ont
un effet immédiat sur le cours de la campagne électorale ? C'est pourquoi la
commission des sondages a plutôt choisi de jouer la carte d'une instance de
« régulation déontologique » (Galabert, 2005) que celle d'un « tribunal des
sondages » que certains auraient préféré lui voir jouer.
A l'automne 2007, la commission Balladur sur la réforme des institutions a
proposé de fondre les compétences de la commission des sondages avec celles
du CSA dans un même Conseil du pluralisme. On espère qu'à cette occasion,
4. Sondages électoraux 147

la contribution de la commission à l'encadrement des pratiques de la


démocratie d'opinion serait reconnue et renforcée.

BIBLIOGRAPHIE

Asher, H.B. (2004). Polling and the Public. What every citizen should know,
Washington, Congressional Quarterly Press, 6eme éd.
Bon, F. (1974). Les sondages peuvent ils se tromper ? Paris, Calman-Lévy.
Galabert, J.M. (2005). La commission des sondages : une expérience de
régulation, dans Etudes en l'honneur de Gérard Timsit, pages 309-326,
Bruxelles, Bruylant.
Marquis, L. (2005). Sondages d'opinion et communication politique. Cahiers
duCEVIPOF,n038, 1-213.
Timsit, G. (2007). La régulation, la notion et le phénomène. Revue française
d'administration publique, vol. 1,5-11.
Traugott, M.W., et Lavrakas, P.J. (1996). The Voter's Guide to Election Poils,
New jersey, Chatam House.

2. Délibération et changement d'opinion

lors d'un sondage

9 10 11
Patrick FOURNIER , Mathieu TURGEON , André BLAIS ,
12 13
Elisabeth GIDENGIL , Ne il NEVITTE et
14
Joanna EVERITT

2.1 Introduction

Lorsque l'on construit un questionnaire, on doit prêter une attention


particulière à la formulation des questions et des réponses, mais aussi à
l'ordre des questions. En effet, plusieurs études ont documenté l'impact
souvent important de l'ordre des questions sur les réponses (Schuman et
Presser, 1981; Schwartz et Sudman, 1992; Tourangeau et al., 2000).
Différents types d'effet d'ordre des questions ont été identifiés. Nous
proposons qu'il existe un autre effet qui a été négligé par la littérature : l'effet
de délibération. Nous suggérons que les personnes qui exposent leur
jugement à propos d'un enjeu à la fin d'une longue entrevue couvrant tous les

9 Département de Science politique, Université de Montréal.


10 Department of Political Science, University of North Texas.
11 Département de Science politique, Université de Montréal.
12 Department of Political Science, McGill University.
13 Department of Political Science, University of Toronto.
14 Department of Political Science, University of New Brunswick.
148 Enquêtes et sondages

aspects de cet enjeu seront plus susceptibles d'exprimer une opinion et cette
opinion sera plus étroitement liée à leurs prédispositions et comportements.
Pour démontrer notre argument, nous examinons l'impact du positionnement
de la question sur les intentions de vote dans deux enquêtes électorales.

2.2 Argument

L'effet de délibération lié à l'ordre des questions fait référence à une situation
où le sondage permet d'améliorer : 1) la capacité de répondre à une question
et 2) la qualité des réponses à cette question. Si le questionnaire encourage les
répondants à penser à un éventail de considérations large et diversifié, alors
les questions posées plus tard durant l'entrevue devraient engendrer des
réponses différentes de celles qui auraient été obtenues plus tôt. Posséder en
mémoire un ensemble de considérations plus vaste et systématique sur un
sujet devrait augmenter la capacité des répondants d'exprimer une opinion
globale sur ce sujet et de répondre d'une manière qui soit plus conforme à
leurs prédispositions. Contrairement à d'autres effets d'ordre de question, ici
les réponses ne sont pas influencées dans une direction particulière par
l'activation d'un groupe biaisé de considérations. En fait, on donne
simplement aux répondants la chance de prendre conscience de leurs attitudes
en parcourant une longue série de questions équilibrées.
Quelles sont les manifestations empiriques d'un effet de délibération ? En
premier lieu, des changements d'opinion devraient se produire durant le
sondage. Deux types de changement sont à prévoir : mouvement de
l'indécision vers une préférence et mouvement d'une préférence vers une
autre. D'une part, des individus susceptibles de ne pas répondre au début de
l'enquête pourraient se faire une idée pendant l'entrevue et aboutir à une
préférence. D'autre part, certains individus pourraient changer d'avis durant
l'entrevue ; l'opinion exprimée à la fin du questionnaire pourrait être
différente de l'idée de départ.
En second lieu, les réponses basées sur un échantillon de considérations
étendu et représentatif risquent d'être davantage liées aux valeurs et aux
intérêts des personnes que les réponses basées sur quelques idées
momentanément accessibles. Par conséquent, les opinions qui profitent d'un
contexte délibératif devraient être plus stables dans le temps et davantage
reliées aux comportements pertinents. Ainsi, la corrélation entre les
préférences et le comportement devrait être plus forte parmi des réponses
captées à la fin du questionnaire qu'auprès de celles révélées au début.

2.3 Données

Deux enquêtes nous permettent d'examiner l'effet délibératif. Dans le


sondage de campagne de l'Etude électorale canadienne de 1988, les intentions
4. Sondages électoraux 149

de vote faisaient partie d'une expérience sur l'ordre des questions.'3 On a


demandé à une moitié des répondants choisis aléatoirement d'exprimer leur
intention de vote au début du questionnaire. L'autre moitié s'est quant à elle
fait demander la même question vers la fin du questionnaire, après environ
une demi-heure d'entrevue concernant le choix électoral.
Dans le questionnaire de campagne de l'Étude électorale canadienne de
2006, les intentions de vote ont été demandées à deux reprises.16 Chaque
répondant a dû indiquer son choix à la fois au début et à la fin de l'entrevue.
La première question est apparue dans les minutes suivant le début de
l'enquête. Le second emplacement correspond au dernier item demandé.
Entre les deux, on compte environ 30 minutes d'entrevue portant sur le vote.
Nous croyons que les sondages de 1988 et 2006 offrent un environnement
délibératif. Les répondants interviewés à la fin de l'entrevue ont eu l'occasion
de faire le tour d'un vaste ensemble de considérations potentiellement
pertinentes pour le choix électoral.

2.4 Résultats

Pour établir si les intentions de vote sont sensibles à la délibération suscitée


par le sondage, trois analyses sont réalisées. D'abord, nous comparons la
distribution des intentions de vote captées au début et la fin de l'enquête pour
déterminer si l'emplacement de la question influence les opinions au niveau
agrégé. Ensuite, l'ampleur et la nature des changements d'opinion individuels
pendant le sondage sont examinées. Finalement, nous évaluons la fiabilité des
choix électoraux exprimés aux deux emplacements en comparant les
corrélations entre les préférences pré- et post-électorales.

2.4.1 L'emplacement de la question affecte-t-il la


distribution des réponses ?

Les deux premières colonnes de Tableau 4.2 présentent la distribution des


intentions de vote pour les deux emplacements dans les deux enquêtes. La
taille et la signification des différences sont rapportées dans la troisième
colonne. La plus importante différence entre les intentions de vote exprimées

ISLe sondage de campagne de l'EEC de 1988 ftit roulant : s'échelonnant du 4 octobre au


20 novembre 3 609 entrevues de 36 minutes ont été complétées. Le sondage a été mené
par EISR de York. Le taux de réponse a été de 57 %. Un support financier a été fourni
par le CRSH. Questionnaires et données peuvent être obtenus de l'ICPSR
(www.icpsr.umich.edu).
16 Le sondage de campagne de l'EEC de 2006 lut aussi un sondage roulant. 4 313
entrevues de 28 minutes furent produites par EISR entre le 23 mai et le 27 juin. Le taux
de réponse a été de 53 %. Un support financier a été fourni de la part du CRSH et
d'Elections Canada. Questionnaires et données sont disponibles chez l'EEC (www.ces-
eec.mcgill.ca).
150 Enquêtes et sondages

tôt et tard concerne la non-réponse. En 1988, il y a une différence


statistiquement significative de 3,5 points de pourcentage dans la proportion
d'électeurs indécis. En 2006, l'écart entre les deux positionnements de 4,3
points est significatif. Clairement, les individus sont plus susceptibles de
révéler leurs intentions à la fin qu'au début d'une enquête électorale.
Dans les deux banques de données, la distribution des préférences n'est pas
substantiellement affectée par la diminution de la non-réponse. Ainsi, une
position tardive de la question d'intention de vote réduit la non-réponse sans
affecter les préférences relatives pour les différents partis.

Tableau 4.2 : Distribution agrégée des intentions de vote pour


chaque emplacement de la question (%)
EEC 1988 EEC 2006
Début Fin Différence Début Fin Différence
Conservateur 36,3 37,6 + 1.3 27,2 28,8 +1,6
Libéral 26,5 27,8 + 1.3 27,6 29,5 +1,9
Néo-Démocrate 18,2 18,7 +0,5 13,5 14,4 +0,9
Bloc Québécois - - - 8,6 9,1 +0,5
Autre 3,4 3,9 +0,5 4,5 3,7 -0,8
Non-réponse 15,5 12,0 -3,5** 18,7 14,4 -4,3**
Nombre de cas 1 585 1 671 3 686 3 686
Signification statistique des différences (test t) : * < 0,05 ; **<0,01.

2.4.2 Quels changements d'opinion se produisent


durant l'entrevue ?

Les résultats agrégés peuvent masquer divers comportements individuels. Le


Tableau 4.3 présente toute l'ampleur du changement d'opinion individuel qui
a eu lieu durant le sondage de 2006. Près de sept individus sur huit ont donné
la même réponse aux deux questions (87 %). Mais 13 % des gens ont exprimé
des opinions différentes à la même interrogation en moins d'une demi-heure.
La plupart des changements individuels entre les deux questions proviennent
de personnes qui n'avaient pas répondu initialement ; 7 % de tous les
répondants sont passés d'une non-réponse à une préférence électorale. Il y a
aussi eu du mouvement dans la direction opposée : quelques individus qui
avaient l'intention de voter pour un parti au début de l'enquête ont
reconsidéré leur choix et ont finalement indiqué qu'ils ne savaient plus pour
qui ils allaient voter (3 %). finalement, le dernier groupe est composé
d'individus qui ont changé de camp : ils appuyaient un parti au début de
l'entrevue, mais soutenaient un parti différent à la fin (3 %). Ainsi, lorsque
des changements d'opinion se produisent durant un sondage, cela correspond
généralement à des passages de l'indécision vers une préférence et, dans une
moindre mesure, à des conversions partisanes et des mouvements vers
l'indécision.
4. Sondages électoraux 151

Tableau 4.3 : Types de changement d,opinion en 2006 (%)


. De non- D'une D'une
Changement , , ,,, ,r,
d'attitude réponse a une preference pour preference pour
, t t n préférence un parti à une un parti à
^ ' pour un parti autre non-réponse
13% 7% 3% 3%

2.4.3 Les intentions de vote exprimées en fin de


sondage sont-elles plus fiables ?

Le Tableau 4.4 présente les proportions de répondants qui ont révélé la même
préférence dans les vagues pré- et post-électorales. En 1988, les intentions de
vote recueillies à la fin du questionnaire sont légèrement plus corrélées au
vote rapporté que celles recueillies au début. La différence de deux points
n'atteint cependant pas la signification statistique. En 2006, dans l'ensemble
de l'échantillon, la proportion d'individus avec des préférences identiques
avant et après l'élection est à peu près la même pour les deux emplacements
de la question. Mais puisque les gens qui n'ont pas changé d'idée pendant
l'entrevue ne peuvent pas avoir amélioré la qualité de leurs réponses, il est
raisonnable de limiter l'analyse à ceux qui ont modifié leur opinion. Parmi ce
groupe, la proportion d'intentions de vote conformes au comportement le jour
du scrutin est significativement plus petite au début du questionnaire (41 %)
qu'à la fm (56 %). Donc, les intentions de vote exprimées à la fin du sondage
sont plus fiables parmi les individus qui ont changé d'avis pendant l'entrevue.

Tableau 4.4 : Proportion avec le même choix


pré- et post-électoral (%)
Début Fin Différence
EEC 1988
Tous les répondants 78,7 80,3 +1.6
EEC 2006
Tous les répondants 83,7 84,0 +0,3
Ceux qui ont bougé durant l'enquête 40,5 55,9 +15,4**
Signification statistique des différences (test t) : * < 0,05 ; ** < 0,01.

2.5 Conclusion

Cette étude a examiné la validité empirique de l'idée que les sondages


peuvent remplir une fonction délibérative. Nous constatons que le fait de
placer la question sur les intentions de vote à la fin de l'enquête réduit la non-
réponse. Les résultats montrent aussi que certaines personnes changent d'idée
pendant l'entrevue. Environ une personne sur huit a répondu différemment
entre le début et la fin du sondage. Et l'intention de vote exprimée en fin de
questionnaire prédit avec une plus grande exactitude le comportement
électoral le jour du scrutin que l'intention indiquée au début de l'enquête.
152 Enquêtes et sondages

Les changements d'opinion qui se produisent durant une entrevue peuvent


provenir de plusieurs sources. Certains mouvements observés pourraient
provenir d'erreurs de mesure (saisie des données, compréhension, etc.). A
l'inverse, la motivation d'apparaître cohérent pourrait avoir mené à une sous-
estimation des mouvements. Néanmoins, les résultats présentés dans cette
étude sont compatibles avec la notion de délibération générée par le sondage.
En effectuant l'inventaire des considérations que possède chaque personne au
sujet du choix électoral, un sondage peut aider des citoyens à se forger une
préférence ou à réaliser qu'ils devraient opter pour un autre parti. Cependant,
nos conclusions s'appliquent seulement à un questionnaire vaste et équilibré.

BIBLIOGRAPHIE

Schuman, H., et Presser, S. (1981). Questions and Answers in Attitude


Surveys, New York : Académie Press.
Schwarz, N., et Sudman, S. (1992). Context Effects in Social and
Psychological Research, New York : Springer-Verlag.
Tourangeau, R., Rips, L. et Rasinski, K. (2000). The Psychology of Survey
Response, Cambridge : Cambridge University Press.

3. L'espace politique français à la veille de

l'élection présidentielle (2007) : analyse

géométrique des données

Jean CHICHE, Viviane LE HAY17 et Brigitte LE ROUX18

3.1 Introduction

Quelle est la place des électeurs dans les travaux d'analyse quantitative en
Science politique ? Dans la plupart des enquêtes par sondage, en particulier
les enquêtes électorales, les données de base sont bien des données
individuelles qui donnent lieu aux analyses élémentaires classiques. Quant
aux méthodes multivariées (construction d'échelles, analyse de la variance,
analyse factorielle classique, etc.), la modélisation est centrée sur les relations
structurelles entre variables (propriétés, opinions) ; les individus ne sont que
des porteurs de variables. L'appellation « Analyse des correspondances
multiples » (ACM) apparaît pour la première fois dans l'article de Lebart
(1975) qui est consacré à l'ACM en tant que méthode de plein droit. Même en

l 7 Ccvipof (Centre de Recherches Politiques de Sciences Po) - jcan.chiche@scicnccs-


po.fr, viviane.lehay@sciences-po.fr.
18Université Paris Descartes, MAP5, CNRS: UMR 8145 - brigitte.Ieroux@math-
info.univ-paris5.fr.
4. Sondages électoraux 153

Analyse des Correspondances Multiples, on se borne le plus souvent à ne


présenter que le nuage des modalités. Dans cette perspective, les réponses
individuelles n'apparaissent pas comme un élément fondamental de l'analyse.
Nous construirons, dans cet article, l'espace politique français à la veille de
l'élection présidentielle, en mettant les individus au cœur de l'étude. Grâce à
l'analyse des correspondances multiples, nous construisons un modèle
géométrique des données avec un nuage des modalités et un nuage
d'individus. En introduisant les intentions de vote comme facteur structurant
des individus, nous conduirons l'étude des électorats directement sur les sous-
nuages qui leur sont associés. Le nuage des individus deviendra ainsi une
véritable « carte politique » montrant les clivages entre les électorats et la
façon dont les électeurs se répartissent dans ces électorats. Pour ce faire, nous
utiliserons les données de la 4eme vague du « Baromètre politique français »
(BPF 2006-2007), réalisée du 5 au 19 février 200719.
L'enquête, administrée par l'IFOP, a été conduite par téléphone auprès d'un
échantillon de 5 239 individus représentatifs de l'électoral inscrit sur les listes
électorales. L'échantillon a été constitué selon la méthode des quotas (sexe,
âge, profession ou ancienne profession du chef de ménage, diplôme) après
stratification par régions et catégories d'agglomération.
Les questions utilisées dans cette analyse sont relatives aux enjeux et aux
valeurs, au climat social, à la confiance/défiance à l'égard du système
politique, au positionnement politique des individus ainsi qu'au choix des
candidats. Les objectifs de cet article sont de répondre aux questions
suivantes :
1. Quels sont les clivages les plus importants dans la France
d'aujourd'hui ?
2. L'offre politique à travers les candidats est-elle en adéquation avec
ces clivages ?

Pour atteindre ces objectifs, nous avons mis en oeuvre l'analyse


géométrique des données (Le Roux et Rouanet, 2004) en utilisant une
variante de l'analyse des correspondances multiples, à savoir l'ACM
spécifique (Le Roux, 1999 ; Le Roux et Chiche, 1998 ; Le Roux et Rouanet,
2004, Chapitre 5).

3.2 Introduction à l'ACM Spécifique

On note Q l'ensemble des questions actives et son cardinal, n le nombre


d'individus et nk le nombre d'individus ayant choisi la modalité k. En ACM,
la distance entre deux individus est calculée à partir de leurs réponses aux
questions actives : si, pour la question q, il y a « accord » entre les individus i

19 Enquête réalisée par le CEVIPOF avec le soutien du Ministère de l'Intérieur et de


l'Aménagement du Territoire et administrée par l'IFOP.
154 Enquêtes et sondages

et i', la distance due à cette question est nulle : d^(i, /') = 0 ; si pour la
question <7 il y a « désaccord », l'un ayant choisi la modalité k et l'autre k'
k), la distance d^i, i') entre les individus i et i' est telle que :

= +
d% i') £ j^ (avec /. = n
Jn et
A = «. /«)■

La distance globale d (/, /') est la moyenne quadratique des distances des
questions : d~(i, i') = {i, ï)IQ- A partir de ces distances, on définit le
nuage euclidien des individus. Le nombre de dimensions sera au plus égal à
{K - Q) (nombre de modalités actives moins nombre de questions actives)
dont on détermine les directions principales.
L'ACM spécifique donne un traitement particulier aux modalités peu
fréquentes (i.d. fk< 5 %), ainsi qu'aux modalités de non-intérêt (comme par
exemple les modalités « Autres »). Plus précisément, on ne tient pas compte
de ces modalités dans le calcul de la distance entre les individus.
Le nuage spécifique des individus est la projection orthogonale du nuage
des individus de l'ACM standard sur le sous-espace engendré par les points
idéaux associés aux modalités d'intérêt. Le nuage spécifique des modalités est
le sous-nuage des modalités d'intérêt avec poids et distances inchangés.
Propriétés : 1) La variance du nuage spécifique est inférieure ou égale à
celle du nuage de l'ACM standard ; 2) les propriétés constitutives de l'ACM
sont conservées, en premier lieu les formules de transition (passage du nuage
des individus au nuage des modalités) ; 3) le point moyen du sous-nuage des
individus ayant choisi la modalité k correspond au point modalité k (nuage
des modalités) par produit d'affinités orthogonales.
A un sous-nuage d'individus défini par une propriété (par exemple,
l'intention de vote), on associe non seulement son point moyen, mais aussi
son ellipse de concentration qui en constitue un résumé géométrique (voir à ce
sujet Cramér, 1946, p. 283 et Chiche et al., 2000).
Propriétés : 1) L'ellipse de concentration d'un sous-nuage projeté dans un
plan est la projection orthogonale sur ce plan de l'hyperellipsoïde de ce sous-
nuage. 2) Pour une distribution normale bidimensionnelle, l'ellipse de
concentration contient 86,5 % de la distribution.

3.3 Application : enquête BPF 2006-200720

Nous avons effectué une ACM spécifique sur le tableau comportant 11


questions actives (avec, après regroupement, 48 modalités actives, 16
modalités passives) et 5 239 individus. Nous interpréterons les 3 premiers
axes dont les valeurs propres sont égales à 0,195, 0,187, 0,128, et les taux
modifiés à 34 %, 30 % et 7 % (pour la définition des taux modifiés voir
Benzécri, 1984, p. 306).

20 Nous remercions Flora Chanvril pour son active participation à l'analyse statistique.
4. Sondages électoraux 155

L'interprétation des axes est basée sur les modalités qui contribuent à plus
de 1,95 % à la variance de l'axe (valeur légèrement inférieure à la
contribution moyenne 100/48 = 2,08 %).

Figure 4.1 : Interprétation de l'axe 1


Axe 2
1.5 "

1.0
ConfD ^
FrSeProtéger

0.5
HaussePrix
VieEnfts- Eco++
RéfOui
♦ AmélPrés- RéfNon
0 - Axe 1 (0.195)
Eco— AmélPrés+
NiGNiD

VieEnfts+-
FrS'ouvrir
-0.5 ♦
LibEntreprises-

-1.0 Défiants, pessimistes et Optimistes


anti-européens pro-européens

-0.8 -0.4 0.4 0.8

Interprétation des axes : l'axe 1 traduit une opposition entre des défiants
pessimistes et anti-européens à des optimistes pro-européens {cf. figure 4.1 et
tableau 4.5); l'axe 2 réactive le clivage opposant les Français à valeurs
économiques, sociales et culturelles de gauche à ceux qui se positionnent à
droite (en particulier favorisant le libéralisme économique et l'autoritarisme) ;
l'axe 3 quoique beaucoup moins important, est très intéressant : il montre une
opposition entre « ninistes-pessimistes » (français ayant confiance ni dans la
gauche ni dans la droite pour gouverner le pays) et « nonistes de gauche »
(Français proches des partis politiques de gauche, ayant voté « non » au Traité
portant sur la Constitution Européenne en 2005).
Ensuite, nous avons structuré le nuage des individus en prenant l'intention
de vote déclarée pour les candidats à l'élection présidentielle comme facteur
structurant, définissant ainsi des sous-nuages d'individus.
Nous présentons dans le plan 1-2 le nuage des individus avec les points
moyens des sous-nuages (figure 4.2). On voit que le nuage a une forme
156 Enquêtes et sondages

triangulaire, avec opposition essentiellement entre l'électorat de N. Sarkozy à


ceux de J.-M. Le Pen et des partis d'extrême-gauche (1er axe). Sur le
deuxième axe, on trouve l'opposition des électorats de N. Sarkozy, P. de
Villiers, J.-M. Le Pen, à ceux des électorats de F. Bayrou, S. Royal,
D. Voynet et des candidats d'extrême-gauche.

Tableau 4.5 : Contributions des modalités pour l'axe 1


Modalités l Ctr
NiGNiD 6,09
Eco- 5,73
AmélPrés— 8,62
VieEnfts- 7,89
RéfNon 4,50
FrSeProtéger 3,06
HaussePrix 2,20
LibEntreprises- 3,22
FrS'ouvrir 5,75
RéfOui 8,14
VieEnfts+- 4,41
AmélPrés+ 4,16
Eco++ 9,87
ConfD 9,62
Les 14 modalités contribuant le plus à Taxe 1 (83 % de la variance de Taxe 1) ; dans
le tableau : en haut 8 modalités à coordonnée négative/en bas 6 modalités à
coordonnée positive.
Légende : NiGNiD/ConfD : confiance [ni dans la droite, ni dans la gauche/dans la
droite] pour gouverner - Eco—/++ : [très pessimiste/très optimiste] quant à la situation
économique - AmélPrés—/+ : la présidentielle permettra d'améliorer [pas du
tout/assez] les choses - VieEnfts—/+- : vos enfants vivront [beaucoup moins /aussi]
bien que vous - RéfNon/Oui : Vote [Non/Oui] au référendum 2005 - FrSeProtéger/
S'ouvrir : La France doit [se protéger/s'ouvrir] davantage au monde - HaussePrix :
problème le plus important - LibEntreprises—: Il faut que l'État donne plus de
liberté aux entreprises : pas du tout d'accord.

Figure 4.2 : Points moyens modalités des


électorats potentiels (plan 1-2)
Axe 2
Valeurs de droite

LE PEN " 5? ^ ^ :>x; r


Défiants, de Villiers- Nihous-B SARKOZY
pessimistes Optimistes
et anti- pro-européens
européens Abst Axe 1
Laguiller • a .BAYROU
Besancenot. •Lepage
Bové ■ lROYAL
Buffet' Voynet

Valeurs de gauche
4. Sondages électoraux 157

Les ellipses de concentration (plan 1-2, figure 4.3) nous montrent que
l'électorat de N. Sarkozy mord largement sur f électoral de J.-M. Le Pen et
que, à l'évidence, les électorals de S. Royal et F. Bayrou se recoupent.

Figure 4.3 : Ellipses de concentration des quatre


principaux électorats (plan 1-2)
Axe 2

Sarkozy
Le Pen

Bayrou

Royal

■: s

3.4 Conclusion

En février 2007, avant les derniers temps animés de la campagne électorale,


les structures de l'élection présidentielle ainsi que la hiérarchie des clivages
étaient déjà en place. L'analyse géométrique des données a permis de mettre
en évidence la grande porosité des électorats. L'électorat de J.-M. Le Pen était
potentiellement en régression, alors que celui de N. Sarkozy, qui le recoupait
en partie, était potentiellement le plus important, mais aussi le plus attractif.
Les électorats de S. Royal et de F. Bayrou étaient finalement très proches.

BIBLIOGRAPHIE

Benzécri, J.-P. (1984). Pratique de l'analyse des données (tome 1), Paris,
Dunod.
Chiche, J., Le Roux, B., Perrineau, P. et Rouanet, H. (2000). L'espace
politique des électeurs français à la fin des années 1990 : nouveaux et
anciens clivages, hétérogénéité des électorats. Revue française de science
politique, vol. 50, 463-487.
158 Enquêtes et sondages

Le Roux, B. (1999). Analyse spécifique d'un nuage euclidien : application à


l'étude des questionnaires. Mathématiques informatique et sciences
humaines, vol. 146, 65-83.
Le Roux, B., et Chiche, J. (1998). Analyse spécifique d'un questionnaire : cas
particulier des non-réponses. Article présenté aux XXXes journées de la
SFdS, Rennes.
Le Roux, B., et Rouanet, H. (2004). Géométrie Data Analysis: From
Correspondence Analysis to Structured Data Analysis. Dordrecht : Kluwer
Académie Publishers.
Lebart, L. (1975). L'orientation du dépouillement de certaines enquêtes par
l'analyse des correspondances multiples. Consommation, vol. 2, 73-96.
CEVIPOF. Le Baromètre politique français, http://www.cevipof.msh-
paris.fr/bpf.

4. La détermination par les instituts de

l'indétermination des électeurs

21
Patrick LEHINGUE

4.1 Indétermination et incertitude : trois

approches possibles

L'indétermination ou l'incertitude sont souvent envisagées, en matière


d'enquête d'opinion, sous l'angle de la fiabilité de l'instrument sondagier. On
sait que dans un sondage établi sur échantillon aléatoire, l'ampleur des
intervalles de confiance (souvent rebaptisés pour le grand public, marges
d'erreur) dépend - la valeur du taux de sondage pouvant être négligée - de
trois variables :
a) les résultats de l'observation faite sur l'échantillon, soit pour ce qui
nous concerne, le pourcentage d'intentions de vote recueilli pour un
candidat donné.
b) le seuil de confiance, ou, à l'inverse, le risque choisi (assez
généralement pour ce qui concerne les sciences sociales, 5 %).
c) enfin, la taille de l'échantillon dûment recueilli, laquelle ne saurait
être confondue avec le nombre de réponses réellement collecté (ici
les intentions de vote).

Mais on sait également que la détermination de ces intervalles de confiance


(ou fourchettes) n'est censée être rigoureusement possible que quand la
sélection des enquetés est purement aléatoire, ce qui n'est jamais le cas.

21 CURAPP, Université de Picardie, pIchinguc@yahoo.fr.


4. Sondages électoraux 159

Mieux vaut alors délaisser les questionnements classiques en interrogeant


d'une part l'incertitude des enquêtés, et d'autre part, la détermination par les
instituts de sondage du degré d'indétermination des électeurs, en conjuguant
au pluriel ce terme trop singulier.

4.2 L'incertitude et l'indétermination des

électeurs potentiels

En restreignant la focale à cette espèce très singulière de sondage qu'est


l'enquête préélectorale, on peut faire trois observations.

4.2.1 Les spécificités de l'enquête préélectorale

Si, dans la grande famille des sondages, le sondage d'intention de vote est à
ce point spécifique et singulier, ce n'est pas principalement parce qu'il
cherche à recueillir une infonuation qui relève à la fois de l'opinion, de la
pratique, ou de l'anticipation d'une pratique. Ce n'est pas non plus parce que
de toutes les espèces de sondage, il est, et de très loin, le plus médiatisé, celui
dont les résultats circulent le plus, au point qu'on ne cesse de poser à son sujet
depuis un célèbre article de Gallup en 1939, la question des effets de
l'instrument de mesure sur l'objet mesuré. C'est plus prosaïquement parce
qu'il est le seul dont les indications fournies (qu'on les appelle
« instantanés », « photographies », « prévisions », « prédictions » ou
prophéties ») pourront être à un certain moment (le soir du vote) confrontées à
une réalité mesurable, d'où la problématique récurrente, et pas toujours très
informée, des « erreurs » ou des « succès », du Triomphe ou de la Bérézina,
des instituts.

4.2.2 L'illusion du « réalisme métrologique »

Sans doute (seconde observation) la facilité avec laquelle chacun peut


mesurer les écarts séparant les dernières enquêtes du verdict des urnes, induit-
elle paradoxalement une certaine naïveté, celle qui consisterait à céder à
« l'illusion du réalisme métrologique. » Pour le dire très vite, la mesure des
intentions de vote pour N. Sarkozy ou F. Bayrou, à t moins x, y ow z jours,
semaines ou mois, n'équivaut pas - elle n'est pas de même nature - à la
mesure de la hauteur du Mont Blanc et ce pour au moins deux raisons : du fait
de la prégnance des biais et artefacts que produit l'interaction sociale, fut-elle
fugitive, entre enquêteur et enquêté et qui est à la base de l'opération de
mesure ; mais surtout, parce que « la chose » à mesurer n'a pas le degré
d'objectivation, de cristallisation, de réalité qui caractérise celle d'un massif
montagneux, fût-il à terme altéré par le réchauffement climatique.
En clair, en matière préélectorale, la mesure de l'écart par rapport à la
valeur réelle est plus qu'hypothéquée par ce fait fâcheux : il est moins que
160 Enquêtes et sondages

certain que trois mois, quinze jours ou même la veille d'un scrutin, valeur
réelle il y ait réellement, d'où l'impérieuse nécessité d'évaluer - même
approximativement et sans certitude probabiliste possible - l'indétermination
(ou l'incertitude) des électeurs.

4.2.3 Printemps 2007 : l'incertitude au cœur des


mesures

Cette nécessaire évaluation était, jusqu'à une date récente, très épisodique et
souvent réservée aux arrières cuisines de la confection des chiffres redressés ;
cependant, les lignes ont bougé et des progrès substantiels ont été accomplis à
l'occasion des scrutins du printemps 2007 ; in fine, on reste cependant assez
loin du compte.
Premier point : la détermination de l'indétermination électorale était
jusqu'alors tout à fait marginale comme en témoigne le fait que le
pourcentage prévu d'abstention, ou encore le nombre réel d'enquêtés ayant,
sur un échantillon de 1 000, déclaré une intention de vote, n'était
qu'exceptionnellement publié. Le pourcentage d'électeurs ayant déclaré une
intention de vote mais pouvant changer d'avis était également - sauf
92
exceptions" - non diffusé alors même qu'il était disponible puisque utilisé
pour passer des intentions de vote « brut machine » aux chiffres nets corrigés
et publiés. L'habitude prise par les médias était de titrer et de focaliser toute
l'attention sur la distribution des intentions de vote, dans une perspective de
horce race reporting (X gagne deux points et dépasse Y qui en concède trois
dans la dernière ligne droite), en laissant complètement dans l'ombre la
question saillante des intentions de vote peu fermes, des indécis ou des
abstentionnistes potentiels.
De ce point de vue, la séquence électorale du printemps 2007 se caractérise
par un progrès notable dans la diffusion d'informations relatives au niveau
d'indétermination des électeurs. Pour expliquer ce scrupule méthodologique,
on peut ici réactiver l'adage selon lequel « nécessité a fait vertu », ou brandir
l'analogie de la police d'assurance multirisques. Echaudés par le revers de
2002, les instituts ont multiplié les précautions d'usage ; ils ne se sont pas
contentés de fder les métaphores plus ou moins ajustées de « la photo-
graphie » ou du « baromètre », mais ont généralement accompagné toute

22 Par exemple IPSOS lors du référendum européen de 2005. Pour une exploitation
secondaire, permettant de calculer un taux de mobilisation électorale, on se permet de
renvoyer à Lchingue (2007, pages 73 et suivantes).
4. Sondages électoraux 161

publication des intentions de vote par des mesures variées de la fermeté


desdites intentions23.

4.3 Les apories de la mesure

Au total, on ne pourrait que se féliciter de cette batterie de questions et de leur


soudaine diffusion, n'étaient deux réserves qui appellent une (re)mise à plat
du problème de l'incertitude électorale.

4.3.1 La persistance de « bruits » : sur deux réserves

À une même date, et pour une question globalement identique, le pourcentage


d'électeurs indéterminés et indécis varie fortement d'un institut à l'autre. La
forte variabilité de ces estimations de l'indétermination électorale tient
évidemment au numérateur du ratio c'est-à-dire à la formulation exacte de la
question sur la fermeté du vote et aux pré-réponses suggérées. Problème
moins perçu, le dénominateur est également en cause, soit la base d'enquêtés
retenus (total des enquêtés inscrits, total de ceux sûrs d'aller voter ; total des
intentions de vote réellement déclarées, etc.).
En second lieu, s'il faut se féliciter que l'attention se déplace enfin de la
rituelle question du calcul des marges d'erreur vers celle de l'indétermination
électorale, on peut se demander si la logique de scoop présidant à la
publication des enquêtés, n'a pas quelque peu brouillé la situation. Témoin,
cette manchette du Parisien Aujourd'hui du 8 avril, «Présidentielles: 18
millions d'indécis », ou à partir du cumul d'enquêtés de CSA sur un mois (ce
qui, en soi, est déjà problématique), on apprennait que 42 % des électeurs
n'auraient pas fait leur choix. Une telle représentation pose évidemment deux
problèmes.

23 Exemple de questions posées : pour 1TFOP « Diricz-vous que vous êtes sûr de votre
choix ou que vous pouvez encore changer d'avis ? » ; pour 1PSOS, calcul d'un potentiel
électoral par candidat (« Vous seriez certain de voter pour lui ou elle » + « il serait
possible que vous votiez pour lui ou elle ») ; chez BVA, calcul du pourcentage de
personnes interrogées n'ayant pas exprime d'intention de vote, et du pourcentage
d'enquêtés sûrs d'aller voter et exprimant une intention de vote ; sur la base des
électeurs certains d'aller voter, mesure par la SOFRES de la sûreté de leur choix pour le
premier tour à partir d'une question d'abord dichotomisée (« Etes-vous sûr de votre
choix ou pourriez-vous changer d'avis ?) puis en fin de campagne, ouverture des pré-
réponses à quatre options (vous avez fait votre choix et vous n'en changerez pas - vous
avez une nette préférence pour un candidat mais vous hésitez encore - vous hésitez
vraiment entre deux ou trois candidats - à ce jour, vous ne savez absolument pas pour
qui vous allez voter » ; chez Louis Harris enfin, outre le calcul du pourcentage de
personnes interrogées certaines d'aller voter n'ayant pas exprimé d'intentions de vote,
mesure de la fermeté avec trois options (vous avez fait définitivement votre choix pour
ce candidat - vous avez une préférence marquée pour ce candidat mais vous pouvez
encore changer d'avis - vous hésitez encore à faire votre choix entre ce candidat et
d'autres candidats)...
162 Enquêtes et sondages

D'une part, elle tend à présenter ce niveau d'indécision comme tout à fait
exceptionnel (jamais les électeurs n'auraient été aussi indécis, ce qui a été
l'un des grands lieux communs de cette campagne) alors même que les
premières analyses post-électorales suggèrent par exemple que le moment du
choix n'a pas été beaucoup plus tardif en 2007 qu'il ne l'avait été en 1995 ou
en 2002.
D'autre part, pour reprendre la formule classique de Durkheim, de tels
chiffres sensationnalistes, confondent ce qu'il faudrait, en toute rigueur,
distinguer.

4.3.2 La polysémie de l'indétermination électorale :


« distinguer ce que d'ordinaire on confond »

En toute logique, par rapport à un échantillon donné, dix sous-populations


devraient être distinguées dont il importerait de connaître plus précisément le
poids et les propriétés sociales respectives, programme de recherche certes
ambitieux mais élémentaire si l'on veut cerner avec plus de rigueur les
facettes multiples de l'indétermination électorale. Détaillons ces dix sous-
ensembles.
1. En amont même de l'administration du questionnaire, au stade de la
constitution des échantillons, on devrait mieux appréhender les
caractéristiques et la proportion de personnes qui n'ont pu être
jointes, ou n'ont pas voulu être interrogées, soit dix à vingt fois le
nombre d'enquêtés ayant finalement accepté d'être interrogés, le tout
n'étant pas sans conséquence sur la représentativité des échantillons
par quotas24 et donc sur la fidélité de cette photographie miniaturisée
du corps électoral qu'est censé être un échantillon d'électeurs inscrits.
2. Seconde sous-population, les sondés décidés à s'abstenir et osant en
faire l'aveu et dont on sait qu'ils sont sous-représentés dans les
échantillons (à peine 5 %).
3. « Strate » la plus difficile à repérer, l'ensemble des sondés décidés à
s'abstenir mais ne le « confessant » pas, donc répartis (mais dans
quelles proportions ?) dans les catégories qui suivent.
4. Les sondés ne sachant pas encore, à la date de l'interrogation, s'ils
iront voter ou pas, l'indécision ou l'incertitude portant alors sur l'acte
de vote lui-même (sans doute, la technique du vote probabiliste
serait-elle ici assez précieuse.)
5. Population sans doute numériquement marginale : les électeurs
sachant qu'ils iront voter mais décidés ou enclins à voter blanc ou
nul.

24 Pour une illustration je renvoie aux évaluations que j'ai pu glaner à Lehingue (2007,
pages 98 et suivantes) et au bilan des appels téléphoniques passés pour la réalisation du
BPF du CEVIPOF à Chiche (2007).
4. Sondages électoraux 163

6. Les électeurs décidés à aller voter mais ne sachant encore absolument


pas pour qui (dans le baromètre SOFRES, 8 % des électeurs certains
d'aller voter étaient - ou se disaient être - dans ce cas, à la veille du
premier tour des présidentielles).
7. Les électeurs décidés à aller voter, sachant pour qui, mais refusant de
révéler ce choix « le vote est secret », « cela ne vous regarde pas »,
répliques assez fréquentes, notamment chez les enquêtés les plus
âgés, et singulièrement les femmes.
8. Les électeurs décidés à aller voter, sachant pour qui, mais masquant
leur intention de vote en donnant à l'enquêteur de fausses indications
(votes Le Pen).
9. Les électeurs décidés à aller voter, sachant pour qui, l'indiquant
« sincèrement », mais pouvant encore changer d'avis. On pourrait
utilement subdiviser cette population (certains instituts s'y sont
essayés) en fonction du degré d'incertitude ou d'hésitation de ces
électeurs aux intentions encore fragiles.
\0.Last but not least : les électeurs acceptant de répondre aux enquêtes,
décidés à aller voter, sachant pour qui, le disant, et certains de ne plus
modifier leurs intentions. On aura compris que ce dernier sous-
ensemble est, pour un échantillon de 1 000 répondants (et pire encore
de 20 000 contactés) très minoritaire, ce qui relativise beaucoup le
calcul des intervalles de confiance rappelé plus haut.

4.3.3 Quatre remarques conclusives

À ce stade, très programmatique (mais pas nécessairement « spéculatif »),


quatre observations provisoires :
1. Les frontières entre les composantes de ce mille feuilles, entre les
différents sous-ensembles de cette population globale sont souvent
très poreuses et plaident pour l'abandon d'une posture de réalisme
métrologique.
2. A ce jour, on a peu d'idées sur l'importance et les propriétés sociales
de ces différents sous-groupes, et pas de données sur leurs affinités
ou distances respectives.
3. La difficulté de les appréhender est triple, méthodologique, sociale et
politique. Méthodologique car elle tient à la qualité des interactions
sociales que représentent les entretiens, au nombre et à la précision
des questions posées, au mode d'administration (face-à-face,
téléphone, on line) du questionnaire. Sociale car on est confronté à
des normes et tabous culturels variables dans le temps et dans
l'espace social : vote FN comme vote inégalement dicible ; participa-
tion inégalement intériorisée comme devoir civique ; abstention
comme caractérisant le mauvais citoyen ou à l'inverse l'électeur
164 Enquêtes et sondages

rationnel ; indécision comme marque d'une personne irréfléchie ou


au contraire stratège...Politique enfin, car les degrés d'incertitude des
électeurs et d'indétermination des sondeurs sont fonction de la
configuration de l'offre (nombre de candidats), des dynamiques de
campagne, des types de scrutin ou de leur succession chronologique.
4. La probabilité d'une erreur des instituts est fonction directe de la
proportion respective de ces différentes sous-populations et du souci
ou de l'indifférence avec lesquelles on aura tenté d'en évaluer les
composantes.

BIBLIOGRAPHIE

Lehingue, P. (2007). Subunda. Coups de sonde dans l'océan des sondages.


Bellecombe-en-Bauges, Le Croquant.
Chiche, J. (2007). La qualité des enquêtes politiques. Les cahiers du
CEVIPOF. vol. 47, 19-30.

5. Les probabilités de vote

Bernard DENNI25 et Philippe CAILLOT26

5.1 Introduction

L'analyse des comportements électoraux est un art difficile. Ceux-ci sont


connus par les statistiques électorales portant sur des unités géographiques
(bureaux de vote, communes, circonscriptions électorales, etc.). Les sondages
ne produisent pas de données comportementales, mais seulement des
déclarations sur un comportement futur (intentions de vote) ou passé
(reconstitution du vote). Or, indépendamment des biais d'échantillonnage, ces
déclarations correspondent de façon imparfaite au comportement réel de
l'électeur. Dans les enquêtes pré-électorales, l'une des sources importantes de
l'écart entre le dire et le faire est l'indécision de l'électeur avant le scrutin.
Les identités sociales et politiques devenant moins prégnantes et les enjeux,
les clivages entre les partis ou les candidats moins lisibles, cet état
d'indécision concerne un nombre important d'électeurs et peut durer jusqu'au
jour du scrutin. En forçant l'électeur à réagir comme s'il avait déjà décidé de
son choix, les questions habituelles d'intentions de vote saisissent de façon
trop artificielle le processus long et complexe du choix électoral.
Pour mieux saisir les hésitations des électeurs, plusieurs méthodes sont
utilisées. L'une d'elle, les probabilités de vote, a été mise au point par le

25 Professeur de science politique, co-directeur de l'UMR Pacte IEP Université de


Grenoble, co-responsable du Master IEP « Progis, Études d'Opinion et de Marché ».
26 Statisticien, Pacte IEP Université de Grenoble.
4. Sondages électoraux 165

programme de recherche « Formation du Jugement Politique » du laboratoire


PACTE de Grenoble et testée dans deux enquêtes réalisées pendant la
campagne présidentielle en février et avril 2007 dans le département de
l'Isère27. Quelles sont les caractéristiques de cette méthode ? Que nous
apprend-elle sur la fonnation de la décision électorale ?

5.2 Méthode

Le comportement d'un électeur existe au moment même où le président du


bureau de vote déclare : « a voté ! ». Avant, son « comportement » à venir
peut s'analyser à partir de probabilités de vote. L'électeur sait assez
rapidement qui il élimine. Plusieurs semaines avant un scrutin, quelques
électeurs politisés peuvent avoir fermement choisi leur candidat. Mais la
plupart construit sa décision à partir d'un ensemble de préférences plus ou
moins affirmées pour plusieurs candidats. La méthode des probabilités de
vote enregistre ces différentes situations en invitant les enquêtés à indiquer
sur une échelle numérique les « chances » qu'ils ont d'aller voter (mesure de
la participation), puis les « chances » de voter pour chaque candidat (mesure
du choix électoral). Dans les enquêtes iséroises, les deux questions suivantes
sont posées à la suite, au milieu du questionnaire :
Parlons maintenant du Ie' tour de la prochaine élection présidentielle de
2007.
Pouvez-vous me dire combien il y a de chance sur dix pour que vous alliez
voter au premier tour de cette élection ? Si vous êtes certain de voter, vous
répondez 10. Si vous êtes certain de vous abstenir, vous répondez 0. Vous
pouvez nuancer votre réponse en donnant des chances de 1 à 9.
Et ensuite combien y a-t-il de chances sur 10 pour que vous votiez pour
chacun des candidats suivants :
Si vous êtes certain de voter pour lui, répondez dix. Si vous êtes certain de
l'éliminer, répondez 0. Entre les deux, vous pouvez nuancer votre réponse.

L'échelle de « chances » sur dix s'est imposée après avoir été testée par
* * 28 *
téléphone car elle est mieux comprise que l'échelle de 0 à 100" . Moins
indiscrète et intrusive qu'une question d'intention de vote directe, souvent
perçue comme « intéressante » par les personnes enquêtées, cette façon
d'aborder le comportement électoral facilite l'expression de tous les choix,
sous forme de simple possibilité. La bonne acceptation de la question est
attestée par le faible taux de sans réponse (entre 5 % et 3 %).

27 Enquêtes par quotas, réalisées au téléphone par BVA du 5 au 10 février et du 10 au 14


avril 2007 dans trois cantons et une commune du département, très contrastés sur le plan
sociologique et politique. Pour chaque vague, 250 personnes par zones ont été
interrogées pendant 22 minutes en moyenne.
28 Panni d'autres indices, les temps de réponses mesurés par le système CAT1 sont un peu
plus longs avec l'échelle de 0 à 100.
166 Enquêtes et sondages

Plus faciles à donner, les réponses ne sont-elles pas aussi moins sincères ?
Perçue parfois comme un jeu, la question ne favorise-t-elle pas des réponses
plus superficielles, peu fiables ? Plusieurs éléments permettent de considérer
qu'il n'en est rien. Ainsi, pour tous les candidats et dans les deux enquêtes, la
courbe des fréquences cumulées des réponses à partir de la probabilité 10 fait
apparaître un coude très net au-delà la réponse 6. Les probabilités entre 10 et
6 sont les plus « difficiles » à exprimer : plus impliquantes, elles sont sans
doute plus directement liées au comportement de l'électeur. D'autre part,
rares sont les sondés qui utilisent la probabilité 10 pour plusieurs candidats :
29
3 % l'utilisent 3 fois et plus dans les deux enquêtes" , 6 % donnent deux dix
en février et 3 % en avril.

5.3 Apports de la méthode

Le choix d'une échelle numérique plutôt que sémantique offre de nombreuses


possibilités de traitements statistiques. Ceux-ci peuvent être conduits pour
analyser les rapports de force entre les candidats ou les hésitations des
électeurs. Grâce aux deux vagues d'enquête, il est possible de suivre les
dynamiques de la campagne.

5.3.1 Les rapports de force

Le traitement le plus simple consiste à étudier comment les probabilités se


répartissent sur l'ensemble des candidats : on décrit ainsi leur potentiel
électoral et le rapport de force qui structure la compétition. Tous les candidats
ont des électeurs perdus (aucune chance de voter pour eux) : ils sont très
nombreux aux extrêmes, et en particulier pour J.-M. Le Pen rejeté par les trois
quarts des personnes interrogées30. Le rejet reste fort (près de 60 %) pour les
candidats de la gauche antilibérale et pour D. Voynet (40 %). Seuls les trois
candidats placés en tête dans les sondages apparaissent plus consensuels, le
refus de voter pour eux variant de 29 % pour S. Royal et F. Bayrou à 35 %
pour N. Sarkozy. Les chances entre 1 et 5 correspondent au potentiel faible
des candidats. La note 5, qui traduit une forte indécision, est fréquente et à
égalité pour S. Royal et F. Bayrou, un peu plus rare pour le candidat de
l'UMP. Celui-ci bénéficie du potentiel fort le plus élevé (de 6 à 10), avec
notamment le plus gros capital électoral (10 chances sur 10). Des analyses en
composantes principales faites sur l'ensemble des 10 candidats montrent,
dans les deux enquêtes, que ces réponses sont politiquement très structurées et
stables.

29 Ces réponses, peu fiables, sont exclues de l'analyse.


3025 % n'excluent donc pas de voter pour lui. Dans les quatre terrains d'enquête,
l'extrême droite a obtenu 20,2 % le 21 avril 2005, 9,9 % en 2004 et 9 % en 2007.
4. Sondages électoraux 167

Le 1° axe, (31,3 % de la varianee), rend compte de l'opposition entre les


deux principaux candidats ; les plus fortes corrélations sont entre les candidats
de la gauche antilibérale qui se disputent le même électorat. Le 2° axe (21 %
de la varianee) est structuré par l'opposition entre N. Sarkozy, J.-M. Le Pen et
P. de Villiers d'une part et S. Royal d'autre part. F. Bayrou est mal représenté
dans ce plan : choisi à la fois par des électeurs de droite, de gauche et
« centristes », il définit le 3° axe de l'analyse. En avril 2007, cette structure
des réponses n'a pas évolué.

Figure 4.4 : Plan des facteurs 1 et 2 de l'analyse en composantes


principales des probabilités de vote en février 2007
(avec effet de taille)

5.3.2 Les hésitations des électeurs

La méthode évalue convenablement la dynamique de la mobilisation


électorale : début février, 79,9 % des personnes interrogées sont certaines de
voter (probabilité de 10) ; elles sont 86,6 % début avril. Finalement, 87,3 %
voteront le 22 avril dans les quatre zones d'enquête.
De février à avril, les électeurs « déterminés » (un seul candidat choisi avec
la probabilité 10) augmentent de 24 % en février à 38 % en avril ; à l'inverse,
les « hésitants » (plusieurs probabilités supérieures à 5) diminuent de 52 % à
41 % et les « sans avis dominants » (toutes les probabilités de 1 à 5) de 24 %
168 Enquêtes et sondages

à 21 %. Un indice de concentration des votes traduit ces évolutions31. Ainsi


entre février et avril, l'indice passe de 463 à 509. Cette augmentation
moyenne, conforme à la dynamique attendue d'une campagne électorale,
cache des mouvements très inégaux selon les groupes sociaux : faible
augmentation chez les cadres supérieurs dont le vote est déjà très concentré en
février (de 491 à 498), concentration plus forte des votes chez les ouvriers, les
professions intermédiaires, les plus de 60 ans et les électeurs de droite, les
électeurs les plus politisés et exposés à la campagne ; léger recul chez les
électeurs centristes (de 434 à 415).
Enfin la méthode est conçue pour analyser les hésitations des électeurs entre
plusieurs candidats. L'étude du chevauchement des préférences doit porter sur
les probabilités les plus prédictives des comportements électoraux à venir.
Après l'élection, on peut retenir le seuil d'éligibilité de chaque candidat,
défini, à l'aide des fréquences cumulées des réponses à partir de 10, par la
probabilité qui approxime le mieux le résultat réel ~. On observe début avril
que 19% des électeurs probables de S. Royal sont aussi des électeurs
probables de F. Bayrou et 8 % de N. Sarkozy ; 26,7 % des électeurs de
F. Bayrou « votent » aussi pour S. Royal et 34 % pour N. Sarkozy ; 38,7 %
des électeurs de J.-M. Le Pen sont aussi électeurs de N. Sarkozy, etc. Cette
analyse de la perméabilité des préférences électorales est particulièrement
intéressante pour anticiper les évolutions des rapports de forces au cours de la
campagne. Elle permet aussi de se faire une idée assez précise des reports de
voix au second tour, sans même poser les questions délicates sur les scénarii
des candidatures au second tour.

5.4 Conclusion

Des travaux sont en cours pour mieux cerner les perfonnances et les limites
de l'outil. Les premiers résultats penuettent toutefois d'estimer que
l'expérience conduite dans l'Isère est concluante. La méthode des probabilités
de vote est bien acceptée par les personnes interrogées. Une enquête
qualitative conduite parallèlement montre que ce mode d'interrogation fait
écho à la façon dont les électeurs élaborent spontanément leur décision
électorale et en parlent. L'information obtenue permet de mesurer leurs
hésitations, donc de prendre en compte l'écart entre les intentions de vote et le

31 L'indice mesure l'écart entre la plus forte probabilité affectée et les autres affectations
positives. Le maximum est I 000 quand un seul candidat est choisi avec la probabilité
10. Le minimum est 0 si tous les candidats choisis ont la même probabilité positive.
32 Ainsi, S. Royal obtient 27,2 % dans les quatre zones. Début avril, 12,7 % lui donnent la
probabilité 10 et 27,2 % lui donnent une probabilité supérieure à 6. La probabilité 7 est
son « seuil d'éligibilité ». Ce seuil varie selon les candidats, en fonction de leur capacité
à mobiliser au-delà de leur noyau électoral, ou des difficultés à avouer un vote en leur
faveur. Le seuil est entre 5 et 6 pour J.-M. Le Pen, de 6 pour N. Sarkozy et de 8 pour
F. Bayrou.
4. Sondages électoraux 169

comportement réel. L'instrument est sensible à la conjoncture : il enregistre la


mobilisation électorale, la polarisation des choix et la perméabilité des
préférences et permet d'analyser leurs variations selon les groupes sociaux.
La production régulière de ce type de mesures du vote permettrait de mieux
suivre les dynamiques électorales et de mieux comprendre la formation du
choix des électeurs.

6. L'appui à la souveraineté du Québec :

effets de formulation de la question et

effets de contexte

33
François YALE et Claire DURAND

6.1 Plus de 40 années de sondage

Cela fait aujourd'hui plus de 45 ans que l'idée de la souveraineté du Québec


fait partie du paysage politique du Québec. En moins de deux décennies, elle
a donné lieu à deux référendums, le premier en mai 1980 et le second en
octobre 1995. A cet égard, les enjeux sont demeurés importants pour les
acteurs politiques ainsi que pour les sondeurs d'opinion qui ont comme
mandat de capter le pouls de la population sur cette question.
En effet, cette tâche n'a jamais été une chose simple. Au fil des années, des
discours, des débats et des stratégies politiques, sont apparues plusieurs
façons de nommer le projet nationaliste. Séparation, indépendance,
souveraineté, souveraineté-association et souveraineté-partenariat ont été les
principales expressions utilisées au cours de l'histoire. Elles font désormais
toutes partie, dans diverses mesures, de l'univers symbolique entourant le
projet nationaliste québécois. Le défi des sondeurs a donc été, et est toujours,
de tenir compte de cette réalité dans la construction de leurs questions
d'enquête.
Ce chapitre vise à présenter un portrait général longitudinal de l'appui à la
souveraineté du Québec. Il ne s'agit pas d'expliquer l'appui à un moment
précis de l'histoire mais plutôt d'expliquer son évolution. Par conséquent,
notre intérêt se tourne vers deux sources explicatives, soit la formulation de la
question et les effets du temps et des événements. En d'autres termes, plutôt
que de faire l'étude de l'appui à la souveraineté du Québec, nous faisons
l'étude de la variation dans les appuis mesurés depuis près de 40 ans.
Trois questions de recherche sont alors proposées :
a) Dans quelle mesure la formulation de la question influence-t-elle
l'appui à la souveraineté mesuré ?

33 Département de sociologie, Université de Montréal.


170 Enquêtes et sondages

b) Dans quelle mesure le contexte (temps et événements) influence-t-il


l'appui mesuré ?
c) L'effet de la formulation de la question varie-t-il avec le temps et
selon le contexte ?

6.2 Les données et mesures utilisées

Nous possédons au total 942 questions de sondages, posées entre 1962 et


2007. Cependant, faute d'espace, nous limitons les analyses présentées ici à
deux périodes : la période antérieure au référendum de 1995 (juillet 1989 à
juin 1995 ; 296 sondages) et la période post-référendum de 1995 (novembre
1995 à juin 2007 ; 315 sondages). Les périodes sont divisées en mois. C'est
cette unité de temps qui sera utilisée pour les analyses.
La variable à expliquer est l'appui à la souveraineté du Québec, après une
répartition proportionnelle des répondants discrets. Les variables explicatives
sont constituées de celles liées à la formulation de la question ainsi que de
celles liées au temps.
Les variables liées à la formulation de la question sont divisées en deux
catégories : la proposition constitutionnelle et le type de question. Les
propositions constitutionnelles utilisées dans les questions de sondage et
utilisées ici sont les suivantes : séparation, indépendance, souveraineté et
souveraineté-partenariat. Le type de question distingue les questions
d'intention de vote (voteriez-vous OUI ou voteriez-vous NON...) des
questions d'attitude (Etes-vous très favorable, plutôt favorable,...).
Le temps est divisé en mois. Les variables liées au temps sont représentées
par des variables représentant les effets linéaire, quadratique et cubique. Les
variables d'événements sont d'abord codées de manière dichotomique pour
tester des effets instantanés et sont ensuite mises sous forme linéaire simple,
quadratique et cubique pour tester des changements dans l'évolution
temporelle suite aux événements. Les événements sont choisis d'après
l'importance qu'ils ont occupée sur la scène politique québécoise.

6.3 Analyses et résultats

Les analyses sont réalisées avec HLM 6.0. Il s'agit de modèles multiniveaux
qui permettent d'isoler les parts de variance à expliquer par chacune des
sources explicatives. D'abord, pour la période pré-référendaire (1989-1995),
la composante de variance du modèle zéro — il s'agit du modèle sans aucune
variable explicative (non présenté ici) — suggère que 60 % de la variance
totale est explicable par des facteurs liés à la mesure, alors que les variables
relatives au temps en expliquent 40 %.
Pour ce qui est des effets propres aux différentes formulations de question
(nous parlons ici d'effet moyen pour l'ensemble de la période), les différences
sont significatives. Les questions d'intention de vote récoltent en moyenne 2
4. Sondages électoraux 171

points de pourcentage de moins que les questions d'attitude. Comparées aux


questions portant sur la souveraineté-partenariat (proposition de référence),
celles portant sur la séparation récoltent 16 points de moins, celles sur
Vindépendance, 14 points de moins et, enfin, celles portant sur la
souveraineté, 8 points de moins. Seuls les effets des propositions séparation
et indépendance ne sont pas significativement différents les uns des autres.

r
Figure 4.5 : Evolution de Tappui aux options
constitutionnelles, 1989-1995

souv-pan. prédiction
souveraineté prédiction
extrême prédiction

or oQ.

A0

mois/année

Pour ce qui est de la dimension longitudinale, après avoir testé chaque


variable liée au temps, nous avons identifié un modèle final pour la
proposition de référence. Le même modèle est ensuite testé pour les autres
propositions afin de voir comment les effets de celles-ci se distinguent des
effets du modèle de référence. Cela nous permet d'obtenir un modèle
longitudinal pour chacune des propositions. Cependant, avant d'estimer les
modèles, puisque séparation et indépendance ne se distinguent pas
significativement, ces propositions ont été fusionnées en une seule variable,
extrême. Ces modèles sont reproduits graphiquement et présentés à la figure
4.5. Nous voyons que les événements ayant eu des effets significatifs
importants sont l'échec de l'accord du Lac Meech en 1990 ainsi que le
référendum de Charlottetown en 1992. Cette modélisation a penuis
d'expliquer 64 % de la variance initialement estimée au niveau de la mesure
ainsi que 90 % de la variance liée à l'évolution.
Pour ce qui est de la période post-référendaire -1995-2007-, la composante
de variance du modèle zéro (non présenté ici) suggère que 87 % de la
variance totale est explicable par des facteurs liés à la mesure, alors que les
variables relatives au temps en expliquent 13 %.
Pour ce qui est des effets de formulation des questions, les questions
d'intention de vote recueillent en moyenne 4 points de pourcentage de moins
que les questions d'attitude. Ensuite, toujours par rapport à la proposition de
172 Enquêtes et sondages

référence (souveraineté-partenariat), celles portant sur la séparation récoltent


12 points de moins, celles sur Vindépendance, 6,5 points de moins et, enfin,
celles portant sur la souveraineté, 5 points de moins. Pour cette période, seuls
les effets des propositions indépendance et souveraineté ne se différencient
pas significativement.
Comme pour la période précédente, nous avons identifié un modèle
longitudinal final pour la proposition de référence. Nous avons estimé ensuite
le môme modèle pour les autres propositions afin de voir comment elles se
distinguent. Cette fois-ci, les propositions indépendance et souveraineté ont
été jointes sous l'étiquette milieu. La figure 4.6 présente l'évolution de l'appui
pour ces propositions.

r
Figure 4.6 : Evolution de Fappui aux options
constitutionnelles, 1995-2007

souv-partenariat prédiction
milieu prédiction
séparation prédiction

S? ^

o_

sO

mois'année

La figure 4.6 montre que l'appui à toutes les propositions a d'abord chuté
sensiblement en début de période. Après une stabilisation au tournant de
2001-2002, nous voyons que le scandale des commandites (printemps 2004)
semble avoir entraîné une hausse de l'appui pour chacune des propositions.
Un effet cubique est ensuite observable à la suite du dépôt du rapport du juge
Gomery en novembre 2005, et ce pour deux des propositions. Faute de
suffisamment de données, on ne peut tester un tel effet de l'événement pour la
proposition séparation. Cette modélisation a permis d'expliquer 56 % de la
variance liée à la mesure et 50 % de la variance liée à l'évolution.

6.4 Discussion et conclusion

En réponse aux trois questions de recherche proposées initialement, nous


pouvons avancer que le type de question a effectivement un effet sur les
réponses obtenues. Etrangement, cet effet est plus élevé durant la période
4. Sondages électoraux 173

post- référendaire alors qu'il aurait été légitime de s'attendre à une réduction
de cet effet avec le temps : les répondants devenant de plus en plus familiers
avec le sujet, l'effet de la question devrait s'amoindrir. C'est d'ailleurs ce que
suggèrent les effets propres aux propositions constitutionnelles. La période
1989-1995 présente des effets de proposition assez forts alors que ces effets
sont moindres pour la période suivante.
A l'égard de la deuxième question, nous avons vu que le temps et certains
événements permettent d'expliquer une part de la variation dans les appuis
mesurés. L'effet de l'échec de Meech en est une parfaite illustration : cet
événement semble avoir entraîné une démobilisation populaire. Enfin, quand
à la troisième question, les conclusions diffèrent d'une période à l'autre. Entre
1989 et 1995, il semble clair que les appuis aux différentes propositions n'ont
pas évolué de façon parallèle. Nous pouvons même suggérer une tendance à
la convergence des appuis aux propositions autres que souveraineté-
partenariat. S'agit-il d'un effet particulier dû à l'imminence du référendum
sur cette question ? Bien qu'il existe encore des différences dans les effets des
propositions après le référendum de 1995, les évolutions semblent être
parallèles, ce qui vient renforcer l'hypothèse d'un effet de l'éventuel
référendum avant octobre 1995.
Cette méta-analyse de sondages a permis de confirmer certains résultats
déjà observés mais aussi de découvrir de nouvelles pistes de réflexion. C'est
également dans sa dimension méthodologique que cette étude se distingue.
L'utilisation de l'analyse multiniveaux pour réaliser une analyse de données
de sondage s'est avérée fructueuse. Non seulement la logique multiniveaux
adhère au cadre théorique, mais de plus, aucune autre méthode n'aurait
permis de répondre à la troisième question de façon aussi simple.
û
CO
o
o
fM

ai
>-
CL
O
u
Chapitre 5

Sondages dans les pays en

développement

1. L'estimation du nombre d'enfants

victimes de traite au Bénin : un défi

méthodologique majeur

1
Blandine C. DANSOU

1.1 Introduction

Malgré les avancées de la recherche qualitative, l'absence de données


quantificatives est en général reconnue comme un obstacle à l'élaboration
d'une stratégie de communication efficace contre la traite des enfants
(Habiyakare, 2005). Il sera identifié dans cet article les difficultés méthodo-
logiques liées à l'estimation du nombre d'enfants victime de traite au Bénin et
proposé une méthode d'estimation qui contourne chacune de ces difficultés.

I Chercheur indépendant auprès du Centre de Formation et de Recherche en Matière de


Population (CEFORP).
176 Enquêtes et sondages

1.2 Les difficultés de l'estimation du nombre

d'enfants victimes de traite au Bénin

1.2.1 Opérationnalisation de la traite des enfants

L'une des premières définitions de la traite des enfants est celle proposée par
le protocole de Palerme (UN, 2000). Il définit la traite d'enfant comme, le
recrutement, le transport, le transfert, l'hébergement ou l'accueil d'une
personne de moins de 18 ans à des fins d'exploitation. Et ce, même dans le
cas où la victime a donné son consentement et qu'il n'y a eu aucune menace,
utilisation de la violence ou autres formes coercitives. L'exploitation
comprend, au minimum, l'exploitation de la prostitution d'autrui ou d'autres
fonues d'exploitation sexuelle, le travail ou les travaux forcés, l'esclavage ou
les pratiques analogues à l'esclavage, la servitude ou le prélèvement
d'organes.
Cette définition, claire à la lecture, suscite quelques interrogations :
- quand dira-t-on que l'enfant s'est déplacé ou a été déplacé ?
- qui déplace l'enfant pour qu'on qualifie le mouvement de suspect ?
- quelle est la limite acceptable dans le contexte béninois entre travail,
exploitation et éducation de l'enfant à la vie ?

1.2.2 Base de sondage et échantillonnage

Les recensements appréhendent généralement le « travail » à travers la


combinaison de trois types d'informations :
- le statut d'occupation, qui distingue les occupés des autres catégories
(chômeurs, élèves-étudiants, ménagères, rentiers, retraités...) ;
- l'activité ou l'occupation principale (et parfois secondaire), doublée
de la branche d'activité ;
- le statut dans l'occupation (indépendant, employeur, salarié, apprenti,
aide familial...)

Compte tenu de la complexité de la sphère du travail en Afrique,


notamment en raison de l'importance du secteur dit « informel » et du
phénomène de la pluriactivité, il est communément admis que ces sources de
données ne fournissent que des mesures très imparfaites de l'activité
économique des individus.

1.2.3 Localisation des enfants victimes de traite

La littérature indique qu'a priori, la mise en situation de traite des enfants


répond presque toujours à un besoin de main-d'œuvre bon marché. On
pourrait dès lors simplement localiser les enfants victimes de traite dans les
lieux de travail de leurs employeurs potentiels. Cependant, un grand nombre
5. Sondages dans les pays en développement 177

de ces enfants est affecté aux activités domestiques ou sont disséminés en


cours de journée dans des champs ou les plantations de leur employeur. Dans
la plupart des cas, l'employeur se trouve être en môme temps le tuteur de
l'enfant. Il semble donc peu pertinent de chercher les enfants travailleurs sur
les lieux de travail.

1.2.4 Recherche des enfants victimes de traite dans un


contexte de secret et d'hostilité

Le contexte dans lequel est réalisée cette étude est celui du secret et de
l'hostilité. Le secret est dû à la nature même de l'activité illicite et immorale,
mais malheureusement « rentable ». Les ONG internationales, l'Etat à travers
la Brigade de protection des mineurs et le ministère chargé de la protection de
l'enfant ainsi que les populations s'organisent avec les autorités locales pour
lutter contre ce phénomène. Les trafiquants et les parents complices du départ
et de l'accueil des enfants se sentent poursuivis de toute part. Ce qui
augmente leur méfiance et leur hostilité à toute tentative de recherche
d'information pouvant aboutir éventuellement à leur mise aux arrêts ou pire,
les exposer à la vindicte populaire.

1.3 Les solutions proposées

1.3.1 L'opérationnalisation du concept de traite pour


faire face aux questions sans réponses des
définitions

L'opérationnalisation du concept de traite va mettre l'accent sur la migration


et l'objectif d'exploitation des enfants. L'exploitation pose le problème de la
frontière entre la formation sous ses différentes formes et les abus dont les
enfants peuvent être victimes : formation comme éducation aux dures réalités
de la vie et formation comme apprentissage. Ce terme renvoie principalement
au travail de l'enfant car c'est l'utilisation de la main-d'œuvre enfantine qui
conduit aux abus dont les enfants sont victimes.
La notion de travail des enfants recouvre ici à la fois les activités
marchandes et non marchandes, effectuées sur une base régulière par une
personne de moins de 18 ans, pendant au moins 4 heures par jour, dans ou en
dehors de la famille, dans un cadre formel ou informel. Cette approche du
concept permet de couvrir toutes les activités effectuées par les enfants, allant
du travail fonnateur aux formes exploitantes du travail des enfants.
Il ressort de ce qui précède qu'un enfant victime de traite est tout enfant
sans lien de filiation biologique avec les noyaux familiaux constituant un
ménage qui y a été acheminé et/ou placé par une tierce personne qui en a tiré
profit et/ou en tire profit.
178 Enquêtes et sondages

1.3.2 La base du RGPH3-2002 et un échantillonnage


stratifié

Malgré sa manière de collecter les informations sur le travail la base de


données du RGPH 3 (recensement général de la population et de l'habitat)
reste une base de sondage de référence pour cette étude.
La littérature a permis de cartographier le pays en trois groupes de
communes selon le statut par rapport à la traite des enfants. Les communes
pourvoyeuses {n = 34) qui sont habituellement offreurs nets de main-
d'œuvre enfantine, les communes réceptrices (/? = 8) qui sont utilisatrices
nettes de main-d'œuvre enfantine et les communes à statut inconnu (n = 35).
Compte tenu des spécificités du phénomène, toutes les communes dont le
statut est connu ont été ciblées. Un tirage aléatoire a pennis de retenir 15 des
35 communes à statut inconnu.
L'étape suivante a été la définition des strates dans chaque commune. Il a
été calculé pour les zones d'enquête (ZD) des communes pourvoyeuses et
2 •
celles à statut inconnu, un indicateur dénommé taux d'offre" de main-d'œuvre
enfantine et pour les ZD des communes réceptrices un taux d'accueil de la
main-d'œuvre enfantine à risque de traite'. Ces indicateurs ont permis à partir
d'un intervalle de confiance à 95 % construit autour de la moyenne nationale,
de classer les ZD en trois groupes en fonction du niveau de l'indicateur (fort,
moyen et faible). Les barèmes ainsi définis ont été appliqués à chaque
commune ; ce qui a donné 164 strates.
Dans chaque strate, les ZD ont été tirées au hasard à partir de la liste établie
pour le RGPH 3. Le nombre de ZD tirées dans une strate est proportionnel au
nombre de ZD que comptent les strates de la commune. Dans chaque ZD, 20
ménages ont été tirés à partir de la liste des ménages dénombrés à la première
phase de collecte. Dans chaque ménage échantillon, son chef ou son
représentant a été interrogé à l'aide d'un questionnaire et tous les enfants non
scolarisés âgés de 6 à 17 ans ont été enquêtés à l'aide du questionnaire enfant.
Au total 7 957 ménages ont été interviewés contre 8 000 prévus. Dans ces
ménages, 1 353 enfants non scolarisés âgés de 6 à 17 ans ont été enregistrés et
interrogés.
Les probabilités de sondage ont été calculées en tenant compte du statut des
communes d'appartenance des strates constituées :

2 Le taux d'offre de la main d'œuvre enfantine est la proportion des enfants de 6-17 ans
non scolarisés.
3 Le taux d'accueil est la proportion des migrants non scolarisés de 6-17 ans et sans lien
de parente avec les noyaux familiaux constituant le ménage.
5. Sondages dans les pays en développement 179

Pour le cas des strates des communes pourvoyeuses et réceptrices, la


probabilité de sélection des ménages à l'intérieur de la ZD retenue est donnée
par :

= \X(B*C)E
P
' A D F
- avec A = nombre de segments dans la ZD (certaines ZD ont été
segmentées) ;
- B = nombre de ZD tirées dans la strate ;
- C = nombre de ménages dans la ZD en 2002 ;
- D = nombre total de ménages dans la strate en 2002 ;
- E = nombre de ménages échantillon ici /? = 20 ;
- F = nombre de ménages dans la ZD en 2006.

Pour le cas des strates des communes à statut inconnu, la probabilité de


sélection des ménages à l'intérieur de la ZD retenue est donnée par :

x
^ = a ^

- avec G = Nombre de ménages dans la commune à statut inconnu


échantillon ;
- H = Nombre de ménages dans les communes à statut inconnu du
département.

La répartition non proportionnelle de l'échantillon parmi les strates a


imposé l'usage des taux de pondération pour assurer la représentativité de
l'échantillon aux niveaux départemental et national.

1.3.3 La localisation des enfants victimes de traite et la


lutte contre le secret et l'hostilité d'une filière
organisée

La manière la plus triviale de retrouver les enfants victimes de traite serait de


les rechercher chez leurs employeurs, leurs tuteurs et même leurs parents.
L'option faite ici a donc été de contourner la difficulté liée aux lieux de travail
en réalisant une enquête ménage.
Pour toucher la cible de l'étude sans attirer l'attention des parents/tuteurs et
des utilisateurs de la main-d'œuvre de l'enfant, tous les enfants non scolarisés
âgés de 6-17 ans ont été interrogés à l'aide d'un questionnaire spécifique.

1.4 En guise de conclusion

La collecte des données s'est déroulée avec succès, sans difficultés


spécifiques à la nature de la cible. Les principales difficultés étaient propres à
toutes les enquêtes ménage au Bénin : difficultés d'accès à certaines zones de
180 Enquêtes et sondages

dénombrement en raison d'inondation, refus de certains ménages de recevoir


les enquêteurs (le ménage était alors remplacé à partir d'un nouveau tirage).
L'insistance des enquêteurs a toutefois permis d'éviter certains refus des
parents/tuteurs.
L'exploitation des résultats a penuis d'estimer le nombre d'enfants victimes
de traite à 40 317, soit 2% de la population des 6-17 ans du pays. Les
données de l'étude ont été comparées avec succès aux statistiques scolaires de
routine. De même l'enquête reproduit la structure de la population béninoise
sans faire apparaître un écart significatif entre les déclarations d'âges.
Il est aussi important de souligner le rôle crucial de l'approche qualitative
préalable à l'enquête ménage et qui a continué avec elle pour dégager les
éléments pertinents à prendre en compte dans l'élaboration des outils de
collecte et dans l'échantillonnage.

BIBLIOGRAPHIE

Habiyakare, T. (2005). Le travail des enfants en Afrique de l'Ouest -


Quelques projets et problèmes actuels. Atelier international de la banque
mondiale sur les orphelins et les enfants vulnérables. Washington D.C, 19-
23 Septembre 2005.
UN (2000). Convention des Nations unies sur la criminalité transfrontalière
organisée. Conférence de Païenne, 11-15 décembre 2000.

2. La pratique des enquêtes par sondages

auprès des ménages au Liban

4
Najwa YAACOUB

2.1 Contexte historique

L'Institut de statistique au Liban n'est pas nouveau. Il a été créé en 1962


lorsqu'on instaura, au sein du ministère du Plan, une Direction Centrale de la
Statistique. En plus de la publication d'annuaires statistiques, cette direction a
mené différentes enquêtes économiques et sociales dont les plus importantes
sont le «Budget des Ménages» en 1966 et l'enquête sur la «Population
Active » en 1970 qui a porté sur un échantillon d'environ 28 000 ménages.
Le début de la guerre civile au Liban en 1975 a marqué l'arrêt progressif de
ses activités. En 1979, avec la disparition du ministère du Plan, la direction
devient par décret l'Administration centrale de la statistique (ACS) qui existe
sous cette forme jusqu'à maintenant. Elle est rattachée directement à la

4 Administration centrale de la statistique du Liban.


5. Sondages dans les pays en développement 181

Présidence du Conseil des Ministres avec un cadre comprenant 256 postes et


le mandat d'assurer les statistiques économiques et sociales du pays.
Durant les quinze ans de guerre civile l'Administration avait eu une activité
très limitée et n'a réalisé aucune enquête. Après la fin de la guerre en 1990,
elle n'a repris ses activités qu'en 1994 avec la nomination d'un directeur
général mais malheureusement cette administration n'avait pas de local dédié
et aucun équipement. Elle avait aussi perdu toutes ses archives et la quasi-
majorité de ses professionnels, statisticiens et autres, qui avaient soit émigré
durant la guerre soit trouvé un emploi dans le secteur privé.
Avec tous les besoins en infrastructure d'un pays à la sortie d'une guerre
longue et destructrice, la Statistique publique n'était pas une priorité
nationale. La reprise ne s'est accompagnée ni d'un investissement financier
suffisant pour garantir l'infrastructure indispensable en terme d'immeuble et
d'équipements, ni d'un recrutement massif de professionnels pour assurer les
ressources humaines nécessaires au fonctionnement d'une administration de
ce genre.
Malgré ces handicaps majeurs, l'équipe des professionnels qui s'est
retrouvée à l'ACS en 1994, s'est fixée comme premier objectif de se
constituer une base de sondage en menant un recensement d'immeubles, de
logements et d'établissements.

2.2 Reconstruction du système après la guerre

2.2.1 Le recensement des immeubles, des logements et


des établissements de 1995-1996

Pour entreprendre cette activité, il fallait d'abord travailler sur la cartographie


de tout le territoire libanais. Pour cela, il fallait posséder un fond de cartes à
une échelle assez fine qui permettait de découper le territoire libanais en
petites unités de recensement « les îlots ».
L'ACS avait reçu, des autorités habilitées à produire les cartes
géographiques, les cartes relatives à tout le territoire à une échelle 1/20 000.
Ces cartes étaient relatives aux années soixante. Il fallait positionner sur ces
cartes tous les nouveaux villages qui ont été depuis créés par décret. Ce travail
fut effectué méticuleusement et avait résulté en la production du premier
annuaire qui recensait tous les villages au Liban avec leurs coordonnées
géographiques. Ce document fut d'une grande utilité aux autres ministères.
Les circonscriptions foncières furent découpées en « îlots » et cela tant bien
que mal, en utilisant pour cela les rues et les routes et les limites naturelles
comme les cours d'eau et les montagnes. Des cartes traçant les limites des
îlots furent distribuées aux chefs d'équipe et aux enquêteurs qui avaient en
charge de localiser les îlots sur le terrain et cela d'après les indications sur
leurs limites. Ensuite ils devaient positionner et numéroter les immeubles qui
182 Enquêtes et sondages

se trouvaient dans chaque îlot sur les cartes, puis ils devaient recenser les
logements et les entreprises qui s'y trouvaient. À l'issue de cette opération, le
territoire libanais fut découpé en 10 506 îlots comprenant environ 524 000
immeubles, 1 021 000 logements et 194 000 établissements furent recensés.
Cette opération a duré plus de deux ans et a été réalisée alors qu'une partie
importante du Sud Liban était toujours occupée. Elle a nécessité le
recrutement temporaire de plusieurs centaines de personnes pour diverses
tâches de travail de terrain et de travail de bureau. Mais c'était la première
fois que l'ACS disposait d'une base de sondage pour tous les logements au
Liban. Ce recensement revêt une importance cruciale dans un pays où aucun
recensement de la population n'a été réalisé depuis 1932 !
Avec cette façon de procéder il était impossible de prévoir à l'avance la
taille réelle de chaque îlot en termes de nombre d'immeubles et de logements.
Les îlots crées furent de tailles très variables allant d'aucune résidence jusqu'à
avoir des îlots de plusieurs milliers de résidences (24,2 % des îlots occupés
comprenaient plus de 200 logements).

2.2.2 L'enquête « Conditions de vie des ménages »


(1997)

La première enquête qui fut réalisée après le recensement fut l'enquête


Conditions de vie des ménages de 1997. Elle a été menée avec le soutien
financier du Programme des Nations Unis pour le développement (PNUD).
Elle avait comme objectif d'étudier les différents aspects de la vie des
ménages.
Le plan de sondage était à deux degrés. Au premier degré, les îlots ont été
stratifiés suivant leur taille en nombre de logements et ont été tirés avec un
taux de sondage proportionnel à leur taille. Au second degré, les logements
ont été tirés avec un taux de sondage qui dépend de la strate, de manière à
donner à chaque logement une chance égale à 1/50 d'appartenir à
l'échantillon. L'échantillon tiré était d'environ 20 500 logements.
Cette enquête, qui a porté sur échantillon d'environ 16 500 ménages, a
fourni un très grand nombre d'indicateurs socio-économiques et a permis de
donner une estimation de la taille de la population. Cette taille est inconnue en
l'absence de recensement.

2.2.3 L'enquête « Budget des ménages » (1997)

En parallèle à l'enquête conditions de vie des ménages, une enquête budget


des ménages a été menée sur un échantillon d'environ 3 500 ménages
résidants dans la capitale et sa proche banlieue. Cette enquête a fourni les
pondérations du nouvel indice des prix à la consommation qui a été produit à
partir de 1999.
5. Sondages dans les pays en développement 183

2.3 Les principales enquêtes auprès des

ménages réalisées durant les dix dernières

années

Les trois grandes activités citées ci-dessus ont marqué le retour de l'activité
statistique officielle en termes de production statistique. Mais cette reprise,
tout au long des dix dernières années, n'a pu être appuyée ni par un plan de
développement du système statistique libanais ni par des actions concrètes
telles l'augmentation des budgets octroyés au travail statistique ou une
politique de recrutement de cadres de manière continue. Malgré ces difficultés
et divers handicaps, l'ACS a mené d'autres enquêtes.
En 1999, une enquête sur les dépenses de santé au Liban a été menée avec
le soutien de l'OMS. En 2000, une enquête sur la situation des enfants au
Liban, réalisée avec l'assistance de l'UNICEF. Elle fait partie de l'enquête
MICS2 (Multiple Indicators Cluster Survey) menée dans 65 pays dans le
monde avec une méthodologie comparable visant à fournir les principaux
indicateurs des objectifs de développement du millénaire relatifs aux enfants
et aux femmes. Cette enquête a porté sur un échantillon d'environ 7 000
ménages.
En 2002, une enquête relative Health & Health system responsiveness a été
menée sur la demande de l'OMS qui cherchait à tester ce type d'enquête dans
certains pays du monde en vue de généraliser si l'expérience était concluante.
A partir de 2004, trois grandes activités ont été menées en parallèle :

a) Un nouveau recensement d'immeubles, de logements et


d'établissements

Avant de commencer ce 2eme recensement, les cartes des îlots ont été revues,
les îlots très denses ont été subdivisés en plusieurs îlots, d'autres îlots ont été
regroupés. Le nombre total d'îlots s'est élevé jusqu'à environ 16 100.
Deux types de cartes d'îlots ont été fournis aux enquêteurs et chefs
d'équipe ; les cartes de certaines villes où des photos aériennes étaient
disponibles rendant les plans beaucoup plus précis et le travail sur le terrain
plus facile. Pour les autres régions, les limites des îlots ont été précisées de la
même manière que pour le recensement précédent.

b) Une enquête Conditions de Vie des Ménages et Budget des


Ménages

Cette enquête a été réalisée en collaboration avec le ministère des Affaires


sociales et le PNUD. L'enquête conditions de vie a couvert divers aspects
socio-économiques de la vie des ménages. Elle a porté sur un échantillon de
14 500 logements parmi lesquelles environ 13 000 ménages ont répondu. Le
plan de sondage adopté était un plan de sondage aréolaire, stratifié
184 Enquêtes et sondages

géographiquement suivant 15 domaines ou strates. Le tirage était à 2 degrés,


les îlots constituaient les unités primaires et les logements principaux les
unités finales.
Le tirage des îlots était systématique sur le fichier des îlots qui ont été
classés en premier par strates et sous-strates à l'intérieur desquelles l'ordre
serpentin était respecté. En ce qui concerne le tirage au second degré, il a été
retenu un taux de sondage des résidences primaires de 1/7,5 dans les îlots des
strates et sous-strates très urbanisées (cas de 5 grandes villes) et un taux de
1/5 dans les autres strates. Cette enquête a permis de mettre à jour l'ensemble
des indicateurs sociaux.
L'enquête sur le budget des ménages a porté sur un sous-échantillon
d'environ 7 400 ménages et devaient remplir en plus du questionnaire
conditions de vie, un carnet de comptes sur 15 jours et un questionnaire sur
les achats rétrospectifs. Cette enquête est réalisée pour la première fois à
l'échelle nationale et a permis de déterminer les lignes de pauvreté et a fourni
les bases pour un nouvel indice des prix à la consommation.

c) Une enquête PAPFAM (santé des femmes et des enfants)

Cette enquête a été menée en collaboration avec le ministère des Affaires


sociales et la Ligue Arabe. Elle a porté sur un échantillon d'environ 6 000
ménages tirés suivant le même plan de sondage que l'enquête conditions de
vie. Elle fournit aussi les indicateurs du millénaire sur la santé des femmes et
des enfants.

2.4 Les principaux problèmes rencontrés

2.4.1 Les cartes

Les cartes des îlots sont tracées à la main dans une grande partie du territoire.
Comme les rues n'ont pas de noms et les immeubles ne sont pas numérotés
dans la plus grande partie du territoire, il est très difficile de positionner les
immeubles sur les cartes d'une manière claire et facilement compréhensible
par tous les enquêteurs.

2.4.2 Le manque de culture statistique et la qualité des


réponses

La statistique officielle n'est pas très connue et reconnue pour le grand public.
Les ménages interrogés voient rarement l'intérêt des enquêtes et l'utilisation
que l'on peut faire des résultats. Cela vient d'un manque de culture
statistique.
Ajoutons à cela l'éternelle crainte de voir les informations relatives au
revenu passées au ministère des Finances entrainant de nouveaux impôts à
5. Sondages dans les pays en développement 185

payer et cela malgré la loi de TAdministration Centrale de la Statistique


(ACS) qui interdit, sous peine de poursuite judiciaire, aux employés de cette
administration de divulguer, sous n'importe quel prétexte, les informations
auxquelles ils ont accès lors de l'exercice de leurs activités.

2.4.3 Les ressources humaines

L'ACS souffre d'un manque aigu de ressources humaines spécialisées. En


effet, le cadre actuel compte environ 70 fonctionnaires parmi lesquels seuls 29
sont des spécialistes (4 statisticiens, des sociologues, économistes,
informaticiens etc.) pouvant avoir un apport technique. Le manque est
généralement comblé par le recrutement d'un personnel temporaire pour la
collecte des données et pour le contrôle et la codification des questionnaires
ainsi que pour la saisie des données. Bien que ça soit la seule solution
possible pour résoudre le problème du manque des ressources humaines, elle
présente des inconvénients. En effet, d'une enquête à une autre,
l'investissement en formation et le cumul de l'expérience sont perdus car il
est difficile de garantir le maintien des mêmes personnes pour réaliser les
mêmes tâches. Il faut aussi mentionner la rotation très rapide des
informaticiens recrutés à titre permanent qui restent très peu en poste.

2.4.4 L'infrastructure

L'infrastructure dont bénéficie l'ACS est assez limitée. L'espace alloué à


l'ACS se résume en deux étages loués dans un immeuble. Durant les périodes
où plusieurs enquêtes se déroulaient en même temps, des dizaines de
personnes devaient travailler dans un même bureau pour faire la codification
et le contrôle des questionnaires, ce qui influe sur la vitesse et la qualité du
travail effectué.
Trouver des espaces pour faire l'archivage était aussi problématique. Durant
plusieurs périodes, il n'y avait pas assez d'ordinateurs pour les personnes
nouvellement recrutées et pour faire la saisie des données ; des ordinateurs ont
été loués à plusieurs reprises pour résoudre ce problème. Il est à noter aussi
que l'ACS ne dispose d'aucune voiture et d'un budget très limité pour le
transport des fonctionnaires.

2.5 Les enquêtes de 2007 et les orientations

futures

Le programme de travail de l'ACS de 2006 prévoyait la réalisation d'une 2eme


enquête MICS avec l'UNICEF. L'ACS a commencé la préparation des
différents questionnaires de l'enquête et le travail de collecte devait
commencer en novembre 2006. La guerre menée contre le Liban qui a éclaté
en juillet 2006 a bouleversé tous les plans.
186 Enquêtes et sondages

À titre indicatif et d'après les sources officielles, cette guerre a causé 1 191
morts, 4 409 blessés, 30 mille logements détruits, 91 ponts détruits et presque
un million de déplacés durant la guerre. Il était donc évident de revoir le plan
de travail.

2.5.1 L'enquête Effets sur les conditions de vie des


ménages de la guerre de Juillet 2006 contre le
Liban

Le PNUD propose au premier ministre du Liban que l'ACS réalise avec leur
assistance financière une enquête sur les effets de cette guerre sur les
conditions de vie des ménages. La proposition fut acceptée et l'accord entre
l'ACS et le PNUD fut signé début janvier 2007. Le Bureau international du
travail (BIT) est venu se joindre à cet effort.
Le questionnaire contenait les modules suivants dans lesquels il a été ajouté
des questions spécifiques pour repérer les effets de la guerre.

ableau 5.1 : Contenu du questionnaire


Module Questions relatives aux effets de la guerre de juillet 2006
Données Déplacement des membres du ménage :
démographiques Changement du lieu de résidence à cause de la guerre,
(pour tous les membres Lieu de résidence durant et après la guerre (maison secondaire, hôtel, endroit public...),
du ménage) Individus qui sont partie du ménage à cause de la guerre,
Individus accueillis durant la guerre mais qui sont partis au moment de l'enquête : leur
relation avec le chef du ménage, sexe, âge, état matrimonial, lieu de résidence actuel
Éducation Poursuite des études dans le même établissement scolaire que l'année précédente,
Raison d'avoir changé d'établissement scolaire
Emploi et chômage Individus travaillant avant la guerre :
Effets de la guerre sur le travail (changement, perte ...), sur l'occupation, sur le statut dans
l'emploi,
Modification des salaires et heures de travail durant et après la guerre,
Pour les employeurs :
Modification du nombre d'employés après la guerre,
Problèmes dont souffre leur travail suite à la guerre, et les solutions envisagées
Couverture sociale Description de la couverture sociale
Migration Intention de migration avant ou suite à la guerre
Résidence Dégâts causés par la guerre dans les résidences principales et secondaires, dans les
moyens de transports, dans les terrains cultivés et autres biens, changements des
sources d'eau et d'énergie à cause de la guerre
Aides reçues Aides reçues durant la guerre : nature, source,
Revenu du ménage Situation financière avant et après la guerre

Le plan de sondage était stratifié géographiquement. Un effort a été fait


pour séparer les régions les plus touchées des autres régions. Dans les régions
les plus touchées, on a sur-échantillonné et on a tiré l'échantillon des
logements parmi l'ensemble des logements qu'ils soient classés résidences
principales, secondaires et vides car on a supposé qu'il est probable que les
ménages dont le logement a été détruit ou endommagé, ont déménagé dans
d'autres logements qui étaient inoccupés avant la guerre. L'échantillon
sélectionné était de 8 300 logements où 6 700 ménages ont pu être enquêtés.
5. Sondages dans les pays en développement 187

Le travail de terrain, y compris la formation des enquêteurs, a eu lieu en


janvier et février, mars et avril 2007 furent consacrés à la finalisation de la
saisie des données et l'épuration des données ; en mai les premiers tableaux
furent disponibles.

2.5.2 L'enquête MICS3 au Liban et l'utilisation des


nouvelles technologies pour la collecte

Cette enquête a été reportée de 2006 à 2007. Les trois questionnaires de


l'enquête avaient été développés sur papier. L'échantillon devait porter sur
9 000 ménages.
Après la guerre, l'intérêt de l'UNICEF porté à cette enquête s'est accru
avec pour conséquence une augmentation de leur participation financière. Ce
qui s'est traduit sous trois formes :
- la UNICEF a demandé d'augmenter la taille de l'échantillon tiré ;
- le rajout de certains modules devenus nécessaires après la guerre ;
- l'achat de 95 PDA pour la réalisation de l'enquête.

Tableau 5.2 : Comparaison entre l'utilisation du


questionnaire papier et des PDA
Questionnaire papier Utilisation des PDA Avantages des PDA
Collecte des données par interview La saisie est faite durant l'entretien. Plus rapide et meilleure gestion du
l6' contrôle de la qualité Beaucoup de contrôles de passage d'une question à une
questionnaires par le chef d'équipe vraisemblance sont intégrés dans le autre.
Contrôle des questionnaires à l'ACS programme Moins d'erreurs à cause des
Codification de certaines variables La codification est faite directement contrôles intégrés
Saisie des données Economie sur le coût de la main-
d'œuvre temporaire qui fait les
contrôles et la saisie
Contrôles de terrain et par téléphone Éventuellement, l'utilisation des GPS Réduction du nombre du nombre
permet de savoir où se trouvait des unités à contrôler donc
l'enquêteur au moment de l'entretien réduction des coûts
Contrôles informatiques de Beaucoup de contrôles de Epuration plus rapide car moins de
vraisemblance pour l'épuration des vraisemblance sont intégrés dans le sources d'erreur
données programme
Archivage Pas d'archivé papier Gain d'espace

Une comparaison entre la méthode de travail habituelle avec les


questionnaires papier et l'utilisation des PDA, présentée dans le tableau
ci-dessous, a pu mettre en évidence les avantages du recours à cette technique.
Bien que les avantages de ce nouvel outil de travail soient nombreux, ce
changement dans la façon de travailler n'est pas sans risques et sans
difficultés. Les premières difficultés rencontrées viennent des efforts à faire
en programmation. Il y a beaucoup à faire et à tester pour pouvoir s'adapter à
ce changement. La taille de l'écran est trop petite, il est difficile d'intégrer des
questions longues. On risque de perdre certains des enquêteurs expérimentés
s'ils ne vont pas réussir à s'adapter à ce changement. Il y a un grand effort à
faire durant les formations pour introduire ce nouvel outil de travail auprès
des enquêteurs. Ces difficultés constituent un défi que toute l'équipe a accepté
188 Enquêtes et sondages

de relever car la réussite de ce projet marquera un changement radical dans la


façon de mener les enquêtes sociales.

2.5.3 Les orientations futures

Les projets pour l'année 2008 portent essentiellement sur l'instauration d'une
enquête annuelle Emploi qui sera faite sur PDA en cas de réussite de
l'expérience. Cette enquête sera accompagnée chaque année d'un ou deux
modules sur des thèmes jugés prioritaires pour l'année. Le deuxième grand
projet sur lequel LACS a commencé à travailler est la préparation du
recensement de 2010 tel que le préconise la division de statistique des Nations
unies. En effet, l'ACS a pu avoir les images satellites de tout le territoire et un
chantier de digitalisation de tous les îlots du recensement a commencé. Cela
permettra que toutes les cartes des îlots du prochain recensement soient
informatisées. Le problème de la précision des cartes tracées à la main sera
résolu définitivement.

3. Gouvernance, démocratie et lutte

contre la pauvreté : enseignements

tirés des enquêtes officielles auprès

des ménages en Afrique francophone et

dans la Communauté andine

Javier HERRERA, Mireille RAZAFINDRAKOTO et


5
François ROUBAUD

3.1 Introduction

Un consensus s'est établi au niveau international sur l'importance non


seulement du contenu des politiques économiques mais également de la
manière dont elles sont mises en œuvre, tout particulièrement dans le cadre
des nouvelles stratégies de lutte contre la pauvreté (Cling, Razafindrakoto et
Roubaud, 2003). De nouveaux facteurs comme la gouvernance, l'adhésion et
la participation des populations sont dorénavant placés au cœur des
programmes de développement. Ces éléments ne jouent pas seulement un rôle
instrumental mais ils représentent en eux-mêmes des dimensions constitutives
du bien-être des populations. Parallèlement, le champ de la recherche sur le
développement s'est élargi au cours des dernières années, notamment afin de
mieux comprendre les interactions entre la croissance, la distribution des

5 Chercheurs à l'Institut de recherche sur le développement (IRD) - Unité de recherche


Développement Institutions et Analyse de Long tenue (DIAL), Paris.
5. Sondages dans les pays en développement 189

revenus ou des actifs, la qualité des institutions et le type de régime politique


ou plus généralement le système de valeurs de la société (Feng, 2003). La
réponse à ces nouveaux enjeux passe par la définition et la mesure
d'indicateurs intégrant ces dimensions traditionnellement considérées comme
extra-économiques pour suivre et évaluer les stratégies de développement.

3.2 Des indicateurs orientés vers la définition

de politiques publiques

C'est pour répondre à ce défi majeur, que deux institutions régionales


(AFRISTAT et le Secrétariat Général de la communauté andine) et treize
Instituts Nationaux de la Statistique (INS) d'Afrique et d'Amérique latine, ont
décidé d'explorer ensemble, en partenariat avec le DIAL, les possibilités
offertes par les enquêtes auprès des ménages. En s'appuyant sur l'expérience
acquise depuis 1995 par le projet MADIO à Madagascar6 - qui a penuis de
tester et d'ajuster le dispositif en identifiant notamment les questions les plus
pertinentes -, trois modules spécifiques (« Multiples dimensions de la
pauvreté », « Gouvernance » et « Démocratie ») ont été élaborés et greffés sur
l'enquête 1-2-3 relative à l'emploi, au secteur informel et à la pauvreté. Entre
2001 et 2003, l'enquête a été réalisée dans les capitales économiques de sept
pays d'Afrique de l'Ouest (Bénin, Burkina Faso, Côte d'Ivoire, Mali, Niger,
Sénégal et Togo) et à Madagascar. Parallèlement, les trois modules ont été
incorporés à partir de 2002 dans le dispositif d'enquêtes officielles auprès des
ménages dans quatre pays andins (Bolivie, Colombie, Equateur et Pérou ;
Herrera, Razafindrakoto et Roubaud, 2007). Au total, l'opération a porté sur
un échantillon représentatif de plus de 35 000 adultes, soit 21 000 ménages
dans les huit métropoles africaines, tandis que plus de 50 000 personnes
étaient interrogées dans les quatre pays latino-américains, avec un niveau
d'inférence statistique national et régional7. Face au succès de l'opération tant
du point de vue méthodologique (la gouvernance et la démocratie peuvent
être mesurées de façon fiable) qu'analytique (les résultats peuvent servir à
éclairer les politiques publiques), un processus d'appropriation du dispositif
s'est enclenché, deux pays ayant décidé d'intégrer de façon pérenne ce type
d'enquêtes au sein du système national d'informations statistiques. A
Madagascar, l'enquête est désormais reconduite par l'Institut national de la
statistique (INS) avec une périodicité annuelle, tandis que FINS du Pérou
mène l'opération en continu sur ressources propres, permettant d'apprécier la
dynamique temporelle (mensuelle, trimestrielle et annuelle) des indicateurs de

6 Projet de coopération scientifique entre l'IRD et TINS de Madagascar (1995-2002).


7 Dans tous les pays, les échantillons sont tirés suivant des plans de sondage aréolaires
stratifiés à plusieurs degrés, suivant les procédures standards en matière d'enquêtes
auprès des ménages.
190 Enquêtes et sondages

gouvernance. La reconduction des enquêtes au niveau national est également


en cours dans d'autres pays comme le Bénin et le Mali.

3.3 Une méthodologie et des enseignements

prometteurs

Bien qu'encore exploratoires, ces opérations sont d'ores et déjà concluantes et


prometteuses, aussi bien sur le plan des résultats qu'en termes méthodo-
logiques. Dans ce domaine, les enseignements généraux que l'on peut tirer de
ce programme de recherche sont les suivants :
- cette approche présente les avantages reconnus des enquêtes
statistiques par sondage aléatoire : transparence des procédures de
mesure, représentativité des informations collectées et quantification
des phénomènes, calcul de la précision des indicateurs, comparabilité
inter-temporelle ;
- la richesse des informations collectées permet de mener des analyses
approfondies, inaccessibles par d'autres méthodes. Ces données sont
plus utiles pour l'élaboration de politiques spécifiques que les
indicateurs agrégés sur la gouvernance et la démocratie, disponibles
dans les bases de données internationales. La complémentarité des
deux approches est aujourd'hui largement reconnue (Kaufmann,
Kraay et Mastruzzi, 2006) ;
- en collectant des informations « objectives » (comportements
déclarés, expériences vécues) et « subjectives » (perception,
satisfaction) sur la pauvreté, la gouvernance et la démocratie, on se
donne les moyens de suivre et de relier deux dimensions, aussi
importantes l'une que l'autre, de ces thématiques ;
- de plus, ces deux dimensions peuvent être croisées avec les variables
classiques sur les caractéristiques socio-économiques des individus et
des ménages (revenu, activité, sexe, etc.). Il est donc possible de
désagréger les résultats et de mettre en exergue les spécificités ou les
disparités entre différentes catégories de population. On dispose par
exemple d'indicateurs comparant les situations (ou perceptions) des
hommes et des femmes, des pauvres et des riches, ou encore suivant
les groupes ethniques ;
- par ailleurs, au Pérou, en Equateur et au Bénin en 2006, la
représentativité infra-nationale permet d'élaborer des indicateurs
régionaux (désagrégation spatiale), perspective particulièrement
pertinente pour le pilotage des processus de décentralisation et le
renforcement de la démocratie locale ;
- Enfin, le fait d'avoir mené simultanément les mêmes enquêtes dans
différents pays offre des perspectives de comparaisons
internationales.
5. Sondages dans les pays en développement 191

L'évaluation des enquêtes réalisées montre sans ambiguïté que non


seulement des indicateurs pour évaluer le fonctionnement des institutions et
de la démocratie ou le degré d'adhésion de la population aux politiques
peuvent être développés, mais que dans de nombreux cas, ils sont moins
complexes à mettre en place et plus fiables que les indicateurs socio-
économiques classiques, comme par exemple l'incidence de la pauvreté
monétaire. Ainsi, le taux de non-réponse aux questions sur la gouvernance et
la démocratie est en général plus faible que celui obtenu sur les revenus. La
confrontation scientifique avec d'autres initiatives internationales (projets
Afrobaromètre - Bratton et al, 2005, Latinobarômetro, Projet sur la
Gouvernance africaine - EGA, 2005), opérée lors d'ateliers régionaux, a mis
en lumière à la fois la forte convergence des résultats obtenus sur les champs
communs, ce qui conforte la robustesse des indicateurs proposés, ainsi que les
domaines de complémentarité des différents instruments. En ce qui concerne
notre approche, nous mentionnerons l'implication directe des IN S (avec une
double dimension de renforcement des capacités internes et l'insertion des
résultats comme bien public dans le système statistique officiel), la précision
des estimateurs et le lien intrinsèque avec les indicateurs économiques
traditionnels, notamment de pauvreté. Enfin, la grande diversité des contextes
politiques, sur le plan des libertés et des droits, dans lesquels l'enquête a été
réalisée montre que l'approche peut être mise en œuvre dans un vaste spectre
de pays en développement, qui dépasse largement le cadre des nouvelles
démocraties. D'ailleurs, dans des pays qui ont connu des troubles politiques
graves (par exemple la Côte d'Ivoire, Madagascar ou le Togo en Afrique ;
l'Equateur et la Bolivie en Amérique Latine), l'enquête a permis de mieux
comprendre la nature des problèmes. Elle pourrait être utilisée comme un
« système d'alerte précoce », pour mettre en place des mesures préventives
ciblées avant que les tensions identifiées ne dégénèrent en conflits ouverts.
Du côté de la demande, le processus de mise en place des enquêtes
constitue un des points forts du dispositif. Le cas péruvien est exemplaire à
cet égard : appropriation nationale de l'enquête, sous la coordination
conjointe de TINS, du ministère des Finances et du Cabinet du Premier
Ministre, participation élargie de la société civile dans l'élaboration du
questionnaire et l'analyse des données, institutionnalisation du processus de
révision de l'enquête au cours du temps, possibilités de coopération Sud-Sud
des experts péruviens vers les autres pays de la région. En aval, l'expérience
montre que dans de nombreux cas, les indicateurs de gouvernance et de
démocratie font l'objet d'une demande sociale plus forte que les indicateurs
socio-économiques classiques, comme en atteste la forte réactivité du public
et des médias lors des séances de restitution organisées dans les pays suivis.
De plus, en alimentant le débat public sur les politiques et les grandes
questions de développement, ce type d'enquêtes constitue en lui-même un
192 Enquêtes et sondages

facteur de renforcement de la démocratie, de révélation des préférences


citoyennes et finalement d'empowerment des populations « sans voix ».
Sur le front analytique, les premières analyses des enquêtes apportent un
éclairage nouveau sur des phénomènes jusque-là peu explorés : par exemple,
l'adhésion massive des citoyens africains et latino-américains aux principes
démocratiques, en particulier les plus pauvres, contrairement aux idées reçues
et malgré des lacunes profondes et variables suivant les pays dans le respect
de certains droits civils et politiques - liberté d'expression, transparence
électorale et surtout égalité devant la loi ; le discrédit profond de la classe
politique ; le pressant « besoin d'Etat » exprimé par les plus démunis sur les
deux continents ; l'ampleur de la petite corruption, que des politiques actives
permettent cependant de réduire ; les désillusions de l'appréciation des
politiques de décentralisation au niveau local après les réformes ; le niveau et
la dynamique de la participation sociale et politique, entravée par les
défaillances de l'État qui affectent surtout les plus pauvres, etc.

3.4 Conclusion et perspectives

Cette expérience pilote ouvre plusieurs perspectives d'importance. A très


court terme, il s'agit de valoriser les bases de données existantes en
produisant un certain nombre d'analyses : principaux résultats des enquêtes à
vocation à être largement diffusées in situ (au niveau national, mais également
à l'échelon régional) ; analyses approfondies à vocation académique. A
moyen terme, l'objectif est de consolider la méthode. D'une part, l'enquête
devrait être répliquée dans l'espace (inclusion de nouveaux pays) et surtout
dans le temps. L'amorce des séries temporelles (déjà en cours à Madagascar
et au Pérou) permettra de jeter les bases d'un véritable dispositif de suivi des
indicateurs de gouvernance. Elle permettra également de tester la robustesse
des indicateurs. D'autre part, en termes de processus politique, les voies de
l'institutionnalisation de ce dispositif au sein des systèmes officiels
d'information statistique doivent être renforcées.

BIBLIOGRAPHIE

Bratton, M., Mattes, R. et Gyimah-Boadi, E. (2005). Public Opinion,


Democracy, and Market Reform in Africa. Cambridge University Press.
Cling, J.-P., Razafindrakoto, M. et Roubaud, F. (2003). Les nouvelles
stratégies internationales de lutte contre la pauvreté. Paris,
Economica/IRD.
Economie Commission for Africa (2005). Striving for Good Governance in
Africa. Addis Abeba, Ethiopie.
Feng, Y. (2003). Democracy, Governance and Economie Performance'.
Theory and Evidence. Cambridge and London, MIT Press.
5. Sondages dans les pays en développement 193

Kaufmann, D., Kraay, A. et Mastruzzi, M. (2006). Governance Matters V:


Governance Indicators for 1996-2005, World Bank Policy Research
Working Paper, no4012.
Herrera, J., Razafindrakoto, M. et Roubaud, F. (2007). Governance,
Democracy and Poverty Réduction: Fessons drawn from household surveys
in sub-Saharan Africa and Latin America. Revue Internationale de
Statistique, vol. 75(1), 70-95.
Goldberg, M., Melchior, M., Leclerc, A. et Lert, F. (2003). Épidémiologie et
déterminants des inégalités sociales de santé. Apports récents et problèmes
actuels. Revue d'Epidémiologie et de Santé Publique, vol. 51, 381 -401.
Goldberg, M., Leclerc, A., Bonenfant, S., Chastang, J.F., Schmaus, A.,
Kaniewski, N. et Zins, M. (2007). Cohort profile: The GAZEL Cohort
Study. International Journal of Epidemiology, vol. 36(1), 32-39.
Goldberg, M., Chastang, J.F., Zins, M., Niedhammer, I. et Leclerc, A. (2006).
Attrition during follow-up: Health problems are the strongest predictors. A
Study of the Gazel Cohort. Journal of Clinical Epidemiology, vol. 59, 1213-
1221.
Greenland, S. (1977). Response and follow-up bias in cohort studies.
American Journal of Epidemiology, \o\. 106, 184-187.
Jones, A.M., Koolman, X. et Rice, N. (2006). Health-related non-response:
Using inverse-probability-weighted estimators in non-linear models.
Journal of the Royal Statistical Society A, vol. 69(3), 543-569.
Marmot M.G., Smith G.D., Stansfeld S., Patel C., North F., Head J., White L,
Brunner E., Feeney A. (1991). Health inequalities among British civil
servants: The Whitehall II study. Lancet, vol. 337(8754), 1387-1393.
Oppenheimer, G.M. (2005). Becoming the Framingham Study. American
Journal of Public Health, vol. 95(4), 602-610.
Rubin, D.B. (1996). Multiple imputation after 18+ years. Journal of the
American Statistical Association, vol. 91, 473-489.
Mauguin, J. (2004). Les procédures automatiques de contrôle de données dans
les enquêtes annuelles d'entreprises. Dans Ardilly, P. (éd.). Échantillonnage
et méthodes d'enquêtes, Paris, Dunod.
194 Enquêtes et sondages

4. L'apport des outils décisionnels dans la

réalisation des enquêtes des pays en

développement : le cas de Madagascar

et du Mali

8 9
Jean-Marc PHILIP et Myriam MAUMY

4.1 introduction

Les bailleurs de fonds apportent un soutien financier important et multiplient


les enquêtes dans les Pays en développement (PED) pour mettre en place un
système d'évaluation et de suivi des politiques permettant de satisfaire les
objectifs du millénaire. Cependant, ni les administrations publiques, ni les
bailleurs de fonds, ne semblent s'inspirer des outils qui sont implémentés
dans les entreprises pour supporter les décisions. Ils semblent ignorer ainsi
des solutions à la fois puissantes et conviviales qui sont particulièrement
appropriées pour transformer les enquêtes sur le terrain en véritables outils
décisionnels.
Nous nous efforcerons ici de présenter brièvement comment les enquêtes ou
les informations fournies par les services de l'administration des PED peuvent
être mises à profit pour appuyer les politiques économiques des décideurs.
Le premier exemple concerne l'élaboration d'un outil d'aide à la décision à
Madagascar, permettant au gouvernement d'explorer et de suivre un certain
nombre d'indicateurs clés (santé, éducation, indicateurs du millénaire,
sécurité alimentaire dans les régions à risque, etc.), soit à partir d'informations
recueillies par les ministères sectoriels, soit à partir d'enquêtes effectuées
dans le passé par les bailleurs de fonds.
Le deuxième exemple présente la manière dont l'ELIM 2006, enquête
légère auprès des ménages menée par la Direction nationale de la statistique et
de l'informatique (DNSI) sur financement de l'Union européenne et de la
Banque mondiale, a été utilisée pour alimenter un Système Décisionnel
permettant d'appuyer la mise en œuvre des politiques du Cadre stratégique de
lutte contre la pauvreté (CSLP).

8 Centre de Recherche sur les Dynamiques et Politiques Économiques et l'Économie des


Ressources, (CEDERS), 14 Avenue Jules Ferry, 13 621 Aix-en-Provence.
9 Institut de Recherche Mathématique Avancée (IRMA), ULP, 7 me René Descartes
67 084 Strasbourg.
5. Sondages dans les pays en développement 195

4.2 Approche décisionnelle d'une enquête

4.2.1 Élaboration des tables de faits et de dimensions

L'élaboration d'un outil décisionnel à partir des résultats d'une enquête de


terrain permet de parcourir l'ensemble des informations, soit à partir d'un
navigateur, soit avec l'aide d'un tableur. Le décideur peut donc appuyer ses
choix décisionnels d'une manière dynamique au lieu de devoir se contenter de
la lecture du seul rapport d'enquête.
Une représentation dimensionnelle permet d'analyser les résultats selon
différents niveaux (spatial, temporel, structurel, etc.) et d'élaborer par ailleurs
des indicateurs « à la demande ». La principale tâche à effectuer pour
transfonuer une enquête statistique en outil décisionnel est de réorganiser les
données d'une manière appropriée à l'analyse des données.
Par exemple, la vue des données a été élaborée sur un « entrepôt de
données » constitué de trois enquêtes différentes effectuées à Madagascar :
une enquête agricole, un recensement de la population et une enquête « santé
et éducation ».
A partir des résultats de ces enquêtes, ont été créées trois « tables de faits »,
contenant les résultats des questionnaires. Les tables de faits sont liées à des
« tables de dimensions » qui sont conformes au découpage régional de
Madagascar par provinces, régions et communes.
Grâce à ce système décisionnel, le décideur pourra construire une grande
partie des indicateurs qu'il doit suivre dans le cadre de la mise en place des
politiques de lutte contre la pauvreté : CLSP, OMD, Madagascar Action Plan,
Observatoire du Riz, sécurité alimentaire, etc.
Notons que dans le cas présenté ici pour Madagascar, seulement trois
enquêtes alimentent l'entrepôt de données, mais qu'il n'existe aucune
limitation à la construction de cet entrepôt. L'Organisation non
gouvernementale (ONG) CARE ayant dénombré près de 90 enquêtes
effectuées pour ce pays, une « data warehouse » regroupant et réorganisant
ces données pour appuyer les politiques de développement économique serait
donc probablement assez volumineuse.
Le schéma 5.1 représente la formalisation dimensionnelle de l'ELIM 2006
effectuée au Mali en 2006 et 2007 avec un financement de l'Union
européenne et de la Banque mondiale.
L'enquête QUIBB était constituée de trois questionnaires : QUIB IN,
QUIB HH et QUIB CH. Pour transformer cette enquête en outil décisionnel,
les questionnaires ont donné lieu à l'élaboration de trois tables de faits,
(Quibb IN, Quibb HH, Quibb_CH), auxquelles a été associé un certain
nombre de tables de dimensions communes aux tables de faits (L Milieu,
L_Strate,.,.)
196 Enquêtes et sondages

Schéma 5.1 : Vue du cube OLAP de données de l'ELIM 2006 au Mali

J Qu'bb_CH
ID CH
f ID_Strate :-
Nom Srate U-bRur
L IN Tranche... :S
f ID_Trancfie_Age ScroreP
Tranche_Age ErJa-;
Categor^Age

( iDjmmi
Nom Milieu
:7A
ID_Regon :-e
J Qu6b_2N Nom Recon
? IDJndata » :ïc
Recon I9D
UrbRur J Quibb HH :.-e
IStratum / ID.HHData :ef
ID Sexe Grappe Regon 9G
Se« Ménagé UrbRur :e-
MEMBERNO m . IN Uen P IStratum :r.
ScroreP / Q_B3 Grappe
Sexe Lien de parenté Ménagé SE-
B2 Coeff_E«p -GE-:-:.-
B3 ScroreP Coeff E>îp
Age PI «Sans
E5 P2 <12305
P3 Ass-stance
LIN Eta_M... P 'rsrcne Age
Mq_nourrTture Ro.çeoe
? Q_B5 Mq_errploi ECC-
Etst Marirnonia' L IN Genre... M<i_Kab.iien-en: DTPoio
f iD_Ger»re_Age M^logement
Genre sçe Mq_équipemerv:
Mq_reveno
Mq_sOuben
Mq_pouvor
M<5_soirîs_sa ntê
Mq_édvX3ton
Trche Age

4.2.2 Visualisation des résultats

Une fois le « data warehouse » construit, les données de cet entrepôt ont été
compilées pour produire un « cube », appelé généralement « cube OLAP ».
Ce cube peut être exploré par un navigateur ou avec un tableur, en utilisant le
« tableau croisé dynamique ». A titre d'exemple, le tableau 5.3 a été obtenu
en connectant le logiciel Excel® au cube OLAP qui a été produit avec les
données de l'enquête ELIM 2006.
Le « tableau de bord » connecté au cube OLAP fournit, de manière
synthétique, les réponses aux questions posées lors de l'enquête.
Par exemple, le regroupement des réponses à la question « dans le cas des
enfants de moins de 5 ans, quel est l'état de survie de leurs parents ? » est
présenté ici suivant deux dimensions (régions et secteurs) et un critère (âge du
répondant inférieur ou égal à 5 ans).
5. Sondages dans les pays en développement 197

Tableau 5.3 : Enfants de 5 ans et moins suivant l'état de survie de leurs

Bamako Gao Kayes Kidal ... Mopti Tombouctou Total


Parents Rural 0,02 % 1,60 % 0,01 % 0,19% 0,17 % 42,59 %
vivants Urbain 0,64 % 0,02 % 0,10 % 0,00 % 0,11 % 0,07 % 10,99%
Total 0,64 % 0,09 % 2,49 % 0,01 % 0,60% 0,45 % 97,28%
Parents Rural 0,00 % 0,04 % 0,00 % 0,01 % 0,01 % 1,15%
décédés Urbain
0,03 % 0,00 % 0,00 % 0,00 % 0,01 % 0,00 % 0,33 %
Total 0,03% 0,00% 0,05 % 0,00% 0,03% 0,02% 2,72 %
Total 0,67% 0,09 % 2,54 % 0,01 % 0,63% 0,46 % 100,00 %

Dans la mesure où les résultats sont obtenus avec l'aide d'un tableau croisé
dynamique, ils peuvent être visualisés sous la forme qui convient le mieux au
décideur (ici, les résultats sont en pourcentage du total). Nous pouvons
également faire apparaître dans le tableau de synthèse la moyenne, le
maximum, le minimum, l'écart-type, la variance, etc.

4.2.3 Utilisation des fonctions statistiques des outils


décisionnels

La plupart des traitements statistiques permettant d'analyser les résultats


d'une enquête peuvent être également intégrés aux cubes OLAP qui sont
élaborés. Ces fonctions peuvent être utilisées au sein d'un langage approprié à
l'analyse dimensionnelle, appelé MDX (Multi dimensional expression). Ce
langage permet d'élaborer simplement des ratios plus complexes tels que les
quintiles.

4.3 Traitement statistique des enquêtes

réalisées par les administrations nationales

4.3.1 Stratification a posteriori

Pour renforcer l'appui à la décision gouvernementale, il nous semble


également préférable d'intemaliser le processus de collecte des données plutôt
que de confier périodiquement des enquêtes à des organismes extérieurs.
Le principal inconvénient d'une « intemalisation des enquêtes » est
l'absence de constitution d'un échantillon suivant la rigueur d'une
méthodologie de sondage. Cependant, comme l'indiquent Clairin et Brion
(1997) dans «Manuel de sondages. Applications aux pays en
développement », il est possible d'effectuer une stratification a posteriori
pour la production d'estimations nationales, en traitant les unités statistiques
recueillies de manière à ne garder que celles qui représentent un échantillon
représentatif. Le principe de la post-stratification est simple. Il est basé sur le
198 Enquêtes et sondages

même que celui de la stratification : découper l'univers en strates, puis


calculer les estimations par strates et finalement concaténer l'ensemble pour
obtenir une estimation globale. Nous renvoyons au manuel de Ardilly (2006).

4.3.2 Traitement de la non-réponse

Nous rappelons qu'il faut en distinguer deux types : la non-réponse partielle


et la non-réponse totale. Cette dernière est susceptible d'introduire un biais
important dans l'estimation ; il est donc important de disposer d'information
sur les non-répondants. Pour cela il convient de mener des analyses sur ces
non-répondants afin de déterminer leur profil sociodémographique (voir à ce
sujet les méthodes recommandées dans le manuel de Clairin et Brion, 1997).
En ce qui concerne, le traitement de la non-réponse partielle, là encore des
méthodes existent. Le principe est simple. Nous remplaçons les données
manquantes d'une unité à l'aide des méthodes d'imputation. Cette valeur est
soit choisie parmi les valeurs existantes, soit estimée au moyen d'un modèle.
Comme l'écrit Tillé (2001), « les techniques d'imputation sont à éviter » mais
peuvent-être utilisées dans le cas présent. Il existe des méthodes d'imputation
basées sur un choix aléatoire de la valeur à imputer parmi les valeurs
existantes. Nous citons les deux plus connues : l'imputation hot deck et
l'imputation par le plus proche voisin.

4.4 Une remarque en guise de conclusion

Les problématiques sous-jacentes à la décision sont différentes de celles qui


consistent à effectuer de simples analyses statistiques. Il faut donc pousser les
gouvernements des FED, d'une part à superviser eux-mêmes les enquêtes de
terrain, d'autre part à implémenter les outils décisionnels qui permettent
d'organiser les résultats d'une manière qui serve de support à la décision.

BIBLIOGRAPHIE

Ardilly, P. (2006). Les techniques de sondage. Paris, Technip.


Clairin, R., et Brion, P. (1997). Manuel de sondages. Applications aux pays
en développement. Paris, CEPED.
Tillé, Y. (2001). Théorie des sondages. Paris, Dunod.
5. Sondages dans les pays en développement 199

5. Peut-on se fier aux bases de données

internationales sur la corruption ? Une

confrontation entre enquêtes-experts et

enquêtes-ménages en Afrique

subsaharienne

10
Mireille RAZAFINDRAKOTO et François ROUBAUD

5.1 Introduction

Les indicateurs de corruption, et plus largement de gouvernance, sont pour la


plupart construits à partir de l'appréciation d'experts internationaux. Il
convient toutefois d'évaluer la pertinence des indicateurs basés uniquement
sur leurs avis. Fortement critiquées initialement, les enquêtes-experts ont
acquis aujourd'hui une certaine légitimité. Deux types d'arguments ont été
employés dans la littérature pour en justifier la validité. D'une part, la
corrélation des indicateurs issus de bases de données indépendantes les unes
des autres montre qu'ils appréhendent bien un même phénomène (Kaufmann
et al, 2006). D'autre part, un nombre croissant d'études mettent en évidence
l'impact significatif de ces indicateurs sur des phénomènes de la sphère réelle
comme la croissance, l'investissement, les échanges internationaux
(Lambsdorff, 2006). Cependant, rien n'assure qu'il y ait un lien entre ces
indicateurs de perception et le niveau effectif de la corruption. C'est ce que
nous explorons dans cet article en confrontant le point de vue et le vécu de la
population avec l'avis des experts.

5.2 Les bases de données internationales sur la

corruption et leurs limites

La montée en puissance des questions de gouvernance s'est accompagnée de


la multiplication de bases de données internationales sur ce thème. En matière
de corruption, les deux principaux producteurs d'indicateurs qui font
référence en la matière sont l'ONG Transparency International (Indice de
Perception de la Corruption) et la Banque mondiale (Indice de Contrôle de la
Corruption). Dans les deux cas, il s'agit de meta-données ou « d'indicateurs
des indicateurs », qui compilent et agrègent les différentes sources primaires
existantes en un indicateur synthétique.

10 Institut de recherche sur le développement (IRD) - Unité de recherche Développement


Institutions et Analyse de Long terme (DIAL), Paris.
200 Enquêtes et sondages

La pertinence et la validité des indicateurs de corruption (et plus largement


de gouvernance) ont fait l'objet de plusieurs études. Certaines défaillances ont
d'ailleurs été identifiés par leurs auteurs eux-mêmes, tandis que d'autres ont
été relevées par un certain nombre de travaux critiques sur la question
(Galtung, 2005 ; Arndt et Oman, 2006 ; Knack, 2006). Ces indicateurs
globaux présentent quatre types de faiblesse :
- les indicateurs sont entachés de marges d'erreurs importantes rendant
imprécis le classement des pays entre eux ou dans le temps. Ils ne
permettent pas d'apprécier les évolutions, mais seulement des
positions relatives des pays ;
- la procédure d'agrégation ainsi que le choix des différentes sources
primaires retenues pour la constituer les indicateurs sont critiquables ;
- les estimateurs fournis par les indicateurs globaux ne portent que sur
la perception de la corruption et non sur la corruption elle-même ;
- finalement, ils ne fournissent aucune piste sur les politiques à mener.

5.3 Le protocole d'enquêtes

Les données utilisées ici proviennent de deux sources complémentaires


élaborées à l'instigation des auteurs :
- un jeu d'enquêtes auprès des ménages sur la gouvernance et la
démocratie réalisées dans huit pays africains ;
- une enquête auprès d'experts sur les mêmes thèmes et les mêmes
pays.

Les premières, menées auprès de la population, portent sur un échantillon


total de 35 000 personnes, représentatives de l'ensemble des adultes de la
principale métropole de chacun des huit pays considérés (Herrera,
Razafindrakoto et Roubaud, 2007)". Des modules thématiques sur la
gouvernance et la démocratie ont été greffés à des enquêtes auprès des
ménages sur l'emploi, le secteur informel et la pauvreté, réalisés par les
instituts nationaux de la statistique. Chaque individu enquêté a été interrogé
sur ses expériences vécues de corruption au cours de l'année précédent
l'enquête (touché ou non, à quelle occasion, dans quel service administratif et
pour quel montant). Il convient de souligner que nous n'appréhendons ici
qu'une des formes possibles de corruption : celle qui se produit lorsque la
population entre en contact avec l'administration publique. Toutefois, des
questions sur la perception de l'importance de la corruption et de la tolérance
à son égard ont également été incluses dans le questionnaire.

1 1 Dans chaque pays, un échantillon de ménages de 2 500 à 3 000 ménages a été tiré
suivant un plan de sondage aréolairc et stratifié à deux degrés.
5. Sondages dans les pays en développement 201

Pour compléter le dispositif d'enquêtes auprès des ménages, une enquête


auprès des experts a été réalisée dans les huit pays africains. L'objectif de
cette enquête-miroir, à laquelle 350 spécialistes du Sud et du Nord
(chercheurs, praticiens du développement, « décideurs », hauts fonctionnaires,
hommes politiques, etc.) ont répondu, était de confronter les réponses de la
population à celles des experts, sur un certain nombre de questions communes
aux deux enquêtes. Dans le domaine de la corruption, le couplage des deux
enquêtes présente deux avantages. Les questions étant parfaitement identiques
dans les deux enquêtes, nous pouvons confronter terme à terme la perception
des experts et celle de la population. D'autre part, on peut mettre en regard
l'incidence objective de la corruption, calculée à partir de l'enquête auprès
des ménages en agrégeant les données individuelles, avec l'idée que s'en font
les experts ; ces derniers étant censés estimer le pourcentage d'individus
touchés par la petite corruption au cours de l'année précédent l'enquête. En
d'autres termes, la perception des experts correspond-elle aux expériences
vécues et déclarées par la population ? Pour affiner l'analyse, un certain
nombre de caractéristiques sociodémographiques personnelles des
experts (sexe, âge, profession, pays d'origine, etc.), ainsi que leur appréciation
de leurs propres compétences sur les questions de gouvernance et sur le pays
choisi ont été recueillis.
La question de l'échantillonnage de Venquête-miroir est évidemment
complexe, dans la mesure où il n'existe pas de base de sondage exhaustive de
l'ensemble des « experts » potentiels. Pour construire notre échantillon, nous
avons procédé comme dans la plupart des enquêtes experts, en mobilisant les
réseaux des correspondants de DIAL dans le monde, aussi bien au Nord qu'au
Sud. Si par nature, il n'est pas possible d'apprécier formellement la
représentativité de Venquête-miroir, faute de population de base clairement
identifiée, la forte corrélation avec les principales bases de données
internationales sur la corruption peut être considérée comme une forme de
validation a posteriori de l'enquête.

5.4 Résultats

La confrontation des deux sources montre que les experts surestiment


systématiquement le niveau de la corruption déclarée par les citoyens. Alors
qu'en moyenne 13 % de la population déclare avoir été directement victime
d'actes de corruption au cours de l'année écoulée, les experts estiment ce taux
à 52 %. Parallèlement, à peine 5 % des citoyens interrogés considèrent que
recevoir un pot-de-vin dans l'exercice de ses fonctions est un comportement
acceptable. D'après les experts, ils seraient 32 % à avoir émis un tel jugement.
202 Enquêtes et sondages

Tableau 5.4 : Incidence de la corruption dans l'enquête auprès de la


population et Venquête-miroir
Incidence de la Bénin Burkina Côte Mada- Mali Niger Sénégal Togo Moyenne
corruption en n = 32 Faso d'Ivoire gascar n = 54 n = 15 n = 67 n = 23 pondérée
pourcentage n = 33 n =77 n = 348

M
c
Enquête auprès
population 8.7 15,2 16,5 16,3 10,1 8,2 10,8 9,6 13,1
Enquête-miroir
(estimation des experts) 53,7 38,0 58,2 54,0 49,1 53,4 50,8 59,2 52,3
(Écart-type enquête-
miroir) (24.9) (21.9) (24.7) (24.2) (20.4) (25.1) (23,4) (26.3) (24.1)
Experts qui surestiment
la corruption 100 87,5 95,9 88,9 98,0 92,9 93,7 95,2 94,2
Sources : Enquêtes 1-2-3 et Enquête-miroir (348 observations), nos propres calculs.

Dans l'ensemble, les experts interrogés ont une vision beaucoup plus
négative de la réalité telle que perçue par la population. Cette surestimation
massive par rapport aux niveaux déclarés de corruption constituerait un
moindre mal si elle était uniforme. Les fortes discordances concernant le
classement relatif des pays montre que c'est loin d'être le cas. En fait, il n'y a
pas de corrélation entre les deux variables mesurant le taux de corruption
(l'une estimée par les experts dans Venquête-miroir et l'autre issue de
l'enquête auprès de la population). Le coefficient de corrélation est même
négatif (-0,13) bien que non significatif. En revanche, les résultats de
Venquête-miroir sont corrélés avec les indicateurs publiés dans les bases de
données internationales.
Bien qu'informative, l'analyse au niveau agrégé est fruste du fait du faible
nombre de pays couverts. Pour aller plus loin, nous avons cherché à dégager
les facteurs explicatifs du point de vue des experts sur l'incidence de la
corruption. A partir d'estimations économétriques, nous montrons que
l'erreur d'appréciation des experts est d'autant plus forte que les pays sont
mal notés dans les bases internationales (Razafindrakoto et Roubaud, 2006).
De plus, nous mettons en évidence l'existence de biais idéologiques : les
experts les plus favorables aux principes du libéralisme économique ou qui
jugent que les pays n'en n'ont pas suffisamment adopté les préceptes,
surestiment plus souvent, ont tendance à moins bien classé les pays qui ne
suivent pas leurs propres orientations en matière de politique économique, en
leur imputant des niveaux de corruption plus élevés. Enfin, il apparaît que les
experts s'appuient sur un modèle culturel implicite, cohérent mais erroné, sur
la façon dont « l'Afrique fonctionne » pour former leur jugement. Ils ont
tendance à surestimer le niveau de tolérance de la population aux pratiques
corruptives ainsi qu'à sous-estimer l'importance qu'elle accorde au principe
de « bonne gouvernance ».
5. Sondages dans les pays en développement 203

5.5 Conclusion

Bien que portant sur un nombre limité de cas et ne traitant que de la petite
corruption bureaucratique, notre étude montre les limites des indicateurs
globaux de corruption basées sur des perceptions. Il n'est pas question ici de
défendre une quelconque « supériorité » des indicateurs « objectifs » (déclarés
par la population) sur les indicateurs « subjectifs » (construit par les experts).
Les deux ont leur raison d'être, mais reflètent des concepts différents, non
réductibles l'un à l'autre. Néanmoins, nos résultats plaident en faveur d'un
usage plus précautionneux et raisonné des indicateurs globaux de
gouvernance, aussi bien dans le champ académique que politique (allocation
de l'aide, etc.).

BIBLIOGRAPHIE

Arndt, C., et Oman, C. (2006). Uses and Abuses of Governance Indicators.


Centre de développement de l'OCDE, Paris.
Galtung, F. (2005). Measuring the Immeasurable: Boundaries and Functions
of (Macro) Corruption Indices. Dans Galtung, F. et Sampford, C. (éds.),
Measuring corruption, Londres, Ashgate Publishers.
Herrera, L, Razafindrakoto, M. et Roubaud, F. (2007). Governance,
Democracy and Poverty Réduction: Fessons drawn from household surveys
in sub-Saharan Africa and Latin America. Revue Internationale de
0
Statistique, vol. 75, n l, 70-95.
Kaufmann, D., Kraay, A. et Mastruzzi, M. (2006). Measuring Governance
Using Perceptions Data. Dans Rose-Ackerman, S. et Henry, S.R. (éds.),
International Handbook on the Economies of Corruption, Chapitre 2,
Northampton, Edward Elgar Publishing.
Knack, S. (2006). Measuring Corruption in Eastem Europe and Central Asia.
A Critique of the Cross-Country Indicators. Journal of Public Policy, vol.
27, n03, 245-291.
Lambsdorff, J. (2006). Causes and conséquences of corruption: What do we
know from a Cross-section of countries ? Dans Rose-Ackerman, S. et
Henry, S.R. (éds.), International Handbook on the Economies of
Corruption, Chapitre 1, Northampton, Edward Elgar Publishing.
Razafindrakoto, M., et Roubaud, F. (2006). Peut-on se fier aux bases de
données internationales sur la corruption ? Une confrontation entre
enquêtes-experts et enquêtes-ménages en Afrique subsaharienne. Document
de travail DIAL 2006-17, Paris.
204 Enquêtes et sondages

6. Effet du plan de sondage dans les

enquêtes 1-2-3 en Afrique de l'Ouest

12 13
Aude VESCOVO et Eloi OUEDRAOGO

6.1 Introduction aux enquêtes 1-2-3 dans

7 villes de l'UEMOA

La mise en oeuvre d'enquêtes 1-2-3 dans les capitales économiques de sept


pays de l'Union économique et monétaire ouest africaine (UEMOA) entre
dans le cadre du Programme régional d'appui statistique à la surveillance
multilatérale (PARSTAT) mis en place par l'UEMOA (Amegashie et al.,
2005). Ces villes sont Cotonou, Ouagadougou, Abidjan, Bamako, Niamey,
Dakar et Lomé.

6.1.1 Le plan de sondage retenu

Le plan de sondage est identique pour les sept villes, stratifié à deux degrés.
Les unités primaires d'échantillonnage (UP) sont les zones de dénombrement
(ZD) issues des derniers recensements de la population (RGPH pour
Recensement Général de la Population et de l'Habitat) ou d'autres enquêtes14.
Après une stratification selon des critères économiques ou administratifs
(excepté à Lomé), 125 UP sont sélectionnées selon un tirage à probabilité
proportionnelle à leur taille (PPT). Ensuite 20 ménages (24 à Cotonou) sont
tirés à probabilités égales dans chaque UP (après stratification des ménages à
Dakar). Ainsi, 2 500 ménages par ville (3 000 à Cotonou) sont échantillonnés.
La phase 1 permet d'identifier les unités de production informelles (UPI).
Après une stratification selon le statut professionnel du chef d'UPI et la
branche d'activité, les UPI sont tirées selon un sondage aléatoire simple. La
phase 1 permet également une stratification supplémentaire, selon le revenu
du chef de ménage et sa situation vis-à-vis de l'activité. Un sous-échantillon
de ménages a été tiré au sein de celui de phase 1, pour la phase 3 portant sur
la consommation des ménages. La phase 3 n'a pas été mise en oeuvre à
Abidjan.

12 Institut de recherche et de développement (IRD), Centre de recherche appliquée


(CERA) d'AFRISTAT.
13AFRISTAT, Département des statistiques sociales et des stratégies de réduction de la
pauvreté.
14RGPH: Cotonou 1992; Ouagadougou 1996; Abidjan 1998; Bamako 1998;
Niamey 2001 ; Dakar 2002. Enquête Démographie et Santé : Lomé 1998.
5. Sondages dans les pays en développement 205

6.1.2 Obsolescence des bases de sondages

Le plan exposé ci-dessus a été appliqué avec plus ou moins de réussite du fait
de la vétusté des bases de sondage (jusqu'à 10 ans avant l'enquête).
Pour pallier cette vétusté, toutes les UP tirées au 1CI degré sont
intégralement dénombrées. Cependant, le nombre de ménages dénombrés,
souvent inférieur à celui de la base, a conduit à sous-estimer les populations.
A Niamey, par exemple, les coefficients d'extrapolation ont été multipliés
par un facteur propre à chaque strate (commune). Ce facteur a été obtenu, en
2001, en divisant la population par strate issue des résultats provisoires du
RGPH par la population estimée à l'aide des coefficients d'extrapolation.
Les coefficients d'extrapolation sous-représentent les strates I et III et sur-
représentent la strate II (tableau 5.5). Le redressement de 2001 a corrigé la
sous-représentation de la strate III, accentué celle de la strate I et réduit la sur-
représentation de la strate II. Mis en oeuvre en 2001, il est basé sur les
résultats provisoires du RGPH. Avec les résultats définitifs du RGPH (tableau
5.5-e), la représentation par strate est conservée. Ce type de redressement peut
avoir un impact sur les estimations si les strates sont hétérogènes entre elles.
Ici, l'impact est faible ; nous ne le présentons pas.

Tableau 5.5 : Répartition de la population de Niamey entre strates


Comm. I Comm. Il Comm. NI Niamey
(a) échantillon (sans pondération) 46,85 40,56 12,59 100,00
(b) résultats définitifs du RGPH 2001 45,73 40,85 13,42 100,00
(c) avant redressement 44,98 43,08 11,94 100,00
(d) estimation de 2001, coefficients
redressés avec les résultats 44,16 41,97 13,87 100,00
provisoires du RGPH 2001
(e) notre estimation, coefficients
redressés avec les résultats définitifs 45,83 40,74 13,43 100,00
du RGPH 2001

À Ouagadougou, un facteur multiplicatif de 1,3 pour les 5 strates, calculé


par une projection linéaire des résultats des RGPH de 1985 et 1996, a été
appliqué uniformément aux coefficients d'extrapolation. Cette technique de
projection sous-estime la population de 2006 de 14,6 %. Elle ne change ni les
ratios ni leur variance. Le redressement uniforme est donc peu utile et peu
fiable puisque basé sur peu d'information et des hypothèses démographiques
réductrices.

6.2 Qualité des plans de sondage de phase 1

6.2.1 La stratification au 1er degré

La stratification basée sur des variables corrélées aux variables d'intérêt est
bénéfique ; même sans cette corrélation, elle ne nuit pas. Il convient donc d'y
206 Enquêtes et sondages

recourir, même sans foi en les critères de stratification disponibles. À Dakar,


la stratification a été faite selon la commune et le degré d'informalité issu
d'une enquête antérieure. Les variances intra-strates sont élevées et dans une
commune, l'ordre d'informalité des strates est inversé.
Les taux de chômage non pondérés et obtenus par bootstrap à Niamey sont
égaux et également soumis au biais d'échantillonnage (figure 5.5). Ceux
tenant compte du plan de sondage (estimateur d'Horvitz et Thompson) sont
sans biais et identiques. L'usage du plan de sondage dans le calcul de la
variance (linéarisation et jackknife) augmente la précision, comparée au
bootstrap.
Si la complexité du plan est ignorée, le sondage est supposé aléatoire simple
et la variance surestimée. La variance du taux de chômage de Niamey aurait
été 2,20 fois plus petite que celle estimée par linéarisation. Si l'effet du plan
de sondage (design effect) n'est pas pris en compte, des tests concluent que
deux à deux, les taux de chômage par strate sont inégaux, au seuil de 5 %15.
S'il l'est, les égalités entre les taux des communes I et II, et des communes II
et III sont acceptées.
Le taux de chômage de Niamey est de 23,54 %. La commune III présente
un taux de chômage et une variance plus élevés mais un effet du plan de
sondage plus faible, quelle que soit la méthode utilisée. Le phénomène du
chômage y est donc plus variable. Si cette variabilité est confirmée pour
d'autres variables, il convient de sur-représenter la commune III de Niamey
dans les enquêtes emploi futures.

Figure 5.1 : Précision de l'estimation du taux de chômage à Niamey (%)


34%
Comm. III
32%

30%
Comm. II Niamey
28%
Comm. I y■
26% 12.201
H
12451 n
24% M2 y
1,8 ï
22% _ 1,89 [il
: i ,
r' 42| 1,68
20% 3
— i1,70!
18%
— sans poids — bootstrap — linéarisation — jackknife

15 Prise en compte du plan de sondage complexe, (respectivement aléatoire simple) ; taux


des strates 1 et 2 égaux : p-value de 8,0 % (resp. p-value de 1,0 %) ; taux des strates 1 et
3 égaux : /;-value de 0,4 % (resp. p-value de 0,0 %) ; taux des strates 2 et 3 égaux : p-
value de 12,6 % (resp. p-valuc de 4,2 %).
5. Sondages dans les pays en développement 207

6.2.2 Le tirage à probabilités proportionnelles à la taille


au 1er degré

Le tirage d'UP n'a aucun intérêt du point de vue de la précision. Il ne se


justifie que par l'abaissement des coûts de collecte, mais engendre des effets
de grappe (clustering effect) importants. Ainsi, à Niamey, les ignorer mène à
une sous-estimation de la variance du taux de chômage. Elle est divisée
illusoirement par 2,31 à Niamey et par 1,76 à Ouagadougou (tableau 5.6).

Tableau 5.6 : Effet de grappe sur l'estimation de la variance du taux de


chômage à Niamey et Ouagadougou (linéarisation de Taylor)
Niamey Ouagadougou
Commune effet de grappe arrondissement effet de grappe
Commune 1 2,45 Baskuy 1,33
Commune II 2,51 Bogodogo 2,30
Commune III 1,62 Boulmiougou 1,09
~ Nongremassom 2,27
~ Sig-nonghin 2,54
Ensemble 2,31 Ensemble 1,76

Les ZD sont de taille variable, justifiant un sondage à probabilités


proportionnelles à leur taille. Le taux de chômage est significativement
corrélé à la taille de la ZD, mais il n'est pas sûr que cela se vérifie partout et
pour toutes les variables.
Si la différence entre les tailles du RGPH et à la date de l'enquête est faible,
elle peut être ignorée et le tirage à PPT utilisé. Si elle est importante, le tirage
à probabilités proportionnelles à la taille estimée (PPTE) est utilisé. La taille
du RGPH est alors un proxy de la taille à l'année d'enquête. Le ratio taille
réelle sur taille anticipée est utilisé pour donner un poids plus important aux
observations des UP dont la taille réelle est supérieure à la taille anticipée, et
qui sont donc sous-représentées dans l'enquête. Cette méthode fournit des
estimateurs non biaisés, le poids d'un ménage restant l'inverse de sa
probabilité de tirage.

6.2.3 La stratification au 2nd degré : le cas dakarois

À Dakar, le tirage au 2nd degré a été effectué après une stratification selon le
sexe du chef de ménage, collecté lors du dénombrement. Cette complication
augmente le risque d'erreurs de calcul des poids et pose un problème de
cohérence entre informations collectées lors du dénombrement et lors de la
collecte. 19 % des chefs de ménages enquêtés ne sont pas du sexe utilisé pour
le tirage. De nombreux remplacements, ne tenant pas compte du sexe, ont été
faits sur le terrain, sans être ni justifiés ni documentés.
208 Enquêtes et sondages

Il n'y a pas de gains à la stratification (tableau 5.7). La précision du taux


d'activité des femmes chefs de ménages est proche de celle obtenue à
Ouagadougou sans stratification et toujours inférieure à celle des hommes.

Tableau 5.7 : Précision du taux d'activité par sexe, sans stratification


(Ouagadougou) et avec stratification (Dakar) au 2ml degré
Ouagadougou Dakar
Taux d'activité des chefs de ménages hommes (%) 88,71 78,56
Erreur-type {0,87) {1,07)
Taux d'activité des chefs de ménages femmes (%) 75,21 60,26
Erreur-type (2,83) (2,07)

6.3 Conclusion

Les différences méthodologiques sont dues à l'hétérogénéité des équipes et


non des contextes. Il est possible de définir un plan de sondage et les
conditions d'application de variantes de ce plan.
Le 1er degré doit être stratifié, selon des critères simples ; mais pas le 2nd
degré car la nécessaire collecte d'information auxiliaire alourdit le
dénombrement, qui peine déjà à fournir les tailles des UPI. Dans la majorité
des villes, des ménages ont été remplacés (refus, disparition, mauvais
repérage). Dans aucune ville, ces remplacements n'ont été documentés,
rendant impossible la correction du biais potentiel des estimateurs. De plus, à
Dakar, les remplacements ont été faits sans égard au sexe du chef de ménage,
rendant la stratification au 2nd degré dangereuse.
Si les ZD sont de taille variable, il est préférable d'utiliser un tirage à PPT
au 1er degré. La liste sur laquelle a été fait le tirage doit être conservée afin de
vérifier que le tirage peut être considéré aléatoire et de mesurer le gain en
précision d'une éventuelle stratification implicite.
Le redressement des coefficients d'extrapolation ne doit pas être uniforme.
Il est préférable de procéder à une post-stratification basée sur des
recensements plutôt que sur des résultats d'enquêtes antérieures.
Chaque étape de la constitution de l'échantillon doit être documentée. Les
logiciels statistiques permettent de tenir compte de plans de sondage de plus
en plus complexes. Cependant, pour les mettre en ©, il faut disposer de toute
l'infonnation nécessaire sur la constitution de l'échantillon. La recherche des
documents relatifs au sondage ralenti considérablement les calculs de
précision et l'évaluation de la qualité d'une enquête.
S'agissant d'enquêtes en phases, notre travail se poursuit par l'étude de
qualité des échantillons issus de celui de la phase 1 et l'explication
d'incohérences entre phases.
5. Sondages dans les pays en développement 209

BIBLIOGRAPHIE

Amegashie, F., Brilleau, A., Coulibaly, S., Koriko, O., Ouedraogo, E.,
Roubaud, F. et Torelli, C. (2005). La conception et la mise en © des
enquêtes 1-2-3 en UEMOA. Les enseignements méthodologiques. Statéco,
vol. 99,21-41.

7. Précision des indicateurs de niveau de

vie de l'enquête ECAM 2

16 17 18
Justin BEM , Martin MBA et Ludovic SUBRAN

7.1 Introduction

Les enquêtes auprès des ménages sont réalisées à partir de plans


d'échantillonnages complexes comme des enquêtes stratifiées, à plusieurs
phases, degrés et/ou à probabilités de tirage inégales. L'objectif poursuivi est
la précision des estimateurs et la maîtrise des coûts de l'enquête. Cependant,
l'estimation statistique devient alors plus complexe à cause notamment du
système de pondération pour les estimations et des techniques d'estimations
de la variance (nécessité de calculer des probabilités d'inclusion double,
d'établir des formules de variance pour des statistiques non linéaires ou
définies implicitement).
L'estimation de variance (ou calcul de précision) est rarement mise en
œuvre en Afrique subsaharienne. Aussi, les utilisateurs de données d'enquêtes
ne disposent pas d'indicateur objectif de qualité de données. Ce travail pose le
problème d'évaluation de la précision des indicateurs de l'enquête Enquête
Camerounaise Auprès des Ménages 2 (ECAM 2). Il sera question de choisir
les techniques appropriées parmi les nombreuses existantes, de gérer la
complexité du plan de sondage et de choisir le package informatique à
utiliser.

16Commission Bancaire de l'Afrique Centrale, Avenue Monseigneur Vogt, BP I917


Yaoundé, Cameroun. Email : bcm@bcac.int.
17 Institut national de la statistique du Cameroun, B.P 134 Yaoundé, Cameroun. Email :
m_mba@yahoo.fr.
18 Programme Alimentaire Mondial, Via C.G. Viola 68/70, Parco de' Mcdici, 00158
Rome, Italie. Email : ludovic.subran@wfp.org.
210 Enquêtes et sondages

7.2 Cadre théorique et description des données

7.2.1 Cadre théorique

S'agissant de la complexité des sondages, Wolter (2003) résume la situation


par le tableau 5.8.

Tableau 5.8 : Plan de sondage et estimateurs


Plan simple Plan complexe
Statistique linéaire a b
Statistique complexe c d

Les résultats généraux de la théorie des sondages abordent le cas (a) (voir
Ardilly, 1994, Cochran, 1977). Les cas (b), (c) et (d) sont complexes et la
théorie ne fournit que des méthodes d'approximation. Il existe deux
approches : les méthodes analytiques et les techniques de réplications qui
peuvent être récapitulées (Commission Européenne, 2002) :

Figure 5.2 : Techniques d'estimation de la variance


Techniques d'estimation de la Variance
I I
Méthodes analytiques Techniques de réplications,
reéchantillonnage,
simulations
I
Formule exacte de Relâchement/Simplification Estimateur sans
l'estimateur de la des hypothèses biais de
variance (Cas classiques) l'approximation de
la variance

Estimateur sans Simplification du Simplification de la statistique


biais de la variance plan de sondage Linéarisation

Nous allons présenter brièvement une méthode analytique, la linéarisation


et les techniques de réplications.

a) La linéarisation

□ Paramètres explicitement définis

Soit T une statistique telle que n -> co, T A^[ô, ^7^) et g une fonction
n
dérivable. Alors '

g(T) -» v(g(9),g'(ej°(9)).

En effet, g(r) - g(0) = (7 - 0)g'(0) + s à l'ordre 1. La distribution de


gfT) - g(0) est proche de celle de (r-0)g'(0), donc V(g(T)) =
2
(g'(0)) F(r). Il s'agit d'une linéarisation.
5. Sondages dans les pays en développement 211

□ Paramètres implicitement définis

Les paramètres d'intérêt que l'on étudie sur la population sont généralement
les solutions d'une équation de la forme (7(0) = j ( U{Y,iï)dF{y) = 0, par
exemple
- (7(^, 0) = /(^<0) - p, pour le quantile d'ordre p; et
- U(y, jc, 0) = - jc'0) pour les coefficients d'une régression.

La variance de l'estimateur de 0 peut être approchée (Binder, 1993) par la


variance de :

8E[u(y, 6)]
u'(y) = - "(y, 0„)
50 9=e0_

b) Les techniques de réplications

Le principe consiste à construire des pseudo-échantillons d'unités primaires


(UP) et à calculer la statistique d'intérêt sur chacune d'elles. La variance de
l'estimateur est alors approchée par la variance observée de ces répliques. On
distingue le Jackknife, le Bootstrap et les réplications répétées équilibrées.
Avec ces méthodes, on peut calculer la variance, (voir Lumley, 2004), par la
formule commune suivante :

v(Q) = cihr{èr-è)\
r=\
/V /V '
où 0 est l'estimateur sur l'échantillon, 0 est l'estimateur sur la re"ie réplique,
R est le nombre de répliques, c est un paramètre qui dépend de la méthode
de réplication et hr est l'importance accordée à chaque réplique.

c) Indicateurs retenus pour le cas pratique d'ECAM 2

Nous retenons la dépense moyenne de consommation annuelle et l'indice de


Gini. La première est simple, la seconde est complexe, et est définie par
Nygârd et Sandstrôm (1981) comme :

G, = j j; J[F(x)]xdF(x).
r*
Dans le cas usuel, J(p) = 2p - \, p est la moyenne de v, et F la fonction
de répartition de v. D'après Binder (1993), cet indice est solution de
l'équation u^y^G,) = J[F(y)]y - yG, = 0. Pour estimer la variance de
l'estimateur, il faut appliquer la méthode de linéarisation vue en section
7.2. l.b.
212 Enquêtes et sondages

7.2.2 Description des données

L'enquête ECAM 2 est l'étude de base pour le suivi de la pauvreté au


Cameroun. Elle a utilisé la base des Zones de dénombrement (ZD) du
recensement de 1987 comme base de sondage. Une ZD est une zone
géographique d'environ 200 ménages. Pour stratifier l'enquête, chaque
province était divisée en une partie urbaine, semi-urbaine et une rurale. A ces
strates, il faut ajouter les deux grandes métropoles Yaoundé et Douala. En
urbain, au premier degré les ZD ont été tirées, et dans chaque ZD les ménages
ont été sélectionnés. En zone semi-urbaines et rurales, au premier degré, les
arrondissements ont été tirés proportionnellement à leur population, au second
degré des ZD et enfin, au troisième degré les ménages. L'échantillon est
constitué 1 1 553 ménages tirés dans 612 ZD. Le taux de non-réponse
avoisinait 5 %.

7.3 Résultats et applications

Nous avons utilisé le logiciel R (voir R Development Core Team, 2006), et le


package survey (voir Lumley, 2006). Pour simplifier le plan de sondage, le
premier degré en zone rurale est négligé.

7.3.1 Principaux résultats

Les estimations réalisées sont assez précises19. Les moins précises sont celles
de Yaoundé et Douala, ceci est probablement dû à des niveaux de vie plus
disparates qu'ailleurs. L'effet grappe est important en zone rurale, ce qui
conduit à relativiser le caractère précis des estimations en zone rurale.

Tableau 5.9 : Dépense de consommation annuelle du ménage


Méthode analytique Bootstrap Jackknife
Régions Estimation (en milliers FCFA) Et Cv deff Et Cv deff Et Cv deff
Douala 2 484 157,9 6,36 2,75 189,6 7,63 3,97 155,6 6,26 2,67
Yaoundé 2 475 141,9 5,73 1,98 141,2 5,71 1,96 138,6 5,60 1,89
Urbain 2 151 62,9 2,93 2,85 72,8 3,38 3,80 61,9 2,88 2,76
Rural 1 024 22,3 2,18 4,56 22,3 2,17 4,53 22,3 2,17 4,53
Cameroun 1 418 29,7 3,09 2,10 33,1 3,83 2,33 29,5 3,04 2,08
Et : écart-type, Cv : coefficient de variation, deff : effet de sondage.

Tableau 5.10 : Précision de 'indice de Gini


Bootstrap Jackniffe Linéarisation
Estimation
Et Cv Et Cv ET Cv Deff
Douala 0,456 0,02 5,06 0,03 5,18 0,052 11,40 2,58
Yaoundé 0,451 0,02 4,39 0,02 4,35 0,045 9,98 1,65
Urbain 0,440 0,01 2,50 0,01 2,46 0,019 4,32 2.52
Rural 0,364 0,01 1,78 0,01 1,86 0,006 1,65 6,14
Cameroun 0,438 0,01 1,84 0,01 1,87 0,008 1,83 2,51

19 CV < 16,5 % scion Statistique du Canada.


5. Sondages dans les pays en développement 213

7,3.2 Applications

a) Optimisation du sondage ECAM 2

Selon Ardilly (1994), si le tirage est à deux degrés, le sondage optimal compte
tenu du coût20 est défini par :

c, 1 - p C
n = - ,m =
VC2 P 1-p'
C, + Jc,c?

où m et n sont respectivement le nombre d'unités primaires (ZD) et


secondaires (ménages) par ZD, et p est l'effet grappe. Une approximation
m n m
grossière donne « = h h =9 470 ménages et A/ = Y!' ,l =854 ZD.

b) Test d'homogénéité des niveaux de vie

Nous avons aussi testé l'hypothèse d'homogénéité des niveaux de vie


H0 '■ = y. = ••• = yH contre 3(kJ)/yk V=- yr Sous Ho, nous avons :
/ *■ ^ \
/N /\
y 2 - y3
A - « N(0,1)

/v /v

V^,) + V(j)2) -v(j)2) 0

-v(j>2) v(j)2) + vC^) v(_v3)


z =

0 o -v{yH,) v(i)„,) +

La statistique de test, A'X A, suit approximativement une loi du Chi à


H - 1 degrés de liberté.

Tableau 5.11 : Résultatts des tests


p value
A'£-IA -
Urbain (Hors Yaoundé et Douala) 14,4 0,108
Rural 18,6 0,029

Les niveaux de vie sont homogènes en zone urbaine et hétérogènes en zone


rurale. La stratification géographique est donc indispensable surtout entre les

20 c, le coût de déplacement pour se rendre à une unité primaire, et c, le coût de


l'interview d'une unité secondaire (US). La contrainte budgétaire est : C = cyi + c2mn
et deff = 1 + p(/7 - 1).
214 Enquêtes et sondages

zones rurales, et ce d'autant qu'en intra, les strates rurales sont homogènes
(effets grappe importants en zone rurale dans le tableau 5.9).

7.4 Conclusion

Notre objectif était ici de procéder au calcul de précision dans le cadre de


l'enquête ECAM 2, ce qui a été fait pour la dépense moyenne de
consommation et l'indice de Gini. Cet exercice doit être réitéré en Afrique
subsaharienne où cette tâche est difficile. Bien entendu, cet effort serait vain
si à la base des efforts ne font pas faits pour minimiser les erreurs
d'observation, les défauts de couverture et la non-réponse.

BIBLIOGRAPHIE

Ardilly, P. (1994). Les techniques de sondage. Paris, Technip.


Binder, D.A. (1983). On the variances of asymptotically normal estimators
from complex surveys. Revue Internationale de Statistique, vol. 51, 279-
292.
Binder, D.A., et Kovacevic, M. (1993). Estimating some measures of income
inequality from survey data: An application of estimating équation
approach. Proceedings of the ASA Survey Research Methods, pages 550-
555.
Cochran, W.G. (1977). Sampling Techniques. New York: John Wiley &
Sons, Inc., 3eme édition.
Commission Européenne (2002). Méthodes d'estimation de variance dans
l'Union Européenne. Monographies en Statistique, Commission
Européenne.
Lumley, T. (2004). Analysis of complex survey samples. Journal of
Statistical Software, vol. 9(1), 1-19.
Lumley, T. (2006). Survey. Analysis of complex survey samples, R package
version 3.6-5.
Nygard, P., et Sandstrom, A. (1981). Measuring Income Inequality. Almqvist
& Wiksell International, Sweden.
R Development Core Team (2006). R: A language and environment for
statistical Computing R Foundation for Statistical Computing. Vienna,
Austria. ISBN 3-900051-07-0, URL http://www.R-project.org,
Wolter, K.M. (2003). Introduction to Variance Estimation. New York :
Springer.
5. Sondages dans les pays en développement 215

8. Prévalence de l'obésité en Algérie :

résultats d'une enquête sur un

échantillon national

21 22
Mohamed Lamine ATI F , Salim BENKHEDDA ,
22 21
Kamel MERAD-BOUDIA et Abdeldjallil BEZZAOUCHA

8.1 Introduction

La surcharge pondérale est devenue un problème majeur de santé publique


dans le monde et son rôle favorisant l'apparition du diabète de type 2 n'est
plus à démontrer (American Diabetes Association, 2004). L'obésité devient
ainsi un facteur de risque cardio-vasculaire majeur dans les pays en
développement du fait de l'urbanisation massive et du changement brutal du
mode d'alimentation (Khosh Chashm, 1998).
Plusieurs études réalisées dans les pays en développement sur la prévalence
de l'obésité ont retrouvé des taux importants, voire très alarmants, situés entre
23,7 % et 78,0 % notamment dans les pays de la région méditerranéenne
(Yumuk, 2005). Aucun article rapportant la prévalence de l'obésité en Algérie
n'a été publié à ce jour et les seules données disponibles estiment la
prévalence de la surcharge pondérale à 33,7 % et de l'obésité à 26,1 % (OMS,
2003).
Notre enquête réalisée à un niveau national entre février et avril 2004 avait
pour objectifs d'estimer la prévalence de la surcharge pondérale, de l'obésité
et de l'obésité abdominale en Algérie en fonction du sexe, de l'âge et de la
zone géographique.

8.2 Matériels et méthodes

Notre enquête transversale a concerné un échantillon de la population


algérienne âgée de 18 ans et plus à la date de passage des enquêteurs.
Le nombre de sujets nécessaires était calculé en estimant la prévalence
attendue de l'obésité à 20 %, avec un coefficient de confiance de 90 %, une
précision de 2 % et un effet de grappe attendu de 1,5.
Chaque wilaya (plus grande unité administrative du pays) était divisée en
districts à nombre équivalent d'habitants. Après stratification sur les cinq
régions du pays (nord-centre, nord-est, nord-ouest, sud-est et sud-ouest), 24
de ces districts ont été tirés au sort. Soixante ménages ont été sélectionnés

21 Hôpital Franz Fanon, Centre Hospitalier Universitaire de Blida, Blida, Algérie.


22 Centre Hospitalier Universitaire Mustapha Baeha, Alger, Algérie.
216 Enquêtes et sondages

aléatoirement dans chacun de ces districts et une personne dont la date


d'anniversaire était la plus proche était incluse par ménage.
Une lettre d'infonnation contenant la date de passage des équipes d'enquête
a été adressée aux ménages concernés dans les sept jours précédents et un
membre de l'équipe d'enquête devait se déplacer lui-même la veille du jour
de passage pour rappeler la date du passage. Chaque équipe d'enquête était
constituée d'un médecin et d'un infirmier formés et devait collecter les
données entre 7 et 10 heures du matin afin de capter le maximum de
personnes à inclure.
Tous les sujets inclus bénéficiaient d'une prise de taille et de poids. Le tour
de taille était systématiquement mesuré.
On utilisait pour la définition des cas d'obésité abdominale les critères du
National Cholestérol Education Program (Adult Treatment Panel-3, 2001) :
tour de taille > 102 cm chez l'homme et > 88 cm chez la femme. La surcharge
pondérale était définie comme un indice de masse corporelle
(IMC = poids/taille ) = 25-30 kg/m et l'obésité avec IMC > 30 kg/m2.
2 2

Après validation des données, l'analyse statistique était conduite avec le


logiciel Epi-Info version 6.04d. La prévalence était calculée en rapportant les
cas au nombre de personnes incluses. Les prévalences sont données en
pourcentages et sont présentées avec leur intervalle de confiance à 95 % (IC).
Les IC sont calculés en utilisant la méthode de Taylor prenant en
considération la structure complexe de l'échantillon. Les taux de prévalence
sont ajustés sur le sexe, l'âge et la zone géographique et les prévalences sont
standardisées en définitive sur la structure par âge de la population algérienne
de 1998 (données du recensement national de la population générale). Les
, • • .9
pourcentages sont comparés en utilisant le test du Chi", les moyennes, en
utilisant le test t de Student. Le seuil de signification retenu est p < 0,05.

8.3 Résultats

Au total, la base des données contient 1 478 sujets dont 572 (38,7 %) hommes
et 906 (61,3 %) femmes. Le taux global de participation était de 91,7%.
L'âge moyen est de 44,2 (42,3-46,1) années pour les hommes et de 42,7
(40,6-44,8) années pour les femmes.
La prévalence de la surcharge pondérale ne diffère pas significativement
entre les deux sexes et selon l'âge. Par contre, les prévalences de l'obésité et
de l'obésité abdominale sont significativement plus élevées chez les femmes
{p < 0,001) (tableau 5.12). Ces prévalences sont également significativement
plus importantes chez les personnes âgées d'au moins 40 ans (p < 0,001).
Les prévalences de la surcharge pondérale, de l'obésité et de l'obésité
abdominale ne diffèrent pas significativement entre les zones géographiques
du pays (tableau 5.13).
5. Sondages dans les pays en développement 217

Tableau 5.12 : Prévalence (intervalle de confiance à 95 %) de la


surcharge pondérale, de l'obésité et de l'obésité abdominale
en fonction de l'âge et du sexe. Algérie, 2004.
Âge en années
[18-40[ [40-60[ >60 Tous âges Standardisée*
Hommes (n =) 255 189 128 572
25,5 % 39,7 % 31,3% 31,5%
Surcharge pondérale 30,0 %
(20,6-30,4)% (33,5-45,9)% (22,2-40,3)% (28-34,9)%
4,7 % 8,5 % 7.8 % 6,6 %
Obésité 5,1 %
(1,8-7,7)% (5,2-11,7)% (3,1-12,6)% (4,5-8,8)%
4,3 % 23,3 % 23,4 % 14,9 %
Obésité abdominale 10,7%
(1.5-7,1)% (17,3-29,3)% (15,6-31,3)% (11,3-18,4)%
Femmes (n =) 456 271 179 906
24,8 % 35,4 % 30,2 % 29,0 %
Surcharge pondérale 28,3 %
(20,2-29,4)% (29,4-41,5)% (21,5-38,8)% (25,9-32,2)%
12,7% 33,9 % 29,1 % 22,3 %
Obésité 20,4 %
(8,2-17,2)% (28,6-39,3) (21,6-36,5)% (18,6-26)%
30,5 % 65,3 % 72,6 % 49,2 %
Obésité abdominale 45,0 %
(22,9-38,1)% (58,7-71,9)% (65,9-79,3)% (43,1-55,3)%
Ensemble (n =) 711 460 307 1478
25,0 % 37,2 % 30,6 % 30%
Surcharge pondérale 29,0 %
(20,9-29,1)% (32,5-41,8)% (24,6-36,7)% (27,3-32,6)%
9,8 % 23,5 % 20,2 % 16,2%
Obésité 14,3 %
(6-13,7)% (19,8-27,2)% (15,9-24,5)% (13,6-18,9)%
21,1 % 48,0 % 52,1 % 35,9 %
Obésité abdominale 32,1 %
(15,4-26,8)% (41,9-54,2)% (45,8-58,4)% (31,5-40,4)%
*Standardisation sur la structure par âge de la population algérienne de 1998.

Tableau 5.13 : Prévalence (intervalle de confiance à 95 %) de la


surcharge pondérale, de l'obésité et de l'obésité abdominale
en fonction de la zone géographique. Algérie, 2004.
Zone n Surcharge pondérale Obésité Obésité abdominale
Nord-centre 498 30,9 (26,6-35,2)% 19,7 (16,3-23)% 45,5 (41,8-49,3)%
Nord-est 361 28 (20,5-35,5)% 15,8 (13,1-18,5)% 37,3 (27,6-47,1)%
Nord-ouest 237 32,1 (29,8-34,3)% 15,6 (5,7-25,5)% 34,9 (26,6-43,2)%
Sud-est 200 32,5 (29,9-35,2)% 15,5 (6,5-24,5)% 38,8 (29,2-48,4)%
Sud-ouest 182 25,8 (16,8-34,8)% 9,3(1,6-17)% 23,6 (2,5-44,8)%

8.4 Discussion

Les prévalences de la surcharge pondérale et de l'obésité sont élevées en


Algérie à l'image des autres pays en développement du pourtour
218 Enquêtes et sondages

méditerranéen. Une étude récente réalisée en Turquie (Yumuk, 2005) retrouve


des prévalences de la surcharge pondérale et de l'obésité respectivement de
34,2 % et 23,7 %. Et, comme il est trouvé dans notre étude, la prévalence de
l'obésité dans l'étude de Yumuk est significativement plus importante chez
les femmes avec un taux de 32,4% versus 14,1 % chez les hommes. Une
autre étude réalisée en Tanzanie (Njelekela, 2004) estime une prévalence de
l'obésité de 14,2 %, très proche de celle retrouvée dans notre étude (14,3 %).
Une prédominance féminine est également retrouvée dans cette étude
africaine.
Néanmoins, la prévalence calculée dans notre étude reste modérée par
rapport à celles rapportées dans d'autres études et notamment celle réalisée au
Yémen (Al-Habori, 2004) qui présente une prévalence de 78,0 %.
Concernant l'obésité abdominale, la prévalence de notre étude est
également élevée avec 32,1 %. Une étude réalisée au Philippines (Baltazar,
2004) trouve une prévalence de 21,7 % chez les hommes et 64,1 % chez les
femmes. Une autre étude réalisée en Inde donne une prévalence de 25,6 %
avec toujours une prédominance féminine. Et c'est dans l'étude tanzanienne
où on retrouve la prévalence la plus faible, à savoir 16,9 %.
Il est vrai que la comparaison de la prévalence de notre étude à celles
rapportées par la littérature est difficile en raison de l'utilisation de
méthodologies différentes, mais on peut quand même conclure que le taux
présenté semble proche de ceux des autres pays du pourtour méditerranéen.
Leur prise en compte institutionnelle s'impose.

BIBLIOGRAPHIE

Al-Habori, M. et al. (2004). Type 2 Diabetes Mellitus and impaired glucose


tolérance in Yemen: Prevalence, associated metabolic changes and risk
factors. Diabetes research and clinicalpractice, vol. 65, 275-281.
American Diabetes Association (2004). Standards of médical care in
Diabetes. Diabetes Care, vol. 27 (Suppl.l), S15-S35.
Baltazar, J.C., Ancheta, C.A., Aban, I.B., Fernando, R.E., Baquilod M.M.
(2004). Prevalence and correlates of diabetes mellitus and impaired glucose
tolérance among adults in Luzon, Phillipines. Diabetes research and
clinical practice, vol. 64, 107-115.
Khosh-Chashm, K. (1998). The impact of urbanization on health in the
countries of the eastem Mediterranean région. Eastern Mediterranean
Health Journal, vol. 4, S137-S148.
Njelekela, M. et al. (2004). Obesity and other risk factors for cardio-vascular
diseases among Africans: Results from CARDIAC study in Tanzania,
International Congress Sériés, vol. 1262, 372-375.
5. Sondages dans les pays en développement 219

Yumuk, V.D., Hatemi, H., Tarakci, T., Uyar, N., Turan, N., Bagriacik, N.,
Ipbuker, A. (2005). High prevalence of obesity and diabetes mellitus in
Konya, a central Anatolian city in Turkey. Diabetes research and clinical
practice, vol. 70, 151-158.
OMS (2003). Etude de la prévalence des facteurs cardio-vasculaires majeurs
dans deux wilayas pilotes en Algérie selon l'approche Stepwise de l'OMS.
Rapport non publié.

9. Sondage simplifié et coût-efficace dans

les enquêtes Origine-Destination (OD)

de type entreprise

Orner Ramsès ZANG SIDJOU23

9.1 Introduction

Les enquêtes origine-destination (OD) ne sont quasiment pas pratiquées en


Afrique Subsaharienne24. Un chantier intéressant serait alors de proposer une
méthodologie financièrement accessible pour permettre la production des
statistiques issues d'enquêtes OD qui, en outre, peuvent couvrir des domaines
très variés liés aux transports (voir Ministère des transports du Québec, 2003).
Nous allons ici présenter un plan de sondage simplifié, très peu coûteux mais
efficace pour les enquêtes OD de type entreprise. Il repose sur le fait
d'exploiter la mobilité des agents des entreprises de transport à des fins de
limitation des dépenses liées au déploiement des agents de collecte de
données, sans introduire de biais considérable dans la qualité de
l'information. Ce plan de sondage permet également de collecter des
informations fiables sur de très petites unités informelles de production du
service transport, très nombreuses en Afrique subsaharienne, avec l'avantage
de pouvoir contourner des zones de crises lors de la collecte. L'application de
la méthodologie traditionnelle qui aurait consisté à tirer au sort les
compagnies dans chaque strate et leur administrer chacune un questionnaire
au sujet d'un trajet est un peu bouleversée ici (voir Gouvernement du Québec,
2003).
L'hypothèse qui balise cette recherche est que le répondant est détenteur de
l'information en relation avec l'objet de l'étude sur la strate de départ, les
itinéraires aller et retour et la strate d'arrivée. Cette hypothèse permet
concrètement d'optimiser le déploiement des agents de collecte sur le terrain.

23 École Nationale Supérieure de Statistiques et d'Économie Appliquée (ENSEA)


d'Abidjan, Côte d'Ivoire - Email : zang_omer@yahoo.fr.
24 Voir notamment les revues d'AFRISTAT.
220 Enquêtes et sondages

Il sera présenté tour à tour le plan de sondage simplifié par un cas théorique,
la formalisation du gain économique et le cas-test.

9.2 Le plan de sondage par un cas théorique

9.2.1 Un cas théorique

Dans une étude faisant appel à une population d'entités se déplaçant en


permanence selon un itinéraire bien établi, nous pourrions fort bien utiliser ce
facteur de mobilité permanente des entités pour optimiser le montant du
budget, la taille de l'échantillon et les déplacements à des fins de collecte.
Supposons une étude sur un réseau de transport interurbain. Ce réseau est
composé de quatre axes principaux (cf. les flèches à double sens dans le
schéma) reliant les quatre régions (strates) A, B, C et D du pays P. Le type
d'information à collecter est relatif au circuit, à l'ambiance qui prévaut dans
la strate en rapport avec l'activité sur un axe donné du réseau et aux
caractéristiques des exploitants du réseau.
Plusieurs compagnies de transport exercent sur ce réseau. Il faut préciser ici
que cette approche oblige à considérer de prime abord les agences comme des
unités à part entière dans l'effectif de la base de sondage.

Schéma 5.2 : Réseau du transport interurbain du pays P

B G D

9.2.2 Construction du plan de sondage

Il est préconisé d'employer une méthodologie qui contribue à alléger le


budget de la collecte à travers la réduction des frais de déplacements et des
frais de traitement du personnel de terrain, tout en maintenant une taille
d'échantillon conséquente. Plus concrètement, pour des enquêtes OD de type
entreprise, nous démontrons qu'il n'est pas nécessaire d'aller collecter dans
toutes les strates traditionnelles ; des mesures pouvant être prises pour avoir
des données suffisamment fiables dans les strates non visitées. Pour le cas du
schéma ci-dessus, nous pourrions nous limiter pour la collecte aux strates A et
C qui communiquent avec toutes les autres strates et dont la mobilité des
exploitants permettrait de renseigner tout le réseau. Il s'agira alors de préparer
5. Sondages dans les pays en développement 221

des questions sur la zone de départ et le trajet de sortie d'une strate pour
l'aller et le retour (deux unités statistiques) et de les adresser aux personnels
mobiles (pour un seul répondant) des compagnies de transport à partir de
l'une des strates de collecte (qui se trouve dans un foyer de collecte). Nous
retenons donc que les strates A et C du schéma représentent ce que nous
avons évoqué sous le concept dz foyers de collecte.
Les gains en spécificité dans l'analyse rendus possibles par la
particularisation des questionnaires selon le sens du trajet est un apport non
moins important que procure cette approche. Par exemple, le nombre et le
caractère des contrôles de police, les péages communautaires, la densité du
trafic, le type et les quantités de personnes ou de matériels transportés, les
motifs de déplacements saisonniers et même parfois les tarifs et leurs
variations changent de nature selon le sens du parcours. Les questionnaires
« aller » ou « retour » permettent finalement d'obtenir un échantillon de n
individus en n'interrogeant que n/2 répondants. De plus, par les jeux du
regroupement et du tri des observations et des individus on pourrait aisément
faire des analyses sur des unités autres que celles de la collecte d'origine.
Si le mode de tirage est aléatoire, le type de sondage est conséquemment
stratifié proportionnel (voir Clairin et Brion, 1997). En effet, la base de
sondage énumère toutes les agences ou compagnies, classifiées selon leurs
axes d'exploitation, se trouvant dans les foyers de collecte, eux-mêmes
déterminés en fonction de la configuration de l'ensemble du réseau de
transport. Dans la pratique, pour l'étude d'un réseau simple, on prendrait
comme foyer de collecte les strates de grande animation ou strates carrefours.
Dans les réseaux complexes, on pourrait randomiser le choix des foyers de
collecte ; ce qui renverrait à un tirage à deux degrés après le tirage des
entreprises.
Ainsi une même compagnie qui exploite plusieurs axes sera comptée autant
de fois dans la base de sondage sous le distinguo de son axe d'exploitation et
est susceptible d'apparaître plusieurs fois dans l'échantillon. La taille de la
population N est donc égale au nombre total de compagnies potentiellement
répondantes multiplié par deux. Le tirage des « compagnies » s'effectuera au
sein des strates dites foyer de collecte selon leurs axes d'exploitation (ces axes
peuvent être considérés comme un niveau inférieur de stratification dans les
foyers de collecte). Ceci implique que les effectifs des strates ne faisant pas
partie des foyers de collecte seront tout simplement déduits de leurs liens avec
ces foyers. Pour un taux de sondage n/N recherché, le taux de sondage
appliqué dans chaque « foyer-axe » (ensemble des compagnies et agences
d'un foyer de collecte desservant un axe donné) d'indice / est /î/A/j tel que
A = 2ZA/j et /? = 2Z/Î, ou encore tel que i = N zi , = n où y est
l'indice des « foyer-axe » et des autres strates.
222 Enquêtes et sondages

9.3 Formalisation du gain économique et

déduction du gain en temps

Ce raisonnement confronte les budgets de collecte de la méthodologie


traditionnelle (Ml) et de la méthodologie proposée (M2) pour ensuite dégager
une estimation du gain économique.
Nous retenons pour des besoins de simplification que le budget d'une
enquête comporte : les frais des questionnaires (FQ), les frais de traitement du
personnel de terrain (FPT) et les frais de déplacement non négligeable sur le
terrain (FD).
Dans la suite, les notations avec étoile feront référence à M2. Pour le reste,
nous notons :
• B \\q montant du budget de la collecte ;
• nr \\q nombre de répondants, tel que nr = nll ;
• S :\q nombre de strates ;
• Z) : la distance moyenne entre le lieu de lancement et les foyers de
collecte ;
• Z : le nombre de foyers de collecte, tel que Z est inférieur ou égal
à S/2 (sous l'hypothèse qu'il existe au moins un chemin reliant
toutes les strates) ;
• a : le facteur prix dans les frais de personnels ;
• Z? : le facteur prix dans les frais de déplacements ;
• Les facteurs prix ici intègrent les effectifs des recrues.

L'application de la méthodologie M2 permet que les frais de questionnaire


restent constants, les frais de personnels soient proportionnels au nombre de
répondants, c'est-à-dire n selon Ml et nr selon M2, et que les frais de
déplacements soient proportionnels au nombre de foyers de collecte, c'est-à-
dire S selon Ml et Z selon M2.
Selon Ml,

B = FQ + FPT + FD = FQ + an + bSD.

Selon M2,

B* = FQ* +FPT * +FD* = FQ + ^ + bZD.

On peut déjà en déduire que B *<5.


Si nous prenons le Max(Z) = S12, on peut alors mesurer le gain
économique minimum (gem) en fonction de n et de S.

gem = B - B* = ^(an + bDS).


5. Sondages dans les pays en développement 223

L'économie de temps provient de la réduction du temps de recherche des


individus, en trouvant un répondant nous obtenons deux individus, bien que
l'on soit un tant soit peu rattrapé dans cet aspect par le temps d'interview.

9.4 Un cas - test

Cette approche a été d'un apport indéniable pour la réalisation en 2005,


pendant la crise ivoirienne (voir à ce sujet : Institut PANOS, Afrique de
l'Ouest, 2004), d'une étude intitulée « impact de la crise du 19 septembre
2002 sur le transport routier interurbain des voyageurs en Côte d'Ivoire : cas
•r r 25 * ^
des sociétés de transport » . Elle a permis un allégement substantiel du
budget de la collecte et le contournement des zones de conflits pendant la
collecte. C'est sur la base d'une étude" qui livrait les lignes les plus
exploitées dans le transport routier interurbain des voyageurs en Côte d'Ivoire
qu'a été construit le cadre méthodologique (cf. tableau 5.14).

Tableau 5.14 : Cadre méthodologique


(un foyer de collecte et 7 foyer-axes)
Zones Régions Axes Effectifs
Répondants Individus
Zone sous Lagunes (région départ) Abidjan (Abj) 30 dont 30
contrôle Haut sassandra Abj-Daloa 5 5
gouvernemental Yamoussoukro Abj-Yamoussoukro 4 4
Savanes Abj-Khorogo 5 5
Zone rebelle Montagnes Abj-Man 5 5
Marahoué Abj-Bouaké 5 5
Ghana Abj-Accra 2 2
Extérieur Burkina Faso Abj-Ouagadougou 2 2
Mali Abj-Bamako 2 2
Total 60

Nous avons pu réaliser une étude grâce à cette méthodologie en minimisant


le risque lié « au conflit » (choix d'un foyer de collecte sécurisé) et en
n'utilisant pratiquement que 22 % du budget d'une enquête d'après la
méthodologie traditionnelle dans laquelle toutes les strates auraient dues être
parcourues. Si l'on omet l'effet crise, on se rend alors à l'usage d'environ
25 % du budget d'après la méthodologie traditionnelle. Le niveau de
précision des résultats (dépenses moyennes supplémentaires par voyage en
francs CFA : 192 718 [192 080, 193 347[, évolution du nombre de voyages :
-24,70 % [-25,58 ; -23,81 [) a été satisfaisant dans l'ensemble.

25Nous adressons nos sincères remerciements à Pr. Koffi N'Gucssan, M. René Ycbouc
Kabran, M. Hubert Attah et M. Séverin Yves Kamgna.
26 Monographie des transport, ministère des Transports, Côte d'Ivoire, étude à usage
interne au ministère.
224 Enquêtes et sondages

9.5 Conclusion

Cette méthodologie peut être déclinée en projet d'étude à des fins de visibilité
conjoncturelle à soumettre aux institutions de gestion du transport quel que
soit le pays.

BIBLIOGRAPHIE

Gouvernement du Québec (2003). Enquêtes Origine-Destination,


méthodologie des enquêtes. Rapport technique, Québec.
Ministère des transports du Québec (2003). Enquête Origine-Destination du
transport des matières dangereuses en Montérégie : Questionnaire transmis
aux entreprises, Québec.
Clairin, R., et Brion, P. (1997). Manuel de sondage : application au pays en
développement. Paris, CEPED.
Drouin, C. (2002). Transport des matières dangereuses, dispersion
atmosphérique des produits déversés et populations vulnérables : approche
géographique pour l'analyse du risque. Rapport, Université du Québec à
Trois-Rivières.
Institut PANOS, Afrique de l'Ouest (2004). Comprendre et traiter la crise en
Côte d'Ivoire. Faits et documents.

10. Exemple de méthodologie pour une

enquête auprès des populations

d'Afrique subsaharienne

27 28
Nathalie LYDIÉ, Philippe GUILBERT et Gaël SLIMAN

10.1 Introduction

Malgré la mise en évidence du poids grandissant des personnes originaires


• • •
d'Afrique subsaharienne parmi les nouveaux diagnostics de VIH/sida~ , ces
dernières n'ont pas reçu une attention comparable de la recherche en sciences
sociales que d'autres groupes touchés par le VIH. Il existe donc peu de
données précises et actualisées dans des domaines importants pour la
définition des stratégies de prévention. C'est pourquoi en 2005, l'Institut
national de prévention et d'éducation pour la santé (INPES) a lancé une

27 Institut national de prévention et d'éducation pour la santé (INPES). Direction des


affaires scientifiques.
28 Département Santé de BVA.
29Voir par exemple: Institut de veille sanitaire. (2007). Lutte contre le sida et les
infections sexuellement transmissiblcs - 10 ans de surveillance, 1996-2005.
5. Sondages dans les pays en développement 225

enquête sur les connaissances, attitudes, croyances et comportements face au


VIH/sida des populations originaires d'Afrique subsaharienne (enquête dite
KABP)30. Cette enquête réalisée en Ile-de-France a nécessité la mise en place
d'une méthodologie originale.

10.2 Description de la méthodologie

10.2.1 Constitution de la base de sondage

L'une des difficultés de cette enquête reposait sur la nécessité de palier


l'absence de base de sondage permettant de tirer au sort un échantillon
représentatif de personnes à interroger. Au moment où a été initiée l'enquête
(en 2005), les données du dernier recensement (1999) étaient déjà anciennes
alors que le nombre d'étrangers provenant d'un pays d'Afrique subsaharienne
admis au titre de séjour avait significativement augmenté depuis cette
date (+ 44,7 % entre 2000 et 2003). Le choix a donc été fait de créer une base
de sondage constituée de la liste des communes d'Ile-de-France comportant
plus de 5 000 habitants au recensement de 1999, en posant l'hypothèse que, si
le nombre d'immigrés originaires d'Afrique subsaharienne avait augmenté,
leur répartition géographique était sensiblement la même en 2005 que lors du
dernier recensement de la population en 199931.
Le tirage au sort des communes a été précédé de la stratification de la base
de sondage. Trois strates ont été créées en fonction de la densité de la
population immigrée dans chacune des communes au recensement de 1999.
Puis les communes ont été tirées au sort, de manière proportionnelle à leur
répartition à l'intérieur de chaque strate (tableau 5.15). Afin d'avoir une
multiplicité et une bonne dispersion des points d'enquête, le choix de tirer 50
communes avait été préalablement arrêté.
La taille de l'échantillon a été fixée à 1 800 personnes (âgées de 18 à 49
ans), fruit d'un compromis entre le coût de l'étude et la puissance statistique
acceptable. Cette taille d'échantillon a cependant permis d'obtenir une
fraction de sondage de la population relativement élevée puisque que l'on
peut estimer qu'environ 1 personne sur 140 a été interrogée. A partir de la
taille globale de l'échantillon préalablement définie, le nombre d'immigrés à
enquêter dans chacune des strates et dans chacune des communes tirées au
sort a été calculé, proportionnellement à leur poids respectif dans les
différents niveaux (tableau 5.15).

30 Le rapport complet de l'enquête est disponible. Lydié, N. (dir.), Bcltzer, N., Fénies, K.,
Halfcn, S., Lcrt, F. et Lcvu, S. (2007). Les populations africaines d'Ile-de-France face
au VIH/sida - Connaissances, attitudes, croyances et comportements. Institut national de
prévention et d'éducation pour la santé, Saint-Denis.
31 Cette hypothèse a depuis été vérifiée. Voir Borrcl, C. (2006). Enquêtes annuelles de
recensement 2004 et 2005. Inscc Première no1098.
226 Enquêtes et sondages

Tableau 5.15 : Récapitulatif du nombre de communes et


d,immigrés recensés et à enquêter
Proportion d'immigrés Nombre de Nombre de Nombre d'immigrés Nombre
parmi la population communes (base communes au recensement de d'immigrés
recensée sondage) tirées au sort 1999 à enquêter
> 6,00 % 32 (16%) 8 43 813 491
De 4,00 %-5,99 % 51 (25 %) 12 53 802 603
De 2,01 %-3,99 % 122 (59%) 30 62 906 706
Total 205 (100%) 50 160 521 1 800

10.2.2 Déroulement de l'enquête

L'enquête a été réalisée en lieux ouverts, à partir de sites d'enquêtes fixes.


Des sites communs à l'ensemble des communes sélectionnées et susceptibles
de drainer des populations différentes ont été recherchés. Ces sites d'enquêtes
ont finalement été au nombre de quatre : (i) gare RER, sortie de bouches de
métro, tenninus de bus, (ii) marché ouvert, (iii) bureau de poste, (iv)
entrée/sortie de centre commercial, supermarché.
A partir des sites sélectionnés, un circuit d'enquête a été créé. Les sites
étaient visités par les enquêteurs dans un ordre précis. Afin de tenir compte de
la densité différentielle de la population immigrée africaine dans les
communes, une durée de présence était à respecter sur chaque site. Elle était
inversement proportionnelle à la densité de la population immigrée recensée.
Quel que soit le nombre de personnes à enquêter dans la commune, un circuit
complet était effectué. Si, à l'issue de ce circuit, le nombre préalablement
défini d'interviews n'était pas réalisé, les enquêteurs commençaient un
nouveau tour de circuit, toujours dans le même sens et toujours en respectant
le temps d'enquête. Le site par lequel le nouveau tour de circuit démarré était
tiré au sort, de manière à ne surreprésenter aucun site. Lorsque l'enquêteur
avait atteint le nombre d'interviews à réaliser à l'issue du temps d'enquête
qu'il avait à respecter, il pouvait sortir du circuit indépendamment du site sur
lequel il se trouvait.

10.2.3 Population éligible

Pour être éligible, une personne devait remplir trois critères : (i) être née dans
un pays d'Afrique subsaharienne, (ii) être âgée de 18 et 49 ans, (iii) résider
habituellement en Ile-de-France. L'enquêteur devait solliciter l'ensemble des
personnes qui, a priori, pouvaient remplir ces critères, dans le respect du
temps affecté à chaque site et l'ordre du circuit.

10.2.4 Recueil des données

La mise en œuvre du recueil des données a été confiée à l'institut de sondages


BVA. Elle a été assurée par quarante-deux enquêteurs encadrés par quatre
chefs d'équipe et cinq responsables terrain. Après une phase pilote permettant
5. Sondages dans les pays en développement 227

de s'assurer de la compréhension du questionnaire et de la faisabilité de la


mise en œuvre de l'enquête (mai 2005), le recueil des données a été réalisé du
3 juin au 6 juillet 2005, du lundi au samedi.
Les enquêteurs qui étaient tous originaires d'un pays d'Afrique
subsaharienne et avaient reçu une formation de deux jours ont travaillé en
binôme (une fille/un garçon). Le questionnaire papier a été administré en
face-à-face et en français. Les hommes ont interrogé les hommes ; les femmes
ont interrogé les femmes. A l'issue du questionnaire et en guise de
remerciement, l'enquêteur remettait à la personne interrogée une carte
téléphonique prépayée d'une valeur de 10 € permettant d'appeler dans les
pays d'Afrique subsaharienne, ainsi qu'un document de prévention, sous
forme d'un roman photo intitulé « La menace », réalisé par l'INPES en 2004
spécifiquement pour la population africaine. En cas de questions relatives au
VIH, la personne était orientée vers Sida Info Service dont le numéro de
téléphone figurait sur le document qui lui était remis.
Les enquêteurs avaient pour consigne de relever, à l'aide d'un tableau,
l'ensemble des contacts qui n'avaient pas donné lieu à la passation d'un
questionnaire. Un échange était considéré comme un « contact » à partir du
moment où l'enquêteur avait eu la possibilité de lire à la personne la partie
introductive du questionnaire qui expliquait la nature de l'enquête et énonçait
les critères d'éligibilité. Les informations recueillies dans le tableau étaient les
suivantes : (i) a refusé de répondre à l'enquête, (ii) n'est pas éligible, (iii) a
déjà répondu à l'enquête.
Le questionnaire utilisé avait été directement adapté des questionnaires
développés par l'Observatoire régional de santé (ORS) d'Ile-de-France dans
le cadre des enquêtes KABP métropole et KABP Antilles/Guyane. Il avait été
conçu de manière à ce que sa passation n'excède pas trente minutes.
Au final, 14 164 contacts ont été établis pendant la durée de l'enquête. Dans
69,9 % des cas, {n = 9 901 ), ces contacts ont concerné des personnes
éligibles. Parmi celles-ci, 19,6 % {n = 1 941) ont accepté de répondre à
l'enquête. Après vérification, 67 questionnaires ont été écartés parce qu'ils
comportaient trop d'incohérence. Cent trente huit questionnaires ont donné
lieu à un abandon en cours de passation.

10.2.5 Population enquêtée/Population recensée

À l'issue de l'enquête, il a été possible d'obtenir auprès de l'Insee l'écart


observé entre les données recueillies et celles générées par les deux premières
enquêtes annuelles du recensement (2004-2005) pour quelques variables clé
(sexe, âge, niveau d'éducation, pays d'origine).
La comparaison montre que la répartition par sexe n'est pas
significativement différente, ainsi que la répartition par pays de naissance : les
personnes interrogées proviennent dans des proportions semblables à celle du
228 Enquêtes et sondages

recensement des six premiers pays d'émigration régulière que sont le


Cameroun, la Côte d'Ivoire, le Congo, le Mali, la République démocratique
du Congo et le Sénégal. Les immigrés d'Afrique subsaharienne qui ont
participé à l'enquête sont significativement plus jeunes que la population
qu'ils représentent. Une différence de cinq ans en moyenne a été observée
aussi bien chez les hommes que chez les femmes. De ce fait, la proportion
d'hommes et de femmes célibataires est également plus importante parmi les
personnes interrogées. L'échantillon compte également significativement plus
de personnes ayant suivi un cursus scolaire, aussi bien parmi les hommes que
parmi les femmes. A noter, enfin, que compte tenu du fait que le profil des
populations diffère de manière importante selon la période d'arrivée, une
partie des différences observées entre les données de l'enquête et celles du
recensement est imputable au fait que les personnes qui sont arrivées depuis
2000 sont surreprésentées dans notre échantillon.

10.3 Conclusion

La réalisation d'enquêtes auprès de publics spécifiques pose des problèmes


méthodologiques importants. Les options choisies dans le cadre de cette
enquête ont permis d'interroger une population fortement touchée par
l'épidémie de VIH, désignée comme « population prioritaire » dans les plans
nationaux de lutte contre le VIH/sida, sans pour autant que l'on dispose des
données nécessaires à l'orientation des politiques de santé publique. La
méthodologie a permis d'interroger un échantillon représentatif de la
population originaire d'Afrique subsaharienne vivant en Ile-de-France en
termes de répartition par sexe et par pays de naissance. A contrario, les
personnes qui ont participé à l'enquête sont significativement plus jeunes et
plus éduquées que la population qu'elles représentent. Comparativement à
une enquête par téléphone, le taux de refus est important ; il a plus
particulièrement concerné les personnes de la tranche d'âge supérieure (40
ans et plus) et celles qui avaient un niveau d'étude plus faible (inférieur au
baccalauréat). Toutefois, la robustesse des données recueillies a confirmé les
possibilités offertes par la méthodologie développée pour cette enquête,
méthodologie par ailleurs, facilement reproductible et de mise en œuvre
rapide. Enfin, conformément à l'hypothèse qui avait été posée, les options
retenues ont permis d'inclure dans l'échantillon des personnes en forte
précarité administrative dont on peut penser qu'elles sont peu représentées
dans les enquêtes par téléphone.
Chapitre 6

Méthodes de collecte et applications

1. Techniques d'orientation et de

manipulation dans les questionnaires

Gérard DAHAN1

La multiplication et Limportance accordée aux sondages pré-électoraux lors


de la dernière campagne présidentielle a, relancé le débat sur leur impact dans
le fonctionnement de la démocratie, sur leur capacité à influencer l'opinion, et
sur l'existence ou non d'une manipulation par les sondages.
Réalisant des sondages et rédigeant des questionnaires depuis plus de
25 ans, cette question m'intéresse en tant que professionnel mais aussi en tant
que citoyen. J'ai donc commencé à recenser différents effets où techniques
qu'on pouvait observer à l'œuvre, dans les sondages publiés.
Dans cet article j'en présente quatre :
- L'effet d'association appliqué au jugement sur une proposition,
- L'effet d'exposition/protection appliqué aux baromètres de confiance,
- L'utilisation des mots à forte connotation émotionnelle,
- Les « push poils » ou manipulation de l'électorat.

1.1 L'effet d'association

Si on associe une affirmation à une personne (ou une personnalité) et qu'on


vous demande votre opinion sur cette affirmation, votre réaction va dépendre

l Psychosociologue, directeur de l'Institut Procom, l place des Cordeliers 69002, Lyon.


procom@wanadoo.fr.
230 Enquêtes et sondages

de votre opinion sur la personne. L'effet d'association peut donc peser en


positif ou en négatif.
En janvier 2007 à 3 jours d'intervalle, deux instituts ont réalisé des
sondages portant sur la proposition de François Hollande d'augmenter
l'imposition pour les revenus les plus élevés. BVA pose la question suivante à
9
un échantillon de I 004 personnes": «François Hollande vient d'indiquer
que si le parti socialiste remportait les élections, il augmenterait l'impôt sur
le revenu pour « les contribuables qui ont un salaire de plus de 4000 € net
soit 5000 € brut». Vous personnellement, êtes-vous tout à fait favorable,
plutôt favorable, plutôt opposé ou tout à fait opposé à cette mesure ? ».
Deux jours plus tard, le CSA pose la question suivante à un, échantillon de
1 003 français3. « Êtes-vous favorable ou opposé à une augmentation des
impôts pour ceux qui gagnent plus de 4000 € net par mois par personne.
Seraient concernées les personnes seules gagnant plus de 4000 € net par
mois, les couples sans enfant gagnant plus de 8000 € net par mois et les
couples avec deux en fants gagnant plus de 12000 € net par mois ? ».
Les questions sont relativement différentes, les échantillons ne sont pas tout
à fait les mêmes dans la mesure où BVA a interrogé des Français à partir de
18 ans et le CSA à partir de 15 ans. Les scores obtenus sont différents : 50 %
d'opinons favorables à l'augmentation d'impôts pour le sondage BVA, 57 %
pour le sondage CSA. Mais ce qui est principalement responsable de la
différence est l'effet d'association. Pour le mettre en évidence, il faut
s'intéresser aux résultats en fonction de la sympathie politique.
Sur les électeurs de Ségolène Royal au 1er tour ou les sympathisants PS, la
différence de score n'est pas très importante : 64 % d'opinions favorables
pour BVA, 68 % pour le CSA. Mais sur les électeurs de Nicolas. Sarkozy ou
les sympathisants UMP, les écarts sont énormes : 34 % d'opinions favorables
pour le sondage BVA (qui associe la proposition à François. Hollande), 52 %
pour le sondage CSA (qui ne l'associe pas), soit 18 points d'écarts,... Une
différence tout à fait anormale...
Qu 'est-ce qui a joué ? La formule introductive dans le sondage BVA :
« François Hollande vient d'indiquer que si le parti socialiste remportait les
élections ...». Elle donne une couleur politique à la mesure et l'associe à la
victoire socialiste. Logiquement, les sympathisants UMP se prononcent en

2 Sondage BVA réalisé par téléphone du 15 au 16 janvier 2007 auprès d'un échantillon de
1004 personnes représentatif de la population française âgée de 15 ans et plus
Échantillonnage par la méthode des quotas : sexe, âge, profession du chef de famille
après stratification par régions et catégories d'agglomération.
3 Sondage exclusif CSA/FRANCE EUROPE EXPRESS/FRANCE INFO réalisé par
téléphone les 17 et 18 janvier 2007. Échantillon national de 1 003 personnes âgées de
18 ans et plus, constitué d'après la méthode des quotas, après stratification par région et
catégorie d'agglomération.
6. Méthodes de collecte et applications 231

majorité contre. Mais se sont-ils prononcés contre la mesure ou contre la


victoire possible du parti socialiste ?
Dans la formulation du CSA, la proposition n'est pas associée. Une partie
des personnes interrogées ne sait probablement pas qu'il s'agit d'une
proposition de François Hollande. Les personnes répondent sans référence à
un leader politique et à l'hypothèse de victoire d'un parti. Ils se positionnent
sur la mesure et les électeurs de Nicolas Sarkozy se retrouvent favorables à la
proposition alors que les sympathisants UMP y étaient farouchement opposés.

Tableau 6.1 : Résultats sondages CSA et BVA


Sondage CSA les 17 Sondage BVA des 15 et 16 janvier 2007
et 18 janvier 2007
Ensemble Électeur Électeur Ensemble Sympathisants Sympathisants
Ségolène Sarkozy socialistes UMP
1er tour 1er tour
Total 57 68 52 50 64 34
favorable
Tout à fait 21 28 16 13 20 7
favorable
Plutôt 36 40 36 37 44 27
favorable
Total 38 29 45 46 33 65
opposé
Plutôt 22 19 23 27 25 30
opposé
Tout à fait 16 10 22 19 8 35
opposé
Ne se 5 3 3 4 3 1
prononce
pas/NSP
Total 100 100 100 100 100 100

Il y a quelques années, de Legge (1998) écrivait dans un excellent petit livre


qu'il fallait se demander à quelle question, la personne enquêtée avait
répondu. La formule reste d'actualité.

1,2 L'effet de protection/exposition

L'effet protection/exposition est obtenu par le choix des mots. Il permet


d'exposer ou de protéger une personne évaluée.
Au mois de novembre 2006, deux formulations légèrement différentes en
matière d'indice de confiance du président Jacques Chirac donnaient des
résultats totalement différents. Le baromètre CSA est construit sur la question
suivante : « Faites-vous confiance ou pas confiance au Président de la
République, Jacques CHIRAC pour affronter efficacement les principaux
problèmes qui se posent au pays ? ». Le baromètre Tns Sofrès est basé sur
une question un peu différente portant également sur la confiance : « Faites-
232 Enquêtes et sondages

vous tout à fait confiance, plutôt confiance, plutôt pas confiance ou pas du
tout confiance à Jacques CHIRAC pour résoudre les problèmes qui se posent
en France actuellement ? ».
Dans la première formulation on parle de confiance « au président de la
république, Jacques Chirac », l'homme arrive derrière la fonction
présidentielle, la confiance est exprimée en la fonction et en l'homme. On
parle également d'affronter efficacement. Les problèmes se posent «au
pays ». Le mot nous inclus dans une communauté dont nous faisons partie et
dont Jacques Chirac est le président. Dernier point, il s'agit d'une échelle en 2
positions, confiance ou pas confiance.
Dans la deuxième formulation, on remarque que la fonction présidentielle a
disparue, c'est Jacques Chirac qui est évalué, sans sa fonction. Il ne s'agit
plus « d'affronter efficacement », mais de « résoudre les problèmes » ; il y a
là une différence que les personnes enquêtées vont entendre. L'échelle a 4
positions ce qui donne plus de possibilités de nuances. À la même période,
l'indice de confiance CSA est de 42 % de confiance. L'indice de confiance
Sofres est de 23 % de confiance.

1.3 L'utilisation de mots à forte connotation

émotionnelle

Dans bon nombre de sondage d'opinion, on soumet aux personnes interrogées


une proposition censée illustrer une position. L'utilisation dans cette
proposition de mots à forte connotation émotionnelle est susceptible
d'entraîner des différences importantes comparativement à une formulation
neutre.
Robert Revat (2005), chercheur à l'école de management de Lyon a
récemment réalisé une série d'expérimentations pour mettre en évidence
l'effet des changements de formulation sur les résultats. Deux formulations
d'une même question ont été posées à 2 échantillons de Français de 240
personnes chacun. La question avait été choisie du fait de sa capacité à
fortement diviser l'opinion, elle portait sur le rétablissement de la peine de
mort en France. Les deux échantillons étaient amenés à se prononcer sur une
affirmation favorable au rétablissement de la peine de mort en utilisant une
échelle d'accord-désaccord en 4 positions.
On a soumis le premier échantillon à une formulation neutre : « La France
doit rétablir la peine de mort » diriez vous que vous êtes tout-à-fait, assez,
pas tellement ou pas du tout d'accord. Le second échantillon était amené à se
prononcer sur une formulation beaucoup plus suggestive : « Devant
l'augmentation des crimes horribles d'enfants et de personnes âgées, La
France doit rétablir la peine de mort ». Le premier échantillon (soumis à une
formulation neutre) a adhéré à 45 % au rétablissement de la peine de mort, le
6. Méthodes de collecte et applications 233

second échantillon s'est majoritairement prononcé à 58 % pour le


rétablissement de la peine de mort.

1.4 Les « push poils » ou la manipulation de

l'électorat

Les « push poils » sont apparus aux USA il y a quelques années. On pourrait
traduire cette expression par « sondages d'influence ». Ces opérations de
télémarketing se présentent comme des sondages étudiant ce qui peut affecter
les intentions de vote. En réalité, elles ne visent qu'à « influencer » le plus
grand nombre d'électeurs possible en distillant de fausses informations sur un
candidat. Selon Feld (2000), « il s'agit d'une technique utilisant les
insinuations et les fausses informations pour influencer les électeurs sans
aucune intention de recherche ». La plupart du temps d'ailleurs, les réponses
des personnes « enquêtées » ne sont pas enregistrées. Plusieurs exemples de
« push poils » ont été mis en évidence dans les campagnes politiques
américaines.
L'un des plus célèbre est celui utilisé par l'État major de campagne de
George W. Bush contre John Mac Cain4 en Caroline du Sud lors des primaires
de 2000. La question suivante a été posée à un large échantillon d'électeurs :
« Seriez-vous plus enclin ou moins enclin à voter John Mac Cain comme
président si vous saviez qu 'il est le père illégitime d'un enfant noir ? » Le but
était bien sûr de suggérer que tel était le cas. L'argument était d'autant plus
pernicieux que John Mac Cain faisait campagne avec à ses cotés sa fille
adoptive, foncée de peau, originaire du Bengladesh. John Mac Cain perdit les
élections de Caroline du Sud et cela marqua la fin de sa course pour
l'investiture.
Les associations Américaines d'instituts de sondages qui se sont
ouvertement prononcées contre ces techniques ont donné quelques
caractéristiques permettant de les identifier. Les « vrais sondeurs » donnent en
général le nom de l'institut alors que les pratiquants des « push poils » ne
donnent pas de nom ou donnent un faux nom. Si les « vrais sondages » sont
réalisés sur des échantillons réduits (de 300 à 1 000 personnes), l'objectif des
« push poils » est de toucher un maximum d'électeurs (plus de 1 000), le plus
près possible du jour de l'élection. Enfin, quand les « vrais sondages » durent
de 5 à 30 minutes, les « push poils » ne durent que 20 à 60 secondes, juste le
temps de délivrer les fausses informations sur le candidat qu'on cherche à
contrer. À ma connaissance, il n'y a pas eu de « push poils » en France selon
la définition des associations Américaines. Cependant, on entend souvent dire
qu'il faut quelques années pour qu'une « innovation » traverse l'Atlantique...

4 Le même qui actuellement brigue Tinvestiture républicaine pour les élections de 2008.
234 Enquêtes et sondages

BIBLIOGRAPHIE

de Legge, J. (1998). Sondage et démocratie. Paris, Flammarion.


Revat, R. (2005). Une nouvelle expérience de rédaction du questionnaire.
Dans Méthodes d'enquêtes et sondages : pratiques européennes et nord-
américaine, Lavallée, P. et Rivest, L.-P. éds., pages 44-48, Paris, Dunod.
Feld, K.G. (2000). What are Push Poils, anywayl Campaigns & Elections,
Inc.

2. Du questionnaire papier au support

électronique : l'expérience du

recensement canadien de 2006

5
Rossana MANRIQUEZ

2.1 Introduction

La saisie des données du Recensement canadien de 2006 est différente de


celle des recensements précédents. En effet, depuis 1981, les opérateurs de
saisie de l'Agence du revenu du Canada faisaient la saisie des données du
recensement. En 2006, nous avons eu recours à la reconnaissance optique de
marques et caractères comme principal moyen pour effectuer la saisie.
Nous voulons estimer l'erreur finale de la saisie et trouver les causes
d'erreurs afin d'apporter des améliorations à la saisie de 2011. Pour ce faire,
un échantillon de champs a été tiré et comparé au résultat de la saisie. Nous
présentons ici la saisie ainsi que l'assurance de la qualité. Puis, nous
présentons les résultats de l'étude d'évaluation et quelques recommandations
pour 2011.

2.2 La saisie

Nous avons traité plus de 10 millions de documents de mai à septembre 2006


à l'aide de divers sous-systèmes.
Si la qualité de la numérisation était insuffisante, les questionnaires étaient
numérisés de nouveau ou saisis par la méthode habituelle (opération Saisie
Sur Papier). Puis, la reconnaissance optique des marques et la reconnaissance
intelligente de caractères (opération RECO) étaient appliquées. Si le niveau
de certitude était sous un certain seuil ou que l'image était imparfaite, un

5 Statistique Canada, 150 promenade Tunney's Pasture, Ottawa (Ontario), Canada,


K1A0T6.
6. Méthodes de collecte et applications 235

opérateur faisait la saisie (Saisie Sur Image ou Saisie Sur Pleine Image). Pour
la SSPI, il voyait la page complète ; pour la SSI, uniquement la donnée.
Les champs de réponse sont classés d'avance en quatre types. Les réponses
à cocher sont des marques. Un champ numérique contient seulement des
chiffres. Les adresses et codes postaux sont alphanumériques en raison de leur
complexité ; les autres champs sont des alpha. Le Tableau 6.2 fait état de la
distribution des champs selon l'opération et le type :

Tableau 6.2 : Distribution des champs de toute la saisie


selon Topération et le type de champ
Marque Numérique Alpha Alphanumérique TOTAL

RECO 311 789 902 134 049 096 39 857 681 5 454 848 491 151 527

SSI 7 034 690 13 522 529 20 868 202 4 216 522 45 641 943

SSPI 1 818 728 1 888 639 327 127 131 859 4 166 353

SSP 3 206 276 1 324 515 652 296 87 117 5 270 204

TOTAL 323 849 596 150 784 779 61 705 306 9 890 346 546 230 027

2.3 L'assurance de la qualité

Pour effectuer l'assurance de la qualité, nous avons tiré un échantillon


stratifié de champs selon un plan systématique à pas aléatoire. En tout, 1,92 %
des champs sont passés par l'étape de l'assurance de la qualité, c'est-à-dire
1,34 % des marques, 2,19 % des numériques, 3,82 % des alpha, 5,04 % des
alphanumériques. Peu de champs ont échoué à l'assurance de la qualité (AQ),
soit 0,86 % des 10 492 241 champs.
Pour vérifier l'exactitude, nous faisons une saisie manuelle de l'échantillon.
Lorsque nécessaire, un arbitre intervient et c'est sa réponse, correcte ou non,
qui devient la saisie finale6.

2.4 L'étude d'évaluation

2.4.1 Déroulement

Nous avons tiré un échantillon à deux phases, la première étant l'échantillon


de l'assurance de la qualité. La deuxième phase est un échantillon stratifié et

6 Les systèmes de vérification de données et d'imputation de Statistique Canada assurent


la cohérence finale des données. Le résultat de la saisie n'est donc pas nécessairement le
même qu'à la diffusion des données. Aux fins de cet article, nous nous limitons à la
saisie.
236 Enquêtes et sondages

dans chaque strate, un échantillon aléatoire simple. Pour déterminer les strates
de la deuxième phase, nous avons supposé qu'il existe un lien entre une
différence entre les saisies à l'étape de l'assurance de la qualité et une erreur à
la saisie. Entre autres, nous avons choisi tous les champs ayant une différence
(59,4 % de notre échantillon). De novembre 2006 à la fin mars 2007, une
équipe de dix opérateurs a comparé la saisie avec l'image à l'aide d'une
application avec interface graphique.

2.4.2 Résultats

a) Résultats globaux

Nous disons qu'une réponse est connue si nous pouvons déterminer les
intentions du répondant avec l'information disponible sur la page. Une
réponse est directe lorsque lisible, dans le bon format et au bon endroit. Si une
réponse n'est pas directe, alors elle est équivoque. Il y a une erreur de saisie
lorsque l'information du répondant ne correspond pas au résultat de la saisie.
Nous avons utilisé la technique des répliques pour calculer la variance des
estimations. Puisque la non-réponse (3,1 %) (images non retrouvées,
questionnaires mal classés, etc.) n'était pas liée à notre variable d'intérêt,
nous avons ajusté les poids. L'échantillon final est de 290 671 champs. Pour
267 800 champs, la réponse est connue. La réponse est directe pour 179 389
champs et 77 016 champs ont été identifiés comme étant erronés.
L'erreur globale de la saisie, telle qu'estimée par notre étude, est de 0,87 %.
RECO a été appliquée sur les champs ayant un niveau de confiance élevée ;
SSI, sur les champs mal reconnus par la machine et SSPI, pour des cas où, le
plus souvent, le cadrage de la photo du questionnaire faisait défaut. SSP a été
appliqué lorsque le questionnaire présentait un problème et non pas,
nécessairement les champs.
La réponse équivoque représente 3 % de tous les champs, mais la moitié des
erreurs sont équivoques. Il faudrait trouver un moyen d'identifier la réponse
équivoque et de s'assurer que ce n'est pas l'opération RECO qui la traite.

Tableau 6.3 : Distribution de l'erreur selon l'o jération et la réponse


Opération Toute réponse Réponse directe Réponse équivoque

RECO 0,53%-0,72% 0,31 % - 0,43 % 11,8%-24,4%

SSI 3,16%-3,50% 1,82 % - 2,01 % 8,58%-9,48%

SSPI 0,95%-1,59% 0,56%-0,76% 4,70 %- 12,40 %

SSP 1,07 % -1,79 % 0,81 % -1,35 % 5,33%-14,1 %

TOTAL 0,83%-0,91 % 0,46%-0,50% 11,0%-14,8%


6. Méthodes de collecte et applications 237

b) Substitution de chiffres

Nous nous intéressons ici à la réponse directe pour les champs numériques
(95,79 %) et comparons les nombres qui ont le même nombre de chiffres
(99,38 % des champs saisis par les opérateurs et 99,87 % de RECO). Le
nombre de substitutions représente moins de 1 % des champs numériques.

Figure 6.1 : Comparaison des opérations RECO et manuelles

h MM

À gauche se trouvent les résultats de RECO et à droite, ceux des opérations manuelles
pour les substiaitions. L'information contenue dans le questionnaire est en blanc et
l'erreur commise, le résultat de la saisie est en gris. C'est le « 7 » qui est le plus
souvent mal saisi. Pour les opérations manuelles, il n'y a pas vraiment de choix
populaire d'erreur. Par contre, le patron de RECO génère un biais.

Quelles sont les conséquences d'une substitution ? Lors des opérations de


vérification et d'imputation, une différence dans la distribution des
incohérences de l'âge pour la réponse par courrier et celle d'Internet a été
observée et les corrections ont été apportées en conséquence.

c) Effet de l'algorithme

Le taux d'erreur dépend de l'algorithme utilisé pour la comparaison des


chaînes de caractères. Nous comparons l'algorithme de l'assurance de la
qualité (champs) à une comparaison stricte (chaînes). Celui de l'AQ sépare
l'alphabet et les chiffres en quatre groupes et compare le compte de chaque
groupe dans les deux mots sans respecter l'ordre des lettres. Pour les champs
de type marque et de type numérique, les résultats sont comparables, mais pas
pour les champs alpha et alphanumériques.

Tableau 6.4 : Comparaison de Terreur selon deux algorithmes


Type de champs Différence - champs Différence - chaînes
Marque 0,23 % - 0,49 % 0,23 % - 0,49 %
Numérique 1,23 % -1,35 % 1,40 % - 1,54 %
Alpha 1,94%-2,14% 7,91 % - 8,75 %
Alphanumérique 3,25%-4,39% 6,18%-8,37%
TOTAL 0,83 % - 0,91 % 1,61 % -1,77 %
238 Enquêtes et sondages

2.5 Conclusion

Nous avons utilisé la reconnaissance optique à grande échelle. Pour la


réponse directe, cela fonctionne très bien. La réponse équivoque devra être
étudiée. La correction faite par l'assurance de la qualité a un taux d'erreur de
15 %. Pour 2011, les meilleurs opérateurs devront arbitrer l'assurance de la
qualité, c'est-à-dire avoir le dernier mot pour cette étape. Nous aimerions
essayer un algorithme de comparaison qui tiendrait compte des arrangements
de caractères, contrairement à celui en place. Nous aimerions étudier les
substitutions à l'étape de l'assurance de la qualité afin d'éviter un biais
possible en le corrigeant.
Nos performances se sont améliorées depuis 2001 malgré l'apparition de
nouveaux problèmes. Nous avons des défis intéressants qui nous attendent
pour le Recensement de 2011.

BIBLIOGRAPHIE

Bankier, M., et Michaud, I. (2007). Analysis of the Imputation ofAge (Phase


2 Pass 2) for 2006 Census Data. Rapport non publié, Ottawa, Canada :
Statistique Canada.
Boudreau, J.-R. (2007). Evaluation de la saisie des données du recensement
de 2006. Rapport non publié, Ottawa, Canada : Statistique Canada.

3. Questionnaire : apports et limites de la

rotation des items

Robert REVAT7

3.1 introduction

La rédaction d'un questionnaire pose de multiples problèmes liés à la fois au


vocabulaire utilisé dans la formulation des questions et des modalités de
réponses, ainsi qu'à l'agencement du questionnaire lui-même. La présente
contribution concerne l'influence de l'ordre des questions sur les réponses et
l'efficacité de la rotation pour pallier ce biais.
Les items d'attitudes sur lesquels les personnes interrogées doivent se
prononcer avec une échelle d'accord sont parfois nombreux dans un
questionnaire, et l'on peut faire l'hypothèse que la monotonie du
questionnement risque d'entraîner un nombre croissant de non-réponses au

7 Robert Revat, professeur, École de management de Lyon (EM Lyon), 23 avenue Guy de
Collonguc, 69132 Ecully cedex, France, rcvat@em-lyon.com.
6. Méthodes de collecte et applications 239

fur et à mesure que l'enquêteur égrène ses questions. Pour pallier ce biais, il
est convenu d'effectuer une rotation des items pour pallier cet effet d'ordre :
elle consiste à présenter au premier répondant les k items en commençant par
le 1er et en finissant par le A'cme, puis, au deuxième répondant, en commençant
par le deuxième et en finissant par le premier et ainsi de suite.
Une autre technique consiste à tirer aléatoirement chaque item dans la base
des items. Cette technique nécessite une réalisation de l'enquête assistée par
ordinateur (CATI ou CAPI) et n'est pas utilisable dans le cas d'une
administration par questionnaire PAPI (paper andpencil interview').

3.2 Présentation de l'expérience

3.2.1 Données utilisées

Nous avons utilisé les données d'une enquête réalisée en face-à-face où 401
répondants étaient amenés à se prononcer sur 6 scénarios ayant trait à des
situations de transport et déplacements (embouteillage, pics de pollution,
pénurie de places de stationnement, péage urbain...), et à évaluer, en termes
d'équité, des solutions proposées.
Chaque scénario comportait entre 5 et 7 assertions, toutes évaluées par la
même échelle de Likert à 4 positions. Le tableau ci-dessous présente un de
ces scénarios. Il a trait aux modalités d'attribution des places dans un parking
d'entreprise saturé : « ça se passe dans une grande entreprise, dont les salariés
viennent presque tous travailler en voiture. Elle est installée au centre ville,
dans un secteur où il est vraiment très difficile de se garer et où le
stationnement coûte cher (environ 20 € par jour), A l'intérieur de cette
entreprise, il y a un parking assez grand qui leur est réservé... L'entreprise
doit faire des travaux dans son parking pour une durée de 6 mois : 2 places
sur 3 vont être supprimées pendant cette période. Il y aurait différentes
solutions pour attribuer les places restantes. Je vais vous les présenter et, pour
chacune, vous direz si vous la trouvez... très injuste, plutôt injuste, plutôt
juste, très juste ».
L'administration du questionnaire durait une quarantaine de minutes. Pour
pallier l'influence de la position des questions sur le taux de non-réponse,
chaque série d'items faisait l'objet d'une rotation. Dans le cas du scénario ci-
dessus, le premier questionnaire était posé dans l'ordre des items tel
qu'imprimés dans le tableau, le deuxième questionnaire commençait par le
deuxième item (« on attribue les places par tirage au sort ») et finissait par le
premier (« on donne d'abord les places aux femmes enceintes et aux
handicapés »), le troisième questionnaire par le troisième item et finissait par
les deux premiers, et ainsi de suite. On notera également que les modalités de
réponse étaient alternativement présentées dans un ordre inverse : de « très
240 Enquêtes et sondages

injuste » à « très juste » ou de « très juste » à « très injuste ». En revanche, les


6 scénarios étaient toujours présentés dans le même ordre.

Tableau 6.5 : Extrait du questionnaire


Très Plutôt Plutôt Très
injuste injuste juste juste
On donne d'abord les places aux femmes enceintes
et aux handicapés
On distribue les places par tirage au sort
On laisse la Direction attribuer les places comme
elle veut
On laisse le Comité d'Entreprise attribuer les places
comme il veut
Aucune place n'est attribuée et on laisse le parking
se remplir tout seul chaque matin
On propose de payer les tickets de bus à ceux qui
acceptent de ne plus venir en voiture
L'entreprise loue les places qui manquent dans un
parking privé voisin et, pour couvrir les frais, tout le
monde paie 10 euros par mois

3.2.2 Hypothèses testées

Trois hypothèses ont été testées :


- La première concerne l'effet d'ordre pris globalement. On pourrait
s'attendre à ce que la litanie des 37 questions, toutes mesurées par la
même échelle de Likert, provoque la lassitude du répondant se
traduisant par des non-réponses de plus en plus fréquentes. Y-a-t-il
ainsi une corrélation entre le rang d'une réponse et la proportion de
non-réponse ? Cette proportion augmente-t-elle avec le rang de la
question ?
- La deuxième hypothèse concerne l'effet d'ordre à l'intérieur de
chaque scénario. Existe-t-il vraiment? Y-a-t'il une corrélation entre
la proportion de non-réponses et le rang des questions ? Cette
proportion augmente-t-elle avec le rang de la question ?
- La dernière hypothèse concerne l'efficacité de la rotation ; si celle-ci
évite l'effet d'ordre, le taux de sans réponse doit être le même pour
toutes les questions.
6. Méthodes de collecte et applications 241

3.3 Résultats

3.3.1 Hypothèse n01

Le tableau 6.6 ci-dessous fournit, pour chaque scénario, numéroté dans


l'ordre de sa présentation aux répondants, la proportion de valeurs
manquantes. Ainsi, le premier scénario, composé de 6 questions, a enregistré
0,4 % de valeurs manquantes sur les 2 404 réponses apportées.

Tableau 6.6 : Va eurs manquantes


Scénario Scénario Scénario Scénario Scénario Scénario
1 2 3 4 5 6
6 items 7 items 6 items 7 items 5 items 6 items
Q1 à 6 Q7 à 13 Q14à 19 Q20 à 26 Q27 à 31 Q32 à 37

Valeurs 0,4 % 1 % 0,4 % 0,6 % 1,3% 0,6 %


manquantes

Si l'on constate effectivement des différences significatives entre des


pourcentages, on ne peut pas en conclure qu'il y a une augmentation linéaire
des non-réponses au fur est à mesure du déroulé du questionnaire : on ne
valide donc pas la première hypothèse. En d'autres termes, le fait d'avoir
soumis des répondants à 37 questions aux modalités de réponse identiques n'a
pas conduit à une augmentation des non-réponses au fur et à mesure du
déroulé du questionnaire.
Une interprétation possible est que le changement fréquent de scénarios a
permis de maintenir l'attention des répondants. Ceci constitue une voie
d'amélioration pour les questionnaires utilisant une seule échelle
d'évaluation.
Une autre interprétation est que la lassitude des répondants ne se manifeste
pas par la non-réponse, mais par des réponses au hasard. Cette hypothèse est
difficile à valider dans le cadre de la présente étude qui n'a pas été conçue à
l'origine dans un but de recherche et qui n'autorise donc qu'un nombre limité
de vérifications. Tout au plus peut-on étudier la contamination des réponses à
un item par les réponses à l'item qui le précède. En effet, une forme de
réponse au hasard consiste à répéter la réponse que l'on a faite à la question
précédente. Nous abordons ce point dans la conclusion de l'article.

3.3.2 Hypothèse n02

La deuxième hypothèse concerne l'effet d'ordre à l'intérieur de chaque


scénario. La proportion de non-réponses augmente-t-elle avec le rang de la
question ? Afin de tester cette hypothèse, on a pris soin de relever, pour
chaque scénario, l'ordre dans lequel étaient posées les questions. On peut
242 Enquêtes et sondages

ainsi construire le tableau 6.7 qui indique, pour chaque scénario, la proportion
de non-réponses à la question posée en premier, en deuxième, et ce, quel
que soit son libellé.

Tableau 6.7 : % de valeurs manquantes selon le n0 de la question


^ere 2eme ^eme ^eme geme geme yeme
Ordre de la question d.d.l Khi-2 P
Scénario 1 1,41 0 0,74 0 0,62 0 - 5 14,125 0,015
Scénario 2 0,24 0,71 1,11 0 0 2,16 3,12 6 30,462 0,000
Scénario 3 1,45 0,22 0,48 0 0,28 0 - 5 14,249 0,014
Scénario 4 0,24 0,46 0 1,43 0,28 1,92 0,26 6 18,783 0,005
Scénario 5 2,09 0 0,26 0,48 2,63 - - 4 19,847 0,001
Scénario 6 1,47 1.6 0 0 0,27 0 - 5 20,648 0,001

Ainsi, dans le scénario 1, qui comporte 6 questions, la question posée en


premier a enregistré un taux de non-réponse de 1,41 %, tandis que la question
posée en sixième et dernière place n'a pas obtenu de non-réponse. De même,
les 7 questions du scénario 2 ont enregistré un taux de non-réponse allant de
0,24 % pour la première à 3,12 % pour la dernière.
Les tests de Khi-2 indiquent qu'il y a bien une corrélation entre le rang de la
question et le taux de sans réponse. Cette corrélation est établie pour les 6
scénarios. Mais, à l'exception du scénario 2, on ne vérifie pas que le taux de
non-réponse augmente en fonction du rang de la question. C'est même le
contraire qui se produit dans 4 scénarios, où la première question maximise
les sans réponses. La deuxième hypothèse n'est donc validée que
partiellement : il y a bien une corrélation entre la proportion de non-réponses
et le rang des questions. En revanche, cette proportion n'augmente pas avec le
rang de la question.

3.3.3 Hypothèse n03

Le tableau 6.8 fournit, pour chaque scénario, le taux de non-réponse en


fonction du numéro de la question, que celle-ci ait été posée en premier, en
deuxième, etc. Ces résultats permettent de mesurer l'efficacité de la rotation :
si celle-ci évite l'effet d'ordre, le taux de sans réponse doit être le même pour
toutes les questions.

Tableau 6.8 : % de valeurs manquantes selon le n0 de la question


Numéro de la question 1 2 3 4 5 6 7 d.d.l Khi-2 P
Scénario 1 0,5 1,25 0,25 0,25 0,25 0,25 - 5 7,032 0,218
Scénario 2 0,75 2,24 0,75 0,75 1,00 1,00 0,50 6 8,081 0,232
Scénario 3 0,75 0,50 0,25 0,50 0,25 0,25 - 5 2,008 0,848
Scénario 4 1,50 0,25 1,00 1,25 0,50 1,00 0,25 6 7,189 0,304
Scénario 5 1,00 1,75 1,00 1,75 1,25 - - 4 1,727 0,786
Scénario 6 0,25 0,75 0,50 0,75 0,50 0,50 - 5 1,315 0,933
6. Méthodes de collecte et applications 243

Les tests de Khi-2 indiquent qu'il n'y a pas de corrélation entre le taux de
sans réponse et la question posée, ce qui illustre l'efficacité de la procédure de
rotation et valide l'hypothèse n03.

3.4 Conclusion

La rotation des items, telle qu'elle a été pratiquée dans cette enquête permet
donc d'éviter une augmentation des non-réponses due au rang des items dans
le questionnaire. En revanche, la non-validation de la première hypothèse et la
validation partielle de la deuxième montrent que le taux de non-réponse n'est
pas le seul indicateur à prendre en compte.
En effet, l'examen de la matrice des corrélations des items montre que la
corrélation entre deux items successifs est systématiquement supérieure à
celle des items situés à deux rangs de distances. Par exemple, l'item 3 est
significativement plus corrélé avec l'item 2 qu'avec l'item 1, ce qui traduit la
contamination des réponses à une question par les réponses à la question
précédente. Ce résultat met en évidence la faiblesse inhérente de la procédure
de rotation : le décalage dans la présentation des items aux répondants, s'il
modifie le rang de présentation des items, n'empêche pas que chaque item
soit toujours encadré par les deux mêmes items. Voilà pourquoi la procédure
de tirage aléatoire des items présente potentiellement un avantage important, à
condition de pouvoir être mise en œuvre grâce à une assistance logicielle.
Notre prochaine étape consistera à le valider expérimentalement.

4. La technique du questionnaire unique

8
Souleymane OUEDRAOGO

4.1 Introduction

L'absence de données fiables dans la plupart des pays en voie de


développement a été citée comme l'une des causes majeures qui privent ces
pays des bienfaits de la modélisation. Cette défaillance justifie les diverses
stratégies élaborées par les chercheurs pour recueillir les données dans ces
pays. Les opérations de collecte d'informations sont onéreuses, et méritent à
ce titre d'être diligentées avec la plus grande précision possible.
Malheureusement, certains résultats obtenus après des enquêtes peuvent
s'écarter significativement de la réalité. Cet écart peut ne pas être imputable

8 Élève Ingénieur Statisticien Économiste à l'École nationale supérieure de statistique et


d'économie appliquée (ENSEA), Abidjan, Côte d'Ivoire, (Mail : souley24580@
yahoo.fr).
244 Enquêtes et sondages

aux méthodes statistiques utilisées, mais à la nature de l'information


collectée. La délicatesse du sujet peut en effet pousser le répondant à donner
une fausse réponse ou à s'abstenir de répondre à la question (données
manquantes). Pour pallier ce problème, certains auteurs ont proposé des
techniques de questionnement indirect. Notre communication qui s'inscrit
dans cette mouvance entend proposer une stratégie permettant de contourner
l'embarras d'une personne à répondre à une question sensible. Elle consistera
successivement à aborder succinctement les techniques de questionnement
indirect, à exposer la technique du questionnaire unique, à présenter ses
estimateurs et à discuter des avantages et inconvénients de cette technique.

4.2 Les techniques de questionnement indirect

Les techniques de questionnement indirect ont pour but d'améliorer la


précision des estimateurs de certaines variables délicates D, qui gênent le
répondant. Car, malgré la protection assurée par le « secret statistique »,
beaucoup d'enquêtés restent sceptiques. C'est donc dans le souci d'éviter
cette embûche que les techniques de questionnement indirect ont été
instituées. En effet, ces méthodes de collecte ont été conçues pour donner
l'impression au répondant que sa réponse n'est pas dévoilée et/ou accroître la
probabilité d'avoir une réponse correcte (voir Tsuchiya, 2005 pour une
synthèse bibliographique). On observe donc une autre variable R qui est
fonction de D et d'autres variables aléatoires V si nécessaire (R = f(D,V)).
La technique du questionnaire unique que nous présentons, observe
directement la variable D, mais permet de garantir l'anonymat du répondant
et par conséquent augmente la probabilité que les répondants donnent les
vraies réponses.

4.3 Présentation de la technique

Le principe de la technique du questionnaire unique consiste à mettre sur un


même questionnaire trois modules de questions se rapportant à des domaines
sensibles et différents. Par exemple, le premier module peut traiter des
élections, le second de la santé et le dernier de la vie privée. Mais seulement
les résultats de deux des trois modules intéressent l'étude. Nous allons retenir
dans notre cas le module électoral et le module sanitaire. Le module de la vie
privée étant simplement un module de « figuration ».

4.3.1 Module électoral

Dans les jeunes États démocratiques (dont la plupart sont des PVD), la
question des élections reste un domaine très sensible. L'organisation et les
résultats des élections ont souvent été la source de graves troubles
6. Méthodes de collecte et applications 245

sociopolitiques. Aussi, certaines personnes préfèrent ne pas afficher leur


intention de vote de peur des représailles que cela pourrait engendrer. Il est
donc probable que les intentions de vote lors d'un sondage électoral soient
plus justes si les répondants ont la certitude de rester dans l'anonymat.

4.3.2 Module de la santé et de la vie privée

La nature et/ou la gravité de certaines maladies font que les personnes qui en
souffrent s'abstiennent de la dévoiler. Il est très gênant de demander par
exemple à une personne, si elle a une faiblesse (ou frigidité) sexuelle. Il en est
de même pour les questions relatives à la consommation de la drogue ou à
celles qui touchent les activités illégales ou socialement inadmissibles. Dans
ces conditions la technique du questionnement direct peut conduire à une sous
évaluation de la proportion des personnes concernées. Les répondants seront
plus francs si l'anonymat leur était assuré.

Tableau 6.9 : Exemple de questionnaire unique


Module_électoral Module_vie_privée Module_de_la_santé
Je vote le candidat Avez-vous déjà été complice Avez-vous une sexualité
A □ d'un avortement ? équilibrée ?

B Oui Non Oui Non

C □ 11 11

4.3.3 Comment garantir l'anonymat ?

La technique du questionnaire unique concerne 3 personnes : l'enquêteur E, et


une paire de personnes homogènes X et Y. Le questionnaire sera rempli par X
puis par Y. Mais avant cette opération, E lui-même devra répondre aux
questions du module de « figuration » dans un isoloir. Toutefois, X et T ne
doivent pas savoir qu'il y'a un module de « figuration » dans le questionnaire.
Ils doivent avoir l'impression que tous les modules sont importants et que E
pouvait choisir n'importe quel module. Les réponses de E doivent constituer
une couverture pourX. Ainsi, il cochera « Non » pour dire qu'il n'a jamais été
complice d'un avortement. Ensuite X et F remplissent successivement dans un
isoloir les autres modules, de sorte qu'à la fin, tous les modules soient
renseignés. X ne peut connaître que les réponses de E. Y peut voir les réponses
de deux modules mais ignore le module choisi par X ou E. L'anonymat de X
et F est ainsi garanti comme nous pouvons le constater dans le tableau
suivant.
246 Enquêtes et sondages

ableau 6.10 : Ordre de passage et anonymat de etj


Ordre de X est Y est E est Anonymat
passage informé informé informé de Y et X
E, X, Y Choix de E - - Garanti

E, Y, X - Choix de E - Garanti

X, E, Y - - Choix de X Non garanti

Y, E, X - - Choix de Y Non garanti

X, Y, E - Choix de X - Non garanti

Y, X, E Choix de Y - - Non garanti

4.4 Les estimateurs de la technique du

questionnaire unique

4.4.1 Estimateurs

On veut estimer P = {PA,PB,PC) et n où est la proportion d'individus qui


veut voter pour le candidat AT et ti la proportion d'individus ayant une
sexualité perturbée.
Soient n et m les tailles optimales des échantillons permettant
respectivement d'avoir un bon sondage électoral et un bon sondage sur la
santé dans la population. La technique du questionnaire unique retient qopi
paires (avec qo/ii = Max(/?;m)). Ainsi, un estimateur de PK (resp. ti) serait :

i lop' fl si la paire i vote le candidat K


F
^ = —Z^oùx;. =
c/opt [0 sinon

1 V' f 1 si la paire i a une sexualité perturbée


resp. n = — Z Z,. avec Zi = <
Qopt '=" ' [0 sinon.

Le choix d'un individu est considéré comme celui de la paire à laquelle il


appartient. L'unité statistique est bien la paire constituée de deux personnes et
la taille de l'échantillon est qopt (mais, on enquête au total 2 x qopt individus).
On suppose par ailleurs que les choix des paires sont indépendants, c'est-à-
dire que les ainsi que les Z; sont indépendants et de même loi (Loi de
Bemoulli). Les estimateurs obtenus sont sans biais et convergents.
6. Méthodes de collecte et applications 247

4.4.2 Regroupement homogène

Pour des raisons de position géographique et d'analyse pertinente des


données, la technique du questionnaire unique se base sur un regroupement
homogène des enquêtés.

a) Homogénéité

Le plus important dans une enquête par sondage n'est pas tant de connaître la
réponse de Monsieur ou de Madame X, mais d'avoir une estimation juste de
la distribution des réponses de toutes les personnes qui ont les mêmes
caractéristiques (sexe, âge, occupation...) que Monsieur ou Madame X. Aussi,
la formation de paires non homogènes réduit considérablement la précision
des informations. Par exemple une paire d'individus de sexes différents ne
penuettra pas d'apprécier l'intention de vote des femmes, alors que le
candidat à besoin de ces résultats pour améliorer sa côte. Un regroupement
selon le sexe S permettra au candidat K de connaître la probabilité
Prob(XA- = 1/5 = 5) qui désigne la probabilité que le candidat K soit voté
sachant que l'électeur est de sexe 5. Un regroupement selon le groupe d'âge G
et le sexe améliore d'avantage l'information puisqu'on pourra calculer par
exemple Prob(XA- = 1/5 = 5,G = g), d'où l'importance de former des paires
d'individus homogènes.

b) Proximité des enquêtés

La proximité des individus d'une paire donnée (voisins, même service, même
collège...) est un atout majeur dans la technique du questionnaire unique. On
gagne, par exemple, à former les paires avec les élèves d'une même classe.

4.5 Les avantages et inconvénients de la

technique du questionnaire unique

Cette technique permet avec un seul questionnaire de réaliser deux enquêtes


différentes, ce qui constitue un avantage en tenue de coût de production de
l'enquête. Elle permet également, grâce à la taille de l'échantillon, d'avoir
une meilleure précision des estimateurs puisque qupi = Max(n;m).
La plus grande difficulté de cette méthode est la formation des paires, car
pouvoir regrouper deux personnes au même moment pour leur administrer le
questionnaire peut être très fastidieux dans la pratique. De plus, du moment
où une personne n'est pas concernée par un seul des modules, elle ne peut être
enquêtée. Cela peut conduire à l'exclusion de sous-populations importantes et
réduire la richesse de l'information. Enfin, comme le remplissage du
questionnaire se fait dans un isoloir par l'enquêté lui-même, ce dernier devra
248 Enquêtes et sondages

être à même de comprendre et de remplir correctement son module. Cette


méthode exclut donc une grande partie de la population des PVD qui est
analphabète.

4.6 Conclusion

La technique du questionnaire unique peut se généraliser avec plus de trois


modules. Si cette généralisation à l'avantage de renforcer le caractère
anonyme de l'enquête, elle présente l'inconvénient d'être plus coûteuse en
terme de modules et de mobilisation de répondants. Par ailleurs, cette
technique peut être une panacée pour approcher le revenu des individus et le
chiffre d'affaire des entreprises, notamment dans le secteur informel. Les
répondants pourront déclarer sans crainte leurs gains puisqu'ils sont couverts
par les autres modules du questionnaire.
Afin de résoudre, le problème de proximité des répondants, la technique du
questionnaire unique peut s'appuyer sur les enquêtes par voix postale. Mais,
cette technique est difficile à réaliser dans les PVD.

BIBLIOGRAPHIE

Maumy, M. (2004-2005). Sondage à plusieurs degrés. Notes de cours,


Strasbourg Université Louis Pasteur.
Tsuchiya, T. (2005). Estimateurs de domaine pour la technique du
dénombrement d'items. Techniques d'enquête, vol. 31, 45-55.
6. Méthodes de collecte et applications 249

5. L'apport d'un échantillon de

possesseurs exclusifs de téléphones

mobiles dans l'enquête « Contexte de la

sexualité en France » (2005-2006)

Laurent TOULEMON, Nicolas RAZAFINDRATSIMA


et le groupe CSF9

5.1 Introduction

5.1.1 L'enquête « Contexte de la sexualité en France »

L'enquête « contexte de la sexualité en France » (CSF) est une enquête de


l'Institut National de la Santé et de la Recherche Médicale (INSERM),
réalisée par téléphone auprès d'un échantillon aléatoire d'individus âgés de 18
à 69 ans entre novembre 2005 et mars 2006 (Bajos et Bozon, 2008). Le plan
de sondage se fonde sur un échantillon de numéros de téléphone fixes
(incluant les listes rouges) ; dans chaque ménage, on a sélectionné un individu
parmi les éligibles, avec un taux de sondage plus élevé pour les plus jeunes.
Le questionnaire explore les caractéristiques sociales et démographiques
des individus et de leurs partenaires, les conditions de vie, les problèmes de
santé chronique, et la sexualité (opinions et représentations sur la sexualité,
entrée dans la sexualité, nombre de partenaires, les pratiques sexuelles
expérimentées, etc.). Les entretiens ont duré en moyenne 49 minutes.
Les personnes qui ne disposaient que du téléphone mobile ont également
été incluses dans l'échantillon, à l'aide d'une procédure de génération
aléatoire de numéros. Toutefois, leur effectif est beaucoup plus faible que
celui des possesseurs de téléphone fixe. Au total, 12 364 individus ont été
interrogés, dont 304 qui ne disposaient que du téléphone mobile.

9 Institut national d'études démographiques (Ined), Paris. Contacts : touleiTion@ined.fr.


Le groupe CSF comprend Nathalie Bajos (INSERM) et Michel Bozon (Ined),
responsables scientifiques ; Nathalie Bcltzer (ORS Ile de France), coordinatricc
scientifique ; Armclle Andro (Université Paris I), Michéle Fcrrand (CNRS-IRESCO),
Véronique Goulet (InVS), Anne Laporte (SAMU social), Charlotte Le Van (Université
de Caen), Henri Leridon (Ined), Sharman Levinson (INSERM, université d'Angers),
Agnes Pmdhommc (INSERM), Nicolas Razafindratsima (Ined), Laurent Toulcmon
(Ined), Josianc Warszawski (INSERM, AP-HP).
250 Enquêtes et sondages

5.1.2 La fréquence des possesseurs exclusifs de


téléphones mobiles dans la population générale

La diffusion des téléphones mobiles a conduit à une diminution de


l'équipement de la population en téléphones fixes, reliés au réseau par une
ligne filaire. D'après une enquête du Crédoc, en 2004, 15 % des individus
résidant en France ne possédaient pas de téléphone fixe à leur domicile
(Bigot, 2004). Cette proportion de personnes ne possédant pas de téléphone
fixe à leur domicile s'élève à 22 % chez les 25-39 ans, et même à 35 % chez
les 18-24 ans. A tous les âges, les hommes sont un peu plus nombreux à
n'être joignables que par un téléphone mobile. Les possesseurs exclusifs de
téléphones mobiles (que nous appellerons « mobiles exclusifs » pour faire
court) sont urbains, et ont des revenus faibles ou moyens (Bigot, 2004). La
non-inclusion des « mobiles exclusifs » peut nuire à la représentativité de
l'échantillon de l'enquête, autrement dit peut entraîner un biais.

5.2 Aspects théoriques

5.2.1 Les biais dus à l'exclusion des possesseurs


exclusifs de téléphones mobiles

Si l'on n'utilise que l'échantillon des détenteurs d'un téléphone fixe, on ne


réalise l'enquête que sur un sous-ensemble de la population. Si les mobiles
exclusifs ont un comportement différent de celui des répondants sur un
téléphone fixe, ce défaut de couverture de l'enquête entraîne un biais. La non-
intégration des mobiles exclusifs peut également engendrer un biais dans les
analyses multivariées, dans l'hypothèse où les déterminants de leurs
comportements sont différents de ceux des détenteurs d'un téléphone fixe.

5.2.2 La précision des estimations

Néanmoins, l'inclusion de l'échantillon des mobiles exclusifs peut avoir des


effets néfastes sur la précision des estimations, parce que le taux de sondage
appliqué au sein de cette population (huit fois plus faible que pour les fixes) et
la taille de l'échantillon retenu (/? = 304) sont faibles.
Une post-stratification, réalisée selon différents critères, diminue biais et
variances. Les variables de calage sont les suivantes : groupe d'âge
quinquennal, statut d'activité (en 4 postes), diplôme (en 3 postes), mode de
vie (en 3 postes), nombre d'éligibles, pays de naissance (en 3 postes), région
(en 3 postes). Une procédure de troncature des rapports de poids ou des poids
finaux a été appliquée pour limiter la variance des poids.
6. Méthodes de collecte et applications 251

5.2.3 Les critères de choix

On est donc face à un arbitrage entre un échantillon incomplet conduisant à


un biais et une estimation non biaisée mais plus imprécise à cause de la faible
probabilité de sondage pour un sous-groupe. La question de l'inclusion d'un
sous-échantillon spécifique non atteint par l'enquête générale se rapproche de
celle des échantillons doubles : un petit échantillon de mobiles exclusifs, non-
répondants à l'enquête générale, est interrogé (Smith, 2008).
Deux pondérations sont comparées ici. La pondération Poids2 se fonde sur
l'inclusion « partielle » des mobiles exclusifs, avec le même poids moyen que
les autres répondants joints sur leur téléphone fixe. La pondération PoidsS
donne aux mobiles exclusifs leur poids dans la population, donc un poids
moyen huit fois plus important que les autres. Ces deux pondérations sont
ensuite post-stratifiées selon les critères listés en 5.2.2.

5.3 Application à l'enquête CSF

5.3.1 Les échantillons de possesseurs de téléphones


fixes et de mobiles exclusifs sont-ils différents ?

Le même schéma se retrouve pour la plupart des variables d'intérêt : tout


d'abord, les résultats obtenus pour les sous-échantillons des mobiles exclusifs
et des fixes sont statistiquement différents ; ensuite, les estimations fondées
sur la fusion des deux échantillons, celui des mobiles exclusifs ayant soit le
même poids moyen que les fixes (poids2), soit un poids huit fois plus élevé
pour tenir compte de leur poids dans la population (poids3), fournissent des
résultats proches, une fois post-stratifiés selon les variables de calage ; enfin,
l'intervalle de confiance fondé sur poids2 est inclus dans celui fondé sur
poidsS (non biaisé). Le critère de l'erreur quadratique moyenne, fondé sur
l'hypothèse que l'échantillon pondéré par poids3 est sans biais, fournit des
résultats instables, variant d'un indicateur à l'autre.
Parmi les diverses variables d'intérêt pour l'exploitation de l'enquête sur
lesquelles nous avons comparé les échantillons et les pondérations, nous
présentons ici les résultats portant sur le fait d'avoir eu ses premiers rapports
avant 18 ans et, parmi les répondants ayant participé à l'enquête de
prévalence de Chlamydia Trachomatis (Goulet et ai, 2006), la proportion de
personnes infectées.

5.3.2 Un arbitrage entre biais et variance, pour


différents groupes de la population interrogée

L'analyse de l'enquête porte souvent sur la comparaison entre des groupes.


La figure 6.2 montre deux exemples de telles comparaisons, l'une portant sur
252 Enquêtes et sondages

la proportion d'hommes ayant eu leurs premiers rapports sexuels avant l'âge


de 18 ans, selon leur âge à l'enquête (figure 6.2a), l'autre sur la proportion
d'homme et de femmes porteurs de l'infection à Chlamydia Trachomatis
(figure 6.2b).
Dans les deux cas deux séries sont comparées, celle de variance minimale,
fondée sur poids2 (traits épais, intervalles de confiance limités par des traits)
et celle conduisant à une estimation sans biais, mais avec une variance plus
importante (poidsS, en traits fins, intervalles marqués par des cercles).

Figure 6.2 : Deux exemples de comparaison entre groupes :


estimations et intervalles de confiance (en %)

(a) (b)
Proportion ayant eu leurs premiers Proportion d'hommes et de femmes
rapports sexuels avant 18 ans (%). porteurs de l'infection à Chlamydia
Hommes âgés de 18 à 49 ans Trachomatis, en % ( 18 à 34 ans)

Comparaison de l'estimation fondée sur poids2


(traits épais) et sur poidsS (traits fins, cercles)
85 10

80 6

75 75 2

18- 25- 18- 25- 18- 25- 18- 25-


70 70 24 34 24 34 24 34 24 34
ans ans ans ans ans ans ans ans
Hommes Femmes Hommes Femmes
65
18-24 25-29 30-34 35-39 40-44 45-49 Poids2 PoidsS

Source : Enquête CSF

Parmi les répondants âgés de 18 à 24 ans, il semble que l'estimation fondée


sur poids2 sous-estime le rajeunissement récent des hommes lors de leurs
premiers rapports sexuels ; cependant la stabilité selon l'âge de l'estimation
fondée sur poids2 semble plus vraisemblable que les fortes variations de
l'estimation sans biais. De même, les estimations de prévalence de l'infection
à Chlamydia Trachomatis figurant à gauche de la figure 6.2b sont peut-être
sous-estimées, mais les estimations de la partie droite ne sont pas cohérentes :
la prévalence varie beaucoup trop avec l'âge pour les femmes.
6. Méthodes de collecte et applications 253

5.4 Conclusion

L'échantillon de possesseurs exclusifs de téléphones mobiles se distingue le


plus souvent des répondants sur un téléphone fixe, mais sa taille trop faible
empêche son inclusion dans l'échantillon de travail avec une pondération
proportionnelle. La post-stratification de l'échantillon de l'enquête CSF limite
les biais dus à l'absence des « mobiles exclusifs ». La solution finalement
retenue consiste à les inclure, mais avec un poids moyen égal à celui de
l'ensemble de l'échantillon. Cette solution permet d'éviter d'obtenir certains
résultats incohérents en raison d'une variance trop importante des estimations.
Certaines prévalences globales pourraient également être estimées en
considérant les « mobiles exclusifs » comme un « petit domaine » (Ardilly,
2006). Cette méthode s'appuierait sur l'hypothèse d'une spécificité des
« mobiles exclusifs » constante d'un groupe de la population à l'autre. Elle ne
conduirait pas, cependant, à une pondération utilisable directement et
facilement par les utilisateurs.

BIBLIOGRAPHIE

Ardilly, P. (2006). Les techniques de sondage, 2e'"e édition. Paris : Technip.


Bajos, N., Bozon, M. (éds.) et Beltzer, N. (coord.). (2008). Enquête sur la
sexualité en France. Pratiques, genre, santé. Paris : La Découverte.
Bigot, R. (2004). La diffusion des technologies de l'information dans la
société française. Paris, Crédoc.
Goulet, V., Warszawski, J., de Barbeyrac, B., David, D., Raherison, S.,
Beltzer, N., Bozon, M., Bajos, N. et l'Equipe CSF (2006). Prévalence des
infections uro-génitales à Chlamydia trachomatis en France métropolitaine
dans une enquête en population générale. Résultats préliminaires de
l'enquête NatChla. Journées de veille sanitaire, 29 et 30 novembre 2006.
Smith, H. (2008). Un échantillon double pour minimiser le biais dû à la non-
réponse dans un sondage par courrier. Méthodes de sondage : applications
aux enquêtes longitudinales, à la santé, aux enquêtes électorales et aux
enquêtes dans les pays en développement, P. Guibert, D. Haziza,
A. Ruiz-Gazen, Y. Tillé, éds., pages 334-339, Paris, Dunod.
254 Enquêtes et sondages

6. L'acharnement téléphonique dans les

enquêtes est-il justifié ?

François BECK, Arnaud GAUTIER, Philippe GUILBERT et


10
Pierre ARWIDSON

6.1 Introduction

Si l'évolution des télécommunications en France et dans le monde a conduit à


de nombreuses et intéressantes évolutions des enquêtes téléphoniques censées
être représentatives de la population, la multiplication des sondages utilisant
ce mode de collecte a également entraîné une lassitude au sein de la
population. Les taux de refus apparaissent désonnais supérieurs à ceux
observés au début des années 1990, et ce malgré les efforts déployés, tels que
l'augmentation des coefficients d'insistance. Cette difficulté à obtenir de bons
taux de réponse dans les enquêtes téléphoniques est constatée depuis quelques
années en France, mais aussi aux États-Unis (Tuckel et O'Neill, 2002). Alors
que ces signes de saturation invitent d'emblée à remettre en question les
enquêtes aléatoires téléphoniques, en explorant notamment les possibilités
offertes par les nouveaux médias, il semble utile de revenir sur leurs qualités.
Cela est d'autant plus important qu'une partie conséquente de la statistique
publique, notamment dans le domaine de la santé, repose sur des enquêtes
téléphoniques depuis parfois plus de dix ans, et qu'un changement de mode
de collecte ne serait pas sans conséquence sur le suivi d'évolution. Il convient
donc de mesurer la perte occasionnée par un éventuel renoncement et
d'envisager de nouvelles solutions pour la survie d'un système d'observation
qui se montre encore aujourd'hui très efficace.

6.2 Les avantages des enquêtes téléphoniques


aléatoires

Depuis le début des années 1990, le téléphone a permis de nombreux progrès


dans le domaine des sondages sur des thèmes relevant des sciences sociales et
de la santé publique, et en particulier des sujets sensibles. Les enquêtes
téléphoniques sont notamment moins coûteuses et plus rapides que les
enquêtes en face-à-face. Ce mode de collecte, qui suscite encore à l'heure
actuelle des controverses récurrentes, avait fait l'objet d'investigations
particulièrement poussées de la part des membres de l'équipe de recherche de
l'enquête sur l'Analyse du Comportement Sexuel des Français (ACSF). Le

10 Institut National de Prévention et d'Éducation pour la Santé (INPES), 42 bd de la


Libération, Saint-Denis cedex, France, 93203.
6. Méthodes de collecte et applications 255

pilote de cette enquête, réalisé en 1991, concluait que le téléphone d'une part
et l'entretien en face-à-face avec une partie du questionnaire en auto-
administré d'autre part, avaient chacun leurs avantages et que les taux de
refus s'avéraient similaires dans les deux cas (Spira et Bajos, 1993). Les
chercheurs avaient alors noté une plus grande facilité à répondre au téléphone,
une meilleure cohérence et un contrôle de terrain plus efficace, mais aussi une
tendance à donner des réponses plus proches de la norme qu'en face-à-face.
Retenir le téléphone constituait à l'époque un pari osé car la suspicion était
grande, toute la méthode restait à inventer pour construire un échantillon
aléatoire, et les instituts de sondages devaient être fonués à cette nouvelle
approche. Cette recommandation en faveur de l'enquête téléphonique était
assortie de certaines précautions telles que la formation et le suivi des
enquêteurs, le recours à la méthode de Collecte Assistée par Téléphone et
Informatique (CATI), l'envoi préalable d'une lettre-annonce à tous les foyers
tirés au sort... Elle rejoignait aussi les conclusions de plusieurs études
méthodologiques américaines menées en population adulte sur des sujets
sensibles dès les années 1980 (Czaja, 1987).

6.3 Un taux de refus plus important lié à la

lassitude, mais aussi à une recherche de la

qualité

A la fin des années 1990, à la suite des recommandations émises lors de la


réalisation de l'enquête ACSF (Riandey et Firdion, 1993), la nécessité de
surmonter les problèmes posés par l'absence des ménages inscrits sur liste
rouge dans la base de sondage, et plus largement de résoudre les questions
méthodologiques soulevées par les enquêtes téléphoniques, est devenue
cruciale. Être inscrit sur liste rouge s'avère en effet lié à des situations
démographique et socioéconomique particulières. En France, plusieurs
travaux ont montré que ces individus sont par exemple plus jeunes, plus
urbains, plus diplômés et sur-représenté s dans les hauts revenus (Ambroise et
Mauris, 1999 ; Beck et al., 2005). Un groupe de réflexion sur l'évolution des
enquêtes téléphoniques impliquant des chercheurs d'horizons différents a
permis d'établir un document destiné à convaincre la Commission Nationale
de l'Informatique et des Libertés (Cnil) de la nécessité de disposer d'une base
de sondage de l'ensemble des ménages ayant une ligne téléphonique, au delà
de ceux figurant sur l'annuaire (Beck et al, 2001). C'est en s'appuyant sur ce
document que la plupart des grandes enquêtes menées au début des années
2000 sur des questions de santé ont obtenu l'autorisation d'intégrer des foyers
en liste rouge à leur échantillon téléphonique.
Par ailleurs, la prise en compte de la part croissante des individus possédant
un téléphone portable mais plus de ligne fixe est devenue nécessaire depuis
256 Enquêtes et sondages

quelques années. En effet, la seule interrogation des téléphones filaires ne


suffit plus actuellement à assurer a priori la représentativité des échantillons
interrogés. Le taux d'équipement des foyers en téléphonie filaire, qui avait
connu une hausse considérable entre les années 1960 (autour de 10 %) et la
fin des années 1990 (96 % en 1997), se trouve en forte baisse depuis quelques
années: il est passé de 96% en 1997 à 83% en 2006, plusieurs sources
concordant sur ces chiffres (Roy et Vanheuverzwyn, 2002 ; Bigot, 2006).
Ce déclin s'explique en très grande partie par le développement rapide de la
téléphonie mobile ces dernières années. A partir des dernières Enquête
Permanente Conditions de Vie des ménages de l'Insee (EPCV), dans
lesquelles quelques questions sur les équipements téléphoniques sont posées,
il est possible de suivre le taux d'équipement des ménages en téléphonie
mobile, qui concerne désormais presque les trois quarts des ménages contre
15% en 1997. La proportion d'individus équipés d'un téléphone portable
mais ne possédant plus de ligne fixe a donc beaucoup augmenté. En 1998, à
peine un tiers des foyers sans téléphone fixe était équipé d'un téléphone
mobile, alors que c'est désormais le cas de 95,5 % d'entre eux. Fin 2005, seul
1,3% des ménages français n'était plus joignable par téléphone (Sautory,
2007). Au final, s'ils ne représentaient en 1998 que 2 % de la population, les
détenteurs exclusifs de téléphones mobiles sont désormais environ 15 % en
2006, ce qui correspond à 17 % des ménages.
L'absence de ligne fixe s'avère lié avec un certain nombre de critères tels
que l'âge, la profession et catégorie sociale (PCS) ou le niveau de revenu. En
effet, les personnes peuvent être amenées à arbitrer entre les deux types
d'équipement en raison de leurs coûts et de leur substituabilité, le choix étant
plus ou moins influencé par les ressources financières, les besoins, les
préférences et les générations. Les populations susceptibles de délaisser le
téléphone fixe sont ainsi les personnes dont les ressources sont les plus
faibles. Selon une enquête récente du Crédoc, les catégories de personnes les
moins équipées sont ainsi les 18-24 ans (33 % d'entre eux n'ont pas de ligne
fixe), les ouvriers (34 %) et celles dont les revenus sont les plus faibles (26 %
pour les foyers ayant un revenu mensuel de moins de 900 euros). En
revanche, l'enquête ne relevait qu'un faible lien entre le type d'équipement
téléphonique et la taille de l'agglomération de résidence et le niveau de
diplôme (Bigot, 2006).
Mais plus le protocole d'enquête vise à représenter de façon fiable
l'ensemble de la population résidant en France, plus le risque de se heurter à
un refus devient important. Inclure les individus issus de foyers inscrits en
liste rouge est ainsi l'occasion d'aller à l'encontre de personnes n'ayant pas
forcément les meilleures dispositions pour accepter de répondre à une enquête
téléphonique, d'autant qu'ils n'ont pu en recevoir la lettre-annonce. De même,
le fait d'ajouter à l'enquête un échantillon d'individus ayant abandonné leur
6. Méthodes de collecte et applications 257

ligne fixe au profit d'un téléphone portable crée une situation d'enquête
atypique qui reste pour l'instant défavorable à son déroulement.
Les taux de refus du Baromètre santé 2005 ont été de 34,7 % pour les
individus dont le numéro était inscrit sur la liste blanche ou orange et de
45,2 % pour ceux dont le numéro était inscrit sur la liste rouge. Si l'on ajoute
à ces refus les abandons, ils atteignent respectivement 39,9 % et 50,6 %, soit
un taux de refus global de 42,1 % pour l'ensemble des lignes fixes. Ces taux
de refus apparaissent en progression par rapport à 2000 (taux global de
35,6 %), en particulier pour le taux d'abandon (1,9 % en 2000), probablement
en raison de la durée du questionnaire et de la difficulté de certains nouveaux
modules, tels que ceux portant sur la santé mentale. L'échantillon des
portables exclusifs a été constitué de manière indépendante de l'échantillon
des lignes fixes. Parmi eux, un taux de refus de 40 %, auquel il faut ajouter les
3 % d'abandons en cours d'entretien, a été observé.

6.4 Quelles solutions envisager ?

La présence des concepteurs de l'enquête pour assurer la formation et le suivi


rigoureux des enquêteurs est un gage de réussite pour une enquête
téléphonique. Dans le cas du Baromètre santé 2005, cette étape a permis
d'élaborer des stratégies pour rendre l'entretien plus acceptable à l'enquêteur
comme à l'enquêté, en particulier pour motiver l'acceptation des individus
inscrits en liste rouge. Il est possible que la présence sur le terrain en 2005
d'un institut chargé de veiller au respect des procédures d'enquêtes ait conduit
à une conformité plus stricte (et donc plus dure) de la sélection des individus.
Mais ces taux de non-réponse de plus en plus forts doivent peut être nous
inviter à reconsidérer plus profondément notre façon de faire enquête.
Parmi les solutions déjà expérimentées par certains instituts de sondage
figure le rappel des ménages refusant d'emblée qui, dans le cas du Baromètre
santé, constituent la plus grosse partie des refus. Cette insistance s'appuie sur
l'idée que chaque individu du ménage n'est pas forcément légitime à objecter
un refus pour l'ensemble des membres du ménage. Le numéro est alors
rappelé plusieurs jours plus tard, à un horaire différent. Grâce au système
CATI, il est également possible d'affecter ces rappels « à risque » à des
enquêteurs particulièrement expérimentés.
Mais au-delà de ces tentatives ponctuelles d'amélioration du système
existant, ne doit-on pas interpréter cette lassitude comme le signe d'une
inadéquation entre ce qui est demandé aux enquêtés, à savoir du temps, de
l'intimité dévoilée parfois brutalement... et ce qui leur est offert, et qui se
résume à l'idée de participer d'un peu loin à la construction d'un savoir fiable
susceptible de peser sur certaines décisions politiques ? Même si ce contre-
don, associé au savoir-faire des enquêteurs, est souvent primordial pour
258 Enquêtes et sondages

emporter l'adhésion des enquêtés, les taux de refus élevés que nous avons
rencontrés montrent qu'il n'est pas toujours suffisant.
Il est envisagé, dans le cadre du prochain Baromètre santé, de proposer aux
individus refusant l'enquête malgré l'insistance de l'enquêteur de participer à
une étude méthodologique sur le profil des non-répondants. L'idée est de
contrôler la spécificité de leurs réponses afin d'estimer à quel point un
redressement effectué sur les variables sociodémographiques classiques est à
même de les « représenter ». L'expérience dans ce domaine ayant montré que
les questionnaires auprès de ces populations réfractaires aux enquêtes était
très difficiles à mener, il faudra sans doute adresser une nouvelle lettre
expliquant cette démarche aux non-répondants et dédommager ces enquêtés,
cette étude étant l'occasion d'évaluer à quel prix ils estiment devoir être
payés, dans une sorte de jeu d'offre et de demande.
En définitive, pour pouvoir conserver les conditions d'enquête favorables
qu'offre le terrain téléphonique, il peut sembler opportun de rémunérer les
premiers artisans du succès de ces enquêtes, à savoir les répondants, gageant
que le biais introduit par l'élément pécuniaire, s'il existe, doit être moins
important que celui découlant d'une faible participation à l'enquête. Il est
probable que cette rémunération soit perçue comme une valorisation objective
des informations apportées par le répondant dans le cadre précis de cette
enquête, par rapport à toutes celles qui n'offrent pas de dédommagement. Il
appartient aux instances de la statistique publique de se prononcer sur cette
question d'un point de vue déontologique.

BIBLIOGRAPHIE

Ambroise, P., et Mauris, P. (1999). L'usage du téléphone dans les sondages.


Dans Brossier, G., Dussaix, A.M. (dir.) Enquêtes et sondages : Méthodes,
modèles, applications nouvelles approches, Dunod, Paris, 331-339.
Beck, F., Arwidson, P., Firdion, J.-M., Jaspard, M., Grémy, I. et
Warszawski, J. (2001). L'avenir des enquêtes téléphoniques face à
l'évolution des télécommunications. Dans Droesbeke, J.J. et Lebart, L.
(dir.), Enquêtes, modèles et applications, Dunod, Paris, 285-293.
Beck, F., Legleye, S. et Peretti-Watel, P. (2005). Aux abonnés absents : liste
rouge et téléphone portable dans les enquêtes en population générale sur les
drogues. Bulletin de Méthodologie Sociologique, vol. 86, 5-29.
Bigot, R. (2006). La diffusion des technologies de l'information dans la
société française. Paris : CREDOC, décembre 2006.
Czaja, R. (1987). Asking sensitive behavioral questions in téléphoné
interviews. Quarterly of Community Elealth Education, vol. 8(1), 23-32.
Riandey, B., et Firdion, J.-M. (1993). Vie personnelle et enquête
téléphonique, l'exemple de l'ACSF. Population, vol. 5, 1257-1280.
6. Méthodes de collecte et applications 259

Roy, G., et Vanheuverzwyn, A. (2002). Mobile Phone in Sample Surveys.


ICIS 2002 (International Conférence on Improving Surveys), Copenhague.
Sautory, O. (2007). L 'accès des ménages à bas revenus aux technologies de
l'information et de la communication. Études et résultats, vol. 557, 1-8.
Spira, A., et Bajos, N. (1993). Les comportements sexuels en France, Paris,
La documentation française.
Tuckel, P., et O'Neill, H. (2002). The vanishing respondent in téléphoné
surveys. Journal of Advertising Research, vol. 42, n05, 26-48.

7. Enquête EFE : retour méthodologique

sur la collecte (papier et Internet)

Céline DAU PLAIT, Bernard DE CLÉ DAT et


11
Tania VICHNEVSKAIA

7.1 Introduction

Le présent article reprend et complète une précédente intervention présentée à


la chaire Quételet 2006 (Noël et al., 2006). Son objectif est de décrire et
évaluer le double-mode de collecte (Internet et papier) du volet employeur de
l'enquête couplée « Familles et Employeurs » afin d'apprécier et d'améliorer
les choix méthodologiques retenus. Nous tenterons de dégager quels sont les
avantages ou inconvénients de chaque type de support, quelles sont les
caractéristiques des répondants ayant choisi l'un ou l'autre mode de réponse
et quelle est la qualité des réponses obtenues, ceci afin de tirer les premiers
enseignements de cette collecte.

7.2 Présentation de l'enquête : choix

méthodologiques

7.2.1 Variétés des populations et diversification du


mode de collecte

L'enquête « Familles et employeurs » porte sur les interrelations entre vie


familiale et vie professionnelle en France. Il s'agit d'une enquête couplée qui
choisit d'interroger d'abord les individus, puis les établissements les

11 Institut National d'Études Démographiques. Responsables scientifiques de l'enquête :


Ariane Pailhé et Anne Solaz. A également participé à l'enquête l'ensemble du Service
des Enquêtes de l'incd.
260 Enquêtes et sondages

employant, contrairement aux autres enquêtes de ce type qui procèdent


inversement.
Les questionnaires du volet individuel ont été administrés par les enquêteurs
de l'Insee, en face-à-face assistés par ordinateur (CAPI). L'échantillon
Ménage est représentatif au niveau national de toutes les situations d'activités
(actifs occupés, inactifs, chômeurs, congés parentaux...) et familiales
(couples avec ou sans enfants, célibataires). Finalement, 9 547 personnes
(hommes et femmes), âgés de 20 à 49 ans ont répondu.
Le volet employeur a, quant à lui, été pris en charge par l'Ined. La
population source regroupe les établissements où travaillent les personnes
interrogées dans le volet individuel. L'échantillon concerne tous les
établissements d'au moins 20 salariés exerçant une activité en France
métropolitaine, des secteurs privé et public et de tous types d'activités. Pour
faire face à la variabilité des caractéristiques des répondants ainsi qu'à la
nécessité d'obtenir un taux de réponse élevé (l'objectif étant de permettre le
couplage des deux volets et d'obtenir un échantillon suffisamment
représentatif pour être exploitable), il a été choisi de recourir à plusieurs
modes de collecte. Ainsi, un questionnaire auto-administré a été transmis aux
établissements de l'échantillon. Pour maximiser le taux de participation, la
possibilité de choisir leur mode de réponse était donnée aux répondants : soit
par voie postale (ou fax), en remplissant le questionnaire papier de huit pages
ou sa version PDF, téléchargée sur le site de l'enquête, soit par Internet, en
répondant en ligne (avec accès sécurisé). En définitif, 2 673 établissements
ont répondus à l'enquête (sur 4 641 contactés).

7.2.2 Le questionnaire en ligne : cahier des charges

Les arbitrages à la base de la conception du questionnaire en ligne ont oscillé


entre les deux principes suivants :
- Optimiser le taux de réponse du volet employeur en rendant le
support attractif visuellement et le moins contraignant possible.
- Faire en sorte que la collecte en ligne des données soit la plus proche
possible de la collecte par questionnaire papier, ceci afin de pallier
aux éventuels biais induits par la diversification des modes de
remplissage.

Pour ce faire, il a ainsi été choisi de :

a) Optimiser la participation : sécurité, assistance et convivialité

Dans le souci d'obtenir un taux de réponse le plus élevé possible, diverses


stratégies ont été appliquées en matière de suivi et de relance, comme le choix
d'effectuer quatre relances par vague (deux postales et deux téléphoniques),
la mise en place d'une assistance technique (téléphone et e-mail), le suivi en
temps réel du remplissage du questionnaire Internet ou la création d'une base
6. Méthodes de collecte et applications 261

de suivi de la collecte. Cette dernière a permis, outre les relances, de gérer les
mailings et les demandes de renvoi de questionnaires ou de calculer des
statistiques de retour. De plus, le questionnaire internet était précédé d'une
note explicative téléchargeable.
Aussi, afin de respecter la confidentialité, l'accès au questionnaire en ligne
était-il protégé par un identifiant et un mot de passe envoyés par courrier.
Cette mesure devait permettre tant l'identification que la sécurisation des
données transmises. Les mots de passe ont été générés afin d'éviter toute
confusion (par exemple, entre le chiffre « 0 » et la lettre « O », le chiffre « 1 »
et la lettre « 1 »). La saisie du questionnaire en ligne était protégée à l'aide du
protocole https.
Un travail a encore été effectué sur la présentation du questionnaire en ligne,
afin de le rendre agréable à remplir : graphisme, explications, informations,
contacts, remerciements. Par ailleurs, le répondant avait la possibilité
d'imprimer une version terminée du questionnaire validé.

b) Minimiser le temps de réponse : manipulations et blocages

Afin de favoriser la réponse, il a été choisi de présenter plusieurs questions


par page, ce mode de présentation ayant pour effet de raccourcir le temps de
remplissage total et de ne pas décourager les répondants. Aussi, les questions
ont été regroupées par chapitre, comme sur le papier, et le questionnaire
couvre ainsi douze pages web (dont deux dédiées aux deux principaux filtres).
De plus, un indicateur d'avancement dans le questionnaire est présent tout le
long du remplissage. Par ailleurs, il a été choisi de permettre au répondant de
reprendre le remplissage du questionnaire là où il l'avait laissé ou de revenir
sur ses données comme il aurait pu le faire sur papier (grâce à la validation
des pages considérées comme remplies).
Un autre principe-clef pour la conception du support a été & éliminer tout
contrôle bloquant, afin de permettre l'avancée dans le questionnaire, même
en cas de non-réponse ou d'oubli de réponse à une question. Toutefois, il a été
choisi de respecter les filtres sur Internet ; ces filtres bloquants concernent
l'appartenance aux secteurs public ou privé et la structure de l'établissement
(multi ou mono-site).

7.3 Comparaison des supports

7.3.1 Caractéristiques et remarques des répondants

18,13% des questionnaires exploitables retournés proviennent d'Internet et


81,87 % sont des questionnaires papier12.

12 Hormis le fait que 76 % des répondants Internet ont donné leurs courriels et 43 % sur
papier, nous ne savons pas si les établissements répondants avaient accès à Internet.
262 Enquêtes et sondages

Il apparaît que les établissements du secteur privé ont sensiblement


privilégié le support papier et que les établissements de la fonction publique
ont inversement opté pour Internet13. En outre, les établissements ayant un
effectif inférieur à 200 salariés ont majoritairement choisi de répondre sur
support papier et ceux comptant plus de 499 personnes ont été
proportionnellement plus nombreux à préférer Internet.
Par ailleurs, grâce à l'exploitation de la variable « remarque » (question
ouverte), l'on obtient des informations sur l'utilisation des supports14. Cette
variable regroupe tant les commentaires laissés par les répondants dans le
champ libre destiné à cet usage (dans les deux versions en fin de
questionnaire) que ceux écrits à quelque endroit du support (papier) que ce
soit. Ainsi, cette variable se trouve logiquement davantage remplie sur les
supports papier: 25%, contre 17% des questionnaires Internet. Et le
questionnaire papier permet aux répondants de préciser leurs réponses de
manière plus pratique, par annotations en marge (de la sorte, l'on peut aussi
plus clairement identifier quelles questions posent problème que sur
Internet) : 73 % des remarques papier visent à apporter une précision à la
réponse donnée pour seulement 42% des remarques faites sur Internet13.
Quant au reste des remarques, elles étaient aussi l'occasion pour les
utilisateurs d'exprimer une difficulté à répondre (problème technique, formats
des items inadaptés, questions inadaptées à la structure, informations
indisponibles ou inexistantes...) ou d'émettre un avis négatif (principalement
concernant la mobilisation nécessaire pour répondre : temps, quantité des
informations).
Nous constatons une sur-participation de la contribution des utilisateurs du
papier et des établissements de moins de 200 salariés au choix d'apporter une
précision à la réponse. L'expression d'une difficulté à répondre semble,
quant à elle, davantage corrélée à l'utilisation d'Internet, à la fonction
publique d'Etat (éducation, santé et administration) et aux effectifs supérieurs
à 200 salariés. Enfin, les utilisateurs d'Internet et les entreprises du secteur
privé lucratif participeraient le plus fortement à l'expression d'un avis négatif.

13 Parmi les établissements du secteur public, ce sont ceux dépendant de l'éducation, de la


santé, de l'action sociale et de l'administration qui ont le plus répondu sur Internet. Les
services aux entreprises ne semblent pas avoir privilégié un type de support. Et les
autres établissements (du privé) tels que les établissements du commerce, de l'industrie
des biens intermédiaires ou des biens d'équipements ont privilégié le support Internet.
14 Par une analyse textuelle, l'on constate que le principal champ lexical des remarques est
relatif à l'outil et à son utilisation: «questionnaires», « qucstion(s) », «réponse»,
« répondre ».
15 Les précisions peuvent concerner les catégories de personnels ou les services concernés
par la réponse, l'unité de la réponse, l'établissement, le répondant, l'origine des
informations, les circonstances de réponse.
6. Méthodes de collecte et applications 263

7.3.2 Estimation de la qualité de réponses

Il semble finalement que le support influe sur la non-réponse et l'usage des


filtres.
Ainsi, si le mode de collecte par Internet couplé au papier nous a
certainement permis d'obtenir un taux de réponse plus élevé, il apparaît
nettement que la non-réponse concernant les effectifs soit plus importante
pour les répondants Internet. Cela peut s'expliquer par l'impossibilité de
disposer de la réponse rapidement, comme certaines remarques émises le
suggèrent (alors qu'Internet est souvent un choix associé à une réponse
rapide). Aussi, comme nous l'avons déjà expliqué, la version Internet
n'autorise pas de réponses dans d'autres catégories ou classifications, ou de
commentaires en marge. Par ailleurs, Le papier reste indispensable pour les
petits établissements et ceux disposant d'un accès réduit à Internet.
Enfin, concernant \q filtrage des questions, la programmation du filtre étant
faite sur Internet, ceci nécessite une parfaite compréhension de la question-
filtre, ce qui n'est pas assuré. A l'opposé, sur le papier, le répondant pouvait
passer outre ou répondre malgré tout aux questions filtrées.
Le choix a donc été fait de procéder à une étude qualitative
complémentaire, afin de valider et d'approfondir ces observations. Cette
prospection est en cours auprès notamment des employeurs ayant accepté un
entretien, en les remettant en situation de réponse et en les faisant verbaliser
sur les deux supports et leur utilisation (respect et compréhension des filtres)
comme sur la notion « d'établissement ». D'autres entretiens auprès de
salariés du volet ménage ont aussi lieu, portant sur la notion d'établissement.

BIBLIOGRAPHIE

Noël, A.-M., de Clédat, B., Lefevre, C., Quaglia, M. et Vichnevskaia, T.


(2006). L'enquête Familles-Employeurs : les leçons d'un double mode de
collecte (papier et Internet), et d'un double mode de saisie (manuelle et
optique). Chaire Quételet 29 novembre/1cr décembre 2006, Louvain-la-
Neuve, Belgique.
264 Enquêtes et sondages

8. Utilisation de modes de recueil de

données mixtes dans une enquête

auprès des étudiants

16 17
Jean-Baptiste COMBES Valérie GUAGLIARDO ,
18
Patrick PERRETI-WATEL et Pierre VERGER

8.1 Introduction

Les taux de réponses dans les enquêtes en population générale baissent, ce qui
pose un problème de représentativité (Link et Mokdad, 2005a). Pour y
remédier, certains auteurs préconisent de combiner différents modes de
collecte (Link et Mokdad, 2005b).
Certaines études suggèrent que les stratégies de collecte des données par
courrier, téléphone ou face-à-face sont pratiquement interchangeables,
notamment en termes de comparabilité des résultats (données de santé et de
maladie) et de validité des réponses (Hochstim, 1967). D'autres ont montré
que des différences peuvent exister (McHomey et ai, 1994; Perkins et
Sanson-Fisher, 1998).
Une enquête a été conduite par l'Observatoire Régional de la Santé
Provence Alpes Côte-d'Azur (PACA) de novembre 2005 à juin 2006 pour
décrire les conditions et modes de vie et les comportements de santé des
étudiants et étudier la prévalence de la détresse psychologique (DP). Les
données ont été recueillies selon une procédure mixte. L'objectif de cette
présentation est (i) de comparer les caractéristiques des étudiants ayant
répondu par différents modes de recueil et (ii) d'évaluer si la prévalence de la
DP varie selon le mode de recueil, en tenant compte des caractéristiques
précédentes.

8.2 Matériel et méthodes

Un échantillon de 2 557 étudiants âgés de 18 à 30 ans a été tiré au sort parmi


les étudiants primo-inscrits en lere année d'université en région PACA. Un
auto-questionnaire (AQ) standardisé était remis aux étudiants éligibles au
moment de leur visite au Service de médecine préventive universitaire
(SMPU), celle-ci étant obligatoire pour les étudiants primo-inscrits. Pour les
étudiants absents après une lettre de rappel, l'AQ leur était adressé au

16 Observatoire Régional de la Santé PACA et École Nationale de la Statistique et de


l'Analyse de l'Information.
17 Observatoire Régional de la Santé PACA.
18 Observatoire Régional de la Santé PACA et Unité 379 INSERM.
6. Méthodes de collecte et applications 265

domicile par la poste. Enfin, ceux ne répondant toujours pas étaient contactés
par téléphone par un enquêteur professionnel.
Le questionnaire décrivait notamment les caractéristiques sociodémo-
graphiques de l'étudiant et de ses parents, aides financières, filière de
formation, mode de vie (logement, transport...) et adaptation à la vie
étudiante (Brachet et ai, 1998). La DP était évaluée par un module du SF-36,
le Mental Health Inventory-5 (MHI-5) (Leplege et ai, 1998) à partir duquel,
une variable binaire de DP a été construite (Korkeika et ai, 2000).
Toutes les analyses ont été stratifiées sur le sexe. La cohérence interne du
MHI-5 a été vérifiée par l'alpha de Cronbach. Nous avons comparé, 2 à 2, les
caractéristiques des étudiants selon chaque mode de recueil et défini ainsi 3
variables dépendantes : « AQ postal versus AQ SMPU », « téléphone versus
AQ SMPU » et « téléphone versus AQ postal ». Des tests de Khi-deux ont
d'abord été effectués puis des régressions logistiques multiples (3 modèles
chez les garçons, 3 chez les filles). Puis l'association entre prévalence de la
DP (variable dépendante) et mode de passation a été étudiée par des
régressions logistiques multiples (3 modèles chez les garçons et 3 chez les
filles) ajustés sur les variables significatives dans les modèles correspondants
précédents.

8.3 Résultats

Au total, 1 773 étudiants ont complété un questionnaire. Le taux de réponse


moyen à l'AQ dans les SMPU était de 38,5 % (9,0 % à 94,4 % selon le
SMPU), celui à l'AQ postal de 26,4 % et celui au téléphone de 52,2 %. Après
l'enquête téléphonique, le taux de réponse global était de 82,9 %.
Les étudiants qui se sont déplacés au SMPU étaient plus jeunes, avaient
moins souvent une activité rémunérée, déclaraient plus fréquemment que
leurs études correspondaient à un projet précis que les autres répondants
(Tableau 6.11) ; ils étaient plus souvent inscrits dans des filières scientifiques
que les répondants par courrier ou téléphone, connaissaient mieux leur filière
et étaient moins souvent inscrits dans d'autres formations. Des différences ont
aussi été observées entre les répondants par téléphone et ceux par AQ postal,
mais principalement chez les filles (Tableau 6.11).
L'alpha de Cronbach du MHI-5 était plus faible pour les répondants par
téléphone (0,72) que pour ceux par AQ postal (0,84) et par AQ SMPU (0,86).
La prévalence de la DP était liée au mode de recueil dans 4 modèles sur 6
(Tableau 6.12). Cette prévalence était moindre, toutes choses égales par
ailleurs, chez les filles répondant au téléphone comparativement aux recueils
par AQ. Chez les garçons, la prévalence de la DP était plus élevée chez ceux
qui ne se sont pas déplacés au SMPU et ont répondu par AQ postal ; elle était
plus faible, comparativement à ce dernier, chez ceux ayant répondu par
téléphone.
266 Enquêtes et sondages

Tableau 6.11 : Caractéristiques socio-économiques et mode


de vie des étudiants selon le mode de passation
(régressions logistiques multiples)
Variables explicatives Garçons Filles
(référence)
AQ postal/ Téléph./AQ Téléph./AQ AQ postal/ Téléph./ Téléph./ AQ
AQ SMPU SMPU postal AQ SMPU AQ SMPU postal
Age (18 ans) +*** +*** ns +*** +*** ns
Caractéristiques
socio-économiques
Diplôme des parents ns ns ns ns +** ns
(inférieur au bac)
Activité de la mère ns ns ns ns _* _*
(emploi stable)
Bourse (non) ns ns ns _* ns ns
Activité rémunérée ns +*** ns ns ^.*** +***
(non)
Aide institutionnelle ns ns ns ns ns _**
(non)
Formation (lieu,
filière...)
Université (Nice) ***1 ns ns ***i ns ns
Primo inscription dans ns ns +* +** +** ns
la faculté (non)
Filière (santé) **2 *.2 ns ***2 ***2 *

Connaissance de la ns _** ns _* _* ns
filière dans laquelle
il/elle est inscrit(e)
(non)
Inscrit à une autre +* ns ns +* ns ns
formation (non)
Mode de vie,
adaptation vie
étudiante
Travail après minuit ns ns ns +** ns ns
(non)
Travail personnel par ns ns ns ns ns +*
semaine (non)3
Difficultés logement ns ns ns +** ns +*
(non)
Eloignement de la ns ns ns ns ns +*
famille (non)
Influence des parents ns ns * ns * "
dans le choix des
études (non)
6. Méthodes de collecte et applications 267

Tableau 6.11 (suite) : Caractéristiques socio-économiques et mode


de vie des étudiants selon le mode de passation
(régressions logistiques multiples)
Variables explicatives Garçons Filles
(référence)
AQ postal/ Téléph./AQ Téléph./AQ AQ postal/ Téléph./ Téléph./ AQ
AQ SMPU SMPU postal AQ SMPU AQ SMPU postal
Mode de vie,
adaptation vie
étudiante
Avoir un projet -** -** ns ns _*** _*
professionnel précis
(non)
Score d'adaptation (4 à ns ns +** ns
24 )4
*0,01 < /;<0,05 ; ** 0,001 <p< 0,01 ; *** p < 0,001 ; ns : non significatif.
1
Répondants par AQ SMPU plus souvent inscrits dans les universités d'Aix-Marseille
I et m.
2
Répondants par AQ SMPU plus souvent inscrits en filière scientifique.
3
Variable en 3 modalités : pas de travail personnel (référence), travail personnel
moins de 4 heures par semaine, et plus de 4 heures par semaine.
4
Echelle d'adaptation à la vie universitaire (Brachet et al., 1998) : plus le score est
élevé, plus l'étudiant a déclaré des difficultés.

Tableau 6.12 : Liens entre modes de recueil des données et


prévalence de la détresse psychologique*
Garçons Filles
Odds Ratio [IC95 %]
AQ postal vs AQ SMPU 1,92 [1,08-3,41] 1,16 [0,79-1,70]
Téléphone vs AQ SMPU 0,73 [0,37-1,46] 0,53 [0,35-0,81]
Téléphone vs AQ postal 0,49 [0,25-0,93] 0,49 [0,31-0,79]
*6 modèles de régression logistique multiple différents, chacun étant ajusté sur
les caractéristiques des étudiants significatives à l'étape précédente.

8.4 Discussion

L'utilisation de plusieurs modes de collecte de données a penuis d'atteindre


un taux de réponses satisfaisant et d'améliorer la représentativité de
l'échantillon en joignant des groupes étudiants ayant des caractéristiques
différentes, notamment ceux, moins disponibles du fait d'autres activités
(travail rémunéré, formation). La différence d'âges entre ces groupes est
probablement liée à l'étalement de l'enquête sur 8 mois et au séquençage des
modes de passation.
268 Enquêtes et sondages

Les étudiants qui ont répondus par AQ postal et téléphone - donc plus tard
dans l'année scolaire - ont déclaré plus fréquemment ne pas avoir de projet
professionnel précis. Ceci pourrait être lié au choix plus fréquent par ces
étudiants des filières lettres ou sciences humaines incluant des proportions
souvent élevées d'étudiants indécis sur leurs choix professionnels.
Les alpha de Cronbach du MHI-5 - tous supérieurs à 0,7 - indiquent une
bonne cohérence interne quel que soit le mode de recueil. Les associations
observées entre mode de recueil et prévalence de la DP étaient différentes
selon le sexe. Chez les filles, le téléphone était associé à une moindre
déclaration de symptômes de DP : cette différence était aussi observée chez
celles qui ne s'étaient pas déplacées au SMPU (téléphone versus AQ postal).
Cet « effet » pourrait être lié à un biais de désirabilité sociale : les personnes
interrogées par téléphone ont tendance à présenter une image d'elles-mêmes
plus favorable que lorsqu'elles complètent un AQ (Fowler et Gallagher,
1999). Mais la contrainte de temps lors des interviews téléphoniques peut
aussi conduire les personnes interrogées à ne pas mentionner des symptômes
de faible intensité, entrant tout de même dans le calcul du score MHI-5
(McHomey et al., 1994 ; Perkins et Sanson-Fisher, 1998). Pour les garçons, le
fait de répondre par AQ postal était associé à une DP plus importante que par
AQ au SMPU : il est possible que les garçons qui ne se sont pas déplacés au
SMPU souffraient plus fréquemment d'une DP et que cela soit une des
raisons pour lesquelles ils ne se sont pas déplacés. Chez les garçons qui ne
sont pas déplacés au SMPU, l'utilisation du téléphone semble, comme pour
les filles, conduire à une sous-estimation de la DP.
Notre enquête n'avait pas pour but initial de déterminer les effets du mode
de passation : ainsi sa méthodologie ne permet pas d'assurer que les
associations précédentes sont dues au mode de réponse : elles pourraient
provenir de caractéristiques des individus non contrôlées dans les analyses
(Link, 2005b). Les enquêtes utilisant des modes de passation différents sont
amenées à se développer. Des recherches sont nécessaires dans ce domaine
afin de développer des questionnaires compatibles, c'est-à-dire penuettant de
comparer les résultats d'un mode de recueil à l'autre (De Leeuw, 2005).

BIBLIOGRAPHIE

Brachet, S., l'Ain, M.G.d., Liber, A. et Zonuan, M. (1998). Le Mal-Être


Étudiant : Service de Médecine Préventive Universitaire et de Promotion de
la Santé, Villeurbanne.
De Leeuw, E. (2005). To Mix or Not to Mix Data Collection Modes in
Surveys. Journal of Officiai Statistics, vol. 21, 233-255.
Fowler, F., et Gallagher, P. (1999). Comparing téléphoné and mail responses
to the CAHPStm survey instruments. Médical Care, vol. 37, MS41-MS49.
6. Méthodes de collecte et applications 269

Hochstim, J.R. (1967). A critical comparaison of three stratégies of collecting


data from households. Journal of the American Statistical Association,
vol. 62, 976-989.
Korkeika, J., Lehtinen, V., Bijl, R., Dalgard, O., Kovess, V., Morgan, A. et
Salize, H. (2000). Establishing a set of mental health indicators for Europe.
Scandinavian Journal of Public Health, vol. 31, 1-8.
Leplège, A., Ecosse, E., Pouchot, J., Coste, J. et Perneger, T. (2001). Le
questionnaire MOS SF-36, Paris, éditions Estem.
Link, M., et Mokdad, A. (2005a). effects of survey mode on self-reports of
adult alcohol consumption: A comparaison of mail, web and téléphoné
approaches. Journal ofStudies on Alcohol, vol. 66, 239-245.
Link, M., et Mokdad, A. (2005b). Alternative modes for health surveillance
surveys: An experiment with web, mail and téléphoné. Epidemiology,
vol. 15,701-704.
McEIorney, C., Kosinski, M. et Ware, J. (1994). Comparisons of the costs and
quality of norms for the SF-36 health survey collected by mail versus
téléphoné interview: Results from a national survey. Médical Care, vol. 32,
551-567.
Perkins, J., et Sanson-Fisher, R. (1998). An examination of self- and
telephone-administered modes of administration for the Australian SF-36.
Journal of Clinical Epidemiology, vol. 51, 969-973.

9. D'une approximation statistique à une

approximation géographique :

l'exemple d'une enquête santé à

Luxembourg

19 20
Philippe GERBER et Sébastien FLEURET

9.1 Introduction

Quels que soient les pays de EUE, le phénomène du vieillissement


démographique de la population est patent, accompagné de mutations
sociologiques et économiques majeures. Selon ces considérations, la Ville de
Luxembourg a commandité au CEPS/INSTEAD en 2002 une étude de grande
envergure, fondée sur une enquête visant à mesurer les souhaits des personnes
âgées de 60 ans ou plus vivant à domicile. Les thèmes que l'enquête

19 CEPS/INSTEAD, département GEODE, Differdange, Luxembourg.


20 CNRS, Carta-ESO, Université d'Angers, France.
270 Enquêtes et sondages

abordaient étaient nombreux : le niveau de santé, l'appréciation du quartier ou


encore les réseaux sociaux. La cité souhaitait obtenir à un niveau infra-
communal ces informations en vue de forger une nouvelle politique sociale, et
en anticipant la planification de nouvelles infrastructures. La contrainte de
l'échelle intra-urbaine ne facilitait pas l'obtention de résultats et de données
statistiques robustes. Ce chapitre expose, dans un premier point, la méthode
d'échantillonnage utilisée, tout en présentant le contexte de la capitale. La
deuxième partie se concentre sur la mise au point de la reconstitution de la
répartition spatiale intra-urbaine des personnes âgées estimées à partir de la
pondération de l'enquête, dans le but de cartographier des données à un
niveau géographique plus fin que celui obtenu lors de la stratification spatiale
préalable.

9.2 Contexte et échantillonnage spatial

Le phénomène du vieillissement ne doit pas masquer les disparités


démographiques qui existent entre un pays et une ville. Il existe certes un
vieillissement généralisé à l'échelle du Luxembourg, mais une stagnation de
la proportion de la population des plus de 60 ans au niveau de sa capitale,
avec néanmoins une forte hétérogénéité entre les 24 quartiers administratifs
existants, ceci au niveau à la fois de la population résidante et de la répartition
des personnes âgées. Dans l'optique d'une analyse infra-communale
statistiquement comparable, et pour faciliter le plan de sondage, ces quartiers
ont été agrégés afin de contrôler au mieux l'analyse future des données, en
fonction de trois conditions majeures : un minimum de 2 000 personnes âgées
de plus de 60 ans par strate ; une contiguïté géographique des quartiers ; une
homogénéité sociale. Un découpage en 6 strates résidentielles a été finalisé.
La méthode de tirage de l'échantillon utilisée repose sur une technique
d'échantillonnage à deux phases : le tirage d'un échantillon aléatoire stratifié
(6 zones résidentielles) de ménages privés possédant au moins une personne
âgée ; et la sélection aléatoire (selon la « technique » Kish) d'une personne
âgée au sein de chaque ménage de l'échantillon.
La procédure de pondération de l'échantillonnage (Gerber, Bienvenue,
2004) n'est pas détaillée ici. Signalons simplement que, le biais des non-
répondants contrôlé (Deville et Dupont, 1993), l'étape suivante est le
redressement de l'échantillon qui vise non seulement à réduire les biais, mais
également à améliorer la représentativité de l'échantillon des répondants vis-
à-vis d'un certain nombre de critères non pris en compte a priori lors du
tirage de l'échantillon (sexe, âge, nationalité, état civil). En tenant compte des
biais détectés et en voulant nous rapprocher des informations liées au fichier
(source) de population, nos estimations sont calées en fonction de ces deux
types d'information (Deville et Sârndal, 1992).
6. Méthodes de collecte et applications 271

9.3 Approximation socio-spatiale

9.3.1 Sources mobilisées et postulats géographiques

Ces techniques de pondération affectent dorénavant, à chaque individu, un


poids relatif. Selon une approche géographique cette fois, la valeur de ce
poids détermine ensuite le nombre d'individus projetés dans l'espace à partir
du point d'origine (individu enquêté) selon une certaine distance spatiale. Le
calcul de cette distance euclidienne, à valider pour les 903 interrogés répartis
sur les 6 strates spatiales {cf. figure 6.3), trouve sa justification théorique au
sein de trois postulats géographiques : la notion de voisinage (Grafmeyer,
1979); la première loi de Tobler (1970) où toute chose est reliée à toute
chose, les choses proches Vêtant plus; et enfin la non simplification
cartographique de Grasland et al. (2000).
Trois critères complémentaires, issus de différentes sources, ont permis le
calcul de la distance moyenne de projection en respectant ces postulats :
- les six strates résidentielles mentionnées auparavant;
- cinq profils résidentiels des personnes âgées de la ville, obtenus à
partir d'une analyse en composantes principales (ACP) et d'une
classification hiérarchique ascendante (CAR) à partir de données de
l'enquête (Gerber, 2006);
- enfin deux profils socio-résidentiels issus également d'une
combinaison d'une ACP et d'une CAR sur des données contextuelles
selon les principes de l'écologie urbaine factorielle (Gerber, 2005).

9.3.2 Les hypothèses de corrélation spatiale

En fonction de ces différents profils auxquels appartiennent les 903 personnes


interrogées, 60 strates de calcul (soit 6x5x2) ont donc été utilisées pour
déterminer une distance moyenne affectée à chaque personne concernée,
distance permettant de calculer un périmètre d'un cercle dont le rayon est égal
à la moyenne des distances séparant l'enquêté des autres individus présentant
les mêmes profils que lui. Sur la figure 6.4, on considère ainsi trois individus
qui appartiennent à la strate géographique 1, au profil des personnes âgées 1
et au profil résidentiel 2. Ils ont une distance moyenne qui permet de
déterminer un périmètre, appelé buffer, autour de l'individu. A l'intérieur, un
nombre de points est projeté en fonction du poids relatif de chaque personne.
272 Enquêtes et sondages

Figure 6.3 : Les 903 personnes âgées selon leurs strates

"a
Strate (5)
géographique rfl?
Strate (2) o
géographique
-
o "j on

0
...
iéT
0 500 Mètres

« Strate (6)
géographique
n
ff
(3) G -•
■c 'r

->5

Délimitation des strates géographiques


Strate 1
géographique Zones de cadres et d'employeurs
Zones d'ouvriers et de manoeuvres

Strate -tr Autonomie très limitée (PTyPA 1 )


géographiqi
O Bas revenus, isolées, aide mobilisable limitée (2)
A Hauts revenus et isolées (3)
□ Bonne santé, confort subjectif fort (4)
Sources : PaVdL 2002, O Jeune troisième âge (5)
CEPS/INSTEAD 2003

Auteurs : P. Gerber, M. Schneider


CEPS/INSTEAD - Janvier 2008

Cette étape posée, un contrôle géostatistique supplémentaire, lié à la densité


de la population âgée, est intégré à l'étape de projection : le poids de chaque
personne âgée doit être projeté dans le buffer non seulement selon des
considérations morphologiques résidentielles, mais également en fonction
d'une classe de densité nette de population donnée (cf. figure 6.5).
6. Méthodes de collecte et applications 273

Figure 6.4 : Exemple de calcul d'une distance moyenne

A a ☆
N
0 Oo
Strate (2) géographique
O n O

aA □ o ^ A
☆ O A
□ CCI cO-] 0°
0
0 A
Mètres 500
☆ 5
o
OwO
V ☆

A
o
o
Strate (1) g 13, □ 0
i 7X A
f* È \ A
6> ☆
^ Q
<D ☆rf> 0
(D ^
n ô oO Oo
^JfO
-v/ xO/ m
/xj Délimitation des strates géographiques polyligne destinée à u
calculer une distance
Zones de cadres et d'employeurs (PSI) r m0yenne pour la Strate '
Zones d'ouvriers et de manoeuvres (PS2) \ SQ 1, PTyPA 1 et PS 2 ^
0 0
☆ Autonomie très limitée (PTyPAi) O >
Bas revenus, isolées, aide mobilisable limitée
o (PTyPA2)
O
☆ O
A Hauts revenus et isolées (PTyPAS) .-o- o
00 S. (4) G.
□ Bonne santé, confort subjectif fort (PTyPA4)
Auteurs : P. Gerber, . O
M. Schneider - 2007
o Jeune troisième âge (PTyPAS) Sources : PaVdL 2003, Cl IPS/INSTEAD aOQ^TATf C 2001

Figure 6.5 : Zone de recouvrement selon les


TD critères résidentiels et de densité
O
C
D
û exemple d'I personne âgée
* (PA) géoréférencée
co
o
o distance moyenne de projection pour la PA
fM <S\
bati résidentiel
ai O
'i_ mo
>- les buffers calculés des PA
Q. O
O
u n
zone résidentielle de densité 1
' *■, zone résidentielle UNIQUE de projection
de densité 2
//; zone résidentielle de densité 3
274 Enquêtes et sondages

Chaque individu géoréférencé, appartenant à une et une seule classe de


densité au sein de sa zone bâtie, va donner une projection de points
« pondérés » uniquement dans la surface du buffer correspondant à la même
classe de densité de population que celle du point d'origine.
En comparant nos résultats de projection avec ceux du recensement à
l'échelle de 24 quartiers mentionnés auparavant, nous obtenons un coefficient
de régression de 0,82, ce qui penuet de cartographier les résultats d'enquête à
une échelle plus fine que les 6 strates d'échantillonnage.

9.4 Conclusion

Cet article s'attarde sur une méthode de projection utilisant les poids
constitués lors des phases de pondération d'une enquête, et visant à
cartographier ces résultats d'enquête à une échelle plus fine que les strates
spatiales d'échantillonnage. Cette méthode d'approximation offre une
possibilité relativement simple de représentation cartographique, liées entre
autres au bien-être des personnes âgées, que les analyses multi-niveaux, par
exemple, ne prennent pas forcément en considération.

BIBLIOGRAPHIE

Deville, J.-C., et Dupont, F. (1993). Non réponse : principes et méthodes.


Dans Actes des journées de méthodologie statistique des 15 et 16 déc. 1993.
Insee Méthodes, Insee, Paris, 53-70.
Deville, J.-C., et Sâmdal, C.-E. (1992). Calibration estimators in survey
sampling. Journal of the American statistical Association, vol. 87, 376-382.
Gerber, P., et Bienvenue, J.-Y. (2004). Ville de Luxembourg et personnes
âgées vivant à domicile : échantillonnage spatial et production de données
d'enquête à l'échelle intra-urbaine. Population & Territoire, vol. 2.
Gerber, P. (2005). La ville de Luxembourg, mosaïque socio-résidentielle.
Population & Territoire, vol. 7.
Gerber, P. (2006). Bien-être et personnes âgées. Dans Fleuret, S. (dir.).
Espaces, qualité de vie et bien-être. Ed. PUA, 2006, 107-118.
Grafmeyer, Y., et Isaac, J. (1979, éds.). L'Ecole de Chicago. Naissance de
l'écologie urbaine. Paris, Aubier.
Grasland, C., Mathian, H. et Vincent, J.-M. (2000). Multiscalar analysis and
map généralisation of discrète social phenomena: Statistical problems and
political conséquences. Statistical Journal of the United Nations ECE, vol.
17,1-32.
Tobler, W. (1970). A computer model simulating urban growth in the Détroit
Région. Economie Geography, vol. 46, 234-240.
6. Méthodes de collecte et applications 275

10. Enquête Web : une opportunité pour

réduire la non-réponse totale dans les

enquêtes ménages déplacements

21
Caroline BAYART et Patrick BONN EL

10.1 Introduction

Les taux de participation aux enquêtes sont en nette diminution, et les


enquêtes ménages déplacements suivent la même tendance. Même si certaines
procédures permettent de réduire le taux de non-réponse et que les méthodes
de redressement permettent de limiter le biais introduit par la non-réponse
totale, il reste nécessaire de postuler que les comportements de mobilité des
ménages qui refusent de participer à l'enquête sont identiques à ceux des
ménages ayant des caractéristiques socioéconomiques similaires. Or, de
nombreux travaux (Bonnel, 2003) ont montré que les comportements étaient
généralement corrélés au fait de ne pas répondre, ou au nombre de tentatives
nécessaires pour atteindre un répondant. C'est pour essayer de limiter ce biais
de non-réponse, que le Laboratoire d'Économie des Transports a proposé de
réaliser une enquête par le web auprès des non-répondants à l'enquête
ménages déplacements réalisée à Lyon en face-à-face en 2006.
Ce papier présente d'abord le potentiel du web pour les enquêtes ménages
déplacements, principalement dans le cadre d'une méthodologie d'enquête
mixte (section 10.2). Puis, des réflexions sur la construction du questionnaire
diffusé en-ligne, et les choix opérés par rapport à sa version papier complètent
la présentation (section 10.3). Enfin, nous présenterons des résultats
préliminaires de l'option web de l'enquête ménages déplacements de Lyon
(section 10.4).

10.2 Le potentiel du web dans les enquêtes

ménages déplacements

10.2.1 Pourquoi un tel engouement pour les enquêtes


web ?

Les enquêtes de déplacements sont généralement longues et coûteuses à


mettre en œuvre. Il s'agit d'interroger un large échantillon de ménages ou
d'individus, au sujet de leurs déplacements quotidiens, à l'aide d'un

21 Laboratoire d'Économie des Transports - ENTPE, caroline.bayart@entpe.fr,


patrick.bonncl@entpe.fr.
276 Enquêtes et sondages

questionnaire relativement lourd et administré en France en face-à-face, à tous


les membres du foyer. Mais le taux de réponse en baisse nécessite de
s'interroger sur cette méthodologie (53 % en 2006, 65 % en 1994-95). Les
coûts générés par une enquête web n'étant pas très élevés par rapport à une
enquête traditionnelle en face-à-face, l'utilisation de ce nouveau média
permet d'augmenter le nombre de contacts à moindre frais (Couper étal,
2001). Le web autorise également une grande interactivité au niveau de la
personnalisation du questionnaire. Les contrôles, qui garantissent la validité
des réponses, sont automatiques et dynamiques. Ils permettent de relancer
l'enquêté en cas d'incohérence dans les réponses et d'obtenir des
questionnaires apurés. Plus encore, grâce aux nombreux filtres, les individus
ne se voient pas poser des questions qui ne les concernent pas, d'où une
réduction de leur niveau de frustration. Enfin, le caractère peu intrusif et non
contraignant du web permet de toucher davantage d'individus, qu'il s'agisse
des personnes peu libres en journée ou ne souhaitant pas recevoir un
enquêteur.

10.2.2 Des limites importantes

Généralement, les auteurs distinguent quatre types de biais pour les enquêtes
web (Dillman et Bowker, 2001 ; Alsnih, 2005) : le biais de couverture, le
biais d'échantillonnage, le biais de mesure et le biais de non-réponse.
Répondre à un questionnaire en-ligne présuppose de disposer d'un ordinateur
et d'une connexion Internet. Or, bien que l'équipement informatique des
ménages français et le taux de pénétration d'Internet sur le territoire soient en
forte progression, ils restent encore faibles pour permettre le lancement
d'études de mobilité. De plus, il n'est pas établi que l'ensemble des ménages
ayant accès à Internet soit à l'aise avec l'utilisation du web. Il est possible que
non seulement les caractéristiques sociodémographiques des internautes
diffèrent de celles de l'ensemble de la population, mais qu'elles varient
également selon le type d'équipement possédé (Alsnih, 2005). L'échantillon
obtenu par une enquête web n'est donc généralement pas représentatif de la
population étudiée, ce qui limite fortement la généralisation des données
d'enquête à l'ensemble de la population par inférence statistique. Par ailleurs,
les répondants ne terminent pas tous le questionnaire, et certains
dysfonctionnements techniques peuvent également causer des erreurs dans la
collecte des données par Internet, sans que l'administrateur en connaisse les
raisons précises (Dillman et Bowker, 2001). Il n'est pas évident d'établir que
ces comportements de non-réponse, totale ou partielle, ne soient pas liés aux
pratiques de mobilité (Bonnel, 2006), d'où un biais de non-réponse important.
Il est également difficile de contrôler « celui » qui se cache réellement
derrière l'ordinateur.
6. Méthodes de collecte et applications 277

10.2.3 Vers une méthodologie d'enquête mixte

Réaliser une enquête web exclusive auprès de l'ensemble de la population


n'est pas recommandé pour recueillir des données représentatives (Bonnel,
2006). Il est donc important de réfléchir sur la possible intégration du web
dans les enquêtes de mobilité et d'explorer plus largement la combinaison de
plusieurs modes de collecte de données (Couper et al., 2001 ). L'utilisation du
web en complément du face-à-face semble intéressante, puisqu'elle permet
a priori de réduire le biais d'échantillonnage (les individus qui se voient
proposer un questionnaire web ont été auparavant recrutés par une méthode
probabiliste). Donner le choix du mode de collecte des données est valorisant
pour l'interviewé, et augmente le taux de réponse et la qualité des données
recueillies (Alsnih, 2005). Cependant, proposer plusieurs modes de recueil de
données n'est pas sans risque sur la validité de l'enquête, des variations dans
les questionnaires et médias utilisés pouvant influencer les réponses
(Cobanoglu, 2001). Dans le cas d'une enquête en face-à-face la
communication est essentiellement auditive, alors que l'utilisation du web
favorise le langage visuel (Couper et al, 2001 ).

10.3 La conception du questionnaire web

La mise en ligne d'une enquête web pose cinq problèmes majeurs : la


longueur, la complexité et la sophistication du questionnaire, l'efficacité des
relances en cas de non-réponses et le nombre de personnes sollicitées.
L'utilisation du web nécessite d'abord de considérer certaines caractéristiques
propres à ce média, comme la durée de concentration du répondant. Le
questionnaire utilisé en face-à-face (durée = lh30 en moyenne) devra donc
être simplifié. Pour encourager le maximum de réponses, les atouts du web
(interactivité, possibilité graphiques et sonores...) ne doivent pas être utilisés
de façon abusive. La plupart des recommandations concernant la structure du
questionnaire web découlent des autres modes d'enquête. L'introduction doit
être accueillante, motivante, et rassurante. Le questionnaire web doit être
concis, structuré par parties, et respecter l'allure conventionnelle des
questionnaires papier, pour ne pas dérouter les répondants. Le rôle essentiel
de l'administrateur est d'anticiper au mieux la façon dont les individus vont
appréhender le questionnaire, afin de les encourager à saisir l'ensemble des
réponses souhaitées. Du point de vue technique, il est évident que le
questionnaire doit être conçu de façon à rester identique quel que soit le type
de matériel utilisé par l'internaute, et que les répondants puissent le reprendre
ultérieurement, sans que l'ensemble des données saisies soient perdues.
L'enquête ménages déplacements de Lyon, est traditionnellement
administrée en face-à-face, par des enquêteurs expérimentés. La mise en ligne
de l'étude nécessite une forme auto administrée du questionnaire, tout en
278 Enquêtes et sondages

maintenant son contenu proche de celui de l'enquête principale. Le


questionnaire web est structuré en trois parties ou « blocs ». Nous distinguons
d'abord les questions relatives à la personne interrogée, puis celles concernant
les données de déplacements, avant de terminer par des questions propres au
ménage, et notamment à leur niveau de revenu. Pour le recueil des
déplacements, nous sommes partis du constat que les déplacements ne sont
pas une fin en soi, mais un moyen de réaliser une activité. Proposer un
cheminement des activités effectuées la journée de référence de l'enquête
permet de recueillir le maximum d'informations d'une manière naturelle pour
l'interviewé. L'effort de mémoire reste moins important que dans le cas d'un
recueil trajet par trajet.

10.4 Résultats préliminaires

4 379 lettres ont été envoyées aux ménages qui refusaient de répondre à
l'enquête traditionnelle en face-à-face, ou qui restaient injoignables après 8
tentatives (1 882 début avril et 2 497 à la mi-mai 2006). Deux relances ont eu
lieu, entre la mi-mai et la fin juin 2006. A la fin de l'enquête web, le 10 juillet
2006, 370 interviews complètes ont été enregistrées, ce qui représente un taux
de réponse global de 8,5 %. Ce résultat semble encourageant, étant donné
qu'une partie seulement des ménages ciblés peuvent se connecter à Internet,
au domicile ou sur leur lieu de travail (50 % des ménages français disposent
d'une connexion Internet). Le rôle des relances est non négligeable,
puisqu'elles ont généré 140 interviews. La réalisation de l'enquête a dû faire
face à certaines difficultés du fait du caractère exploratoire de l'enquête.
Ainsi, des améliorations dans le design et l'ergonomie du questionnaire nous
laissent espérer un taux de réponse plus avantageux. Les résultats détaillés de
l'étude comparative entre les deux modes d'enquête, web et face-à-face, ne
sont pas encore disponibles pour ce papier, mais seront publiés
ultérieurement.
Les premiers résultats font apparaître une population de répondants plus
active, avec un plus haut niveau d'étude, plus souvent cadres ou employés,
avec un revenu plus élevé et une motorisation plus importante. Ces résultats
concordent avec ceux publiés dans d'autres études. Les jeunes sont peu
représentés, tout comme les plus de 60 ans. La population est donc fortement
concentrée entre 30 et 60 ans et est donc plus active que l'ensemble de la
population. Ces caractéristiques ont une influence sur les pratiques de
déplacements. La comparaison des réponses issues du web ou de l'enquête en
face devra donc tenir compte de ces différences pour identifier si le média
d'enquête influe sur les réponses fournies. Les premières analyses semblent
indiquer un nombre de déplacements plus faibles pour les individus ayant
répondu sur le web (de l'ordre de 10-15%), qui concernent principalement
6. Méthodes de collecte et applications 279

des déplacements courts souvent effectués à pied ou des arrêts de courte durée
(achats, accompagnements) lors des sorties du domicile.

BIBLIOGRAPHIE

Alsnih, R. (2005). Characteristics of Web-based surveys and applications in


travel research. CD-Rom of the ISCTSC conférence. Août 2004, Costa Rica.
Bonnel, P. (2003). Postal, téléphoné and face-to-face surveys: How
comparable are they? Transport Survey Quality and Innovation,
Stopher, P.R., et Jones, P.M. (éds.), Pergamon, Oxford, pages 215-237.
Bonnel, P. (2006). New Technology: Web-based. Travel survey methods,
Stopher, P., Stecher, C. (éds.), Pergamon, Oxford, pages 593-903.
Cobanoglu, C., Warde, B. et Moreo, P.J. (2001). A comparison of mail, fax
and web-based survey methods. International Journal of Market Research,
vol. 43,441-452.
Couper, M.P., Traugott, M.W. et Lamias, M.J. (2001). Web survey design
and administration. Public Opinion Quarterly, vol. 64, 464-494.
Dillman, D.A., et Bowker, D.K. (2001). The Web Questionnaire Challenge to
Survey Methodologists. Dimensions of Internet Science, éds. Ulf-Dietrich
Reips & Michael Bosnjak, Pabst Science Publishers, Lengerich, Allemagne.

11. Tests méthodologiques sur les

questionnaires « en ligne »

22 23
Olivier LÊ VAN TRUOC et Benoît PARRAUD

11.1 Contexte

Aujourd'hui, un nombre important et croissant d'études quantitatives réalisées


en France par les sociétés d'études privées, ont recours à un mode de recueil
des données « online ».
Cette évolution méthodologique est rapide, et n'est pas sans poser question
aux instituts, notamment en termes de représentativité des échantillons
d'internautes, mais aussi en termes de qualité des réponses obtenues.
Différentes recherches ont été conduites sur le sujet de l'échantillonnage :
comment construire un échantillon fiable en optimisant les taux de
participation ? Est-il possible, en interrogeant un échantillon d'internautes, de
délivrer des informations pertinentes sur une population plus large (par

22 Directeur de la Recherche et des Études - Ipsos Media.


23 Directeur Pôle Études Quantitatives - Ipsos Media.
280 Enquêtes et sondages

exemple l'ensemble de la population internaute et non internaute), et dans


quelles conditions ?...
D'autres tests ont porté sur des comparatifs entre résultats d'études
conduites par voies « offline » (face-à-face, téléphone) et « online ».
En revanche pour l'heure, il existe peu de véritables recherches dédiées à
/ 'aspect formel des questionnaires en ligne : présentation et place des
questions, forme des échelles de réponses, ergonomie du questionnaire, aspect
plus ou moins directif des consignes aux répondants. Certes, les instituts
cherchent à réaliser des questionnaires fluides et attractifs, et accumulent de
l'expérience au fur et à mesure des sondages qu'ils produisent, sur ce qui
semble en la matière bien ou mal fonctionner.
Mais on trouve peu de littérature sur une évaluation de l'incidence de la
mise en forme des questionnaires sur les réponses des participants. Or,
s'agissant de questionnaires auto-administrés, la forme a évidemment une
importance déterminante, que l'on pourrait comparer à l'influence des
enquêteurs dans le cadre d'enquêtes administrées. Par ailleurs, il est probable
que la nature de l'interaction «répondant-questionnaire » et sa perception
par l'interviewé soient très différentes, en ligne, de ce qu'elles étaient dans le
cadre d'un auto-administré papier. Ce que l'on a pu expérimenter en la
matière par le passé, est certainement obsolète, et le sera probablement de
plus en plus. En effet, avec l'expansion des nouvelles technologies de
l'information et notamment la banalisation des formulaires en ligne, de
nombreux répondants portent désormais un regard « d'expert » ou du moins
« d'utilisateur confirmé » sur les questionnaires online des instituts.

11.2 Des tests méthodologiques sur la forme des

questionnaires et l'attitude des répondants

en ligne

Considérant que le métier des enquêtes consiste à bien poser de bonnes


questions aux bonnes personnes, nous avons engagé en 2007 une phase de
recherche sur la forme des questionnaires en ligne, et l'attitude des répondants
à leur égard. La problématique étant vaste et ambitieuse, nous ne prétendons
pas y répondre exhaustivement, mais apporter une pierre à l'édifice. Par
ailleurs, nous ne pourrons présenter dans cet article que quelques illustrations
et délivrer des conclusions très synthétiques.
La phase de tests a combiné deux approches :
6. Méthodes de collecte et applications 281

11.2.1 Des tests quantitatifs réalisés dans le cadre d'une


large enquête online « Ipsos Profiling 2007 »

La taille importante de l'échantillon de cette enquête (50 000 interviews


auprès d'internautes âgés de 15 ans et +) a permis de tester l'impact de
différents aspects formels de questionnaires sur des gros sous-échantillons
appariés (de 1 600 à 12 000 interviews), redressés a posteriori sur une
combinaison de critères (renseignements sociodémographiques, types de
connexions et habitudes de fréquentation du web), afin de les rendre les plus
comparables possibles.
Ont ainsi été abordés les points suivants : test sur des effets d'ordre/de
lassitude, rotation de la place de présentation dans le questionnaire, de blocs
de questions (4 à 6 questions par bloc), impact de l'obligation de répondre
(pour 2 questions successives, on a tantôt rendu les réponses obligatoires,
tantôt laissé libre l'internaute), évaluation d'aspects formels du questionnaire
(coches de réponse à gauche V5 coches de réponse à droite), forme et
présentation des échelles de notes...

11.2.2 Une phase de ré-interrogation plus qualitative,


auprès de 1 400 répondants

Pour mieux comprendre leur perception des questionnaires on-line, leurs


motivations à répondre, leurs difficultés, leurs modes de remplissage... et
certaines de leurs préférences en matière de présentation.

11.3 Quelques exemples de résultats

11.3.1 Mise en forme des questionnaires : deux


illustrations

a) Les échelles de notes

Nos tests montrent que leur forme a une incidence sur la distribution des
réponses et la moyenne.
Cette incidence peut être liée à des aspects purement pratiques, comme par
exemple « l'effort » produit par l'internaute pour répondre. Une présentation
des notes sous la forme d'un menu déroulant génère moins de réponses
élevées (notamment les notes 9 et 10 sur 10) car donner ces notes hautes
oblige l'internaute à déplacer son curseur en bas de liste.
A contrario, une échelle bipolaire horizontale semble produire une plus
large variété de réponses. Mais à nouveau, la présentation de l'échelle n'est
pas neutre : un dégradé de couleurs (des tons froids pour « 1 » aux tons
chauds pour « 10») peut influencer la réponse. Ainsi, la note «6», qui
282 Enquêtes et sondages

correspondait dans notre expérience à la couleur blanc, a-t-elle sans doute été
vécue comme médiane ou neutre, et enregistre 25 % de réponses en plus que
lorsque l'on utilise des échelles sans dégradé. Enfin, ne pas proposer
d'échelles visuelles, mais demander à rinterviewé(e) de répondre librement
en saisissant sa note dans une case génère des effets de pics, notamment pour
les notes 5 (25 % de réponses en plus qu'avec des échelles).

b) Obliger les participants à répondre à une question

Une deuxième expérience a consisté à comparer les réponses concernant la


fréquence de pratique de différents loisirs, évaluée sur une échelle en trois
positions (régulièrement, occasionnellement ou jamais) lorsque d'une part
l'on forçait les internautes à répondre"4, et d'autre part lorsqu'ils n'avaient
aucune contrainte. On enregistre {cf. tableau 6.13) dans ce deuxième cas de
figure une proportion de non-réponses très faible (3 % en moyenne), et l'on
remarque que le taux déclaré de pratiques régulières ne varie pas, que l'on
oblige ou non les interviewés à répondre. Le gain d'infonuations lorsque l'on
contraint les internautes, est donc marginal.
A contrario, l'obligation de répondre risque d'être contre-productive car elle
peut pousser les répondants (dont la participation, rappelons-le, repose sur la
seule bonne volonté) à interrompre le remplissage des questionnaires. Ainsi,
lorsque la réponse est obligatoire, 55 % des internautes déclarent arrêter
parfois de répondre, et 56 % disent qu'il leur arrive de « répondre n'importe
quoi ».

Tableau 6.13 : Fréquence de pratique des activités suivantes :


exemples de résultats en %
Régulièrement Occasionnellement Jamais NSP
Jardiner, bricoler
(sans relance) 33 39 26 2
Jardin, bricoler
(avec relance) 32 41 27 -
Décorer (sans relance) 26 56 15 3
Décorer (avec relance) 26 57 17 -
Faire de la photo
(sans relance) 26 50 21 3
Faire de la photo
(avec relance) 25 52 23
Pratiquer des activités
manuelles
(sans relance) 13 32 51 4
Pratiquer des activités
manuelles
(avec relance) 14 33 53 -

24 Un message d'alerte leur était adressé en cas de non-réponse et ils ne pouvaient pas
avancer dans le questionnaire sans avoir comblé ce manque.
6. Méthodes de collecte et applications 283

On peut dès lors s'interroger sur l'intérêt de vérifications et contraintes, qui


sont parfois de fausses sécurités, et les réserver aux seules questions majeures,
ou pour lesquelles on ne peut se permettre d'absence de réponses, comme par
exemple les variables servant à redresser l'échantillon.

11.3.2 Attitude des répondants, et perception des


questionnaires « online » : deux illustrations

a) Des interviewés qui ne répondraient pas avec d'autres modes


de recueil

Le recueil on-line semble permettre d'intégrer dans les échantillons, une


proportion non négligeable de personnes que l'on n'aurait pas pu interroger
en utilisant un autre mode de collecte : 28 % des répondants à l'enquête
Profiling déclarent qu'ils n'auraient « probablement pas » ou « certainement
pas » répondu à l'étude, si le questionnaire avait été proposé sous une autre
forme (auto-administré papier, enquête au téléphone ou en face-à-face avec
enquêteur). Ce taux monte à 36 % pour les individus PCS + (cadres, petits
patrons, professions intennédiaires).

b) Des modes de remplissage diversifiés

Les répondants à l'enquête déclarent un degré de concentration très varié.

Va à l'essentiel en lisant rapidement les questions d'un


questionnaire on-line 32%
Répond selon sa première impression 46%
Interrompt souvent, de temps en temps ou rarement un
questionnaire on-line en partie complété 77%

Cette hétérogénéité des modes de remplissage a certainement un effet sur la


qualité et la précision des réponses. Optimiser la forme et l'ergonomie des
questionnaires est sans doute l'une des réponses pour pallier ces risques. Mais
ce n'est pas la seule : la longueur du questionnaire est sans doute la première
cause de la distraction des internautes (ou de leur refus de répondre).

11.4 En très rapide conclusion

Nos tests démontrent que la forme des questionnaires on-line a une influence
sur les réponses obtenues, qui peuvent varier de façon relativement
importante selon le type de présentation choisi. Ils montrent également que
les participants à ces enquêtes vivent de manière très variée le remplissage
des questionnaires. Tout ce qui pourra contribuer à homogénéiser leur
284 Enquêtes et sondages

approche, donc la comparabilité de leurs réponses, améliorera la qualité des


enquêtes.
La nature de l'interaction « répondant-questionnaire en ligne» et sa
perception par l'interviewé jouent un rôle important sur les résultats eux-
mêmes. Il est utile d'essayer de mieux les comprendre pour mieux les
maîtriser.
Chapitre 7

Échantillonnage

1. Contraintes d'équilibrage non linéaires

1
Éric LES AGE

1.1 Notations

N : la taille de la population U (nombre d'individus dans la base de


sondage).
n : la taille de l'échantillon 5.
n. : la probabilité d'inclusion de l'individu i.
Xl : est la première variable auxiliaire connue sur toute la base de sondage.
X/ : est layeme variable auxiliaire connue sur toute la base de sondage.
X/. : est la valeur prise par layeme variable auxiliaire pour l'individu z.
tx : est le total de la variable/me variable sur la base de sondage.
tx : est l'estimateur d'Horvitz-Thompson du total de la /mc variable
auxiliaire sur la base de sondage (le 71-estimateur).
R : est le ratio tx sur / v.
R : est l'estimateur de R, il est égal au ratio tx sur fv.

1.2 Introduction

Deville et Tillé (Deville, 2004) ont mis au point un algorithme pennettant


d'assurer un échantillonnage équilibré dans un contexte de probabilités

l Laboratoire de Statistique d'Enquête, ENSAI, Campus de Ker Lann, rue Biaise Pascal,
35172 ruz, France.
286 Enquêtes et sondages

inégales et avec plusieurs informations auxiliaires. Cet algorithme est appelé


« méthode du Cube » et peut être mis en œuvre grâce aux deux macros SAS
(macro Cube, Tardieu et Rousseau, 2004, et macro Fast Cube, Chauvet et
Tillé, 2006).
Un échantillon équilibré est un échantillon aléatoire qui fournit des
informations cohérentes avec ce que l'on connaît déjà de la population totale.
Dans le cas de la méthode du Cube, les estimateurs de totaux des variables
auxiliaires obtenus à partir de l'échantillon sont égaux ou proches des
« vrais » totaux calculés sur la population totale. En outre, si la variable
d'intérêt est liée aux variables auxiliaires, alors la précision de son estimation
est meilleure.
Comme on l'a mentionné ci-avant, l'équilibrage (ou le contrôle) se fait au
moyen des estimateurs Horvitz-Thompson des totaux des variables
auxiliaires. Le tirage est réalisé sous la contrainte (ou les contraintes s'il y a
plusieurs variables auxiliaires) :

X,. ^
t = t
xl.n x,. c'est-à-dire : = Z V,.
l'es ' ^ i=l

L'objet de cet article est de s'interroger sur l'utilisation de statistiques


autres que les totaux des variables auxiliaires pour contrôler l'échan-
tillonnage. D'un point de vue lexical, on parlera d'utilisation d'estimateurs
non linéaires ou complexes et d'information auxiliaire non linéaire. Ainsi,
plutôt que de contrôler le nombre d'hommes et de femmes dans la population,
on pourrait contrôler la part des femmes. On pourrait également contrôler le
salaire moyen ou médian plutôt que la masse salariale et les effectifs salariés.
La méthode du Cube fonctionnant avec des équations d'équilibrage
linéaires, on va être conduit à convertir les contraintes d'équilibrage non
linéaires (de type ratio, quartile, moyenne, dispersion,...) en équations
linéaires, c'est-à-dire qu'on trouvera un nouveau jeu de variables auxiliaires
dont il faudra estimer précisément le total.
Le fait de pouvoir contrôler l'échantillonnage en utilisant des statistiques
non linéaires ouvre de nouvelles perspectives. D'abord, ceci permet de réduire
le nombre de contraintes dans le cas d'utilisation de moyennes ou de ratios.
Ensuite, ceci permet de mieux restituer la structure de la base de sondage. On
peut ainsi conserver la dispersion d'une variable auxiliaire en plus de sa
moyenne. On pourrait même contrôler sa distribution. Des corrélations entre
variables pourraient également être conservées. On ajouterait ainsi au contrôle
des moyennes des variables auxiliaires le contrôle de la matrice de variance-
covariance.
7. Échantillonnage 287

1.3 Utilisation d'un ratio

Le ratio est un cas particulier intéressant. D'abord il s'agit d'une statistique


qui est souvent employée dans la pratique. On peut par exemple noter qu'une
moyenne est en fait un ratio lorsque la population totale n'est pas estimée sans
erreur. Par ailleurs, on verra que cette statistique, qui met enjeu un estimateur
non linéaire, peut se ramener facilement au cas « classique » d'un total. Enfin,
on passera à une mise en pratique de l'équilibrage par le ratio avec la macro
Cube. On regardera l'influence de différents jeux d'équations d'équilibrage
sur l'algorithme de tirage.

1.3.1 Équations d'équilibrage linéaires correspondant


au cas du ratio

Dans le cas du ratio, l'équation d'équilibrage s'écrit :

R = R Le. ^ = C

Ce qui se réécrit ; fv , - Rtx ^ = 0. Ou encore :

- RX,.) = 0.
tes IL.

Et par ailleurs, on a par définition :

i(x,. - Rxj = o.
1=1

Ce qui donne comme équation d'équilibrage linéaire :

I- RXJ = I(x2i - RXJ = 0.


tes i=l

L'équilibrage sur le ratio R équivaut donc à l'équilibrage sur le total de la


variable auxiliaire Z' = X,2,; - RX,1,1 .

1.3.2 Mise en pratique

On se propose dans cette partie de mettre en œuvre la méthode du Cube, avec


la macro Cube, dans le cas d'un équilibrage par le ratio. En procédant à des
simulations (100 tirages), on observera empiriquement les propriétés des
estimateurs correspondant à ce tirage équilibré (espérance et variance).
On comparera ces résultats à ceux obtenus avec d'autres contraintes
d'équilibrage.
On aura 4 jeux de simulations décrits dans le tableau ci-après. La base de
sondage utilisée comporte 10 000 unités statistiques (qui sont des grappes, par
exemple des ménages) et on utilisera deux variables : le nombre de femmes et
288 Enquêtes et sondages

le nombre d'individus par unité statistique. Dans les 4 cas, on impose d'avoir
un échantillon de taille fixe, ce qui se traduit par l'équilibrage sur la
probabilité d'inclusion.

Tableau 7.1 : Description des contraintes des 4 jeux de simulation


Simulations Variables d'équilibrage
Simulation '0' : échantillonnage de taille fixe Probabilités d'inclusion ni

71,i
Simulation '1' : équilibrage sur le nombre de femmes et
nombre de femmes X,2.1.
le nombre d'individus
nombre d'individus X,.
M
Simulation '2' : équilibrage sur le ratio nombre de

_N
femmes sur nombre d'individus

II

1
71.1
Simulation '3' équilibrage sur le ratio nombre de femmes
Z i = X2,i
?. - RX^
1,/
sur nombre d'individus et le nombre d'individus
nombre d'individus X] .

Figure 7.1 : Représentation graphique des estimations du nombre


d'individus et du nombre de femmes pour 100 simulations

Simulation 0 Simulation 1


E 2"00

20700 ♦ V
E *
.
♦ ♦ *•.
20-00
E
♦♦ ♦
OO 37000 380CO 39000 4O0OO 36000 365» 370» 375» 360» 365» 300» 395» 40000

Simulation 2 Simulation 3
TD 2-4»
O l'Z
C ♦ ♦
D
û HZ * ♦ ♦
co
o
o •.• ♦*:
♦ 205»
fM 20400
E: ♦
♦♦
>
ai
>- ...00 —
Q. «00 36500 37000 37500 3600O 36500 30000 3«50O 40000 3600° 365» 370» 375» 360» 36500 390» 395» 40000
O
u

Sur les graphiques, un point correspond à un échantillon. Ses coordonnées


sont, en abscisse, l'estimation du nombre total d'individus et, en ordonnée,
7. Échantillonnage 289

l'estimation du nombre de femmes. Dans la base de sondage utilisée pour ces


simulations, les vraies valeurs sont 38 045 individus et 20 390 femmes. Ce
qui donne un ratio de 0,5359.
On voit bien que les 3 tirages équilibrés donnent des meilleures précisions
que le tirage aléatoire simple. On remarque au passage que l'équilibrage n'est
pas parfait puisque les estimations des totaux des variables d'équilibrage ne
sont pas exactement égales aux vraies valeurs.
Les tirages équilibrés 1 et 3 sont très similaires. Il est en effet équivalent
d'imposer des contraintes sur les totaux ou sur un total et des ratios. Ceci
permettrait de fixer une fois pour toute une grandeur de taille puis de
travailler en relatif par rapport à cette taille.
Enfin, il apparaît que l'équilibrage sur le seul ratio est moins contraignant
puisqu'il tend à conserver le ratio mais n'améliore pas du tout la précision sur
les totaux du numérateur et du dénominateur.

1.4 Utilisation d'une médiane

Soit m] la médiane de la variable Alors l'équilibrage sur le total de la


variable indicatrice Z = /,v <;ii, équivaut à l'équilibrage sur la médiane.

1.5 Utilisation de la variance

Si l'on veut contrôler la moyenne et la variance d'une variable auxiliaire, il


suffit d'équilibrer sur les totaux des variables A,. et {X] ,)2.

1.6 Conclusion

On a vu qu'il était possible et facile d'utiliser le ratio, les fractiles ou la


variance comme statistiques d'équilibrage et que la mise en œuvre était quasi
directe avec les macros Sas existantes.
Pour des statistiques plus complexes, il est possible d'être conduit à utiliser
des méthodes de linéarisation identiquement à ce qui est fait pour le calcul de
variance d'estimateurs complexes.

BIBLIOGRAPHIE

Deville, J.-C., et Tillé, Y. (2004). Efficient balanced sampling: The cube


method. Biometrika, vol. 91, 893-912.
Chauvet, G., et Tillé, Y. (2006). A fast algorithm of balanced sampling.
Journal of Computational Statistics, vol. 21/1, 9-31.
Rousseau, S., et Tardieu, F. (2004). La Macro SAS CUBE d'échantillonnage
équilibré. Documentation de l'utilisateur, Paris : Insee.
290 Enquêtes et sondages

2. Sondage systématique et sondages à

support minimal

2 3
Johan PEA , Lionel QUALITÉ et Yves TILLÉ

2.1 Introduction

Le support d'un plan de sondage est l'ensemble des échantillons qui ont une
probabilité strictement positive d'être tirés. Wynn (1977) a démontré que,
dans le cas des sondages de taille fixe, pour un vecteur de probabilités
d'inclusion donné, il existe toujours un plan de sondage défini sur un support
au plus aussi grand que la population. Jessen (1969), Brewer et Hanif (1983),
et Deville et Tillé (1998), ont proposé des algorithmes fournissant des plans
de sondage à support minimal. L'intérêt de ces plans est que le faible nombre
d'échantillons permet des calculs rapides, par exemple pour les probabilités
d'inclusion du second ordre. Le sondage systématique, dû à Madow (1949),
est un sondage de taille fixe, à probabilités inégales, qui est couramment
employé. Il présente l'inconvénient que certaines probabilités d'inclusion du
second ordre sont nulles. Une manière d'essayer de corriger ce défaut est de
trier au préalable la base de sondage de manière aléatoire. Malheureusement
cette solution ne fonctionne pas toujours (voir Brewer et Hanif, 1983).
Dans la partie 2.2, nous donnons quelques définitions et un résultat général
sur les plans à support minimal. Puis, dans la partie 2.3, nous montrons que le
sondage systématique est un plan à support minimal et donnons un algorithme
permettant de calculer rapidement les probabilités d'inclusion du second
ordre. Enfin, dans la partie 2.4, nous présentons l'algorithme de Deville et
Tillé (1998), qui fournit des plans à support minimal et offre une bonne
alternative au sondage systématique puisqu'il ne présente pas le même défaut.

2.2 Définitions - Propriétés

2.2.1 Plan de sondage à support minimal

Un échantillon est une partie d'une population U = {1, TV]. Il peut


être vu comme un vecteur s = C^), ; , défini par sk = 1 si l'unité k est dans
l'échantillon et 0 sinon. Un plan de sondage est une loi de probabilité /?(.) sur
les échantillons, et la probabilité d'inclusion d'une unité (sous le plan de
sondage) est la probabilité que cette unité appartienne à l'échantillon,
7lt = p{% 3 k).

2 Office Fédéral de la Statistique, Espace de l'Europe 10, 2010 Neuchâtel, Suisse.


3 Institut de Statistique, Université de Neuchâtel, Pierre à Mazel 7, 2000 Neuchâtel,
Suisse.
7. Échantillonnage 291

Le support Q d'un plan de sondage est l'ensemble des échantillons qui ont
une probabilité strictement positive d'être tirés, Q = {s c: {7|/7(s)>0}. Le
plan de sondage est dit de taille fixe /? lorsque tous les échantillons de son
support contiennent exactement n unités. Dans ce cas, la somme des
probabilités d'inclusion vaut nécessairement /?.
Un plan p0(.) défini sur un support Q est dit à support minimal s'il
n'existe pas de plan de sondage défini sur un support strictement inclus dans
Q et possédant les mêmes probabilités d'inclusion. Wynn (1977) a prouvé
que, dans le cas des plans de taille fixe, quel que soit le vecteur de
probabilités d'inclusion, il existe un plan à support minimal défini sur au plus
N échantillons.

2.2.2 Résultat préliminaire

Le résultat 1 donne une caractérisation des plans de sondage à support


minimal. Il sera utilisé pour démontrer que le sondage systématique est un
plan à support minimal.
Résultat 1 : Soit /?(.) un plan de sondage défini sur un support Q =
{s,, ..., s}, et tt son vecteur de probabilités d'inclusion. Soit la matrice S =
(s,,...,s^), son noyau &r(S) = {uGlR'7|Su = 0}, et L ={ugE'?|XLiwa
Alors :
1. />(.) est un plan à support minimal si et seulement si
Ker(S) m: = {0}.
2. Si /?(.) est un plan de taille fixe, alors il est à support minimal si et
seulement si les échantillons dans Q sont linéairement indépendants.

2.3 Sondage Systématique

2.3.1 Définition

Soit tt un vecteur de probabilités d'inclusion tel que XL71 k = n, (FJ0</.,: v les


probabilités d'inclusion cumulées, Vk = Xti71,? K =
0, alors le sondage
systématique est défini par l'algorithme 1 :
Algorithme 1 : Sondage systématique de taille fixe.
1. Générer un nombre aléatoire u selon une loi uniforme sur [0, 1[.
2. Pour £ = 1, ..., N,

f1 s'il existe un entier y >0 tel que Vk_{ <u + j -\<Vk,

[0 sinon.

2.3.2 Minimalité

Les résultats suivants démontrent que le sondage systématique ne fait


intervenir que peu d'échantillons, au maximum autant que d'individus dans la
292 Enquêtes et sondages

population. Cette propriété assure que des algorithmes qui feraient intervenir
tous les échantillons possibles sous ce plan de sondage, tel que celui qui est
présenté au point suivant, peuvent être implémentés, et permettre des calculs
rapides.
Résultat 2 : Soit (/;),^ v le vecteur défini par rk = Vk(modl), alors, la taille
du support du sondage systématique est égale au nombre de rk distincts.
Résultat 3 : Le sondage systématique est un plan à support minimal.

2.3.3 Calcul des probabilités d'inclusion du second


ordre

Les probabilités d'inclusion du second ordre, nkl = p(s 9 k, t), sont utilisées
pour calculer la variance des estimateurs sous le plan. L'algorithme 2 donne
une méthode rapide de calcul de ces probabilités dans le cas d'un sondage
systématique. Il est implémenté dans le package 'sampling' pour le langage
4
R' (voir Tillé et Matei, 2005).
Algorithme 2 : Calcul des probabilités d'inclusion du second ordre pour le
sondage systématique.
1. Calculer les r(0, i = 1, TV; r(iV+l| = 1,
2. Pour i = 1, ..., N :
a. calculer les probabilités p{s) = r(^li - r((),
b. calculer u, = (r<:tl) + r(0)/2,
c. calculer s( = (s,,, sj où

1 s'il existe un entier j>Q tel que Vk_x < u. + j - 1<FA,

0 sinon.

3. Finalement, la matrice des probabilités d'inclusion du second ordre est


donnée par :

n= Lss>(s).

2.4 Plan aléatoire à support minimal

2.4.1 Algorithme de Deville et Tillé

Le sondage systématique présente l'inconvénient que, même lorsque la base


de sondage est au préalable triée aléatoirement (sondage systématique
randomisé), des probabilités d'inclusion d'ordre deux peuvent être nulles.
Deville et Tillé (1998), ont proposé un algorithme qui permet de choisir un
plan de sondage à support minimal, et tel que toutes les probabilités
d'inclusion du second ordre soient strictement positives. Cet algorithme est
défini comme suit :
7. Échantillonnage 293

Algorithme 3 : Sondage à support minimal de Deville et Tillé.


1. Poser 7t(0) = tt,
2. Pour / = 0, 1, 2 et jusqu'à l'obtention d'un échantillon, c'est-à-dire
d'un vecteur Ti(t) ayant toutes ses coordonnées dans {0, 1},
a. poser Ai = {k\nk{t) = 0}, B = {k\nk(t) = 1} et C =
I 0 < 71,(0 < 1},
b. choisir (de manière aléatoire ou non), un sous ensemble Di de
C, composé de « - Card{B) unités,
c. poser
0 si k<E.Ai U (CJD),
Kk =
1 si k(=Bi U D ,

a(t) = minjl - maxKk(t), min 71^(7)},


keD,
et
0 si keA^

1 si keB,

K = si ke(Ci /D ),
1 - a(/)

7tt(0 - a(0
si keD:,
1 - a(0

d. choisir
ti" avec la probabilité a(7),
71(7 + 1) =
n avec la probabilité 1 - a(7).

2.4.2 Discussion

L'algorithme 3 peut, tout comme le sondage systématique randomisé, être vu


comme une procédure permettant d'implémenter des plans de sondage à
support minimal. En laissant libre le choix des ensembles D, il permet
d'inclure n'importe quel échantillon dans un plan à support minimal, et
garantit ainsi que les probabilités d'inclusion du second ordre découlant de
l'ensemble du processus sont strictement positives. On peut par exemple
choisir Z) par sondage aléatoire simple à chaque étape.
Dans ce cas, le fait que tous les échantillons aient une probabilité
strictement positive laisse penser que ce plan de sondage possède une entropie
plus élevée que le sondage systématique randomisé. Cette caractéristique est
en général importante pour justifier l'emploi d'arguments asymptotiques du
type théorème central limite (voir Brewer et Donadio, 2003 ; Berger, 1998).
Cet algorithme est implémenté dans le package 'sampling' pour le langage
'R', et est disponible sur le site http://cran.r-project.org/.
294 Enquêtes et sondages

BIBLIOGRAPHIE

Berger, Y. (1998). Rate of convergence for asymptotic variance for the


Horvitz-Thompson estimator. Journal of Statistical Planning and Inference,
vol. 74, 149-168.
Brewer, K., et Donadio, M. (2003). La variance sous grande entropie de
l'estimateur de Horvitz-Thompson. Techniques d'enquête, vol. 29-2, 213-
220.
Brewer, K., et Hanif, M. (1983). Sampling with Unequal Probabilities, New
York : Springer-Verlag.
Deville, J.-C., et Tillé, Y. (1998). Unequal probability sampling without
replacement through a splitting method. Biometrika, vol. 85, 89-101.
Jessen, R. (1969). Some methods of probability non-replacement sampling.
Journal of the American Statistical Association, vol. 64, 175-193.
Madow, W. (1949). On the theory of systematic sampling, IL Annals of
Mathematical Statistics, vol. 20, 333-354.
Tillé, Y., et Matei, A. (2005). The R package Sampling. The Comprehensive
R Archive Network, http://cran.r-project.org/, Manual of the Contributed
Packages.
Wynn, H. (1977). Convex sets of finite population plans. Annals of Statistics,
vol. 5,414-418.

3. Échantillonnage sous contraintes à

entropie maximale : un algorithme

rapide basé sur l'optimisation linéaire

en nombres binaires

Philippe PÉRIÉ4

3.1 introduction

En 2003, TNS Sofres était à la recherche d'un outil de tirage d'échantillon


sous contraintes, en particulier pour les cas de contraintes sur quotas
marginaux. Une méthode a été développée et implantée en de nombreux
points de notre chaîne de production. Bien qu'il s'agissait de répondre à un
problème de capacité et de temps de traitement avec les procédures
disponibles, elle s'est avérée beaucoup plus efficace que prévu et sa versatilité
a permis de l'appliquer facilement à de nombreux problèmes connexes. On en
présente l'algorithme et quelques exemples d'applications.

4 Directeur Scientifique - TNS Sofres - philippc.pcrie@tns-sofrcs.coin.


7. Échantillonnage 295

3.2 Méthode

3.2.1 Formulation du problème

Considérerons une population U de N unités pour laquelle on connaît les


valeurs de p variables auxiliaires sur tous les individus, ce qui définit p
vecteurs Z/= = 1,p. Un échantillon est un sous
ensemble 5 de U, on peut aussi considérer les N variables indicatrices
d'appartenance à l'échantillon : {x^xv} avec = 1 si k e s.
Supposons que l'on veuille tirer sans remise un échantillon avec Q
contraintes linéaires Yjxkzk, - C pour â: g 5. On obtient alors un problème
d'allocation sous contraintes puisque l'on a un triplet X, D, C où
X = {Xp..., xv} est un ensemble fini de variables, D = {D,,Dv} un
ensemble fini de domaines définissant les ensembles des valeurs possibles
pour les variables x, et C = {C,,..., CJ un ensemble fini de contraintes
restreignant les valeurs que les variables peuvent prendre simultanément.
L'ensemble des solutions 5 de ce problème est :

S = |s e {0; I}" 2>tz > C pour k e e {\,...,p},q e


\ ktS J

Cet ensemble représente le support du plan de sondage et 5 un des


échantillons possibles. Un plan de sondage est une distribution /?( ) sur cet
ensemble. Si l'on considère l'ensemble de tous les échantillons possibles et en
l'absence d'autre information, on se dit qu'un bon plan de sondage n'a aucune
raison d'en privilégier un plutôt qu'un autre : un tel plan est dit à entropie
maximale.
Une idée simple pour implémenter un tel plan de sondage serait de lister
l'ensemble des solutions puis en tirer une au hasard. Envisageable avec de
petites populations, cela devient impossible pour des échantillons plus gros.
La méthode que nous proposons, évite d'évaluer une énumération complète
grâce à une technique de parcours 'intelligente' de l'ensemble des solutions
dite de 'Branch and Bound'.

3.2.2 Algorithme de tirage

On résout un problème d'optimisation sous contraintes particulier : un plan de


sondage sans remise correspond simplement à des restrictions particulières
sur les éléments du 4-uple X,D,C,§ associé à ce problème :
- X = et D = {Z),,...,DJ = {0;1}V : les unités sont choisies
ou non.
x z
- C = {C,,..., C } avec k kl - C, '• les contraintes sont linéaires.
- <\> est la fonction objectif à optimiser : Pour réaliser un tirage
aléatoire, il suffit de définir (|) simplement comme une fonction
296 Enquêtes et sondages

linéaire dont tous les coefficients sont tirés aléatoirement dans une loi
uniforme sur [0, 1]. Cette définition va assurer l'égalité des p{s) et
donc assurer que l'on réalise le tirage le 'plus aléatoire' parmi les
échantillons obéissants aux contraintes.

Algorithme
1. Associer à chaque unité x. de la population un coefficient w tiré
uniformément dans [0, 1]
2. Poser le problème d'optimisation linéaire suivant :
N
(|) = Emx,
min
sic > C et xk g [0;1]V£ g {1,..., N]
keS
3. Résoudre le problème en utilisant une méthode efficace spécialisée
pour ce type de problème, une technique de 'Branch and Bound'.

Le principe général des techniques de 'Branch and Bound' est une


technique de 'divide and conquer' qui consiste à éviter d'évaluer l'ensemble
des solutions possibles en divisant cet ensemble en éléments plus simple à
parcourir, en choisissant bien comment le parcourir, en dégradant les
problèmes complexes en problèmes plus simples, et en utilisant des bornes
sur les meilleures solutions trouvées dans tous les sous problèmes, pour éviter
de parcourir des branches qui n'amélioreraient pas la solution, Et ce, tout en
garantissant que la solution trouvée est la solution optimale. La méthode a été
proposée dès le début des années 1960 par Land et Doig (1960).
Plus précisément, notre méthode implémente une approche composite de
type 'Branch and eut' dans laquelle les dégradations ('relaxations'), mais
aussi les problèmes en nombres entiers eux même sont résolus avec
l'algorithme du point intérieur, plus rapide que le simplexe quand c'est
possible (Mitchell, 1994). Le point intérieur permet en outre de gérer les
problèmes d'arrondi lorsqu'une solution d'équilibrage exacte n'est pas
possible.
Notons que sur de très petits échantillons, lorsque les éléments zkj ne sont
pas binaires, on perd l'interchangeabilité totale entre les unités, et on peut
rencontrer des problèmes d'arrangement de type 'Knapsack' : les probabilités
d'inclusion croisées ne sont alors plus exactement respectées. Ce n'est pas
limitant car cela survient sur de très petits échantillons avec des contraintes
dont les coefficients sont forts par rapport aux totaux demandés. De plus dès
qu'il en a la possibilité, le praticien raisonne sur des variables binaires pour
ses contraintes, car elles offrent un meilleur contrôle sur les distributions des
variables : par exemple chiffre d'affaires en 5 tranches, plutôt que moyenne
de chiffre d'affaires.
7. Échantillonnage 297

3.2.3 Variance des estimateurs

Proposer une expression exacte de la variance pour l'estimation d'un total par
exemple, suppose que l'on soit capable de calculer exactement les probabilités
d'inclusion d'ordre 1 et d'ordre 2 :

s = ft (p) = p[i s S > c ) et ft = TC,(p) = p[ij e .s > C ).

Notre méthode est très générale dans la forme, le nombre et les


dépendances entre contraintes. Il est donc très difficile de la ramener à des cas
simples pour lesquels il existe des techniques de calculs évitant un
dénombrement pour calculer les probabilités d'inclusion (Aires, 2000 ; Matei,
2005 ; Deville et Tillé, 2005).
Actuellement, les méthodes de résolution des Constrained Satisfaction
Problems (Tsang, E., 1993 ou Kumar, 1992) permettent d'évaluer les cardi-
nalités des ensembles de solutions de problèmes complexes pour des
populations jusqu'à l'ordre du millier. Pour au-delà nos simulations nous ont
permis de vérifier qu'on obtient de très bonnes approximations en utilisant
des procédures de calage pour approcher ce calcul des 7t, et en utilisant une
variance résiduelle en application du fameux 'residual trick'.

3.3 Exemples d'application

La formulation présentée permet de traiter directement et très facilement de


nombreux problèmes posés au statisticien d'enquête. Il suffit de jouer sur les
contraintes, les bases de sondage et les valeurs des coefficients assignées aux
unités.
Le sondage aléatoire simple sans remise, le sondage stratifié avec taux de
sondage égaux ou non, le tirage équilibré sont des cas particuliers
d'application immédiate. Notons qu'un trop grand nombre de contraintes sur
un trop petit échantillon conduit à une diminution importante du support et
donc un effet inverse sur la variance à celui que l'on veut obtenir : par
exemple plutôt que de vouloir un total de population ou de chiffre d'affaires à
l'unité près, il est plus raisonnable de demander un équilibrage sur des
encadrements à plus ou moins 1 ou 2 %, et caler ensuite. La formulation en
problème d'optimisation permet de rentrer sans difficulté ce type de
contraintes.
Si l'on veut implémenter des tirages avec remise, il ne suffit pas de changer
les domaines en D = {0; 1; 2;...., k} au lieu de D = {0; 1} V/i, puisque chaque
unité reste toujours attachée à la même valeur u.. Une approche simple qui
profite de l'efficacité de la méthode sur de gros fichiers consiste à considérer
une base de sondage constituée de beaucoup de réplications (une centaine) de
la base de sondage de départ, puis de tirer dedans.
298 Enquêtes et sondages

Dans les panels, pour des analyses longitudinales, on cherche souvent à


maximiser le recouvrement entre deux échantillons dans le temps afin
d'obtenir une meilleure estimation des statistiques dépendantes des variables
corrélées dans le temps. On parle de coordination positive. Inversement, pour
mieux répartir la charge des participants au cours des sollicitations on peut
chercher à minimiser ce recouvrement. On parle de coordination négative.
Pour maximiser un recouvrement, on considère une base de sondage
comprenant les répondants à la période précédente ainsi que les individus qui
serviront à 'combler' les pertes. On donne aux individus tirés à la première
phase la valeur zéro pour être sûrs qu'ils soient tirés. On lance alors un tirage
en se calant sur les contraintes de l'échantillon de départ, pour simplement
'combler' les trous.
Pour minimiser un recouvrement, on procède de la même façon, mais en
donnant maintenant aux individus déjà sélectionnés la valeur 1 : ils ne seront
pris que s'il n'y en a pas d'autres disponibles.

3.4 Conclusion

Très opérationnelle et possédant de bonnes propriétés statistiques, la méthode


peut apparaître comme inefficace (énumération, puis sélection d'un
échantillon par optimisation d'une quantité aléatoire...). Bien au contraire, les
méthodes modernes permettent de l'exécuter très efficacement : l'algorithme
est de l'ordre de Oiji). Le programme dans son implémentation SAS est
toujours entre 100 et 10 000 fois plus rapide que Cube, même dans sa version
plus rapide (Chauvet et Tillé, 2006). Il a été testé sur PC sur des fichiers de
millions d'individus.
La méthode de tirage est implémentée dans une macro SAS par de simples
combinaisons d'appels aux procédures d'optimisation linéaire de SAS®/OR,
la gestion des E/S étant tout de même optimisée. On dispose d'un ensemble
de choix entre stratégies de parcours, de séparation, de relaxation, et de
résolution de l'ensemble des solutions. Sa formalisation très simple permet en
outre de traiter directement et très facilement de nombreux problèmes posés
au statisticien d'enquête tels que : échantillonnage, coordination d'échan-
tillons, appariement d'échantillons, estimation de variance par rééchan-
tillonnage.

BIBLIOGRAPHIE

Aires, N. (2000). Techniques to calculate exact inclusion probabilities for


Conditional Poisson sampling and Pareto nps sampling designs. Thèse de
doctorat Gôteborg, Dept. of Mathematical Statistics, Chalmers University
of Technology, Suède.
7. Échantillonnage 299

Deville, J.-C., et Tillé, Y. (2005). Variance approximation under balanced


sampling. Journal of Statistical Planning and Inference, vol. 128, 411-425.
Chauvet, G., et Tillé, Y. (2006). A Fast Algorithm of Balanced Sampling.
Computational Statistics, vol. 21, 53-61.
Kumar, V. (1992). Algorithms for Constraint-Satisfaction Problems: A
Survey, AI Magazine, vol. 13, 32-44.
Land, A.H., et Doig, A.G. (1960). An automatic method for solving discrète
programming problems. Econometrika, vol. 28, 497-520.
Matei, A. (2005). Computational aspects of sample surveys. Thèse de
doctorat, Université de Neuchâtel.
Mitchell, J.E. (1994). Interior Point Algorithms for Integer Programming
R.P.L Rapport technique, No. 215, Department of Mathematical Sciences
Rensselaer Polytechnic Institute.
SAS Institute Inc. (2007). SAS/OR ® 9.1.3 User's Guide: Mathematical
Programming 3.2. Cary, NC : SAS Institute Inc.
Tsang, E. (1993). Foundations of Constraint Satisfaction, Londres :
Académie Press.

4. Amélioration de l'allocation de Neyman

en tenant compte de la précision dans

les strates de publication

5
Malik KOUBI et Sandrine MA THERN

4.1 Objectifs de l'étude

L'allocation de Neyman estime avec la plus grande précision possible la


moyenne d'une variable d'intérêt sur l'ensemble de la population étudiée. Elle
peut en revanche souffrir d'imprécision lorsqu'on s'intéresse à des sous-
parties de cette population, comme les regroupements de publication des
résultats. Cet article présente une méthode d'optimisation qui modifie
l'allocation de Neyman afin de respecter un seuil minimal de précision, fixé à
l'avance, dans toutes les strates de publication et ceci sans trop en détériorer
la précision globale.
Le tableau ci-après illustre ce principe lors d'une estimation de la masse
salariale versée en France en 2004 sur une base d'établissements issus des
déclarations annuelles de données sociales (DADS). Les précisions des
estimateurs sont mesurées au niveau de l'ensemble de la population et par
secteur d'activité avec leur coefficient de variation (CV).

5 Insce, 18 Bd Adolphe Pinard, 75675 PARIS, CEDEX 14 France.


300 Enquêtes et sondages

L'allocation de Neyman donne un bon résultat au niveau de l'estimateur sur


l'ensemble de la population (CV = 0,44 %), mais est plus imprécis au niveau
de certains secteurs d'activité comme les services personnels et domestiques,
le secteur de l'habillement et l'industrie textile. L'allocation sous contrainte
de précision locale permet d'avoir un CV d'au plus 3 % dans tous les secteurs
d'activité en détériorant très peu la précision de l'estimateur global
(CV = 0,49 %). Par rapport à l'allocation de Neyman, un supplément
d'unités à sélectionner a été attribué aux secteurs où la précision est trop
faible, au détriment de ceux où la précision est bonne.
C'est à ce résultat que la méthode proposée ici aboutit.

Tableau 7.2 : Exemple de réallocation de Neyman pour un échantillon de


taille 10 000 et une précision minimale cv = 3 % pour
tous les secteurs d'activité
Nombre
Nombre
d'unités à
CV avec CV avec d'unités à
sélectionner Différence
Secteurs allocation allocation sélectionner
selon d'unités à
d'activité de contrainte selon
l'allocation tirer
Neyman (CV < 3 %) l'allocation de
contrainte
Neyman
(CV < 3 %)
Ensemble
des secteurs 0,44 % 0,49 % 10 000 10 000

Habillement 6,5 % 2,9 % 49 187 138


Industrie
textile 6,0 % 3,0 % 46 161 115
Commerce
de gros 1,8% 2,3 % 685 469 -216
Activités
financières 1,6% 2,0 % 742 552 -190
Conseils et
assistance 1,5% 1,9 % 1 321 927 -394
Services
personnels,
domestiques 11,9 % 3,0 % 21 254 232

4.2 Méthode proposée

Le but est d'améliorer la précision « locale » de l'allocation de Neyman,


c'est-à-dire la plus mauvaise précision obtenue pour les estimateurs
correspondant aux strates de publication, sans trop détériorer sa précision
globale.
Pour cela, on ajoute à l'optimisation traditionnelle de Neyman (voir Ardilly,
2006), une contrainte de précision locale, qui exprime que la précision est
7. Échantillonnage 301

meilleure qu'un certain seuil fixé à l'avance dans chaque strate de publication.
Plusieurs degrés d'agrégation sont distingués :
- la strate d'échantillonnage, notée h parmi H strates d'échantillon-
nage, desquelles sont tirées les unités interrogées.
- la strate de publication, notée p parmi P strates de publication,
auxquelles sont diffusés les résultats issus d'une enquête.

On se place dans le cadre simplifié où chaque strate de publication est une


réunion d'une ou de plusieurs strates d'échantillonnage. On se propose alors
de résoudre le programme suivant :
r 2 f
Min^f) = Z PO 1| SA
"i. n,, (1)
[n) V
var h

s/c Y^n = n (2)


(DK

s/c nh < Nli (3)

s/c Max Cf < CVseml, (4)


PeP "
V

avec Y la moyenne d'une variable d'intérêt Y que l'on souhaite estimer ;


n/, le nombre d'unités à sélectionner dans la strate h parmi Nh individus ;
S2y, h la variance de Y dans la strate h ;
n la taille de l'échantillon à tirer, CVseui/ le seuil de précision fixé.

L'optimisation (1) et la contrainte (2) correspondent au problème de


Neyman. On minimise la variance globale d'un estimateur sous la contrainte
d'une taille d'échantillon fixée. Les contraintes (3) et (4) sont nouvelles par
rapport à l'approche classique :
- les contraintes (3) pennettent de s'assurer que le nombre d'unités
tirées dans chaque strate est bien inférieur au nombre d'unités
présentes dans celle-ci ;
- les contraintes (4) sont les contraintes de précision locale. Elles
expriment que le plus grand des coefficients de variation dans les
strates de publication doit être inférieur à un seuil de précision que
l'on s'est fixé à l'avance. C'est la véritable nouveauté qu'apporte
cette étude.

Pour résoudre ce programme d'optimisation (I), on procède en deux étapes.


Premièrement, on traduit les contraintes de précision locale en termes de
nombre d'unités à tirer dans les strates d'échantillonnage. Deuxièmement, on
décrit l'algorithme qui permet de résoudre le problème d'optimisation avec
les contraintes ainsi reformulées.
302 Enquêtes et sondages

4.2.1 Traduction plus simple des contraintes de


précision locale

Les contraintes de précision


* locale dans les strates de publication
1 CV<CV
p seuil
sont remplacées par des contraintes portant sur les strates d'échantillonnage
de la forme : n,/; >17,//mmv(CVseuil,).
s Une précision
r souhaitée dans une strate de
publication p, implique de tirer un nombre minimal d'unités dans chaque
strate d'échantillonnage qui compose p. Le nombre minimal de questionnaires
nlimm à tirer en fonction du seuil de précision locale choisi, est déterminé en
inversant la fonction qui à un vecteur (/?,, r attribue une précision CL
dans le cadre de l'allocation de Neyman. On obtient ainsi une table de
données liant la précision dans une strate de publication et le nombre d'unités
à tirer dans chaque strate d'échantillonnage qui la compose.

4.2.2 Résolution de l'optimisation sous contrainte

La traduction plus simple des contraintes de type (4), nous amène à la


résolution du programme suivant :
r
h nAS2v.h
Min V(Y) = Z 1 - (1)
yN y N 'h

(H) s 11
s/c Zn, - n
(2)

s/c (n,.JCK.J ^ nh < Nh)M H


v

avec Y la moyenne d'une variable d'intérêt Y que l'on souhaite estimer ;


tih le nombre d'unités à sélectionner dans la strate h parmi Nh individus ;
S2yth la variance de Y dans la strate h ;
n la taille de l'échantillon à tirer, CVseuii le seuil de précision fixé ;
n,//minV(CVseuil'
,) le nombre minimal d'unités à sélectionner pour
^ respecter
* le seuil
de précision CVseuil„ n,//mm (CVseuil'
1 7 v .,) étant connu quelle que soit la valeur de h
1 1

grâce à l'étape précédente.

Afin de résoudre ce problème d'optimisation désormais simplifié, on


s'attache ensuite à étudier les contraintes de type (3 + 4). Pour cela, on fait
varier la taille d'échantillon n et on visualise la désaturation et saturation6
successive de ces contraintes lorsque n augmente. Le raisonnement est le
suivant :

6 Une contrainte de type (3 + 4) sature lorsque l'une des deux inégalités est une égalité
«/, = (CL^,.,)ou nk = N,,.
7. Échantillonnage 303

- il est facile de voir que si on connaît à l'avance l'ensemble des


contraintes saturantes, on se ramène à un problème classique de
Neyman, dans lequel n'interviennent que les strates où aucune
contrainte n'est saturée et dans lequel la taille d'échantillon est
diminuée de la valeur des contraintes saturées.
- or, il est possible de déterminer l'ordre de saturation des contraintes
quand la taille globale de l'échantillon n augmente.
- ainsi, connaissant l'étape précédente, on peut effectivement
déterminer pour chaque taille d'échantillon n, la liste des contraintes
saturantes, ce qui résout le problème.

Le but est de connaître, en fonction de la taille d'échantillon n retenue pour


notre échantillonnage final, l'ensemble des strates saturées, pour ensuite
appliquer l'optimisation de Neyman aux seules strates non saturantes.
L'ordre de saturation des contraintes est détenuiné à l'aide de paramètres
connus au niveau de la strate (nhmm,NPlus précisément, on montre que
l'ordre de saturation est donné par l'ordre des quantités suivantes :

N n
Ordre./i.max = N
,r * J' Ç et Ordre. = N,
.T * S, •
n n n n

Ordre,/i,max donne l'ordre de saturation des contraintes Max(/î,


v /; = N,),
/i-" et
Ordre,/?,min donne l'ordre de désaturation des contraintes Min(/iv h = n,«min'').
Lorsque la valeur de n augmente, la première contrainte qui sera saturée est
celle pour laquelle Ordreh mix est la plus petite et la dernière celle pour laquelle
Ordre/i m x est la plus grande. Il en va de même pour la désaturation des
contraintes donnée par Ordre, .
La taille d'échantillon n{hn) pour laquelle chaque contrainte de la strate h{]
sature (respectivement désature) s'en déduit :

N
0
n{K)
v 0' = nsal + „
AT Hî'" o y * X N.h * S.h et Nm0 = n.hg min ou N.h0 selon le cas,'
' "oi, 'J ''o/, lieHnonsul

avec Hnonsal l'ensemble des strates non saturantes et n sal la taille de l'ensemble
des strates saturées.
Pour une taille d'échantillon fixée, on connaît donc grâce à la variable
Ordre, l'ensemble des strates saturantes, ce qui résout le problème d'après les
remarques précédentes.

4.3 Concept de frontière d'efficacité

La méthode décrite, appliquée pour différentes valeurs de CFvm/ et différentes


tailles d'échantillon, permet d'illustrer le dilemme entre précision globale et
locale d'un estimateur, à travers le graphe de la frontière d'efficacité. Il s'agit
de l'ensemble des couples (précision globale CF/()W, précision locale
304 Enquêtes et sondages

minimale CVwiii/ ) réalisables pour une taille d'échantillon donnée. Le


graphique ci-contre illustre ce concept, lors d'une estimation de la masse
salariale distribuée en 2004, pour différentes tailles d'échantillon et une
publication des résultats par secteur d'activité x taille d'établissement.

Figure 7.2 : Frontière d'efficacité et allocation de Neyman pour


différentes tailles d'échantillon et une publication
en neslô x taille d'établissement
0,8%

0,7% V

Taille
0,6% d'échantillon
ra
n
o
c 0,5% \ — 5000
c
0 10000
en \ , ,,,
20000
1 0,4% 30000
— " 40000
5 0,3% 50000
o - - - - a X Neyman
ra ^
O 0,2%
... — .X.
0,1%

0,0%
1.7% 2,0% 2,3% 2,6% 2.9% 3,2% 3,5% 3,8% 5,0% 20,0% 35,0% 50,0%
CV seuil (précision locale)

Note de lecture :
Pour une taille d'échantillon w = 20 000, le CVseuii peut être ramené de 24,4 %
(allocation de Neyman) à 3,2 % (allocation sous contrainte) avec une perte de
précision globale de 0,07 point (passage du CVg,obai de 0,27 % à 0,34 %).

Ce graphique montre que la précision locale obtenue avec l'allocation de


Neyman (notée par une croix sur le graphique précédent) peut être
sensiblement améliorée au prix d'une dégradation minimale de la précision
globale de notre estimateur : le minimum de la variance globale est un
minimum plat.
La frontière d'efficacité constitue une aide à la décision précieuse pour
l'échantillonnage, car elle synthétise les différents arbitrages devant lesquels
le statisticien est placé.

BIBLIOGRAPHIE

Ardilly, P. (2006). Les techniques de sondage, Paris, Technip.


7. Échantillonnage 305

5. Coordination des échantillons en

utilisant la sélection contrôlée

Mina MATE!7

5.1 Introduction

On utilise souvent dans des enquêtes répétées, et dans autres types d'enquêtes,
des échantillons coordonnés pour minimiser ou maximiser leur recouvrement.
Pour réaliser le recouvrement des échantillons, plusieurs méthodes ont été
proposées dans la littérature : des méthodes basées sur la programmation
mathématique (programmation linéaire et problème de transport) et des
méthodes basées sur des nombres aléatoires permanents. La coordination des
échantillons peut être positive ou négative. Dans le premier cas, on cherche à
retenir le plus longtemps possible les mêmes unités dans nos échantillons.
Dans le deuxième cas, on cherche à réaliser le contraire, afin de pouvoir
diminuer le fardeau d'une unité sélectionnée et de favoriser sa réponse.
Dans le cas de deux échantillons, on mesure la coordination des deux
échantillons par la taille de leur intersection. Cette taille est généralement
aléatoire, mais son espérance est limitée par des bornes théoriques. On réalise
une coordination optimale (positive ou négative) dans le cas où l'espérance de
la taille est égale à ces bornes. La plupart de méthodes de coordination
réalisent une coordination sous-optimale, mais elles donnent une meilleure
coordination que dans le cas des échantillons tirés indépendamment.
Nous expliquons d'abord ce qu'est la coordination maximale d'échantillons
et les conditions pour l'obtenir. Nous décrivons ensuite la méthode de la
sélection contrôlée des échantillons et l'application de cette méthode à la
coordination des échantillons. Enfin, nous donnons un exemple d'utilisation
de cette méthode.

5.2 Coordination maximale

Soit une population U - {1,..., N} que nous supposons constante pour


2
simplifier. Nous considérons deux plans p et p définis sur U. Soient deux
2
échantillons sélectionnés selon les plans /?' et p et notés 51 ciU et cz f/.
Les probabilités d'inclusion du premier ordre d'une unité k £ U sont notées
par Kk et n] pour p] et p2, respectivement. Soit le plan bidimensionnel p.
Chaque unité k e U a la probabilité d'inclusion jointe dans les deux
2
échantillons notée n' = ?r(k e s\ k e s ) = s')- Étant donnée

7 Institut de statistique, Université de Neuehâtel, Pierre à Mazel 7, 2000 Neuchâtel,


Suisse (alina.matei@unine.ch). Cette recherche a été soutenue par le Fonds national
suisse de la recherche scientifique (numéro de projet PI012—117192/1).
306 Enquêtes et sondages

p, deux échantillons s1 et sont coordonnés si p{s\ s2) * p\s])p2(s2). Soit


1 2 2 2
12 la taille de l'intersection 5 n 5 . Il résulte des définitions de k,,k
k' k, et tt!k
que : max(0,7r; + tt2 - 1) < < min^, tt2).
De plus
m g
E(nu) = X<2 = IZc p ,
keU i=l >=1

C, = %' n r),/7a = p(s;,s^


et m, q sont les nombres de tous les échantillons possibles pour le premier et
le deuxième plan, respectivement. Nous nous intéressons à la coordination
positive et nous disons que la coordination positive est maximale si :

£■(«,,) = K = Zmin«,7iJ).
keU keU
La quantité min(7q,7i:2) est nommée la borne absolue supérieure. Cette
borne n'est pas toujours atteinte. La coordination est maximale en utilisant la
méthode de Keyfitz (1951), dans le cas d'un plan stratifié et pour une seule
unité tirée par strate, et dans le cas d'utilisation des plans de Poisson. Dans
Matei et Tillé (2005), nous avons donné quelques conditions pour obtenir la
coordination maximale. Nous rappelons ici ces conditions :
Proposition ; On définit l'ensemble des unités croissantes 7=
2
{kE:U\Ti\<Ti k} et l'ensemble des unités décroissantes D = {k e U \ Kk > n]}
avec U = /uD,7nZ) = 0. La borne absolue supérieure est atteinte si et
seulement si les deux conditions suivantes sont remplies :
a) si (s1 - s2) n / ^ 0 alors p^ = 0;

b) si (52-5l)nZ)^0 alors /?,;=0 pour tous i g {l,..,m}, / g {1,..,^}.

Dans Matei et Tillé (2005), nous avons proposé de résoudre le problème de


la coordination positive en appliquant la procédure Itérative Proportional
Fitting (IPF). Notre approche consiste à construire la matrice P = (/?..),^ en
mettant des valeurs zéro à l'aide de la proposition ci-dessus. Les valeurs non-
nulles de la matrice sont calculées ensuite en fonction des contraintes définies
par les probabilités marginales p\p\ en utilisant la procédure IPF. Notre
méthode assure que la borne absolue supérieure est atteinte, mais il y a des
cas ou elle ne peut pas être appliquée. Il s'agit des cas ou soit une ligne, soit
ne
une colonne de la matrice P = (/?,),„ , contient que des zéros. Dans ce cas,
les contraintes définies par les probabilités marginales ne sont pas respectées
et on ne peut pas réaliser la coordination maximale. Nous proposons une
solution à ce problème en utilisant la méthode de la sélection contrôlée (en
anglais, « controlled sélection method »).
7. Échantillonnage 307

5.3 Méthode de la sélection contrôlée

Etant donné un plan x, la méthode de la sélection contrôlée (Goodman et


Kish, 1950) consiste à sélectionner quelques échantillons 5, définis comme
non-préférés, avec une probabilité ^ .v(^), en préservant les probabilités
d'inclusion du premier ordre. Les plans jf, x sont nommés le plan contrôlé et
le plan non-contrôlé, respectivement. Rao et Nigam (1992) ont proposé
l'utilisation de la programmation linéaire pour la sélection contrôlée.
Nous considérons le cas de deux plans avec des tirages simultanés. Nous
définissons :

S' = {i e{l,..,m}|/?a= 0,\/j e {l,...,q]},S'2 = {Je{l,..,q}\p..=0yi e

Soit le programme linéaire suivant :

min Y. *0,')' (!)

sous contraintes

=K'k e u x s
, ( 'i) >= 0,1 e = i.

avec t = \,2 Qt qq = q si t = 1 et qq = m si t = 2. Le programme


linéaire (1) est celui proposé par Rao et Nigam (1992).
Nous proposons une méthode basée sur l'application de la sélection
contrôlée pour obtenir une coordination maximale. Les étapes à suivre sont :
1. construire la matrice P en mettant des zéros à l'aide de notre
proposition ;
2. s'il y a quelques lignes i et/ou quelques colonnes j dans cette
matrice ne contenant que des zéros, résoudre le problème (1) pour
obtenir des nouvelles probabilités p' et/ou p2\ avec p'X5') ~ 0
et/ou P' Xs]) ~ 0 ;
3. appliquer la procédure IPL pour obtenir les probabilités conjointes
qui sont différentes de 0 ; si la procédure IPL ne converge pas,
résoudre le problème (2) ci-dessous.

Soit PP = {5. = {s],s]) | = 0, z = = {1,...,^}}. La méthode de


la sélection contrôlée peut aussi être appliquée en utilisant le programme
linéaire suivant :

min X p (2)
P Sj^PP

sous contraintes P = ^ = min(7rI,,7rA2),VÂ: g U,p >= 0,Vz g {l,...,m},


= 1.
Exemple. Nous donnons un exemple d'utilisation de notre méthode, en
reprenant un exemple donné par Causey et al. (1985). Dans ce cas,
U = {1,2,3,4,5}, < = {0,5; 0,06; 0,04; 0,6; 0,1}, 7t; = {0,4; 0,15; 0,05; 0,3; 0,1}.
308 Enquêtes et sondages

Les échantillons possibles pour le premier plan et leurs probabilités sont


respectivement :

{1}, {2}, {3}, {4}, {5}, {1,4},{1,5}, {2,4}, {2,5}, {3,4}, {3,5}, {} et
0,15; 0,018; 0,012; 0,24; 0,04; 0,3; 0,05; 0,036; 0,006; 0,024; 0,004; 0,12.

Les échantillons possibles pour le deuxième plan sont : {!}, {2}, {3},{4},
{5}. Nous supposons que les deux plans sont avec des tirages simultanés.
Nous avons / = {2, 3, 5} et D = {1, 4}. En utilisant notre proposition, les
échantillons {2,5} et {3,5} pour le premier plan n'ont que des zéros dans
leurs lignes dans la matrice P. Nous résolvons le programme linéaire associé
au problème (1), ayant comme plan initial le premier plan. La solution
obtenue est : p^={0,?>\ 0; 0; 0,4; 0; 0,1; 0,1; 0,06; 0; 0,04; 0; 0}. Les probabi-
lités pour les échantillons suivants sont nulles: {2}, {3}, {5}, {2,5},
{3, 5}, {}. Pour le deuxième plan, il n'y aucune colonne dans la matrice P ne
contenant que des zéros. Pour le premier plan, nous prenons en compte dans
la procédure IPF seulement les échantillons avec des probabilités non-nulles :
{1}, {4}, {1, 4}, {1, 5}, {2, 4}, {3,4}. Le résultat de la procédure IPF (la
matrice P) et la matrice C = (c ) sont donnés ci-dessous :
1*
{1} {2} {3} {4} {5} p

{1} 0.3 0 0 0 0 0,30 1 0 0 0 0

{4} 0 0,09 0,01 0,3 0 0,40 0 0 0 1 0

{1,4} 0,1 0 0 0 0 0,10 1 0 0 1 0


,c =
0,5} 0 0 0 0 0,1 0,10' 1 0 0 0 1

{2,4} 0 0,06 0 0 0 0,06 0 1 0 1 0

{3,4} 0 0 0,04 0 0 0,04 0 0 1 1 0

P' 0,4 0,15 0,05 0,3 0,1 1

Finalement, ZtiXy=iP,?, =0,9 qui est la borne théorique absolue, car


2
Xtei/ min(7r|,, k J = 0,9 et la coordination est maximale.
La méthode proposée permet de réaliser la coordination maximale de deux
échantillons, en mettant en valeur des plans optimaux pour des probabilités
d'inclusion du premier ordre fixées. Comme dans l'approche du problème de
transport (voir Causey et ai, 1985), un désavantage de la méthode est de faire
la liste de tous les échantillons possibles. Cependant, comme l'exemple ci-
dessus le montre, une réduction du nombre des échantillons est possible. La
méthode peut également être appliquée dans le cas des enquêtes répétées dans
le temps si aucune ligne dans la matrice P ne contient que des zéros.
7. Échantillonnage 309

BIBLIOGRAPHIE

Causey, B.D., Cox, L.H. et Emst, L.R. (1985). Application of Transportation


Theory to Statistical Problems. Journal of the American Statistical
Association, vol. 80, 903-909.
Goodman, R., et Kish, L. (1950). Controlled Sélection - A Technique in
Probability Sampling. Journal of the American Statistical Association, vol.
45, 350-372.
Keyfitz, N. (1951). Sampling with probabilités proportional to size:
Adjustment for changes in the probabilities. Journal of the American
Statistical Association, vol. 46, 105-109.
Matei, A., et Tillé, Y. (2005). Maximal and minimal sample co-ordination,
Sankhyâ, vol. 67 part 3, 590-612.
Rao, J.N.K., et Nigam, A.K. (1992). 'Optimal' Controlled Sampling: A
Unified Approach. Revue Internationale de Statistique, vol. 60, 89-98.

6. Tirages coordonnés d'échantillons

stratifiés : méthodes basées sur des

microstrates

8
Desislava NEDYALKOVA et Yves TILLÉ

6.1 Introduction et notations

On distingue deux types de coordination d'échantillons. La coordination


positive vise à maximiser le nombre d'unités communes à deux échantillons
tirés successivement dans une population qui change au fil du temps. La
coordination négative vise, au contraire, à minimiser ce nombre. La
coordination des plans stratifiés est une question complexe car les unités
peuvent changer de strates d'une vague à l'autre.
Le problème général consiste à étudier une population finie U de taille N.
Chaque unité peut être identifiée par une étiquette k = l, ..., A. La taille de
la population n'est pas nécessairement connue. Dans les problèmes de
coordination, on étudie une population U' au temps t = 1, 2, ..., T- 1, 71. On
note également U = [j ^=]U'. Au temps t, un échantillon s' est un sous-
ensemble de U'.
La qualité de la coordination est mesurée par le nombre d'unités communes
n'", sélectionnées à deux vagues distinctes t et u. Comme ce nombre est
souvent aléatoire, on prend plutôt son espérance E{n"). Le taux de

8 Institut de Statistique, Université de Neuchâtel, Pierre à Mazel 7, 2000 Neuehâtel,


Suisse.
310 Enquêtes et sondages

recouvrement est défini par v"' = 2ri" /{ri + /î"), et son espérance, pour ri et
ri' fixés, x'" = 2E(ri")/{ri + ri').

6.2 Comparaison des méthodes de Kish & Scott

et Cotton & Hesse

6.2.1 La méthode de Kish & Scott

Kish et Scott (1971) ont proposé la première méthode permettant de


coordonner des plans stratifiés positivement ou négativement. Cette méthode
est basée sur des substitutions à l'intérieur des croisements des strates et
fonctionne quand les unités changent de strates. La méthode est correcte car
elle fournit deux échantillons conditionnels stratifiés. Malheureusement, la
coordination de plus de deux vagues devient très complexe.

6.2.2 La méthode de Cotton & Hesse

La méthode de Cotton et Hesse (1992) permet de réaliser une coordination


négative quand les strates changent avec le temps. Le principe est le suivant :
on attribue à chaque unité, k g U, de manière indépendante et permanente,
un nombre aléatoire co^ (PRN, pour Permanent Random Number) tiré selon
une loi uniforme entre 0 et 1. A la première vague, l'échantillon sélectionné
dans chaque strate est l'ensemble des unités ayant les plus petits nombres
aléatoires. Ensuite, les nombres aléatoires sont permutés de sorte que les
unités sélectionnées reçoivent les plus grands nombres aléatoires et les unités
non-sélectionnées reçoivent les plus petits. Dans les deux sous-ensembles,
l'ordre des numéros aléatoires permutés doit rester inchangé. Notons que les
unités qui entrent dans l'échantillon reçoivent un nouveau PRN tandis que
celles qui sortent perdent leur PRN.
Les avantages de cette méthode sont qu'elle est très facile à appliquer et
que, d'une vague à l'autre, on ne retient que les numéros aléatoires permutés.
La méthode est correcte puisque, après les pennutations, les PRN restent
indépendants et uniformes. Les désavantages de cette méthode sont que, si on
choisit de coordonner négativement deux vagues, il n'est alors plus possible
d'obtenir une coordination positive pour l'échantillon suivant. De plus,
l'ordre des enquêtes est fixé et ne peut pas être changé.

6.2.3 Comparaison des deux méthodes

Nous avons comparé les deux méthodes de Kish & Scott et Cotton & Hesse
sur un exemple très simple. Les problèmes de coordination d'échantillons
peuvent être écrits comme des programmes linéaires. Quand la taille de la
population est petite, la solution optimale de ces programmes peut être
obtenue par un algorithme du simplexe. Ensuite, nous avons comparé cette
7. Échantillonnage 311

solution optimale aux solutions obtenues par les méthodes de Kish & Scott et
de Cotton & Hesse. Nous avons constaté qu'aucune de ces deux méthodes
n'est optimale. Considérons la population U = {1,2,3,4} avec les strates
{1,2}, {3, 4} à la vague 1 et {1,3}, {2, 4} à la vague 2. A chaque vague, une
seule unité est sélectionnée dans chaque strate. Le but est d'obtenir la
meilleure coordination négative. Les résultats obtenus sont : pour la solution
optimale E{n ) = 0,5 et x12 = 0,25, pour la méthode de Kish & Scott
E^1) = 1 et x12 = 0,5, et pour la méthode de Cotton & Hesse E{n ) = 2/3
et x12 = 1/3. On voit donc que la solution optimale n'est atteinte par aucune
des deux méthodes et que la méthode de Cotton & Hesse est la meilleure.

6.3 La méthode de Rivière

Cette méthode, proposée par Rivière (1999, 2001a, b), est implémentée dans
deux logiciels: Salomon en 1998 (Meszaros, 1999) et Microstrat en 2001.
Elle est basée sur les quatre idées suivantes :
- l'usage de PRN qui sont attribués à chaque unité de la population,
- l'usage d'une mesure de fardeau qui peut être égale au nombre de
fois que l'unité a été sélectionnée,
- l'usage de microstrates qui sont construites à chaque vague comme
l'intersection des strates de toutes les vagues avec lesquelles on veut
coordonner,
- la permutation des PRN en fonction de la mesure de fardeau de sorte
que les plus petits PRN sont attribués aux unités ayant le plus petit
fardeau.

A la première étape, chaque unité se voit attribué un PRN et un fardeau de


réponse égal à zéro. L'algorithme de Rivière peut ensuite être appliqué. Si la
procédure de base n'est appliquée qu'une seule fois, l'algorithme a un
désavantage important. En croisant les strates de toutes les vagues
précédentes, les microstrates peuvent devenir minuscules et on obtiendra donc
une mauvaise coordination. Pour cette raison, Rivière propose d'utiliser trois
permutations, comme c'est le cas dans le logiciel SALOMON. On a réalisé
des simulations afin de tenter d'invalider la méthode. Cependant, après quatre
vagues, les simulations semblent montrer que les probabilités d'ordre un et
deux sont correctes pour les plans transversaux pour autant que les
permutations soient faites consécutivement, c'est-à-dire sans sauter de vague.

6.4 Autres méthodes

Nous avons développé huit nouvelles méthodes basées sur des permutations
de nombre aléatoires dans des microstrates. En général, une méthode de
coordination doit être évaluée sur plusieurs vagues mais il est très difficile de
prouver théoriquement qu'une méthode est réellement correcte quand il y a un
312 Enquêtes et sondages

grand nombre de vagues. Pour cette raison et afin d'essayer d'invalider nos
méthodes, on a choisit de réaliser des simulations sur quatre vagues.
Évidemment, si on ne peut pas prouver par simulations qu'une méthode est
fausse, ça n'implique pas qu'elle soit correcte.
La première différence entre les huit nouvelles méthodes est l'ordre dans
lequel les permutations sont effectuées. On distingue deux ordres différents :
chronologique et rétrospectif. Chronologique signifie que, quand on est à la
vague 4, on permute d'abord dans les microstrates de la vague 1, après dans
celles du croisement des vagues 1 et 2 et à la fin dans celles du croisement des
vagues 1, 2 et 3. Pour l'ordre rétrospectif, on permute dans les microstrates de
la vague 3, après dans celles du croisement des vagues 2 et 3 et à la fin dans
celles du croisement des vagues 1, 2 et 3. La deuxième différence vient de la
réutilisation des PRN ou de la régénération de nouveaux nombres aléatoires
au début de chaque vague. La troisième différence vient de la façon dont les
microstrates sont construites. La quatrième différence vient de l'usage ou non
de fardeau de réponse. Pour quatre méthodes, on permute en fonction du
fardeau croissant, tandis que pour les autres, on permute en fonction des
variables indicatrices de l'échantillon. Les méthodes, numérotées de 1 à 8,
sont décrites ci-dessous :
- Méthode 1 - microstrates qui sont l'intersection des strates des
vagues précédentes, nouveaux nombres aléatoires à chaque vague,
ordre chronologique des permutations en fonction du fardeau de
réponse, cette méthode est fausse.
- Méthode 2 - microstrates qui sont l'intersection des strates des
vagues précédentes, PRN, ordre chronologique des permutations en
fonction du fardeau de réponse, cette méthode est fausse.
- Méthode 3 - microstrates qui sont l'intersection des strates des
vagues précédentes, PRN, ordre rétrospectif des permutations en
fonction du fardeau de réponse, cette méthode semble correcte.
- Méthode 4 - comme la 3 mais avec des nouveaux nombres aléatoires
à chaque vague, cette méthode semble correcte.
- Méthode 5 - microstrates qui sont l'intersection de l'intersection des
strates des vagues précédentes avec l'intersection des échantillons,
PRN, ordre rétrospectif des permutations en fonction des variables
indicatrices de l'échantillon, cette méthode semble correcte.
- Méthode 6 - comme la 5 mais avec de nouveaux nombres aléatoires à
chaque vague, cette méthode semble correcte.
- Méthode 7 - microstrates qui sont l'intersection de l'intersection des
strates des vagues précédentes avec l'intersection des échantillons,
PRN, ordre chronologique des permutations en fonction des variables
indicatrices de l'échantillon, cette méthode semble correcte.
7. Échantillonnage 313

- Méthode 8 - comme la 7 mais avec de nouveaux nombres aléatoires à


chaque vague, cette méthode semble correcte.

6.5 Résultats des simulations et conclusion

Pour réaliser les simulations, on a tiré 500 000 échantillons dans une
population de taille 16. Quatre vagues ont été prises en compte. Pour évaluer
les résultats, on a analysé les probabilités d'inclusion d'ordre 1 et 2 et la
qualité de la coordination, mesurée par l'espérance du nombre d'unités
communes aux vagues. En analysant les probabilités d'inclusion, on a
remarqué que pour les deux premières vagues, les méthodes fournissent de
bonnes probabilités et que le problème ne survient qu'à partir de la vague 3.
Donc, selon ces résultats, les Méthodes 1 et 2 sont fausses et les Méthodes 3
et 8 semblent correctes. Pour la qualité de la coordination, on a comparé les
résultats seulement pour les méthodes correctes. La qualité est partout bonne
et presque égale pour toutes les méthodes. Cependant, les méthodes 4, 5 et 7
coordonnent mieux entre les vagues 2 et 4.
Nos résultats nous ont amené à la conclusion suivante : Les méthodes de
Kish et Scott, Cotton et Hesse et Rivière permettent des changements de
strates qui rendent possible la création d'un système dynamique de
coordination. Les deux premières méthodes sont faciles à appliquer tandis que
la méthode de Rivière est un peu plus complexe. On a vu que la méthode de
Cotton et Hesse coordonne mieux que celle de Kish et Scott. De plus, la
méthode de Kish et Scott ne peut pas être utilisée pour plus de deux vagues.
La méthode de Rivière fonctionne bien à condition que les intersections des
strates soient faites entre toutes les vagues, dès la première vague à partir de
laquelle on veut coordonner. Les nouvelles méthodes sont simples et
intuitives et il n'est pas facile de comprendre pourquoi certaines d'entre elles
ne fonctionnent pas. Comme il est impératif de réaliser le croisement de
toutes les strates avec lesquelles on veut coordonner, la coordination avec de
très vieilles vagues devient forcément mauvaise à cause de la taille des
microstrates qui peut devenir très petite. C'est une contrainte importante du
problème qui semble insurmontable et qui ne peut être ignorée.

BIBLIOGRAPHIE

Cotton, F., et Hesse, C. (1992). Tirages coordonnés d'échantillons. Rapport


non publié, Insee, Paris.
Kish, L., et Scott, A. (1971). Retaining units after changing strata and
probabilities. Journal of the American Statistical Association, vol. 66, 461-
470.
314 Enquêtes et sondages

Mészaros, P. (1999). A program for sample co-ordination: Salomon,


Proceedings of the International Seminar on Exchange of Technology and
Knowhow. Prague, 125-130.
Rivière, P. (1999). Coordination of samples: The microstrata methodology.
Article présenté à International Roundtable on Business Survey F rame s,
Insee, Paris.
Rivière, P. (2001a). Coordinating samples using the microstrata methodology.
Proceedings of Statistics Canada Symposium 2001.
Rivière, P. (2001b). Random permutations of random vectors as a way of co-
ordinating samples, rapport non publié. University of Southampton, Insee.

7. Échantillonnage sur les flux de

données : état de l'art

Raja CHIKY 9, Alain DESSERTAINE 10


et
11
Georges HÉBRAIL

7.1 Introduction

Ces dernières années, nous avons vu émerger un grand nombre d'applications


générant une quantité volumineuse de données, et il devient coûteux de
stocker et traiter toutes ces données. C'est un nouveau mode de traitement des
données qui émerge, avec toutes les questions et les particularités qu'il peut
apporter. Plusieurs travaux de recherche ont été menés aux USA et plus
récemment en Europe pour développer des algorithmes de traitement des
données 'à la volée', et c'est ainsi qu'est né le concept des flux de données.
Les problèmes d'échantillonnage dans les flux de données s'appuient sur les
techniques d'échantillonnage traditionnelles s'appliquant sur des données
persistantes mais requièrent également de nouvelles innovations significatives
pour traiter des séquences infinies de données volatiles. En effet, la nature
illimitée des données représente le point de départ des recherches autour de
l'échantillonnage sur les flux de données.

9 Telecom ParisTech, Laboratoire LTCÏ - UMR 5141 CNRS - Département Informatique


et Réseaux 46 rue Barrault, 75634 Paris Cedex 13. Email : prcnom.nom@enst.fr.
10EDF R&D - Département OS1RIS, 1 Avenue du Général de Gaulle, 92140 Clamait
Email : alain.dessertaine@edf.fr.
1 1 Telecom ParisTech, Laboratoire LTCI - UMR 5141 CNRS - Département Informatique
et Réseaux 46 rue Barrault, 75634 Paris Cedex 13. Email : prcnom.nom@enst.fr.
7. Échantillonnage 315

7.2 Flux de données

7.2.1 Définition

Golab et Ôzsu (2003) définissent un flux de données comme une séquence


d'enregistrements structurés continue, ordonnée (implicitement par temps
d'arrivée, ou explicitement par timestamp de production à la source), arrivant
en temps réel. Il est impossible de contrôler l'ordre d'arrivée des
enregistrements, et il est impossible de stocker localement un flux dans sa
globalité. Les traitements sur les flux sont actifs continuellement sur une
période de temps et retournent incrémentalement de nouveaux résultats
lorsque de nouvelles données arrivent. Ces traitements sont dits persistants,
continus, de longue durée d'exécution.
Une nouvelle classe d'applications a motivé ces approches, où les données
arrivent sous forme de flux continu. Panni elles: le contrôle de trafic réseau,
analyse des actifs boursiers, analyse de consommation en télécommunication
à des fins de marketing, réseaux de capteurs dans des domaines tels que la
consommation électrique, le trafic routier, la météorologie.

7.2.2 Flux infini

Étant donné qu'un flux de données est infini, il n'est pas matériellement
possible de lui appliquer un traitement dans son ensemble. Un
échantillonnage aléatoire simple sur un flux où des éléments disparaissent et
d'autres apparaissent au fur et à mesure rend les choses difficiles. C'est
pourquoi il est nécessaire de définir une séquence finie du flux sur laquelle
portera un traitement et qui se nomme une fenêtre. Cette dernière peut être
classée dans une des catégories suivantes :
- Logique V5. Physique : les fenêtres physiques (ou temporelles basées
sur le temps) sont définies au moyen d'un intervalle de temps comme
par exemple le 12/03/2007, alors que les fenêtres logiques (ou
séquentielles) sont définies en terme de nombre d'éléments, comme
par exemple une fenêtre du l0cmc élément au 100cme.
- Fixe vs. Glissante : Une fenêtre fixe est une portion du flux dont les
bornes sont fixées comme par exemple une fenêtre entre le lei mars et
le 1er avril. Par contre, les bornes d'une fenêtre glissante évoluent
avec le temps. Par exemple : les 10 derniers éléments du flux ou les
éléments arrivés dans les 15 dernières secondes. Dans quelques
références, on parle d'une troisième catégorie : fenêtre point de
repère (en anglais Landmark), quand une seule borne de la fenêtre est
relative. Par exemple : une fenêtre à partir du 1er mars 2007.
316 Enquêtes et sondages

7.3 Échantillonnage dans les flux de données

Les techniques d'échantillonnage décrites ci-dessous opèrent de façon


incrémentale à l'arrivée de chaque nouvel élément du flux sans mémoriser
l'ensemble des éléments du flux de la fenêtre considérée et fournissent un
échantillon de taille fixe k.

7.3.1 Échantillonnage dans une fenêtre fixe

Un algorithme classique en ligne proposé par Vitter en 1985 est largement


utilisé dans le cadre des flux de données : échantillonnage réservoir, Vitter
(1985). Il permet d'obtenir un échantillon unifonne aléatoire avec une taille
fixe et ne nécessite pas de connaître la taille du flux de données. Son principe
est le suivant : On sélectionne les k premiers éléments du flux pour constituer
un réservoir. A chaque arrivée d'un élément d'indice i + 1 (pour i>k)
l'élément est sélectionné avec une probabilité kl{i + 1) et remplace un élément
choisi au hasard dans le réservoir. Si le nombre total des éléments de la
fenêtre est connu par avance, une variation de l'échantillonnage réservoir peut
être utilisée nommée échantillonnage séquentiel, Vitter (1984). Il s'agit de
générer des sauts à effectuer entre deux inclusions. Cette méthode permet
d'obtenir efficacement un échantillon aléatoire uniforme avec une complexité
inférieure à la méthode standard. Une approche incrémentale de type réservoir
a été présentée dans Aggarwal (2006) afin de constituer un échantillon biaisé
en privilégiant les éléments récents du flux de données par rapport aux
éléments anciens.
On peut aussi appliquer un échantillonnage stratifié à une fenêtre fixe. On
divise celle-ci en strates disjointes et on échantillonne à une taille donnée à
l'intérieur de chaque strate. Le schéma le plus simple spécifie des strates de
tailles approximativement égales et construit un échantillon réservoir de
même taille à l'intérieur de chaque strate. Ceci permet d'éviter le cas où
l'échantillonnage réservoir global sous-représente les éléments d'une strate
donnée.

7.3.2 Échantillonnage dans une fenêtre glissante

L'échantillonnage réservoir présenté à la sous-section précédente est utile


dans le cas d'insertion et de mise à jour de l'échantillon mais trouve ses
limites à l'expiration des données dans une fenêtre glissante. En effet, dans ce
type de fenêtre, les éléments ne faisant plus partie de la fenêtre courante
deviennent invalides, et s'ils appartiennent à l'échantillon, il faut les
remplacer. Des algorithmes penuettant de tenir à jour un échantillon sur une
fenêtre glissante tout en préservant sa représentativité sont donc nécessaires.
Plusieurs techniques ont été développées pour traiter le cas des fenêtres
glissantes (logiques et temporelles).
7. Échantillonnage 317

Une approche qualifiée de 'simple' pour fenêtres logiques a été proposée


dans Babcock et al. (2002) : On maintient un échantillon réservoir pour les
premiers éléments du flux (première fenêtre). Quand un élément expire, on le
remplace par le nouvel élément qui arrive. Cet algorithme maintient un
échantillon aléatoire uniforme pour la première fenêtre et ne requiert pas
beaucoup de mémoire, mais a l'inconvénient d'être hautement périodique.
Pour remédier à ce défaut, une autre technique est proposée : l'échan-
tillonnage avec réserve. Son principe est le suivant : quand un élément arrive
on l'ajoute avec une probabilité donnée à un échantillon de réserve ('backing
sample') et on génère ensuite un échantillon aléatoire à partir de l'échantillon
de réserve. Quand un élément expire, on le supprime de la réserve.
Plusieurs autres algorithmes ont été développés pour les fenêtres logiques
tel que l'échantillonnage en chaîne Babcock et al. (2002). Chaque élément i
est ajouté à l'échantillon avec une probabilité de l/min(/, /?), n étant la taille
de la fenêtre. Ensuite, il faut choisir l'index de l'élément qui le remplacera
quand il expire. On choisit l'index du «remplaçant» dans l'intervalle
[/+!,/ + «]. Quand l'élément avec cet index arrive, on l'intègre à
l'échantillon et on choisit de la même façon que précédemment l'élément qui
pourrait le remplacer. Ainsi, on construit une chaîne de remplaçants
potentiels.
Le nombre d'éléments dans une fenêtre physique peut varier avec le temps.
On ne peut donc pas connaître a priori le nombre d'éléments en avance.
Plusieurs éléments dans l'échantillon expirent en même temps. Aucune des
méthodes expliquées précédemment ne peut être appliquée à une fenêtre
physique puisqu'elles requièrent la connaissance de nombre d'éléments dans
une fenêtre. Un échantillonnage par priorité, permet de contourner le
problème en assignant aléatoirement pour chaque élément une priorité entre 0
et 1. Pour de plus amples informations sur ces techniques le lecteur peut se
référer à Haas (2007).

7.4 Flux de données et plan de sondage

Certaines méthodes présentées ci-dessus ne sont pas très éloignées de certains


algorithmes utilisés couramment par la « corporation des sondeurs », Tillé
(2006), mais nous pouvons citer plusieurs spécificités d'application du fait de
la richesse des données prélevées :
- L'information que nous cherchons est directement prélevée, en même
temps que l'échantillon se construit. Elle peut donc être utilisée,
d'une certaine manière, pour améliorer le plan d'échantillonnage.
Cette amélioration s'effectuera soit directement, soit indirectement en
imaginant l'échantillon des flux comme une première phase à
l'échantillon final.
318 Enquêtes et sondages

- le caractère « continu » des flux et l'aspect temporel des données


pourra, entre autre, capter au fil de l'eau les variations mêmes de
notre population d'étude.
- les liens entre échantillons conservés, et certains résumés
permettront, à tenue, d'améliorer certaines requêtes, comme celles
sur des sous-populations, correspondant alors à des estimateurs sur
petits domaines Rao (2003).

A cela s'ajoute le fait que la population d'étude n'est pas forcément


constituée des éléments contenus dans les flux : par contre les flux
permettront de capter notre population de manière indirecte, comme dans
Lavallée (2002). Ainsi, par exemple, dans un cadre d'exploitation des courbes
de consommation électrique à partir des 32 millions compteurs communicants
installés d'ici 2013, nous pourrons sans doute échantillonner un grand nombre
de courbes de consommation de manière indirecte par l'intermédiaire des flux
de données provenant des compteurs (car l'ensemble des mesures
caractérisant une courbe sera naturellement réparti sur plusieurs fenêtres
temporelles des flux). Si besoin, nous pourrons alors construire « hors ligne »
sur celui-ci un échantillon de deuxième phase équilibré sur un certain nombre
de variables disponibles, dont les données de consommations elles-mêmes.

BIBLIOGRAPHIE

Aggarwal, C.C. (2006). On Biased Réservoir Sampling in the Presence of


Stream Evolution. Dans Proceedings ofVLDB, vol. 32.
Babcock, B., Datar, M. et Motwani, R. (2002). Sampling From a Moving
Window Over Streaming Data. Dans Animal ACM-SIAM Symposium on
Discrète Algohthms (SODA 2002).
Golab, L., et Ôzsu, M.T. (2003). Data stream management issues - a survey.
Rapport technique, CS 2003-08, University of Waterloo.
Haas, P.J. (2007). Data-Stream Sampling: Basic Techniques and Results.
Dans Processing High-Speed Data Streams, Springer-Verlag.
Lavallée, P. (2002). Sondages indirects, Bruxelles-Paris : éditions de
l'Université libre de Bruxelles et Ellipses.
Rao, J.N.K. (2003). Small area estimation, New York : John Wiley & Sons,
Inc.
Tillé, Y. (2006). Sampling Algorithms, New York : Springer.
Vitter, J.S. (1985). Random sampling with a réservoir, ACM Trans. Math.
Softw. vol. 11,35-57.
Vitter, J.S. (1984). Faster methods for random sampling, Comm ACM, vol.
27,703-718.
Chapitre 8

Estimation

1. Calages successifs, calages itérés

1
Jean-Claude DEVILLE

1.1 Introduction : position des problèmes

Dans la pratique des enquêtes, on est parfois amené à modifier les poids
d'extrapolation plusieurs fois de suite. On considérera que des poids sont
calés sur certaines variables s'ils pennettent une extrapolation parfaite du
total de ces variables, c'est-à-dire que l'estimateur de Horvitz-Thompson du
total de ces variables est de variance nulle. Cette propriété résulte
généralement d'une stratification, d'un échantillonnage équilibré aussi bien
que d'un calage. Assez souvent cette phase est précédée d'ajustements
destinés à corriger les biais dus à la non-réponse. On les assimilera à des
calages (Deville, 1998 ; Deville, 2002 ; Le Guennec et Sautory, 2002).
Chacune de ces modifications consiste, à partir des poids courants, à se
caler sur une nouvelle information auxiliaire, en utilisant, éventuellement,
certaines variables comme 'instruments' du calage. Malheureusement, sauf
cas exceptionnel, ces nouveaux poids ne sont plus calés sur les variables
auxquelles les poids initiaux étaient ajustés. Autrement dit la variance de
l'estimation du total de ces variables est passée de zéro à une quantité
positive, ce qui implique que la précision de certaines variables d'intérêt a pu
diminuer à cause de cette opération.

1 ENSAI/CREST, Laboratoire de Statistique d'Enquête, Campus de Ker-Lann-35170-


BRUZ.
320 Enquêtes et sondages

Exemple 1 : Dans un sondage aléatoire simple, la somme des poids est calée
sur le total N de population. Si on dispose d'une information tx =
total sur la population d'une auxiliaire x, on peut utiliser un estimateur par
ratio dont les poids sont w, =tx/ixw0 où w,, est le poids initial (pour alléger
les notations on supprimera, dorénavant, les indices k des individus quand le
contexte le permet) avec fv = XL xw0. La somme des nouveaux poids vaut
N tv/tx, le calage sur la variable 'unité' est détruit et l'estimation du total de
la population devient incertain.
Cette situation est générale. On se propose d'évaluer les modifications que
subissent les précisions de variables de calage U {à q composantes) QtX (à p
composantes) pour des calages successifs. Ceci prend plusieurs aspects :
évolution des pondérations, qualité du calage 'résiduel' et variance
d'estimation obtenue pour le total d'une variable d'intérêt quelconque^.
On regardera aussi ce qui se passe quand on itère la procédure de calage :
partant de poids w0 calés sur U, on obtient des poids calés sur X, w,. Ces
derniers n'étant plus calés sur U, on refait le calage sur U partant des w,, ce
qui donne des poids et ainsi de suite. Cette procédure itérative peut
converger et les poids finaux seront calés simultanément sur U et X. Un
exemple et un résultat bien connus concernent l'algorithme du raking-ratio
(Deville, Sâmdal et Sautory, 1993).
Il y a aussi des cas où les poids et la variance oscillent indéfiniment entre
deux valeurs.
Exemple 1 (suite) : si on veut maintenant renormaliser la somme des poids à
N par 'règle de trois', c'est-à-dire en utilisant un estimateur par ratio sur la
variable unité, on retombe sur les poids initiaux.
La divergence, enfin, est possible quoiqu'un peu pathologique. La seconde
partie de cet article classifie les cas et donne des exemples et des conditions
de convergence.
On trouvera au paragraphe 5 des exemples élémentaires en dimension un
illustrant presque tous les cas possibles. Avant cela, nous allons revoir les
propriétés utiles des estimateurs par calage généralisé, puis comment les
choses se passent pour deux calages successifs.

1.2 Quelques rappels sur le calage généralisé

On travaille avec des poids initiaux d sans biais où asymptotiquement sans


biais (voir par exemple, Deville et Sàrndal, 1992). Les totaux de variables
d'intérêt y sont estimés par î = X.dkyk = X^U La quantité f estime donc
sans biais (approximativement éventuellement) ty = Xf- La variance de cet
estimateur est donnée par une forme quadratique connue Q(y). Pour tout
cu
échantillon s, on dispose d'une forme quadratique £900 l ' estime
'proprement' Q(y). Les poids initiaux peuvent être ceux de Horvitz-
Thompson ou n'importe quels autres, par exemple déjà calés ou redressés
8. Estimation 321

pour non-réponse. Un p-vecteur de totaux tx = Yjx constitue l'information


auxiliaire. Par tradition, on notera X la matrice N x p des xk de sorte que,
par exemple, tx = X'\ où 1 est la variable unité dont toutes les coordonnées
valent 1. On utilise une 'fonction de calage' F de /? dans /?, croissante et aussi
régulière qu'il est nécessaire vérifiant F(0) = 1 et F'(0) = l;zk est un p-
vecteur de variables 'instrumentales', et on note Z la matrice qui empile les
z'; enfin, Z est un /7-vecteur d'ajustement.
On cherche de nouveaux poids wk = dkF(zk X) vérifiant les équations de
calage : f = Y.dxF^z'X) où X dépend de 5 et est donc aléatoire. Si les zk
sont unifonnément bornés et si la matrice Z' X est inversible, les équations de
calage ont une unique solution avec une probabilité qui tend vers 1 et on a
X = Yj{dxz) \tx - t) = {Z'Xy\t - tj à des infiniment petits d'ordre
supérieur près. L'estimateur calé vaut, toujours à des infiniment petits d'ordre
supérieur près, t"' =iy +B'(tx -f) où B est le vecteur des coefficients de
régression de y sur les x avec les instruments z. Autrement dit B est solution
des équations normales Z'(y - XB) = 0, soit B = {Z' X) Z' y. La variance de
cet estimateur est donnée par Q(e), où ek = yk - xkB est le résidu dans la
régression de y sur les x avec instruments z. Le vecteur des résidus
e = y - XB vaut (/ - P)y où Px est le projecteur dans R PX = X (Z'X) Z'
sur Im{X) le long de Z\ orthogonal de Im(Z) pour la métrique canonique
de RN.
La variance de ty vaut donc Qi^I - F)y) = y'{I - P^Q^I - P)y en
assimilant forme quadratique et matrice symétrique. L'estimation de variance
s'effectue de façon consistante en utilisant QXè ) ou è est l'ensemble des
résidus empiriques.
Remarque : les auxiliaires sont connues sur l'échantillon et on connaît leur
total. En revanche les instruments n'ont à être connus que sur l'échantillon.
Naturellement, des auxiliaires peuvent servir d'instruments. C'est d'ailleurs le
cas pour le calage classique quand les 'poids q' sont tous égaux.

1.3 Calages successifs

On s'intéresse maintenant à ce qui se passe quand on fait deux calages


successifs. On passe des poids initiaux wn à des poids w, par calage sur le p-
vecteur X avec des instruments Z. Puis on cale sur U en utilisant des
instruments F, présents dans l'échantillon. A priori, les X et les U peuvent
comporter un sous espace de variables communes. C'est souvent le cas de la
constante (variable 'unité'), comme dans le cas où X = (1, x) (estimation par
régression), et où U est l'ensemble des indicatrices d'une variable catégorielle
utilisée pour une poststratification.
Il se peut aussi que les instruments Z et F aient un sous espace commun.
Naturellement, il peut se faire aussi que qu'une bonne partie des instruments
soit obtenue simplement à partir des auxiliaires comme c'est le cas pour
322 Enquêtes et sondages

l'estimation par régression ou le calage ordinaire. Avec une fonction de


w
calage G pour le second calage, on aura les équations de calage tr =
G(v'p) où p est un ^-paramètre d'ajustement. Pour les propriétés au premier
ordre, on pourra admettre que G et F sont linéaires, et que les nouveaux poids
valent w, = w^l + vp) = h;(1 + z'À)(l + v'p) = w0(l + z"k + v'p) à des termes
d'ordres supérieurs près. On a maintenant un résultat important :
Résultat 1 : La variance asymptotique de estimateur munis de poids
issus de deux calages successifs, vaut Q{{I - Fv)(/ - P^y) où PLI est le
projecteur Pu =U(V'Uy'V sur !m(U) le long de Fz.
a
En effet, Pour variance Q^I - P^y) où QXy) =
Var (X w, y) = Q{(I - Px)y).
Le premier calage annule la variance de t[ = ^w^x. L'estimateur calé vaut,
pour une variable courante y : f2 = f1 + B' ullv{tl. - f(1,) où la régression est sur
U le long de Fz. Après le second calage, on a donc, en appliquant ce résultat
à chacune des coordonnées de X : t] = t\ + - f,1), et, comme Vx =tx
(estimateur calé !), on obtient le résultat :
Résultat 2 : Le défaut de calage surX après un second calage sur U vérifie :

K -tx = B'jt,, - 'O (1)

où Bxl = {V'Uy V'X est la matrice q * p dont les colonnes sont formées des
coefficients de régression des variables de X sur les variables de U avec les
instruments V. Les X ne restent calés parfaitement que s'ils n'ont aucune
corrélation avec les U.
De même, on obtient que f/ - f(0 = B'rx(tx - ix) avec B(X = (Z'Xy'Z'U.
S'il se trouve que l'estimateur initial (poids w(1) lui même est calé sur U
(variables de stratification où d'équilibrage), on obtient :

tl-tx=B'xvB'ux{t:~tx). (2)

Cette égalité permet d'étudier le défaut de calage sur X après un calage


intermédiaire sur U. En particulier l'opérateur BIXBXL = {Z Xy]Z'U{y'UY
V'X fait apparaître les projecteurs Y et Px. On a par exemple la relation
utile XBlxBxv = PxPL X. L'opérateur en question donne les coordonnées surX
du produit des deux projecteurs appliqué à un vecteur de Im(X) muni de la
base constituée des colonnes de cette matrice. Toute la structure de
l'opération 'double calage' dépend donc clairement de la restriction à Im(X)
du produit de ces deux projecteurs.
Conclusion provisoire et extension légère : Lors de calages successifs, seul
le dernier calage est acquis ; les calages antérieurs sont détruits de façon plus
ou moins radicale. Si ces calages se font avec des auxiliaires X et des
instruments Z, P = X {Z'XyX' est le projecteur sur X orthogonalement à
Z . Pour n calages successifs la variance d'estimation du total de y est donnée
approximativement par Q(eJ où = (H■=,(1 - P))y- Ces quantités sont
8. Estimation 323

susceptibles d'évoluer de façon assez erratique et peu fiable. Dans le cas de


deux calages tout dépend du produit P^.

1.4 Calages itérés : généralités

Le contexte est toujours celui de la partie précédente, mais nous nous


intéressons maintenant à ce qui se passe quand on itère le calage en s'ajustant
sur les X aux étapes impaires, puis sur les U aux étapes paires.
Résultat 3 : Une condition suffisante de convergence du calage en A'et £7 est
que la matrice carrée BUXBXL ait toutes ses valeurs propres inférieures à l en
valeur absolue. La relation (2) permet en effet d'écrire :

P; -tx={{BuxBj)"{tl-tx). (3)

Par ailleurs, la suite des paramètres d'ajustements X. et p est majorée (en


norme) par une série géométrique. On en déduit que la suite des poids w
converge également vers une limite dont la partie principale est de la forme
1 + z'X + v'p. Cette quantité n'est autre que la partie principale des poids de
calage sur tx et simultanément en utilisant les instruments Z et F
simultanément. Par suite le calage final donne un estimateur dont la variance
est équivalente à celle de l'estimateur par régression sur (X, U) utilisant les
instruments (Z, F).
Inversement, si BL VBn admet une valeur propre plus grande que 1 en valeur
absolue les calages divergent.
Tout est parfait si nous ignorons qu'il puisse exister des valeurs propres
égales à 1 en valeur absolue. Malheureusement, ce type d'événement arrive
dans le cas fréquent où les auxiliaires ont un ensemble commun de variables,
très souvent au moins la constante. Si des variables sont communes aux X et
aux F, on peut toujours les faire apparaître explicitement (cas des indicatrices
d'une poststratification pour la constante) et cela produit un bloc unité dans
les matrices BIX et Bxu. Ces deux matrices et leur produit vont donc avoir
autant de valeurs propres égales à 1 que de variables communes. De même,
l'existence d'instruments communs (souvent encore la constante) peut
produire des valeurs propres unités pour le produit des deux matrices. Enfin,
on peut montrer que l'usage d'instruments arbitraires peut mener à des
valeurs propres arbitraires, éventuellement complexes de module 1.
Pour essayer de comprendre ce qui peut arriver on peut regarder ce qui se
passe quand tous les calages se font sur une seule variable.

1.5 Le cas de la dimension un

Les matrices BIX et Bxl se réduisent à des scalaires BIX = Y^vx/^vu et


Bu = Yzu /Szx- Sans restreindre la généralité, on peut convenir que U = 1
(vecteur dont toutes les coordonnées valent 1), et BIX est la moyenne de x
pondérée par v, tandis que BXi est l'inverse de la moyenne de x pondérée par
324 Enquêtes et sondages

v
z. Les équations de calage paires s'écrivent N = + ^)- Les calages
et
impairs s'écriront X = Xvi^O + zX). Les quantités Zzx différent de
zéro à cause de l'hypothèse d'inversibilité des matrices V'U et Z'X. On a
donc :

5 5 = (4)
XVllYjZX xz

Ce ratio est susceptible de prendre n'importe quelle valeur réelle. Il y a


convergence si sa valeur absolue est plus petite que 1, divergence si elle est
supérieure à 1, conformément à l'analyse générale. Le cas particulier d'une
valeur (propre) de module un peut provenir de plusieurs cas.
Cas 1 : Si x = u (même auxiliaire) les deux facteurs valent un et les calages
sur l'auxiliaire sont évidemment assurés à toutes les étapes de l'itération.
Cas 2 : La quantité (4) vaut 1 pour toute v et toute u quand z = v c'est-à-
dire quand l'instrument est commun aux deux calages. Si on fait V = Z = 1,
on retrouve l'exemple élémentaire des ratios successifs. Il n'y a pas
convergence, mais oscillation selon la parité des itérations des poids, des
résidus et des calages eux-mêmes.
Cas 3 : Si en plus x = u i\ n'y a qu'un seul calage.
Cas 4 : La quantité (4) vaut 1 en module fortuitement. On n'a généralement
pas de convergence mais des oscillations.
Remarquons enfin que si on a z = x et v = u, ce qui correspond à la
régression par moindres carrés ordinaires, ou, plus généralement z = Mx et
v = Mu pour une matrice symétrique positive -moindre carrés généralisés- la
quantité (4) vaut {xMu)2l{xMx)^'Mu). Des que x^u cette quantité est plus
petite que 1. Si x = u, on est en fait dans le cas (3) et donc on a toujours
convergence.

1.6 Classification des difficultés liées à des

variables communes

La classification du paragraphe précédent permet de comprendre la façon dont


les choses se passent dans le cas général. La démonstration complète est assez
fastidieuse et nous nous contenterons d'énoncer des résultats.
Introduisons quelques notations. C désigne le sous espace des variables
communes àXet ê/ et, par abus de notation, la matrice TV x c de ces variables
quand on les a écrites de façon explicite. De même / désigne l'espace des
instruments communs à Z et F de même que la matrice TV x / obtenue en
mettant les variables communes sous forme explicite.
Résultat 4 : Si c<i et que BL XBXI n'admet aucune valeur propre plus grande
que 1 en valeur absolue, il y a oscillations du calage, des poids et de la
variance.
8. Estimation 325

Résultat 5 : Si c>i et que Bl xBxl n'admet aucune valeur propre plus grande
que 1 en valeur absolue, il y a convergence du calage.
Dans le cas où c = / on peut montrer facilement le lemme suivant :
Lemme 1 : On peut trouver un changement de variable X = (C, X),
U = (C, U),Z = (/, Z,), V = (/, VJ vérifiant les conditions /'X, = /'£/, =
Z'C = V'C = 0 et f C = V'UX = Z\Xx - 1 (matrice identité de dimension
convenable). Les auxiliaires X^ et ^ sont disjointes ainsi que les instruments
2, et Fr
Il en résulte que itérations de calages peuvent être faites indépendamment
pour (C, /) et pour le reste des variables et des instruments. Pour ce dernier
ensemble de variables, un second lemme technique permet d'identifier le
comportement des itérations. On supposera q<p.
Lemme 2 : Si les auxiliaires X zi U d'une part, et les instruments Z et V,
d'autre part n'ont de sous espace communs que zéro (ils sont 'disjoints'), on
peut trouver une base de Im{X) et une base de Im(U) telles que :
- la matrice de Px restreinte à Im(U) s'écrive :

fi</ r</ o]

v0 0
Oy

où f est une matrice carrée diagonale de ne comportant que des 1


dans sa partie nord-ouest et des 0 ailleurs.
- la matrice de restreinte à Im(X) s'écrive :

'0 0 0^

/ L 4o
v p y

où L et L0 sont des matrices arbitraires.

Si x est alors un vecteur arbitraire de Im(X) on a PxPL x = Lx ce qui permet


d'étudier facilement les itérations. On obtient la conclusion suivante :
Résultat (5 : Si c = z la suite des calages, des pondérations et des variances
converge si et seulement si toutes les valeurs propres de L sont strictement
inférieures à 1 en module. L'estimateur calé est équivalent à un estimateur par
régression sur (C, Xv f/,) (soit toutes les variables non colinéaires) utilisant
les instruments (/, Z,, f/,).

1.7 Une condition suffisante

L'usage d'instruments distincts des auxiliaires constitue une extension très


utile des méthodes de calage, en particulier quand il s'agit de les utiliser pour
diminuer le biais de réponse. Cependant, comme on vient de le voir, on
rencontre des difficultés sérieuses quand les choisit de façon trop
indépendante des auxiliaires : perte d'efficacité par rapport au calage
326 Enquêtes et sondages

ordinaire, voire totale inconsistance dans le cas de calages successifs ou


itérés, ou, enfin, des oscillations lors d'itérations successives du calage.
Une partie de ces difficultés disparaissent quand les instruments dépendent
des auxiliaires par une transformation linéaire inversible car les auxiliaires
communes ont la même dimension que les instruments communs. De plus,
comme en dimension un, cette condition assure quasi magiquement la
convergence du calage itéré. On a la condition suffisante suivante :
Résultat 7 : Si les instruments sont déterminés à partir d'un principe de
moindres carrés (éventuellement pondérés) identique pour les deux calages, le
calage itéré converge vers le calage simultané.
Remarque et commentaire 1 : Ce résultat ne fonctionne pas même si les
deux calages sont des calages ordinaires associés à des poids de régression
différents.
Commentaire 2 : Le principe des moindres carrés ordinaires conduit à
Z - X et V - U. Celui des moindres carrés pondérés à multiplier les
auxiliaires par une matrice diagonale à éléments strictement positifs. Le
résultat ci-dessus demeure valide si on obtient les instruments par
multiplication des auxiliaires par une matrice symétrique définie positive.
Cette remarque peut s'avérer utile dans certaines configurations.
Exemple : Dans l'estimation par raking-ratio, les deux postsratifications
alternées peuvent être vues comme des régressions de type MCO sur les
indicatrices des modalités des variables utilisées. Il existe une auxiliaire
commune qui est la constante, et un instrument commun qui est aussi la
constante. La convergence est donc assurée d'après le résultat 7 (sauf les
pathologies habituelles qui se traduisent par une violation du bon
conditionnement du problème).

1.8 Conclusions

L'utilisation de calages successifs est une pratique assez risquée. Sauf


exception, en effet, le second calage altère les effets du premier, soit assez
légèrement, soit totalement. Quand on itère les calages, les difficultés
éventuelles deviennent plus critiques.
Dans le cas où les deux calages font appel au même type de régression en
utilisant les mêmes poids, l'itération des calages converge vers un estimateur
du même type équivalent à un estimateur par régression sur l'ensemble des
variables indépendantes. En revanche, dès que l'on n'utilise pas les mêmes
poids, ou qu'on utilise des instruments choisis indépendamment, le risque
d'instabilité ou de divergence des estimations existe et doit être étudié
sérieusement.
De fait, il est beaucoup plus sûr, quand on le peut, de caler en une seule fois
sur toutes les auxiliaires disponibles, y compris pour corriger de la non-
réponse. Le choix des instruments reste une affaire assez délicate, mais, à tous
8. Estimation 327

le moins, le risque d'aboutir à une estimation inconsistante n'existe plus et les


performances de l'estimateur calé en une unique étape sont bien établies.

BIBLIOGRAPHIE

Deville, J.-C., et Sârndal, C.-E. (1992). Calibration estimators in survey


sampling. Journal of the American Statistical Association, vol. 87, pages
376-382.
Deville, J.-C., Sârndal, C.-E. et Sautory, O. (1993). Generalized raking
procédures in survey sampling. Journal of the American Statistical
Association, vol. 88, pages 1013-1020.
Deville, J.-C. (1998). La correction de la non-réponse par calage ou par
échantillonnage équilibré. Actes de la rencontre annuelle de la Société de
Statistique du Canada, Sherbrooke, Canada.
Deville, J.-C. (2002). La correction de la non-réponse par calage généralisé.
Journées de Méthodologie Statistique de L Jnsee, Paris, France sur
http ://j ms. insee. fr.
Le Guennec, J., et Sautory, O. (2002). Une nouvelle version de la macro
CALMAR de redressement d'échantillon par calage. Journées de
Méthodologie Statistique de L Jnsee, Paris, France sur http://jms.insee.fr.

2. Sur l'utilisation de la régression non

paramétrique pour des données

d'enquêtes

2 3
Torsten HARMS et Pierre DUCHESNE

2.1 Introduction

L'estimation par la régression nonparamétrique est grandement utilisée afin


d'expliquer les relations entre une variable réponse, notée Y, et un préviseur
X. Considérons le modèle hétéroscédastique suivant :

Y = m(X) +vV2(X)8,

où m(.) décrit la forme fonctionnelle de la fonction de régression et s est le


terme d'erreur, tel que m(x) = E(Y X = x) et v(v) = var(F X = x). Les
techniques de lissage par la méthode du noyau sont des outils non
paramétriques fort puissants afin d'estimer m(.), et les propriétés théoriques et
empiriques de ce type d'estimateurs sont bien connues dans les contextes des
plans fixes classiques et des plans aléatoires (voir, par exemple, Wand et

2 McKinsey & Company.


3 Département de mathématiques et statistique, Université de Montréal.
328 Enquêtes et sondages

Jones, 1995). Le plan aléatoire présume que {Xk, Yk),k = 1,/7, corresponds
à un échantillon bivarié de vecteurs aléatoires, tels que, conditionnellement
sur X,,..., Xn, les variables zk sont indépendantes de moyenne zéro et de
variance unitaire. Dans plusieurs circonstances, ce cadre est plus approprié
pour des données de sondage, comparativement au plan fixe, puisque la
variable réponse et le préviseur représentent souvent des variables
économiques, qui peuvent être présumées des variables aléatoires continues.
Wand et Jones (1995) procurent une introduction générale aux méthodes de
lissage par la méthode du noyau.
En échantillonnage, les moyennes et totaux de populations de tailles finies
sont des quantités traditionnelles d'intérêt. Or, dans les applications pratiques,
les estimateurs reposant sur une fonction noyau décrivant la relation
fonctionnelle entre X et L peuvent également être d'intérêt pour les
spécialistes des méthodes d'enquêtes. Par exemple, si un ajustement
polynomial local entre X et L suggère une relation linéaire, alors une haute
efficacité est attendue en utilisant les méthodes classiques reposant sur les
modèles linéaires ; les méthodes non paramétriques procurent une description
objective de la relation entre X et F, et dans ce cas, elles rassurent l'analyste
dans l'utilisation d'un modèle linéaire. D'un autre côté, si les méthodes non
paramétriques suggèrent fortement un comportement non linéaire, alors les
méthodes reposant sur les modèles linéaires sont inappropriées ; il peut alors
être préférable d'estimer un modèle non linéaire utilisant des méthodes
paramétriques ou non paramétriques. Les méthodes de lissage classiques par
la méthode du noyau décrites précédemment reposent sur l'hypothèse que le
terme d'erreur est constitué de variables aléatoires indépendantes et
identiquement distribuées (iid). Cette hypothèse n'est pas satisfaisante pour la
plupart des données provenant des plans de sondages complexes. Avec des
données d'enquêtes, une réalité omniprésente est la considération de plans de
sondages qui peuvent inclure des strates (violation de l'hypothèse supposant
des lois identiques) et des grappes (violation de l'hypothèse d'indépendance)
à l'étape du choix du plan de sondage. Plusieurs auteurs ont adapté les
techniques non paramétriques pour les données d'enquêtes, notamment Kom,
Midthune et Graubard (1997), Buskirk (1998), Kom et Graubard (1998),
Bellhouse et Stafford (1999, 2001), Breidt et Opsomer (2000), Johnson,
Breidt et Opsomer (2004), Opsomer et Miller (2005), Breidt, Claeskens et
Opsomer (2005), Goga (2005), et Buskirk et Lohr (2005).
Dans cet article, nous sommes intéressés par les propriétés asymptotiques
des estimateurs estimant la relation fonctionnelle entre X et Y. Plusieurs
cadres afin de faire l'inférence sont possibles, incluant des approches reposant
exclusivement sur le plan de sondage ou reposant uniquement sur le modèle.
Puisque les estimateurs que nous recommandons incluent des poids de
sondages, il semble naturel de considérer un mode d'inférence qui inclut une
composante faisant intervenir le plan de sondage. D'un autre côté, les
8. Estimation 329

estimateurs reposent sur une quantité sensible, le paramètre de lissage ; une


considération importante est la sélection optimale du paramètre de lissage
selon le critère usuel de type erreur quadratique moyenne (EQM). Cependant,
compte tenu des résultats de Buskirk et Lohr (2005), un modèle doit être
spécifié afin de choisir un paramètre de lissage. Voir aussi la discussion de
Opsomer et Miller (2005) sur les limites de considérer un estimateur
convergeant de l'EQM selon le plan de sondage, à des fins du choix de
paramètre de lissage. Compte tenu de ces considérations, nous adaptons ici
l'approche dite combinée, qui a été récemment préconisée par Buskirk et
Lohr (2005). Cette approche présume un processus en deux étapes :
- premièrement, les éléments de la population finie sont supposés des
réalisations d'un vecteur à N dimensions, N dénotant la taille de la
population, selon une distribution conjointe.
- Ensuite, un échantillon est sélectionné en utilisant un plan
d'échantillonnage dans la population finie.

L'approche combinée a été utilisée par Hartley et Sielken (1975),


Pfeffermann (1993) et Graubard et Korn (2002). Récemment, Buskirk et Lohr
(2005) ont dérivé des propriétés asymptotiques de leurs estimateurs dans le
contexte de l'estimation de la densité, et ces auteurs suggèrent que l'approche
d'inférence combinée est souvent la plus appropriée dans ce type de contexte.
Utilisant l'approche combinée, nous discutons des propriétés asymptotiques
des estimateurs polynomiaux locaux faisant intervenir le plan de sondage, et
nous donnons des formules explicites du biais, de la variance et donc de
l'erreur quadratique moyenne de l'estimateur linéaire local. Nous comparons
les relations existantes entre notre résultat asymptotique et celui obtenu selon
une approche purement modéliste. Il est intéressant de constater qu'un
paramètre de lissage optimal peut être dégagé de notre approche. Nous
trouvons que ce paramètre de lissage optimal est identique à celui obtenu pour
les données iid, à l'exception d'un facteur multiplicatif faisant intervenir le
plan de sondage. Des expériences de simulations ont été entreprises, et une
application utilisant les données d'une enquête canadienne portant sur la
dynamique du travail et du revenu illustre la méthodologie. Ces derniers
résultats sont brièvement discutés dans cet article. En fait, ce travail est un
résumé de Harms et Duchesne (2007), qui contient tous les développements
théoriques, ainsi que les illustrations empiriques (étude de simulations et
analyses avec des données d'enquêtes).

2.2 Préliminaires

Soit U une population finie. Le couple bivarié de variables aléatoires


{Xk,Yk),k g U, correspond aux variables auxiliaires et réponses associées à
chaque unité k dans U. L'objectif principal est d'estimer la relation
fonctionnelle m{x) entre le préviseur et la variable réponse, qui est définie
330 Enquêtes et sondages

pour tous les x dans le support de la distribution de la variable aléatoire X.


Afin d'estimer la fonction de régression, un échantillon 5 cz f/ de taille n est
sélectionné selon un plan de sondage complexe, donnant ainsi le taux de
sondage / = n/N. On note 7iA = ?r(s 3 k) et nkl = Pr(5 3 k,l), les
probabilités d'inclusion de premier et second ordre, respectivement.
L'inférence selon le plan est notée p. Ainsi, l'espérance et la variance selon le
plan de sondage sont notés E/) et F, respectivement.
Cependant, l'inférence selon le plan de sondage ne représente qu'une
première étape d'inférence. On suppose également que le vecteur {Xk,Yk) est
généré selon un modèle de superpopulation fournissant ainsi une étape
d'inférence modéliste. La distribution conjointe de {X,Y) est notée fXY (x,_y).
Nous supposons également que les Xk,k g U, sont indépendamment et
identiquement distribués avec densité marginale /v(x), qui est supposée
continue et bornée loin de zéro sur le support compact [0, 1]. On suppose que
l'on peut dériver deux fois la densité /v(x). L'espérance et la variance
modélistes sont notés E et F, respectivement. Ainsi en utilisant ces
notations la fonction de régression est donnée par m[x) = E (Y X = x) et
m(.) est supposée avoir une seconde dérivée continue. La fonction de variance
conditionnelle satisfait la relation v(x) = F (F X = x), et nous supposons
que v(.) est une fonction continue et strictement positive. Il est reconnu qu'il
est préférable de procéder à une inférence conditionnelle sur les variables
Xk,k e U (voir Wand et Jones, 1995, page 123). Conséquemment, l'espé-
rance mathématique conditionnelle est: £'(,(. Xr )=£{£"(. X;,Yr) X;,|, où
y; = yj et x[, =(x1,...,xv).
Opsomer et Miller (2005) et Harms et Duchesne (2007) ont considéré un
estimateur polynomial local faisant intervenir les poids de sondages dk = nk
et les poids de la fonction noyau Kh{x - xk) = h' K{(x - x^)//?}. La quantité
h est appelée le paramètre de lissage. La fonction K{.) est non-négative,
symétrique et son intégrale vaut un. On présume de plus que cette fonction est
bornée. L'estimateur linéaire local prend la forme suivante :

m (yh\ — - *)KV,U - *)>'*


s2{x;h)s„{x;h)-s*{x;h)

où l'on définit sr (x;/z) = X.^ (A _ x


) ^(A — x:
■ )- La prochaine section
donne le comportement asymptotique de l'estimateur précédent.

2.3 Propriétés asymptotiques des estimateurs

reposant sur une fonction noyau

Notre cadre asymptotique présume à l'étape modéliste une suite de


populations f/, chacune de taille N., tel que N. tend vers l'infini comme i
tend vers l'infini. Les populations finies sont générées indépendamment. A
l'étape d'échantillonnage, étant donné une population £7, un échantillon /?,
8. Estimation 331

est sélectionné selon le plan /?(.). Le plan de sondage est tel que niINi
converge vers une constante />0. Il est supposé que les probabilités du
premier ordre sont bornées inférieurement et qu'elles sont loin de zéro, et les
probabilités du second ordre satisfont la condition suivante :

limsup n max 1 71,., - tlti, < go.


^ ' k.leUi'.kïl kl k

La condition précédente est satisfaite pour un tirage aléatoire simple sans


remise, ainsi que pour l'échantillonnage de Poisson (voir Sàrndal, Swensson
et Wretman, 1992, pour des propriétés générales de ce plan de sondage). Voir
aussi Breidt et Opsomer (2000) et Harms et Duchesne (2007). Notons que
A = nN^'Yju (dk - 1) = ^9(1) est une quantité bornée ; on suppose de plus que
A( —> A, / —> co. On présume aussi que le paramètre de lissage hi satisfait
les relations /?/ —> 0 et Nh
i i —> go,J / —> co.
Le théorème principal, qui est démontré en détail dans Harms et Duchesne
(2007), est maintenant énoncé dans le résultat qui suit.
Théorème 1. L'erreur quadratique moyenne conditionnelle de l'estimateur
linéaire local sous le mode combiné d'inférence est donnée par la formule
suivante :

EQMc{mXx-,h) X,,} = \{m'\x)}2+

où ^(/é) - \z'K{z)dz et R{K) = \K\z)dz.


Le premier tenue dans le membre de droite du résultat énoncé dans le
Théorème 1 correspond en fait au biais carré alors que le second terme est
quant à lui la variance selon le mode combiné d'inférence. Cette variance se
calcule, conditionnellement à l'information auxiliaire, selon la relation
suivante : Vc = Eyr + VE^ Il est intéressant de noter que sous le plan
aléatoire simple sans remise, nous obtenons A + / = 1, et, dans ce cas, l'on
retrouve l'EQM asymptotique sous un tirage iid. En fait, il peut être montré
que sous les plans à taille fixe A + / > 1 avec égalité uniquement sous une
pondération égale. Un corollaire du Théorème 1 est la convergence de
l'estimateur local linéaire.

2.4 Choix du paramètre de lissage pour

l'estimateur linéaire local reposant sur le

plan de sondage

Le choix optimal du paramètre de lissage est obtenu en dérivant l'EQM


obtenu dans le Théorème 1 par rapport à /?, et en égalant cette dérivée à zéro.
Résolvant, on trouve que la solution satisfait :
332 Enquêtes et sondages

1/5
/r(x) = «-"5(A + /)'

En principe, un paramètre de lissage différent pourrait être calculé


individuellement pour chaque valeur de x. Cependant, en imposant une
condition d'intégrabilité sur la seconde dérivée m\x), il peut être préférable
et plus simple d'adopter un critère d'erreur global, comme un critère d'erreur
quadratique moyenne intégrée pondérée (ce critère est dit de type MISE).
Voir par exemple Wand et Jones (1995) et Harms et Duchesne (2007) pour
plus de détails. Selon ce critère, en présumant afin de simplifier que nous
sommes dans une situation homoscédastique V{Yk\Xk = x) = cf,V£ g U,
nous obtenons le paramètre de lissage optimal global :

~R{K)g2T
hop ' = n
MISE (a + /)'

où 0, = f{x)dx. Il est intéressant de constater que ces paramètres


de lissage optimaux sont en fait identiques à ceux obtenus pour des données
iid, à l'exception d'un facteur multiplicatif faisant intervenir le plan de
sondage. Harms et Duchesne (2007) donnent des exemples montrant que ce
facteur peut être passablement important, par exemple dans des plans de
sondages stratifiés.

2.5 Simulations et application avec le sondage

canadien sur la dynamique du travail et du

revenu

Un aspect pratique porte sur la comparaison de l'estimateur linéaire local


faisant intervenir les poids de sondage avec l'estimateur purement modéliste
qui ignore ces poids. La plupart des études disponibles dans la littérature sur
les ajustements polynomiaux avec des données d'enquêtes utilisent des plans
aléatoires simples sans remise. Il semble approprié d'effectuer des études
supplémentaires avec des plans ayant des probabilités d'inclusion du premier
ordre égales, mais également inégales.
A cette fin, plusieurs estimateurs sont évalués par rapport au biais, à la
variance et à l'EQM dans Harms et Duchesne (2007) : l'estimateur proposé
faisant intervenir les poids de sondage, calculé avec un paramètre de lissage
optimal selon le mode combiné d'inférence, et l'estimateur modéliste, calculé
avec le paramètre de lissage optimal mais présumant des données iid. Les
résultats sont rapportés dans Harms et Duchesne (2007) pour les plans
aléatoires simples, de Poisson et dans des plans stratifiés dans plusieurs
populations. Ils trouvent que de sérieux problèmes de biais peuvent survenir
lorsque les estimateurs usuels sont utilisés dans des plans de sondages avec
probabilités inégales.
8. Estimation 333

La méthodologie proposée a également été appliquée sur l'enquête


canadienne portant sur la dynamique du travail et du revenu. Harms et
Duchcsne (2007) illustrent que les conclusions peuvent être quelque peu
faussées lorsque l'on utilise la méthodologie pour des données iid alors qu'en
fait les données proviennent d'un échantillon issu d'un plan de sondage
complexe.

BIBLIOGRAPHIE

Bellhouse, D.R., et Stafford, J.E. (1999). Density estimation from complex


surveys. Statistica Sinica, vol. 9, 407-424.
Bellhouse, D.R., et Stafford, J.E. (2001). Régression polynomiale locale dans
le cas des enquêtes complexes. Techniques d'enquête, vol. 27, 219-226.
Breidt, F.J., Claeskens, G. et Opsomer, J.D. (2005). Model-assisted estimation
for complex surveys using penalised splines. Biometrika, vol. 92, 831-846.
Breidt, F.J., et Opsomer, J.D. (2000). Local polynomial régression estimators
in survey sampling. The Annals of Statistics, vol. 28, 1026-1053.
Buskirk, T.D. (1998). Nonparametric density estimation using complex
survey data. Proceedings of the Survey Research Methods Section,
American Statistical Association, Washington, D.C., 799-801.
Buskirk, T.D., et Lohr, S.L. (2005). Asymptotic properties of kernel density
estimation with complex survey data. Journal of Statistical Planning and
Inference,\o\. 128, 165-190.
Goga, C. (2005). Réduction de la variance dans les sondages en présence
d'infonuation auxiliaire : une approche non paramétrique par splines de
régression. La revue canadienne de statistique, vol. 33, 163-180.
Graubard, B.L, et Kom, E.L. (2002). Inference for superpopulation
parameters using sample surveys. Statistica Sinica, vol. 17, 73-96.
Harms, T., et Duchesne, P. (2007). On kernel nonparametric régression
designed for complex survey data. Rapport technique, Montréal, Québec :
Université de Montréal.
Hartley, H.O., et Sielken, R.L. Jr. (1975). A "super-population viewpoint" for
finite population sampling. Biométries, vol. 31,411-422.
Johnson, A.A., Breidt, F.J. et Opsomer, J.D. (2004). Estimating distribution
functions from survey data using nonparametric régression. Rapport
technique 04-07, Ames, lowa, lowa State University.
Kom, E., et Graubard, B. (1998). Scatterplots with survey data. The American
Statistician, vol. 52, 58-69.
Korn, E., Midthune, D. et Graubard, B. (1997). Estimating interpolated
percentiles from grouped data with large samples. Journal of Officiai
Statistics, vol. 13, 385-399.
334 Enquêtes et sondages

Opsomer, J.D., et Miller, C.P. (2005). Selecting the amount of smoothing in


nonparametric régression estimation for complex surveys. Journal of
Nonparametric Statistics, vol. 17, 593-611.
Pfeffermann, D. (1993). The rôle of sampling weights when modeling survey
data. Revue Internationale de Statistique, vol. 61,317-337.
Sârndal, C.-E., Swensson, B. et Wretman, J. (1992). Model Assisted Survey
Sampling, New York : Springer-Verlag.
Wand, M.P., et Jones, M.C. (1995). Kernel Smoothing, New York : Chapman
& Hall/CRC.

3. Un échantillon double pour minimiser le

biais dû à la non-réponse dans un

sondage par courrier

4
Herbert L. SMITH

3.1 Introduction

Une grande enquête auprès des infirmières réalisée dans les états américains
de Californie (CA) et Pennsylvanie (PA) s'appuie sur deux grands
CA PA
échantillons de tailles n ^ 100000 et n « 65000. L'enquête a été réalisée
CA
par la poste; les taux de réponse sont p =0,21 et p''A = 0,39, ainsi les
CA
effectifs de répondants sont ny =28 000 et nf = 25 000. Les répondants
sont donc encore nombreux mais on peut craindre des biais importants dus à
la non-réponse. Pour estimer et corriger ces biais, un deuxième échantillon
aléatoire, pour lequel le taux de réponse (les deux états confondus) est
supérieur à 91 % (grâce aux encouragements financiers et surtout un
questionnaire plus bref), a été tiré parmi les non-répondants à la première
enquête. Les deux échantillons sont joints pour constituer un échantillon
double.
L'idée d'un échantillon double date de Hansen et al. (1946), qui ont montré
qu'un deuxième échantillon aléatoire, tiré parmi les non-répondants à
l'échantillon initial, pouvait être combiné avec le premier échantillon pour
créer les estimateurs des moyennes sans biais, sans que l'enquête se soit
achevée avec un taux de réponse initial de 100%. Cette méthode n'est
employée que rarement pour plusieurs raisons dont l'une est que les mêmes
facteurs qui mènent à une non-réponse dans le sondage initial rendent difficile
l'obtention d'un meilleur taux de réponse parmi l'échantillon des personnes
qui ont déjà refusé de répondre. Également, il y a une tendance à consacrer

4 Centre pour l'Étude de Population, Université de Pennsylvanie, 3718 Locust Walk,


Philadelphie, Pennsylvanie, 19104-6298, États-Unis. Courriel : hsmith@pop.upcnn.cdu.
8. Estimation 335

toutes les ressources disponibles à la recherche d'une taille d'échantillon


maximale.
L'enquête sur les infirmières fut entreprise dans un climat tendu entre les
infirmières, les hôpitaux, et les politiques, particulièrement en Californie, où
une loi nouvelle, très contestée, a fixé le nombre d'infirmières par malades.
Un objectif de cette enquête était de comprendre l'organisation du travail dans
les hôpitaux du point de vue des infirmières qui travaillent au sein de chacun
d'entre eux. Mais le plan de sondage « naturel », un sondage à deux degrés,
premièrement des hôpitaux, deuxièmement des infirmières dans chaque
hôpital sélectionné, a été abandonné par peur que certains hôpitaux refusent
de participer, et que cette auto-sélection des hôpitaux, liée au phénomène
étudié crée plus de biais qu'un grand sondage d'infirmières à un seul degré,
où les infirmières pourraient indiquer leur lieu de travail de telle façon que
leurs réponses seraient agrégées au niveau de l'hôpital. Ainsi les hôpitaux ne
pourraient pas refuser de participer (par le biais de leurs infirmières) à
l'enquête. En revanche, comme on ne pouvait pas savoir à priori dans quel
hôpital travaillait chaque infirmière, il fallait un échantillon initial très grand,
conduit par la poste, avec comme résultat un taux de réponse très bas.

3.2 Efficacité relative d'un échantillon double

Les estimateurs sans biais dans un échantillon double de la moyenne et de


l'écart-type d'une variable V sont bien connus (Glynn et a/., 1993). Ils
existent sous l'hypothèse selon laquelle tous les Hq, non-répondants initiaux
qui sont tirés dans le deuxième échantillon répondent à cette occasion. Si cette
hypothèse n'est pas vérifiée, mais que le taux de réponse dans le deuxième
échantillon est très élevé (comme le nôtre, à 91 %), les estimateurs sont
« approximativement sans biais » (Levy et al, 1999).
La moyenne (C pour «classique») est yc ={nlyi + n0y0])/n. L'écart-
type estimé en supposant la population de départ infinie est :

où 5, et ^01 sont les écarts-types dans les premier et deuxième échantillons


respectivement. Quand il n'y a qu'un seul échantillon (en ignorant le biais
éventuel dû à la non-réponse), les estimateurs de la moyenne et son écart-type
sont yl et SE(y]) = yjs] lnx. Le ratio des variances {K) pour une moyenne
calculée par rapport à un échantillon double contre celle d'un seul échantillon
est le suivant :

Var(r)/Var(y,) = p: + p(\ - + P!(l - =K


s
\ \ J \ •S\ y
avec p = njn la proportion du premier échantillon qui a répondu et
/ = n()Jla proportion de non-répondants au premier sondage sélectionnée
336 Enquêtes et sondages

pour le deuxième échantillon. Sous les simplifications » s,2 (les variances


dans les deux échantillons sont plus ou moins égales) et 5, » y0i - y0 (la
variance intra-échantillon soit plus grande que les différences moyennes entre
les deux échantillons), le ratio des variances vaut p2 + p{\-p)f~\
L'efficacité relative de = 1 s'obtient quand / = /?(!- p) (\ - p ).

Figure 8.1 : Efficacité relative d'un échantillon double

»■
o Combinaisons
impossibles des
tailles 0,5.v
d'échantillon
0
' ' S .2
CN
O
B w
. U-5 C3OB
^,0.-0
2x
4x

—i— O ^
w
0,8 0,6 0,4 0,2
Taux de réponse dans l'échantillon initial

Équivalence ( Ix) des écarts-types : échantillon double et sondage


unique (autres ratios comme indiqués)
Ratio des écarts-types : sondage unique avec non-réponse par
rapport a un sondage sans non-réponse

La figure 8.1 montre, pour quelques valeurs de V/f , le ratio d'écarts-types,


la proportion de l'échantillon original n requise pour des taux de réponses
initiaux p variés. L'ordonnée de ces courbes est g = f{\- p). L'abscisse
est le taux de réponse initial, /?, sur une échelle inversée de 1 à 0. La courbe
solide la plus épaisse correspond à = 1, avec l'estimateur « classique » de
la moyenne d'un double échantillon de même variance (ou écart-type) comme
elle serait calculée avec un ensemble initial de répondants de taille n{ =np.
Quand le taux de réponse diminue, le nombre de répondants requis dans le
deuxième échantillon pour maintenir la même efficacité relative augmente
jusqu'à p — 0,414, ensuite il diminue', il faut de moins en moins de
répondants dans la deuxième étape pour maintenir l'efficacité relative quand
le taux de réponse diminue. C'est la même chose avec les autres courbes,
correspondent à des valeurs de > 1, sauf que le point d'inflexion,
max(/7 | K), diminue, vers une asymptote à 1/3. Cela parait un peu étrange de
penser qu'un taux de réponse pire p < max(/2 | K) requiert une plus petite
taille d'échantillon au deuxième sondage pour maintenir la même erreur
d'échantillonnage, mais c'est une égalité relative. L'efficacité absolue
8. Estimation 337

diminue comme une fonction de p " \ comme indiqué par la ligne pointillée
sur la figure 8.1. En effet, si l'on considère p, le taux de réponse initial,
comme fixé, et g = n0Jn également : On réalise une enquête et on obtient un
taux de réponse. Persuader les non-répondants de participer à la deuxième
étape n'est pas facile, particulièrement quand il faut obtenir une réponse de
toutes les unités tirées dans le deuxième échantillon. Il s'agit de se demander :
« Avec un peu plus effort (en argent, en temps) de combien l'efficacité de
l'estimateur s'améliorerait-elle avec un deuxième échantillon un peu plus
grand ? » Comme les dépenses ont tendance à être linéaires par rapport à «01,
on gagne plus quand on quitte la région 0,41 > p > 0,33. Dans cette région,
K est maximalement écarté et l'augmentation de n0] est la moins efficace.
Même si n{)l et donc g sont petits, l'estimateur pour l'échantillon double
sera préféré, parce que l'erreur d'échantillonnage n'est pas la seule source
d'erreur. On peut tenir compte du biais en utilisant: EQM(y) =
Var( vj + Biais2, l'écart erreur quadratique moyenne de l'estimateur yc.
L'estimateur « classique » pour l'échantillon double yc n'est pas biaisé et
son erreur quadratique moyenne est une fonction de l'écart-type :
EQM= ) = K • Var(yI). Mais l'estimateur fondé seulement sur
le premier échantillon est probablement biaisé: Biais(yl) = yl - yc = y,-
\py\ + 0 - /Ofoi] "0 - P){y\ ~ foi)- Donc son erreur quadratique moyenne
est EQM(yl) = (\- py{yx - y0])' +Var(>'l). Cela signifie que l'estimateur
pour l'échantillon double est un meilleur estimateur de la vraie valeur de la
moyenne, même dans des cas où sa variance est supérieure à celle du premier
échantillon, car il ne souffre pas du biais dû à la non-réponse. Si on appelle
REQM la racine carrée de l'erreur quadratique moyenne, on a :

3.3 Application à l'enquête sur les infirmières

Quelques résultats sont présentés dans le tableau 8.1. L'indicateur le plus


intéressant se trouve dans la dernière colonne, le ratio des deux racines
carrées de l'erreur quadratique moyenne : l'erreur totale de l'échantillon
double contre celle du sondage initial avec un échantillon initial de grande
taille, mais également un taux de non-réponse élevé. Quand le ratio est
inférieur à l'unité (1), l'estimateur de l'échantillon double est le plus efficace ;
le biais dans le sondage initial (inconnu en l'absence de deuxième sondage)
est assez important pour ne pas être compensé par la petite erreur
d'échantillonnage.
En revanche, quand le ratio est supérieur à 1, le biais est assez petit pour
que l'estimateur issu du premier sondage soit préféré — après coup — par
rapport à l'estimateur de l'échantillon double. Avec les deuxièmes
échantillons de taille inférieure à 1 % du sondage initial et des taux de
338 Enquêtes et sondages

réponse dans le voisinage de 25-40 %, les ratios de 4 et 5 montrent que le


deuxième sondage n'est pas toujours efficace. En particulier pour les
évaluations des hôpitaux, le deuxième sondage des non-répondants
n'améliore pas les estimations, parce qu'il s'avère qu'il n'y a aucune
différence d'évaluation entre les infirmières qui ont répondu en premier lieu
et celles qui ont refusé au début. Cela importe peu que ce second groupe se
différencie du premier par rapport aux caractéristiques démographiques (sexe,
race, origine nationale), le type d'information trouvé, par exemple, dans une
base de sondage, qui sert à « informer » la pondération liée à la méthode de
post-stratification.

Tableau 8.1 : Moyenne et REQM par échantillon : premier (1),


deuxième (2), et Testimateur de Téchantillon double (doublé)
Moyen REQM
Question État 1 2 Double
1 Double Ratio
(£) tel) tec)
Caractéristiques (CA: n. « 28 000, n... « 525; PA : n. » 25 000, «... » 580)
Sexe (proportion CA 0,060 0,106 0,094 0,034 0,010 0,29
d'hommes)
PA 0,040 0,077 0,062 0,024 0,007 0,28
Race (proportion CA 0,714 0,650 0,667 0,047 0,016 0,32
de blancs) PA 0,945 0,921 0,930 0,015 0,007 0,46
Origine nationale CA 0,100 0,158 0,142 0,042 0,142 0,27
(proportion de
philippine) PA 0,004 0,010 0,008 0,004 0,003 0,70
Education
CA 0,599 0,527 0,546 0,053 0,016 0,30
(proportion avec
un diplôme
PA 0,469 0,465 0,466 0,004 0,013 3,27
élevé)
Travail avec les CA 0,588 0,631 0,620 0,032 0,015 0,48
malades
(proportion) PA 0,560 0,585 0,575 0,015 0,012 0,81
Évaluation d'emploi (CA : «. » 23 000, «... « 443; PA: n. » 19 600, «... « 490; s » 0,80)
Êtes-vous
CA 1,83 1,79 1,80 0,028 0,028 1,00
satisfait de votre
travail
PA 1,98 2,00 1,99 0,012 0,024 1,93
(1 = très à 4)
Sentiments (CA : «. » 22 000, «„, » 440; PA : «. « 18 500, «((1 » 494; s » 1,75)
Je me sens usé à
CA 4,19 4,04 4,08 0,117 0,062 0,53
la fin de ma
journée
PA 4,33 4,37 4,36 0,027 0,050 1,84
(1 = jamais à 7)
Je me sens
CA 3,11 3,11 3,11 0,012 0,063 5,19
épuisé par mon
travail
PA 3,24 3,37 3,33 0,082 0,054 0,65
(1 = jamais à 7)
Facettes favorables de l'hôpita
(CA : «. « 15 914, «„. « 342; PA : «. « 13 430, « „. « 371; s « 0,6)
Échelle de 14
CA 2,18 2,18 2,18 0,006 0,027 4,31
questions
(1 = fortement
PA 2,33 2,33 2,33 0,005 0,022 4,15
d'accord à 4)
8. Estimation 339

Bien sûr, on ignore ces faits en l'absence du deuxième sondage des non-
répondants. Mais après les avoir appris, faut-il présenter les écarts-types
obtenus avec l'estimateur pour l'échantillon double? En l'absence de biais,
cela coûte cher : on aurait préféré savoir en avance si ce biais existait ou non !

BIBLIOGRAPHIE

Glynn, R, Laird, N. et Rubin, D. (1993). Multiple imputation in mixture


models for nonignorable nonresponse with follow-ups. Journal of the
American Statistical Association, vol. 88, n0423, 984-993.
Hansen, M., et Hurwitz, W. (1946). The problem of non-response in sample
surveys. Journal of the American Statistical Association, vol. 41, n0236,
517-529.
Levy, P., et Lemeshow, S. (1999). Sampling of populations, New York : John
Wiley & Sons, Inc.

4. Sondage à deux systèmes d'unités

primaires couplées

Sébastien HALLÉPÉE et Vincent LOONIS5

4.1 Introduction

L'enquête Vie Quotidienne et Santé (VQS) est une enquête filtre. Elle doit, à
partir d'un questionnaire court, permettre l'élaboration d'une base de sondage
qui servira, dans une seconde phase, à l'échantillonnage de l'enquête
Handicap-Santé (HID). Dans un premier temps, le questionnaire de l'enquête
VQS est administré, en avril 2007, par voie postale à tous les membres d'un
échantillon de 90 000 ménages. Les non-répondants postaux feront l'objet
d'une visite en face-à-face au second semestre 2007. La dimension postale de
ce protocole implique la sélection des ménages dans une base de sondage
dont la qualité d'adressage est suffisante : cela exclut l'échantillon maître
99 (EM99) et incite à mobiliser, pour la première fois, une enquête annuelle
de recensement (EAR) comme base de sondage ; en Toccurrence l'EAR
2006. La collecte en face-à-face conduit à s'appuyer sur le réseau des
enquêteurs de l'Insee et donc à sélectionner les ménages dans les unités
primaires (UP) de rEM99.
Ces deux contraintes ne sont pas compatibles. Les unités primaires de
rEM99 ont été construites dans le cadre du recensement général de 1999. Le
nouveau recensement est rotatif. Il distingue les grandes communes (plus de
10 000 habitants) dont les logements sont enquêtés tous les ans au taux de

5 Inscc : Unité Méthodes Statistiques, scbasticn.hallcpce@inscc.fr et vinccnt.loonis@inscc.fT.


340 Enquêtes et sondages

8 %, des petites communes dont l/5eme est recensé tous les ans. De ce fait, en
2006, certaines UP de l'EMOO, composées uniquement de petites communes
au sens du recensement, n'ont aucune commune recensée. Elles ne seront pas
intégrées à l'échantillon de VQS. Statistiquement, cette situation n'est pas
problématique. Elle contribue à augmenter la variance des estimations sans
créer de biais. D'un point de vue organisationnel, les conséquences sont plus
importantes. On dénombre 576 UP dans cette situation, sur un total de 349.
Elles sont principalement situées dans le rural et le petit urbain, strates dans
lesquelles la correspondance 1 UP = 1 enquêteur peut être considérée
comme vérifiée. En conséquence, ne pas tenir compte de ces UP conduit à
exclure une partie non négligeable du réseau d'enquêteur. Rejetant, pour des
raisons de fraîcheur des adresses, la possibilité de tirer pour partie
l'échantillon dans l'enquête de recensement 2005, il a donc été nécessaire de
mettre au point une méthode qui assure une charge de travail minimale pour
tous les enquêteurs tout en répondant à des contraintes de qualité statistique.
Le principe de cette méthode est de remplacer une unité primaire « à
problème » par une « entité géographique » dont on est certain, par
construction, qu'elle ne posera pas de problèmes.
On voit apparaître les éléments constitutifs de notre méthode : deux
partitions du territoire, la première dans laquelle s'effectue l'échantillonnage
principal, la seconde dans laquelle s'effectuera l'échantillonnage de
remplacement. Pour déterminer quelle ZAE sera amenée à remplacer une UP
défaillante, il faut définir une relation entre les deux partitions. La ZAE de
remplacement sera sélectionnée parmi les ZAE en relation avec l'UP à
remplacer. Ces éléments inscrivent ce mode de sélection dans le cadre de la
méthode généralisée du partage des poids (Lavallée, 2002). On sait dès lors
que l'inférence à partir de l'échantillon de ZAE sera sans biais si chaque ZAE
est reliée à au moins une UP. On s'attachera dans la définition de la relation à
vérifier cette contrainte. Cet article est constitué comme suit : dans une
première partie, on propose une formalisation générale qui conduit à la mise
en place des estimateurs. Dans une deuxième partie, on adapte l'enquête VQS
à ce cadre général en le modifiant marginalement. En particulier, certaines
probabilités apparaissant dans les estimateurs sont inconnues et sont estimées
par simulation.

4.2 Formalisation

On s'intéresse à une population U de taille V et à l'estimation d'un total tv


d'une variable y. On dispose sur U de deux partitions en unités primaires : P
et ^ à respectivement M et Mh éléments. On suppose qu'il existe une

6 51 unités primaires totalement vides et 6 unités primaires dont les communes recensées
ont au total moins de 100 résidences principales, ce qui a été jugé insuffisant pour
assurer une bonne allocation finale de l'échantillon.
8. Estimation 341

correspondance entre les éléments de P et Ph, telle que £ >0 éléments de P


pointent vers l'élément j de Ph. On procède comme suit :
- On sélectionne un échantillon Sx d'UP dans P selon un plan px(S^.
On note 7t', la probabilité d'inclusion de l'UP i dans
- On sélectionne un échantillon d'UP dans S] selon un plan
:
pXS^S^). On note 7i la probabilité d'inclusion de l'UP i dans S2,
sachant 5,;
- Pour tout élément / de S2, on considère l'ensemble E des UP j de Ph
qui sont en relation avec i. Dans cet ensemble, on sélectionne une UP
selon un plan à probabilités inégales. Pour tout j de E., on note n'. >0
la probabilité de sélection associée, conditionnelle à 5", et S2\
- On note S, l'échantillon final, sans répétition, des UP de Ph
sélectionnées à l'étape précédente et 7r; la probabilité d'inclusion de
l'UP j dans Sy\
- L'échantillon final est la réunion de 5, et de Sy

On admet, pour simplifier, que le total de pour tout élément k, de Pa ou


Ph, est connu : tv k Pour estimer ty, on dispose de plusieurs estimateurs sans
biais :

â = z K = z
ie5, Tt. JeS. 71
(1)
f = y ju- y 1
]ïSî L'j ieS2JeEj Ki 711 K i
/V
où t[ est l'estimateur d'Horvitz-Thompson à l'issue du sondage en grappe
selon le plan f est l'estimateur d'Horvitz-Thompson à l'issue du plan
de sondage qui conduit à la sélection de Si et t} est l'estimateur par
expansion dans le cadre du partage des poids avec sélection aléatoire d'un des
liens. Selon l'accessibilité des différentes probabilités d'inclusion, on
estimera le total par :

= af, + (1 - a)L où f"n = af, + (1 - a) /3, (2)

où a est un coefficient à valeur dans [0, 1]. En théorie, comme pour tout
estimateur composite, il existe une valeur optimale de a. Elle dépend de la
variance et de la covariance des estimateurs intervenant dans la formulation
de / '"(r - 1 ou 2). Dans la pratique, ces quantités étant inconnues et difficiles
à estimer, on prendra pour a la part des unités secondaires de l'échantillon
final (S, u S}) qui se trouvent dans S].

4.3 Application à l'enquête VQS

Le champ de l'enquête VQS est celui des ménages ordinaires : Q. Dans un


processus standard, l'échantillonnage aurait été réalisé entièrement dans les
342 Enquêtes et sondages

UP de rEM99. En ajoutant la contrainte du nouveau recensement, les UP


potentiellement «à problème » sont celles constituées uniquement de
communes de moins de 10 000 habitants. Les autres auront toujours au moins
une grande commune recensée en 2006. Aussi, considère-t-on Q sous la
fonue :
Q = CT10000 U Q"10000, où Q-'0000 est la partie du territoire métropolitain
constitué des UP de l'EM99 ne comportant que des communes de moins de
10 000 habitants et Q le complémentaire de Q-10000. Au sens de l'EMOO,
ces ensembles constituent des domaines. Ils sont suffisamment grands pour
que la taille de l'échantillon qui les recoupe n'oblige pas à mettre en œuvre
les techniques d'estimation sur petits domaines. Aussi, avec les notations de
101,1,11
la partie précédente a-t-on C/ = Q , et de manière plus détaillée :
- F est la partition de U selon les UP de l'EM99 ;
- Ph est la partition de U selon la méthode retenue pour la constitution
des Zones Actions Enquêteurs (ZAE) dans le projet « nouveaux
échantillons ». Ceci nous assure d'y trouver des logements recensés
en 2006 ; (Faivre et Loonis, 2007) ;
- La correspondance entre UP de rEM99 et ZAE est définie comme
suit : deux unités i et j seront en relation si elles ont au moins une
commune en commun. Afin de minimiser les distances à parcourir
par les enquêteurs pour atteindre leur lieu de travail transitoire,
certains liens entre UP et ZAE ont été détruits tout en s'assurant que
la relation restait bien une correspondance, c'est-à-dire que chaque
élément de Fa est en relation avec au moins 1 élément de F,h et
réciproquement. L/ s'interprète alors comme le nombre d'UP de
rEM99 recouvertes totalement ou partiellement par la ZAE j ;
- 5, est l'intersection de l'échantillon S[ des UP selon le plan de
sondage retenu pour la constitution de rEM99 avec le domaine U ;
- résulte d'une simplification du nouveau recensement modélisé ici,
pour les petites communes, comme un sondage poissonien de
communes avec la probabilité 1/5. Une UP i appartiendra à S, si le
nombre total de résidences principales recensées une année donnée
est inférieur ou égal à 100. La probabilité tt est donc indépendante
du tirage de première phase ;
- Pour une UP i de une seule ZAE j de £, au sens de la
correspondance précédente, sera sélectionnée avec la probabilité tt'.,
égale à la proportion du nombre d'habitants de l'UP i que l'on
retrouve dans la ZAE j/. D'autres définitions de n' sont
j
envisageables ;
- Le total d'intérêt porte sur Q, et non pas seulement sur le domaine
U = Q"l0(,<"1. Par ailleurs, le plan de sondage à l'intérieur d'une UP (de
5,) ou d'une ZAE (de S,) n'a pas été décrit. On admet qu'il conduit
8. Estimation 343

à la formulation d'un estimateur sans biais t (resp. f ) de tx i (resp.


f ). Au final, l'adaptation des formules (1) et (2) à ce contexte
conduit aux estimateurs concurrents :
/V /V ^

Z %+a Z 00 5 + (l-a)zV (3)


^ l'eSjnQ"0000 71 j ieS■|n^2-""• 71, JeS3 7ly

et

A , = Z -5+ a Z -fr + (1 - a) Z -r1 Z • (4)


/e5;on*,<,oai 7lf ieïnn-""** 71, JzS3 L. ieS, 71,71,71
il JeE, '

La mise en pratique de ces formules se heurte à un dernier problème. Les


probabilités rr et 7ii sont inconnues. Elles peuvent cependant être estimées
par simulation.

4.4 Simulations des probabilités d'inclusion

tt est la probabilité que l'UP z de l'EM99 soit « à problème » une année


donnée, c'est-à-dire qu'aucune commune de l'UP n'a été recensée, ou de
manière plus précise que le nombre de résidences principales recensées une
année donnée soit inférieur à 100. Compte tenu de notre modélisation, cette
probabilité peut s'exprimer en fonction de variables de Bernoulli
1
indépendantes. En effet, soit res , le nombre de résidences principales de la
commune k de l'UP z et A^une variable de Bernoulli de paramètre p -\I5,
si l'on note n., le nombre total de communes de l'UP z, alors on a :

< = P(t rest X: < lOoj. (5)

est
La loi de la quantité difficile à trouver en théorie mais facile
en pratique à simuler. Si bien que l'on parvient à un estimateur rr
convergeant vers n\ La probabilité tt est la probabilité que la ZAE j soit
sélectionnée dans l'échantillon Sv Elle est plus difficile à trouver
théoriquement. Disposant de l'ensemble des informations nécessaires à la
réplication du processus de sélection des ZAE, on peut cependant définir un
estimateur 7ij convergeant vers 7ir Les estimateurs finaux sont obtenus par
substitution dans (3) et (4) de jr(resp rc ) à tt (resp ti ). La convergence de
7r(resp fc ) implique que les estimateurs substitués sont asymptotiquement
sans biais.
La structure des estimateurs (3) et (4) est identique. L'estimateur (3) ne fait
intervenir cependant que des estimateurs d'Horvitz-Thompson, dont les
propriétés théoriques sont relativement bien connues (notamment le calcul de
la variance), alors que l'estimateur (4) intègre à la fois des estimateurs en
expansion et des estimateurs issus du partage des poids. Cette dernière
344 Enquêtes et sondages

difficulté a conduit à préférer dans la pratique l'estimateur substitué issu


de (3).

BIBLIOGRAPHIE

Faivre, S., et Loonis, V. (2007). Construction des Zones Action Enquêteurs


dans le projet : nouveaux échantillons, article présenté au Colloque
Francophone sur les Sondages 2007, Marseille.
Lavallée, P. (2002). Le sondage indirect, Bruxelles-Paris, Éditions de
l'Université de Bruxelles et Ellipses.

5. Intégration de deux sources de

données dans les inventaires forestiers

du Québec

Sophie BAILLARGEON et Louis-Paul RIVEST7

5.1 Introduction

L'industrie forestière revêt une grande importance économique au Québec.


Environ 75 % de la forêt exploitée est publique ; c'est le gouvernement qui
émet les permis de coupe de bois aux compagnies forestières. La gestion de la
forêt publique s'appuie sur le principe du rendement soutenu. Il cherche à
maximiser la récolte tout en assurant la pérennité de la ressource. L'inventaire
forestier est à la base du système de gestion. Le territoire à l'étude est d'abord
divisé en unités d'aménagement forestier. L'inventaire estime le volume de
bois sur pieds dans une unité d'aménagement ; c'est à partir de cette
estimation que l'on évalue l'impact de différents scénarios de récolte
sylvicole dans l'unité.
8 r
L'inventaire forestier' utilise la photographie aérienne pour découper une
unité d'aménagement en polygones. L'information photo permet d'associer à
un polygone les principales espèces d'arbres du polygone, un âge et une
hauteur approximative, et des variables écologiques. Les polygones sont
ensuite regroupés en strates homogènes sur la base de cette information. On
peut souvent compter plus de l 000 strates dans une unité d'aménagement.
Une fois les strates formées, un échantillon de placettes de 400m'' est tiré dans
chaque strate. Des forestiers visitent une placette échantillonnée ; ils y
recensent les tiges marchandes et estiment les volumes par essence. L'objectif

7 Département de mathématique et de statistique, Université Laval, (sophie.baillargcon@


mat.ulaval.ca, Iouis-pauI.rivest@mat.ulaval.ca). Les auteurs remercient Sylvain Bemier
pour sa lecture attentive de cet article et le Conseil de recherche en sciences naturelles et
en génie du Canada pour son soutien financier.
8 Voir http://www.mrnf.gouv.qc.ca/forcts/connaissances/connaissanccs-invcntairc.jsp.
8. Estimation 345

institutionnel est d'avoir 15 placettes par strate; cette taille d'échantillon


assure une précision acceptable dans la plupart des strates. Étant donné le
grand nombre de strates et le coût associé à la visite d'une placette, les
budgets disponibles ne permettent généralement pas d'atteindre cet objectif
avec des placettes échantillonnées. Il faut donc trouver d'autres sources de
données. Les placettes mesurées lors de l'inventaire précédent, environ dix
ans avant l'inventaire actuel, constituent une source peu coûteuse
d'information additionnelle.
Si elles n'ont pas subi d'événements perturbateurs, les placettes observées
lors de l'inventaire précédent contiennent encore de l'information pertinente.
Il suffit d'utiliser un modèle de croissance pour faire vieillir d'une dizaine
d'années les résultats observés. Comment intégrer les données de ces
« placettes actualisées » aux données pour les « placettes échantillonnées » ?
Il est impossible de ré-observer une placette d'un inventaire à l'autre.
L'échantillonnage à deux phases ne s'applique pas à ce contexte. Cet article
utilise des modèles linéaires mixtes pour formaliser l'observation naïve
qu'une placette actualisée contient moins d'information qu'une placette
échantillonnée.

5.2 Un modèle linéaire mixte pour comparer

placettes échantillonnées et placettes

actualisées

5.2.1 Construction et ajustement du modèle

La variable dépendante y est le volume de bois par hectare. En plus des


facteurs strate (indice s) et type de placette (actualisée versus échantillonnée,
indice J), le modèle tient compte d'un facteur à quatre modalités, la classe de
densité (indice /), associée à la proportion du territoire couvert par la forêt. Le
modèle proposé est le suivant,

sy...
IJSK =u
* + t l + a.J + 5S + xô IS + a5 JS +8...
IJSK


- t. est l'effet fixe de la classe de densité, i = 1, ..., 4,
- oc/ est l'effet fixe du type de placette, y = 1, 2,
- 5s est l'effet fixe de la strate 5 = 1, ..., S (où S = nombre de strates),
- xô.IS est l'effet fixe de la classe de densité dans la strate,'
- a5 - yV(0,cr,) est l'effet aléatoire du type de placette dans la strate,
- 8(M ~ N{0, cr) où & est la variance résiduelle et l'indice k est
associé aux répétitions dans le traitement (/, y, s).
346 Enquêtes et sondages

Ce modèle a été ajusté à un échantillon de 1 000 strates du troisième


inventaire forestier du Québec, à l'aide de la procédure MIXED de SAS. En
effet un manque de mémoire informatique a fait que le modèle ne pouvait pas
être ajusté à l'ensemble des strates du troisième inventaire. Globalement
l'actualisation n'a pas d'effet ; le seuil observé du test pour H,, : a/ = 0 est
supérieur à 50 %. Par contre, à l'intérieur des strates les deux types de
placettes diffèrent car le seuil observé du test pour H() : cr. = 0 est inférieur à
lOA
Baillargeon et Rivest (2006) ont développé une méthode d'estimation des
composantes de la variance qui permet d'utiliser toutes les données.
L'estimateur est robuste aux variations inter-strate des composantes de
variance dans la mesure où le rapport cr5/cr est fixe. Nous avons obtenu
cr ./cf = 0,0853 {e.-t. 0,086) ; notons que criS/cf = 0,1 est dans l'intervalle
de confiance à 95 % pour ce paramètre. C'est la valeur retenue pour
l'implantation numérique de cette méthode. Pour la suite des travaux nous
supposons que a/ = 0 et que /; = cr./cf est connu. Le modèle décrit ici a
été ajusté à des variables indépendantes y donnant le volume pour une espèce
particulière. Les estimations obtenues pour r = cr./cf sont voisines de 0,1.
Ainsi, cette valeur s'applique tant à l'estimation du volume total qu'à
l'estimation du volume par essence.

5.2.2 Estimation du volume de bois moyen dans une


strate

Pour les données d'une strate le modèle statistique est

^ = P + L + «y + Zjt

où 8(A ~ A(0, cf) et a ~ N(0, cr ;) sont des variables aléatoires indépen-


dantes. Si Xi représente pour i = 1,..., 4 la proportion du territoire de la strate
dans la classe de densité i, et si j = 1 correspond aux placettes échan-
tillonnées, la prédiction du volume de bois moyen dans les placettes
échantillonnées de la strate s'écrit
A A AA /
f = a, + p + 2AV
(=i

Il s'agit d'un estimateur BLUP, voir la section 6.2 de Rao (2003). Les
formules générales qui y sont présentées penuettent d'estimer les paramètres
du modèle, d'évaluer y et de calculer la variance de son erreur de prédiction.

5.2.3 Un exemple de calcul

Considérons le tableau 8.2 qui contient les données de 15 placettes d'une


strate où se retrouvent deux classes de densité. On a X] =1/3 et = 2/3.
L'estimation post-stratifiée sans tenir compte du type de placette est
8. Estimation 347

yps = t 95,54 + 2 141,13 = 125,9


3 3

avec une erreur-type de 17,3- L'estimateur BLUP de la section précédente


diminue le poids des placettes actualisées et augmente un peu l'estimation à
y = 131,7 avec une erreur-type de 19,6.

Tableau 8.2 : )onnées et statistiques descriptives pour une strate


Classe Statistiques par classe de densité Statistiques
Type
de y et type de placette par classe de
placette
densité densité
/ = 1 j = 1 70,68
7=1 7 = 1 124,87 Tailles
Hn = 6
7 = 1 y = 1 72,36 771 = 6
y,, - 95,54 772 = 9
7 = 1 y = 1 159,87
Erreur type - 15,850
7 = 1 7=1 59,65
/ = 1 / = 1 85,83 Moyennes :
7 = 2 y = 1 277,59 7, = 95,543
7721 = 4
7 = 2 y = 1 185,93 y2 = 141,130
y21 = 169,01
7 = 2 y = 1 87,35
/ = 2 y = 1 125,16 Erreur Type = 41,500
/ = 2 y = 2 99,57 Erreur Type :
7 = 2 y = 2 94,62 7722 ~ 5 et! = 15,850
/ = 2 y = 2 127,14 y.. = 118,83 et2 = 26,281
/ = 2 y = 2 31,95
Erreur Type = 34,253
/ = 2 y = 2 240,86

5.3 Calculs explicites pour un modèle simple

Considérons le modèle à une seule classe de densité,

yjk = p + a. + zjk

et appelons yx et y2 les moyennes pour les placettes échantillonnées et


actualisées respectivement. Le BLUP y de p + a, est la combinaison
convexe (\>yx + (1 - (())y, pour laquelle la variance de ^yi + (1 - c|))y, - p - a,
est minimale. Un calcul élémentaire donne

^ 2^+1/^, _ \/n _
V = S ? y1 + I y2 = —^
2ra + l/«,-I-1/«,
2 I 2ra + l/n,2 + l/n,I «.co,
112 + 2'

où 77, et 77. représentent le nombre de placettes échantillonnées et actualisées


respectivement et où co, = 1 + 27;77. est le poids d'une placette échantillonnée
alors que co. = 1 pour une placette actualisée. Dans l'exemple précédent, les
placettes échantillonnées en classe de densité 2 reçoivent un poids de
co, = 1 + 2 x 0,1 x 5 = 2, comparativement à 1 pour les placettes actualisées.
Si r = 0, les deux types de placettes sont équivalentes et y est la moyenne
de l'échantillon combiné. Par contre, si 7; est grand les placettes actualisées
348 Enquêtes et sondages

contribuent peu à l'estimation et y est voisin de la moyenne pour les


placettes échantillonnées.
Pour ce modèle simple, on peut facilement évaluer la variance de l'erreur de
prédiction,

, r /N 7 2ra «, +1
Var( y — u — a.) = a' —
2r/î./I, +

dont les valeurs possibles vont de a2/(/?, + /?,) à a2//?,, les variances des deux
moyennes qui constituent les cas limites de l'estimateur.

BIBLIOGRAPHIE

Baillargeon, S., et Rivest, L.-P. (2006). Etude des variances additionnelles


attribuables à l'actualisation et au recrutement par essence. Département
de mathématiques et de statistique. Québec, Université Laval.
Rao, J.N.K. (2003). Small Area Estimation. New York : John Wiley & Sons,
Inc.

6. Comparaison de trois méthodes

d'estimation du loyer fictif

9
Modou DIA

6.1 Introduction

Le règlement (CE) n01177/2003 du Parlement européen et du Conseil du


16 juin 2003 relatif aux statistiques communautaires sur le revenu et les
conditions de vie extrapolées à partir de l'enquête European Union-Survey on
Income and Living Conditions (EU-SILC) enjoint tous les pays impliqués à
délivrer une variable portant sur le loyer fictif pour les non-locataires à
Eurostat dès l'année 2008. Le présent document s'inscrit dans l'application de
ce règlement dans le cadre de l'enquête luxembourgeoise. On s'attellera
d'abord à situer la problématique, ensuite à exposer les trois méthodes
d'estimation envisagées, enfin à décrire les différents tests en vue de choisir
une méthode.

9 CEPS-INSTEAD, 45 rue Émile Mark, B.P. 48 L-4501 Diffcrdangc, Luxembourg. Je


remercie mon collègue Jean-Yves Bienvenue pour ses remarques et ses observations.
Pour autant j'assume entièrement la responsabilité d'éventuelles erreurs qui
subsisteraient. J'exprime toute ma reconnaissance à John Haas et Joé Peiffer de l'Unité
« Comptes Nationaux » du STATEC d'avoir mis à ma disposition les données pour les
tests de cohérence externe.
8. Estimation 349

6.2 Problématique

Le loyer est une composante importante du budget d'un ménage. Pour les
propriétaires, les occupants à titre gratuit ou les bénéficiaires de loyers
inférieurs à ceux pratiqués dans le parc locatif, le loyer fictif dont ils devraient
s'acquitter est un surcroît potentiel de revenus en ne tenant pas compte
d'éventuels remboursements de prêt, des coûts d'entretien et des frais de
réparation. C'est un élément capital dont on doit tenir compte dès lors qu'on
veut mesurer les niveaux de revenus, de pauvreté et d'exclusion sociale.
Compte tenu de la structure et des caractéristiques des trois ou quatre
dernières vagues d'enquêtes, il sera testé trois méthodes d'estimation : la
méthode du loyer subjectif ; la méthode de la stratification et une variante
d'une méthode économétrique appelée méthode de Heckman (Heckman et al,
2004).
Le loyer, faisant l'objet de ces estimations, est défini comme le montant
mensuel dont le ménage devrait s'acquitter en contrepartie de la jouissance de
sa résidence principale en tenant éventuellement compte d'un garage ou d'un
parking, mais à l'exclusion de toutes les autres prestations que sont les
charges (électricité, gaz, chauffage, voirie etc.), les frais de réparations, les
frais d'entretien (Eurostat, 2007).

6.3 Typologie des méthodes d'estimation

Nous allons brièvement exposer les trois méthodes d'estimation déjà


susmentionnées.

6.3.1 Méthode du loyer subjectif ou du loyer


hypothétique

Cette méthode est la plus immédiate. Elle consiste simplement en la prise en


compte des données de la variable d'autoévaluation de leur loyer potentiel par
les ménages concernés (propriétaires, loyers nuls ou manifestement très
inférieurs au niveau du marché). Cette autoévaluation est collectée durant la
phase d'enquête.

6.3.2 Méthode de la stratification

Le loyer effectivement payé par les locataires relevant du parc locatif est celui
utilisé dans le cadre de cette méthode. Elle commence d'abord par la création
des classes ou des strates (d'où son nom) qui ne sont rien d'autre que le
croisement des modalités des principales variables considérées comme
pertinentes. La moyenne des loyers des locataires est ensuite calculée à
l'intérieur de chaque strate. Enfin à chaque ménage concerné est affectée
comme loyer imputé la moyenne des loyers de la strate à laquelle il
appartient. Les variables utilisées pour la stratification sont le degré
350 Enquêtes et sondages

d'urbanisation, le type de logement, la taille du logement en nombre de


pièces, l'ancienneté du contrat de location du ménage.

6.3.3 Méthode de Heckman

Le montant nul ou non nul d'un loyer est tributaire d'un statut de locataire ou
d'un statut de non-locataire. Même si cet aspect a été pris en compte dans le
plan de sondage, il en résulte que toute modélisation du loyer d'un échantillon
est en général sujette à un biais de sélection à cause de l'éventuel impact de la
non-réponse. La méthode de Heckman consiste en deux étapes :
- d'abord un modèle qualitatif dichotomique (simple ou probit) ayant
comme variable dépendante le fait d'être non-locataire ou non ;
- ensuite un modèle quantitatif avec le montant du loyer du locataire
(ou son logarithme) comme variable dépendante en injectant, entre
autres, un dérivé de la première étape parmi les variables
explicatives. Ce dérivé est l'inverse du ratio de Mill.
La première équation représentant le modèle de sélection peut être formulée
de la façon suivante : d. = z.y + m,., où :
- d! =1 si le ménage i est locataire, 0 sinon,
- z, est le vecteur des variables explicatives,
- y est le vecteur des coefficients du modèle,
- uu ~ A^(0,1) est l'erreur du modèle pour l'unité i.

Tandis que la seconde équation de régression linéaire est : y. = yJ3 + où :


- y est la variable dépendante représentant le loyer ou son logarithme,
- y est le vecteur des variables explicatives,
- (3 est le vecteur des coefficients du modèle,
- uv - N(0, a2) est l'erreur du modèle pour l'unité i.

6.4 Tests de cohérence

Pour des raisons d'espace, on se limite ici uniquement aux tests de cohérence
interne (voir Dia, 2007). Les graphiques ci-dessous font référence aux
moyennes des loyers imputés en 2003 selon les trois méthodes utilisées.
Le loyer devrait normalement augmenter en fonction du type de logement
(Appartement^ Maison), du revenu, de la taille du logement, mais baisser en
fonction de l'ancienneté d'occupation. En appliquant cette règle sur les
figures 8.2, 8.3 et 8.5, seule l'évolution de la courbe du loyer stratifié n'est
pas logique. Par contre, pour la figure 8.4 l'évolution de la courbe du loyer
subjectif n'est pas cohérente. Il en résulte que seule la méthode de Heckman
se comporte d'une manière relativement satisfaisante à tous les tests ci-
dessous. Il en est de même pour les tests de cohérence externe qui ne sont pas
exposés ici.
8. Estimation 351

Figure 8.2 : Loyers en fonction du décile du revenu

2000
1800
1600
1400
1200
•SUBJECTIF
1000
800 •STRATIFIE
600 HECKMAN
400
200
0
10

Figure 8.3 : Loyers selon le type de logement


(maison = 1, appartement = 2)

1400
1200
1000
800 •SUBJECTIF
600 ■STRATIFIE
HECKMAN
400
200
0

Figure 8.4 : Loyers selon l'ancienneté d'occupation


(1 = '0-5', 2 = '6-20', 3 = '21 anset+')

1400
1200

TD 1000
O
C 800 •SUBJECTIF
D
û
co 600 •STRATIFIE
o
o 400 HECKMAN
fNl
200
ai 0
'i_
>-
Q.
O
u
352 Enquêtes et sondages

Figure 8.5 : Loyers selon la taille


('1-9, 10 chambres et +')

2000
L80(
LbOG
1400
1 200
•SUBJECTIF
1 i )( H i
•STRATIFIE
800
600 HECKMAN
400
.nio
0
10

6.5 Conclusion

Le loyer subjectif déclaré par les non-locataires dans l'enquête EU-SILC


reflète le prix du marché locatif privé au moment de l'enquête
indépendamment de toute ancienneté d'occupation.
La méthode de la stratification est non seulement sujette à un manque de
robustesse à cause du faible nombre d'observations dans plusieurs cellules,
mais elle est inopérante à cause de la vacuité de certaines cellules
d'estimation. Le choix d'une telle méthode aurait des conséquences
catastrophiques et imprévisibles.
Finalement, la méthode de Heckman est recommandée pour plusieurs
raisons :
- Elle est la seule à même d'estimer le plus correctement le loyer fictif
car la méthode de la stratification pêche par manque de robustesse
dans le meilleur des cas et la méthode des loyers subjectifs engendre
une surestimation du loyer fictif ;
- Or une surestimation et une prise en compte du loyer subjectif dans le
revenu du ménage entraînent une surestimation du revenu total
potentiel du ménage ;
- A son tour, cette surestimation du revenu du ménage aura comme
conséquence la sous-estimation du taux de pauvreté parmi les
ménages non-locataires, à toutes choses égales par ailleurs.

BIBLIOGRAPHIE

Dia, M. (2007). Comparaison de trois méthodes d'estimation du loyer fictif.


Document de recherche M.S. no2007-02, CEPS-INSTEAD, Differdange,
Luxembourg.
8. Estimation 353

Eurostat (2007). Progress Report of EU-SILC Methodological Task Force,


Doc LC/08/07/EN. Working Group, 18-20 juin, Luxembourg.
Heckman, J.J., et Li, X. (2004). Sélection Bias, Comparative Advantage and
Heterogeneous Retums to Education: Evidence from China in 2000. Pacific
Economie Review, vol. 9, No. 3, pages 155-171.

7. Estimation de courbes de

consommation électrique à partir de

mesures non synchrones

10
Alain DESSERTAINE

7.1 Introduction

Il est prévu l'installation d'ici 2016 de 34 millions de compteurs


communicants permettant, entre autre, de récupérer des courbes de
consommation électrique de l'ensemble des clients de EDF avec des
granularités temporelles potentiellement de l'ordre de la minute, voire de la
seconde. Des travaux de recherche sont en cours afin d'élaborer à terme un
système d'information permettant d'utiliser au mieux ces informations. Ceux-
ci abordent une utilisation conjointe de techniques de résumés et d'analyses
de flux de données et de techniques et outils d'échantillonnage et d'estimation
abordés et développés dans le cadre de la théorie des sondages.
La grande volumétrie des données que nous aborderons impliquera des
contraintes très fortes en terme de transmission et de stockage des données.
Des réflexions sont donc nécessaires pour définir nos besoins en terme de
données à exploiter pour élaborer des systèmes d'information de la
consommation pertinents. Des travaux sont en cours afin de proposer des
stratégies d'échantillonnage spatio-temporelles des flux utilisés ; nous allons
nous baser sur ces premiers travaux pour prendre en compte certaines
contraintes préalables à nos futurs traitements. Aussi, nous pouvons au jour
d'aujourd'hui dire que nous ne pourrons pas conserver (ni récupérer)
l'ensemble des courbes de consommation au pas seconde ou au pas minute
sur l'ensemble de nos clients. Nous ferons comme hypothèse de travail que
nous gérerons un panel avec un grand nombre de clients, et que nous
récupérerons des résumés spécifiques de leur(s) courbe(s) de consommation.
Ainsi nous pourrons par exemple récupérer des courbes avec des granularités
temporelles différentes, mais constantes tout au long de certaines périodes de
chaque courbe ; ces granularités seront choisies de manière à optimiser les

10 EDF R&D - Département OS1RIS, 1 Avenue du Général de Gaulle, 92140 Clamart.


Email : alain.dcsscrtaine@edf.fr.
354 Enquêtes et sondages

erreurs quadratiques globales (Chiky, 2008). Si la granularité peut être


préétablie au niveau du compteur, nous pourrons alors récupérer des courbes
à granularités variables dans le temps afin de bien capter certaines périodes de
fortes variabilités de la consommation individuelle.

7.2 Estimateur Horvitz-Thompson sur des

objets courbes

7.2.1 Ce qui est fait aujourd'hui

Aujourd'hui, nous ne connaissons les courbes de consommation que sur les


quelques 35 000 plus grands clients de France. Pour les autres, nous
connaissons seulement des relevés d'index au pire annuels et au mieux
mensuels ne permettant pas, bien entendu, d'analyser de manière fine leurs
habitudes de consommation. Aussi, depuis la fin des années 1970, EDF gère
un certain nombre de panels de clients, chez qui des compteurs spécifiques
sont installés pour mesurer leurs consommations toutes les dix minutes. Ces
mesures sont synchrones, car instrumentées aux mêmes instants. Ainsi, à
chaque instant /, nous mesurons une puissance moyenne pour chaque client i
de notre échantillon C.{t). Soit tt , la probabilité d'inclusion de notre client i à
l'échantillon S. La consommation globale du portefeuille étudié à l'instant t
s'estime de la manière suivante :

C(0=Z^. (1)
ie5 71.i

Ceci ne peut se faire que par le caractère synchrone des mesures. Nous allons
regarder maintenant le cas ou les données ne sont plus synchronisées.

7.2.2 Estimation sur échantillon de courbes non


synchrones

Le caractère non synchrone des données sur lesquelles nous allons travailler
rend délicat tout travail statistique d'analyses comparatives, souvent basé sur
des calculs de moyennes. Dans notre cas, à un instant /, nous n'aurons plus
forcément des mesures sur tous les individus de notre échantillon. Le
graphique 8.6 illustre nos propos.
Ici, les trois séries de mesure sont très rarement mesurés aux mêmes
instants, rendant les calculs directs de moyennes ou de totaux impossibles. De
tels cas de figure ont fait l'objet de travaux dont le pionnier est Jean-Claude
Deville (Deville, 1974), travaux repris et développés par la suite sous le titre
général d'analyse des données fonctionnelles (Ramsay et Silverman, 2005).
Le principe est simple : il suffit de transformer nos données en plongeant
chaque individu « courbe » dans un espace de données continues (Hilbertien)
8. Estimation 355

en interpolant nos données, interpolations utilisant des bases fonctionnelles.


Les analyses effectuées se font alors dans le nouveau système de coordonnées
issue de la base choisie. Dans notre cas, nous proposons de remplacer dans (1)
la valeur C.{t) inconnue en un instant t par sa valeur interpolée C.{f) pour
construire un nouvel estimateur C(/), en remarquant que

C.it) = C.{t) + 8,(0. (2)

Figure 8.6 : Exemple d'interpolation de 3 courbes

♦ X1 Ê X2 X X3 X1-lissé X3-lisse X2 - lissé

Le fait de ne plus travailler sciemment avec les « vraies » mesures, mais


avec des mesures entachées d'une « erreur » aléatoire, que nous supposerons
maîtriser, met à mal le cadre général d'application de l'estimateur d'Horvitz-
Thompson, en espérance et en variance. Nous allons donc regarder comment
se comporte un tel estimateur sous l'hypothèse, entre autre, que l'espérance
en chaque instant t du résidu 8,(0 soit nulle, et que nous pourrons déterminer
sa variance en chaque instant t : cr(0- Dans un premier temps, nous
supposerons l'indépendance entre le caractère aléatoire des interpolations et le
plan de sondage. Ainsi :

V(z, t) Cov(g:(/), IJ = 0 (3)

avec l, s la variable indicatrice d'appartenance à l'échantillon S, d'espérance


Tt,.. Aussi, sous cette hypothèse, nous pouvons faire ces deux propositions :
Proposition 1 : L'estimateur Horvitz-Thompson sur les valeurs lissées
estime sans biais la courbe globale de consommation en chaque instant t.
Pour démontrer cette proposition, il suffit de reprendre la démonstration du
caractère non biaisé de l'estimation Horvitz-Thompson dans le cadre
356 Enquêtes et sondages

d'utilisation usuelle, de la manière suivante (en nommant P la population, ou


le portefeuille sur lequel nous voulons estimer la courbe globale de
consommation) :

^ (m h- 8,(0)-u
E(C(t)) = E S C.{t) = E
ieS K « / K

cm^ em,UeS)
= E + E
leP K K

ieP 7l( 7t. iep

Le premier terme nous donne de manière évidente le vrai total C(/), et le


deuxième est nul, car il est somme de termes nuls. En effet :

V(U) e P £(£,(')• 1(,.S)) = £'(s,(0)-£(l(,.s)) + Cov(s,(0,l(isS)) = 0.71, +0 = 0.

Proposition 2 : Sous les mêmes hypothèses, la variance de l'estimateur


Horvitz-Thompson sur les valeurs lissées devient :

C(/)C(0
Var(C(0| = ZZ ^ (jif - tut) + lc;(0 (4)
ieP JeP Ji n

avec 7i.., la probabilité d'inclusion double que le couple (i,J) fasse partie de
l'échantillon. La démonstration de cette proposition est simple, quoique très
lourde d'un point de vue développement des calculs. Elle ne sera pas
présentée dans le présent document. Ceci dit, comme pour la première
proposition, il suffit de reprendre le développement de l'expression de la
variance de l'estimateur d'Horvitz-Thompson dans le cadre habituel, en
utilisant les espérances et variances de produits de variables aléatoires, sous
hypothèses d'indépendance. Ainsi, nous utilisons entre autre ceci :

Var(8,(0,l,eS) = Var(e,(/))Var() + Var(e,(0)£,(L J'

+Var(lj£(s,(0)2
2 2
= CTTl
I l (1
\ - TC l /) + CTTl
Il + 71 I (1
\ - 71 I /).0 = CTTl
Il .

Cette simplification, accompagnée d'un bon nombre de termes nuls, du fait


de la nullité de la covariance entre \.eS et s.(t) permet de retrouver facilement
la formule (4).

7.3 Conclusion

Les deux précédentes propositions supposent, entre autre, l'indépendance


entre le plan de sondage et les lissages utilisés. Aussi, nous avons montré
l'intérêt dans Dessertaine (2007) d'utiliser des projections adaptées des
courbes interpolées à partir d'un échantillon plus large de courbes issues
d'une première phase, comme évoqué dans Chiky, Dessertaine et Hebrail
8. Estimation 357

(2007), par le biais de construction d'échantillons équilibrés sur des variables


de type hilbertiennes. Aussi, dans ce cas là, nous devrons rejeter l'hypothèse
d'indépendance et l'estimateur C(t) sera alors biaisé et de variance assez
délicate à estimer. Nous serons alors amené a calculer ou prendre en compte
d'une certaine manière les termes cr et Cov(8i(/),l s), sachant que le premier
terme sera aussi à détenniner dans le cadre de l'indépendance. Nous
envisageons à ce jour un calcul basé sur une combinaison adaptée de
Bootstrap et de simulation d'interpolation par générateurs Browniens comme
dans Abdessalem, Decresefond et Moeira (2005).

BIBLIOGRAPHIE

Abdessalem, T., Dcresefond, L. et Moreira, J. (2005). Evaluation of


11
probabilistic queries in moving objects databases, 5 ' ACM international
works hop on Data engineering for wireless and mobile ace es s, Chicago.
Chiky, R. (2008). Répartition optimisée des pas d'échantillonnage:
application aux courbes de charges de consommations électriques, ECG
2007, Namur, Belgique.
Chiky, R., Dessertaine, A. et Hébrail, G. (2007). Échantillonnage sur les flux
de données : état de l'art. Méthodes de sondage : applications aux enquêtes
longitudinales, à la santé, aux enquêtes électorales et aux enquêtes dans les
pays en développement, P. Guibert, D. Haziza, A. Ruiz-Gazen, Y. Tillé,
éds, pages 314-318, Paris, Dunod.
Dessertaine, A. (2007). Sampling and Data-Stream: Some ideas to built
balanced sampling using auciliay Hilbertian variables, 56en"'' session de
'elnstitut International de Statistique (IPM 56 "New methods of sampling"),
Lisbonne, Portugal.
Deville, J.-C. (1974). Méthodes statistiques et numériques de l'analyse
harmonique. Annales de l'Insee, vol. 15, pages 3-104.
Ramsay, J.O., et Silverman, B.W. (2005). Functional Data Analysis, New
York, Springer-Verlag.

8. Méthodes de Bootstrap en population

finie

Guillaume CHAUVE!11

8.1 Introduction

Pour déterminer la précision d'une enquête, on attache généralement à chaque


estimation une variance, déterminée par la stratégie d'échantillonnage et

l l Centre de Recherche en Economie et STatistiquc (CREST) - ENSAI.


358 Enquêtes et sondages

d'estimation. Pour un paramètre complexe, une pratique courante consiste à


utiliser la technique de linéarisation, éventuellement à l'aide d'une formule
approchée de variance (Deville, 1999), puis une approximation normale pour
la production d'un intervalle de confiance. De nombreux logiciels permettent
de réaliser ces opérations de façon quasiment automatique, comme le logiciel
POULPE utilisé à l'Insee. Dans ce cas, pourquoi utiliser des méthodes de
Bootstrap en population finie ?
Il faut d'abord noter qu'une technique telle que la linéarisation suppose de
pouvoir retracer l'ensemble du plan de sondage ; or, la chaîne de traitements
d'une enquête sépare généralement le concepteur et l'utilisateur, ce dernier ne
disposant que du fichier d'enquête éventuellement muni d'une variable de
poids synthétisant les différents traitements (échantillonnage, traitement de la
non-réponse, redressement, ...) mais pas du plan de sondage détaillé. Le
Bootstrap permet d'estimer la précision à l'aide de tirages répétés dans
l'échantillon d'origine. La statistique est recalculée sur les rééchantillons, et
la distribution de ces statistiques Bootstrap est utilisée pour estimer la
variance ou produire un intervalle de confiance. Dans certains cas, le
rééchantillonnage peut être résumé par une variable de pondération qui donne
le nombre de fois où chaque unité est rééchantillonnée. Le calcul par le
concepteur de ces poids Bootstrap (issus par exemple d'une méthode de type
percentile) adjoints au fichier d'enquête fournit à l'utilisateur un moyen
simple de calcul de précision, pour n'importe quel domaine, et ne nécessitant
pas d'autre information sur l'enquête. D'autre part, l'utilisation de stratégies
complexes rend parfois délicate l'estimation de précision à l'aide de la
linéarisation ; le Bootstrap peut dans ce cas fournir une alternative
intéressante (voir Barret et al, 2007).
On s'intéresse à une population finie d'individus, notée U - {1,
dans laquelle un échantillon S est sélectionné selon un plan de sondage p
avec des probabilités d'inclusion distinctes, notées tt,, ..., nN. Le papier est
organisé de la façon suivante. En section 8.2, nous présentons les principales
méthodes de Bootstrap dites « calibrées », c'est-à-dire se calant sur un
estimateur de variance dans le cas linéaire. En section 8.3, nous présentons les
méthodes de Bootstrap de type plug-in, et montrons qu'elles s'adaptent au cas
d'un échantillonnage à probabilités inégales. Le cas d'un échantillonnage
équilibré est traité en section 8.4.1. L'échantillonnage multi-degrés est évoqué
en section 8.4.2.

8.2 Méthodes de Bootstrap calibrées

Nous appelons méthodes de Bootstrap calibrées les méthodes qui visent


explicitement à se caler sur un estimateur de variance sans biais dans le cas de
l'estimation d'un paramètre linéaire, c'est-à-dire d'un total. Un tel estimateur
8. Estimation 359

est disponible pour le sondage aléatoire simple, et pour certains types de plans
de sondage à probabilités inégales.
Nous supposerons dans ce paragraphe que l'échantillon S est sélectionné
selon un sondage aléatoire simple de taille n. Nous noterons également /le
taux de sondage. Rao et Wu (1988) et Sitter (1992) montrent que dans le cas
d'une fonction lisse de totaux leurs méthodes respectives assurent une
estimation de variance asymptotiquement sans biais. Ils l'étendent au cas de
la méthode RHC et du sondage à deux degrés avec sondage aléatoire simple à
chaque degré.

8.2.1 Le Rescaled Bootstrap (Rao et Wu, 1988)

Rao et Wu (1988) suggèrent d'utiliser un schéma de rééchantillonnage


classique (avec remise) de taille m dans l'échantillon d'origine S. Les
valeurs yk des variables d'intérêt sont alors recalées pour restituer
l'estimateur habituel de variance pour l'estimation d'un total. Rao et Wu
suggèrent de choisir la taille m de rééchantillonnage de façon à restituer
l'estimateur sans biais du moment d'ordre 3, mais ce choix n'est pas toujours
possible. Cette méthode peut également conduire à des valeurs aberrantes
pour la statistique bootstrappée.

8.2.2 Le Mirror-Match Bootstrap (Sitter, 1992)

Sitter (1992) suggère d'échantillonner dans S selon un sondage aléatoire


simple, avec un taux de sondage /'. Cet échantillonnage est répété ri = 1//'
fois, jusqu'à obtenir un rééchantillon de taille n . Quand ce choix est possible,
Sitter suggère d'utiliser le taux de sondage d'origine /, ce qui permet de
capter l'estimateur sans biais du moment d'ordre 3. Dans la plupart des cas,
ce choix n'est pas possible. Sitter suggère alors une randomisation sur ri et
f pour restituer l'estimateur de variance dans le cas linéaire.

8.3 Méthodes de type plug-in

Dans le cas d'un échantillon (Xx,...,Xn) i.i.d. sélectionné selon une loi
inconnue F, le principe de plug-in suggéré par Efron (1979) est d'estimer un
paramètre inconnu 0(F) par son estimateur par substitution d{F). Si 6{F)
ne peut être calculé exactement, il est approché à l'aide de simulations
répétées indépendamment selon la loi F.
Le plug-in admet un équivalent naturel dans le cas d'une population finie.
On note M la mesure qui place une masse unité sur chaque individu de U,

M = ^5,
keU
/V
où ô, vaut 1 pour l'unité k de U et 0 sinon, et M la mesure estimée qui
place une masse I/ti^ sur chaque unité de l'échantillon S,
360 Enquêtes et sondages

/V
Un paramètre 0(A/) est estimé par substitution par 0(A/). En particulier, le
total / = \ydM d'une variable d'intérêt y est estimé sans biais par son
estimateur de Horvitz-Thompson t = =\ ydM .
kesnk

8.3.1 La méthode de Gross (1980) et ses variantes

Dans le cas du sondage aléatoire simple, Gross (1980) suggère de reproduire


les conditions initiales de tirage en constituant à l'aide de l'échantillon S une
pseudo-population U\ image de la population d'origine, dans laquelle le plan
de sondage de départ est appliqué de façon répétée (d'où le nom de Bootstrap
populationnel que l'on rencontre parfois).
Si l'inverse du taux de sondage 1// est entier, Gross propose de dupliquer
1// fois chaque unité de S pour créer la pseudo-population U . On
sélectionne alors dans U un rééchantillon S , par sondage aléatoire simple
de taille n. Cette méthode fournit une estimation de variance
asymptotiquement sans biais dans le cas linéaire.
Dans le cas général où 1/ f = N/ n n'est pas entier, plusieurs adaptations de
la méthode (qui portent principalement sur la constitution de U ) ont été
proposées. En particulier, Booth et al. (1994) ont suggéré de constituer U en
dupliquant chaque unité de S [A^/«]fois, où [.] désigne la partie entière, puis
de sélectionner un échantillon complémentaire dans S afin de compléter U .
L'inconvénient de cette méthode est qu'elle nécessite l'utilisation d'un double
Bootstrap, sur la pseudo-population U et le rééchantillon S\ et peut donc
demander des calculs importants. Une simplification consiste à ne constituer
qu'une seule pseudo-population U\ dans laquelle les rééchantillonnages sont
réalisés de façon répétée.

8.3.2 Extension au cas d'un échantillon réjectif

Le tirage réjectif à probabilités k = (tt,,...,^) et de taille n = consiste


à échantillonner selon un plan poissonien de probabilités tc = (tc,,...,^)
jusqu'à obtenir un échantillon de la taille n voulue. Les probabilités ft sont
généralement différentes des probabilités tc souhaitées. A tout jeu de
probabilités tc peut être associé un vecteur de probabilités tc. Deville (2000)
donne un algorithme effectif de calcul. Le tirage réjectif est le tirage de taille
fixe à entropie maximale pour des probabilités d'inclusion fixées (Hajek,
1981).
L'algorithme proposé par Booth étal. (1994) se généralise sans difficultés
au cas d'un tirage réjectif. Dans le cadre asymptotique utilisé par Deville
(1999), Chauvet et Deville (2007) montrent que
8. Estimation 361

v{'Ç\u\S) = (i + o^witJ

où r désigne le tt - estimateur de total calculé sur le rééchantillon S\ et


V(t^) désigne l'estimateur asymptotiquement sans biais de variance proposé
par Hajek pour le tirage réjectif. Dans le cas non linéaire, le caractère
asymptotiquement non biaisé de l'estimateur Bootstrap de variance d'une
statistique 0(A/) s'obtient à l'aide de la technique de linéarisation selon la
fonction d'influence, donnée par Deville (1999). Notons que cette technique
peut être utilisée même si 0(A/) est un paramètre non lisse de type fractile.
Nos simulations portent sur une population artificielle de 350 individus. La
variable x est générée selon une loi normale de moyenne 20 et de variance 4.
Les variables y et z sont également générées à l'aide d'une loi normale, de
façon à ce que la corrélation entre y et x (respectivement z et x) soit
approximativement égale à 0,4 (respectivement 0,7). On utilise un plan
réjectif de taille 50 à probabilités proportionnelles à x. On s'intéresse aux
estimateurs tyn et tzk des totaux des variables sy et z, à l'estimateur R du
ratio tjt , à l'estimateur p du coefficient de corrélation entre les variables
y^et z, aux estimateurs mx et m_ des médianes de y et z. La vraie précision
est approchée par 20 000 simulations indépendantes (sauf pour les estimateurs
de totaux où on la calcule exactement). Le Boostrap est évalué à l'aide de
1 000 échantillons indépendants :
- Avec l'algorithme exact de Bootstrap, 5 = 100 pseudo-populations
sont générées pour chaque échantillon. Dans chaque pseudo-
population, C = 30 rééchantillons sont prélevés.
- Avec l'algorithme simplifié de Bootstrap, 1 seule pseudo-population
est générée pour chaque échantillon. Dans cette pseudo-population,
C = 1 000 rééchantillons sont prélevés.

Les intervalles de confiance Bootstrap sont déterminés à l'aide de la


méthode des percentiles.

r
Tableau 8.3 : Ecart relatif (%) à la vraie variance pour les deux
algorithmes de Bootstrap et la technique de linéarisation
dans le cas d'un tirage réjectif de taille 50
Variance A A
t yn izn R P m m
approchée y
Bootstrap Exact -2,95 -2,94 -0,54 -3,20 +16,79 + 18,09
Bootstrap Simplifié -1,87 -2,41 -1,26 -4,11 +14,61 + 13,12
Linéarisation -0,02 -0,51 -1,61 -6,08 - -
362 Enquêtes et sondages

Tableau 8.4 : Taux de couverture pour les deux algorithmes de


Bootstrap et la technique de linéarisation dans le cas

Niveau réel IC à 90 % /V /s. /V /V


t >•« t zn R p m mz
(95 %) y
10,1 10,0 11,0 10,7 11,2 8,5
Bootstrap Exact
(5,7) (4,6) (5,4) (6,4) (4.9) (4.8)
12,2 10,6 10,0 13,2 12,5 9,5
Bootstrap Simplifié
(7,3) (5.9) (5.6) (6.7) (6.7) (5,0)
11,1 10,0 9,8 13,3
Linéarisation
(6.9) (5.7) (5,8) (7,3)

Dans le cas linéaire, la linéarisation (qui correspond alors à une estimation


directe) qui donne une estimation de variance sans biais est préférable. Dans
le cas non linéaire, les méthodes de Bootstrap donnent de meilleurs résultats :
l'algorithme exact est préférable pour les statistiques faiblement non linéaires
mais l'algorithme simplifié donne de meilleurs résultats pour l'estimation
d'une médiane. Les taux de couverture réels sont généralement mieux
respectés avec l'algorithme exact de Bootstrap. Les résultats relativement
médiocres de la linéarisation dans un cas fortement non linéaire peuvent
également provenir en partie des faibles tailles d'échantillon mises enjeu.

8.4 Extensions de la méthode de Bootstrap

8.4.1 Cas d'un échantillon équilibré

Un plan de sondage est dit équilibré sur des variables auxiliaires v,,...,*, s'il
ne sélectionne que des échantillons assurant une inférence exacte pour les
totaux de ces variables. Deville et Tillé (2004) proposent un algorithme
appelé la méthode du CUBE permettant de sélectionner un échantillon
équilibré sur un nombre non restreint de variables, avec des probabilités
d'inclusion tt = (tt,,...,;^) fixées a priori. Deville et Tillé (2005) donnent
également une approximation de variance pour un tirage équilibré proche de
l'entropie maximale. On peut se rapprocher de l'entropie maximale en triant
aléatoirement la base de sondage préalablement au tirage de l'échantillon.
L'algorithme de Bootstrap précédent peut encore être utilisé dans le cas
d'un échantillonnage équilibré, et donne une estimation asymptotiquement
sans biais pour un tirage à entropie forte (Chauvet, 2007a). Une
implémentation très rapide de la méthode du CUBE, proposée par Chauvet et
Tillé (2006) permet de mettre en œuvre le Bootstrap avec un temps de calcul
raisonnable. Notons en particulier que le sondage aléatoire simple et le tirage
réjectif sont des cas particuliers de plans équilibrés à entropie maximale, et
que la méthode RHC peut être vue comme un cas particulier de plan équilibré
à forte entropie.
8. Estimation 363

8.4.2 Cas de l'échantillonnage multi-degrés

S'il existe une importante littérature sur le Bootstrap dans le cas d'un
échantillon à un seul degré, les résultats sont plus limités dans le cas d'un
échantillonnage multi-degrés. Une méthode simple et efficace consiste, si les
probabilités d'inclusion correspondantes sont faibles, à assimiler le tirage du
premier degré à un plan avec remise et à ne bootstrapper que les unités
primaires. Si ces probabilités ne sont pas négligeables, on peut utiliser les
méthodes proposées par Rao et Wu (1988) et Sitter (1992), mais elles ne sont
applicables qu'avec un sondage aléatoire simple à chaque degré.
La méthode de Gross est connue pour ne pas être directement applicable à
plusieurs degrés d'échantillonnage. Une modification est proposée par
Chauvet (2007b). L'idée consiste à construire à partir de l'échantillon une
population constituée de pseudo unités primaires dans laquelle on reproduit le
tirage du 1C1 degré, mais pour laquelle le tirage du 2nd degré est modulé afin de
reproduire l'estimateur de variance sans biais dans le cas linéaire. Cette
méthode est applicable avec un tirage à grande entropie à chaque degré, ce qui
couvre les cas particuliers importants du sondage aléatoire simple à chaque
degré et du plan autopondéré. Elle peut également être vue comme une
adaptation de la méthode de Bootstrap des unités primaires permettant de
tenir compte d'un taux de sondage non négligeable au premier degré.

8.5 Conclusion

Dans ce chapitre, nous rappelons les principales méthodes de Bootstrap


développées dans le cas d'une population finie. Le principe de plug-in
d'Efron (1979) admet un équivalent naturel en population finie, donné par le
principe d'estimation de Horvitz-Thompson. La méthode proposée par Gross
(1980) pour le sondage aléatoire simple peut être généralisée au cas d'un plan
équilibré à entropie maximale, recouvrant une large classe de plans à
probabilités inégales. Une adaptation pour le tirage multi-degrés est proposée.
L'utilisation de la méthode de Bootstrap en situation de non-réponse, et dans
le cas de deux échantillons (Chauvet et al, 2008) est actuellement à l'étude.

BIBLIOGRAPHIE

Barret, C., Chauvet, G. et Levy, D. (2007). Estimation de population sur


zones mixtes. Article présenté au Colloque francophone sur les Sondages,
Marseille, France.
Booth, J.G., Butler, R.W. et Hall, P. (1994). Bootstrap Methods for Finite
Populations. Journal of the American Statistical Association, vol. 89, 1282-
1289.
Chauvet, G., et Tillé, Y. (2006). A Fast Algorithm of Balanced Sampling.
Computational Statistics, vol. 21, 53-61.
364 Enquêtes et sondages

Chauvet, G., et Deville, J.-C. (2007). Bootstrap for unequal probability


sampling. Soumis pour publication.
Chauvet, G. (2007a). Méthodes de Bootstrap en population finie. Thèse de
doctorat, Université de Rennes 2.
Chauvet, G. (2007b). Bootstrap pour un tirage à plusieurs degrés avec
échantillonnage à entropie forte à chac/ue degré. Soumis pour publication.
Chauvet, G., Goga, C. et Ruiz-Gazen, A. (2008). Estimation de variance en
présence de deux échantillons : linéarisation et Bootstrap. Méthodes de
sondage : applications aux enquêtes longitudinales, à la santé, aux enquêtes
électorales et aux enquêtes dans les pays en développement, P. Guibert,
D. Haziza, A. Ruiz-Gazen, Y. Tillé, éds, pages 369-374, Paris, Dunod.
Deville, J.-C. (1999). Estimation de variance pour des statistiques et des
estimateurs complexes : linéarisation et techniques des résidus. Techniques
d'enquête, vol. 25, 219-230.
Deville, J.-C. (2000). Note sur l'algorithme de Chen, Dempster et Liu. Note
manuscrite. Note manuscrite, Bruz, CREST/ENSAI.
Deville, J.-C., et Tillé, Y. (2004). Efficient balanced sampling: The cube
method. Biometrika, vol. 128, 569-591.
Deville, J.-C., et Tillé, Y. (2005). Variance approximation under balanced
sampling. Journal of Statistical Planning and Inference, 128, 569-591.
Efron, B. (1979). Bootstrap methods: Another look at the Jackknife. Annals of
Statistics, vol. 7, 1-26.
Gross, S.T. (1980). Médian estimation in sample surveys. Proceedings of the
Survey Research Methods Section, American Statistical Association, 181-
184. '
Hajek, J. (1981). Sampling from a Finite Population, New York : Marcel
Dekker.
Rao, J.N.K., et Wu, C.F.J. (1988). Resampling inference with complex survey
data. Journal of the American Statistical Association, 83, 231-241.
Sitter, R.R. (1992). A resampling procédure for complex survey data. Journal
of the American Statistical Association, 87, 755-765.
8. Estimation 365

9. Une méthode Bootstrap pratique pour

tester des hypothèses à partir de

données d'enquête

12
Jean-François BEAUMONT et Cynthia BOCCI13

9.1 Introduction

La technique du Bootstrap devient de plus en plus populaire dans les


enquêtes. Dans la plupart de ses applications, plusieurs ensembles de poids
Bootstrap accompagnent le fichier de données d'enquête. Ceci simplifie
habituellement considérablement la tâche des analystes. Jusqu'à maintenant,
l'utilisation de la technique en pratique semble avoir été essentiellement
limitée à des problèmes d'estimation de la variance ; la plupart du temps pour
des paramètres de population finie mais parfois pour des paramètres
analytiques (qu'on appelle aussi paramètres de modèle ou paramètres de
population infinie). Dans la théorie classique, on a également développé et
étudié des méthodes pour tester des hypothèses sur des paramètres
analytiques (par exemple, voir Efron et Tibshirani, 1993, Chapitre 16 ; ou
Hall et Wilson, 1991). Il ne semble toutefois pas exister de méthodologie
Bootstrap dans la littérature qui permette de tester des hypothèses multiples
sur des paramètres analytiques lorsque l'échantillon est tiré d'une population
finie selon un plan de sondage probabiliste ; lequel peut être informatif ou
non. C'est sur ce problème que l'on se penche dans cet article.
La méthode que l'on propose utilise des statistiques « classiques », quoique
pondérées par des poids d'enquête, fondées sur l'hypothèse potentiellement
invalide que l'échantillonnage n'est pas informatif. Nous approximons la
distribution sous l'hypothèse nulle de ces statistiques pondérées fondées sur
un modèle en utilisant des poids Bootstrap qui tiennent compte du plan de
sondage. L'avantage de notre méthode Bootstrap sur les méthodes existantes
de test d'hypothèses avec des données d'enquête est que, une fois que les
poids Bootstrap ont été fournis aux analystes, elle est très facile à implanter
en utilisant des logiciels classiques qui ignorent les caractéristiques du plan de
sondage. Par conséquent, la méthode peut être appliquée sans avoir recours à
des logiciels spécialisés conçus pour les enquêtes complexes.

12 Statistique Canada, Division de la recherche et de l'innovation en statistique (jean-


francois.beaumont@ statcan.ca).
13 Statistique Canada, Division des méthodes d'enquêtes auprès des entreprises
(cynthia.bocci@statcan.ca). Les auteurs remercient Yves Lafortune et Joël Bissonnette
pour leurs commentaires utiles qui ont permis d'améliorer la lisibilité de l'article.
366 Enquêtes et sondages

9.2 Mise en contexte

Supposons qu'on veuille tester l'hypothèse nulle H0:Hp = c versus


l'hypothèse alternative où H est une matrice à Q lignes qui
définit l'hypothèse à tester, c est un vecteur de constantes de dimension Q
spécifié par l'analyste et p est un vecteur de paramètres inconnus du modèle
m décrivant la distribution | X(/;P,0). Le vecteur yu contient les
valeurs dans la population finie U d'une variable dépendante y, X(/ est une
matrice qui contient les valeurs dans la population d'un vecteur de variables
indépendantes x et 0 est un vecteur potentiel de paramètres de nuisance qui
ne sont pas d'intérêt à des fins de tests d'hypothèse. Si la population U
pouvait être observée, on utiliserait une statistique qui obéit
asymptotiquement à une distribution connue.
Supposons maintenant qu'on tire un échantillon 5 de taille n selon un certain
plan de sondage probabiliste p{s). On considère la statistique pondérée
f(5,wv;c), où ws est un vecteur contenant des poids d'enquête (normalisés ou
non) pour les unités échantillonnées. Il est à noter que la statistique f(s,ws;c)
est construite de telle sorte que f(5,lv;c) =/(5;c), où lv est un vecteur dans
lequel chaque élément contient la valeur 1. En d'autres mots, f(s,lv;c) est une
statistique classique fondée sur l'hypothèse que le plan de sondage n'est pas
informatif. La statistique f(5,ws;c) est simplement une version pondérée de
f(5,ls;c).
Par exemple, supposons qu'on utilise le modèle simple dans lequel les yk,
pour toutes les unités keU, sont distribuées indépendamment et
identiquement avec leur moyenne égale (3 et leur variance égale à 0 et qu'on
veuille tester l'hypothèse nulle H0 : (3 = c. La statistique naturelle f(5,ws;c)
est dans ce cas :

£(5,ws;c) = 4?^-,

où ê.,s = - PJV(« - 1) et wk est ici le poids


d'enquête normalisé pour l'unité kes ; c'est-à-dire que les wk sont tels que
= n-
Si le plan de sondage est un plan aléatoire simple ou, du moins, n'est pas
informatif, alors la distribution asymptotique de f(s,wv;c) sous l'hypothèse
nulle est habituellement assez simple à obtenir. Ce n'est toutefois pas
nécessairement le cas dans un contexte où le plan de sondage peut être
informatif. Rao-Scott (1981) ont proposé une méthode dans laquelle on
modifie /(5,ws;c) de telle sorte que la statistique modifiée obéisse
approximativement à une distribution connue sous l'hypothèse nulle (voir
aussi Rao et Thomas, 2003). On peut également utiliser la méthode de
Bonferroni (Korn et Graubard, 1990) ou le test de Wald. Nous proposons
plutôt d'approximer la distribution de f(5,wv;c) sous l'hypothèse nulle en
8. Estimation 367

utilisant les ensembles de poids Bootstrap qui accompagnent le fichier de


données d'enquête. Cette méthode est décrite à la prochaine section.

9.3 Méthode Bootstrap proposée

Supposons que wk a été normalisé. De la môme façon, on obtient des poids


Bootstrap normalisés w**, pour kes et b = où B est le nombre de
= n et on
répliques Bootstrap. Nous avons donc dénote par w*'' le
h
vecteur qui contient les poids w'k , pour kes. On dénote aussi par Pn , un
estimateur convergent sous le plan et le modèle de p. On suppose que les
poids Bootstrap sont construits de telle sorte qu'ils reflètent la variabilité
induite par le plan de sondage et le modèle. En d'autres mots, on suppose que
la distribution Bootstrap de /(Xw^Hp^) constitue une bonne
approximation de la distribution de f(5,wv;Hp) sous le plan et le modèle, en
particulier lorsque l'hypothèse nulle est vraie. Binder et Roberts (2003)
suggèrent que la variabilité due au modèle est petite par rapport à la
variabilité due au plan quand la fraction de sondage est négligeable. Dans un
tel cas, il suffit d'utiliser une méthode Bootstrap valide sous le plan telle que
celle proposée par Rao et Wu (1988), voir aussi Rao, Wu et Yue (1992). Des
conditions plus formelles pour que cette hypothèse soit valide sont données
dans Beaumont et Bocci (2008).
Notre procédure Bootstrap consiste donc à :
^ *A ^
i) obtenir la statistique /(s,wv ;HPu5), pour b = ;
ii) calculer le seuil observé

#{f(5,w*z';HPiw)>f(5,ws;c)J

B
(en supposant qu'on rejette l'hypothèse nulle pour de grandes valeurs
positives de la statistique f(s,wv;c)) ; et
iii)rejeter ou non l'hypothèse nulle selon que le seuil observé est plus
petit ou non qu'une certaine valeur (par exemple, 5 %).

Il est à noter qu'on aurait également pu utiliser la statistique Bootstrap


t(s,w[h;c), ce qui aurait conduit à un test Bootstrap valide mais avec
essentiellement aucune puissance. L'hypothèse émise au début de cette
section permet d'obtenir un test valide qui a une puissance raisonnable. On
donne une justification plus détaillée de cette méthode dans Beaumont et
Bocci (2008).

9.4 Étude par simulations

Nous avons effectué une étude par simulations afin d'évaluer la validité et la
puissance de la méthode Bootstrap proposée dans le cas d'un plan de sondage
informatif et non-informatif et dans un contexte de modèle d'analyse de
368 Enquêtes et sondages

variance à un facteur avec cinq modalités. Nous avons comparé notre


méthode à la méthode de Rao-Scott, Wald, Bonferroni et à une méthode naïve
dans laquelle on utilise f(s,wv;c) et où on fait le test comme si on avait un
plan de sondage aléatoire simple. Le test de Rao-Scott et le test de Wald ont
été effectués à Laide du logiciel SUDAAN (Research Triangle Institute,
2004). Plus de détails sur cette simulation se trouvent dans Beaumont et Bocci
(2008). Nous montrons ici un tableau qui montre les taux de rejet de
l'hypothèse nulle dans le cas d'un plan de sondage informatif.
Le tableau 8.5 nous indique que la méthode naïve est trop conservatrice, ce
qui conduit à un manque de puissance flagrant. La méthode de Wald est à
l'opposé beaucoup trop libérale. La procédure de Bonferroni améliore un peu
la situation mais pas suffisamment. La méthode de Rao-Scott et la méthode
Bootstrap proposée donnent des résultats similaires avec un taux de rejet près
de 5 % quand l'hypothèse nulle est vraie. La méthode proposée est d'ailleurs
celle qui a la taux de rejet le plus près de 5 % quand l'hypothèse nulle est
vraie.

Tableau 8.5 : Taux de rejet de H0 dans le cas d^n plan informatif


Méthode
H. H0
vraie fausse
Naïve 0,5 % 5,0 %
Wald 16,0% 38,1 %
Bonferroni 12,9% 33,3 %
Rao-Scott 7,7 % 21,5%
Bootstrap 6,9 % 20,9 %

9.5 Conclusion

Dans cet article, nous avons proposé une méthodologie Bootstrap pour tester
des hypothèses multiples lorsque l'échantillon est tiré d'une population finie
selon un certain plan de sondage. Dans un contexte de plan de sondage
informatif, nous avons montré empiriquement que la méthode proposée se
compare avantageusement à d'autres méthodes courantes dans la littérature.
Un avantage de la méthode Bootstrap est qu'elle est très facile à mettre en
œuvre une fois que les poids Bootstrap ont été produits puisque i(s,yv ;c) et
t(s,yvs ;Hp ) peuvent être habituellement facilement obtenus au moyen de
logiciels classiques (par exemple, SAS) qui ignorent les caractéristiques du
plan de sondage. La méthode peut donc être appliquée sans avoir recours à
des logiciels spécialisés conçus pour les enquêtes complexes.

BIBLIOGRAPHIE

Beaumont, J.-F., et Bocci, C. (2008). A practical Bootstrap methodfor testing


hypothèses from survey data. Article soumis pour publication dans
Techniques d'enquête.
8. Estimation 369

Binder, D.A., et Roberts, G.R. (2003). Design-based and model-based


methods for estimating model parameters. Dans Analysis of survey data,
R.L. Chambers et C.J. Skinner (éds). New-York : Wiley.
Efron, B., et Tibshirani, R.J. (1993). An introduction to the Bootstrap. New
York : Chapman & Hall.
Hall, P., et Wilson, S.R. (1991). Two guidelines for Bootstrap hypothesis
testing. Biométries, vol. 47, 757-762.
Kom, E.L., et Graubard, B.I. (1990). Simultaneous testing of régression
coefficients with complex survey data: Use of Bonferroni t statistics. The
American Statistician, vol. 44, 270-276.
Rao, J.N.K., et Scott, A.J. (1981). The analysis of categorical data from
complex sample surveys: Chi-squared tests for goodness of fit and
independence in two-way tables. Journal of the American Statistical
Association, vol. 76, 221-230.
Rao, J.N.K., et Wu, C.F.J. (1988). Resampling inference with complex survey
data. Journal of the American Statistical Association, vol. 83, 231 -241.
Rao, J.N.K., Wu, C.F.J. et Yue, K. (1992). Quelques travaux récents sur les
méthodes de rééchantillonnage applicables aux enquêtes complexes.
Techniques d'enquête, vol. 18, 225-234.
Rao, J.N.K., et Thomas, D.R. (2003). Analysis of categorical response data
from complex surveys: An appraisal and update. Dans Analysis of survey
data, R.L. Chambers et C.J. Skinner (éds). New York : Wiley.
Research Triangle Institute (2004). SUDAAN language manual, release 9.0.
Research Triangle Park, NC : Research Triangle Institute.

10. Estimation de variance en présence de

deux échantillons : linéarisation et

Bootstrap

Guillaume CHAUVET14, Camélia GOGA 15


et
16
Anne RUIZ-GAZEN

10.1 Introduction

La théorie des sondages est surtout développée pour l'estimation de


paramètres linéaires comme les totaux ou les moyennes. L'estimation de

14CREST/ENSAI Laboratoire de Statistique d'Enquête, Campus de Kcr-Lann, 35170


Bruz, chauvet@ensai.fr.
15 IMB, Université de Bourgogne, 9 avenue Alain Savary, 21 000 Dijon, camelia.goga@u-
bourgogne.fr.
16 TSE (GREMAQ), 21 allée de Bricnnc, 31000 Toulouse, miz@cict.fr.
370 Enquêtes et sondages

paramètres non linéaires, comme les quantiles ou les indices de Gini en


économie, constitue néanmoins aussi un problème d'intérêt majeur. Dans cet
article, nous proposons d'estimer la variance d'estimateurs de paramètres non
linéaires dans le cas où l'on dispose de deux échantillons. Il peut s'agir par
exemple d'échantillons tirés d'une môme population à deux dates différentes
avec pour paramètres d'intérêt des évolutions ou des taux de variation de
paramètres complexes. Pour traiter le problème de l'estimation de la précision
de ces estimateurs, nous envisageons différentes approches. La première
approche consiste à linéariser les estimateurs définis à partir de deux
échantillons en utilisant la méthode proposée par Goga et al. (2007) et
rappelée dans la section 10.2. La deuxième approche introduite en section
10.3 englobe différentes variantes possibles de Bootstrap adaptées au cas de
deux échantillons.

10.2 Linéarisation en présence de deux

échantillons

La technique de linéarisation par la fonction d'influence a été proposée par


Deville (1999) pour approximer la variance d'un estimateur d'une fonction
non-linéaire de totaux. Cette méthode consiste à calculer une variable
linéarisée pour le paramètre d'intérêt et à approcher la variance de la
statistique complexe par la variance de l'estimateur de type Horvitz-
Thompson (HT) pour le total de la variable linéarisée. L'intérêt de cet article
réside dans le fait qu'il donne le cadre asymptotique et les outils nécessaires
pour obtenir la variance asymptotique de statistiques complexes pour des
paramètres impossibles à linéariser par un développement de type Taylor. Il
s'agit par exemple des quantiles et des paramètres dépendant des quantiles (le
rapport inter-déciles, par exemple), des mesures d'inégalité (l'indice de Gini,
par exemple) ainsi que des paramètres définis de façon implicite comme les
vecteurs et les valeurs propres de l'opérateur de variance-covariance d'une
variable fonctionnelle (Cardot et al., 2007). Par ailleurs, nous pouvons
développer et estimer la variance d'une statistique complexe quel que soit le
plan de sondage utilisé ce qui représente un avantage majeur par rapport aux
méthodes de rééchantillonnage. La seule difficulté de cette méthode est la
dérivation d'une variable linéarisée qui peut être parfois assez technique (voir
par exemple l'indice de Gini).

10.2.1 Sélection de deux échantillons dans la même


population

Considérons une population (/de taille N et deux variables^ et X, dans


R,) mesurées sur deux échantillons différents sx,S2^U avec s, de
taille n . Soit 0 le paramètre d'intérêt fonction non-linéaire des totaux tx, tx .
8. Estimation 371

Cette situation comporte deux difficultés : l'estimation de 0 en tenant compte


de s] et s2 à la fois et la linéarisation de 0.
Le couple des variables Xl2={Xl,X2)£ R2pest connu sur l'intersection
S\2 =sl n $2 • Goga et ai (2007) introduisent trois mesures positives, discrètes
Mt sur Rp', t = 1,2 et 12 (avec P\ = P2 = P et P\2=^P) clui prennent une
masse unité pour chaque point Xt(k) = xk t e Rp' et zéro ailleurs. Ils écrivent
0 = T(M) pour une fonctionnelle T homogène de degré P et M = (M,)
Considérons maintenant un échantillon bidimensionnel 5 = (5,,52)
sélectionné dans U xU selon un plan bidimensionnel p(s = (s,,s,)) et soient
su =5, — s2 et ^22 =52 -5",. Un individu keU peut se trouver dans un des
trois échantillons disjoints 5,,, 5P et5„ avec la probabilité n"k = Vx{k g 5(/)
pour i,j = 1, 2(5^ =521). Soit M l'estimateur composite de Mt qui associe
un poids wk l en xk J et 0 ailleurs avec

w _ /-11 1 1 - a p2 _ h T12 A- 1 ~ b p2
kA
1 ' 7112 * kt 9 j _221 11k ' 12 C
k k k k2
' Kk Kk
et

avec a et b deux nombres réels. Goga et al. (2005, 2007) utilisent les
fonctions d'influence partielles (Pires et Branco, 2002) pour calculer les
linéarisées de T,ukt = ITt[M\xkt). La fonction d'influence partielle est la
dérivée partielle au sens de Gâteaux de T par rapport à Mt dans la direction
de la masse de Dirac en xk t.
Résultat : Sous certaines hypothèses de régularité, l'estimateur par
substitution T{M) est approximé par

- T{M)) » - 1).
/=! U
Le plan aléatoire simple sans remise bidimensionnel dans U xU consiste à
tirer 5 = (5^52) tel que les plans sont des plans aléatoires simples sans
remise dans U de tailles fixes i, j = \, 2. Goga et al. (2007) utilisent ce
plan bidimensionnel et la classe d'estimateurs composite définie auparavant
pour donner notamment une estimation de l'évolution de l'indice de Gini
entre deux époques. Ils développent ensuite un estimateur de la variance
asymptotique et ils comparent l'efficacité de l'estimateur composite par
rapport aux compétiteurs à partir de simulations.

10.2.2 Sélection de deux échantillons dans deux


populations différentes

Considérons maintenant la situation plus réaliste où la population change.


Soient U) et U2, deux populations différentes. Nous pouvons construire de
façon similaire l'estimateur par substitution de 0 en considérant cette fois la
372 Enquêtes et sondages

division en cinq sous-échantillons disjoints de 5, u.?2. Nous tirons ensuite un


échantillon bidimensionnel dans Ux x de telle sorte que l'échantillon des
« morts » (A: e n (é/, - é/,)), resp. des « naissances » (A: g 5, n (é/, - é/,)),
est un plan aléatoire simple dans Ux - , resp. U2 -U{. Dans la population
intersection n U1 et indépendamment des échantillons des « morts » et
« naissances », nous tirons un échantillon aléatoire simple bidimensionnel
comme présenté auparavant. La division en cinq sous-échantillons complique
les calculs mais nous pouvons quand même proposer des estimateurs de
l'évolution de paramètres complexes comme l'indice de Gini entre deux
époques de temps et estimer la variance de ces estimateurs en utilisant la
méthode de linéarisation dans le cas du plan simple bidimensionnel par
exemple.

10.3 L'approche Bootstrap

La technique du Bootstrap a été proposée par Efron (1982) dans le cadre


d'une population infinie. Davison et Hinkley (1997) donnent une revue des
différentes adaptations proposées pour un sondage en population finie. Dans
le cas d'un sondage aléatoire simple, Gross (1980) propose une méthode
simple et intuitive : reproduire les conditions de tirage d'origine, en
construisant par duplication des individus échantillonnés une pseudo-
population U image de la population d'origine U, puis en échantillonnant
dans U selon le plan de sondage d'origine. Chauvet et Deville (2007)
montrent que cette approche est également consistante dans le cas du tirage
poissonien et du plan de taille fixe à entropie maximale.

10.3.1 Variantes de la méthode de Bootstrap

Dans le cas d'un sondage aléatoire simple, l'étape de constitution de la


pseudo-population doit prendre en compte la gestion des arrondis si l'inverse
du taux de sondage n'est pas entier (Bickel et Freedman, 1984 ; Booth, Butler
et Hall, 1994). Dans le cas d'un tirage à probabilités inégales, l'étape de
constitution de la pseudo-population est également problématique ; si Tik
désigne la probabilité d'inclusion de l'individu k de 5, la méthode de
Bootstrap suppose de dupliquer l/rq fois cet individu, avec l/7iA non
nécessairement entier. Dans le cas d'un sondage aléatoire simple, Booth,
Butler et Hall (1994) proposent une variante du Bootstrap de Gross qui
permet d'en tenir compte. Chauvet et Deville (2007) la généralisent au cas des
probabilités inégales et en donnent une version simplifiée où la pseudo-
population U est constituée en dupliquant [1 nk] chaque individu A: de ^ où
[l/nk] désigne la partie entière de I/ti^ .
Si les probabilités d'inclusion restent faibles, cette simplification n'introduit
pas de perte notable d'efficacité. On obtient une estimation de variance
8. Estimation 373

consistante pour Testimateur de Horvitz-Thompson, et de façon plus générale


pour un estimateur par substitution sous de faibles hypothèses de régularité.

10.3.2 Adaptation au cas de deux échantillons

Dans le cas de deux échantillons, le principe de Bootstrap reste le même :


reconstituer à l'aide des échantillons des pseudo-populations images des
populations de départ, dans lesquelles les plans de sondage d'origine sont
appliqués. La difficulté réside ici encore dans l'étape de reconstitution, qui
doit tenir compte des probabilités d'inclusion ; si les deux échantillons ont été
tirés indépendamment, les pseudo-populations sont reconstituées indé-
pendamment elles-aussi. Si le tirage de ces échantillons a été coordonné, la
reconstitution le sera également.

BIBLIOGRAPHIE

Bickel, P.J., et Freedman, D.A. (1984). Asymptotic normality and the


Bootstrap in stratified sampling. The Annals of Statistics, vol. 12, 2, 470-
482.
Booth, J.G., Butler, R.W. et Hall, P. (1994). Bootstrap Methods for Finite
Populations. Journal of the American Statistical Association, vol. 89, 1282-
1289.
Cardot, H., Chaouch, M., Goga, C. et Labruère, C. (2007). Functional data
analysis with survey sample data, soumis pour publication.
Chauvet, G., et Deville, J.-C. (2007). Bootstrap for unequal probability
sampling, soumis pour publication.
Davison, A.C., et Hinkley, D.V. (1997). Bootstrap Methods and their
Application, Cambridge University Press.
Deville, J.-C. (1999). Estimation de variance pour des statistiques et des
estimateurs complexes : linéarisation et techniques des résidus. Techniques
d'enquête, vol. 25, 219-230.
Efron, B. (1982). The Jackknife, the Bootstrap and Other Resampling Plans.
CBMS-NSF Régional Conférence Sériés in Applied Mathematics,
Monograph 38, SIAM, Philadelphia.
Goga, C., Deville, J.-C. et Ruiz-Gazen, A. (2005). Linéarisation par la
fonction d'influence pour des données issues de deux échantillons. Dans
Méthodes d'enquêtes et sondages. Pratiques européenne et nord-
américaine, Lavallée, P. et Rivest L.-P. éds, pages 382-388, Paris, Dunod.
Goga, C., Deville, J.-C. et Ruiz-Gazen, A. (2007). Composite estimation and
linearization method for two-sample survey data, en révision.
Gross, S. (1980). Médian Estimation in Sample Surveys. Proceedings of the
Survey Research Methods Section, American Statistical Association, 181-
184. '
374 Enquêtes et sondages

Pires, A.M., et Branco, J.A. (2002). Partial influence functions. Journal of


Multivariate Analysis, vol. 83, 451 -468.

11. Évaluation de précision par Bootstrap

pour des algorithmes de tirage à

probabilités inégales : une étude

empirique

Aurore KERVELLA, Emmanuel L'HOUR, Nicolas RAILLARD,


Stevenn VOLANT17 et Guillaume CHAUVET18

11.1 introduction

Quand on dispose d'une variable auxiliaire bien corrélée à la variable


d'intérêt (plus précisément, lorsque les deux variables entretiennent une
relation presque linéaire ne passant pas trop loin de l'origine), il est souvent
intéressant de sélectionner l'échantillon à probabilités proportionnelles à cette
variable, plutôt que par sondage aléatoire simple. Il existe un nombre
important d'algorithmes de tirage à probabilités inégales, parmi lesquels la
méthode du tirage réjectif (Hajek, 1964).
Une méthode d'estimation de précision par Bootstrap, proposée par Gross
(1980) pour le sondage aléatoire simple, a été étendue par Chauvet et Deville
(2007) au cas des tirages poissonien et réjectif. Nous proposons ici une étude
empirique du comportement de cette méthode de Bootstrap pour d'autres
méthodes de tirage à probabilités inégales, couramment utilisées et proches du
tirage réjectif : le tirage systématique randomisé et la méthode du pivot
randomisée (Deville et Tillé, 1998).

11.2 Généralités

11.2.1 Notations et définitions

On s'intéresse à une population finie d'individus, notée U = On


souhaite sélectionner un échantillon S dans U avec des probabilités
distinctes, notées tt = (ti,, ..., 7rv)' (par exemple, proportionnelles à une
variable de taille). On notera M la mesure qui place une masse unité sur
/V
chaque individu de U, et M la mesure estimée qui place une masse I/tt, sur
l'unité k de l'échantillon S.

17 ENSAI, Campus de Ker Lann, rue Biaise Pascal, 35172 Bruz, France.
18CREST-ENSAI, Campus de Kcr Lann, me Biaise Pascal, 35172 Bruz, France.
8. Estimation 375

Le tirage réjectif à probabilités n et de taille X=i7l, = n


consiste à
échantillonner selon un plan poissonien de probabilités p = p^)'
jusqu'à obtenir un échantillon de la taille n voulue. Les probabilités p sont
généralement différentes des probabilités 71 souhaitées ; Chen, Dempster et
Liu (1994) ont montré qu'à tout jeu de probabilités 71 pouvait être associé un
jeu de probabilités p, et Deville (2000) donne un algorithme effectif de
calcul.
Hajek (1964) montre que le tirage réjectif est le plan de sondage à entropie
maximale pour des probabilités d'inclusion et une taille d'échantillon fixées.
D'autres algorithmes de tirage à probabilités inégales et de taille fixe sont
couramment utilisés : le tirage systématique randomisé (Tillé, 2006) et la
méthode du pivot (Deville et Tillé, 1998). La méthode du pivot, avec un tri
aléatoire préalable sur la base de sondage, peut être vue comme une
amélioration de la méthode RHC (Rao, Hartley et Cochran, 1962) permettant
de respecter exactement des probabilités d'inclusion fixées. On peut montrer
que dans certains cas, la méthode du pivot randomisée et la méthode RHC
sont identiques.

11.2.2 La méthode de Bootstrap

La méthode proposée par Chauvet et Deville (2007) est une généralisation au


cas des probabilités inégales d'une variante de la méthode de Gross (1980)
proposée par Booth, Butler et Hall (1994). L'idée consiste à reproduire les
conditions initiales de tirage.
L'inconvénient de la méthode est sa complexité algorithmique, puisqu'elle
implique une étape de création des pseudo-populations, et pour chacune
d'elles une étape de rééchantillonnage. Chauvet et Deville (2007) en
proposent une version simplifiée, présentée ci-dessous, impliquant la création
d'une seule pseudo-population. On le notera dans la suite : méthode BBH
simplifiée.
Soit S un échantillon, sélectionné selon un plan de sondage q. On s'intéresse
à la variance de l'estimateur par substitution Ô(M) d'une fonctionnelle
Ô(M). L'algorithme du Bootstrap simplifié pour un plan de sondage à forte
entropie est décrit ci-dessous :
1. On duplique mk = [I/tuJ fois chaque unité k de S, où [.] désigne
l'entier le plus proche. On obtient ainsi une pseudo-population U\
2. Dans U\ on sélectionne C rééchantillons S,',...,S* selon le plan de
sondage q réalisé avec les probabilités d'inclusion initiales. On obtient
ainsi les estimateurs bootstrappés 0(^7,"),..., 0(M( ). La variance est
estimée par

où 0- = i|e(M:).
376 Enquêtes et sondages

La même méthode peut être utilisée pour produire un intervalle de


confiance selon la méthode des percentiles. En ordonnant les statistiques
bootstrappés pour obtenir 0^,0"g), un intervalle de confiance de niveau
approximatif 1 - a est obtenu avec [0*a 1),0*1_(l J.

11.3 Application

11.3.1 Données

Nous proposons ici de tester la méthode BBH simplifiée, pour deux plans de
sondages proches du plan réjectif : le tirage systématique randomisé et la
méthode du pivot randomisé. On utilise une population artificielle de taille
200, comprenant les variables :
- v, de moyenne 10 et de variance 4, générée selon une loi normale ;
- y générée selon le modèle : y = ao + a y + 8 où s suit une loi
2
Ar(0,a ) ;
- z générée selon le modèle : z = exp((30 + p,^ + q) où q suit une loi
^(0,y2).

On utilise ici a,, = 20,01, = 1,P(I = 0 et p, = 0,2. Les variances a2 et y2


sont choisies de façon à ce que la corrélation entre x et y (respectivement entre
v et z) soit approximativement égale à 0,40 (respectivement à 0,60). On utilise
des probabilités d'inclusion proportionnelles à la variable x, calibrées pour
obtenir des échantillons de tailles respectivement égales à 10, 30 et 50.
On estime la précision des estimateurs des totaux y et du coefficient de
corrélation p _ et du ratio tjt_. La « vraie » précision est approchée à l'aide
de 10 000 simulations indépendantes. A l'aide de 1 000 échantillons
indépendants, pour chacun desquels 1 000 rééchantillons sont sélectionnés, on
produit une approximation Bootstrap de variance. L'approximation de
variance donnée par la linéarisation, en utilisant l'estimateur de Deville
(1993) pour un plan à forte entropie, est également calculée sur la base de ces
1 000 échantillons. La stabilité de l'estimation de variance est mesurée par le
coefficient de variation des 1 000 estimateurs de variance. Les intervalles de
confiance donnés respectivement par la méthode des percentiles pour le
Bootstrap et une approximation normale pour la linéarisation sont également
comparés.
8. Estimation 377

11.3.2 Résultats

Tableau 8.6 : Biais relatif et stabilité relative approchée par simulations


pour Festimation de variance par Bootstrap et par linéarisation
Pivot randomisé Systématique randomisé
Bootstrap : Linéarisation : Bootstrap : Linéarisation :
% biais relatif % biais relatif % biais relatif % biais relatif
(Stabilité) (Stabilité) (Stabilité) (Stabilité)
Taille tv -6,1 (0,60) +3,9 (0,59) -10,0 (0,58) -0,1 (0,58)
n = 10 t. -11,6 (0,77) -2,1 (0.77) -9,5 (0.75) +0,4 (0.76)
tji,. -7,3 (0,74) -2,8 (0,68) -7.1 (0,73) -1.9 (0,68)
P,.- -4,9 (0,49) -34,4 (0.77) -2,7 (0,50) +31,1 (0,80)
Taille lv -5,4 (0,33) -1,2 (0,33) -5,1 (0,32) -1,1 (0,32)
n = 30 t! -5,9 (0.41) -2,6 (0.41) -5,5 (0,43) -2,3 (0,42)
'A- -4.4 (0,40) -2,9 (0,36) -3.7 (0.42) -2,2 (0,37)
Pv.- -2,8 (0,36) -14,6 (0,50) -4,6 (0,35) -16,1 (0,49)
Taille -1,6 (0,26) -0,5 (0,25) -0.7 (0.27) +0,0 (0,25)
n = 50 t: -3,1 (0,28) +0,4 (0,29) -2,2 (0,28) +0,9 (0,30)
'A- -0,7 (0,28) -0,7 (0,26) +1,2 (0,28) +0,4 (0,26)
p.. -0,5 (0,28) -10,8 (0,37) +3,8 (0,29) -7,3 (0,37)

Ces simulations montrent que pour des statistiques linéaires, le Bootstrap


donne une estimation de variance fortement biaisée pour une taille faible
d'échantillon, ce qui est cohérent avec le biais théorique en Mn obtenu dans le
cas du sondage aléatoire simple. De façon générale, la linéarisation donne de
meilleurs résultats pour les statistiques linéaires (totaux) et faiblement non
linéaires (ratio), alors que le Bootstrap simplifié semble préférable dans le cas
d'une fonctionnelle « moins linéaire » de type coefficient de corrélation. Des
simulations supplémentaires seraient nécessaires pour voir si le bon
comportement du Bootstrap simplifié s'étend aux fonctionnelles fortement
non linéaires de type fractiles dans le cas de tirages proches de l'entropie
maximale. Par ailleurs, il conviendrait d'étudier si les différences de
performances entre Bootstrap et linéarisation pour ce type de fonctionnelles
s'amoindrissent avec des échantillons plus grands.

BIBLIOGRAPHIE

Booth, J.G., Butler, R.W. et Hall, P. (1994). Bootstrap Methods for Finite
Populations. Journal of the American Statistical Association, 89, 1282-
1289.
Chauvet, G., et Deville, J.-C. (2007). Bootstrap for unequal probability
sampling, soumis.
378 Enquêtes et sondages

Chen, X.-H., Dempster, A. et Liu, S. (1994). Weighted finite population


sampling to maximize entropy. Biometrika, 81, 457-469.
Deville, J.-C. (2000). Note sur l'algorithme de Chen, Dempster et Liu.
Rapport technique, CREST-ENSAI, Rennes, Insee.
Deville, J.-C., et Tillé, Y. (1998). Unequal probability sampling without
replacement through a splitting method. Biometrika, 85, 89-101.
Deville, J.-C. (1993). Estimation de la variance pour les enquêtes en deux
phases. Note interne manuscrite, Insee, France.
Gross, S. (1980). Médian Estimation in Sample Surveys. Proceedings ofthe
Survey Research Method s Section, American Statistical Association, 181-
184. '
Hajek, J. (1964). Asymptotic theory of rejective sampling with varying
probabilities from a finite population. Annals of Mathematical Statistics, 35,
1491-1523.
Rao, J.N.K., Hartley, H.O. et Cochran, W.G. (1962). On a simple procédure
of unequal probability sampling without replacement. Journal of the
American Statistical Association, B, vol. 24.
Tillé, Y. (2006). Sampling algorithms. New York : Springer.
Index des auteurs

ARWIDSON, Pierre 254 CSF 249


ATIF, Mohamed Lamine 215 DAHAN, Gérard 229
BAILLARGEON, Sophie 344 DANSOU, Blandine C. 175
BANTURIKI, Yannick 127 DAUPLAIT, Céline 259
BAULNE, Jimmy 6 DAVIN, Bérengère 113
BAYART, Caroline 275 DE CLÉDAT, Bernard 31,259
BEAUMONT, Jean-François 365 DENNI, Bernard 164
BECK, François 118, 254 DESENCLOS, Jean-Claude 94
BEM, Justin 209 DESSERTAINE, Alain 314, 353
BENKHEDDA, Salim 215 DEVILLE, Jean-Claude 319
BEZZAOUCHA, Abdeldjallil 215 DIA, Modou 348
BLAIS, André 147 DUCHESNE, Pierre 327
BOCCI, Cynthia 365 DUFOUR, Ariane 132
BONNEL, Patrick 275 DUFOUR, Johane 99
BOURQUE, Louise 6 DUPOIRIER, Elisabeth 139
BRÉCHON, Pierre 11 DURAND, Claire 169
BRILHAULT, Gwennaëlle 21 EIDEH, Abdulhakeem 37
BRION, Philippe 21 EMMANUELLI, Julien 94
CAILLOT, Philippe 164 EVERITT, Joanna 147
CARON, Nathalie 63 FAIVRE, Sébastien 16
CAVALIN, Catherine 108 FLEURET, Sébastien 269
CHARPIN, Jean-Michel 1 FOURNIER, Patrick 147
CHAUVET, Guillaume 357, 369, 374 GAUTIER, Arnaud 118, 254
CHECCAGLINI, Agnès 26 GERBER, Philippe 269
CHICHE, Jean 152 GIDENGIL, Elisabeth 147
CHIKY, Raja 314 GOGA, Camélia 369
CHRISTINE, Marc 16 GOLDBERG, Marcel 79
COHEN, Olivier 58 GRAF, Eric 67
COMBES, Jean-Baptiste 264 GUAGLIARDO, Valérie 264
COQUELET. Cécile 72 GUEGUEN, Alice 79

Vous aimerez peut-être aussi