SCIENCES DE L’INFORMATION ET
DE LA COMMUNICATION.
3è Année de Licence
Traitement + Analyse des données & Projet de recherche
Avertissement :
La combinaison entre la rationnelle rigueur de la leçon et l’irrationnelle passion d’une connaissance à partager, requiert des
étudiants rendus à l’université d’accroître par leurs propres recherches (cette activité devrait représenter au moins 70 % du
temps consacré à la lecture d’ouvrages) la qualité de ce cours qui ne se présente nullement comme un savoir fini. Peut être
n’offre t-il à tout le moins que les 30 % des savoirs dont l’étudiant est en droit d’en attendre.
Sommaire :
Introduction :
1. Les traitements préliminaires des données ou mise en ordre
Le codage des données
La codification des questions ouvertes, des questions à
réponses multiples et des non-réponses
La vérification des données
Le transfert des données quantitatives et / ou qualitatives
Le traitement informatique des données
Le nettoyage des données
2. La mise en forme de données
2.1. Les mesures descriptives
2.1.1. Les données en pourcentage et les mesures de tendance centrale
2.1.2. Les mesures de dispersion et les mesures de position
2.2. Les représentations visuelles
2.2.1. Les tableaux, graphiques, diagrammes, histogrammes,
regroupements thématiques et figures
2.2.2. Les relations entre variables et les tests statistiques
3. L’analyse des données et l’interprétation des résultats
3.1. L’analyse des données
3.1.1. Les types d’analyse
3.1.2. Le rapport de l’analyse d’avec les données
3.2. L’interprétation des résultats
Conclusion : études de cas.
L’approche positiviste
À la suite de Durkheim, le positivisme est envisageable à travers deux règles essentielles :
- Le renoncement à tout a priori et la recherche par l’observation des données de l’empirie.
Aujourd’hui, l’établissement des corrélations a remplacé la tendance causaliste.
- Le fait, fut-il humain doit dans son traitement être chosifié. Le rejet de toute eidétique est
de mise.
Cette brève présentation vise à éveiller l’étudiant à des questions que la recherche ne
manque pas d’exhumer. Ne visant pas à l’exhaustivité, elle a fait l’économie de
certaines questions utiles.
Une précision doit cependant être faite. Les auteurs, classiques ou contemporains
échappent à toute catégorisation simplificatrice. Plusieurs approches théoriques
chevauchent allègrement cette dichotomie.
Positivisme Monographie
Compréhension Etudes comparatives
Fonctionnalisme Expérimentations
Structuralisme Simulation
- La maîtrise des connaissances liées au champ de la recherche. Cette exigence rapportée aux
SIC apparaît singulière. Les SIC n’étant pas un champ au sens bourdieusien du terme, mais
un carrefour disciplinaire [Lazar 1991], une interdiscipline [Miège 2002,2006]. Les
connaissances requises s’inscrivent dans les sciences sociales au nombre desquelles : la
sociologie, l’anthropologie, la psychologie, l’économie, la géographie, l’histoire, etc.
- La maîtrise d’un certain nombre d’outils propres à recueillir de façon rigoureuse les données
à étudier (le plan d’observation le formulaire de questions, le guide d’entretien), devraient être
connus dans leurs conceptions et leurs manipulations ainsi que les difficultés attachées à
l’utilisation de chacun de ces instruments.
La recherche scientifique est un processus en trois moments et sept étapes. Le fait scientifique
nous rappelle Bachelard est conquis, construit et constaté. De fait, la conquête apparaît
comme le premier moment de toute recherche. De quelle rupture s’agit-il ? Sur quoi
le fait scientifique est-il conquis ?
Suivons Bachelard qui répond : « Toute culture scientifique doit commencer par une
catharsis intellectuelle et affective (…). Quand il se présente à la culture scientifique, l’esprit
n’est jamais jeune. Il est même très vieux, car il a l’âge des ses préjugés. »
Introduction :
Au terme de la collecte des données, le chercheur se retrouve avec des données brutes.
Celles-ci peuvent être des notes d’observation, des enregistrements d’entretiens, des
formulaires de questions remplies, des résultats d’expériences, des extraits de textes ou de
statistiques recueillies. Telles qu’elles se présentent alors, ces données brutes ne sont pas
analysables. Pour qu’elles le deviennent, il faut d’abord que le chercheur les mette en ordre.
Cette mise en ordre est l‘objet de la première articulation de ce cours. Y sont abordés les
procédés de codage, de vérification, de transfert et de nettoyage des données, notamment
sous le rapport du traitement informatique. Une fois mises en ordre, ces données doivent
être mises en forme par le chercheur ; d’où le sens de la deuxième articulation de ce cours,
qui décrit les différentes façons de représenter les données en vue de leur analyse et
interprétation.
Cette phase dite de préparation ou de traitement des données est de la plus haute
importance, et ne doit sous aucun prétexte être négligée pour deux raisons au moins :
- elle permet de mettre en relief la richesse des informations que regorgent les
données brutes. Le chercheur se doit alors de manipuler avec un grand soin les
données qu’il a collectées, en ayant toujours en tête son problème de recherche et
en veillant à vérifier que toutes les opérations sont menées correctement.
- les analyses les plus fines ou les plus originales demeureraient inutiles et
invalides si les données sur lesquelles elles se basent avaient été mal préparées.
Les données brutes doivent donc être soumises à un certain nombre de travaux
préliminaires. C’est ce que l’on entend par mise en ordre des données. Selon le cas, les
données brutes doivent être codées, vérifiées, transférées, informatisées, nettoyées,
synthétisées, représentées, testées, regroupées…
Le codage est une première façon de mettre de l’ordre dans des données brutes. Il permet de
rattacher un symbole, habituellement un chiffre, à une donnée recueillie. Par exemple, dans
l’analyse de la première page de divers journaux, le chercheur peut avoir décidé d’inscrire le
Le codage doit résoudre les ambiguïtés que certaines données brutes pourraient recéler. Il
fait donc appel à une réflexion qui met en rapport la façon dont le problème a été défini, à la
première étape de la recherche, et les données réunies lors de la collecte des données. Il
importe pour le chercheur, de s’assurer que, d’une part, il ne trahit pas le sens de la
définition de son problème et que, d’autre part, il tient compte de tous les aspects des
données prélevées. Il faut savoir pourquoi on retient finalement telle catégorie plutôt que
telle autre. C’est le sens de la remarque de Sellitz et al. (1977. p. 439) :
Le point probablement le plus important qu’il faut vous rappeler au sujet de cette opération, c’est que vous devriez
toujours avoir une raison, une raison que vous pouvez formuler explicitement, pour appuyer vos décisions à propos des
opérations de codage.
Pour guider les opérations de codage, il y a lieu de préparer, si cela n’a pas été déjà fait
lors de la construction de l’instrument, un manuel de codage. Celui-ci contiendra la liste des
codes utilisés dans la recherche, avec leurs significations et leurs justifications. Plus
généralement, le manuel présentera les concepts, dimensions et indicateurs traduits de
différentes manières selon la technique utilisée. Pour ce qui est des variables, le manuel
comportera, pour chacune :
- un nom ;
- une abréviation, s’il y a lieu, quand l’espace disponible est trop restreint, si on a entré les
données sur ordinateur, par exemple ;
- un numéro pour pouvoir la localiser ;
- sa formulation originale pour plus de précision ;
- des numéros de code pour chacun de ses attributs ou chacune de ses catégories ;
Ainsi, on pourra retrouver dans un manuel de codage une inscription comme celle qui suit :
Si l’instrument est un formulaire de questions, les réponses sont habituellement déjà codées.
Le chercheur n’a qu’à inclure une copie vierge de ce formulaire dans son manuel, avec des
codes supplémentaires s’il fait des ajouts dans la catégorisation. Il en est de même pour les
autres instruments de collecte déjà construits et codés. Rappelons aussi que chaque
formulaire, qui correspond à un individu de la population, tout comme chaque unité
d’analyse dans les autres techniques, doit avoir reçu un numéro d’identification qui peut être
complexe ou significatif.
Un système de codage bien défini facilite les procédures ultérieures et résout les
interrogations délicates et les ambiguïtés. Le manuel, pour sa part, sert de guide quant à la
signification exacte de chaque variable et d’aide mémoire pour les décisions qui ont été
prises concernant les catégorisations retenues. Il réunit toutes les notations qui permettraient
à un autre chercheur de reconstruire la logique de la classification.
En ce qui concerne le choix des codes, les indications suivantes peuvent contribuer à leur
donner une cohérence et une certaine logique facile à retenir :
o Ainsi quand on a affaire à une variable d’intensité, comme la satisfaction ou le
degré de préoccupation, par exemple, on numérote dans un ordre allant du moins
intense au plus intense, en partant du chiffre 1 jusqu’au nombre nécessaire.
o Quand il n’ y a que deux catégories pour une variable et que ces dernières se
répètent à plusieurs reprises, on les numérote alors toujours pareillement, en
utilisant le chiffre 1 pour la présence ou l’affirmation et le chiffre 2 pour l’absence
ou la négation.
o Lorsque les catégories n’ont pas de logique particulière les unes par rapport aux
autres, comme l’appartenance ethnique ou les préférences musicales, par
exemple, les numéros de la variable peuvent être indifféremment distribués.
o Enfin, certaines variables renvoient déjà à des chiffres et le codage est ainsi donné
par la nature numérique de la variable, comme la fréquence de tel phénomène,
l’âge, le revenu, etc.
- Règle 1 : choisir au hasard, un certain nombre de formulaires pour avoir un éventail de réponses.
Mucchielli (1970) entend par un « certain nombre » le tiers des réponses pour 40 à 60 questionnaires
et le quart pour une centaine.
- Règle 2 : à partir du but de la question, comparer les réponses les unes aux autres pour voir si elles
traduisent une, deux, trois, … n, réactions différentes à la question, toujours en essayant de ramener
ces réactions à quelques-unes, élémentaires. « Vous constaterez, rappelle Mucchielli, que certains
En examinant les réponses, cinq idées maîtresses ont pu être dégagées. Il ne reste plus qu’à
les regrouper en quelques réactions élémentaires en retournant à l’indicateur de la question ou,
plus généralement, au cadre conceptuel de la définition du problème.
Si le chercheur visait à savoir quelles personnes ont influencé le candidat, alors trois
catégories pourraient être dégagées et retenues des cinq idées maîtresses :
1) personnes de l’entourage ;
2) personnes étrangères ou extérieures (exemple : le conseiller d’orientation)
3) pas de personnes en particulier.
S’il visait plutôt à connaître la source de l’influence quant au choix, il peut en arriver à ne
retenir que deux catégories dans lesquelles les cinq idées maîtresses pourront être incluses :
Pour procéder à la vérification des données, entendons par là, une évaluation des données
recueillies en vue de s’assurer qu’elles sont utilisables pour l’analyse, le chercheur doit se
poser un certain nombre de questions (Sellitz et al.., 1977) et, selon les réponses apportées,
diverses décisions peuvent être prises :
- les données sont-elles complètes ? Si la réponse est non, ces informations incomplètes sont
soit à éliminer complètement de l’analyse ultérieure, soit à coder d’une façon particulière
pour pouvoir les isoler par la suite.
Examiner les données à la lumière de ces quatre questions permet donc au chercheur de
vérifier les informations. Une telle vérification est nécessaire avant la compilation des
données sur ordinateur ou autrement, car elle garantit de ne travailler par la suite qu’avec
des données pertinentes ; l’analyse ultérieure ne se fera pas en vain. La vérification des
données est à la recherche ce que la vérification d’un avion au sol est à la navigation
aérienne : elle met l’équipage en condition de poursuivre son vol sans craindre aucune
surprise.
Par transfert des données, entendons, enregistrement de données sur un support qui en
permet le traitement. Une fois le codage terminé et les données brutes vérifiées, il reste à
procéder au transfert des données sur un support qui en permettra la compilation :
Pour les données que le chercheur veut soumettre à un traitement quantitatif, il peut
recourir à l’ordinateur, dont l’utilisation s’est généralisée, en particulier grâce aux
possibilités de la micro-informatique, qui permet de stocker et de traiter un grand nombre de
données brutes, facilement et à peu de frais. Il ne reste plus au chercheur qu’une étape à
franchir entre la préparation des données brutes et leur emmagasinage : s’asseoir devant un
clavier d’ordinateur et enter les données directement à partir des informations recueillies à
l’aide de l’instrument de collecte. Des logiciels existent à cet effet.
Supposons qu’un chercheur ait à compiler manuellement les données d’une enquête par
questionnaire. Pour l’enregistrement manuel d’une centaine de formulaires, il lui faudrait
construire un grand tableau de compilation dans lequel lignes et colonnes se croisent. À la
verticale, chaque colonne représente une question ; à l’horizontale, chaque ligne contient
toutes les réponses de chaque enquêté à chacune des questions. À l’intérieur du tableau, il
Méthodes de recherche en Sciences de l’Information et de la Communication
(3ème année de Licence)
Université de Douala – FLSH – Département de Communication.
Enseignant : Dr Louis Roger KEMAYOU
inscrirait, dans chaque case, le numéro assigné à la catégorie de la réponse. Dit autrement,
chaque case est un point d’intersection entre le code de la réponse donnée à une question du
questionnaire et un enquêté particulier, ainsi que l’illustre le tableau ci-après. Ce tableau se
limite à six enquêtés qui ont eu à répondre à huit questions.
Question n° : 1 2 3 4 5 6 7 8
Enquêté n° 001 2 18 1 4 100 1 12 85
002 3 17 1 1 150 1 40 70
003 1 16 1 3 90 1 30 65
004 2 17 2 5 200 2 10 75
005 2 17 2 5 178 1 15 80
006 1 17 1 1 80 2 3 67
Ce tableau illustre ce que l’ordinateur emmagasine d’une tout autre manière ; dans les deux
cas, les données brutes recueillies sont compilées. L’ordinateur, dans une première opération
élémentaire, peut procéder à des additions, et le chercheur saura ainsi pour la première
question, par exemple, le nombre de réponses correspondant aux catégories 1, 2 et 3.
L’ordinateur facilitera grandement la tâche du chercheur, car additionner à la main à partir
d’un tableau de compilation entraîne des difficultés inévitables d’attention, particulièrement
si l’échantillon est grand et si le formulaire compte plusieurs questions. Ce tableau
représente, enfin, ce qu’on peut appeler une matrice de données, c’est-à-dire un modèle
réduit du croisement entre variables (questions) et informateurs (enquêtés).
Supposons aussi que le chercheur revienne de la collecte avec des notes d’observation ou
d’analyse de contenu ; le transfert consiste à classer ces données pour s’y retrouver plus
facilement. Il peut alors regrouper tout ce qui est de l’ordre de la description de faits, de
situations, d’objets, etc., et tout ce qui est de l’ordre de l’interprétation : suppositions,
jugements, tentatives d’explication, rapports présumés entre des faits, etc. Il peut aussi
subdiviser plus précisément à l’intérieur de chacune de ces catégories, selon l’analyse
ultérieure envisagée. L’important dans ce transfert, eu égard à la définition du problème, est de
regrouper les notes de telle manière à savoir immédiatement où retrouver tel ou tel aspect
du problème sans avoir à relire l’ensemble. À ce niveau, il est aussi encore temps pour le
chercheur d’ajouter des remarques qui éclairent, précisent ou complètent les notations.
En sciences sociales en général, il n’ y a pas un sondage d’opinion, pas une enquête d’une
certaine envergure, pas une expérimentation qui ne se fait sans le support de l’ordinateur.
Cette technologie offre la possibilité de nos jours, de concentrer les données brutes recueillies
sur une surface minuscule (disque dur, cd rom, clé usb…) ; qui plus est, elle permet à
l’utilisateur, d’organiser et de transformer les données selon ses besoins. En entrant ses
données, l’utilisateur – ici le chercheur –, de constituer un système de fichiers. Chaque fiche
renvoie à une variable avec son nom et les valeurs qu’elle peut prendre, et chaque élément
de la population y est situé avec la catégorie liée ç la valeur qui le concerne. Le chercheur
peut ensuite faire exécuter à l’ordinateur, par des commandes appropriées, différentes
opérations sur ces variables et lui faire compiler les résultats. Par exemple, une base de
données est un logiciel qui permet des systèmes de fichiers.
Nous avons vu plus haut que, plus la taille de l’échantillon prélevé est grande, plus il est
difficile de compiler manuellement et sans erreur les données d’une recherche, alors que
l’ordinateur permet de procéder au traitement des données en un temps relativement court
et avec exactitude. De plus, sa capacité est telle qu’il peut inonder le chercheur de tableaux
pour peu que ce dernier oublie de préciser et de limiter ces demandes. Outre le temps perdu
à examiner des tableaux superflus, des exagérées peuvent éloigner de l’essentiel de la
recherche. La règle pour une utilisation efficace des possibilités de l’ordinateur, est donc de
s’en tenir à la définition du problème et à borner les demandes à ce qui est nécessaire pour
vérifier son ou ses hypothèses. Le chercheur peut par contre se laisser une certaine latitude,
Avant d’entreprendre l’analyse des données recueillies, une fois qu’elles ont été codées,
vérifiées et transférées, il faut encore les nettoyer. Le nettoyage des données consiste en
repérage et élimination des informations erronées. Le chercheur doit alors procéder au
nettoyage de ses données d’observation. Pour ce faire, il les examinera et relèvera les
données aberrantes, insignifiantes ou manquantes.
Pour nettoyer les données quantitatives, le chercheur demandera d’abord à l’ordinateur de
représenter, sous la forme d’un tableau, la compilation des résultats d’ensemble pour chaque
variable. Supposons une enquête menée auprès de 200 personnes et un tableau de
compilation de la variable sexe qui afficherait les résultats suivants :
Tableau de compilation
- L’erreur peut s’être produite lors du transfert des données à l’ordinateur. Il faut alors que
le chercheur retrace dans l’ordinateur, l’endroit où est inscrit ce numéro aberrant ; une
fois qu’il l’a trouvé, il doit noter le numéro de l’individu ayant cette réponse et retourner
au formulaire, s’il s’agit d’un questionnaire, pour voir si la réponse était bien celle qu’il a
enregistrée. S’il s’agit d’une erreur de transcription ou de transfert, il corrigera la catégorie
dans la colonne appropriée ; sinon, il lui donnera la catégorie 9 ou il ne marquera rien,
selon ce que peut recevoir le logiciel, pour indiquer que la question est « sans réponse »
pour cet individu. Cependant, si une information n’est pas aberrante mais apparaît
hautement improbable, comme une étudiante qui déclare avoir 60 ans, il vérifiera tout de
même si cette situation pouvait se rencontrer dans les circonstances de l’enquête avant de
conclure à une réponse erronée.
- L’erreur peut provenir d’une mauvaise manipulation des instruments. Ainsi, un
formulaire à rejeter a pu être gardé parmi les autres, et c’est pourquoi il se retrouve avec
un total de 199 alors que le nouveau total, une fois retrancher ce questionnaire mal rempli,
aurait du être de 198 individus. Il convient alors que le chercheur enlève cette ligne du
fichier informatisé.
-
L’erreur peut être liée à une mauvaise catégorisation des réponses obtenues pour une
variable donnée. Supposons une réponse ouverte pour laquelle le chercheur a hésité entre
deux types de catégorisation et que celle choisie se révèle finalement non significative. Il
doit alors modifier la catégorisation et changer la numérotation correspondante sur la
ligne de chaque individu à la colonne concernée. Dans le cas où les catégories ne sont plus
modifiables parce qu’elles étaient déjà inscrites sur le formulaire et qu’elles ne
discriminaient pas les individus, il supprimera alors cette variable, car elle ne pourrait
rien apporter dans le travail ultérieur. Le chercheur peut cependant mentionner
ultérieurement son existence à titre d’information. En outre, s’il découvre une variable
ayant un nombre anormalement élevé de « ne sais pas » ou de « ne s’applique pas », il y a
aussi la possibilité d’une erreur dans la catégorisation, et c’est à la lumière des indicateurs
que le chercheur doit décider s’il faut tenir compte de cette variable ou la retrancher
définitivement.
Pour faire un nettoyage efficace, il est préférable de passer d’abord en revue tous les
tableaux de compilation et de noter toutes les anomalies rencontrées ; ensuite, nettoyer
l’ensemble des erreurs. Cette façon de faire permet d’épargner du temps, car examiner une
seule erreur à la fois occasionne un va-et-vient inutile.
Par mise en forme de données, entendre : moyens pris pour rendre les données analysables.
Une fois réalisée la mise en ordre des données recueillies, encore faut-il, pour les analyser,
les représenter d’une manière ou d’une autre. Elles prendront alors un sens pour le
chercheur. Il peut vouloir les résumer, les présenter de façon imagée, établir des rapports
entre elles, toujours dans le but de les rendre signifiantes par rapport à son problème de
recherche. Il va donc tenter de leur donner une forme qui permette de caractériser
l’ensemble des faits constatés. On parle alors de mise en forme de données.
Quand un chercheur analyse un ensemble de données chiffrées, il se sert de méthodes
quantitatives qui ont été mises au point pour caractériser les faits constatés. C’est ainsi que la
statistique a conçu des mesures descriptives et déductives, de même que des façons de
présenter des données permettant d’en étudier la pertinence par rapport à ce que l’on veut
vérifier. Pour ce qui est des données qualitatives, il est possible de faire divers
regroupements en vue de les étudier. Il existe différentes façons de mettre en forme des
données de recherche ; il s’agit pour le chercheur, d’en choisir une en fonction de ce qu’il
veut démontrer.
Nous avons mentionné précédemment que, pour faire le nettoyage des données
quantitatives, le chercheur devait produire une compilation des résultats chiffrés de chaque
catégorie pour chaque variable. Une fois nettoyée, cette compilation peut servir, variable par
variable, de première mesure descriptive. Pour que cette mesure soit quelque peu
signifiante, il est nécessaire de calculer le pourcentage (%), ou la fréquence de chaque
catégorie de la variable concernée. Le chercheur saura ainsi, par exemple, que l’échantillon
comptait 5 % de 16 ans, 46 % de 17 ans, et ainsi de suite, ce qui est plus significatif que de
savoir que 23 personnes avaient 16 ans, 207, 17 ans, etc. en fait, le nombre absolu ne
renseigne pas sur l’importance de la présence d’une caractéristique par rapport à l’ensemble,
alors que le pourcentage s’établit à partir du nombre total d’éléments de la population ou de
l’échantillon pour cette variable.
Pour une variable donnée, l’âge ou le revenu par exemple, le chercheur peut avoir besoin
d’une sorte de portrait unique qu’on obtient en en faisant ressortir une mesure dite de
tendance centrale. Cette mesure indique les valeurs autour desquelles se retrouvent les
données et renseigne donc sur leur ordre de grandeur. Les trois mesures de ce type sont le
mode, la médiane et la moyenne :
Ainsi, pour les résultats d’une classe d’étudiants à un examen sur 10 points, on pourrait
obtenir 8 pour le mode parce que ce fut la note la plus souvent obtenue, 7 pour la médiane
puisque la moitié des étudiants se situait au-dessous de cette note et l’autre moitié au-dessus
et, enfin, 6,6 pour la moyenne, qui est le résultat de la somme des notes obtenues divisée par
le nombre d’étudiants.
La moyenne est la mesure de tendance centrale la plus utilisée pour rendre compte d’une
série de chiffres comparables. Cependant, la moyenne se calculant à partir de toutes les
données de la série, elle est influencée par les données extrêmes et peut décrire deux types
de distributions différents ;
- ainsi, une moyenne de 6,6 / 10 peut signifier que les étudiants ont à peu près tous obtenu
cette note ou se sont situés autour de ce chiffre ;
- elle peut aussi signifier qu’aucun étudiant ne se situe à cet endroit mais vers les extrêmes,
des étudiants ayant été très forts et d’autres très faibles.
Cet exemple montre donc que, si le chercheur utilise une mesure de tendance centrale telle la
moyenne pour décrire un ensemble de données, il est souvent important qu’il la complète
par une mesure de dispersion comme l’écart type, pour connaître le plus ou moins grand
éparpillement de la distribution. Si, par exemple, le chercheur veut résumer l’âge des
personnes soumises à une enquête, les mesures combinées de la moyenne et de l’écart type
lui permettront de mieux cerner cette variable. Par ailleurs, dans une expérimentation, ces
mesures peuvent aussi servir au test de comparaison entre groupes expérimentaux et groupe
de contrôle.
Un autre type de mesures à signaler aussi, concerne la place relative d’un certain nombre
d’éléments dans une population ou un échantillon, qu’on détermine par des mesures de
position. Ainsi, supposons que le chercheur veuille examiner des données de recensement en
relation avec le revenu des citoyens et qu’il cherche à connaître quelle partie du revenu
national va au quart, au cinquième ou au dixième des gens les plus riches du pays. Il établira
alors respectivement des quartiles, des quintiles ou des déciles qui divisent la population en
quatre, cinq ou en dix parties. Dans un deuxième temps, il considèrera la part du revenu
national accaparé par les divers groupes déterminés par ces divisions. En se servant des
quintiles, il obtiendra cette répartition en tranches :
Par représentation visuelle, entendre, une façon d’organiser et de présenter des données de
recherche. Une façon pour le chercheur de préparer certaines de ses données pour l’analyse,
consiste à leur donner une forme visuelle particulière. Les deux principales représentations
visuelles de données chiffrées sont le tableau et le graphique. Mais il en existe d’autres.
o Le tableau
Les principaux points à retenir pour la construction d’un tableau à une entrée sont les
suivants :
- Le début et la fin du tableau se déterminent soit par un encadrement, soit par deux lignes
rapprochées au début et à la fin, soit encore par une ligne en gras au début et à la fin du
tableau.
- La première partie du tableau sert d’introduction. Elle se compose d’abord d’un numéro
pour que l’on puisse s’y référer par la suite. Ce numéro correspond à l’ordre d’apparition
des tableaux dans le rapport. Suit un titre bref mais signifiant, pour bien situer le lecteur.
Pour les techniques d’analyse de contenu et de statistiques, utilisant les données
recueillies possiblement auprès de différentes sources et à différentes époques, il faut
ajouter au titre le lieu de la collecte et l’année. Si un élément du titre nécessite une
explication, on le fait suivre d’un astérisque ou d’une lettre d’appel (placée en exposant
Notre premier exemple de tableau à une entrée montre une variable ne comprenant que
deux catégories : masculin et féminin. Or une variable peut contenir de nombreuses
catégories ; ainsi en est-il de l’âge, du revenu ou de la durée, par exemple. Inscrire les
multiples catégories de certaines variables les unes à la suite des autres dans un tableau
allongerait ce dernier au point d’en rendre la lecture ardue ; de plus, chaque catégorie
pourrait ainsi avoir un nombre insignifiant de cas et elle ne se prêterait plus à l’analyse. C’est
pourquoi il est préférable pour un chercheur, de ne pas avoir plus de dix catégories dans un
tableau et même moins ; il essaiera donc, pour simplifier pour faire ressortir l’essentiel, de
regrouper les catégories et de les réduire à quelques-unes tout en maintenant le sens de la
variable considérée en une unité appelée classe pour réduire à quelques catégories simples
l’ensemble complexe des observations faites. Ce regroupement des données en classes peut
ensuite être présenté dans un tableau en classes (tableau présentant les données regroupées
en catégories réduites par rapport à toutes les catégories de la variable), tel que dans
l’exemple qui suit, avec la variable « âge » qui peut prendre un grand nombre de valeurs :
ÂGE F %
29 et moins 12 11
30 - 39 27 24
40 - 49 43 39
o Le graphique
Une autre façon de représenter visuellement des données recueillies qui peut s’ajouter au
tableau ou le remplacer est le graphique (représentation imagée d’une série de données
organisées ou des relations entre ces données). Le graphique rend compte par une
représentation imagée d’un ensemble de données. Cette représentation imagée peut prendre
différentes formes et on choisit celle qui illustre le mieux, selon le cas, les caractéristiques de
la variable en cause, eu égard aux données concernées.
La plupart des manuels de méthodes quantitatives expliquent les règles de construction des
différents types de graphiques. Il existe des logiciels statistiques qui peuvent construire ces
graphiques ; il faut alors leur fournir les données comme il est spécifié.
o L’histogramme
L’histogramme est formé de rectangles placés côte à côte. Il est en quelque sorte une
transformation du diagramme en bâtons obtenue quand les données sont regroupées en
classes : les colonnes alors se juxtaposent.
- Le polygone de fréquences
- La courbe de fréquences
o Le diagramme circulaire
Le diagramme circulaire donne une image saisissante d’un ensemble de données et permet
au lecteur de mieux voir si un secteur a plus d’importance qu’un autre comme, dans ce cas-
ci, les dépenses pour la sécurité du revenu :
o Le chronogramme
Les tableaux et graphiques que nous venons de décrire sont des tableaux et graphiques à une
entrée, sauf le dernier quand le temps est considéré comme une variable : ils illustraient une
seule variable par rapport à ses valeurs prises. Nous verrons plus loin, lorsqu’il sera question
des relations entre variables, le tableau à deux entrées et la représentation graphique qui doit
se modifier en conséquence. Toutefois, les règles de base de la construction d’un tableau ou
d’un graphique concernant la clarté, la précision et la concision demeurent inchangées.
Il existe donc différentes façons de préparer les données pour l’analyse et de les présenter
ensuite dans un rapport de recherche. Précisons que, de façon générale, les tableaux donnent
une représentation plus précise et plus détaillée et sont d’un usage plus courant que les
graphiques. Cependant, quand le chercheur veut illustrer plus rapidement et plus
globalement les tendances et l’évolution d’une série de données ou les prédominances d’une
variable, le graphique sous l’une ou l’autre de ses formes se révèle un outil précieux. Mais le
graphique est utile s’il facilite la lecture d’un ensemble de données et non s’il la complexifie.
C’est au chercheur, qui doit appuyer et illustrer son argumentation, que revient le choix de
la façon de préparer et de présenter les données de sa recherche.
- Le thème
Quand le chercheur a prélevé des données qualitatives, il peut se retrouver face à des
informations disparates provenant d’observations, d’entrevues ou de relevés de divers
documents, ou de toutes ces sources à la fois. Pour analyser ces données, il faut là aussi les
préparer ; il est donc important de trouver des moyens de les organiser et d’en produire une
sorte de résumé. Pour ce faire, le chercheur devrait avoir l’esprit imprégné de la définition
du problème et de son opérationnalisation, et en dégager les thèmes dominants. Ces thèmes
se rapportent directement aux hypothèses formulées et sont comme des fils conducteurs
auxquels le chercheur rattachera les données qualitatives recueillies. Bien qu’il n’existe pas
de règles en ce qui concerne les regroupements thématiques, il importe néanmoins de
procéder méthodiquement, car ces regroupements contribuent à donner de la cohérence à la
mise en forme en vue de l’analyse. Il faut donc pour le chercheur, ne pas perdre de vue ces
fils conducteurs qui pourront même, dans certains cas, faire surgir de nouvelles perspectives
de compréhension du phénomène à l’étude. Enfin, l’important demeure d’arriver, à la
lumière de la définition du problème, à la clarification de certains comportements et à
l’établissement de certaines significations.
- La figure
Cette figure ne renvoie à aucune donnée chiffrée et ne représente pas un rapport entre la
surface des divers rectangles représentés et leur importance relative dans l’ensemble, comme
le faisaient les pointes dans le diagramme circulaire. Elle est plutôt le résultat d’un travail de
réflexion d’un observateur de comportements familiaux qui, pour mieux mettre en forme ses
nombreuses données d’observation, a établi une classification à cet effet. La figure montre
qu’il propose de classifier tous les comportements familiaux sous quatre catégories.
La figure est alors une façon commode et claire de représenter cette classification. De la
même manière, un chercheur vouloir représenter les réseaux d’influence dans une
communauté ou la ligne d’autorité dans un milieu de travail pour mieux expliquer ses
observations subséquentes. La figure qui suit, donne un exemple de la façon de représenter
les lignes d’autorité dans un milieu de travail, par un schéma qu’on appelle dans cette
illustration un organigramme. Chaque rectangle représente une fonction de l’entreprise dont
dépendent les fonctions au-dessous de celle-ci, reliées par une ou des lignes.
Une hypothèse peut être simple dans sa formulation, c’est-à-dire être centrée sur une seule
variable dont on prédit la variation. L’énoncé « l’investissement publicitaire des entreprises de
services décroît au Cameroun depuis 1993 » en est un exemple. Le chercheur construira un
tableau à une entrée avec une colonne pour les années (de 1990 à aujourd’hui) et une autre
pour le montant des investissements publicitaires correspondant à chaque année et pourra
vérifier le degré d’exactitude de l’hypothèse.
Cependant, une hypothèse est souvent plus complexe et suppose un rapport entre au moins
deux concepts ou variables. Pour pouvoir la vérifier, il est alors nécessaire pour le chercheur,
de mettre en relation ces deux variables. Il en est ainsi dans l’énoncé suivant : « Les décisions
arbitraires entraînent la démobilisation des salariés. » Ce qu’il veut vérifier, c’est le lien entre
OUI 42 63 60 57
NON 58 37 40 43
Total (%) 100 100 100 100
Total (F) (45) (83) (47) (175)
Test de khi-carré (x2) : 5,197 pour 2 degrés de liberté (significatif à 0,10)
Coefficient de contingence (C) : 0,170
Quelques remarques concernant la construction d’un tableau à deux entrées s’imposent. Les
points mentionnés à propos du tableau à une entrée s’appliquent également ici :
- Le titre doit mentionner les deux variables mises en relation.
- La deuxième partie du tableau commence par l’identification, à droite, de la variable dont
les valeurs apparaîtront en colonnes ou à la verticale ; inscrire en dessous les noms des
catégories de cette variable. Dans l’exemple ci-dessus, cette variable est « âge du mari ». À
l’extrême gauche de cette ligne est identifiée l’autre variable dont les valeurs apparaîtront
en lignes ou à l’horizontale, avec en dessous, les noms des catégories de cette seconde
variable. Dans ce tableau, c’est la variable « autorité de l’homme sur sa femme » avec les
catégories « oui » ou « non », selon que l’homme avait répondu à cette proposition.
- Pour que les données soient comparables, il faut les exprimer en pourcentage ; cependant,
il est nécessaire de préciser le nombre d’individus que ces chiffres représentent, car 60 %
de 5 ne représente que 3 personnes alors que 60 % de 47 en représente 28. L’éventail
d’individus, dans ce dernier cas, est assez large pour que 60 % ne soit pas imputé
seulement à quelques excentriques alors qu’avec 3 personnes, cela pourrait être avancé. Il
faudra, dans le cas de quelques enquêtés, être prudent dans l’analyse. C’est pour ces
raisons qu’il faut ajouter à la dernière ligne, entre parenthèses, le nombre d’individus
représentés dans chaque colonne. Le dernier chiffre de la dernière ligne fournit, quant à
lui, le nombre total d’individus de l’échantillon ou de la population.
- Quand on a appliqué, sur les données du tableau, un ou des tests statistiques, on fait état
des résultats en dessous des données, comme dans notre exemple.
Entendre par test statistique, une procédure visant à déterminer si des observations faites sur
un échantillon sont valables pour toute la population et s’il existe une relation entre deux
variables. Pour préparer des données quantitatives en vue de leur analyse, les
représentations que nous avons vues précédemment sont d’une grande utilité mais ne
suffisent pas toujours à préciser ce que l’on cherche, surtout si le chercheur veut connaître
Les tests d’association ou de corrélation visent, pour leur part, à mesurer l’intensité de la
relation entre deux variables. Ils permettent de compléter l’étude de la relation entre ces
variables. Le plus connu est sans doute le C, ou cœfficient de contingence, qui renseigne sur
le degré d’association entre variables. Il s’établit à partir du khi-carré et de la taille de
l’échantillon. Chaque mesure d’association a son étendue de variation qu’il faut d’abord
connaître si on veut ensuite en évaluer le sens. Le coefficient de contingence, par exemple,
varie entre 0 et 1 ou un peu moins selon le nombre de lignes et de colonnes à l’intérieur du
tableau. Pour notre dernier tableau, avec trois lignes et trois colonnes, sa valeur maximale est
de 0,816. il s’agit alors de vérifier si C, à 0,170 en l’occurrence, traduit une relation forte ou
faible entre les deux variables. La relation est faible dans le cas de ce tableau.
De nombreux tests peuvent être utilisés en sciences sociales, pour peu qu’on veuille
s’enquérir du rapport entre deux variables et de l’intensité de ce rapport. Les manuels de
statistiques font état des conditions qui permettent d’utiliser un test plutôt qu’un autre selon
la nature des variables à combiner. Les variables en présence, en effet, peuvent être à échelle
nominale ‘catégories autonomes), à échelle ordinale (catégorie en rang), à échelle à intervalle
(même distance entre catégories) ou à échelle à rapport (rapport arithmétique entre les
valeurs des catégories possibles). Selon la nature des variables combinées, il y a ainsi des
tests et des mesures différents pour en permettre «’étude. Les ouvrages de statistiques
décrivent ces différentes mesures et montrent aussi que certains tests, comme le « t » de
Student ou le « F » de Fisher, sont plus particulièrement en usage lors d’une expérimentation
et se basent sur des comparaisons de moyennes, mais le khi-carré y est partiellement en
usage et sert à la comparaison entre groupes. Là aussi, il faut d’abord identifier l’échelle de
mesure où l’on se situe, car les formules et les calculs ne seront pas les mêmes. Une fois
choisi le test à appliquer, on peut avoir recours à des logiciels statistiques qui pour la
plupart, effectuent le calcul et fournissent les résultats.
Ces tests ne sont naturellement pas nécessaires si on a pu faire des tableaux sur des données
obtenues auprès de toute la population, car alors une différence constatée est nécessairement
Le chercheur peut se rendre compte, en regroupant des catégories d’une variable, que de
nouvelles variables seraient à créer, soit des variables synthétiques comme un indice, soit des
variables simplifiées.
Lors de l’opérationnalisation, il a pu imaginer la construction ultérieure d’indices. Si c’est le
cas, le moment est venu de réaliser cette construction. Il construira en quelque sorte une
nouvelle variable en regroupant certains indicateurs en une mesure unique qu’il considère
comme nécessaire pour l’analyse. Il s’agit de choisir un certain nombre d’indicateurs se
rapportant à une même réalité ou à un même univers de sens. Par exemple, on a souvent
étudié en sciences sociales les attitudes des gens selon différents axes – conservatisme /
libéralisme, ouverture / fermeture d’esprit, tolérance / intolérance – à l’aide d’indices.
Habituellement par le biais de questions d’opinion qui traduisent un certain nombre
d’indicateurs de la recherche, on forme un indice qui renseigne sur chaque enquêté et sur
son degré de rapprochement d’une attitude particulière à l’un ou l’autre bout d’un axe. Cet
axe se compose de degrés sur lesquels on peut situer chaque individu. L’exemple ci-après
l’illustre bien. L’axe présenté laisse entendre que chaque question à laquelle répondait un
informateur touchant à la tolérance religieuse, et en supposant qu’il y avait dix questions
dichotomiques, était ensuite codée dans les réponses qu’elle offrait avec le chiffre 0 s’il
s’agissait d’une réponse manifestant de l’intolérance et avec le chiffre 1 s’il s’agissait d’une
réponse manifestant de la tolérance. Au total, par conséquent, un informateur pouvait
obtenir de 0 à 10 points.
L’indice de tolérance religieuse
INTOLÉRANCE TOLÉRANCE
*
* On peut définir l’indice de tolérance comme une attitude d’acceptation de croyances et de pratiques
différentes des siennes.
- La construction d’un indice
L’indice ainsi construit devient une nouvelle variable de la recherche et, comme pour
toute variable, on lui donne un nom et on code ses catégories. Pour poursuivre avec cet
exemple, la nouvelle variable créée par cet indice de tolérance religieuse pourra porter le
même nom, « tolérance religieuse », et aura trois catégories codées : 1- les intolérants ; 2- les
gens à préjugés ; 3- les tolérants.
Il est maintenant possible de calculer le résultat de chaque individu de l’échantillon et de le
catégoriser. Le code de chaque individu sera ensuite enregistré dans l’ordinateur comme on
a déjà entré, par exemple, les réponses aux questions qu’on a pu lui poser. La nouvelle
variable est alors prête, à son tour, à être compilée et mise en relation avec d’autres variables,
s’il y a lieu.
Voici un exemple d’application qui se base sur trois indicateurs retraduits sous la forme de
trois questions dans un questionnaire. Les trois indicateurs du cadre conceptuel étaient : 1)
action de voter ; 2) action de porter attention à la politique ; 3) action de parler de politique.
Ces trois indicateurs étaient déjà regroupés depuis l’opérationnalisation sous la dimension
« préoccupation politique de l’étudiant », ce qui justifie la construction d’un indice du même
nom. Voici les trois questions formulées à partir de ces indicateurs. Les enquêtés avaient
l’âge requis pour aller voter.
__________________________________________________________________________________
____________
(Extraits du questionnaire)
Question 18
Prenez-vous la peine d »aller voter quand il y a les élections ?
Question 27
Dans les mass media (radio, T.V., journaux), vous arrêtez-vous quand il s’agit de politique ?
1 Jamais
2. çà m’arrive quelquefois
3 Assez souvent
4 Régulièrement
(…)
______________________________________________________________________________________________
Question 102
1 Jamais
2 Quelquefois
3 Assez souvent
4 Régulièrement
______________________________________________________________________________________________
On peut constater que les catégories de réponses, quoiqu’elles ne soient pas identiques,
permettent des comparaisons. On va donc donner des poids ou des valeurs numériques à
chacune de ces catégories. La question 18 comporte trois catégories de réponses et les
questions 27 et 102 en comportent quatre. Comme on cherche à connaître le degré de
préoccupation de l’étudiant, on va donc pondérer chaque catégorie de réponse suivant la
logique de cet indice. Ainsi, on peut décider d’accorder « 0 » au moins préoccupé et « 3 » au
plus préoccupé pour chaque question. On obtiendra la pondération suivante :
___________________________________________________________________
Cat. 1 3 Cat. 1 0
Cat. 2 2 Cat. 2 1
Cat. 3 0 Cat. 3 2
Cat. 4 3
____________________________________________________________________
0 3 8 9
___________________________________________________________________
Cet indice du degré de préoccupation politique des étudiants devient donc la variable « préoccupation
politique de l’étudiant » avec trois catégories.
___________________________________________________________________
1- Les moins préoccupés. 0 à 2 points
2- Les moyennement préoccupés. 2 à 5 points
3- Les plus préoccupés.
___________________________________________________________________
Chaque enquêté pourra désormais être catégorisé suivant cet indice ou variable de
préoccupation politique, dont le chiffre va s’ajouter, dans le fichier, au numéro de cette
nouvelle variable.
Les indices de type métrique sont plus simples à imaginer et à construire quand on a affaire
à des indicateurs qui s’expriment tous en nombre pour une même unité de mesure, comme
en dollars ou en temps, par exemple. Ainsi l’indice des prix à la consommation (IPC) dont
les médias font rapport régulièrement se base sur des produits-indicateurs dont les prix de
vente sont notés et calculés à période fixe.
Un peu comme lors de la construction d’un indice quand le chercheur arrive à la phase de
réduction en quelques types, il peut vouloir, une fois compilées les données pour une
variable, en réduire le nombre de catégories. Cette opération peut être d’autant plus utile
qu’une telle réduction permet de simplifier la mise en relation de cette variable avec une
autre. La réduction peut aussi amener à mieux faire ressortir les orientations principales des
individus sur une question donnée. Ainsi, il arrive souvent qu’on pose une question ou une
série de questions dites d’évaluation à des informateurs auxquels on demande de répondre
dans des termes comme « très » ou « plutôt » en faveur et « plutôt » ou « très » en défaveur.
Voici une question du genre :
___________________________________________________________________________________________
Quand à l’abolition définitive de la peine de mort, êtes-vous très favorable, plutôt favorable,
plutôt défavorable ou très défavorable ?
1 Très favorable
2 Plutôt favorable
3 Plutôt défavorable
4 Très défavorable
Les données brutes ont été préparées en vue d’une analyse des données et une
interprétation des résultats ainsi rassemblées.
Supposons que nous ayons à analyser un objet matériel, soit une montre ; il faudrait
d’abord décrire(1) toutes les pièces qui la composent : boîtier, cadran, aiguilles,
roues, levée, balancier, spiral, etc. Ensuite, il faudrait pouvoir expliquer(2) comment
ces pièces sont reliées les unes aux autres pour former un tout qui se tient et qui
donne l’ensemble « montre ». On aurait ainsi examiné l’emboîtement des pièces,
c’est-à-dire comment l’une s’assemble à une autre, ainsi de suite. Une analyse peut
donc se présenter sous un angle descriptif et sous un angle explicatif.
Dans cet ordre d’idée, un travail de recherche descriptif fait simplement un compte
rendu de chacune des composantes de la réalité étudiée. L’hypothèse univariée se
prête tout particulièrement à ce type de travail. Souvent, un rapport préliminaire
demandé par les commanditaires d’une recherche se présente de cette façon puisque
l’analyse descriptive peut se faire plus rapidement dans un premier temps que
l’analyse explicative. Un sondage d’opinion, de même, se limite habituellement à ce
type d’analyse. En d’autres mots, produire un rapport descriptif signifie qu’on
Dès les phases préparatoires de la recherche, l’esprit d’analyse est déjà à l’œuvre : en
effet, n’a-t-on pas dès le départ décomposé la recherche en étapes et n’a-t-on pas
décomposé les termes de l’hypothèse ? Dans la dernière étape de la recherche,
commencée par la préparation des données, l’esprit d’analyse peut-il être absent ?
Assurément pas si on a eu à catégoriser et à codifier des questions ouvertes ou se
terminant par « Autres (préciser » ou si on a eu à bâtir un ou des indices. De même, il
a été à l’œuvre quand il a fallu transférer les données sur un support comme
l’ordinateur et décider des commandes à lui adresser. Il s’agit toujours d’exercer son
esprit à décomposer la réalité.
À la phase de rédaction du rapport de recherche, l’analyse porte sur les données
recueillies et regroupées à cette fin : ceci donne éventuellement lieu à la possibilité de
rendre compte de chacune des observations, puis des rapports de causalité ou
d’interdépendance entre les variables, de l’importance relative des liens entre
diverses variables, et ainsi de suite. L’hypothèse sera ainsi vérifiée à travers
l’ensemble des données mises en forma pour en permettre l’examen
L’analyse peut aussi s’orienter vers certaines données particulières qu’il semble
pertinent d’examiner. Ceci procède d’une attitude dite « phénoménologique »
Méthodes de recherche en Sciences de l’Information et de la Communication
(3ème année de Licence)
Université de Douala – FLSH – Département de Communication.
Enseignant : Dr Louis Roger KEMAYOU
consistant à s’arrêter à un ou quelques sujets ou cas qui semblent mériter un
approfondissement en eux-mêmes au lieu d’être combinés avec un ensemble plus
large. C’est ce que l’on fait lorsqu’on analyse quelques entrevues de recherche, qu’on
observe un seul milieu particulier ou qu’on s’arrête à quelques éléments de la
population ou de l’échantillon qui ont eu des comportements qu’on ne peut classer
avec l’ensemble des autres. L’analyse est alors plutôt qualitative et s’applique à
approfondir le ou le cas retenus alors que l’analyse quantitative se concentre sur la
répétition des cas. Cette dernière permet plus facilement la généralisation des
observations à d’autres situations, quoique la profondeur de l’analyse de quelques
cas puisse tout aussi bien avoir une valeur scientifique.
L’analyse ne peut se faire qu’en considérant la façon dont on a précédemment
opérationnalisé le problème. Ce travail ayant été résumé sous la forme d’un schéma
d’analyse conceptuelle. L’hypothèse qui chapeaute ce cadre conceptuel est la
référence dominante, pour ne pad dire unique, de toute l’analyse. C’est toujours par
rapport à cette hypothèse que le chercheur évalue les données de mises en forme.
L’unité d’analyse tient pour beaucoup à cette référence constante à l’hypothèse de
recherche qui assure la validité des propos. Le chercheur a donc tout intérêt à garder
près de lui tout au long de l’analyse le schéma du cadre conceptuel et l’hypothèse
qui lui a donné naissance. Chaque tableau, chaque témoignage, chaque observation,
chaque thème seront ainsi scrutés en regard de la définition du problème. Et cette
analyse conduit presque naturellement à interpréter les résultats.
Conclusion
Une fois terminée la collecte des données, le chercheur se retrouve donc devant une masse
de données brutes qui, telles qu’elles se présentent, ne se prêtent à aucune analyse. En effet,
pour être analysées, les données doivent d’abord être préparées, opération pour le moins
délicate, car le chercheur peut être amené à procéder à certaines transformations qu’il lui
faut justifier ; il doit donc noter toutes les décisions qu’il prend en préparant ses données
tant pour ne pas s’égarer lors de l’analyse qui va suivre que pour être en mesure d’étayer
solidement son argumentation ultérieure. Ces informations pourront aussi servir à d’autres
chercheurs. Lui-même voudra peut-être y revenir quelques années plus tard en vue
d’approfondir son analyse, ce qui ne saurait se faire que si toutes les informations
concernant la préparation des données ont été enregistrées et conservées.
L’ordinateur, nous l’avons vu, est un outil indispensable qui facilite grandement le travail de
traitement des données. Il n’est toutefois pas à l’abri de certains impondérables (feu, vol,
bris, etc.). Il importe alors de garder, dans un endroit autre que le lieu de travail, une copie
des données enregistrées. Il en est de même des rubans d’entrevues, des notes d’observation
ou des divers documents. Si le travail se fait en équipe, il est aussi préférable d’avoir
plusieurs copies des données préparées pour ne pas toujours être à la recherche de parties de
l’étude et pour que chacun puisse travailler quand bon lui semble à l’un ou l’autre aspect de
la recherche. De même, il faut prévoir plus d’un exemplaire du manuel de codage. Après
avoir investi temps, énergie et ressources pour mener la recherche jusque-là, il serait certes
dommage que, parce que de simples précautions, somme toute élémentaires, n’ont pas été
prises, la suite du travail soit compromise.
Écriture et ré-écriture
Seules les traces écrites peuvent baliser une progression conceptuelle :
* chaque évolution de la pensée est perdue s'il n'existe pas de traces écrites
* chaque ré-écriture marque une évolution dans la démarche
* les intervalles de temps (et la façon dont on les rempli) entre chaque ré-écriture sont
décisifs pour la maturation de l'idée de départ - la problématique - l'hypothèse
"Bouclage" ou "Réitération"
Rechercher nécessite un ordre logique et chronologique des étapes, mais cet ordre
bien qu'existant est théorique - la réalité est plus complexe : chaque étape constitue
l'autre dans les deux sens. Les différentes étapes sont donc en interaction ce qui
suppose de nombreux "retours arrière" ou "bouclages de rétroaction", au moins
jusqu’à l’élaboration de l’hypothèse et du modèle d’analyse qui marquent une étape
décisive.
La méthode est un principe organisateur que l’on se donne, une façon de faire, un
ordre et une succession d’étapes dans l'utilisation d'un ensemble de techniques et
outils. Il existe différentes méthodes soit, différentes mises en forme particulières de
la démarche, adaptées aux phénomènes ou domaines étudiés.
Faire le point d'une situation, l’analyser (démonter l’objet, trier, classer, etc.) :
Interroger le choix d’un objet de recherche dès le début sur deux axes :
Mais c'est essentiellement la relation entre les deux qui peut se révéler source de
difficultés. Il s’agira de répondre de manière explicite et authentique à deux séries
de questions :
Par ailleurs l'étude devra se fonder sur ce qui existe (et non sur un idéal qui devrait
exister), l’intention étant de comprendre ou d’expliquer le phénomène dans une
optique non moralisatrice ou philosophique.
Tout sujet de recherche destiné à éclairer l’action (diagnostic, recherche préalable au
projet professionnel...), devra commencer d’abord par un questionnement explicatif
(pourquoi), et aborder seulement le résolutif en deuxième lieu.
Si la recherche est une commande (école, fin de formation), et que vous n’avez
aucune idée de départ
Définissez le thème et lisez un ou deux ouvrages sur celui-ci (ouvrages de synthèse
ou mieux, articles de synthèse).
Si vous commencez avec une intuition ou des constats de terrain ou si vous avez
terminé le point n° 1
Listez toutes les questions qui se posent à vous et classez les en trois catégories :
- questions simples dont les réponses se trouvent quelque part sur le terrain ;
- questions théoriques générales ;
- questions complexes dont personne ne possède la réponse a priori.
Votre question de départ se trouve probablement dans la troisième liste.
De plus, la lecture proprement dite doit être effectuée à l'aide d'une grille de lecture
appropriée aux objectifs poursuivis. Enfin, des résumés correctement structurés, sous forme
de fiches de lecture, permettront de dégager les idées essentielles des textes étudiés et de les
comparer entre eux.
- d'une part, le discours entendu sera utilisé directement en tant que source d'information ;
- d'autre part, son interprétation en tant que processus doit rendre compte de ce que
l'interlocuteur exprime sur lui-même sans que cela lui soit toujours perceptible.
Les entretiens exploratoires sont souvent mis en œuvre en même temps que d'autres méthodes
complémentaires, telles que l'observation et l'analyse de certains documents (comptes-rendus
- rapports...). Au terme de la phase exploratoire, le chercheur est souvent amené à reformuler
sa question de départ en tenant compte des enseignements de ses lectures et des entretiens.
La nouvelle question devra répondre positivement aux deux premières interrogations. S'il est
important qu'elle traduise aussi justement que possible l’objectif de recherche, elle n'en doit
pas moins conserver les qualités qui la rendent opérationnelle. Il est donc inutile de tenter d’y
exprimer toutes les nuances nécessaires pour préciser le sujet. Une question de départ trop
développée, commence en fait à traiter certains aspects de la problématique... ou tente
d’apporter la réponse avant même d’effectuer la recherche.
La “Problématique” est un construit de l’ensemble des réponses aux questions que l’on doit
se poser à partir de l’énoncé de base de la situation problème, en vue de proposer une réponse
provisoire (“l’Hypothèse”), qui sera infirmée ou confirmée par “l’Observation” ou
“Expérimentation” (soit la vérification de la validité de la proposition, avec un outil
d’investigation : “Questionnaire” - “Entretiens” ou autres...). Le vide entre les données de
base et “l’Hypothèse” doit être rempli à partir de questions intermédiaires à inventer et dont
• 1er temps : il convient de faire d'abord le point sur le problème tel qu'il est posé par les
constats de terrain, le questionnement de départ enrichi par la recherche documentaire
(lectures) et les entretiens de la phase exploratoire. Concrètement, cela consiste, d'une part, à
repérer et à décrire les différents aspects ou dimensions du problème (sociologiques,
psychologiques, économiques, politiques, institutionnelles, juridiques…, et d'autre part, à
prendre en compte le vécu du problème par les principaux protagonistes : population,
professionnels, hiérarchies, institutions, etc.
Il s’agira ensuite de montrer les liens et oppositions qui existent entre ces aspects ou
dimensions et points de vue d’acteurs. Enfin il faut replacer l’ensemble dans la perspective de
diverses approches se rattachant implicitement ou explicitement à des systèmes théoriques qui
pourraient servir de cadre à autant de problématiques.
• 2ème temps, il s'agit soit d'inscrire son travail dans un des cadres théoriques exposés, soit de
concevoir un nouveau modèle. L’étudiant aura souvent intérêt à se référer à un cadre
théorique existant. Ce choix se fait en tenant compte des convergences apparaissant entre le
cadre théorique, la question de départ et les autres informations retirées de la phase
exploratoire. C'est à la lumière de la problématique retenue que la question de départ prend un
sens particulier et précis. Lorsque celle-ci n'a pas été bien précisée antérieurement, le choix
d'une problématique est aussi l'occasion de reformuler la question de départ en référence à un
cadre théorique particulier et de la rendre plus précise.
Problématique et hypothèse
- l’hypothèse principale ;
- les hypothèses secondaires ;
L'ensemble des hypothèses constitue le corps d'hypothèses, mais c’est l'ensemble thème,
champs d'analyse, corps d'hypothèses, théorie de référence, qui constitue la problématique :
manière de poser la question selon les uns, projet de traitement de la question selon les autres.
Toutefois :
Une hypothèse n'est pas une affirmation gratuite, elle s'inspire d'observations ou
de connaissances antérieures : observations personnelles, impressions, intuition ;
observations empiriques, construction théorique ; - résultat de lectures ; - recherches
antérieures. Elle est ainsi, déjà, l'aboutissement d'une pré-enquête que constitue la
phase exploratoire.
L’hypothèse doit être opératoire : pour permettre une recherche, une exploitation,
elle doit reposer sur des concepts sûrs, avoir des conséquences vérifiables. Le plus
souvent elle rend compte d'un mécanisme ou d'une relation entre phénomènes.
Nous avons tous une hypothèse en début de recherche. Mais souvent elle n'est
pas consciente. Le premier travail est de la formuler : la rendre consciente pour
qu'elle ne biaise pas la démarche, à notre insu.
Qualité d’une hypothèse. Une hypothèse doit être falsifiable au sens poppérien
du terme. Autrement dit, elle doit se prêter à réfutation.
Les qualités d’une question de départ lui reviennent de fait. Elle doit se rattacher à
un cadre théorique connu.
Les concepts
Le concept est un guide permettant au chercheur d’approcher le réel. Il organise dès
Opérationnalisation du concept
Composante 2.1
indicateur 2.1.2
Dimension 2 Composante 2.2
Dimension 3
BACHELARD Gaston (1992), Le Nouvel esprit scientifique, PUF ‘’Quadrige’’ n° 47, (première
édition 1934).
DERÈZE Gérard (2009), Méthodes empiriques de recherche en communication, Bruxelles, Éditions
De Boeck Université.
DURKHEIM Émile (1988), Les Règles de la méthode sociologique, précédé de L’instauration du
raisonnement expérimental en sociologie, par Jean-Michel BERTHELOT, Paris, Flammarion.
GHIGLIONE Rodolphe, MATALON Benjamin (1995), Les Enquêtes sociologiques. Théories et
pratiques, Paris, Armand Colin (U).
JUMEL Guy, GUIBERT Joël (1997), Méthodologie des pratiques de terrain en sciences humaines
et sociales, Paris, Armand Colin (Cursus).
LOUBET DEL BAYLE Jean-Louis (2001), Initiation aux méthodes des sciences sociales, Paris,
L’Harmattan.
PAILLE Pierre, MUCCHIELLI Alex (2003), L’analyse qualitative en sciences humaines et
sociales, Paris, Armand Colin (U).
PERETZ Henri (2004), Les Méthodes en sociologie, L’observation, Paris, La Découverte
(Repères).
ROSENTAL Claude, MURPHY Camille (2001), Introduction aux méthodes quantitatives en
sciences humaines et sociales, Paris, Dunod.
OLIVESI Stéphane, (Sous la dir. de), (2007), Introduction à la recherche en SIC, Grenoble,
Presses Universitaires de Grenoble