Vous êtes sur la page 1sur 23

LE CÔTÉ « OBSCUR » DE LA SCIENCE

L’occultation de la connaissance dans le travail des neuroscientifiques

Giulia Anichini

S.A.C. | « Revue d'anthropologie des connaissances »

2017/1 Vol. 11, N°1 | pages 65 à 86

Article disponible en ligne à l'adresse :


--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-anthropologie-des-connaissances-2017-1-page-65.htm
--------------------------------------------------------------------------------------------------------------------

Distribution électronique Cairn.info pour S.A.C..


© S.A.C.. Tous droits réservés pour tous pays.

La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les
limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la
licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,
sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de
l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


dans une base de données est également interdit.

Powered by TCPDF (www.tcpdf.org)


Varia

Le côté « obscur »
de la science

L’occultation de la connaissance
dans le travail des neuroscientifiques

Giulia ANICHINI

RÉSUMÉ
Une réflexion riche et diversifiée s’instaure depuis quelques
années autour de l’ignorance et de sa production dans les
sciences. Les sociologues et les anthropologues ont proposé
différentes définitions pour délimiter ce vaste champ intellectuel
et pour démontrer comment les acteurs jouent activement avec
l’incertitude. Cet article se concentre sur un type particulier
d’ignorance, à savoir la dissimulation intentionnelle de données,
dans le domaine des neurosciences. Les chercheurs observés
occultent certains dysfonctionnements techniques et expriment
les difficultés à rendre publiques des données discordantes
ou contradictoires. La disparition de certaines découvertes
considérées comme « non publiables », démontre d’un côté
les stratégies que les chercheurs doivent mettre en place pour
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

assurer leur position et, de l’autre côté, l’écart de celles-ci vis-à- © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

vis des idéaux scientifiques de transparence et de mutualisation


des connaissances.

Mots clés : anthropologie des sciences, ignorance, pratiques


expérimentales, neuro-imagerie, bases de données.

Revue d’anthropologie des connaissances – 2017/1  65


66  Revue d’anthropologie des connaissances – 2017/1

LA DÉTERMINATION DE L’IGNORANCE
En 1987, Merton rappelait que plusieurs grands hommes de science comme
Galilée ou Newton reconnaissaient les limites de leur entreprise face aux
vastes questions qu’ils laissaient sans réponses en faisant preuve d’humilité
face à l’inconnu et à l’incommensurabilité de l’univers. Mais outre une posture
existentielle, l’ignorance est un outil qui oriente la production de la connaissance  ;
définir les questions résolues et les problèmes ouverts sont des opérations
essentielles à la démarche scientifique. Dans le processus de découverte,
le scientifique commence par définir sa mission en délimitant le champ des
phénomènes inexplorés et les « zones d’ombre » qu’il est susceptible de
réduire. Pour cette raison, l’ignorance fait l’objet elle-même d’une connaissance,
elle doit en fait être pensée et décrite afin qu’elle soit progressivement
« apprivoisée ». L’ignorance, de ce fait, n’est pas laissée de côté ou oubliée, elle
reçoit un encadrement par le scientifique qui sonde ses profondeurs tout en
la structurant. C’est pour reconnaître le caractère « ordonné » d’une certaine
ignorance, que Kant la caractérise de « savante » : « Celui qui voit distinctement
les limites de la connaissance, par conséquent le champ de l’ignorance, à
partir d’où il commence à s’étendre, par exemple le philosophe qui aperçoit
et montre à quoi se limite notre capacité de savoir relatif à la structure de
l’or, faute de données requises à cet effet, est ignorant de façon technique
ou savante » (Kant, 1970 [1800], p. 48). Merton a utilisé le terme de specified
ignorance pour désigner le processus de définition de l’inconnu en vue de la
production du savoir scientifique (Merton, 1971). Tout comme la connaissance
qui est progressivement mise en forme et délimitée, les lacunes doivent être
évaluées et endiguées pour amorcer la résolution d’un problème. L’on voit bien
ici que l’ignorance ne se lit pas dans le « creux » de tout ce qu’on a déjà élucidé,
mais elle est bien une entité autonome qui appelle à une définition et à des
pratiques spécifiques. En même temps, elle est indissociable d’une réflexion sur
les modalités de production du savoir car quand l’on s’intéresse à l’ignorance
on touche de plus près à des questions essentielles comme le traitement de
l’incertitude, la nature de résultats qui ne remontent pas à la surface, les limites
et les approximations qui interviennent dans le travail scientifique. Pour illustrer
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

le lien étroit entre connaissance et ignorance, il suffit de penser au concept de © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
« connaissance négative » (negative knowledge) conçu par Karine Knorr-Cetina
(1999) afin d’expliquer le mode opératoire de la physique des hautes énergies.
C’est en fait à partir de l’identification d’un ensemble de phénomènes à éliminer
(erreurs, artefacts, perturbations) que la physique délimite et étudie ses objets.
La sociologie des sciences a commencé, depuis plusieurs années, à bâtir une
réflexion autour du thème de l’inconnu à différentes échelles et selon divers
points de vue. Le champ étant large, nous avons choisi de comparer deux
approches qui rendent compte d’une formulation différente de la question
de l’ignorance. La première atteste des manières de maîtriser l’ignorance à
l’intérieur et à l’extérieur du laboratoire. Il s’agit là de réflexions sur la nécessaire
inclusion de l’ignorance dans la prise de décision ou des méthodes scientifiques
Revue d’anthropologie des connaissances – 2017/1  67

employées pour la « réduire ». Ce type d’ignorance découle d’une absence


de savoir concernant, par exemple, les effets néfastes entraînés par l’emploi
d’une technologie sur l’environnement ou la santé humaine. Dans la deuxième
conception, l’ignorance fait l’objet d’une fabrication stratégique qui découle, par
exemple, d’une volonté de laisser inexplorées certaines questions considérées
comme trop « sensibles », ou d’un refus de rendre publiques des données
car elles sont censées nuire à la carrière du scientifique. Dans ce dernier cas,
l’ignorance est due à une impossibilité du public d’atteindre des connaissances
rendues inaccessibles par celui/ceux qui les a/ont générées.
Notre cas empirique se situe à l’intérieur de cette deuxième approche
de l’ignorance, qui cherche à délimiter les espaces de connaissance qui sont
volontairement laissés hors d’accès de certains publics. L’ignorance est alors
abordée, dans ce cas, comme la conséquence du secret.
L’exemple que nous proposons est tiré d’une enquête dans le domaine
des neurosciences où nous avons observé la production de cartes du cerveau
utilisées par les acteurs engagés dans la recherche fondamentale. Notre
réflexion va se concentrer sur des conduites qui attestent d’une mise à l’écart
d’une partie des produits de la recherche qui pourraient aller à l’encontre de la
réussite professionnelle des scientifiques.
Nous avons fait le choix d’analyser le non-partage de certaines informations
sous l’angle de la question de l’ignorance et du secret pour nous intéresser à la
manière dont l’invisibilisation de certains résultats rend compte de la politique
de diffusion de la connaissance et des enjeux qui pèsent sur les scientifiques. Le
secret, dans le sens que nous lui attribuons, est une forme d’incommunicabilité de
certaines observations empiriques auxquelles le scientifique aboutit. Elle permet
aux acteurs de la recherche de valoriser uniquement les résultats favorables à
l’acquisition ou la confirmation de leur position professionnelle. L’ignorance est
donc ici analysée comme une stratégie qui intervient dans la construction du
statut du scientifique. Le chercheur est incité d’un côté au respect d’un idéal de
transparence, principe fondateur des sciences (Merton, 1942) qui condamne le
secret et prône la libre communication des connaissances, et de l’autre côté, il
doit trier ces résultats pour répondre à un milieu compétitif où les découvertes
s’apparentent de plus en plus à des biens économiques.
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


La question de l’ignorance abordée au travers du processus de sélection
de ce qui va être dit et de ce qu’on sait mais qu’il vaut mieux occulter ou taire
permet d’appréhender les pratiques de partage et de non-partage ainsi que les
normes qui les autorisent.

FAIRE FACE À L’INCONNU


La distinction entre connaissance et ignorance est problématique ; c’est ce qui
ressort de l’idée de la science « post-normale » proposée par Ravetz et Funtowicz
(Ravetz, 1986 ; Funtowicz & Ravetz, 1993, 1997). Dans le cadre de cette définition,
68  Revue d’anthropologie des connaissances – 2017/1

quand les institutions scientifiques sont mobilisées pour participer à l’élaboration


de certaines politiques, comme celles qui concernent l’environnement, elles sont
obligées d’intégrer l’incertitude dans la pratique et la prise des décisions. Ce
phénomène découlerait d’une prise de conscience de la complexité de la nature,
mais aussi de la nécessité d’agir dans des situations où les limites du savoir
détenu par la science appellent au dialogue entre plusieurs acteurs sociaux. La
considération de l’ignorance est indispensable à la résolution de problèmes qui
seraient propres à nos sociétés contemporaines, leur nouveauté dépend de leur
étendue (ils se déploient dans un monde « global »), de leur variabilité et des
risques associés aux diverses solutions technologiques envisagées (Funtowicz &
Ravetz, 1997). La posture de la science doit donc changer face à l’imprévisibilité
des événements, l’ampleur des risques qui leur sont associés et la partialité des
informations détenues par les acteurs. Funtowicz et Ravetz utilisent l’expression
« usable ignorance » pour se référer à une nouvelle relation à l’ignorance qui
serait propre à la science « post-normale » :
« De nouvelles méthodes doivent être développées pour que notre
ignorance soit utilisable. Pour cela, il doit y avoir une rupture radicale
avec la dépendance totale de techniques et l’exclusion de considérations
méthodologiques, sociales et éthiques, qui ont jusqu’ici caractérisé la
science “normale” traditionnelle » (Funtowicz & Ravetz, 1993, p. 743,
notre traduction)1.

L’ignorance est donc essentielle à l’achèvement d’une science qui abandonne


le mirage d’un contrôle absolu sur les sources d’incertitude et qui s’ouvre à une
approche plus systémique. Plusieurs analyses sociologiques ont appréhendé
l’ignorance comme le résultat de l’intervention de l’homme sur la nature. En ce
sens, l’ignorance augmente en même temps que la connaissance ; elle est alors
un produit permanent de l’activité scientifique. Une réflexion plus générale a
fait de l’ignorance un caractère constitutif de nos sociétés contemporaines et
une conséquence de la démultiplication des risques liés aux développements
technologiques (Beck, 2007 ; Luhmann, 1998 ; Krohn, 2001).
Du côté des pratiques scientifiques mobilisées pour évaluer et délimiter
l’inconnu, Stefan Boschen (2006) a comparé des modes de production de
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

« non-connaissances » (nonknowledge) faisant appel à des registres scientifiques © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
différents. Ici il s’agit d’une reprise de la notion de « culture épistémique »
empruntée à Knorr-Cetina (1999) et qui indique le mode de production de
connaissances spécifique à un contexte disciplinaire. La culture épistémique est
ici étendue à la non-connaissance, ce qui amène l’auteur à parler de « scientific
cultures of nonknowledge ». Pour lui :
« […] les sciences elles-mêmes ne sont pas homogènes et uniformes
à l’égard de la façon dont elles génèrent, définissent, communiquent et

1 « New methods must be developed for making our ignorance usable. For this there must
be a radical departure from the total reliance on techniques, to the exclusion of methodological,
societal or ethical considerations, that has hitherto characterized traditional “normal” science. »
Revue d’anthropologie des connaissances – 2017/1  69

explorent la non-connaissance. Ainsi existent diverses cultures épistémiques


qui semblent différer non seulement dans la façon dont elles produisent la
connaissance (Knorr-Cetina, 1999), mais aussi dans la façon dont elles font
face aux non-connaissances » (Boschen, 2010, p. 786, notre traduction)2.

À partir de ces études de cas, Boschen distingue trois cultures épistémiques


de la non-connaissance  : les «  control-oriented sciences  » qui tendent à circonscrire
l’inconnu au moyen d’expériences limitées et contrôlées ; les « complexity-
oriented sciences » qui intègrent la complexité des phénomènes qu’ils étudient
en étant ouvertes aux effets qui n’ont pas été anticipés ; les disciplines « single-
case oriented » basées sur l’expertise professionnelle et sur des études de cas.
Ces catégories ne sont pas étanches ; les scientifiques peuvent se situer à cheval
entre plusieurs cultures épistémiques. Boschen démontre aussi que la « non-
connaissance » est un objet négocié et variable et peut être utilisée par les
scientifiques et les acteurs sociaux pour orienter les discours et des politiques
autour d’une innovation. On peut se saisir des disciplines selon le type de « non-
connaissance » qu’elles proposent. L’utilisation politique des résultats issus de
divers horizons disciplinaires démontre comment le manque de connaissances
autour d’un risque, par exemple, peut être façonné socialement. En continuité
avec les recherches de Boschen, Lee Kleinman et Suryanarayan (2012) ont
analysé les « formes épistémiques » qui sont adoptées pour produire des
résultats scientifiques. Dans le cas de l’évaluation du lien entre la mortalité
des abeilles et une nouvelle génération de pesticides, les auteurs comparent
l’approche des toxicologistes et des apiculteurs Si les premiers prennent en
compte des relations causales et privilégient des résultats « concluants », les
seconds adhèrent à une approche systémique et aboutissent à des résultats
« plausibles ». Ainsi, la « forme épistémique » des toxicologistes, qui n’intègre
pas les diverses variables environnementales pouvant jouer un rôle dans la
santé des abeilles, conduit à nier l’impact des pesticides sur la mort des abeilles.
Ce qui est intéressant ici, c’est que le cadre de production de connaissances du
laboratoire, qui implique l’ignorance de tout un ensemble de facteurs, est en
partie expliqué par les intérêts qui animent la recherche scientifique académique.
Des certitudes répondent plus efficacement à la « culture du résultat » et aux
pressions socio-économiques :
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


«  Les enjeux de carrière élevés engagés dans la production de connaissances
définitives impliquent que les toxicologues d’abeilles auraient tendance à
faire des choix méthodologiques qui sont plus susceptibles de montrer
des effets “positifs” mesurables dus à des causes apparemment isolables »
(Kleinman & Suryanarayan, 2012, p. 505)3.

2 « The sciences themselves are not homogeneous and uniform with regard to how they
generate, define, communicate, and investigate nonknowledge. Thus, there exist various epistemic
cultures that appear to differ not only in how they make knowledge (Knorr-Cetina, 1999) but also
in how they deal with nonknowledge. »
3 « The high career stakes involved in producing definitive knowledge means that academic
honey bee toxicologists would tend to make methodological choices that are more likely to show
measurable “positive” effects from apparently isolatable causes. »
70  Revue d’anthropologie des connaissances – 2017/1

Ces raisons motivent ici des choix méthodologiques mais, on le verra, elles
expliquent aussi pourquoi certaines connaissances sont gardées secrètes.

LA FABRICATION DE L’IGNORANCE
Jusque-là, il a été question d’un type particulier d’ignorance, qui fait référence à
« ce qui reste à découvrir ». Un type assez différent d’ignorance découle d’une
occultation stratégique d’éléments connus. Cette fois, les scientifiques ou leurs
« porte-paroles » choisissent de garder certaines données hors de portée
du public (les collègues, le reste de la communauté scientifique, la société).
L’ignorance est alors telle du point de vue des possibles destinataires qui
n’arrivent pas à atteindre certaines connaissances. Celles-ci, de par leur nature,
ne franchissent pas la porte du laboratoire. Si la sélection des informations et des
matériaux qui sont communiqués (ou pas) est une étape qui intervient toujours
dans le travail scientifique, la questionner sous l’angle de l’ignorance équivaut à
souligner le caractère interdit de certains résultats et du « vide » laissé par leur
« disparition ». Ce vide a des conséquences en termes politiques ; il suffit de
penser au cas où un manque d’informations volontairement entretenu servirait
à l’acceptation et à la mise en circulation d’un « fait » scientifique ou d’une
innovation.
L’institutionnalisation de l’ignorance a fait l’objet de nombreuses études
sociologiques. La position vis-à-vis de l’inconnu est souvent organisée
collectivement pour devancer l’imputation de responsabilités autour de risques
liés au monde financier, à l’industrie pharmaceutique, au changement climatique
(MacKenzie, 2011 ; McGoey, 2010 ; van der Sluijs, 2012).
Nous pouvons citer l’historien des sciences Robert Proctor, qui a introduit
le terme d’agnotologie pour désigner la science qui s’intéresse à la production
de l’ignorance et qui a analysé l’utilisation stratégique du doute par l’industrie du
tabac (1995, 2012). Celle-ci oriente l’opinion publique en fragilisant les positions
consensuelles autour des problèmes de santé que les scientifiques attribuent, à
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


partir d’une accumulation de preuves, à la cigarette. Oreskes et Conway (2010)
élargissent dans Merchants of Doubt ces méthodes à d’autres secteurs industriels
et à d’autres enjeux contemporains majeurs comme le réchauffement climatique.
À partir de contre-expertises scientifiques, le monde de l’industrie cherche,
par exemple, à faire intervenir des connaissances scientifiques minoritaires qui
remettent en cause les responsabilités de certains polluants dans le changement
climatique. La théorie du complot est là pour démontrer la force du pouvoir
de ces stratégies sur l’opinion publique. Le scepticisme devient une arme pour
maintenir le statu quo de certaines organisations et institutions.
En suivant la même perspective, Dedieu et Jouzel (2015) mettent en lumière
comment les risques sanitaires liés à l’exposition de la main-d’œuvre agricole
aux pesticides font l’objet d’un « obscurcissement » organisé, ce qui démontre
Revue d’anthropologie des connaissances – 2017/1  71

l’ancrage institutionnel d’une gestion des informations « inconfortables ».


L’ignorance est stabilisée par la mise en œuvre d’un dispositif, d’une certaine
production des données scientifiques qui dépend notamment du choix
d’instruments évaluatifs, et en général d’une limitation du périmètre de la
connaissance4.
Toutes ces études convergent vers une même conclusion : l’ignorance n’est
pas le simple produit d’une défaite qui entraverait la recherche de la « vérité »,
mais elle apparaît comme une variable fondamentale et socialement nécessaire
aux institutions pour poursuivre leurs objectifs (Rayner 2012 ; McGoey 2012).
Rayner a forgé l’expression de « uncomfortable knowledge » pour identifier ces
informations qui peuvent mettre en péril la survie des institutions, mais dont
l’omission peut tout aussi bien leur être préjudiciable « soit directement, soit
en les rendant sujettes à critiques de la part d’autres parties de la société qu’ils
auraient dû connaître » (Rayner, 2012, p. 111, notre traduction)5. Pour faire
face à cette « connaissance inconfortable », l’ignorance est la première réponse
et peut s’appuyer sur des mécanismes différents tels que le déni, le refus, le
détournement, le déplacement (Rayner, 2012).
Dans le cadre d’une définition de l’ignorance en termes de stratégie, nous
pouvons mentionner le concept de « forbidden knowledge » proposé par
Kempner, Merz et Bosk (2011) pour se référer à « une connaissance considérée
trop sensible, dangereuse ou taboue »6, qui est soumise à des enjeux de pouvoir.
Les scientifiques, dans leur quotidien, font des choix sur les pistes de recherche
qui méritent d’être poursuivies et celles qui doivent être abandonnées à partir
des considérations sur la portée sociale et politique des données produites.
Ces choix peuvent placer les scientifiques dans une situation paradoxale où le
principe d’une quête désintéressée de la vérité se heurte à la pratique qui les
amène à limiter leur investigation ainsi que la circulation des résultats (Kempner,
Merz, & Bosk, 2011). Le concept de « connaissance interdite » renvoie, dans
l’étude de Kempner et ses collaborateurs, aux contraintes qui traversent des
champs de recherche controversés (engagés dans l’étude des cellules-souches,
dans le clonage, dans le développement d’armes). Mais ils incluent aussi les
limites que les chercheurs s’imposent pour rester à l’intérieur du paradigme
dominant. Il s’agit ici d’une connaissance dont le caractère controversé dépend
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

moins de son impact social que de son acceptation au sein de la communauté © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
scientifique elle-même. Pour cette raison, le processus de prise en compte
d’une anomalie en science est souvent long et périlleux, comme l’attestent
d’ailleurs d’autres travaux de sociologie des sciences (Star, 1985 ; McGuire,
1969). Les sciences de gestion ont aussi analysé les sources de l’ignorance et
le traitement que les organisations leur réservent, notamment la part que les
tabous et le déni jouent dans la production du secret. Roberts (2012) souligne,

4 Voir Frickel & Edwards (2014).


5 « […] either directly or by making them prone to criticism from other parts of society that
they “ought” to have known. »
6 « to knowledge considered too sensitive, dangerous, or taboo to produce ».
72  Revue d’anthropologie des connaissances – 2017/1

dans le cadre d’une suppression volontaire de la connaissance, la tendance des


individus et des organisations à nier les preuves qui contredisent les décisions
collectives, à écarter la connaissance qui peut aller à l’encontre d’interdits
sociaux et culturels, à refuser l’accès aux informations qui concernent leur
identité. Tous ces cas de figure répondent à une construction sociale accrue
(« high level of social construction »), car ils dépendent fortement de normes
sociales, de politiques institutionnelles, de stratégies internes.

Pratiquer le secret dans le laboratoire


L’ignorance qui fait l’objet de notre analyse découle également du secret
comme pratique, cette fois, intérieure au laboratoire scientifique. À la différence
des recherches décrites plus haut, nous sommes intéressés non pas par la
manipulation stratégique de la « vérité » par les acteurs impliqués à diverses
échelles dans l’implémentation d’une politique ou la vente d’un produit. Il
n’est pas question dans notre étude d’utiliser le « doute » pour fragiliser une
connaissance scientifique établie. Le choix sur ce qui est « communicable »
est formulé plus en amont par les scientifiques et le caractère potentiellement
« dangereux » d’un résultat est mesuré d’après les retombées attendues en
termes de crédit scientifique qu’il est susceptible d’engendrer. Nous nous
focalisons donc sur la production des résultats et sur la gestion que les scientifiques
eux-mêmes leur réservent. Notamment, nous avons constaté que le secret
entoure certaines anomalies quand elles sont perçues comme contraires
aux intérêts des leurs découvreurs. Peu de travaux se sont focalisés sur le
processus qui amène les scientifiques à garder certaines données secrètes et
sur les raisons qui l’animent.
Dans un ouvrage classique sur la communauté scientifique, Warren O.
Hagstrom (1965) présente le secret comme un comportement déviant qui
peut faire appel à diverses explications. Nous pouvons partir des raisons
qu’il invoque pour préciser les spécificités de notre cas empirique. Du texte
d’Hagstrom, on voit se dégager trois possibles fonctions du secret. En premier
lieu, le scientifique choisit de ne pas dévoiler ses résultats pour prévenir
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


l’appropriation et l’utilisation de ses idées par d’autres. Deuxièmement, la
propriété des résultats peut être maintenue sur des résultats partiels obtenus
au fur et à mesure du travail du scientifique, pour lui consentir, au moment
opportun, de livrer l’aboutissement complet de ses recherches. Cela limite
la possibilité que d’autres puissent l’anticiper et assure un impact majeur des
publications. Un troisième cas de figure se dégage ; le secret peut se justifier
par le manque de certitudes quant à la validité des idées du scientifique. Il peut
alors décider de ne pas rendre public son travail en attente d’une accumulation
de preuves suffisantes pour le rendre « fiable ». On voit dans cette typologie
que le secret peut aider le scientifique à prévenir une conduite interdite (le
vol d’idée), à augmenter la portée des résultats ou à se protéger d’une défaite
embarrassante. Il est considéré à la fois comme une conduite malhonnête
Revue d’anthropologie des connaissances – 2017/1  73

et comme un moyen de s’y opposer. Nous voudrions élargir la réflexion et


discuter du secret dans un autre contexte, celui où le scientifique cache des
résultats qu’il considère comme « vrais » non pas par crainte qu’ils soient
utilisés frauduleusement mais pour éviter des conflits qui pourraient menacer
sa carrière. Si Hagstrom décrit le secret comme une pratique plutôt solitaire,
nous verrons, dans notre cas, sa dimension collective et négociée.
De notre étude émerge que les décisions de communiquer ou pas des
données nous informent sur la manière dont la contrainte de l’évaluation
pèse sur l’élaboration même de la connaissance. La disparition de certaines
données est le symptôme de l’environnement concurrentiel où les chercheurs
doivent se démarquer par leur découverte, ce qui aboutit à une sélection des
résultats « intéressants » parce que acceptables par des revues scientifiques
(préférablement prestigieuses). Le secret comme réponse des acteurs, parfois
négociée collectivement, révèle les effets des normes imposées par les éditeurs
scientifiques sur la production même des résultats.
La gestion des anomalies en science est désormais un thème classique. On
peut penser à l’important travail de Susan Leigh Star (Star, 1985 ; Star & Gerson,
1987) qui retrace la trajectoire historique des anomalies qui peuvent changer
de nature et évoluer selon les conditions théoriques, matérielles et sociales.
En lignée avec les apports désormais classiques de la sociologie des sciences,
nous faisons le constat que le succès d’un « fait » ne dépend pas seulement des
résultats issus de la « paillasse », il trouve aussi ses raisons dans le contexte
social et économique dont les normes doivent être à chaque fois délimitées. Ici
les données de l’expérience, bien que concluantes, n’autorisent pas la mise en
circulation d’une nouvelle « vérité », il faut invoquer d’autres paramètres pour
expliquer pourquoi elle est passée sous silence. L’occultation d’une anomalie
est justifiée à la fois par la crainte d’aller contre des connaissances dominantes
et par l’obligation de produire des résultats « publiables ». Notre cas fournit des
arguments en faveur de la flexibilité interprétative (Collins, 1981) car l’accumulation
de preuves qui vont à l’encontre de résultats relatés par la littérature rend
compte de l’existence de visions divergentes sur un même phénomène et, dans
le même temps, du poids des contingences sur la reproduction des expériences.
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


S’intéresser au secret permet d’identifier les pratiques qui s’écartent du
partage des données auquel devrait viser le travail scientifique. C’est un bon
moyen pour mettre au jour les possibles frictions entre plusieurs normes qui
gouvernent le quotidien des chercheurs.

L’IGNORANCE EN NEURO-IMAGERIE
Nous allons nous intéresser à une occultation ordinaire de la connaissance
dans la recherche fondamentale en neurosciences au moyen des pratiques
observées lors de notre enquête ethnographique. Nos observations ont
74  Revue d’anthropologie des connaissances – 2017/1

été réalisées en France, sur deux sites : un centre d’imagerie par résonance
magnétique fonctionnel (IRMf) qui est voué à la recherche fondamentale, et un
institut de neurosciences où nous nous sommes focalisée sur le travail d’une
des équipes dont l’intérêt principal est la cognition sociale. Le premier lieu nous
a permis de suivre l’acquisition des images et la réalisation des expériences,
mais aussi de nous familiariser avec l’environnement sociotechnique dans lequel
collaborent les ingénieurs qui gèrent la plateforme et les utilisateurs du centre.
Prolonger notre enquête auprès des neuro-imageurs au sein de l’institut des
neurosciences, nous a donné accès à l’étape de traitement des images et du
travail in silico (Gallezot, 2002). En fait, la cartographie du cerveau à l’ère du
numérique ne s’appuie pas seulement sur des images générées lors d’expériences
de laboratoire, mais également sur l’exploration de grandes bases où une large
quantité de données sont stockées et mises à la disposition des scientifiques.
L’exemple que nous étudions ici est issu de l’observation des pratiques
d’un neuro-imageur qui produit des cartes du cerveau à partir d’images IRM
récupérées sur des bases de données en ligne. Nous avons suivi pendant
environ 18 mois son activité ainsi que celle des autres membres de l’équipe et
de leurs collaborateurs spécialisés dans la neuro-imagerie (des chercheurs, des
stagiaires, des ingénieurs, des développeurs). Cela a demandé une présence
régulière auprès d’eux, la réalisation et l’enregistrement de nombreux entretiens,
la participation à des moments collectifs comme des réunions d’équipe, des
séminaires et des journées d’étude. Le choix de se focaliser en particulier sur
quelques neuro-imageurs s’explique par au moins deux raisons. Circonscrire
les observations nous a permis d’abord de faire face à la complexité du travail
scientifique, donc de pouvoir comprendre, par un examen détaillé de cas
limités, les étapes techniques de traitement d’images et leur enchaînement.
Ensuite, cela nous a donné accès aux aléas et aux rebondissements auxquels
toute étude est confrontée sur le long terme. En particulier, des pratiques « aux
marges », comme l’occultation de certaines données peuvent être difficilement
repérées si les études ne sont pas saisies dans leur globalité et de façon continue.
Néanmoins, la gestion des données, dont relate le cas empirique que nous
décrivons ici, ne constitue pas une exception ou l’apanage d’une histoire isolée.
Nous avons pu constater que souvent la communication de certains éléments
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

ou de certaines pratiques est considérée comme risquée et que face à des © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
résultats jugés « défavorables » à leurs recherches, les scientifiques interrogés
doivent sans cesse se livrer à une sélection des matériaux à partager pour
répondre au mieux à un objectif de performance.
Notre informateur principal est un post-doctorant engagé dans la recherche
des spécificités anatomiques du cerveau des autistes. Nous allons nous focaliser
sur le moment où il détecte une anomalie dans le fonctionnement d’un outil de
traitement de données de neuro-imagerie et où une décision collective aboutit
à la mise à l’écart du problème. Au niveau politique, la dénonciation publique
du dysfonctionnement apparaît comme une pratique risquée à la fois pour
le scientifique et pour son équipe, et au niveau symbolique, une publication
critique sur une méthode est considérée comme secondaire vis-à-vis de
Revue d’anthropologie des connaissances – 2017/1  75

l’annonce d’une nouvelle découverte. Nous discuterons également de l’opacité


qui est maintenue autour de certains résultats qui sont en contradiction avec les
hypothèses défendues par les chercheurs. Les idéaux d’une mise à disposition et
d’une libre circulation des données qui encadrent le phénomène des Big data se
heurtent aux règles d’attribution du capital matériel et symbolique qui animent
la recherche scientifique.

Des anomalies pas commodes


L’ingénieur que nous allons suivre et que nous appellerons Jérôme est l’un des
membres de l’équipe de cognition sociale, et bien que son contrat de chercheur
post-doctorant ait été reconduit pour un an, sa situation professionnelle reste
précaire. Brillamment diplômé, Jérôme a obtenu une thèse en physique dans une
université parisienne où il a développé une méthode de mise en correspondance
automatique de structures cérébrales issues d’images IRM. Il a ensuite intégré
l’institut de neurosciences dans une autre région. Cet établissement existe
depuis seulement quelques années, mais il a su se créer rapidement une
réputation internationale. Fort d’une interdisciplinarité proclamée, l’institut
s’appuie sur une diversité de thèmes de recherche, en favorisant une exploration
du fonctionnement cérébral à différentes échelles et en mobilisant un grand
nombre de techniques (électroencéphalogramme, microscopie optique, IRM,
eye tracking, chirurgie expérimentale in vivo). Les acteurs de la recherche
travaillent aussi en collaboration avec le monde médical, ce qui se traduit par
une présence dans les équipes de professionnels exerçant en milieu hospitalier.
Jérôme a été recruté par son équipe sur la base de son expertise en méthodes
informatiques de traitement d’images, qui fournit une nouvelle approche pour
la recherche d’une possible « signature » anatomique et fonctionnelle de
pathologies où la « cognition sociale » est défaillante, comme l’autisme. Jérôme
travaille sur plusieurs projets où il est question de comparer, avec différentes
méthodes, des groupes d’images IRM du cerveau de patients atteints d’autismes
et des groupes d’images de sujets sains. Le but est celui de mesurer, à l’aide
de programmes informatiques spécifiques, les différences anatomiques entre
le cerveau « normal » et le « cerveau autiste ». Une des études que Jérôme
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

coordonne utilise un logiciel qui permet de générer, à partir d’images IRM, les © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

réseaux cérébraux qui peuvent ensuite être visualisés et comparés.


Les chercheurs en neurosciences cherchent de plus en plus à confirmer
expérimentalement l’hypothèse d’un dysfonctionnement de connectivité (tant
structurelle que fonctionnelle) qui caractériserait certaines formes d’autisme.
En s’inspirant des concepts issus de la théorie des graphes, ils avancent l’idée que
le réseau cérébral « normal » serait un réseau « petit monde » (plus connu sous
l’appellation anglaise small world), caractérisé par un équilibre entre intégration
(corrélations globales très efficaces) et ségrégation (corrélations locales très
efficaces), et que le réseau cérébral des personnes atteintes d’autisme aurait
des défauts d’intégration, ce qui expliquerait une désorganisation pathologique
(Bassett & Bullmore, 2006 ; Barttfeld et al., 2011).
76  Revue d’anthropologie des connaissances – 2017/1

Les images du cerveau utilisées dans ce projet sont issues d’une base
qui réunit des données de neuro-imagerie associées à des informations
phénotypiques (relatives au sexe, à l’âge, au diagnostic, au Q.I.) de sujets
sains et de sujets autistes. Sur cette plateforme appelée ABIDE (Autism Brain
Imaging Data Exchange) sont stockées plus de 1000 images IRM provenant
d’institutions hospitalières et centres de recherche de différents pays. La mise
à la disposition d’un grand nombre de données permet aux chercheurs de
gagner en signification statistique et de pallier les critiques qui accusent les
recherches en neuro-imagerie de surévaluer la portée de résultats produits
dans le cadre d’expériences employant trop peu de sujets (Button, 2013 ;
Ioannadis, 2008). Mais l’exploitation des images qui sont contenues dans la
base de données n’est ni simple ni immédiate. Un long processus de traitement
est nécessaire avant de procéder à leur comparaison. Les chercheurs doivent
d’abord standardiser les matériaux pour pouvoir les regrouper et ensuite leur
appliquer des traitements pour qu’ils soient « lisibles » par les logiciels qu’ils
choisissent d’utiliser. En l’occurrence, les images viennent de sites différents,
ce qui signifie qu’il faut vérifier, toujours à l’aide de programmes informatiques,
celles qui peuvent être assemblées et comparées. Les données doivent aussi
subir un traitement, à savoir une segmentation en régions, car l’identification
de celles-ci est une étape préalable indispensable à la production des cartes des
réseaux cérébraux via le logiciel choisi par les chercheurs. Les images issues de
la base de données ne sont donc pas utilisées telles quelles, elles font l’objet
d’une série d’opérations afin de répondre à des contextes d’usages spécifiques.
L’équipe a recruté deux stagiaires issues d’une école d’ingénierie pour
accompagner Jérôme dans ce travail qui se compose de plusieurs étapes, mais
que nous n’allons pas décrire dans les détails. Ce qui nous intéresse ici, c’est
la phase finale, celle de la génération des cartes des réseaux qui constituent
les résultats de la recherche. Le chercheur et les deux étudiants ont constitué
des groupes d’images homogènes selon différentes variables (âges, sites de
provenance des données, type de diagnostic) et ont procédé à leur comparaison.
Mais les cartes des réseaux qui dérivent des analyses du logiciel, s’avèrent très
variables au point qu’il est impossible d’avancer des interprétations et elles
sont, du coup, inutilisables. La variabilité des résultats est tellement importante
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

que tout le travail réalisé jusque-là se révèle un échec. Un des stagiaires © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
m’explique :
« […] ce qu’on observe, c’est pas qu’on n’a pas des résultats… mais c’est
que les résultats varient énormément d’un sous-groupe à un autre, on
a une énorme base de données, on compare à chaque fois autistes et
contrôles, on a fait plein de groupes autistes et contrôles et chaque fois
on a des choses différentes, c’est-à-dire qu’on n’a pas été capables de dire
au travers de plusieurs sous-groupes d’autistes et de contrôles s’il y avait
des différences qui étaient robustes. Donc, on s’est dit : on n’a pas des
mesures objectives… toute la méthode nous donne des résultats qui ne
sont pas reproductibles et ne nous donne pas de choses cohérentes et
interprétables… »
Revue d’anthropologie des connaissances – 2017/1  77

Devant l’incohérence manifeste de l’ensemble des résultats, Jérôme


commence à douter du logiciel lui-même et décide alors de réaliser un « test »
pour vérifier ses performances :
« On s’est dit : attends ! C’est tellement pas reproductible qu’on va faire
quelque chose… On va comparer deux groupes de contrôles, pour voir si
la méthode nous donne des différences du même ordre que celles qu’on
trouve entre autistes et contrôles, et, si c’est le cas, ça veut dire que la
méthode c’est n’importe quoi… »

Cette intuition sera confirmée par le fait que les mêmes différences
anatomiques entre les cerveaux des autistes et les cerveaux des contrôles sont
détectées entre groupes de cerveaux contrôles confrontés entre eux. Jérôme
et les deux stagiaires décident alors d’examiner les publications relatives à
l’utilisation de la méthode en question. Celle-ci a été conçue au début des
années 2000 et a été depuis utilisée par les neuroscientifiques pour l’étude de
diverses pathologies. Voici la stratégie que Jérôme veut adopter pour tester le
logiciel :
« On reprend la littérature où ils comparent des groupes contrôles avec
différentes pathologies et on va voir ce qu’ils obtiennent dans les groupes
de contrôles et on va les comparer entre les publications. Donc on voit
s’ils retrouvent les mêmes choses… Parce que s’ils ne retrouvent pas les
mêmes choses ça veut dire qu’effectivement dans la littérature ça se voit
que la méthode a un problème et c’est ce qu’on a observé. »

Après avoir constaté que les comparaisons de groupes contrôles, effectuées


avec ce même logiciel, aboutissent à des résultats différents au travers des
articles, Jérôme se convainc que des anomalies ont échappé aux relecteurs
et aux responsables de revues. Les chercheurs essaient néanmoins d’écarter
l’éventualité qu’ils soient responsables d’avoir, eux-mêmes, introduit des erreurs
durant les analyses. Ils contrôlent alors scrupuleusement la segmentation du
cerveau en régions, étape dont cette méthode dépend et qui peut contribuer
à altérer les données. Mais cette précaution supplémentaire ne suffit pas à
renverser l’incohérence des résultats.
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


Arrivé à ce stade, Jérôme a réuni assez de preuves contre cet outil de
traitement d’images et a vraisemblablement les raisons nécessaires pour
les rendre publiques, mais ce travail de vérification et la confiance en ses
observations ne sont pas suffisants. Rendre manifeste une anomalie n’est pas
un acte anodin :
« […] publier un article en disant “cette méthode ne marche pas”, ça veut
dire que tu publies un article où tu dis que ces dix articles7 disent n’importe
quoi ; quand tu fais ça et que t’es pas en poste, c’est un risque… »

7 Il s’agit des recherches qui utilisent cette méthode et qui ont fait l’objet d’une publication.
78  Revue d’anthropologie des connaissances – 2017/1

Précisons que Jérôme est un post-doctorant et qu’il cherche à entrer


au CNRS. La position qu’il occupe semble donc une des raisons principales
pour lesquelles il ne peut pas se « permettre » d’attaquer de front une partie
de la communauté. Il rajoute même « si j’avais été en poste, il n’y aurait
pas eu d’hésitation, on l’aurait fait ». Ces réticences ne sont pas seulement
personnelles, elles sont surtout exprimées collectivement dans les rencontres
entre le chercheur et ses collègues. Lors d’une réunion hebdomadaire, chaque
chercheur présente la progression de ses travaux. À cette occasion, Jérôme
illustre en détail, à l’aide de graphiques, les données obtenues avec la méthode
de traitement d’images qui lui donne du fil à retordre. Une discussion vive
s’engage avec les autres membres de l’équipe sur la manière de gérer ses
résultats. Vu le temps et les moyens que le laboratoire a investis sur ce projet
et les nombreux tests réalisés par Jérôme et ses stagiaires, la question de la
fiabilité des résultats n’est pas remise en cause. Le chef d’équipe exprime ses
réticences quant à la possibilité de rendre publiques ces découvertes. Il explique
aux autres membres pourquoi publier un article visant à critiquer la méthode
n’est pas raisonnable :
« C’est une bataille, c’est-à-dire que tu vas contre le courant, contre les
gens qui ont publié, contre des gros labos et lui il s’appelle Jérôme S. c’est
un petit, pas connu… C’est pas que c’est un combat qu’il faut abandonner,
c’est juste que ce n’est pas le moment… Peut-être que l’année prochaine
ça sera un combat qu’il faudra mener mais pour l’instant… c’est beaucoup
plus dur de montrer que ça marche pas, que de faire un papier sur
NeuroImage8 pour dire : ah les autistes sont différents des contrôles ! »

L’équipe se verrait donc tout entière exposée à un conflit ouvert avec de


gros laboratoires et des revues importantes, celles qui ont accepté les articles
sur la méthode controversée. Même s’il s’agit incontestablement d’un fait
« nouveau », cette découverte ne semble pas susciter le même enthousiasme
que l’on aurait accordé à des résultats attestant l’existence d’un «  biomarqueur  »
de l’autisme. Lors d’une autre discussion, Jérôme précise :
« Démontrer qu’une méthode ne marche pas, c’est au moins aussi dur
que démontrer qu’il y a une différence entre autistes et contrôles ou
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

qu’on a des choses intéressantes à dire. Tu fais le choix, au lieu d’avancer © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
dans la compréhension de la pathologie, tu fais le choix de démontrer
un truc purement méthodologique, déjà ça intéresse beaucoup moins G.
(responsable de l’équipe), etc. »

L’orientation de l’équipe, ses objectifs et ses priorités sont ici mis en avant :
un article méthodologique ne ferait pas avancer le travail et la visibilité de
l’équipe autant qu’une découverte sur les spécificités anatomiques du cerveau
des autistes. Toutefois, Jérôme décide d’effectuer un dernier essai en faisant
varier la manière de calculer la corrélation entre les régions. L’espoir est celui

8 Revue scientifique de neuro-imagerie.


Revue d’anthropologie des connaissances – 2017/1  79

d’éviter une « guerre » avec les concepteurs du logiciel et de trouver des


solutions intermédiaires :
« On va regarder si, en changeant des petites choses dans la méthode,
on ne peut pas résoudre le problème et dans ce cas-là c’est très différent
parce que tu vas faire un papier où tu dis, regardez : cette méthode a un
problème donc attention à ce qui a été fait jusque-là… Mais on a une
solution, c’était pas très grave, voilà la solution qu’on apporte. Il y avait
cette méthode, il y avait des trucs qui étaient aberrants… Maintenant, on
a changé la méthode et elle ne donne plus des trucs aberrants. Donc, voilà
on change cette pièce-là et on voit ce que ça donne. »

Changer une des « pièces » ne permet pas de dépasser le problème qui


est pour l’instant mis de côté en attendant que Jérôme change de statut. À ce
moment-là, la solution envisagée par l’équipe est plutôt celle de programmer
une visite de Jérôme dans le laboratoire étranger auquel le concepteur de
la méthode informatique est rattaché. Cela permettrait de communiquer le
problème par voies « officieuses » en évitant un conflit potentiellement nuisible
pour les scientifiques français. Voilà un extrait des échanges relatifs aux stratégies
d’action de l’équipe. Le chercheur qui participe à la discussion est un des trois
neuro-imageurs de l’équipe, un jeune scientifique réputé à l’international
spécialisé dans l’imagerie cérébrale appliquée à l’étude de l’autisme :
Chercheur : « Je lui dirai qu’il m’invite chez lui, je prends une semaine, je
fais tourner les mêmes choses sur son machin… »
G. (Responsable de l’équipe) : « Voilà ça c’est le truc à faire, aller là-bas et
à l’occasion d’un séminaire, ou je ne sais pas quoi, et tu dis voilà… et t’en
discutes avec lui d’abord… »
Chercheur : « Ou alors il faudrait le faire en poster… »
Jérôme : « Ouais, il faut que je vienne avec une armure… ils vont être
nombreux à venir voir mon poster… armés… » (rires) 

Au-delà de cette dernière boutade, le dévoilement du dysfonctionnement


du logiciel semble vouloir être joué non pas ouvertement dans une publication,
ce qui pourrait être considéré comme une attaque et qui exposerait l’équipe à
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


des ripostes dangereuses, mais sur le plan informel de la visite ou du poster9.
Selon Young et ses collaborateurs (2008), rendre publics l’échec d’une
expérience, la faiblesse d’une étude ou d’une technique n’est pas chose aisée.
Critiquer publiquement une étude car sa réplication ne produit pas les mêmes
données signifie souvent débuter une véritable « croisade ». C’est pour cela que
les doutes quant à la pertinence d’un procédé ou à la véracité d’un ensemble
de données font l’objet d’échanges informels et « prudents », au moins jusqu’à
la formation d’une « masse critique » d’objections suffisante à faire valoir sa
position :

9 Un an après, aucune démarche n’a été effectuée pour rendre publics les résultats de Jérôme,
qui entre-temps a abandonné cet outil de traitement et s’est investi dans d’autres projets.
80  Revue d’anthropologie des connaissances – 2017/1

« Les données négatives ou contradictoires peuvent être discutées lors de


conférences ou entre collègues, mais elles font surface plus publiquement
seulement quand un paradigme dominant est remplacé par un autre »
(Young, Ioannidis, & Al-Ubaydli, 2008, p. 4, notre traduction)10.

Ainsi la transparence vis-à-vis de résultats « contradictoires » est aussi


problématique. C’est ce qui ressort de nos observations autour d’une autre
recherche où Jérôme mesure et compare, à partir d’images IRM de sujets
« sains » et de sujets autistes, l’épaisseur et la longueur des sillons, les
interstices qui séparent les circonvolutions cérébrales. Ces « objets » ont subi
un regain d’intérêt depuis que, suite à l’introduction et au perfectionnement
des technologies informatiques appliquées aux données d’imagerie à la fin des
années 1990, ils ont pu être identifiés et modélisés automatiquement. Les sillons
sont devenus alors des repères anatomiques quantifiables et élus à possibles
biomarqueurs de pathologies neurologiques, comme l’autisme.
Une des étapes de l’étude prévoit que le chercheur calcule la corrélation des
valeurs morphométriques11 avec des données comportementales utilisées dans
l’évaluation diagnostique de l’autisme pour vérifier la correspondance entre
un comportement et un trait physique. Mais les résultats issus des mesures
effectuées sur les images ne coïncident pas avec les résultats des corrélations
avec les échelles diagnostiques des comportements. Jérôme explique :
« Dans notre travail, on a fait les différences entre les groupes. On a des
corrélations avec les scores comportementaux, on a eu des corrélations
significatives… sauf qu’elles vont dans le mauvais sens, ça veut dire qu’on a
un sillon qui est plus profond chez les autistes que chez les contrôles, sauf
que quand on corrèle avec un score de sévérité, plus le sillon est profond
et moins on est autiste, c’est pas cohérent. »

Jérôme dit que la corrélation ne va pas dans le « bon » sens et, même s’il
considère ce résultat comme digne d’intérêt, il affirme aussi ne pas pouvoir
prétendre publier son article dans des revues avec un « impact factor » très
élevé. Pour cela, il aurait fallu tout au moins « minimiser » la contradiction,
c’est-à-dire en partie l’ignorer :
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

« Il y en a qui décident même de ne pas mentionner dans quel sens va © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
la corrélation. Mais notre point de vue, c’est que le fait qu’il y a une
corrélation c’est important, ça veut dire quelque chose. O.K., on ne sait
pas l’interpréter, mais c’est mieux que s’il n’y avait pas de corrélations,
donc on va assumer qu’il y a une corrélation qui va dans le mauvais sens et
le mettre noir sur blanc. »

10 « Negative or contradictory data may be discussed at conferences or among colleagues, but


surface more publicly only when dominant paradigms are replaced. »
11 La morphométrie est l’étude quantitative des formes. À l’ère du numérique, les chercheurs
effectuent des mesures (concernant le volume, l’épaisseur ou la forme) sur les structures
anatomiques issues d’images IRM et extraites à l’aide de logiciels de traitement. Jérôme est
spécialiste de la morphométrie sulcale, c’est-à-dire de l’étude quantitative de la forme des sillons.
Revue d’anthropologie des connaissances – 2017/1  81

Dans cet exemple on voit qu’« avouer » un « mauvais » résultat (dans ce cas


une corrélation contradictoire entre données comportementales et mesures
relatives à la morphologie des sillons) signifie encourir le risque du rejet de
publication de la part des revues les plus prestigieuses. Le fait de ne pas pouvoir
fournir une interprétation claire des résultats est jugé négativement et semble
constituer un écueil que l’on peut minimiser en évitant de mentionner toutes
les informations, comme démontré par une étude précédente (Anichini, 2014).

Normes pratiques et ethos du partage


Les exemples décrits ici témoignent des réticences vis-à-vis de certaines
informations qui pourraient entraver ou porter préjudice à la carrière des
chercheurs. Qu’il s’agisse de preuves qui contestent le bon fonctionnement
d’un logiciel ou de données qui s’opposent au sens des prédictions, ces résultats
sont considérés problématiques et font l’objet d’un traitement particulier. La
possibilité que ceux-ci soient rejetés, qu’ils soient au centre d’un conflit entre
laboratoires, ou simplement le risque qu’ils ne reçoivent pas assez d’attention
et d’intérêt de la part de la communauté scientifique, sont autant de raisons
qui expliquent le refus des chercheurs à les partager. Nier l’accès à ces
connaissances, pratique que nous avons interprétée comme étant un type de
fabrication de l’ignorance, nous a permis de comprendre, par la nature des
résultats « éliminés » et les réactions qu’ils suscitent, comment les normes
d’évaluation des résultats de la recherche, imposées notamment par les revues
scientifiques, agissent sur les laboratoires et ses membres. Nous avons vu qu’une
découverte « positive », à savoir la détection d’une différence anatomique entre
cerveaux normaux et autistes, est à la fois plus rentable et moins risquée que
le dévoilement du dysfonctionnement d’une méthode de traitement d’images.
La publication des deux découvertes ne revêt pas les mêmes enjeux pour le
laboratoire et n’a pas les mêmes effets sur la carrière des individus intéressés.
En premier lieu, la question de l’ignorance volontairement entretenue sur
un certain type de données et le processus de triage des résultats qui en ressort
permet d’identifier les injonctions que les chercheurs doivent satisfaire pour
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


assurer leur position. Ces derniers sont évalués de plus en plus sur la base du
nombre, mais aussi de la nature, des découvertes présentées. Une offre trop
«  large  » de résultats qui fait face à un éventail relativement restreint de revues et
des ressources limitées amènent les comités de lecture des revues scientifiques
à préférer les données avec des effets « positifs » (par rapport à l’hypothèse
attendue) ou spectaculaires, mais aussi « ceux qui portent la promesse d’une
exploitation commerciale ou biotechnologique, ou ceux susceptibles d’être
signalés au grand public dans les médias de masse »12 (Young, Ioannidis, & Al-
Ubaydli, 2008, p. 5, notre traduction). Pour favoriser l’acceptation de leur

12 « […] which carry the promise of commercial or biotechnology exploitation, or those likely to
be reported to the general public in the mass media. »
82  Revue d’anthropologie des connaissances – 2017/1

travail par les pairs et leur intégration dans la communauté scientifique, les
scientifiques tendent à minimiser ou occulter les échecs et à surévaluer les
résultats qui sont favorables aux prédictions du protocole expérimental.
En deuxième lieu, le choix du secret autour d’une partie des données nous
amène à faire dialoguer les pratiques scientifiques avec les idéaux de transparence
et de mutualisation auxquels les chercheurs sont censés adhérer. Dans le domaine
de la neuro-imagerie, à cause du nombre d’études publiées, de la variabilité des
résultats et des pratiques, mais aussi de la complexité des traitements réservés
aux images du cerveau, les chercheurs sont de plus en plus tenus à rendre
publics tous les éléments utiles à la reproduction des expériences. Selon Button
et ses collaborateurs (2013), pour minimiser le « coût » de la variabilité des
pratiques individuelles, le chercheur « honnête » doit accorder les hypothèses
aux résultats publiés, rendre publics les échecs, fournir toutes les informations
relatives au protocole. L’ethos13 qui est véhiculé par les recommandations de
Button incite les chercheurs à admettre publiquement les limites statistiques
de leurs études, à publier les résultats négatifs ou incohérents, à partager les
données, à rendre disponibles les métadonnées et à préférer la collaboration
avec d’autres scientifiques. Mais ces principes s’adaptent difficilement au
contexte socio-économique actuel caractérisé par une augmentation de l’offre
scientifique et par des ressources rares. Ce contexte se répercute sur les choix
des individus de partager ou pas leurs données. D’autres éléments confirment
que, pour le chercheur, le partage a parfois un « prix » qu’il n’est pas prêt à
payer. Dans une discussion sur la transparence vis-à-vis des métadonnées dans
les publications, un autre chercheur explique :
« Pour mettre à disposition toutes les données, tous les traitements
pour que tout le monde puisse les refaire, il faut que tu fasses un effort
supplémentaire pour que les traitements soient nickels et même faciles à
mettre en œuvre, simplement il faut que tu passes du temps, toi, à faire
en sorte que ce que tu fais soit facile à refaire. […] Ça exige de faire les
choses beaucoup plus propres et ça exige donc de passer plus de temps
sur l’étude, et de publier moins, ce qui est complètement opposé aux
instances qui financent aujourd’hui… »
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


Ici, encore une fois, l’évaluation de l’efficacité du travail scientifique sur la
base de la productivité ne semble pas compatible avec le partage de toutes les
informations qui seraient indispensables à la reproduction des résultats, avec des
conséquences évidentes sur la détérioration de la connaissance. Les « normes
pratiques » (De Herdt & Olivier de Sardan, 2015) qui émergent de notre étude
de terrain témoignent donc des injonctions concrètes qui façonnent le travail
scientifique et répondent à des stratégies adoptées pour « survivre » dans un
contexte de plus en plus compétitif.

13 Ce terme est ici employé, à l’instar de Merton (1973 [1942]), pour désigner le(s) système(s) de
valeurs au(x)quel(s) la pratique scientifique aspire.
Revue d’anthropologie des connaissances – 2017/1  83

Le secret et l’ignorance qui en découle constituent une voie privilégiée pour


appréhender les mécanismes de contournement et les espaces de négociation
autour de ce qui peut être mis en commun et de ce qui doit rester « dans
les tiroirs ». À l’ère du numérique, il est intéressant de réfléchir aux zones
d’ombres qui peuvent obscurcir le tableau de l’open data et de la science
ouverte qui portent l’idée, plus ancienne, du partage désintéressé de la
connaissance. Si d’un côté on incite les chercheurs à alimenter les bases de
données, à embrasser des pratiques collaboratives et à être irréprochables
quant aux conditions de réalisation de leurs expériences, de l’autre côté la
compétition qui régule l’acquisition du capital scientifique rend difficile, en
pratique, d’adopter sans réserves ces conduites. Bien que l’ouverture et le
partage de données scientifiques soient de plus en plus souhaités et valorisés,
certaines informations sont perçues par les scientifiques comme capables de
porter préjudice à leur carrière.

CONCLUSION
Dans cet article, nous avons voulu analyser un type spécifique de production de
l’ignorance en science, à savoir une occultation stratégique des connaissances.
Le secret répond ici à des contraintes institutionnelles et économiques dans
lesquelles la recherche scientifique évolue. La décision de ne pas dévoiler
une information, une découverte, une donnée, fait partie ici des stratégies
individuelles qui, bien que négociées collectivement, sont mobilisées par
le scientifique pour atteindre la reconnaissance matérielle et symbolique au
travers de laquelle il peut accéder au statut de chercheur professionnel et,
plus tard, consolider sa réputation. Les exemples décrits ici montrent que la
stratégie du secret est adoptée pour préserver les scientifiques d’un conflit
entre laboratoires, mais aussi parce que la connaissance produite ne s’aligne
pas sur les critères d’une découverte considérée comme « désirable ». Dans
les deux cas, il s’agit d’une connaissance « inconfortable », au sens de Rayner
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


(2012), mais analysée à une échelle différente, celle des calculs personnels qui
influencent les prises de décisions quotidiennes des scientifiques. Pour Rayner, la
connaissance devient « inconfortable » quand elle rencontre la sphère politique,
qui lui réserve un traitement spécifique, comme le déni ou le détournement.
Notre étude se place d’un point de vue « interne » : au lieu de l’utilisation
de la connaissance scientifique selon qu’elle serve (ou desserve) des intérêts
économiques et/ou des groupes sociaux, nous avons analysé comment et
pourquoi les scientifiques gardent secrètes certaines connaissances en fonction
des contraintes institutionnelles qui pèsent sur leur carrière.
À la lumière des pratiques que nous avons analysées, nous pouvons affirmer
que révéler une anomalie peut être une opération préjudiciable à la carrière
du scientifique, surtout si son statut n’est pas encore consolidé, de même qu’à
84  Revue d’anthropologie des connaissances – 2017/1

son équipe car elle peut ouvrir la voie à une « guerre » entre laboratoires.
Les idéaux de communalisme et du désintéressement (Merton, 1973 [1942]),
qui incitent à la mise à la disposition et à la libre circulation du savoir, sont
contournés par le maintien de la propriété sur certaines informations que
l’on refuse de communiquer. Des pratiques de dissimulation de résultats ou
de « bricolage de données », que l’on a analysées ailleurs (Anichini, 2014),
permettent de comprendre alors l’influence des impératifs socio-économiques
sur le processus de l’émergence des découvertes.

BIBLIOGRAPHIE
Anichini, G. (2014). Quand c’est la science qui bricole, c’est du sérieux. In S. Boulay & M.-
L. Gélard, Vivre le sable ! Corps, matière et sociétés, Techniques & Culture, 61, 212-235.
Barttfeld, P. et al. (2011). A big-world network in ASD: Dynamical connectivity analysis
reflects a deficit in long-range connections and an excess of short-range connections.
Neuropsychologia, 49, 254-263.
Bassett, D. S. & Bullmore, E. (2006). Small-world brain networks. Neuroscientist, 12(6),
512-523.
Button, K. S. et al. (2013). Power failure: why small sample size undermines the reliability
of neuroscience. Nature Reviews Neuroscience, 14, 365-376.
Collins, H. M. (1981). Stages in the empirical programme of relativism. Social Studies of
Science, 11(1), 3-10.
Conway, E. & Oreskes, N. (2010). Merchants of Doubt: How a Handful of Scientists Obscured
the Truth on Issues from Tobacco Smoke to Global Warming. London: Bloomsbury.
De Herdt, T. & Olivier de Sardan, J.-P. (Eds.) (2015). Real governance and practical norms in
Sub-Saharan Africa. The game of the rules. Cheltenham: Routledge.
Dedieu, F. & Jouzel, J.-N. (2015). Comment ignorer ce que l’on sait ? La domestication
des savoirs inconfortables sur les intoxications des agriculteurs par les pesticides. Revue
française de sociologie, 56, 105-133.
Frickel, S. & Edwards, M. (2014). Untangling Ignorance in Environmental Risk Assessment.
In S. Boudia & N. Jas (Eds.), Powerless Science? The Making of the Toxic World in the Twentieth
Century (pp. 215-233). New York: Berghahn Books.
Funtowicz, S. O. & Ravetz, J. R. (1993). Science for the Post-Normal Age. Futures, 25(7),
739-755.
Funtowicz, S. & Ravetz, J. (1997). Environmental problems, post-normal science, and
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


extended peer communities. In C. Albaladejo & F. Casabianca (Eds.), La recherche-
action. Ambitions, pratiques, débats. Études et Recherches sur les Systèmes Agraires et le
Développement, 30, Versailles, INRA, 169-175.
Gallezot, G. (2002). La recherche in silico. In G. Chartron (dir.), Les chercheurs et la
documentation numérique : nouveaux services et usages (pp. 229-253). Paris : Éditions du
Cercle de la Librairie.
Hagstrom, W. O. (1965). The Scientific Community. New York: Basic Books.
Ioannidis, J. P. A. (2008). Why most discovered true associations are inflated. Epidemiology,
19, 640-648.
Kant, I. (1970 [1800]). Logique. Paris : Vrin.
Kempner, J., Merz, J., & Bosk, C. L. (2011). Forbidden Knowledge: Public Controversy and
the Production of Nonknowledge. Sociological Forum, 26(3), 475-500.
Luhmann, N. (1998). Observations on Modernity. Stanford: Stanford University Press.
MacKenzie, D. (2011). The Credit Crisis as a Problem in the Sociology of Knowledge.
American Journal of Sociology, 116, 1778-1841.
Revue d’anthropologie des connaissances – 2017/1  85

McGoey, L. (2010). Profitable Failure: Antidepressant Drugs and the Triumph of Flawed
Experiments. History of the Human Sciences, 23, 58-78.
McGoey, L. (2012). The logic of strategic ignorance. The British Journal of Sociology, 63(3),
533-576.
McGuire, W. J. (1969). Suspiciousness of experimenter’s intent. In R. Rosenthal &
R. L. Rosnow (Eds.), Artifact in behavioral research (pp. 13-57). New York: Academic Press.
Merton, R. K. (1971). The precarious foundations of detachment in sociology. In
E. A. Tiryakian (Eds.) The Phenomenon of Sociology (pp. 188-199). New York: Appleton
Century-Crofts.
Merton, R. K. (1973 [1942]). The Normative Structure of Science. In N. W. Storer (Ed.),
The Sociology of Science (pp. 267-278). Chicago: University of Chicago Press.
Merton, R. K. (1987). Three Fragments from a Sociologist’s Notebooks: Establishing
the Phenomenon, Specified Ignorance and Strategic Research Materials. Annual Review of
Sociology, 13, 1-28.
Proctor, R. (2012). Golden Holocaust: Origins of the Cigarette Catastrophe and the Case for
Abolition. Berkeley: University of California Press.
Proctor, R. (1995). Cancer Wars. How Politics Shapes What We Know and Don’t Know About
Cancer. New York: Basic Books.
Ravetz, J. R. (1986). Usable knowledge, usable ignorance: incomplete science with policy
implications. In W. C. Clark & R. E. Munn (Eds.), Sustainable development of the biosphere
(pp. 415-432). New York: Cambridge University Press.
Rayner, S. (2012). Uncomfortable knowledge: the social construction of ignorance in
science and environmental policy discourses. Economy and Society, 41(1), 107-125.
Roberts, J. (2013). Organizational ignorance: Towards a managerial perspective on the
unknown. Management Learning, 44(3), 215-236.
Star, S. L. (1985). Scientific work and uncertainty. Social Studies of Science, 15(3), 391-427.
Star, S. L. & Gerson, E. M. (1987). The Management and Dynamics of Anomalies in Scientific
Work. The Sociological Quarterly, 28(2), 147-169.
Van der Sluijs, J. P. (2012). Uncertainty and Dissent in Climate Risk Assessment : A Post-
Normal Perspective. Nature and Culture, 7, 174-195.
Young, N. S., Ioannidis, J.P.A., & Al-Ubaydli, O. (2008). Why current publication practices
may distort science. The market for exchange of scientific information: the winner’s curse,
artificial scarcity, and uncertainty in biomedical publication. PLoS Medecine, en ligne : http://
journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0050201 (consulté le
13 janvier 2014).

Giulia ANICHINI est actuellement post-doctorante au Centre


interuniversitaire de recherche sur la science et la technologie (CIRST)
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)


de Montréal et boursière de la Fondation Fyssen. Elle est également
chercheure correspondante au Centre Norbert Elias (UMR 8562). Son
travail porte sur les pratiques cartographiques dans la recherche en
neuroscience et en particulier sur l’utilisation d’images IRM dans l’étude
du cerveau. Références : Anichini, G. (2014). Quand c’est la science qui
bricole, c’est du sérieux. In S. Boulay & M.-L. Gélard, Vivre le sable !
Corps, matière et sociétés, Techniques & Culture, 61, 212-235 ; Anichini,
G., Carraro F., Geslin P., & Guille-Escuret G., Technicité vs scientificité.
Approches anthropologiques d’une tension négligée, Éditions ISTE (sous
presse).
86  Revue d’anthropologie des connaissances – 2017/1

Adresse CIRST
Université du Québec à Montréal
1205, rue Saint-Denis
Montréal, Québec, H2X 3R9 (Canada)
Courriel anichini.giulia@courrier.uqam.ca

Abstract: The “dark” side of science. Concealing


of knowledge in neuroscientist’s work
A rich and diversified discussion has been going on since many
years about ignorance and its treatment by sciences. Sociologists
and anthropologists have proposed different definitions to delimit
this broad intellectual field and to demonstrate how the actors
actively cope with uncertainty. The article focuses on a particular
kind of ignorance, namely intentional concealing of data in the
field of neuroscience. This contribution draws on first hand
empirical evidence that researchers sometimes obscure technical
problems as well as they have to deal with the difficulties to publish
discordant or contradictory data. These practices illustrate that
valorisation of spectacular discoveries and “positive” results
clashes with the ideals of transparency and knowledge sharing
conveyed in particular by infrastructures like databases.
Keywords: anthropology of science, ignorance, experimental
practices, neuroimaging, databases.

Resumen: El lado “obscuro” de la ciencia. La ocultación


del conocimiento en el trabajo de los neurocientíficos
Desde hace algunos años asistimos al desarrollo de una reflexión
fértil y plural en torno a la ignorancia y su tratamiento por las
ciencias. Los sociólogos y los antropólogos han propuesto
diferentes definiciones para delimitar este amplio campo intelectual
y para demostrar cómo los actores juegan activamente con la
© S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)

incertidumbre. Este artículo se concentra en un tipo particular de © S.A.C. | Téléchargé le 22/10/2020 sur www.cairn.info (IP: 41.79.219.201)
ignorancia, concretamente, el enmascaramiento intencionado de
datos en el campo de la neurociencia. Los investigadores observados
ocultan algunas disfunciones técnicas y expresan sus dificultades
para publicar los información discordantes o contradictorios.
La desaparición de ciertos hallazgos considerados como “no
publicables” permite observar, por un lado, las estrategias que los
investigadores deben aplicar para asegurar sus posiciones en el
campo científico y, por otro lado, la distancia entre éstas y los ideales
científicos de transparencia y reciprocidad de conocimientos.
Palabras claves: antropología de la ciencia, ignorancia,
prácticas experimentales, imágenes cerebrales, bases de datos.

Vous aimerez peut-être aussi