Académique Documents
Professionnel Documents
Culture Documents
www.odilejacob.fr
ISBN : 978-2-7381-5061-5
L’homme modifié
par l’homme
CHAPITRE 1
Le banquet aztèque
Ce fut en 1518 que les Espagnols eurent pour la première fois
connaissance des sacrifices aztèques. Les troupes du capitaine général Juan
de Grijalva, débarquant sur une île au large de Veracruz, y trouvèrent
d’inquiétants restes humains, d’où le nom d’Isla de Sacrificios dont ils
baptisèrent l’île. L’officier qui tenait le journal de bord écrit ainsi : « Est
arrivé à ladite tour, le capitaine lui demanda pourquoi on faisait une telle
chose sur ladite tour, et l’Indien lui répondit que cela se faisait en guise de
sacrifice ; et selon ce qu’on comprit alors, ces Indiens en égorgeaient
d’autres sur cette large pierre et jetaient le sang dans le bénitier, et ils leur
arrachaient le cœur… leur coupaient le gras des bras et des jambes et les
mangeaient. »
Le cannibalisme aztèque a toujours dérouté par son très curieux
mélange de sauvagerie et de civilisation. En fait, si les Aztèques
procédaient en leur temps à cet extraordinaire rituel qui associait le sacrifice
à l’anthropophagie, c’est qu’une telle coutume existait en méso-Amérique
depuis des siècles et probablement des millénaires. À la différence des
grands ancêtres pour qui le nombre d’immolations semblait relativement
restreint, les derniers souverains aztèques en avaient fait une exploitation
redoutable et avaient développé le rite pour favoriser des exécutions
cérémonielles massives. Les Espagnols allaient découvrir des pyramides
recouvertes de sang coagulé et des jarres remplies d’ossements
soigneusement curés.
Abondamment décrit dans les codex précolombiens et colombiens, le
cannibalisme a été raconté dans de nombreux témoignages de sources
indigènes aussi bien qu’espagnoles, et se retrouve sur les murs et sculptures
des sites archéologiques. Les Espagnols ont rapporté de telles scènes avec
horreur, mentionnant ce qu’ils voyaient et entendaient, les jugeant comme
des crimes, au point d’en faire une justification morale de la conquête.
Pourtant, depuis le XVIe siècle, il ne fait aucun doute que le cannibalisme
aztèque est d’ordre rituel, au moins en majeure partie, sinon en totalité. Las
Casas et Torquemada prétendaient ainsi que la chair des sacrifiés était
mangée « parce qu’ils la tenaient pour une chose comme sacrée, et qu’ils
s’y adonnaient plus par religion que par vice ». L’anthropophagie n’était pas
cependant la motivation principale du sacrifice, et ne se résumait pas au
partage cérémoniel d’une chaire divine. Le repas était l’occasion de
s’emparer de la force vitale des suppliciés, de leurs vertus, car avant de
mourir les sacrifiés avaient acquis mille qualités qui faisaient d’eux, déjà,
des demi-dieux. Pour les victimes, cet instant du sacrifice, si sanglant soit-
il, au milieu d’intenses souffrances que le vin et les hallucinogènes ne
devaient pas anesthésier totalement, n’était qu’un temps de passage vers
une autre vie, céleste celle-là. Leur mort en faisait des messagers vers l’au-
delà, entre terre, ciel ou soleil. Les pénitences qui avaient précédé le
sacrifice, ou au contraire le soin et l’empathie avec lesquels ils avaient été
traités, devaient non seulement les aider à supporter leur destin, mais
surtout leur permettre de mourir bravement. En cela, ils devenaient de
nouveaux héros, dont la chair avait d’autant plus de valeur, non seulement
parce qu’elle provenait d’hommes parés de nouvelles vertus, dont la force
d’affronter le sacrifice, mais parce que leurs qualités intégraient l’âme et le
corps de ceux qui la consommaient.
Quels qu’ils soient, guerriers vaincus, ou esclaves achetés pour le Soleil
et pour servir de mets, les futures victimes étaient devenues plus que des
braves, presque des dieux. Pour les mangeurs de chair, c’était se
métamorphoser. Consommer la chair du sacrifié transformait le cannibale
en un nouvel être qui par cette bouchée humaine, dont le goût était, dit-on,
souvent amer, acquérait le courage et l’expiation d’une vie terrestre. On
attendait du sacrifié une conduite irréprochable. Être un futur dieu, être
mangé à ce titre ou pour d’autres qualités, était un honneur auquel il devait
se prêter, pour lui et pour sa réputation.
Quelles étaient ces victimes qui mouraient ainsi pour leur salut, celui de
l’Humanité, et celui des convives d’un futur banquet de chair humaine ?
Quels étaient ces sacrifiés qui devaient ressortir grandis de l’holocauste qui
les terrassait ? Quels étaient ceux à qui ce sacrifice rapportait et qui
bénéficiaient à cette occasion du droit et peut-être de la possibilité de
dialoguer avec l’au-delà, puisqu’ils en avaient acquis la force vitale, à
travers celui qu’on avait mis à mort ?
Il y avait bien des autosacrifices par ce sang qu’on faisait couler avec
quelques stigmates, écorchures ou piqûres, mais une des principales formes
de sacrifice rituel cédait à d’autres pressions et s’organisait autour de la
mise à mort. Il s’agissait d’obtenir quelque chose de considérable, comme
de donner la vie ou la permission de créer, ou d’acquérir une nouvelle
prospérité. Les sacrifices s’étaient vraisemblablement imposés aux
Mexicains comme une justification de leurs guerres continuelles, avec
l’idée que le Soleil devait être constamment nourri d’humains. Or si le
sacrifié semblait accepter la mort, que ce soit sur le champ de bataille ou sur
le billot de pierre brute, ce n’était probablement pas par le désir fanatique
de devenir une nourriture solaire ou de permettre que d’autres profitent de
sa chair glorifiée, c’était de terminer sa vie par une fin qui lui promette un
avenir meilleur. Comme aux kamikazes d’aujourd’hui, le sacrifice apporte,
à celui qui l’accepte ou le subit, la promesse d’un au-delà magnifique. Il s’y
ajoutait, pour les commanditaires comme pour la victime, un prix de plus :
celui d’une dette à payer. Ce que ne peuvent faire les animaux, au moins par
leur seule volonté.
Les sacrifiants ou commanditaires, bénéficiaires du rite, étaient d’abord
ceux qui avaient capturé un guerrier, et ainsi gagné le droit d’immoler celui
qu’ils avaient vaincu. D’autres, qui n’étaient pas du monde de la guerre,
membres de corporations de toutes sortes, commerçants, artisans, et même
médecins, devaient se procurer une victime, c’est-à-dire l’acheter. Le plus
souvent il s’agissait d’esclaves, de quelques misérables qui faisaient l’objet
de trafic, de prostituées, voire d’enfants, volontiers handicapés, achetés à
leur famille.
La coutume s’était répandue au point que l’expansion de l’empire
aztèque et les guerres si fréquentes avaient fourni un très grand nombre de
victimes de toutes origines tribales. Comme la guerre était avant tout celle
des nobles, les sacrifiants des prisonniers de guerre étaient souvent des
seigneurs. Le vainqueur était doublement récompensé par une immolation
au dieu solaire et par la chair idolâtrée. On se répartissait le corps selon la
manière dont on avait vaincu l’ennemi et s’il y avait eu plusieurs guerriers
pour terrasser l’adversaire, selon l’importance de son rôle. L’avancement
dans la hiérarchie militaire était d’ailleurs conditionné par le nombre de
captifs qu’on avait le droit d’immoler, mais aussi de manger. Avant leur
mort les captifs étaient des biens précieux. On leur remettait des cadeaux.
Ils étaient magnifiquement nourris et traités en vue de leur consommation
future.
Pourtant les guerriers sacrifiés n’étaient pas toujours traités avec égalité.
Comme les guerres étaient incessantes, les sacrifices très nombreux, le droit
d’immoler des victimes, puis de les dévorer, devenait rapidement chose
courante, et les soins portés aux guerriers vaincus dépendaient de la
fréquence de l’événement. Si les guerriers représentaient une part
importante des sacrifiés, et se voyaient ainsi traités avec les égards décrits,
les esclaves et autres personnalités achetés pour l’occasion n’étaient pas
plus mal lotis. Ils étaient introduits dans la famille du commanditaire. On
les baignait rituellement à l’eau chaude, marque de prestige et d’honneur.
Ils participaient à la vie quotidienne. Pour augmenter leur tonalli, leur force
vitale, ils devaient apparaître aussi parfaits que possible. Les rites d’accueil
dans la famille faisaient référence au don qu’on faisait pour le Soleil et au
banquet anthropophage qui allait suivre. C’est dire le soin mis à la phase de
préparation. Tout était réglé dans le moindre détail.
Lors du sacrifice, la cérémonie était publique. La victime, saisie par un
prêtre, était tenue des quatre membres par ses aides, tandis qu’un cinquième
lui maintenait la tête basse avec une sorte de carcan. Le prêtre levait alors sa
pierre d’onyx, et tranchait le thorax brutalement, avant de saisir le cœur et
de l’arracher. La cérémonie était parfois complétée, mais non toujours, en
tout cas rarement précédée, par une décapitation. Le rituel se poursuivait
après cette simple ou double mise à mort. Le cœur palpitant, d’abord brandi
vers le Soleil qui représentait l’énergie, la vitalité, pouvait avoir un double
destin. Tantôt il était jeté au pied de l’idole, tantôt il était donné aux
commanditaires pour qu’ils le dévorent plus tard. Puis, on continuait en
coupant les membres en morceaux, pendant que le sang ruisselait de
partout, s’épuisant en étranges rigoles. On comprend l’horreur des
Espagnols, lorsqu’ils entrèrent à Mexico, et virent les restes de ces funèbres
et sanglantes immolations. D’ailleurs, n’avaient-ils pas reçu des Aztèques,
peu avant qu’ils ne pénètrent dans la ville, une nourriture arrosée de sang
qui se révéla être de la chair humaine, don de leurs alliés indigènes qui
croyaient ainsi leur faire plaisir, et qu’ils recrachèrent avec dégoût.
Mais le sacrifice n’est pas tout. Il était suivi du banquet cannibale rituel.
Le cœur était mangé – sauf si, on l’a vu, il était offert au Soleil –, en tout
cas les membres, selon leur importance symbolique, cuisses d’abord, étaient
consommés en compagnie, tandis que les cheveux et os soigneusement
curés étaient conservés dans des calebasses. Lors de ce partage entre le dieu
Soleil et les hommes, le premier se contentait de l’âme du défunt, les
seconds de sa chair. Le repas s’effectuait au milieu de danses et de libations.
C’étaient de véritables festins, qui d’ailleurs coûtaient fort cher. Le
sacrifiant souhaitait mettre à sa table ses meilleurs amis, et surtout ses
débiteurs, tous ceux auxquels il était d’une manière ou d’une autre
redevable. Tant par la préparation du supplicié que par la fête cannibale, les
banquets avaient leur prix, souvent considérable. Il fallait parfois vendre
d’autres esclaves pour trouver le budget nécessaire. C’était une sorte
d’ascenseur social. L’assistance qui participait ainsi au banquet et sa
répartition autour de la table dépendaient de son importance et des relations
avec l’hôte. L’anthropophagie qui suivait le sacrifice n’était pas seulement
un moment de partage rituel, c’était aussi le moyen de renforcer le réseau
de connaissances, et d’obliger tous ceux qui y participaient.
D’ailleurs la chair n’était pas seulement tendre. Elle était surtout, il faut
le rappeler, un moyen d’intégrer de nouveaux attributs liés à la conduite du
mort. Après les premiers cigares et force vin, la dépouille, ou plus
exactement les quatre membres coupés en morceaux plus ou moins menus,
le cœur, les fragments de tête étaient partagés entre les invités, en fonction
de leur rang. Les nobles et les guerriers bénéficiaient des meilleures parties.
Ils se partageaient le cœur, les mains et les cuisses. Les autres avaient les
restes. Parfois, la chair humaine était accompagnée de champignons
hallucinogènes, en plus ou moins grande quantité selon les saisons. Elle
pouvait être accommodée, bouillie ou lavée dans l’eau chaude, ou encore
cuite dans une tortilla de maïs. Toutes ces libations n’avaient pas lieu à la
même date, mais correspondaient à des moments choisis. Entre gens du
nouveau monde et de l’ancien monde, il y avait eu des échanges. Les
Espagnols avaient fait connaître leur calendrier, si bien que les Aztèques
avaient joint les rites et fixaient volontiers leur banquet lors du grand
carême, croyant sans doute faire preuve de modernité en sacrifiant à la
communion espagnole. Le partage de chair humaine portait chance. Pour
celui qui obtenait une portion d’homme, et s’en trouvait en quelque sorte
sublimé, le futur serait meilleur. L’année serait heureuse. En poussant la
porte à la fin du festin cannibale, tel invité la bouche encore pleine, qui
d’ailleurs laisserait son hôte en pleine méditation sur son nouveau sort avec
quelques pensées pour le sacrifié, en sortirait comme un homme modifié.
La métamorphose cannibale
Dans les divers textes qui se rapportent au banquet aztèque, il s’agit
bien d’assimiler les éléments du corps d’une victime déifiée, et ainsi par ce
rituel, de métamorphoser le cannibale, en même temps que de participer à
sa transmutation vers l’au-delà. En cela, la cérémonie peut se concevoir
comme un acte de culture, partagée sans doute depuis des temps
immémoriaux, par de nombreuses populations qui y voient un procédé pour
faire évoluer l’homme.
Eduardo Viveiros de Castro disait que ce qu’on assimilait de la victime,
c’était le signe de son altérité, et que ce qu’on vivait, c’était cette altérité
comme point de vue sur le soi. Ne s’agissait-il pas avant tout d’incorporer
l’autre pour devenir un autre soi-même ? Une idée que Claude Lévi-Strauss
avait écrite antérieurement : « Après tout, le moyen le plus simple
d’identifier autrui à soi-même c’est encore de le manger. » Ce qui sous-
entend que l’absorption de l’extérieur nous est indispensable pour mieux
nous connaître nous-mêmes. D’ailleurs, le cannibale prenait soin de sa
victime. Il la choyait pour mieux s’emparer de sa force vitale et de son âme,
ou plutôt pour bénéficier de leur accroissement dans les derniers instants du
martyre. Si l’on en poursuit la réflexion philosophique, le cannibale montre
que l’identité d’un individu devient une composition de soi et de l’autre, de
l’intérieur et de l’extérieur, et renvoie ainsi à la vision des chimères que
nous retrouvons plus loin avec les transplantations et le microbiote. En
même temps, le rite porte une notion de continuité entre vie et mort. Mieux,
c’est une forme de communication par l’intermédiaire de la chair, qui, parce
qu’elle est issue d’une descendance, fait retrouver le goût des ancêtres. Une
notion rapportée par beaucoup et à laquelle Montaigne faisait sans doute
référence dans ses Essais en écrivant : « Ces muscles, cette chair et ces
veines, ce sont les vostres […] la substance des membres de vos ancêtres
s’y tient encore : savourez-les biens, vous y retrouverez le goût de votre
propre chair. »
Mais il faut sans doute voir plus loin à travers le rite de l’ingestion de
l’autre et de la rencontre transgénérationelle. C’est ainsi que Lévi-Strauss
rapporte un mythe cannibale répandu dans diverses contrées des
Amériques. Celui qui illustre la naissance d’une culture. L’image forte qui
s’y réfère est celle d’une tête qui roule, dévore ses propres parents puis
toute la population. En même temps, l’assimilation pour modifier l’humain,
quelle que soit l’absorption, individu, génération ou culture, se préoccupe
du genre et distingue l’homme de la femme. Certaines sociétés, telles les
Papous, réservent certaines parties du squelette à l’homme, d’autres à la
femme. Ceux qui absorbent les substances « mâles » accroissent leur virilité
et vice versa. Dans certaines sociétés d’Afrique, de Nouvelle-Zélande ou
d’Indonésie, les femmes ne participent pas au banquet cannibale, que ce soit
comme convive ou comme aliment.
Cette entreprise de construction de l’individu d’abord, de l’humain
ensuite, à travers le mythe cannibale, renvoie d’une certaine manière aux
origines du monde. Cosmos, le père de Gaïa la Terre et d’Uranus le ciel, qui
les sépare pour créer un monde différencié et organisé, avalait ses enfants et
les dévorait. Zeus, qui faillit en être victime, tenta d’instituer sur le monde
une souveraineté plus équilibrée. Est-ce la forme d’une nouvelle sagesse ou
d’une abstinence ? Quant à Prajapati, figure védique de la création du
monde, il mangeait ce qu’il produisait. Celui qui avait l’essence de l’infini
dévorait le monde. Manger l’autre est-il une sorte de culture naturelle ? Au
siècle des Lumières, Sade fut parmi les premiers à reprendre l’idée d’une
disposition naturelle du cannibalisme « qui assurera que les sauvages, qui à
la vérité ne dévorent que ceux qu’ils ont pris à la guerre, n’ont pas
commencé à faire la guerre pour avoir le plaisir de manger des hommes »,
écrit-il dans un dialogue de son roman Aline et Valcour. Dès lors, l’idée que
l’acte cannibale soit considéré non seulement comme l’assimilation de
l’autre pour mieux évoluer, mais aussi comme un acte de partage et de
communion pour transformer l’humain, prend toute sa valeur. Mais quel
que soit le rite, et sa place dans l’histoire des hommes pour se grandir et
mieux évoluer, on ne peut passer sous silence ce qui se passe dans
l’eucharistie où le communiant se nourrit de la chair et du sang du Christ et
s’en trouve modifié.
Kuru
Je reçus un jour la visite de Stanley Prusiner, ce scientifique américain
qui avait découvert les prions. Nous étions à ce moment particulier des
grandes peurs de la vache folle, et il avait souhaité me rencontrer lors de
son passage à Paris. Avec ses cheveux blancs bouclés et ses baskets, il
portait beau. Ironie de l’histoire, il venait en France comme membre d’un
jury de prix gastronomique ! Nous avons longuement discuté des prions,
cette curieuse classe d’agents pathogènes, mais aussi évoqué à cette
occasion le kuru, maladie dont ils étaient responsables.
Le kuru avait décimé les Fores, une peuplade des hauts plateaux de l’est
de la Nouvelle-Guinée. Les premiers cas authentifiés comme tels étaient
apparus au début des années 1920. Ils avaient culminé ensuite dans les
années 1950. Dans cette zone, habitée par quelque 35 000 Papous, sévissait
une étrange maladie dont la première description et hypothèse étiologique
revenait à Carleton Gajdusek, un pédiatre américain. Formé dans la
prestigieuse université Caltech, au contact de Linus Pauling, il s’intéressait
aux agents infectieux. Ce chercheur avait fait plusieurs campagnes à la
recherche de nouveaux agents transmissibles et s’était mis à étudier les cas
de kuru, dont il devait donner une première description à travers une
communication à la Société de médecine et d’hygiène tropicale. La
maladie, qui avait paru d’abord comme étrange par la progression très lente
des troubles neurologiques – difficultés de locomotion, tremblements,
frissons – était d’évolution terrible. Elle conduisait progressivement à
rendre le patient grabataire dans sa hutte. Il terminait sa vie dans un tableau
de démence, à moins que le malheureux ne roule dans le foyer et ne périsse
d’intenses brûlures.
Gajdusek avait proposé que la maladie soit liée à une nouvelle classe de
microbes, les virus lents. L’histoire a démontré qu’il ne s’agissait pas de
virus, mais de protéines, dont la structure était anormale et pathogène. Cette
découverte revenait à Prusiner qui recevra le prix Nobel en 1997 pour
l’identification de ces protinaceous infectious particles, les prions, agents
transmissibles responsables de la maladie de Creutzfeldt-Jakob, de la vache
folle… et du kuru. En décrivant cette affection neurodégénérative mortelle,
ce qui lui avait valu également le prix Nobel, Gajdusek avait été le premier
à établir le lien entre cette affection, et les coutumes cannibales de cette
population de Nouvelle-Guinée. Il remarqua en effet que les Fores
consommaient les défunts pour s’emparer de leur force et de leur âme. Les
muscles et les cerveaux étaient ainsi partagés, mais de manière inégale. Aux
hommes, les muscles, dont ils faisaient grand cas comme attribut de
puissance, aux femmes les cerveaux et la moelle épinière. L’âme semblait si
légère, et les membres si solides… L’homme devant, la femme derrière.
Autour du foyer, cette inégalité des genres faisait toujours loi. Mais
l’inégalité ne portait pas seulement sur la nourriture, entre la force des bras
et jambes, et la légèreté du cerveau. Elle faisait régner la mort, la maladie
n’atteignant pas les deux sexes de manière identique. C’étaient les femmes
qui mouraient, non les hommes. On aurait pu en rester là sans la sagacité de
Gajdusek. La différence lui fit évoquer la présence de particules pathogènes
dans la substance cérébrale, et expliquer ainsi la contamination des femmes.
Le cannibalisme rituel avait ainsi fait plus que transmettre aux mangeurs
d’homme de nouvelles qualités, il avait été l’origine d’une redoutable
maladie, étrange retour de sort. On dénombra environ 2 700 cas, avant que
l’administration australienne ne réussisse à arrêter cette triste pratique. Le
dernier cas date de 2003, soit plus de quarante-cinq ans après la
contamination.
Mythes d’aujourd’hui
Le cannibalisme n’existe plus aujourd’hui – du moins officiellement –,
mais l’intégration de l’autre, l’assimilation de sa vertu, de sa force, de son
pouvoir, tout comme la communion quasi eucharistique lors d’un banquet
anthropophage, sont dépassés par un autre mythe. Le cyborg a pris la place
des mangeurs d’homme d’alors. La machine remplace le cœur ou membre
ingéré pour modifier l’humain. Mais tout le monde ne se laisse pas asservir
par le surnaturel, comme les peuples aztèques. Même quand il est conçu
dans le cadre d’une utopie peu réaliste, ce nouvel homme inquiète certains
au point de déclencher de nombreuses controverses. L’idée d’une puce
électronique sous la peau comme le propose le Britannique Kevin Warwick,
qui s’est présenté comme le premier cyber de l’histoire, effraie ceux qui se
voient transformés au point d’y perdre leur liberté. Popularisé par Manfred
Clynes et Nathan S. Kline qui se réfèrent à un être humain amélioré pour
survivre dans un environnement extraterrestre, il fait craindre que le
microprocesseur intégré à l’homme puisse le modifier. L’idée que la
machine arrive à prendre le pouvoir attire des lanceurs d’alerte sur cette
nouvelle forme de cannibalisme. Ne s’agit-il pas de s’approprier une âme
numérique, qui conférerait une nouvelle personnalité ? Elon Musk qui
imagine l’hybridation humain-machine inévitable plaide pour éviter d’être
vassalisé par l’intelligence artificielle. Il explique dans une interview qu’il
faut équiper l’homme d’implants intracérébraux pour le rendre plus
intelligent. Il n’est pas le seul. De nombreuses prises de position
transhumanistes, d’ailleurs sponsorisées par Google, témoignent de la
crainte que l’homme ne soit plus maître du progrès et puisse vivre une
rupture de civilisation. Des Techno prophètes se sont emparés de cette
vision pour nous promettre un autre avenir. Sont-ils si éloignés de ceux qui,
au pied des pyramides, mangeaient les charognes qu’ils avaient déifiées,
puis sacrifiées, pour se transformer en un homme nouveau afin de se diriger
vers un autre futur ?
Le transhumanisme d’aujourd’hui rejoint le posthumanisme des
mangeurs d’hommes. Assimilant le tonalli d’un autre, ils attendaient du
surnaturel une vie meilleure et pour certains une rédemption. Par
l’hybridation entre biologie et numérique, les transhumanistes proposent
d’augmenter nos capacités conscientes et inconscientes. L’homme se
connectera directement sur les réseaux du Web, comme les cannibales
communiaient à travers les attributs de la victime. À l’image des discours
des prêtres aztèques, les nouveaux prêtres du transhumanisme abordent les
thèmes de prédilection des mythes et des religions, tels le destin qui lie
l’homme à l’univers, le rapport à la mort, l’abolition de la souffrance. On
revient à des croyances, qui ont nourri nombre de civilisations qu’on
qualifiait de barbares.
Cette vision du futur déclenche des passions, provoque des débats
orageux. Les uns, tels ceux menés par Francis Fukuyama, philosophe et
économiste américain, soulignent les dangers du cyborg, l’homme
augmenté par la technologie, tandis que d’autres, tel Renald Bellay,
affirment que le mouvement transhumaniste incarne les aspirations les plus
audacieuses de l’humanité. Le cerveau modifié par la machine améliore nos
capacités, efface nos défauts et nous conduit à une nouvelle espèce
humaine. Pourtant, comme on le reverra plus loin, l’augmentation par
l’homme qu’il a sacrifié ou par la machine qui risquerait de le dépasser,
reste un mythe. Ainsi modifié l’homme ne répond à aucune réalité sinon
celle de son imagination. La réflexion sur le sujet appelle à des
considérations plus scientifiques sur les méthodes, moyens et technologies,
dont l’humain a besoin pour vivre ou survivre et pour ne pas céder aux
pressions de son environnement.
CHAPITRE 2
Tous cannibales
Le prélèvement sur donneur vivant n’est pas la seule difficulté qui a
interrogé philosophes et juristes, le recueil du greffon sur des sujets en état
de mort cérébrale interpelle également la loi et les consciences. D’ailleurs,
c’est à la greffe d’organes que la métaphore du cannibalisme développée en
ouverture de ce livre s’applique le mieux. Une pratique qui n’est pas
nouvelle puisque pendant des siècles la médecine s’est emparée des chairs
mortes pour leurs supposées vertus thérapeutiques. Dans son fameux texte
sur les cannibales, Montaigne rappelle qu’en son temps les praticiens
accommodent les dépouilles de mille façons, ils « ne craignent pas de s’en
servir à toute sorte d’usages pour notre santé ». La pharmacopée historique
regorge en effet de préparations médicinales à base de matières humaines.
La chair des macchabées est indiquée pour des usages externes sous forme
de pommades, d’onguents, de peaux préparées en lanières contre l’hystérie
ou les spasmes. Les mixtures absorbables sont prisées en élixir, en sirop,
poudre séchée, pilule, électuaire, etc. Selon les maux et les douleurs,
d’autres parties des cadavres, telles que la graisse et les os, sont réputées
pour leurs vertus. Parmi ces médications, la momie occupe une place de
er
choix. François I en apporte toujours un sachet dans ses déplacements,
réduite en fine poudre mélangée à de la rhubarbe pulvérisée. Ainsi préparée
ou diversement mitonnée, son usage est attesté au moins jusqu’au
e
XVIII siècle. Il faut toute la clairvoyance d’Ambroise Paré pour s’élever par
la raillerie contre une pratique qu’il juge irrationnelle, parce « qu’elle
pouvait beaucoup plus nuire qu’aider, à cause que c’est la chair des corps
morts et puants et cadavéreux, et que je n’ai jamais vu que ceux auxquels
on en avait donné à boire ou à manger qu’ils ne vomissent tôt après en avoir
pris avec une grande douleur à l’estomac ».
Le parallèle avec la transplantation peut choquer, comme la clémence
de Montaigne envers les rites funéraires tupinambas a heurté ses
contemporains, mais si l’on adopte la définition proposée par Claude Lévi-
Strauss alors le rapprochement s’impose : « Sous des modalités et à des fins
extrêmement diverses, il s’agit toujours d’introduite volontairement, dans le
corps d’êtres humains, des parties ou des substances provenant du corps
d’autres êtres humains. » Le cannibalisme en tant que tel, celui qui
délimiterait une frontière sans équivoque entre barbarie et civilisation,
« n’existe qu’aux yeux des sociétés qui le proscrivent ». Chaque culture
trace la limite de ce qu’elle valorise au regard de ce qu’elle honnit, et en
matière de transplantation le Japon en est un exemple. Pour des raisons
d’ordre religieux, par respect de l’intégrité du corps et un peu par méfiance
à l’encontre des médecins, les prélèvements d’organes sur des personnes en
état de mort cérébrale restent minoritaires au pays du Soleil levant.
D’ailleurs, ce n’est qu’en 1997, plus de deux décennies après la France, que
le Japon a officiellement reconnu la mort cérébrale comme fin de vie, une
loi étendue jusqu’aux enfants de 15 ans en 2009. En conséquence, de
nombreuses greffes rénales sont réalisées à partir de donneurs vivants et les
patients qui ne peuvent en bénéficier sont tentés de traverser les frontières.
Le tourisme de transplantation correspond au déplacement d’une
personne dans son propre pays ou dans un autre dans le but de se faire
greffer un organe. Se rendre à l’étranger revient souvent à tirer profit de la
législation des pays qui autorisent la vente d’organes. Entre 2002 et 2008,
les Philippines avaient officiellement instauré un programme qui favorisait
l’échange marchand. En Inde, le commerce d’organes était considéré
comme une chance pour les castes inférieures, qui trouvaient là
l’opportunité de gagner honnêtement quelques roupies. En Chine, c’est
l’exploitation des condamnés à mort qui a attiré une clientèle internationale,
une fois satisfaits les besoins d’une classe dirigeante vieillissante.
N’oublions pas qu’en France la transplantation a fait ses débuts à l’ombre
de la guillotine. En 1951, trois prélèvements de reins ont été réalisés sur des
condamnés à mort, à leur propre insu et à celui de leurs familles, mais en
juin de la même année, un décret mit fin à cette pratique.
On pourrait croire que le tourisme de transplantation est marginal, mais
en 2007 l’OMS évaluait à 10 % la part des greffes réalisées dans ce cadre.
Une enquête menée dans notre pays en 2002 avait identifié dix patients
ayant reçu un greffon d’un donneur rémunéré en Inde, Chine, Turquie ou en
Égypte. Devant ces constats alarmants, un accord international fut signé en
2008. Connu sous le nom de « déclaration d’Istanbul », il interdit le trafic
d’organes et le tourisme de transplantation. Il semble que cette déclaration a
permis de diminuer l’amplitude du phénomène, mais pas de le supprimer.
L’exploitation des plus indigents par les habitants des pays favorisés n’est-
elle pas une forme de barbarie plus manifeste que celle entrevue dans les
rites funéraires tupinambas ? Montaigne acquiescerait comme un seul
homme. Peut-être faut-il voir une sorte de justice dans le fait que la durée
de vie des greffons reçus à l’étranger est en moyenne inférieure à celle des
organes transplantés dans le pays d’origine ?
(Re)définir la mort
De façon paradoxale, l’une des premières conséquences des réussites de
la transplantation fut de (re)définir la mort, un diagnostic auquel les
e
médecins commencèrent à s’intéresser à partir du XVIII siècle. Auparavant,
la camarde frappait en hâte et au hasard, là un vieillard ou un enfant en bas
âge, ici des populations entières emportées par les famines et les épidémies
qui soustrayaient à l’aveugle. En 1742, Jean-Jacques Bruhier d’Ablaincourt
publie un ouvrage plusieurs fois réédité, dans lequel apparaissent les
concepts de « mort apparente » et d’« inhumation précipitée ». Face au
risque de méconnaître une vie à son minimum, d’autres publications
suivent. Elles recensent les signes de la mort, qui vont du « faciès
hippocratique » à la flaccidité de l’œil, en passant par la rigidité
cadavérique ou la putréfaction, un dernier signe un peu trop tardif et, selon
certains, dangereux sur le plan sanitaire. Par-delà les divers supplices
appliqués au corps inerte pour tester sa réactivité, le signe du miroir revient
dans la plupart des traités. Cherchant à déceler une respiration à bas débit, il
témoigne de la primauté du souffle dans les représentations de la vie. Au
e
début du XIX siècle le Code civil impose la vérification du décès par un
officier d’état civil. Un nouveau test va bientôt être privilégié par
l’Académie de médecine, il consiste à vérifier l’absence de battements
cardiaques par auscultation au stéthoscope, selon la méthode inventée par
René-Théophile-Hyacinthe Laennec plus de trente ans auparavant. Avec le
signe de Bouchut, du nom du médecin qui l’a décrit, le diagnostic de mort
e
devient instrumental et passe des poumons au cœur. Au cours du XX siècle,
la fin de vie se déplace à l’hôpital et à partir des années 1950 les techniques
de réanimation génèrent des « états frontières », parmi lesquels on peut
distinguer, selon les mots d’Anne Carol, « des vivants en sursis […] et des
morts en puissance ». Ce sont ces derniers qui, passé une frontière sans
retour que la loi va se charger de définir, seront désignés comme de
potentiels donneurs d’organes. Dans les années 1960, les réussites de la
transplantation obligent à accroître le vivier des donneurs potentiels et à
raccourcir les délais entre le prélèvement du greffon et l’acte chirurgical. En
1968, le Comité de Harvard propose une définition cérébrale de la mort,
ratifiée en France par une simple circulaire ministérielle publiée le 24 avril
de la même année, trois jours seulement avant la première tentative de
greffe du cœur par Christian Cabrol à la Pitié-Salpêtrière.
L’électroencéphalogramme détrône ainsi le stéthoscope et le cerveau
destitue le cœur.
Avec la définition de la mort cérébrale, le législateur fournissait aux
transplanteurs un accès à une importante source de greffons. Mais avant que
certaines interventions ne deviennent une routine il fallait apprendre à
maîtriser la réaction immunitaire et, à travers le rejet ou l’acceptation de
l’autre – mais aussi de ses propres organes –, comprendre ce qu’est
l’identité biologique de l’homme.
Le soi et le non-soi
Si la greffe fut si longtemps un objet de légende et une source d’échecs
c’est qu’il existe deux types de barrières qui protègent notre individualité.
Les premières nous définissent et donnent à chacun de nous une carte
d’identité. Les secondes nous défendent, et sont capables d’accepter ou de
rejeter cellules, tissus ou organes étrangers. Placées sous le contrôle d’une
fine régulation, les deux modalités, présence de l’une et stimulation ou
inhibition de l’autre, constituent les ingrédients biologiques d’une définition
de l’individu, du soi et du non-soi. Cette terminologie trouve son origine
dans la proposition du biologiste américain Paul Ehrlich qui, au début du
siècle précédent, avait posé le principe de l’horror autotoxicus, selon lequel
il est impossible qu’un organisme suscite une réaction immunitaire contre
lui-même. Le terme de « soi », d’emblée utilisé en tandem avec son
contraire, le « non-soi », est imposé par Macfarlane Burnet dans le courant
des années 1940-1950 pour dépasser le tabou immunologique d’Ehrlich et
répondre à une question : comment l’organisme apprend-il à ne pas réagir à
ses propres antigènes ou auto-antigènes ? Tandis que le geste chirurgical
stimulait médecins et chirurgiens, les biologistes s’étaient penchés sur la
compatibilité des greffes et la compréhension de leur succès ou échec. En
1937, Peter Gorer, dans des études chez la souris réalisées au sein du
Jackson Laboratory, à Bar Harbor, montrait que la compatibilité de greffe
était régie par un marqueur génétique qu’il appela H-2. Celui-ci devint plus
tard le « complexe majeur d’histocompatibilité ». George Snell étendit cette
découverte, et développa, par divers types de croisement entre animaux de
fonds génétiques différents, des souches de souris possédant ce segment
chromosomique. Il ouvrit ainsi la voie aux recherches immunologiques, ce
qui lui valut le prix Nobel de médecine en 1980 avec Jean Dausset et Baruj
Benacerraf.
L’origine génétique de l’identité ne présumait cependant pas de celle,
immunologique, du rejet. Peter Medawar, un professeur de zoologie, avait
été chargé par le Medical Research Council de définir le mécanisme du
rejet. Au début de la Seconde Guerre mondiale, un avion de la Royal Air
Force qui s’était écrasé dans son jardin en blessant grièvement le pilote
avait éveillé son intérêt pour les greffes. Medawar montra qu’après une
première greffe, une seconde transplantation de peau sur le même animal
était rejetée plus vite que la première, apportant ainsi la preuve
expérimentale que le receveur s’était immunisé. Il objectivait également la
spécificité du phénomène en montrant que le rejet n’est accéléré que si le
donneur est le même dans les deux greffes. Medawar allait de plus prouver
que les lymphocytes, qu’il allait nommer pour la première fois « cellules
immunocompétentes », étaient bien responsables de cette activité.
Quelques années plus tard, en 1952, Jean Dausset et ses collaborateurs
étudiant le sérum d’un sujet qui présentait une baisse de polynucléaires,
identifièrent un antigène à la surface des globules blancs qu’ils nommèrent
Human Leucocyte Antigen (HLA). La fonction de ces molécules resta un
temps obscur, avant qu’elle ne soit rattachée à la capacité de tolérer ou
rejeter des greffes. Utilisant divers réactifs sérologiques obtenus chez des
polytransfusés, Dausset en décrivit la présence sur la totalité des cellules de
l’organisme à l’exception des globules rouges qui possèdent un autre type
de marqueurs, le système A, B, O. Situés sur le bras court du
chromosome 6, les gènes HLA sont d’une extraordinaire variabilité. Sur un
même segment génétique, ou locus, ils peuvent revêtir de nombreuses
séquences différentes, définissant ainsi leur polymorphisme, qui distingue
les individus les uns des autres. Les gènes HLA sont issus d’un gène
ancestral apparu en même temps que les premiers vertébrés, notamment les
requins, les plus anciens d’entre eux. Ils n’ont pas d’équivalents chez les
invertébrés.
De nombreuses molécules, à commencer par les anticorps, ont des
structures comparables à celle du complexe HLA. Elles ont en commun des
facteurs de contact, d’adhésion et de reconnaissance. Ces marqueurs
d’identité ont une fonction essentielle qui intrigua longtemps les
immunologistes avant qu’on ne décrive leur structure et leur capacité
d’interactions avec les cellules T. Ces cellules immunitaires, comme
rapporté précédemment, se composent de différentes populations de
lymphocytes capables de tuer par cytotoxicité, de sécréter des molécules
inflammatoires ou d’aider les cellules B à produire des immunoglobulines.
Les anticorps reconnaissent directement leurs cibles en se fixant à
l’antigène. La reconnaissance des cellules T et leur activation dépendent
d’un mécanisme différent. Elles n’identifient les antigènes que fragmentés
en petits peptides, et à la seule condition qu’ils leur soient présentés par
certaines cellules via les molécules HLA. Les marqueurs HLA ont ainsi une
fonction particulière, celle de présentoir. On comprend aussi que le
polymorphisme de ces gènes, et donc de leur expression, est né de
l’extraordinaire capacité qu’ont les molécules HLA de se lier à l’extrême
diversité des peptides qui leur sont présentés. Selon leurs structures, elles se
sont spécialisées pour capter des peptides issus d’une infection virale, des
antigènes de rencontre ou des fragments de tissus étrangers, comme ceux
des transplants. Une fois le produit dégradé, attrapé par la molécule HLA,
l’ensemble hydride est présenté aux cellules T, déclenche la réactivité du
clone correspondant et induit sa prolifération.
Les molécules HLA se sont ainsi diversifiées au gré des rencontres avec
les peptides du vivant. À travers leurs migrations et les croisements entre
individus non apparentés, les hommes ont aussi rebattu les cartes et étendu
le polymorphisme des gènes. De manière remarquable, les molécules HLA
se sont adaptées aux deux principaux modes de réponse immunitaire des
cellules T. De fait, il existe à la surface des cellules T deux types de
molécules appelées CD4 et CD8 capables de reconnaître des complexes
HLA distincts et de stimuler la production d’anticorps ou d’induire une
réponse cytotoxique et inflammatoire.
Se tolérer
Le rejet des greffes pose cependant une question. Comment peut-on tout
à la fois lutter contre l’étranger et tolérer ses propres antigènes ? Macfarlane
Burnet pensait que la sélection s’exerçait sur la cellule qu’il identifiait
comme unité de transmission héréditaire de l’immunité. Ce faisant, les
cellules devaient distinguer les constituants de l’organisme, de ceux qui lui
sont étrangers. En 1969, dans un ouvrage intitulé Self and Not-Self,
l’Australien lança un défi : « Le temps est venu pour l’immunologie
d’insister sur l’importance du soi et du non-soi et de rechercher la manière
dont la reconnaissance de la différence, peut se faire. » Le système HLA
apparaissait alors comme le candidat de choix pour répondre à cette
interrogation. Par son extraordinaire polymorphisme, il permettait de
caractériser l’individu par une sorte de signature faisant de chacun un être
unique. La théorie de Burnet s’appliquait bien évidemment à l’acceptation
ou au rejet de greffes, mais savoir reconnaître l’étranger impliquait aussi de
se reconnaître soi-même. La tolérance est un joli mot qui vient du latin
tolerare, « supporter », et de tolerantia, « endurance », « patience »,
« résignation ». La tolérance n’est ni l’indifférence, ni la soumission, ni
l’indulgence. Elle est le respect. Quelle qu’en soit la définition, elle semble
passer par un acte actif. Si le système HLA était bien au cœur des
préoccupations, il fallait l’accorder à des observations plus anciennes, telles
celles de Ray D. Owen qui découvrit en 1945 que la tolérance aux antigènes
du soi n’était pas un phénomène inné, mais acquis. Ses expériences avaient
montré que des jumeaux nés d’un placenta commun, mais de deux ovules
différents, se comportaient comme des chimères. Ils présentaient dans le
sang des cellules provenant des deux individus. Les animaux toléraient
leurs cellules et celles qu’ils partageaient avec l’autre, dans une sorte de
coexistence pacifique.
La preuve formelle du caractère acquis fut apportée quelques années
plus tard, en 1953, par Rupert Billingham, Leslie Brent et Peter Medawar, y
découvrant le rôle des lymphocytes, cellules que nous retrouverons plus
détaillées dans le chapitre suivant. Ces chercheurs démontrèrent que la
transfusion à la naissance de lymphocytes d’un futur donneur induisait une
tolérance à une greffe tissulaire ultérieure. Ces résultats confirmaient les
théories de Burnet, selon lesquelles la tolérance résultait d’un apprentissage
du système immunitaire. Il fallut une réflexion de plus pour imaginer que
les lymphocytes réagissant contre les antigènes du soi étaient éliminés du
répertoire, ne laissant se différencier que les lymphocytes qui
reconnaissaient les antigènes étrangers. Ce n’est que dans les années 1980
que l’hypothèse put être confirmée grâce aux outils expérimentaux de la
biologie moléculaire. Dans le thymus, les clones lymphocytaires
reconnaissant les antigènes du soi sont éliminés. Près de 95 % d’entre eux
sont détruits dans cet organe et meurent avant d’arriver à maturité.
L’apprentissage de l’étranger, plutôt l’élimination des défenses dirigées
contre le soi, s’effectue ainsi au prix d’un important gaspillage de cellules
immunes que la complexité et le polymorphisme du système HLA rend sans
doute nécessaire. Seules sortent du thymus, celles susceptibles de réagir à
un antigène étranger, de sorte que la reconnaissance du soi est apprise, elle
n’est pas génétiquement programmée. La rupture de tolérance induit un
phénomène d’auto-immunité responsable de maladies comme la sclérose en
plaques, le diabète de type 1 ou la polyarthrite rhumatoïde.
Ce phénomène de tolérance active relève de l’immunité acquise, dite
adaptative, mais n’explique cependant pas tout. D’un côté, le microbiote et
quelques autres antigènes peuvent stimuler le développement de cellules
régulatrices (en particulier des cellules dites Treg) qui viennent
secondairement inhiber ou diminuer l’intensité de la réponse immunitaire
en cours de constitution. De l’autre, il restait à comprendre la régulation de
l’immunité innée, celle qui préexiste à l’introduction de tout antigène.
Réponse ancestrale, l’immunité innée dépend notamment d’une catégorie
particulière de cellules, les cellules naturelles tueuses, dites NK (Natural
Killers). Ces lymphocytes patrouillent dans le corps à l’affût de n’importe
quel intrus, prêts à l’éliminer ou le rejeter avant que la réponse adaptative,
de manière plus spécifique mais aussi plus complexe, ne prenne le relais.
Comment imaginer qu’elles puissent tout à la fois circuler, garder leur
potentiel fonctionnel en cas d’introduction de molécules étrangères, et au
même instant ne pas réagir contre celles de l’individu auquel elles
appartiennent ? Dans le cadre de l’immunité adaptative, les lymphocytes
autoréactifs ont bel et bien été éliminés. Mais concernant l’immunité innée,
aucun tri n’est fait sur les cellules NK. La réponse à cette énigme vint d’une
série d’expériences montrant que ces cellules répondaient bien aux
antigènes du soi, mais que cette interaction déclenchait des signaux négatifs
qui inhibaient leur potentiel cytotoxique. Les molécules HLA leur font
perdre toute forme d’agression contre le soi, comme si le poignard de
l’ennemi était retenu par la main de l’éternelle victime. Pour autant les
cellules NK conservent toute leur force contre les cellules des greffes qui
leur sont étrangères, ou certains cancers qui perdent leurs marqueurs HLA
et deviennent alors d’excellentes cibles, heureuse circonstance d’une
rupture de tolérance. Les molécules HLA font ainsi plus que de participer à
la réponse adaptative en présentant les peptides étrangers, elles règlent aussi
l’équilibre entre maintien et rupture d’une tolérance au soi par les
cellules NK. Ainsi, pour réagir à l’autre, il faut avant tout savoir et pouvoir
se tolérer.
Accueillir l’autre
Les traitements immunosuppresseurs entravent la réponse immunitaire
de rejet, mais ils induisent de nombreux effets indésirables exposant à une
fréquence accrue d’infections, de cancers, d’atteintes rénales et même de
diabète. Ils ont permis de maîtriser le risque de rejet aigu dans les mois qui
suivent l’intervention, mais pas d’enrayer les rejets chroniques à plus long
terme. Ainsi en France, 63 % des greffons sont encore en place dix ans
après une transplantation à partir d’un donneur décédé. Enfin, ces
associations médicamenteuses ont un effet péjoratif sur les mécanismes de
tolérance. Ces deux inconvénients majeurs ont conduit à évaluer de
nouvelles thérapeutiques qui permettraient de se passer
d’immunosuppresseurs tout en contrôlant les réactions de rejet et en
conservant une immunité efficace, en particulier contre les agents infectieux
pathogènes. Puisqu’il faut apprendre à s’accepter biologiquement et que,
comme l’avait montré Medawar, il est possible d’induire une tolérance chez
la souris grâce à l’injection de cellules hématopoïétiques du donneur avant
la naissance, l’idée de moduler le système immunitaire pour éviter le rejet
d’un greffon commença à être testée sur des modèles animaux dès les
années 1960 et, depuis une dizaine d’années, chez l’homme. Le point
commun de la majorité de ces essais est de reposer, comme dans
l’expérience de Medawar, sur le principe du chimérisme. En matière de
transplantation, il s’agit de faire coexister chez le receveur ses propres
cellules immunitaires avec d’autres provenant du donneur d’organe. On
savait que chez la souris l’ablation de la moelle osseuse par irradiation et
son remplacement par celle du donneur conduisait à un chimérisme total
avec tolérance de greffes cutanées ou d’autres organes issus du donneur.
Mais la technique est lourde, ses effets indésirables potentiellement graves
et elle favorise le déclenchement d’une réaction du greffon contre l’hôte au
cours de laquelle les cellules immunitaires du donneur se retournent contre
l’organisme du patient. C’est pourquoi les chercheurs se sont orientés vers
un chimérisme mixte dans lequel les deux origines cellulaires cohabitent.
Plusieurs équipes ont évalué cette stratégie chez de petits groupes de
patients, chacune avec des protocoles spécifiques, mais toujours dans le
cadre de greffes avec donneurs vivants. Dans tous les cas, une irradiation à
faible dose de la moelle et totale du thymus est nécessaire, suivie par un
traitement de courte durée ciblant certains lymphocytes et une injection de
moelle non fragmentée ou de cellules immunocompétentes sélectionnées du
donneur.
Les résultats ont démontré que l’induction d’un chimérisme partiel chez
l’homme permet de diminuer, voire de supprimer les traitements
immunosuppresseurs et de contrôler les rejets chroniques à long terme.
Dans certains cas, un chimérisme éphémère, qui n’est plus détectable
quelques mois après l’injection de cellules hématopoïétiques, donne d’aussi
bons résultats, comme si le système immunitaire du patient ne réagissait
plus contre l’organe transplanté. S’ouvre ici une piste intéressante car le
chimérisme éphémère est obtenu avec des protocoles moins lourds et donc
moins toxiques.
Une autre observation a éveillé l’intérêt des scientifiques : le taux de
cellules T régulatrices est augmenté dans le sang des patients présentant une
tolérance suite à de tels traitements et, chez l’animal, leur concentration est
particulièrement élevée à proximité de l’organe greffé. Ces
lymphocytes Treg, un temps appelés « cellules suppressives » du fait de leur
capacité d’empêcher une réaction immunitaire, font aujourd’hui l’objet
d’une recherche intensive. Présents en petite quantité dans l’organisme, ils
témoignent de l’équilibre fragile et dynamique du système immunitaire qui
doit à la fois être en mesure de réagir instantanément à une intrusion
menaçante, mais aussi de freiner l’inflammation, le recrutement et
l’activation cellulaire dont les conséquences peuvent être catastrophiques
s’ils se prolongent. Plusieurs essais d’induction de la tolérance par ces
cellules sont actuellement en cours en Europe (The One Study) et aux États-
Unis. D’autres thérapies cellulaires sont également testées, par exemple des
cellules dendritiques, celles qui présentent les antigènes aux lymphocytes
via les molécules HLA, et dont il a été montré qu’elles peuvent aussi avoir
une action régulatrice.
Le dynamisme de ces recherches pourrait permettre dans un avenir pas
trop lointain de tolérer des organes transplantés sans subir les effets
indésirables des immunosuppresseurs. Ces traitements pourront-ils un jour
faire tomber la barrière d’espèce ?
Organogenèse
Plutôt que de prélever des greffons sur l’animal, avec tous les
problèmes que pose le franchissement de la barrière d’espèce, les
chercheurs se sont engagés à la poursuite d’une autre chimère, cette fois au
sens métaphorique du terme : la fabrication de tissus et d’organes en
laboratoire. L’objectif à terme est de concevoir des organes transplantables
avec l’avantage de pouvoir utiliser les cellules du malade et d’éviter ainsi
toute réaction de rejet. Mais au regard des résultats expérimentaux, la
modestie s’impose et les chercheurs se contentent pour l’instant de parler
d’organoïdes, autrement dit de structures biologiques qui, par leur
composition et leur organisation, miment l’architecture d’un organe,
souvent sans reproduire sa fonction.
Depuis une dizaine d’années, des progrès sensibles ont été réalisés dans
ce domaine, notamment grâce aux techniques de culture cellulaire 3D.
L’idée est de reproduire les phénomènes observés au cours du
développement de l’embryon avec migration, différenciation et agencement
spontané des cellules par auto-organisation. Ces ébauches d’organes sont
produites à partir de cellules précurseurs d’un tissu donné, de cellules
induites IPS (voir chapitre suivant) ou de cellules embryonnaires
totipotentes. Mises en présence de facteurs de croissance et de diverses
protéines, elles peuvent être disposées sur une matrice (par exemple un gel
de collagène, de laminine, de la fibronectine ou réalisée à partir d’un tissu
décellularisé) qui favorise les différentes phases de l’auto-organisation.
Dans ce milieu perfusé en oxygène et en nutriments, tous les paramètres
peuvent avoir une influence déterminante sur la dynamique du système : les
molécules présentes dans le microenvironnement cellulaire, la chaleur, le
pH, les forces de microgravité, chaque variable doit être attentivement
surveillée et contrôlée.
Selon les recettes de cette cuisine biologique du troisième millénaire,
des modèles de cerveau, rein, foie, cœur, intestin, pancréas, glande salivaire,
dent, bref une palanquée d’organoïdes a été mijotée sur les paillasses. En
raison de l’absence de vascularisation, leur taille reste limitée car,
parvenues à un seuil critique, les cultures ne peuvent plus être correctement
nourries. Pour donner un ordre de grandeur, un organoïde cérébral se
compose d’environ 100 000 neurones alors que notre encéphale n’en
compte pas moins de 100 milliards. La diversité cellulaire composant un
organe pose un autre problème nécessitant la différenciation et
l’organisation de plusieurs lignées cellulaires. On le comprend, la greffe est
encore loin, mais certains de ces organoïdes remplacent déjà des animaux
de laboratoire dans l’étude des maladies ou pour tester la toxicité de
médicaments. Ainsi, un modèle de polykystose rénale, une maladie
génétique susceptible d’entraîner une insuffisance rénale terminale, a été
réalisé en inactivant les gènes PKD1 et PKD2 sur des cellules progénitrices
de rein, ensuite conditionnées pour former un organoïde.
Greffes cellulaires
Au regard de la taille encore limitée des organoïdes, il serait possible de
transplanter des fragments d’organes qui achèveraient leur développement
dans un milieu biologique idéal, l’organisme du receveur. L’hypothèse n’a
pas été vérifiée, mais elle rejoint une stratégie déjà parvenue au stade de la
recherche clinique chez l’homme : la greffe cellulaire. Le diabète de type 1
et la maladie de Parkinson sont les deux pathologies dans lesquelles cette
technique a fait l’objet de nombreux essais. La maladie de Parkinson
apparaît lorsque 80 % des neurones de la substance noire du cerveau qui
secrètent de la dopamine sont détruits. À partir du moment où les
techniques microchirurgicales ont permis d’accéder à cette région de
l’encéphale sans léser les structures avoisinantes, il devenait logique
d’envisager le remplacement de cette population neuronale impliquée dans
le mouvement. À la fin des années 1970, la preuve d’une amélioration des
symptômes fut faite sur des modèles animaux greffés avec des cellules
fœtales mésencéphaliques. Suite à ces résultats encourageants, des essais
cliniques ont été menés au cours des deux décennies suivantes à partir des
tissus dopaminergiques prélevés sur le cerveau de fœtus morts ou avortés.
Bien qu’il ne s’agisse pas d’un organe, la transplantation cellulaire doit
s’accompagner d’un traitement immunosuppresseur, pendant un an en
moyenne dans le cas présent. Les indications de la greffe sont restreintes et
les résultats furent variables selon études, mais certains patients virent une
régression de leur symptomatologie plus ou moins durable. Chez d’autres,
des mouvements anormaux incontrôlables et très handicapants sont apparus
de façon retardée, une complication dont le seul traitement connu est la
pose d’électrodes intracérébrales de stimulation profonde. Actuellement, les
équipes fondent des espoirs sur l’utilisation de cellules embryonnaires
maturées en laboratoire pour former des neurones semblables à ceux de la
substancia nigra.
Les protocoles sont plus avancés dans le diabète et, si on ne peut pas
encore parler de pratique courante, on dénombre une trentaine de greffes
d’îlots de Langerhans chaque année en France. Les cellules transférées sont
isolées à partir de pancréas prélevés sur des cadavres, un organe fragile qui
ne peut être conservé plus de huit à douze heures dans la glace. La
purification des îlots nécessite un laboratoire dédié et une manipulation
minutieuse. Ils sont ensuite injectés par cathéter dans la veine porte qui
conduit directement au foie. Presque 90 % des patients peuvent se passer
des injections d’insuline immédiatement après la greffe, mais ils ne sont
plus que 10 % dans ce cas cinq ans plus tard. Outre les risques
hémorragiques inhérents à l’acte chirurgical, les complications
hématologiques et infectieuses liées au traitement immunosuppresseur sont
les plus redoutées. Dernière difficulté, qui n’est pas des moindres, la greffe
d’îlots n’est pas prise en charge par la Sécurité sociale. La technique existe
donc, le protocole est au point, mais son efficacité limitée dans le temps, la
rareté des pancréas et les complications potentielles limitent son indication
aux patients dont le diabète de type 1 est déséquilibré et qui sont sujets à
des hypoglycémies graves. Lever les obstacles techniques n’est donc pas le
seul problème à résoudre, le contexte social et les finances publiques
décideront aussi de son avenir.
De la régénération à l’adoption
À côté de cette médecine régénérative, existe une autre forme de
thérapie cellulaire, non pour pallier la déficience d’un organe, mais pour
utiliser le système immunitaire comme arme contre le cancer, les microbes
ou pour traiter les maladies auto-immunes. On parle alors
d’immunothérapie adoptive, traitement qui consiste à transfuser chez un
individu les cellules immunitaires, utilisant leurs propriétés thérapeutiques
de reconnaissance et de capacités fonctionnelles. Après isolement du sang
et une période de culture pour les stimuler, diverses populations de cellules
immunes peuvent ainsi être réinjectées aux patients avec l’espoir qu’elles
mettent en œuvre in vivo les capacités acquises in vitro, cytotoxicité,
production d’anticorps, ou autres, telle la sécrétion de certains facteurs de
croissance. Ces cellules peuvent être éventuellement modifiées pour
acquérir de nouvelles activités comme ces lymphocytes T armés
d’anticorps, appelés CAR-T, méthode décrite par Zelig Eshhar, qui ont fait
la preuve de leur efficacité contre les leucémies. En quelques années, cette
technologie a bouleversé le traitement de ces pathologies et le métier de la
greffe. À l’exclusion de celle-ci, la plupart de ces procédés restent encore
expérimentaux, soutenus par de nombreuses start-up. Pour comprendre leur
avenir potentiel, il faut en revenir aux propriétés si remarquables des
cellules immunes.
De la connaissance à l’exploitation
du génome
En 1964, l’étude du génome a franchi une étape essentielle avec le
décryptage du code génétique. Quatre entités chimiques, adénosine,
thymine, guanine et cytosine, constituent l’ADN. La répartition, par groupe
de trois, est comme celle des mots dans un lexique, chacun codant pour un
acide aminé. Leur séquence le long des brins d’ADN représente
l’information génétique. La traduction, en commandant la synthèse des
21 acides aminés qui s’assemblent pour former des protéines, rend compte
d’une multitude de fonctions dans les cellules vivantes et les tissus par la
production de molécules de structure, d’enzymes, d’hormones, etc. Vers la
fin des années 1980, chercheurs et décideurs institutionnels devaient
s’accorder pour effectuer une étude exhaustive de l’ADN humain. Au
même moment ou presque, les États-Unis, le Royaume-Uni et la France se
lançaient dans des programmes pour tenter de séquencer la totalité des
3 milliards de bases sur les 23 chromosomes humains. La compétition
stimulant ces nouveaux explorateurs, ce qui semblait au départ peu réaliste
permit d’aboutir, en 2000, à la première séquence humaine. Au passage,
et en parallèle, on devait également réaliser le séquençage d’organismes dits
modèles, car servant de base à d’autres études et utilisations tels la levure,
le nématode et la drosophile, dont la taille de 12 à 50 milliers de paires de
base semblait être un exploit plus accessible. Les premières descriptions du
génome humain furent suivies d’une autre en 2003, année du cinquantième
anniversaire de la découverte de l’ADN. La carte du génome présentait la
séquence de 30 000 gènes, avec un taux d’erreur négligeable.
Compte tenu du nombre de maladies héréditaires, l’idée vint vite de
tenter de modifier, au fur et à mesure de leur découverte, les mutations qui
en étaient responsables. Le principe de la thérapie génique était né. Encore
fallait-il savoir effectuer de telles opérations. Les premières expériences
d’activation de gènes ou d’insertion de séquences différentes datent des
années 1980 sur la souris. S’agissant d’expérimentations animales, on
s’autorisait à des gestes pratiqués chez l’embryon. Il était ainsi possible
d’obtenir de nouvelles lignées dont le patrimoine génétique murin avait été
modifié. Ces méthodes étaient cependant complexes car nécessitant la
manipulation d’un nombre important d’embryons. Bien évidemment,
puisqu’elles portaient atteinte au patrimoine héréditaire, elles apparaissaient
inenvisageables chez l’homme. Une autre méthode, plus rapide et plus
simple, consistait à transformer le génome de cellules en culture. L’une et
l’autre méthodes se réduisaient à l’ajout d’un fragment de génome, qui était
d’ailleurs incorporé au hasard dans les chromosomes. Ces techniques
audacieuses manquaient de précision et restaient de la mécanique lourde.
Imaginons une bicyclette au pneu crevé au bord d’une route. Le garagiste
envisageait plus de remplacer une roue que de changer le pneu, encore
moins de mettre une rustine.
L’utilisation thérapeutique chez l’homme relevait à cette époque d’un
exploit extraordinaire, mais bien entendu, restait le but ultime, le plus
louable et le plus raisonnable pour traiter les maladies génétiques. La
séquence était tracée : d’abord le diagnostic, puis réparer les gènes
délétères, les remplacer par des séquences normales pour tenter de guérir
les patients. Il ne s’agissait pas tant de créer de nouveaux génomes que de
réparer les imperfections de la nature. À vrai dire, la thérapie génique
n’était pas vraiment une idée nouvelle. Edward Tatum et Joshua Lederberg,
deux grands scientifiques spécialisés dans l’étude des bactéries, en avaient
déjà évoqué le principe. Dès 1966, Tatum proposa en effet un traitement
fondé sur l’introduction de nouveaux gènes dans des cellules défectueuses
de certains organismes. La proposition, très audacieuse à l’époque, fut
reprise dans les médias, développant sous la plume de Lederberg le schéma
de traitement génétique de la phénylcétonurie, une maladie enzymatique.
En même temps, ces perspectives qui accompagnaient de nouveaux espoirs
pour les patients handicapés par de redoutables affections héréditaires
n’allaient pas sans poser un certain nombre de questions éthiques, tant sur
leur concept – modifier le génome n’était-il pas contre nature ? – que sur la
réalisation pour minimiser les risques individuels.
Il y eut ainsi les premiers essais, dont une des plus anciennes tentatives
en 1970, celle de Stanfield Rogers, un chercheur du Tennessee, qui tenta de
réduire un déficit enzymatique exceptionnel conduisant à l’accumulation
d’arginine, acide aminé dont les taux à des niveaux toxiques conduisaient à
des conséquences catastrophiques : épilepsie, retard mental, mouvements
anormaux. L’équipe du Tennessee travaillait à l’époque sur un virus du
lapin. Or Rogers avait constaté que certains de ses collaborateurs
exprimaient un taux anormalement bas d’arginine. Il avait rapporté ce
phénomène à une contamination lors de manipulations maladroites.
Cependant, il tenait l’idée : l’infection semblait sans conséquence, mais lui
semblait prouver que le virus de lapin contenait une enzyme qui pouvait
abaisser le taux d’arginine et, plus encore, qu’il pouvait être introduit chez
l’homme par simple contagion. D’où la tentative, extrêmement audacieuse à
l’époque, d’inoculer ce virus du lapin à des enfants atteints génétiquement
d’une accumulation d’arginine. Par sécurité, sans pourtant se plier aux
recommandations des comités d’éthique qui n’existaient guère à l’époque, il
envisagea d’inoculer des doses extrêmement faibles de virus. L’effet le fut
aussi, car tout ce qu’on put en conclure était qu’il n’y avait pas d’effet
toxique secondaire.
L’expérimentation semblait sans risque. Pour autant, même si les taux
d’arginine n’étaient pas modifiés, l’idée semblait à creuser, l’hypothèse
tenait, et le traitement par infection virale pouvait sembler une méthode de
choix pour introduire l’enzyme naturelle. Mais l’audace ne paie pas. Rogers
ne sut pas convaincre de l’originalité et de l’importance de sa tentative.
D’ailleurs, il n’en fallait pas plus pour que de nombreuses voix s’élèvent,
s’indignent, et fassent renoncer le chercheur à aller plus loin, au point de le
décourager si bien qu’il ne s’impliqua plus jamais dans une expérimentation
médicale. Pour la petite histoire, on sut longtemps après que l’hypothèse
était fausse et que le virus du rongeur ne contenait pas l’enzyme recherchée.
Il faut trouver la leçon ailleurs : le rendez-vous manqué entre une
innovation médicale et son acceptation par la société.
Il y eut les premiers manquements à l’éthique, qui renforcèrent les
convictions des adversaires de telles tentatives chez l’homme. Ce fut le cas
de Martin Cline, un chercheur de l’UCLA, la prestigieuse université
californienne de Los Angeles, qui tenta en 1980 de traiter par thérapie
génique deux patients atteints d’une maladie génétique de l’hémoglobine :
la bêta-thalassémie. Ces malades échappaient à la législation éthique
américaine, l’un se trouvant en Israël où les autorités avaient d’ailleurs
approuvé la démarche, l’autre en Italie, où aucune réglementation ne bridait
ce type d’expérience humaine. La méthode pour traiter ces anomalies
graves des globules rouges procédait d’une stratégie raisonnable : introduire
les gènes normaux dans les cellules de moelle osseuse où se trouvaient les
progéniteurs globulaires, et supposer qu’ils donnent naissance à des
globules rouges sains. Par la capacité permanente des progéniteurs à
produire de tels globules, la maladie serait ainsi guérie. L’hypothèse
paraissait scientifiquement pertinente, même si les techniques pour faire
pénétrer l’ADN dans ces cellules médullaires restaient encore peu
performantes. Aucune amélioration ne fut cependant constatée après les
premières tentatives, ce qui ne semblait pas une surprise pour un essai
princeps dont le transfert de gènes devait assurément rester limité. Mais il y
eut d’autres retombées, éthiques celle-là, car si Cline s’était bien assuré
d’informer les patients du risque encouru, il s’était cependant gardé
d’indiquer une modification méthodologique de dernier instant, qui lui
faisait utiliser des gènes de globine clonés, technologie récemment acquise.
Pour Cline, il s’agissait de sauter un pas, et de franchir par ce changement
de protocole quelques étapes scientifiques. Il eut beaucoup plus de mal à
surmonter les étapes médiatiques. En effet le changement de technique
génétique, au demeurant rationnel, apparut aux adversaires de telles
innovations comme un abandon pur et simple des règles normales de
l’éthique. L’expérimentation fut l’objet de controverses houleuses, et Cline
celui d’un lynchage médiatique qui conduisit à sa révocation de ses
fonctions hospitalières et universitaires, et à l’annulation de ses contrats de
recherche.
Il y eut les premiers accidents. Même si pendant longtemps l’efficacité
semblait loin d’être démontrée, les effets secondaires, que l’on rapprochait
de ce fait, semblaient très faibles. Aussi, la découverte du premier décès lié
à une tentative de thérapie génique fut un coup de tonnerre dans un ciel
encore serein et en même temps mit un temps d’arrêt provisoire à de telles
innovations. La mort d’un jeune homme, Jesse Gelsinger, défraya la
chronique. Ce patient était atteint d’un déficit enzymatique, une déficience
en ornithine transcarbaylase (OTC) qui sert à l’élimination de
l’ammoniaque. Dans sa forme grave, une telle anomalie entraîne le décès du
nouveau-né quelques semaines après sa naissance. Ce n’est pas toujours le
cas, car il y a des déficits partiels compatibles avec une vie presque normale
à condition de suivre un régime strict et de prendre régulièrement des
médicaments palliatifs. Cela nécessite une grande rigueur et le respect
d’une discipline stricte, ce qui n’était pas le cas de ce jeune garçon de
18 ans, qui avait fait preuve de plusieurs manquements à une telle hygiène.
L’année précédente, il avait même subi les conséquences de sa non-
observance. On l’avait sauvé de justesse d’un coma avec arrêt respiratoire.
Cette circonstance le poussa-t-elle à se porter candidat pour un essai de
thérapie génique susceptible de le guérir ? Sans doute. À moins que ce ne
fût à mettre sur le compte de son ardeur juvénile et de son goût du risque.
Quoi qu’il en soit, il se prêta à une épreuve qui devait lui apporter l’enzyme
déficiente grâce à un virus dont le génome avait été modifié pour porter la
séquence correctrice de l’enzyme OTC. Un virus, tel était le problème. Il
s’agissait d’inoculer une souche d’un adénovirus, un agent infectieux
apparemment commun, en principe peu pathogène. Pourtant, quelques
volontaires sains qui avaient participé à l’essai avaient montré des réactions
inflammatoires de relative importance, ce qui aurait dû alerter le comité de
surveillance et faire interrompre le traitement. Cela avait été passé sous
silence, tout autant que le décès de deux singes rhésus qui étaient morts à la
suite d’injections de doses élevées de virus. Ces observations n’avaient pas
été consignées dans le formulaire de consentement éclairé que le jeune
homme et ses parents avaient signé avant le début de l’essai. Aucun de ces
signes précurseurs n’avait ainsi été pris en considération et fait interrompre
l’injection qui allait être fatale le 19 septembre 1999. Car quelques heures
après l’introduction de l’échantillon infectieux, le jeune homme est pris
d’hémorragies, sa température s’élève. Il décédera rapidement d’un
collapsus irréversible dans un tableau de défaillance mutiviscérale. La mort
sera imputée à une réaction immunitaire contre le vecteur viral, plus qu’à
celle de l’enzyme, une leçon qui fit prendre en considération la manière
dont les gènes réparateurs devaient être administrés et l’état immunitaire de
ceux qui les recevaient. À cette dramatique occasion, le National Institutes
of Health déclencha une large enquête sur les essais de thérapie génique et
découvrit plus de six cent cinquante effets secondaires qui n’avaient pas fait
l’objet d’un signalement !
Il y eut cependant la première victoire, survenant après plusieurs
centaines de tentatives pour des indications diverses, la plupart se limitant à
des essais préliminaires de preuve de concept dits de phase I, dans le
courant des années 1990. La majorité de ces tentatives de thérapie génique
avait eu lieu aux États-Unis, le Japon occupant une place minime en Asie.
L’Europe effectua plus d’un quart des essais recensés jusqu’aux années
2000. La moitié de ceux-ci fut pratiquée au Royaume-Uni. Or c’est en
France qu’eut lieu la première réussite de thérapie génique dans l’équipe
d’Alain Fischer et Marina Cavazzana. La maladie sélectionnée était un
déficit immunitaire, obligeant les enfants atteints à vivre en milieu stérile
confiné, les fameux bébés-bulles. Le dysfonctionnement immunitaire
portait sur la synthèse d’une protéine indispensable à la fonction des
lymphocytes, une molécule du récepteur à l’antigène appelée gamma C,
dont le gène correspondant est situé sur le chromosome X. L’absence de
synthèse de cette protéine entraîne un défaut de prolifération des cellules
immunitaires, de sorte que le petit malade ne peut résister aux agressions
infectieuses. L’introduction d’un gène normal, permettant à nouveau à ses
cellules de se multiplier, donnerait un avantage sélectif aux cellules ainsi
transformées, par rapport aux cellules déficitaires. Une telle réparation
devait restaurer des réponses anti-infectieuses normales. C’est bien ce qui
eut lieu, après un essai particulièrement bien mené et construit, qui s’était
plié à toutes les étapes réglementaires et éthiques. Dans un premier temps,
le traitement se déroula sans incident. Mieux, les patients traités purent
sortir rapidement de leur confinement stérile, quitter le milieu hospitalier et
réintégrer leur famille. Tout ne fut pas si simple cependant par la suite.
Chez certains malades, les gènes introduits dans les cellules pathologiques
s’intégrèrent malheureusement dans des zones sensibles où se trouvaient
des proto-oncogènes, susceptibles d’être à l’origine du développement d’un
cancer. Normalement inactifs, ces gènes, capables de stimuler des
multiplications cancéreuses, se sont mis à s’exprimer chez certains patients
sous l’effet de la thérapie génique, déclenchant des lymphomes, tumeurs
ganglionnaires. Certes, un tel danger avait été évoqué dès les premières
tentatives de thérapie génique, mais cette probabilité semblait a priori
faible. Le risque était pourtant là. Il devait conduire par la suite à
développer des travaux sur les mécanismes permettant d’effectuer avec
précision l’intégration des gènes thérapeutiques. Si terrible que soit la
survenue de ces complications cancéreuses, qui a notamment conduit à la
mort d’un patient, ces résultats montraient pour la première fois qu’une
modification génomique pouvait chez l’homme restaurer des fonctions
cellulaires normales, et traiter ainsi un déficit héréditaire gravissime.
De la thérapie à l’édition
Quel que soit le vecteur, il restait un problème d’importance, un de ceux
que les ingénieurs connaissent, comment placer aisément la bonne pièce au
bon endroit, le bon gène à la localisation choisie ? Cette stratégie, qui visait
à introduire de façon temporaire ou stable un fragment d’ADN pour qu’il
s’exprime, après intégration ou non dans le génome, pouvait certes
fonctionner, mais n’était pas sans difficulté. Une autre est venue
aujourd’hui prendre sa place. Elle consiste non à remplacer le gène atteint
par un autre, mais à réparer son défaut. Pour en revenir à la mécanique, au
lieu de changer la pièce déficiente et introduire un second exemplaire, il
semblait préférable de la reconstituer. Cela, bien entendu, ne peut se faire
que si une telle opération est possible, ce qui comme tout mécanicien le sait
est rarement le cas.
Or le miracle de l’ADN est qu’il peut être synthétisé. C’est même une
de ses caractéristiques – et vertus – essentielles. C’est une des conditions de
la vie. L’ADN est en effet continuellement soumis à des facteurs qui
l’altèrent. Il subit plus d’un millier de lésions par jour et par cellule dues à
l’environnement intérieur comme extérieur, aux toxiques, ou à des
agressions physiques comme les radiations. Ces dommages auraient
d’importantes conséquences si n’intervenaient pas des processus de
réparation qui, d’ailleurs, dépendent de l’âge de la cellule et des conditions
hormonales ou autres qui l’entourent. Avant cependant d’être reconstitués,
les composants altérés de l’ADN sont préalablement éliminés par
dégradation enzymatique, de sorte qu’un nouveau bras puisse être
synthétisé sans être modifié par des déchets. C’est ainsi cette stratégie de
réparation de l’ADN pathologique qui devint vite prééminente, dès qu’il fut
possible d’introduire dans la cellule un ciseau moléculaire pour exciser le
fragment d’ADN malade, et permettre à l’ADN de se réparer, comme le
ferait une plaie propre convenablement parée. Cette « réécriture » du
matériel génétique s’appelle l’édition. Différentes techniques, au départ
complexes, furent utilisées, dont l’une dite à protéine de doigt de zinc.
Derrière ce qualificatif, se trouve une image, ou plutôt un format, dessinant
une boucle dont la qualité majeure est de se fixer à des séquences
sélectionnées d’ADN. Il existe plus de 900 protéines de cet ordre et autant
de sites de fixation distincts possibles. Transformés en couturiers, les
généticiens disposaient de multiples opportunités de clivage de l’ADN en
lieu choisi. Une technique de cet ordre a montré déjà que la réparation
pouvait s’effectuer après un tel ciblage et, mieux, que la correction d’un
gène atteint pouvait s’ensuivre. Mais ces résultats, au demeurant très
encourageants, sont aujourd’hui dépassés par une nouvelle révolution
technologique, le système CRISPR-Cas9.
CRISPR-Cas9
Derrière ce nom, qui peut paraître à certains étrange, se cache une
enzyme spécialisée capable de couper l’ADN à tout endroit sélectionné.
Véritable couteau suisse comme l’ont appelé les médias, cette nouvelle
technique a été découverte par la Française Emmanuelle Charpentier et
l’Américaine Jennifer Doudna. Elle leur a valu en 2015 le prestigieux prix
Breakthrough créé par les fondateurs de Google et Facebook. En mettant le
génie génétique à la portée de tous, ou presque, cette innovation
moléculaire ouvre la porte à une nouvelle épopée scientifique,
révolutionnant les méthodes appliquées jusque-là à la thérapie génique.
Qu’avaient découvert ces deux chercheurs ? Il faut remonter à 1985
pour trouver la description dans le génome bactérien de curieuses séquences
répétitives d’ADN utilisant les quatre bases adénine, guanine, cytosine,
thymidine pour former des suites dans un sens ou l’autre, pouvant ainsi se
lire indifféremment dans les deux directions, en véritables palindromes. Ces
structures chimiques n’intéressaient pas grand monde jusqu’à ce qu’en 2002
les scientifiques daignent leur donner un nom officiel : CRISPR pour
Clustered Regulatory Interspaced Palindrome Repeat, dénomination plus
que caractérisation fonctionnelle. Leur rôle resta inconnu jusqu’à ce que,
trois ans plus tard, des bio-informaticiens découvrent que les séquences
d’ADN entre ces palindromes provenaient souvent de virus bactériens, les
phages. Il fallut quelques années encore pour que l’on s’aperçoive qu’une
telle conformation palindromique représentait un mode de défense
bactérien. Cette découverte est fascinante car il s’agit bien d’un mécanisme
de défense adaptative chez les bactéries, une propriété qui n’était connue
qu’à un certain stade de l’évolution phylogénétique. Associées à une
enzyme nommée Cas9, des copies des séquences CRISPR éliminaient les
virus en découpant leur ADN. Un tel attelage représente un couteau
moléculaire redoutable pouvant cibler et couper toute séquence génomique
sélectionnée.
Publié dans la revue Science en 2013, le résultat devait rapidement se
diffuser et montrer son application dans des organismes aussi divers que
bactéries, levures, poissons zèbres, rongeurs, jusqu’à une première
application en 2015, chinoise, sur des embryons humains. Bien que non
viables, car présentant un chromosome surnuméraire, les embryons qui
devaient servir à tester la correction d’une anomalie génétique de
l’hémoglobine montrèrent des résultats mitigés. Ils étaient suffisants pour
indiquer qu’une telle technique pouvait s’appliquer à l’embryogenèse et,
par là même, frôler des zones interdites, celles des caractères héréditaires
transmissibles. Pourtant, ces risques de dérive n’ont pas tari les enjeux
financiers de sociétés qui se sont emparées de la technique pour de
multiples applications ni, bien sûr, les utilisations des chercheurs pour les
diverses applications de la thérapie génique au service de l’homme. Il reste
que, si les recherches concernant CRISPR vont vite et suscitent un
incroyable engouement, il faudra s’assurer de leur sécurité. Déjà certaines
publications laissent entendre que le procédé est plus efficace chez des
cellules qui présentent des risques de mutations cancéreuses, sans parler des
erreurs de réparation que l’enzyme peut effectuer. De tels effets indésirables
ne sont pas encore bien évalués et légitiment, malgré le caractère
extraordinaire de cette découverte et de ses applications, de tempérer notre
enthousiasme des premiers jours.
L’homme modifié
par l’environnement
CHAPITRE 5
L’hérédité manquante :
de la génétique à l’épigénétique
Après la caractérisation de ce fameux acide désoxyribonucléique,
l’ADN, qu’un savant anglais, Oswald Avery, avait identifié comme le
composant essentiel des chromosomes, était survenue la découverte
spectaculaire faite par James Watson et Francis Crick en 1953 de sa
structure en double hélice. Avec l’asymétrie des molécules du vivant décrite
par Pasteur, cette spirale formée par deux chaînes latérales reliées l’une à
l’autre par des structures transversales, était venue apporter un nouvel
exemple de l’importance biologique des formes. La structure des molécules
dans l’espace savait rendre compte de leurs fonctions, mais il s’agissait ici
d’un autre déterminisme, la traduction des gènes. D’un coup, la double
hélice qui appartient aujourd’hui à l’histoire des sciences, pour ne pas dire à
sa mythologie, permettait de relier physique, chimie et génétique au cœur
même de l’expression de la vie. Mis sur la voie par la découverte de Linus
Pauling qui montra d’abord l’importance de la structure hélicoïdale de
divers modèles protéiques, Watson et Crick, dans deux articles publiés dans
la revue Nature, décrivirent ainsi ce modèle qui est aujourd’hui le
fondement de notre connaissance et raisonnement en génétique : ils
prouvaient que des bases, composés chimiques d’acide purique et
pyrimidique qui constituent l’ADN, s’apparient de manière complémentaire
comme les barreaux d’une échelle pour lui donner sa forme. Les deux
auteurs signalaient à cette occasion les implications génétiques de cette
structure : les deux chaînes de l’ADN peuvent se séparer et former par
réplication des molécules filles identiques. Un peu de publicité efficace en
particulier au congrès de Cold Springs Harbor durant l’été 1953 et le
modèle est rapidement accepté par la communauté scientifique.
C’est une première dans l’histoire des sciences. La structure de l’ADN a
été déterminée par des déductions purement théoriques sans que les deux
chercheurs aient fait une seule expérience sur la molécule. En revanche, le
chemin qui va conduire de la structure de l’ADN au décryptage du code
génétique sera long et tortueux. C’est à George Gamov, un des pères de la
théorie du Big Bang, et à Francis Crick que l’on devra de comprendre
comment les gènes peuvent être traduits en protéines. Les protéines sont
constituées d’acides aminés. Trois bases de l’ADN, ce qu’on appelle
triplets, suffisent à fournir un code en déterminant un acide aminé. À
chaque acide aminé un triplet. La succession des triplets structurant l’ADN
rend compte des acides aminés qui vont composer les protéines.
Longtemps un mystère a dominé le débat. Comment s’effectue le
passage de l’information entre les chromosomes et le cytoplasme ? Le
concept dominant, tiré des théories de Mendel et de Morgan, expliquait mal
que certains gènes n’agissent qu’à des moments précis de la vie cellulaire.
Certes la forme des ailes de mouche et la couleur de leurs yeux ne se
modifient pas tous les jours, mais comment expliquer la synthèse d’une
enzyme bactérienne sous l’influence du sucre, celle d’une hormone lors de
la grossesse, ou d’un anticorps contre un virus. Les idées les plus folles ont
longtemps circulé dans la première moitié du XXe siècle pour tenter de
donner raison à l’acquisition de caractères génétiques sous l’influence de
l’environnement. Lamarck revint sur le devant de la scène. Il ne séduisait
pas que les scientifiques, certains politiques surent s’emparer du concept.
L’affaire Lyssenko qui défraya la chronique avant la Seconde Guerre
mondiale fut à cet égard exemplaire.
Cette controverse dramatique tint aux principes et recommandations du
savant russe Trofim Denissovitch Lyssenko. Membre de l’académie Lénine
des sciences agronomiques, imposant une ligne scientifique fidèle au
stalinisme triomphant, Lyssenko prônait que le milieu peut transformer
l’hérédité par simple greffe – on en revient aux transplantations ! Cet ancien
fonctionnaire des chemins de fer, reconverti dans l’agriculture, soutenait
que par greffe d’arbres, il était possible d’obtenir des êtres hybrides qui
possèdent tout à la fois le caractère du greffon et du porte-greffe, et peuvent
se reproduire. Et Lyssenko de conclure qu’on pouvait transmettre tout
caractère d’une espèce à l’autre aussi bien par greffe que par voie sexuelle
(la thérapie génique et les organismes génétiquement modifiés n’étaient pas
encore imaginés…). Lyssenko ne s’était d’ailleurs pas arrêté à la greffe dans
son souhait de diriger la nature par l’homme. Dans les années 1920, il avait
prôné des traitements de graines par le froid pour obtenir une floraison
précoce. En proposant de tels axiomes, il pensait modifier la germination
des jeunes plants, dont il voyait la marque d’un changement héréditaire. Ses
idées furent non seulement recommandées, mais imposées dans les
kolkhozes. Ces méthodes dites de vernalisation allaient déboucher sur de
vastes désastres économiques. Les semences pourrissaient et devenaient
inutilisables. Mais son fondement, aussi peu scientifique qu’il était, ne fut
pas remis en cause puisqu’il était dans la ligne du parti : c’est
l’environnement qui fait la graine et le marxisme qui fait l’homme. Le
travail modèle un homme nouveau. Associant marxisme et agrobiologie,
Lyssenko était persuadé que la vernalisation ne se contentait pas de
révolutionner l’agriculture soviétique mais qu’elle allait fonder une
nouvelle théorie de l’idée de l’inné et de l’acquis. Ce faisant, il tentait de
débouter les savants bourgeois et révolutionnaires tenants du
néodarwinisme, les désignant par le terme de « mendelo-morganistes ».
Car Lyssenko ne cherchait pas seulement à alimenter le débat
scientifique par la nouvelle théorie de l’hérédité, il prônait l’élimination
pure et simple de ses adversaires, suivi en cela par le gouvernement qui
décida d’une véritable épuration de ses détracteurs. Un des principaux,
Nikolaï Vavilov, sera arrêté et condamné à mort. Sa peine commuée en
détention à vie, il mourra en prison des suites d’un mauvais traitement.
L’affaire allait dépasser les frontières de l’URSS et fut à l’origine de
nombreux débats où la génétique cédait le pas à la politique. Partisans et
opposants aux théories darwiniennes et à la génétique se disputaient à coups
de débats acerbes et par des prises de position publiques dans les médias.
Dans Les Lettres françaises, Aragon s’enflammera pour cette révolution
scientifique que prônait Lyssenko au nom de l’idéologie marxiste et de ses
préceptes. Ce qu’on pourrait retenir de cette triste histoire, c’est que la
biologie peut conduire au fanatisme doctrinal tout autant qu’à l’inverse !
La polémique, par médias interposés, n’aura pas que des conséquences
littéraires. En tentant de contrer la théorie de l’hérédité de l’acquis, du
moins celle de Lyssenko, les scientifiques se trouvèrent renforcés dans
l’idée qu’on ne peut rendre compte du rôle de l’environnement sans passer
par les chromosomes et que les théories qui le niaient n’étaient plus
adaptées. Cette position rapprochera Jacques Monod et François Jacob, qui
se rencontreront justement pour la première fois lors d’une réunion
publique sur l’affaire Lyssenko, pour mettre en place le fameux modèle de
l’opéron à la fin de 1957. Trois séries de résultats seront publiés dans les
Comptes rendus de l’Académie des sciences en mai 1958, en même temps
e
que naissait la V République. Les deux savants parviennent à
l’identification de deux séries de gènes : des gènes de structure et des gènes
de régulation. Un système de régulation qui dépend de l’environnement
gouverne et même manipule la génétique structurale, base même de la vie.
Un gène de structure peut être inhibé ou activé par l’intermédiaire d’un
gène régulateur, lui-même soumis à l’action du milieu extérieur, et dans le
modèle utilisé par les deux savants, par l’action du sucre sur la production
des enzymes. Dans les chromosomes, des gènes fournissent leurs codes aux
structures des molécules, les autres les contrôlent, permettant ou non leur
expression. Après les acquis de Mendel, la transmission héréditaire des
caractères et leur identification chromosomique, les découvertes de Monod
et Jacob apportent une pierre de taille aux controverses entre Darwin et
Lamarck en les réconciliant.
Le modèle sera complété par la découverte du rôle joué par un second
acide nucléique, l’acide ribonucléique. Une molécule d’acide nucléique qui
ressemble à l’ADN, l’acide ribonucléique, dont la séquence est la copie
conforme de l’ADN, joue un rôle de messager, sort du noyau pour aller
dans le cytoplasme dicter cette synthèse protéique. Avec la découverte de
l’ARN messager qui transfert l’information de l’ADN au ribosome, le
modèle de l’opéron va révolutionner la génétique. L’information se régule
au niveau de la commande par les gènes régulateurs, ou au niveau des effets
par l’ARN messager. C’est toute une conception de la vie qui se trouve
démasquée, celle d’un code et sa régulation, d’une cellule et de sa
sensibilité aux informations qui l’entourent, aux milliers de stimulations de
l’environnement. En cela, le concept rejoint et quelque part annonce les
données de l’épigénétique.
e
Sur la base de ces travaux, la génétique de la fin du XX siècle se voyait
dessiner un double objectif : décrypter le programme génétique et
comprendre la régulation des gènes.
La première tâche fut largement facilitée par les progrès technologiques
qui permirent le séquençage de l’ADN. Un consensus idéologique allait
rapprocher les scientifiques et l’opinion publique pour comprendre les
grands livres de la vie, et le premier d’entre eux celui de l’ADN humain. Le
séquençage de génomes entiers fut probablement le programme le plus
médiatisé et vraisemblablement le plus coûteux de l’histoire de la biologie.
En satisfaisant un vieux fantasme de l’humanité, il mobilisa des efforts
humains et techniques rarement, sinon jamais, autant rassemblés auparavant
pour une tâche unique. Cédant à une méthodologie relativement
réductionniste car se concentrant sur une identification systématique des
gènes, le premier objectif, le séquençage du génome humain, terminé en
2001, fut suivi de celui d’autres espèces souvent utilisées en recherche. Très
riches pour aider à résoudre toutes sortes de questions, notamment celles
concernant l’évolution du vivant, ces séquences restaient cependant
insuffisantes pour en deviner le moteur. La lecture d’un catalogue de pièces
détachées ne permet pas en effet de comprendre le fonctionnement d’une
machine !
Le second grand objectif de la science génétique restait ainsi encore à
atteindre, notamment le rôle de l’environnement, y compris celui de notre
corps et la manière dont nos gènes en subissent le contrôle. Certes, le
modèle de l’opéron fournissait une explication. Avec son habituelle capacité
de généralisation, Monod avait affirmé que ce qui était vrai pour les
bactéries l’était également pour l’éléphant. Tout semblait réglé…
Cependant, tout n’était pas si simple. La sécrétion d’une enzyme
bactérienne était le fruit d’une régulation fine, mais il existe bien d’autres
situations qui restaient difficiles à interpréter par ce seul mécanisme. Cela
est notamment flagrant lors de la constitution ou reconstitution d’un tissu ou
d’un organe, lors du développement de l’embryon pour conduire un fœtus à
l’état d’un homme adulte. De nombreux exemples nous rappellent la
question. Nous naissons toujours avec deux bras et deux jambes. Quel
mécanisme dirige leur croissance ? Nous n’avons pas de mains palmées,
nos nez et oreilles ont des formes particulières. Comment expliquer qu’elles
les conservent ? Au cours de notre vie, les cellules de nos tissus, de nos
organes meurent, chacune à leur rythme, mais sont continuellement
remplacées. Ainsi, nous produisons chaque jour plusieurs millions de
globules rouges pour en permettre un taux constant dans la circulation
sanguine à la place de ceux plus âgés qui disparaissent. Leur nombre doit
être stable pour assurer le transport d’oxygène que notre poumon a capté.
Dans ce cas, comme pour tous les tissus, les cellules souches dont nous
avons parlé se différencient en se multipliant, et ainsi se régénèrent
continuellement. À chacun son rythme, sa fonction, sa localisation, sa
destinée. Or la génétique moléculaire devait montrer que si les cellules
étaient capables de se différencier, ce phénomène était dû à l’expression
sélective et ordonnée de certains gènes. Tous ne s’expriment pas de manière
identique, ni au même moment au cours du développement. Il fallait
imaginer une information qui les contrôle, évoquer un programme qui
induise l’activation et l’inactivation de gènes en cascade, capable de guider
avec une telle précision le comportement des cellules pour en permettre la
formation de nouvelles, comme un chef d’orchestre lit une partition pour
diriger et conduire ses musiciens. Il apparaissait nécessaire de comprendre
qu’un tel programme soit si reproductible, d’une cellule à l’autre, d’un
individu à l’autre. L’exécution ordonnée de telles instructions ne pouvait
correspondre qu’à une régulation de haute précision. L’épigénétique se
devait de naître.
« Chaque œuf contient donc, dans les chromosomes issus de ses
parents, tout son propre avenir, les étapes de son développement, la forme et
les propriétés de l’être qui en émergera », écrivait François Jacob. Quel est
l’ordre fondé sur le désordre ? En cela, même si le modèle de l’opéron
rejoint cette nouvelle science, on peut comprendre que des chercheurs aient
considéré que la molécule d’ADN ne pouvait être le seul support de
l’hérédité. Il est difficile d’expliquer en effet qu’avec des génomes
identiques les différentes cellules d’un individu qui possède toutes les
mêmes séquences de 3 milliards de nucléotides, à de très rares variations
près, développent des caractères aussi différents que ceux de neurones,
cellules du pancréas, de la peau ou des muscles. Les gènes étant les mêmes
dans toutes les cellules de l’organisme, ne peuvent coder eux-mêmes pour
ce qui les différentie. Pour être identiques entre elles, les cellules d’un tissu,
lorsqu’elles se multiplient, doivent conserver la mémoire de l’état d’activité
de leurs gènes, tels qu’ils s’expriment avant une division cellulaire. Quelle
est ainsi l’instruction qui les active ou les inhibe, portée au cours de ces
divisions cellulaires et notamment lors du développement pour permettre un
homme et les organes qui le composent ?
scientifique.
e
Jusqu’à la fin du XVIII siècle la préformation fut une théorie dominante
opposant alors des scientifiques renommés comme Antoni Van
Leeuwenhoek, un des premiers utilisateurs du microscope, Lazzaro
Spallanzani, pionnier de l’expérimentation en biologie, et les membres du
clergé qui voyaient ainsi l’œuvre de Dieu, à Pierre Louis Maupertuis et
Georges-Louis Buffon, partisans de l’épigenèse. Les progrès de la
microscopie allaient donner raison à ces derniers. Il fallut attendre
e
cependant la première moitié du XX siècle, et sans doute allier la
philosophie à la science, pour attacher les termes d’épigenèse et de
génétique, en désignant de ce nouveau nom les caractères par lesquels les
gènes transmettent les caractères au fil des divisions cellulaires ou des
générations successives sans faire appel à d’éventuelles mutations de
l’ADN. Le séquençage des génomes devait en effet le révéler avec éclat. La
connaissance de l’ADN ne pouvait suffire à expliquer comment les gènes
fonctionnent pour constituer un organe. Cette notion n’est-elle pas d’ailleurs
prévisible ?
Pourtant, malgré ces relatives évidences, renforcées au fur et à mesure
du décryptage du code génétique, ce concept d’épigénétique allait un temps
tomber en déshérence pour renaître dans les années 1980 d’une nouvelle
modernité. On doit cette résurrection à Robin Holliday, un chercheur
australien, qui nota que les effets des changements de caractères transmis au
fil des divisions cellulaires semblaient trop fréquents pour être expliqués
par des mutations. Un fait de plus devait intriguer Holliday : lors de cette
transmission génétique certaines modifications de l’ADN n’affectaient pas
la séquence des nucléotides mais bien plutôt leur fonction, confortant ainsi
la notion que le message peut être changé sans que soit en cause la structure
de l’ADN. Une des prises de conscience d’hérédité épigénétique provient
également d’expériences faites sur des embryons de souris. Au début des
années 1980, les équipes de Davor Solter et Azim Surani, deux
embryologistes, ont réalisé des greffes de noyaux cellulaires dans des
ovocytes en leur apportant uniquement le génome du père ou de la mère à
un stade où ils sont encore distincts. Le nombre de chromosomes était
identique et correct, mais ne provenait que d’un seul parent, paternel ou
maternel. Or, dans les deux cas monoparentaux, les ovocytes ne pouvaient
se développer normalement, tandis que les ovocytes ayant reçu une greffe
des deux parents se différenciaient parfaitement. La différence entre ces
trois types d’ovocytes ne pouvait cependant être génétique : les gènes
étaient les mêmes, seule leur origine parentale différait. Il fallait imaginer
une sorte d’empreinte sur les gènes de l’un ou l’autre des parents, et cela de
manière différente selon qu’ils provenaient de mâles ou de femelles. Le plus
extraordinaire était que l’hérédité semblait impossible sans des mécanismes
épigénétiques. D’autres expériences effectuées par Waddington renvoient
au même phénomène. Des mouches qui ont subi un stress thermique
transitoire ayant induit une malformation de leurs ailes, peuvent transmettre
ces caractères aux générations suivantes, une hérédité ainsi acquise par
l’environnement. Tous les phénomènes acquis ne sont cependant pas
transmissibles. Si l’on coupe la queue des rats, les générations suivantes
n’ont pas des queues raccourcies ! Quel est l’acquis transmissible qui
s’incorpore à l’inné ? Que peut-on induire ou prévenir ?
Depuis quelques années, un certain nombre de travaux tentent de
recueillir des observations sur ce phénomène : l’effet héréditaire de
l’environnement. Ainsi, en comparant l’incidence du diabète en Suède entre
e e
la fin du XIX siècle et du XX , des auteurs ont suivi l’effet des bonnes ou
mauvaises récoltes sur le risque de développement du diabète plusieurs
générations plus tard. Ils allaient montrer qu’il était quatre fois plus élevé
chez les petits-enfants de ceux qui avaient bénéficié d’un bon état
nutritionnel.
Un des défis de l’épigénétique, non des moindres, renvoie ainsi aux
théories de l’évolution. Tandis que le génome est figé, sauf si des mutations
surviennent, l’épigénétique en façonne l’expression. Certes, le séquençage
des génomes n’a pas tout dit et encore moins décrit. Chacun veut connaître
son génome, d’ailleurs accessible à petit prix. Des industriels comme
Google en font publicité. Les kits de 23andMe en sont un bon exemple. La
médecine de précision est sur toutes les lèvres, dans tous les esprits. On
veut aller plus loin que la taille et la couleur des yeux, disséquer ses gènes,
décrypter ses caractères. Pourtant, il y a bien d’autres inconnues qui portent
sur leurs mécanismes de régulation. Certaines paraissent encore du domaine
fondamental et relever de la simple connaissance sur les lois du vivant.
Ainsi, comment, au sein d’une même cellule, seuls certains gènes
expriment ? À quel mécanisme doit-on ce phénomène ? Plus étonnant
encore sans doute, comment la cellule en conserve la mémoire alors que les
conditions qui en furent à l’origine ont déjà depuis longtemps disparu ?
Peut-on changer même cette programmation ? S’appliquant à la science du
développement des cellules et des organes, et plus largement de l’individu,
ces questions, qui semblent conduire à d’autres réponses et à d’autres
mécanismes que le modèle de l’opéron, nous invitent à regarder d’autres
horizons, à mieux comprendre le poids et fardeau de l’environnement sur le
fonctionnement de nos gènes. L’écologie rejoint la génétique.
L’épigénétique est le chaînon manquant. Le décryptage des mécanismes qui
la gouvernent est sans doute un des plus importants enjeux pour savoir
comment l’homme est modifié par ce qui l’entoure, comment le milieu
intérieur dans lequel baignent nos organes influence leurs fonctions,
comment l’un et l’autre modulent le comportement des individus, l’avenir
des générations futures. Une nouvelle boîte de Pandore s’ouvre sous nos
yeux.
Clés et serrure
La notion qu’un gène peut être allumé ou éteint ouvre de nouvelles
perspectives pour tenter de modifier l’homme. Encore faut-il en
comprendre le mécanisme. Une partie des réponses tient à l’organisation de
notre génome au sein des cellules, l’autre à l’identification des facteurs qui
en modulent l’expression.
Le génome chez tous les organismes eucaryotes, profondément encastré
dans la cellule au cœur d’un noyau, lui-même entouré de cytoplasme, est
associé à une multitude de protéines. Ces protéines et les molécules d’ADN
forment une structure nucléoprotéique qu’on appelle chromatine, décrite
pour la première fois en 1928 par un Allemand, Emil Heitz. Elle est ainsi
appelée parce qu’elle prend les colorants basiques. La chromatine est une
sorte de coque au sein de laquelle l’ADN est compacté en s’enroulant
autour de bobines : les histones. Il existe deux formes de chromatine, l’une
condensée fermant l’accès aux gènes, l’autre, ouverte, leur facilitant cet
accès. Cet aspect ayant été négligé, la chromatine a longtemps été perçue
comme une seule structure d’empaquetage du génome dans un espace
confiné du noyau, lui confiant un rôle passif, pour ne pas dire mineur.
Pourtant le génome fait 2 mètres de long tandis que le noyau mesure
10 microns !
Mon internat en médecine m’avait rapproché du microscope. J’étais
alors très intrigué par ce double aspect de la chromatine, qui me semblait
cacher un des grands secrets cellulaires. La correspondance, limitée
cependant à la cytologie, entre cette chromatine condensée et lâche ne
cessait de m’intéresser et m’apparaissait propice à mieux faire comprendre
le fonctionnement des noyaux des cellules que j’étudiais alors : les
lymphocytes. Courbé des après-midi autour d’expériences, aujourd’hui
lointaines, qui m’ont conduit par la suite vers la génétique, je tentais de
décrypter le rôle de la chromatine en quantifiant sa forme. L’intérêt n’était
pas des moindres car on sait maintenant que la chromatine joue un rôle
dominant, voire déterminant, dans l’accessibilité à l’information génétique,
à la manière très particulière, sorte de mémoire, qui ordonne ainsi
l’expression différentielle des gènes à travers les divisions cellulaires.
Dans les années 1990, les travaux d’une série de scientifiques devaient
suggérer de nouvelles hypothèses sur l’expression des gènes, en montrant
comment le contexte chromatinien dans lequel se trouvent ceux-ci, et leur
position dans le noyau, pouvait influencer leurs expressions. Il devenait
progressivement évident que l’épigénétique avait une importance majeure,
que son rôle s’effectuait avec parcimonie, pour ne pas dire précision. Les
gènes n’étaient pas placés au hasard dans les tiroirs de cette sorte d’armoire
qui était la chromatine. Ils étaient bien rangés. Leur accessibilité permettait
de prévoir leur fonction et leur sensibilité à différents facteurs qui pouvaient
les inactiver ou bien, au contraire, les rendre fonctionnels. L’image des clés
et serrures appartient au lexique des théories de la biologie moléculaire.
Chaque tiroir est fermé par une clé. C’est la modification de la chromatine
qui permet de faire fonctionner le gène en le sortant de son isolement ou
bien au contraire en l’emprisonnant dans un tiroir fermé à clé. L’image nous
entraîne cependant plus loin que celle d’une clé, serrure, et tiroir. Quelle est
la main qui tourne la clé et quelle est la clé qui ferme le tiroir ? Une fois
défini le rôle de la chromatine rangeant soigneusement nos gènes selon
qu’il est nécessaire de les exprimer ou non, cette main n’est-elle pas elle-
même ce qu’on appelle l’environnement, le milieu extérieur ou intérieur,
aussi divers que les lumières, les bruits… ou encore les couleurs d’un
tableau. Je ne sais plus où en était mon père. Et quel était son geste mais le
tableau prenait forme, et l’on pouvait se demander alors si l’état de nos
rétines et les gènes de notre cerveau pouvaient en tirer parti. La main…
mais qui était la clé ?
La bibliothèque de nos gènes fonctionnels, qui ne sont qu’au nombre de
20 000, est relativement petite. Or l’examen de notre patrimoine génétique
fait apparaître un point remarquable et intrigant : la partie que nous
associons à ce qui nous rend humain, celle qui est traduite en protéines,
n’occupe que 1,5 % de l’ensemble de l’ADN qui comprend d’autres
composants. Dans les années 1950, Barbara McClintock, pionnière de
l’étude du maïs et futur prix Nobel, devait découvrir l’existence de
transposons, gènes sauteurs qui peuvent passer d’un chromosome à l’autre.
Ces gènes sauteurs se trouvent dans toutes les branches de la vie. Très actifs
lors des premiers stades de l’évolution des primates, leur fonction cessa il y
a 37 millions d’années avec leur extinction en masse chez nos ancêtres
anthropoïdes. Ils représentent 45 % du génome humain. Barbara
McClintock proposa que ce mécanisme de transposition de gènes, qui
pouvait s’effectuer sur plusieurs générations, était à l’origine de la
régulation génétique. Si cette hypothèse, le rôle des transposons sur la
fonction génique, s’est révélée fausse, sa vision restait juste, puisqu’il s’est
avéré que des éléments de contrôle modifiaient l’activation des gènes.
Il fallut attendre le début des années 1970 pour découvrir l’un des
principaux processus qui réduisaient ceux-ci au silence : leur méthylation.
Pour qu’un gène conduise à la synthèse d’une molécule, il doit être
lisible et accessible à différents complexes protéiques capables d’intervenir
dans ce processus. Or la méthylation de l’ADN, substitution d’un groupe
chimique sur certaines bases nucléiques, empêche l’accès de ces complexes
protéiques à l’hélice et conduit ainsi à l’inactivation des gènes concernés.
La méthylation de la chromatine elle-même, modifiant l’empaquetage de la
molécule d’ADN, favorise ou non son accessibilité. On en revient ainsi au
tiroir. Celui-ci peut être ouvert ou fermé par cette clé chimique qu’est la
méthylation qui, en définitive, favorise ou non la lecture du code génétique.
De telles modifications sont transmissibles de cellule à cellule au cours de
leurs divisions. Ce phénomène est particulièrement important lors du
développement embryonnaire. Au sein de l’embryon, les cellules sont bien
identiques au départ. Elles vont par la suite se différencier pour donner
naissance aux différents tissus : foie, pancréas, muscle, tube digestif, etc. Or
ce sont de tels phénomènes de méthylation – ou de méthylation lors des
étapes précoces du développement – qui, entre autres mécanismes
biochimiques, sont responsables de l’activation ou d’une activation de
certains gènes afin de donner naissance à ces différents organes. La
transmission n’est pas seulement celle de marqueurs épigénétiques au
niveau cellulaire lors de la création de certains tissus et organes ; un tel
mécanisme est héréditaire. Certains caractères épigénétiques peuvent passer
à la descendance, notamment des plantes. Bien que ce mode de
transmission génétique soit plus modeste chez les mammifères, il est
démontré que c’est un tel phénomène de méthylation qui influence la
couleur de pelage et inhibe la fonction de certains gènes de l’un ou l’autre
des chromosomes X, se transmettant d’une génération à l’autre. La
méthylation de l’ADN est l’acteur majeur de la mise en place de
l’empreinte parentale, expliquant qu’un phénotype puisse ainsi dépendre de
l’un ou l’autre parent. Ce processus chimique est ubiquitaire et nous renvoie
à nos origines : il semble s’agir d’un mécanisme très ancien, utilisé
notamment pour inhiber l’expression de génomes étrangers, viraux ou
bactériens, ayant pénétré dans la cellule, avant de progressivement s’adapter
au contrôle des gènes parentaux. Ce n’est d’ailleurs pas le seul mécanisme
qui, sorte de glue, vient modifier le code génétique. D’autres processus
chimiques, telle l’acétylation, changent la forme des histones. À la
différence des précédents, ils favorisent l’accès aux gènes qui y sont
enroulés : ils ouvrent le tiroir de la chromatine.
Pour bien comprendre l’effet d’une telle alchimie, et ne pas se contenter
d’une lecture abstraite de nos gènes qui nous éloigne de la vraie vie, il faut
en revenir aux abeilles. Alors que la reine et les ouvrières possèdent les
mêmes gènes, donc les mêmes séquences d’ADN, d’importantes différences
sont observées selon leur état de méthylation. Les diverses castes et sous-
castes n’ont pas le même profil, même s’il s’agit d’individus du même âge.
Par son effet sur les gènes, ce processus chimique semble jouer un rôle
majeur sur les abeilles, de leur durée de vie à leurs comportements. Une
preuve expérimentale en est fournie par des protocoles qui diminuent
expérimentalement la méthylation de l’ADN à la période critique de deux-
trois jours de vie larvaire. Les résultats sont spectaculaires : ce procédé
entraîne l’abeille vers un phénotype de reine bien qu’elle ne soit pas nourrie
de gelée royale. La nourriture naturelle semble donc avoir les mêmes effets
que la chimie de laboratoire sur leur ADN. Fait remarquable, bien
qu’attendu si l’on fait référence à la ruche, cet état est réversible. En 2008,
les équipes australiennes de Sylvain Forêt et Ryszarb Maleszka montrent
qu’il suffit de supprimer la méthylation de larves nourricières pour qu’elles
deviennent butineuses, ou plus encore, celles-ci pouvant se transformer en
reines fécondes.
Les marques épigénétiques se modifient ainsi selon les nécessités de
l’environnement. Son influence, en apparence, ne concerne cependant que
certains gènes connus pour leur association à des changements d’ordre
métabolique, physiologique et neuronal, un fait qui peut expliquer les
différences d’activités endocrines ou nutritionnelles, et celle de l’horloge
circadienne, qui séparent les différentes castes.
Ce que peut retenir de cet exemple un lecteur avisé, est qu’il est
possible de modifier le comportement social et, peut-être plus spectaculaire
encore, la durée de vie, par une simple modification chimique. L’espérance
va plus loin que les Contes de Perrault si tant est que le plaisir reste
culinaire ou dicté par l’envie de gouverner. À moins que l’un ne dépende de
l’autre…
Méthylation… La science de l’acétylation, autre chimie, permet d’aller
plus loin encore, si l’on quitte les abeilles pour les fourmis. Chez ces
dernières, il est possible par une nourriture artificielle appropriée, d’ajouter
un groupe acétyle sur la chromatine de leurs cellules. Lorsque les histones
sont hyperacétylés, les gènes ne sont plus accessibles. Des enzymes
(histones acétyltransférases ou HAT) entraînent ainsi l’activation des gènes
tandis que d’autres (histones désacétylases ou HDAC) ont l’effet inverse.
En inhibant HDAC par produit pharmaceutique, les fourmis soldats se
mettent à chercher de la nourriture tandis qu’avec un inhibiteur de HAT les
ouvrières ne veulent plus faire ce travail. Pour favoriser une ouvrière ou un
soldat, il suffit de contrôler des enzymes. Mettre au pas le soldat ou
l’ouvrier par la chimie d’une enzyme, combien de gouvernements
n’auraient-ils pas souhaité disposer d’un tel pouvoir ?
L’étude de tels mécanismes épigénétiques et de leurs conséquences n’en
est qu’à son début chez l’homme. Les mécanismes de méthylation restent
cependant les mieux étudiés. Ainsi l’équipe de Mario Fraga, un scientifique
espagnol, étudia en 2005 la méthylation de l’ADN à partir des cellules de
40 paires de jumeaux allant de 3 à 74 ans. Ces chercheurs devaient montrer
que les profils étaient quasiment semblables chez les jumeaux les plus
jeunes mais différaient de manière importante chez les sujets plus âgés. De
telles analyses ne se sont pas limitées à la physiologie. Les états de
méthylation de l’ADN ont été étudiés dans nombre de pathologies telles que
le cancer où l’on peut noter l’extinction de certains gènes suppresseurs de
tumeurs, les infections, notamment à Helicobacter, l’agent des ulcères de
l’estomac, ou encore les pathologies liées au stress dont il est rapporté
qu’induit chez l’enfant, il peut avoir encore un effet à l’âge adulte. Quant à
la transmission héréditaire de tels états, des études après chimiothérapie
suggèrent que des effets qualitatifs sur le sperme peuvent être transmis à la
descendance.
Le mal du dehors
Les préoccupations sur l’environnement de l’Homme ne datent pas
d’aujourd’hui, et pour beaucoup d’entre elles, concernent sa santé et son
bien-être. Hippocrate, un des pères de la médecine moderne, insistait déjà
e
au III siècle de notre ère sur le rôle que jouait l’insalubrité dans l’apparition
des maladies. La médecine hippocratique remettait l’individu dans le
contexte du milieu extérieur, reconnaissant que l’alimentation et la qualité
de l’air pouvaient influer sur la santé. La notion de santé environnementale
est devenue aujourd’hui une des préoccupations dominantes de nos
sociétés, en apparence éloignées du rôle de la gelée royale sur l’évolution
des mœurs des abeilles. De nombreuses études cherchent à comprendre
l’influence que des pressions de tous ordres, physiques, chimiques,
biologiques, mais aussi sociales, peuvent avoir sur nos comportements,
notre santé, notre espérance de vie. Cette nouvelle science, associant
écologie et médecine, tente de mieux comprendre l’influence que les
risques environnementaux font courir à l’homme, à son évolution et aux
écosystèmes qui l’entourent. Elle s’appuie sur de nombreuses disciplines.
Ainsi, les progrès de la chimie et de la biochimie ont été cruciaux pour la
détection des molécules toxiques ; la caractérisation de l’eau et des masses
d’air utilisent les méthodes d’étude physiques et mécaniques des fluides, les
progrès de l’étude du climat ont associé des études de pression
atmosphérique au carottage des sols, etc. Au fur et à mesure, l’émergence
des connaissances a conduit à de nouveaux défis pour discerner des
marqueurs d’exposition et rendre compte notamment de l’effet des poisons
sur la biodiversité. Car, portée au grand public par Rachel Carson dans son
livre Printemps silencieux, la pollution est devenue une préoccupation
majeure et a fait comprendre que l’univers des contaminants
environnementaux représentait une véritable jungle qui modifiait la biologie
du vivant. La reconnaissance de tels effets extérieurs sur la physiologie de
l’homme a conduit ainsi un chercheur anglais, Christopher Wild, à proposer
en 2005 le mot d’exposome, pour englober l’ensemble des expositions
subies par un individu au cours de sa vie. Par analogie avec celui de
génome, ce mot, ou plutôt ce concept, regroupe toutes les expositions d’un
sujet, parfois synergiques, que leur nature soit physique (rayonnement
ionisant, chaleur), biologique (virus, bactérie, prions), chimique (plus de
130 000 000 molécules enregistrées en 2017), médicamenteuse, ou sociale
(stress, bruit). L’étude de l’exposome, si l’on considère son approche et la
diversité des signaux, apparaît infiniment plus délicate que celle du
génome. De plus, par définition, sa nature est variable avec le temps.
L’environnement a ses scientifiques pour tenter de définir son influence sur
l’homme. Mais l’actualité prend souvent le pas sur l’expérience. Des
catastrophes telles Seveso ou Tchernobyl, l’influence de mouvements
politiques, culturels, religieux, les réactions des médias, les longues
marches pour l’écologie et leurs plaidoiries, savent souvent mieux que les
chercheurs montrer du doigt le poids et la dangerosité de tel ou tel facteur
environnemental qu’il soit ou non induit par l’homme. Plus que jamais
cependant, les concepts nés des découvertes scientifiques se sont
rapprochés. Dans les laboratoires, les généticiens de l’épigénome côtoient
les biologistes et les biochimistes qui étudient l’exposome.
L’environnement se traduit en intermédiaires métaboliques et génétiques
pour être mieux appréhendé, et sans doute contrôlé. À cet égard, les
perturbateurs endocriniens qui peuvent avoir des conséquences sur la
fertilité font figure d’exemple pour indiquer combien et comment l’homme
peut en être modifié… et son hérédité acquise également.
Les perturbateurs endocriniens sont en effet depuis quelques années au
centre des discussions de ceux que la Santé Environnementale préoccupe.
Un soir à Corte, alors que la route qui borde la ville corse brûlait de
quelques feux liés à une manifestation contre la politique métropolitaine, je
me souviens ainsi d’une conversation à propos des poissons.
« Vous verrez, me disait alors mon interlocuteur, spécialiste du genre, ils
sont au cœur du débat écologique, et montrent autant de signaux
avertisseurs sur les capacités de l’environnement à changer l’individu. La
physiologie hormonale est très sensible. Les habitudes sexuelles des
poissons le démontrent. Mais c’est aussi un sujet de réflexion sur la manière
dont la nature modifie les mœurs. L’épigénétique y a sa part. Renseignez-
vous. »
Je suivis ce conseil et appris ainsi l’extraordinaire influence de
l’environnement sur le sexe des poissons. Plusieurs exemples l’illustrent.
Les barbiers communs sont des poissons de la famille des Serranidae qui
vivent en groupe. Un grand mâle domine un harem de femelles plus petites.
Mais au sein de celles-ci c’est la taille qu’il fait loi. La plus grande domine
les plus petites. La première du classement est la reine. Elle-même est
soumise à un mâle dominant. Mais lorsque celui-ci meurt, la reine change
de sexe et prend sa place tandis que les autres femelles gravissent l’échelle
de la hiérarchie. C’est le stress induit par la relation de dominance qui
bouleverse ainsi le système hormonal. Quand la femelle n’est plus soumise
à un mâle qui cherche à montrer son autorité, son statut, et même son sexe,
l’un dépendant de l’autre, elle en est transformée. En parallèle existe une
atrophie des ovaires et un accroissement des testicules. Étrange loi du
genre !
L’inverse se produit chez les poissons-clowns bien connus pour leur
belle couleur et leur actualité dans les dessins animés. Dans le couple royal,
l’inégalité prime, même si les deux partenaires restent fidèles jusqu’à la
mort. Ici c’est la femelle qui est dominante. À sa mort, le petit mâle dominé
grossit et devient reine à son tour avec disparition des tissus testiculaires.
Dans d’autres circonstances, c’est tout le groupe qui décide du sexe de
certains partenaires. Les poissons de la famille des Cirrhitidae naissent
femelles et peuvent changer de sexe plusieurs fois de suite au gré des
circonstances. Le groupe est un harem de femelles mené par un mâle
dominant. S’il y a trop de femelles, l’un des individus se transforme en
mâle pour féconder celles qui sont délaissées. Mais si son statut est remis en
cause par un de ses congénères puissants, le mâle peut redevenir la femelle
qu’il était à l’origine.
Il n’y a pas que les poissons exotiques qui peuvent changer de sexe sous
la pression de l’environnement : la dorade, le mérou et même le crocodile
peuvent en subir les conséquences. C’est précisément à propos de la
diminution du pénis des alligators de Floride du lac Apopka que Louis
Guillette au début des années 1990 attira l’attention sur les effets toxiques
du DDT. Depuis, de nombreux composés utilisés comme substances
chimiques industrielles ou produits phytosanitaires se sont révélés toxiques
pour l’homme, avec des effets à terme sur la reproduction et sur l’évolution
de l’espèce humaine. Pour beaucoup le risque paraît inacceptable, condition
qui peut paraître paradoxale dans une société dont l’espérance de vie n’a
jamais été si élevée. Précisément parce que le risque paraît évitable, un
principe de précaution demeure, d’autant que des liens entre épigénétique et
pesticides ont été mis en évidence. On en revient ainsi à la méthylation.
Certains toxiques engendrent une telle modification chimique de l’ADN.
L’environnement a ses poisons sur nos programmes de régulation
génétique, nouvelle toxicité de l’hérédité acquise. Très peu d’études
cependant ont étudié directement les profils épigénétiques de la lignée
germinale même si de nombreuses hypothèses documentent de possibles
effets transgénérationnels. L’étude la plus convaincante date de 2005. Elle
montre qu’une exposition de rat à un fongicide induit des anomalies de
spermatogenèse qui peuvent se perpétuer sur plusieurs générations.
Au cours de l’évolution de l’humanité, jamais l’environnement et la
santé des populations ne se sont autant modifiés. En quelques dizaines de
générations, l’homme a laissé son empreinte sur la planète plus que ne
l’avaient fait des milliers d’années antérieures. La révolution industrielle a
marqué l’homme car celle-ci lui a donné le pouvoir de changer la nature et
avec elle sa propre évolution. Le manque d’hygiène des âges antérieurs
cachait la pollution. L’Antiquité ne connaissait que quelques poisons. Il a
fallu attendre la révolution pastorienne pour mieux connaître le rôle des
microbes. Mais la révolution industrielle qui est avant tout celle de l’énergie
a fait plus pour la pollution de l’air que les cuissons des gibiers au feu de
bois. Avec la découverte des antibiotiques, des matériaux plastiques, des
pesticides, la pollution chimique, quasi inexistante au début du XIXe siècle, a
atteint des milliers de tonnes par an dans les années 1930, près de 1 milliard
de tonnes entre 1930 et 1990, et ne cesse d’augmenter. Des centaines de
milliers de substances chimiques nouvelles se trouvent dans notre
organisme et impactent, ou risquent d’impacter, le contrôle de nos gènes par
l’épigénétique. En même temps, c’est la révolution industrielle qui a permis
la maîtrise des dangers infectieux, a modifié nos villes, permis les moyens
de communication, changé nos sociétés. Paradoxalement, l’environnement
s’est plus que jamais imposé comme un facteur d’évolution en conduisant
l’espèce humaine à s’y adapter. Bien qu’imparfaitement connu, on
commence à percevoir les empreintes qu’il pourrait jouer sur les gènes par
le contrôle qu’exercent sur leurs fonctions les acteurs de l’épigénétique.
Nos gènes ont eu à composer, parfois aux dépens de notre santé. Ceux qui
favorisaient par exemple la captation du sel ou le stockage du sucre dans un
environnement qui en manquait, portent en eux le message des risques
d’hypertension ou de diabète dans le milieu qui en est trop riche. Les grands
systèmes de l’organisme, immunitaire, endocrinien, cardio-vasculaire,
respiratoire, reçoivent l’empreinte de ce milieu où ils baignent grâce au rôle
qu’il joue sur l’expression génique. Si l’environnement sélectionne les
individus qui ont le plus de chance de mieux se reproduire, c’est ainsi parce
qu’il nous fait évoluer afin d’en être compatible. À nous de comprendre le
rôle de l’épigénétique, des facteurs qui la gouvernent, méthylation,
acétylation, micro-ARN ou autres, afin de l’employer au mieux pour
maîtriser l’évolution de l’homme.
Mon père avait fini son tableau, plongeant une dernière fois son pinceau
dans une bassine colorée et traversant la toile d’un bleu azur par un geste
qui voulait rejoindre l’horizon.
« Je préfère me laisser guider par l’émotion, dit-il en guise de
conclusion, plus que par la méthylation de mes gènes. » Il devait mourir
quelques années plus tard emporté par un cancer, dont mes collègues
pensaient qu’il était dû aux vapeurs du white-spirit. Je me prends souvent à
penser qu’à contempler les milliers de toiles qu’il a peintes, c’est pourtant la
couleur de ses tableaux qui laisse son empreinte sur mes gènes, en espérant
que celle-ci puisse se transmettre.
CHAPITRE 6
Modifier le microbiote,
changer l’homme
L’homme peut moduler sa flore intestinale de différentes manières.
Celle-ci dépend en premier lieu de la qualité de l’alimentation. Une
expérience publiée en 2014 dans la revue Nature montre que le passage
d’un régime alimentaire carné à un régime exclusivement basé sur des
végétaux peut dans un délai bref modifier profondément le microbiote.
Ainsi, une alimentation d’origine animale plus riche en graisses et avec
moins de fibres réduit le nombre de bactéries firmicutes qui métabolisent
habituellement les sucres végétaux et les fibres alimentaires. Les plats
savoureux que nous mangeons n’ont pas pour seule vertu de plaire à notre
palais, ils nourrissent des milliards de bactéries symbiotiques. Les Japonais
par exemple digèrent les algues, éléments habituels de leur régime
alimentaire, grâce à des enzymes spécifiques produites par certaines
bactéries de leur microbiote. Celles-ci ont acquis cette propriété il y a
plusieurs milliards d’années en intégrant des gènes de bactéries marines. La
flore intestinale s’adapte à notre alimentation et réciproquement. La carotte
qui me rend aimable fait peut-être référence au rôle de bactéries
commensales sur notre comportement.
Les aliments fermentés apportent l’essentiel des microbes qui colonisent
nos intestins. La production de produits laitiers et avec eux l’envahissement
de notre microbiote par des bactéries et levures qui les fermentent, date de
près de six mille ans, comme les premières évidences de consommation de
vin à partir des vignes de Géorgie. Mais la fermentation qui se produit
spontanément est sans doute apparue à l’homme de nombreuses fois avant
qu’il apprenne à en contrôler le processus. Le nombre de laits fermentés est
aussi vaste que celui des animaux qui le produisent. Entre vaches, brebis,
buffles, il existe pas moins de 400 sources de laits différents traditionnels,
ou maintenant industriels. En réalité, la consommation de produits
fermentés doit autant sa persistance à travers les âges à leur goût ou leur
vertu thérapeutique, qu’à l’une de leurs principales caractéristiques : la
conservation des aliments. Salage, saumurage, confinage, fumage, voire
pasteurisation et maintenant stérilisation, les techniques de conservation des
produits alimentaires sont légion. La fermentation occupe une place de
choix parmi celles-ci car elle utilise un microbiote approprié à notre
écosystème intestinal tout en protégeant l’aliment d’une prolifération
microbienne indésirable. Elle maintient les fibres alimentaires et empêche
la putréfaction. Ainsi, le lactose du lait est transformé en acide lactique
mieux toléré par l’organisme. La fermentation du mannose par rouissage
permet d’éliminer l’acide cyanhydrique, composé hautement toxique. En
Asie, la fermentation du soja détruit les bactéries nocives. Absorbant les
microbes alimentaires pendant des siècles, l’homme était toutefois loin d’en
avoir conscience et encore moins d’en faire une prescription contrôlée. La
pullulation microbienne a fait des aliments et des boissons obtenus par
fermentation ses premiers apports microbiotiques. Dès qu’il comprit qu’on
pouvait agir sur la flore intestinale par l’absorption de bactéries contrôlées,
l’homme inventa les probiotiques.
Probiotiques et autres
Selon une définition de l’OMS, le terme désigne des « micro-
organismes vivants qui, lorsqu’ils sont ingérés en quantité suffisante,
exercent des effets positifs sur la santé au-delà des effets nutritionnels
traditionnels ». Un des premiers pionniers découvreurs de probiotiques fut
Joseph Lister qui cultiva à partir du lait un isolat de Lactobacillus lacis. En
1917, lors de la Première Guerre mondiale, Alfred Nissle reconnut dans les
selles d’un vaillant officier allemand une souche d’Escherichia coli, à
laquelle il donna son nom, qui semblait protéger des gastro-entérites et
depuis près de cent ans est prescrite dans la prévention des troubles gastro-
intestinaux.
S’ensuivit une série d’autres observations à l’origine de probiotiques de
diverses natures, depuis l’emmental suisse jusqu’aux levures des litchis, une
découverte du Français Henri Boulard en 1920. Celui-ci avait remarqué que
les populations d’Asie du Sud-Est mâchaient la peau de litchis et de
mangoustiers pour contrôler les diarrhées. Sous diverses appellations, cette
bactérie fit le tour du monde, notamment pour prévenir les troubles digestifs
après antibiothérapie. Outre ceux-ci, il existe ainsi de nombreux
probiotiques qui se concurrencent par leurs bienfaits sur la santé et leur
performance intestinale. Certaines espèces sont de vrais commensaux,
tandis que d’autres font partie d’un microbiome transitoire et ne restent que
peu de temps dans le tube digestif. Si de nombreux candidats entrent ainsi
dans la composition de poudres ou capsules, peu ont fait preuve de leur
efficacité, au demeurant difficile à mesurer et apprécier. Ces bactéries
doivent en effet non seulement être en nombre suffisant pour espérer
ensemencer l’intestin, mais résister à l’environnement hostile de l’estomac,
du duodénum, affronter le stress hydrique, physique, chimique, notamment
l’acidité, la pepsine gastrique, les enzymes de la bile. Il faut ainsi prouver
que la greffe a pris, et s’appuyer sur ses caractéristiques pour en mesurer
l’effet, qu’il s’agisse d’agir en facteur trophique pour l’intestin, de stimuler
les capacités immunitaires, ou de permettre la prolifération de populations
sélectionnées pour des vertus particulières contre certaines pathologies
qu’elles soient infectieuses, cancéreuses ou métaboliques.
Les probiotiques de seconde génération, choisis pour le rôle qu’ils
peuvent jouer en physiopathologie, font aujourd’hui l’objet d’études
cliniques, qui tentent d’apprécier leur impact en santé. Même si celui-ci
reste encore faible si on le compare à celui de l’alimentation et des
antibiotiques sur le microbiote, des recherches en cours qui permettent de
rationaliser l’emploi de nouvelles générations de microbes sur la prévention
et le traitement des maladies non transmissibles de l’homme sont porteuses
d’espoir. D’autant qu’il sera possible d’introduire de nouveaux gènes
possédant certaines vertus thérapeutiques, dans les bactéries. Ainsi, une
équipe de l’Université Cornell de New York a modifié le lactobacille du
yaourt pour lui permettre de produire des peptides à fonctions hormonales
luttant contre le diabète. Par ces nouveaux OGM incorporables à l’homme,
la guérison de cette affection métabolique paraît à certains un horizon
envisageable. D’autres moyens peuvent être imaginés comme la vaccination
contre des souches bactériennes identifiées pour leur rôle dans l’apparition
du diabète. Thérapie génique, vaccination, modulation par anticorps
monoclonaux peuvent ainsi modifier nos bactéries commensales et être à
l’origine de thérapies contrôlées pour lutter contre leurs
dysfonctionnements. Dès lors, certaines bactéries pourraient représenter de
nouveaux médicaments biologiques agissant aussi bien contre la flore
naturelle que contre la flore invasive.
À côté des probiotiques, les prébiotiques sont des sucres, qui profitent à
l’homme autant qu’à ses bactéries commensales, et ont pour vertu possible
de moduler les fonctions du microbiote. Aujourd’hui, plus de dix mille
publications ont été consacrées à ces aliments spécifiques de nos bactéries
intestinales, non utilisables par l’hôte humain. Les prébiotiques se trouvent
dans les fruits, légumes, miel, les racines des plantes. L’espèce humaine en
fabrique : 15 à 20 % des sucres du lait maternel ne proviennent pas de la
digestion des aliments. La diversité des microbes s’est adaptée aux
multiples sucres du lait maternel, mais l’inverse est sans doute vrai car les
microbes sont indispensables pour transformer en calories, et donc
sélectionner, de nombreux sucres bénéfiques à l’homme. L’alimentation par
le lait humain et l’utilisation de prébiotiques ont plusieurs avantages. Les
prébiotiques réduisent le nombre de pathogènes comme le montre
l’incidence diminuée des diarrhées infectieuses et la moindre utilisation des
antibiotiques. Cet impact sur le microbiote n’est pas le seul intérêt du lait
pour lutter contre les pathogènes. Les probiotiques du lait humain sont par
eux-mêmes capables de se lier aux récepteurs des cellules intestinales et
d’empêcher certaines bactéries et virus pathogènes tels que salmonelles et
vibrion cholérique de s’y fixer pour attaquer l’organisme.
Les prébiotiques agissent également sur le système immunitaire via
leurs actions sur le microbiote. Quels que soient les mécanismes subtils de
leur activité, ils peuvent en effet agir sur la maturation, l’homéostasie et la
régulation des cellules immunes.
Prébiotiques et probiotiques peuvent également avoir des actions qui se
synergisent ou se complémentent. Ainsi le nouveau-né nourri au sein
absorbe également des bactéries et puise ainsi dans les deux ressources.
Les xénobiotiques désignent les médicaments qui agissent sur la
diversité du microbiote. Celui-ci est à prendre en compte dans l’activité de
médicaments pris par voie orale ou anale, dans leur métabolisme, et en
définitive leur efficacité. L’approche métagénomique, c’est-à-dire la
caractérisation génomique des populations de microbes, devrait apporter
des précisions sur les possibles dégradations des médicaments par les
bactéries commensales, et permettre d’optimiser leur utilisation en
conséquence. Certains souhaiteraient même personnaliser les médicaments
en fonction de la flore digestive, utopie ou ouverture d’un nouveau marché.
Les antibiotiques, qui représentent les principaux xénobiotiques,
agissent directement sur la flore microbienne qu’ils modifient ou détruisent
selon les cas. L’effet peut être rapide et s’observer en quelques jours.
Déséquilibrant le microbiote, ils peuvent avoir un impact sur de nombreuses
maladies, comme l’obésité. Les antibiotiques sont ainsi depuis longtemps
utilisés pour augmenter la croissance et le poids des volailles. Dans les
ventes d’antibiotiques 40 % sont destinés aux élevages de poulets mais
aussi de porcs. Il reste que, comme tout impact d’un médicament ou
toxique, il faut étudier à distance leurs effets. Or, de manière remarquable,
les bactéries réagissent aux antibiotiques en retrouvant la diversité initiale.
Comme le voudrait un état de résilience, les populations de microbes se
réensemencent pour se reconstruire comme à l’origine. En recouvrant la
qualité de la symbiose après antibiotiques, les commensaux reconstituent la
vie avec l’homme, par et pour lui.
Les transplantations fécales sont une autre méthode pour modifier le
microbiote. Transplanter les selles d’un donneur sain à un malade, en lui
injectant beaucoup plus de gènes que n’en compte son propre génome, a de
quoi surprendre. Mais la transplantation fécale est utilisée depuis les temps
les plus anciens, car ce traitement était déjà proposé par les médecins
chinois pour de multiples troubles gastro-intestinaux depuis les premiers
siècles de notre ère. L’Europe n’échappa pas à la transplantation de flore
entérique, en partie réservée à la médecine vétérinaire. La coprophagie fut
également pratiquée pendant des siècles par les Bédouins qui avalaient les
selles encore chaudes de leurs chameaux lorsque, au bord des oasis, ils
étaient pris de dysenterie.
Les premières utilisations de transplantation fécale chez l’homme datent
de 1958. Les indications restent limitées aux infections à Clostridium
difficile, bactérie Gram+, qui a la particularité de sporuler, de se disséminer
dans l’environnement, et donne lieu à des gastro-entérites infectieuses
fréquentes en milieu hospitalier. Le principal facteur de survenue de cette
affection est l’utilisation d’antibiotiques qui permettent l’envahissement de
l’intestin par ce bacille. Le contact d’homme à homme fait le reste pour
propager les germes. Leur fréquence et gravité s’observent plus souvent
chez les personnes âgées. Nombre d’études ont confirmé l’efficacité de ce
type de transplantation qui a aujourd’hui ses codes, ses donneurs, ses
techniques. Si ce traitement est actuellement réservé au Clostridium,
l’avenir dira si nombre de maladies liées à des dysfonctionnements du
microbiote, telles que obésité, cancer, allergies, affections auto-immunes ou
inflammatoires, voire autisme, pourront bénéficier de cette nouvelle
thérapie.
En modifiant le microbiote de manière raisonnée par l’une ou l’autre de
ces modalités, probiotiques, prébiotiques, xénobiotiques ou transplantations
fécales, l’homme intervient sur la symbiose indispensable qu’il constitue
avec les microbes. Toutes actions sur les bactéries ou leurs gènes,
retentissent sur lui-même. Nouveau paradigme de la microbiologie, l’étude
de l’écologie microbienne commensale intéresse aujourd’hui l’humain. Les
modifications spontanées ou induites du microbiote rapprochent
l’environnement de l’homme. Il n’y a pas d’homme sans microbes.
Modifier le microbiote c’est changer l’homme.
TROISIÈME PARTIE
L’homme modifié
par la machine
CHAPITRE 7
Deus ex machina
L’œil biotique
La cécité fait partie de l’histoire des hommes et de leurs légendes.
Tirésias, un des interlocuteurs privilégiés d’Ulysse, fut le premier aveugle
de la mythologie grecque. Il devait un tel destin à la vengeance d’une
déesse, Héra, sœur de Zeus, qui partageait avec son frère la souveraineté du
monde. Ce qui n’empêchait pas de tels dieux de se préoccuper d’autres
contingences : Héra soutenait contre Zeus que les femmes, en amour,
avaient moins de plaisir que les hommes. Tirésias, qui en avait l’expérience
pour avoir été pendant sept ans transformé en femme parce qu’il avait
perturbé l’accouplement de deux serpents, se mêla à ses dépens à la
controverse, et prétendit le contraire. Furieuse de voir qu’il avait révélé le
secret de son sexe, la déesse punit le malheureux de cécité, mais Zeus en
compensation lui accorda une seconde vision : le don de prophétie. Homère,
atteint lui aussi de cécité, le monta aux nues et fit du devin un proche
messager des dieux. Ainsi sont les aveugles, au moins ceux de la littérature
antique. Intermédiaires entre le ciel et la terre, le monde réel et virtuel, celui
de leur vision intérieure, ils sont parés d’autres dons, comme si ce handicap
pouvait décupler leur pouvoir et leur donner cette sagesse que Platon
assimile aux prémices de la raison. Tout regard n’est d’ailleurs pas sans
danger. Orphée perdra Euridyce en se retournant, précipitant son retour au
pays des morts.
Les dieux, déesses et leurs héros sont aujourd’hui en paix et leurs
prouesses oubliées. Les mythes ont fait place à de nouvelles réalités, tout
aussi compétitives cependant, car la cécité offre à la recherche un de ses
plus importants challenges : redonner la vue aux non-voyants. Cela semble
un espoir maintenant possible grâce aux prothèses rétiniennes, autres
formes d’interfaces avec le cerveau.
La plupart des causes de cécité proviennent de la perte des
photorécepteurs, ces cellules sensibles à la lumière qui tapissent la rétine,
membrane située au fond de l’œil, et transforment les photons en influx
nerveux. Un certain nombre de programmes internationaux, associant
laboratoires de recherche et industriels, utilisent divers procédés pour tenter
de pallier les manques de cellules ou leurs défauts, et rendre ainsi une
vision aux aveugles. Un de ceux-ci consiste à connecter un tapis
d’électrodes rétiniennes avec les fibres du nerf optique qui transmet
normalement au cerveau les signaux qu’occasionne la lumière. L’innovation
cherche à remplacer la fonction déficiente, en convertissant les images
générées par l’impact des photons sur la rétine en stimulations neuronales.
Le message électrique ainsi induit doit ensuite rejoindre l’aire visuelle du
cortex, qui normalement reçoit les informations provenant de la rétine.
De tels procédés utilisent des implants oculaires pour corriger la
dégénérescence des cellules rétiniennes. Dans les années 1990, ceux-ci ne
comptaient que 10 à 20 électrodes. Les dispositifs aujourd’hui en
comportent plus de 1 500, un gain certain car la perception est en grande
partie, mais pas seulement, liée au nombre d’électrodes. Diverses sociétés,
américaines, allemandes ou françaises, évaluent ainsi différentes
techniques, selon qu’il s’agit de remplacer l’une ou l’autre des couches de
la rétine. Argus II (États-Unis) et Iris (France) testent des implants placés à
la surface de la rétine. Ils sont en contact avec les cellules ganglionnaires,
derniers maillons de la chaîne de neurones qui transmettent le signal après
la transformation de l’énergie lumineuse en impulsions électriques. La
prothèse visuelle est au cœur d’un dispositif complexe qui capte les images
par des caméras intégrées aux lunettes pour les traduire en influx nerveux.
Une autre stratégie, poursuivie par Retina, l’implant allemand, ne s’adresse
pas aux cellules ganglionnaires mais plus directement à l’insuffisance
fonctionnelle des cellules photoréceptrices et donc non à la transmission du
signal, mais à sa production. Des diodes sensibles à la perception lumineuse
transforment directement la lumière en courant électrique.
Tous ces procédés qui traitent du handicap créé par l’une ou l’autre des
atteintes des couches rétiniennes, sont autant de défis scientifiques,
commerciaux, sociétaux, mais aussi psychologiques. Car la cécité provoque
bien souvent chez les aveugles une certaine forme d’isolement que de telles
prothèses viennent bouleverser. La majorité des informations que nous
recevons sur le monde extérieur et qui alimentent l’énergie de notre
cerveau, passe par la vue. La perte de celle-ci donne toute leur importance
aux autres sens, ouïe, toucher, goût, odorat, qui sont pour le cerveau ses
seuls contacts avec le monde du réel. Les rétines artificielles perturbent un
tel équilibre et nécessitent une forme d’adaptation qu’il faut également
gérer. De plus, si les résultats sont très encourageants, ces procédés restent
encore expérimentaux et ne permettent pas à ce jour de retrouver une vue
normale. Les rétines artificielles envoient certes au cerveau des signaux
électriques, mais la traduction d’une image reste avant tout celle d’une
sensation. Vision n’est pas vue.
D’autres méthodes que celles électriques et mécaniques ont également
été recherchées pour pallier les déficiences des cellules rétiniennes
lorsqu’elles sont dues, non plus à la perte de photorécepteurs, mais à des
mutations de certaines protéines indispensables à leur fonctionnement.
Diverses expériences de thérapie génique chez la souris et le primate ont
ainsi permis la production de molécules critiques pour les activités
rétiniennes, perception des photons ou transformation en signal. Des
résultats encourageants ont montré que les animaux soumis à de telles
tentatives pouvaient reconnaître des objets de leur environnement, ce qui a
fait proposer des essais cliniques chez des patients atteints de cécité
infantile ou de neuropathie optique héréditaire. D’autres procédés
d’implants sont en expérimentation, car pour un tel handicap, l’imagination
n’est pas en reste, la technologie non plus. L’algue verte trouve là peut-être
une de ses plus élégantes approches, car la protéine est directement sensible
à la stimulation lumineuse. Les cellules souches embryonnaires également,
car l’œil est protégé de l’activité du système immunitaire, et ainsi du
phénomène de rejet qui accompagne toute transplantation de cellules
étrangères.
Listen to your eyes
Les sourds bénéficient aussi de technologies innovantes pour pallier
leur handicap. À la différence des prothèses auditives déjà commercialisées,
qui agissent en amont du tympan, les recherches et les avancées portent sur
des implants bioniques. Conceptuellement proches de ceux de l’œil, ils sont
proposés pour remplacer les déficiences des cellules de la cochlée, l’organe
de l’ouïe. Le signal n’est plus ici la lumière mais le son. Il s’agit de le
traduire en énergie, transformant en signaux électriques l’information
mécanique des vibrations acoustiques. Une telle fonction est normalement
assurée par les cellules ciliées, cellules vibratiles qui tapissent la cochlée,
répondent aux sons par les mouvements de leurs cils et stimulent
directement le nerf auditif. Les procédés actuels font appel à des dispositifs
en série pour gagner la cochlée, puis le cerveau : des microphones
extérieurs perçoivent les sons, et les transforment en signaux électriques par
un microprocesseur situé derrière l’oreille. Les stimulations sont ensuite
transmises à un émetteur radio connecté à un implant, qui les achemine à
des électrodes situées sous la cochlée. Ailleurs, le signal électrique est
acheminé, non par des électrodes, mais par un électroaimant qui transmet
ses vibrations ensuite converties en sons par la cochlée. Dans l’un et l’autre
cas, la cochlée reste maîtresse du phénomène. À elle de conduire l’énergie
au cerveau et de rejoindre l’aire du cortex qui analyse et décrypte les
informations auditives.
Dans les concepts et la réflexion de telles recherches, oreilles et yeux
font parfois cause commune. Les aveugles sont entendants. L’idée qu’un
sens puisse remplacer l’autre a ainsi germé dans l’imagination de certains
spécialistes de l’acoustique. De nouveaux outils d’intelligence artificielle se
sont développés pour traduire les sons en images, utiliser les mots pour
stimuler le cortex visuel, donner aux aveugles une perception virtuelle du
monde par l’oreille. Tout l’alphabet peut être codé ainsi et transformé en
autant d’images. L’expérimentation va plus loin que le simple lexique,
puisqu’il s’agit de transformer des sons en signaux optiques. Avec les
variations de la gamme, l’éventail des possibilités est plus large encore et
s’adapte à la multitude des nuances des images. « Listen to your eyes », le
magnifique panneau de néon de Mauricio Nannucci, qui éclaire le Centre de
création contemporaine Olivier Debré de Tours, nous rappelle à nos sens
pour les connecter. Voir par l’oreille ou, pourquoi pas, entendre par l’œil ?
Les mêler à d’autres sens comme le toucher ou l’odorat ? Élargir encore
l’éventail de nos repères émotionnels ?
Le cerveau n’est pas qu’une machine à effectuer des tâches, chacune
indépendamment de l’autre. Il sait connecter les sensations, les additionner,
les intégrer. Dans cette utilisation des cinq sens, l’un par l’autre, l’homme
est en avance sur la machine. Il s’y est déjà substitué. Daniel Kish, aveugle
dès l’âge de 13 mois, surnommé l’homme chauve-souris, se fit connaître
des médias car il pouvait se diriger par le claquement de la langue, se
servant de l’écho comme une méthode d’approche ; un procédé de
géolocalisation que d’autres ont imité par cannes électroniques.
Quelle sorte de réalité virtuelle ressentent les non-voyants ? Comment
apprécient-ils les couleurs chatoyantes de l’automne, les nuances d’un
tableau, les charmes d’un sourire, tandis qu’ils sont à l’affût du toucher, des
sons et des odeurs ? Quelle nouvelle forme d’appréhension du monde du
vivant et des objets ont-ils à travers les quelques signaux que leur donnent
prothèse ou interfaces ? S’agit-il d’une sensation qui vient perturber la leur,
envoyer des signaux déroutants sur les murs de cette vie intérieure, dans le
long parcours du couloir noir ? Sans doute, cette expérience est-elle propre
à chacun, pour s’être fixé les limites de ce territoire de l’obscurité et
construire avec ses autres sens une perception qui vous appartienne. La
machine saura-t-elle assurer d’aussi bonnes connexions entre nos
sensations ? Moduler l’une par l’autre, les remplacer, agrémenter, multiplier
en synergie ou non, bref créer des réseaux entre elles que la nature n’a pas
su ou voulu retenir ?
L’intelligentiel partenaire
La vitesse grand V
En 2010, IBM a vanté les mérites des big data, le recueil de données,
par un slogan mythique : les quatre V, lettre qui illustre les mots de volume,
variété, vitesse et véracité. Les spécialistes définissent de la sorte les
principales qualités des données numériques, leur donnant parfois une
valeur éthique. En réalité, la nécessité d’accumuler autant de données et
ainsi d’avoir à les traiter tient en majeure partie à la découverte de nouvelles
applications. Parmi les principaux facteurs de changement, il faut situer
l’apparition des réseaux sociaux, celle des appareils mobiles intelligents, ou
encore la multiplication des transactions sur Internet.
Le volume apparaît bien sûr comme une des principales caractéristiques
des big data. L’énorme masse de données générées au quotidien en est un
exemple flagrant. Selon IBM, une moyenne de 2 à 3 millions de gigabits
(milliards de millions) sont créés chaque jour. D’année en année, nous
voyons en croître la quantité si bien que l’on prévoit sur l’ensemble de
l’année 2020 une quantité 3 000 fois plus importante qu’en 2005.
Au second V, correspond la vélocité. Les données sont aujourd’hui
collectées d’autant plus rapidement qu’elles sont désormais reçues sous
forme de flux. On parle à présent de « fast data » comme étant l’étape qui
va suivre celle des big data. Il suffit pour s’en convaincre d’examiner
certaines des données que nous utilisons quotidiennement d’un bout à
l’autre de la planète. Plus de 100 capteurs sont capables de mesurer en
temps réel les paramètres de notre voiture, la pression des pneus, la
température de l’habitacle, tandis qu’au New York Stock Exchange (Walls
Street) ce sont un térabit de mesures qui s’échangent à chacun instant.
Reproduisant de manière imagée le réseau de neurones, on peut calculer
qu’il existe 18,9 milliards de connexions en réseau dans le monde, soit 2,5
pour chaque individu sur terre, traquant chacune de nos activités.
Au-delà de la quantité, les données générées sont plus diversifiées que
jamais. Cela tient aux différents usages et usagers d’Internet et du
numérique. Les données elle-mêmes, leur format, les domaines qui les
concernent, sont d’une extraordinaire variété. Ainsi, chiffre impressionnant,
dans le seul secteur de la santé, 420 millions d’objets connectés ont été
dénombrés en 2014, un nombre qui représente autant de capteurs de notre
corps ou à sa disposition, dans un but purement médical, et devrait légitimer
une réflexion. Qui reçoit en traitement ce flux permanent de données ? À
qui en revient la responsabilité médicolégale ? Une nouvelle organisation
est-elle nécessaire ?
Au volume, vélocité, et variété des big data, s’ajoute le mot de véracité.
Ce qualificatif n’est pas des moindres. L’exactitude représente en effet un
des plus grands défis de cette accumulation de données et affecte bien
naturellement la précision des analyses. Or la vérité est loin d’être toujours
respectée. On considère que le manque de qualité des données coûte plus de
3,1 millions de dollars par an aux États-Unis. Il est facile de comprendre
que les données incertaines impactent de nombreuses décisions. De la
qualité des données dépend celle des modèles. Le choix, la nature et la
véracité des données sont fondamentaux pour tout modèle qui en tire un
apprentissage. Si le corpus est pauvre, le modèle obtenu sera médiocre.
L’ordinateur ne ment pas à la différence de l’être humain. La gestion des
biais est cependant critique. L’exemple du Chatbot Tay, un agent
conversationnel développé par Microsoft et lancé par Twitter, est éloquent à
cet égard. Le 23 mars 2010 l’entreprise américaine avait mis en service un
robot censé discuter avec des adolescents de 18 à 24 ans sur des réseaux
sociaux : 98 000 tweets (« gazouillis » en français) ont été ainsi envoyés,
une prouesse inenvisageable à l’époque. Ce programme qui avait pris les
traits d’une adolescente, Tay, se basait sur les données accessibles pour
construire des réponses aux questions des utilisateurs. Elle disposait, au
départ, d’un grand nombre de données fiables rédigées par une équipe
professionnelle et était censée apprendre en discutant avec le réseau. De
façon cependant prévisible, ses interlocuteurs cherchèrent à pousser les
limites de l’expérience. En quelques heures, Tay se mit à répéter des
phrases racistes, énonçait des fausses vérités, affirmant que le président
Bush, en place à l’époque, était responsable du désastre du 11 Septembre,
tandis que Hitler aurait sûrement pu l’éviter. Une surenchère de propos
vulgaires, xénophobes et néonazis a obligé Microsoft à interrompre l’essai.
La machine apprenait les assertions qu’elle recevait et en devenait
dépendante. Le problème ne tenait pas à elle, mais à ses interlocuteurs, et
surtout à ses concepteurs qui avaient prévu un apprentissage par
récompenses, notamment fondées sur les réactions des utilisateurs. Plus le
sujet était polémique, voire politique, plus la machine devenait
intelligente…
Tandis qu’IBM se satisfait des quatre V, IQVIA, la multinationale
américaine au service des industries combinées de la formation sanitaire et
de la recherche clinique, suggère d’aller plus loin dans les obligations de
l’IA. Concernant la santé de l’homme, ses prescriptions sont claires. Il faut
imaginer un vocabulaire unique. Les différences de langage, d’appréciation,
du mode de pensée, de décision, font partie de l’homme, de son charme, de
ses faiblesses et de son intelligence. Mais pour qu’une base de données
puisse conduire à des applications utilisables pour tous, il faut s’assurer
d’une valeur commune. Or de nombreux critères, tels ceux ayant trait à la
biologie, à l’interprétation de leur norme, quand ce n’est pas la norme elle-
même, sont différents entre les pays et nécessitent d’être homogénéisés. Ce
qui nous oppose, nos différences de culture, de vision du monde, de
raisonnement, auxquelles nous confrontent nos histoires et parfois nos
certitudes, doit s’aplanir si l’on veut utiliser ensemble l’intelligence
artificielle comme un bien mondial. Le partage des données implique
qu’elles puissent s’appuyer sur le langage universel. Il faut s’entendre sur le
sens des mots, c’est-à-dire des données. On attend également que les bases
nous permettent de créer de la valeur. Si nous prolongeons notre propre
savoir par celui d’une machine et échangeons avec d’autres, c’est bien pour
en tirer un avantage. Le pari est loin d’être tenu. Une grande hétérogénéité
existe dans la collection de données et dans l’usage des référentiels. Chez
les praticiens du big data 80 % du travail consiste aujourd’hui à réorganiser
les bases.
Enfin, il faut savoir interpréter des bases de données. Les machines ne
sont rien sans l’homme. Elles fournissent les signaux de manière brute
nécessitant de les interpréter. Ce qui relevait autrefois de l’observation,
ressort aujourd’hui d’une vision qui doit permettre de traquer des éléments
inédits. Les données qui, à titre individuel, se stockent sous de multiples
formes, s’accumulent dans des entrepôts. Il faut certainement améliorer
l’interface entre l’homme et la machine pour permettre l’utilisation de
résultats agrégés, faciliter l’exploitation de données ou l’interaction avec les
ressources du Web.
Apprendre
L’IA s’exécute à partir d’algorithmes, un mot qui vient d’un
e
mathématicien perse du IX siècle, Al-Khwarizmi. C’est à ce membre
éminent de la maison la sagesse de Bagdad que l’on doit l’introduction de
l’algèbre en Europe. Pourtant, l’utilisation des algorithmes est bien plus
ancienne, le plus connu étant celui d’Euclide. Babylone en fit un large
usage, ayant à effectuer des calculs aléatoires pour lever et surtout recueillir
les impôts. L’algorithme, ainsi baptisé, représente une suite d’opérations ou
d’instructions pour la construction d’un objet fini, tel le montage d’un
meuble en Kit ou la préparation d’un plat cuisiné à partir de divers
ingrédients. Or les machines automatiques, selon les théories développées
par Turing, doivent être dotées, puis se doter elles-mêmes, de capacité à
apprendre, ce qui revient à acquérir des compétences par un apprentissage
automatique. Cet apprentissage machine à un grand avantage : il évite
d’avoir à traduire toutes les opérations par une programmation qui les
prévoirait. La machine y pourvoit au fur et à mesure du déroulé.
Depuis que l’IA existe, la majorité des efforts des concepteurs a
consisté à améliorer ainsi les techniques d’apprentissage, machine learning
en anglais. Celui-ci s’effectue généralement en deux étapes, l’une pour
estimer un modèle à partir d’observations comme étudier une probabilité,
reconnaître l’image d’un animal ou d’un objet, ou encore effectuer la
conduite d’un véhicule autonome. L’autre pour effectuer une tâche à partir
de nouvelles données ainsi acquises. Des exemples glorieux pour la
machine de tels apprentissages jalonnent histoire de l’IA. En 1959, Arthur
Samuel, qui fut le premier à faire usage de l’expression machine learning,
mit au point un programme pour jouer aux dames. L’automate s’améliorait
progressivement, si bien qu’il parvint à battre le quatrième meilleur joueur
des États-Unis. Une avancée majeure, largement médiatisée, fut le succès
de l’ordinateur développé par IBM, Deep Blue, qui parvint à vaincre le
champion mondial d’échecs Garry Kasparov en 1997. Les plus optimistes
conclurent que la machine avait acquis une capacité de calcul
extraordinaire, mais non une intelligence. Nombreux furent cependant ceux
qui s’en inquiétèrent, pensant que l’on entrait dans une ère de domination
de l’homme, au moins de son intelligence, par la machine. Moins de dix ans
plus tard, un ordinateur dénommé Watson gagnait 1 million de dollars au
célèbre jeu télévisé Jeopardy! en répondant avec un langage « naturel ». De
nombreux succès suivirent pour les machines, telle en 2014 la réussite au
test de Turing, qui pour son auteur était le témoin d’une forme
d’intelligence. La machine réussit à se faire passer au bout de cinq minutes
de conversation, non pour l’ordinateur qu’elle était, mais pour un garçon
ukrainien de 13 ans. Ce résultat ne fut pas pris au sérieux par tous, mais
nombreux furent ceux qui y virent une nouvelle forme de prééminence. Lire
sur les lèvres, gagner contre des champions ou contre un automate au jeu de
go, un jeu intuitif à la différence des échecs, furent d’autres jalons,
émaillant la longue histoire des performances du numérique et surtout des
diverses méthodes d’apprentissage des machines.
De nombreuses approches furent en effet proposées et essayées pour
mimer, augmenter ou varier les capacités d’apprentissage des ordinateurs.
Certaines, les plus employées, cherchent à reproduire les connexions
neuronales, un modèle attendu, s’agissant d’intelligence. D’autres
s’inspirent des colonies d’insectes. On vient de montrer récemment en effet
que le fonctionnement des essaims s’apparente à celui d’un cerveau géant
dont chaque abeille agit comme un neurone. L’IA s’est ainsi rapprochée de
cette intelligence collective pour tisser le labyrinthe de ses algorithmes.
D’autres encore tirent parti de la psychologie humaine. Quelles qu’elles
soient, les techniques d’apprentissage relèvent de trois modèles différents.
Le premier est dit supervisé, parce qu’un instructeur, comme il ferait
pour une classe d’élèves, détermine le modèle à partir de données et les
regroupe, établissant ainsi des catégories. Selon un mode probabiliste, une
nouvelle donnée peut leur être alors rattachée.
Dans un second cas, apprentissage non supervisé (ou clustering en
anglais), l’ordinateur ne dispose d’aucune classification préétablie. Ni le
nombre ni la nature des diverses catégories n’ont été déterminés.
L’algorithme doit découvrir par lui-même la structure plus ou moins cachée
des données et les classer, par similitude les unes avec les autres, en groupes
homogènes de données. Cette méthode est source de sérendipité. Par
exemple, l’ordinateur pourrait créer des groupes homogènes d’individus,
qu’on pourrait chercher à corréler à différents facteurs tels que l’origine
géographique, la génétique, la pollution, etc.
Le troisième mode est l’apprentissage par renforcement. Cette méthode
repose sur une série de récompenses positives ou négatives selon les
réponses. Il faut imaginer un professeur dans une classe faisant apprendre à
ses élèves en leur tapant sur les doigts, ou en leur distribuant des bons
points.
La plupart des méthodes d’IA utilisent l’apprentissage supervisé et,
dans une certaine mesure, l’apprentissage par renforcement. La grande
majorité des applications, reconnaissance vocale, empreinte digitale,
détection des visages dépendent de l’une ou l’autre de ces modalités.
L’apprentissage profond, deep learning, repose sur le même principe,
mais associe différentes couches de neurones, leur donnant un poids
proportionnel au contact, à l’intensité du signal reçu, mais aussi à sa
localisation en superficie ou profondeur, à la manière dont le cerveau
fonctionne. Les connexions des diverses populations de neurones
superposées les unes aux autres conditionnent leur activité et leur réponse.
« La technologie du deep learning apprend à représenter le monde, c’est-à-
dire la parole ou l’image », expliquait Yann Le Cun, chercheur influent de
ce domaine. Un des exemples habituellement cités est la reconnaissance de
l’image du chat. Pour pouvoir identifier des chats sur les photos,
l’algorithme doit savoir distinguer les différents types de quadrupèdes, quel
que soit l’angle sous lequel il est photographié. Afin d’y parvenir, il faut
entraîner le réseau de neurones à la reconnaissance, et ainsi compiler un
ensemble d’images, enregistrer des milliers de photos de chats toutes
différentes, pour permettre de les distinguer, à l’aide d’autres
photographies, de celles qui n’en sont pas. Il ne s’agit pas d’une
mémorisation, mais bien d’un entraînement. Dans tous les cas, les machines
ne modifient pas les données qu’elles reçoivent. Transférées sur le réseau,
elles vont se voir attribuer des poids différents. Guidées par l’homme, les
observations qui alimentent les mécanismes de telles connaissances seront
conservées sans qu’elles puissent être diminuées ou augmentées. Les
techniques d’apprentissage parviennent à construire des lois empiriques à
partir des observations qu’elles ont reçues, mais ne peuvent en inventer de
nouvelles si elles ne les ont enregistrées. Dès lors, si les machines font des
prouesses, elles n’ont la capacité ni d’inventer de nouveaux concepts ni
d’enrichir les résultats par l’expression d’un nouveau langage qui soit
différent des données reçues. Le pouvoir appartient à ceux qui les
possèdent, notamment les célèbres GAFA (Google, Apple, Facebook et
Amazon), et leur équivalent asiatique les BATX (Baidu, Alibaba, Tencent et
Xiaomi).
Un des gros problèmes auxquels se heurte l’informatique cognitive est
sa consommation électrique. Le programme d’intelligence artificielle qui a
remporté le jeu télévisé Jeopardy! utilisait 80 000 watts. Par comparaison,
le cerveau humain ne consomme qu’environ 20 watts. Ce handicap de
l’ordinateur est dû à son architecture héritée des années 1950 où les unités
de calcul et la mémoire sont séparées. La circulation de grandes quantités
de données consomme de 100 à 1 000 fois plus d’énergie que le calcul en
soi. Le cerveau traite l’information dans les réseaux de neurones sans
distinguer calcul et mémoire. Aussi, les scientifiques des nouveaux
processeurs privilégient-ils d’autres formes de mémoire dont celles
magnétiques et explorent la fabrication de synapses artificielles. D’autres
ont choisi de mimer le fonctionnement des neurones par des nanoparticules
qui communiquent entre elles par radio en utilisant les propriétés de la
spintronique et du magnétisme. Déjà des chercheurs ont créé un réseau de
4 nanoneurones qui ont une capacité d’apprentissage en communiquant et
modifiant leur comportement.
Concernant le comportement, certains algorithmes peuvent faire croire
aux résultats d’une œuvre d’art, créer un nouveau tableau qu’on chercherait
à attribuer à Rembrandt ou Picasso, à partir de données tirées de leurs
peintures. S’il est possible d’imiter un grand maître, ce ne sera jamais un
véritable objet de création artistique. Je me souviens de mon père étudiant
en esquisses une grande fresque pour le Front de Seine à Paris. Le geste fut
répété des centaines de fois jusqu’à ce qu’il trouve la pression du pinceau,
l’amplitude et la force du geste, la sensibilité des couleurs qu’il avait
choisies, pour représenter les émotions et les sensations qu’il voulait
traduire. Le choix de l’artiste ne peut être imité sauf à le plagier d’une
manière inconsciente. Cela ne veut pas dire qu’on ne puisse mimer
certaines activités humaines. Ainsi, il est possible de synthétiser des voix de
personnes disparues. Des robots journalistes ont écrit des articles à partir de
programmes pour traiter l’actualité. Mais en aucun cas ils ne pourront
retrouver l’originalité, la pensée, la culture d’un être conscient.
L’IA en kit
L’IA a envahi tous les domaines de la vie quotidienne. Elle modifie
totalement le rapport de l’homme avec l’environnement, mais aussi entre
les hommes. Un nombre inouï d’objets connectés nous met en relation avec
le monde extérieur, et quantifie divers actes de notre vie quotidienne.
Montres, bracelets, T-shirts, lunettes ou autres capteurs que nous portons et
emportons avec nous utilisent des ondes radio à ultra-haute fréquence pour
permettre l’échange de données à courte distance. On les applique à de
nombreuses mesures, plus ou moins utiles : rythme cardiaque, respiration,
troubles du sommeil, masse graisseuse, musculaire, osseuse, température…
ils peuvent aussi effectuer les tests de grossesse, quantifier notre
métabolisme, déceler les prémices d’une dépression, surveiller nos
mouvements et prévoir les chutes, rivalisant les uns avec les autres par des
examens high-tech, leur compatibilité et leurs synergies. Les données
peuvent être sauvegardées sur la Toile, se gérer de n’importe quel coin du
monde, être échangées à distance. Représentant ainsi de multiples formes
de surveillance autogérée ou confiée à des services, les applications sont
innombrables, objets d’un grand nombre de biotechs, et posent le problème
de leur évaluation. Certaines ne sont-elles pas en effet inutiles, redondantes,
voire contre-productives ou délétères ? L’homme est accompagné, suivi,
regardé, surveillé, estimé par des données informatiques qui font du
numérique un compagnon de tous les jours, et sans doute un prolongement
de sa propre intelligence. Mais l’IA n’est rien sans l’homme, comme le
montrent de multiples applications. Il suffit pour s’en convaincre de
prolonger le discours de Cédric Villani en examinant l’irruption de ce
domaine en médecine.
La santé est un des domaines qui peuvent le plus bénéficier des big data.
Elles alimentent notamment l’épidémiologie et l’aide au diagnostic.
L’origine des données épidémiologiques est habituellement le dossier
médical mais aussi des données collectées à d’autres fins comme le système
national interrégime de l’assurance-maladie, la Caisse nationale d’assurance
vieillesse ou le PMSI (le Programme de modélisation des systèmes
d’information qui gère les activités des hôpitaux), ou encore la cohorte
Constances qui recueille les données de santé d’un échantillon aléatoire de
citoyens. Le problème principal concernant l’exploitation de ces grandes
bases est de mettre en relation les données complémentaires des dossiers
médicaux divers et distincts. Une des étapes indispensables est ainsi
d’organiser leur harmonisation en développant des librairies d’interfaces
normalisées et des algorithmes d’apprentissage. Les résultats sont au
rendez-vous ou devraient l’être. Ainsi peut-on par exemple identifier un
médicament mis sur le marché mais pouvant entraîner des effets
secondaires néfastes. Ailleurs, il est possible d’utiliser les données pour
améliorer le pilotage de l’activité aux urgences médicales en les corrélant
avec les données météo et la pollution pour anticiper les périodes
d’affluence.
Une des autres utilisations majeures de l’IA est l’analyse automatique
des images médicales qu’elles soient radiologiques, de médecine nucléaire
ou d’anatomopathologie. Les ordinateurs savent analyser ce que l’œil ne
peut voir et améliorer sa performance. La machine permet de faire face à
une demande accrue de productivité sans signes de fatigue, à la différence
de l’homme. Une simple photo d’un mélanome suffit à en faire le
diagnostic et à le distinguer d’un grain de beauté. Des conclusions d’un
scanner de radiologie peuvent faire reconnaître les taches blanchâtres d’un
cancer du poumon, que la sagacité de l’examinateur n’a pas su percevoir.
Mais l’IA ne peut remplacer le médecin ni lui offrir seule une nouvelle
discipline créée en 2010, la radiomique : elle vient le seconder. Les
chercheurs ont ainsi mis au point une analyse d’images
d’anatomopathologie pour diagnostiquer les lymphomes, ces cancers
ganglionnaires. Par lui-même, le système montre un taux d’erreur de 7,5 %,
plus mauvais que l’œil des pathologistes (3,5 %). Cependant, en associant
l’homme et la machine le seuil s’abaisse à 0,25 %, une performance
inégalée. Ailleurs, ce sont les analyses d’image pour le cancer du sein qui
ont réduit de près de 30 % l’exérèse inutile de tumeurs bénignes.
L’IA ne fait pas qu’aider le médecin pour un diagnostic d’imagerie. Elle
peut aussi proposer des recommandations de traitements, regrouper des
populations de patients qui leur soient sensibles, identifier des comorbidités.
Des plates-formes se créent pour faciliter le dépistage, améliorer le
diagnostic, traiter les données issues de la génomique, métabolique ou
protéomique. Dans ce seul domaine de la santé, les médecins ne sont pas les
seuls à bénéficier de l’IA. Celle-ci peut accompagner les patients pour une
meilleure observance de leur traitement, identifier des marqueurs
pronostiques, ou encore soutenir des personnes fragiles de manière non
intrusive à l’aide de technologies de surveillance à domicile. De
nombreuses sociétés de services à vocation internationale se sont créées ou
sont en voie de l’être. Cependant, les algorithmes auront à tenir compte de
différences culturelles. Ils ne peuvent s’exporter sans tenir compte du
contexte. La médecine diffère non seulement d’un cas à l’autre, mais d’un
pays à l’autre.
Comme pour d’autres modes d’exploitation, il existe encore de
nombreux verrous technologiques, scientifiques, éthiques qui devront être
surmontés par l’expérience. Au moment où les réseaux sociaux prennent
une place de plus en plus importante pour le partage des données, il faut
s’assurer de l’absence de biais, de contrôles normaux savamment choisis,
d’un nombre suffisant de données, de leur qualité, de leur homogénéité et
de la représentativité des cas rares. Malgré cela, l’IA se décline en toutes
dimensions, si bien que la pratique des soins se modifie. On assiste à un
changement de paradigme qui fait passer du modèle de traitement
standardisé, à celui qui tient compte de la variabilité individuelle, de la
médecine généralisée à la médecine de précision. La biologie, l’imagerie
sont en pleine mutation mais aussi voyagent. Ainsi, en quelques minutes,
une image radiologique ou histologique peut être envoyée à distance pour
confronter un diagnostic, ou soumettre un choix de traitement. Il est
aujourd’hui possible de stocker et analyser des millions de génomes,
déterminer la phylogénie entre espèces de microbes, prédire la structure des
protéines à partir de leur séquence et les comparer. Pourtant, ces centaines
d’études permettant de corréler des variations génomiques avec l’apparition
ou le déroulement d’une maladie n’ont pas été une révolution. Corrélation
n’est pas causalité. On croyait décrypter des boîtes noires. Pour beaucoup,
les problèmes demeurent. De nombreuses maladies restent encore de causes
inconnues et le poids des gènes pose plus de questions qu’il n’en résout.
Des systèmes d’information satellitaires permettent de modifier la
surveillance et l’alerte relative aux maladies émergentes, mais aucune ne
peut prévoir les fausses rumeurs empêchant la plus triviale des mesures de
prévention. Le rôle du médecin, médiateur, au contact de la vraie vie,
permettra de s’adapter aux conseils donnés par des algorithmes. Mais il lui
faudra aussi tenir compte du savoir présent et s’entourer des hypothèses
qu’il est seul à pouvoir formuler. Car toutes les avancées médicales ne
pourront se faire par l’irruption seule de cette nouvelle science. Si
intelligente que soit l’IA, il faudra veiller à bien l’utiliser et connaître ses
limites. Les découvertes se font souvent par des ruptures. Galilée au
e
XVI siècle eut l’intuition que le poids d’un objet n’influençait pas la vitesse
L’éthique et la condition
humaine
CHAPITRE 9
Narguer Nuremberg
En Amérique du Nord, sans tenir aucun compte du procès de
Nuremberg ni du code qui en avait résulté, de nombreuses recherches
cliniques allaient continuer de s’effectuer dans des pénitenciers ou des
institutions spécialisées, telles celles pour enfants handicapés. Les sujets
testés étaient les représentants de minorités, les Noirs, les pauvres, les
prisonniers, les indigents, qu’on payait parfois de quelques dollars. Les
expérimentations conduites à la prison de Holmesburg par Albert Kligman,
un professeur reconnu de l’Université de Pennsylvanie et l’un des
fondateurs de la dermatologie moderne, sont un des exemples de ce déni
concernant la dignité humaine. De 1951 à 1974, une centaine d’essais
allaient être menés sur les prisonniers. Une unité de recherche clinique fut
même installée dans le pénitencier. L’inoculation de nombreuses maladies
dermatologiques comprenant de multiples biopsies ou prélèvements cutanés
y fut pratiquée. Plus tard, on allait conduire des études consistant à
administrer du LSD, ou des drogues hallucinogènes dix fois plus fortes, des
substances carcinogènes telle la dioxine, principe actif de l’agent orange, ou
des molécules radioactives. De tels essais étaient conduits avec le concours
de l’armée et de la CIA, sans aucun respect de la personne. En entrant dans
la prison, comme il l’admettait volontiers, Kligman n’avait vu que les
hectares de peau. Il s’en était réjoui « comme un fermier devant un champ
fertile ». Certes, la plupart de ces études n’étaient pas d’un grand risque,
mais certaines étaient très douloureuses, comme l’arrachage d’un ongle
pour en observer la repousse. On pouvait rétorquer que les prisonniers
étaient volontaires, motivés par quelques dollars, qui leur donnaient une
certaine supériorité par rapport aux autres, ou une remise de peine. Aucune
pensée cependant ne s’attachait au respect de l’individu. Seule la science
comptait et, si l’unité de recherche clinique fut une fois fermée pour
quelques mois en 1966, ce fut parce que Kligman ne suivait pas les bonnes
règles d’expérimentation et non par manquement à l’éthique. On allait
allègrement continuer d’inoculer l’herpès ou le champignon du pied
d’athlète des années durant.
Une autre de ces expérimentations qui montre l’ignorance des leçons de
Nuremberg est venue de la très scandaleuse étude menée par des médecins
américains pour mieux connaître l’évolution de la syphilis lorsqu’elle n’est
pas traitée. Effectuée par le Service de santé publique des États-Unis à
Tuskegee en Alabama, en collaboration avec l’université de la ville,
l’observation débuta au début des années 1930. Elle fut poursuivie jusqu’en
1972 sans aucun consentement médical. Les chercheurs avaient enrôlé
quelques cobayes afro-américains pour observer l’évolution naturelle de
cette maladie, au demeurant bien connue. Quatre cents d’entre eux étaient
déjà syphilitiques lors de leur inclusion dans l’étude mais ne furent pas
traités. Deux cents allaient contracter la maladie sous la surveillance de
leurs médecins pour le bien (ou plutôt le mal) de la recherche. L’étude
devait durer six mois. Elle s’étala sur quarante ans. Aucun de ces
malheureux ne fut traité par la pénicilline même après que cet antibiotique
eut fait preuve de son efficacité en 1940. En échange de leur résignation, les
patients recevaient un repas par jour, et 1 000 dollars pour leurs funérailles
à condition qu’on puisse effectuer l’autopsie. Alors que certains sujets
étaient volontaires pour s’enrôler dans l’armée, et ainsi se voir proposer un
traitement, les médecins locaux leur demandèrent de refuser.
Il fallut attendre 1970 pour qu’un médecin de santé publique révèle ce
fait révoltant à la presse, après avoir tenté en vain d’alerter ses autorités de
tutelle. Le New York Times alarma l’opinion publique, tandis que le sénateur
Edward Kennedy se chargea d’organiser des auditions parlementaires. Ce
scandale fut à l’origine du Rapport Bellemont rédigé en 1979 par le
département de la Santé américain pour établir aux États-Unis les principes
fondamentaux de bioéthique concernant l’expérimentation humaine. De ce
fait, on créa le premier bureau chargé de la protection des personnes. Le
16 mai 1997 Bill Clinton devait faire des excuses officielles aux derniers
survivants de l’étude, certains en chaise roulante, stigmatisant une
recherche si clairement raciste. Cet épisode dramatique fit découvrir un
autre scandale. Il s’agissait d’une expérimentation effectuée au Guatemala
par l’administration Truman et certains responsables locaux, testant de 1946
à 1948 l’effet de la pénicilline chez des prostituées, malades mentaux,
prisonniers et soldats, inoculés par la syphilis et autres agents sexuellement
transmissibles sans leur consentement. Quatre-vingt-trois de ces
malheureux en sont morts. En 2010, Hillary Clinton devait adresser des
excuses officielles au gouvernement guatémaltèque.
Ainsi, pendant les vingt années d’après-guerre fut menée toute une série
d’essais chez l’homme, qu’il soit sain ou volontaire, même s’ils s’écartaient
du Code de Nuremberg ou de la Déclaration d’Helsinki, sans que cela nuise
à leur publication dans les journaux les plus prestigieux tels le New England
Journal of Medicine ou Lancet. L’absence d’éthique n’était ni un frein ni
une interdiction au déroulement de telles études et à leur rapport. Celles-ci
restaient confinées à la sphère médicale, tandis que les tentatives les plus
osées servaient la carrière de jeunes médecins ambitieux souvent poussés
par l’industrie pharmaceutique, et le besoin d’articles à sensation pour leur
curriculum vitae. Il fallut attendre 1966 pour qu’un des papes de
l’anesthésie, Henry K. Beecher, tire la sonnette d’alarme en s’interrogeant
sur une telle dérive de la recherche médicale. La dénonciation des
expériences de Tuskegee, montrant au grand jour que les autorités avaient
laissé faire, voire encouragé, des recherches qui ne tenaient pas compte du
bien des personnes, fit le reste pour amorcer un tournant qui rétablisse les
droits de l’homme en matière d’expérimentation clinique.
En France, l’évolution des idées fut différente. Il n’y eut pas de
réflexion sur les exigences des essais ni sur les erreurs ou injustices
commises, avant qu’éclate, près de dix ans plus tard dans les années 1980,
un scandale qui prit le nom d’affaire d’Amiens. Peut-être faut-il y voir que
l’industrie pharmaceutique était moins impliquée qu’aux États-Unis, les
budgets plus restreints, et sans doute aussi, que le besoin de publication
pour s’assurer d’une carrière médicale comptait pour peu. Ce n’était pas
non plus que les Français avaient été moins informés du procès de
Nuremberg. Un compte rendu sous le titre Croix gammée contre caducée,
publié en 1950 par François Bayle, un capitaine de vaisseau qui avait suivi
l’événement, en avait décrit les détails. Mais la France de l’après-guerre,
si elle avait aisément condamné les actes, n’avait pas autrement tenu
compte des implications concernant les recherches sur la personne humaine.
Dans une société qui mettait la résistance en exergue, la barbarie d’une
expérimentation sauvage était critiquée plus pour son inutilité que pour son
principe. Très tôt après-guerre cependant, afin d’éclairer le jugement des
médecins nazis, supposant qu’il serait mené par des juges et avocats
internationaux, un éphémère comité international s’était tenu à l’Institut
Pasteur, recueillant des témoignages de détenus aussi prestigieux que
Charles Richet. La décision des Américains de conduire seuls le procès
rendit caduques ces nouveaux éléments du délit.
Jusqu’aux années 1980, la recherche sur l’homme s’est poursuivie ainsi
en France sans réelles règles, ignorant tout autant le Code de Nuremberg
que la Déclaration d’Helsinki. On peut s’étonner d’une telle indifférence,
mais aussi suggérer que la confusion entre soin et recherche entraînait
l’absence de réflexion éthique. De fait, les essais et tentatives
expérimentales chez l’homme étaient plus souvent menés chez des malades
et suffisaient alors, par les bénéfices supposés sur la maladie, à justifier tout
acte de recherche. On parlait ainsi de bénéfice individuel direct, sans
s’inquiéter des modalités de sa mise en œuvre. Il y avait, derrière cette
stratégie, une intention thérapeutique. La recherche dite
physiopathologique, c’est-à-dire pour la connaissance de la maladie,
n’existait pas ou peu, encore moins celle sur l’homme sain.
L’expérimentation n’était admissible que faite dans l’intérêt du sujet qui y
était soumis et toute expérimentation contraire s’éloignait de
l’indispensable respect de la vie humaine. Le consentement éclairé et écrit
était inconnu et les malades subissaient les essais le plus souvent à leur
insu. Ce n’est qu’à partir de 1975 que quelques comités d’éthique
hospitaliers commencèrent à se mettre en place, sans directives
particulières, sans doute liés à l’exigence de règles pour permettre l’accès à
des publications dans des revues internationales. Ainsi, même si la
Déclaration d’Helsinki imposait un comité indépendant, les lois et les
réglementations n’existaient pas en France. Il n’y avait pas non plus de
débat éthique sur la moindre opportunité d’un encadrement juridique et
encore moins de réflexion sur son utilité. Il paraissait assez naturel que les
malades qui étaient soignés au frais de la Sécurité sociale puissent en retour
prêter leur corps à la société pour des essais thérapeutiques dans un grand
élan de solidarité. Depuis Claude Bernard on admettait que
l’expérimentation médicale n’était qu’une forme particulière de médecine.
Soin et recherche étaient mêlés. La médecine était considérée comme une
autre forme d’expérimentation, même si celle-ci se prêtait souvent à
d’autres intérêts que ceux du patient. Si on n’expérimentait pas comme aux
États-Unis sur les prisonniers, les investigateurs choisissaient cependant
sans arrière-pensée leurs témoins parmi les plus pauvres, souvent immigrés.
Les essais sur l’homme sain étaient interdits, les risques apparaissant
contraires à la constitution de 1958, garantissant à tous la protection de la
santé.
L’affaire d’Amiens prit de court de telles tentatives expérimentales qui
vivaient des jours heureux à l’abri des règlements. Quelle fut-elle ? Un
médecin de cette ville du Nord avait fait inhaler du protoxyde d’azote pur à
un patient dans un coma dépassé pour démontrer, lors d’une expérience
judiciaire, que cette mesure n’entraînait pas de cyanose. Il n’y avait aucun
objectif thérapeutique et le geste, bien sûr effectué sans consentement, fit
scandale. Les médias s’en emparèrent. En même temps, un avis du Conseil
d’État indiquait que les essais sur l’homme pouvaient conduire à des
condamnations pour coups et blessures. Les réflexions de quelques groupes
médicaux, qui, d’ailleurs, s’étaient emparés depuis quelque temps du sujet,
firent le reste. Il devint évident qu’il fallait légiférer. La loi fut mise en
chantier par Claude Huriet, médecin et sénateur centriste, et par Franck
Sérusclat, pharmacien et sénateur socialiste. L’égalité entre citoyens
imposera de protéger tous les sujets participant aux recherches biomédicales
qu’ils soient sains ou malades, et toute forme de recherche qu’elle soit ou
non thérapeutique. Un des débats soulevés concernera l’indemnisation des
sujets participant aux essais. Les groupements de transfusion sanguine
voulaient garder la gratuité des dons de sang, tandis que les
pharmacologues et cliniciens demandaient à indemniser les volontaires
sains qui participaient à leurs essais. La loi finalement trancha. Les sujets
qui n’auraient pas de bénéfice individuel direct – un terme qui remplacera
finalement celui de finalité thérapeutique directe – auraient droit d’être
indemnisés, s’ils participaient à une activité de recherche. Celle-ci fut
adoptée le 20 décembre 1988 par le gouvernement de Michel Rocard. Elle
encadrait les investigateurs qui devaient fournir des informations et
demander un consentement écrit, défendre leurs projets devant un comité
comportant l’avis de personnes représentant la société civile non médicale.
Elle obligeait le promoteur à prendre une assurance et à déclarer
l’investigation. La loi sera modifiée par la suite sur certains points
spécifiques. Elle fut cependant pionnière en Europe, conciliant la pratique
des recherches biomédicales et le droit, notamment le droit de l’homme.
Après plusieurs révisions, la loi Huriet-Sérusclat fut cependant remise en
question car, essentiellement rédigée par des experts pharmacologues, elle
concernait surtout des recherches sur le médicament. Or les recherches sur
l’homme s’étaient progressivement élargies à la totalité des questions
scientifiques impliquant les personnes. De nombreux autres programmes
concernaient des recherches en chirurgie, pédiatrie, réanimation,
épidémiologie, et des dispositions particulières avaient ainsi été adoptées.
On avait supprimé la distinction entre recherche avec ou sans bénéfice
individuel direct. De plus, les recherches portant sur les soins courants
continuaient de paralyser les investigateurs, tandis que celles en génétique
chez les patients décédés, qui n’avaient pu y consentir, restaient interdites.
Il fallut légiférer à nouveau. Ce fut en 2012 la loi Jardé, du nom de son
rapporteur, enrichie depuis par de nombreux décrets d’application. En
étendant le champ juridique aux recherches interventionnelles, la nouvelle
loi regroupait les différentes modalités expérimentales impliquant la
personne humaine dans un ensemble réglementaire unique. Trois catégories
de recherches étaient dorénavant identifiées selon le niveau de risque pour
la personne qui s’y prêtait, modulant les contraintes réglementaires et les
conditions de recueil du consentement en fonction de celui-ci. Le comité de
protection vit son rôle diversifié et amplifié. Une commission nationale fut
créée pour les harmoniser. Cela suffisait-il ? Certes, non. S’il s’agit bien de
protection de l’homme, l’humain légitimait d’autres réflexions et
préoccupations.
https://www.odilejacob.fr/newsletter
Index
ADN-ARN 53-55, 70, 84, 87-88, 91, 94-96, 98-100, 102, 106, 110, 114-115,
117-118, 120-122, 125-126, 128, 130-135, 139-140, 147-148, 152, 154, 194,
196, 232
antibiotique 96, 139, 144, 148-149, 151, 153, 155, 161, 163, 166-167, 170-173,
247, 262
anticorps 44-45, 53, 64, 72, 74-78, 80-82, 103, 115, 159, 171
bifide 155
biodiversité 13, 136, 141, 147-148, 252, 262
biotique 202
chromosome 44, 87-88, 93, 97, 100, 113-115, 117, 120, 122, 127, 130-131
clone 45, 47, 75
commensalisme 159
cytotoxicité 44, 72, 81
enzyme 64, 69, 87, 89-90, 92, 94-95, 97, 99-101, 111-112, 115, 117, 119, 133,
147, 156-157, 168, 170, 196
épigénétique 13, 111, 113-114, 118, 120, 122-127, 129, 131-135, 137, 139-141,
256
éthique 14, 19, 34, 52, 67-69, 84-85, 89-91, 93, 104, 106, 180, 218, 229-230,
240, 242, 246, 248-250, 252, 254-257, 261, 264-265, 268
évolution 14, 29, 39, 78, 100, 106, 111-112, 118, 123, 125, 130, 135-136, 139-
141, 148-149, 152, 162, 183, 213, 231, 233, 246-248, 252, 257, 259, 261,
263
firmicute 154-155, 160-161, 168
germes 74, 96, 121, 145-146, 150-151, 154, 158-159, 161, 166-167, 173
HLA 44-48, 50, 84, 124
humus 63
hygiène 92, 139, 148, 155, 164-165, 167, 262-263
immunité adaptative 47
immunité innée 47-48
intelligence artificielle 13, 19, 31, 187, 205, 211-214, 216-217, 220-234, 236, 264
lymphocytes 44, 46-47, 49-50, 64, 72, 76-78, 80, 85, 93, 129, 143, 158-159
métagénomique 154
microbiome 170
milieu de culture 157
molécule 44-45, 47-48, 50, 56, 63, 69, 72, 74, 78, 81-82, 85, 87, 93, 113-115,
117, 120, 128, 130, 134, 136, 148, 152, 155, 157, 159, 183, 194-197, 204,
246
mutation 70, 85, 88, 94, 101, 103, 121-123, 148-149, 161, 167, 204, 217, 229,
268
mutualisme 146, 149
phagocytose 81
prébiotique 171, 173
robot 179-180, 186, 190, 207-208, 220, 226, 231-232, 235-236, 256
sucre 55, 112-113, 115, 117, 126, 140, 148, 155-156, 168, 171, 191
symbiose 13, 145, 148-149, 151-152, 158, 161, 172-173
thérapie génique 13, 69-70, 73, 84, 88-97, 99, 101-102, 104, 106, 116, 141, 171,
194, 196, 201, 204, 261
thymus 47, 49, 76-77
Introduction
La métamorphose cannibale
Kuru
Mythes d’aujourd’hui
Chapitre 2 - L’un pour l’autre
Tous cannibales
(Re)définir la mort
Le soi et le non-soi
Se tolérer
Accueillir l’autre
Organogenèse
Greffes cellulaires
De la régénération à l’adoption
De la thérapie à l’édition
CRISPR-Cas9
Des méthodes à l’épreuve
Le mal du dehors
Probiotiques et autres
L’œil biotique
Listen to your eyes
La vitesse grand V
Apprendre
L’IA en kit
L’intelligence faible contre l’intelligence forte
Remerciements
Du même auteur
Index