Vous êtes sur la page 1sur 294

© ODILE JACOB, JANVIER 2020

15, RUE SOUFFLOT, 75005 PARIS

www.odilejacob.fr

ISBN : 978-2-7381-5061-5

Le code de la propriété intellectuelle n’autorisant, aux termes de l’article L. 122-


5 et 3 a, d’une part, que les « copies ou reproductions strictement réservées à
l’usage du copiste et non destinées à une utilisation collective » et, d’autre part,
que les analyses et les courtes citations dans un but d’exemple et d’illustration,
« toute représentation ou réproduction intégrale ou partielle faite sans le
consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (art.
L. 122-4). Cette représentation ou reproduction donc une contrefaçon
sanctionnée par les articles L. 335-2 et suivants du Code de la propriété
intellectuelle.

Composition numérique réalisée par Facompo


À mes petits-enfants :
Ludivine, Marius, Arthur, Eloïs et Joséphine.
« Trouver n’est rien. Le difficile est de s’ajouter ce qu’on trouve. »
Paul VALÉRY, La Soirée avec Monsieur Teste.

« Votre république dose, mesure et règle l’homme ;


la mienne l’emporte en plein azur ; c’est la différence qu’il y a entre un
théorème et un aigle.
[…]
Cimourdain. – Je voudrais l’homme fait par Euclide.
– Et moi, dit Gauvain, je l’aimerais fait par Homère. »
Victor HUGO, Quatrevingt-treize.
Introduction

Bangkok. J’attendais un avion dans une salle d’attente hétéroclite : un


bonze coiffé d’un bonnet poilu orange foncé, un vieil homme qui grattait
vigoureusement son crâne chauve avec une sorte de brosse en paille, un
jeune adolescent dont le survêtement kaki orné d’étranges formes de
camouflage semblait prolonger des tatouages sur bras et jambes qui le
rendraient sûrement invisible dans la jungle, quelques individus somnolents
dont le contraste entre fausses fourrures et torses dénudés semblait préluder
à des différences climatiques. Quel monde étrange, assimilant ses
ornements comme autant d’us et coutumes, rassemblé autour des prouesses
de la communication et du machine learning de l’aviation ! Les voyages
réunissent nos diversités, autant que le feu des foyers, celles de nos ancêtres
préhistoriques. Si nous croyons que l’homme a changé, cela ne nous est
certes pas venu en observant nos attitudes : il faut regarder ailleurs.
L’homme s’est modifié – ou pourrait le faire – par la biologie, et la biologie
seule. Un défi, peut-être, une prudence future, sûrement. Le progrès
s’évalue à l’aune de ces recherches sur le vivant. Aussi, j’ai souvent réfléchi
à cette phrase de Paul Valéry dans La Soirée avec Monsieur Teste, qu’il
s’appliquait à lui-même en philosophe poète : « Trouver n’est rien. Le
difficile est de s’ajouter ce qu’on trouve. » Nos recherches nous ont-elles
modifiés ? Ont-elles transformé l’homme en lui intégrant de nouvelles
capacités, un nouveau vivant ?
J’y repensais à nouveau dans cette salle d’attente d’un aéroport
asiatique. Les voyageurs s’agitaient. Le bonze s’était levé, sans doute pour
un destin plus divin. Le crâne de l’homme chauve luisait comme s’il était
maintenant possible d’y découvrir une idée nouvelle. Le tatoué s’était fondu
entre les fauteuils de faux skaï. Allais-je laisser mes interrogations sur la
manière dont l’homme avait pu changer sur les carreaux gris d’une salle
d’attente d’une aérogare, et me contenter d’y noter nos habits de lumières ?
J’ai eu soudain envie de prendre la pensée de Valéry à mon compte et de
joindre mes préoccupations de biologiste aux siennes, pour tenter de dire,
au moins d’examiner, la manière et les possibilités que nous avions de
modifier l’homme en lui appliquant les découvertes du vivant. L’avion du
soir emporta mes premières pensées.
L’homme n’a changé ni par ses vêtements, ni par la couleur de peau, ni
même par ses comportements qui dépendent notamment de sa physiologie.
Il a avant tout changé par les modifications qu’il a tentées, a pu imposer, ou
subir, sur son corps, ses gènes ou ses cellules. Le transhumanisme ne
pouvait passer que par la conquête biologique et les thérapies du vivant. La
machine n’était là qu’en recours. Des gourous de la Silicon Valley, des
lanceurs d’alertes parlent d’homme augmenté, de soulager, conserver et
développer nos consciences par l’ordinateur, télécharger nos esprits pour
accéder à une éternité numérique. Je relève le gant et recentre le débat
autour de la biologie. Je veux tracer ici les limites du possible, trier le bon
grain de la science de l’ivraie des promesses à peu de frais. Et comment
mieux y parvenir qu’en retraçant l’histoire des conquêtes scientifiques afin
de comprendre d’où nous partons pour entrevoir où nous allons ? À bon
entendeur, messieurs !
Ce livre a été écrit aux quatre coins du monde. Il comprend plusieurs
parties que je pense correspondre aux diverses facettes de cette conquête de
l’homme pour lui-même.
D’abord, l’homme a cherché à se modifier en intégrant l’autre par le
cannibalisme, pensant ainsi s’en attribuer les forces et vertus. « Le plus sûr
moyen d’identifier autrui à soi-même, disait Claude Lévi-Strauss, c’est
encore de le manger. » Pour les cannibales, l’ingestion de chair humaine est
aussi celle de l’âme. En même temps, il y a une recherche d’éternité dans
cette transmission charnelle tant pour le défunt qui continue à vivre en
symbiose avec son nouvel hôte, que pour le vivant qui porte en lui
l’ensemble des générations qui se sont succédé.
Puis l’homme s’est modifié par lui-même – l’homme changé par
l’homme – à travers les transplantations de ses cellules ou organes, ou par la
génétique. La thérapie génique, la thérapie cellulaire et les greffes d’organes
connaissent aujourd’hui des avancées incroyables, même si ces techniques
soulèvent encore de multiples problèmes. En tout ou partie, l’homme a
acquis les capacités de se transformer par une nouvelle biologie. Enjeux ou
challenges, les limites de tels progrès ne doivent-elles rester celles de ses
applications, qu’il faut avant tout conserver à la médecine ?
La biologie permet ensuite de comprendre ce que l’environnement peut
faire subir à l’homme, soit par le contrôle de ses gènes, l’épigénétique, ou
par celui de son microbiote, les milliards de microbes qui vivent en nous.
La connaissance de ce qui est appelé l’exposome, qui représente les
multiples stimulations de l’environnement, fait connaître et interpréter la
manière dont celui-ci influe sur nos gènes et comportements. La biologie
entre au cœur de l’écologie. Ainsi, il ne s’agit pas tant de conserver la
biodiversité que de comprendre ce qu’elle nous apporte et vers où elle nous
conduit.
Enfin, l’homme a su interagir avec la machine. Une des interfaces les
plus fascinantes est celle qui relie notre cerveau aux ordinateurs. Les
mécanismes qui peuvent transmettre nos ondes cérébrales sont susceptibles
de conduire aux programmes les plus futuristes que l’intelligence artificielle
(IA) alimente et développe. La science du numérique offre de nouveaux
partenariats avec l’homme qui transforment ses valeurs et ses capacités.
Si celui-ci peut ainsi se modifier, une nouvelle responsabilité nous
incombe, éthique celle-là, pour que la biologie préserve l’humain, et sans
doute aussi l’humanisme. Du procès des médecins de Nuremberg aux lois
de bioéthique, l’homme a appris à chercher sur l’homme et à réfléchir à la
science qu’il peut s’appliquer. À chacun de comprendre et de souhaiter les
horizons qui s’ouvrent à l’individu ainsi modifié et les configurations que
peut revêtir l’évolution de la « condition humaine ».
PREMIÈRE PARTIE

L’homme modifié
par l’homme
CHAPITRE 1

Rites cannibales et mythes d’aujourd’hui

Elle était anthropologue, avec un je-ne-sais-quoi « Terres d’aventure »,


qui la sortait de l’anonymat des jeunes scientifiques. Elle m’avait dit s’y
connaître sur l’histoire de ces populations aztèques et d’Amérique du Sud
dont je cherchais à mieux comprendre les rites mortuaires. Je lui avais
donné rendez-vous dans un café de Saint-Germain-des-Prés, un de ces
endroits impersonnels qui seyait bien à une telle rencontre, non loin de la
statue de Montaigne qui nous regardait presque, et sans doute ne s’en
laisserait pas conter.
Elle était intriguée.
« Mais de quoi s’agit-il donc ? », dit-elle en me tendant la main, puis, à
peine assise, s’interrompit pour commander un Perrier. « Oui, de quoi
s’agit-il exactement et qu’attendez-vous de moi ? Que puis-je apporter à ce
livre ? C’est bien un livre ? », ajouta-t-elle et, me voyant acquiescer du
regard, poursuivit : « Que voulez-vous savoir au juste ? »
Je restai évasif, puis lui parlai de mon sujet : « l’homme modifié ». Je
vis remonter légèrement ses sourcils. Elle eut un sourire, et reprit :
« Vous voulez sans doute dire “l’homme augmenté” ? »
Je dis que je n’étais pas là pour discuter du transhumanisme mais que je
voulais mieux connaître les rites cannibales des Indiens d’Amérique.
« Qu’attendez-vous de moi que vous ne lirez dans les livres ?
– Que vous me racontiez votre expérience de scientifique, m’introduisiez à
ces récits de légende sur les sacrifices humains et coutumes cannibales.
– Bon. Mon expérience la voici. C’était, il y a quelques années de cela, dans
un petit village du Pérou. Je faisais une étude sur les mœurs des Indiens des
hauts plateaux : agriculture, sédentarité, liens avec les habitudes du passé.
Un soir, on frappa à ma porte. L’individu qui venait me voir était de ceux
avec qui j’avais partagé mes enquêtes.
“Je viens vous informer secrètement, dit-il dans un espagnol fruste,
entrecoupé de mots en dialecte péruvien que je connaissais un peu,
qu’un sacrifice humain doit se dérouler prochainement.”
Je lâchai presque l’assiette que je tenais à la main.
“Sacrifice humain… que voulez-vous dire ?
– Un sacrifice au dieu Soleil. Un enfant, ou presque. On extirpera son
cœur, puis il sera mangé pour acquérir sa jeunesse. Chez nous, c’est la
vraie forme de communion avec l’autre. On croit qu’il montera au
ciel… et nous avec. C’est un retour à nos anciennes traditions, une
manière de lutter contre l’adversité et les forces du mal, un moyen
d’incorporer des puissances vitales, une nouvelle jouvence.
– Invraisemblable ! Cela se passait peut-être ainsi du temps de vos
ancêtres, mais comment est-il possible d’être sacrifié au XXIe siècle ?
Encore moins consommé. Je n’y crois pas.
– C’est pourtant vrai. Il sera sacrifié lors du carême, dans deux jours.”
J’étais abasourdie, stupéfaite, horrifiée. Aussi incroyable que cela paraisse,
mon interlocuteur semblait sûr de lui.
– Mais qu’avez-vous fait alors ?, lui demandai-je.
– Il y avait trois solutions, reprit-elle en me regardant, l’index levé. L’une,
prévenir la police, mais j’aurais alors perdu toute confiance de la
population. Ma mission se serait abruptement arrêtée. Ma recherche aussi.
Cela aurait été une perte totale de relations, de ces quelques mois d’intimité
avec ces villageois. La seconde, poursuivit-elle en soulevant le majeur,
aurait été de faire semblant d’ignorer et ne rien dire. Peu éthique…
– Et la troisième… »
Elle fronça légèrement les sourcils, dépliant l’index, pensant que j’allais
deviner la suite. Mais je restais muet.
« La troisième, c’était de prévenir la mère du condamné, la supplier de ne
pas laisser son fils être sacrifié pour le dieu solaire, et peut-être mangé lors
d’un de ces banquets comme on le faisait dans les temps des empires
indiens. »
Elle eut un geste de dégoût qu’on aurait pris pour une forme de prière.
J’étais attentif, submergé par ce que je venais d’entendre. Mais,
manquant d’imagination, je lançai en guise de réplique :
« Que s’est-il passé ? »
Elle prit son verre, attendit un instant puis reprit :
« Je ne sais pas. Tout me fut caché, sacrifice ou son absence. Je me plais à
penser en votre compagnie qu’il n’eut pas lieu. »
Le cannibalisme, par le truchement des symboles, garde doublement
une place particulière dans l’imaginaire collectif. Au-delà de la répulsion
que l’on peut en avoir, il évoque aussi la construction d’une nouvelle
identité par l’absorption du corps de l’autre. S’il paraît utile de discuter le
cannibalisme à ce titre, c’est qu’il trouve place également dans le
prolongement, et peut-être le rapprochement, de deux notions qui seront
évoquées plus loin, les greffes du vivant et leur acceptabilité d’une part, le
mythe de la singularité d’autre part. Dans ce dernier cas, les suggestions
fantastiques d’homme bionique chez qui peuvent être transplantés des
implants électroniques pour créer une superintelligence artificielle,
procèdent à certains égards d’un symbolisme partagé avec les mangeurs de
cerveau. Le cannibalisme fait tacitement partie de l’histoire des hommes, et
à travers son rituel, justifie d’être ainsi évoqué dans une réflexion sur
l’homme modifié. En me décrivant les sacrifices humains d’aujourd’hui en
Amérique latine, mon interlocutrice nous introduisait aux rites anciens que
les premiers colons devaient découvrir.

Le banquet aztèque
Ce fut en 1518 que les Espagnols eurent pour la première fois
connaissance des sacrifices aztèques. Les troupes du capitaine général Juan
de Grijalva, débarquant sur une île au large de Veracruz, y trouvèrent
d’inquiétants restes humains, d’où le nom d’Isla de Sacrificios dont ils
baptisèrent l’île. L’officier qui tenait le journal de bord écrit ainsi : « Est
arrivé à ladite tour, le capitaine lui demanda pourquoi on faisait une telle
chose sur ladite tour, et l’Indien lui répondit que cela se faisait en guise de
sacrifice ; et selon ce qu’on comprit alors, ces Indiens en égorgeaient
d’autres sur cette large pierre et jetaient le sang dans le bénitier, et ils leur
arrachaient le cœur… leur coupaient le gras des bras et des jambes et les
mangeaient. »
Le cannibalisme aztèque a toujours dérouté par son très curieux
mélange de sauvagerie et de civilisation. En fait, si les Aztèques
procédaient en leur temps à cet extraordinaire rituel qui associait le sacrifice
à l’anthropophagie, c’est qu’une telle coutume existait en méso-Amérique
depuis des siècles et probablement des millénaires. À la différence des
grands ancêtres pour qui le nombre d’immolations semblait relativement
restreint, les derniers souverains aztèques en avaient fait une exploitation
redoutable et avaient développé le rite pour favoriser des exécutions
cérémonielles massives. Les Espagnols allaient découvrir des pyramides
recouvertes de sang coagulé et des jarres remplies d’ossements
soigneusement curés.
Abondamment décrit dans les codex précolombiens et colombiens, le
cannibalisme a été raconté dans de nombreux témoignages de sources
indigènes aussi bien qu’espagnoles, et se retrouve sur les murs et sculptures
des sites archéologiques. Les Espagnols ont rapporté de telles scènes avec
horreur, mentionnant ce qu’ils voyaient et entendaient, les jugeant comme
des crimes, au point d’en faire une justification morale de la conquête.
Pourtant, depuis le XVIe siècle, il ne fait aucun doute que le cannibalisme
aztèque est d’ordre rituel, au moins en majeure partie, sinon en totalité. Las
Casas et Torquemada prétendaient ainsi que la chair des sacrifiés était
mangée « parce qu’ils la tenaient pour une chose comme sacrée, et qu’ils
s’y adonnaient plus par religion que par vice ». L’anthropophagie n’était pas
cependant la motivation principale du sacrifice, et ne se résumait pas au
partage cérémoniel d’une chaire divine. Le repas était l’occasion de
s’emparer de la force vitale des suppliciés, de leurs vertus, car avant de
mourir les sacrifiés avaient acquis mille qualités qui faisaient d’eux, déjà,
des demi-dieux. Pour les victimes, cet instant du sacrifice, si sanglant soit-
il, au milieu d’intenses souffrances que le vin et les hallucinogènes ne
devaient pas anesthésier totalement, n’était qu’un temps de passage vers
une autre vie, céleste celle-là. Leur mort en faisait des messagers vers l’au-
delà, entre terre, ciel ou soleil. Les pénitences qui avaient précédé le
sacrifice, ou au contraire le soin et l’empathie avec lesquels ils avaient été
traités, devaient non seulement les aider à supporter leur destin, mais
surtout leur permettre de mourir bravement. En cela, ils devenaient de
nouveaux héros, dont la chair avait d’autant plus de valeur, non seulement
parce qu’elle provenait d’hommes parés de nouvelles vertus, dont la force
d’affronter le sacrifice, mais parce que leurs qualités intégraient l’âme et le
corps de ceux qui la consommaient.
Quels qu’ils soient, guerriers vaincus, ou esclaves achetés pour le Soleil
et pour servir de mets, les futures victimes étaient devenues plus que des
braves, presque des dieux. Pour les mangeurs de chair, c’était se
métamorphoser. Consommer la chair du sacrifié transformait le cannibale
en un nouvel être qui par cette bouchée humaine, dont le goût était, dit-on,
souvent amer, acquérait le courage et l’expiation d’une vie terrestre. On
attendait du sacrifié une conduite irréprochable. Être un futur dieu, être
mangé à ce titre ou pour d’autres qualités, était un honneur auquel il devait
se prêter, pour lui et pour sa réputation.
Quelles étaient ces victimes qui mouraient ainsi pour leur salut, celui de
l’Humanité, et celui des convives d’un futur banquet de chair humaine ?
Quels étaient ces sacrifiés qui devaient ressortir grandis de l’holocauste qui
les terrassait ? Quels étaient ceux à qui ce sacrifice rapportait et qui
bénéficiaient à cette occasion du droit et peut-être de la possibilité de
dialoguer avec l’au-delà, puisqu’ils en avaient acquis la force vitale, à
travers celui qu’on avait mis à mort ?
Il y avait bien des autosacrifices par ce sang qu’on faisait couler avec
quelques stigmates, écorchures ou piqûres, mais une des principales formes
de sacrifice rituel cédait à d’autres pressions et s’organisait autour de la
mise à mort. Il s’agissait d’obtenir quelque chose de considérable, comme
de donner la vie ou la permission de créer, ou d’acquérir une nouvelle
prospérité. Les sacrifices s’étaient vraisemblablement imposés aux
Mexicains comme une justification de leurs guerres continuelles, avec
l’idée que le Soleil devait être constamment nourri d’humains. Or si le
sacrifié semblait accepter la mort, que ce soit sur le champ de bataille ou sur
le billot de pierre brute, ce n’était probablement pas par le désir fanatique
de devenir une nourriture solaire ou de permettre que d’autres profitent de
sa chair glorifiée, c’était de terminer sa vie par une fin qui lui promette un
avenir meilleur. Comme aux kamikazes d’aujourd’hui, le sacrifice apporte,
à celui qui l’accepte ou le subit, la promesse d’un au-delà magnifique. Il s’y
ajoutait, pour les commanditaires comme pour la victime, un prix de plus :
celui d’une dette à payer. Ce que ne peuvent faire les animaux, au moins par
leur seule volonté.
Les sacrifiants ou commanditaires, bénéficiaires du rite, étaient d’abord
ceux qui avaient capturé un guerrier, et ainsi gagné le droit d’immoler celui
qu’ils avaient vaincu. D’autres, qui n’étaient pas du monde de la guerre,
membres de corporations de toutes sortes, commerçants, artisans, et même
médecins, devaient se procurer une victime, c’est-à-dire l’acheter. Le plus
souvent il s’agissait d’esclaves, de quelques misérables qui faisaient l’objet
de trafic, de prostituées, voire d’enfants, volontiers handicapés, achetés à
leur famille.
La coutume s’était répandue au point que l’expansion de l’empire
aztèque et les guerres si fréquentes avaient fourni un très grand nombre de
victimes de toutes origines tribales. Comme la guerre était avant tout celle
des nobles, les sacrifiants des prisonniers de guerre étaient souvent des
seigneurs. Le vainqueur était doublement récompensé par une immolation
au dieu solaire et par la chair idolâtrée. On se répartissait le corps selon la
manière dont on avait vaincu l’ennemi et s’il y avait eu plusieurs guerriers
pour terrasser l’adversaire, selon l’importance de son rôle. L’avancement
dans la hiérarchie militaire était d’ailleurs conditionné par le nombre de
captifs qu’on avait le droit d’immoler, mais aussi de manger. Avant leur
mort les captifs étaient des biens précieux. On leur remettait des cadeaux.
Ils étaient magnifiquement nourris et traités en vue de leur consommation
future.
Pourtant les guerriers sacrifiés n’étaient pas toujours traités avec égalité.
Comme les guerres étaient incessantes, les sacrifices très nombreux, le droit
d’immoler des victimes, puis de les dévorer, devenait rapidement chose
courante, et les soins portés aux guerriers vaincus dépendaient de la
fréquence de l’événement. Si les guerriers représentaient une part
importante des sacrifiés, et se voyaient ainsi traités avec les égards décrits,
les esclaves et autres personnalités achetés pour l’occasion n’étaient pas
plus mal lotis. Ils étaient introduits dans la famille du commanditaire. On
les baignait rituellement à l’eau chaude, marque de prestige et d’honneur.
Ils participaient à la vie quotidienne. Pour augmenter leur tonalli, leur force
vitale, ils devaient apparaître aussi parfaits que possible. Les rites d’accueil
dans la famille faisaient référence au don qu’on faisait pour le Soleil et au
banquet anthropophage qui allait suivre. C’est dire le soin mis à la phase de
préparation. Tout était réglé dans le moindre détail.
Lors du sacrifice, la cérémonie était publique. La victime, saisie par un
prêtre, était tenue des quatre membres par ses aides, tandis qu’un cinquième
lui maintenait la tête basse avec une sorte de carcan. Le prêtre levait alors sa
pierre d’onyx, et tranchait le thorax brutalement, avant de saisir le cœur et
de l’arracher. La cérémonie était parfois complétée, mais non toujours, en
tout cas rarement précédée, par une décapitation. Le rituel se poursuivait
après cette simple ou double mise à mort. Le cœur palpitant, d’abord brandi
vers le Soleil qui représentait l’énergie, la vitalité, pouvait avoir un double
destin. Tantôt il était jeté au pied de l’idole, tantôt il était donné aux
commanditaires pour qu’ils le dévorent plus tard. Puis, on continuait en
coupant les membres en morceaux, pendant que le sang ruisselait de
partout, s’épuisant en étranges rigoles. On comprend l’horreur des
Espagnols, lorsqu’ils entrèrent à Mexico, et virent les restes de ces funèbres
et sanglantes immolations. D’ailleurs, n’avaient-ils pas reçu des Aztèques,
peu avant qu’ils ne pénètrent dans la ville, une nourriture arrosée de sang
qui se révéla être de la chair humaine, don de leurs alliés indigènes qui
croyaient ainsi leur faire plaisir, et qu’ils recrachèrent avec dégoût.
Mais le sacrifice n’est pas tout. Il était suivi du banquet cannibale rituel.
Le cœur était mangé – sauf si, on l’a vu, il était offert au Soleil –, en tout
cas les membres, selon leur importance symbolique, cuisses d’abord, étaient
consommés en compagnie, tandis que les cheveux et os soigneusement
curés étaient conservés dans des calebasses. Lors de ce partage entre le dieu
Soleil et les hommes, le premier se contentait de l’âme du défunt, les
seconds de sa chair. Le repas s’effectuait au milieu de danses et de libations.
C’étaient de véritables festins, qui d’ailleurs coûtaient fort cher. Le
sacrifiant souhaitait mettre à sa table ses meilleurs amis, et surtout ses
débiteurs, tous ceux auxquels il était d’une manière ou d’une autre
redevable. Tant par la préparation du supplicié que par la fête cannibale, les
banquets avaient leur prix, souvent considérable. Il fallait parfois vendre
d’autres esclaves pour trouver le budget nécessaire. C’était une sorte
d’ascenseur social. L’assistance qui participait ainsi au banquet et sa
répartition autour de la table dépendaient de son importance et des relations
avec l’hôte. L’anthropophagie qui suivait le sacrifice n’était pas seulement
un moment de partage rituel, c’était aussi le moyen de renforcer le réseau
de connaissances, et d’obliger tous ceux qui y participaient.
D’ailleurs la chair n’était pas seulement tendre. Elle était surtout, il faut
le rappeler, un moyen d’intégrer de nouveaux attributs liés à la conduite du
mort. Après les premiers cigares et force vin, la dépouille, ou plus
exactement les quatre membres coupés en morceaux plus ou moins menus,
le cœur, les fragments de tête étaient partagés entre les invités, en fonction
de leur rang. Les nobles et les guerriers bénéficiaient des meilleures parties.
Ils se partageaient le cœur, les mains et les cuisses. Les autres avaient les
restes. Parfois, la chair humaine était accompagnée de champignons
hallucinogènes, en plus ou moins grande quantité selon les saisons. Elle
pouvait être accommodée, bouillie ou lavée dans l’eau chaude, ou encore
cuite dans une tortilla de maïs. Toutes ces libations n’avaient pas lieu à la
même date, mais correspondaient à des moments choisis. Entre gens du
nouveau monde et de l’ancien monde, il y avait eu des échanges. Les
Espagnols avaient fait connaître leur calendrier, si bien que les Aztèques
avaient joint les rites et fixaient volontiers leur banquet lors du grand
carême, croyant sans doute faire preuve de modernité en sacrifiant à la
communion espagnole. Le partage de chair humaine portait chance. Pour
celui qui obtenait une portion d’homme, et s’en trouvait en quelque sorte
sublimé, le futur serait meilleur. L’année serait heureuse. En poussant la
porte à la fin du festin cannibale, tel invité la bouche encore pleine, qui
d’ailleurs laisserait son hôte en pleine méditation sur son nouveau sort avec
quelques pensées pour le sacrifié, en sortirait comme un homme modifié.

La métamorphose cannibale
Dans les divers textes qui se rapportent au banquet aztèque, il s’agit
bien d’assimiler les éléments du corps d’une victime déifiée, et ainsi par ce
rituel, de métamorphoser le cannibale, en même temps que de participer à
sa transmutation vers l’au-delà. En cela, la cérémonie peut se concevoir
comme un acte de culture, partagée sans doute depuis des temps
immémoriaux, par de nombreuses populations qui y voient un procédé pour
faire évoluer l’homme.
Eduardo Viveiros de Castro disait que ce qu’on assimilait de la victime,
c’était le signe de son altérité, et que ce qu’on vivait, c’était cette altérité
comme point de vue sur le soi. Ne s’agissait-il pas avant tout d’incorporer
l’autre pour devenir un autre soi-même ? Une idée que Claude Lévi-Strauss
avait écrite antérieurement : « Après tout, le moyen le plus simple
d’identifier autrui à soi-même c’est encore de le manger. » Ce qui sous-
entend que l’absorption de l’extérieur nous est indispensable pour mieux
nous connaître nous-mêmes. D’ailleurs, le cannibale prenait soin de sa
victime. Il la choyait pour mieux s’emparer de sa force vitale et de son âme,
ou plutôt pour bénéficier de leur accroissement dans les derniers instants du
martyre. Si l’on en poursuit la réflexion philosophique, le cannibale montre
que l’identité d’un individu devient une composition de soi et de l’autre, de
l’intérieur et de l’extérieur, et renvoie ainsi à la vision des chimères que
nous retrouvons plus loin avec les transplantations et le microbiote. En
même temps, le rite porte une notion de continuité entre vie et mort. Mieux,
c’est une forme de communication par l’intermédiaire de la chair, qui, parce
qu’elle est issue d’une descendance, fait retrouver le goût des ancêtres. Une
notion rapportée par beaucoup et à laquelle Montaigne faisait sans doute
référence dans ses Essais en écrivant : « Ces muscles, cette chair et ces
veines, ce sont les vostres […] la substance des membres de vos ancêtres
s’y tient encore : savourez-les biens, vous y retrouverez le goût de votre
propre chair. »
Mais il faut sans doute voir plus loin à travers le rite de l’ingestion de
l’autre et de la rencontre transgénérationelle. C’est ainsi que Lévi-Strauss
rapporte un mythe cannibale répandu dans diverses contrées des
Amériques. Celui qui illustre la naissance d’une culture. L’image forte qui
s’y réfère est celle d’une tête qui roule, dévore ses propres parents puis
toute la population. En même temps, l’assimilation pour modifier l’humain,
quelle que soit l’absorption, individu, génération ou culture, se préoccupe
du genre et distingue l’homme de la femme. Certaines sociétés, telles les
Papous, réservent certaines parties du squelette à l’homme, d’autres à la
femme. Ceux qui absorbent les substances « mâles » accroissent leur virilité
et vice versa. Dans certaines sociétés d’Afrique, de Nouvelle-Zélande ou
d’Indonésie, les femmes ne participent pas au banquet cannibale, que ce soit
comme convive ou comme aliment.
Cette entreprise de construction de l’individu d’abord, de l’humain
ensuite, à travers le mythe cannibale, renvoie d’une certaine manière aux
origines du monde. Cosmos, le père de Gaïa la Terre et d’Uranus le ciel, qui
les sépare pour créer un monde différencié et organisé, avalait ses enfants et
les dévorait. Zeus, qui faillit en être victime, tenta d’instituer sur le monde
une souveraineté plus équilibrée. Est-ce la forme d’une nouvelle sagesse ou
d’une abstinence ? Quant à Prajapati, figure védique de la création du
monde, il mangeait ce qu’il produisait. Celui qui avait l’essence de l’infini
dévorait le monde. Manger l’autre est-il une sorte de culture naturelle ? Au
siècle des Lumières, Sade fut parmi les premiers à reprendre l’idée d’une
disposition naturelle du cannibalisme « qui assurera que les sauvages, qui à
la vérité ne dévorent que ceux qu’ils ont pris à la guerre, n’ont pas
commencé à faire la guerre pour avoir le plaisir de manger des hommes »,
écrit-il dans un dialogue de son roman Aline et Valcour. Dès lors, l’idée que
l’acte cannibale soit considéré non seulement comme l’assimilation de
l’autre pour mieux évoluer, mais aussi comme un acte de partage et de
communion pour transformer l’humain, prend toute sa valeur. Mais quel
que soit le rite, et sa place dans l’histoire des hommes pour se grandir et
mieux évoluer, on ne peut passer sous silence ce qui se passe dans
l’eucharistie où le communiant se nourrit de la chair et du sang du Christ et
s’en trouve modifié.

« En vérité, en vérité, je vous le dis


Si vous ne mangez la chair du fils de l’homme
Et ne buvez de son sang
Vous n’aurez pas la vie en vous
[…]
Qui mange ma chair et boit mon sang
Demeure en moi
Et moi en lui. »
Jean, 6, 53-56.

Cette transformation mystérieuse, la transsubstantiation, qui sublime le


corps et le sang, fut affirmée par le concile de Latran en 1215, reconfirmée
par celui de Trente en 1551, et fait aujourd’hui partie de la doctrine
catholique. Comme le signale le journaliste Henri Tincq, « la communion
est un vrai banquet dans lequel le Christ s’offre en nourriture ». Mais
l’eucharistie est fondée sur une notion fondamentale, celle de l’absence.
Elle exprime la chair d’un dieu caché, qui permet à celle-ci d’être
consommée par l’homme. La souffrance de l’absence n’est-elle pas aussi
l’émergence d’un nouvel individu à travers la nourriture d’un corps divin ?
C’est ce que traduit aussi la fête-Dieu, qui est au centre du monde
catholique et de ses symboles en invitant à travers la consommation
sacrificielle du Dieu à une fusion entre la chair de l’homme et celle de son
créateur.

Kuru
Je reçus un jour la visite de Stanley Prusiner, ce scientifique américain
qui avait découvert les prions. Nous étions à ce moment particulier des
grandes peurs de la vache folle, et il avait souhaité me rencontrer lors de
son passage à Paris. Avec ses cheveux blancs bouclés et ses baskets, il
portait beau. Ironie de l’histoire, il venait en France comme membre d’un
jury de prix gastronomique ! Nous avons longuement discuté des prions,
cette curieuse classe d’agents pathogènes, mais aussi évoqué à cette
occasion le kuru, maladie dont ils étaient responsables.
Le kuru avait décimé les Fores, une peuplade des hauts plateaux de l’est
de la Nouvelle-Guinée. Les premiers cas authentifiés comme tels étaient
apparus au début des années 1920. Ils avaient culminé ensuite dans les
années 1950. Dans cette zone, habitée par quelque 35 000 Papous, sévissait
une étrange maladie dont la première description et hypothèse étiologique
revenait à Carleton Gajdusek, un pédiatre américain. Formé dans la
prestigieuse université Caltech, au contact de Linus Pauling, il s’intéressait
aux agents infectieux. Ce chercheur avait fait plusieurs campagnes à la
recherche de nouveaux agents transmissibles et s’était mis à étudier les cas
de kuru, dont il devait donner une première description à travers une
communication à la Société de médecine et d’hygiène tropicale. La
maladie, qui avait paru d’abord comme étrange par la progression très lente
des troubles neurologiques – difficultés de locomotion, tremblements,
frissons – était d’évolution terrible. Elle conduisait progressivement à
rendre le patient grabataire dans sa hutte. Il terminait sa vie dans un tableau
de démence, à moins que le malheureux ne roule dans le foyer et ne périsse
d’intenses brûlures.
Gajdusek avait proposé que la maladie soit liée à une nouvelle classe de
microbes, les virus lents. L’histoire a démontré qu’il ne s’agissait pas de
virus, mais de protéines, dont la structure était anormale et pathogène. Cette
découverte revenait à Prusiner qui recevra le prix Nobel en 1997 pour
l’identification de ces protinaceous infectious particles, les prions, agents
transmissibles responsables de la maladie de Creutzfeldt-Jakob, de la vache
folle… et du kuru. En décrivant cette affection neurodégénérative mortelle,
ce qui lui avait valu également le prix Nobel, Gajdusek avait été le premier
à établir le lien entre cette affection, et les coutumes cannibales de cette
population de Nouvelle-Guinée. Il remarqua en effet que les Fores
consommaient les défunts pour s’emparer de leur force et de leur âme. Les
muscles et les cerveaux étaient ainsi partagés, mais de manière inégale. Aux
hommes, les muscles, dont ils faisaient grand cas comme attribut de
puissance, aux femmes les cerveaux et la moelle épinière. L’âme semblait si
légère, et les membres si solides… L’homme devant, la femme derrière.
Autour du foyer, cette inégalité des genres faisait toujours loi. Mais
l’inégalité ne portait pas seulement sur la nourriture, entre la force des bras
et jambes, et la légèreté du cerveau. Elle faisait régner la mort, la maladie
n’atteignant pas les deux sexes de manière identique. C’étaient les femmes
qui mouraient, non les hommes. On aurait pu en rester là sans la sagacité de
Gajdusek. La différence lui fit évoquer la présence de particules pathogènes
dans la substance cérébrale, et expliquer ainsi la contamination des femmes.
Le cannibalisme rituel avait ainsi fait plus que transmettre aux mangeurs
d’homme de nouvelles qualités, il avait été l’origine d’une redoutable
maladie, étrange retour de sort. On dénombra environ 2 700 cas, avant que
l’administration australienne ne réussisse à arrêter cette triste pratique. Le
dernier cas date de 2003, soit plus de quarante-cinq ans après la
contamination.
Mythes d’aujourd’hui
Le cannibalisme n’existe plus aujourd’hui – du moins officiellement –,
mais l’intégration de l’autre, l’assimilation de sa vertu, de sa force, de son
pouvoir, tout comme la communion quasi eucharistique lors d’un banquet
anthropophage, sont dépassés par un autre mythe. Le cyborg a pris la place
des mangeurs d’homme d’alors. La machine remplace le cœur ou membre
ingéré pour modifier l’humain. Mais tout le monde ne se laisse pas asservir
par le surnaturel, comme les peuples aztèques. Même quand il est conçu
dans le cadre d’une utopie peu réaliste, ce nouvel homme inquiète certains
au point de déclencher de nombreuses controverses. L’idée d’une puce
électronique sous la peau comme le propose le Britannique Kevin Warwick,
qui s’est présenté comme le premier cyber de l’histoire, effraie ceux qui se
voient transformés au point d’y perdre leur liberté. Popularisé par Manfred
Clynes et Nathan S. Kline qui se réfèrent à un être humain amélioré pour
survivre dans un environnement extraterrestre, il fait craindre que le
microprocesseur intégré à l’homme puisse le modifier. L’idée que la
machine arrive à prendre le pouvoir attire des lanceurs d’alerte sur cette
nouvelle forme de cannibalisme. Ne s’agit-il pas de s’approprier une âme
numérique, qui conférerait une nouvelle personnalité ? Elon Musk qui
imagine l’hybridation humain-machine inévitable plaide pour éviter d’être
vassalisé par l’intelligence artificielle. Il explique dans une interview qu’il
faut équiper l’homme d’implants intracérébraux pour le rendre plus
intelligent. Il n’est pas le seul. De nombreuses prises de position
transhumanistes, d’ailleurs sponsorisées par Google, témoignent de la
crainte que l’homme ne soit plus maître du progrès et puisse vivre une
rupture de civilisation. Des Techno prophètes se sont emparés de cette
vision pour nous promettre un autre avenir. Sont-ils si éloignés de ceux qui,
au pied des pyramides, mangeaient les charognes qu’ils avaient déifiées,
puis sacrifiées, pour se transformer en un homme nouveau afin de se diriger
vers un autre futur ?
Le transhumanisme d’aujourd’hui rejoint le posthumanisme des
mangeurs d’hommes. Assimilant le tonalli d’un autre, ils attendaient du
surnaturel une vie meilleure et pour certains une rédemption. Par
l’hybridation entre biologie et numérique, les transhumanistes proposent
d’augmenter nos capacités conscientes et inconscientes. L’homme se
connectera directement sur les réseaux du Web, comme les cannibales
communiaient à travers les attributs de la victime. À l’image des discours
des prêtres aztèques, les nouveaux prêtres du transhumanisme abordent les
thèmes de prédilection des mythes et des religions, tels le destin qui lie
l’homme à l’univers, le rapport à la mort, l’abolition de la souffrance. On
revient à des croyances, qui ont nourri nombre de civilisations qu’on
qualifiait de barbares.
Cette vision du futur déclenche des passions, provoque des débats
orageux. Les uns, tels ceux menés par Francis Fukuyama, philosophe et
économiste américain, soulignent les dangers du cyborg, l’homme
augmenté par la technologie, tandis que d’autres, tel Renald Bellay,
affirment que le mouvement transhumaniste incarne les aspirations les plus
audacieuses de l’humanité. Le cerveau modifié par la machine améliore nos
capacités, efface nos défauts et nous conduit à une nouvelle espèce
humaine. Pourtant, comme on le reverra plus loin, l’augmentation par
l’homme qu’il a sacrifié ou par la machine qui risquerait de le dépasser,
reste un mythe. Ainsi modifié l’homme ne répond à aucune réalité sinon
celle de son imagination. La réflexion sur le sujet appelle à des
considérations plus scientifiques sur les méthodes, moyens et technologies,
dont l’humain a besoin pour vivre ou survivre et pour ne pas céder aux
pressions de son environnement.
CHAPITRE 2

L’un pour l’autre

Paris, Noël 1952. Un jeune charpentier de 16 ans doit subir l’ablation


d’un rein unique qui a éclaté alors qu’il tombait d’un toit. Signe de la
défaillance de l’organe, le taux d’urée monte dans les heures qui suivent,
atteignant des valeurs qui font craindre une mort prochaine sauf à pratiquer
une transplantation en urgence. Or aucun rein de cadavre récent n’est
disponible. Après mûre réflexion, l’équipe médicale se résout à accepter le
don de la mère du jeune homme, qui, désespérée, se dévoue pour offrir un
des siens. Celui-ci est transplanté dans la nuit du 25 décembre. Après
l’intervention effectuée par René Küss, le patient est hospitalisé dans le
service de Jean Hamburger à l’hôpital Necker.
Cette année-là, les équipes américaines concurrentes avaient rapporté
près de douze tentatives de transplantation, avec des greffons prélevés sur
des cadavres ou des enfants hydrocéphales. Toutes ou presque avaient
échoué. Plusieurs autres avaient été effectuées sans plus de succès, tant en
France qu’au Royaume-Uni. Elles indiquaient que l’acte chirurgical était
faisable, sans danger majeur pour le receveur, et que le transplant pouvait
remplir ses fonctions, au moins temporairement. Elles confirmaient aussi
que la transplantation entre donneurs et receveurs non apparentés était
vouée à l’échec. Le Noël de l’hôpital, ce jour de 1952, fut un temps joyeux.
Rapidement, le transplant sécréta de l’urine. En quelques jours les
constantes biologiques de l’opéré revinrent à la normale. L’espoir était
grand du fait du lien génétique mère-enfant et du prélèvement sur un
donneur vivant. L’excellent état du patient les jours suivants faisait espérer
que la greffe prenne, une nouvelle aussitôt reprise par les médias, qui
annoncèrent la possible guérison avec un optimisme prématuré.
Brutalement cependant, au vingtième jour, la diurèse s’arrêta. Le rein fut
rejeté et le jeune homme décéda en quelques jours.
Ce n’est que deux ans plus tard, en 1954, que la première
transplantation fut effectuée avec succès. Elle le fut au Brigham and
Women’s Hospital à Boston par l’équipe de Joseph Murray et John Merrill.
Médecins, chirurgiens et biologistes s’étaient alliés pour réunir les
meilleures chances de réussite : la transplantation eut lieu entre des jumeaux
homozygotes. Les greffes de peau précautionneusement pratiquées au
préalable avaient confirmé la compatibilité. Comme une sorte de clin d’œil
à la tentative française, l’intervention fut également effectuée un
23 décembre. Cet autre Noël fut à l’origine d’un second événement car le
patient alla si bien, qu’il épousa par la suite son infirmière. Ce fut un succès
pour tous, patient, famille et équipe médicale. Pour cet exploit, Joseph
Murray reçut en 1990 le prix Nobel de physiologie ou médecine
conjointement à Edward Donnall Thomas. En fait, les problèmes soulevés
par les deux tentatives, française et américaine, n’étaient pas seulement
chirurgicaux, ni même biologiques et génétiques, ils étaient également
éthiques. Devait-on autoriser un acte chirurgical qui n’était pas
thérapeutique pour le donneur vivant, et lui faire courir le risque d’une
atteinte possible du second rein restant ? On pensait d’ailleurs à cette
époque que la question se posait uniquement pour le rein, seul organe ainsi
dédoublé. On sait aujourd’hui que d’autres parties du corps, comme le foie,
sont également concernées.
Lorsque je pris un poste d’interne quelque vingt ans plus tard dans le
service de Jean Hamburger, le souvenir de ces premières transplantations
était dans toutes les mémoires…

Tous cannibales
Le prélèvement sur donneur vivant n’est pas la seule difficulté qui a
interrogé philosophes et juristes, le recueil du greffon sur des sujets en état
de mort cérébrale interpelle également la loi et les consciences. D’ailleurs,
c’est à la greffe d’organes que la métaphore du cannibalisme développée en
ouverture de ce livre s’applique le mieux. Une pratique qui n’est pas
nouvelle puisque pendant des siècles la médecine s’est emparée des chairs
mortes pour leurs supposées vertus thérapeutiques. Dans son fameux texte
sur les cannibales, Montaigne rappelle qu’en son temps les praticiens
accommodent les dépouilles de mille façons, ils « ne craignent pas de s’en
servir à toute sorte d’usages pour notre santé ». La pharmacopée historique
regorge en effet de préparations médicinales à base de matières humaines.
La chair des macchabées est indiquée pour des usages externes sous forme
de pommades, d’onguents, de peaux préparées en lanières contre l’hystérie
ou les spasmes. Les mixtures absorbables sont prisées en élixir, en sirop,
poudre séchée, pilule, électuaire, etc. Selon les maux et les douleurs,
d’autres parties des cadavres, telles que la graisse et les os, sont réputées
pour leurs vertus. Parmi ces médications, la momie occupe une place de
er
choix. François I en apporte toujours un sachet dans ses déplacements,
réduite en fine poudre mélangée à de la rhubarbe pulvérisée. Ainsi préparée
ou diversement mitonnée, son usage est attesté au moins jusqu’au
e
XVIII siècle. Il faut toute la clairvoyance d’Ambroise Paré pour s’élever par
la raillerie contre une pratique qu’il juge irrationnelle, parce « qu’elle
pouvait beaucoup plus nuire qu’aider, à cause que c’est la chair des corps
morts et puants et cadavéreux, et que je n’ai jamais vu que ceux auxquels
on en avait donné à boire ou à manger qu’ils ne vomissent tôt après en avoir
pris avec une grande douleur à l’estomac ».
Le parallèle avec la transplantation peut choquer, comme la clémence
de Montaigne envers les rites funéraires tupinambas a heurté ses
contemporains, mais si l’on adopte la définition proposée par Claude Lévi-
Strauss alors le rapprochement s’impose : « Sous des modalités et à des fins
extrêmement diverses, il s’agit toujours d’introduite volontairement, dans le
corps d’êtres humains, des parties ou des substances provenant du corps
d’autres êtres humains. » Le cannibalisme en tant que tel, celui qui
délimiterait une frontière sans équivoque entre barbarie et civilisation,
« n’existe qu’aux yeux des sociétés qui le proscrivent ». Chaque culture
trace la limite de ce qu’elle valorise au regard de ce qu’elle honnit, et en
matière de transplantation le Japon en est un exemple. Pour des raisons
d’ordre religieux, par respect de l’intégrité du corps et un peu par méfiance
à l’encontre des médecins, les prélèvements d’organes sur des personnes en
état de mort cérébrale restent minoritaires au pays du Soleil levant.
D’ailleurs, ce n’est qu’en 1997, plus de deux décennies après la France, que
le Japon a officiellement reconnu la mort cérébrale comme fin de vie, une
loi étendue jusqu’aux enfants de 15 ans en 2009. En conséquence, de
nombreuses greffes rénales sont réalisées à partir de donneurs vivants et les
patients qui ne peuvent en bénéficier sont tentés de traverser les frontières.
Le tourisme de transplantation correspond au déplacement d’une
personne dans son propre pays ou dans un autre dans le but de se faire
greffer un organe. Se rendre à l’étranger revient souvent à tirer profit de la
législation des pays qui autorisent la vente d’organes. Entre 2002 et 2008,
les Philippines avaient officiellement instauré un programme qui favorisait
l’échange marchand. En Inde, le commerce d’organes était considéré
comme une chance pour les castes inférieures, qui trouvaient là
l’opportunité de gagner honnêtement quelques roupies. En Chine, c’est
l’exploitation des condamnés à mort qui a attiré une clientèle internationale,
une fois satisfaits les besoins d’une classe dirigeante vieillissante.
N’oublions pas qu’en France la transplantation a fait ses débuts à l’ombre
de la guillotine. En 1951, trois prélèvements de reins ont été réalisés sur des
condamnés à mort, à leur propre insu et à celui de leurs familles, mais en
juin de la même année, un décret mit fin à cette pratique.
On pourrait croire que le tourisme de transplantation est marginal, mais
en 2007 l’OMS évaluait à 10 % la part des greffes réalisées dans ce cadre.
Une enquête menée dans notre pays en 2002 avait identifié dix patients
ayant reçu un greffon d’un donneur rémunéré en Inde, Chine, Turquie ou en
Égypte. Devant ces constats alarmants, un accord international fut signé en
2008. Connu sous le nom de « déclaration d’Istanbul », il interdit le trafic
d’organes et le tourisme de transplantation. Il semble que cette déclaration a
permis de diminuer l’amplitude du phénomène, mais pas de le supprimer.
L’exploitation des plus indigents par les habitants des pays favorisés n’est-
elle pas une forme de barbarie plus manifeste que celle entrevue dans les
rites funéraires tupinambas ? Montaigne acquiescerait comme un seul
homme. Peut-être faut-il voir une sorte de justice dans le fait que la durée
de vie des greffons reçus à l’étranger est en moyenne inférieure à celle des
organes transplantés dans le pays d’origine ?

De la chimère mythique à la chimère


biologique
Greffer est un vieux rêve de l’homme, une chimère pour une chimère.
Dans les civilisations les plus anciennes, de multiples images de dieux,
demi-dieux, sirènes, tritons ou centaures, indiquent que son imagination
sans bornes a créé des êtres hybrides par le croisement d’espèces : Horus
avec sa tête de faucon, le Minotaure celle d’un taureau ou encore la greffe
de bois sur le crâne du cerf Actéon, puni d’avoir surpris Artémis dans son
bain. Ces légendes attestent de la quête sans fin de nouvelles qualités par le
mélange des chairs ou leur transformation en minéral, comme la pluie d’or
qui coule sur Danaé pour la féconder. Les chirurgiens français et ceux du
Brigham and Women’s Hospital se souvenaient-ils que la toute première
transplantation réussie résultait d’un combat céleste ? Hermès, dieu de la
santé, avait greffé les nerfs et tendons de Zeus que le géant Typhon avait
sectionnés et cachés dans une peau d’ours. Des mythes aux miracles,
l’histoire chrétienne abonde en greffes réussies telle celle pratiquée par
Jésus sur la colline de Gethsémani, recollant l’oreille d’un centurion que
Pierre avait tranchée d’un coup d’épée, ou encore celle de Pierre lui-même
qui, d’un geste plus osé, recoud les seins d’une jeune femme suppliciée
pour s’être refusée à un consul romain. Quant à Côme et Damien, ils
transplantent la jambe noire d’un Éthiopien décédé sur un sacristain dont le
membre avait été corrompu par la gangrène. L’opération lui rend si bien la
marche, qu’à son réveil il se croit transformé en un autre. Les romanciers
rivalisèrent avec les textes sacrés. Rabelais, dans son Pantagruel, rapporte
une réimplantation de tête : « Il ajusta veine contre veine, nerf contre nerf,
spondyle contre spondyle, afin qu’il ne fût torticolis […], lui fit alentours
quinze ou seize points d’aiguille et mit un onguent ressussitatif […] en
ceste façon Épistémon guérit. » Les Chinois firent tout aussi bien. Le grand
chirurgien Tsin Yue-Jen effectua une transplantation cardiaque par échange
de cœur entre deux soldats, non sans les avoir anesthésiés avec quelques
gorgées de vin sirupeux.
Mais la science ne laissa pas longtemps aux écrivains, poètes,
philosophes et curés le soin de transformer l’homme par l’homme. Pendant
longtemps, la greffe resta entre les mains des botanistes qui, par l’union
forcée des plantes, voulaient parvenir à quelques boutures nouvelles. On se
limitait à étudier les prises de greffons, mais l’on soulignait déjà la nécessité
d’un certain degré de compatibilité, l’appartenance à une même famille telle
le cerisier et le merisier, comme condition sine qua non d’une greffe
réussie. Le Genevois Abraham Trembley mit au point l’une des premières
méthodes expérimentales de transplantation tissulaire tandis que Charles
Bonnet créait des lombrics à multiples queues en les raboutant les uns aux
autres. Au XVIIIe siècle, on n’hésita pas à sauter la barrière d’espèces, avec
l’implantation d’ergots de poulet dans les crêtes de coq, une expérience que
John Hunter répéta en y greffant des dents, avant de réparer la mâchoire
d’un estropié en utilisant celles d’un cadavre. Au XIXe siècle, la
transplantation de certains organes endocriniens, thyroïdes, surrénales, et
même des testicules, fit croire à quelques succès, mais on s’aperçut vite que
les prises restaient exceptionnelles. En même temps, des greffes cutanées
eurent le mérite de favoriser l’évolution favorable d’ulcères ou de brûlures,
et d’ouvrir la voie à une certaine forme de chirurgie plastique. Des
lambeaux de peau servirent à refaire le nez, l’amélioration mêlant le succès
de l’autogreffe et l’échec de l’allogreffe, celle de tissus provenant d’un
autre individu. Certaines circonstances donnèrent lieu à quelques histoires
légendaires, comme la réfection d’un appendice nasal avec le bras d’un
esclave et sa soudaine nécrose à la mort de ce dernier. Déjà nombreux
étaient ceux qui pensaient au commerce des organes. On raconte qu’au
e
XIX siècle les étals de Djibouti abondaient en doigts, nez, oreilles et autres
pièces humaines prêtes à l’emploi pour réparer quelques sentences
judiciaires mutilantes. On comprit que le corps n’était pas un et indivisible,
mais que les organes pouvaient être séparés avant d’être potentiellement
greffés. Ces expériences montraient qu’ils pouvaient un temps subsister
hors du corps, ce qui conduisit à comprendre la dynamique vasculaire et
l’importance des milieux nutritifs de conservation. On identifia alors
quelques paramètres qui favorisaient le succès, notamment le degré de
parenté entre donneur et receveur.
Dans les années 1900, Alexis Carrel apporta des contributions
significatives à la médecine de greffe, sans d’ailleurs se limiter au rein. Il fit
de nombreuses expériences pour transplanter cœur, poumon, rate, intestin
dans un bestiaire d’animaux et, en 1908, il réussit la toute première
transplantation d’un membre inférieur entre deux fox-terriers. Ces exploits,
mais aussi ces échecs, en firent un des maîtres de la chirurgie expérimentale
et lui valurent le prix Nobel de médecine en 1912 pour ses innovations en
matière de chirurgie vasculaire et de transplantation. La biochimie et
l’immunologie étaient encore dans les limbes, et les questions posées par
l’origine du rejet ne semblaient guère intéresser les scientifiques. La
première greffe entre humains eut lieu en 1933. Elle fut réalisée en Ukraine
sur une jeune femme en coma urémique, qui reçut un rein de cadavre.
L’organe fut implanté à l’aine, du côté droit, suturé sur les vaisseaux
fémoraux selon la technique d’anastomoses de Carrel, et placé dans une
poche sous-cutanée d’où sortait l’uretère. La malade décéda quatre jours
plus tard, ce qui tempéra un temps les ardeurs de ceux qui souhaitaient
expérimenter sur l’homme. Une série de transplanteurs reprirent toutefois le
flambeau, un moment arrêté par la Seconde Guerre mondiale. Toutes leurs
tentatives ou presque furent des échecs, jusqu’à ce Noël 1954, où il fut
prouvé qu’un homme pouvait vivre avec l’organe d’un autre sans qu’il soit
rejeté. Par la suite, on allait apprendre l’efficacité de l’irradiation et des
traitements immunosuppresseurs, permettant des greffes en dehors de toute
parenté entre donneurs et receveurs. La première transplantation de moelle
osseuse fut effectuée en 1957 par Edward Donnall Thomas, celle du foie en
1963 par Thomas Starzl.
Aucune n’eut le retentissement médiatique de la première
transplantation cardiaque réalisée par Christiaan Barnard en Afrique du
Sud. La nouvelle éclata comme un coup de tonnerre et secoua la planète. La
surprise n’était cependant pas totale. Plusieurs spécialistes s’étaient attaqués
au problème, et notamment à une de ses principales difficultés : comment
effectuer un acte chirurgical sur un muscle cardiaque vidé de son sang, qui
devait rester inerte, sans contractions ? Il fallait confier la circulation et
l’oxygénation du sang à un appareil externe, branché sur une veine pour le
prélever et une artère pour le réinjecter. Les interventions à cœur ouvert
allaient précéder une longue série de transplantations expérimentales chez
l’animal. Au Cap, le malheur d’une jeune fille fauchée par un chauffard en
sortant d’une pâtisserie, allait fournir à Barnard l’occasion de cette première
tentative. Dans une chambre de son service, un épicier de 54 ans attendait,
après trois infarctus, son heure… ou sa mort. La greffe prit un temps. Il
décéda dix-sept jours plus tard, mais le vent médiatique fit du jeune
chirurgien une superstar et du malheureux patient un des premiers succès
transitoires de la transplantation cardiaque.
Avec ces victoires chirurgicales, la frontière irrévocable entre vivant et
mort devenait évanescente. Les techniques de réanimation avaient installé
une zone grise, un no man’s land entre le présent et le néant, un état d’où la
vie pouvait dorénavant procéder de la mort.

(Re)définir la mort
De façon paradoxale, l’une des premières conséquences des réussites de
la transplantation fut de (re)définir la mort, un diagnostic auquel les
e
médecins commencèrent à s’intéresser à partir du XVIII siècle. Auparavant,
la camarde frappait en hâte et au hasard, là un vieillard ou un enfant en bas
âge, ici des populations entières emportées par les famines et les épidémies
qui soustrayaient à l’aveugle. En 1742, Jean-Jacques Bruhier d’Ablaincourt
publie un ouvrage plusieurs fois réédité, dans lequel apparaissent les
concepts de « mort apparente » et d’« inhumation précipitée ». Face au
risque de méconnaître une vie à son minimum, d’autres publications
suivent. Elles recensent les signes de la mort, qui vont du « faciès
hippocratique » à la flaccidité de l’œil, en passant par la rigidité
cadavérique ou la putréfaction, un dernier signe un peu trop tardif et, selon
certains, dangereux sur le plan sanitaire. Par-delà les divers supplices
appliqués au corps inerte pour tester sa réactivité, le signe du miroir revient
dans la plupart des traités. Cherchant à déceler une respiration à bas débit, il
témoigne de la primauté du souffle dans les représentations de la vie. Au
e
début du XIX siècle le Code civil impose la vérification du décès par un
officier d’état civil. Un nouveau test va bientôt être privilégié par
l’Académie de médecine, il consiste à vérifier l’absence de battements
cardiaques par auscultation au stéthoscope, selon la méthode inventée par
René-Théophile-Hyacinthe Laennec plus de trente ans auparavant. Avec le
signe de Bouchut, du nom du médecin qui l’a décrit, le diagnostic de mort
e
devient instrumental et passe des poumons au cœur. Au cours du XX siècle,
la fin de vie se déplace à l’hôpital et à partir des années 1950 les techniques
de réanimation génèrent des « états frontières », parmi lesquels on peut
distinguer, selon les mots d’Anne Carol, « des vivants en sursis […] et des
morts en puissance ». Ce sont ces derniers qui, passé une frontière sans
retour que la loi va se charger de définir, seront désignés comme de
potentiels donneurs d’organes. Dans les années 1960, les réussites de la
transplantation obligent à accroître le vivier des donneurs potentiels et à
raccourcir les délais entre le prélèvement du greffon et l’acte chirurgical. En
1968, le Comité de Harvard propose une définition cérébrale de la mort,
ratifiée en France par une simple circulaire ministérielle publiée le 24 avril
de la même année, trois jours seulement avant la première tentative de
greffe du cœur par Christian Cabrol à la Pitié-Salpêtrière.
L’électroencéphalogramme détrône ainsi le stéthoscope et le cerveau
destitue le cœur.
Avec la définition de la mort cérébrale, le législateur fournissait aux
transplanteurs un accès à une importante source de greffons. Mais avant que
certaines interventions ne deviennent une routine il fallait apprendre à
maîtriser la réaction immunitaire et, à travers le rejet ou l’acceptation de
l’autre – mais aussi de ses propres organes –, comprendre ce qu’est
l’identité biologique de l’homme.

Le soi et le non-soi
Si la greffe fut si longtemps un objet de légende et une source d’échecs
c’est qu’il existe deux types de barrières qui protègent notre individualité.
Les premières nous définissent et donnent à chacun de nous une carte
d’identité. Les secondes nous défendent, et sont capables d’accepter ou de
rejeter cellules, tissus ou organes étrangers. Placées sous le contrôle d’une
fine régulation, les deux modalités, présence de l’une et stimulation ou
inhibition de l’autre, constituent les ingrédients biologiques d’une définition
de l’individu, du soi et du non-soi. Cette terminologie trouve son origine
dans la proposition du biologiste américain Paul Ehrlich qui, au début du
siècle précédent, avait posé le principe de l’horror autotoxicus, selon lequel
il est impossible qu’un organisme suscite une réaction immunitaire contre
lui-même. Le terme de « soi », d’emblée utilisé en tandem avec son
contraire, le « non-soi », est imposé par Macfarlane Burnet dans le courant
des années 1940-1950 pour dépasser le tabou immunologique d’Ehrlich et
répondre à une question : comment l’organisme apprend-il à ne pas réagir à
ses propres antigènes ou auto-antigènes ? Tandis que le geste chirurgical
stimulait médecins et chirurgiens, les biologistes s’étaient penchés sur la
compatibilité des greffes et la compréhension de leur succès ou échec. En
1937, Peter Gorer, dans des études chez la souris réalisées au sein du
Jackson Laboratory, à Bar Harbor, montrait que la compatibilité de greffe
était régie par un marqueur génétique qu’il appela H-2. Celui-ci devint plus
tard le « complexe majeur d’histocompatibilité ». George Snell étendit cette
découverte, et développa, par divers types de croisement entre animaux de
fonds génétiques différents, des souches de souris possédant ce segment
chromosomique. Il ouvrit ainsi la voie aux recherches immunologiques, ce
qui lui valut le prix Nobel de médecine en 1980 avec Jean Dausset et Baruj
Benacerraf.
L’origine génétique de l’identité ne présumait cependant pas de celle,
immunologique, du rejet. Peter Medawar, un professeur de zoologie, avait
été chargé par le Medical Research Council de définir le mécanisme du
rejet. Au début de la Seconde Guerre mondiale, un avion de la Royal Air
Force qui s’était écrasé dans son jardin en blessant grièvement le pilote
avait éveillé son intérêt pour les greffes. Medawar montra qu’après une
première greffe, une seconde transplantation de peau sur le même animal
était rejetée plus vite que la première, apportant ainsi la preuve
expérimentale que le receveur s’était immunisé. Il objectivait également la
spécificité du phénomène en montrant que le rejet n’est accéléré que si le
donneur est le même dans les deux greffes. Medawar allait de plus prouver
que les lymphocytes, qu’il allait nommer pour la première fois « cellules
immunocompétentes », étaient bien responsables de cette activité.
Quelques années plus tard, en 1952, Jean Dausset et ses collaborateurs
étudiant le sérum d’un sujet qui présentait une baisse de polynucléaires,
identifièrent un antigène à la surface des globules blancs qu’ils nommèrent
Human Leucocyte Antigen (HLA). La fonction de ces molécules resta un
temps obscur, avant qu’elle ne soit rattachée à la capacité de tolérer ou
rejeter des greffes. Utilisant divers réactifs sérologiques obtenus chez des
polytransfusés, Dausset en décrivit la présence sur la totalité des cellules de
l’organisme à l’exception des globules rouges qui possèdent un autre type
de marqueurs, le système A, B, O. Situés sur le bras court du
chromosome 6, les gènes HLA sont d’une extraordinaire variabilité. Sur un
même segment génétique, ou locus, ils peuvent revêtir de nombreuses
séquences différentes, définissant ainsi leur polymorphisme, qui distingue
les individus les uns des autres. Les gènes HLA sont issus d’un gène
ancestral apparu en même temps que les premiers vertébrés, notamment les
requins, les plus anciens d’entre eux. Ils n’ont pas d’équivalents chez les
invertébrés.
De nombreuses molécules, à commencer par les anticorps, ont des
structures comparables à celle du complexe HLA. Elles ont en commun des
facteurs de contact, d’adhésion et de reconnaissance. Ces marqueurs
d’identité ont une fonction essentielle qui intrigua longtemps les
immunologistes avant qu’on ne décrive leur structure et leur capacité
d’interactions avec les cellules T. Ces cellules immunitaires, comme
rapporté précédemment, se composent de différentes populations de
lymphocytes capables de tuer par cytotoxicité, de sécréter des molécules
inflammatoires ou d’aider les cellules B à produire des immunoglobulines.
Les anticorps reconnaissent directement leurs cibles en se fixant à
l’antigène. La reconnaissance des cellules T et leur activation dépendent
d’un mécanisme différent. Elles n’identifient les antigènes que fragmentés
en petits peptides, et à la seule condition qu’ils leur soient présentés par
certaines cellules via les molécules HLA. Les marqueurs HLA ont ainsi une
fonction particulière, celle de présentoir. On comprend aussi que le
polymorphisme de ces gènes, et donc de leur expression, est né de
l’extraordinaire capacité qu’ont les molécules HLA de se lier à l’extrême
diversité des peptides qui leur sont présentés. Selon leurs structures, elles se
sont spécialisées pour capter des peptides issus d’une infection virale, des
antigènes de rencontre ou des fragments de tissus étrangers, comme ceux
des transplants. Une fois le produit dégradé, attrapé par la molécule HLA,
l’ensemble hydride est présenté aux cellules T, déclenche la réactivité du
clone correspondant et induit sa prolifération.
Les molécules HLA se sont ainsi diversifiées au gré des rencontres avec
les peptides du vivant. À travers leurs migrations et les croisements entre
individus non apparentés, les hommes ont aussi rebattu les cartes et étendu
le polymorphisme des gènes. De manière remarquable, les molécules HLA
se sont adaptées aux deux principaux modes de réponse immunitaire des
cellules T. De fait, il existe à la surface des cellules T deux types de
molécules appelées CD4 et CD8 capables de reconnaître des complexes
HLA distincts et de stimuler la production d’anticorps ou d’induire une
réponse cytotoxique et inflammatoire.

Se tolérer
Le rejet des greffes pose cependant une question. Comment peut-on tout
à la fois lutter contre l’étranger et tolérer ses propres antigènes ? Macfarlane
Burnet pensait que la sélection s’exerçait sur la cellule qu’il identifiait
comme unité de transmission héréditaire de l’immunité. Ce faisant, les
cellules devaient distinguer les constituants de l’organisme, de ceux qui lui
sont étrangers. En 1969, dans un ouvrage intitulé Self and Not-Self,
l’Australien lança un défi : « Le temps est venu pour l’immunologie
d’insister sur l’importance du soi et du non-soi et de rechercher la manière
dont la reconnaissance de la différence, peut se faire. » Le système HLA
apparaissait alors comme le candidat de choix pour répondre à cette
interrogation. Par son extraordinaire polymorphisme, il permettait de
caractériser l’individu par une sorte de signature faisant de chacun un être
unique. La théorie de Burnet s’appliquait bien évidemment à l’acceptation
ou au rejet de greffes, mais savoir reconnaître l’étranger impliquait aussi de
se reconnaître soi-même. La tolérance est un joli mot qui vient du latin
tolerare, « supporter », et de tolerantia, « endurance », « patience »,
« résignation ». La tolérance n’est ni l’indifférence, ni la soumission, ni
l’indulgence. Elle est le respect. Quelle qu’en soit la définition, elle semble
passer par un acte actif. Si le système HLA était bien au cœur des
préoccupations, il fallait l’accorder à des observations plus anciennes, telles
celles de Ray D. Owen qui découvrit en 1945 que la tolérance aux antigènes
du soi n’était pas un phénomène inné, mais acquis. Ses expériences avaient
montré que des jumeaux nés d’un placenta commun, mais de deux ovules
différents, se comportaient comme des chimères. Ils présentaient dans le
sang des cellules provenant des deux individus. Les animaux toléraient
leurs cellules et celles qu’ils partageaient avec l’autre, dans une sorte de
coexistence pacifique.
La preuve formelle du caractère acquis fut apportée quelques années
plus tard, en 1953, par Rupert Billingham, Leslie Brent et Peter Medawar, y
découvrant le rôle des lymphocytes, cellules que nous retrouverons plus
détaillées dans le chapitre suivant. Ces chercheurs démontrèrent que la
transfusion à la naissance de lymphocytes d’un futur donneur induisait une
tolérance à une greffe tissulaire ultérieure. Ces résultats confirmaient les
théories de Burnet, selon lesquelles la tolérance résultait d’un apprentissage
du système immunitaire. Il fallut une réflexion de plus pour imaginer que
les lymphocytes réagissant contre les antigènes du soi étaient éliminés du
répertoire, ne laissant se différencier que les lymphocytes qui
reconnaissaient les antigènes étrangers. Ce n’est que dans les années 1980
que l’hypothèse put être confirmée grâce aux outils expérimentaux de la
biologie moléculaire. Dans le thymus, les clones lymphocytaires
reconnaissant les antigènes du soi sont éliminés. Près de 95 % d’entre eux
sont détruits dans cet organe et meurent avant d’arriver à maturité.
L’apprentissage de l’étranger, plutôt l’élimination des défenses dirigées
contre le soi, s’effectue ainsi au prix d’un important gaspillage de cellules
immunes que la complexité et le polymorphisme du système HLA rend sans
doute nécessaire. Seules sortent du thymus, celles susceptibles de réagir à
un antigène étranger, de sorte que la reconnaissance du soi est apprise, elle
n’est pas génétiquement programmée. La rupture de tolérance induit un
phénomène d’auto-immunité responsable de maladies comme la sclérose en
plaques, le diabète de type 1 ou la polyarthrite rhumatoïde.
Ce phénomène de tolérance active relève de l’immunité acquise, dite
adaptative, mais n’explique cependant pas tout. D’un côté, le microbiote et
quelques autres antigènes peuvent stimuler le développement de cellules
régulatrices (en particulier des cellules dites Treg) qui viennent
secondairement inhiber ou diminuer l’intensité de la réponse immunitaire
en cours de constitution. De l’autre, il restait à comprendre la régulation de
l’immunité innée, celle qui préexiste à l’introduction de tout antigène.
Réponse ancestrale, l’immunité innée dépend notamment d’une catégorie
particulière de cellules, les cellules naturelles tueuses, dites NK (Natural
Killers). Ces lymphocytes patrouillent dans le corps à l’affût de n’importe
quel intrus, prêts à l’éliminer ou le rejeter avant que la réponse adaptative,
de manière plus spécifique mais aussi plus complexe, ne prenne le relais.
Comment imaginer qu’elles puissent tout à la fois circuler, garder leur
potentiel fonctionnel en cas d’introduction de molécules étrangères, et au
même instant ne pas réagir contre celles de l’individu auquel elles
appartiennent ? Dans le cadre de l’immunité adaptative, les lymphocytes
autoréactifs ont bel et bien été éliminés. Mais concernant l’immunité innée,
aucun tri n’est fait sur les cellules NK. La réponse à cette énigme vint d’une
série d’expériences montrant que ces cellules répondaient bien aux
antigènes du soi, mais que cette interaction déclenchait des signaux négatifs
qui inhibaient leur potentiel cytotoxique. Les molécules HLA leur font
perdre toute forme d’agression contre le soi, comme si le poignard de
l’ennemi était retenu par la main de l’éternelle victime. Pour autant les
cellules NK conservent toute leur force contre les cellules des greffes qui
leur sont étrangères, ou certains cancers qui perdent leurs marqueurs HLA
et deviennent alors d’excellentes cibles, heureuse circonstance d’une
rupture de tolérance. Les molécules HLA font ainsi plus que de participer à
la réponse adaptative en présentant les peptides étrangers, elles règlent aussi
l’équilibre entre maintien et rupture d’une tolérance au soi par les
cellules NK. Ainsi, pour réagir à l’autre, il faut avant tout savoir et pouvoir
se tolérer.

Accueillir l’autre
Les traitements immunosuppresseurs entravent la réponse immunitaire
de rejet, mais ils induisent de nombreux effets indésirables exposant à une
fréquence accrue d’infections, de cancers, d’atteintes rénales et même de
diabète. Ils ont permis de maîtriser le risque de rejet aigu dans les mois qui
suivent l’intervention, mais pas d’enrayer les rejets chroniques à plus long
terme. Ainsi en France, 63 % des greffons sont encore en place dix ans
après une transplantation à partir d’un donneur décédé. Enfin, ces
associations médicamenteuses ont un effet péjoratif sur les mécanismes de
tolérance. Ces deux inconvénients majeurs ont conduit à évaluer de
nouvelles thérapeutiques qui permettraient de se passer
d’immunosuppresseurs tout en contrôlant les réactions de rejet et en
conservant une immunité efficace, en particulier contre les agents infectieux
pathogènes. Puisqu’il faut apprendre à s’accepter biologiquement et que,
comme l’avait montré Medawar, il est possible d’induire une tolérance chez
la souris grâce à l’injection de cellules hématopoïétiques du donneur avant
la naissance, l’idée de moduler le système immunitaire pour éviter le rejet
d’un greffon commença à être testée sur des modèles animaux dès les
années 1960 et, depuis une dizaine d’années, chez l’homme. Le point
commun de la majorité de ces essais est de reposer, comme dans
l’expérience de Medawar, sur le principe du chimérisme. En matière de
transplantation, il s’agit de faire coexister chez le receveur ses propres
cellules immunitaires avec d’autres provenant du donneur d’organe. On
savait que chez la souris l’ablation de la moelle osseuse par irradiation et
son remplacement par celle du donneur conduisait à un chimérisme total
avec tolérance de greffes cutanées ou d’autres organes issus du donneur.
Mais la technique est lourde, ses effets indésirables potentiellement graves
et elle favorise le déclenchement d’une réaction du greffon contre l’hôte au
cours de laquelle les cellules immunitaires du donneur se retournent contre
l’organisme du patient. C’est pourquoi les chercheurs se sont orientés vers
un chimérisme mixte dans lequel les deux origines cellulaires cohabitent.
Plusieurs équipes ont évalué cette stratégie chez de petits groupes de
patients, chacune avec des protocoles spécifiques, mais toujours dans le
cadre de greffes avec donneurs vivants. Dans tous les cas, une irradiation à
faible dose de la moelle et totale du thymus est nécessaire, suivie par un
traitement de courte durée ciblant certains lymphocytes et une injection de
moelle non fragmentée ou de cellules immunocompétentes sélectionnées du
donneur.
Les résultats ont démontré que l’induction d’un chimérisme partiel chez
l’homme permet de diminuer, voire de supprimer les traitements
immunosuppresseurs et de contrôler les rejets chroniques à long terme.
Dans certains cas, un chimérisme éphémère, qui n’est plus détectable
quelques mois après l’injection de cellules hématopoïétiques, donne d’aussi
bons résultats, comme si le système immunitaire du patient ne réagissait
plus contre l’organe transplanté. S’ouvre ici une piste intéressante car le
chimérisme éphémère est obtenu avec des protocoles moins lourds et donc
moins toxiques.
Une autre observation a éveillé l’intérêt des scientifiques : le taux de
cellules T régulatrices est augmenté dans le sang des patients présentant une
tolérance suite à de tels traitements et, chez l’animal, leur concentration est
particulièrement élevée à proximité de l’organe greffé. Ces
lymphocytes Treg, un temps appelés « cellules suppressives » du fait de leur
capacité d’empêcher une réaction immunitaire, font aujourd’hui l’objet
d’une recherche intensive. Présents en petite quantité dans l’organisme, ils
témoignent de l’équilibre fragile et dynamique du système immunitaire qui
doit à la fois être en mesure de réagir instantanément à une intrusion
menaçante, mais aussi de freiner l’inflammation, le recrutement et
l’activation cellulaire dont les conséquences peuvent être catastrophiques
s’ils se prolongent. Plusieurs essais d’induction de la tolérance par ces
cellules sont actuellement en cours en Europe (The One Study) et aux États-
Unis. D’autres thérapies cellulaires sont également testées, par exemple des
cellules dendritiques, celles qui présentent les antigènes aux lymphocytes
via les molécules HLA, et dont il a été montré qu’elles peuvent aussi avoir
une action régulatrice.
Le dynamisme de ces recherches pourrait permettre dans un avenir pas
trop lointain de tolérer des organes transplantés sans subir les effets
indésirables des immunosuppresseurs. Ces traitements pourront-ils un jour
faire tomber la barrière d’espèce ?

Le cochon est-il l’avenir de l’homme ?


En matière de transplantation, un mot revient sans cesse dans la presse,
celui de « pénurie ». Répétée avec la solennité d’une litanie, ressassée
comme une injonction pressante mais sans effet, l’information ne choque
plus, elle est devenue à peine audible, déjà emportée par le flux de
l’actualité. Pour donner un ordre de grandeur, en France
3 782 transplantations rénales ont été réalisées en 2017, un chiffre en hausse
par rapport à l’année précédente (3 069 en 2013) mais encore insuffisant au
regard de la demande puisque 17 698 étaient inscrits sur les listes d’attente
en 2016. Face à cette situation chronique la plupart des pays occidentaux
ont adopté des mesures législatives et organisé des réseaux de prélèvement
et de transports afin d’accroître la disponibilité d’organes prélevés sur des
donneurs en état de mort cérébrale. Et pour pallier la carence, les organes de
donneurs vivants sont de plus en plus nombreux. Malheureusement, toutes
les prévisions convergent : ces mesures ne suffiront pas à endiguer la
pénurie. Trois solutions principales ont été envisagées pour régler le
problème : la xénotransplantation, qui consiste à greffer un organe animal
sur un humain ; la conception d’organes biologiques artificiels par
organogenèse ; et la transplantation de cellules fonctionnelles au lieu de
l’organe entier.
Passé le temps des mythiques chimères, des greffes de lambeaux
e
cutanés issus d’un hétéroclite bestiaire sont rapportées au XIX siècle.
Lapins, moutons, chiens, chats et volailles : la basse-cour se mobilise pour
fournir un matériel biologique transféré par prélèvement ou par la technique
dite du pédicule, qui oblige l’animal à demeurer immobile à côté du
receveur pendant plusieurs jours. Le plus étonnant est que des médecins
décrivent des succès obtenus avec ces traitements. Alexis Carrel réalisa
plusieurs xénogreffes expérimentales sur des modèles animaux et écrivit en
1907 que l’idéal serait de transplanter des organes de porc, mais que ceux-ci
devront être modifiés afin de les « immuniser contre le sérum humain ». De
son côté, le Russe Serge Voronoff imagina un traitement miracle pour
inverser la flèche du temps en insérant des tranches de testicules de babouin
ou de chimpanzé dans les bourses de patients vieillissants. Attirés par les
promesses d’une thérapie anti-âge, des centaines de volontaires accoururent
de part et d’autre de l’Atlantique et Voronoff décrivit d’extraordinaires
rajeunissements chez certains d’entre eux. Plus tard, il demanda aux
autorités françaises l’autorisation de prélever un rein sur un condamné
fraîchement guillotiné afin de tenter une transplantation, mais la requête fut
rejetée par l’administration pénitentiaire.
Au début des années 1960, à une époque où la dialyse n’était pas encore
accessible, mais où la faisabilité de la greffe rénale avait été démontrée,
Keith Reemtsma transplanta une douzaine de reins de chimpanzés. La
plupart de ces tentatives tournèrent court en quatre à huit semaines, excepté
un enseignant qui conserva son greffon fonctionnel pendant neuf mois et
décéda soudainement sans signes de rejet du rein. Une affaire eut un
retentissement planétaire, celle de Baby Fae. En 1983, Leonard Bailey, de
l’Université de Loma en Californie, plaça un cœur de babouin dans la
poitrine d’un nouveau-né. La petite fille présentait une absence de cœur
gauche et aucune technique chirurgicale n’était en mesure de lui
reconstruire. Elle décéda vingt jours après l’intervention alors que
l’Amérique retenait son souffle dans l’attente d’un nouveau bulletin de
santé. Bailey venait de réussir la première greffe cardiaque jamais réalisée
sur l’homme et son action contribua à optimiser le don d’organes pour les
enfants. Dix ans plus tard, le Suédois Carl-Gustav Groth greffa chez une
poignée de diabétiques des îlots de Langerhans porcins, cette partie du
pancréas contenant les cellules qui produisent l’insuline. Aucune
amélioration du diabète ne fut constatée malgré les signes de survivance de
certains îlots.
Aujourd’hui, c’est bien le cochon, dont la place est pourtant peu
reluisante dans le panthéon animalier des hommes, qui suscite les plus
grands espoirs en matière de xénotransplantation. George Orwell avait-il vu
juste dans La Ferme des animaux, en le décrivant comme une élite fermière
capable de dominer les autres espèces domestiques ? Non, le choix ne doit
rien à une référence littéraire, le porc l’a emporté pour des raisons plus
pragmatiques. Contrairement aux singes – les primates non humains – le
cochon est une espèce ubiquitaire et abondante qui se reproduit facilement
en captivité. Les gorets grandissent rapidement et leurs organes atteignent
des tailles comparables à ceux de l’homme. Parce que leur viande s’étale
dans les rayons réfrigérés des supermarchés, leur utilisation pour la
transplantation ne devrait pas soulever de problèmes éthiques majeurs.
Elle pourrait même débloquer la situation dans des pays comme le Japon où
la culture s’accommode mal de la greffe interhumaine.
L’histoire de l’homme et du cochon s’écrit de conserve depuis le
Néolithique, elle est inscrite dans les cultures, ici au chapitre culinaire, là
dans le bannissement de sa chair. Le porc est entré en médecine dans les
années 1920 et jusqu’au début des années 1980 l’insuline utilisée par les
diabétiques en était extraite. Ainsi, le cochon est une vieille connaissance de
l’homme, mais sur qui on en apprend sans cesse puisque son génome a été
séquencé en 2012. Malgré ces avantages et des similitudes génétiques plus
importantes qu’on pourrait le penser avec le génome humain, la distance
évolutive entre les deux espèces importe. Car plus cette distance est grande,
plus le rejet est violent. Quatre types de réactions ont été décrits après
transplantation d’organes porcins sur des primates non humains avec, en
particulier, un rejet hyperaigu qui débute dans les heures suivant
l’introduction du greffon et entraîne la formation diffuse de caillots dans
l’organe transplanté. Cette destruction est liée à l’existence d’anticorps qui
apparaissent très tôt dans la vie des primates et qui sont dirigés contre des
antigènes présents à la surface des cellules porcines, en particulier celles qui
tapissent les vaisseaux sanguins. Lorsque la greffe était interhumaine, il
n’est pas possible de changer le donneur, la seule possibilité thérapeutique
est d’administrer un traitement immunosuppresseur au receveur. Dans le cas
de la xénotransplantation, on peut modifier l’animal donneur d’organes par
manipulations génétiques afin de le rendre immunologiquement plus
compatible avec notre espèce. C’est en poussant ce raisonnement à son
terme que les scientifiques ont échafaudé un surprenant projet : humaniser
le cochon. De quoi regarder d’un autre œil nos congénères des porcheries…
La première publication faisant état de porcs transgéniques date de
1985, à un moment où était apparue la technique de micro-injection d’ADN
dans l’œuf fécondé. Le principe consiste à introduire un gène d’intérêt dans
la cellule qui va se développer en un organisme entier, en espérant que ce
dernier s’insère au hasard dans le génome de l’embryon et qu’il s’exprime à
l’âge adulte. Une deuxième génération de porcs humanisés a vu le jour en
bénéficiant de la méthode qui fut mise en œuvre pour la brebis Dolly. Cette
fois, les manipulations génétiques étaient réalisées en laboratoire sur des
cellules animales, dont le noyau était ensuite prélevé et échangé avec celui
d’un œuf fécondé. Plusieurs lignées de porcs modifiés furent ainsi créées
jusqu’à ce que, dans les années 1990, la crainte de la transmission d’un
nouveau pathogène stoppe net les recherches. Pour le comprendre, il faut se
replacer dans le contexte de l’époque. La menace des maladies émergentes
avait été identifiée à travers de multiples exemples et la pandémie de sida
avait étendu son emprise sur la planète. La découverte d’un rétrovirus
porcin, de la même famille que le VIH (virus de l’immunodéficience
humaine), acheva de semer le doute et fit prévaloir le principe de
précaution. D’autant que, signe d’une infection ancestrale, le virus qui
venait d’être identifié se cachait dans le génome de l’animal où il était en
quelque sorte en sommeil. Que se passerait-il s’il se réveillait à l’occasion
d’une greffe ? Au-delà de l’infection d’un transplanté, ne prenait-on pas le
risque de déclencher une nouvelle épidémie meurtrière ? S’ensuivit plus
d’une décennie de moratoire qui prit fin avec l’avènement de la technique
d’édition du génome appelée CRISPR-Cas9. Il devenait alors plus facile de
modifier l’ADN du cochon de façon plus précise, plus ciblée. Il existe
aujourd’hui plus de vingt-cinq lignées de ces animaux transgéniques dont
certains ont jusqu’à sept gènes modifiés. Ils ont été obtenus en suivant une
double stratégie : insérer des gènes humains et réduire au silence des gènes
porcins, comme celui qui code pour Gal.
Aucune transplantation n’a encore été réalisée sur l’homme avec un
greffon de porc humanisé, mais les essais sur les primates non humains
(chimpanzés, babouins, macaques rhésus) ont obtenu des succès contrastés
selon les organes. Des reins remplissant correctement leur fonction sont
restés en place pendant en moyenne six mois, et même jusqu’à un an chez
certains receveurs. Des greffes cardiaques ont subsisté jusqu’à deux ans,
mais ces organes n’étaient pas fonctionnels, ils n’avaient pas été implantés
dans le but de maintenir la circulation sanguine. Les tentatives conduites
avec le foie et les poumons se sont soldées par des rejets beaucoup plus
précoces, à l’échelle de quelques jours à un mois maximum. Championne
toute catégorie, la transplantation d’îlots de Langerhans obtient le record de
longévité avec environ mille jours de survie chez le primate. Les cellules
greffées ont rempli leur rôle en contrôlant le taux de sucre dans le sang de
l’animal greffé.
De nombreux obstacles devront être levés avant que le cochon ne pallie
la pénurie d’organes humains mais, dotés des nouveaux outils d’édition du
génome, les chercheurs demeurent optimistes. Une question demeure
cependant, celle du risque de contamination infectieuse. Les plus optimistes
soulignent que les porcs transgéniques sont élevés dans des milieux
strictement contrôlés et que, comme le montre l’expérience acquise chez les
primates non humains, les rétrovirus porcins ne semblent pas pathogènes
pour l’homme. Les autres, ceux qui s’en remettent davantage à la
technologie qu’à un optimisme de circonstance, affirment que les séquences
d’ADN rétrovirales incluses dans le génome du cochon peuvent être
inactivées grâce à la technologie CRISPR-Cas9, comme l’ont montré les
travaux d’une équipe sino-danoise.

Organogenèse
Plutôt que de prélever des greffons sur l’animal, avec tous les
problèmes que pose le franchissement de la barrière d’espèce, les
chercheurs se sont engagés à la poursuite d’une autre chimère, cette fois au
sens métaphorique du terme : la fabrication de tissus et d’organes en
laboratoire. L’objectif à terme est de concevoir des organes transplantables
avec l’avantage de pouvoir utiliser les cellules du malade et d’éviter ainsi
toute réaction de rejet. Mais au regard des résultats expérimentaux, la
modestie s’impose et les chercheurs se contentent pour l’instant de parler
d’organoïdes, autrement dit de structures biologiques qui, par leur
composition et leur organisation, miment l’architecture d’un organe,
souvent sans reproduire sa fonction.
Depuis une dizaine d’années, des progrès sensibles ont été réalisés dans
ce domaine, notamment grâce aux techniques de culture cellulaire 3D.
L’idée est de reproduire les phénomènes observés au cours du
développement de l’embryon avec migration, différenciation et agencement
spontané des cellules par auto-organisation. Ces ébauches d’organes sont
produites à partir de cellules précurseurs d’un tissu donné, de cellules
induites IPS (voir chapitre suivant) ou de cellules embryonnaires
totipotentes. Mises en présence de facteurs de croissance et de diverses
protéines, elles peuvent être disposées sur une matrice (par exemple un gel
de collagène, de laminine, de la fibronectine ou réalisée à partir d’un tissu
décellularisé) qui favorise les différentes phases de l’auto-organisation.
Dans ce milieu perfusé en oxygène et en nutriments, tous les paramètres
peuvent avoir une influence déterminante sur la dynamique du système : les
molécules présentes dans le microenvironnement cellulaire, la chaleur, le
pH, les forces de microgravité, chaque variable doit être attentivement
surveillée et contrôlée.
Selon les recettes de cette cuisine biologique du troisième millénaire,
des modèles de cerveau, rein, foie, cœur, intestin, pancréas, glande salivaire,
dent, bref une palanquée d’organoïdes a été mijotée sur les paillasses. En
raison de l’absence de vascularisation, leur taille reste limitée car,
parvenues à un seuil critique, les cultures ne peuvent plus être correctement
nourries. Pour donner un ordre de grandeur, un organoïde cérébral se
compose d’environ 100 000 neurones alors que notre encéphale n’en
compte pas moins de 100 milliards. La diversité cellulaire composant un
organe pose un autre problème nécessitant la différenciation et
l’organisation de plusieurs lignées cellulaires. On le comprend, la greffe est
encore loin, mais certains de ces organoïdes remplacent déjà des animaux
de laboratoire dans l’étude des maladies ou pour tester la toxicité de
médicaments. Ainsi, un modèle de polykystose rénale, une maladie
génétique susceptible d’entraîner une insuffisance rénale terminale, a été
réalisé en inactivant les gènes PKD1 et PKD2 sur des cellules progénitrices
de rein, ensuite conditionnées pour former un organoïde.

Greffes cellulaires
Au regard de la taille encore limitée des organoïdes, il serait possible de
transplanter des fragments d’organes qui achèveraient leur développement
dans un milieu biologique idéal, l’organisme du receveur. L’hypothèse n’a
pas été vérifiée, mais elle rejoint une stratégie déjà parvenue au stade de la
recherche clinique chez l’homme : la greffe cellulaire. Le diabète de type 1
et la maladie de Parkinson sont les deux pathologies dans lesquelles cette
technique a fait l’objet de nombreux essais. La maladie de Parkinson
apparaît lorsque 80 % des neurones de la substance noire du cerveau qui
secrètent de la dopamine sont détruits. À partir du moment où les
techniques microchirurgicales ont permis d’accéder à cette région de
l’encéphale sans léser les structures avoisinantes, il devenait logique
d’envisager le remplacement de cette population neuronale impliquée dans
le mouvement. À la fin des années 1970, la preuve d’une amélioration des
symptômes fut faite sur des modèles animaux greffés avec des cellules
fœtales mésencéphaliques. Suite à ces résultats encourageants, des essais
cliniques ont été menés au cours des deux décennies suivantes à partir des
tissus dopaminergiques prélevés sur le cerveau de fœtus morts ou avortés.
Bien qu’il ne s’agisse pas d’un organe, la transplantation cellulaire doit
s’accompagner d’un traitement immunosuppresseur, pendant un an en
moyenne dans le cas présent. Les indications de la greffe sont restreintes et
les résultats furent variables selon études, mais certains patients virent une
régression de leur symptomatologie plus ou moins durable. Chez d’autres,
des mouvements anormaux incontrôlables et très handicapants sont apparus
de façon retardée, une complication dont le seul traitement connu est la
pose d’électrodes intracérébrales de stimulation profonde. Actuellement, les
équipes fondent des espoirs sur l’utilisation de cellules embryonnaires
maturées en laboratoire pour former des neurones semblables à ceux de la
substancia nigra.
Les protocoles sont plus avancés dans le diabète et, si on ne peut pas
encore parler de pratique courante, on dénombre une trentaine de greffes
d’îlots de Langerhans chaque année en France. Les cellules transférées sont
isolées à partir de pancréas prélevés sur des cadavres, un organe fragile qui
ne peut être conservé plus de huit à douze heures dans la glace. La
purification des îlots nécessite un laboratoire dédié et une manipulation
minutieuse. Ils sont ensuite injectés par cathéter dans la veine porte qui
conduit directement au foie. Presque 90 % des patients peuvent se passer
des injections d’insuline immédiatement après la greffe, mais ils ne sont
plus que 10 % dans ce cas cinq ans plus tard. Outre les risques
hémorragiques inhérents à l’acte chirurgical, les complications
hématologiques et infectieuses liées au traitement immunosuppresseur sont
les plus redoutées. Dernière difficulté, qui n’est pas des moindres, la greffe
d’îlots n’est pas prise en charge par la Sécurité sociale. La technique existe
donc, le protocole est au point, mais son efficacité limitée dans le temps, la
rareté des pancréas et les complications potentielles limitent son indication
aux patients dont le diabète de type 1 est déséquilibré et qui sont sujets à
des hypoglycémies graves. Lever les obstacles techniques n’est donc pas le
seul problème à résoudre, le contexte social et les finances publiques
décideront aussi de son avenir.

Les transplanteurs ont-ils perdu la tête ?


Impossible de conclure ce chapitre sans faire allusion à la
transplantation de nouveaux organes. En décembre 2017, une Brésilienne
qui avait subi une greffe d’utérus une quinzaine de mois auparavant donna
naissance à une petite fille en parfaite santé. D’autres exemples avaient été
rapportés, mais avec des donneurs vivants, alors qu’ici l’organe avait été
prélevé sur une patiente en état de mort cérébrale. Un espoir pour toutes les
femmes atteintes de malformation ou d’atrésie congénitale de l’utérus. Mais
surtout, en 1998 Jean-Michel Dubernard a ouvert le champ des greffes
composites avec la première transplantation de main à Lyon. Là encore, le
défi n’était pas d’ordre technique, mais fonctionnel et immunologique. Les
chirurgiens savaient depuis longtemps rattacher une main, mais personne ne
pouvait prédire la qualité de la récupération fonctionnelle et l’on craignait
une violente réaction de rejet liée au caractère composite de l’organe
(muscle, peau, vaisseaux, nerfs) et à la présence très immunogène de peau.
Le traitement immunosuppresseur ayant permis de contrôler ces réactions,
suivirent avec diverses fortunes des greffes de pénis, de bras, de jambes et
de visages. Outre les amputations nécessitées par une dégradation du
greffon ou la survenue d’une complication du traitement, le transplant n’est
pas toujours accepté par le receveur, intégré à sa psyché. Trois ans après son
opération, le premier patient de Jean-Michel Dubernard a demandé qu’on
lui enlève sa main parce qu’il avait l’impression de transporter celle d’un
homme mort. Et lorsqu’on connaît les performances des prothèses de
membres inférieurs qui ont permis à Oscar Pistorius de réaliser des exploits
aux Jeux olympiques de Londres en 2012, on s’interroge sur l’émergence
d’un « acharnement transplantatoire ».
La confirmation de cette dérive vient d’un chirurgien italien, Sergio
Canavero, qui a annoncé en novembre 2017 avoir réussi la première greffe
de tête. L’intervention consiste à transplanter un corps, le greffon, sur un
receveur, la tête. Dix-huit heures durant, le chirurgien et son équipe ont
rabouté vaisseaux, nerfs, muscles, peau, pour finir par réunir les moelles
épinières avec une colle censée fusionner les terminaisons nerveuses. En fin
d’intervention, une orthèse cervico-thoracique a été installée afin de
maintenir la tête en équilibre sur son nouveau thorax. Précision importante,
le donneur et le receveur étaient tous deux décédés, une situation qui
confère un premier avantage de taille : éviter tout saignement au cours de
l’acte chirurgical. Quant à juger de la réussite ou de l’échec d’une opération
sur des chairs inertes, seul Canavero semble en mesure de le faire, déclarant
au sortir du bloc : « Tout le monde disait que c’est impossible, mais cela a
été un succès. » Cinquante ans plus tôt, un autre neurochirurgien, Robert J.
White, avait réalisé la même intervention sur un singe rhésus vivant.
L’animal survécut trente-six heures, dont trois éveillé, et avait semble-t-il
conservé ses sens, ouïe, odorat, vision, goût. L’histoire dit même qu’il
parvint à mordre la main de son créateur. La prouesse a été rééditée en 2016
par l’équipe du professeur Xiaoping Ren, qui se vante de s’être fait la main
sur des centaines de souris décapitées et collabore désormais avec son
homologue italien. Sans surprise, aucun de ces animaux n’a réussi à bouger
le corps qui leur avait été greffé, car malgré les nombreuses recherches
conduites sur la réparation de la moelle épinière, personne ne sait rétablir la
motricité lorsque le câblage a été sectionné. Pourtant, un premier cobaye
s’est déjà fait connaître, Valery Spiridonov, un patient russe atteint d’une
maladie proche de la maladie de Charcot, qui entraîne une paralysie
ascendante progressive de toutes les parties du corps. Greffer un autre corps
ne lui redonnerait pas le mouvement mais des poumons qui assureraient
l’oxygénation de son cerveau, en espérant que la maladie ne progresse plus,
ce qui reste à démontrer.
« Il y a l’intrus en moi, et je deviens étranger à moi-même », écrit le
philosophe Jean-Luc Nancy, qui reçut une greffe cardiaque en 1991. On
mesure dans cette phrase toute la difficulté de faire sien un organe étranger.
Qu’en serait-il alors d’un corps entier ? Que resterait-il de l’identité du
receveur ? Sans compter que l’organisme implanté ne poursuivrait qu’un
seul but ancré au plus profond de son être décapité : rejeter cette tête
étrangère. L’esprit continuerait-il à fonctionner sans être rattaché à son
corps d’origine, pourrait-il réagir à son environnement comme dans
l’expérience de pensée du cerveau dans la cuve proposée par Hilary Putman
en 1981 ? Le transhumanisme ne promet-il pas une éternité numérique par
le téléchargement de l’esprit sur un disque dur ? De la même façon,
Canavero réactualise la dualité cartésienne corps/âme pour la poser en
termes d’organisme et de cerveau et affirmer que l’encéphale se suffit à lui-
même, le corps n’étant qu’une mécanique capable de transporter et de
nourrir l’encéphale.
CHAPITRE 3

Cultiver ses cellules

Beersheva, dans le sud d’Israël. Le désert n’était pas loin. Parfois un


vent fort nous rapportait un sable un peu plus ocre, collant, chaud, avec une
étrange odeur d’humus sec. Autour, dans l’oasis où les palmiers servaient
de toit et distillaient entre les palmes les couleurs irisées du soir, quelques
maisons basses entouraient une salle de réunion à l’air libre. Nous étions
une vingtaine de scientifiques qu’avait réunis Zelig Eshhar, un de mes vieux
amis israéliens. Il était chercheur à l’Institut Weizmann, quand je l’ai connu
à Harvard où il était venu passer lui aussi une année postdoctorale dans le
département de pathologie de Baruj Benacerraf. Eshhar était grand, avec
déjà un léger embonpoint, des cheveux bouclés, une voix chantante que
ponctuaient les accents un peu plus rudes de l’hébreu. Nous avions
sympathisé. Passionné de biologie moléculaire, il aimait les constructions
génétiques audacieuses. Entre tubes à essai, gênes, molécules et quelques
animaux d’expérience, combien de fois, attardés le soir par nos expériences,
nous discutions des résultats du jour, avant de partir, la neige venant, le long
de la Charles River. Après Boston, il y eut quelques années de césure et
nous nous étions perdus de vue jusqu’à ce qu’il me propose de le rejoindre
lors de cette réunion scientifique tournée autour d’une de ses découvertes
récentes. Il m’en avait dit peu, voulant m’en entretenir calmement en tête à
tête. Cela se passa le lendemain de mon arrivée à Beersheva. Il m’avait
proposé une marche dans le canyon cerné de hautes parois nacrées,
ponctuées de quelques arbrisseaux qui bordaient le fil d’un léger ruisseau
circulant entre les roches et les lauriers roses. Nous marchions en short et
basket dans l’eau froide. Le soleil plombait le sommet de ce petit précipice
et dardait ses rayons sur les parois. Au bout de quelques mètres, il rompit le
silence :
« J’ai eu une idée, dit-il. Nous sommes ici pour en discuter et peut-être
la pousser plus loin. Tu te souviens de nos travaux sur les lymphocytes T
cytotoxiques, ces fameuses cellules de l’immunité qui tuent leurs cibles en
s’accolant à elles et en leur injectant des enzymes toxiques ? Ce ne sont pas
les seules armes dont disposent nos défenses contre les microbes. Il y a les
anticorps produits par les cellules B, autres lymphocytes, qui reconnaissent
des cibles différentes. Ces cellules sont complémentaires mais agissent
indépendamment. Chacune joue son rôle. J’ai l’idée de réunir les deux
compétences. D’armer les cellules cytotoxiques avec des anticorps, de faire
reconnaître les cibles des cellules B par les cellules T. Qu’en penses-tu ? »
Je lui dis que je trouvais l’idée géniale, mais qu’il fallait savoir si elle
était exploitable chez l’homme. Nous fûmes partenaires du premier
programme européen conçu sur ce sujet. Quelque trente ans plus tard,
Eshhar, qui avait fondé une compagnie de technologie à partir des brevets
qu’il avait déposés, la revendait 10 milliards de dollars. Les cellules ainsi
transformées s’étaient montrées être une des armes les plus puissantes de
thérapie cellulaire pour combattre les leucémies. L’homme, modifié par des
cellules lymphocytaires chimériques, conçues avec deux récepteurs, l’un
des lymphocytes T, l’autre des lymphocytes B, avait acquis une nouvelle
immunité.
La thérapie cellulaire est l’une des principales innovations médicales du
e
XXI siècle. Elle part de l’homme pour y revenir, de la biologie pour se
transformer en pratique médicale, de la physiologie pour guérir la
pathologie. Elle a deux grandes indications, l’une dans le cadre d’une
médecine régénérative à partir de cellules souches pour reconstituer un
organe atteint, l’autre, telle l’invention de Zelig Eshhar, par l’utilisation de
cellules plus différenciées pour servir d’armes immunologiques.

Des cellules souches pour reconstituer


un organe
« Souche : Partie de l’arbre qui reste en terre, quand le tronc de l’arbre a
été coupé au ras du sol », nous indique le dictionnaire. Le mot s’applique en
biologie à des cellules qui donnent naissance à d’autres, leurs filles, et les
conduisent à un état plus différencié. L’analogie avec l’arbre, ses ramures et
ses feuilles, n’est pas indifférente. On peut y voir aussi la repopulation d’un
territoire à partir des ancêtres et des générations qui en découlent. Autrefois
apanage des laboratoires les plus sophistiqués, la production thérapeutique
de cellules souches est aujourd’hui en voie d’être reprise par l’industrie. Si
l’intérêt s’est d’abord porté sur ces cellules, ce fut pour leur capacité de
différenciation et surtout d’autorenouvellement qui pouvait permettre de
régénérer des organes et tissus atteints. L’essor de la biologie de la
reproduction et l’étude des cellules embryonnaires, capables de s’orienter
au fur et à mesure des divisions vers divers types de cellules matures, les
ont mises sous le feu de la rampe. En même temps, de nouvelles
indications, telles que la dégénérescence maculaire de la rétine ou
l’infarctus du myocarde sont venues compléter les toutes premières
applications, traitement des maladies du sang par la moelle osseuse,
brûlures par greffe de peau.
Les premières cellules souches utilisées en thérapeutique viennent de la
moelle osseuse, une découverte qui remonte aux travaux de Georges Mathé
et de son équipe, qui effectua en 1958, à la suite d’un accident nucléaire
survenu en Yougoslavie, les premières greffes de moelle osseuse entre
donneurs et receveurs non apparentés. Travaillant sur la reconstitution des
cellules du sang par injection de cellules médullaires dans des souris
irradiées, les études expérimentales pionnières devaient montrer que la
moelle osseuse contient deux types différents de précurseurs, les uns dits
hématopoïétiques car ils donnent naissance aux différents variants des
cellules sanguines, les autres intitulés stromales mésenchymateuses, qui
sont dotés de potentialités multiples pour donner du cartilage, de l’os ou de
la graisse. Ces deux catégories de cellules ne se trouvent pas seulement
dans la moelle, des précurseurs hématopoïétiques peuvent être également
isolés du sang de cordon et du placenta comme le montrent certains succès
de greffe, offrant ainsi la capacité de créer des banques cellulaires
spécialisées, le sang de cordon étant moins souvent rejeté que les
progéniteurs médullaires. Quant aux cellules mésenchymateuses, il est aussi
possible d’en isoler dans de très nombreux tissus de l’organisme.
Leur remarquable capacité à se multiplier est cependant limitée à la
différenciation d’un nombre restreint de catégories cellulaires. De plus, ces
cellules ont l’inconvénient de pouvoir être rejetées, comme toute greffe, par
l’individu qui peut en bénéficier.
On prêta alors attention à une autre source de cellules dont l’intérêt
parut d’emblée supérieur car elles pouvaient se différencier en un plus
grand nombre de populations différentes, d’où le qualificatif de
pluripotentes : les cellules embryonnaires. Cette découverte permettait de
franchir un pas important. Leur extraordinaire capacité
d’autorenouvellement faisait espérer des potentialités considérables de
reconstitution tissulaire. De telles cellules furent pour la première fois
repérées lors de l’analyse d’embryons surnuméraires, non utilisés pour
fécondation in vitro. Leur étude, longtemps suspendue en France, fut
obtenue dans notre pays d’abord par dérogation en 2011, puis avec
autorisation encadrée par l’Agence de biomédecine en 2013.
Évidemment, une telle loi interdit la conception d’embryogenèse
transgénique ou encore le clonage d’embryons humains. Le débat eut lieu
cependant. Car pour obtenir des cellules souches génétiquement identiques
à un patient, et donc parfaitement compatibles, on crut un temps possible de
créer des embryons humains par technique de clonage. Cette méthode qui
avait fait grand bruit, à l’occasion de la naissance de la brebis Dolly, avait
été effectuée pour la première fois chez cet important mammifère par Ian
Wilmut et Keith Campbell. Ces chercheurs avaient démontré qu’il était
possible de reconstituer un embryon à partir de cellules somatiques
différenciées, en l’occurrence de glande mammaire. Le procédé consiste à
extraire le noyau d’une cellule isolée de ce tissu, et à le transplanter dans un
ovule préalablement énucléé. Dans un faible pourcentage de cas, l’embryon
est capable de se développer normalement. Ce procédé fut appelé clonage
car il recrée un individu identique à celui d’origine.
Dolly a vieilli prématurément et souffert d’arthrite généralisée, mais
depuis l’exploit a été réalisé chez d’autres animaux, essentiellement
mammifères – souris, chats, chiens, porcs, chèvres, vaches, chevaux et
même dromadaires –, mais aussi chez les mouches. Chez l’homme, bien
évidemment, de nombreux débats ont limité les applications, réduites à
n’envisager ce procédé que pour créer des lignées cellulaires dans le but de
traiter un patient, d’où le nom de clonage thérapeutique. Il ne s’agissait pas
de créer un embryon fonctionnel, mais d’utiliser ses cellules aux premiers
stades de la vie embryonnaire. Longtemps le procédé resta hors d’atteinte,
avant qu’une publication ne fasse sensation. Dans un article paru en 2005
dans la revue Science, le Sud-Coréen Hwang Woo-suk prétendit avoir créé
plusieurs lignées de cellules souches embryonnaires humaines par ce
procédé de transfert nucléaire. L’exploit fit le tour du monde et l’événement
énoncé par certains comme une nouvelle révolution thérapeutique. Dans
son pays, Hwang Woo-suk, porté aux nues, fut considéré comme un héros
national. Le gouvernement coréen fit frapper un timbre à son effigie, une
image allégorique montrant la guérison d’un patient tétraplégique. Mais sa
gloire tourna court, car il fut accusé d’avoir enfreint certaines règles
d’éthique puisqu’il avait utilisé les ovules de jeunes femmes sans qu’elles
soient au courant de l’emploi qui devait en être fait. Ce fut le début d’une
polémique qui conduisit à une enquête et permit de conclure que certains
résultats semblaient avoir été falsifiés. La véracité de l’expérience fut
totalement remise en question. Hwang Woo-suk dut démissionner de toutes
ses fonctions, mis en accusation publique de manière aussi vigoureuse qu’il
avait été adulé. L’histoire des découvertes, fussent-elles fausses, peut passer
vite. Le chercheur, en activité dans son pays, s’occupe aujourd’hui de
clonage de chiens de compagnie ! Trucage ou erreur d’interprétation ? On
comprit bien plus tard, en étudiant les lignées cellulaires sud-coréennes que
l’histoire était plus complexe qu’une simple falsification. Il s’agissait d’un
cas de parthénogenèse, division à partir d’un cas de gamète non fécondé,
mode de reproduction connu chez les végétaux et certaines espèces
animales dont les reptiles.
Dans les limites de la loi, l’utilisation d’embryons surnuméraires a
montré son intérêt pour l’étude de certaines maladies humaines, tel le
diabète, où ces cellules furent appliquées au criblage de nouveaux
médicaments. Quelques tentatives de thérapie régénérative ont été
effectuées avec ces cellules d’autant qu’elles ne déclenchent pas de réaction
de rejet par l’organisme même si certains risques comme la survenue de
tumeur ont été signalés. Si l’on fait abstraction de considérations éthiques
ou religieuses, le principal obstacle tient cependant à l’obtention de telles
cellules, une difficulté et restriction qui ne donne que plus de prix à la
découverte révolutionnaire effectuée en 2006 par le Japonais Shinya
Yamanaka et son équipe. Ceux-ci ont réussi à convertir des cellules
stromales adultes en cellules ayant toutes les caractéristiques des cellules
embryonnaires. Parce qu’elles étaient induites, notamment par transfert
dans leur génome de certaines séquences codantes pour des facteurs de
croissance bien définis, et qu’elles devenaient ainsi capables de
différenciation, elles furent appelées cellules souches pluripotentes induites
(IPS pour Induced Pluripotent Stem Cells).
Depuis les premiers travaux de l’Université de Kyoto, la technologie
s’est considérablement développée. Le génie génétique – encore lui –
permit d’introduire par différents vecteurs des facteurs de programmation,
tout en évitant une mutagenèse possible par intégration malencontreuse
dans le génome. Rapidement, l’utilisation de telles cellules souches apparut
une innovation de choix dans trois domaines plus particuliers, la découverte
de médicaments, la fabrication tissulaire, la thérapie génique.
Facilement accessibles, donnant la capacité d’avoir une source quasi
inépuisable de cellules différenciées, ces techniques sont de choix pour
obtenir des banques cellulaires permettant l’étude de nombreuses maladies
humaines, dont les cellules et tissus pathologiques sont d’accès difficile.
Elles évitent nombre de questions éthiques, conviennent aux principes de
médecine personnalisée car elles permettent pour chaque individu de
sélectionner les traitements les plus adaptés.
On doit à cette stratégie de criblage médicamenteux un de ses premiers
succès obtenus dans une maladie très particulière, la progénie de
Huntington, entraînant un vieillissement accéléré, pour lequel on allait
découvrir certains composés thérapeutiques ciblant des enzymes clés en
défaut de cette maladie handicapante. Le fait d’avoir pu tester près de
2 000 molécules chimiques sur ces cellules pluripotentes montre la portée
d’une telle technique de détection, permettant dans un délai relativement
rapide l’obtention de nouvelles ressources médicales. Celles-ci n’auraient
pu l’être s’il avait fallu les tester individuellement in vivo chez les patients
porteurs d’un tel déficit, évitant ainsi leur toxicité lors de tels essais.
Le second avantage de cette technologie, que nous avons déjà évoqué
au chapitre précédent, est de pouvoir reconstituer in vitro, en laboratoire,
avec un milieu organique approprié, des organoïdes, sortes d’agglomérats
de cellules différenciées obtenus à partir de telles cellules souches. La
production en trois dimensions de composants tissulaires spatialement
organisés comme cela a pu être effectué pour la rétine ou le rein apporte des
avantages considérables pour mieux comprendre la physiologie et
physiopathologie des interactions cellulaires qui prennent place lors du
développement de la vie embryonnaire. Il est ainsi possible d’apprécier la
fonction des différentes cellules du rein, notamment celles qui filtrent les
composants de l’urine et les transforment en excrétat, un phénomène
relativement complexe pour maintenir l’équilibre (l’homéostasie) du milieu
intérieur si bien décrit par Claude Bernard. Ces organoïdes ne sont pas des
copies parfaites des tissus – les vaisseaux et les nerfs en particulier ne sont
pas présents – mais la technique reste perfectible et représente une approche
fascinante pour permettre aux chercheurs de mieux comprendre
l’organisation, la régulation, et les fonctions partagées entre types
cellulaires au sein des différents organes.
Une troisième performance, non des moindres, concerne l’application
qu’on peut en faire en clinique humaine. De telles cellules souches,
obtenues à partir d’un individu donné, peuvent lui être transfusées en retour
sans entraîner aucune réaction de rejet. L’étape de culture préalable, qui a
ses techniques particulières, offre cependant un certain risque de malfaçon,
les divisions cellulaires nécessaires à la différentiation in vitro pouvant
introduire certaines mutations susceptibles d’induire des tumeurs. La
méthode peut néanmoins présenter une alternative à la thérapie génique
(voir chapitre suivant) qui d’ailleurs peut être associée, s’il s’agit de réparer
l’une ou l’autre anomalie de l’ADN. Toutes les indications ne s’y prêtent
pas mais des tentatives existent, ainsi pour remplacer les cellules atteintes
de la rétine lors de la dégénérescence maculaire des sujets âgés. N’est-il pas
extraordinaire de penser que de telles réparations peuvent s’effectuer à
partir des fibroblastes mêmes des patients ?
La production de ces cellules peut être envisagée pour plusieurs
individus, mais est potentiellement soumise à un rejet. Dès lors, les
tentatives restent limitées à certaines indications, qui comportent un
moindre risque d’incompatibilité tissulaire telles la production de globules
rouges ou d’autres qui jouent un rôle dans la coagulation, les plaquettes.
Ces applications nécessitent d’importants contrôles de qualité pour être
utilisées chez les patients, car le cadre réglementaire est exigeant. Si les
travaux des chercheurs académiques au cours des quinze dernières années
ont permis de rêver à ces nouveaux traitements, le chemin est encore long
pour qu’ils soient d’emploi courant. Il s’agit de technologies de rupture
contrôlées par les agences françaises et européennes.
On conçoit cependant que leur utilisation pour lutter contre le cancer, ou
comme supports cellulaires pour le cœur, le foie ou le rein, ouvre des
perspectives fascinantes. Une étude de 2014 avait évalué le marché, toutes
applications confondues, dont les greffes de cordon, à 4,5 milliards de
dollars, lequel pourrait être multiplié par trois tous les deux ans pour
atteindre 31 milliards en 2026. Si ce pourcentage est encore faible sur le
marché des médicaments (1 %), le potentiel est considérable. Remplacer la
dialyse, générer les dents, traiter les complications diabétiques semble à
portée de main. Plusieurs produits sont déjà commercialisés et plus d’une
centaine d’études cliniques en promettent d’autres. De grandes industries
telles L’Oréal montrent leur intérêt pour des cellules souches dermiques ou
hypodermiques, domaine où les start-up japonaises sont également très
actives. Le développement industriel a cependant ses besoins, ainsi la
création de bioréacteurs pour remplacer les cultures en flacon. Elle a
également ses contraintes, dites bonnes pratiques, pour garantir la sécurité
et la qualité de cette médecine régénérative. Si l’homme est ainsi modifié,
c’est bien pour récupérer un tissu vivant fonctionnel en remplacement des
cellules malades.

De la régénération à l’adoption
À côté de cette médecine régénérative, existe une autre forme de
thérapie cellulaire, non pour pallier la déficience d’un organe, mais pour
utiliser le système immunitaire comme arme contre le cancer, les microbes
ou pour traiter les maladies auto-immunes. On parle alors
d’immunothérapie adoptive, traitement qui consiste à transfuser chez un
individu les cellules immunitaires, utilisant leurs propriétés thérapeutiques
de reconnaissance et de capacités fonctionnelles. Après isolement du sang
et une période de culture pour les stimuler, diverses populations de cellules
immunes peuvent ainsi être réinjectées aux patients avec l’espoir qu’elles
mettent en œuvre in vivo les capacités acquises in vitro, cytotoxicité,
production d’anticorps, ou autres, telle la sécrétion de certains facteurs de
croissance. Ces cellules peuvent être éventuellement modifiées pour
acquérir de nouvelles activités comme ces lymphocytes T armés
d’anticorps, appelés CAR-T, méthode décrite par Zelig Eshhar, qui ont fait
la preuve de leur efficacité contre les leucémies. En quelques années, cette
technologie a bouleversé le traitement de ces pathologies et le métier de la
greffe. À l’exclusion de celle-ci, la plupart de ces procédés restent encore
expérimentaux, soutenus par de nombreuses start-up. Pour comprendre leur
avenir potentiel, il faut en revenir aux propriétés si remarquables des
cellules immunes.

L’immunité, une seconde mémoire


Le système immunitaire est une part de l’homme qui se modifie sans
cesse, notamment à l’occasion des microbes de rencontre. Assurant la
défense de notre organisme contre les agents infectieux et particules ou
molécules indésirables, il est continuellement stimulé, évoluant au gré des
agressions. Dans ces situations, les populations de lymphocytes, principales
cellules de l’immunité, s’activent et en gardent la mémoire. À l’image d’un
fichier, on dit que le répertoire est modifié, pour être stimulé plus
intensément et plus rapidement lors d’un nouveau contact. C’est le principe
des vaccins. Ces populations cellulaires qui se renouvellent sans cesse
reflètent nos réactions les plus fines face à l’environnement. Elles sont les
témoins, censeurs et acteurs de nos capacités de défenses contre l’étranger.
L’immunité fut d’abord fondée sur un savoir empirique, et des formes
rudimentaires de vaccination. En décelant qu’une infection pouvait éviter la
récidive, les sociétés humaines, sans en comprendre le mécanisme, ont
appris qu’on pouvait protéger hommes et troupeaux par des pratiques
populaires d’inoculation (d’agent infectieux que l’on ne connaissait pas
encore). Avant d’être la science de l’immunité, l’immunisation fut un
procédé pour tenter de contrôler la réponse aux maladies infectieuses. En
même temps, si archaïques qu’elles soient, les techniques utilisées,
scarification ou tatouage, montraient que l’homme modifiait ainsi son état
et acquerait un autre pouvoir. Plusieurs centaines d’années avant les
tentatives audacieuses de thérapie génique et cellulaire, de simples mesures
pouvaient changer la nature humaine, en lui inculquant de nouvelles
capacités de lutte contre des maladies. André-Thérèse Chrestien fut un des
premiers à relier cette notion de résistance acquise au contrôle des maladies
infectieuses en soutenant sa thèse de médecine à Montpellier en 1852. Tous
les individus ne réagissant pas de manière identique aux épidémies, il
comprit qu’il était possible de remédier à cette inégalité par des approches
qui pouvaient être rationalisées et généralisées. Sans doute fallait-il être
médecin pour faire une telle découverte. D’autres, avant lui, avaient
cependant attiré l’attention sur des pratiques vaccinales. Une des premières
méthodes fut ainsi diffusée en Europe au XVIIIe siècle par Lady Mary
Wortley Montagu, qui rapporta qu’on pouvait prévenir la variole par
inoculations de croûtes sèches de pustules, un procédé utilisé à
Constantinople où son mari était ambassadeur de la couronne d’Angleterre.
Cette méthode de prévention allait rejoindre les tentatives d’Edward Jenner
pour développer la vaccination variolique par la vaccine, une maladie de la
vache, dont il avait découvert les vertus préventives. Malgré les doutes de
départ, non sans raison car la technique restait une inoculation complexe de
bras à bras et soumise à des complications secondaires, la vaccination fit le
tour du monde. En même temps, une nouvelle génération de scientifiques
dans la lignée de Louis Pasteur chercha à comprendre le phénomène qui
s’était développé chez l’homme pour conférer une résistance acquise à
certaines infections.
Les succès de la sérothérapie, dont Émile Roux se fit un ardent
défenseur en traitant la diphtérie des petits malades de l’hôpital Necker par
transfusion du sérum de chevaux vaccinés, plaidaient pour une théorie dite
humorale. Encouragés par les travaux d’Élie Metchnikoff, un autre des
collaborateurs de Pasteur, sur la capacité des globules blancs à digérer les
germes, d’autres prônaient au contraire une théorie cellulaire. Mais celle-ci
ne pouvait expliquer la résistance acquise après une première infection, ni
le pouvoir du vaccin, phénomènes qu’on rattachait à une sorte de mémoire,
celle de l’immunité. Longtemps, les apôtres des deux théories vont se livrer
une lutte fratricide sans tenter de les mettre en cohérence. Pour les tenants
de l’un ou l’autre camp, l’ardeur à imposer leur point de vue prenait le pas
sur toute autre tentative pour mieux comprendre ce qu’est l’individu et la
manière dont il peut réagir à l’étranger. Pendant longtemps, le langage de la
chimie et l’efficacité des réactions humorales, chacune différente selon les
vaccins, assura sa prééminence. La description de l’effet du sérum, qui
réagissait selon les microbes avec une remarquable spécificité, conduisit au
concept d’antigène et d’anticorps. Le terme d’antigène apparut pour la
première fois dans les Annales de l’Institut Pasteur sans faire aucunement
référence à la génétique, cédant au large emploi qu’en faisaient à l’époque
les biologistes. La production d’anticorps, c’est-à-dire la capacité à faire
apparaître dans le sérum de nouvelles molécules induites par l’antigène,
restait certes délicate à interpréter. Partant de l’idée que l’anticorps établit
une relation intime avec l’antigène, on chercha à analyser le mécanisme à
travers une définition purement tautologique. L’antigène caractérisait
l’anticorps et vice versa. Leurs caractéristiques structurales s’adaptaient
l’une à l’autre, mieux s’emboîtaient. Oubliant la fameuse mémoire
immunitaire, l’immunologie se limitait à l’établissement de réactions
chimiques spécifiques. L’un des chantres de cette vision, Karl Landsteiner,
réduisit ainsi l’essentiel à des mécanismes physico-chimiques. L’antigène
exerce une action physique sur l’anticorps comme un gant s’adapte à la
forme de la main qui s’y glisse. Cette vision lamarckienne de la plasticité et
de l’adaptabilité du vivant conférait à l’antigène le rôle principal. Ce dernier
façonnait les anticorps, comme la main peut moduler les coutures du gant à
son galbe.
En se focalisant sur les seules forces électrostatiques et en affirmant que
les modifications humorales induites par l’antigène, donc le vaccin,
passaient par une déformation des anticorps préalablement sécrétés, on
ignorait une des notions essentielles de l’immunologie : le rappel d’une
réponse plus intense lors d’une seconde rencontre. Il fallut ouvrir un
nouveau chapitre, dédié celui-là à une théorie cellulaire, pour faire passer la
biologie avant la chimie. L’Australien Franck Macfarlane Burnet en fut le
promoteur. Tout reposait sur une notion qui mettait en exergue la
multiplication cellulaire observée lors de l’introduction de l’antigène. En
dépassant la problématique de la complémentarité antigène anticorps, cette
nouvelle théorie prenait en compte un autre phénomène : la prolifération de
clones cellulaires, multiplication d’une cellule induite par l’antigène après
qu’elle l’a identifié. Celle-ci s’active alors et se divise en autant de cellules
filles toutes identiques, notamment par leurs capacités à réagir avec lui. On
en revenait à Darwin et à sa théorie sélective. L’hypothèse de Burnet se
heurtait cependant à ce stade sur un autre paradoxe, et aussi une autre
question : comment identifier l’inconnu ?
La réponse vint du Danois Niels Jerne qui compléta l’explication avec
un slogan : une cellule, un anticorps. Il imaginait que parmi toutes les
cellules de l’immunité, l’antigène sélectionnait celle capable de le
reconnaître. Ce simple phénomène de reconnaissance induisait la
prolifération clonale des cellules qui lui étaient spécifiques. L’antigène,
ainsi, ne sélectionnait par les anticorps, mais des cellules qui les portaient.
Pour Jerne et Burnet ce processus s’articulait autour de cette brique
élémentaire du vivant. Les anticorps ne servaient pas uniquement à la lutte
contre l’infection. La diversité cellulaire qui les porte représentait un
réservoir dans lequel chacun pouvait puiser au cours de sa propre histoire.
La modification immunitaire induite par l’antigène, humorale ou cellulaire,
repose ainsi sur la capacité qu’ont les cellules immunes à les reconnaître, à
croître et se multiplier. L’homme se transforme de la sorte. Il crée un
répertoire particulier à chaque individu, au gré de son contact avec
l’étranger, et à partir de ses propres réserves.
Dans un premier temps, tout à l’emprise de leur théorie sur cet
apprentissage, les champions de l’immunité cellulaire négligèrent de
caractériser le type de cellules qui en étaient responsables. C’est à partir de
1957, pour identifier les cellules produisant les anticorps, que
l’immunologie est entrée dans une phase analytique. Celle-ci s’est appuyée
sur leurs fonctions. Les cellules devaient patrouiller dans tout le corps pour
se rendre au lieu de l’infection. Il ne pouvait s’agir que des cellules du sang.
Toutes étaient éligibles et, parmi celles-ci, les lymphocytes, cellules
possédant un seul noyau. Ceux-ci avaient été identifiés par Paul Ehrlich qui
les avait classés en une lignée indépendante de celle qui donne naissance
aux polynucléaires, possédant plusieurs noyaux. Plusieurs séries
d’arguments expérimentaux furent nécessaires pour les rattacher à
l’immunité. Mais il apparaissait aussi indispensable de caractériser les
organes qui les produisent. Dans le courant des années 1950, l’anatomie prit
ainsi de l’importance et avec elle le rôle d’un organe étrange, le thymus,
situé à la jonction de la tête et du cou, dans la loge thyroïdienne. Présent
chez la plupart des mammifères, il involue progressivement au cours de la
vie. Important à la naissance, il régresse pour ne laisser qu’un reliquat à
l’âge adulte. Chez les oiseaux, existe de plus un autre organe, tout aussi
énigmatique, qui paraissait jouer un rôle dans le renouvellement des
lymphocytes : la bourse de Fabricius, située au niveau du gros intestin. Son
importance en taille diminue également au cours de la vie. Cette poche
remplie de lymphocytes doit son nom à un anatomiste de la Renaissance,
Fabricius d’Acquapendente qui en fit la première description. La capacité
qu’avaient ces deux organes à produire des lymphocytes et leur parenté de
structure rapprochèrent ces deux structures. Décrire ces cellules de
l’immunité et les tissus dont elles proviennent ne suffisait cependant pas à
apporter la démonstration de leur fonction. L’expérience nécessaire apparut
vite évidente : il fallait détruire l’un ou l’autre des deux organes et observer
les conséquences de cette mutilation pour en comprendre leur rôle.
L’ablation de la bourse de Fabricius supprimait la production des anticorps
chez les oiseaux. Or ce petit organe accolé à l’intestin n’existait pas chez
l’homme, ni d’ailleurs chez les autres mammifères. D’autres expériences
furent nécessaires pour démontrer son équivalent : la moelle osseuse. C’est
elle, chez l’homme, qui effectue ce rôle et produit les lymphocytes qui, une
fois activés, sécrètent les anticorps.
Il fallut plus de temps pour comprendre le rôle du thymus. Jacques
Francis Albert Pierre (JFAP) Miller fut le premier en 1961 à en évoquer la
fonction. Il publia une série d’observations dans la prestigieuse revue
médicale Lancet rapportant que l’ablation de cet organe entraînait une
sensibilité accrue aux infections chez les jeunes souriceaux, qui ne
parvenaient pas à rejeter les greffes de peau, et mouraient prématurément.
Un examen attentif permit de montrer qu’il manquait dans le sang un type
cellulaire qu’un autre chercheur, James Learmonth Gowans, avait associé
aux réponses immunitaires. De fait, le thymus produisait une autre
population de cellules que celles de la moelle osseuse ou de la bourse de
Fabricius. Ces lymphocytes ne sécrétaient pas d’anticorps, mais leur
présence était nécessaire. On allait découvrir que la réponse humorale
procède de la coopération entre deux types de lymphocytes, les uns
provenant du thymus, appelés de ce fait lymphocytes T, les autres dits B,
car provenant de la bourse de Fabricius ou son équivalent la moelle osseuse
(B comme bone marrow en anglais). Les lymphocytes T sont les donneurs
d’ordre, les lymphocytes B exécutent. Extraordinaire coopération qui, pour
produire des anticorps, fait interagir des cellules provenant d’organes aussi
différents et éloignés les uns des autres. Ainsi caractérisées ces cellules
thymiques ne suffisent cependant pas à décrire entièrement le
fonctionnement si complexe des réponses immunitaires. À côté des
lymphocytes T qui coopèrent avec les lymphocytes B pour sécréter des
anticorps, il existe une autre catégorie de cellules T dont la fonction est de
tuer les cellules infectées ou étrangères, les lymphocytes cytotoxiques.
Lors d’une agression par un microbe, lors d’un vaccin, ou d’une
transplantation, se met ainsi en place une réponse immunitaire qui stimule
l’une, l’autre, ou les deux modalités de réaction, production d’anticorps,
activation de cellules tueuses cytotoxiques. Le répertoire lymphocytaire
s’adapte, se module et se modifie en fonction, une mémoire s’installe qui
garde la trace du phénomène, prête à déclencher si l’agression se répète. La
diversité des populations lymphocytaires et celles qui, par leurs molécules
de surface, interagissent avec l’antigène, reflètent nos rencontres avec
l’environnement. Au cours de l’évolution, l’homme s’est ainsi diversifié par
ses contacts avec les microbes et les réponses qu’ils ont occasionnées.
Chaque individu acquiert et se forge une identité particulière, façonnée mais
mouvante, par la mise en jeu, et à l’épreuve, de ce système complexe qu’on
appelle immunitaire. Un tel phénomène explique qu’on peut artificiellement
ou naturellement le stimuler.
L’activation et la sélection des répertoires immuns sont ainsi largement
utilisées pour les vaccins. Les découvertes pionnières de Lady Wortley
Montagu et de Edward Jenner, ainsi que celle, quelques années plus tard, de
Pasteur contre la rage, avaient certes permis une protection contre des
maladies emblématiques et redoutables, mais non d’interpréter le
mécanisme qui expliquait leur succès. Les avancées de l’immunologie
firent comprendre la vaccination, mais facilitèrent aussi l’élaboration de
nombreux vaccins qui ont jalonné l’histoire des fléaux infectieux. Après la
période héroïque, on put disposer de vaccins contre le choléra, la fièvre
typhoïde, la tuberculose, la coqueluche, le tétanos et la diphtérie.
L’efficacité contre ces deux dernières maladies dut beaucoup à la
découverte de l’anatoxine par Gaston Ramon qui procéda par chauffage et
addition d’acide formique pour détruire l’effet pathogène des toxines.
Vinrent ensuite la découverte de vaccins contre la fièvre jaune, la grippe,
puis par la mise au point délicate de culture de tissus et cellules, ceux contre
la poliomyélite, rougeole, rubéole, oreillons, varicelle, vaccin plasmatique
contre l’hépatite B. De véritables prouesses techniques permirent ensuite la
mise au point de vaccins polyosidiques – à plusieurs radicaux sucrés –
contre le méningocoque et le pneumocoque, tandis que sont apparus de
nouveaux procédés moléculaires et génétiques et, avec eux, d’autres formes
de vaccins qui ne furent plus constitués de l’agent infectieux, mais d’un de
ses éléments protéiques (coqueluche, vaccin recombinant contre
l’hépatite B, virus HPV oncogènes).
Les vaccinations cherchent ainsi à gommer nos différences à résister
aux microbes, une des principales causes de mortalité, notamment dans les
pays à ressources limitées. En modifiant les ressources immunitaires de
l’homme, pour les renforcer, on construit une société plus juste. Ces
méthodes de prévention sont aujourd’hui accessibles à tous. Mais de
nombreuses réticences continuent d’alimenter refus et rejets. La mort
récente de vaccinateurs qui tentaient de sensibiliser les Pakistanais à la
vaccination en est un terrible exemple. La théorie du complot imputait au
vaccin les pires malédictions et la fatwa lancée contre ces émissaires de
santé publique les avait transformés en condamnés à mort. L’obscurantisme
est responsable de ces flambées de violence, reposant sur le caractère
invisible des microbes et l’incompréhension des phénomènes immunitaires
qui peuvent prévenir leur agression. Au temps où l’on parle de modifier
l’homme par des puces électroniques qui stimuleraient son cerveau et sa
mémoire, il est une mémoire que l’on peut accroître plus simplement, et
sans doute plus efficacement, celle que les vaccins induisent pour lutter
contre les maladies infectieuses.

Des anticorps pour guérir


Les vaccins préventifs ont aujourd’hui nombre d’indications contre des
microbes, virus et bactéries. L’usage et le nombre de vaccins
thérapeutiques, capables d’agir contre la maladie une fois installée, sont
cependant plus restreints. De fait, il faut un certain temps pour que tout
vaccin puisse installer une immunité efficace, ce qu’une infection récente
ne respecte pas. Le vaccin contre la rage fait exception par la latence que
met le virus à gagner le cerveau. Le vaccin thérapeutique reste une parade
intéressante pour lutter contre certaines affections telles que le cancer ou le
VIH, mais représente surtout l’objet de recherches et de tentatives
audacieuses encore chargées d’espoir.
En utilisant des anticorps, matériel soluble qui peut être dirigé à façon
contre des agents infectieux, ou d’autres cibles pathologiques, les
scientifiques ont tenté de bénéficier de leur grande diversité comme arme
thérapeutique. Les premiers succès de la sérothérapie remontent aux
travaux de lutte contre le tétanos et la diphtérie, constatant que des anticorps
contre les toxines peuvent en inhiber les effets. Mais la découverte que les
anticorps à façon peuvent être produits par des cellules en culture,
proliférant de manière clonale, c’est-à-dire en quantité illimitée, a
bouleversé l’usage qu’on pouvait faire de cette thérapie. En 1975, César
Milstein et Georges Köhler devaient en effet démontrer la capacité de
cellules B à produire des anticorps spécifiques, après hybridation entre deux
lymphocytes, l’un normal apportant la spécificité, l’autre tumoral conférant
l’immortalité, un procédé remarquable qui leur valut le prix Nobel. Par la
suite de multiples techniques génétiques permirent d’obtenir des anticorps
chimériques souris-homme, puis totalement humanisés, et de les proposer
en usage thérapeutique. Depuis la mise sur le marché en 1983 du premier
anticorps monoclonal dirigé contre le récepteur des cellules à l’antigène, un
nombre important d’anticorps sont aujourd’hui commercialisés ou en voie
de l’être. Profitant de la capacité qu’ont les gènes d’immunoglobulines par
leur assemblage et variabilité de séquence à traduire un nombre quasi infini
de réponses contre de multiples déterminants antigéniques, les anticorps
monoclonaux sont devenus des armes thérapeutiques, de la polyarthrite
rhumatoïde au cancer en passant par les maladies inflammatoires du tube
digestif et d’autres maladies de la peau. Certes, il ne s’agit pas de stimuler
le système immunitaire, mais l’introduction d’un tel substitut compense les
capacités de l’homme à atteindre des cibles pathologiques. On parle
d’immunothérapie passive.
Les anticorps n’agissent pas seulement en se liant à l’antigène. Bien
souvent, ils s’adressent à des molécules présentes sur des parois cellulaires,
humaines ou microbiennes. Une partie d’entre eux, alors fixée par ses
séquences variables, peut doubler la capacité de reconnaissance d’une autre
fonction liée aux régions constantes de l’anticorps. Ils peuvent ainsi
acquérir des capacités de cytotoxicité directe ou non, ou faciliter
l’englobement par les phagocytes. L’ingénierie de tels anticorps
monoclonaux peut également potentialiser son action ou au contraire limiter
certains effets secondaires toxiques ou dangereux pour l’organisme.
Nombre d’entre eux sont aujourd’hui utilisés en oncologie, soit pour inhiber
directement la multiplication tumorale, en s’attachant à des molécules qui
en sont responsables, telles l’insuline nécessaire au métabolisme de
certaines cellules cancéreuses, facteurs de prolifération vasculaire, ou par
un mécanisme plus récemment démontré en bloquant ou stimulant des
molécules de contrôle des cellules immunes. Leur état d’activation, de
repos ou d’épuisement est en effet soumis à l’action de certaines molécules
dite « Check Point ». Des anticorps habilement dirigés contre ces cibles
redonnent vie et vigueur aux cellules épuisées. Le système immunitaire,
qu’on pouvait croire un temps inactif, repart d’un nouveau potentiel
fonctionnel. D’inopérant, celui-ci peut alors exercer une activité
antitumorale. Des résultats parfois spectaculaires chez certains patients
peuvent ainsi entraîner des rémissions prolongées, voire la guérison, dans
nombre de cancers (côlon, rein, ovaires, mélanomes, etc.). De multiples
anticorps contre ces molécules offrent aujourd’hui une panoplie d’armes
thérapeutiques pour de nouvelles applications dans la lutte antitumorale.
Des anticorps à visée thérapeutique sont également employés dans le
traitement de maladies inflammatoires et auto-immunes tels diabète,
thyroïdite, sclérose en plaque, myasthénie, polyarthrite. Leur mécanisme
d’action alors recherché est multiple, mais il s’agit surtout de bloquer des
facteurs inflammatoires, cytokines tels les TNF, IL1, IL2 ou chimiokines,
molécules attractives, ou encore d’inhiber leurs récepteurs.
L’immunothérapie s’adresse également aux maladies infectieuses, aux
troubles de l’hémostase, aux transplantations pour bloquer les réactions de
rejet. Les indications sont multiples et ne cessent de croître au gré des
succès des nouvelles expérimentations humaines et animales. Certes, il faut
rester vigilant dans leur utilisation et possibles effets secondaires, savoir
respecter la réglementation, choisir les bons modèles. Leur prix souvent très
onéreux en limite l’utilisation et doit s’intégrer aux systèmes de santé, ce
qui rend leur usage difficile dans les pays à ressources limitées. Complétant
cependant l’effet des cellules immunes dont ils dérivent, ces produits
représentent par leur spécificité, fonction possible, diversité des cibles, des
armes thérapeutiques qui rejoignent et même parfois dépassent les espoirs
mis en thérapie cellulaire. Loin d’opposer l’une à l’autre, ces deux
approches, parfois complémentaires, partent du vivant pour y revenir, et
modifient l’homme par ses propres ressources.
CHAPITRE 4

Éditer le livre de la vie

« Je crois à la génétique », m’avait dit Baruj Benacerraf, en me toisant


lors de notre première rencontre. Ce célèbre immunologiste américain
dirigeait le Département de pathologie de l’Université médicale de Harvard
où je venais faire un stage postdoctoral pour m’initier à un domaine très
particulier : le contrôle des réponses immunitaires. Nous étions tous deux
dans son bureau. Il parlait d’une voix fluette et s’exprimait en français, sa
langue d’origine, qu’il aimait pratiquer.
« Savez-vous, m’apprit-il lors de cet entretien en guise de première
leçon, que l’immunogénétique est très curieusement née des réflexions de
Hitler sur l’eugénisme ? »
Devant mon air étonné, il s’arrêta un court instant pour juger de ma
surprise, puis reprit :
« Voyant ses armées dévastées par le choléra et le typhus lors de la
campagne de Russie, il avait convoqué un certain nombre de scientifiques
sur une idée assez folle, qui cadrait cependant avec sa vision du monde. Il
attendait d’eux d’inventer des moyens pour améliorer la race aryenne afin
de mieux résister aux épidémies. Certaines des expérimentations furent
conduites dans des camps de concentration pour tester la résistance de
prisonniers à des inoculations infectieuses. D’autres furent menées en
laboratoire sur des animaux. C’est ainsi qu’un Allemand, du nom de
Scheibel, fut un des premiers à démontrer que des croisements entre
cobayes résistants à la diphtérie pouvaient en quelques générations
seulement donner naissance à une espèce animale totalement insensible à
cette maladie. Une telle expérience montrait que la génétique pouvait
permettre de lutter contre les microbes. C’est sans doute ainsi que nous
avons survécu aux grandes pestes, ajouta-t-il. Les agents infectieux ont
sélectionné les hommes qui leur résistaient. »
Benacerraf avait repris l’idée quelque vingt ans plus tard, et l’avait
menée à son terme. Il décrivit magnifiquement le contrôle génétique de
l’immunité et ainsi nos capacités à nous défendre contre les infections et
répondre aux vaccins. On montra par la suite que ces gènes correspondaient
au système HLA qui régule notre compatibilité aux greffes, une découverte
qui rapprocha Benacerraf de Jean Dausset et leur fit partager le prix Nobel
en 1981. Les réponses immunitaires sont un des premiers et principaux
exemples, naturel ou induit par les vaccins, qui montre que l’homme peut se
modifier sans cesse face à un environnement qui stimule son principal
interface : le système immunitaire… Et que celui-ci peut être restauré,
comme le montre le premier succès de thérapie génique à l’hôpital Necker
de Paris.

Traiter nos gènes


Novembre 2018 : l’annonce d’une tentative de thérapie génique
s’affichait sur les prompteurs des principaux journaux internationaux, une
information reprise par les actualités télévisées du monde entier. La
nouvelle, qui relevait de l’exploit, fit cependant s’élever de nombreux cris
d’alarme, notamment au sein des comités d’éthique internationaux. Les
médias eux-mêmes, ainsi que divers responsables administratifs et
politiques, firent part de leur grande inquiétude qui se transforma
rapidement en vives critiques. De quoi s’agissait-il ? Un scientifique
chinois, lors d’une conférence à Hong Kong, puis par une vidéo diffusée,
avait annoncé la naissance de jumeaux dont l’ADN avait été modifié pour
les rendre résistants au virus du sida. Mis en vedette par le titre « Les
premiers bébés OGM », l’événement avait soulevé un tollé général. Cent
vingt-deux scientifiques chinois déploraient dans un communiqué la folie
de leur collègue concitoyen, dont l’expérimentation, si elle avait vraiment
eu lieu – car un doute subsistait –, constituait une grave violation des lois,
réglementations, et normes éthiques de leur pays. D’ailleurs, la Commission
nationale de la santé chinoise, en écho, demandait la suspension des
activités du chercheur, considéré comme un dangereux aventurier ayant
franchi les limites de la morale.
Appliquant les plus récentes méthodes d’ingénierie génétique, la
technique utilisée avait consisté à inactiver un des corécepteurs du VIH,
molécule qui permet au virus de pénétrer dans les lymphocytes CD4 qu’il
infecte. La manipulation ainsi réalisée avait pour objectif d’éviter à l’enfant
une éventuelle infection par ce virus. L’indication d’un tel traitement,
énonçait le scientifique, reposait sur la séropositivité du père, qui avait
cependant peu de chances de contaminer ses enfants, la contagion se faisant
par voie sexuelle ou sanguine. Le fait majeur, à l’encontre de toute
réglementation éthique, était que l’intervention avait été pratiquée à une
étape précoce de la vie embryonnaire, risquant non seulement d’atteindre
les cellules somatiques, mais également les cellules germinales, de sorte
qu’une telle mutation, inscrite dans le patrimoine génétique, pouvait être
transmise à la descendance. Jusqu’au stade de huit cellules, toutes les
cellules embryonnaires ont en effet les mêmes potentialités, et restent
indifférenciées. Ce n’est que par la suite qu’elles se spécialisent, les cellules
germinales primordiales apparaissant à la troisième semaine, si bien qu’une
expérimentation pratiquée précocement peut modifier les futures gonades,
spermatozoïdes et ovules, induisant des traits héréditaires, une première
chez l’homme. Plus que tout autre élément, la critique reposait sur ce point :
on portait atteinte au patrimoine humain.
Or l’expérimentation chinoise, si discutable soit-elle, s’était effectuée
dans le cadre d’un large débat pour autoriser et utiliser les nouvelles
techniques de modification du génome. Ainsi, le Nuffield Council on
Bioethics, un organisme de surveillance britannique indépendant et faisant
autorité en matière de manipulations génétiques, avait rendu quelques mois
auparavant un avis favorable à l’application de celles-ci sur les embryons
humains à condition qu’elles n’augmentent pas « les inégalités sociales,
avec leurs risques de désavantage, discrimination, ou division ». La
tentative récente s’inscrivait ainsi dans une réflexion très générale sur les
techniques d’ingénierie du génome humain, leur utilisation thérapeutique ou
autre, dont certaines mesures de prévention, qui ont elles-mêmes leurs
limites. Faut-il les promouvoir pour prévenir une maladie dont la survenue
est certaine, ou, plus largement, pour éviter le risque, comme dans
l’indication chinoise, d’une occasion de rencontre, fût-ce celle d’un virus ?
Les hommes modifient les plantes et les animaux depuis des
millénaires. Il y a vingt mille ans, une des plus anciennes observations
d’intervention génétique chez les mammifères montre que nos lointains
ancêtres avaient su créer de nouvelles races, en croisant chien et loup. Des
méthodes traditionnelles d’hybridation sont, de fait, largement appliquées
dans l’agriculture et l’élevage. Elles nécessitent cependant des techniques
de sélection et de croisement, qui d’ailleurs existent naturellement dans la
nature. Depuis le développement et la dissémination des techniques de
biologie moléculaire, de nouveaux procédés sont apparus pour créer de
nouvelles espèces, non plus par reproduction, mais en intervenant
directement sur le génome. Cette ingénierie génétique, une des principales
e
avancées du XX siècle, a ouvert la porte à la création de nouvelles espèces
végétales ou animales. Des organismes génétiquement modifiés de plantes,
tels le maïs, blé, riz, colza, soja, résistent à la sécheresse, au gel, aux
herbicides, à l’attaque des ravageurs. Des nouveaux fruits ou plantes, tels
des hybrides citrons-tomates ou des carottes multicolores, sont apparus sur
les marchés. Les animaux ne sont pas en reste. Des vaches qui produisent
du lait se rapprochant du lait maternel humain, des porcs qui rejettent moins
de phosphore, un composé toxique pour l’environnement, ou des animaux
plus utiles à l’expérimentation qu’à l’exploitation agronomique, tels des
lapins fluorescents, sont produits pour des usages commerciaux ou
scientifiques. Quant aux souris transgéniques, dont de nombreuses
expriment un gène humain, la production et exploitation pour de multiples
expériences sont devenues le quotidien des laboratoires de recherche. Or
ces diverses avancées, qui ont connu une rapide croissance ces dernières
années, doivent tout aux techniques d’analyse du génome, et à celles qui
sont aujourd’hui capables, avec une relative aisance, de le modifier.

De la connaissance à l’exploitation
du génome
En 1964, l’étude du génome a franchi une étape essentielle avec le
décryptage du code génétique. Quatre entités chimiques, adénosine,
thymine, guanine et cytosine, constituent l’ADN. La répartition, par groupe
de trois, est comme celle des mots dans un lexique, chacun codant pour un
acide aminé. Leur séquence le long des brins d’ADN représente
l’information génétique. La traduction, en commandant la synthèse des
21 acides aminés qui s’assemblent pour former des protéines, rend compte
d’une multitude de fonctions dans les cellules vivantes et les tissus par la
production de molécules de structure, d’enzymes, d’hormones, etc. Vers la
fin des années 1980, chercheurs et décideurs institutionnels devaient
s’accorder pour effectuer une étude exhaustive de l’ADN humain. Au
même moment ou presque, les États-Unis, le Royaume-Uni et la France se
lançaient dans des programmes pour tenter de séquencer la totalité des
3 milliards de bases sur les 23 chromosomes humains. La compétition
stimulant ces nouveaux explorateurs, ce qui semblait au départ peu réaliste
permit d’aboutir, en 2000, à la première séquence humaine. Au passage,
et en parallèle, on devait également réaliser le séquençage d’organismes dits
modèles, car servant de base à d’autres études et utilisations tels la levure,
le nématode et la drosophile, dont la taille de 12 à 50 milliers de paires de
base semblait être un exploit plus accessible. Les premières descriptions du
génome humain furent suivies d’une autre en 2003, année du cinquantième
anniversaire de la découverte de l’ADN. La carte du génome présentait la
séquence de 30 000 gènes, avec un taux d’erreur négligeable.
Compte tenu du nombre de maladies héréditaires, l’idée vint vite de
tenter de modifier, au fur et à mesure de leur découverte, les mutations qui
en étaient responsables. Le principe de la thérapie génique était né. Encore
fallait-il savoir effectuer de telles opérations. Les premières expériences
d’activation de gènes ou d’insertion de séquences différentes datent des
années 1980 sur la souris. S’agissant d’expérimentations animales, on
s’autorisait à des gestes pratiqués chez l’embryon. Il était ainsi possible
d’obtenir de nouvelles lignées dont le patrimoine génétique murin avait été
modifié. Ces méthodes étaient cependant complexes car nécessitant la
manipulation d’un nombre important d’embryons. Bien évidemment,
puisqu’elles portaient atteinte au patrimoine héréditaire, elles apparaissaient
inenvisageables chez l’homme. Une autre méthode, plus rapide et plus
simple, consistait à transformer le génome de cellules en culture. L’une et
l’autre méthodes se réduisaient à l’ajout d’un fragment de génome, qui était
d’ailleurs incorporé au hasard dans les chromosomes. Ces techniques
audacieuses manquaient de précision et restaient de la mécanique lourde.
Imaginons une bicyclette au pneu crevé au bord d’une route. Le garagiste
envisageait plus de remplacer une roue que de changer le pneu, encore
moins de mettre une rustine.
L’utilisation thérapeutique chez l’homme relevait à cette époque d’un
exploit extraordinaire, mais bien entendu, restait le but ultime, le plus
louable et le plus raisonnable pour traiter les maladies génétiques. La
séquence était tracée : d’abord le diagnostic, puis réparer les gènes
délétères, les remplacer par des séquences normales pour tenter de guérir
les patients. Il ne s’agissait pas tant de créer de nouveaux génomes que de
réparer les imperfections de la nature. À vrai dire, la thérapie génique
n’était pas vraiment une idée nouvelle. Edward Tatum et Joshua Lederberg,
deux grands scientifiques spécialisés dans l’étude des bactéries, en avaient
déjà évoqué le principe. Dès 1966, Tatum proposa en effet un traitement
fondé sur l’introduction de nouveaux gènes dans des cellules défectueuses
de certains organismes. La proposition, très audacieuse à l’époque, fut
reprise dans les médias, développant sous la plume de Lederberg le schéma
de traitement génétique de la phénylcétonurie, une maladie enzymatique.
En même temps, ces perspectives qui accompagnaient de nouveaux espoirs
pour les patients handicapés par de redoutables affections héréditaires
n’allaient pas sans poser un certain nombre de questions éthiques, tant sur
leur concept – modifier le génome n’était-il pas contre nature ? – que sur la
réalisation pour minimiser les risques individuels.
Il y eut ainsi les premiers essais, dont une des plus anciennes tentatives
en 1970, celle de Stanfield Rogers, un chercheur du Tennessee, qui tenta de
réduire un déficit enzymatique exceptionnel conduisant à l’accumulation
d’arginine, acide aminé dont les taux à des niveaux toxiques conduisaient à
des conséquences catastrophiques : épilepsie, retard mental, mouvements
anormaux. L’équipe du Tennessee travaillait à l’époque sur un virus du
lapin. Or Rogers avait constaté que certains de ses collaborateurs
exprimaient un taux anormalement bas d’arginine. Il avait rapporté ce
phénomène à une contamination lors de manipulations maladroites.
Cependant, il tenait l’idée : l’infection semblait sans conséquence, mais lui
semblait prouver que le virus de lapin contenait une enzyme qui pouvait
abaisser le taux d’arginine et, plus encore, qu’il pouvait être introduit chez
l’homme par simple contagion. D’où la tentative, extrêmement audacieuse à
l’époque, d’inoculer ce virus du lapin à des enfants atteints génétiquement
d’une accumulation d’arginine. Par sécurité, sans pourtant se plier aux
recommandations des comités d’éthique qui n’existaient guère à l’époque, il
envisagea d’inoculer des doses extrêmement faibles de virus. L’effet le fut
aussi, car tout ce qu’on put en conclure était qu’il n’y avait pas d’effet
toxique secondaire.
L’expérimentation semblait sans risque. Pour autant, même si les taux
d’arginine n’étaient pas modifiés, l’idée semblait à creuser, l’hypothèse
tenait, et le traitement par infection virale pouvait sembler une méthode de
choix pour introduire l’enzyme naturelle. Mais l’audace ne paie pas. Rogers
ne sut pas convaincre de l’originalité et de l’importance de sa tentative.
D’ailleurs, il n’en fallait pas plus pour que de nombreuses voix s’élèvent,
s’indignent, et fassent renoncer le chercheur à aller plus loin, au point de le
décourager si bien qu’il ne s’impliqua plus jamais dans une expérimentation
médicale. Pour la petite histoire, on sut longtemps après que l’hypothèse
était fausse et que le virus du rongeur ne contenait pas l’enzyme recherchée.
Il faut trouver la leçon ailleurs : le rendez-vous manqué entre une
innovation médicale et son acceptation par la société.
Il y eut les premiers manquements à l’éthique, qui renforcèrent les
convictions des adversaires de telles tentatives chez l’homme. Ce fut le cas
de Martin Cline, un chercheur de l’UCLA, la prestigieuse université
californienne de Los Angeles, qui tenta en 1980 de traiter par thérapie
génique deux patients atteints d’une maladie génétique de l’hémoglobine :
la bêta-thalassémie. Ces malades échappaient à la législation éthique
américaine, l’un se trouvant en Israël où les autorités avaient d’ailleurs
approuvé la démarche, l’autre en Italie, où aucune réglementation ne bridait
ce type d’expérience humaine. La méthode pour traiter ces anomalies
graves des globules rouges procédait d’une stratégie raisonnable : introduire
les gènes normaux dans les cellules de moelle osseuse où se trouvaient les
progéniteurs globulaires, et supposer qu’ils donnent naissance à des
globules rouges sains. Par la capacité permanente des progéniteurs à
produire de tels globules, la maladie serait ainsi guérie. L’hypothèse
paraissait scientifiquement pertinente, même si les techniques pour faire
pénétrer l’ADN dans ces cellules médullaires restaient encore peu
performantes. Aucune amélioration ne fut cependant constatée après les
premières tentatives, ce qui ne semblait pas une surprise pour un essai
princeps dont le transfert de gènes devait assurément rester limité. Mais il y
eut d’autres retombées, éthiques celle-là, car si Cline s’était bien assuré
d’informer les patients du risque encouru, il s’était cependant gardé
d’indiquer une modification méthodologique de dernier instant, qui lui
faisait utiliser des gènes de globine clonés, technologie récemment acquise.
Pour Cline, il s’agissait de sauter un pas, et de franchir par ce changement
de protocole quelques étapes scientifiques. Il eut beaucoup plus de mal à
surmonter les étapes médiatiques. En effet le changement de technique
génétique, au demeurant rationnel, apparut aux adversaires de telles
innovations comme un abandon pur et simple des règles normales de
l’éthique. L’expérimentation fut l’objet de controverses houleuses, et Cline
celui d’un lynchage médiatique qui conduisit à sa révocation de ses
fonctions hospitalières et universitaires, et à l’annulation de ses contrats de
recherche.
Il y eut les premiers accidents. Même si pendant longtemps l’efficacité
semblait loin d’être démontrée, les effets secondaires, que l’on rapprochait
de ce fait, semblaient très faibles. Aussi, la découverte du premier décès lié
à une tentative de thérapie génique fut un coup de tonnerre dans un ciel
encore serein et en même temps mit un temps d’arrêt provisoire à de telles
innovations. La mort d’un jeune homme, Jesse Gelsinger, défraya la
chronique. Ce patient était atteint d’un déficit enzymatique, une déficience
en ornithine transcarbaylase (OTC) qui sert à l’élimination de
l’ammoniaque. Dans sa forme grave, une telle anomalie entraîne le décès du
nouveau-né quelques semaines après sa naissance. Ce n’est pas toujours le
cas, car il y a des déficits partiels compatibles avec une vie presque normale
à condition de suivre un régime strict et de prendre régulièrement des
médicaments palliatifs. Cela nécessite une grande rigueur et le respect
d’une discipline stricte, ce qui n’était pas le cas de ce jeune garçon de
18 ans, qui avait fait preuve de plusieurs manquements à une telle hygiène.
L’année précédente, il avait même subi les conséquences de sa non-
observance. On l’avait sauvé de justesse d’un coma avec arrêt respiratoire.
Cette circonstance le poussa-t-elle à se porter candidat pour un essai de
thérapie génique susceptible de le guérir ? Sans doute. À moins que ce ne
fût à mettre sur le compte de son ardeur juvénile et de son goût du risque.
Quoi qu’il en soit, il se prêta à une épreuve qui devait lui apporter l’enzyme
déficiente grâce à un virus dont le génome avait été modifié pour porter la
séquence correctrice de l’enzyme OTC. Un virus, tel était le problème. Il
s’agissait d’inoculer une souche d’un adénovirus, un agent infectieux
apparemment commun, en principe peu pathogène. Pourtant, quelques
volontaires sains qui avaient participé à l’essai avaient montré des réactions
inflammatoires de relative importance, ce qui aurait dû alerter le comité de
surveillance et faire interrompre le traitement. Cela avait été passé sous
silence, tout autant que le décès de deux singes rhésus qui étaient morts à la
suite d’injections de doses élevées de virus. Ces observations n’avaient pas
été consignées dans le formulaire de consentement éclairé que le jeune
homme et ses parents avaient signé avant le début de l’essai. Aucun de ces
signes précurseurs n’avait ainsi été pris en considération et fait interrompre
l’injection qui allait être fatale le 19 septembre 1999. Car quelques heures
après l’introduction de l’échantillon infectieux, le jeune homme est pris
d’hémorragies, sa température s’élève. Il décédera rapidement d’un
collapsus irréversible dans un tableau de défaillance mutiviscérale. La mort
sera imputée à une réaction immunitaire contre le vecteur viral, plus qu’à
celle de l’enzyme, une leçon qui fit prendre en considération la manière
dont les gènes réparateurs devaient être administrés et l’état immunitaire de
ceux qui les recevaient. À cette dramatique occasion, le National Institutes
of Health déclencha une large enquête sur les essais de thérapie génique et
découvrit plus de six cent cinquante effets secondaires qui n’avaient pas fait
l’objet d’un signalement !
Il y eut cependant la première victoire, survenant après plusieurs
centaines de tentatives pour des indications diverses, la plupart se limitant à
des essais préliminaires de preuve de concept dits de phase I, dans le
courant des années 1990. La majorité de ces tentatives de thérapie génique
avait eu lieu aux États-Unis, le Japon occupant une place minime en Asie.
L’Europe effectua plus d’un quart des essais recensés jusqu’aux années
2000. La moitié de ceux-ci fut pratiquée au Royaume-Uni. Or c’est en
France qu’eut lieu la première réussite de thérapie génique dans l’équipe
d’Alain Fischer et Marina Cavazzana. La maladie sélectionnée était un
déficit immunitaire, obligeant les enfants atteints à vivre en milieu stérile
confiné, les fameux bébés-bulles. Le dysfonctionnement immunitaire
portait sur la synthèse d’une protéine indispensable à la fonction des
lymphocytes, une molécule du récepteur à l’antigène appelée gamma C,
dont le gène correspondant est situé sur le chromosome X. L’absence de
synthèse de cette protéine entraîne un défaut de prolifération des cellules
immunitaires, de sorte que le petit malade ne peut résister aux agressions
infectieuses. L’introduction d’un gène normal, permettant à nouveau à ses
cellules de se multiplier, donnerait un avantage sélectif aux cellules ainsi
transformées, par rapport aux cellules déficitaires. Une telle réparation
devait restaurer des réponses anti-infectieuses normales. C’est bien ce qui
eut lieu, après un essai particulièrement bien mené et construit, qui s’était
plié à toutes les étapes réglementaires et éthiques. Dans un premier temps,
le traitement se déroula sans incident. Mieux, les patients traités purent
sortir rapidement de leur confinement stérile, quitter le milieu hospitalier et
réintégrer leur famille. Tout ne fut pas si simple cependant par la suite.
Chez certains malades, les gènes introduits dans les cellules pathologiques
s’intégrèrent malheureusement dans des zones sensibles où se trouvaient
des proto-oncogènes, susceptibles d’être à l’origine du développement d’un
cancer. Normalement inactifs, ces gènes, capables de stimuler des
multiplications cancéreuses, se sont mis à s’exprimer chez certains patients
sous l’effet de la thérapie génique, déclenchant des lymphomes, tumeurs
ganglionnaires. Certes, un tel danger avait été évoqué dès les premières
tentatives de thérapie génique, mais cette probabilité semblait a priori
faible. Le risque était pourtant là. Il devait conduire par la suite à
développer des travaux sur les mécanismes permettant d’effectuer avec
précision l’intégration des gènes thérapeutiques. Si terrible que soit la
survenue de ces complications cancéreuses, qui a notamment conduit à la
mort d’un patient, ces résultats montraient pour la première fois qu’une
modification génomique pouvait chez l’homme restaurer des fonctions
cellulaires normales, et traiter ainsi un déficit héréditaire gravissime.

Des technologies en recours


Il y eut aussi, et peut-être surtout, les avancées technologiques. Tout
autant que l’audace et l’ingéniosité des chercheurs, ce fut notamment à elles
que l’on doit les premiers succès. De fait, la thérapie génique répondait à
plusieurs nécessités, ou plutôt plusieurs besoins. Il fallait avant tout
disposer d’un échantillon de gènes en quantité et analyse suffisante pour
remplacer un candidat défectueux qu’une mutation héréditaire ou acquise
rendait inopérant. En même temps, il était indispensable de pouvoir les faire
pénétrer dans des cellules que l’ADN pathologique ne permettait pas de
faire fonctionner normalement. L’obtention de gènes, ou fragments de
génome, doit beaucoup à la découverte d’enzymes, dites de restriction,
protéines extraites de bactéries qui pouvaient reconnaître certaines
séquences définies du génome humain et permettre ainsi de le couper en
fragments. Ces morceaux d’ADN humain introduits dans les bactéries
pouvaient alors être multipliés par la machinerie bactérienne et reproduite à
l’envi. On parlait de clonage. Tel fragment séquencé pouvait ainsi être
multiplié en quantité illimitée pour réparer un génome. Pour notre cycliste
en panne sur le bord de la route, voilà qu’on disposait de pneus de rechange
qui évitaient de changer la roue. En parallèle, la découverte de gènes
impliqués dans des maladies héréditaires comme la mucoviscidose,
myopathie de Duchenne ou chorée de Huntington, offrait des cibles
propices pour la thérapie génique.
Disposer de gènes, même en quantité quasi illimitée, était certes une
condition nécessaire, mais celle-ci n’était pas suffisante. Il fallait en effet
être capable de faire entrer des gènes dans la cellule, et qu’ils se placent en
position d’être fonctionnels. Or la pénétration de l’ADN dans les cellules
est loin d’être une opération naturelle. Bien au contraire, pour éviter d’être
modifiées par des ADN étrangers, les cellules ont appris à s’en défendre.
Leur membrane ne leur est pas perméable, et si par chance (ou malchance),
ils forcent la porte et parviennent dans le cytoplasme, ils sont rapidement
dégradés, transformés en fragments de petites tailles qui n’ont plus de
fonctions biologiques. Diverses tentatives expérimentales ont cependant
permis de trouver un certain nombre de conditions favorables à
l’introduction de l’ADN et son expression dans les cellules en culture. Il en
existe deux ordres, les unes dites transfection pour caractériser l’utilisation
de la chimie et de la physique, par différence avec les infections où
interviennent les virus.
Les premiers succès des transfections datent de 1973. Elles reposent sur
différentes méthodes, typiquement réalisées par l’ouverture de pores dans la
membrane cellulaire. L’un des plus classiques et des moins onéreux, mais
aussi des moins fiables, est effectué en précipitant l’ADN par du phosphate
de calcium, un procédé qui permet à des microcristaux de gagner parfois le
noyau des cellules. Plus efficace est l’inclusion de l’ADN dans des micelles
lipidiques ou liposomes qui possèdent la propriété de se lier aux
membranes. Le gène qui y est inclus peut alors pénétrer dans la cellule. Il
existe d’autres procédés, certains sophistiqués comme des éponges à
protons pour protéger l’ADN des enzymes cellulaires, d’autres plus rudes
comme le choc thermique, sorte d’intrusion cellulaire qui porte bien son
nom. Réalisées de manière stable, c’est-à-dire permettant une expression
permanente, ou transitoire, beaucoup de ces méthodes ont été testées en
cherchant à obtenir un avantage sélectif des cellules qui avaient intégré
l’ADN, comme la capacité à proliférer, ou la résistance à un antibiotique.
Celles qui n’ont pas intégré le germe étant amenées à mourir dans un milieu
qui les sélectionne négativement.
Plus rapidement les chercheurs ont utilisé des vecteurs viraux pour
délivrer des gènes d’intérêt. La nature s’était déjà chargée de l’introduction
de virus dans certains types de cellules. Il suffisait de les isoler, de les
cultiver et de les adapter à leur fonction véhiculaire. Bien entendu ceux-ci
devaient être de faible toxicité pour les cellules comme pour l’individu,
capables d’être manipulés avec un minimum de risque, et surtout ne pas
entraîner de réaction immunitaire délétère ce qui risque parfois de survenir.
Le risque est d’ailleurs double : soit le virus est rapidement neutralisé et
donc inopérant, soit au contraire, comme on l’a vu dans le cas de Jesse
Gelsinger, il entraîne un conflit parfois mortel.
Les virus possèdent leur propre matériel génétique. Une fois pénétrés
dans la cellule, ils contraignent la machinerie cellulaire à fabriquer de
multiples copies virales, ainsi que les protéines étrangères dont le génome a
été intégré à celui du virus. Avant tout, les virus ne doivent pas être
pathogènes. La thérapie génique nécessite d’utiliser des agents de
transmission actifs, mais qui ne peuvent présenter de risque infectieux. Les
structures génomiques virales, formées de plusieurs milliers de bases, loin
des milliards de bases humaines, ont une taille qui leur permet d’être
modifiées et ainsi d’intégrer de nouveaux gènes ou à l’inverse, d’exciser
ceux qui pourraient être nocifs. Ainsi transformés, ces virus deviennent des
vecteurs, sorte de navettes qui peuvent transporter l’ADN. Les virus doivent
permettre une intégration cellulaire, mais il faut éviter que l’infection se
propage. Pour empêcher ce phénomène, il suffit de leur ôter la capacité de
fabriquer des protéines de l’enveloppe et de les empaqueter avec des
protéines qui vont habiller le virus pour lui permettre de fusionner avec la
cellule, sans qu’il soit capable, après un premier cycle d’infection, de se
reproduire. Cela nécessite cependant de fabriquer un lot suffisant de
particules infectieuses pour permettre leur intégration dans un nombre
suffisant de cellules.

Des vecteurs pour transporter les gènes


À partir de ces principes, différents virus vecteurs ont été utilisés. Les
plus courants sont construits à partir de rétrovirus, adénovirus ou adéno-
associés. Si le sida fait bien partie de la famille des rétrovirus, il ne peut
bien sûr être utilisé tel quel. D’autres rétrovirus ou lentivirus de la même
famille sont souvent utilisés. L’intérêt de ces virus est qu’ils n’ont pas
développé d’immunité préexistante contre eux, et qu’ils possèdent des
gènes codant des enzymes capables de permettre leur intégration nucléaire
et leur réplication. Ils présentent cependant de ce fait un risque, celui de
s’insérer au hasard dans les chromosomes, et de réveiller un proto-oncogène
inactif, lui communiquant un pouvoir transformant, pouvant induire un
cancer. C’est ce phénomène qui était apparu chez certains enfants lors de la
première expérience réussie de thérapie génique à l’hôpital Necker. Pour
éviter ces transactivations d’oncogènes, les vecteurs sont aujourd’hui
modifiés, et toute la sécurité clinique requise semble maintenant obtenue.
Les adénovirus, également utilisés, sont des virus très répandus,
responsables chez l’enfant et l’adulte d’infection ORL, pulmonaire et
digestive. De grande taille et possédant ainsi la capacité de transporter de
nombreux gènes étrangers, ils ne s’intègrent pas dans le génome et, on l’a
vu, sont responsables de fortes réactions inflammatoires et immunitaires, ce
qui limite leur utilisation.
Les virus associés aux adénovirus sont des virus non pathogènes, très
répandus chez l’homme, s’intégrant rarement dans le noyau. Leur nom
d’associé provient du fait qu’ils ne peuvent se répliquer qu’en présence
d’adénovirus ou de virus herpès. Ils sont capables d’infecter un grand
nombre de types cellulaires, ce qui leur donne un intérêt indéniable, mais ils
ne peuvent contenir que de petites séquences d’ADN, et, par ailleurs, sont
difficiles et coûteux à produire. Ces virus ne sont pas les seuls. Le virus de
la rougeole, vaccine, variole et le virus Sendai peuvent être également
employés mais restent encore d’utilisation marginale.

De la thérapie à l’édition
Quel que soit le vecteur, il restait un problème d’importance, un de ceux
que les ingénieurs connaissent, comment placer aisément la bonne pièce au
bon endroit, le bon gène à la localisation choisie ? Cette stratégie, qui visait
à introduire de façon temporaire ou stable un fragment d’ADN pour qu’il
s’exprime, après intégration ou non dans le génome, pouvait certes
fonctionner, mais n’était pas sans difficulté. Une autre est venue
aujourd’hui prendre sa place. Elle consiste non à remplacer le gène atteint
par un autre, mais à réparer son défaut. Pour en revenir à la mécanique, au
lieu de changer la pièce déficiente et introduire un second exemplaire, il
semblait préférable de la reconstituer. Cela, bien entendu, ne peut se faire
que si une telle opération est possible, ce qui comme tout mécanicien le sait
est rarement le cas.
Or le miracle de l’ADN est qu’il peut être synthétisé. C’est même une
de ses caractéristiques – et vertus – essentielles. C’est une des conditions de
la vie. L’ADN est en effet continuellement soumis à des facteurs qui
l’altèrent. Il subit plus d’un millier de lésions par jour et par cellule dues à
l’environnement intérieur comme extérieur, aux toxiques, ou à des
agressions physiques comme les radiations. Ces dommages auraient
d’importantes conséquences si n’intervenaient pas des processus de
réparation qui, d’ailleurs, dépendent de l’âge de la cellule et des conditions
hormonales ou autres qui l’entourent. Avant cependant d’être reconstitués,
les composants altérés de l’ADN sont préalablement éliminés par
dégradation enzymatique, de sorte qu’un nouveau bras puisse être
synthétisé sans être modifié par des déchets. C’est ainsi cette stratégie de
réparation de l’ADN pathologique qui devint vite prééminente, dès qu’il fut
possible d’introduire dans la cellule un ciseau moléculaire pour exciser le
fragment d’ADN malade, et permettre à l’ADN de se réparer, comme le
ferait une plaie propre convenablement parée. Cette « réécriture » du
matériel génétique s’appelle l’édition. Différentes techniques, au départ
complexes, furent utilisées, dont l’une dite à protéine de doigt de zinc.
Derrière ce qualificatif, se trouve une image, ou plutôt un format, dessinant
une boucle dont la qualité majeure est de se fixer à des séquences
sélectionnées d’ADN. Il existe plus de 900 protéines de cet ordre et autant
de sites de fixation distincts possibles. Transformés en couturiers, les
généticiens disposaient de multiples opportunités de clivage de l’ADN en
lieu choisi. Une technique de cet ordre a montré déjà que la réparation
pouvait s’effectuer après un tel ciblage et, mieux, que la correction d’un
gène atteint pouvait s’ensuivre. Mais ces résultats, au demeurant très
encourageants, sont aujourd’hui dépassés par une nouvelle révolution
technologique, le système CRISPR-Cas9.

CRISPR-Cas9
Derrière ce nom, qui peut paraître à certains étrange, se cache une
enzyme spécialisée capable de couper l’ADN à tout endroit sélectionné.
Véritable couteau suisse comme l’ont appelé les médias, cette nouvelle
technique a été découverte par la Française Emmanuelle Charpentier et
l’Américaine Jennifer Doudna. Elle leur a valu en 2015 le prestigieux prix
Breakthrough créé par les fondateurs de Google et Facebook. En mettant le
génie génétique à la portée de tous, ou presque, cette innovation
moléculaire ouvre la porte à une nouvelle épopée scientifique,
révolutionnant les méthodes appliquées jusque-là à la thérapie génique.
Qu’avaient découvert ces deux chercheurs ? Il faut remonter à 1985
pour trouver la description dans le génome bactérien de curieuses séquences
répétitives d’ADN utilisant les quatre bases adénine, guanine, cytosine,
thymidine pour former des suites dans un sens ou l’autre, pouvant ainsi se
lire indifféremment dans les deux directions, en véritables palindromes. Ces
structures chimiques n’intéressaient pas grand monde jusqu’à ce qu’en 2002
les scientifiques daignent leur donner un nom officiel : CRISPR pour
Clustered Regulatory Interspaced Palindrome Repeat, dénomination plus
que caractérisation fonctionnelle. Leur rôle resta inconnu jusqu’à ce que,
trois ans plus tard, des bio-informaticiens découvrent que les séquences
d’ADN entre ces palindromes provenaient souvent de virus bactériens, les
phages. Il fallut quelques années encore pour que l’on s’aperçoive qu’une
telle conformation palindromique représentait un mode de défense
bactérien. Cette découverte est fascinante car il s’agit bien d’un mécanisme
de défense adaptative chez les bactéries, une propriété qui n’était connue
qu’à un certain stade de l’évolution phylogénétique. Associées à une
enzyme nommée Cas9, des copies des séquences CRISPR éliminaient les
virus en découpant leur ADN. Un tel attelage représente un couteau
moléculaire redoutable pouvant cibler et couper toute séquence génomique
sélectionnée.
Publié dans la revue Science en 2013, le résultat devait rapidement se
diffuser et montrer son application dans des organismes aussi divers que
bactéries, levures, poissons zèbres, rongeurs, jusqu’à une première
application en 2015, chinoise, sur des embryons humains. Bien que non
viables, car présentant un chromosome surnuméraire, les embryons qui
devaient servir à tester la correction d’une anomalie génétique de
l’hémoglobine montrèrent des résultats mitigés. Ils étaient suffisants pour
indiquer qu’une telle technique pouvait s’appliquer à l’embryogenèse et,
par là même, frôler des zones interdites, celles des caractères héréditaires
transmissibles. Pourtant, ces risques de dérive n’ont pas tari les enjeux
financiers de sociétés qui se sont emparées de la technique pour de
multiples applications ni, bien sûr, les utilisations des chercheurs pour les
diverses applications de la thérapie génique au service de l’homme. Il reste
que, si les recherches concernant CRISPR vont vite et suscitent un
incroyable engouement, il faudra s’assurer de leur sécurité. Déjà certaines
publications laissent entendre que le procédé est plus efficace chez des
cellules qui présentent des risques de mutations cancéreuses, sans parler des
erreurs de réparation que l’enzyme peut effectuer. De tels effets indésirables
ne sont pas encore bien évalués et légitiment, malgré le caractère
extraordinaire de cette découverte et de ses applications, de tempérer notre
enthousiasme des premiers jours.

Des méthodes à l’épreuve


Il existe trois grandes méthodes de thérapie génique. La première, ex
vivo, qui consiste à prélever les cellules atteintes et à les modifier par le
transgène hors de l’organisme. Elle s’applique particulièrement aux cellules
sanguines. C’est cette méthode qui fut appliquée au cas de déficits
immunitaires de l’hôpital Necker. Elle suppose de maîtriser parfaitement
tant le prélèvement que la culture des cellules du patient afin que celles-ci
soient maintenues dans des conditions de stérilité et de survie plusieurs
semaines avant de pouvoir être réinjectées après transfert de gènes dans la
circulation du patient. Au passage, il faudra s’assurer que l’intégration
génique s’est bien effectuée, et cela de manière durable.
La deuxième méthode s’adresse aux cas où l’anomalie génétique est
tissulaire et ne peut s’effectuer sur des cellules en suspension. Elle est dite
in situ et s’applique, par exemple, dans les cas de mucoviscidose où l’on
effectue le transfert de vecteurs dans la trachée et les bronches à l’aide
d’aérosols, ou bien encore lors des cancers par injection directe dans les
tumeurs, de gènes provoquant la mort des cellules tumorales, ou stimulant
une immunité contre les cellules cancéreuses. Une telle technique
s’applique également à la myopathie de Duchenne, anomalie génétique des
muscles, dont les tentatives thérapeutiques s’effectuent par injection de
gènes vectorisés dans les muscles. D’autres organes sont plus complexes à
atteindre, tels reins, poumons ou cerveau, composés de nombreux types
cellulaires et structures anatomiques diverses.
Quant à la troisième technique, in vivo, elle consiste à administrer le
gène et son vecteur directement dans la circulation sanguine. Cette
technique semble plus facile à réaliser, par une simple prise de sang. Elle
comporte cependant un certain nombre d’obstacles car l’organisme va
tenter d’éliminer l’ADN étranger, dresser des barrières, vaisseaux et
membranes muqueuses qu’il va falloir franchir.
Jusqu’où, la thérapie génique ?
Dans les années 1990, je me trouvais à Siem Reap, au pied des temples
d’Angkor, au moment où l’Autorité provisoire des Nations unies y avait
caserné quelques contingents pour faire respecter les accords de Paris entre
les forces Khmers rouges, royalistes et républicaines. L’atmosphère était
tendue. Quelques coups de feu s’échangeaient par intermittence dans les
faubourgs. Lors d’un moment d’accalmie, j’entrai dans un salon de coiffure
à l’enseigne franco-khmère. À mon arrivée, le coiffeur taillait à grands
coups de ciseaux dans l’abondante chevelure crépue d’un Africain. Celui-ci
m’apprit qu’il venait d’être recruté et s’était embarqué la veille de son
Sénégal natal pour ce pays dont il connaissait à peine le nom, et encore
moins la langue. Tandis que nous échangions, le coiffeur continuait son
ouvrage, et jonchait le sol de mèches de cheveux frisés. Celles-ci étaient
aussitôt ramassées par une petite fille qui poussait des cris de joie, tout en
les étirant comme s’il s’agissait d’un ressort. Aussitôt lâchés, les cheveux
reprenaient leur forme tire-bouchonnée. « Elle n’a jamais vu de cheveux
crépus, expliqua le coiffeur qui semblait être son père. Ici, cela n’existe pas
et, ajouta-t-il, elle n’a jamais vu d’Africain non plus ! »
« Si elle aime tant cela, répartit l’Africain, peut-être pourrait-on
remplacer les siens par ma tignasse ? » Puis, s’adressant à moi : « On parle
de prouesse pour modifier ou changer les gènes. Serait-il possible de faire
de cette petite fille une véritable Africaine avec des cheveux crépus ? » La
conclusion revint au père qui nous dit que le fer à friser était bien suffisant
pour la contenter.
Le génome est composé de nombreux gènes, les uns, dits de structure,
conditionnent des caractères héréditaires tels la couleur des yeux ou des
cheveux crépus, les autres, dits de régulation, régissent leur expression, telle
la production d’hormones ou d’anticorps. On doit à François Jacob et
Jacques Monod la découverte des gènes de régulation, sans lesquels on ne
peut expliquer nombre de phénomènes. Or certains d’entre eux, que nous
pensons être liés à l’épuisement de certaines fonctions, ne sont que l’effet
d’une inhibition active. On en veut pour preuve deux exemples. L’apoptose
est une des principales voies de mort cellulaire. Elle traduit un état de
suicide. Durant sa vie, la cellule retient par des signaux de survie cette mort
programmée. La vie, au moins au niveau cellulaire, n’est qu’une mort en
sursis. La vie inhibe la mort. L’apoptose contrôle le développement
harmonieux de notre organisme et joue un rôle déterminant sur la vie des
300 milliards de cellules de deux cent cinquante types différents qui
contrôlent notre corps. Des mutations des gènes qui régulent ce phénomène
peuvent déclencher l’apoptose. D’autres peuvent agir en sens inverse et
prolonger la survie cellulaire.
Un autre exemple d’inhibition active est illustré par le rétrocontrôle qui
s’exerce sur les composants du cœur. Chez les animaux à sang froid,
comme les poissons-zèbres, la destruction d’une partie du cœur n’est pas
fatale. Il se reconstitue à l’identique. Cela n’est pas vrai chez les
mammifères où l’on connaît bien l’absence de réparation après infarctus.
Pourtant, des chercheurs américains ont découvert en 2011 un étrange
phénomène chez la souris qui fait penser que l’explication est différente de
ce que l’on croyait. Car si l’expérience d’ablation cardiaque partielle est
tentée chez le souriceau de moins de sept jours, le cœur se reconstitue, une
capacité perdue chez l’animal adulte. Ce résultat intriguant permit de
découvrir l’installation progressive d’une inhibition qui empêche les
cellules cardiaques de se diviser. L’oxygénation paraît en être le principal
signal et la stimulation d’une voie métabolique particulière, son exécutant.
Cette voie semble ne pas intéresser que la taille du cœur. La taille du corps
peut être modifiée et des souris peuvent devenir géantes si l’on mute
certains de ces gènes.
Ces exemples qui montrent que nombre de nos capacités sont régulées
négativement et ne sont absentes que parce qu’elles sont inhibées, n’ouvrent
pas seulement la porte à de nouvelles réflexions, ils conduisent à des
interventions inédites de thérapie génique. Celles-ci restent aujourd’hui du
domaine de la recherche chez l’animal et ont pour objectif de mieux
comprendre les processus qui subissent de telles influences négatives. Il
reste que l’éthique doit rester vigilante pour éviter des interventions qui ne
chercheraient plus à réparer un gène atteint et inefficace, mais à agir sur des
processus de transformation de la cellule, organe ou individu.
Heureusement, les essais cliniques, donc chez l’homme, sont
aujourd’hui largement encadrés et contrôlés. Chacun d’entre eux, d’ailleurs,
est un long parcours. Les étapes sont complexes. Il ne faut négliger aucune
d’entre elles, même celles qui ne font pas partie directement de
l’expérimentation scientifique mais sont indispensables à leur réalisation,
telle la recherche de fonds. Un essai pilote coûte plusieurs millions d’euros,
doit se plier à des aspects sécuritaires, éthiques, à des règlements, si bien
que la route est longue jusqu’au succès souhaité, la publication qui
s’ensuivra et la possible médiatisation qui l’accompagne.
Les tentatives de thérapie génique ont attiré l’attention de nombreux
porteurs d’enjeux, scientifiques, administratifs, organisations non
gouvernementales, et surtout des malades qui s’inquiètent des avancées et
de la lenteur des progrès qu’ils jugent souvent insuffisants, sans deviner
suffisamment les difficultés à effectuer toute innovation chez l’homme.
Dès le début des années 1980, et les premières cartographies du
génome, on avait réussi à identifier des gènes candidats qui ont permis de
développer des approches diagnostiques et des tests prénataux de maladies
génétiques. Des parents qui avaient connu dans leur famille la tragédie
d’anomalies génétiques, telle la myopathie de Duchenne, pouvaient avoir
recours à une interruption de grossesse, si l’embryon se révélait atteint,
mais le geste est douloureux. Aussi les familles, comme les médecins,
allaient porter de nombreux espoirs sur cette révolution thérapeutique dont
il fallait expliquer les difficultés. La science fondamentale avait ses
avancées mais tout ne se réduisait pas à la fameuse phrase de Jacques
Monod « ce qui est vrai pour la bactérie, l’est aussi pour l’éléphant ».
L’homme est infiniment plus complexe. Chaque modalité de traitement,
chaque difficulté, chaque échec devait être suffisamment expliqué et, pour
tous, remis dans le contexte médiatique et sociétal. Il n’était pas seulement
hospitalier et médical, mais également financier, l’engouement pour ces
techniques ayant conduit à la création de start-up, chacune avec ses
stratégies, ses préoccupations et indications propres. Des Fondations
aidèrent, telle, en France, l’Association française pour les myopathies qui fit
de la thérapie son cheval de bataille, popularisa la méthode, et réussit à
obtenir des dons importants à travers le Téléthon. Plusieurs dizaines de
millions furent mis à la disposition du handicap. En même temps cette
nouvelle biologie, parce qu’elle était dans l’air du temps des OGM, avait
ses détracteurs. On touchait au génome humain. Objet d’une
surmédiatisation, beaucoup d’essais donnaient des faux espoirs. Il est
difficile d’estimer le nombre d’essais cliniques dans le monde. Si l’on se
réfère aux principaux sites qui les répertorient, on peut cependant évaluer
leur nombre depuis 1990 à près de 2 400 dont environ 2 % étaient effectués
en France et les deux tiers d’entre eux aux États-Unis. La majeure partie de
ces études étaient des essais de phases précoces. La plupart concernaient le
cancer (dont mélanome, gliome, leucémies), une indication paradoxale car
cette affection n’est pas une maladie génétique constitutionnelle dans la
plupart des cas. Seulement un essai sur dix visait à traiter des maladies
monogéniques : neuromusculaires (amyotrophie spinale infantile,
myopathie de Duchenne…), ophtalmiques (amaurose de Leber, neuropathie
optique), hématologiques (hémophilie, drépanocytose, thalassémie), déficits
immunitaires sévères, neurodégénératives (leucodystrophie),
dermatologiques (épidermolyse bulleuse). Les autres indications
ressortissaient à des pathologies cardiovasculaires (ischémie artérielle,
resténose), ou plus rarement encore, infectieuses (VIH). Ces essais restent
cependant limités à un petit nombre de patients, avec un recul souvent court
et de nombreux freins, dont le coût des produits. Le Glybera, employé pour
traiter un déficit en lipoprotéine lipase, une maladie héréditaire rare pouvant
provoquer une pancréatite sévère, coûtait plus d’un million d’euros lors de
son lancement en 2012, alors considéré comme le médicament le plus cher
de la planète !
La science avance souvent par à-coups. On est passé par le négativisme,
l’engouement, le réalisme. Malgré de nombreuses tentatives, la thérapie
génique reste encore du domaine de la recherche clinique et d’applications
restreintes. Un fait demeure : il est possible de modifier le génome humain,
de passer des prothèses génétiques à l’édition réparatrice des zones d’ADN
pathologique. On attend des scientifiques de nouvelles prouesses. Mais
également qu’ils sachent décrire l’état de l’art, les enjeux, et aussi les
difficultés de telles techniques pour mettre en garde contre les faux espoirs
et fausses rumeurs. La société doit en comprendre les perspectives, savoir
les replacer dans le contexte d’une évolution de l’humain, assurer son
encadrement pour éviter toute dérive et nouvel eugénisme, à l’instar du film
Bienvenue à Gattaca (1997). L’homme doit se modifier pour guérir et non
pour se transformer. Il faut garder au terme de thérapie génique tout son
sens et son éthique. La thérapie génique ne saurait être seulement
l’indication portée par quelques-uns. Avec les scientifiques et leurs
institutions, elle doit rester également un projet de société.
DEUXIÈME PARTIE

L’homme modifié
par l’environnement
CHAPITRE 5

Peindre ses gènes

L’été touchait à sa fin. Les grands pins se balançaient au gré du vent, un


peu comme des mâts de bateau sous la houle, et perdaient leurs épines. Le
ciel se colorait du soir couchant sur le hangar vermoulu, où quelque toit de
zinc mal accroché protégeait ses toiles. Mon père peignait. Les gestes
étaient amples et laissaient goutter à terre des couleurs diluées dans le
white-spirit, comme une sorte d’arc-en-ciel. La toile crissait sous le pinceau
qui passait, tantôt léger, tantôt plus appuyé, sur de nouvelles teintes d’un
camaïeu de vert. Il avait cet air concentré que je lui connaissais, comme
plongé dans ce discours intérieur, qu’il appelait émotion, et qui guidait ses
mains, d’un œil à l’autre comme il l’évoquait, celui du plaisir et celui de la
raison, du hasard et de la nécessité. Paul Valéry n’avait-il pas dit :
« L’artiste vit dans l’intimité de son arbitraire et dans l’attente de sa
nécessité […] il attend une réponse absolument précise (puisqu’elle doit
engendrer un acte d’exécution) à une question essentiellement incomplète :
il désire l’effet que produira en lui ce qui de lui peut naître. »
Il s’arrêta soudain, au bout d’une traînée de bleu sur le vert, un instant
trop diluée, non qu’il ait fini, mais peut-être parce qu’il voulait revenir à
d’autres préoccupations. Il prit la parole, pour suivre sans doute une
interrogation qui pourtant ne devait rien à l’atmosphère du soir qui nous
entourait.
« Tu vois, je me demande si ce geste qui m’entraîne et m’habite, et
probablement aussi me guide… »
Puis il s’interrompit, selon cette habitude qu’il avait, de laisser aux
autres le soin de deviner ses pensées pour terminer ses phrases et, comme je
restais silencieux sans cette fois parvenir à comprendre où ce geste voulait
m’entraîner, reprit :
« Je veux parler de l’utilité de ce que je fais. À quoi sert l’art ? Que
peut-on dire de plus qui n’ait déjà été dit, écrit, supposé, interprété ? La
science d’aujourd’hui peut-elle apporter d’autres réponses que celles si
nombreuses que les poètes et philosophes ont déjà évoquées sur le
fonctionnement de nos sociétés. »
Puis, après une nouvelle interruption, et devant mon silence, il ajouta en
me regardant intensément :
« Ainsi, toi, tu soignes, tu cherches comment lutter contre les maladies,
le sida qui dévore tout sur son passage ou encore le cancer. Quant à moi, ce
que je sais faire de mieux est vivre ma vie comme un art, et tenter de la
faire vivre aux autres. Planter un décor, un écran, comme un second paradis
pour agir sur l’homme, et tenter de modifier ses capacités, sans pourtant
comprendre, alors que tant d’autres cherchent à le faire beaucoup mieux par
des techniques biologiques. Comment fait l’artiste pour influencer son
prochain au point d’aiguiser ses sens, son comportement, et peut-être plus
encore son destin ? Y a-t-il une explication scientifique, la moindre preuve
que cet environnement que je traduis en peinture puisse modifier l’homme
et, tout en transposant ce murmure du vent ou l’écho des vagues, agir sur
les cellules de nos rétines ou de notre cerveau au point de les faire évoluer ?
J’entends dire partout qu’on peut modifier la physiologie humaine par de
multiples moyens biologiques et génétiques. J’aimerais penser que les
capacités de notre organisme puisent dans les couleurs que je disperse sur la
toile, de quoi modifier le comportement des êtres, comme s’il s’agissait
d’une sorte de greffe, une empreinte picturale sur notre ADN. La nature qui
m’entoure, à laquelle je m’assimile, et que je veux traduire, peut-elle ainsi
influencer les réseaux des neurones pour en transmettre la mémoire ? Ainsi,
ajouta-t-il en conclusion de ce long monologue, peux-tu m’expliquer si et
comment la couleur que je plaque sur le tableau, peut espérer donner une
autre vie à l’homme qu’il puisse transmettre aux générations à venir ? »
Peindre ses gènes : une métaphore pour leur marquage et cette couche
chimique qui se plaque sur eux qu’on appelle épigénétique… Je pris un
temps pour répliquer, sans doute en me demandant si l’endroit se prêtait à
une réponse, qui se trouvait pour une part au cœur de cette nouvelle science.
Mais l’art et la science ont toujours fait bon ménage, au point de partager,
sinon un objet de recherche, du moins la tentation de le comprendre.
Je lui décrivis alors ce que Darwin et Lamarck disaient à propos de
l’environnement, et ce qu’on sait aujourd’hui de la manière dont celui-ci
agit sur l’homme, laissant planer l’amorce d’une nouvelle révolution, celle
de l’épigénétique.
La biologie, notamment la biologie française, a longtemps vécu du
débat sur l’évolution des espèces entre Darwin et Lamarck et des
controverses sur la nature de la vie qui ont opposé Claude Bernard et
Pasteur, le premier parlant des enzymes, le second des microbes pour
expliquer la fermentation. Sans doute la résistance à Darwin et la sélection
naturelle ne sont-elles pas spécifiquement françaises, mais c’est en France
que s’est développée l’hostilité la plus forte à ses théories de l’évolution.
Pour comprendre la source du débat, il faut se reporter en 1859 lorsque
Darwin qui avait fait le tour du monde à bord du Beagle bouleversait les
mentalités scientifiques de son temps en accordant plus d’importance à la
nature de l’individu qu’à l’influence du milieu. S’il ne bannissait pas
totalement l’hypothèse de l’hérédité de l’acquis, c’était pour l’intégrer à sa
propre théorie sur l’évolution des espèces : deux individus n’étant jamais
identiques, la sélection par l’environnement peut opérer. Ce faisant, il se
dressait contre la tradition héritée des travaux de Lamarck qui, depuis la
publication en 1809 de la philosophie zoologique, prônait une thèse
transformiste où l’hérédité est dominée par l’environnement. Lamarck
pensait que les modifications des espèces étaient imposées par la fonction –
ou non-fonction – des organes et qu’elles étaient ainsi héritées. Selon sa
citation la plus connue, « la fonction crée l’organe », de sorte que son usage
ou non peut entraîner son développement ou son involution. Lorsque les
conditions changent, le mode de vie et donc les fonctions requises se
modifient, ce qui peut entraîner l’apparition de nouveaux organes ou des
modifications dans l’organisation des organismes. Il professait par exemple
que l’atrophie des yeux de la taupe était due à l’obscurité et que la taille du
cou des girafes, qui se transmettait d’une génération à l’autre, était due à la
nécessité de se nourrir au feuillage des arbres. L’environnement influençait
ainsi l’hérédité. Darwin n’y voyait qu’un moyen d’arriver à la sélection des
espèces. Les girafes aux petits cous mouraient car elles ne pouvaient
brouter les feuilles de certaines des plus hautes cimes. Longtemps les
partisans de l’une ou l’autre des théories devaient se pourfendre et tenter de
se contredire.
Je racontai alors à mon père que cette question, celle de l’influence du
peintre sur son portrait, tout autant que l’inverse, je l’avais évoquée il y a
longtemps, réfléchissant aux théories sur l’évolution à travers l’écriture de
plusieurs biographies, celles de Louis Pasteur puis de Jacques Monod qui
avait repris l’étude du vivant, là même où son illustre prédécesseur l’avait
quittée. Quand Pasteur meurt, en 1895, il laisse en effet une question sans
réponse : pourquoi les bactéries prolifèrent-elles dans un bouillon de culture
ou, plus exactement, pourquoi faut-il un bouillon de culture avec une
composition très particulière, notamment du sucre, pour qu’elles puissent
proliférer ? On parlait alors d’alchimie, mais dans un concept beaucoup
plus large, cette question portait sur l’influence de l’environnement sur la
vie, en l’occurrence la vie des cellules. Ne s’agissait-il pas de comprendre, à
travers le rôle du sucre sur la croissance des microbes, comment le milieu
extérieur influence les enzymes bactériennes qui le dégradent pour dégager
l’énergie nécessaire à leur multiplication ? Comment l’environnement agit
sur les cellules, et donc sur l’homme ? En découvrant que les molécules ont
une forme dans l’espace, le fondement de la stéréochimie, Pasteur avait
percé le premier secret de la vie et montré que les molécules du vivant,
homme, animal et plante, sont asymétriques, à la différence des molécules
des minéraux. Il restait à montrer que le vivant se nourrit de cette asymétrie
et accessoirement le microbe de sucre. Pasteur n’avait pu découvrir ce qui
assure la reproduction du vivant et de quelle manière le milieu l’influence.
La biologie du début du XXe siècle avait ainsi défini la vie – un débat encore
vif aujourd’hui – mais elle ignorait pourquoi elle persistait, d’où venait
cette capacité qu’ont les êtres animés de se régénérer et d’être influencés
par leur environnement. La biologie moléculaire n’était pas encore
pleinement partie prenante du problème, encore moins l’épigénétique.
Les premières théories sur l’hérédité datent de Mendel et de ses pois.
Son mémoire original décrivait ce qui allait devenir les lois de la génétique
classique, dont l’unité de base, le gène, un terme proposé par le Danois
Wilhelm Johannsen, sera adopté au tournant du XXe siècle. Chaque caractère
observé, le phénotype, est déterminé par deux copies d’un gène, présent
dans les cellules de chaque individu. Une étape cruciale fut à nouveau
franchie quand l’Américain Thomas Hunt Morgan put localiser ceux-ci
dans les chromosomes, corps colorés observés dès la fin du XIXe siècle dans
les noyaux des cellules germinales, spermatozoïdes et ovules. Dans les
années 1920, on parlait déjà de génétique chromosomique, montrant non
seulement l’enchaînement des gènes, mais qu’ils pouvaient être transmis en
un seul bloc, par chromosome entier ou fragment. Il restait cependant à
comprendre leur expression. Il manquait à l’hérédité d’en connaître sa
régulation, ce qui faisait bouger ce monde figé et structurel qu’on dessinait
alors en chapelet, le chromosome.

L’hérédité manquante :
de la génétique à l’épigénétique
Après la caractérisation de ce fameux acide désoxyribonucléique,
l’ADN, qu’un savant anglais, Oswald Avery, avait identifié comme le
composant essentiel des chromosomes, était survenue la découverte
spectaculaire faite par James Watson et Francis Crick en 1953 de sa
structure en double hélice. Avec l’asymétrie des molécules du vivant décrite
par Pasteur, cette spirale formée par deux chaînes latérales reliées l’une à
l’autre par des structures transversales, était venue apporter un nouvel
exemple de l’importance biologique des formes. La structure des molécules
dans l’espace savait rendre compte de leurs fonctions, mais il s’agissait ici
d’un autre déterminisme, la traduction des gènes. D’un coup, la double
hélice qui appartient aujourd’hui à l’histoire des sciences, pour ne pas dire à
sa mythologie, permettait de relier physique, chimie et génétique au cœur
même de l’expression de la vie. Mis sur la voie par la découverte de Linus
Pauling qui montra d’abord l’importance de la structure hélicoïdale de
divers modèles protéiques, Watson et Crick, dans deux articles publiés dans
la revue Nature, décrivirent ainsi ce modèle qui est aujourd’hui le
fondement de notre connaissance et raisonnement en génétique : ils
prouvaient que des bases, composés chimiques d’acide purique et
pyrimidique qui constituent l’ADN, s’apparient de manière complémentaire
comme les barreaux d’une échelle pour lui donner sa forme. Les deux
auteurs signalaient à cette occasion les implications génétiques de cette
structure : les deux chaînes de l’ADN peuvent se séparer et former par
réplication des molécules filles identiques. Un peu de publicité efficace en
particulier au congrès de Cold Springs Harbor durant l’été 1953 et le
modèle est rapidement accepté par la communauté scientifique.
C’est une première dans l’histoire des sciences. La structure de l’ADN a
été déterminée par des déductions purement théoriques sans que les deux
chercheurs aient fait une seule expérience sur la molécule. En revanche, le
chemin qui va conduire de la structure de l’ADN au décryptage du code
génétique sera long et tortueux. C’est à George Gamov, un des pères de la
théorie du Big Bang, et à Francis Crick que l’on devra de comprendre
comment les gènes peuvent être traduits en protéines. Les protéines sont
constituées d’acides aminés. Trois bases de l’ADN, ce qu’on appelle
triplets, suffisent à fournir un code en déterminant un acide aminé. À
chaque acide aminé un triplet. La succession des triplets structurant l’ADN
rend compte des acides aminés qui vont composer les protéines.
Longtemps un mystère a dominé le débat. Comment s’effectue le
passage de l’information entre les chromosomes et le cytoplasme ? Le
concept dominant, tiré des théories de Mendel et de Morgan, expliquait mal
que certains gènes n’agissent qu’à des moments précis de la vie cellulaire.
Certes la forme des ailes de mouche et la couleur de leurs yeux ne se
modifient pas tous les jours, mais comment expliquer la synthèse d’une
enzyme bactérienne sous l’influence du sucre, celle d’une hormone lors de
la grossesse, ou d’un anticorps contre un virus. Les idées les plus folles ont
longtemps circulé dans la première moitié du XXe siècle pour tenter de
donner raison à l’acquisition de caractères génétiques sous l’influence de
l’environnement. Lamarck revint sur le devant de la scène. Il ne séduisait
pas que les scientifiques, certains politiques surent s’emparer du concept.
L’affaire Lyssenko qui défraya la chronique avant la Seconde Guerre
mondiale fut à cet égard exemplaire.
Cette controverse dramatique tint aux principes et recommandations du
savant russe Trofim Denissovitch Lyssenko. Membre de l’académie Lénine
des sciences agronomiques, imposant une ligne scientifique fidèle au
stalinisme triomphant, Lyssenko prônait que le milieu peut transformer
l’hérédité par simple greffe – on en revient aux transplantations ! Cet ancien
fonctionnaire des chemins de fer, reconverti dans l’agriculture, soutenait
que par greffe d’arbres, il était possible d’obtenir des êtres hybrides qui
possèdent tout à la fois le caractère du greffon et du porte-greffe, et peuvent
se reproduire. Et Lyssenko de conclure qu’on pouvait transmettre tout
caractère d’une espèce à l’autre aussi bien par greffe que par voie sexuelle
(la thérapie génique et les organismes génétiquement modifiés n’étaient pas
encore imaginés…). Lyssenko ne s’était d’ailleurs pas arrêté à la greffe dans
son souhait de diriger la nature par l’homme. Dans les années 1920, il avait
prôné des traitements de graines par le froid pour obtenir une floraison
précoce. En proposant de tels axiomes, il pensait modifier la germination
des jeunes plants, dont il voyait la marque d’un changement héréditaire. Ses
idées furent non seulement recommandées, mais imposées dans les
kolkhozes. Ces méthodes dites de vernalisation allaient déboucher sur de
vastes désastres économiques. Les semences pourrissaient et devenaient
inutilisables. Mais son fondement, aussi peu scientifique qu’il était, ne fut
pas remis en cause puisqu’il était dans la ligne du parti : c’est
l’environnement qui fait la graine et le marxisme qui fait l’homme. Le
travail modèle un homme nouveau. Associant marxisme et agrobiologie,
Lyssenko était persuadé que la vernalisation ne se contentait pas de
révolutionner l’agriculture soviétique mais qu’elle allait fonder une
nouvelle théorie de l’idée de l’inné et de l’acquis. Ce faisant, il tentait de
débouter les savants bourgeois et révolutionnaires tenants du
néodarwinisme, les désignant par le terme de « mendelo-morganistes ».
Car Lyssenko ne cherchait pas seulement à alimenter le débat
scientifique par la nouvelle théorie de l’hérédité, il prônait l’élimination
pure et simple de ses adversaires, suivi en cela par le gouvernement qui
décida d’une véritable épuration de ses détracteurs. Un des principaux,
Nikolaï Vavilov, sera arrêté et condamné à mort. Sa peine commuée en
détention à vie, il mourra en prison des suites d’un mauvais traitement.
L’affaire allait dépasser les frontières de l’URSS et fut à l’origine de
nombreux débats où la génétique cédait le pas à la politique. Partisans et
opposants aux théories darwiniennes et à la génétique se disputaient à coups
de débats acerbes et par des prises de position publiques dans les médias.
Dans Les Lettres françaises, Aragon s’enflammera pour cette révolution
scientifique que prônait Lyssenko au nom de l’idéologie marxiste et de ses
préceptes. Ce qu’on pourrait retenir de cette triste histoire, c’est que la
biologie peut conduire au fanatisme doctrinal tout autant qu’à l’inverse !
La polémique, par médias interposés, n’aura pas que des conséquences
littéraires. En tentant de contrer la théorie de l’hérédité de l’acquis, du
moins celle de Lyssenko, les scientifiques se trouvèrent renforcés dans
l’idée qu’on ne peut rendre compte du rôle de l’environnement sans passer
par les chromosomes et que les théories qui le niaient n’étaient plus
adaptées. Cette position rapprochera Jacques Monod et François Jacob, qui
se rencontreront justement pour la première fois lors d’une réunion
publique sur l’affaire Lyssenko, pour mettre en place le fameux modèle de
l’opéron à la fin de 1957. Trois séries de résultats seront publiés dans les
Comptes rendus de l’Académie des sciences en mai 1958, en même temps
e
que naissait la V République. Les deux savants parviennent à
l’identification de deux séries de gènes : des gènes de structure et des gènes
de régulation. Un système de régulation qui dépend de l’environnement
gouverne et même manipule la génétique structurale, base même de la vie.
Un gène de structure peut être inhibé ou activé par l’intermédiaire d’un
gène régulateur, lui-même soumis à l’action du milieu extérieur, et dans le
modèle utilisé par les deux savants, par l’action du sucre sur la production
des enzymes. Dans les chromosomes, des gènes fournissent leurs codes aux
structures des molécules, les autres les contrôlent, permettant ou non leur
expression. Après les acquis de Mendel, la transmission héréditaire des
caractères et leur identification chromosomique, les découvertes de Monod
et Jacob apportent une pierre de taille aux controverses entre Darwin et
Lamarck en les réconciliant.
Le modèle sera complété par la découverte du rôle joué par un second
acide nucléique, l’acide ribonucléique. Une molécule d’acide nucléique qui
ressemble à l’ADN, l’acide ribonucléique, dont la séquence est la copie
conforme de l’ADN, joue un rôle de messager, sort du noyau pour aller
dans le cytoplasme dicter cette synthèse protéique. Avec la découverte de
l’ARN messager qui transfert l’information de l’ADN au ribosome, le
modèle de l’opéron va révolutionner la génétique. L’information se régule
au niveau de la commande par les gènes régulateurs, ou au niveau des effets
par l’ARN messager. C’est toute une conception de la vie qui se trouve
démasquée, celle d’un code et sa régulation, d’une cellule et de sa
sensibilité aux informations qui l’entourent, aux milliers de stimulations de
l’environnement. En cela, le concept rejoint et quelque part annonce les
données de l’épigénétique.
e
Sur la base de ces travaux, la génétique de la fin du XX siècle se voyait
dessiner un double objectif : décrypter le programme génétique et
comprendre la régulation des gènes.
La première tâche fut largement facilitée par les progrès technologiques
qui permirent le séquençage de l’ADN. Un consensus idéologique allait
rapprocher les scientifiques et l’opinion publique pour comprendre les
grands livres de la vie, et le premier d’entre eux celui de l’ADN humain. Le
séquençage de génomes entiers fut probablement le programme le plus
médiatisé et vraisemblablement le plus coûteux de l’histoire de la biologie.
En satisfaisant un vieux fantasme de l’humanité, il mobilisa des efforts
humains et techniques rarement, sinon jamais, autant rassemblés auparavant
pour une tâche unique. Cédant à une méthodologie relativement
réductionniste car se concentrant sur une identification systématique des
gènes, le premier objectif, le séquençage du génome humain, terminé en
2001, fut suivi de celui d’autres espèces souvent utilisées en recherche. Très
riches pour aider à résoudre toutes sortes de questions, notamment celles
concernant l’évolution du vivant, ces séquences restaient cependant
insuffisantes pour en deviner le moteur. La lecture d’un catalogue de pièces
détachées ne permet pas en effet de comprendre le fonctionnement d’une
machine !
Le second grand objectif de la science génétique restait ainsi encore à
atteindre, notamment le rôle de l’environnement, y compris celui de notre
corps et la manière dont nos gènes en subissent le contrôle. Certes, le
modèle de l’opéron fournissait une explication. Avec son habituelle capacité
de généralisation, Monod avait affirmé que ce qui était vrai pour les
bactéries l’était également pour l’éléphant. Tout semblait réglé…
Cependant, tout n’était pas si simple. La sécrétion d’une enzyme
bactérienne était le fruit d’une régulation fine, mais il existe bien d’autres
situations qui restaient difficiles à interpréter par ce seul mécanisme. Cela
est notamment flagrant lors de la constitution ou reconstitution d’un tissu ou
d’un organe, lors du développement de l’embryon pour conduire un fœtus à
l’état d’un homme adulte. De nombreux exemples nous rappellent la
question. Nous naissons toujours avec deux bras et deux jambes. Quel
mécanisme dirige leur croissance ? Nous n’avons pas de mains palmées,
nos nez et oreilles ont des formes particulières. Comment expliquer qu’elles
les conservent ? Au cours de notre vie, les cellules de nos tissus, de nos
organes meurent, chacune à leur rythme, mais sont continuellement
remplacées. Ainsi, nous produisons chaque jour plusieurs millions de
globules rouges pour en permettre un taux constant dans la circulation
sanguine à la place de ceux plus âgés qui disparaissent. Leur nombre doit
être stable pour assurer le transport d’oxygène que notre poumon a capté.
Dans ce cas, comme pour tous les tissus, les cellules souches dont nous
avons parlé se différencient en se multipliant, et ainsi se régénèrent
continuellement. À chacun son rythme, sa fonction, sa localisation, sa
destinée. Or la génétique moléculaire devait montrer que si les cellules
étaient capables de se différencier, ce phénomène était dû à l’expression
sélective et ordonnée de certains gènes. Tous ne s’expriment pas de manière
identique, ni au même moment au cours du développement. Il fallait
imaginer une information qui les contrôle, évoquer un programme qui
induise l’activation et l’inactivation de gènes en cascade, capable de guider
avec une telle précision le comportement des cellules pour en permettre la
formation de nouvelles, comme un chef d’orchestre lit une partition pour
diriger et conduire ses musiciens. Il apparaissait nécessaire de comprendre
qu’un tel programme soit si reproductible, d’une cellule à l’autre, d’un
individu à l’autre. L’exécution ordonnée de telles instructions ne pouvait
correspondre qu’à une régulation de haute précision. L’épigénétique se
devait de naître.
« Chaque œuf contient donc, dans les chromosomes issus de ses
parents, tout son propre avenir, les étapes de son développement, la forme et
les propriétés de l’être qui en émergera », écrivait François Jacob. Quel est
l’ordre fondé sur le désordre ? En cela, même si le modèle de l’opéron
rejoint cette nouvelle science, on peut comprendre que des chercheurs aient
considéré que la molécule d’ADN ne pouvait être le seul support de
l’hérédité. Il est difficile d’expliquer en effet qu’avec des génomes
identiques les différentes cellules d’un individu qui possède toutes les
mêmes séquences de 3 milliards de nucléotides, à de très rares variations
près, développent des caractères aussi différents que ceux de neurones,
cellules du pancréas, de la peau ou des muscles. Les gènes étant les mêmes
dans toutes les cellules de l’organisme, ne peuvent coder eux-mêmes pour
ce qui les différentie. Pour être identiques entre elles, les cellules d’un tissu,
lorsqu’elles se multiplient, doivent conserver la mémoire de l’état d’activité
de leurs gènes, tels qu’ils s’expriment avant une division cellulaire. Quelle
est ainsi l’instruction qui les active ou les inhibe, portée au cours de ces
divisions cellulaires et notamment lors du développement pour permettre un
homme et les organes qui le composent ?

L’écologie rejoint la génétique


La première fois que j’entendais le mot d’épigénétique, au cours de mon
internat, je me souviens m’être d’abord félicité de ses racines grecques.
L’origine du mot remonte pourtant à 1942 et à sa première formulation par
Conrad Hal Waddington, biologiste britannique du développement,
s’appuyant sur la nécessité d’établir des liens de causalité entre génétique et
phénotype, gène et son expression. Effectuant de la biologie théorique, on le
qualifia de philosophe ! Il importait à ses yeux de rapprocher l’hérédité
mendélienne de l’épigenèse, la théorie du développement par élaboration
progressive des formes. Comment passer de l’embryon à l’état adulte, en
franchissant toutes les étapes de l’âge et de la maturation des organes ?
Historiquement opposée à la théorie de la préformation, qui voit dans
l’embryon un être vivant miniature où tous les organes sont déjà présents,
l’épigenèse postule une construction progressive de l’individu. Aristote y
faisait déjà allusion dans son traité de la génération. Observant des
embryons de poulet, il découvre que les formes de l’être à venir ne
préexistent pas dans le germe mais sont au contraire façonnées au cours du
développement embryonnaire, une notion que William Harvey, au
e
XVII siècle, devait remettre à l’ordre du jour et surtout au centre du débat

scientifique.
e
Jusqu’à la fin du XVIII siècle la préformation fut une théorie dominante
opposant alors des scientifiques renommés comme Antoni Van
Leeuwenhoek, un des premiers utilisateurs du microscope, Lazzaro
Spallanzani, pionnier de l’expérimentation en biologie, et les membres du
clergé qui voyaient ainsi l’œuvre de Dieu, à Pierre Louis Maupertuis et
Georges-Louis Buffon, partisans de l’épigenèse. Les progrès de la
microscopie allaient donner raison à ces derniers. Il fallut attendre
e
cependant la première moitié du XX siècle, et sans doute allier la
philosophie à la science, pour attacher les termes d’épigenèse et de
génétique, en désignant de ce nouveau nom les caractères par lesquels les
gènes transmettent les caractères au fil des divisions cellulaires ou des
générations successives sans faire appel à d’éventuelles mutations de
l’ADN. Le séquençage des génomes devait en effet le révéler avec éclat. La
connaissance de l’ADN ne pouvait suffire à expliquer comment les gènes
fonctionnent pour constituer un organe. Cette notion n’est-elle pas d’ailleurs
prévisible ?
Pourtant, malgré ces relatives évidences, renforcées au fur et à mesure
du décryptage du code génétique, ce concept d’épigénétique allait un temps
tomber en déshérence pour renaître dans les années 1980 d’une nouvelle
modernité. On doit cette résurrection à Robin Holliday, un chercheur
australien, qui nota que les effets des changements de caractères transmis au
fil des divisions cellulaires semblaient trop fréquents pour être expliqués
par des mutations. Un fait de plus devait intriguer Holliday : lors de cette
transmission génétique certaines modifications de l’ADN n’affectaient pas
la séquence des nucléotides mais bien plutôt leur fonction, confortant ainsi
la notion que le message peut être changé sans que soit en cause la structure
de l’ADN. Une des prises de conscience d’hérédité épigénétique provient
également d’expériences faites sur des embryons de souris. Au début des
années 1980, les équipes de Davor Solter et Azim Surani, deux
embryologistes, ont réalisé des greffes de noyaux cellulaires dans des
ovocytes en leur apportant uniquement le génome du père ou de la mère à
un stade où ils sont encore distincts. Le nombre de chromosomes était
identique et correct, mais ne provenait que d’un seul parent, paternel ou
maternel. Or, dans les deux cas monoparentaux, les ovocytes ne pouvaient
se développer normalement, tandis que les ovocytes ayant reçu une greffe
des deux parents se différenciaient parfaitement. La différence entre ces
trois types d’ovocytes ne pouvait cependant être génétique : les gènes
étaient les mêmes, seule leur origine parentale différait. Il fallait imaginer
une sorte d’empreinte sur les gènes de l’un ou l’autre des parents, et cela de
manière différente selon qu’ils provenaient de mâles ou de femelles. Le plus
extraordinaire était que l’hérédité semblait impossible sans des mécanismes
épigénétiques. D’autres expériences effectuées par Waddington renvoient
au même phénomène. Des mouches qui ont subi un stress thermique
transitoire ayant induit une malformation de leurs ailes, peuvent transmettre
ces caractères aux générations suivantes, une hérédité ainsi acquise par
l’environnement. Tous les phénomènes acquis ne sont cependant pas
transmissibles. Si l’on coupe la queue des rats, les générations suivantes
n’ont pas des queues raccourcies ! Quel est l’acquis transmissible qui
s’incorpore à l’inné ? Que peut-on induire ou prévenir ?
Depuis quelques années, un certain nombre de travaux tentent de
recueillir des observations sur ce phénomène : l’effet héréditaire de
l’environnement. Ainsi, en comparant l’incidence du diabète en Suède entre
e e
la fin du XIX siècle et du XX , des auteurs ont suivi l’effet des bonnes ou
mauvaises récoltes sur le risque de développement du diabète plusieurs
générations plus tard. Ils allaient montrer qu’il était quatre fois plus élevé
chez les petits-enfants de ceux qui avaient bénéficié d’un bon état
nutritionnel.
Un des défis de l’épigénétique, non des moindres, renvoie ainsi aux
théories de l’évolution. Tandis que le génome est figé, sauf si des mutations
surviennent, l’épigénétique en façonne l’expression. Certes, le séquençage
des génomes n’a pas tout dit et encore moins décrit. Chacun veut connaître
son génome, d’ailleurs accessible à petit prix. Des industriels comme
Google en font publicité. Les kits de 23andMe en sont un bon exemple. La
médecine de précision est sur toutes les lèvres, dans tous les esprits. On
veut aller plus loin que la taille et la couleur des yeux, disséquer ses gènes,
décrypter ses caractères. Pourtant, il y a bien d’autres inconnues qui portent
sur leurs mécanismes de régulation. Certaines paraissent encore du domaine
fondamental et relever de la simple connaissance sur les lois du vivant.
Ainsi, comment, au sein d’une même cellule, seuls certains gènes
expriment ? À quel mécanisme doit-on ce phénomène ? Plus étonnant
encore sans doute, comment la cellule en conserve la mémoire alors que les
conditions qui en furent à l’origine ont déjà depuis longtemps disparu ?
Peut-on changer même cette programmation ? S’appliquant à la science du
développement des cellules et des organes, et plus largement de l’individu,
ces questions, qui semblent conduire à d’autres réponses et à d’autres
mécanismes que le modèle de l’opéron, nous invitent à regarder d’autres
horizons, à mieux comprendre le poids et fardeau de l’environnement sur le
fonctionnement de nos gènes. L’écologie rejoint la génétique.
L’épigénétique est le chaînon manquant. Le décryptage des mécanismes qui
la gouvernent est sans doute un des plus importants enjeux pour savoir
comment l’homme est modifié par ce qui l’entoure, comment le milieu
intérieur dans lequel baignent nos organes influence leurs fonctions,
comment l’un et l’autre modulent le comportement des individus, l’avenir
des générations futures. Une nouvelle boîte de Pandore s’ouvre sous nos
yeux.

La leçon des abeilles


La vie en société avec ses différences entre catégories professionnelles,
communautés ethniques, politiques, culturelles ou religieuses, est
fascinante. La génétique est longtemps restée muette pour tenter d’analyser
cette diversité, décrypter les mécanismes qui sont à l’origine des
comportements, expliquer l’appartenance à l’un ou l’autre de ces groupes.
Les expériences restent rares. Les gènes HLA par exemple, si utiles pour
déterminer la compatibilité des greffes, pourraient influencer également les
rencontres et affinités entre partenaires, qu’ils soient masculins ou féminins.
Mais les preuves restent discutées. Une des raisons pourrait être que
l’importance du rôle de l’épigénétique, les conséquences qu’on pourrait en
prédire, les perspectives à entrevoir pour modifier l’homme ou l’empêcher
de se laisser modifier, viennent juste d’être mises en lumière. Pour
beaucoup, ces considérations et espoirs appartiennent encore à l’observation
expérimentale, notamment animale.
Les abeilles ouvrières sont des femelles stériles tandis que la reine, seul
personnage à donner naissance, en enrichit la colonie de plus de 2 000 par
jour. En plus d’avoir des ovaires fonctionnels, la reine a une taille
supérieure à celle des ouvrières et une espérance de vie vingt fois plus
longue. Une autre différence se produit au sein des abeilles ouvrières. Il
existe deux sous-castes, si l’on fait référence à la division des tâches qui
régulent la croissance et le développement des colonies : les butineuses et
les nourricières. L’appartenance d’une abeille à l’une ou l’autre de ces
catégories, qu’on pourrait qualifier de professionnelles, dépend notamment
de son âge. Après éclosion, une larve d’ouvrière devient abeille nourricière
pour deux à trois semaines, puis se transforme en butineuse. La butineuse
appartient à sa sous-caste jusqu’à sa mort, mais peut cependant en changer
en fonction des besoins de la colonie. Le même phénomène peut se produire
à une autre occasion. Quand une abeille change de ruche elle s’adapte, et de
butineuse peut devenir ouvrière. À cette réversibilité sociale s’associe une
autre flexibilité, car le passage de témoin de nourricière à butineuse dépend
des besoins alimentaires de la colonie. L’horloge est celle du ventre. Or les
changements de rôle entre nourricière et butineuse qui se spécialise dans la
collecte du pollen et du nectar ne sont pas seulement d’ordre
comportemental. Ils s’associent à des modifications morphologiques au
niveau des appendices… En apparence, nous sommes loin de
l’épigénétique. Pourtant, se fier à l’habit et au comportement pour
comprendre l’évolution des sociétés, fusse-t-elle celle des abeilles, c’est
s’arrêter à une reconnaissance de forme, non de fond, au moins génétique…
Car ces différences, que l’on pourrait superficiellement se contenter
d’observer, recouvrent des déterminismes héréditaires acquis, notamment
par le butin alimentaire. Toutes les abeilles, individus femelles, possèdent
en effet un ADN identique. On en revient ici aux relations entre génotype et
phénotype… et à l’épigénétique. Certains caractères héréditaires sont
sélectionnés en fonction des facteurs environnementaux, notamment des
besoins de la colonie. La clé des destins des abeilles semble totalement
alimentaire, façonnée par leurs festins. C’est la gelée royale qui fait la
royauté, sorte d’hormone sociale. Quel étrange symbole qu’une
appartenance sociale, des espérances de vie aussi différentes, des
morphologies et des comportements aussi variés, soient aussi
indissolublement dépendants d’une nourriture sucrée ! Mais c’est une
nourriture de gènes dont il s’agit : en 2008, une équipe de l’Université
nationale australienne à Canberra montre l’effet de la gelée royale sur
l’ADN. L’expression des gènes notamment dans le cerveau est différente,
selon qu’on est reine, ouvrière ou butineuse. On ne peut s’empêcher de
penser une fois encore au rôle des sucres sur l’hérédité, clin d’œil à Monod
et Jacob. L’environnement influence les gènes, entraînant les changements
morphologiques et fonctionnels observés au cours de la différenciation
cellulaire ou du développement. Il s’agit bien d’une transmission héréditaire
d’un mécanisme épigénétique. À travers des programmes de régulation, qui
les modifient, l’expression d’un nombre restreint de gènes activés par la
gelée royale induit des caractéristiques physiques, anatomiques et
comportementales aussi différentes qu’entre la reine et ses ouvrières. À
quoi tient ainsi un destin royal ? La ruche n’est pas Versailles, mais on peut
rêver d’un festin de roi pour mieux vivre en société.
Un phénomène proche, sinon semblable, apparaît également chez les
fourmis. Le génome des fourmis fut, après les abeilles, le second à être
séquencé parmi les insectes vivant en communauté. Dans les colonies de
fourmis charpentières, en Floride, les grandes forment des bataillons de
soldats avec des mandibules et une tête plus grosse que les autres, petites et
menues, les ouvrières. Toutes cependant viennent de la même mère et sont
au moins demi-sœurs, ou plus encore, car bien souvent elles partagent le
même père. Leur comportement cependant diffère. Les premières montent
la garde et sont agressives, tandis que les autres sont chargées de la
nourriture et de s’occuper des larves. L’épigénétique nous apprend que leur
différence comportementale tient à la capacité d’expression des mêmes
gènes. Des chercheurs de Pennsylvanie ont en effet montré que, chez les
colonies de soldats, des gènes liés au développement du cerveau et aux
neurotransmetteurs sont activés et davantage utilisés. Est-ce à dire que la
guerre doit plus à l’intellect que la paix, à moins que le maniement des
armes, en l’occurrence des mandibules, ne stimule plus de neurones ?
Un autre exemple bien connu de l’épigénétique concerne la fonction des
chromosomes sexuels. Mâles et femelles se distinguent, au moins par la
présence d’un chromosome X supplémentaire chez la femelle et par un
chromosome Y chez le mâle. Or certains gènes du chromosome X peuvent
être inactivés par un processus curieux déterminant chez le chat la couleur
du pelage. Il existe chez ces animaux trois couleurs de base : noir, orange et
blanc, tandis que les autres sont le résultat de dégradés et de croisements.
Depuis Mendel, il était connu que la couleur était déterminée par des gènes.
Certaines des couleurs du pelage des chats sont liées à des informations
contenues par leurs chromosomes sexuels, un phénomène déjà noté un
siècle plus tôt par Charles Darwin : « Quoi de plus singulier, écrivait-il en
s’étonnant déjà, que la relation qui existe, chez les chats, […] entre le sexe
femelle et la coloration tricolore. » Le chromosome X doit ainsi être présent
pour que les couleurs noir et orange puissent s’exprimer. Le mâle qui ne
possède qu’un seul X peut être de l’une ou l’autre. Les femelles qui ont
deux chromosomes X peuvent dès lors avoir des gènes à la fois pour le noir
et l’orange. Quant à la couleur blanche, elle n’est pas liée au sexe et
s’exprime indépendamment de celui-ci. Pour cette raison, une chatte peut
avoir trois couleurs car elle dispose de deux chromosomes X et le blanc
peut ainsi s’exprimer. Certaines femelles dites chattes calicot ou écaille de
tortue arborent les trois couleurs. Ce phénomène peut paraître étrange si on
ne le rapportait aux extraordinaires défis de l’épigénétique. Car c’est bien
un tel phénomène qui met en place ces plages de couleur sur le pelage et
conduit à l’inactivation de l’un des deux chromosomes X dès le stade
précoce où l’embryon ne comporte que quelques centaines de cellules.
Certains gènes sont éteints, inactifs ou plutôt inactivés. Une telle
caractéristique se transmet ultérieurement aux lignées de cellules de la peau,
donnant une plage de couleur sur le pelage, la teinte obtenue dépendant ou
non de l’expression génétique obtenue.
Les ruches des abeilles avec leurs ouvrières, les chats aux étranges
pelages, ne rapprochent-ils pas ainsi le comportement, la biologie et la
génétique en ouvrant de nouveaux espaces de réflexion ? L’environnement
module nos gènes, loin d’être l’alignement superbe et parfois monotone de
bases chimiques le long de l’ADN. Certaines lois que l’extérieur façonne
avec précision modulent leurs expressions comme la partition jouée par les
doigts d’un pianiste vient tirer une symphonie des touches de piano.

Clés et serrure
La notion qu’un gène peut être allumé ou éteint ouvre de nouvelles
perspectives pour tenter de modifier l’homme. Encore faut-il en
comprendre le mécanisme. Une partie des réponses tient à l’organisation de
notre génome au sein des cellules, l’autre à l’identification des facteurs qui
en modulent l’expression.
Le génome chez tous les organismes eucaryotes, profondément encastré
dans la cellule au cœur d’un noyau, lui-même entouré de cytoplasme, est
associé à une multitude de protéines. Ces protéines et les molécules d’ADN
forment une structure nucléoprotéique qu’on appelle chromatine, décrite
pour la première fois en 1928 par un Allemand, Emil Heitz. Elle est ainsi
appelée parce qu’elle prend les colorants basiques. La chromatine est une
sorte de coque au sein de laquelle l’ADN est compacté en s’enroulant
autour de bobines : les histones. Il existe deux formes de chromatine, l’une
condensée fermant l’accès aux gènes, l’autre, ouverte, leur facilitant cet
accès. Cet aspect ayant été négligé, la chromatine a longtemps été perçue
comme une seule structure d’empaquetage du génome dans un espace
confiné du noyau, lui confiant un rôle passif, pour ne pas dire mineur.
Pourtant le génome fait 2 mètres de long tandis que le noyau mesure
10 microns !
Mon internat en médecine m’avait rapproché du microscope. J’étais
alors très intrigué par ce double aspect de la chromatine, qui me semblait
cacher un des grands secrets cellulaires. La correspondance, limitée
cependant à la cytologie, entre cette chromatine condensée et lâche ne
cessait de m’intéresser et m’apparaissait propice à mieux faire comprendre
le fonctionnement des noyaux des cellules que j’étudiais alors : les
lymphocytes. Courbé des après-midi autour d’expériences, aujourd’hui
lointaines, qui m’ont conduit par la suite vers la génétique, je tentais de
décrypter le rôle de la chromatine en quantifiant sa forme. L’intérêt n’était
pas des moindres car on sait maintenant que la chromatine joue un rôle
dominant, voire déterminant, dans l’accessibilité à l’information génétique,
à la manière très particulière, sorte de mémoire, qui ordonne ainsi
l’expression différentielle des gènes à travers les divisions cellulaires.
Dans les années 1990, les travaux d’une série de scientifiques devaient
suggérer de nouvelles hypothèses sur l’expression des gènes, en montrant
comment le contexte chromatinien dans lequel se trouvent ceux-ci, et leur
position dans le noyau, pouvait influencer leurs expressions. Il devenait
progressivement évident que l’épigénétique avait une importance majeure,
que son rôle s’effectuait avec parcimonie, pour ne pas dire précision. Les
gènes n’étaient pas placés au hasard dans les tiroirs de cette sorte d’armoire
qui était la chromatine. Ils étaient bien rangés. Leur accessibilité permettait
de prévoir leur fonction et leur sensibilité à différents facteurs qui pouvaient
les inactiver ou bien, au contraire, les rendre fonctionnels. L’image des clés
et serrures appartient au lexique des théories de la biologie moléculaire.
Chaque tiroir est fermé par une clé. C’est la modification de la chromatine
qui permet de faire fonctionner le gène en le sortant de son isolement ou
bien au contraire en l’emprisonnant dans un tiroir fermé à clé. L’image nous
entraîne cependant plus loin que celle d’une clé, serrure, et tiroir. Quelle est
la main qui tourne la clé et quelle est la clé qui ferme le tiroir ? Une fois
défini le rôle de la chromatine rangeant soigneusement nos gènes selon
qu’il est nécessaire de les exprimer ou non, cette main n’est-elle pas elle-
même ce qu’on appelle l’environnement, le milieu extérieur ou intérieur,
aussi divers que les lumières, les bruits… ou encore les couleurs d’un
tableau. Je ne sais plus où en était mon père. Et quel était son geste mais le
tableau prenait forme, et l’on pouvait se demander alors si l’état de nos
rétines et les gènes de notre cerveau pouvaient en tirer parti. La main…
mais qui était la clé ?
La bibliothèque de nos gènes fonctionnels, qui ne sont qu’au nombre de
20 000, est relativement petite. Or l’examen de notre patrimoine génétique
fait apparaître un point remarquable et intrigant : la partie que nous
associons à ce qui nous rend humain, celle qui est traduite en protéines,
n’occupe que 1,5 % de l’ensemble de l’ADN qui comprend d’autres
composants. Dans les années 1950, Barbara McClintock, pionnière de
l’étude du maïs et futur prix Nobel, devait découvrir l’existence de
transposons, gènes sauteurs qui peuvent passer d’un chromosome à l’autre.
Ces gènes sauteurs se trouvent dans toutes les branches de la vie. Très actifs
lors des premiers stades de l’évolution des primates, leur fonction cessa il y
a 37 millions d’années avec leur extinction en masse chez nos ancêtres
anthropoïdes. Ils représentent 45 % du génome humain. Barbara
McClintock proposa que ce mécanisme de transposition de gènes, qui
pouvait s’effectuer sur plusieurs générations, était à l’origine de la
régulation génétique. Si cette hypothèse, le rôle des transposons sur la
fonction génique, s’est révélée fausse, sa vision restait juste, puisqu’il s’est
avéré que des éléments de contrôle modifiaient l’activation des gènes.
Il fallut attendre le début des années 1970 pour découvrir l’un des
principaux processus qui réduisaient ceux-ci au silence : leur méthylation.
Pour qu’un gène conduise à la synthèse d’une molécule, il doit être
lisible et accessible à différents complexes protéiques capables d’intervenir
dans ce processus. Or la méthylation de l’ADN, substitution d’un groupe
chimique sur certaines bases nucléiques, empêche l’accès de ces complexes
protéiques à l’hélice et conduit ainsi à l’inactivation des gènes concernés.
La méthylation de la chromatine elle-même, modifiant l’empaquetage de la
molécule d’ADN, favorise ou non son accessibilité. On en revient ainsi au
tiroir. Celui-ci peut être ouvert ou fermé par cette clé chimique qu’est la
méthylation qui, en définitive, favorise ou non la lecture du code génétique.
De telles modifications sont transmissibles de cellule à cellule au cours de
leurs divisions. Ce phénomène est particulièrement important lors du
développement embryonnaire. Au sein de l’embryon, les cellules sont bien
identiques au départ. Elles vont par la suite se différencier pour donner
naissance aux différents tissus : foie, pancréas, muscle, tube digestif, etc. Or
ce sont de tels phénomènes de méthylation – ou de méthylation lors des
étapes précoces du développement – qui, entre autres mécanismes
biochimiques, sont responsables de l’activation ou d’une activation de
certains gènes afin de donner naissance à ces différents organes. La
transmission n’est pas seulement celle de marqueurs épigénétiques au
niveau cellulaire lors de la création de certains tissus et organes ; un tel
mécanisme est héréditaire. Certains caractères épigénétiques peuvent passer
à la descendance, notamment des plantes. Bien que ce mode de
transmission génétique soit plus modeste chez les mammifères, il est
démontré que c’est un tel phénomène de méthylation qui influence la
couleur de pelage et inhibe la fonction de certains gènes de l’un ou l’autre
des chromosomes X, se transmettant d’une génération à l’autre. La
méthylation de l’ADN est l’acteur majeur de la mise en place de
l’empreinte parentale, expliquant qu’un phénotype puisse ainsi dépendre de
l’un ou l’autre parent. Ce processus chimique est ubiquitaire et nous renvoie
à nos origines : il semble s’agir d’un mécanisme très ancien, utilisé
notamment pour inhiber l’expression de génomes étrangers, viraux ou
bactériens, ayant pénétré dans la cellule, avant de progressivement s’adapter
au contrôle des gènes parentaux. Ce n’est d’ailleurs pas le seul mécanisme
qui, sorte de glue, vient modifier le code génétique. D’autres processus
chimiques, telle l’acétylation, changent la forme des histones. À la
différence des précédents, ils favorisent l’accès aux gènes qui y sont
enroulés : ils ouvrent le tiroir de la chromatine.
Pour bien comprendre l’effet d’une telle alchimie, et ne pas se contenter
d’une lecture abstraite de nos gènes qui nous éloigne de la vraie vie, il faut
en revenir aux abeilles. Alors que la reine et les ouvrières possèdent les
mêmes gènes, donc les mêmes séquences d’ADN, d’importantes différences
sont observées selon leur état de méthylation. Les diverses castes et sous-
castes n’ont pas le même profil, même s’il s’agit d’individus du même âge.
Par son effet sur les gènes, ce processus chimique semble jouer un rôle
majeur sur les abeilles, de leur durée de vie à leurs comportements. Une
preuve expérimentale en est fournie par des protocoles qui diminuent
expérimentalement la méthylation de l’ADN à la période critique de deux-
trois jours de vie larvaire. Les résultats sont spectaculaires : ce procédé
entraîne l’abeille vers un phénotype de reine bien qu’elle ne soit pas nourrie
de gelée royale. La nourriture naturelle semble donc avoir les mêmes effets
que la chimie de laboratoire sur leur ADN. Fait remarquable, bien
qu’attendu si l’on fait référence à la ruche, cet état est réversible. En 2008,
les équipes australiennes de Sylvain Forêt et Ryszarb Maleszka montrent
qu’il suffit de supprimer la méthylation de larves nourricières pour qu’elles
deviennent butineuses, ou plus encore, celles-ci pouvant se transformer en
reines fécondes.
Les marques épigénétiques se modifient ainsi selon les nécessités de
l’environnement. Son influence, en apparence, ne concerne cependant que
certains gènes connus pour leur association à des changements d’ordre
métabolique, physiologique et neuronal, un fait qui peut expliquer les
différences d’activités endocrines ou nutritionnelles, et celle de l’horloge
circadienne, qui séparent les différentes castes.
Ce que peut retenir de cet exemple un lecteur avisé, est qu’il est
possible de modifier le comportement social et, peut-être plus spectaculaire
encore, la durée de vie, par une simple modification chimique. L’espérance
va plus loin que les Contes de Perrault si tant est que le plaisir reste
culinaire ou dicté par l’envie de gouverner. À moins que l’un ne dépende de
l’autre…
Méthylation… La science de l’acétylation, autre chimie, permet d’aller
plus loin encore, si l’on quitte les abeilles pour les fourmis. Chez ces
dernières, il est possible par une nourriture artificielle appropriée, d’ajouter
un groupe acétyle sur la chromatine de leurs cellules. Lorsque les histones
sont hyperacétylés, les gènes ne sont plus accessibles. Des enzymes
(histones acétyltransférases ou HAT) entraînent ainsi l’activation des gènes
tandis que d’autres (histones désacétylases ou HDAC) ont l’effet inverse.
En inhibant HDAC par produit pharmaceutique, les fourmis soldats se
mettent à chercher de la nourriture tandis qu’avec un inhibiteur de HAT les
ouvrières ne veulent plus faire ce travail. Pour favoriser une ouvrière ou un
soldat, il suffit de contrôler des enzymes. Mettre au pas le soldat ou
l’ouvrier par la chimie d’une enzyme, combien de gouvernements
n’auraient-ils pas souhaité disposer d’un tel pouvoir ?
L’étude de tels mécanismes épigénétiques et de leurs conséquences n’en
est qu’à son début chez l’homme. Les mécanismes de méthylation restent
cependant les mieux étudiés. Ainsi l’équipe de Mario Fraga, un scientifique
espagnol, étudia en 2005 la méthylation de l’ADN à partir des cellules de
40 paires de jumeaux allant de 3 à 74 ans. Ces chercheurs devaient montrer
que les profils étaient quasiment semblables chez les jumeaux les plus
jeunes mais différaient de manière importante chez les sujets plus âgés. De
telles analyses ne se sont pas limitées à la physiologie. Les états de
méthylation de l’ADN ont été étudiés dans nombre de pathologies telles que
le cancer où l’on peut noter l’extinction de certains gènes suppresseurs de
tumeurs, les infections, notamment à Helicobacter, l’agent des ulcères de
l’estomac, ou encore les pathologies liées au stress dont il est rapporté
qu’induit chez l’enfant, il peut avoir encore un effet à l’âge adulte. Quant à
la transmission héréditaire de tels états, des études après chimiothérapie
suggèrent que des effets qualitatifs sur le sperme peuvent être transmis à la
descendance.

Un code non codant


La gelée royale, ou surtout les processus de méthylation ou acétylation
ne sont pas les seuls mécanismes épigénétiques. D’autres procédés
gouvernent la fonction du génome. Une des aventures les plus
passionnantes de la biologie contemporaine, et de ce qu’on peut appeler la
postgénomique, est la découverte de l’existence et du rôle d’une nouvelle
pléiade d’ARN dits non codants. À la différence des ARN messagers, ceux-
ci, fait étonnant, ne sont pas traduits en protéines. Ils ont cependant d’autres
effets. Car l’enthousiasme des biologistes vient du fait que ces ARN
contribuent à la régulation des principales fonctions biologiques en inhibant
ou dégradant les ARN messagers, ceux qui jouent le rôle d’intermédiaire
entre l’ADN et les protéines. Certes la découverte d’un monde d’ARN non
codant au début des années 2000 a surpris la communauté scientifique,
d’autant qu’ils avaient longtemps échappé à la sagacité des chercheurs.
Pourtant certains faits troublants, telle l’étude de la résistance des végétaux
aux infections virales, montraient l’intervention de petits ARN
complémentaires de l’ARN infectieux pour s’en protéger. Une sorte de
bouclier totalement adapté à sa cible. Le blocage de certains gènes par
injection directe d’ARN non codants allait donner un éclat particulier au
rôle qu’ils pouvaient avoir, en même temps qu’un prix Nobel attribué à
Andrew Fire et Craig Mello en 2006. Parmi ces ARN, les micro-ARN
semblent jouer un rôle majeur dans la régulation de l’expression des gènes.
Comme souvent, l’histoire enrichit l’explication scientifique. C’est en
1993 dans les laboratoires de Victor Ambros et Gary Ruvkun qui étudiaient
le développement d’une espèce de petits vers ronds, des nématodes, que les
micro-ARN ont été découverts. Ces auteurs avaient déterminé que de telles
molécules inhibaient le développement de ces animaux par la perte de
fonction de certains de leurs gènes. L’affaire n’eut que peu d’échos,
considérée comme une singularité du modèle, pourtant prisé des biologistes.
Selon l’expression de l’Américain Harold Wyatt « l’information ne fut pas
convertie en connaissance » et il fallut attendre 2001 lorsqu’un deuxième
micro-ARN fut identifié pour le même rôle régulateur. Le fait aurait pu
passer inaperçu à son tour s’il n’avait été retrouvé dans d’autres espèces
animales et chez l’homme.
Les micro-ARN ne sont pas détectés partout, ni de manière permanente.
Certains sont spécifiques d’un tissu ou d’un organe, d’autres partagent des
séquences identiques. C’est dire leur diversité et leur multitude de cibles et
d’effets. La production de tels ARN peut être elle-même anormale ainsi que
cela peut se voir dans certaines infections virales, des maladies
métaboliques, et surtout des cancers où, inhibant les gènes suppresseurs de
tumeurs, il les favorise. Leur potentiel thérapeutique est considérable,
comme le montre l’inclisiran dans le traitement de l’hypercholestérolémie.
Leur petite taille, leur possibilité de diffusion à distance, surtout leur
efficacité sur une cible, permet d’envisager aujourd’hui d’agir directement
sur les régulations des gènes et de les moduler, à travers une pharmacopée
possible de médicaments génétiques. Il s’agit d’une véritable chimie qu’il
sera nécessaire d’adapter à chaque fonction et chaque expression de nos
gènes. Dans l’attente que l’homme utilise ces notions épigénétiques pour
lui-même, il est clair que l’environnement s’en charge, ce qui légitime plus
encore d’en comprendre les bénéfices et leurs risques. La santé et le bien-
être prennent dès lors le pas sur les théories de l’évolution.

Le mal du dehors
Les préoccupations sur l’environnement de l’Homme ne datent pas
d’aujourd’hui, et pour beaucoup d’entre elles, concernent sa santé et son
bien-être. Hippocrate, un des pères de la médecine moderne, insistait déjà
e
au III siècle de notre ère sur le rôle que jouait l’insalubrité dans l’apparition
des maladies. La médecine hippocratique remettait l’individu dans le
contexte du milieu extérieur, reconnaissant que l’alimentation et la qualité
de l’air pouvaient influer sur la santé. La notion de santé environnementale
est devenue aujourd’hui une des préoccupations dominantes de nos
sociétés, en apparence éloignées du rôle de la gelée royale sur l’évolution
des mœurs des abeilles. De nombreuses études cherchent à comprendre
l’influence que des pressions de tous ordres, physiques, chimiques,
biologiques, mais aussi sociales, peuvent avoir sur nos comportements,
notre santé, notre espérance de vie. Cette nouvelle science, associant
écologie et médecine, tente de mieux comprendre l’influence que les
risques environnementaux font courir à l’homme, à son évolution et aux
écosystèmes qui l’entourent. Elle s’appuie sur de nombreuses disciplines.
Ainsi, les progrès de la chimie et de la biochimie ont été cruciaux pour la
détection des molécules toxiques ; la caractérisation de l’eau et des masses
d’air utilisent les méthodes d’étude physiques et mécaniques des fluides, les
progrès de l’étude du climat ont associé des études de pression
atmosphérique au carottage des sols, etc. Au fur et à mesure, l’émergence
des connaissances a conduit à de nouveaux défis pour discerner des
marqueurs d’exposition et rendre compte notamment de l’effet des poisons
sur la biodiversité. Car, portée au grand public par Rachel Carson dans son
livre Printemps silencieux, la pollution est devenue une préoccupation
majeure et a fait comprendre que l’univers des contaminants
environnementaux représentait une véritable jungle qui modifiait la biologie
du vivant. La reconnaissance de tels effets extérieurs sur la physiologie de
l’homme a conduit ainsi un chercheur anglais, Christopher Wild, à proposer
en 2005 le mot d’exposome, pour englober l’ensemble des expositions
subies par un individu au cours de sa vie. Par analogie avec celui de
génome, ce mot, ou plutôt ce concept, regroupe toutes les expositions d’un
sujet, parfois synergiques, que leur nature soit physique (rayonnement
ionisant, chaleur), biologique (virus, bactérie, prions), chimique (plus de
130 000 000 molécules enregistrées en 2017), médicamenteuse, ou sociale
(stress, bruit). L’étude de l’exposome, si l’on considère son approche et la
diversité des signaux, apparaît infiniment plus délicate que celle du
génome. De plus, par définition, sa nature est variable avec le temps.
L’environnement a ses scientifiques pour tenter de définir son influence sur
l’homme. Mais l’actualité prend souvent le pas sur l’expérience. Des
catastrophes telles Seveso ou Tchernobyl, l’influence de mouvements
politiques, culturels, religieux, les réactions des médias, les longues
marches pour l’écologie et leurs plaidoiries, savent souvent mieux que les
chercheurs montrer du doigt le poids et la dangerosité de tel ou tel facteur
environnemental qu’il soit ou non induit par l’homme. Plus que jamais
cependant, les concepts nés des découvertes scientifiques se sont
rapprochés. Dans les laboratoires, les généticiens de l’épigénome côtoient
les biologistes et les biochimistes qui étudient l’exposome.
L’environnement se traduit en intermédiaires métaboliques et génétiques
pour être mieux appréhendé, et sans doute contrôlé. À cet égard, les
perturbateurs endocriniens qui peuvent avoir des conséquences sur la
fertilité font figure d’exemple pour indiquer combien et comment l’homme
peut en être modifié… et son hérédité acquise également.
Les perturbateurs endocriniens sont en effet depuis quelques années au
centre des discussions de ceux que la Santé Environnementale préoccupe.
Un soir à Corte, alors que la route qui borde la ville corse brûlait de
quelques feux liés à une manifestation contre la politique métropolitaine, je
me souviens ainsi d’une conversation à propos des poissons.
« Vous verrez, me disait alors mon interlocuteur, spécialiste du genre, ils
sont au cœur du débat écologique, et montrent autant de signaux
avertisseurs sur les capacités de l’environnement à changer l’individu. La
physiologie hormonale est très sensible. Les habitudes sexuelles des
poissons le démontrent. Mais c’est aussi un sujet de réflexion sur la manière
dont la nature modifie les mœurs. L’épigénétique y a sa part. Renseignez-
vous. »
Je suivis ce conseil et appris ainsi l’extraordinaire influence de
l’environnement sur le sexe des poissons. Plusieurs exemples l’illustrent.
Les barbiers communs sont des poissons de la famille des Serranidae qui
vivent en groupe. Un grand mâle domine un harem de femelles plus petites.
Mais au sein de celles-ci c’est la taille qu’il fait loi. La plus grande domine
les plus petites. La première du classement est la reine. Elle-même est
soumise à un mâle dominant. Mais lorsque celui-ci meurt, la reine change
de sexe et prend sa place tandis que les autres femelles gravissent l’échelle
de la hiérarchie. C’est le stress induit par la relation de dominance qui
bouleverse ainsi le système hormonal. Quand la femelle n’est plus soumise
à un mâle qui cherche à montrer son autorité, son statut, et même son sexe,
l’un dépendant de l’autre, elle en est transformée. En parallèle existe une
atrophie des ovaires et un accroissement des testicules. Étrange loi du
genre !
L’inverse se produit chez les poissons-clowns bien connus pour leur
belle couleur et leur actualité dans les dessins animés. Dans le couple royal,
l’inégalité prime, même si les deux partenaires restent fidèles jusqu’à la
mort. Ici c’est la femelle qui est dominante. À sa mort, le petit mâle dominé
grossit et devient reine à son tour avec disparition des tissus testiculaires.
Dans d’autres circonstances, c’est tout le groupe qui décide du sexe de
certains partenaires. Les poissons de la famille des Cirrhitidae naissent
femelles et peuvent changer de sexe plusieurs fois de suite au gré des
circonstances. Le groupe est un harem de femelles mené par un mâle
dominant. S’il y a trop de femelles, l’un des individus se transforme en
mâle pour féconder celles qui sont délaissées. Mais si son statut est remis en
cause par un de ses congénères puissants, le mâle peut redevenir la femelle
qu’il était à l’origine.
Il n’y a pas que les poissons exotiques qui peuvent changer de sexe sous
la pression de l’environnement : la dorade, le mérou et même le crocodile
peuvent en subir les conséquences. C’est précisément à propos de la
diminution du pénis des alligators de Floride du lac Apopka que Louis
Guillette au début des années 1990 attira l’attention sur les effets toxiques
du DDT. Depuis, de nombreux composés utilisés comme substances
chimiques industrielles ou produits phytosanitaires se sont révélés toxiques
pour l’homme, avec des effets à terme sur la reproduction et sur l’évolution
de l’espèce humaine. Pour beaucoup le risque paraît inacceptable, condition
qui peut paraître paradoxale dans une société dont l’espérance de vie n’a
jamais été si élevée. Précisément parce que le risque paraît évitable, un
principe de précaution demeure, d’autant que des liens entre épigénétique et
pesticides ont été mis en évidence. On en revient ainsi à la méthylation.
Certains toxiques engendrent une telle modification chimique de l’ADN.
L’environnement a ses poisons sur nos programmes de régulation
génétique, nouvelle toxicité de l’hérédité acquise. Très peu d’études
cependant ont étudié directement les profils épigénétiques de la lignée
germinale même si de nombreuses hypothèses documentent de possibles
effets transgénérationnels. L’étude la plus convaincante date de 2005. Elle
montre qu’une exposition de rat à un fongicide induit des anomalies de
spermatogenèse qui peuvent se perpétuer sur plusieurs générations.
Au cours de l’évolution de l’humanité, jamais l’environnement et la
santé des populations ne se sont autant modifiés. En quelques dizaines de
générations, l’homme a laissé son empreinte sur la planète plus que ne
l’avaient fait des milliers d’années antérieures. La révolution industrielle a
marqué l’homme car celle-ci lui a donné le pouvoir de changer la nature et
avec elle sa propre évolution. Le manque d’hygiène des âges antérieurs
cachait la pollution. L’Antiquité ne connaissait que quelques poisons. Il a
fallu attendre la révolution pastorienne pour mieux connaître le rôle des
microbes. Mais la révolution industrielle qui est avant tout celle de l’énergie
a fait plus pour la pollution de l’air que les cuissons des gibiers au feu de
bois. Avec la découverte des antibiotiques, des matériaux plastiques, des
pesticides, la pollution chimique, quasi inexistante au début du XIXe siècle, a
atteint des milliers de tonnes par an dans les années 1930, près de 1 milliard
de tonnes entre 1930 et 1990, et ne cesse d’augmenter. Des centaines de
milliers de substances chimiques nouvelles se trouvent dans notre
organisme et impactent, ou risquent d’impacter, le contrôle de nos gènes par
l’épigénétique. En même temps, c’est la révolution industrielle qui a permis
la maîtrise des dangers infectieux, a modifié nos villes, permis les moyens
de communication, changé nos sociétés. Paradoxalement, l’environnement
s’est plus que jamais imposé comme un facteur d’évolution en conduisant
l’espèce humaine à s’y adapter. Bien qu’imparfaitement connu, on
commence à percevoir les empreintes qu’il pourrait jouer sur les gènes par
le contrôle qu’exercent sur leurs fonctions les acteurs de l’épigénétique.
Nos gènes ont eu à composer, parfois aux dépens de notre santé. Ceux qui
favorisaient par exemple la captation du sel ou le stockage du sucre dans un
environnement qui en manquait, portent en eux le message des risques
d’hypertension ou de diabète dans le milieu qui en est trop riche. Les grands
systèmes de l’organisme, immunitaire, endocrinien, cardio-vasculaire,
respiratoire, reçoivent l’empreinte de ce milieu où ils baignent grâce au rôle
qu’il joue sur l’expression génique. Si l’environnement sélectionne les
individus qui ont le plus de chance de mieux se reproduire, c’est ainsi parce
qu’il nous fait évoluer afin d’en être compatible. À nous de comprendre le
rôle de l’épigénétique, des facteurs qui la gouvernent, méthylation,
acétylation, micro-ARN ou autres, afin de l’employer au mieux pour
maîtriser l’évolution de l’homme.

Quand l’épigénétique se confond avec


le paysage
Certes, l’épigénétique permet de mieux comprendre les mécanismes
moléculaires qui sont à l’origine de nombre de maladies et fait prévoir de
nouvelles percées thérapeutiques. Elle est également en train de modifier la
médecine personnalisée en matière de prévention. Les cartographies
épigénétiques sont aujourd’hui considérées comme un des outils pour
accompagner les parcours de vie des individus. L’épigénétique et son
héritabilité ont rejoint les hypothèses sur l’origine développementale de la
santé et des maladies. Ce concept, appelé DOHaD pour ses initiales
anglaises, suggère que l’embryon, le fœtus, et le nourrisson, ainsi que les
premières années de la vie, sont sous l’influence de l’environnement qui
joue un rôle sur son évolution. Plus généralement, il existerait un héritage
épigénétique transmis notamment par la mère, lié aux conditions de la
grossesse. Cette programmation pourrait être déterminante pour la santé de
l’individu. L’approche conjointe de DOHaD et de l’épigénétique pourrait
ainsi permettre de revisiter la médecine prédictive. On peut aussi penser que
ces deux concepts, en influant sur la manière dont les individus réagissent à
l’environnement et à la santé, et au rôle de l’un sur l’autre, puissent
également avoir un impact social. Protéger son corps, son épigénome,
conduira peut-être la société à de nouvelles règles de vie, qu’elles soient
individuelles ou collectives. Éviter ou accepter que l’homme soit ainsi
modifié, ou modifiable, par l’environnement, met la biologie au cœur du
débat écologique, non tant pour la préservation de la biodiversité que par
l’influence qu’elle peut avoir sur l’individu. La maîtrise du corps ne passe
pas seulement par en changer tout ou partie, de la thérapie génique aux
transplantations. Comme le montre l’épigénétique, l’environnement ne
cesse d’agir sur lui. Maîtriser l’exposome est aujourd’hui plus affaire de
politique que de manipulations génétiques. On en revient aussi à l’art…

Mon père avait fini son tableau, plongeant une dernière fois son pinceau
dans une bassine colorée et traversant la toile d’un bleu azur par un geste
qui voulait rejoindre l’horizon.
« Je préfère me laisser guider par l’émotion, dit-il en guise de
conclusion, plus que par la méthylation de mes gènes. » Il devait mourir
quelques années plus tard emporté par un cancer, dont mes collègues
pensaient qu’il était dû aux vapeurs du white-spirit. Je me prends souvent à
penser qu’à contempler les milliers de toiles qu’il a peintes, c’est pourtant la
couleur de ses tableaux qui laisse son empreinte sur mes gènes, en espérant
que celle-ci puisse se transmettre.
CHAPITRE 6

Ces microbes qui nous font vivre

L’homme qui se tenait devant moi était de taille moyenne, la trentaine,


et se distinguait par ses lunettes qu’il soulevait sur son front pour vous
parler, comme s’il accusait le regard. Nous nous voyions tous les trimestres,
à cette période si particulière de l’histoire du sida, où il n’y avait de
traitements que des espoirs. Comme il était infecté par le VIH, les soins que
je lui prodiguais se limitaient à l’annonce, chaque fois angoissante, de la
mesure de ses lymphocytes, les fameux CD4, dont la chute était inexorable.
Parfois, le temps en suspendait la décroissance, et j’arrachais un sourire
timide. « Pourquoi cette fois-ci, docteur ? » Je levais les bras, ou les mains,
selon, comme si le ciel m’écoutait. Nous nous parlions beaucoup, de la
maladie, des recherches, de la valeur de nos tests, des médicaments qu’on
pouvait envisager. Une connivence, sorte d’empathie, s’était liée derrière
son angoisse triste, qui se raisonnait. Un jour, il souleva plus loin ses
lunettes, se tourna vers moi, prit une pose concentrée et me dit :
« Vous savez, professeur, je crois que je vous connais bien maintenant, au
moins certaines de vos réactions et ambitions. Les miennes aussi. Aussi j’ai
pensé à une proposition… ou plutôt une requête. » Je le regardai, intrigué.
« Que voulez-vous dire ? » Il posa ses lunettes sur le bord du bureau et
reprit :
« Vous savez que je travaille dans l’édition ? » J’acquiesçais d’un geste. Il
reprit :
« J’ai pensé que vous pourriez écrire un livre.
– Un livre, mais je n’ai jamais publié que des articles scientifiques. Un livre
est une tout autre aventure. Et puis un livre sur quoi ou sur qui ?
– Un livre sur Louis Pasteur. Ce sera bientôt le centenaire de sa mort. J’ai
pensé que ce serait le bon moment.
– Mais Pasteur est un monument, beaucoup ont déjà écrit sur lui.
– Certes, mais si vous savez maintenant ma proposition, voici pourquoi je
parle de requête : ce livre pourrait être indirectement ma contribution à la
lutte contre le VIH. J’ai réfléchi. Nous autres éditeurs sommes autant là
pour éveiller la conscience du public que pour débusquer de nouvelles
idées. Vous êtes un chercheur, je le sais. Peut-être allez-vous découvrir ou
faire découvrir à d’autres dans ses cahiers de laboratoire, quelques
nouveaux concepts, qui pourraient vous mettre sur des pistes nouvelles ou
les suggérer à vos collègues ? C’est à cela que servent l’histoire et celle des
sciences en particulier. Réfléchissez, dit-il en se levant. Écrire sur Pasteur et
les malades qui mouraient sans antibiotiques, c’est décrire aussi notre
souffrance d’aujourd’hui… et nos espoirs dans de nouvelles pistes de
recherche. »
J’ai écrit une biographie de Louis Pasteur qui fut publiée quelque temps
avant sa mort. Il avait raison : au-delà de la rage, du vaccin, de la définition
moléculaire de la vie, j’ai découvert des faces cachées, des hypothèses en
jachères, qui sont devenues depuis d’une extraordinaire actualité. Le
microbiote, la manière dont l’environnement rapproche l’homme des
microbes et ensemence ce monde des bactéries qui vivent en nous, pour
nous, par nous, fut une des multiples idées auxquelles Pasteur avait réfléchi.
Le phénomène ou plutôt la problématique est aujourd’hui d’une brûlante
actualité. Cette conversation fut un des plus forts legs pour me conduire à
mêler un travail d’écriture à mes propres recherches. Lors de sa dernière
consultation à l’hôpital, avant que je ne lui annonce l’état profond de son
déficit immunitaire, il eut un sourire triste :
« Je vous laisse avec l’espoir, car pour vous ou d’autres, comme vous, notre
métier qui est de faire découvrir la science est une autre manière de
contribuer à sa création. »

Qu’y a-t-il d’humain dans l’homme ?


Une telle réflexion qui pourrait s’adresser à la conscience, au
comportement, ou à la morale, évoque aussi la vie que l’homme construit
avec les microbes. Une des plus fascinantes énigmes de l’histoire du vivant
est que l’homme – ainsi que d’ailleurs les animaux et les plantes – abrite
une multitude de micro-organismes qui vivent pour lui et avec lui. Il y a dix
fois plus de bactéries que de cellules codées par le génome humain. On
pourrait être étonné d’apprendre qu’il y a ainsi 100 milliards de germes
dans 1 gramme de selles, autant que de cellules qui peuplent le cerveau.
Entre la bouche et l’anus, sur une surface considérable de près de
400 mètres carrés, de la taille de deux courts de tennis, de très nombreuses
espèces différentes de bactéries cohabitent, sans compter les virus et les
champignons. Ces microbes commensaux contribuent à la digestion des
aliments, ou renforcent le système immunitaire pour lutter contre leurs
congénères, ceux qui sont à l’origine des infections. Le microbiote
intestinal n’est pas seul. D’autres, semblables mais non identiques, peuplent
la trachée, les bronches, le vagin, la peau. Ces germes vivent en parfaite
symbiose avec l’homme. Ils sont indispensables au développement durable
de notre vie.
Le Hollandais Antoni Van Leeuwenhoek, un drapier de Delphes où il
naquit en 1682, fut l’un des premiers qui décrivit les bactéries, et, parce
qu’elles provenaient d’un prélèvement de sa plaque dentaire, signa
également, sans doute involontairement, la première description du
microbiote buccal. « Il y a plus d’animaux qui s’accumulent sur les dents de
chacun d’entre nous que d’êtres vivants dans tout le royaume », écrivait-il
sur le petit registre où il cosignait ses observations. L’histoire des microbes,
de ceux qui sont présents dans l’environnement à ceux qui nous agressent,
accompagne celle des microbiologistes et biologistes, qui au fil des années
ont rendu compte par leurs découvertes de leurs extraordinaires propriétés.
Les germes sont infiniment plus connus, et d’ailleurs craints, pour les
infections qu’ils provoquent que pour leur capacité de mutualisme et les
services qu’ils rendent au corps humain qui n’existerait pas sans eux. Les
maladies infectieuses sont l’une des causes les plus importantes de mortalité
sur terre. Près de 14 millions d’individus en meurent chaque année,
principalement dans les pays à ressources limitées, et chez les enfants. De
nouvelles pathologies virales, bactériennes ou parasitaires sont apparues au
cours des siècles. Leur fréquence, des grandes pestes à Ebola, fait prédire la
découverte de nombreux microbes qui, sous diverses latitudes, continueront
à décimer des populations à travers leur émergence. Pourtant, ces désastres,
qui ont été source de connaissances sur ces facteurs de morbidité et les
étonnantes capacités agressives des microbes, n’ont été accompagnés que
très récemment par la découverte de leurs ressources pour la survie de
l’homme. Louis Pasteur qui s’intéressa principalement à la pathogénicité
des bactéries, fut un des premiers à soulever l’hypothèse de leur
remarquable utilité, liée à leur habitat symbiotique avec l’homme. Habile
expérimentateur, il ne chercha cependant pas à en pousser l’idée, craignant
sans doute que ses recherches sur le vaccin en pâtissent, mais conseilla à ses
collaborateurs et disciples d’en poursuivre l’étude.
Les bactéries sont apparues sur terre bien avant l’homme. Les datations
par fossile indiquent que les plus vieilles d’entre elles datent de
33,5 milliards d’années. Si l’histoire de la Terre devait être ramenée à un
cadran d’horloge de douze heures, les bactéries, qui sont les premières
manifestations de la vie, apparaîtraient à 2 h 45, et occuperaient l’espace de
temps de neuf heures et quinze minutes tandis que l’homme ne serait
présent qu’à la dernière seconde. L’homme fait partie de l’habitat des
bactéries qui colonisent tous les espaces, à travers diverses populations qui
s’y adaptent. À côté des eubactéries, les plus fréquentes, de formes diverses,
rondes, en bâtonnets, sporulées ou non, qui vivent et prolifèrent en relation
avec divers gaz, oxygène, méthane, azote, existent de curieux micro-
organismes que l’on ne peut trouver que dans les milieux extrêmes : les
archées ou archéobactéries peuvent proliférer dans les eaux sulfureuses,
dans des conditions thermiques et de pH hostiles à la vie, mer Morte, ou
parfois calotte polaire, dans les abysses des océans. Ces eubactéries et
archéobactéries qui peuplent ainsi notre planète, des forêts amazoniennes à
l’Antarctique, peuvent également être retrouvées au plus profond de nos
entrailles. Partageant leur existence et la nôtre, elles sont indispensables à la
vie sur terre. Elles cherchent à se reproduire, se nourrir, excréter et
communiquer entre elles. L’homme fait partie de leur habitat. À la fin du
e
XX siècle, 12 % seulement des espèces estimées avaient été reconnues. Tel

explorateur qui chercherait à en poursuivre la découverte, pourrait sans


doute, bénéficiant des moyens technologiques actuels, parvenir à en
identifier de nouvelles espèces.
Les bactéries, comme d’ailleurs les hommes et tout autre organisme
vivant, ont adapté leurs fonctions à leur croissance et multiplication. Des
microbes à l’éléphant, toute vie dépend d’une adéquation entre le milieu et
les gènes sélectionnés au gré des générations. Les bactéries s’échangent
continuellement du matériel génétique, en particulier par sexualité. Il existe
ainsi des bactéries mâles qui transmettent l’information, et d’autres qui
agissent comme des femelles et les reçoivent. Cette découverte, même si le
phénomène est rare, due à Joshua Lederberg, montre que les organismes les
plus simples sont doués de sexualité. Le brassage des gènes entre mâles et
femelles favorise la biodiversité et l’adaptation à l’environnement, pour les
bactéries comme les autres êtres vivants. Mais il existe d’autres modes de
modification de leur matériel génétique, telles la transposition par
production d’enzymes capables de déplacer une partie d’ADN d’un point à
l’autre du génome, la transformation par intégration de gènes au contact de
cadavres bactériens, ou surtout par mutation, changement des séquences
d’ADN qui forment les gènes. Induites ou provoquées, neutres ou
bénéfiques, les modifications génétiques ne sont pas les seules sources de
biodiversité. De nombreux facteurs limitent la multiplication des bactéries :
micro-organismes concurrents, prédateurs, conditions d’hygiène,
antibiotiques ou altération de l’environnement, notamment par la limitation
des ressources.
Les bactéries ne vivent pas indépendamment les unes des autres. Elles
s’organisent en chapelets ou grappes, produisent des films à la surface des
tissus, et, pour celles qui vivent dans nos intestins, se développent dans le
mucus qui le tapisse. Si les gènes représentent l’instrument de la croissance,
nombre d’autres structures biologiques sont nécessaires pour leur
mobilisation. Des flagelles les propulsent, des capteurs à l’affût de la
moindre molécule d’oxygène ou de gaz carbonique les attirent ou les
repoussent dans l’une ou l’autre des parties de notre corps. La bactérie,
comme l’homme, se déplace vers le milieu le plus favorable, celui qui lui
est potentiellement le plus viable, et fuit les terrains à risque. Les aptitudes
des bactéries sont multiples, capacité à dégrader les sucres, sécréter des
antibiotiques, intégrer un ADN étranger pour accroître ses capacités, ou
survivre sous forme de spore. La découverte des bactéries et de leur habitat
nous rappelle, en magnifique exemple, que la vie n’évolue pas pour le
compte de chaque espèce indépendante mais par une vertu très particulière
qui vaut pour l’ensemble des êtres vivants : la symbiose, ou vie en commun,
est une des conditions, peut-être la principale, de l’évolution du vivant.
En 1868, quelque neuf ans après la publication de De l’origine des
espèces par Charles Darwin, un botaniste suisse, Simon Schwendener, fit
une étrange découverte à propos des lichens. Il montra qu’il s’agissait de
l’association d’un champignon et d’une algue verte, décrivant ainsi un des
premiers exemples montrant qu’au terme d’une coévolution, deux êtres
vivants, en l’occurrence deux végétaux, pouvaient n’en faire plus qu’un. Ce
partenariat était si intégré que la disparition de l’un entraînait
immanquablement la mort de l’autre. La mutation chez l’un ou l’autre
entraînait en retour la sélection d’un compagnon plus adapté. Ces deux
organismes vivaient en symbiose. Il en est ainsi pour l’homme et les
bactéries, ainsi que les autres microbes, virus et champignons qui vivent en
commensaux avec lui. Cette interaction durable ne représente qu’un des
multiples exemples du destin commun que procurent les associations du
vivant. La vie n’existe que parce qu’elle est partenariale. Le mode de vie le
plus ancien est sans doute celui du parasitisme. Homme, animaux ou
plantes abritent ainsi depuis leur apparition sur terre, des virus, bactéries ou
parasites, en leur assurant de manière asymétrique l’habitat, la nourriture, et
parfois la protection. Au fur et à mesure de l’évolution, l’inverse s’est
pourtant produit. L’hôte exige la réciprocité. On passe ainsi à un état de
mutualisme ou de symbiose, sans doute la forme la plus adaptée de
coévolution.
De multiples exemples jalonnent cette vie en commun. Pourtant, si on
envisage le microbiote et sa comparaison avec les caractéristiques d’autres
espèces de bactéries, celles qui sont pathogènes, il n’y a pas de bons ou de
mauvais microbes. Cela n’existe que dans les livres pour enfants. Dans les
relations entre micro-organismes et leurs habitats, on trouve tout un
continuum de styles de vie. On en voudrait pour exemple l’extraordinaire
biologie de Wolbachia, une bactérie découverte en 1924 par Marshall
Hertig et Simeon Burt Wolbach à l’intérieur de moustiques ordinaires des
environs de Boston. Il fallut attendre douze années pour que la bactérie prît
le nom de l’un d’entre eux, et plus encore pour comprendre derrière sa
dénomination officielle les particularités de cette bactérie et notamment sa
fonction sur la sexualité. Un autre Américain, étudiant la reproduction,
découvrit en effet un groupe de guêpes asexuées qui se reproduisaient
uniquement par clonage. Il s’aperçut que cette particularité dépendait d’une
bactérie, la Wolbachia. Les guêpes une fois traitées par des antibiotiques,
les mâles se mirent à réapparaître, et les deux sexes recommencèrent à
s’accoupler. Dans leur cloporte, on put identifier que de telles bactéries
intervenaient dans cette métamorphose en favorisant la production
d’hormones mâles.
À des milliers de kilomètres, aux îles Fidji, on découvrit une autre
souche de Wolbachia qui tuait les embryons mâles des magnifiques
papillons lune bleue de sorte que les femelles étaient cent fois plus
nombreuses que les mâles. On apprit par la suite la manière dont cette
stratégie était défavorable aux mâles. Wolbachia ne pouvait se transmettre
que par les ovules. Les spermatozoïdes n’avaient pas la taille pour les
contenir. Les femelles sont ainsi les seuls moyens pour leur permettre de se
développer. Les mâles représentant une impasse, ils devaient être tués. La
reproduction asexuée par les femelles les sauve. Habile à sauter dans de
nouvelles espèces, excellant à envahir les ovaires, Wolbachia peut se
trouver dans de nombreux hôtes. Elle infecte au moins quatre arthropodes
sur dix. Pouvant être considérée comme un parasite de la reproduction,
manipulant à son profit la vie sexuelle de ses hôtes, la bactérie pourrait
passer ainsi pour un méchant microbe. Pourtant elle procure des avantages à
certains vers nématodes sans laquelle ils ne peuvent survivre. Elle protège
certaines mouches et certains moustiques contre divers prédateurs, ou
encore apporte un élément nutritif dans les punaises de lit qui, sans elle,
deviennent rachitiques et stériles. Un des plus beaux exemples de son rôle
positif est l’utilisation de Wolbachia par la mineuse du pommier, un
papillon de nuit dont la chenille vit à l’intérieur des feuilles de cet arbre
fruitier. Chez ces insectes, le microbe libère des hormones qui empêchent
les feuilles de jaunir et de mourir. La bactérie donne à la chenille le temps
suffisant pour devenir adulte. Éliminer Wolbachia revient à précipiter
l’automne et faire mourir la chenille avant la chute des feuilles.
Ainsi existent tous les continuums de cohabitation. Pour certaines
espèces, Wolbachia est une alliée indispensable, un germe mutualiste. Pour
d’autres, la bactérie est nocive et dénature leur biologie. De multiples
exemples d’utilisation symbiotique des bactéries existent chez les plantes et
les animaux. Les fourmis transportent des microbes qui produisent des
antibiotiques qui leur permettent de désinfecter les champignons qu’elles
cultivent dans des champs souterrains. Des calamars peuvent abriter des
bactéries phosphorescentes qui leur donnent la même intensité qu’un clair
de lune, et ainsi les protègent des prédateurs sans projeter une ombre. Des
Apagonidés hébergent des bactéries luminescentes pour attirer leur proie.
Un autre de ces exemples remarquables de symbiose est fourni par la
coexistence du vers plat Paracatenula avec les bactéries. Celles-ci occupent
la quasi-totalité de ce minuscule animal à l’exception de son cerveau. Les
bactéries sont son moteur et son énergie. Si on coupe le vers en deux, il se
reconstitue en deux parties fonctionnelles ; en dix, il en renaîtra tout autant.
Cette reconstitution dépend entièrement des bactéries. Le seul segment qui
ne peut donner naissance à un nouvel animal est le cerveau. Sa queue isolée
développe à nouveau un cerveau mais le cerveau ne peut donner de queue.
La manière la plus simple de vérifier qu’un organisme a besoin de microbes
est ainsi de l’en priver. Dans tous les cas, l’expérience montre ce que les
êtres vivants doivent aux bactéries. Quand ils ne meurent pas, leur vie en est
changée. De la même manière l’homme a appris à vivre avec certaines
populations de microbes qui assurent à son profit de nombreuses fonctions,
notamment l’efficience de son système immunitaire et de son système
digestif. Le microbiote lui est indispensable au point d’admettre que
l’humain est une chimère.

De la symbiose aux bactéries symbiotiques


De symbiotiques où l’adaptation est partagée, certains germes qui
participent aux repas deviennent commensaux, ce qui est le cas du
microbiote. Mais certaines bactéries deviennent tellement intégrées à l’hôte
qu’il est parfois difficile de voir la frontière entre l’une et l’autre espèce. Il
en va ainsi des mitochondries qui furent autrefois des bactéries
indépendantes puis se sont retrouvées dans des cellules plus importantes
pour subvenir à leurs besoins énergétiques. Cette théorie fut avancée pour la
première fois par la microbiologiste américaine Lynn Margulis, au milieu
du XXe siècle, puis ne fut reconnue que plusieurs décennies plus tard.
Fascinée par les liens entre les êtres vivants et leur communauté de vie, elle
forgea en 1991 le mot « holobionte », du grec « unité de vie », pour
désigner un ensemble d’organismes qui vivent ainsi en symbiose. À ce titre,
les bactéries des microbiotes représentent 99 % de l’ensemble des gènes qui
composent l’holobionte homme, 1 % seulement correspondent aux gènes
dits humains. Si nos cellules contiennent entre 20 000 et 25 000 gènes, les
microbes que nous hébergeons en contrôlent cinq cents fois plus. Par leur
multiplication et surtout leur évolution rapide, ils sont capables de répondre
à de nombreux défis par leur richesse enzymatique. Les bactéries et les
hommes ont sans doute un ancêtre commun. Le fil d’Ariane qui les relie est
l’ADN. Un même système d’information permet d’établir un codage
identique et d’utiliser une molécule appelée ATP comme unité d’énergie.
Les médecins n’ont pris que récemment conscience de l’importance du
microbiote. Certes, cela s’explique aisément par les difficultés
technologiques à étudier les populations bactériennes intestinales tapies au
fond de nos entrailles. Vivant dans un milieu sans oxygène, elles sont
rapidement détruites à son contact. Pourtant, à la question essentielle de
savoir s’il est possible de vivre sans microbes, les expériences ont
longtemps apporté des réponses incertaines ou contradictoires. Élie
Metchnikoff, un des principaux collaborateurs de Pasteur, était persuadé de
l’action délétère des bactéries dans le tube digestif, notamment dans le
côlon. Il pensait que l’éradication du microbiote serait la clé de la longévité,
et développa à cette occasion une théorie prônant la consommation de
bacilles lactiques et de laitages fermentés pour lutter contre les effets
désastreux de la flore intestinale.
Repris par les uns, discuté par d’autres, le débat sur la vie sans bactéries
n’agita longtemps qu’un microcosme de scientifiques dont certains,
persuadés de l’intérêt des recherches sur les animaux axéniques,
ambitionnant de commercialiser toutes sortes d’espèces débarrassées de
leurs bactéries. Il fallut de nombreuses expériences pour arriver à admettre
avec René Dubos, chercheur à l’hôpital Rockefeller, que « les hommes et
les autres mammifères ne peuvent pas survivre et vivre longtemps en bonne
santé sans l’aide de certaines espèces microbiennes intimement mêlées au
milieu intestinal ». En fait, pendant longtemps, du fait des microbes
responsables de ravages infectieux, le microbiote fit peur au point de
souhaiter sa disparition. Les antibiotiques, rapportait Macfarlane Burnet,
portent en eux la promesse de l’élimination des maladies infectieuses,
comme un important facteur de vie sociale. L’asepsie, y compris pour les
microbes que nous accumulons en nous et sur nous, semblait faire loi. De
plus, le microbiote associé aux fèces suscitait une sorte de dégoût et de
répugnance, tant à l’étudier qu’à en concevoir l’importance. Un autre
obstacle s’est aussi opposé à l’intérêt d’analyser cet écosystème
symbiotique : comment imaginer que l’homme, ce roseau pensant, pouvait
vivre aux dépens de bactéries. La culture judéo-chrétienne qui place
l’homme au-dessus de toutes les cultures eut bien du mal à imaginer qu’il y
avait place pour la flore intestinale comme une vie intérieure indispensable
à sa propre existence. Admettre que le genre humain repose sur des
milliards de micro-organismes réduisait l’homme à une dimension qui lui
faisait perdre son individualité spirituelle.
Mais au-delà de ces considérations, les principaux obstacles furent
techniques, liés certes à la culture de telles bactéries, mais aussi à la
capacité de pouvoir les identifier. L’avènement de la biologie moléculaire et
des techniques de Polymerase Chain Reaction (PCR) permit d’identifier et
de classifier les espèces bactériennes. En même temps l’enrichissement des
bases de données permit des recherches d’homologie extensive et la mise au
point d’algorithmes évaluant les distances phylogénétiques par le degré de
parenté des différents segments d’ADN. L’étude d’ARN 16S, contenu dans
les ribosomes, structures présentes dans le cytoplasme des cellules, dont des
différences peuvent apparaître entre espèces, et ainsi permettre de les
repérer, rendit possible de classer les populations diverses de bactéries selon
leur identité génétique. La traque patiente et lente des bactéries fut
remplacée à partir des années 2000 par la métagénomique, technique qui
consiste à prélever les populations d’un écosystème, et par analyse bio-
informatique, de catégoriser les espèces bactériennes présentes.
La métagénomique a bouleversé la vision du microbiote, confirmant la
diversité des populations bactériennes contenues dans nos intestins, en
résonance avec le concept d’écosystème. L’individu fut ainsi conduit à se
définir par ses bactéries. Or, de la bouche à l’anus, des bactéries distinctes
sont engrangées dans diverses niches anatomiques. Ainsi, la bouche
humaine héberge plus de 320 espèces différentes. L’estomac abrite l’une
des plus célèbres des bactéries, Helicobacter pylori, dont l’enveloppe
hélicoïdale lui permet de coloniser la muqueuse de l’estomac tandis que ses
capacités de production d’ammoniaque peuvent endommager les cellules
gastriques en créant des ulcères. Dans l’intestin grêle, et ses différentes
parties, duodénum, jéjunum, iléon, vivent plusieurs centaines de milliards
de microbes, même s’il est difficile d’apprécier une telle richesse car
l’examen nécessite des prélèvements in vivo. C’est cependant dans le côlon
que se concentre la majeure partie des bactéries du tube digestif. Sa
diversité est considérable, mille fois supérieure à celui de l’iléon. Pour
survivre et proliférer dans celui-ci, les bactéries réalisent une fermentation
intense et génèrent de nombreux gaz, dont l’hydrogène sulfureux proche de
l’œuf pourri.
Il existe deux grandes catégories de bactéries, les firmicutes et les
bactéroïdes. Ces deux populations représenteraient près de 80 % des
bactéries de l’intestin. Elles sont cependant aussi différentes entre elles que
le règne animal et végétal. Les firmicutes sont des germes très courants
comme le streptocoque ou le staphylocoque, ou encore le Lactobacillus
vulgaris à l’origine du yaourt. Les bactéroïdes sont le groupe le plus
important de bacilles Gram négatifs, essentiellement anaérobies. Certaines
de ces bactéries peuvent être résistantes aux antibiotiques. Le rapport entre
bactéroïdes et firmicutes est en proportion variable entre les individus en
bonne santé et les obèses.
Tandis que près de 50 espèces ont été identifiées dans ces deux
microflores, de nombreuses autres appartiennent majoritairement à deux
autres groupes, les actinobactéries et les protéobactéries, dans les bactéries
réductrices de soufre. Si l’on ajoute le fait que des archéobactéries, les
bactéries de l’extrême, se trouvent également présentes dans les tréfonds de
nos intestins, cette diversité nous individualise. Les deux tiers des espèces
intestinales qu’héberge un individu adulte lui sont spécifiques, le tiers
restant étant partagé entre les individus, variant d’ailleurs selon les contrées.
Le microbiote n’est pas une entité constante. Certaines espèces sont plus
nombreuses dans la journée, d’autres la nuit, de sorte qu’il se modifie après
le dernier repas ou le lever du soleil. Le microbiote varie au cours de la vie.
Le fœtus est considéré comme stérile. La principale rencontre entre
l’homme et ses bactéries commensales débute à la naissance. Les bactéries
qui s’implantent sont celles de la mère lors de l’accouchement par voie
basse. Les premières sont les bactéries aérobies qui sont remplacées,
lorsque tout l’oxygène présent est consommé, par de nouvelles vagues de
bactéries qui appartiennent à un nouveau genre dit bifide. Lors d’une
naissance par césarienne le développement du microbiote diffère selon les
conditions d’hygiène du lieu d’accouchement. Avec le temps les différences
entre les deux modes s’estompent car rapidement le microbiote est
influencé par l’allaitement. Plus de 130 molécules de sucre qui composent
le lait maternel, variant en fonction de l’alimentation en période de
lactation, favorisent ainsi la prolifération bactérienne. Mais le microbiote
varie au cours de la vie selon les conditions d’hygiène ou d’alimentation.
Les bactéries circulent d’un individu à l’autre, entre nos corps, selon le sol,
l’air, l’habitat et l’environnement. Cette chaîne mobile et flexible nous relie
les uns aux autres, et d’une certaine manière, représente un de nos
principaux modes de contact avec le monde entier.

Des microbiotes aux multiples fonctions


La commensalité qui régit les rapports entre hommes et bactéries doit
s’assurer d’un bénéfice pour chacun des protagonistes sans que l’un et
l’autre en soient affectés. Un des premiers retours dus à la présence de
bactéries intestinales est la digestion des nutriments, retour réciproque
nécessaire à la croissance des bacilles. Pour l’homme, les bactéries
dégradent les aliments qui n’ont pas été préalablement digérés et
fournissent énergie et vitamines nécessaires à la vie. L’homme de son côté
nourrit les bactéries qui, omnivores, dégradent les sucres, principalement
végétaux, mais aussi protéines et lipides.
Les sucres représentent environ la moitié de la ration énergétique totale,
principalement à partir des glucides alimentaires, saccharose, lactose et
l’amidon, auquel s’ajoutent les fibres végétales. Tandis que le lactose et le
saccharose sont dégradés par les sucs digestifs, l’amidon et les fibres
alimentaires y résistent si bien qu’une part importante de ces produits se
déverse dans le côlon sans avoir été transformée. Les fibres alimentaires,
parois des végétaux qui représentent des structures sucrées enchaînées les
unes aux autres, formant une coque, nécessitent pour être dégradées un
nombre élevé d’enzymes que l’homme ne peut fournir. Il faut l’aide des
bactéries du côlon pour poursuivre le travail que les cellules et enzymes du
tube digestif n’ont pu effectuer. La variété des espèces bactériennes y trouve
son compte car l’énergie dégradée leur sert, mais aussi sa raison d’être, car
elles produisent un grand nombre d’enzymes, adaptées à la spécificité des
sucres alimentaires. L’arsenal enzymatique, d’une remarquable efficacité,
ne sert pas seulement aux résidus alimentaires mais digère également le
mucus, substance sucrée produite par l’homme au niveau du côlon. Sans
cette aide précieuse, le côlon serait rapidement distendu. Le microbiote
digère aussi les protéines qui sont dégradées en peptides puis en acides
aminés. Cette hydrolyse par des enzymes, les protéases, est indispensable
aux bactéries dont le métabolisme requiert des hydrates de carbone et de
l’azote. Le côlon représente ainsi la source essentielle des acides aminés.
Parmi les 20 molécules de cette famille, 9 ne peuvent être synthétisées par
les cellules humaines et le sont par les bactéries intestinales et l’action des
enzymes de l’estomac. Les bactéries du côlon peuvent également agir sur
les lipides et les transformer si bien que certains chercheurs ont émis l’idée
de les utiliser pour diminuer les apports alimentaires en cholestérol. Outre
les glucides, protides et lipides, le microbiote produit des vitamines,
complément nutritif indispensable. La vitamine K essentielle pour la
coagulation et la vitamine B12 indispensable à la maturation des cellules du
sang et du système nerveux, qui ne sont pas synthétisées par l’homme, le
sont par les bactéries, même si pour une part l’alimentation carnée y
supplée.
À l’instar des milieux de culture de Pasteur qui fut un des premiers à en
décrire la composition, les bactéries trouvent ainsi dans l’intestin de
nombreux ingrédients indispensables à leurs fonctions. En retour, elles
fournissent à l’homme de multiples manières pour dégrader les produits
alimentaires, apportant ainsi l’énergie indispensable à son bien-être et à sa
survie.
Au-delà du microbiote intestinal, l’homme abrite de nombreuses autres
colonies bactériennes différentes cependant des premières, dans les
nombreuses interfaces qu’il a avec l’environnement : peau, vagin, trachée.
Les bactéries de la peau, malgré leur accessibilité, sont relativement peu
étudiées. Le microbiote cutané est essentiel dans la fabrication des odeurs à
partir de nos sécrétions. Ce sont elles qui attirent certains animaux
prédateurs, moustiques en tête, qui se laissent guider par les effluves que
nous dégageons. Pasteur d’ailleurs ne serrait jamais les mains de peur
d’attraper de la sorte quelques contaminations nouvelles.
Le microbiote est également fondamental pour le développement du
système immunitaire. Pour créer une immunité aboutie, nous avons besoin
des bactéries intestinales. Sa présence repose cependant sur un paradoxe ou,
à tout le moins, une complexité, car l’intérêt de l’hôte est d’éviter la
rencontre de microbes pathogènes, tout en recherchant celle de flores
commensales. Il faut ainsi qu’ils apprennent à reconnaître les signaux que
les bactéries dégagent à l’interface, conduisant à respecter certains germes
et à en rejeter d’autres. De plus, en tolérant les microbes commensaux, il
s’assure des alliés pour lutter contre les pathogènes, qu’il s’agisse d’un
biofilm protecteur, ou de compétition pour une même ration énergétique. La
coévolution doit être définie pour permettre ainsi tout à la fois la tolérance
des uns et la lutte contre les autres.
À travers cette extraordinaire symbiose, le microbiote bouleverse la
notion de soi et de l’étranger. Ne sont-ils pas tout à la fois l’un et l’autre ?
Le chimérisme que provoque la présence de bactéries en nous, cette
mosaïque d’altérité comme le décrivent certains philosophes, suppose que
les bactéries participent à notre physiologie et soient respectées comme des
constituants de notre identité. Il est classique de dire que le soi interagit
avec l’autre. L’interaction est cependant plus subtile et a fait dériver la
notion de compatibilité vers celle d’une réactivité qui évolue avec le risque.
L’étranger est toléré, comme d’ailleurs dans beaucoup de sociétés animales
et humaines, s’il est sans risque. À l’inverse, tout signe d’agressivité en
retour déclenche une réaction immunitaire. Le problème n’est plus
d’identifier le soi et le non-soi, mais le danger. Les cellules immunitaires
deviennent ainsi les gardiens de la paix. Replacée dans la subtilité et la
complexité du fonctionnement de l’immunologie, l’acceptation d’hôtes
étrangers désirables et le rejet des autres revient à mieux comprendre ce que
sont la tolérance et la manière dont s’effectue le délicat équilibre entre les
lymphocytes et les microbes.
Le système immunitaire est en perpétuel éveil. Dans le contexte du
microbiote, les microbes commensaux n’induisent pas rien mais seulement
un faible niveau de stimulation immunitaire, une inflammation qui, d’une
certaine manière physiologique, induit la tolérance. La rencontre avec une
bactérie pathogène stimule une réaction d’une autre ampleur. La différence
entre bactéries résidentes et germes menaçants permet de graduer la réponse
immunitaire en retour. La plupart des connaissances sur cet état d’équilibre
ou de déséquilibre proviennent d’études comparatives entre animaux
axéniques dépourvus de microbiote et ceux qui sont élevés dans les
conditions classiques des animaux de laboratoire. De manière remarquable,
les structures lymphoïdes enchâssées dans la muqueuse sont raréfiées en
l’absence de microbiote. Celles-ci s’accompagnent d’un défaut de
maturation et de différenciation du système immunitaire. Le microbiote
préserve ainsi l’équilibre quantitatif des cellules d’immunité et
l’homéostasie immunitaire de l’organisme dans sa globalité. Il intervient
également sur la qualité et la fonction des lymphocytes. D’un côté, il
permet la sécrétion d’anticorps qui en retour façonnent la diversité des
espèces bactériennes intestinales, par la reconnaissance de molécules de
surface. De l’autre, il favorise une inflammation qui participe à la défense
contre les microbes pathogènes ou au contraire induit des lymphocytes T
régulateurs qui permettent la tolérance des commensaux. Le soi
immunitaire est ainsi un miroir à deux faces, l’un renvoyant aux cellules
somatiques, l’autre aux bactéries du microbiote. Le face-à-face entre ces
deux composants impose un autre regard, croisé celui-là, pour déceler le
commensalisme de la pathogénicité.

Ce microbiote qui nous rend malades


Depuis plusieurs années, l’étude d’un certain nombre de pathologies a
révélé que le microbiote pouvait être potentiellement responsable de leur
apparition. Certes, pour beaucoup, il ne s’agit que de corrélations. Celles-ci
ne sauraient cependant être totalement fortuites et reposent également sur
un certain nombre de faits expérimentaux qui rendent vraisemblable une
telle implication.
L’obésité est une de ces complications reliées aux bactéries intestinales.
Certains médias à l’affût d’effets d’annonce se sont saisis d’un certain
nombre de résultats sur leur rôle pour proposer un salut et une absolution à
ceux qui ont des problèmes de surpoids. Outrepassant les règles diététiques,
des titres de journaux devaient focaliser l’attention sur les microbes en
proposant que les excès de balance trouvent leur remède avec l’expression
de certaines bactéries. Les microbes ne sauraient être seuls en cause, mais
nombre de données plus scientifiques semblent montrer que le microbiote
tient aujourd’hui une bonne place parmi les éléments qui favorisent la
surcharge pondérale. Des observations effectuées chez les sujets obèses
montrent que ceux-ci ont une flore intestinale particulière, avec une
augmentation des firmicutes et une diminution des bactéroïdes. La moindre
diversité génétique des souches est associée également à une résistance à
l’insuline qui peut conduire au diabète, à une anomalie des lipides et un
syndrome inflammatoire. De telles corrélations ne permettent certes pas de
conclure aux relations de cause à effet. Pourtant, des expérimentations chez
la souris vont dans le même sens. Ainsi, en transplantant des microbes de
souris obèse à leurs congénères non obèses aseptiques, on induit des prises
de poids chez les récipiendaires. D’autres résultats semblent conforter les
premiers. Les souris sont coprophages. Si l’on met côte à côte deux races de
souris, les unes obèses les autres non, les microbes des souris minces
empêchent les secondes de prendre du poids. Mais l’inverse n’est pas vrai.
Il fallait pour obtenir une prise de poids y associer un régime riche en
graisse. Les microbes ne font pas tout, les facteurs diététiques et aussi
génétiques ont leur part. Des données chez l’homme confortent cependant
le rôle du microbiote et montrent qu’il intervient sur le tour de taille. Les
interventions de chirurgie bariatrique, court-circuit gastrique, restructurent
les microbes intestinaux en accroissant le nombre des espèces. Inversement,
les anomalies du microbiote s’aggravent avec la prise de poids et
s’améliorent avec le traitement. L’ensemble de ces résultats plaide pour
l’influence du microbiote sur l’obésité. D’ailleurs, cela est à rapporter à
l’effet des antibiotiques sur la prise de poids, longtemps utilisés pour
augmenter la croissance et le poids des volailles.
Le microbiote a été également rapporté à l’origine de certains cancers
notamment de cancers colorectaux. On constate en effet chez les patients
atteints de telles tumeurs une modification importante des populations de
bactéries dans leurs selles, avec une augmentation des anaérobies
notamment des bactéries péronnelles et diminution des firmicutes. De telles
anomalies s’observent également au contact des tumeurs où les germes
anaérobies prolifèrent. Le rôle du biofilm semble avoir une importance
toute particulière. Les altérations se passent vraisemblablement par étapes,
dans une sorte de compétition entre les bactéries résidentes et les intrus qui
veulent profiter d’un désordre pour s’insérer. Les pathogènes invasifs
sécrètent dans un premier temps des toxines de manière à s’assurer une
place. En retour, les cellules immunitaires intestinales libèrent des
médiateurs inflammatoires et des produits antimicrobiens, deux
conséquences qui tuent les germes commensaux et stimulent la prolifération
de ceux qui sont résistants. Il n’en faut pas plus pour permettre l’émergence
d’une population de bactéries agressives qui stimulent la prolifération des
cellules intestinales de manière anarchique, leur mutation puis
transformation tumorale. Là encore, comme le montrent nombre
d’expériences faisant appel à des souris transgéniques, le rôle du microbiote
est important, sinon prédominant. Mais il n’est pas seul en cause. La
génétique de l’hôte a sa part. Le cancer n’est que l’accident d’une symbiose
mal équilibrée, facilitée par des facteurs intrinsèques. Mutation et
prolifération bactérienne d’un côté, polymorphisme facilitant de gènes qui
s’expriment dans les cellules intestinales de l’autre, sont des conditions
nécessaires et peut-être suffisantes pour la rupture d’un subtil équilibre et
l’apparition des tumeurs.
Le microbiote semble également en cause dans l’apparition d’autres
types de cancers, notamment hépatiques, mais par un processus différent.
Pour expliquer le processus par lequel le microbiote agit sur leur survenue,
on évoque le fait que celui-ci est en contact étroit avec le foie par la veine
porte qui le relie à l’intestin. Les produits bactériens contenus dans la
lumière intestinale pourraient entraîner une réaction inflammatoire des
macrophages hépatiques, les cellules immunitaires en retour stimuler les
hépatocytes, les cellules du foie, et conduire à la transformation tumorale.
Certaines expériences semblent plaider pour ce mécanisme
physiopathologique. Ainsi le transfert de bactéries intestinales de souris non
obèses à des souris obèses, supprime ou diminue la stéatose hépatique. La
modification, la composition du microbiote, les anomalies de la barrière
intestinale, l’inflammation, pourraient ainsi être déterminantes dans cette
évolution.

D’un cerveau à l’autre


Le tube digestif est connu pour être un second cerveau chez les taoïstes,
et un centre de l’intelligence dans la culture sino-japonaise. Certains
scientifiques prétendent que l’être humain doit beaucoup aux neurones
intestinaux car s’il n’avait disposé que des neurones du cerveau, ils auraient
été absorbés en permanence par ce processus très complexe qu’est la
digestion. Le microbiote a remis les microbes intestinaux au centre du
débat, un certain nombre d’observations et d’expériences laissant penser
qu’ils ont un impact sur la fonction cérébrale et les comportements
humains. Il est depuis longtemps admis qu’il existe un axe cerveau intestin
et que le cerveau influence les capacités motrices, sensitives et sécrétoires
de l’intestin. C’est au cerveau qu’on doit le péristaltisme intestinal à travers
la stimulation qu’il instille par les 200 millions de neurones, certes mille
fois moins que le cerveau lui-même, mais autant que le cortex d’un chat ou
d’un chien. La sérotonine, en très grande partie, est sécrétée par l’intestin,
alors que, principal médiateur du système nerveux, elle participe à la
gestion de nos émotions. De plus, le nerf vague transmet directement des
informations des viscères à l’hypothalamus, dont le rôle est essentiel à nos
comportements émotionnels, et à l’amygdale, une zone qui coordonne des
activités végétatives et sensitives. Tous ces éléments font mieux
comprendre et peut-être interpréter le rôle qui est proposé au microbiote
pour le relier à nos comportements et nos humeurs.
Certaines expériences viennent conforter celui-ci. Ainsi, des souris qui
naissent par césarienne, et ne reçoivent pas les microbes du vagin ou du
rectum maternel, semblent plus anxieuses que leurs congénères qui naissent
par voie basse. D’autres arguments viennent des traitements antibiotiques
reçus. Ils entraînent chez les souris adultes des perturbations du microbiote
associées à un comportement de stress. Les anomalies cèdent à l’arrêt des
antibiotiques. L’inverse semble également vrai. Des lésions du cerveau
peuvent avoir un impact sur la composition du microbiote. En pratiquant
une ablation du bulbe olfactif, manœuvre qui rend les souris très anxieuses
et sensibles aux stress, on observe une altération du microbiote ainsi que
l’arrêt de la production des neurotransmetteurs libérés par l’hypothalamus.
L’injection de tels facteurs perturbe en retour la flore intestinale.
Mais, au-delà de telles constatations, les meilleures viennent
d’expériences de transplantations fécales de rat ou de souris d’humeurs
différentes. Des modifications de comportement après de tels gestes
s’expliquent par la greffe de microbiotes aux souris qui possèdent des
habitudes comportementales distinctes. Des souris anxieuses qui réagissent
au stress, s’enhardissent après transplantation de selles de souris
exploratrices et vice versa. Ces modèles prennent toute leur importance si
l’on considère le rapprochement fait entre les anomalies du microbiote et
certaines pathologies humaines tels le syndrome de l’intestin irritable qui
s’accompagne fréquemment de troubles psychologiques, l’autisme, où les
patients ont une flore différente de celle des sujets sains, un fait retrouvé
dans des modèles de souris autistes où la population de bactéries est
moindre que pour les souris normales.
L’absorption de quelques bactéries peut-elle suffire à modifier notre
comportement ? De telles observations sont cependant de formidables
arguments pour évoquer l’influence que les microbes peuvent avoir sur nos
humeurs et manières d’être. Les microbes prennent ainsi place entre nos
deux cerveaux et, si l’on en croit l’expérimentation, pourraient moduler la
relation à l’autre au point de faire le lien entre nos émotions et l’intestin,
inscrivant le comportement de nos microbes au cœur de nos vies en société.
Le microbiote et l’hygiène
Le microbiote intervient également pour une série de pathologies qui,
des manifestations allergiques aux infections auto-immunes, tels diabète,
polyarthrite rhumatoïde ou sclérose en plaques, font apparaître un
dérèglement du système immunitaire. Cette association entre microbes et
immunité trouve son fondement et analyse à partir d’une théorie dite
hygiéniste, apparue à la fin des années 1990. Elle a eu le mérite d’introduire
l’immunologie dans les préoccupations grand public et, plus encore, dans
l’exploration d’un certain nombre de phénomènes liés à la tolérance du
microbiote, ou plutôt sa rupture, par les composants immunitaires. Cette
hypothèse hygiéniste vient d’un médecin épidémiologiste qui en fit
l’observation princeps publiée dans le British Medical Journal, la revue de
l’Association des médecins anglais. Celui-ci remarqua que dans les familles
nombreuses, rhume des foins et eczéma frappaient plus souvent les aînés,
moins sujets que leurs cadets aux infections et défaut d’hygiène. Cette
notion suggérait que l’exposition en bas âge aux microbes était nécessaire à
l’éducation du système immunitaire. L’hypothèse fut confortée par le fait
que les enfants de milieux ruraux, en contact avec une grande variété de
microbes, ont souvent moins de risque de devenir asthmatiques et
allergiques. Or les quatre ou cinq dernières décennies ont été marquées par
une diminution considérable des maladies infectieuses, telles que
tuberculose, rougeole ou rhumatismes streptococciques dans les pays qui
ont adopté des normes exigeantes d’hygiène. Confortant l’hypothèse,
simultanément, on put remarquer une augmentation spectaculaire des
affections de nature allergique et inflammatoire. L’image en miroir de ces
deux phénomènes, régression des maladies infectieuses, augmentation des
maladies auto-immunes, établissait un lien, au moins épidémiologique,
entre ces pathologies. Cette double observation accompagnait une série
d’études mettant en évidence un gradient décroissant de la sclérose en
plaques et du diabète insulinodépendant des pays du Nord vers ceux du
Sud, leur incidence étant plus élevée dans les pays scandinaves que dans la
péninsule Ibérique. De telles différences s’observent également entre
l’Europe et l’Afrique, ou entre l’Afrique du Nord et le sud du continent.
Au-delà du constat ces analyses posaient la question de l’influence de
l’hygiène sur le microbiote qui pouvait en être indirectement responsable.
Certes il faut prendre en compte des facteurs génétiques ou ethniques,
mais leur contribution semble plus faible que les facteurs
environnementaux, comme le montrent notamment les différences
d’apparition de ces pathologies entre populations immigrées comparées aux
populations des pays d’origine. Ainsi observe-t-on une incidence dix fois
supérieure du diabète chez les enfants de Pakistanais vivant au Royaume-
Uni comparé à la population du Pakistan. De même, le lupus érythémateux
qui est très rare en Afrique de l’Ouest est fréquent chez les Noirs américains
exposés à un environnement différent de celui du sud du Sahara. Une série
d’observations complète ces analyses, montrant une corrélation entre la
fréquence de ces maladies, les conditions sanitaires, notamment
l’amélioration de l’hygiène alimentaire et la qualité microbiologique de
l’eau. Ainsi, la multiplication des bains avec utilisation de l’eau chaude dès
le plus jeune âge semble associée à un risque accru de maladie de Crohn.
Ces théories qui ont intrigué les spécialistes du microbiote ont suscité
une série de recherches visant à prouver que celui-ci par son effet
immunomodulateur pouvait être à l’origine indirecte d’un certain nombre
de maladies dysimmunitaires. De fait, des traitements médicaux par
antibiotiques pris de manière prolongée, le lavage fréquent du corps et des
vêtements, des installations sanitaires ultramodernes, nous éloignent des
microbes qui jouent un rôle crucial dans la stimulation et la maturation du
système immunitaire. Ces observations, les théories qui les accompagnent,
renvoient à l’équilibre entre immunité et reconnaissance. En cela, les
microbes ont une part, qui est ainsi d’induire une tolérance tout en
participant au développement de l’immunité. La composition du microbiote
joue un rôle majeur pour maintenir au sein de l’organisme, sur la longueur
de l’intestin et des autres muqueuses, un état qui favorise la lutte contre les
germes étrangers en même temps qu’elle permet une introduction et le
développement des germes commensaux. Cette interaction entre microbiote
et défenses immunitaires, provoquant la tolérance du premier et la
stimulation des secondes, passe par un équilibre qui est sous contrôle d’une
population particulière de cellules dites régulatrices. Si la balance penche en
leur défaveur, la tolérance est rompue et l’immunité contre le soi prend le
dessus. De telles cellules régulatrices maintiennent en équilibre cette double
activité à l’image du yin et du yang qui favorise la tolérance et les réactions
anti-inflammatoires d’un côté, de l’autre qui les rompt ou stimule
l’inflammation. Reste à comprendre si la stimulation de telles cellules
lymphoïdes est le résultat de populations microbiennes différentes ou d’une
action globale moyennée, de quelques microbes ou de l’ensemble. Un
certain nombre de données font pencher pour la première hypothèse. Ainsi,
une bactérie particulière, Bacteroides fragilis, par son antigène capsulaire,
stimule le développement de cellules T particulières. Dans des modèles de
souris axéniques, la transplantation de cette bactérie prévient ou guérit une
colite expérimentale. Il est dès lors possible de comprendre que toute
modification du microbiote par l’environnement, l’alimentation, ou les
antibiotiques puisse être à l’origine de telles ruptures de tolérance que l’on
peut mesurer par le nombre et l’activation de ces populations de cellules
régulatrices. Certes l’environnement ou l’hygiène ne sont pas seuls en
cause, mais les risques génétiques qui ont été associés à ces pathologies
inflammatoires semblent concerner précisément l’interaction du microbiote
avec son hôte. Ainsi des mutations sur certains gènes se traduisent par un
dysfonctionnement des populations des microbes intestinaux lié à une
moindre tolérance des bactéries commensales. Ce constat ne doit pas cacher
de fortes disparités individuelles chez les patients souffrant de telles
affections auto-immunes et inflammatoires. Elles ouvrent cependant la voie
à de nouveaux traitements agissant sur le microbiote car le déséquilibre de
la flore intestinale s’accroît avec la sévérité des symptômes et l’activité
inflammatoire.
Tout renvoie ainsi à l’entrée des germes dans notre corps et par
conséquent à l’influence de l’hygiène. Le contrôle de notre environnement
bactérien modifie sa composition. L’hygiène nous protège des microbes
pathogènes, notamment des infections nosocomiales rencontrées dans les
hôpitaux. Il est donc indispensable d’en respecter les règles. De nombreuses
adjonctions telles celles de se laver les mains ou de ne pas cracher, se
délivrent de concert avec la propreté de la maison, la qualité de
l’alimentation ou encore l’asepsie chirurgicale. L’environnement, l’hygiène
et l’alimentation ont leur part dans l’équilibre des microbes commensaux.
L’homme peut agir sur ces bactéries qui vivent en nous et ainsi sur son
destin.

Modifier le microbiote,
changer l’homme
L’homme peut moduler sa flore intestinale de différentes manières.
Celle-ci dépend en premier lieu de la qualité de l’alimentation. Une
expérience publiée en 2014 dans la revue Nature montre que le passage
d’un régime alimentaire carné à un régime exclusivement basé sur des
végétaux peut dans un délai bref modifier profondément le microbiote.
Ainsi, une alimentation d’origine animale plus riche en graisses et avec
moins de fibres réduit le nombre de bactéries firmicutes qui métabolisent
habituellement les sucres végétaux et les fibres alimentaires. Les plats
savoureux que nous mangeons n’ont pas pour seule vertu de plaire à notre
palais, ils nourrissent des milliards de bactéries symbiotiques. Les Japonais
par exemple digèrent les algues, éléments habituels de leur régime
alimentaire, grâce à des enzymes spécifiques produites par certaines
bactéries de leur microbiote. Celles-ci ont acquis cette propriété il y a
plusieurs milliards d’années en intégrant des gènes de bactéries marines. La
flore intestinale s’adapte à notre alimentation et réciproquement. La carotte
qui me rend aimable fait peut-être référence au rôle de bactéries
commensales sur notre comportement.
Les aliments fermentés apportent l’essentiel des microbes qui colonisent
nos intestins. La production de produits laitiers et avec eux l’envahissement
de notre microbiote par des bactéries et levures qui les fermentent, date de
près de six mille ans, comme les premières évidences de consommation de
vin à partir des vignes de Géorgie. Mais la fermentation qui se produit
spontanément est sans doute apparue à l’homme de nombreuses fois avant
qu’il apprenne à en contrôler le processus. Le nombre de laits fermentés est
aussi vaste que celui des animaux qui le produisent. Entre vaches, brebis,
buffles, il existe pas moins de 400 sources de laits différents traditionnels,
ou maintenant industriels. En réalité, la consommation de produits
fermentés doit autant sa persistance à travers les âges à leur goût ou leur
vertu thérapeutique, qu’à l’une de leurs principales caractéristiques : la
conservation des aliments. Salage, saumurage, confinage, fumage, voire
pasteurisation et maintenant stérilisation, les techniques de conservation des
produits alimentaires sont légion. La fermentation occupe une place de
choix parmi celles-ci car elle utilise un microbiote approprié à notre
écosystème intestinal tout en protégeant l’aliment d’une prolifération
microbienne indésirable. Elle maintient les fibres alimentaires et empêche
la putréfaction. Ainsi, le lactose du lait est transformé en acide lactique
mieux toléré par l’organisme. La fermentation du mannose par rouissage
permet d’éliminer l’acide cyanhydrique, composé hautement toxique. En
Asie, la fermentation du soja détruit les bactéries nocives. Absorbant les
microbes alimentaires pendant des siècles, l’homme était toutefois loin d’en
avoir conscience et encore moins d’en faire une prescription contrôlée. La
pullulation microbienne a fait des aliments et des boissons obtenus par
fermentation ses premiers apports microbiotiques. Dès qu’il comprit qu’on
pouvait agir sur la flore intestinale par l’absorption de bactéries contrôlées,
l’homme inventa les probiotiques.

Probiotiques et autres
Selon une définition de l’OMS, le terme désigne des « micro-
organismes vivants qui, lorsqu’ils sont ingérés en quantité suffisante,
exercent des effets positifs sur la santé au-delà des effets nutritionnels
traditionnels ». Un des premiers pionniers découvreurs de probiotiques fut
Joseph Lister qui cultiva à partir du lait un isolat de Lactobacillus lacis. En
1917, lors de la Première Guerre mondiale, Alfred Nissle reconnut dans les
selles d’un vaillant officier allemand une souche d’Escherichia coli, à
laquelle il donna son nom, qui semblait protéger des gastro-entérites et
depuis près de cent ans est prescrite dans la prévention des troubles gastro-
intestinaux.
S’ensuivit une série d’autres observations à l’origine de probiotiques de
diverses natures, depuis l’emmental suisse jusqu’aux levures des litchis, une
découverte du Français Henri Boulard en 1920. Celui-ci avait remarqué que
les populations d’Asie du Sud-Est mâchaient la peau de litchis et de
mangoustiers pour contrôler les diarrhées. Sous diverses appellations, cette
bactérie fit le tour du monde, notamment pour prévenir les troubles digestifs
après antibiothérapie. Outre ceux-ci, il existe ainsi de nombreux
probiotiques qui se concurrencent par leurs bienfaits sur la santé et leur
performance intestinale. Certaines espèces sont de vrais commensaux,
tandis que d’autres font partie d’un microbiome transitoire et ne restent que
peu de temps dans le tube digestif. Si de nombreux candidats entrent ainsi
dans la composition de poudres ou capsules, peu ont fait preuve de leur
efficacité, au demeurant difficile à mesurer et apprécier. Ces bactéries
doivent en effet non seulement être en nombre suffisant pour espérer
ensemencer l’intestin, mais résister à l’environnement hostile de l’estomac,
du duodénum, affronter le stress hydrique, physique, chimique, notamment
l’acidité, la pepsine gastrique, les enzymes de la bile. Il faut ainsi prouver
que la greffe a pris, et s’appuyer sur ses caractéristiques pour en mesurer
l’effet, qu’il s’agisse d’agir en facteur trophique pour l’intestin, de stimuler
les capacités immunitaires, ou de permettre la prolifération de populations
sélectionnées pour des vertus particulières contre certaines pathologies
qu’elles soient infectieuses, cancéreuses ou métaboliques.
Les probiotiques de seconde génération, choisis pour le rôle qu’ils
peuvent jouer en physiopathologie, font aujourd’hui l’objet d’études
cliniques, qui tentent d’apprécier leur impact en santé. Même si celui-ci
reste encore faible si on le compare à celui de l’alimentation et des
antibiotiques sur le microbiote, des recherches en cours qui permettent de
rationaliser l’emploi de nouvelles générations de microbes sur la prévention
et le traitement des maladies non transmissibles de l’homme sont porteuses
d’espoir. D’autant qu’il sera possible d’introduire de nouveaux gènes
possédant certaines vertus thérapeutiques, dans les bactéries. Ainsi, une
équipe de l’Université Cornell de New York a modifié le lactobacille du
yaourt pour lui permettre de produire des peptides à fonctions hormonales
luttant contre le diabète. Par ces nouveaux OGM incorporables à l’homme,
la guérison de cette affection métabolique paraît à certains un horizon
envisageable. D’autres moyens peuvent être imaginés comme la vaccination
contre des souches bactériennes identifiées pour leur rôle dans l’apparition
du diabète. Thérapie génique, vaccination, modulation par anticorps
monoclonaux peuvent ainsi modifier nos bactéries commensales et être à
l’origine de thérapies contrôlées pour lutter contre leurs
dysfonctionnements. Dès lors, certaines bactéries pourraient représenter de
nouveaux médicaments biologiques agissant aussi bien contre la flore
naturelle que contre la flore invasive.
À côté des probiotiques, les prébiotiques sont des sucres, qui profitent à
l’homme autant qu’à ses bactéries commensales, et ont pour vertu possible
de moduler les fonctions du microbiote. Aujourd’hui, plus de dix mille
publications ont été consacrées à ces aliments spécifiques de nos bactéries
intestinales, non utilisables par l’hôte humain. Les prébiotiques se trouvent
dans les fruits, légumes, miel, les racines des plantes. L’espèce humaine en
fabrique : 15 à 20 % des sucres du lait maternel ne proviennent pas de la
digestion des aliments. La diversité des microbes s’est adaptée aux
multiples sucres du lait maternel, mais l’inverse est sans doute vrai car les
microbes sont indispensables pour transformer en calories, et donc
sélectionner, de nombreux sucres bénéfiques à l’homme. L’alimentation par
le lait humain et l’utilisation de prébiotiques ont plusieurs avantages. Les
prébiotiques réduisent le nombre de pathogènes comme le montre
l’incidence diminuée des diarrhées infectieuses et la moindre utilisation des
antibiotiques. Cet impact sur le microbiote n’est pas le seul intérêt du lait
pour lutter contre les pathogènes. Les probiotiques du lait humain sont par
eux-mêmes capables de se lier aux récepteurs des cellules intestinales et
d’empêcher certaines bactéries et virus pathogènes tels que salmonelles et
vibrion cholérique de s’y fixer pour attaquer l’organisme.
Les prébiotiques agissent également sur le système immunitaire via
leurs actions sur le microbiote. Quels que soient les mécanismes subtils de
leur activité, ils peuvent en effet agir sur la maturation, l’homéostasie et la
régulation des cellules immunes.
Prébiotiques et probiotiques peuvent également avoir des actions qui se
synergisent ou se complémentent. Ainsi le nouveau-né nourri au sein
absorbe également des bactéries et puise ainsi dans les deux ressources.
Les xénobiotiques désignent les médicaments qui agissent sur la
diversité du microbiote. Celui-ci est à prendre en compte dans l’activité de
médicaments pris par voie orale ou anale, dans leur métabolisme, et en
définitive leur efficacité. L’approche métagénomique, c’est-à-dire la
caractérisation génomique des populations de microbes, devrait apporter
des précisions sur les possibles dégradations des médicaments par les
bactéries commensales, et permettre d’optimiser leur utilisation en
conséquence. Certains souhaiteraient même personnaliser les médicaments
en fonction de la flore digestive, utopie ou ouverture d’un nouveau marché.
Les antibiotiques, qui représentent les principaux xénobiotiques,
agissent directement sur la flore microbienne qu’ils modifient ou détruisent
selon les cas. L’effet peut être rapide et s’observer en quelques jours.
Déséquilibrant le microbiote, ils peuvent avoir un impact sur de nombreuses
maladies, comme l’obésité. Les antibiotiques sont ainsi depuis longtemps
utilisés pour augmenter la croissance et le poids des volailles. Dans les
ventes d’antibiotiques 40 % sont destinés aux élevages de poulets mais
aussi de porcs. Il reste que, comme tout impact d’un médicament ou
toxique, il faut étudier à distance leurs effets. Or, de manière remarquable,
les bactéries réagissent aux antibiotiques en retrouvant la diversité initiale.
Comme le voudrait un état de résilience, les populations de microbes se
réensemencent pour se reconstruire comme à l’origine. En recouvrant la
qualité de la symbiose après antibiotiques, les commensaux reconstituent la
vie avec l’homme, par et pour lui.
Les transplantations fécales sont une autre méthode pour modifier le
microbiote. Transplanter les selles d’un donneur sain à un malade, en lui
injectant beaucoup plus de gènes que n’en compte son propre génome, a de
quoi surprendre. Mais la transplantation fécale est utilisée depuis les temps
les plus anciens, car ce traitement était déjà proposé par les médecins
chinois pour de multiples troubles gastro-intestinaux depuis les premiers
siècles de notre ère. L’Europe n’échappa pas à la transplantation de flore
entérique, en partie réservée à la médecine vétérinaire. La coprophagie fut
également pratiquée pendant des siècles par les Bédouins qui avalaient les
selles encore chaudes de leurs chameaux lorsque, au bord des oasis, ils
étaient pris de dysenterie.
Les premières utilisations de transplantation fécale chez l’homme datent
de 1958. Les indications restent limitées aux infections à Clostridium
difficile, bactérie Gram+, qui a la particularité de sporuler, de se disséminer
dans l’environnement, et donne lieu à des gastro-entérites infectieuses
fréquentes en milieu hospitalier. Le principal facteur de survenue de cette
affection est l’utilisation d’antibiotiques qui permettent l’envahissement de
l’intestin par ce bacille. Le contact d’homme à homme fait le reste pour
propager les germes. Leur fréquence et gravité s’observent plus souvent
chez les personnes âgées. Nombre d’études ont confirmé l’efficacité de ce
type de transplantation qui a aujourd’hui ses codes, ses donneurs, ses
techniques. Si ce traitement est actuellement réservé au Clostridium,
l’avenir dira si nombre de maladies liées à des dysfonctionnements du
microbiote, telles que obésité, cancer, allergies, affections auto-immunes ou
inflammatoires, voire autisme, pourront bénéficier de cette nouvelle
thérapie.
En modifiant le microbiote de manière raisonnée par l’une ou l’autre de
ces modalités, probiotiques, prébiotiques, xénobiotiques ou transplantations
fécales, l’homme intervient sur la symbiose indispensable qu’il constitue
avec les microbes. Toutes actions sur les bactéries ou leurs gènes,
retentissent sur lui-même. Nouveau paradigme de la microbiologie, l’étude
de l’écologie microbienne commensale intéresse aujourd’hui l’humain. Les
modifications spontanées ou induites du microbiote rapprochent
l’environnement de l’homme. Il n’y a pas d’homme sans microbes.
Modifier le microbiote c’est changer l’homme.
TROISIÈME PARTIE

L’homme modifié
par la machine
CHAPITRE 7

Deus ex machina

Journée d’automne à Kyoto. Une brume humide recouvrait les palais


impériaux. J’avais longé les quinze pierres du jardin zen du Ryoan-ji
encadrées de kaolin, admiré les feuilles d’or du Kinkaku-ji se miroitant
dans le lac, parcouru l’étrange tunnel des milliers de torii vermillon,
observé les pins bonsaïs tourmentés et les érables rouges, puis après
quelques sushis avalés au milieu d’une foule pressée, repris l’express pour
Osaka. Le trajet m’apparaissait simple. Mais je devais vite déchanter.
Aucun voyageur ne parlait le moindre anglais pour m’indiquer la station où
descendre. Les panneaux n’étaient écrits qu’en japonais si bien qu’après
quelques tentatives déconcertantes pour les déchiffrer, j’avais décidé de me
fier à la mémoire des signes cabalistiques de la gare de départ. Le plus sûr
moyen de retrouver mon chemin était en effet de quitter l’express à
l’endroit précis où j’y étais monté. Mémoire et inscriptions me firent
pourtant défaut. À moins que ce ne fût mon sens dénué d’acuité pour
l’observation des lettres japonaises. Je manquai la station, et me retrouvai à
l’autre bout de l’immense ville. Il me fallut ainsi un temps assez long pour
arriver au laboratoire de neurosciences d’Osaka, où je devais rejoindre la
délégation française de l’Inserm. Le directeur écouta avec un sourire
ironique mes explications embarrassées :
« Regarde, tu vas observer des primates qui mémorisent mieux que
toi. »
Dans la pièce, un macaque, qu’on avait endormi par anesthésie, était
allongé sur une table d’observation, les yeux cependant tenus grands
ouverts par un autocollant. Son crâne était recouvert d’un tissu d’électrodes
reliées à un enregistreur qui faisait défiler les signaux électriques de son
activité cérébrale.
« Observez, messieurs, nous dit l’expérimentateur s’exprimant en
parfait français. Nous allons montrer à ce singe inconscient une série de
signes, et vous en observerez l’effet. »
Lentement alors, il fit dérouler devant les yeux de l’animal quelques
lettres qui ressemblaient à celles que j’aurais sans doute dû déchiffrer sur
les panneaux du train, puis vinrent des formes plus simples, un trait, un
rectangle, des points espacés. Sur l’écran, l’électroencéphalogramme restait
indifféremment plat ou presque. Pas une onde qui ne dépassait l’autre.
Brusquement, le signal se modifia, indiquant des signes clairs de
stimulation. Des pics de grande amplitude tranchaient avec la ligne de base,
témoins d’une activité cérébrale intense. Mes voisins se mirent à applaudir,
puis à rire. Je me retournai vers le singe pour comprendre d’où venait cette
excitation subite : le dessin d’une banane défilait maintenant devant ses
yeux !
« 95 % de notre cerveau est inconscient, conclut notre hôte, visiblement
ravi de cette démonstration. Mais rappelez-vous : ce singe, comme nous
autres humains, a une mémoire. L’image stimule celle de son fruit favori. »
Il se tourna alors vers moi et me dit : « Peut-être avez-vous aperçu les
lettres cabalistiques de votre station de métro lorsque vous étiez dans le
train. La vue de ces quelques signes japonais déjà observés au départ a pu
exciter l’activité électrique de votre mémoire, mais celle-ci ne fut pas
suffisante pour vous faire prendre une décision et descendre à la bonne
gare. Il aurait fallu vous aider d’une machine. Nous travaillons à cela.
L’animal que vous voyez étendu réagit si fortement à la banane qu’il est
sans doute possible de lui faire mobiliser un automate qui lui présentera le
vrai fuit. Nous étudions la capacité qu’a la vue de stimuler une activité
cérébrale capable d’animer une telle machine. »
Des années ont passé depuis cette prouesse expérimentale. C’est
aujourd’hui l’homme qui a pris la place du singe, et le mot « animé » gagné
un autre sens…

Le taureau contrarié de Cordoue


En 1963, dans un ranch espagnol de Cordoue, le neurophysiologiste
José Delgado se livrait à une étrange expérience. En complet veston au
cœur de l’arène, il tenait en main une petite télécommande qui devait lui
sauver la vie. La mise en marche de l’appareil stimulait à distance une
électrode préalablement implantée dans le cerveau d’un taureau qui, à peine
sorti du toril, le chargeait déjà. Introduit dans une petite région de
l’encéphale, le noyau caudé, le récepteur électronique une fois activé devait
pouvoir stopper l’animal. À défaut, quelques barrières de bois auraient
permis au torero improvisé de s’y réfugier. Or l’expérience fut concluante :
allumer la télécommande arrêta le taureau en pleine course, alors que,
excité par le chiffon rouge que tenait Delgado, il touchait presque sa cible.
C’était une des toutes premières fois que l’homme montrait qu’il pouvait se
rendre maître d’un cerveau. Filmée, commentée par les médias, discutée par
le grand public, la scène fit sensation, d’autant que le scientifique faisait
mieux que d’ouvrir le débat : il le provoquait, affirmant que l’on pouvait à
plaisir – ou déplaisir – manipuler émotions et humeur, et que les humains
pouvaient être contrôlés comme des robots en appuyant sur de simples
commandes.
La portée du symbole fit en quelques mois de José Delgado une vedette
internationale. Mais les perspectives d’une telle expérience furent aussi
l’objet de nombreuses critiques car le neurophysiologiste fit partie d’un
scandale provoqué par deux de ses collaborateurs. Ceux-ci assuraient
qu’une telle technologie pouvait dépasser l’expérimentation animale et
servir à d’autres desseins, jugés plus utiles, comme la répression des
émeutes des Noirs américains. On était alors en plein affrontement racial, et
les stimoceivers, comme on appelait alors ces implants, ne manquèrent pas
d’attirer l’attention des politiques qui cherchaient des moyens de lutte
contre la criminalité. Un des ministres de Franco, subjugué par un tel
pouvoir, appela Delgado à Madrid pour monter une nouvelle école de
médecine. Même si le Congrès américain refusa après réflexion tout crédit à
ce genre de manipulation jugée contraire à l’éthique, le contrôle à distance
du cerveau fit partie de quelques-unes des tentatives occultes pour désarmer
l’adversaire, heureusement échouées, au moment de la guerre froide.
Moins contesté sur le plan de l’éthique, un pas suivant fut franchi en
1969 quand Eberhard Fetz rapporta qu’un macaque pouvait obtenir le
déplacement de l’aiguille d’un cadran par la seule activité des neurones de
son cerveau. Il ouvrait la voie aux commandes cérébrales d’un automate.
Entre la machine et le vivant, une des premières applications d’interface fut
rapportée quelques années plus tard par un des pionniers du genre, le
neurophysiologiste brésilien Miguel Nicolelis. Celui-ci montra qu’un singe
pouvait contrôler un robot par la pensée. Les prouesses premières n’étaient
plus désormais un simple rêve de démiurge. Elles représentaient de
formidables approches pour lutter contre de nombreux handicaps moteurs
ou sensoriels, appréhender nos états de conscience et inconscience, guider
notre imagination jusqu’à la réalité virtuelle ou non des jeux vidéo, et ainsi
à l’amélioration sans doute possible des capacités de notre cerveau.
Le cerveau parle, personne n’écoute
Le cerveau a longtemps été opposé au cœur comme siège de l’âme. Si la
conscience s’arrête avec la destruction du réel, la mort survient avec celle
des battements du cœur. Après la reconnaissance de la primauté du cerveau,
le fait qu’il soit considéré curieusement comme un organe inerte, alors que
le cœur se contracte à 60 battements par minute, fit occuper à ce dernier
l’avant-scène, celle de l’intelligence. Il fallut attendre le long travail des
anatomistes, de Galien en particulier, pour connaître les relations si étroites
qui unissent le cerveau, les nerfs et les muscles, démontrant que le
mouvement est commandé par un réseau de nerfs reliés au cerveau. La
Renaissance, et le rapprochement des découvertes de Galien avec les
réflexions de Descartes, qui pensait le système nerveux en termes de
mécanique, alliant anatomie et physiologie dans une même analyse, furent
un premier pas dans la compréhension des comportements humains et
animaux. La science d’aujourd’hui, celle qui étudie les interfaces hommes
machines, trouve ses origines dans l’expérience de Luigi Galvani qui
montra qu’une décharge électrique appliquée au nerf d’une grenouille morte
provoque la contraction de ses muscles, une expérience que nombre
d’étudiants en médecine dont j’étais ont pratiquée lors de leurs premières
années d’apprentissage.
Les avancées scientifiques et conceptuelles qui ont suivi, alternant
examen des nerfs et philosophie, ont par la suite heureusement situé la
pensée dans le cortex cérébral. Le XVIIIe siècle avec Vincenzo Malacarne ne
fut pas seulement l’occasion d’allier l’anatomie topographique à la
physiologie mais d’associer les signes cliniques et donc l’observation des
malades à des lésions de l’encéphale. Paul Broca, cent ans plus tard, fut un
des chantres de la méthode anatomoclinique appliquée au système nerveux.
On lui doit d’avoir rapproché l’aphasie d’une atteinte cérébrale et localisé la
parole dans la troisième circonvolution du lobe frontal qui porte aujourd’hui
son nom.
Pourtant, avant la découverte de nouveaux colorants histologiques, au
début du XXe siècle, le cerveau n’offrait que peu de prise à l’observation
sagace des anatomopathologistes, même armés d’un microscope. Avant les
nouvelles techniques histologiques qui colorent les neurones, ceux-ci
n’apparaissaient que comme un étrange feutrage de fibres enchevêtrées. Les
travaux de Camillo Golgi et Santiago Ramón y Cajal allaient ouvrir une
nouvelle ère en décrivant les cellules neuronales avec leurs longs
prolongements, les axones, et quelques digitations, les dendrites. Les
axones, reliés les uns aux autres par leurs terminaisons, les synapses, font
mieux qu’assurer une connexion anatomique, ils transmettent un influx
électrique et ainsi les signaux de nos émotions, ordres et mémoire. Le
e
XX siècle ouvrit également la voie à d’importants progrès en électronique,

physiologie, et biochimie qui vinrent apporter leurs ressources à l’analyse


de l’activité des cellules neuronales, aux mesures du débit sanguin cérébral
à l’origine des premières cartographies fonctionnelles, à la biophysique des
potentiels d’action, et aux études électrochimiques des synapses. La
découverte de quelques animaux d’expérience qui sortaient du lot
accompagna ce long chemin. Le calamar avec ses réponses de fuite rapide,
ses axones et synapses géants, et le lièvre marin, l’aplysie, pour les bases
moléculaires de la mémoire, servirent abondamment à la science. Celle-ci
avança aussi avec l’amélioration constante d’électrodes depuis les premiers
enregistrements électriques du cerveau en 1920 par le neurologue allemand
Hans Berger qui décrivit les ondes cérébrales et leurs premiers tracés en
forme de vague, première ébauche d’électroencéphalogramme.
Le cerveau d’un homme adulte pèse près de 1,5 kilo et représente 2 %
du poids du corps. Situé au-dessus du cervelet, constitué de deux
hémisphères, il comprend aussi le diencéphale où se trouve le thalamus,
relais d’informations sensitives, émotionnelles et motrices. L’ouverture du
crâne et l’examen du cerveau ne permettent de voir ni peine ni passion ni
douleur ni commande. Ce qu’on y trouve ce sont les cellules nerveuses, et
quelques autres qui participent à leurs activités. Il est constitué de
170 milliards de cellules dont 86 milliards de neurones, chacune pouvant
former de 50 000 à 60 000 synapses, sources possibles de connexions et
d’échanges d’informations. Il se comporte ainsi comme un réseau
hautement connecté de cellules, une toile, qui sont autant de piles
connectées en série, le pôle négatif à l’intérieur de la cellule, le pôle positif
plongeant dans le fluide environnant.
C’est cet organe que l’homme veut interfacer avec la machine pour lui
passer commande, qu’elle soit consciente ou non. Il lui faut pour cela se
fonder sur une source d’énergie, celle des neurones. Ceux-ci ont un
potentiel électrique qui dépend d’un flux d’ions, tels le sodium, le
potassium et le chlore. Cette chimie électrolytique transmet l’influx nerveux
par l’ouverture et fermeture de canaux par lesquels les ions s’échangent,
puis par la libération au bout de l’axone de messagers chimiques, les
neurotransmetteurs. Électricité d’abord, chimie ensuite. La sérotonine,
l’agent chimique qui atténue l’anxiété, la dopamine, source de plaisir, la
noradrénaline qui agit sur l’humeur ou encore la GABA qui abaisse
l’agressivité, font partie de ces produits qui se transmettent d’un neurone à
l’autre et avec elles nos messages. La liste de telles molécules ne cesse
d’augmenter et dépasse la centaine aujourd’hui.
Pour son ouvrage L’Expression des émotions chez l’homme et les
animaux, qui succède à La Filiation de l’homme et la sélection liée au sexe,
Charles Darwin, le père de la théorie de l’évolution, avait adressé un
questionnaire à des correspondants du monde entier auxquels il demandait
également des photographies de visages avec des expressions d’émotions
diverses, peur, plaisir, dégoût, et autant de mimiques. L’analyse de ces
documents l’avait convaincu qu’il n’y avait pas de différence fondamentale
entre l’homme et les animaux pour ressentir la douleur, le bonheur, et le
malheur. L’expression des émotions, ajoutait-il, s’adapte à l’environnement
et semble découler des mêmes lois dans les différentes espèces. Ces
techniques ont leurs limites. Restreintes à des observations relativement
grossières même si elles sont indicatives, elles suggéraient que certaines
émotions, sensations, ou commandes passent par des activités cérébrales qui
ont des traductions relativement spécifiques, en l’occurrence sur le visage.
Plusieurs siècles plus tard, on tenta d’aller plus loin, c’est-à-dire à la
source : le cerveau. On chercha à décoder le message, à le rapporter à un
mouvement, tel le sourire ou froncement de sourcil, la mobilisation d’un
membre. Il fallait faire un pas de plus pour créer l’interface : enregistrer
l’activité électrique pour instruire une machine qui lui réponde et se
mobilise en fonction. Différentes techniques tentent d’appréhender ces
ondes cérébrales pour dépasser ainsi la mimique gestuelle et instrumenter
un automate. L’exploration de cette face cachée du cerveau passe par
l’électrophysiologie et l’imagerie. Nos émotions, nos commandes de
mouvements, bref notre activité cérébrale peuvent se mesurer et se
cartographier.
Le cerveau parle, personne n’écoute. Il génère continuellement des
ondes électriques, mais celles-ci se modifient, s’amplifient ou changent de
fréquence lorsqu’on répond à un stimulus, passe commande d’un
mouvement, parle, réagit à l’autre, à l’environnement, à nos sens. De
manière stupéfiante, mais après tout concevable, avancer d’un pas, lever un
membre, fermer la main ou tout autre geste se traduit par une stimulation
cérébrale identique que le mouvement ait été effectué ou non. Il suffit d’en
avoir l’intention. Une fois décodée, et repérée au sein des multiples activités
cérébrales qui ont lieu au même moment, l’expression électrique peut être
analysée et rapportée au geste pensé ou effectué. Cette énergie peut être
traduite certes, mais elle peut être aussi transformée, animant un instrument
comme on le ferait d’un membre. Suffit-il d’avoir la volonté pour qu’un
ordre soit exécuté ? Sans doute, si l’on passe commande à un automate.
L’activité cérébrale débute même avant que le sujet ait conscience d’en
avoir pris décision, ce qui pose d’ailleurs le problème du libre arbitre.
Ainsi, les activités électriques cérébrales, une fois enregistrées et
rattachés à un élément de notre conscience, peuvent se substituer à l’ordre,
et donc à l’homme, pour commander un instrument mécanique ou
numérique. La face cachée de notre cerveau, que les premiers travaux
d’anatomie et physiologie des neurones nous avaient fait découvrir, dépasse
largement ce que Darwin tentait de deviner par la photographie. Les
quelques comparaisons entre mimiques qu’il voulait rattacher à des
émotions, et ainsi à la traduction d’activité cérébrale, sont remplacées par
toutes sortes de méthodes qui les mesurent. Elles se fondent aujourd’hui sur
les techniques d’enregistrement électrique et d’imagerie cérébrale
fonctionnelle par des technologies fascinantes quand on examine leurs
prouesses et leurs ambitions.
Si les muscles sont bien commandés par les neurones, l’activité
musculaire recueillie par électromyographie n’est qu’un reflet indirect de
l’activité neuronale. L’électromyogramme traduit par son tracé la vitesse de
conduction de l’influx dans les nerfs et sa propagation aux muscles. Mais
nous voilà éloignés du cerveau, et restreints à des applications localisées
aux membres. Pour lier l’homme dans tous ses états à la machine, il faut en
revenir à l’organe de commande, d’où naissent pêle-mêle sensations,
émotions, mémoire, mouvements, avec un consensus si difficile à trouver
qu’on le recouvre d’un mot : « âme » pour les uns, « cerveau » pour les
autres.
L’activité du cerveau s’enregistre. Une telle mesure s’effectue par
électroencéphalographie, une technique qui quantifie les potentiels
déterminés par le déplacement des ions dans les axones lors de l’influx
nerveux. Car le signal électrique des neurones, comme tout autre, peut être
quantifié grâce à des électrodes disposées sur le cuir chevelu. Il peut être
enregistré, traduction du courant propagé par les activités synaptiques. Si
l’on veut cependant rapporter le tracé à un événement précis du cerveau, il
faut être capable de localiser l’activité, en avoir un haut degré de précision
et de définition sans être perturbé par des éléments parasites. Or si
l’électroencéphalogramme mesure bien l’activité électrique cérébrale, il
n’en recueille cependant qu’une petite partie. Cet enregistrement s’effectue
à travers l’os et le cuir chevelu qui font écran, diminuant aussi la précision
de l’examen. Par analogie, cela reviendrait en effet à analyser les
conversations de personnes éloignées, cachées derrière un mur. Une seule
personne, qu’elle parle à voix basse ou haute, ne suffit pas pour être
suffisamment entendue et comprise. Il faut les sons de plusieurs individus
pour qu’ils soient audibles. De même, plusieurs neurones doivent
fonctionner en même temps pour que leurs activités, en s’additionnant,
donnent une intensité mesurable.
De plus, s’il existe certains signaux caractéristiques d’un état mental
particulier, il est difficile de les capter sans être perturbé par les
interférences causées par les multitudes d’autres signaux reflétant l’activité
de base du cerveau. Or, pour « animer » un instrument, toute variation du
signal doit pouvoir être rapportée à une tâche particulière, à une localisation
précise, et une activité mentale déterminée, spontanée ou en réponse à une
stimulation. C’est ainsi qu’ont pu être définies différentes ondes liées à la
survenue d’événements extérieurs : la célèbre onde P300, associée à un
effet de surprise et à la prise de décision, a été suivie de la découverte
d’autres rythmes cérébraux correspondant à l’apaisement ou à l’anxiété. Les
chercheurs se sont servis de ces différents types de mesure pour déclencher
la commande d’un robot.
L’activité cérébrale peut aussi se mesurer par la
magnétoencéphalographie qui enregistre les charges magnétiques
provoquées par les courants générés par les activités synaptiques. Outre son
coût et l’immobilité imposée au sujet, cette mesure utilise une
instrumentation difficilement déplaçable qui en limite l’usage.
À ces mesures électriques sont venues s’ajouter toute une série de
techniques d’imagerie aujourd’hui pratiquées de manière isolée ou associée,
pour mieux relier l’activité électrique enregistrée à sa localisation possible.
L’IRM, imagerie par résonance magnétique, qui enregistre les signaux
proportionnels aux atomes, met en évidence les structures, tandis que l’IRM
fonctionnelle, qui repose sur la consommation locale d’oxygène, étudie le
cerveau en action. Ces deux techniques complètent aujourd’hui l’arsenal
des dispositifs d’étude du cerveau. Souvent en compétition, ces diverses
mesures d’études fonctionnelles, électroencéphalogramme,
magnétoélectroencéphalogramme, IRM fonctionnelle, sont en fait
complémentaires. Électroencéphalogramme et magnétoencéphalogramme
décèlent une activité à l’échelle du fonctionnement cérébral, et ainsi à la
milliseconde, tandis que l’IRM fonctionnelle parle de surface neuronale.
Elle permet de reconstruire une activité sur un secteur de l’ordre du
millimètre, mais sur un temps long.

L’interface cerveau machine


Que représente l’interface cerveau machine, ce projet prométhéen qui
anime chercheurs et cliniciens, sans parler des malades et des philosophes,
pour traduire, transformer, transporter l’activité cérébrale à un automate ?
Un rêve de démiurge ou une réalité ? Une attente de patients handicapés, la
volonté de complémenter l’homme par la mécanique et l’intelligence
artificielle (IA), de montrer qu’on peut dépasser l’humain ? Quelle que soit
la réponse, elle concrétise l’exploit d’une chimère moderne. On en revient
aux transplantations, mécaniques cette fois. Elle implique un système de
liaison directe entre un cerveau et un ordinateur, permettant à un individu de
communiquer avec son environnement sous l’action des muscles et des
nerfs. Ce lien, créé entre l’homme et l’ordinateur, comprend, de manière
logique, un système d’acquisition de signaux, leur classification et
traitement informatique, et en fin de chaîne, un dispositif de commande
pour diverses activités. Celles-ci vont du traitement du handicap à
l’introduction d’un sujet dans toutes sortes de réalités virtuelles plus ou
moins ludiques. L’opérateur peut progresser dans sa maîtrise, et l’ordinateur
aussi, car l’interface comprend une boucle qui permet à l’utilisateur de
progresser dans son apprentissage et à la machine d’affiner l’interprétation
des données.
Si l’histoire de cette formidable découverte remonte aux premières
expériences qui utilisaient l’activité électrique des neurones pour un
déplacement mécanique, le champ des applications s’est fortement accru.
Eberhard Fetz lui-même donna l’exemple de ces extraordinaires
performances. Il réussit à montrer que l’activité cérébrale pouvait contrôler
le virtuel et donner artificiellement le sens du toucher. Pour qu’une
personne puisse se servir de ses mains par commande cérébrale, il faut en
effet, non seulement qu’elle puisse bouger, mais qu’elle soit capable de
préhension. Or, par exemple, saisir un verre d’eau sans risque de le lâcher,
implique de ressentir les parois. Une expérience publiée en 2011 dans la
revue Nature par ce neurophysiologiste montrait que des singes entraînés à
saisir des objets lisses ou rugueux, pouvaient les distinguer et envoyer des
informations sensorielles dans une partie ou l’autre du cerveau selon leur
qualité. En fonction des signaux que déclenchait ainsi le toucher, le primate
pouvait distinguer la nature de l’objet, et acquérir par l’intermédiaire d’une
machine une sensation tactile virtuelle. L’homme a aujourd’hui remplacé le
singe dans le dispositif. Une image montre une des premières applications à
la vie amoureuse d’un tétraplégique grâce à la sensation ressentie mais
virtuelle du contact avec une main aimée par celle d’un automate relié à son
cerveau.
Présentes déjà depuis plus de quarante ans de recherche, les techniques
d’interfaces cerveau machine se sont largement médiatisées. Quelques titres
accrocheurs comme « un homme contrôle un bras robotique », n’ont pas
manqué d’attirer l’attention des lecteurs curieux et de déclencher
d’importants enthousiasmes. Il est vrai que les applications et perspectives
de ces machines sont au cœur des fantasmes de l’homme, entre réalité et
fiction. Les possibilités sont en effet multiples. Les champs d’application
concernent aujourd’hui deux grands domaines, les uns cliniques – mesure
des troubles de la conscience, gestion du handicap moteur ou de
communication verbale, traitement de l’épilepsie –, les autres tournés vers
le bien-être, loisir ou plaisir – les jeux vidéo.
L’une des premières applications fut d’analyser les troubles de la
conscience majeurs comme observés au cours du coma, et de tenter
d’apprécier les capacités d’amélioration, variables d’un sujet à l’autre. La
conscience autant de soi que de l’environnement peut être très différemment
altérée, si bien qu’il existe un continuum entre tous les niveaux de veille,
depuis sa normalité jusqu’à un état non réactif. La mesure de l’activité
corticale est certes utile mais relève plus du diagnostic que d’utilisations
potentielles pour effectuer une tâche. La plupart des principaux
développements des interfaces concernent la mobilisation de prothèses
robotiques. À côté de commandes dirigées par la main, la bouche ou le
souffle, l’enregistrement de l’activité cérébrale et sa transmission à des
automates, ordre pour ordre, peut pallier nombre d’insuffisances.
L’interface peut aider à restaurer la motricité d’un membre chez un
tétraplégique ou paraplégique, le plus souvent à l’aide d’un exosquelette, ce
dispositif électronique en plastique qui enveloppe une partie du corps pour
lui permettre de bouger. Plus aisés pour les membres supérieurs, les déficits
fonctionnels des membres inférieurs étant plus difficiles à traiter car il faut
assurer également l’équilibre. Il peut pallier des handicaps moteurs, mais
aussi, grâce à de telles machines, il est possible d’exercer d’importantes
pressions et des levages d’objets de grand poids. Comme il n’y a pas de
fonctionnement mécanique, s’il n’y a pas d’activation cérébrale décelable et
quantifiable, l’utilisateur peut recourir à différents subterfuges. Il peut faire
des calculs mentaux, visualiser un cube en rotation, chercher des mots
commençant par une lettre quelconque, imaginer bouger sa main gauche ou
son pied droit pour stimuler son cerveau. Dans la plupart des cas,
l’enregistrement électrique se fait à partir d’électrodes disposées sur le scalp
sans ouvrir la boîte crânienne. Il existe cependant d’autres méthodes pour
collecter l’activité neuronale. Celles qui dominent sont liées à des implants
directement posés sur le cerveau. Cela donne une meilleure résolution
spatiale mais oblige à miniaturiser les systèmes d’enregistrement et de
stimulation avec de nouveaux types d’électrodes par puce ou fils ou par
dispositifs non électriques. Quels qu’ils soient, les temps d’apprentissage
sont très longs, des mois, des années. S’ils sont liés à la plasticité du
cerveau, les processus neuronaux de cet apprentissage restent mal connus.
J’assistais, un jour, à la démonstration d’un de ces succès
extraordinaires par Alim Louis Benabib qui dirige le centre Clinatec de
Grenoble. Sur 6 000 mètres carrés de laboratoires et de centres
d’expérimentation, ce neurochirurgien a réuni médecins et chirurgiens,
mathématiciens, physiciens, spécialistes de nanotechnologie. Leur but :
faire bouger, remarcher, se déplacer chez eux, ou dans la rue, des patients
tétraplégiques ou handicapés moteurs majeurs. Les résultats sont
spectaculaires pour quelques patients qui depuis plus d’un an participent à
ces essais. Après qu’a été repérée à la surface du cortex la zone
correspondant à des commandes motrices, un petit implant d’électrodes
miniaturisé est placé sous l’os du crâne par trépanation. De nombreux
calculs ont permis de décoder les messages qui sont transmis à un transistor
miniature que le patient porte sur son dos. Le traitement par algorithmes
permet de mobiliser un exosquelette. Quelle spectaculaire image que ce
grand handicapé dans sa carapace de plastique bougeant doigts, mains,
marchant, certes en équilibre encore instable, mais se mobilisant par la
seule commande de son cerveau !
Un homme robotisé ou un robot humanoïde ? Un homme tout
simplement, dont la seule volonté et les ondes cérébrales permettent de
bouger grâce à la commande d’un automate et, probablement demain, le
propulseront au cœur d’une nouvelle vie. Déjà, l’onde cérébrale peut
aujourd’hui induire le déplacement d’un fauteuil roulant robotisé. Quand la
manœuvre est délicate, le système peut en prendre le contrôle. Dans le futur,
il pourra même être remplacé par un robot qui agira à la place du sujet, se
déplacera à distance, visitera une exposition pour lui, le représentera même
dans un cocktail et, s’il est équipé d’une caméra, lui permettra de discuter
avec des interlocuteurs grâce à un système de téléconférence. Un double
certes, mais dirigé par la commande d’un cerveau…
Il reste que le traitement du handicap ou d’une amputation ne repose pas
seulement sur un exosquelette à commande cérébrale. Les plus vieilles
prothèses pour membres inertes ou manquants peuvent être remplacées par
des dispositifs animés par la mesure électrique de muscles fonctionnels
voisins ou par celle de postures.
Toutes ces performances nécessitent de miniaturiser les systèmes
d’enregistrement ou de stimulation et de dépasser les électrodes classiques.
Des essais ont été faits avec des capteurs introduits directement dans le tissu
cérébral sous forme de faisceau de microélectrodes ultrafines en verre, ce
qui permet de balayer un grand volume neuronal. Il a été proposé aussi de
saupoudrer sur le cortex des dispositifs de la taille d’un grain de sucre,
incluant toutes les fonctions pour collecter et transmettre sans fil
l’information, ou encore de mettre en place une interface faite de mailles en
polymère enserrant des capteurs métalliques. Mais l’imagination
technologique n’est pas avare de nouvelles inventions, telle l’injection de
nanoparticules magnétiques et leur mesure par champ magnétique,
l’utilisation des ultrasons et de la « poussière neurale » formée de
minuscules particules introduites dans le parenchyme cérébral.
Toutes ces méthodes invasives ne sont pas sans risques. Même
miniaturisées, elles peuvent entraîner des microlésions, hémorragies et
infections. Une interface tout cerveau, recherchée par l’emploi des
microparticules, risque d’aboutir de plus à des réactions immunitaires.
Pour obtenir les meilleurs effets à partir des signaux collectés, il faut
aussi savoir développer des algorithmes pertinents. Certes, ceux-ci peuvent
être améliorés par la pratique du machine learning qui identifie des patrons
d’activités neuronales mis en relation avec les mouvements précis du
curseur de la machine. Par la suite, l’algorithme peut détecter ces signaux et
contribuer à accélérer le curseur, instaurant une forme de complicité entre le
numérique et la plasticité cérébrale. Les algorithmes ont cependant leurs
limites, notamment pour traiter les signaux en relation avec les processus
cognitifs. Ainsi, il n’est pas évident que la représentation du langage
intérieur, celui qui est silencieux ou imagé, soit identique au langage parlé.
L’une des principales utilisations de telles interfaces concerne la
communication. C’est là un défi quotidien pour ceux qui n’ont plus l’usage
de la parole, qu’ils souffrent d’infirmité cérébrale ou, encore conscients,
soient paralysés, victimes du syndrome d’enfermement comme l’exemple
de Jean-Dominique Bauby si bien décrit dans Le Scaphandre et le Papillon.
Vingt mille battements de paupière lui avaient permis de dicter ce livre peu
avant sa mort en 1997. L’enregistrement de son activité cérébrale aurait
sans doute pu compléter cette tâche. Par la détection de l’onde de surprise,
la fameuse P300, on a depuis inventé la machine à écrire mentale. Des
lettres sont disposées sur une matrice dont les lignes et colonnes
s’illuminent de manière aléatoire. En portant son attention sur la lettre
sélectionnée, un sujet peut activer son rythme cérébral qui, enregistré par
électroencéphalogramme, indique le choix.
Sans aller jusqu’à l’utilisation de telles interfaces actives, ou plutôt
réactives, pour la commande d’un utilisateur à sa machine, il est également
possible de suivre l’état de conscience d’un opérateur dans diverses
conditions de travail. Le pilotage d’un avion, la conduite robotisée ou
encore la surveillance d’un travail d’usine en sont l’exemple. Ces interfaces
permettent de déceler des pertes de vigilance. On leur doit la sécurité de
certains de nos transports dans le ciel ou sur route.
De l’homme à la machine, et vice versa, au service du handicap, et donc
de la médecine, l’interface a gagné le domaine de l’agréable, autre versant
de la santé, celui du bien-être. Il a fait mieux et peut-être plus : il s’est
introduit dans le jeu subtil du social. Parfois moins, si l’on en croit le
développement par un groupe japonais d’un projet gadget qui enregistre les
ondes cérébrales et les transmet à un serre-tête à oreilles de chat. Celles-ci
s’agitent à la vue d’un objet ou d’une personne désirée ou au contraire
s’abaissent en cas de méditation. On peut imaginer l’aspect d’une
assemblée de moines tibétains affublés de tels ornements !
De telles reconnaissances de forme, comme ceux que j’avais observés à
Kyoto, sont à la base aujourd’hui de jeux vidéo à succès. Un des premiers
exemples de ces plaisirs ludiques vient du célèbre univers des films de la
Guerre des étoiles. Intitulé « Use the force », son but, objectif remarquable,
est de soulever un chasseur du vaisseau spatial inspiré de la saga Star Wars
par l’activité cérébrale. Un brin de concentration sur quelques mouvements
imaginaires des mains et des pieds suffit à faire décoller un
électroencéphalogramme plat et animer un personnage sur l’écran. Le jeu
peut être plus compliqué encore, surtout s’il implique plusieurs joueurs,
tous équipés de casques à électrodes. Il suffit d’imaginer un terrain de
football et de penser à pousser le ballon du pied pour y participer.
L’échange physique est bel et bien cérébral, mais l’écran marque les
dribbles et les buts, à moins que cela ne soit les ondes P300. De multiples
applications plus ou moins ludiques, de guerre ou de paix, d’affrontement
ou d’amitié, font les délices de ce marché du divertissement. Des tâches de
relaxation ou de concentration peuvent reproduire l’entraînement du
fameux héros Luke par son maître Yoda. Disponibles, téléchargeables,
alimentées par l’industrie du secteur, ces plongées dans un univers
qu’alimentent la pensée ou la sensation connaissent un engouement certain
et ne doivent leur limite qu’à une obligation, celle de porter un casque à
électrodes.
De ces multiples applications, qu’elles soient encore expérimentales ou
fassent déjà partie de notre vie quotidienne, on retiendra une extraordinaire
prouesse : l’homme a su se connecter à une machine et y trouver une autre
dimension. Il a fait de son cerveau un double instrumental et l’a confronté
au monde du numérique. Il s’est ouvert d’autres espaces, moteurs ou
ludiques. Certes, le cerveau en circuit ou en réseau peut se connecter à
d’autres systèmes utilisant des impulsions électriques de même nature. Mais
une carte électronique qui comprendrait suffisamment de transistors pour
rivaliser avec le cerveau humain mesurerait 300 mètres de côté. De plus,
même si l’on parle de synapses artificielles, nul ne peut rivaliser avec les
cellules du cerveau, au demeurant de nature multiple, ni avec leurs
neuromédiateurs ou autres signaux chimiques. Qui voudrait d’ailleurs se
brancher sur le Net, ce panier percé, cette Toile sans fond, ce monde sans
lois où tous les coups sont permis ? Quant à télécharger l’activité cérébrale
sur un disque dur, c’est là un paradoxe philosophique pour des penseurs qui
se disent matérialistes. N’arrive-t-on pas à une sorte de dualité corps esprit
dans une version XXIe siècle ? Plus qu’un extraordinaire exploit qu’il doit
autant à son intelligence qu’à celle de la machine, l’homme a ainsi conquis
de nouvelles possibilités longtemps inenvisageables sinon par les rêves, les
espérances et les légendes. En même temps, il faut savoir dominer
l’invention et s’adapter aux besoins. Ceux du handicap sont clairs, quelle
qu’en soit la difficulté à les résoudre. Ceux du bien-être sont plus
complexes. Ils demandent vigilance, pour lutter contre les démons
commerciaux, pour répondre à des avancées sociales, pour progresser dans
la solidarité et pour conserver aux tentatives innovantes cet honneur si
particulier qui est celui de la recherche humaniste.
Une algue verte chez les neurones
Est-il possible d’exciter ou d’inhiber sélectivement nos neurones, et
ainsi de bouleverser émotions ou sensations, remédier à leur déficience,
modifier nos rêves et nos souvenirs, en supprimer certains, en ajouter
d’autres ?
La thérapie génique est à son tour venue révolutionner les neurosciences
et apporter une réponse à ces questions par une nouvelle technique :
l’optogénétique. Combinaison de la génétique et de l’optique, cette
prouesse repose sur une idée de Francis Crick, ce même scientifique qui
avait découvert avec James Watson la structure de l’ADN. Il n’avait pas
abandonné la génétique pour autant, mais s’était tourné vers le cerveau. En
1999, Crick avait envisagé – ou plutôt imaginé – que la lumière puisse
arriver à contrôler l’activité de différents types de neurones. L’idée était
ingénieuse, mais il s’agissait pour cela de disposer des molécules
photosensibles, capables d’activités biologiques sur la transmission
électrique. Il fallait aussi les introduire dans les cellules appropriées, les
neurones. Quelques années s’écoulèrent avant que cela ne fût rendu
possible par l’identification des dérivés de l’opsine. En 2002, une équipe
américaine isola la « channelrhodopsin » d’une algue verte. Dans cet
organisme cellulaire qui pousse en boîte de Petri, un milieu fait de gélose
propre aux cultures biologiques, la protéine excitée par la lumière a une
vertu particulière : sorte de photoréacteur, elle permet à l’algue d’être
activée pour se diriger dans l’espace. C’est cette capacité de
photosensibilisation qui fut mise à profit pour moduler l’influx des cellules
neuronales. Intégrée dans celles-ci, la protéine les stimule par l’ouverture
d’un canal qui permet l’entrée d’ions sodium. Il suffit d’éclairer par la
lumière bleue la molécule artificiellement introduite, pour exciter les
neurones. Bien vite, un second composé vint rejoindre le premier. Cette
autre protéine, également sensible à la lumière, ne fut pas isolée d’une
algue, mais curieusement d’une archéobactérie, ces bactéries du fond des
mers où les rayons solaires pénètrent si peu, et autres milieux extrêmes
comme les eaux sulfureuses. Reposant sur la même propriété d’excitation
lumineuse, cette fois-ci en lumière jaune, ce nouveau produit permettait
l’entrée d’une source d’ions différente, le chlore, qui à l’inverse de la
première inactivait le neurone. Ces deux procédés ont des effets opposés,
utilisables alternativement pour stimuler ou pour inhiber les cellules du
cerveau. Le premier pouvait servir d’interrupteur pour exciter la
transmission nerveuse, le second pour l’éteindre.
À partir de ces deux séries de protéines, et de quelques autres, obtenues
notamment par génie génétique, toute une panoplie de sondes furent ainsi
produites pour être introduites dans les cellules nerveuses, sélectionner des
populations cellulaires à cibler, moduler leur état d’excitation et ainsi leur
potentiel d’influx nerveux sur l’une ou l’autre des zones du cerveau.
D’autres procédés, plus complexes encore, peuvent marquer les
molécules des terminaisons synaptiques et agir ainsi directement sur les
réseaux et la capacité qu’ont les neurones de communiquer entre eux. Ces
magnifiques inventions ouvrent des perspectives considérables, car en
interagissant, mieux, en contrôlant le message électrique, elles le modulent
avec une grande précision dans le temps et l’espace, celui du cerveau. Elles
permettent en effet tout à la fois d’atteindre des populations sélectionnées
de neurones dans lesquelles la protéine est introduite, mais surtout de les
stimuler par des excitations plus ou moins intenses, à la milliseconde près.
On agit ainsi, artificiellement, sur la commande du nerf. Bel exploit, vite
suivi de ses applications…
Il ne suffisait pas d’avoir des protéines capables d’activités dans des
tubes à essais, in vitro, sur des cellules en culture, même s’il s’agit d’un
influx électrique. Il fallait aussi pouvoir appliquer la méthode grandeur
nature chez l’animal ou l’homme : in vivo. Deux types de procédés
permettent aujourd’hui de répondre à ce challenge, reposant sur des
techniques connues de thérapie génique. Le premier consiste à utiliser un
virus comme vecteur. S’introduisant dans les cellules capables d’être
infectées, celui-ci y intègre la protéine messagère. Cette méthode a ses
avantages, puisque l’infection virale peut se faire sans grande difficulté.
Elle montre aussi ses limites, car, bien que gardant un certain degré de
spécificité, elle n’affecte cependant pas toutes les cellules. Un autre procédé
est d’utiliser des souris transgéniques créées en laboratoire pour exprimer la
molécule photosensible. Certes, il ne peut s’agir que d’études
expérimentales chez l’animal, mais le transgène dans ce cas peut contenir
davantage d’informations que le virus et ainsi permettre de mieux cibler les
neurones, selon le souhait de sélectionner ou restreindre l’activité à certains
types cellulaires. De plus, à l’aide d’une enzyme qui découpe l’ADN, on
peut modifier le système pour placer plusieurs capteurs dans un ensemble
de neurones.
Introduire un marqueur photosensible par l’une ou l’autre des
différentes méthodes n’est cependant qu’une partie de l’expérience. Il faut
bien sûr y associer des sources d’excitation lumineuse. Cette technique, au
fil des ans, s’est ainsi accompagnée de l’invention d’une série d’appareils
capables d’émettre de la lumière dans le cerveau. Faire briller cet organe,
que beaucoup pensent être celui qui éclaire le corps, peut paraître une
gageure. Mais la technique sait être au service du symbole. Au début, il
s’agissait tout simplement d’implanter des électrodes dans la zone
excitable. Des systèmes de fibres optiques couplées à des diodes activables
par laser, à longueur d’onde variable, rendent aujourd’hui possible de s’en
passer, s’aidant de fenêtres transparentes sur la tête des animaux. Cette
nouvelle technologie eut les honneurs de la presse : la revue Nature, en
2010, désigna l’optogénétique méthode de l’année, et ses six inventeurs,
Ernst Bamberg, Edward Boyden, Karl Deisseroth, Peter Hegemann, Gero
Miesenböck et Georg Nagel reçurent trois ans plus tard le très convoité
Brain Prize. Introduite au panthéon des inventions, l’optogénétique est ainsi
à la pointe des secteurs de la recherche et de l’innovation en neurosciences.
Malgré d’indéniables progrès, la méthode présente encore des difficultés
qui tiennent à la variabilité de l’intégration de l’opsine, et à sa localisation
dans l’un ou l’autre des compartiments cellulaires, si bien que les niveaux
du signal peuvent dépendre de ces phénomènes comme de l’activité
neuronale elle-même. Enfin, s’il existe une panoplie de différentes
molécules ayant un pic d’absorption dans tout le spectre visible, on peut
craindre un chevauchement des signaux si l’on veut stimuler sélectivement
ces marqueurs… Une télécommande excitable ? Encore faut-il savoir
l’utiliser.

Mémoriser des faux souvenirs


La mémoire ne fonctionne pas comme un ordinateur qui capte et stocke
chaque instant de notre vie. Les souvenirs sont malléables. Les informations
captées dans notre cerveau peuvent être exagérées, déformées,
transformées. Certaines peuvent être même créées de toutes pièces. Ainsi, la
psychologue cognitiviste américaine Elizabeth Loftus s’est livrée à une
expérience, consistant à montrer à des étudiants qui avaient visité
Disneyland une photo publicitaire incluant un cartoon bien connu, l’image
de Bugs Bunny, propriété d’une compagnie différente, la Warner Bross.
Interrogés la semaine suivante, 35 % des étudiants affirmaient que lors de
leur visite ils avaient serré la main du lapin facétieux. De même, un
psychologue anglais avait réussi à persuader 50 % des étudiants qui
assistaient à son cours qu’ils avaient commis un vol à main armée en
intégrant ce faux souvenir dans un récit fictif émaillé de faits véridiques.
Ces expériences prennent leur importance si on les rapporte à l’étape
évoquée pour la mémorisation des faits. L’information passe dans notre
cerveau par différentes périodes de stabilisation d’abord pendant huit à
douze heures d’acquisition, puis de consolidation ensuite. Lorsqu’on
réactive l’information, le réseau neuronal devient à nouveau malléable, et
peut, si on l’expose à un faux élément, y intégrer le souvenir. Un certain
nombre de films, comme La Maison du docteur Edwardes, Mulholland
Drive ou encore L’Homme sans passé tirent parti de ces phénomènes. Des
scénaristes de science-fiction cherchent à effacer des rappels du passé chez
un témoin de crime ou des amoureux en peine, ou au contraire imaginent
implanter des faux souvenirs pour accentuer l’intensité ou l’incongruité de
situations dramatiques.
La psychothérapie n’est pas en reste et différents procédés tentent d’agir
avec plus ou moins de succès sur ces processus de consolidation, en
supprimant des souvenirs handicapants à l’origine de phobies, ou de stress
post-traumatiques. L’effacement de souvenirs est parfois la cible de certains
produits pharmacologiques comme le propanolol, qui, utilisé habituellement
pour guérir la migraine ou les troubles cardiaques, agit également sur la
composante émotionnelle des souvenirs. À l’inverse, on peut parfois
stimuler la mémoire. Ainsi, en 2013, une équipe allemande avait demandé à
des volontaires de mémoriser 80 paires de mots avant de s’endormir tandis
qu’on les berçait de musique pendant leur sommeil pour renforcer cet
apprentissage. Les résultats semblaient clairs. Ceux qui s’étaient endormis
avec Mozart mémorisaient plus facilement les mots que les autres, comme
si les ondes musicales entraient en résonance avec les ondes cérébrales.
L’hippocampe joue un grand rôle dans ces phénomènes. Des enfants qui ont
subi une lésion de cette zone cérébrale du fait d’une tumeur ou d’un défaut
d’oxygénation sont incapables de retenir certains épisodes de leur vie, tout
en ayant curieusement la capacité de mener par ailleurs une scolarité
normale. Tandis qu’on semble atteindre la limite des techniques
psychologiques ou pharmacologiques, la télécommande de l’optogénétique
trouve ici ses premières applications : cibler la mémoire.
Une expérience spectaculaire effectuée par l’équipe du professeur
Susumu Tonegawa, prix Nobel de médecine en 1987, en fournit une
première démonstration. Ces chercheurs rapportèrent qu’il était possible
d’implanter de faux souvenirs lorsqu’on active les neurones de
l’hippocampe. Ce phénomène a été démontré par une expérience utilisant
de petits rongeurs. Les souris sont d’abord placées dans un premier
environnement. L’exploration de la cage par ces animaux entraîne
l’activation d’une population sélective de neurones de l’hippocampe rendus
fluorescents par optogénétique. Lorsque les animaux sont placés dans un
second environnement, différent du précédent, cette première série de
neurones n’est pas activée car le contexte alentour a changé. Dans ces
conditions cependant, les chercheurs stimulent artificiellement les cellules
en projetant de la lumière bleue sur l’hippocampe grâce à une fibre optique.
Simultanément, les souris reçoivent à cette occasion des chocs électriques,
induisant de leur part un réflexe de peur. Si par la suite les souris sont
replacées dans la première cage, elles montrent des réactions d’effroi, alors
que cet environnement n’est pas générateur de chocs électriques. Des faux
souvenirs liés à la peur ont ainsi été introduits, démontrant que
l’optogénétique permet de manipuler la mémoire. Au passage, on peut
cartographier les circuits neuronaux qui interviennent dans le
conditionnement de craintes aussi fortes que celles des douleurs ressenties
et les localiser dans l’hippocampe. L’émotion n’est pas seule en cause,
d’autres sensations peuvent également être induites, ou plutôt manipulées,
par la lumière. Proust aurait sans doute été étonné d’apprendre que la
madeleine ne suscite pas seulement un rappel de mémoire, elle peut aussi
inspirer le dégoût par un apprentissage inverse.
Ces madeleines de mémoire qu’on
apprend à détester
Des expériences relativement récentes, utilisant de tels procédés
d’excitation nerveuse, ont également montré qu’il est possible d’agir sur les
circuits neuronaux associés à la soif et au goût. En 2015, l’équipe de
Charles Zuker de l’Université de Columbia, États-Unis, parvenait à
déclencher la sensation de soif en activant par optogénétique certains
neurones de l’hypothalamus, alors que les souris, dans leur cage, étaient
convenablement hydratées par leurs biberons. D’autres expériences
touchent au goût. Le goût dépend de cinq sensations : l’amer, l’acide, le
sucré, le salé, et une cinquième que les Asiatiques désignent par umami, et
qu’une de mes amies chinoises traduisait par « savoureux » décrivant cette
sensation que l’on trouve en Chine en mangeant ces délicieuses boulettes de
pâte de riz et viande, les xiaolongbao. On sait aujourd’hui que ces saveurs
sont détectées par des papilles distinctes distribuées de manière uniforme à
la surface de la langue. Chaque récepteur active différents types de
neurones. C’est là que réside l’expérience : en introduisant artificiellement
des protéines photoactivables dans le cortex gustatif, on peut modifier les
sensations de bouche. De fait, en excitant les neurones qui conduisent
l’influx pour la saveur amère, on induit une sensation de dégoût. Celui-ci
peut surpasser l’appétence pour les gâteaux sucrés. À peine dans la bouche,
la délicieuse madeleine que l’on savoure en pensant justement à Proust
déclenche un réflexe de profond dégoût et la fait recracher dans l’assiette.
Au contraire, en stimulant les neurones qui codent pour les saveurs sucrées,
il est possible d’induire une sensation de plaisir gustatif qui masque
l’aversion pour les substances amères. Grâce à ce procédé, le goût en est
changé… et l’appétence aussi. Des prouesses incroyables qui pourraient
trouver d’autres applications, comme de modifier le plaisir des odeurs, leurs
forces d’attraction ou de répulsion qui nous bercent tous les jours ? Certes,
ces expériences restent encore limitées à des expérimentations animales et
l’application chez l’homme à court terme semble peu probable car la
technique électrique est encore invasive. Quant à la faire par thérapie
génique avec des vecteurs viraux, cela pose encore des problèmes
techniques multiples. Mais les vertus de l’optogénétique et la vitesse de
développement de ces outils devraient permettre dans l’avenir d’améliorer
les résultats expérimentaux et de donner de nouvelles ambitions à des
approches innovantes de troubles neurologiques et psychiatriques.
Ce qu’on pourrait en retenir est que cette stratégie n’est pas seulement
destinée pour la cartographie des rêves et émotions du cerveau, mais qu’elle
peut servir à la stimulation cérébrale profonde, une approche déjà utilisée
dans le traitement d’affections telles que la maladie de Parkinson. Pourtant,
tout en évoquant la possibilité de modifier nos émotions et nos sensations,
on ne peut échapper au fait qu’il s’agisse d’un immense pari : celles-ci –
sans doute heureusement pour ce qu’on pense être l’homme – sont le
résultat de processus extrêmement complexes qui mettent en jeu des
milliers de neurones, en série ou en synergie, chacun porteur d’un
programme, sinon d’un souvenir. Toute atteinte à leur intégrité et à leur
connexion, toute tentative pour moduler l’une sans altérer l’autre, risque
d’être compromise, car ce lacis que représentent la mémoire, la commande,
la pensée, l’impression, est avant tout et surtout celui de nos cellules. Le
message est au bout des axones, nos programmes de vie aux confins des
dendrites. Toucher à l’un ou l’autre des éléments du réseau risque de porter
atteinte à l’extraordinaire labyrinthe de l’âme.

L’œil biotique
La cécité fait partie de l’histoire des hommes et de leurs légendes.
Tirésias, un des interlocuteurs privilégiés d’Ulysse, fut le premier aveugle
de la mythologie grecque. Il devait un tel destin à la vengeance d’une
déesse, Héra, sœur de Zeus, qui partageait avec son frère la souveraineté du
monde. Ce qui n’empêchait pas de tels dieux de se préoccuper d’autres
contingences : Héra soutenait contre Zeus que les femmes, en amour,
avaient moins de plaisir que les hommes. Tirésias, qui en avait l’expérience
pour avoir été pendant sept ans transformé en femme parce qu’il avait
perturbé l’accouplement de deux serpents, se mêla à ses dépens à la
controverse, et prétendit le contraire. Furieuse de voir qu’il avait révélé le
secret de son sexe, la déesse punit le malheureux de cécité, mais Zeus en
compensation lui accorda une seconde vision : le don de prophétie. Homère,
atteint lui aussi de cécité, le monta aux nues et fit du devin un proche
messager des dieux. Ainsi sont les aveugles, au moins ceux de la littérature
antique. Intermédiaires entre le ciel et la terre, le monde réel et virtuel, celui
de leur vision intérieure, ils sont parés d’autres dons, comme si ce handicap
pouvait décupler leur pouvoir et leur donner cette sagesse que Platon
assimile aux prémices de la raison. Tout regard n’est d’ailleurs pas sans
danger. Orphée perdra Euridyce en se retournant, précipitant son retour au
pays des morts.
Les dieux, déesses et leurs héros sont aujourd’hui en paix et leurs
prouesses oubliées. Les mythes ont fait place à de nouvelles réalités, tout
aussi compétitives cependant, car la cécité offre à la recherche un de ses
plus importants challenges : redonner la vue aux non-voyants. Cela semble
un espoir maintenant possible grâce aux prothèses rétiniennes, autres
formes d’interfaces avec le cerveau.
La plupart des causes de cécité proviennent de la perte des
photorécepteurs, ces cellules sensibles à la lumière qui tapissent la rétine,
membrane située au fond de l’œil, et transforment les photons en influx
nerveux. Un certain nombre de programmes internationaux, associant
laboratoires de recherche et industriels, utilisent divers procédés pour tenter
de pallier les manques de cellules ou leurs défauts, et rendre ainsi une
vision aux aveugles. Un de ceux-ci consiste à connecter un tapis
d’électrodes rétiniennes avec les fibres du nerf optique qui transmet
normalement au cerveau les signaux qu’occasionne la lumière. L’innovation
cherche à remplacer la fonction déficiente, en convertissant les images
générées par l’impact des photons sur la rétine en stimulations neuronales.
Le message électrique ainsi induit doit ensuite rejoindre l’aire visuelle du
cortex, qui normalement reçoit les informations provenant de la rétine.
De tels procédés utilisent des implants oculaires pour corriger la
dégénérescence des cellules rétiniennes. Dans les années 1990, ceux-ci ne
comptaient que 10 à 20 électrodes. Les dispositifs aujourd’hui en
comportent plus de 1 500, un gain certain car la perception est en grande
partie, mais pas seulement, liée au nombre d’électrodes. Diverses sociétés,
américaines, allemandes ou françaises, évaluent ainsi différentes
techniques, selon qu’il s’agit de remplacer l’une ou l’autre des couches de
la rétine. Argus II (États-Unis) et Iris (France) testent des implants placés à
la surface de la rétine. Ils sont en contact avec les cellules ganglionnaires,
derniers maillons de la chaîne de neurones qui transmettent le signal après
la transformation de l’énergie lumineuse en impulsions électriques. La
prothèse visuelle est au cœur d’un dispositif complexe qui capte les images
par des caméras intégrées aux lunettes pour les traduire en influx nerveux.
Une autre stratégie, poursuivie par Retina, l’implant allemand, ne s’adresse
pas aux cellules ganglionnaires mais plus directement à l’insuffisance
fonctionnelle des cellules photoréceptrices et donc non à la transmission du
signal, mais à sa production. Des diodes sensibles à la perception lumineuse
transforment directement la lumière en courant électrique.
Tous ces procédés qui traitent du handicap créé par l’une ou l’autre des
atteintes des couches rétiniennes, sont autant de défis scientifiques,
commerciaux, sociétaux, mais aussi psychologiques. Car la cécité provoque
bien souvent chez les aveugles une certaine forme d’isolement que de telles
prothèses viennent bouleverser. La majorité des informations que nous
recevons sur le monde extérieur et qui alimentent l’énergie de notre
cerveau, passe par la vue. La perte de celle-ci donne toute leur importance
aux autres sens, ouïe, toucher, goût, odorat, qui sont pour le cerveau ses
seuls contacts avec le monde du réel. Les rétines artificielles perturbent un
tel équilibre et nécessitent une forme d’adaptation qu’il faut également
gérer. De plus, si les résultats sont très encourageants, ces procédés restent
encore expérimentaux et ne permettent pas à ce jour de retrouver une vue
normale. Les rétines artificielles envoient certes au cerveau des signaux
électriques, mais la traduction d’une image reste avant tout celle d’une
sensation. Vision n’est pas vue.
D’autres méthodes que celles électriques et mécaniques ont également
été recherchées pour pallier les déficiences des cellules rétiniennes
lorsqu’elles sont dues, non plus à la perte de photorécepteurs, mais à des
mutations de certaines protéines indispensables à leur fonctionnement.
Diverses expériences de thérapie génique chez la souris et le primate ont
ainsi permis la production de molécules critiques pour les activités
rétiniennes, perception des photons ou transformation en signal. Des
résultats encourageants ont montré que les animaux soumis à de telles
tentatives pouvaient reconnaître des objets de leur environnement, ce qui a
fait proposer des essais cliniques chez des patients atteints de cécité
infantile ou de neuropathie optique héréditaire. D’autres procédés
d’implants sont en expérimentation, car pour un tel handicap, l’imagination
n’est pas en reste, la technologie non plus. L’algue verte trouve là peut-être
une de ses plus élégantes approches, car la protéine est directement sensible
à la stimulation lumineuse. Les cellules souches embryonnaires également,
car l’œil est protégé de l’activité du système immunitaire, et ainsi du
phénomène de rejet qui accompagne toute transplantation de cellules
étrangères.
Listen to your eyes
Les sourds bénéficient aussi de technologies innovantes pour pallier
leur handicap. À la différence des prothèses auditives déjà commercialisées,
qui agissent en amont du tympan, les recherches et les avancées portent sur
des implants bioniques. Conceptuellement proches de ceux de l’œil, ils sont
proposés pour remplacer les déficiences des cellules de la cochlée, l’organe
de l’ouïe. Le signal n’est plus ici la lumière mais le son. Il s’agit de le
traduire en énergie, transformant en signaux électriques l’information
mécanique des vibrations acoustiques. Une telle fonction est normalement
assurée par les cellules ciliées, cellules vibratiles qui tapissent la cochlée,
répondent aux sons par les mouvements de leurs cils et stimulent
directement le nerf auditif. Les procédés actuels font appel à des dispositifs
en série pour gagner la cochlée, puis le cerveau : des microphones
extérieurs perçoivent les sons, et les transforment en signaux électriques par
un microprocesseur situé derrière l’oreille. Les stimulations sont ensuite
transmises à un émetteur radio connecté à un implant, qui les achemine à
des électrodes situées sous la cochlée. Ailleurs, le signal électrique est
acheminé, non par des électrodes, mais par un électroaimant qui transmet
ses vibrations ensuite converties en sons par la cochlée. Dans l’un et l’autre
cas, la cochlée reste maîtresse du phénomène. À elle de conduire l’énergie
au cerveau et de rejoindre l’aire du cortex qui analyse et décrypte les
informations auditives.
Dans les concepts et la réflexion de telles recherches, oreilles et yeux
font parfois cause commune. Les aveugles sont entendants. L’idée qu’un
sens puisse remplacer l’autre a ainsi germé dans l’imagination de certains
spécialistes de l’acoustique. De nouveaux outils d’intelligence artificielle se
sont développés pour traduire les sons en images, utiliser les mots pour
stimuler le cortex visuel, donner aux aveugles une perception virtuelle du
monde par l’oreille. Tout l’alphabet peut être codé ainsi et transformé en
autant d’images. L’expérimentation va plus loin que le simple lexique,
puisqu’il s’agit de transformer des sons en signaux optiques. Avec les
variations de la gamme, l’éventail des possibilités est plus large encore et
s’adapte à la multitude des nuances des images. « Listen to your eyes », le
magnifique panneau de néon de Mauricio Nannucci, qui éclaire le Centre de
création contemporaine Olivier Debré de Tours, nous rappelle à nos sens
pour les connecter. Voir par l’oreille ou, pourquoi pas, entendre par l’œil ?
Les mêler à d’autres sens comme le toucher ou l’odorat ? Élargir encore
l’éventail de nos repères émotionnels ?
Le cerveau n’est pas qu’une machine à effectuer des tâches, chacune
indépendamment de l’autre. Il sait connecter les sensations, les additionner,
les intégrer. Dans cette utilisation des cinq sens, l’un par l’autre, l’homme
est en avance sur la machine. Il s’y est déjà substitué. Daniel Kish, aveugle
dès l’âge de 13 mois, surnommé l’homme chauve-souris, se fit connaître
des médias car il pouvait se diriger par le claquement de la langue, se
servant de l’écho comme une méthode d’approche ; un procédé de
géolocalisation que d’autres ont imité par cannes électroniques.
Quelle sorte de réalité virtuelle ressentent les non-voyants ? Comment
apprécient-ils les couleurs chatoyantes de l’automne, les nuances d’un
tableau, les charmes d’un sourire, tandis qu’ils sont à l’affût du toucher, des
sons et des odeurs ? Quelle nouvelle forme d’appréhension du monde du
vivant et des objets ont-ils à travers les quelques signaux que leur donnent
prothèse ou interfaces ? S’agit-il d’une sensation qui vient perturber la leur,
envoyer des signaux déroutants sur les murs de cette vie intérieure, dans le
long parcours du couloir noir ? Sans doute, cette expérience est-elle propre
à chacun, pour s’être fixé les limites de ce territoire de l’obscurité et
construire avec ses autres sens une perception qui vous appartienne. La
machine saura-t-elle assurer d’aussi bonnes connexions entre nos
sensations ? Moduler l’une par l’autre, les remplacer, agrémenter, multiplier
en synergie ou non, bref créer des réseaux entre elles que la nature n’a pas
su ou voulu retenir ?

La réalité et son double


La réalité virtuelle est attirante pour beaucoup. L’homme est sans doute
perpétuellement à la recherche d’un autre eldorado, le pays du merveilleux,
et se laisse volontiers séduire par la construction d’un imaginaire où il se
déplace, franchit une porte étroite, croise des mirages. La réalité virtuelle
fait échapper à l’environnement qui nous entoure et conduit à une île
numérique. Depuis que cette expression de réalité virtuelle qui remonte à
Antonin Artaud et son théâtre, celui du double, fit son apparition, le concept
a évolué en nouvelle compagnie, celle de la technologie. Les premières
innovations, sous forme de visiocasques, sont entrées à l’Université de
l’Utah au début des années 1970. De nombreux dispositifs et jeux vidéo se
nourrissent aujourd’hui d’interfaces visuelles telles les tables à dessin,
écrans stéréoscopiques ou lunettes qui vous permettent de vivre une
expérience sensorielle. D’autres interfaces sonores, tactiles, olfactives ont
créé de nouveaux espaces grâce au numérique. La réalité virtuelle s’est
appuyée sur divers outils de communication comme la vidéoconférence.
Elle s’est infiltrée comme un support pédagogique dans nombre de
professions, de l’apprentissage de l’anatomie à la simulation de vol. Elle
peut aussi nous entraîner dans un monde totalement virtuel, nous faire
entrer dans des rêves qui prennent vie, mettre à l’épreuve un utilisateur en
testant ses aptitudes physiques ou même psychiques.
Mais la technologie s’est aussi emparée de ce champ d’une autre
manière. Elle s’est mise au service des émotions en créant une virtualité
réelle. La recherche a créé des machines dotées de composants émotionnels,
qui font entrer la réalité et son double dans le monde de la robotique. Le
robot social du projet Kismet est un des prototypes les plus aboutis, qui
réagit à son interlocuteur, interprète ses paroles et ses gestes, lui répond et
peut simuler des sensations par des expressions faciales et des sons. Bien
sûr, Kismet ne ressent pas d’émotions mais les simule. Cependant,
l’interaction avec l’humain est bien réelle. L’homme communique avec la
machine, mieux : l’un et l’autre réagissent émotionnellement. Kismet est
capable d’apprendre. En cas de remontrance pour une faute, il baisse la tête
comme un enfant grondé. Derrière, le programme analyse l’erreur pour
qu’elle ne se reproduise plus. On peut imaginer dans le futur des mascottes
cybernétiques, capables d’empathie envers vous, de comprendre ce qui vous
intéresse, d’analyser vos réactions, de deviner ou provoquer des sensations
et vous influencer peut-être. Certaines de ces machines existent déjà. Jibo,
le robot familier, Pepper, robot humanoïde, et EmoSpark qui scrute votre
visage pour déceler vos émotions, sont disponibles à la vente. Possédant
une bibliothèque de plus de 2 millions de phrases, capable de se connecter à
YouTube et Facebook pour dialoguer avec l’utilisateur, EmoSpark
progressivement se familiarise avec nos sensations pour les comprendre,
cherche à deviner ce qui nous rend heureux ou malheureux. Il développe
des algorithmes pour nous aider à lutter contre la peur, la morosité d’un
jour, ou susciter notre curiosité. L’appareil contient une unité de traitement
émotionnel, puce qui élabore le profil de son interlocuteur. Demain, nous
vivrons dans un monde où les dispositifs pourront penser. Ces robots en
interfaces avec l’homme seront-ils capables de ressentir des émotions
humaines qui leur donneront la capacité de remplacer l’autre, individu de
chair, avec qui nous dialoguons, à qui nous sourions, et serrons la main. Il
faut espérer que ces machines humanoïdes ne doubleront pas l’homme, ne
détourneront pas l’individu de son empathie pour autrui. Demain,
l’inconscient, les rêves seront analysés et traduits en conscience à un
humanoïde. Le « je pense, donc je suis » de Descartes n’est plus, puisqu’il
s’agit d’un autre, qui n’est plus tout à fait vous-même, mais un instrument
capable de sourire et pleurer pour vous. Cette recherche ouvre sur un autre
monde, virtuel ou non, qui permet de se doubler dans une mécanique. Or,
s’il n’y a pas de science sans conscience, l’inverse est aujourd’hui plus vrai
que jamais. La pensée a un poids, une valeur, une force, qu’il faut savoir
conserver pour l’homme. Si le cerveau parle, il faut lui répondre dignement.
CHAPITRE 8

L’intelligentiel partenaire

Il faisait chaud ce jour-là. La ministre passa un léger mouchoir de soie


sur son front pour éponger quelques gouttes de sueur, et s’enfonça plus
profondément dans son siège. Mes collègues académiciens s’accrochaient à
leurs pupitres, et j’observais le dégradé de leurs visages. Certains avaient
sorti les écouteurs. Devant nous, au bureau présidentiel, le secrétaire
perpétuel et le président nous faisaient face en costumes chamarrés. De face
aussi, mais leur tournant le dos, Cédric Villani parlait ce jour-là de
l’intelligence artificielle (IA) dans le domaine de la santé. Nous étions à
l’Académie nationale de médecine, lors d’une séance solennelle. Accaparé
par son discours et nos visages, l’orateur ne pouvait voir les bustes de
Pasteur et d’Émile Roux tournés vers la tribune, examinant avec le sérieux
de l’histoire ce nouvel arrivant qui venait parler d’une autre humanité.
L’ombre bleutée de la coupole faisait à Villani une sorte d’auréole tandis
que, baignant dans cette atmosphère, la broche en forme d’araignée qui
ornait son costume semblait quelque peu incongrue. À moins que ce ne fût
pour rappeler la Toile qu’Internet tissait ici comme ailleurs. Il parlait bien.
Son discours était fluide. Chacun comprenait ce que l’intelligence
artificielle pouvait apporter à la médecine, du moins à celle que nous
représentions. Villani évoquait les grands thèmes du rapport qu’il venait de
remettre au gouvernement, des performances nouvelles de l’intelligence
artificielle jusqu’aux besoins qu’elle nécessitait. « La France doit maintenir
son ambition dans le monde du numérique, et dans le monde tout court.
Nous ouvrirons de nouveaux dialogues avec nos partenaires, notamment
ceux du Sud », disait-il.
C’est à ce moment que je fus interrompu par la sonnerie de mon
portable. Je fus tenté de l’éteindre puis, remarquant l’origine de l’appel qui
venait de Guinée, me décidai à sortir pour le prendre.
« M’entends-tu ?, me demanda mon interlocuteur.
– Parfaitement.
– Je voulais te montrer quelques photos qui me navrent. »
Des images apparurent sur l’écran. Celles d’abord d’une chambre
d’hôpital. Ensuite, d’une jeune femme, draps rejetés, qui semblait inerte sur
son lit, yeux révulsés, membres en torsion dépassant du matelas, tandis
qu’une famille à ses côtés semblait terrorisée.
« Que me montres-tu ?
– Une femme atteinte de la maladie du sommeil.
– Comment est-ce possible ? Nous avions pourtant prévu de placer des
écrans leurres, couverts d’insecticides pour tuer les glossines, ces horribles
mouches tsé-tsé.
– Dans ce petit village qu’Ebola n’a d’ailleurs pas épargné, tout s’est passé
différemment.
– Les écrans n’ont pas fonctionné ?
– Ils n’ont pas mis les écrans… Ils ont écouté le sorcier qui leur a dit que
ces écrans bleus empêcheraient de pleuvoir. Ils l’ont cru et cette
malheureuse femme en est la conséquence. Nous aurions sans doute mieux
fait d’installer des stations météo et de les brancher sur Internet.
– Le numérique ne chassera pas si facilement les vieilles coutumes, les
fausses rumeurs, les sortilèges. Un monde à deux vitesses. Il ne suffira pas
de faire pénétrer l’intelligence artificielle dans les contrées les plus reculées.
Il faudra aussi composer avec l’intelligence de l’homme. »
Lorsque j’ai regagné la salle des séances, on applaudissait Villani.

De l’intelligence naturelle à l’intelligence


artificielle
Quand on parle d’homme modifié, l’intelligence artificielle en a sa part.
Présente, c’est maintenant un partenaire incontournable de nos occupations
quotidiennes, absente, c’est une perte de chance. L’homme est sans cesse
relié au microprocesseur qui rythme nos vies. Pour la plupart, c’est un
facteur d’évolution qui nous fait entrer dans une nouvelle ère. Pour d’autres,
c’est un risque de voir la machine dominer l’espèce humaine au point de la
réduire à un asservissement. Ce mythe, entretenu par des philosophes, des
techno-prophètes, des lanceurs d’alertes et des stratégies marketing, ne doit
pas cacher la réalité. L’intelligence artificielle, l’« intelligentiel », vient
accroître nos capacités intellectuelles à communiquer avec notre
environnement et ainsi bouleverser les activités qui en découlent. Créée
pour mieux connaître le cerveau, l’IA est aujourd’hui son premier
partenaire.
L’intelligence artificielle – curieux mot, car en matière d’intelligence,
on comprend mal qu’elle puisse être artificielle – doit ses prémices aux
travaux pionniers et aux concepts d’Alan Turing au début des années 1950.
Sans doute avait-il puisé ceux-ci, au moins leurs racines, dans le décryptage
des messages chiffrés avec lesquels l’Allemagne nazie et ses alliés
communiquaient à travers la machine Enigma. Il fallut le génie de ce
mathématicien britannique pour analyser ces échanges codés et, dit-on,
raccourcir la Seconde Guerre mondiale de près de deux ans. Ce secret
militaire était d’une telle importance qu’il restera d’ailleurs classifié par le
ministère de la Défense du Royaume-Uni, et donc interdit au public,
jusqu’aux années 2000. Turing traversa l’histoire des sciences, mais aussi
celle de la société, en véritable météorite, car, rejeté à cause de son
homosexualité par la bourgeoisie anglaise, menacé d’emprisonnement,
contraint à une castration chimique, il fut retrouvé mort, plus probablement
par suicide que par empoisonnement, un petit matin de 1954. Mais ce destin
tragique ne l’avait pas empêché cependant de s’exprimer dans l’après-
guerre dans un des articles fondateurs qui reliaient la machine à
l’intelligence, où il proposait de les comparer, en tentant d’effectuer le test
qui porte son nom : un individu pose des questions à un homme et une
machine sans les voir. Un tournant serait franchi lorsqu’il ne pourrait plus
distinguer l’un de l’autre. En définissant un standard, il cherchait ainsi les
critères numériques qui permettraient tout à la fois de qualifier un
ordinateur et la conscience, et de les rapprocher en les mutualisant. Non une
machine dans son concept de matérialité, mais conçue comme un être
calculant qui pouvait aussi bien être de chair appliquant des règles comme
le ferait un employé de bureau, ou un appareil répondant à une logique
simple. Dans son esprit, la machine ne décidait pas. Elle exécutait. Il
s’agissait là d’un défi d’envergure, dont la première ambition était de poser
le problème et d’inciter à le résoudre. Quelques conférences sur le sujet tel
« Les calculateurs numériques peuvent-ils penser ? », avaient suffi à
introduire les prémices d’une réflexion qui d’ailleurs n’était pas totalement
isolée. Outre-Atlantique, Warren Weaver, un mathématicien américain et
champion de politique publique, avait suggéré qu’une machine, à elle seule,
pouvait être capable d’effectuer une tâche qui relevait naturellement et
habituellement de l’intelligence humaine. Le problème était lancé, sinon
résolu, car le simple rapprochement entre les prétendus formats de
l’intelligence naturelle et artificielle mettait en exergue des concepts qui
étaient autant d’objectifs à effectuer qu’à formuler. On proposait un cadre
pour agir : l’étude et comparaison avec les réseaux de neurones, et celles
des premiers ordinateurs.
Turing mort, mais non sa pensée et son intelligence, le défi fut repris
sous forme de perspectives de recherche, notamment lors d’un colloque sur
le campus du Northern College aux États-Unis. Nous étions en 1956, année
que l’on situe comme la date historique du début de cette nouvelle science
qui se définissait comme telle. Tous ceux que la réflexion et la recherche sur
ce thème attiraient alors, se trouvaient en effet réunis pour délibérer autour
des relations hommes machines, notamment celles capables d’exploits
numériques. Cette rencontre avait été proposée par John McCarthy et trois
autres scientifiques, Marvin Minsky, Claude Shannon et Nathaniel
Rochester. À vrai dire, il s’agissait surtout d’une réflexion sur une nouvelle
forme d’analyse des facultés cognitives humaines – et également animales –
et leur comparaison à celles des machines.
Dans l’ambiance exaltée d’alors, on proposa de construire des
programmes informatiques qui devaient résoudre des tâches habituellement
réservées à des êtres humains, car nécessitant des processus mentaux de
haut niveau, telle que l’apprentissage par la perception de l’environnement,
la mémoire, et le raisonnement critique. L’objectif, ou plutôt les
perspectives, apparaissait comme principalement d’ordre scientifique, mais
une science cognitive, car il s’agissait d’apprendre ce que pouvait être
l’intelligence, en reproduisant sur un ordinateur les manifestations ou
formes qu’elle pouvait représenter. McCarthy et ses collègues n’étaient pas
des démiurges rêvant à dépasser l’homme par une intelligence supérieure.
Ils cherchaient à décomposer méthodiquement la pensée en une série de
facultés élémentaires qui pourraient être mimées par des machines.
L’intelligence n’apparaissait alors définie que par les données qui sortaient
de l’ordinateur et se réduisaient ainsi à un espace numérique qui, bien que
minimisant le concept, avait pourtant pour but de mieux l’appréhender.
Ce paradigme de départ, qui se voulait conceptuel, devait vite se révéler
prodigieusement utile car, qu’il s’agisse ou non d’une forme d’intelligence,
les microprocesseurs acquerraient ainsi leurs lettres de noblesse. Plus que
de l’opposer à l’homme, elle venait compléter ses propres performances, au
moins en calcul mental. S’agissant d’une expérimentation qui prenait place
moins de dix ans après la réalisation des premiers ordinateurs, cette
perspective rapprochait le raisonnement scientifique de la révolution
numérique. Elle participait d’une double modernité, celle du langage et de
la programmation algorithmique, en utilisant un matériel d’un type nouveau
qui permettait de les résoudre. La similitude de cette programmation avec
celle des réseaux de neurones rapprochait de manière nouvelle et originale
la biologie de la mécanique, au moins en matière de modèle. Pourtant,
même s’il s’agissait de perspectives scientifiques incroyables, mettant en
œuvre des mécanismes progressifs d’apprentissage, l’ambition des premiers
chercheurs restait modeste. Le raisonnement apparaissait pragmatique et
empirique. Il s’agissait de disséquer des mécanismes de ce qu’on appelait
l’intelligence humaine, ou tenter de mieux les comprendre. La complexité
artificielle des ordinateurs et des processus électroniques rejoignait celle,
naturelle, des neurones de notre cerveau. D’ailleurs, on allait prêter au mot
intelligence différentes tâches cérébrales tels le raisonnement, la pensée, la
pratique des mathématiques, la compréhension des langues, la perception
visuelle, auditive ou par d’autres capteurs biologiques.
Les perspectives ainsi décrites par les premiers auteurs deviennent
aujourd’hui un de nos principaux environnements, prolongeant nos propres
capacités cognitives au point de les faire évoluer en partenariat dans un
nouveau monde, celui du numérique. Le WWW pour World Wide Web,
« Toile mondiale » en français, permet aujourd’hui de consulter des
navigateurs et de faire communiquer des sites variés à travers des réseaux
Internet, geste effectué par beaucoup mais, comme on l’a vu, non par tous
presque quotidiennement. Internet provient du couplage des réseaux de
télécommunications qui ont connu ces dernières années d’importants
développements, avec l’hypertexte, ce qui permet de passer rapidement et
directement d’un document à l’autre, et d’avoir accès à leur sélection. Les
applications qui concernent les traitements d’un grand nombre de mesures
de données, l’utilisation d’une variété de critères de recherche, le profilage
et la recommandation en ligne, ou d’autres utilisations comme la biométrie,
ou la dictée vocale, proviennent toutes de l’intelligence artificielle. De
nombreuses tâches que l’homme considérait à juste titre comme les fruits de
son intelligence et de son travail sont maintenant confiées à l’IA.
L’économie, la finance, la médecine, le commerce en ligne,
l’expérimentation in silico, la robotisation… ont connu grâce à elle des
exploitations insoupçonnées et inatteignables par le seul calcul confié aux
performances du cerveau. Il n’y a pratiquement aucune activité humaine qui
n’ait été affectée, et parfois même révolutionnée, par cette nouvelle
approche. Certaines des applications ont pu paraître dans le passé, sinon
lors de sa création, comme de la pure science-fiction. La réalité
d’aujourd’hui qui multiplie les usages qu’on peut en faire, fait de l’IA un
partenaire incontournable de l’intelligence humaine. En cela, l’IA fait bien
partie de notre réflexion sur les modifications et transformations de
l’homme.
Il faut cependant noter que si, depuis plus de cinquante ans, nous
assistons à cette mutation, qui est liée au développement de l’informatique
et du numérique, et envahit tous les secteurs de la société, c’est en grande
partie grâce à l’accroissement des technologies et capacité de calcul des
microprocesseurs. Il suffit d’en examiner les performances. Leurs vitesses
de calcul ont doublé tous les deux ans jusqu’à 1980 et de 1,3 depuis. Le
nombre des transistors des processeurs d’Intel Corporation, entreprise
fondée en 1968 par Gordon Moore, Robert Noyce et Andrew Grove,
premier fabricant de semi-conducteurs, est éloquent. En 1978,
2 300 transistors, 28 000 huit ans plus tard, 10 millions vingt ans après, plus
d’un milliard en 2017. Fait tout aussi remarquable, cette croissance quasi
exponentielle s’accompagne d’une chute vertigineuse des prix, divisés par
quatre tous les deux ans, puis tous les neuf mois depuis 1996. En même
temps, les capacités de stockage se sont considérablement accrues. Le
nuage (cloud en anglais) ouvre ainsi ses espaces à des quantités immenses
et gratuites, ou presque, de ressources numériques. La mémoire des disques
durs, celle des ordinateurs, comme des baladeurs, permettent de stocker des
masses considérables d’informations et ouvre des possibilités énormes et
variées d’accumulation de données. À titre d’exemple, quelques-uns de ces
disques durs suffisent à contenir un volume d’informations équivalent aux
14 millions d’exemplaires contenus dans les catalogues des livres de la
Bibliothèque nationale de France. Ils consomment une grande quantité
d’énergie et posent des problèmes de refroidissement, si bien qu’on les
installe près du cercle polaire. Le Web dans son ensemble a stocké pour la
seule année 2015 un demi-milliard de fois la BNF. Nous portons dans notre
poche, au bout de nos chaînes, une seconde mémoire, qui se déroule parfois
plus facilement que la nôtre, peut faire resurgir romans, souvenirs du passé,
quand ce n’est pas des photographies ou des films sauvegardés à la
demande. Réalité virtuelle ou non, il suffit d’un branchement d’écran pour
qu’apparaissent quelques fragments de vie, des morceaux d’anthologie ou
de simples images que nous voulons voir défiler. Il ne s’agit sans doute pas
d’intelligence au sens où nous l’entendons en évoquant les capacités
cérébrales, mais les espaces du numérique prolongent les nôtres et
modifient nos performances cognitives.

La vitesse grand V
En 2010, IBM a vanté les mérites des big data, le recueil de données,
par un slogan mythique : les quatre V, lettre qui illustre les mots de volume,
variété, vitesse et véracité. Les spécialistes définissent de la sorte les
principales qualités des données numériques, leur donnant parfois une
valeur éthique. En réalité, la nécessité d’accumuler autant de données et
ainsi d’avoir à les traiter tient en majeure partie à la découverte de nouvelles
applications. Parmi les principaux facteurs de changement, il faut situer
l’apparition des réseaux sociaux, celle des appareils mobiles intelligents, ou
encore la multiplication des transactions sur Internet.
Le volume apparaît bien sûr comme une des principales caractéristiques
des big data. L’énorme masse de données générées au quotidien en est un
exemple flagrant. Selon IBM, une moyenne de 2 à 3 millions de gigabits
(milliards de millions) sont créés chaque jour. D’année en année, nous
voyons en croître la quantité si bien que l’on prévoit sur l’ensemble de
l’année 2020 une quantité 3 000 fois plus importante qu’en 2005.
Au second V, correspond la vélocité. Les données sont aujourd’hui
collectées d’autant plus rapidement qu’elles sont désormais reçues sous
forme de flux. On parle à présent de « fast data » comme étant l’étape qui
va suivre celle des big data. Il suffit pour s’en convaincre d’examiner
certaines des données que nous utilisons quotidiennement d’un bout à
l’autre de la planète. Plus de 100 capteurs sont capables de mesurer en
temps réel les paramètres de notre voiture, la pression des pneus, la
température de l’habitacle, tandis qu’au New York Stock Exchange (Walls
Street) ce sont un térabit de mesures qui s’échangent à chacun instant.
Reproduisant de manière imagée le réseau de neurones, on peut calculer
qu’il existe 18,9 milliards de connexions en réseau dans le monde, soit 2,5
pour chaque individu sur terre, traquant chacune de nos activités.
Au-delà de la quantité, les données générées sont plus diversifiées que
jamais. Cela tient aux différents usages et usagers d’Internet et du
numérique. Les données elle-mêmes, leur format, les domaines qui les
concernent, sont d’une extraordinaire variété. Ainsi, chiffre impressionnant,
dans le seul secteur de la santé, 420 millions d’objets connectés ont été
dénombrés en 2014, un nombre qui représente autant de capteurs de notre
corps ou à sa disposition, dans un but purement médical, et devrait légitimer
une réflexion. Qui reçoit en traitement ce flux permanent de données ? À
qui en revient la responsabilité médicolégale ? Une nouvelle organisation
est-elle nécessaire ?
Au volume, vélocité, et variété des big data, s’ajoute le mot de véracité.
Ce qualificatif n’est pas des moindres. L’exactitude représente en effet un
des plus grands défis de cette accumulation de données et affecte bien
naturellement la précision des analyses. Or la vérité est loin d’être toujours
respectée. On considère que le manque de qualité des données coûte plus de
3,1 millions de dollars par an aux États-Unis. Il est facile de comprendre
que les données incertaines impactent de nombreuses décisions. De la
qualité des données dépend celle des modèles. Le choix, la nature et la
véracité des données sont fondamentaux pour tout modèle qui en tire un
apprentissage. Si le corpus est pauvre, le modèle obtenu sera médiocre.
L’ordinateur ne ment pas à la différence de l’être humain. La gestion des
biais est cependant critique. L’exemple du Chatbot Tay, un agent
conversationnel développé par Microsoft et lancé par Twitter, est éloquent à
cet égard. Le 23 mars 2010 l’entreprise américaine avait mis en service un
robot censé discuter avec des adolescents de 18 à 24 ans sur des réseaux
sociaux : 98 000 tweets (« gazouillis » en français) ont été ainsi envoyés,
une prouesse inenvisageable à l’époque. Ce programme qui avait pris les
traits d’une adolescente, Tay, se basait sur les données accessibles pour
construire des réponses aux questions des utilisateurs. Elle disposait, au
départ, d’un grand nombre de données fiables rédigées par une équipe
professionnelle et était censée apprendre en discutant avec le réseau. De
façon cependant prévisible, ses interlocuteurs cherchèrent à pousser les
limites de l’expérience. En quelques heures, Tay se mit à répéter des
phrases racistes, énonçait des fausses vérités, affirmant que le président
Bush, en place à l’époque, était responsable du désastre du 11 Septembre,
tandis que Hitler aurait sûrement pu l’éviter. Une surenchère de propos
vulgaires, xénophobes et néonazis a obligé Microsoft à interrompre l’essai.
La machine apprenait les assertions qu’elle recevait et en devenait
dépendante. Le problème ne tenait pas à elle, mais à ses interlocuteurs, et
surtout à ses concepteurs qui avaient prévu un apprentissage par
récompenses, notamment fondées sur les réactions des utilisateurs. Plus le
sujet était polémique, voire politique, plus la machine devenait
intelligente…
Tandis qu’IBM se satisfait des quatre V, IQVIA, la multinationale
américaine au service des industries combinées de la formation sanitaire et
de la recherche clinique, suggère d’aller plus loin dans les obligations de
l’IA. Concernant la santé de l’homme, ses prescriptions sont claires. Il faut
imaginer un vocabulaire unique. Les différences de langage, d’appréciation,
du mode de pensée, de décision, font partie de l’homme, de son charme, de
ses faiblesses et de son intelligence. Mais pour qu’une base de données
puisse conduire à des applications utilisables pour tous, il faut s’assurer
d’une valeur commune. Or de nombreux critères, tels ceux ayant trait à la
biologie, à l’interprétation de leur norme, quand ce n’est pas la norme elle-
même, sont différents entre les pays et nécessitent d’être homogénéisés. Ce
qui nous oppose, nos différences de culture, de vision du monde, de
raisonnement, auxquelles nous confrontent nos histoires et parfois nos
certitudes, doit s’aplanir si l’on veut utiliser ensemble l’intelligence
artificielle comme un bien mondial. Le partage des données implique
qu’elles puissent s’appuyer sur le langage universel. Il faut s’entendre sur le
sens des mots, c’est-à-dire des données. On attend également que les bases
nous permettent de créer de la valeur. Si nous prolongeons notre propre
savoir par celui d’une machine et échangeons avec d’autres, c’est bien pour
en tirer un avantage. Le pari est loin d’être tenu. Une grande hétérogénéité
existe dans la collection de données et dans l’usage des référentiels. Chez
les praticiens du big data 80 % du travail consiste aujourd’hui à réorganiser
les bases.
Enfin, il faut savoir interpréter des bases de données. Les machines ne
sont rien sans l’homme. Elles fournissent les signaux de manière brute
nécessitant de les interpréter. Ce qui relevait autrefois de l’observation,
ressort aujourd’hui d’une vision qui doit permettre de traquer des éléments
inédits. Les données qui, à titre individuel, se stockent sous de multiples
formes, s’accumulent dans des entrepôts. Il faut certainement améliorer
l’interface entre l’homme et la machine pour permettre l’utilisation de
résultats agrégés, faciliter l’exploitation de données ou l’interaction avec les
ressources du Web.

Apprendre
L’IA s’exécute à partir d’algorithmes, un mot qui vient d’un
e
mathématicien perse du IX siècle, Al-Khwarizmi. C’est à ce membre
éminent de la maison la sagesse de Bagdad que l’on doit l’introduction de
l’algèbre en Europe. Pourtant, l’utilisation des algorithmes est bien plus
ancienne, le plus connu étant celui d’Euclide. Babylone en fit un large
usage, ayant à effectuer des calculs aléatoires pour lever et surtout recueillir
les impôts. L’algorithme, ainsi baptisé, représente une suite d’opérations ou
d’instructions pour la construction d’un objet fini, tel le montage d’un
meuble en Kit ou la préparation d’un plat cuisiné à partir de divers
ingrédients. Or les machines automatiques, selon les théories développées
par Turing, doivent être dotées, puis se doter elles-mêmes, de capacité à
apprendre, ce qui revient à acquérir des compétences par un apprentissage
automatique. Cet apprentissage machine à un grand avantage : il évite
d’avoir à traduire toutes les opérations par une programmation qui les
prévoirait. La machine y pourvoit au fur et à mesure du déroulé.
Depuis que l’IA existe, la majorité des efforts des concepteurs a
consisté à améliorer ainsi les techniques d’apprentissage, machine learning
en anglais. Celui-ci s’effectue généralement en deux étapes, l’une pour
estimer un modèle à partir d’observations comme étudier une probabilité,
reconnaître l’image d’un animal ou d’un objet, ou encore effectuer la
conduite d’un véhicule autonome. L’autre pour effectuer une tâche à partir
de nouvelles données ainsi acquises. Des exemples glorieux pour la
machine de tels apprentissages jalonnent histoire de l’IA. En 1959, Arthur
Samuel, qui fut le premier à faire usage de l’expression machine learning,
mit au point un programme pour jouer aux dames. L’automate s’améliorait
progressivement, si bien qu’il parvint à battre le quatrième meilleur joueur
des États-Unis. Une avancée majeure, largement médiatisée, fut le succès
de l’ordinateur développé par IBM, Deep Blue, qui parvint à vaincre le
champion mondial d’échecs Garry Kasparov en 1997. Les plus optimistes
conclurent que la machine avait acquis une capacité de calcul
extraordinaire, mais non une intelligence. Nombreux furent cependant ceux
qui s’en inquiétèrent, pensant que l’on entrait dans une ère de domination
de l’homme, au moins de son intelligence, par la machine. Moins de dix ans
plus tard, un ordinateur dénommé Watson gagnait 1 million de dollars au
célèbre jeu télévisé Jeopardy! en répondant avec un langage « naturel ». De
nombreux succès suivirent pour les machines, telle en 2014 la réussite au
test de Turing, qui pour son auteur était le témoin d’une forme
d’intelligence. La machine réussit à se faire passer au bout de cinq minutes
de conversation, non pour l’ordinateur qu’elle était, mais pour un garçon
ukrainien de 13 ans. Ce résultat ne fut pas pris au sérieux par tous, mais
nombreux furent ceux qui y virent une nouvelle forme de prééminence. Lire
sur les lèvres, gagner contre des champions ou contre un automate au jeu de
go, un jeu intuitif à la différence des échecs, furent d’autres jalons,
émaillant la longue histoire des performances du numérique et surtout des
diverses méthodes d’apprentissage des machines.
De nombreuses approches furent en effet proposées et essayées pour
mimer, augmenter ou varier les capacités d’apprentissage des ordinateurs.
Certaines, les plus employées, cherchent à reproduire les connexions
neuronales, un modèle attendu, s’agissant d’intelligence. D’autres
s’inspirent des colonies d’insectes. On vient de montrer récemment en effet
que le fonctionnement des essaims s’apparente à celui d’un cerveau géant
dont chaque abeille agit comme un neurone. L’IA s’est ainsi rapprochée de
cette intelligence collective pour tisser le labyrinthe de ses algorithmes.
D’autres encore tirent parti de la psychologie humaine. Quelles qu’elles
soient, les techniques d’apprentissage relèvent de trois modèles différents.
Le premier est dit supervisé, parce qu’un instructeur, comme il ferait
pour une classe d’élèves, détermine le modèle à partir de données et les
regroupe, établissant ainsi des catégories. Selon un mode probabiliste, une
nouvelle donnée peut leur être alors rattachée.
Dans un second cas, apprentissage non supervisé (ou clustering en
anglais), l’ordinateur ne dispose d’aucune classification préétablie. Ni le
nombre ni la nature des diverses catégories n’ont été déterminés.
L’algorithme doit découvrir par lui-même la structure plus ou moins cachée
des données et les classer, par similitude les unes avec les autres, en groupes
homogènes de données. Cette méthode est source de sérendipité. Par
exemple, l’ordinateur pourrait créer des groupes homogènes d’individus,
qu’on pourrait chercher à corréler à différents facteurs tels que l’origine
géographique, la génétique, la pollution, etc.
Le troisième mode est l’apprentissage par renforcement. Cette méthode
repose sur une série de récompenses positives ou négatives selon les
réponses. Il faut imaginer un professeur dans une classe faisant apprendre à
ses élèves en leur tapant sur les doigts, ou en leur distribuant des bons
points.
La plupart des méthodes d’IA utilisent l’apprentissage supervisé et,
dans une certaine mesure, l’apprentissage par renforcement. La grande
majorité des applications, reconnaissance vocale, empreinte digitale,
détection des visages dépendent de l’une ou l’autre de ces modalités.
L’apprentissage profond, deep learning, repose sur le même principe,
mais associe différentes couches de neurones, leur donnant un poids
proportionnel au contact, à l’intensité du signal reçu, mais aussi à sa
localisation en superficie ou profondeur, à la manière dont le cerveau
fonctionne. Les connexions des diverses populations de neurones
superposées les unes aux autres conditionnent leur activité et leur réponse.
« La technologie du deep learning apprend à représenter le monde, c’est-à-
dire la parole ou l’image », expliquait Yann Le Cun, chercheur influent de
ce domaine. Un des exemples habituellement cités est la reconnaissance de
l’image du chat. Pour pouvoir identifier des chats sur les photos,
l’algorithme doit savoir distinguer les différents types de quadrupèdes, quel
que soit l’angle sous lequel il est photographié. Afin d’y parvenir, il faut
entraîner le réseau de neurones à la reconnaissance, et ainsi compiler un
ensemble d’images, enregistrer des milliers de photos de chats toutes
différentes, pour permettre de les distinguer, à l’aide d’autres
photographies, de celles qui n’en sont pas. Il ne s’agit pas d’une
mémorisation, mais bien d’un entraînement. Dans tous les cas, les machines
ne modifient pas les données qu’elles reçoivent. Transférées sur le réseau,
elles vont se voir attribuer des poids différents. Guidées par l’homme, les
observations qui alimentent les mécanismes de telles connaissances seront
conservées sans qu’elles puissent être diminuées ou augmentées. Les
techniques d’apprentissage parviennent à construire des lois empiriques à
partir des observations qu’elles ont reçues, mais ne peuvent en inventer de
nouvelles si elles ne les ont enregistrées. Dès lors, si les machines font des
prouesses, elles n’ont la capacité ni d’inventer de nouveaux concepts ni
d’enrichir les résultats par l’expression d’un nouveau langage qui soit
différent des données reçues. Le pouvoir appartient à ceux qui les
possèdent, notamment les célèbres GAFA (Google, Apple, Facebook et
Amazon), et leur équivalent asiatique les BATX (Baidu, Alibaba, Tencent et
Xiaomi).
Un des gros problèmes auxquels se heurte l’informatique cognitive est
sa consommation électrique. Le programme d’intelligence artificielle qui a
remporté le jeu télévisé Jeopardy! utilisait 80 000 watts. Par comparaison,
le cerveau humain ne consomme qu’environ 20 watts. Ce handicap de
l’ordinateur est dû à son architecture héritée des années 1950 où les unités
de calcul et la mémoire sont séparées. La circulation de grandes quantités
de données consomme de 100 à 1 000 fois plus d’énergie que le calcul en
soi. Le cerveau traite l’information dans les réseaux de neurones sans
distinguer calcul et mémoire. Aussi, les scientifiques des nouveaux
processeurs privilégient-ils d’autres formes de mémoire dont celles
magnétiques et explorent la fabrication de synapses artificielles. D’autres
ont choisi de mimer le fonctionnement des neurones par des nanoparticules
qui communiquent entre elles par radio en utilisant les propriétés de la
spintronique et du magnétisme. Déjà des chercheurs ont créé un réseau de
4 nanoneurones qui ont une capacité d’apprentissage en communiquant et
modifiant leur comportement.
Concernant le comportement, certains algorithmes peuvent faire croire
aux résultats d’une œuvre d’art, créer un nouveau tableau qu’on chercherait
à attribuer à Rembrandt ou Picasso, à partir de données tirées de leurs
peintures. S’il est possible d’imiter un grand maître, ce ne sera jamais un
véritable objet de création artistique. Je me souviens de mon père étudiant
en esquisses une grande fresque pour le Front de Seine à Paris. Le geste fut
répété des centaines de fois jusqu’à ce qu’il trouve la pression du pinceau,
l’amplitude et la force du geste, la sensibilité des couleurs qu’il avait
choisies, pour représenter les émotions et les sensations qu’il voulait
traduire. Le choix de l’artiste ne peut être imité sauf à le plagier d’une
manière inconsciente. Cela ne veut pas dire qu’on ne puisse mimer
certaines activités humaines. Ainsi, il est possible de synthétiser des voix de
personnes disparues. Des robots journalistes ont écrit des articles à partir de
programmes pour traiter l’actualité. Mais en aucun cas ils ne pourront
retrouver l’originalité, la pensée, la culture d’un être conscient.

L’IA en kit
L’IA a envahi tous les domaines de la vie quotidienne. Elle modifie
totalement le rapport de l’homme avec l’environnement, mais aussi entre
les hommes. Un nombre inouï d’objets connectés nous met en relation avec
le monde extérieur, et quantifie divers actes de notre vie quotidienne.
Montres, bracelets, T-shirts, lunettes ou autres capteurs que nous portons et
emportons avec nous utilisent des ondes radio à ultra-haute fréquence pour
permettre l’échange de données à courte distance. On les applique à de
nombreuses mesures, plus ou moins utiles : rythme cardiaque, respiration,
troubles du sommeil, masse graisseuse, musculaire, osseuse, température…
ils peuvent aussi effectuer les tests de grossesse, quantifier notre
métabolisme, déceler les prémices d’une dépression, surveiller nos
mouvements et prévoir les chutes, rivalisant les uns avec les autres par des
examens high-tech, leur compatibilité et leurs synergies. Les données
peuvent être sauvegardées sur la Toile, se gérer de n’importe quel coin du
monde, être échangées à distance. Représentant ainsi de multiples formes
de surveillance autogérée ou confiée à des services, les applications sont
innombrables, objets d’un grand nombre de biotechs, et posent le problème
de leur évaluation. Certaines ne sont-elles pas en effet inutiles, redondantes,
voire contre-productives ou délétères ? L’homme est accompagné, suivi,
regardé, surveillé, estimé par des données informatiques qui font du
numérique un compagnon de tous les jours, et sans doute un prolongement
de sa propre intelligence. Mais l’IA n’est rien sans l’homme, comme le
montrent de multiples applications. Il suffit pour s’en convaincre de
prolonger le discours de Cédric Villani en examinant l’irruption de ce
domaine en médecine.
La santé est un des domaines qui peuvent le plus bénéficier des big data.
Elles alimentent notamment l’épidémiologie et l’aide au diagnostic.
L’origine des données épidémiologiques est habituellement le dossier
médical mais aussi des données collectées à d’autres fins comme le système
national interrégime de l’assurance-maladie, la Caisse nationale d’assurance
vieillesse ou le PMSI (le Programme de modélisation des systèmes
d’information qui gère les activités des hôpitaux), ou encore la cohorte
Constances qui recueille les données de santé d’un échantillon aléatoire de
citoyens. Le problème principal concernant l’exploitation de ces grandes
bases est de mettre en relation les données complémentaires des dossiers
médicaux divers et distincts. Une des étapes indispensables est ainsi
d’organiser leur harmonisation en développant des librairies d’interfaces
normalisées et des algorithmes d’apprentissage. Les résultats sont au
rendez-vous ou devraient l’être. Ainsi peut-on par exemple identifier un
médicament mis sur le marché mais pouvant entraîner des effets
secondaires néfastes. Ailleurs, il est possible d’utiliser les données pour
améliorer le pilotage de l’activité aux urgences médicales en les corrélant
avec les données météo et la pollution pour anticiper les périodes
d’affluence.
Une des autres utilisations majeures de l’IA est l’analyse automatique
des images médicales qu’elles soient radiologiques, de médecine nucléaire
ou d’anatomopathologie. Les ordinateurs savent analyser ce que l’œil ne
peut voir et améliorer sa performance. La machine permet de faire face à
une demande accrue de productivité sans signes de fatigue, à la différence
de l’homme. Une simple photo d’un mélanome suffit à en faire le
diagnostic et à le distinguer d’un grain de beauté. Des conclusions d’un
scanner de radiologie peuvent faire reconnaître les taches blanchâtres d’un
cancer du poumon, que la sagacité de l’examinateur n’a pas su percevoir.
Mais l’IA ne peut remplacer le médecin ni lui offrir seule une nouvelle
discipline créée en 2010, la radiomique : elle vient le seconder. Les
chercheurs ont ainsi mis au point une analyse d’images
d’anatomopathologie pour diagnostiquer les lymphomes, ces cancers
ganglionnaires. Par lui-même, le système montre un taux d’erreur de 7,5 %,
plus mauvais que l’œil des pathologistes (3,5 %). Cependant, en associant
l’homme et la machine le seuil s’abaisse à 0,25 %, une performance
inégalée. Ailleurs, ce sont les analyses d’image pour le cancer du sein qui
ont réduit de près de 30 % l’exérèse inutile de tumeurs bénignes.
L’IA ne fait pas qu’aider le médecin pour un diagnostic d’imagerie. Elle
peut aussi proposer des recommandations de traitements, regrouper des
populations de patients qui leur soient sensibles, identifier des comorbidités.
Des plates-formes se créent pour faciliter le dépistage, améliorer le
diagnostic, traiter les données issues de la génomique, métabolique ou
protéomique. Dans ce seul domaine de la santé, les médecins ne sont pas les
seuls à bénéficier de l’IA. Celle-ci peut accompagner les patients pour une
meilleure observance de leur traitement, identifier des marqueurs
pronostiques, ou encore soutenir des personnes fragiles de manière non
intrusive à l’aide de technologies de surveillance à domicile. De
nombreuses sociétés de services à vocation internationale se sont créées ou
sont en voie de l’être. Cependant, les algorithmes auront à tenir compte de
différences culturelles. Ils ne peuvent s’exporter sans tenir compte du
contexte. La médecine diffère non seulement d’un cas à l’autre, mais d’un
pays à l’autre.
Comme pour d’autres modes d’exploitation, il existe encore de
nombreux verrous technologiques, scientifiques, éthiques qui devront être
surmontés par l’expérience. Au moment où les réseaux sociaux prennent
une place de plus en plus importante pour le partage des données, il faut
s’assurer de l’absence de biais, de contrôles normaux savamment choisis,
d’un nombre suffisant de données, de leur qualité, de leur homogénéité et
de la représentativité des cas rares. Malgré cela, l’IA se décline en toutes
dimensions, si bien que la pratique des soins se modifie. On assiste à un
changement de paradigme qui fait passer du modèle de traitement
standardisé, à celui qui tient compte de la variabilité individuelle, de la
médecine généralisée à la médecine de précision. La biologie, l’imagerie
sont en pleine mutation mais aussi voyagent. Ainsi, en quelques minutes,
une image radiologique ou histologique peut être envoyée à distance pour
confronter un diagnostic, ou soumettre un choix de traitement. Il est
aujourd’hui possible de stocker et analyser des millions de génomes,
déterminer la phylogénie entre espèces de microbes, prédire la structure des
protéines à partir de leur séquence et les comparer. Pourtant, ces centaines
d’études permettant de corréler des variations génomiques avec l’apparition
ou le déroulement d’une maladie n’ont pas été une révolution. Corrélation
n’est pas causalité. On croyait décrypter des boîtes noires. Pour beaucoup,
les problèmes demeurent. De nombreuses maladies restent encore de causes
inconnues et le poids des gènes pose plus de questions qu’il n’en résout.
Des systèmes d’information satellitaires permettent de modifier la
surveillance et l’alerte relative aux maladies émergentes, mais aucune ne
peut prévoir les fausses rumeurs empêchant la plus triviale des mesures de
prévention. Le rôle du médecin, médiateur, au contact de la vraie vie,
permettra de s’adapter aux conseils donnés par des algorithmes. Mais il lui
faudra aussi tenir compte du savoir présent et s’entourer des hypothèses
qu’il est seul à pouvoir formuler. Car toutes les avancées médicales ne
pourront se faire par l’irruption seule de cette nouvelle science. Si
intelligente que soit l’IA, il faudra veiller à bien l’utiliser et connaître ses
limites. Les découvertes se font souvent par des ruptures. Galilée au
e
XVI siècle eut l’intuition que le poids d’un objet n’influençait pas la vitesse

de sa chute. Aucune observation n’aurait sans doute pu y répondre.


L’homme conserve le don d’imaginer, celui de l’invention, de la créativité.
L’intelligence humaine, elle seule, peut court-circuiter tous les scénarios
raisonnables, faire des choix dans l’imprévu. L’intelligence humaine ne
suit-elle pas parfois des intuitions qui échappent à la raison, ou plutôt, au
raisonnement ? De plus, la machine ne connaît pas l’éthique, à la différence
du médecin. Certains craignent que l’IA modifie l’homme au point de le
surpasser. Le médecin sera un des principaux garants des limites qu’on ne
saurait et pourrait franchir sans lui. Il utilisera tous les moyens numériques
et génomiques pour réparer l’homme, mais ne s’engagera jamais dans
l’augmentation de ses capacités, si la maladie ne les a pas réduites.

L’intelligence faible contre l’intelligence


forte
Intelligence : ce maître mot à l’origine de l’intelligence artificielle (IA)
fut jeté en pâture aux chercheurs, philosophes, praticiens, et curieux de cette
technologie qui se sont passionnés pour ses performances et ses
perspectives. L’IA, souvent confondue avec la conscience, a été le sujet de
nombreux écrits, réflexions et controverses sur le devenir de l’homme, et
sans doute sur l’homme lui-même, si bien qu’on l’assimile volontiers à un
pan possible de son évolution propre.
Intelligence : le terme même est difficile à définir avec précision.
Étymologiquement le mot dérive du latin intelligere, « connaître »,
associant le préfixe inter, « entre », et gerer, « choisir ». Le dictionnaire
Larousse nous propose deux définitions : l’une, « l’aptitude d’un être
humain à s’adapter à une situation et à choisir des moyens d’action en
fonction des circonstances » ; ou encore, « l’ensemble des fonctions
mentales ayant pour objet la connaissance conceptuelle et rationnelle ».
Les Égyptiens pensaient que tout individu était composé de cinq
éléments parmi lesquels, le corps, le cœur, et le Ka. Ceux-ci semblaient
intimement liés : le cœur était le siège de la mémoire et de la conscience, le
Ka survivait après la mort, double spirituel qui naît en même temps que
l’humain, mais en prolonge la vie. Le débat d’aujourd’hui rejoint l’histoire
ancienne. L’intelligence artificielle renvoie aux concepts scientifiques et
philosophiques de « cerveau » et de « psychisme ». Ne différentie-t-on pas
de manière similaire avec la technologie numérique le « matériel » et le
« logiciel » ?
À propos d’intelligence artificielle, on parle d’intelligence faible et
forte. L’intelligence faible est liée aux capacités actuelles de traitement des
algorithmes. C’est elle qui accompagne ordinateurs et robots dans leurs
usages quasi quotidiens. L’intelligence forte sous-entend que la machine
serait capable de reproduire les capacités de réflexion et d’interaction entre
humains, et ainsi d’avoir une véritable conscience. Elle part des premières
spéculations des pionniers de l’intelligence artificielle et du rapprochement
entre la machine et les capacités cognitives de l’homme. S’appuyant sur
l’hypothèse que la conscience a un support biologique et donc ainsi
matériel, certains scientifiques n’imaginent pas d’obstacle à une intelligence
consciente sur un support autre que biologique. Le numérique pourrait y
trouver un nouvel espace ainsi qu’une nouvelle dimension qui le ferait
rentrer en compétition avec l’intelligence naturelle. Pour certains, bien qu’il
n’y ait pas encore d’ordinateur robot qui soit aussi proche de l’homme, il
n’y aurait pas de limites à concevoir des logiciels capables de modéliser les
idées les plus abstraites. Dans cette conquête technologique, et aussi
morale, de telles machines autonomes mettraient en péril le statut de
l’homme et son devenir. Lié à la machine de manière physique, cet être
hybride qui résulterait de l’association du vivant et du numérique, le
cyborg, se composerait de greffes d’humains sur machine ou d’implants de
technologie sur le corps lui conférant une intelligence surhumaine. La
conception de cet être cybernétique, véritable ordinateur à ADN capable de
survivre dans un environnement extraterrestre, s’est imprégnée du début de
l’exploration spatiale. Terminator, un des premiers robots de fiction à
l’apparence humaine avec une enveloppe composée de tissus organiques de
synthèse, proposait une intégration entre la biologie et le numérique au sein
d’un même organisme.
Cette modification de l’humain que certains jugent inéluctable a un
nom : la singularité technologique. L’hypothèse serait que l’intelligence
artificielle dotée d’intelligence tout court, capable de s’améliorer sans
l’homme, entraînerait une révolution qui ferait perdre à l’humain le pouvoir
sur son propre destin. Le scénario originel et l’origine de la terminologie
reviennent à Vernor Vinge qui avait une double carrière de scientifique et
d’écrivain de science-fiction. Ses premières nouvelles, au début des années
1960, évoquaient les limites de l’intelligence augmentée artificiellement. Il
en viendra à concevoir une amélioration sans limite des facultés liées aux
machines. De la science-fiction, il passera à l’essai, théorisant sa prédiction
dans un ouvrage paru en 1993 : The Coming Technological Singularity.
Vinge ne fut pas le seul. D’autres, tel Irving John Good, compagnon de
route d’Alan Turing, évoquant les progrès rapides de la technologie, en
venaient à imaginer qu’elle puisse s’affranchir de toute tutelle humaine.
L’avenir possible d’une nouvelle humanité, son risque ou son souhait,
fut l’objet de nombreuses réflexions dont l’origine supposait que l’homme
allait perdre son pouvoir au profit d’une superintelligence qui allait le
dépasser. Le terme de transhumanisme fut pour la première fois introduit
par Julian Huxley, le frère de l’écrivain Aldous Huxley. Ce théoricien de
l’eugénisme prônait l’utilisation de la science et de la technologie
numérique pour augmenter les capacités physiques et mentales de
l’individu. Ne faut-il pas y voir un rapprochement entre eugénisme et
transhumanisme ?
La singularité technologique devait être une nouvelle étape de l’histoire
humaine, peut-être la dernière, puisqu’elle viendrait en rupture au destin de
l’homme, de l’univers et de son rapport à la mort. En empruntant à la
robotique certaines de ses capacités, la possibilité d’une conscience
artificielle allait ouvrir la voie aux spéculations les plus extraordinaires. On
en vint à imaginer – et même à proposer – le téléchargement de l’esprit sur
un automate. En se rapprochant de la cryogénie, qui tente de préserver le
corps par la congélation, cette mesure permettrait dit-on de ramener à une
vie nouvelle une superconscience ainsi préservée. Le transhumanisme n’a
aucune réticence à promouvoir les prévisions les plus extraordinaires. « La
vitesse d’évolution de l’intelligence artificielle est tellement rapide que
nous entrerons très vite dans la phase de remplacement de l’homme par
l’intelligence artificielle… Notre intelligence sera challengée par
l’intelligence artificielle qui modélisera toutes ses capacités sans
exception », estime Stéphane Mallard, un partisan très médiatisé de cette
théorie. Derrière cette véritable tornade d’assurances presque évangéliques
qui nous prédisent pour demain les limites de l’humanité et n’admettent pas
la contradiction, l’intelligence forte est l’objet de débats et, pour beaucoup,
de faux espoirs, alimentant des controverses, mais aussi des circuits
commerciaux et financiers. Certains tels Stephen Hawking, célèbre
physicien connu pour ses travaux sur les trous noirs, Frank Wilczek, prix
Nobel de physique, ou Bill Gates furent des lanceurs d’alerte, évoquant le
risque que l’IA faisait courir à l’homme. D’autres comme Marc Zuckerberg
qui créa Facebook parlent de créer de nouveaux casques capables de
connecter le cerveau à l’informatique par la télépathie, un nouveau marché.
De son côté, Elon Musk, connu pour être le créateur de Tesla, la première
entreprise de voiture autonome, veut entraîner les milliardaires de la liste
Forbes dans un programme, d’ailleurs béni par le dalaï-lama, pour étendre
le cerveau humain grâce à la cybernétique. Neuralink, sa fondation qui a
fait couler beaucoup d’encre, développe des composants électroniques que
l’on pourrait intégrer dans le cerveau pour augmenter la mémoire, piloter
des terminaux, et in fine faire face aux dangers potentiels de l’intelligence
artificielle. À la différence de l’intelligence artificielle faible, l’intelligence
artificielle forte s’éloigne de la science et d’une validation expérimentale.
Elle croit s’en rapprocher en s’appuyant cependant sur la loi de Moore –
terme ambigu car il ne caractérise qu’une constatation rétrospective –,
émise en 1965 par Gordon Moore, un des fondateurs de la société Intel de
semi-conducteurs, qui constate et promet une croissance quasi exponentielle
des capacités des microprocesseurs.
S’il est clair que l’augmentation des capacités et des microprocesseurs a
plus ou moins suivi cette loi, rien n’assure de sa validité future. D’ailleurs,
les connaissances procèdent souvent de ruptures qui n’ont rien à voir avec
l’augmentation des performances des machines. Certes ceux qui se réfèrent
à la loi de Moore constatent effectivement depuis une cinquantaine
d’années l’accroissement des capacités des microprocesseurs. Mais ils ne
peuvent en tirer argument de ce seul fait. Il existe des contraintes physiques
que les traitements de l’information ne peuvent franchir. Celles-ci viennent
de la vitesse finie des ondes électromagnétiques, de la barrière quantique
limitant la fréquence de transmission des signaux et de celle,
thermodynamique, des conditions de l’entropie. En plus de ces
considérations liées aux lois physiques, il existe des limitations qui tiennent
à la qualité des microprocesseurs et reposent sur l’emploi du silicium et de
la taille des composants. Ceux-ci ne peuvent descendre au-dessous d’une
certaine dimension et d’un nombre réduit d’atomes pour réaliser leurs
fonctions, ce que les chercheurs appellent le mur du silicium. Certes les
tenants du transhumanisme arguent qu’il pourrait exister des matériaux
nouveaux comme les graphènes, d’autres parient sur de nouveaux calculs
comme ceux du quantique qui abaisseraient encore les limites de la
miniaturisation. Pourtant, une telle révolution technologique, car c’en serait
une, ne saurait être anticipée à partir de résultats qui n’ont pas encore eu
lieu. L’assurance ou la foi d’un progrès futur doit reposer sur des faits, et
non sur des incertitudes.
Au reste, l’intelligence humaine ne saurait être assimilée et encore
moins réduite à un programme d’exécution élémentaire, ni au nombre de
données engrangées dans une mémoire numérique. L’intelligence fut
analysée au cours de l’histoire à travers nombre de théories. Descartes et
Spinoza en eurent leur part. Déjà les anciens tentaient de l’appréhender.
Aristote distinguait ainsi cinq vertus intellectuelles : la « connaissance du
faire » (technè), le « savoir » (épistémè), la « sagesse pratique » (phronesis),
la « sagesse théorique » (sophia), l’« intellect » (noos). L’intelligence des
robots, si l’on prend ces machines comme les plus abouties en considérant
l’intelligence de l’homme, n’a pourtant rien à voir avec celle-ci. Le robot
saura reconnaître une orange, et peut-être même l’éplucher, mais ne
ressentira jamais le goût qu’elle peut avoir. Ce qu’il perçoit est loin de la
sensation que peut avoir l’homme. L’information que reçoit la machine est
incomplète et sélective, liée à ses capteurs, qui introduisent souvent par
eux-mêmes des incertitudes. Le robot n’a aucune capacité pour extraire des
informations et les utiliser en fonction du contexte. Certes, les machines
seront de plus en plus autonomes, mais elles seront incapables de
sentiments, de capacité d’inventivité ou d’imagination. Elles n’ont ni la
créativité, ni la conscience, ni les émotions de l’homme. Les
microprocesseurs n’ont pas de motivation propre. Le langage d’un robot ne
peut être interprété par d’autres pour alimenter sa réflexion. Dans le cas des
jeux, AlphaGo, le joueur de go, ne comprend pas qu’il a gagné et ne peut en
tirer du plaisir.
Si les robots sont capables d’imiter et de reconnaître des émotions, la
parole, l’expression faciale, comme celle décrite par Darwin, et de faire
croire à une forme de conscience, c’est bien de manière très simplifiée. Les
connaissances acquises par les machines, et pour certaines fondées sur le
modèle des neurones, sont celles construites par leur algorithme. Elles n’ont
rien à voir avec le sens que leur donnerait l’humain. L’IA n’a pas toutes les
fonctions mentales qui permettent l’analyse, la compréhension du réel pour
créer des concepts, la capacité que l’on a de concevoir, imaginer, mais aussi
percevoir et exprimer les émotions, et surtout les intégrer pour raisonner
avec elles. L’homme construit lui-même, tandis que les machines sont
construites pour lui. L’IA, comme les sciences cognitives, a été créée pour
comprendre le raisonnement et le fonctionnement du cerveau en simulant
les processus de la connaissance. Le concept de départ s’est aujourd’hui
élargi pour nous permettre de communiquer et faciliter de nombreuses
tâches, dont le traitement d’un très grand nombre de données. Mais en
simulant l’activité cérébrale, Marvin Minsky et John McCarthy la
réduisaient à une activité électrique. Or le cerveau humain est plastique et la
chimie de ses interconnexions, le rôle de ses différents territoires, ne
peuvent être copiés. Le cerveau connaît la peur, la haine, l’amour. L’IA ne
vit que d’algorithmes. « On mesure l’intelligence d’un individu à la quantité
d’incertitudes qu’il est capable de supporter », disait Kant. Ces incertitudes-
là sont loin des froids calculs des microprocesseurs, même si l’on songe à
ceux du futur. Celui-ci aura plus que jamais besoin de nous. L’IA ne
l’assumera pas en nous dominant, mais pourra contribuer à nous le rendre
meilleur en s’associant à nos capacités cognitives.
QUATRIÈME PARTIE

L’éthique et la condition
humaine
CHAPITRE 9

La biologie va plus vite que l’homme

J’ai passé une année d’internat dans le service du professeur Jean


Bernard, un des spécialistes mondiaux des maladies du sang. Notre travail
était rythmé par la visite hebdomadaire au lit du malade. Accompagné des
agrégés, des chefs de clinique, des internes et stagiaires, Jean Bernard
s’attardait longuement devant chaque patient. En blouse blanche et capote
bleue, il était un des seuls à avoir gardé ces grands tabliers sanglés sur le
ventre. Depuis Mai 68, les plus jeunes avaient supprimé ceux-ci, considérés
comme le symbole d’une autre époque, au point qu’un jeune collègue
revenu de Californie, bagues aux doigts et chevelure aux épaules,
s’autorisait une tenue hippie, que Jean Bernard, fort de l’expérience des
mois révolutionnaires, n’osait critiquer. Dans la poche du tablier du patron,
se trouvait un stéthoscope, avec lequel il écoutait très consciencieusement,
et pendant de longues minutes, le cœur des malades.
« Monsieur, intervint un jour un de mes collègues, permettez-moi une
question.
– Dites, répondit Jean Bernard qui s’attendait à une réflexion sur l’état du
patient.
– Vous auscultez avec la plus grande attention le rythme cardiaque, reprit-il
d’un ton embarrassé comme s’il regrettait déjà d’avoir parlé, mais vous
placez votre stéthoscope sur la cage thoracique toujours à droite, et non à
gauche, où il est classique de mieux entendre les battements du cœur, et
ajouta-t-il plus hardiment en une sorte de moquerie, est-ce une nouvelle
méthode ? »
Jean Bernard le regarda longuement, hésita, puis comme s’il était
content de faire part de son expérience, reprit :
« Je n’écoute, ni n’ausculte rien. Je réfléchis. Je pense aux phrases, aux
mots de réconfort ou d’information que je vais dire au patient sur son état.
Je m’adresse à un homme, non à un cœur, et me donne le temps pour
construire le dialogue. Retenez cela, non comme l’opinion d’un
hématologiste, mais plus simplement comme une leçon d’éthique médicale,
ce qui est tout aussi important. »
Jean Bernard allait devenir le premier président du Comité consultatif
national d’éthique. Il prit ce poste à une période où les expérimentations sur
l’homme avaient fait l’objet de nombreuses réflexions de par le monde, y
compris en France, où l’on avait légiféré. Mais les avancées de la science,
et les interrogations de la société à son propos, nécessitaient de prendre le
temps, et la sagesse, de réfléchir à leurs applications. Les conclusions de
notre livre viennent en écho à ces réflexions. Si l’homme change,
conservons-lui l’humanisme.

Expérimenter sur l’homme


Août 1947, l’agenda du monde était chargé : élection du président du
Paraguay, visite d’Eva Perón en Suisse, partition de l’Inde et du Pakistan,
conférence interaméricaine pour la maîtrise de la paix. Mais le 21 août
célébrait aussi un événement d’une grande importance : la fin d’un long
procès qui avait tenu la terre entière en haleine, celui des médecins nazis
responsables d’expérimentations humaines dans les camps de la mort. Le
verdict prononcé devant les accusés, amaigris, mais dont certains
conservaient une certaine morgue, énonçait les condamnations, mais surtout
offrait un code sur les droits de l’homme soumis à des expériences. Certes il
s’agissait de la première réglementation sur la recherche clinique, mais il
faut y voir plus loin, comme la volonté d’encadrer les recherches que
l’homme s’autorise à subir pour améliorer son destin tout en conservant sa
dignité.
Ce n’était pas un hasard si les principaux accusés étaient des
médecins…
Le procès des médecins de Nuremberg s’était ouvert le 9 décembre
1946 quelques semaines après celui qui avait jugé les principaux dignitaires
du régime nazi devant un tribunal international. Les instances étaient cette
fois constituées de militaires américains et se tenaient dans la zone qu’ils
occupaient. Les alliés britanniques, soviétiques et français avaient donné
leur accord, mais ne faisaient partie ni des juges ni des accusateurs.
Les faits, ces horribles exactions commises sur des prisonniers, étaient
flagrants. Dès la libération des camps de concentration, des équipes de
journalistes et des agents de renseignement avaient accumulé des
documents et témoignages sur l’expérimentation humaine – dite médicale –
des bourreaux nazis. Les autorités alliées s’étaient lancées à la recherche de
ceux qui avaient exécuté, favorisé ou autorisé de tels actes de barbarie. Une
liste de cent quarante médecins et scientifiques avait été dressée. Plusieurs,
accusant leurs responsabilités ou fuyant la condamnation, s’étaient suicidés.
D’autres avaient pris la fuite comme Josef Mengele. Parfois cachés et
retrouvés par dénonciation, certains continuaient d’exercer en pleine
lumière comme Siegfried Ruff, ancien chef de la section médicale
d’aéronautique expérimentale à Berlin, arrêté à son domicile en octobre,
alors qu’il travaillait pour le compte de l’armée de l’air américaine.
Parmi les vingt-trois personnes, dont une femme, qui comparaissaient
devant le tribunal, vingt étaient médecins, quelques-uns professeurs
d’université ou scientifiques réputés comme le vice-président du célèbre
Institut Robert-Koch ou le chef du Conseil de la science médicale et de
recherche. Un d’entre eux était un généticien connu, autrefois chargé de la
sélection dite positive de fiancées pour les SS afin de leur assurer la
meilleure descendance aryenne. Il était cette fois-ci mis en accusation pour
ses travaux de sélection négative par castration ou autre méthode de
stérilisation chez les juifs et Tsiganes polonais.
Ils avaient tous en commun l’organisation ou la réalisation
d’expérimentations humaines dont le but semblait moins médical que de
tester la résistance à divers types d’agression. Le procès s’était ouvert par
un brillant réquisitoire effectué par le brigadier général Telford Taylor qui
avait dressé la liste des délits. Des expériences d’hypothermie, hypo-
oxygénation, immersion ou autre conditionnement de l’environnement
voisinaient avec l’injection de divers microbes, typhus, hépatite, paludisme,
l’ingestion de drogues médicamenteuses ou toxiques, des études sur la
régénération des os et leurs produits dérivés, les magnifiques collections de
squelettes, des tentatives de mort directe ou à petit feu de tuberculeux,
jusqu’aux tentatives de transplantation des membres testant leur
compatibilité tissulaire. Les preuves de tels crimes ne manquaient pas.
Certains survivants en témoignaient aisément. Les accusés eux-mêmes
donnaient les détails de ces expériences rapportées avec une froide lucidité
et même une rigueur dans l’horreur. D’ailleurs, ils ne cherchaient pas à se
justifier, se glorifiant parfois, souvent avec cynisme, rappelant que la
science a ses droits et que l’imagination en recherche ne doit pas avoir de
bornes.
Ces accusés et leurs habiles défenseurs apportaient sur la table du
tribunal une série d’éléments et de documents à décharge. Le serment
d’Hippocrate, disaient-ils, ne pouvait être opposable car reposant sur une
médecine d’observation établie dans les temps antiques et ne s’appliquait
pas à la science expérimentale d’aujourd’hui. On parlait aussi d’une
médecine de guerre, différente des habituels rapports médecin malade.
L’éthique qui s’appliquait aux essais thérapeutiques ne devait, ni ne pouvait,
intéresser des expériences pour mieux comprendre la pathologie humaine et
surtout en connaître les limites. Argument majeur, il n’existait aucune loi ni
réglementation qui pouvait encadrer les essais effectués dans ces camps de
concentration et, ainsi, juridiquement, il ne pouvait s’agir de crimes.
Comment, de plus, juger les actes individuels effectués sous la coupe d’un
régime totalitaire et fanatique ? Chacun y allait de sa bonne foi, attestant
que les expériences avaient pour objectif de faire avancer les connaissances
sur l’homme pour mieux favoriser, modifier ou améliorer ses conditions de
survie. Peu semblaient pétris de remords, et si les études s’étaient effectuées
en camps de concentration, les accusateurs eux-mêmes n’avaient-ils pas
pratiqué dans leur pays des tentatives semblables sur les prisonniers ? La
littérature médicale et scientifique internationale regorgeait de telles
expériences effectuées non seulement par les Américains mais aussi les
Anglais ou les Français – on rappelait certaines expériences de Yersin en
Indochine – qui portaient sur des indigènes pauvres et illettrés, des
handicapés, ou sur des sujets emprisonnés à qui l’on faisait prendre des
risques inconsidérés.
En janvier 1947, l’argumentaire de la défense tenait si bien qu’à de
nombreuses reprises l’accusation avait vacillé. Un avocat des accusés
interroge-t-il un témoin de l’accusation sur des expériences humaines
d’inoculation de microbe : on lui répond qu’une telle sauvagerie ne saurait
exister aux États-Unis. « Regardez ceci », rétorque l’avocat en brandissant
un numéro de Life de juin 1945 sur des expériences d’inoculation de
paludisme chez des prisonniers de Stateville dans l’Illinois. Et voilà le
témoin d’être retourné à charge contre les pratiques américaines. Charge ou
décharge encore, cet autre épisode où l’expert américain, le professeur
Andrew Ivy, appelé de Chicago en renfort pour défendre la recherche
médicale américaine, s’appliquant avec force à rappeler les
recommandations concernant la recherche sur l’homme, fut obligé de
reconnaître qu’elles n’existaient que depuis décembre 1946, c’est-à-dire
après l’ouverture du procès. Ruff assurait que les Américains avaient eux-
mêmes effectué des expériences en haute altitude, testé l’effet du froid ou
de drogues. Il n’y avait donc pas de différence avec ce qu’on lui reprochait.
Mais, comme le juge Walter Beals, président de la Cour suprême de
Washington, allait l’exprimer dans un vocabulaire militaire, les accusateurs
ne devaient pas se contenter d’être vainqueurs par la supériorité des armes.
« Cette supériorité technologique serait méprisable, si elle ne
s’accompagnait d’une supériorité morale. »
Sept accusés seront acquittés, seize soumis à des peines de prison et,
pour sept d’entre eux, à une condamnation à mort par pendaison. Avec une
certaine provocation, Karl Brandt, qui s’était glorifié d’avoir autrefois
collaboré avec Albert Schweitzer, avait demandé qu’on commute sa peine
en lui faisant subir une expérimentation médicale n’offrant qu’une minime
chance de survie.
Les Allemands s’en étaient moins bien sortis que les Japonais qui, sous
la direction du microbiologiste Shiro Ishii, avaient pratiqué en Mandchourie
des expériences semblables pendant la même période sur les prisonniers
chinois. Semblables ou plus terribles encore, si l’on peut penser qu’il existe
des graduations dans l’horreur : les prisonniers étaient disséqués vivants,
brûlés avec lance-flammes, congelés, affamés, centrifugés, privés de
sommeil. L’imagination n’avait pas eu de limite, mais Ishii et ses complices
ne furent pas jugés. Un pacte avait été signé entre les Nippons et le général
MacArthur pour suspendre les poursuites judiciaires à condition que leurs
travaux scientifiques soient communiqués aux responsables américains. Il
est vrai qu’ils apportaient des données utiles pour le bioterrorisme. Certains
« chercheurs » japonais furent intégrés dans les programmes que les États-
Unis entreprirent par la suite dans ce cadre. Quant aux Soviétiques, un
temps tentés d’intenter un procès à Ishii pour crimes de guerre, ils devaient
y renoncer lorsqu’ils furent eux-mêmes en possession des informations
techniques qui leur apparurent suffisantes pour mettre en place des
programmes d’armes bactériologiques.
Deux poids, deux mesures. Sans doute. Mais le procès de Nuremberg ne
faisait pas seulement que juger des hommes, il établissait pour la première
fois les fondements des règles qui devaient encadrer les recherches sur
l’homme. En cela, le procès avait permis de dresser les limites de la
réflexion. Il fallait en effet éviter que l’opinion publique, indignée, n’en
prenne prétexte pour condamner toute tentative d’expérimentation humaine.
Il s’agissait avant tout de juger celles-ci, telles qu’elles avaient été
pratiquées dans les temps passés et jusqu’à ce jour, avec une morale
strictement utilitaire, sans tenir compte de l’homme. Nuremberg délivra un
code, qui définit les critères jugés acceptables pour une expérimentation
médicale, car on en revenait, ou se limitait, ainsi à des objectifs médicaux.
Un des éléments essentiels fut d’introduire la notion d’un consentement, dit
éclairé, par celui qui participait à de telles recherches. L’écriture d’un code,
si utile soit-il, est cependant plus facile à coucher sur le papier qu’à
appliquer. Pendant longtemps, celui-ci est resté lettre morte. Sans doute les
investigateurs d’alors pensaient-ils qu’il s’adressait plus à la barbarie nazie
qu’à eux-mêmes. La Déclaration d’Helsinki, vingt ans plus tard, effectuée
par l’Association médicale mondiale qui y tenait sa dix-huitième réunion,
fut certes l’occasion de rappeler les grands principes qui devaient encadrer
la recherche chez l’homme. Mais malgré quelques précisions et la mise en
avant d’une exigence de sécurité, limitant également l’utilitarisme rigide de
1947 – la recherche doit avoir des résultats pratiques pour la société –, ce
bel exercice d’écriture ne changea guère le cours des choses : des
expériences scandaleuses ont continué d’être menées pendant plusieurs
dizaines d’années par les pays occidentaux. Les circonstances furent
cependant différentes aux États-Unis et en France.

Narguer Nuremberg
En Amérique du Nord, sans tenir aucun compte du procès de
Nuremberg ni du code qui en avait résulté, de nombreuses recherches
cliniques allaient continuer de s’effectuer dans des pénitenciers ou des
institutions spécialisées, telles celles pour enfants handicapés. Les sujets
testés étaient les représentants de minorités, les Noirs, les pauvres, les
prisonniers, les indigents, qu’on payait parfois de quelques dollars. Les
expérimentations conduites à la prison de Holmesburg par Albert Kligman,
un professeur reconnu de l’Université de Pennsylvanie et l’un des
fondateurs de la dermatologie moderne, sont un des exemples de ce déni
concernant la dignité humaine. De 1951 à 1974, une centaine d’essais
allaient être menés sur les prisonniers. Une unité de recherche clinique fut
même installée dans le pénitencier. L’inoculation de nombreuses maladies
dermatologiques comprenant de multiples biopsies ou prélèvements cutanés
y fut pratiquée. Plus tard, on allait conduire des études consistant à
administrer du LSD, ou des drogues hallucinogènes dix fois plus fortes, des
substances carcinogènes telle la dioxine, principe actif de l’agent orange, ou
des molécules radioactives. De tels essais étaient conduits avec le concours
de l’armée et de la CIA, sans aucun respect de la personne. En entrant dans
la prison, comme il l’admettait volontiers, Kligman n’avait vu que les
hectares de peau. Il s’en était réjoui « comme un fermier devant un champ
fertile ». Certes, la plupart de ces études n’étaient pas d’un grand risque,
mais certaines étaient très douloureuses, comme l’arrachage d’un ongle
pour en observer la repousse. On pouvait rétorquer que les prisonniers
étaient volontaires, motivés par quelques dollars, qui leur donnaient une
certaine supériorité par rapport aux autres, ou une remise de peine. Aucune
pensée cependant ne s’attachait au respect de l’individu. Seule la science
comptait et, si l’unité de recherche clinique fut une fois fermée pour
quelques mois en 1966, ce fut parce que Kligman ne suivait pas les bonnes
règles d’expérimentation et non par manquement à l’éthique. On allait
allègrement continuer d’inoculer l’herpès ou le champignon du pied
d’athlète des années durant.
Une autre de ces expérimentations qui montre l’ignorance des leçons de
Nuremberg est venue de la très scandaleuse étude menée par des médecins
américains pour mieux connaître l’évolution de la syphilis lorsqu’elle n’est
pas traitée. Effectuée par le Service de santé publique des États-Unis à
Tuskegee en Alabama, en collaboration avec l’université de la ville,
l’observation débuta au début des années 1930. Elle fut poursuivie jusqu’en
1972 sans aucun consentement médical. Les chercheurs avaient enrôlé
quelques cobayes afro-américains pour observer l’évolution naturelle de
cette maladie, au demeurant bien connue. Quatre cents d’entre eux étaient
déjà syphilitiques lors de leur inclusion dans l’étude mais ne furent pas
traités. Deux cents allaient contracter la maladie sous la surveillance de
leurs médecins pour le bien (ou plutôt le mal) de la recherche. L’étude
devait durer six mois. Elle s’étala sur quarante ans. Aucun de ces
malheureux ne fut traité par la pénicilline même après que cet antibiotique
eut fait preuve de son efficacité en 1940. En échange de leur résignation, les
patients recevaient un repas par jour, et 1 000 dollars pour leurs funérailles
à condition qu’on puisse effectuer l’autopsie. Alors que certains sujets
étaient volontaires pour s’enrôler dans l’armée, et ainsi se voir proposer un
traitement, les médecins locaux leur demandèrent de refuser.
Il fallut attendre 1970 pour qu’un médecin de santé publique révèle ce
fait révoltant à la presse, après avoir tenté en vain d’alerter ses autorités de
tutelle. Le New York Times alarma l’opinion publique, tandis que le sénateur
Edward Kennedy se chargea d’organiser des auditions parlementaires. Ce
scandale fut à l’origine du Rapport Bellemont rédigé en 1979 par le
département de la Santé américain pour établir aux États-Unis les principes
fondamentaux de bioéthique concernant l’expérimentation humaine. De ce
fait, on créa le premier bureau chargé de la protection des personnes. Le
16 mai 1997 Bill Clinton devait faire des excuses officielles aux derniers
survivants de l’étude, certains en chaise roulante, stigmatisant une
recherche si clairement raciste. Cet épisode dramatique fit découvrir un
autre scandale. Il s’agissait d’une expérimentation effectuée au Guatemala
par l’administration Truman et certains responsables locaux, testant de 1946
à 1948 l’effet de la pénicilline chez des prostituées, malades mentaux,
prisonniers et soldats, inoculés par la syphilis et autres agents sexuellement
transmissibles sans leur consentement. Quatre-vingt-trois de ces
malheureux en sont morts. En 2010, Hillary Clinton devait adresser des
excuses officielles au gouvernement guatémaltèque.
Ainsi, pendant les vingt années d’après-guerre fut menée toute une série
d’essais chez l’homme, qu’il soit sain ou volontaire, même s’ils s’écartaient
du Code de Nuremberg ou de la Déclaration d’Helsinki, sans que cela nuise
à leur publication dans les journaux les plus prestigieux tels le New England
Journal of Medicine ou Lancet. L’absence d’éthique n’était ni un frein ni
une interdiction au déroulement de telles études et à leur rapport. Celles-ci
restaient confinées à la sphère médicale, tandis que les tentatives les plus
osées servaient la carrière de jeunes médecins ambitieux souvent poussés
par l’industrie pharmaceutique, et le besoin d’articles à sensation pour leur
curriculum vitae. Il fallut attendre 1966 pour qu’un des papes de
l’anesthésie, Henry K. Beecher, tire la sonnette d’alarme en s’interrogeant
sur une telle dérive de la recherche médicale. La dénonciation des
expériences de Tuskegee, montrant au grand jour que les autorités avaient
laissé faire, voire encouragé, des recherches qui ne tenaient pas compte du
bien des personnes, fit le reste pour amorcer un tournant qui rétablisse les
droits de l’homme en matière d’expérimentation clinique.
En France, l’évolution des idées fut différente. Il n’y eut pas de
réflexion sur les exigences des essais ni sur les erreurs ou injustices
commises, avant qu’éclate, près de dix ans plus tard dans les années 1980,
un scandale qui prit le nom d’affaire d’Amiens. Peut-être faut-il y voir que
l’industrie pharmaceutique était moins impliquée qu’aux États-Unis, les
budgets plus restreints, et sans doute aussi, que le besoin de publication
pour s’assurer d’une carrière médicale comptait pour peu. Ce n’était pas
non plus que les Français avaient été moins informés du procès de
Nuremberg. Un compte rendu sous le titre Croix gammée contre caducée,
publié en 1950 par François Bayle, un capitaine de vaisseau qui avait suivi
l’événement, en avait décrit les détails. Mais la France de l’après-guerre,
si elle avait aisément condamné les actes, n’avait pas autrement tenu
compte des implications concernant les recherches sur la personne humaine.
Dans une société qui mettait la résistance en exergue, la barbarie d’une
expérimentation sauvage était critiquée plus pour son inutilité que pour son
principe. Très tôt après-guerre cependant, afin d’éclairer le jugement des
médecins nazis, supposant qu’il serait mené par des juges et avocats
internationaux, un éphémère comité international s’était tenu à l’Institut
Pasteur, recueillant des témoignages de détenus aussi prestigieux que
Charles Richet. La décision des Américains de conduire seuls le procès
rendit caduques ces nouveaux éléments du délit.
Jusqu’aux années 1980, la recherche sur l’homme s’est poursuivie ainsi
en France sans réelles règles, ignorant tout autant le Code de Nuremberg
que la Déclaration d’Helsinki. On peut s’étonner d’une telle indifférence,
mais aussi suggérer que la confusion entre soin et recherche entraînait
l’absence de réflexion éthique. De fait, les essais et tentatives
expérimentales chez l’homme étaient plus souvent menés chez des malades
et suffisaient alors, par les bénéfices supposés sur la maladie, à justifier tout
acte de recherche. On parlait ainsi de bénéfice individuel direct, sans
s’inquiéter des modalités de sa mise en œuvre. Il y avait, derrière cette
stratégie, une intention thérapeutique. La recherche dite
physiopathologique, c’est-à-dire pour la connaissance de la maladie,
n’existait pas ou peu, encore moins celle sur l’homme sain.
L’expérimentation n’était admissible que faite dans l’intérêt du sujet qui y
était soumis et toute expérimentation contraire s’éloignait de
l’indispensable respect de la vie humaine. Le consentement éclairé et écrit
était inconnu et les malades subissaient les essais le plus souvent à leur
insu. Ce n’est qu’à partir de 1975 que quelques comités d’éthique
hospitaliers commencèrent à se mettre en place, sans directives
particulières, sans doute liés à l’exigence de règles pour permettre l’accès à
des publications dans des revues internationales. Ainsi, même si la
Déclaration d’Helsinki imposait un comité indépendant, les lois et les
réglementations n’existaient pas en France. Il n’y avait pas non plus de
débat éthique sur la moindre opportunité d’un encadrement juridique et
encore moins de réflexion sur son utilité. Il paraissait assez naturel que les
malades qui étaient soignés au frais de la Sécurité sociale puissent en retour
prêter leur corps à la société pour des essais thérapeutiques dans un grand
élan de solidarité. Depuis Claude Bernard on admettait que
l’expérimentation médicale n’était qu’une forme particulière de médecine.
Soin et recherche étaient mêlés. La médecine était considérée comme une
autre forme d’expérimentation, même si celle-ci se prêtait souvent à
d’autres intérêts que ceux du patient. Si on n’expérimentait pas comme aux
États-Unis sur les prisonniers, les investigateurs choisissaient cependant
sans arrière-pensée leurs témoins parmi les plus pauvres, souvent immigrés.
Les essais sur l’homme sain étaient interdits, les risques apparaissant
contraires à la constitution de 1958, garantissant à tous la protection de la
santé.
L’affaire d’Amiens prit de court de telles tentatives expérimentales qui
vivaient des jours heureux à l’abri des règlements. Quelle fut-elle ? Un
médecin de cette ville du Nord avait fait inhaler du protoxyde d’azote pur à
un patient dans un coma dépassé pour démontrer, lors d’une expérience
judiciaire, que cette mesure n’entraînait pas de cyanose. Il n’y avait aucun
objectif thérapeutique et le geste, bien sûr effectué sans consentement, fit
scandale. Les médias s’en emparèrent. En même temps, un avis du Conseil
d’État indiquait que les essais sur l’homme pouvaient conduire à des
condamnations pour coups et blessures. Les réflexions de quelques groupes
médicaux, qui, d’ailleurs, s’étaient emparés depuis quelque temps du sujet,
firent le reste. Il devint évident qu’il fallait légiférer. La loi fut mise en
chantier par Claude Huriet, médecin et sénateur centriste, et par Franck
Sérusclat, pharmacien et sénateur socialiste. L’égalité entre citoyens
imposera de protéger tous les sujets participant aux recherches biomédicales
qu’ils soient sains ou malades, et toute forme de recherche qu’elle soit ou
non thérapeutique. Un des débats soulevés concernera l’indemnisation des
sujets participant aux essais. Les groupements de transfusion sanguine
voulaient garder la gratuité des dons de sang, tandis que les
pharmacologues et cliniciens demandaient à indemniser les volontaires
sains qui participaient à leurs essais. La loi finalement trancha. Les sujets
qui n’auraient pas de bénéfice individuel direct – un terme qui remplacera
finalement celui de finalité thérapeutique directe – auraient droit d’être
indemnisés, s’ils participaient à une activité de recherche. Celle-ci fut
adoptée le 20 décembre 1988 par le gouvernement de Michel Rocard. Elle
encadrait les investigateurs qui devaient fournir des informations et
demander un consentement écrit, défendre leurs projets devant un comité
comportant l’avis de personnes représentant la société civile non médicale.
Elle obligeait le promoteur à prendre une assurance et à déclarer
l’investigation. La loi sera modifiée par la suite sur certains points
spécifiques. Elle fut cependant pionnière en Europe, conciliant la pratique
des recherches biomédicales et le droit, notamment le droit de l’homme.
Après plusieurs révisions, la loi Huriet-Sérusclat fut cependant remise en
question car, essentiellement rédigée par des experts pharmacologues, elle
concernait surtout des recherches sur le médicament. Or les recherches sur
l’homme s’étaient progressivement élargies à la totalité des questions
scientifiques impliquant les personnes. De nombreux autres programmes
concernaient des recherches en chirurgie, pédiatrie, réanimation,
épidémiologie, et des dispositions particulières avaient ainsi été adoptées.
On avait supprimé la distinction entre recherche avec ou sans bénéfice
individuel direct. De plus, les recherches portant sur les soins courants
continuaient de paralyser les investigateurs, tandis que celles en génétique
chez les patients décédés, qui n’avaient pu y consentir, restaient interdites.
Il fallut légiférer à nouveau. Ce fut en 2012 la loi Jardé, du nom de son
rapporteur, enrichie depuis par de nombreux décrets d’application. En
étendant le champ juridique aux recherches interventionnelles, la nouvelle
loi regroupait les différentes modalités expérimentales impliquant la
personne humaine dans un ensemble réglementaire unique. Trois catégories
de recherches étaient dorénavant identifiées selon le niveau de risque pour
la personne qui s’y prêtait, modulant les contraintes réglementaires et les
conditions de recueil du consentement en fonction de celui-ci. Le comité de
protection vit son rôle diversifié et amplifié. Une commission nationale fut
créée pour les harmoniser. Cela suffisait-il ? Certes, non. S’il s’agit bien de
protection de l’homme, l’humain légitimait d’autres réflexions et
préoccupations.

La science va plus vite que l’homme


Vint un temps où la question ne fut plus seulement de savoir comment
expérimenter sur l’homme, d’édicter des règles et des limites, mais de s’en
demander les raisons. L’évolution des connaissances en biologie, décryptant
son contrôle chez l’homme et l’environnement, imposait une nouvelle
réflexion pour les générations à venir. Les sciences de la vie dans la
seconde partie du XXe siècle avaient en effet connu une véritable révolution,
tant en connaissance fondamentale que d’applications à la santé et au bien-
être. Des notions parallèles sur le maintien de la biodiversité et l’apologie
d’un développement durable encadraient ces préoccupations. De ce besoin
naquit le Comité consultatif national d’éthique pour les sciences de la vie et
de la santé (CCNE). Il fut voulu et mis en place par le président François
Mitterrand à la suite du premier Colloque national de la recherche et de la
technologie en janvier 1982, circonstance qui n’était pas due au hasard.
L’événement n’avait-il pas souligné le besoin de rendre les avancées de la
science plus accessibles et ouvertes à tous ? Il fallait leur donner un temps
citoyen et peut-être, bien que cela ne fût pas clairement formulé, entendre
les besoins d’une société en évolution.
Quelques éléments, plus particuliers ces années-là, venaient appuyer
l’élaboration d’une nouvelle réflexion plus éthique que morale sur la
transformation que l’homme pouvait attendre des avancées de la science.
Certains troubles, irritations ou interrogations à leur égard se manifestaient
alors. 1982 fut marquée par la naissance d’Amandine, premier « bébé-
éprouvette » conçu par la fécondation in vitro. Cet événement n’était pas
seulement un nouveau chapitre de la médecine et du traitement de la
stérilité. Il montrait qu’on pouvait engendrer un être humain autrement que
dans le corps, par des techniques expérimentales. Au grand jour allaient se
discuter de nouvelles méthodes et réflexions sur la fécondation et la
procréation assistée, ainsi qu’elle était modestement appelée. C’est
également à cette période qu’un épisode de gestation pour autrui défraya la
chronique. Un médecin marseillais, le docteur Sacha Geller, mettait en
relation des mères de substitution avec des couples stériles. L’ambiance
commerciale de telles consultations ajoutait une note sulfureuse à un acte
qui se voulait humanitaire. Enfin, et peut-être surtout, c’était le temps du
décryptage du génome humain. Cet exploit faisait penser qu’on pouvait
désormais avoir accès au grand livre de la vie et au bout de l’analyse, à
toutes les conditions qui pourraient le modifier.
Solennellement, le 2 décembre 1983, François Mitterrand prononça le
discours d’inauguration du CCNE. « J’irai tout de suite à l’essentiel,
affirma-t-il. La science d’aujourd’hui prend souvent l’homme de vitesse. Il
faut essayer d’y remédier, […] nous avons cru quelque temps que la
rationalité suffirait pour nous servir de guide, une rationalité sans
défaillance ni dogmatisme, et voilà que le succès même de la science est en
train de nous donner tort. La médecine et la biologie moderne cherchent des
raisons que la seule raison ne parvient pas toujours à saisir. » L’ambition
était tracée. Conçu et voulu ainsi, un tel comité fut le premier au monde.
Certes, il y avait eu en Amérique et Europe du Nord d’autres groupes de
réflexion, mais ceux-ci étaient restés limités à quelques sujets spécifiques,
tels les travaux sur l’embryon, sans en élargir le cadre par une analyse plus
générale, évoluant au gré des préoccupations scientifiques et sociétales. De
plus ces comités étaient éphémères, se limitant à des analyses et
recommandations, se dissolvant une fois celles-ci arrivées à leurs termes.
Pour la plupart, ils ne répondaient pas à une demande gouvernementale ou
institutionnelle, et s’étaient installés par celle de la base, au gré des
circonstances. À l’inverse, le comité français était plongé d’emblée dans un
cadre plus large. N’était-ce pas de la vie de l’homme qu’il s’agissait, un
champ de réflexions qui, selon les mots de Jean Bernard, premier président
du CCNE, « devait être défriché » ? Nous étions loin des acres de peau
humaine concernant les expériences carcérales américaines !
Une caractéristique de ce Comité, nécessaire pour une analyse
complète, fut d’associer des personnalités d’obédiences et d’expériences
diverses, provoquant des confrontations entre philosophes, juristes,
scientifiques, société civile et professionnels. Le CCNE comprend ainsi
trois collèges. Le premier comporte les cinq familles de philosophie
spirituelle : laïque, catholique, protestant, juif, musulman. On pourrait
remarquer l’absence de bouddhistes et souligner que ces personnalités
étaient des représentants de leurs Églises, mais ceux-ci devaient participer
et interagir au nom de leurs convictions sans porter le discours parfois
clivant des dogmes ecclésiastiques. Le deuxième collège est fait de
représentants de la société civile, dont deux parlementaires, un député et un
sénateur, un conseiller d’État, un de la Cour de cassation, un médecin
généraliste, des personnalités désignées par les différents ministères : Santé,
Recherche, Industrie, Culture, Communication et Droit des femmes quand
ce ministère existe. Le troisième collège est scientifique, comportant des
personnalités nommées par les Académies des sciences et médecine, et des
institutions de recherche : Inserm, CNRS, Institut Pasteur, Inra. Animé par
un président nommé pour deux ans renouvelables sans limitation, les
membres sont désignés pour quatre ans reconductibles une fois.
Dans un premier temps, réfléchissant aux prouesses des sciences, le
Comité tenta de s’appuyer sur la morale mais, vite, sut en comprendre les
limites et en vint à l’éthique seule pour traiter des questions et inquiétudes
de la société. Il fallut inventer des méthodes de travail. On rapporte qu’il
hésita à son début à établir un corpus de principes autour de quelques
questions sélectionnées, ou à se contenter d’y répondre et de juger ensuite
de l’opportunité de ceux-ci. Le Comité opta vite pour la seconde solution.
Ne s’agissait-il pas avant tout de donner des avis et d’évoquer les
conclusions qui pouvaient en découler ? Mitterrand, habilement, dans son
premier discours, avait insisté sur la suite qu’on pouvait attendre des avis du
CCNE. « Vous pouvez vous demander, mesdames et messieurs, à juste titre,
quelles seront les conséquences d’un avis formulé par votre comité. Les
textes sont muets sur ce point. Vous vous en êtes peut-être étonnés. Je vous
dis que ce silence n’est pas une omission. Je crois simplement de manière
très pragmatique qu’il appartiendra aux institutions qui vous auront saisi de
tirer les conséquences de vos conclusions. » Dans sa sagesse, le législateur
en créant le CCNE indiquait qu’on ne pouvait tout prévoir et qu’il fallait
éviter toute rigidité. Une certaine précarité induisait une grande liberté.
Limité à des avis et non des instructions, il s’agissait d’établir des
propositions et non des décisions. Au législateur responsable, institutionnel
ou autre, de s’en emparer pour décider de leur devenir. Car le CCNE
pouvait être saisi aussi bien par les différents ministères et la présidence de
la République que par les différentes institutions publiques de recherche qui
souhaitaient recueillir leur avis. Ceux-ci en retour pouvaient inspirer lois,
règlements, mais aussi programmes ou stratégies. Ce ne fut qu’à partir de
2005 que le Comité exerça son pouvoir par des saisines propres. La liberté
de choix et de confrontation des sujets faisait qu’il s’agissait plus
d’envisager les questions que les réponses, même si certaines d’entre elles
pouvaient en suggérer des applications. Rapidement, le Comité s’aperçut
que nombre de débats s’adressaient à la société civile, ou s’en inspiraient, et
que le dialogue était nécessaire. Plutôt que de refléter une « inquiétude », il
s’agissait de faire part d’une « non-quiétude ». Bien sûr on reconnut vite
que l’éthique n’est pas la morale, et que le bien ou le mal, ce caractère
binaire de nos appréciations, ne pouvaient s’appliquer à nombre de sujets
qui concernaient l’homme ou la société, d’autant que les avancées de la
science ne permettent pas d’établir de vérité définitive. Celle-ci ne cesse de
progresser, non sans rupture parfois. Le moteur du progrès des
connaissances est le doute. Liberté, flexibilité, rejet du dogmatisme moral,
philosophique ou métaphysique, accompagnèrent ainsi les réflexions du
CCNE. Ce n’est pas dire que le CCNE ne fut pas à l’origine de lois relevant
de son périmètre, telles celles sur les prélèvements d’organes ou dons de
gamète.
Si l’éthique concerne les conflits qui naissent quand la santé est l’objet
de négligences ou de violences, la réflexion s’applique également aux
conséquences soulevées par les progrès des sciences et techniques quand
elles s’appliquent à l’homme. Cette vision doit mettre l’humain au cœur du
progrès scientifique, lorsqu’il s’agit, par exemple, de réfléchir à
l’algorithme quand il intervient dans la prise de décision, au robot dans sa
relation avec l’homme, à l’épigénétique dans le contrôle de ses gènes.
L’homme n’est pas la somme de ces derniers, y compris ceux de ses propres
microbes ! Il est ainsi devenu clair que les réflexions du CCNE
s’introduisaient de plein droit et devaient accompagner les éléments de la
Convention d’Oviedo.
Signée le 4 avril 1997 à Oviedo en Espagne, cette convention établie
pour la protection des droits de l’homme et de la dignité de l’être humain en
rapport avec les applications de la biologie et de la médecine, repose sur des
principes fondamentaux, dont le premier d’entre eux : l’intérêt de l’être
humain prône sur l’intérêt de la science.
Mais la science avançant à grands pas, presque de façon exponentielle
car aidée des nouvelles technologies, les lois de bioéthique doivent ainsi
être révisées régulièrement. Au demeurant, cette convention est le seul
élément juridique international pour la protection des droits de l’homme
dans le domaine biomédical. On remarquera que les travaux du CCNE
eurent à s’inscrire dans une logique internationale qui reste incomplète,
limitée à quelques réunions internationales, européennes ou bilatérales. En
2018, le Comité, pour la première fois de son histoire, organisa en France,
en amont de la révision de la loi relative à la bioéthique, les États généraux
de la bioéthique. Ceux-ci ont permis de situer, et faire peser, le débat
sociétal sur la réflexion éthique. Cette écoute partagée s’ajouta à celle dont
le CCNE disposait déjà : audition d’associations de sensibilités différentes,
site Internet, comité dit citoyen. La création des États généraux fut une
initiative magnifique qui permit à beaucoup de participer aux propositions
du Comité. Car l’éthique de l’homme nécessite, mieux, requiert le débat
public. Si les frontières et corpus de la réflexion évoluent sans cesse, à
l’affût et en suivi des connaissances scientifiques et de leur application, ils
doivent répondre aux questions et besoins des sociétés humaines. Ainsi, des
prises de conscience lors du procès de Nuremberg aux transformations
biologiques que l’homme peut effectuer sur lui-même, l’éthique nous oblige
à un fil conducteur. C’est à celle-ci de définir les résolutions et pratiques
pour gérer les risques de dérive et assigner des repères à une évolution
possible de la condition humaine.
CONCLUSIONS

Des pouvoirs aux devoirs

Notre livre porte sur les transformations de l’homme que la science


permet et du pouvoir ou risque que nous avons ainsi de bouleverser sa
condition. Or les connaissances de la maîtrise du vivant doivent s’appuyer
sur les avancées scientifiques, non les fausses rumeurs. Puisse ce livre, à
travers les ambitions et prouesses des biotechnologies, contribuer à montrer
jusqu’où l’humain peut être modifié, à distinguer le possible des fantasmes
sans fondements ! Une telle réflexion repose d’abord sur une épistémologie
bien comprise et une perception, tant que faire se peut, du périmètre de la
science d’aujourd’hui. C’est là tout l’objet de notre propos. Réfléchir à des
questions abstraites et sans réalité sur « l’homme augmenté » comporte
certes une dimension intellectuelle, voire poétique, qui n’est pas dénuée
d’intérêt, mais conduit à tergiverser sur des impressions et à passer à côté
des problèmes concrets déjà si nombreux. Les progrès de la science, comme
la nature elle-même, n’ont pas à être jugés en bien ou mal. L’interrogation
sur leur évolution ne tient pas dans cette formulation binaire. En revanche,
comprendre ces changements, en tracer les contours en précisant d’où ils
viennent, ce qui les a permis et où ils peuvent aller, et savoir ce que les
sociétés doivent faire de ces acquis, ou les écarter, voilà les interrogations
qui sont aux racines de cet ouvrage.
Nous sommes aujourd’hui à une période charnière où les nouvelles
techniques génétiques peuvent être utilisées pour modifier les cellules du
corps mais également les cellules reproductrices, spermatozoïdes et ovules,
ainsi que les cellules présentes au premier stade de l’embryon. De telles
recherches sont encadrées mais des failles ou imprécisions subsistent. Ainsi,
concernant les cellules souches somatiques, celles du corps, le Code de la
santé publique qui entoure ces recherches ne les autorise qu’à condition
« d’étendre la connaissance scientifique de l’être humain et les moyens
susceptibles d’améliorer sa condition ». « Améliorer » ? Ce terme permet
ainsi de modifier l’homme pour accroître les capacités de l’individu, telle
une meilleure acuité visuelle ou résistance à l’effort. Où sont les droits de
l’homme ? Jusqu’où faut-il ou peut-on les exercer ? Concernant les cellules
germinales, il est écrit qu’« aucune transformation ne peut être apportée aux
caractères génétiques dans le but de modifier la descendance de la
personne » et que la conception in vitro d’embryons ou la constitution par
clonage d’embryons humains à des fins de recherche ou la création
d’embryons transgéniques ou chimériques est interdite. La possibilité
d’utiliser ces techniques en recherche sur des cellules germinales se heurte
ainsi à l’interdiction d’en valider les conséquences. Mais le législateur n’a
pas souhaité limiter la création d’embryons chimériques, comme cela peut
se faire avec des cellules souches. Il est en effet possible d’introduire des
cellules souches humaines pour les développer dans des embryons animaux
(et d’ailleurs vice versa). Or les interdictions qui pèsent sur ces pratiques
sont variables d’un pays à l’autre. Ainsi, le 1er mars 2019, la création de
chimères homme-animal a été levée au Japon et le ministère des Sciences et
Technologies donnait son feu vert le 24 juillet à un projet d’étude visant à
développer un pancréas étranger chez des rongeurs en utilisant des cellules
souches humaines. De tels embryons de rats ou de souris pourraient ainsi
produire un organe humain, par la suite utilisable pour une greffe. Ces
expériences ouvrent bien évidemment d’incroyables perspectives. Celles-ci
soulèvent aussi de nombreuses questions. Certes, les animaux d’expérience
restent limités aux rongeurs et leur taille donne peu de chances aujourd’hui
à une utilisation en transplantation humaine. Mais des expériences de cet
ordre pourraient se répéter chez le porc, la chèvre ou même les primates
non humains. Sans attendre l’exploitation d’une telle ménagerie, que se
passerait-il si quelques cellules souches, lors de ces expériences japonaises,
migraient inopportunément dans le cerveau de ces petits rongeurs ou au
niveau du visage ? Allait-on les laisser avoir une (mini)conscience
humaine ? Verrait-on des animaux à face humaine ?
Nous avons traité des trois grandes influences et techniques par
lesquelles l’homme peut être modifié et ainsi suivre ou échapper à
l’évolution du vivant.
De tout temps, l’homme a tenté de se modifier par lui-même. Il en a fait
un enjeu pour se dépasser et surmonter ses handicaps. D’abord transformé
par l’esprit, du cannibalisme des civilisations aztèques à l’avenir
métaphysique de la religion, puis par la biologie (transplantations, thérapies
cellulaires et géniques), l’homme s’est interrogé sur le caractère patrimonial
du corps, ce qui est donné à l’autre, partagé, reconstruit. La réponse est
venue des avancées de la science pour guérir des maladies qui le mettait en
déficit. En examinant les prouesses actuelles, nous avons décrit un état des
découvertes en sciences de la vie et de leur évolution possible. Il semble
clair que celles-ci dépendront des recherches en médecine et biologie. La
vigilance en matière d’éthique, les applications à la maîtrise de l’homme
seront principalement dominées par leur impact sur la santé. Il faut laisser la
médecine rester maîtresse des décisions et choix qui guideront les
transformations futures de l’humain par l’application des techniques
d’insertion génétiques, moléculaires, cellulaires, ou tissulaires à l’homme.
Les biotechnologies doivent être inventées pour guérir ou prévenir la
maladie, non pour créer un nouvel Homo sapiens en bouleversant
l’évolution naturelle.
Tout autre est la relation de l’homme avec son environnement.
De nombreuses interrogations naissent aujourd’hui des modifications que
celui-ci peut faire subir à l’espèce humaine. Les recherches en écobiologie
soulignent que l’homme ne vit qu’en coévolution, justifiant la préservation
des écosystèmes et leur protection. Il faut ainsi arriver à comprendre et
rechercher les synergies entre les processus dynamiques de ceux-ci, le
climat, les propriétés physiques de l’environnement et le développement
propre de l’homme. L’équilibre est fragile et implique que nous gérions les
ressources naturelles autant pour elles-mêmes que pour ce qu’elles peuvent
apporter à l’humain. L’homme, du génome aux comportements, est
continuellement influencé par ce qui l’entoure. Du ventre de la mère aux
forêts humides des tropiques et sables du désert, de la pollution de ville aux
aliments et famines, des changements de température à la salinité marine,
nous subissons la loi de nos environnements. Les modifications de
l’exposome et de l’épigénome, tout comme celles du microbiote, leurs
influences réciproques et leurs contrôles, sont multiples. Des recherches,
comme celles décrites dans notre ouvrage, sont nécessaires pour
comprendre ces interactions. De nouvelles règles de vie, et sans doute de
nouvelles interventions, en dépendront, comme les mesures de lutte contre
la résistance aux antibiotiques et les pesticides, les approches « une seule
santé » pour l’homme, l’animal et la plante, la vigilance en matière de
sécurité et comportements alimentaires, de démographie, des migrations,
etc. Il s’agira de se laisser porter par le torrent de la vie ou d’en maîtriser le
courant. Quelle part voudrons-nous avoir dans cette avancée de l’humanité
qui nous a conduits des glaciations de la préhistoire à la conquête du feu,
des premières mesures d’hygiène à la transition énergétique ? La réponse
viendra de la science et de la maîtrise des paramètres qui régissent
l’ambition séculaire de la maîtrise du vivant. Nos civilisations, à cet égard,
ont privilégié les recherches qui répondent à nos attentes pour la santé,
l’agriculture, l’élevage plutôt qu’en analysant la dynamique propre de la
biodiversité et de l’homme dans ce contexte. À travers de nouvelles
approches cependant, telle l’étude du microbiote et celle de l’exposome,
nous apprendrons l’évolution de ces écosystèmes et leur influence sur
l’humain, ainsi que les ressources qui sont nécessaires pour qu’il garde une
place harmonieuse dans l’évolution du vivant. En 1973, l’évolutionniste
Leigh Van Halen proposait une théorie de la coévolution à partir d’une
métaphore empruntée à Lewis Carroll, celle de la reine rouge. Dans De
l’autre côté du miroir, Alice rencontre la reine de cœur d’un jeu de cartes.
Alors que toutes deux courent main dans la main, Alice interloquée
remarque que les paysages ne bougent pas. « Dans notre pays, explique-t-
elle un peu pantelante, on arrive en général ailleurs si l’on court très vite
pendant un long moment. – Ici, en revanche, réplique la reine, il faut courir
de toutes ses forces pour rester au même endroit. » L’évolution de l’homme
est ainsi nécessaire pour maintenir son aptitude face aux écosystèmes avec
lesquels il cohabite. À nous d’en gérer l’harmonie, de développer l’humain
à la vitesse où bouge son environnement, dont celui de notre propre corps,
pour avancer en croyant rester sur place.
S’inscrivant dans l’interaction ancestrale de l’homme avec la machine,
la révolution numérique a introduit une dimension nouvelle. Que l’on
puisse imaginer l’intelligence en partage – ou en interface – suffit à
introduire une réflexion et pour beaucoup une ambition nouvelle sur le
devenir de l’espèce. Depuis qu’il existe, l’homme a cherché et inventé des
technologies de tous ordres pour « augmenter » ses capacités à vivre mieux.
La découverte du feu, l’usage de l’hygiène, de l’énergie, les progrès des
transports et communications renvoient à nombre d’inventions qui
catalysent, accompagnent et modifient nos comportements pour les rendre
plus efficaces. Si on compare l’empreinte d’une main sur les parois d’une
grotte préhistorique à ceux du pas du premier homme sur la Lune, des
milliers de technologies nouvelles nous ont modifiés pour nous rendre plus
performants. Reste à comprendre si ce progrès a un sens et s’il ne doit pas
se tourner vers d’autres challenges. Le transhumanisme considère certains
aspects de la condition humaine, telles la souffrance, la maladie, la mort,
comme des handicaps qu’il faut surmonter. Ce mouvement de pensée
partage avec l’humanisme la volonté de valoriser l’existence humaine et de
progresser. Il en diffère par le souci de rupture que pourraient créer les
technologies émergentes du numérique (informatique, robotique, réalité
virtuelle, etc.) et sa préoccupation des dangers et avantages que celles-ci
peuvent procurer. Or des gourous et marchands de rêves alimentent des
fantasmes sur l’augmentation des capacités intellectuelles, physiques ou
psychologiques par la greffe de puces électroniques qui modifieraient notre
appréhension du monde. Ils font croire à notre asservissement à la machine.
Le transhumanisme évoque une humanité transformée par l’intelligence
artificielle, et propose de réfléchir sur les conséquences sociales et éthiques
de l’utilisation du numérique. Certains, tel Francis Fukuyama, énoncent
qu’il s’agit d’une des plus grandes menaces pour l’homme, d’autres tel
Ronald Bailey rétorquent que cette aspiration est une des plus audacieuse
pour l’humanité. D’autres encore pensent que ces déclarations
sensationnelles sont destinées à séduire les médias et attirer des
investisseurs crédules. Nous avons voulu faire part de l’état de la science et
montrer de quelle manière la biologie pouvait s’allier à la machine. Nous
sommes loin des preuves chimériques d’un asservissement à celle-ci, qui
rendrait l’homme esclave d’un nouveau pouvoir, celui des sciences et
technologies informatiques. Rien ne saura dépasser et remplacer nos
sentiments, amours ou haines, sensations, émotions, nous faire vibrer aux
couleurs du soir, au toucher d’une main amie, au regard de l’autre, à
l’admiration d’une œuvre d’art, à la lecture d’un livre. Rien ne remplacera
l’homme et les réactions qu’il ressent aux signaux de la vie. L’humain du
cogito, dépend de la biologie et non de la mécanique.
L’Homo sapiens d’aujourd’hui cherche à détourner les lois de la
sélection naturelle pour un dessein qu’il croit meilleur. Certains croient que
la vie bionique pourrait lui apporter une nouvelle anthologie. Ne changeons
pas les lois de la vie, cherchons à mieux les connaître. Les transformations
que l’homme peut subir, par les prouesses des biotechnologies, par
l’environnement ou par son adaptation aux machines, justifient un regard,
mieux sans doute, un contrôle, qui puisera sa réflexion dans les avancées de
la science, l’éthique et la confrontation des cultures. Nous appelons à une
tribune internationale qui s’adresserait ainsi à l’« homme » comme un bien
public mondial.
Nombre d’interrogations, au moins celles de ce livre, convergent vers ce
qu’on nomme – d’ailleurs au singulier – la condition humaine, et évoque les
moyens ou menaces qu’elle puisse être modifiée. Or s’il ne restait qu’un
message en conclusion de l’ouvrage, ce serait pour plaider sur la place
qu’occupe la biologie. Aujourd’hui, les chercheurs dans leurs modèles
cellulaires ou autour des organes artificiels parlent aussi du
microenvironnement et de leurs conséquences biologiques. Les messages
des cellules, communiquant les unes avec les autres, renvoient à ceux de
nos sociétés. La biologie du futur est au cœur de l’humanisme à venir. Aux
biologistes de savoir enseigner sur les moteurs de la vie et d’en nourrir la
réflexion sur l’avenir de l’homme !
ÉPILOGUE

Les dieux n’ont pas besoin de tatouage

Buenos Aires en février : peut-être neige-t-il à Paris à moins que le


temps ne soit gris et pluvieux ? Ici, la fin de journée dans les rues où la
chaleur décroît a fait sortir ceux qui avaient tenté d’échapper à la moiteur de
l’été. Des passants en shorts et T-shirts en croisent d’autres tout aussi peu
vêtus, comme s’ils allaient à la plage ou en revenaient. Des chevelures
teintes en violet fluorescent ou rouge orangé se marient avec les graffitis
multicolores ou les peintures acides des murs en briques. La rue éclate de
couleurs, et des cris – « Como te va. Ceda el paso. El primero del dia » –
retentissent d’un bout à l’autre de Palermo. Mais dans cette sorte de
carnaval, si une attention devait se porter plus qu’une autre, ce serait sur les
tatouages. Pas un homme ou femme, ou presque, qui n’en arbore un ou
plusieurs, torses chamarrés, nouvelles idoles dédiées à quelque désir,
seconds visages plus souvent déformés par la musculature, mollets striés de
cercles concentriques, fleur sur l’épaule qui défie l’autre, dénudée. Les
corps décorés attirent l’œil autant que les peintures des murs, se renvoyant
l’un à l’autre leurs images, comme un nouveau street art. Un deuxième
regard, pourtant, fait penser plus loin que ces pigmentations cutanées.
Certes, les tatouages ont existé de tout temps. Seuls les dieux n’en ont pas
besoin. Ainsi, un empereur romain qui avait exigé que les condamnés soient
tatoués, ordonnait que soit respecté le visage qui, créé à l’image du dieu,
devait rester vierge. Mais cette symbolique tégumentaire est tant diffusée
aujourd’hui qu’elle prend une autre signification. Ces passants plaident
pour une nouvelle identité. Une sorte de langage corporel, ici à son
paroxysme, affirme ce besoin très profond qu’a l’homme de vouloir et
pouvoir se modifier, changer sa nature, comme un rite de passage à un
nouvel humanisme, ou la marque du sapiens. Quelle meilleure vision pour
accompagner les conclusions de l’ouvrage que de terminer en peinture ? De
la maîtrise de ses gènes à celle de ses cellules, organes ou peau, l’homme
s’est donné les moyens d’une transformation de l’espèce. Puisse-t-il garder
assez de sagesse pour continuer à participer à la maîtrise du vivant en
respectant son éthique, et à son aventure sans se détruire. Comprendre la
biologie de ces transformations, permettre d’en juger le besoin de
mutations, c’est sans doute aussi tenter de lui faire prendre en main les clés
de son destin.
Bibliographie

Chapitre 1. Rites cannibales et mythes


d’aujourd’hui
Allen S. L., Les Jardins du diable. Le plaisir des nourritures sacrilèges,
Paris, Autrement, 2004.
Colomb C., La Découverte de l’Amérique, tome I : Journal de bord 1492-
1493, Paris, La Découverte, 1984.
Freud S., Totem et tabou, Paris, Payot, 1971.
Graulich M., Le Sacrifice humain chez les Aztèques, Paris, Fayard, 2005.
Guille-Escuret G., Les Mangeurs d’autres. Civilisation et cannibalisme,
Paris, EHESS, 2012.
Guille-Escuret G., Sociologie comparée du cannibalisme, tome II : La
Consommation d’autrui en Asie et Océanie, Paris, PUF, 2012.
Guille-Escuret G., Sociologie comparée du cannibalisme, tome III :
Ennemis intimes et absorptions équivoques en Amérique, Paris, PUF,
2013.
Harris M., Cannibals and Kings, The Origins of Cultures, New York-
Toronto, Random House, 1977.
Kiliani M., Du goût de l’autre, Paris, Seuil, 2018.
Le Breton D., La Chair à vif, Paris, Métailié, 1993, p. 118-126.
Lery J. de, Histoire d’un voyage fait en la terre du Brésil, 1578.
Lévi-Strauss C., « Cannibalisme et travestissement rituel », in Paroles
données, Paris, Plon, 1984.
Lévi-Strauss C., Nous sommes tous des cannibales, Paris, Seuil, 2013.
Métraux A., Écrits d’Amazonie. Cosmologies, rituels, guerre et
chamanisme, Paris, CNRS Éditions, 2013.
Molinié A., « Sanglantes et fertiles frontières. À propos des batailles
rituelles andines », Journal de la Société des américanistes, 1988,
LXXIV, p. 45-49.
Molinié A., Le Corps de dieu en fêtes, Paris, Cerf, 1996.
Monestier M., Cannibales. Histoire et bizarreries de l’anthropophagie hier
et aujourd’hui, Paris, Le Cherche Midi, 2000.
Montaigne M. de, Essais, Livre I, XXXI « Des cannibales », Paris, Garnier,
1941.
Sade D. A. F. de, Aline et Valcour ou Le Roman philosophique, tome II,
Paris, Pauvert, 1967.
Tincq H., « Le pape désapprouve les intercommunions entre catholiques et
protestants », Le Monde, 18 avril 2003.
Vernant J.-P., L’Univers, les dieux, les hommes, Paris, Seuil, 1999.
Viveiros de Castro E., Métaphysiques cannibales, Paris, PUF, 2009.

Chapitre 2. L’un pour l’autre


Cabut S., « Greffe de rein : de un à cinq ans d’attente », Le Monde, 18 juin
2018.
Carol A., « Une histoire médicale des critères de mort », Communications,
2015, 2 (97), p. 45-54.
Chemouilli P., « La mort invisible ou le problème de la mort cérébrale et
des greffes d’organes au Japon », Éthique & Santé, 2004, 4 (1), p. 216-
222.
Cooper D. K. C., « A brief history of cross-species organ transplantation »,
Proc. (Bayl. Univ. Med. Cent.), 2012, 25 (1), p. 49-57.
Fu-Chang Tsai D. et al., « The outcomes and controverseries of transplant
tourism – Lessons of an 11-year retrospective cohort study from
Taiwan », PloS One, 2017, 12 (6), e0178569.
Gozlan M., « Des cochons bientôt donneurs d’organes ? », Le Monde,
5 octobre 2017.
Grade S., Götz M., « Neuronal replacement therapy : previous
achievements and challenges ahead », NPJ Regenerative Medicine,
2017, 2, p. 29.
Halloran P. F., « Individual immunosuppressive drugs and sites of action in
the three-signal model », N. Engl. J. Med., 2004, 351, p. 2715-2729.
Hamburger J., Crosnier J., Dormont J., Bach J.-F., La Transplantation
rénale, Paris, Flammarion, 1971.
Kessler L., Bahougne T., « Situation actuelle de la greffe d’îlots
pancréatiques, de la recherche au soin courant », Diabétologie pratique,
15 février 2018.
Küss R., Bourget P., Une histoire illustrée de la greffe d’organes, Rueil-
Malmaison, Sandoz, 1992.
Le Borgne F. et al., Rapport d’activité des centres DIVAT en réseau local
(accès privé) décliné par année depuis 2004, 13 janvier 2015.
Le Breton D., La Chair à vif, op. cit.
Lévi-Strauss C., Nous sommes tous des cannibales, op. cit.
Linvall D., « Clinical translation of stem cell transplantation in Parkinson’s
disease », Journal of International Medicine, 2016, 279, p. 30-40.
Loupy A., Lefaucheur C., « Antibody-mediated rejection of solid organ
allografts », N. Engl. J. Med., 2018, 379, p. 1150-1160.
Mathé G., Amiel J.-L., La Greffe, aspects biologiques et cliniques, Paris,
Masson, 1952.
Mathew J. M., Leventhal J. R., « Clinical transplant tolerance : Coming of
age », Human Immunology, 2018 79 (5), p. 255-257.
Meier R. P. H. et al., « Xenotransplantation : back to the future ? »,
Transplant International, 2018, 31 (5), p. 465-477.
Montaigne M. de, Essais, Livre I, XXXI « Des cannibales », op. cit.
Mother I., Loupy A., Solez K., « The Human Atlas Project by the numbers :
Relationship to the Banff classification », Am. J. Transplant., 2018, 18
(7), p. 1830.
Naganuma H., Nishinakamura R., « From organoids to transplantable
artificial kidneys », Transplant. Int., 2019, 32 (6), p. 563-570.
Nancy J.-L., L’Intrus, Paris, Galilée, 2000.
Paré A., « Discours de la Momie et de la Licorne » (1582), in J.-F.
Malaigne, Œuvres complètes d’Ambroise Paré, Paris, Baillière, 1840,
tome I, p. 188.
Picard E. et al., « Rôle clé des Treg CD8+ spécifique d’un allopeptide en
transplantation », Médecine/Sciences, 2015, 31 (1), p. 22-23.
Pradeu T., Les Limites du soi. Immunologie et identité biologique, Paris,
Vrin, 2009.
Pruvot F.-P., « Trafic d’organes et tourisme de transplantation : le point de
vue du chirurgien », Le Courrier de la transplantation, 2014, XIV (2),
p. 74-77.
Pullen L. C., « Human cell atlas poised to transform, our understanding of
organs », Am. J. Transplant., 2018, 18, p. 1-2.
Scalea J. R. et al., « Transplantation tolerance induction : Cell therapies and
their mechanisms », Frontiers in Immunology, 2016, 7, p. 1-12.
Volovelsky O., Kopan R., « Making new kidneys », Cur. Opin. Organ
Transplant., 2916, 21 (6), p. 574-580.
Voronoff S., La Conquête de la vie, Paris, Eugène Fasquelle, 1928.
Weldman T., Michel S., Segarem N., Shanmugarajah K., « Bioengineering
for organ transplantation : Progress and challenges », Bioengineered,
2015, 6 (5), p. 257-261.
Xiaoei Yin et al., « Stem cell organoid engineering », Cell Stem Cell, 2016,
18 (1), p. 25-38.
Zuber J., « Tolérance en transplantation par chimérisme mixte »,
Néphrologie & Thérapeutique, 2017, 13 (s1), p. 127-130.

Chapitre 3. Cultiver ses cellules


Amit M., Laevsky I., Miropolsky Y., Shariki K., Peri M., Itskovitz-Eldo J.,
« Dynamic suspension culture for scalable expansion of undifferentiated
human pluripotent stem cells », Nat. Protoc., 2011, 6, p. 572-579.
Basin H., L’Histoire des vaccinations, Montrouge, John Libbey Eurotext,
2008.
Blondel S., Egesipe A. L., Picardi P. et al., « Drug screening on Hutchinson
Gilford progeria pluripotent stem cells reveals aminopyrimidines as new
modulators of farnesylation », Cell Death Dis., 2016, 7, e2105.
Bourel M., Ardaillou R., « Les banques de sang de cordon autologue »,
Bull. Acad. Natle Med., 2002, 186 (8), p. 1543-1550.
Chan A., Carter P. J., « Therapeutic antibodies for autoimmunity and
inflammation », Nat. Rev. Immunol., 2010, 10 (5), p. 301-316.
Fatehullah A., Tan S. H., Barker N., « Organoids as an in vitro model of
human development and disease », Nat. Cell Biol., 2016, 18, p. 246-
254.
Fung M., Yuan Y., Atkins H., Shi Q., Bubela T., « Responsible translation
of stem cell research : An assessment of clinical trial registration and
publications », Stem Cell Reports, 2017, 8 (5), p. 1190-1201.
Guidelines for Stem Cell Research and Clinical Translation, ISSCR,
mai 2016 (https://www.isscr.org/docs/default-source/all-isscr-
guidelines/guidelines-2016/isscr-guidelines-for-stem-cell-research-and-
clinical-translation.pdf?sfvrsn=4).
Le Gall J.-Y., Ardaillou R., « Cellules souches et perspectives
thérapeutiques », Bull. Acad. Natle Méd., 2010, 194 (8), p. 1601-1620.
Hwang W. S., Ryu Y. J., Park J. H. et al., « Evidence of a pluripotent human
embryonnic stem cell line derived from a cloned blastocyst », Science,
2004, 303 (5664), p. 1669-1674.
Köhler G., Milstein C., « Continuous cultures of fused cells secreting
antibody of predefined specificity », Nature, 1975, 256 (5517), p. 495-
497.
Lim S. H., Levy R., « Translational medicine in action : Anti-CD20 therapy
in lymphoma », Journal of Immunology, 2014, 193, p. 1519-1524.
Marasco W. A., Sui J., « The growth and potential of human antiviral
monoclonal antibody therapeutics », Nat. Biotechnol., 2007, 25,
p. 1421-1434.
Mathé G., Jammet H., Pendic B., Schwarzenberg L., Duplan J.-F., Maupin
B. et al., « Transfusions et greffe de moelle osseuse homologue chez des
humains irradiés à haute dose accidentellement », Revue française
d’études cliniques et biologiques, 1959, 4 (3), p. 226-238.
Ohi Y., Qin H., Hong C. et al., « Incomplete DNA methylation underlies a
transcriptional memory of somatic cells in human iPS cells », Nat. Cell
Biol., 2011, 13 (5), p. 541-549.
Pardoll D. M., « The blockade of immune checkpoints in cancer
immunotherapy », Nature Rev. Cancer, 2012, 12 (4), p. 252-264.
Plotkin S. A., Orenstein W. A., Offit P. A., Vaccines, Paris, Elsevier, 2008.
Redman J. M., Hill E. M., Aldeghaither D., Weiner L. M., « Mechanisms of
action of therapeutic antibodies for cancer », Mol. Immunol., 2015, 67,
p. 28-45.
Sansonetti P., Vaccins, Paris, Odile Jacob, 2017.
Saxena P., Heng B. C., Bai P., Folcher M., Zulewski H., Fussenegger M.,
« A programmable synthetic lineage-control network that differentiates
human IPSCs into glucose-sensitive insulin-secreting beta-like cells »,
Nat. Commun., 2016, 7, p. 11247.
Schauinger S., Stem Cell Patent Competitive Intelligence, décembre 2016
(https://www.linkedin.com/pulse/stem-cell-patent-competitive-
intelligence-december-2016-schauinger).
Shafa M., Sjonnesen K., Yamashita A., Liu S., Michalak M., Kallos M. S.,
Rancourt D. E., « Expansion and long-term maintenance of induced
pluripotent stem cells in stirred suspension bioreactors », J. Tissue
Regen Med., 2012, 6 (6), p. 462-472.
Shuptrine C. W. et al., « Monoclonal antibodies for the treatment of
cancer », Seminars in Cancer Biology, 2012, 22, p. 3-13.
Takahashi K., Yamanaka S., « Induction of pluripotent stem cells from
mouse embryonic and adult fibroblast cultures by defined factors »,
Cell, 2006, 126 (4), p. 663-676.
Takahashi K., Tanabe K., Ohnuki M., Narita M., Ichisaka T., Tomoda K.,
Yamanaka S., « Induction of pluripotent stem cells from human adult
fibroblasts by defined factors », Cell, 2007, 131 (5), p. 861-872.
Théry F., La Face cachée des cellules, Paris, Éditions Matériologiques,
2016.
Vivier É., Daëron M., L’Immunothérapie des cancers, Paris, Odile Jacob,
2019.
Völkner M., Zschätzsch M., Rostovskaya M., Overall R. W., Busskamp V.,
Anastassiadis K., Karl M. O., « Retinal organoids from pluripotent stem
cells efficiently recapitulate retinogenesis », Stem Cell Reports, 2016, 6
(4), p. 525-538.
Weiner G. J., « Rituximab : Mechanism of action », Seminars in
Hematology, 2010, 47, p. 115-123.

Chapitre 4. Éditer le livre de la vie


Anderson W. F., « Human gene therapy », Nature, 1998, 392 (6679 suppl.),
p. 25-30.
Beutler E., « The cline affair », Molecular Therapy, 2001, 4 (5), p. 396-397.
Buscail L., La Thérapie génique. De la genèse d’une thérapie innovante à
l’ADN médicament, Paris, Grancher, 2017.
Cavazzana-Calvo M. et al., « Gene therapy of human severe combined
Immunodefiency (SCID)-X1 disease », Science, 2000, 288 (5466),
p. 669-672.
Ces poissons qui changent de sexe, blog
(http://surlestracesdedarwin.blogspot.com/2017/06/ces-poissons-qui-
changent-de-sexe.html).
Ferry L., La Révolution transhumaniste, Paris, Plon, 2016.
Friedmann T., Roblin F., « Gene therapy for human genetic disease »,
Science, 1972, 175: 949-955.
Hacein-Bey-Abina S., Hauer J., Lim A., Picard C. et al., « Efficacy of gene
therapy for X-Linked severe combined immunodeficiency », N. Engl.
J. Med., 2010, 363 (4), p. 355-364.
Inserm, Drépanocytose : rémission des signes de la maladie chez le premier
patient au monde traité par thérapie génique, mars 2017, communiqué
presse.
Jordan B., Thérapie génique : espoir ou illusion ?, Paris, Odile Jacob, 2007.
Marshall E., « Gene therapy on trial », Science, 2000, 288 (5468), p. 951-
957.
Ségalat L., La Thérapie génique. Révolution médicale entre rêve et réalité,
Paris, Ellipses, 2007.
Yin H., Kanasty R. L., Elthouhy A. A., Dorkin J. R., Anderson D. G.,
« Non-viral vectors for gene-based therapy », Nat. Rev. Genet., 2014,
15, p. 541-555.

Chapitre 5. Peindre ses gènes


Bird A., « Perceptions of epigenetics », Nature, 2007, 447 (7143), p. 396-
398.
Briggs R., King T. J., « Transplantation of living nuclei from blastula cells
into enucleated frog’s eggs », Proc. Natl. Acad. Sci. USA, 1952, 38 (5),
p. 455-463.
Darwin C., L’Origine des espèces au moyen de la sélection naturelle ou la
lutte pour l’existence dans la nature (1859), Paris, Reinwald et cie,
1873.
Debré P., Jacques Monod, Paris, Flammarion, 1996.
Épigénétique de l’abeille (acces.ens-lyon.fr>epigenetique-de-labeille).
Giacobino A., Peut-on se libérer de ses gènes ? L’épigénétique, Paris,
Stock, 2018.
Heard E., Épigénétique et mémoire cellulaire, Paris, Fayard et Collège de
France, « Leçons inaugurales », 2013.
Holliday R., Pugh J. E., « DNA modification mechanisms and gene activity
during development », Science, 1975, 187 (4173), p. 226-232.
Holliday R., « Epigenetics : An overview », Developmental Genetics, 1994,
15, p. 453-457.
Jacob F., Monod J., « Genetic regulatory mechanisms in the synthesis of
proteins », J. Mol. Biol., 1961, 3 (3), p. 318-356.
Le Hir P., « Ces mâles qui deviennent femelles et inversement », Le Monde,
5 novembre 2008.
Lyon M. F., « X-chromosome inactivation : A repeat hypothesis »,
Cytogenet. Cell Genet., 1998, 80 (1-4), p. 133-137.
Mauguit Q., « Quand une abeille change de rôle dans la ruche, son ADN
s’adapte », Furura Sciences, 2012 (https://www.futura-
sciences.com>planete).
McClintock B., « Chromosome organization and genie expression », Cold
Spring Harbor Symposium on Quantitative Biology, 1951, 16, p. 13-47.
McGrath J., Solter D., « Completion of mouse embryogenesis requires both
the maternal and paternal genomes », Cell, 1984, 37 (1), p. 178-183.
Morgan T. H., Embryology and Genetics, New York, Columbia University
Press, 1964.
Perrier J.-J., « Comment l’abeille devient reine », Pour la science, 2010
(https://www.pourlascience>genetique).
Riggs A. D., « X inactivation, differentiation, and DNA methylation »,
Cytogenet. Cell Genet., 1975, 14 (1), p. 9-25.
Rosnay. J. de, La Symphonie du vivant. Comment l’épigénétique va changer
votre vie, Paris, Les Liens qui Libèrent, 2018.
Strahl B. D., Allis C. D., « The language of covalent histone
modifications », Nature, 2000, 403 (6765), p. 41-45.
« Transsexualité chez les poissons clowns », Sciences et Avenir, 2003
(https://www.sciencesetavenir.fr/nature-environnement/transsexualite-
chez-les-poissons-clowns_4860).
Turner B. M., « Cellular memory and the histone code », Cell, 2002, 111
(3), p. 285-291.
Waddington C. H., The Strategy of the Genes. A discussion of Some Aspects
of Theoretical Biology, Londres, Allen and Unwin, 1957.
Chapitre 6. Ces microbes qui nous font
vivre
Amar J., Serino M., Lange C. et al., « Involvment of tissus bacteria in the
onset of diabetes in humans : Evidence for a concept », Diabetologia,
2011, 54 (12), p. 3055-3061.
Angelakis E., Armougom F., Million M., Raoult D., « The relationship
between gut microbiota and weight gain in humans », Future
Microbiol., 2012, 7, p. 91-109.
Bach J.-F., « The effect of infections on susceptibility of autoimmune and
allergic diseases », N. Engl. J. Med., 2002, 347 (12), p. 911-920.
Borre Y. E., O’Keeffe G. W., Clarke G., Stanton C., Dinan T. G., Cryan
J. F., « Microbiota and neurodevelopmental windows : Implications for
brain disorders cell », Trends Mol. Med., 2014, 20 (9), p. 509-518.
Butel M.-J., « Le microbiote intestinal du prématuré : ses caractéristiques,
sa mise en place, ses facteurs d’influence », séminaire GEN-
IF/Guigoz 2014 : Gastro-entérologie néonatale, Deauville, 17-
18 novembre 2014.
Cerf-Bensussan N., Caboriau-Routhiau V., « The immune système and the
gut microbiota : Friends or foes ? », Nat. Rev. Immunol., 2010, 10 (10),
p. 735-744.
Chow J., Lee S. M., Shen Y., Khoshavi A., Mazmaniam S. K., « Host-
bacterial symbiosis in health and disease », Adv. Immunol., 2010, 107,
p. 243-274.
Chun Kong L., Wuillemin P. H., Bastard J. H., Sokolovska N., Gougis S.,
Fellahi S. et al., « Insulin resistance and inflammation predict kinetic
body weight changes in response to dietary weight loss and
maintenance in overweight and obese subjects by using a bayesian
network approach », Am. J. Clin. Nutr., 2013, 98, p. 1385-1394.
Collins D. M., Surette M., Bercik P., « The interplay between the intestinal
microbiota and the brain », Nature Reviews Microbiology, 2012, 10
(11), p. 735-742.
Cotillard A., Kennedy S. P., Chun Kong L., Prifti E., Pons N., Le Chatellier
E. et al., « Dietary intervention impact on gut microbial gene richness »,
Nature, 2013, 500 (7464), p. 585-588.
Dapito D. H., Mencin A., Gwak G. Y., Pradere J. P., Jang M. K., Mederacke
I. et al., « Promotion of hepatocellular carcinoma by the intestinal
microbiota and TLR4 », Cancer Cell, 2012, 21, p. 504-516.
Debré P., L’Homme microbiotique, Paris, Odile Jacob, 2015.
Delzenne N. M., Cani P. D., « Implication de la flore intestinale dans le
métabolisme énergétique », Méd. Sci., 2008, 24 (5), p. 505-510.
Derrien M., Van Hylckama J., « Fate, activity, and impact of ingested
bacteria within the human gut microbiota », Trends in Microbiology,
2015, 23 (6), p. 354-366.
Dethlefsen L., Huse S., Sogin M. L., Relman D. A., « The pervasive effects
of an antibiotic on the human gut microbiota, as revealed by deep 16S
rRNA sequencing », PLoS Biol., 2008, 6 (11), e280.
Devaraj S., Hemarajata P., Versalovic J., « The human gut microbiome and
body metabolism : Implications for obesity and diabetes », Clin. Chem.,
2013, 59 (4), p. 617-628.
Downes J. L., Hooper S. J., Wilson M. J., Wade W. G., « Prevotella
histicola sp. nov., isolated from the human oral cavity », Int. J. Syst.
Evol. Microbiol., 2008, 58 (pt 8), p. 1788-1791.
Eiseman B., Silen W., Bascom G. S. et al., « Fecal enema as an adjunct in
the treatment of pseudomembranous enterocolitis », Surgery, 1958, 44
(5), p. 854-859.
El Kaoutari A., Armougom F., Raoult D., Henrissat B., « Le microbiote
intestinal et la digestion des polysaccharides », Méd. Sci., 2014, 30 (3),
p. 259-265.
Faivre J., Brechot C., Moniaux N., « Communication foie/tube digestif.
Rôle du microbiote dans la carcinogenèse hépatique », Méd. Sci., 2013,
29 (11), p. 954-956.
Goodrich J. K., Waters J. L., Poole A. C. et al., « Human genetic shape the
gut microbiome », Cell, 2014, 159 (4), p. 789-799.
Hemarajata P., Versalovic J., « Effects of probiotics on gut microbiota :
Mechanisms of intestinal immunomodulation and neuromodulation »,
Therap. Adv. Gastroenterol., 2013, 6 (1), p. 139-151.
Helicobacter pylori (https://fr.wikipedia.org/wiki/Helicobacter_pylori).
Bach J.-F., « Hygiène et affections dysimmunitaires : quel lien ? », Institut
Danone, sd (http://institutdanone.org/objectif-nutrition/hygiene-et-
affections-dysimmunitaires-quel-lien/dossier-hygiene-et-affections-
dysimmunitaires-quel-lien/).
Ivanov I. I., Atarashi K., Manel N. et al., « Induction of intestinal Th17
cells by segmented filamentous bacteria », Cell, 2009, 139 (3), p. 485-
498.
Karlsson F. H., Tremaroli V., Nookaew I., Bergstrom G., Behre C. J.,
Fagerberg B. et al., « Gut metagenome in European women with
normal, impaired and diabetic glucose control », Nature, 2013, 498
(7452), p. 99-103.
Kuitunem M. et al., « Probiotics prevent IgE-associated allergy until age 5
years in cesarean-delivered children but not in the total cohort »,
J. Allergy Clin. Immunol., 2009, 123 (2), p. 335-341.
Lagier J.-C., Million M., Hugon P., Armougon F., Raoult D., « Human gut
microbiota : Repertoire and variations », Frontiers in Cellular and
Infection Microbiology, 2012, 2, p. 136.
Landry Y., Gies J.-P., Pharmacologie des cibles vers l’indication
thérapeutique, Paris, Dunod, 2009 (2e édition).
Le Chatellier E., Nielsen T., Qin J., Prifti E., Hildebrand F., Falony G. et
al., « Richness of human gut microbiome correlates with metabolic
markers », Nature, 2013, 500 (7464), p. 541-546.
Noverr M. C., Huffnagle G. B., « The microflora hypothesis of allergic
diseases », Clin. Exp. Allergy, 2005, 35 (12), p. 1511-1520.
Noverr M. C., Falkowski C., McDonald N. R., McKenzie R. A., Huffnagle
G. B., « Developpement of allergic airway disease in mice following
antibiotic therapy and fungal microbiota increase : Role of host
genetics, antigen, and interleukin-13 », Infect. Immunol., 2005, 73 (1),
p. 30-38.
Ochman H., Worobey M., Kuo C.-H., Ndjango J.-B. N., Peeters M., Hahn
B. H., Hugenholtz P., « Evolutionary relationships of wild hominids
recapitulated by gut microbial communities », PLoS Biology, 2010, 8
(11), e1000546.
O’Toole P. W., Cooney J. C., « Probiotic bacteria influence the composition
and function of the intestinal microbiota », Interdisciplinary
Perspectives on Infectious Diseases, 2008, article ID 175285
(https://www.hindawi.com/journals/ipid/2008/175285/).
Qin J., Li R., Raes J., Arumugam M., Burgdorf K. S., Manichanh C. et al.,
« A human gut microbial gene catalogue established by metagenomic
sequencing », Nature, 2010, 464 (7285), p. 59-65.
Qin J., Li Y., Cai Z., Li S., Zhu J., Zhang F. et al., « A metagenome-wide
association study of gut microbiota in type 2 diabetes », Nature, 2012,
490 (7418), p. 55-60.
Round J. L., Mazmanian S. K., « Inducible Foxp3+ regulatory T-cell
development by a commensal bacterium of the intestinal microbiota »,
Proc. Natl. Acad. Sci. USA, 2010, 107 (27), p. 12204-12209.
Schnabl B., Brenner D. A., « Interactions between the intestinal
microbiome and liver diseases », Gastroenterology, 2014, 146, p. 1513-
1524.
Sjogren Y. M., Jenmaïm M. C., Bottcher M. F., Bbjorksten B., Sverremark-
Ekstrom E., « Altered early infant gut microbiota in children developing
allergy up to 5 years of age », Clin. Exp. Allergy, 2009, 39, p. 518-526.
Strachan D. P., « Hay fever, hygiene, and household size », British Medical
Journal, 1989, 299 (6710), p. 1259-1260.
Talham G. L., Jiang H. Q., Bos N. A., Cebra J. J., « Segmented filamentous
bacteria are potent stimuli of a physiologically normal state of the
murine gut mucosal immune system », Infect. Immun., 1999, 67,
p. 1992-2000.
The Human Microbiome Project Consortium, « Structure, function and
diversity of the healthy human microbiome », Nature, 2012, 486 (7402),
p. 207-214.
The Human Microbiome Project Consortium, « A framework for human
microbiome research », Nature, 2012, 486 (7402), p. 215-221.
Tremaroli V., Backhed F., « Functional interactions between the gut
microbiota and host metabolism », Nature, 2012, 489 (7415), p. 242-
249.

Chapitre 7. Deus ex machina


Allison B., McFarland D., Shalk G., Zheng S., Jackson M., Wolpaw J.,
« Towards an independent brain-computer interface using steady state
visual evoked potentials », Clinical Neuropathology, 2007, 119, p. 399-
408.
Bashabati A., Fatourechi M., Ward R. K., Birch G. E., « A survey of signals
processing algorithms in brain-computer interfaces based on electrical
brain signals », Journal of Neural Engineering, 2007, 4, p. 35-57.
Clerc M., Bougrain L., Lotte F., Les Interfaces cerveau-ordinateur 1.
Fondements et méthodes, Londres, ISTE Editions, 2016.
Clerc M., Bougrain L., Lotte F., Les Interfaces cerveau-ordinateur 2.
Technologies et applications, Londres, ISTE Editions, 2016.
Damasio A., L’Erreur de Descartes. La raison des émotions, Paris, Odile
Jacob, 2010.
Darwin C., L’Expression des émotions chez l’homme et les animaux (1872),
Paris, Rivages Poche, 2001.
Laland K., « La culture, moteur de l’évolution humaine », Pour la Science,
novembre 2018, 493, p. 28-29.
Lebedev M., Nicolelis M., « Brain-machine interfaces : Past, present and
future », Trends Neurosci., 2006, 29 (9), p. 536-546.
Minsky M., The Emotion Machine : Commonsense Thinking, Artificial
Intelligence, and the Future of the Human Mind, New York, Simon and
Schuster, 2006.
Ramon Alonso J., Les Émotions. Les bases neurologiques de nos affects,
« Les défis de la science », RBA 2018.
Vaadia E., Birbaumer N., « Grand challenges of brain-computer interfaces
in years to come », Frontiers in Neuroscience, 2009, 3 (2), p. 151-154.
Vidal J.-J., « Towards direct brain computer communication », Annual
Review of Biophysics and Bioengineering, 1973, 2, p. 157-180.
Zander T. O., Kothe C., « Towards passive brain-computer interfaces :
Applying brain-computer interface technology to human-machine
systems in general », Journal of Neural Engineering, 2011, 8 (2),
025005.

Chapitre 8. L’intelligentiel partenaire


Alexandre L., La Mort de la mort, Paris, JC Lattès, 2011.
Alexandre L., La Guerre des intelligences. Intelligence artificielle versus
intelligence humaine, Paris, JC Lattès, 2017.
Asimov I., « The last question », Science Fiction Quarterly, 1956, 4 (5).
Béland P.-P., Legault G., Asimov et l’acceptabilité du vivant, Québec,
Presse de l’Université de Laval, « Enjeux éthiques contemporains »,
2012.
Ce qui distingue Sapiens des autres animaux, Pour la science, 493, 2018.
Devillers L., Des robots et des hommes, Paris, Plon, 2017.
Descartes R., Méditations métaphysiques, 1641.
Ganascia J.-G., Le Mythe de la singularité, Paris, Seuil, 2017.
Good I. J., « Speculations concerning the first ultraintelligent machine »,
Advances in Computers, 1966, 6, p. 31-88.
Hawking S., Penrose R., « The singularities of gravitational collapse and
cosmology », Proceedings of the Royal Society, 1970, 314 (1529),
p. 529-548.
Larousserie D., « Faut-il avoir peur de l’intelligence artificielle ? », Le
Monde, 2 juillet 2016, « Supplément Idées ».
« La révolution de l’intelligence », Papiers, La revue de France Culture, 26,
2018.
Ricœur P., Soi-même comme un autre, Paris, Seuil, 1990.
Spinoza B., Éthique, Livre III, 1677.
Turing A., « Computing machinery and intelligence », Mind, 1950, LIX
(236), p. 433-460.
Villani C., Donner un sens à l’intelligence artificielle. Pour une stratégie
nationale et européenne, Rapport de la mission confiée par le Premier
ministre, 2018
(https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_a
ccessible.pdf).
Vinge V., « The coming singularity », in G. A. Landis (dir.), Vision-21 :
Interdisciplinarity Science and Engineering in the Era of Cyberspace,
NASA Publication CP-10139, 1993, p. 115-126 (disponible sur www-
rohan.sdsu.edu/faculty/vinge/misc/singularity.html).
Warwick K., I, Cyborg, Chicago, University of Illinois Press, 2004.
Warwick K., March of the Machines. The Breakthrough in Artificial
Intelligence, Chicago, University of Illinois Press, 2004.

Chapitre 9. La biologie va plus vite


que l’homme
Comité consultatif national d’éthique pour les sciences de la vie et de la
santé (CCNE), « Allocution présentée par M. François Mitterrand,
président de la République française, à l’occasion de la mise en place du
comité consultatif national d’éthique pour les sciences de la vie et de la
santé, décembre 1983 », Rapport 1984, Paris, La Documentation
française, 1985.
Comité consultatif national d’éthique pour les sciences de la vie et de la
santé (CCNE), Bioversité et santé : nouvelle relation de l’humanité avec
le vivant ?, 2017 (https://www.ccne-
ethique.fr/sites/default/files/publications/rapport_125_ethique_et_biodi
versite_rapport_vf.pdf).
Comité consultatif national d’éthique pour les sciences de la vie et de la
santé (CCNE), Numérique et santé, quels enjeux éthiques, pour quelles
régulations ?, 2018 (https://www.ccne-
ethique.fr/fr/publications/numerique-sante-quels-enjeux-ethiques-pour-
quelles-regulations).
Comité consultatif national d’éthique pour les sciences de la vie et de la
santé (CCNE), Rapport de synthèse du Comité consultatif national
d’éthique. Opinions du comité citoyen, Courtabœuf, EDP Sciences,
2018 (https://www.ccne-
ethique.fr/sites/default/files/eg_ethique_rapportbd.pdf).
Dickson D., « Human experiment roils French medicine », Science, 1988,
239 (4846), p. 1370.
Fagot-Largeault A., « Les pratiques réglementaires de la recherche clinique.
Bilan de la loi sur la protection des personnes qui se prêtent à des
rechreches biomédicales », Méd. Sci., 2000, 11 (16), p. 1198-2002.
Fagot-Largeault A., « La Déclaration d’Helsinki révisée », in Droit à la
connaissance, respect des personnes et recherche clinique, Paris,
Flammarion, 2001, p. 15-22.
Grodin M. A., « Historical origins of the Nuremberg Code », in G. J. Annas,
M. A. Grodin (dir.), The Nazi Doctors and the Nuremberg Code, New
York-Oxford, Oxford University Press, 1992, p. 121-124.
Jaillon P., Demarez J.-P., « L’histoire de la genèse de la loi Huriet-Sérusclat
de décembre 1988 », Méd. Sci., 2008, 24 (3), p. 323-327.
Lemaire F., « La recherche avec bénéfice individuel direct existe-t-elle ? »,
Méd. Sci., 2004, 20 (2), p. 244-247.
Lemaire F., « The Nuremberg doctors’ trial : the 60th anniversary »,
Intensive Care Med., 2006, 32 (12), p. 2049-2052.
Lemaire F., « Les 60 ans du procès des médecins de Nuremberg. Pouquoi le
Code n’a-t-il pas été appliqué avant plusieurs décennies ? », Méd. Sci.,
2007, 11 (23), p. 1063-1067.
Les États généraux de la bioéthique 2018, rapport de synthèse Comité
consultatif national d’éthique et opinion du comité citoyen, 2018.
Milhaud A., Testaments de vie, Paris, Bernard Barraud, 1988.
Ministère de la Recherche et de la Technologie, Recherche et technologie.
Actes du colloque national 13-16 janvier 1982, Paris, Seuil, 1982.
Richard A., Veyret S., Cobayes humains : les secrets de l’expérimentation
médicale, Paris, La Découverte, 1988.
Schmidt U., Justice at Nuremberg : Leo Alexander and the Nazi Doctors’
Trial, Londres, Palgrave-Macmillan, 2004.
Sicard D., L’Éthique médicale et la bioéthique, Paris, PUF, « Que sais-
je ? », 2009.
Sprumont D., La Protection des sujets de recherche, notamment dans le
domaine biomédical, Berne, Stämpfli Verlag, 1993.
Taylor T., « Opening statement of the prosecution, december 9, 1946 », in
G. J. Annas, M. A. Grodin (dir.), The Nazi Doctors and the Nuremberg
Code, op. cit., p. 67-93.
The National Commission for the Protection of Human Subjects of
Biomedical and Behavioral Research, The Belmont Report. Ethical
Principles and Guidelines for the Protection of Human Subjects of
Research, 1979
(https://globalhealthtrainingcentre.tghn.org/site_media/media/medialibr
ary/2011/04/Belmont_Report_1979.pdf).
Villani C., Donner un sens à l’intelligence artificielle, op. cit.
Weindling P., « Human Guinea pigs and the ethics of experimentation : The
BMJ’s correspondent at the Nuremberg medical trial », British Medical
Journal, 1996, 313 (7070), p. 1467-1470.
Remerciements

Je souhaiterais remercier Gérard Lambert pour son concours et


échanges, Marie-Hélène Mouneyrat et Jean-François Delfraissy, pour nos
riches discussions au Comité consultatif national d’éthique, Antoinette
Molinié pour ses conseils sur le rituel sud-américain et Virginie Brûlé pour
sa remarquable et fidèle assistance de secrétariat. Je tiens à remercier
également Gaëlle Jullien pour sa relecture attentive du manuscrit et Odile
Jacob pour ses conseils enthousiastes et son appui.
DU MÊME AUTEUR

Chez Odile Jacob


Robert Debré. Une vocation française, 2018.
L’Homme microbiotique, 2015.
Vie et mort des épidémies, avec Jean-Paul Gonzalez, 2013.

Chez d’autres éditeurs


Les Ateliers d’Olivier Debré, La Guêpine, 2018.
Le Sida à l’ère des multithérapies, avec Jacques Thèze, Elsevier, « Annales
de l’Institut Pasteur », 2000.
Le Roman de la vie, Flammarion, 1999.
La Maîtrise du vivant, Flammarion, « Dominos », 1998.
Les Traitements du sida, Flammarion, « Dominos », 1998.
Jacques Monod, Flammarion, 1996 (prix de la Biographie de l’Académie
française, 1997).
Louis Pasteur, Flammarion, 1993.
Pour en savoir plus

Inscrivez-vous à notre newsletter !

Vous serez ainsi régulièrement informé(e) de nos nouvelles


parutions et de nos actualités :

https://www.odilejacob.fr/newsletter
Index

acide nucléique 117

ADN-ARN 53-55, 70, 84, 87-88, 91, 94-96, 98-100, 102, 106, 110, 114-115,
117-118, 120-122, 125-126, 128, 130-135, 139-140, 147-148, 152, 154, 194,
196, 232
antibiotique 96, 139, 144, 148-149, 151, 153, 155, 161, 163, 166-167, 170-173,
247, 262

anticorps 44-45, 53, 64, 72, 74-78, 80-82, 103, 115, 159, 171

antigène 43-48, 50, 53, 74-76, 78, 80-81, 93, 166


bactéries 80, 89, 94, 100, 105, 112, 119, 136, 144-162, 164, 166-173, 195

bifide 155
biodiversité 13, 136, 141, 147-148, 252, 262

biotique 202

bourse de Fabricius 76-77


cancer 48, 71, 80-82, 93, 97, 101, 105, 110, 133, 135, 141, 161-162, 173, 228
chromatine 128-131, 133

chromosome 44, 87-88, 93, 97, 100, 113-115, 117, 120, 122, 127, 130-131
clone 45, 47, 75

commensalisme 159
cytotoxicité 44, 72, 81

enzyme 64, 69, 87, 89-90, 92, 94-95, 97, 99-101, 111-112, 115, 117, 119, 133,
147, 156-157, 168, 170, 196

épigénétique 13, 111, 113-114, 118, 120, 122-127, 129, 131-135, 137, 139-141,
256
éthique 14, 19, 34, 52, 67-69, 84-85, 89-91, 93, 104, 106, 180, 218, 229-230,
240, 242, 246, 248-250, 252, 254-257, 261, 264-265, 268

évolution 14, 29, 39, 78, 100, 106, 111-112, 118, 123, 125, 130, 135-136, 139-
141, 148-149, 152, 162, 183, 213, 231, 233, 246-248, 252, 257, 259, 261,
263
firmicute 154-155, 160-161, 168

flore 152-153, 158, 160, 163, 167-169, 171-173

foie 34, 40, 55-56, 58, 71, 131, 162


génome 53-55, 68-69, 86-89, 92, 94-98, 100, 103, 105-106, 118, 120-123, 126,
128, 130-131, 134, 136-137, 145, 148, 172, 229, 253, 262

germes 74, 96, 121, 145-146, 150-151, 154, 158-159, 161, 166-167, 173
HLA 44-48, 50, 84, 124

humus 63
hygiène 92, 139, 148, 155, 164-165, 167, 262-263
immunité adaptative 47
immunité innée 47-48
intelligence artificielle 13, 19, 31, 187, 205, 211-214, 216-217, 220-234, 236, 264

lymphocytes 44, 46-47, 49-50, 64, 72, 76-78, 80, 85, 93, 129, 143, 158-159
métagénomique 154

microbiome 170
milieu de culture 157
molécule 44-45, 47-48, 50, 56, 63, 69, 72, 74, 78, 81-82, 85, 87, 93, 113-115,
117, 120, 128, 130, 134, 136, 148, 152, 155, 157, 159, 183, 194-197, 204,
246
mutation 70, 85, 88, 94, 101, 103, 121-123, 148-149, 161, 167, 204, 217, 229,
268
mutualisme 146, 149

obésité 160-161, 172-173


organoïde 56-57, 69-70
parasite 149-150, 185

phagocytose 81
prébiotique 171, 173

probiotique 169-171, 173


protéine 29, 56, 87, 93-94, 96-97, 99, 115, 128, 130, 134, 156-157, 195-196,
200, 204, 229
reine rouge 263

robot 179-180, 186, 190, 207-208, 220, 226, 231-232, 235-236, 256
sucre 55, 112-113, 115, 117, 126, 140, 148, 155-156, 168, 171, 191
symbiose 13, 145, 148-149, 151-152, 158, 161, 172-173
thérapie génique 13, 69-70, 73, 84, 88-97, 99, 101-102, 104, 106, 116, 141, 171,
194, 196, 201, 204, 261
thymus 47, 49, 76-77

tolérance 46-50, 158-159, 164, 166-167


transhumanisme 12, 17, 31, 61, 233, 235, 264
transplantation 13, 26, 33-43, 48-55, 57-59, 78, 82, 115, 141, 163, 166, 172-173,
187, 204, 242, 261
virus 29, 54, 79-80, 84-86, 89-90, 92, 95-98, 100, 115, 136, 145, 149, 171, 196
vitamine 156-157
TABLE

Introduction

Première partie - L’homme modifié par l’homme

Chapitre 1 - Rites cannibales et mythes d’aujourd’hui


Le banquet aztèque

La métamorphose cannibale

Kuru

Mythes d’aujourd’hui
Chapitre 2 - L’un pour l’autre

Tous cannibales

De la chimère mythique à la chimère biologique

(Re)définir la mort

Le soi et le non-soi
Se tolérer

Accueillir l’autre

Le cochon est-il l’avenir de l’homme ?

Organogenèse

Greffes cellulaires

Les transplanteurs ont-ils perdu la tête ?


Chapitre 3 - Cultiver ses cellules

Des cellules souches pour reconstituer un organe

De la régénération à l’adoption

L’immunité, une seconde mémoire

Des anticorps pour guérir


Chapitre 4 - Éditer le livre de la vie

Traiter nos gènes

De la connaissance à l’exploitation du génome

Des technologies en recours

Des vecteurs pour transporter les gènes

De la thérapie à l’édition

CRISPR-Cas9
Des méthodes à l’épreuve

Jusqu’où, la thérapie génique ?

Deuxième partie - L’homme modifié par l’environnement

Chapitre 5 - Peindre ses gènes

L’hérédité manquante : de la génétique à l’épigénétique

L’écologie rejoint la génétique

La leçon des abeilles


Clés et serrure
Un code non codant

Le mal du dehors

Quand l’épigénétique se confond avec le paysage

Chapitre 6 - Ces microbes qui nous font vivre


Qu’y a-t-il d’humain dans l’homme ?

De la symbiose aux bactéries symbiotiques


Des microbiotes aux multiples fonctions

Ce microbiote qui nous rend malades


D’un cerveau à l’autre
Le microbiote et l’hygiène
Modifier le microbiote, changer l’homme

Probiotiques et autres

Troisième partie - L’homme modifié par la machine


Chapitre 7 - Deus ex machina
Le taureau contrarié de Cordoue

Le cerveau parle, personne n’écoute


L’interface cerveau machine

Une algue verte chez les neurones


Mémoriser des faux souvenirs

Ces madeleines de mémoire qu’on apprend à détester

L’œil biotique
Listen to your eyes

La réalité et son double


Chapitre 8 - L’intelligentiel partenaire

De l’intelligence naturelle à l’intelligence artificielle

La vitesse grand V

Apprendre
L’IA en kit
L’intelligence faible contre l’intelligence forte

Quatrième partie - L’éthique et la condition humaine

Chapitre 9 - La biologie va plus vite que l’homme


Expérimenter sur l’homme
Narguer Nuremberg

La science va plus vite que l’homme

Conclusions - Des pouvoirs aux devoirs

Épilogue - Les dieux n’ont pas besoin de tatouage


Bibliographie

Chapitre 1. Rites cannibales et mythes d’aujourd’hui


Chapitre 2. L’un pour l’autre

Chapitre 3. Cultiver ses cellules


Chapitre 4. Éditer le livre de la vie

Chapitre 5. Peindre ses gènes

Chapitre 6. Ces microbes qui nous font vivre


Chapitre 7. Deus ex machina

Chapitre 8. L’intelligentiel partenaire

Chapitre 9. La biologie va plus vite que l’homme

Remerciements

Du même auteur

Index

Vous aimerez peut-être aussi