Vous êtes sur la page 1sur 16

THÈME DE L’EXPOSÉ 1 : le transhumanisme : progrès, danger ou utopie ?

Pour un transhumanisme humaniste


D’ici cinq à dix ans, nous ne pourrons probablement plus nier la domination, au moins partielle,
des machines dans notre économie. Mais si l’intelligence artificielle progresse à grand pas au
sein des machines, en quoi, précisément, peut-elle aider l’homme à être plus intelligent ou encore
à se sentir mieux ?
Dans son dernier ouvrage paru chez Plon, La Révolution tranhumaniste, le philosophe Luc Ferry
entend nous montrer « comment la technologie et l’ubérisation du monde vont bouleverser nos vies ».
On croit comprendre qu’il s’agirait d’une fatalité d’avenir, vis-à-vis de laquelle il nous serait difficile,
voire impossible, de résister. Il est vrai que sous l’effet d’Internet, des progrès de l’informatique et de
la robotisation, les machines se font aujourd’hui beaucoup plus efficaces que les êtres humains dans
un nombre croissant de secteurs. L’intelligence artificielle a même furieusement tendance à s’emballer
à gogo, avant même que nous en ayons encore pensé toutes les conséquences.
Regardons les choses en face. D’ici cinq à dix ans, nous ne pourrons probablement plus nier la
domination, au moins partielle, des machines dans notre économie - les premières victimes de ce
mouvement d’ampleur seront d’ailleurs probablement les salariés les moins qualifiés. La précarité
semble s’installer. Selon le cabinet Roland Berger, avec 20% de tâches automatisées d’ici à 2025, les
robots et autres logiciels pourraient renvoyer chez eux 3 millions de salariés en France, provoquant du
même coup un taux de… 18% de chômage. Il est donc, en effet, probable que la technologie et
l’ubérisation du monde changent nos vies.
Mais pourquoi ne pas dire aussi que de nouveaux modèles économiques et sociaux sont d’ores et déjà
possibles, et que l’Etat n’est pas totalement impuissant devant cette précarisation de l’économie -
pourvu qu’il ait le courage des réformes et, surtout, une vision stable et pertinente du marché de
l’emploi. Quant à l’avènement annoncé de la toute-puissante technomédecine, avec son lot de logiciels
de mesures sanitaires, puces électroniques sous-cutanées, pompes à insuline internes, prothèses
robotiques et autres robots chirurgicaux, après tout, pourquoi pas. L’homme réparé par la technologie
est d’ores et déjà une réalité. Ce transhumanisme-là n’est pas un problème en soi, car il pourrait devenir
une source ingénieuse de progrès, notamment pour les personnes handicapées - du moins pour celles,
et ce n’est pas rien, qui en auront les moyens.
Prendre sa santé en main
Le doute advient plutôt lorsque les transhumanistes prétendent, à coup sûr, augmenter l’homme. A
l’horizon 2045, le milliardaire russe Dimitry Itskov entend ainsi créer un hologramme, censé être une
copie parfaite de son être humain d’origine. C’est ainsi que, peu à peu, le discours transhumaniste se
radicalise. A tel point que Kevin Waerwick, professeur de cybernétique à l’université de Reading
(Grande Bretagne), estime, sans sourire, que « Ceux qui décideront de rester humains et refuseront de
s’améliorer auront un sérieux handicap. Ils constitueront une sous-espèce et formeront les chimpanzés
du futur ». Pas moins.
Ce transhumanisme-là - tel qu’il est notamment exercé aujourd’hui par Google - entend même « tuer
la mort » avec sa société Calico. Le géant américain a déjà investi des centaines de millions de dollars
dans les technologies assistées : la technomédecine ou l’ingénierie génétique pour tenter de rallonger
l’espérance de vie. Seulement le mouvement transhumaniste fait, bien souvent, l’impasse sur
l’essentiel : l’homme doit avant tout prendre sa santé en main - éventuellement assisté d’un médecin
- et agir de manière saine s’il veut vivre plus longtemps. En d’autres termes, les comportements
physiques, psychiques et alimentaires impactent davantage la santé que n’importe quelle puce sous-
cutanée censément intelligente. Une puce sous la peau, est-on si sûr, d’ailleurs, que cela soit
biocompatible ?
Dès lors, pourquoi parier sur une technomédecine qui, dans bien des cas, sauvera moins de vies que
l’adoption de comportements alimentaires et physiques sains pour l’organisme ? Ne pas boire d’alcool,
ou du moins en boire avec modération ; faire régulièrement de l’exercice physique, quel que soit son
âge ; manger équilibré; cultiver une sociabilité heureuse ; respirer profondément; se détendre ; prendre
soin de soi et de son corps sont autant de comportements qui retardent le vieillissement. Tout comme
écouter, régulièrement, de la bonne musique - celle qu’on aime - afin de sentir en soi se déployer des
émotions solaires : la musique véhicule essentiellement, en nous, des émotions positives. Pourquoi ne
pas décider de prendre notre santé en main pour tenter d’assurer la prévention de maladies graves ou
bénignes et tenter de limiter ainsi les désagréments et autres altérations de nos corps, plutôt que
d’attendre des technologies qu’elles nous réparent ou nous augmentent ?
Sagesse
Cela suppose, encore une fois, que l’état de notre santé, comme celui de notre longévité, soit avant
tout notre affaire. Joël de Rosnay scientifique, prospectiviste et surfeur âgé de 78 ans, souligne à ce
sujet que: « L’épigénétique est la modulation de l’expression de nos gènes en fonction de cinq
comportements, connectés constamment dans nos vies de tous les jours : la nutrition, l’exercice
sportif, la résistance au stress, le réseau social, amical ou familial, et le plaisir ». Il est sans doute
préférable de viser de tels objectifs plutôt que d’avaler moult pilules « anti-vieillissement » et de
vouloir introduire des machines, si minuscules soient-elles, en nous, afin qu’elles nous préservent de
la maladie ou de la mort. Car si l’intelligence artificielle progresse à grand pas au sein des machines,
en quoi, précisément, peut-elle aider l’homme à être plus intelligent ou encore à se sentir mieux ? Un
logiciel peut-il vraiment devenir plus intelligent que la nature ? On peut en douter. Alors pourquoi,
par exemple, ne pas investir davantage dans la recherche botanique pour tenter de comprendre les
propriétés génératrices et réparatrices des plantes pour l’homme, plutôt que de miser sur l’intelligence
supposée d’un logiciel ?
Pour les transhumanistes, la technologie est souvent seule capable de réparer et d’augmenter l’homme,
faisant ainsi l’impasse sur la spiritualité, la psychologie, la nutrition, la qualité du travail,
l’épanouissement personnel ou les défis personnels. Le transhumanisme est aussi frontalement engagé
dans une médecine à deux vitesses : le confort et la longévité pour les plus riches… Et la maladie et
la mort pour les pauvres ?
Ne serait-il pas plus intelligent de cultiver au mieux sa propre diététique vitale pour prévenir les
maladies et augmenter son potentiel plutôt que de compter sur des logiciels ? Cette diététique vitale
devra, bien évidemment, varier selon les moyens, les prédispositions génétiques et l’histoire
personnelle de chacun. Mais ne vaut-il pas mieux se dépasser soi-même plutôt que de vouloir dépasser
l’autre à tout prix ? Ne vaut-il pas mieux gagner en sagesse, force et sérénité, plutôt que d’investir
dans une technologie de plus en plus onéreuse pour vivre censément plus longtemps ? La réponse est
dans la question, non ?
Par Benoît Helme, Libération, 17 juin 2016

Les vertiges du transhumanisme


Longtemps, la communauté scientifique a jugé les thèses transhumanistes peu crédibles.
L’accélération du progrès technologique conduit certains chercheurs à s’inquiéter : n’avons-
nous pas ouvert la boîte de Pandore ?
S’il fallait résumer la philosophie transhumaniste d’une idée, la plus extrême mais aussi la plus saisissante,
ce serait celle-ci : un jour, l’homme ne sera plus un mammifère. Il se libérera de son corps, ne fera plus
qu’un avec l’ordinateur et, grâce à l’intelligence artificielle, accédera à l’immortalité.
Science-fiction ? Pas si simple. Dans la Silicon Valley, l’idée de l’« homme augmenté » n’effraie personne.
Pas plus que celle de longévité indéfinie. Cette enclave en dehors des contraintes temporelles a quitté depuis
longtemps le XXe siècle, ses conventions de langage et de pensée. Ce qui paraît tabou ailleurs lui semble
empreint d’un principe de précaution dépassé par les progrès exponentiels de la science. Elle invente des
mots, comme « disruption », la faculté de perturber l’ordre établi, et peu se soucient que les mutations
promettent de mettre sur la paille des industries entières. Sûre de sa « révolution », elle vit dans sa bulle –
ou son nuage – numérique. « L’idéologie de la Silicon Valley, c’est celle de la toute-puissance », résume
un investisseur étranger. Les seigneurs californiens « veulent être les maîtres du monde ». Mais il ne faut
pas en déduire, ajoute-t-il, que « c’est forcément mauvais pour l’humanité ».
La Californie, bastion de la contre-culture des années 1960 et des débuts de l’informatique, baigne dans la
conviction que l’homme va améliorer la machine autant que la machine va améliorer l’homme. Les critiques
parlent de « solutionnisme numérique » ou de « techno-libertarianisme » : la certitude que la résolution des
grands problèmes de l’humanité passe par l’avancée de l’intelligence artificielle, combinée à une
philosophie politique hostile aux réglementations dictées par les gouvernements. Les nouveaux maîtres du
monde estiment, eux, qu’ils incarnent le progrès. […]
LE MONDE | CULTURE ET IDEES | 12.02.2015
THÈME DE L’EXPOSÉ 2 : Les robots peuvent-ils (et doivent-ils) remplacer les
chirurgiens ?
Chirurgie : le robot peut-il surpasser la dextérité du chirurgien ?
Des chercheurs américains ont mis au point Star, un robot chirurgical autonome qui
s'est montré plus efficace que des chirurgiens exercés lors d'essais sur des animaux.
Et si, à l'avenir, les robots chirurgicaux se passaient de toute intervention humaine ? Pas sûr
que cela soit vraiment souhaitable. Mais techniquement, la chose devient de plus en plus
crédible. Des chercheurs ont en effet mis au point un robot chirurgical autonome qui a
réussi à rattacher deux parties de l'intestin d'un porc. Si l'opération était supervisée par un
chirurgien, ce dernier n'a pas eu à mettre la main à la patte. Une première qui constitue une
avancée importante dans la chirurgie délicate des tissus mous de l'organisme où le risque
de complications est élevé.
Baptisé "Star" (pour Smart Tissue Autonomous Robot), le robot ne vise pas à remplacer les
chirurgiens spécialisés, mais à leur donner un outil capable d’une plus grande précision
pour faire notamment des sutures, expliquent les chercheurs qui publient leurs travaux dans
la revue américaine Sciences Translational Medicine. Ceux-ci montrent que le robot Star a
surpassé la dextérité et la précision des chirurgiens, ainsi que d’un instrument robotique
déjà commercialisé appelé Vinci Surgical System - et manipulé par un chirurgien, pour
recoudre deux parties d’un intestin de cochon. La robotique en chirurgie avait jusqu’à
présent fait des avancées surtout pour les interventions sur les os, pour les sectionner avec
une grande précision par exemple, mais pas sur les tissus mous qui sont malléables et de ce
fait plus difficile à manipuler. Equipé d’un bras télémanipulateur et d’instruments
chirurgicaux, Star combine des technologies d’imagerie intelligente et des marqueurs
fluorescents pour naviguer et s’adapter aux complexités des tissus mous, expliquent les
scientifiques.
"En éliminant l’intervention humaine, des robots autonomes pourront potentiellement
réduire les complications et améliorer la sûreté et l’efficacité des interventions
chirurgicales sur des tissus mous. Celles-ci concernent environ 45 millions de personnes
par an aux Etats-Unis", estiment ces chirurgiens. "L'objectif n’est pas de remplacer les
chirurgiens mais de leur donner des outils comme Star, qui en rendant la procédure plus
intelligente, peut garantir de meilleurs résultats pour les patients", a souligné le Dr Peter
Kim, un professeur de chirurgie à la faculté de médecine de l’université George Washington
lors d’une conférence de presse téléphonique. Il est l’un des co-concepteurs de ce
système. "C’est un peu comme le régulateur de vitesse d’une voiture ou des systèmes
autonomes arrêtant le véhicule devant un obstacle : ils permettent de réduire le nombre
d’accidents et de morts", a-t-il dit. "C’est la même logique qui s’applique dans la
technologie robotique chirurgicale". L’assistance robotique dans la chirurgie dépend
actuellement du chirurgien, qui contrôle manuellement l’outil, et les résultats varient selon
son expérience et son degré de formation.
Sous supervision humaine, le robot chirurgien Star s’est montré supérieur à toutes les autres
approches pour faire des sutures et reconnecter des segments de l’intestin de plusieurs
porcs. Cette intervention, appelée entéro-anastomose, est fréquente pour enlever par
exemple une tumeur cancéreuse du côlon ou traiter une occlusion et "ré-attacher" les deux
sections intestinales. Ainsi, plus d’un million d’entéro-anastomoses sont effectuées chaque
année aux Etats-Unis. Des opérations du même type sont également effectuées en urologie
et en gynécologie. Or jusqu’à 30 % des anastomoses intestinales connaissent des
complications comme des fuites ou des blocages, selon ces chercheurs.
Ces derniers ont souligné que les chirurgiens ont surveillé très étroitement le robot Star
durant toutes les interventions de manière à pouvoir l’arrêter immédiatement en cas de
mauvais fonctionnement. Les chercheurs estiment que Star ne sera probablement pas
autorisé à être commercialisé par l’Agence américaine des médicaments (FDA) avant
plusieurs années car il faut avant cela effectuer des essais cliniques pour s’assurer qu’il ne
présente pas de risques pour les humains.
Le 09.05.2016, www.sciencesetavenir.fr

Robots-chirurgiens : halte à la supercherie !


L’urologue Abdel-Rahmène Azzouzi dénonce l’absence de preuves de la supériorité des
techniques robotisées dans la chirurgie d’ablation de la prostate et critique la
surutilisation des robots à des fins économiques.
Depuis plus de dix ans maintenant, les tenants de la chirurgie robotique assènent sans
vergogne des contrevérités sur l’intérêt des robots dans leur domaine chirurgical.
Comme l’a souligné Ezekiel J. Emanuel, ancien conseiller à la santé de la Maison
Blanche et chroniqueur pour le New York Times, cette pseudo-innovation consiste
à augmenter les coûts sans améliorer la qualité des soins (New York Times,
27 mai 2012).
Prenons l’exemple emblématique du cancer de la prostate, pathologie qui a servi de fer
de lance à la diffusion des différents robots chirurgicaux. Plusieurs travaux ont clairement
montré l’existence d’un surtraitement pour les cancers les moins agressifs. Les
conclusions d’une des études les plus abouties provenant de l’agence canadienne du
médicament se résument à recommander une augmentation du nombre de patients
à opérer afin d’amortir le coût du robot, de sa maintenance, mais aussi des
consommables pour chaque intervention (« Technology Report » n° 137, Agence
canadienne des médicaments et des technologies de la santé, 2011). Cela revient pour
le cancer de la prostate à aggraver le surtraitement qui existe déjà à des fins purement
économiques.
INTÉRÊT CONTESTABLE POUR LE PATIENT
Lors de la présentation d’une étude au dernier congrès américain d’urologie de
l’American Urological Association (AUA), en mai, il a été mis en évidence une corrélation
entre l’augmentation nette d’ablations de la prostate et l’installation de robots dans les
centres chirurgicaux. Ainsi, entre 2002 et 2010, le nombre moyen de systèmes de
chirurgie robotique par Etat américain est passé de 2 à 26,3. Dans le même temps, le
taux de chirurgie a augmenté de 37,5 % à 52,4 %, et ce principalement aux dépens de
patients atteints de cancer de la prostate à un stade très localisé (Eggener et al., congrès
de l’AUA, 2014). En miroir, en 2013, dans un des grands centres de chirurgie robotique
parisien, 60 % des patients ayant eu une ablation de la prostate appartenaient au groupe
de plus faible risque de progression de la maladie.
En mai, une étude effectuée sur 6 000 patients et publiée dans le journal de référence
de cancérologie, le Journal of Clinical Oncology, n’a montré aucune différence de
résultats en termes d’efficacité sur l’ablation complète du cancer et sur ses effets
secondaires – incontinence, troubles de l’érection postopératoires (Gandaglia et
al., Journal of Clinical Oncology, 10 mai 2014).
Devant cette absence de preuves de la supériorité des techniques robotisées dans la
chirurgie d’ablation de la prostate, comment ne pas s’interroger face à l’inertie des
agences régionales de santé (ARS), du conseil de l’ordre des médecins et de -
l’Association française d’urologie, qui préfèrent ne pas froisser, pour des raisons qui
nous échappent, les porteurs d’une innovation à l’intérêt contestable pour le patient.
STRATÉGIE COMMERCIALE
La stratégie exagérément commerciale de la société Intuitive Surgical – détentrice du
monopole de cette technologie robotique avec son modèle Da Vinci – est choquante
concernant le domaine de la santé et en particulier touchant à des patients atteints d’un
cancer.
Dans son approche de ses clients chirurgiens, il n’est question que d’augmenter le
nombre de cas à opérer en attirant des patients fragilisés psychologiquement à
l’annonce de leur maladie et en leur vantant des résultats dont ils n’ont pas la preuve
scientifique. En d’autres termes, si le robot Da Vinci était un médicament, jamais il
n’aurait obtenu d’autorisation de mise sur le marché.
De leur côté, les partisans du robot, ayant investi de l’ordre de 2 à 2,5 millions d’euros
pour acquérir cet outil chirurgical, misent sur un retour sur investissement en
augmentant le nombre d’actes, ce qui dans le cas du cancer de la prostate localisé
alourdirait le bilan des patients opérés à tort, ou précocement. Cette attitude
irresponsable renforce le positionnement des opposants du dépistage du cancer de la
prostate, dégradant d’autant la qualité de la prise en charge de la maladie en ajoutant,
par un effet pervers, à des traitements inutiles (liés au surtraitement) un retard au
diagnostic qui peut s’avérer fatal.
Une pratique républicaine de la médecine telle qu’attendue en France doit veiller à ce
que les intérêts du patient et ceux de la collectivité soient toujours supérieurs à ceux de
l’activité des centres dits « experts », en termes de renommée et de retombées
financières.
Depuis dix ans, dans ce dossier, en ce qui concerne le respect de l’éthique et la
déontologie, mais aussi l’évaluation de l’impact médico-économique, l’Association
française d’urologie n’a pas assumé son rôle de société savante. Par conséquent, il
serait souhaitable que les ARS s’intéressent d’un peu plus près aux 82 centres disposant
d’un robot afin de réaliser un audit national des dossiers de patients qui sont traités à
l’aide de cette technologie. Cette démarche de qualité permettrait d’évaluer l’impact
potentiel du robot en termes de surtraitement du cancer de la prostate et, le cas échéant,
de corriger l’effet délétère de ce facteur de risque supplémentaire.
REDOUBLER DE VIGILANCE
A ce sujet, la dernière réelle innovation thérapeutique validée dans le cancer de la
prostate localisé a été l’avènement de la curiethérapie prostatique [mise en place de
sources radioactives dans la prostate], à la fin des années 1990. A cette époque, le
ministère de la santé avait commandé une évaluation médico-économique, réalisée
dans sept centres pendant deux ans, dont les conclusions avaient conduit in fine à la
validation et au remboursement de cette nouvelle technique en France. Concernant le
robot, rien de similaire. Il est des situations clairement définies pour lesquelles l’ablation
de la prostate est incontestablement bénéfique au patient.
Cependant, devant cette absence aujourd’hui d’évaluation rigoureuse et pour mieux
protéger les malades d’une attirance naturelle vers de nouvelles technologies, notre
conseil à tous les patients qui sont atteints d’un cancer de la prostate, notamment de
faible agressivité, est de redoubler de vigilance devant une proposition d’ablation de la
prostate, tout particulièrement dans les centres disposant d’un robot, et de s’assurer que
l’ensemble des alternatives thérapeutiques disponibles leur a bien été proposé.
En d’autres termes et tel que le stipule l’article 35 du code de la santé publique, le
médecin doit une information loyale, claire et appropriée des soins qu’il propose à son
patient.
L’innovation thérapeutique, lorsqu’elle est réelle, est indispensable à l’évolution de la
pratique médicale, mais elle ne vaut qu’à condition d’être entièrement dédiée au patient,
et non à ceux qui le prennent en charge ou encore aux industriels qui en sont à l’origine.

LE MONDE | 08.09.2014 | Par Abdel Rahmène Azzouzi


THÈME DE L’EXPOSÉ 3 : Faut-il avoir peur de l’intelligence artificielle ?

Intelligence artificielle : on se calme !


A la suite de la publication par Facebook d'un papier sur une de leur recherche en intelligence
artificielle, beaucoup de médias se sont emballés. C'est devenu une habitude.
Stop ! Lâchez tout de suite cet annuaire ! Inutile de chercher le numéro de Sarah Connor. C’est vrai
qu’à lire certains articles publiés ces dernières heures sur les recherches de Facebook en intelligence
artificielle, on pourrait être en droit de paniquer un poil. Mais avec un peu de recul, on se rend
compte que depuis quelques années, et plus encore depuis la très médiatique victoire d’Alphago sur
Lee Sedol en mars 2016, nous sommes régulièrement confrontés à une vague d’articles plus flippants
les uns que les autres sur un futur angoissant dominé par des intelligences artificielles incontrôlables.
Et, systématiquement, la « loi Hawking » s’applique. Cette loi, dérivée d’une autre bien connue,
stipule : « Plus un sujet sur l’intelligence artificielle est repris par les médias, plus la probabilité d’y
trouver un article illustré par la photo de Stephen Hawking s’approche de 1.»
Protocole d'échange
Cette fois-ci, c’est Forbes qui s’y est collé, avec un titre à l’avenant : « Une IA de Facebook crée son
propre langage, une vision flippante de notre futur potentiel ». Brrrr… Et l’article en lui-même coche
la plupart des cases du bingo de l’IA : la singularité, Ray Kurzweil, Elon Musk, Stephen Hawking
(bien sûr), Terminator et Skynet. En gros, il s’agit à chaque fois de reprendre les grandes inquiétudes
du célèbre astrophysicien et du boss de Tesla concernant l’avenir hégémonique des intelligences
artificielles en se basant sur les thèses de Kurzweil, génial inventeur et futurologue aujourd’hui en
poste chez Google, qui prédit la singularité d’ici quelques décennies. A savoir un moment où une IA,
capable de se reprogrammer elle-même, dépassera à grande vitesse l’intelligence humaine. Et du coup,
plus rien ne sera comme avant.
L’actualité en elle-même est souvent présentée ainsi : « Facebook débranche des IA car elles se sont
mises à utiliser un langage incompréhensible pour les humains ». Ce qui n’est pas faux en soi, mais
laisse penser que le réseau social aurait appuyé sur un gros bouton rouge pour éviter une catastrophe.
Ce qui n’est évidemment pas le cas. Facebook travaille en ce moment d’arrache-pied pour essayer de
rendre ses chatbots capables d’interagir avec ses utilisateurs de manière fluide. Et ils sont encore loin
d’y arriver. L’équipe du laboratoire FAIR de Facebook en question travaille sur un système de
négociation et ils ont fait travailler deux IA entre elles dans un but d’apprentissage en omettant de
préciser de parler un anglais correct. Les deux programmes ont donc optimisé un protocole d’échange
pour réussir à négocier de la meilleure façon. Ce qui n’est pas une première.
La loi ou la foi de Moore ?
Mais en enrobant tout ça avec un peu de frissons et d’angoisse, on arrive toujours à… Stephen
Hawking. Pourtant, malgré la popularité et le statut de ceux qui croient dans un futur singulariste, ça
ne reste aujourd’hui qu’une croyance. Comme nous l’expliquait en mars dernier Jean-Gabriel
Ganascia, chercheur en intelligence artificielle au laboratoire informatique de Paris-VI, et auteur
du Mythe de la singularité : « Le problème, c’est que les gens comme Ray Kurzweil disent que la loi
de Moore [qui établit que la puissance des processeurs suit une évolution exponentielle à travers le
temps, ndlr] ne s’arrêtera jamais car, pour eux, c’est l’ensemble de l’évolution qui obéit à une loi
exponentielle. C’est-à-dire qu’ils généralisent la loi de Moore. Si on leur rétorque que la technologie
du silicium va arriver en bout de course, ils vont répondre qu’il y aura forcément quelque chose
derrière car c’est une loi fondamentale de la nature. Ce qui est un peu curieux. » Mais pour lui, ces
prédictions catastrophistes sont aussi, pour les acteurs de la Silicon Valley, un moyen d’établir un futur
inexorable : « Comme si la technologie se déployait de façon autonome, comme si elle prenait le relais
de l’humanité. Les grands acteurs de la technologie ont tout intérêt à nous raconter cette fable, parce
que ça les dédouane de tout ce qu’ils font. Ils ne sont pas responsables, c’est la technologie ! »
De son côté, le Français Yann Lecun, pointure de la discipline et responsable du laboratoire FAIR de
Facebook, nous rappelait en mai, à propos des IA et de la conversation : « C’est un des domaines dans
lequel la science et la technologie sont très en retard par rapport à l’attente des gens. L’état des
technologies est très en deçà de ce dont on aurait besoin. Les agents intelligents qui existent déjà
fonctionnent avec des scénarios scriptés. On n’a pas de robots suffisamment intelligents pour interagir
de manière non frustrante avec une personne. C’est un des gros défis des années qui viennent. » Et le
chercheur de tempérer les ardeurs des futurologues les plus enthousiastes : « C’est à peu près clair
qu’on réussira à produire des agents intelligents. Mais on ne sait pas combien de temps ça va prendre,
et on ne connaît pas encore les obstacles qui se dresseront sur notre chemin. L’histoire de
l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues. On est donc devenus
plus prudents. » Essayons donc d’être au moins aussi prudents que lui.
Par Erwan Cario, Libération, 1er août 2017

L'intelligence artificielle est une science


C’est le grand épouvantail. L’objet des plus audacieux fantasmes. Elle est déjà là, parmi les humains
qui s'interrogent : l’intelligence artificielle (IA) va-t-elle nous dépasser? Une question qui n’est pas la
bonne, répondent en cœur les trois intervenants de ce deuxième débat du Forum Libération, intitulé
intelligence artificielle : jusqu’où peut-elle nous porter ? Au deuxième rang, pourtant, une jeune
femme murmure à son voisin : « et d’abord, qui nous dit que ces trois-là ne sont pas des robots ? ». Il
y a manifestement matière à discussion.
Commençons par une définition. « La confusion est grande autour de ce concept » souligne Pierre-
Yves Oudeyer, chercheur en robotique, directeur de recherche à l’Inria. « L’intelligence artificielle est
une discipline scientifique. C’est l’ensemble des outils permettant de modéliser les mécanismes de
l’intelligence. Elle n’est d’ailleurs pas neuve. Elle est née dans les années 50 et a accéléré dans les
années 70 et 80, portée alors par les neurosciences, qui la développent pour mieux utiliser l’imagerie
cérébrale ». L’IA est, rappelons-le, une émanation du cerveau des hommes. « C’est notre intelligence
projetée sur la machine », dit le chercheur et président du comité d’éthique du CNRS, Jean-Gabriel
Ganascia.
Pas de raison d’en avoir peur. A priori. « La vision transhumaniste véhiculée par certains GAFA et
relayée par les médias est anxiogène et trompeuse ; en décalage avec la réalité », prévient Laurence
Devillers, chercheuse au CNRS et spécialiste des interactions homme-machine. « Le remplacement
de l’homme par la machine est une croyance. L’IA est déjà là, dans nos voitures, sur le web, dans nos
smartphones, et le péril demeure relatif ». « L’idée de la singularité (le dépassement de l’homme par
l’IA), prophétisée par Elon Musk, est utopique et catastrophiste, et finalement très peu valable
scientifiquement », poursuit Pierre-Yves Oudeyer. Qui invite à l’optimisme : « L’IA est avant tout une
formidable aventure intellectuelle ! »
Pour autant, restons vigilants. « Je n’ai pas, aujourd’hui, en tant que scientifique, les moyens de vous
affirmer que les machines ont des limites. Alors non, ne soyez pas trop rassurés ! », sourit Jean-Gabriel
Ganascia. Et les intervenants d’identifier les dérives possibles. La première : le pouvoir donné aux
algorithmes, et leur potentiel impact économique et social. « Aux Etats-Unis se développent des
systèmes prédictifs qui évaluent la peine de prison en fonction du risque de récidive ; des polices
d’assurance emploient l’IA pour indexer les taux selon les données de leurs clients. C’est évidemment
tout à fait pernicieux », note Jean-Gabriel Ganascia.
Autre risque, celui d’isoler les humains et d’entraver leurs interactions. « Les exemples les plus
extrêmes nous viennent du Japon », témoigne Laurence Devillers : « Y sont populaires les robots
sexuels, mais aussi des objets connectés comme Gatebox, qui produit un hologramme humanoïde.
Celui-ci vous parle, vous écoute. Dans l’absolu, ces outils pourraient se substituer à vos proches ».
Troisième danger, celui de la mainmise des géants du web sur la technologie. « Avec l’IA, les GAFA
ont bâti un nouveau féodalisme. Ils abusent l’individu comme les sirènes d’Ulysse : contre un service
qu’il pense gratuit, le consommateur cède ses données, qui serviront in fine à mieux l’asservir »,
décrypte Jean-Gabriel Ganascia. Contempler la montée en puissance de l’IA les bras croisés serait une
erreur. « Ils écrivent le futur pour nous. Il faut l’écrire nous-même », plaide Pierre-Yves Oudeyer. Les
intervenants proposent plusieurs angles d’attaque. D’abord, démystifier l’IA auprès du grand public,
par l’éducation. En la comprenant, il l’utilisera mieux. Quitte, comme le propose Laurence Devillers,
à en enseigner les principes de base dès l’école maternelle. Il faut ensuite œuvrer à sa normalisation.
Ainsi le fait l’IEEE (Institute of Electrical and Electronics Engineers), qui planche sur des normes et
standards applicables à l’IA. Jean-Gabriel Ganascia, lui, promeut la création d’un conseil consultatif
national d’éthique pour les sciences du numérique, « face à l’IA, il faut simplement décider de ce que
nous aimerions qu’il advienne de ce monde ». Humain, la balle est dans ton camp.
Libération, Benjamin Leclercq, 28 octobre 2017
THÈME DE L’EXPOSÉ 4 : Quelle éthique pour l’intelligence artificielle ?

La ruée vers l'éthique de l'intelligence artificielle

ENQUÊTE - Depuis cinq ans, les études et initiatives consacrées aux enjeux éthiques et
à l'impact de l'intelligence artificielle se multiplient. Le futur « GIEC de l'intelligence
artificielle », annoncé début décembre par la France et le Canada, permettra-t-il d'y voir
plus clair ?
Ce n'est pas tous les jours qu’une réunion des membres du G7 se tient dans une
ancienne usine textile reconvertie en pépinière de start-up et laboratoires high-tech.
C'est là, début décembre, dans les locaux d'Element AI, au cœur d'un ancien quartier
industriel de Montréal en pleine reconversion, que Justin Trudeau a prononcé un
discours mêlant fascination et inquiétude. « Nous devons reconnaître qu'avec
l'intelligence artificielle, nous entrons dans des territoires inconnus. Aussi excitant que
cela paraisse, cela s'accompagne de nombreux défis, et c'est pour cela qu'il faut
s'attaquer aux questions éthiques que soulèvent ces technologies », mettait en garde le
Premier ministre canadien.
L'idée avait été lancée par Emmanuel Macron lors de la présentation du rapport Cédric
Villani, en mars 2018. Mais c'est à Justin Trudeau qu'est revenu l'honneur d'annoncer
officiellement la création, dès cette année, d'un groupe d'experts internationaux chargés
d'étudier les impacts de l'intelligence artificielle.
Il y avait déjà le GIEC pour le changement climatique, il y aura donc bientôt le G2IA (ou
IPAI en anglais) pour étudier les bouleversements liés à l'intelligence artificielle. Cette
nouvelle institution, dont les contours devraient être précisés d'ici à l'été, rassemblera
des représentants de la communauté scientifique, de l'industrie, des gouvernements et
de la société civile.
De la science-fiction au monde réel
Maintenant qu'elles peuvent battre les humains au jeu de go ou les radiologues pour
détecter des tumeurs, les machines risquent-elles de nous dépasser dans tous les autres
domaines ? Les algorithmes, désormais capables d'apprendre, vont-ils mettre au
chômage des bataillons de cadres, de chauffeurs routiers ou de codeurs ? Faut-il laisser
des outils aussi potentiellement dangereux que des voitures, des avions ou des armes
sous le seul contrôle de logiciels et de processeurs ?
Toutes ces questions, qui ont longtemps relevé de la science-fiction, sont désormais
discutées le plus sérieusement du monde par un nombre croissant de chercheurs en
intelligence artificielle, d'économistes, de philosophes ou de gouvernants. Ces dernières
années, les rapports, livres blancs, groupes d'études et autres initiatives sur l'intelligence
artificielle et l'éthique se sont multipliés, portés par les progrès spectaculaires des
technologies d'apprentissage automatique profond (« deep learning »).
« Ces questions se sont déplacées des coulisses vers le centre de la scène », résume
Joëlle Pineau, professeur à l’université McGill et directriece du laboratoire d’IA de
Facebook (FAIR) à Montréal, qui donnait une conférence sur la robustesse des
algorithmes dans le cadre de la conférence NeurIPS. « Les technologies arrivent à un
niveau de maturité qui fait qu'elles vont être déployées dans le monde réel, donc il
devient de plus en plus important d'intégrer l'éthique dans les projets de recherche. »
[…]
Si l'Europe et le Canada se mobilisent sur l'éthique, c'est aussi parce qu'ils y voient une
chance de se distinguer dans un secteur où les Etats-Unis et la Chine ont une très
grande longueur d'avance. En effet, les Américains ne sont pas insensibles aux
questions éthiques (dans un récent sondage, 82 % estimaient que l'IA devait être
manipulée avec précaution) mais misent avant tout sur l'autorégulation des entreprises ;
les Chinois, eux, considèrent l'IA avant tout comme un moyen d'augmenter leur
puissance.
D'où la mise en avant d'une « troisième voie ». Reste que le G2IA, voulu par la France
et le Canada, va très vite devoir relever un premier défi de taille : pour devenir une
autorité mondiale aussi importante que le GIEC, il lui faudra attirer des chercheurs et
des institutions bien au-delà de ses deux pays fondateurs...

Benoît Georges (envoyé spécial à Montréal), Les Echos, le 17/01/2019

Armes autonomes : participer aux recherches ou pas


Au premier plan des inquiétudes éthiques soulevées par l’intelligence artificielle (IA) se
trouvent les « armes létales autonomes » : ces dispositifs – tel le drone – seraient capables
de repérer une cible, puis de décider de tirer pour l’éliminer. Mais leur définition reste
complexe (où commence l’autonomie ?) et on ne sait pas aujourd’hui si de telles
technologies existent.
Ce flou – ainsi que la manne financière que représente l’industrie de l’armement –
explique en partie la frilosité des grandes entreprises du numérique à afficher des
positions claires sur le sujet. En juin, Google a fait sensation en s’engageant à ne pas
mettre ses technologies d’IA, comme la reconnaissance d’images, au service de
l’armement, après une polémique sur un partenariat avec le Pentagone.
Mais les autres grands acteurs du secteur sont plus réservés. Partnership on AI, qui réunit
autour des questions éthiques entreprises et associations, n’a « pas de position officielle
sur le sujet », explique sa directrice, Terah Lyons, reconnaissant des débats
internes. « L’idée que les armées de pays démocratiques, dont l’arsenal est conçu à des
fins de défense et pour la protection des droits de l’homme, utilisent les derniers progrès
de l’informatique ne me pose pas particulièrement de problème », déclare « à titre
personnel » Eric Horvitz, le directeur du centre de recherche de Microsoft.
Du côté de l’Organisation des Nations unies (ONU), les discussions sur le sujet ont
commencé en 2013, dans le cadre de la Convention sur certaines armes classiques. Mais
le moratoire sur les armes autonomes réclamé par des organisations non
gouvernementales et des chercheurs ne semble pas près de se concrétiser.

Par Alexandre Piquard et Morgane Tual, publié le 4 octobre 2018, Le Monde


THÈME DE L’EXPOSÉ 5 : Quelle privacité à l’ère de l’intelligence artificielle ?

Michael Jordan : « Une approche transversale est


primordiale pour saisir le monde actuel »

Pionnier du Big Data, ce chercheur américain souligne les défis à la fois éthiques et techniques
de sa discipline.
Les concepts de big data et de « machine learning » sont-ils une mode, comme il y en a eu
souvent en sciences, ou sont-ils annonciateurs de changements profonds ?
Ils sont annonciateurs de changements très profonds qui vont arriver au cours du prochain siècle.
Avant le big data, nous avions des données collectives qui permettaient de cerner une population.
Nous avons désormais des données sur tous les individus, donc précisément sur chacun d’entre
eux. Prenons l’exemple d’un moteur de recherche. Jusqu’à présent, une requête comme « Je veux
un billet d’avion pour aller à Paris » engendrait une réponse similaire pour tous. Avec le big data,
la réponse va s’adapter à la personne qui la demande, à son profil, à son histoire personnelle.
Pour la première fois dans l’Histoire, des produits, des services, donc des marchés adaptés à
chacun d’entre nous vont être créés. On voit déjà émerger, par exemple, une médecine prédictive :
en fonction de notre génome, on va pouvoir calculer la probabilité d’avoir telle ou telle maladie.
[…]
Gartner Group vient d’annoncer que d’ici à 2020, 2 millions d’Américains devront partager
leurs données de santé pour pouvoir trouver un emploi. De nombreux DRH fantasment sur
les données personnelles pour mieux recruter et gérer leurs salariés. Faut-il calmer le jeu ?
Comment la société va-t-elle devoir s’organiser ?
Cette effervescence montre que nous aurons besoin d’un siècle au moins pour appréhender ces
nouvelles problématiques qui sont tout à la fois scientifiques, technologiques, sociétales,
juridiques. Nous sommes nous-mêmes ambigus face à l’utilisation des données personnelles.
Nous pouvons percevoir leur utilisation comme une intrusion dans notre vie privée. Tout en nous
réjouissant, dans un autre contexte, des 20 % de réduction que l’on va nous proposer dans notre
restaurant préféré, justement grâce à l’analyse de ces mêmes données.
Dans le domaine médical, par exemple, nous ne voyons pas d’un bon œil l’utilisation de nos
données personnelles par un groupe d’assurance. Mais sommes prêts à les communiquer si cela
peut permettre à quelqu’un de notre famille de savoir s’il risque de développer certaines maladies.
On voit bien que l’acceptation sociétale dépend du contexte, et il va falloir que le système
juridique s’adapte à cette nouvelle donne. Mais les mathématiciens et les informaticiens peuvent
aussi y contribuer.
De quelle manière ?
Mes travaux, et d’autres, depuis dix ans, ont montré qu’il est possible d’interroger des bases de
données sans pour autant avoir accès directement aux données individuelles. C’est ce que l’on
appelle la « differential privacy ». Cela revient à analyser la vie privée tout en la protégeant !
Nous avons en outre développé des techniques qui permettent d’ajuster un paramètre afin de
libérer plus ou moins l’accès à des données sensibles. Mais ce n’est que le début de l’histoire !
Des données sensibles, biomédicales et comportementales sont désormais propriétés de
sociétés privées. Ne faut-il pas aussi imaginer de nouveaux cadres éthiques pour encadrer
les recherches ?
Je ne suis pas expert juridique, mais bien sûr, une réflexion doit avoir lieu. Et tous les acteurs de
la société doivent y participer. Ce n’est ni aux experts en technologie ni au marché de dicter seuls
les règles. Les entreprises telles que Google ou Facebook connaissent de toute façon leur fragilité.
Les consommateurs ont un pouvoir, celui de se détourner d’une entreprise qui est allé trop loin
dans l’utilisation des données ou le non-respect de la vie privée. Regardez My Space. Cette
entreprise a disparu car les consommateurs se sont détournés de leurs services.
Comment aider justement les citoyens à comprendre ? N’y a-t-il pas une responsabilité,
notamment des scientifiques, pour vulgariser cette complexité actuelle ?
Nous avons en effet une responsabilité sociale. A l’université, nous sommes chercheurs et
enseignants, une double casquette particulièrement nécessaire actuellement.
Nous venons d’ailleurs de lancer, en octobre à Berkeley, un cours pilote pour les étudiants de
première année intitulé « Databears ». C’est un cours transversal destiné à tous, quel que soit leur
discipline. L’objectif est d’augmenter leur culture générale sur la statistique et les données. Il y a
des cours d’informatique, des conférences sur l’éthique, la propriété des données, les aspects
artistiques… Tout le monde doit avoir suffisamment de connaissances pour pouvoir participer au
débat sociétal, devenir un consommateur averti qui puisse également prendre des décisions en
connaissance de cause dans sa vie personnelle.
Nous sommes les premiers à le faire au niveau des très jeunes étudiants, mais toutes les universités
se rendent compte que cette approche est nécessaire. […]
Propos recueillis par David Larousserie et Laure Belot, publié le 16/11/2015, Le Monde.

Quelle place pour le big data à l'ère du RGPD ?


Comment effectuer des traitements de données de type big data tout en respectant les
nouvelles règles établies par le RGPD?
Le Règlement général sur la protection des données (RGPD) sera d'application directe le 25 mai
2018 dans les 28 États de l'Union européenne. Cette nouvelle réglementation est à prendre en
considération notamment dans le cadre de projet de type big data.
Big data vs vie privée: des traitements de données à risque
S'il n'y a pas de définition juridique de la notion de big data, comme l'expression l'indique, le big
data se caractérise par la taille ou la volumétrie des informations, mais aussi par la vitesse de
traitement, la variété des données traitées et la valeur qui en est inférée.
Le gigantesque volume de données numériques produites (Internet, réseaux sociaux, objets
connectés...) combiné aux capacités sans cesse accrues de stockage et à des outils d'analyse en
temps réel de plus en plus sophistiqués offre aujourd'hui des possibilités inégalées d'exploitation
des informations, de segmentation et de profilage.
Les traitements de données en mode big data peuvent cependant être facteurs de risque au regard
de la vie privée. Les données personnelles, en particulier lorsqu'elles sont agrégées, peuvent en
effet révéler beaucoup sur une personne, ses habitudes, son profil et aboutir dans certains cas à
une prise de décision automatique ou non.
En outre, s'appuyer sur des techniques de profilage peut perpétuer des stéréotypes existants et
des ségrégations sociales.
L'encadrement juridique du big data
En l'absence de règlementation spécifique aux traitements big data, le législateur français a depuis
longtemps adapté les règles juridiques existantes, afin d'encadrer la constitution de
fichiers et limiter les risques d'atteintes aux libertés individuelles par crainte du phénomène Big
Brother.
Tout comme la loi informatique et libertés, le RGPD impose au responsable de traitement de
multiples obligations (sécurité et la confidentialité des données enregistrées, l'information des
personnes concernées de leurs droits, collecte de manière loyale, licite et transparente avec des
finalités déterminées, etc.). De même, la personne concernée dispose d'un droit de ne pas faire
l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets
juridiques la concernant.
Ce qui est nouveau en revanche, c'est l'obligation d'information de la personne concernée qui pèse
sur le responsable de traitement en cas de traitement visant à effectuer un profilage. En outre, le
responsable de traitement devra expliquer la logique sous-jacente au profilage ou la décision
automatique prise, ce qui peut constituer un challenge, tant les techniques utilisées peuvent se
révéler complexes et difficiles à vulgariser.
Droit à l'oubli, portabilité des informations: les nouveautés introduites par le RGPD
Autre nouveauté, le RGPD a consacré de nouveaux droits au profit de la personne concernée qui
peuvent constituer des enjeux pour le responsable de traitement en cas de traitement de type big
data, à savoir la consécration au niveau européen du droit à l'oubli et l'introduction de
la portabilité des informations.
En effet, lorsque le responsable du traitement a partagé les données d'une personne dans le cadre
d'un traitement big data et si cette personne exerce son droit à l'oubli, le responsable de traitement
doit prendre toutes les mesures raisonnables en vue d'informer les tiers qui traitent les
données publiées sous sa responsabilité afin qu'ils procèdent à l'effacement de tous liens vers ces
données et de toute copie ou reproduction de ces données. Une liste précise des personnes avec
qui les données sont partagées devra donc être tenue par le responsable de traitement.
Quant au droit à la portabilité des données, il implique pour le responsable du traitement de
prévoir la possibilité de restituer l'ensemble des données à caractère personnel d'une
personne concernée dans un format électronique structuré et couramment utilisé.
Big data, profilage, segmentation, scoring, prise automatique de décision sont certainement les
enjeux de demain au regard de la collecte de données personnelles. Pour les mettre en œuvre, il
convient d'anticiper et de respecter les obligations nouvelles du RGPD de façon à traiter les
volumes de données concernées en toute légalité.
Publié par Elise Dufour, le 8 mars 2018, www.daf-mag.fr
THÈME DE L’EXPOSÉ 6 : Le monde moderne est-il dangereux pour nos sens ?

Un constat sans appel : le monde moderne a détérioré nos sens


Le corps humain est un équilibre fragile au sein duquel chaque sens a sa place. Son
fonctionnement censé assurer le bien-être de l’homme est aujourd’hui altéré par le monde
moderne. La dégradation de nos sens et fonctions vitales inquiète beaucoup la communauté
scientifique. Trois experts des sens se sont exprimés à ce sujet au cours du meeting annuel de
l’American Association for the Advancement of Science de Boston.
EPIDÉMIE DE MYOPIE : DIMINUTION DE L’ACUITÉ VISUELLE
D’après le professeur Amanda Melin de l’Université de Calgary, les nouvelles technologies et
l’évolution des conditions de travail ont terriblement diminué notre vue. Le temps passé devant
les écrans des ordinateurs, des tablettes ou des smartphones, mais aussi la vie en intérieur, la
lumière artificielle et le travail dans les bureaux sont essentiellement responsables de la baisse
croissante de l’acuité visuelle de l’espèce humaine. Dans certaines régions du monde, la myopie
est tellement élevée que 90 % des personnes doivent porter des lunettes. Amanda Melin
explique que la vue de l’homme n’a pas été habituée à évoluer dans de telles conditions, c’est
pourquoi elle baisse continuellement.
RECORDS D’OBÉSITÉ LIÉS À LA SURCONSOMMATION DE SUCRE
Les sociétés occidentales sont très touchées par le fléau du surpoids consécutif de la mauvaise
alimentation des familles. Paul Breslin, professeur de sciences nutritionnelles à l’Université
Rutgers explique que l’homme dispose d’un goût prononcé pour le sucre analogue à celui de ses
ancêtres les primates. Ce gène précis combiné à la large disponibilité du sucre sur le marché
mondial serait responsable de la crise d’obésité qui frappe nos sociétés.
Les singes sont particulièrement friands des fruits en tout genre, principales sources de sucre de
leur alimentation. Cependant les arbres fruitiers ne produisent pas de fruits toute l’année, Paul
Breslin explique qu’après avoir mangé tous les fruits présents dans les arbres, la nature pousse
les singes à se rabattre sur les feuilles et les insectes ce qui rétablit l’équilibre de leur organisme.
Mais dans le monde moderne, le sucre est toujours accessible, ainsi le professeur précise
qu’aujourd’hui l’homme ne se met jamais à la diète comme son ancêtre le singe.
DES MALADIES PHYSIQUES ET MENTALES LIÉES À LA POLLUTION
D’après le professeur Kara Hoover de l’Université d’Alaska, le nez des humains est aujourd’hui
incompatible avec le monde moderne. L’odorat s’est développé dans un monde riche en odeurs
mais aujourd’hui, la pollution diminue les facultés olfactives et nous empêche d’interagir avec
le monde.
Les perturbations de l’odorat et des facultés respiratoires déclenchées par la pollution exposent
l’organisme à des troubles mentaux comme la dépression et l’anxiété, des déséquilibres
physiques comme l’obésité et des risques sociaux qui pèsent sur les interactions avec autrui.
CHANGER LE COURS DE L’ÉVOLUTION
Si nos sens se détériorent, ce n’est pas une fatalité, il reste toujours possible de préserver
l’équilibre du corps.
Pour que notre globe oculaire se développe correctement, Amanda Melin préconise de sortir
plus souvent, la rétine ainsi sollicitée sera plus apte à se concentrer sur des images à la bonne
échelle. Pour elle, il faudrait que les politiques exhortent les jeunes à vivre plus souvent en
extérieur.
Le professeur Paul Breslin quant à lui nous met en garde sur l’importance d’avoir une
alimentation équilibrée et nous conseille de diminuer drastiquement les quantités de sucre que
nous consommons.
Enfin, le professeur Hoover est d’avis que tous les moyens sont bons pour lutter contre la
pollution atmosphérique.
L’amélioration de nos sens pourrait agir comme un cercle vertueux, si l’environnement est plus
propre, les familles sortiront plus, elles pourront ainsi se dépenser et préserver leur vue.
Par Camille Chuquet, le 5 mars 2017, The Independant

L’ouïe, un sens précieux trop souvent négligé


Nous ne protégeons pas toujours suffisamment nos oreilles du bruit qui nous
entoure. Notre ouïe peut alors être fragilisée et vieillir prématurément.

Acouphènes, presbyacousie, hyperacousie… Pas moins de dix millions de Français se


plaignent de problèmes d’audition. Une gêne qui, pour plus de la moitié d’entre eux, a
des répercussions sur la vie quotidienne, comme le rappelait l’enquête Handicap-santé
publiée en 2008. Au total, plus de 8 % de la population française est concernée! Une
population plutôt âgée car la plupart des problèmes d’audition surviennent après 50 ans.
Comme tous nos organes, l’oreille vieillit. Mais notre monde moderne la malmène et la
fait vieillir prématurément. Le coupable? Le bruit. « Il altère notre capital auditif. Un peu
comme le soleil attaque notre capital soleil », explique le Pr Jean-Luc Puel, président de
la Journée nationale de l’audition et à la tête de l’équipe Inserm « Surdités, acouphènes
et thérapies » de Montpellier.

Par Anne Prigent, publié le 01/09/2017, Le Figaro


THÈME DE L’EXPOSÉ 7 : Y a-t-il un sens plus important qu’un autre ?

UN NEZ QUI FAIT SENS - L’odorat est souvent considéré comme un sens
secondaire, et pourtant notre cerveau peut difficilement s’en passer. Les nez les
plus développés peuvent détecter jusqu’à 300-400 odeurs différentes. La perte
de l’odorat est a contrario une perte de contact avec le monde extérieur. L’odorat
peut aussi aider le cerveau, comme avec l’olfactothérapie.
16 sept. 2017, LCI

L’ouïe, un sens essentiel à préserver

Dans le cadre de la semaine du son, l’équipe de Tactisens vous encourage à préserver et


développer votre sens de l’ouïe. Les sons que nous percevons plus ou moins consciemment ont
un impact permanent sur nous. Le sens de l’ouïe est essentiel pour communiquer mais il est
fragile et plus sollicité que l’on ne pense dans notre quotidien.
L’enclenchement d’un mécanisme, les claquements d’une porte, les simples courants d’air, des
bruits de pas… le sens de l’ouïe permet de mieux cerner notre environnement extérieur. Il est
lié à notre façon d’interagir, d’apprendre, d’apprécier certains arts comme la musique. Tout le
temps en alerte, notre système auditif nous avertit des dangers, mais peu aussi nous distraire.
Le sens de l’ouïe est essentiel dans la vie de tous les jours. Que vous ayez un sens auditif très
affuté ou que vous soyez malentendant, l’Aventure Sensorielle et les Escape Games de Tactisens
vous permettront de mesurer l’importance du sens de l’ouïe. Bien évidemment, comme tous les
autres principaux sens – le toucher, le goût, l’odorat et la vue – l’ouïe est un sens qu’il faut
développer et protéger avant qu’il ne soit trop tard.
L’Aventure Sensorielle, activité nouvelle proposée par Tactisens à Toulouse, vous permettra de
vous amuser en mettant vos sens à l’épreuve. Et vous verrez que parfois la difficulté rencontrée
avec un sens pourra être compensée par un autre sens. Si la vue ne vous aide pas, peut-être que
l’ouïe, le toucher, l’odorat, le goût vous aideront? Vous constaterez que les résultats sont
étonnants.
Dans ce sens, les recherches sur la substitution et la compensation sensorielles sont
passionnantes, sans parler des études sur la plasticité cérébrale. Il est bien connu que certaines
personnes confrontées à une difficulté ou un handicap avec un sens, développent une meilleure
habileté avec un autre sens.
Acouphènes, presbyacousie, hyperacousie sont les noms de certaines maladies auditives qui
peuvent affecter notre acuité sensorielle… Au fur et à mesure du temps, notre système auditif
est sans cesse exposé à des bruits nuisibles et autres pollutions sonores, notamment dans les
grandes villes. Il est important de savoir que les dégâts produits par une trop forte exposition
sonore sont souvent irréversibles.
Si vous souhaitez en apprendre plus sur les bons gestes et les risques auditifs, rendez-vous sur
www.ecoute-ton-oreille.com.
En attendant, n’hésitez pas à venir expérimenter vos sens chez Tactisens. Avec ce nouveau
concept de divertissement, de 7 à 97 ans, vous allez vous amuser!
www.tactisens.com
L’importance du toucher
Le toucher est le seul sens qui implique le corps au complet. Les quatre autres sens sont
tous localisés dans la tête. On peut certes toucher avec nos mains, mais on peut aussi
toucher avec toutes les autres parties de notre corps.
Le toucher constitue le seul sens essentiel à la survie et au développement de l’être humain.
C’est celui qui se développe en premier chez le fœtus, les autres n’étant finalement que des
spécialisations du toucher à la lumière (vue), aux sons (audition), aux saveurs (goût) et aux
odeurs (olfaction).
Grâce au nombre et à la densité des cellules nerveuses tactiles, le toucher permet les sensations
les plus fortes, tant agréables que douloureuses et génère une grande variété de plaisirs. Il est
aussi la source et l’expression de sentiments profonds.
Le potentiel érogène du toucher est à l’origine des relations tant amoureuses, familiales
qu’amicales. De nombreux psychologues ont démontré depuis longtemps l’importance du toucher
et des caresses dans l’équilibre psychique et physique.
Les personnes déprimées et suicidaires sont souvent des personnes privées de contacts
physiques et les enfants non suffisamment touchés sont plus tendus, agités, agressifs et
manifestent plus de troubles d’apprentissage scolaire et social. Les effets bénéfiques d’un
massage thérapeutique sur le stress équivalent facilement à quatre heures de sommeil.
Samedi, 24 août 2013, Yvon Dallaire, www.journaldemontréal.com

Un Français sur dix n'a plus d'odorat


Ce sens, comme les autres, peut être victime d'atteintes ou de traumatismes, et subit lui aussi les
outrages du temps.
«Je suis triste de ne pouvoir photographier les odeurs. J'aurai voulu, hier, photographier celles de l'armoire
à épicerie de grand-mère.» Comme le photographe Jean-Henri Lartigue, nous avons tous rêvé de pouvoir
capturer le souvenir d'arômes, parfums et autres fumets comme nous gardons celui d'une image
photographiée ou d'une voix enregistrée…
Si cela était possible, nous découvririons alors que pour certains d'entre nous les odeurs n'existent plus. En
effet, près de 10 % des Français souffrent de troubles olfactifs, comme viennent de le révéler les premiers
résultats d'une vaste étude épidémiologique menée auprès de 4 500 personnes dans l'Hexagone. «Et un tiers
d'entre elles, environ, souffre d'un déficit sévère, qu'on appelle aussi anosmie», explique
au Figaro Moustafa Bensafi, directeur de recherche au Centre de recherche en neurosciences de Lyon.
Autre enseignement de l'étude: ces troubles de l'odorat augmentent après 50 ans pour atteindre 20 % de la
population après 65 ans… «Tous les systèmes sensoriels se dégradent avec l'âge. Mais la perte de l'odorat
s'installe progressivement et comme l'odorat est moins sollicité dans les relations interpersonnelles que
l'ouïe ou la vue, toutes les personnes qui perdent ce sens ne s'en rendent pas forcément compte», explique
le Dr Basile Landis, responsable de la consultation d'olfactologie de l'hôpital de Genève. […]
Alors certes, perdre son nez n'est pas vital pour l'homme comme cela l'est pour certains animaux. Comme
le souligne le Dr Basile Landis, « si vous n'avez pas d'odorat votre vie n'est pas toujours bouleversée ». Ce
sens, moins important que la vue ou l'ouïe, joue néanmoins un rôle de premier ordre dans la détection de
substances toxiques comme le gaz, la fumée… Les personnes sans odorat sont donc plus souvent victimes
d'accidents domestiques. « Nous avions suivi une cinquantaine de nos patients et constaté que la moitié
d'entre eux avaient été victimes d'intoxication alimentaire ou avaient laissé des casseroles trop longtemps
sur le feu », raconte le Pr Pierre Bonfils.
Et surtout, l’odorat interagit avec le goût (sucré, salé, amer, acide) pour nous aider à identifier et apprécier
les aliments. Sans odorat, une partie des plaisirs de la table disparaît. « 90 % du “goût”, c'est l'odorat. La
plupart des patients qui l'ont perdu trouvent ce qu'ils mangent fade, ils disent avoir l'impression d'avaler du
carton », affirme Pierre Bonfils. « Selon une étude réalisée par notre service, 60 % des personnes qui
perdent l'odorat font une dépression sévère », explique Pierre Bonfils.
Pour remédier à cette perte hédonique, le spécialiste conseille à ses patients de modifier leur façon de
cuisiner, de donner une plus grande part aux papilles gustatives. Opter par exemple pour la cuisine asiatique,
qui laisse plus de place à l'amertume et à l'acidité, ou encore jouer sur la texture des aliments. Car une fois
la perte de l'olfaction installée, il n'existe pas de traitement. Il faut donc s'adapter.

Par Anne Pringent, publié le 05/10/2015, lefigaro.fr

Vous aimerez peut-être aussi