Vous êtes sur la page 1sur 14

DES MACHINES ET DES HOMMES.

LA GUERRE N’AURA PAS LIEU

Warren Azoulay

Lextenso | « Droit et société »

2019/3 N° 103 | pages 595 à 607


Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
ISSN 0769-3362
Article disponible en ligne à l'adresse :
--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-droit-et-societe-2019-3-page-595.htm
--------------------------------------------------------------------------------------------------------------------

Distribution électronique Cairn.info pour Lextenso.


© Lextenso. Tous droits réservés pour tous pays.

La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les
limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la
licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,
sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de
l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage
dans une base de données est également interdit.

Powered by TCPDF (www.tcpdf.org)


Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
Justice et intelligence artificielle
Questions en débat

Analyse juridique de (x)


Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
Des machines et des hommes. La guerre n’aura pas lieu

Warren Azoulay
Laboratoire de Droit Privé et de Sciences Criminelles (LDPSC), Faculté de droit et de science politique – Aix-Marseille Université,
3 avenue Robert Schuman, F-13628 Aix-en-Provence.
<warren.azoulay@univ-amu.fr>
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
 Résumé Médecine, biologie, économie, finance, sociologie, sport, les domaines à
mobiliser l’apprentissage machine sont de plus en plus nombreux. Si leur
intérêt n’a cessé de s’intensifier ces dernières années, c’est qu’ils ont préféré
percevoir les méthodes d’« intelligence artificielle » comme des outils tech-
niques permettant de traiter de grandes bases de données avec un haut
degré de précision plutôt qu’en tant que science concurrentielle. De façon
très tardive, les juristes l’explorent désormais, non sans réfractaires. Tantôt
considérée comme la nécessité d’une nouvelle ère « Big Data », l’intelligence
artificielle est aussi dénoncée par d’autres qui y voient la volonté d’une
mécanisation du droit où la machine prétendrait supplanter l’humain.
Pourtant, comme pour toutes les autres sciences, les algorithmes seront de
puissants outils pour la connaissance. La coopération entre l’intelligence
artificielle machine et l’intelligence naturelle humaine permettra de renfor-
cer la compréhension que nous avons des mécanismes juridiques et de leur
application par les professionnels du droit.
Algorithmes – Apprentissage automatisé – Apprentissage machine – Big Data
– Intelligence artificielle – Justice prédictive – Ouverture des données publiques.

 Summary Machines and Humans. The War Will Not Take Place
Medicine, biology, economics, finance, sociology, sport, the fields to mobi-
lize machine learning are increasingly numerous. Their interest has grown
steadily in recent years as they have seen “artificial intelligence” methods as
technical tools for processing large databases with a high degree of accuracy
rather than as a competitive science. Belatedly, lawyers are exploring artifi-
cial intelligence, but not without resistance. Sometimes considered as the
dawn of a new era of “big data,” others denounce artificial intelligence in
which they foresee a mechanization of the law where the machine would
supplant the human. Yet, as with all other sciences, algorithms are powerful
tools for knowledge production. Cooperation between artificial machine
intelligence and natural human intelligence will strengthen our understan-
ding of legal mechanisms and their application by legal professionals.
Algorithms – Artificial intelligence – Automated learning – Big data – Machine
learning – Open data – Predictive justice.

Droit et Société 103/2019  597


W. AZOULAY

Les travaux sur les algorithmes et le droit, plus largement sur une justice dite
« prédictive », ont été aussi denses qu’épars ces dernières années. Notion particuliè-
rement indéterminée que la doctrine juridique s’est jusqu’ici dispensée de concep-
tualiser, la production en droit sur ce sujet fait encore très peu référence tant aux
travaux fondateurs qu’aux articles spécialisés sur la question, qu’il s’agisse des
mathématiques combinatoires, d’informatique théorique ou encore de sciences
cognitives. Il a pu être observé que la justice « prédictive » n’est en définitive que la
nouvelle appellation, chez les juristes, de courants de recherches déjà anciens 1. En
effet, les différents champs auxquels elle renvoie se retrouvent dans les bases de
données du Web of Science, à l’instar des computer science artificial intelligence,
jurimetrics, computational law, ou encore legal informatics, et demeurent jusqu’ici
délaissés par la doctrine juridique. Émerge alors le problème crucial des publications,
académiques ou non, traitant d’un tel sujet en ayant pris énormément d’avance sur la
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
théorie et la compréhension en profondeur des mécanismes qui le régissent 2. Or,
comme le souligne efficacement Claire Mathieu, « s’ils sont bien conçus et compris,
les algorithmes sont aussi de puissants outils d’optimisation qui peuvent contribuer
au bien commun, comme par exemple dans l’analyse de données médicales » 3.
Certains voient dans la justice « prédictive » la prétention d’une solution précise
d’un point de vue arithmétique 4, et pensent que « le numérique permet de chiffrer la
réalité, c’est-à-dire de la coder de telle manière que des réalités hétérogènes peuvent
être lues et décryptées ensemble » 5 en lui prêtant « l’un des rêves les plus vieux du
droit : un droit sans l’État » 6. Quelques autres ont voulu battre en brèche ces affirma-
tions, à l’instar de Luc Julia qui publiait cette année 2019 un ouvrage au titre aspirant
tant à provoquer qu’à remettre l’intelligence artificielle à sa juste place en certifiant
qu’« [elle] n’existe pas » 7. Il a donc été utilement souligné que « son livre ne doit pas
être lu comme une tentative de déconstruction de la bulle IA mais comme un mou-
vement stratégique destiné à (ré)affirmer la légitimité de son positionnement en
frappant ses concurrents du sceau de l’amateurisme » 8. En effet, l’actuel directeur du
laboratoire de recherche en intelligence artificielle de Samsung installé à Paris entend
sortir de son silence, principalement car le discours produit sur l’intelligence artifi-
cielle l’« insupporte » en ce « qu’il s’agit surtout de délire émanant de personnes qui
ont tout intérêt à nourrir des fantasmes populaires sur les méchants robots qui vont

1. Julien LARRÈGUE, « Justice prédictive. Gouverner l’institution judiciaire par les nombres : une généalogie
de la “ justice prédictive” », Droit pénal, 4, 2019.
2. Claire MATHIEU, « Comprendre les algorithmes pour les apprivoiser », Leçon inaugurale au Collège de
France, Paris, 2017.
3. Ibid.
4. Bruno DONDERO, « Justice prédictive : la fin de l’aléa judiciaire ? », Recueil Dalloz, 10, 9 mars 2017,
p. 532-538.
5. Antoine GARAPON, « Les enjeux de la justice prédictive », La semaine juridique, édition générale, 1-2,
9 janvier 2017, p. 31.
6. Ibid.
7. Luc JULIA, L’intelligence artificielle n’existe pas, Paris : First, 2019.
8. Julien LARRÈGUE, « Un tournant relativiste chez les juristes ? La distinction entre les personnes et les
choses n’est pas menacée par les robots humanoïdes », Carnet Zilsel, 23 février 2019.

598  Droit et Société 103/2019


Des machines et des hommes. La guerre n’aura pas lieu

prendre le pouvoir, ou pire, qui vont tous nous tuer » 9. La démarche de cet ancien
chercheur du CNRS, puis du MIT, s’oriente essentiellement en direction des profanes
afin non seulement qu’ils se forgent une opinion sur l’intelligence artificielle, mais
qu’ils évitent aussi de tomber dans une « croyance béate en la technologie » 10 carac-
téristique du scientisme consistant à croire que la science, dont les algorithmes font
partie, organise scientifiquement l’humanité, et le droit, puisque cette même huma-
nité fonctionnerait justement comme une machine 11. Il ne s’agit pourtant pas d’un
changement de paradigme pour le juriste dans son exercice professionnel en ce que
l’intelligence artificielle ne transforme ni le système de représentation du droit ni ses
valeurs. Elle constitue tout au plus l’introduction d’une méthode classique de sciences
logico-formelles pour appréhender la matière juridique et ses données.

I. Rupture hiérarchique des sciences : la mobilisation d’une méthode disruptive


Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
en droit
Si les disciplines demeurent pour certaines divisées en « branches », en « domaines
d’études » ou encore en « sciences », l’enfermement dans une spécialité est aujourd’hui
largement dénoncé par de nombreux chercheurs qui invitent à « l’ouverture des pri-
sons disciplinaires » 12 et à revenir sur les vicissitudes que les disciplines ont con-
nues au cours des décennies 1970 et 1980, période d’une inestimable importance
quant à leur avancement 13. Reprenant les termes de Georges Gusdorf, historien des
idées, philosophe et épistémologue, Bernard Valade a pu rappeler que le savoir
unitaire est révolu, celui-ci considérant la spécialisation comme étant une « cancé-
risation épistémologique » 14 et prônant la rupture avec la « connaissance endisci-
plinée » 15. La question d’une approche nouvelle n’est pas récente puisqu’elle ali-
mentait déjà la contestation étudiante de la deuxième moitié des années 1970 en
servant, particulièrement en France, à définir ses revendications au regard de la
formation universitaire 16. Le débat est aujourd’hui toujours aussi présent.
Néanmoins, il est exact que la disciplinarisation comme la spécialisation des
sciences peuvent favoriser l’accumulation des connaissances et leur transmis-
sion 17. De même, l’hyperspécialisation, en ce qu’elle constitue une avancée de la
connaissance, contribue de façon certaine au progrès technique 18. Pour autant, ces

9. Luc JULIA, L’intelligence artificielle n’existe pas, op. cit., p. 10.


10. Ibid.
11. Ernest RENAN, L’avenir de la science – pensées de 1848, Paris : Calmann Lévy, 1890, p. 37.
12. Bernard VALADE, « La traversée des disciplines : passages et passeurs », Hermès, La Revue, 67, 2013, p. 80.
13. Ibid.
14. Georges GUSDORF, « Interdisciplinaire (connaissance) », Encyclopaedia Universalis, Paris : Encyclopaedia
Universalis, 1re éd., 1975, cité dans Bernard VALADE, « La traversée des disciplines : passages et passeurs »,
article cité, p. 86.
15. Georges GUSDORF, « Interdisciplinaire (connaissance) », article cité.
16. Yves LENOIR, « L’interdisciplinarité : aperçu historique de la genèse d’un concept », Cahiers de la recherche
en éducation, 2 (2), 1995, p. 228.
17. Sylvie CATELLIN et Laurent LOTY, « Sérendipité et indisciplinarité », Hermès, La Revue, 67, 2013, p.  32.
18. Bernard CLAVERIE, « Pluri-, inter-, transdisciplinarité : ou le réel décomposé en réseaux de savoir »,
Projectics / Proyéctica / Projectique, 4, 2010, p. 17.

Droit et Société 103/2019  599


W. AZOULAY

processus nuisent aussi incontestablement à la découverte scientifique car la disso-


ciation des sciences et leur autonomie entraînent la perte du sens et des enjeux de
la recherche, un constat faisant dire à certains chercheurs que « ce qui fait la force
des sciences fait aussi leur faiblesse » 19. Cette division du travail intellectuel et
scientifique a ainsi pour effet délétère 20 d’ériger des frontières privant le chercheur
« de connaître le tout pour connaître les parties » 21, alors que l’émancipation du
cloisonnement des disciplines scientifiques se caractérise tant par une puissance
explicative que pédagogique et investigatrice 22. Plutôt que de prêter son concours
au raffermissement de l’idée d’un savoir scientifique de plus en plus compartimenté,
la transdisciplinarité permet de satisfaire le besoin de rendre à l’aventure humaine
l’unité du sens 23 en conduisant au-delà des clivages disciplinaires cristallisants. La
recherche des explications causales, notamment par la déduction mathématique,
est à la fois indispensable à l’activité scientifique et source de connexions interdis-
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
ciplinaires, d’où un renversement spectaculaire des conceptions contemporaines
de la science par rapport à l’idéal positiviste 24.
L’idée n’est assurément pas de céder à la facilité issue du « technologisme » dont
le physicien et biologique Pierre Delattre a pu écrire qu’il se soucie davantage de
savoir-faire parcellaires et qu’il renvoie à des temps meilleurs la compréhension du
phénomène étudié. Dans son article « Interdisciplinaires (recherches) », celui-ci
énonce que « des esprits morcelés ne peuvent construire qu’une science et une
société également morcelées » 25. L’objectif est en revanche de mobiliser une mé-
thode d’anticipation qui se heurtait jusqu’ici, entre autres, à des problèmes de dis-
ponibilité et d’accès aux données. Tel est par exemple le cas des décisions jurispru-
dentielles à venir. En se fondant sur des tendances passées selon un indicateur à
valeur scientifique 26, il deviendrait possible, dans un premier temps, d’établir une
carte, sinon exhaustive, a tout le moins la plus précise qu’il soit du savoir en droit,
et en second lieu, de répondre au besoin selon lequel « des disciplines peuvent, à
un moment ou à un autre, être confrontées à des problèmes qui nécessitent une
coopération avec d’autres disciplines » 27.

19. Sylvie CATELLIN et Laurent LOTY, « Sérendipité et indisciplinarité », article cité, p. 32.
20. Bernard LAHIRE, « Des effets délétères de la division scientifique du travail sur l’évolution de la sociologie »,
SociologieS, 2012.
21. Christian GERINI, « L’interdisciplinarité entre sciences dures et sciences humaines comme retour salvateur
vers un état ontologique aboli par la spécialisation. », Laboratoire I3M, Université du Sud Toulon Var, 2005, p. 1.
22. Bernard CLAVERIE, « Pluri-, inter-, transdisciplinarité : ou le réel décomposé en réseaux de savoir »,
article cité, p. 17.
23. Jean-Pierre KESTEMAN, « L’Un, le Multiple et le Complexe. L’Université et la transdisciplinarité », A
contrario, 2 (1), 2004, p. 89.
24. Jean PIAGET, « L’épistémologie des relations interdisciplinaires », in L’interdisciplinarité. Problèmes
d’enseignement et de recherche dans les universités, Paris : OCDE, 1972, p.  155.
25. Pierre DELATTRE, « Interdisciplinaires (Recherches) », Encyclopaedia Universalis, Paris : Encyclopaedia
Universalis, 2e éd., 1985, p. 1215.
26. Éloi BUAT-MÉNARD, « La justice dite “ prédictive” : prérequis, risques et attentes – l’expérience française »,
Les Cahiers de la Justice, 2 (2), 2019, p. 270.
27. Tom Burton BOTTOMORE, « Introduction », in Léo APOSTEL et al., Interdisciplinarité et sciences humaines,
Paris : Unesco, 1983, vol. 1, p. 10.

600  Droit et Société 103/2019


Des machines et des hommes. La guerre n’aura pas lieu

II. Méthodes d’apprentissage automatisé : du neuf avec de l’ancien


Deux phases principales de travail et de recherche sont observables sur les opé-
rations de classification au sein de la communauté statistique. La première, dite
« classique » 28, s’est essentiellement concentrée sur les travaux de Fisher sur la
discrimination linéaire et sur ses dérivés. La seconde phase, « moderne » 29, a quant à
elle voulu exploiter différents modèles en essayant d’établir des règles de classifica-
tion. Quelles que soient les approches, toutes présentent la caractéristique commune
d’être des modèles de probabilité. Depuis, un nombre considérable de méthodes a
été développé en apprentissage automatisé, ou « machine learning », pour s’attaquer
aux problèmes de modélisation prédictive par différents groupes professionnels et
académiques 30. La recherche sur ce sujet a permis d’importantes avancées théo-
riques et a amélioré la compréhension des problèmes profonds de l’inférence 31.
Puisque la quasi-totalité des disciplines scientifiques adapte les modèles aux don-
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
nées 32, les chercheurs conçoivent d’abord la réalisation d’une expérience, puis
procèdent aux observations, et enfin collectent ce qui sera leur matériel de travail,
c’est-à-dire les données 33. Ils extraient ensuite des connaissances de celles-ci par la
découverte de modèles traitant ces données, c’est le processus d’induction, ou
inférence, consistant à extraire une règle générale à partir d’un ensemble de cas
particuliers, les observations particulières permettant de passer à une description
plus générale et, ainsi, de changer de focale comme le ferait le raisonnement par
analogie entre les structures 34. L’apprentissage est pour sa part appelé « estimation »,
et l’opération de classification se retrouve sous le terme d’« analyse discriminante » 35.
La question ne sera pas de définir ce qu’il est possible d’entendre par le terme
de « machine » et il semblerait presque naturel de considérer que toutes les tech-
niques d’ingénierie peuvent être mobilisées 36 dans une finalité d’apprentissage
automatisé. En outre, si les techniques de machine learning sont aujourd’hui consi-
dérées, à tort, comme faisant partie du domaine de « l’intelligence artificielle », leur
appartenance à celui-ci ne relève pas de l’évidence puisqu’elle n’y a pas toujours été
rattachée 37. D’aucuns, tels que Luc Julia, situent la genèse de l’intelligence artificielle
à la conférence de Dartmouth de 1956 38 lors de laquelle des chercheurs étudiant la

28. Donald MICHIE, D. J. SPIEGELHALTER et C. C. TAYLOR, Machine Learning, Neural and Statistical Classification,
Upper Saddle River : Prentice Hall, 1994, p. 10.
29. Ibid.
30. Ibid.
31. David J. HAND, Heikki MANNILA et Padhraic SMYTH, Principles of Data Mining, Cambridge : MIT Press, 2001, p. 14.
32. Ethem ALPAYDIN, Introduction to Machine Learning, Cambridge : MIT Press, 2004, p. 13.
33. Ibid.
34. Howard S. BECKER et Christine MERLLIÉ-YOUNG, La bonne focale, Paris : La Découverte, 2016, p.  65.
35. Geoffrey MCLACHLAN, Discriminant Analysis and Statistical Pattern Recognition, Hoboken : John Wiley
& Sons, 2004, p. 78. ; v. également Trevor HASTIE, Robert TIBSHIRANI et Jerome FRIEDMAN, The Elements of
Statistical Learning: Data Mining, Inference, and Prediction, New York : Springer-Verlag, 2e éd., 2009.
36. Alan M. TURING, « Computing Machinery and Intelligence », Mind, LIX (236), 1950, p. 435.
37. Dominique CARDON, Jean-Philippe COINTET et Antoine MAZIÈRES, « La revanche des neurones », Réseaux,
211, 2018, p. 173-220.
38. Luc JULIA, L’intelligence artificielle n’existe pas, op. cit., p. 114.

Droit et Société 103/2019  601


W. AZOULAY

théorie des automates introduite par Alan Turing en 1936 39 tentaient de recréer les
mécanismes de fonctionnement du cerveau humain à l’intérieur d’une machine. La
prétention principale de cette conférence était, notamment, de s’intéresser à l’appren-
tissage et aux caractéristiques de l’intelligence afin de pouvoir décrire avec un degré de
précision élevé toutes les séquences du raisonnement qu’une machine serait capable
de simuler en utilisant le langage, en formant des abstractions, en conceptualisant
ou encore en résolvant des problèmes jusqu’ici réservés aux humains.
D’autres, avec peut-être plus d’exactitude, relèvent que A. Turing pensait à l’intelli-
gence artificielle des machines et la résolution heuristique de problèmes au moins dès
1941 40. Dans ses travaux sur la décidabilité en arithmétique et d’informatique théo-
rique, il écrivait en 1950 que « d’ici cinquante ans, il n’y aura plus de moyen de
distinguer les réponses données par un homme ou un ordinateur » 41. Avant même
de se poser la question de savoir si les machines peuvent « penser » 42, et de pro-
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
duire une réponse sur une question posée 43, il proposait de s’interroger sur le fait
de savoir si cette nouvelle question, c’est-à-dire celle de la faisabilité, était digne
d’être étudiée 44 ? Ce nouveau problème avait selon lui l’avantage de tracer une
ligne assez nette entre les capacités psychiques et intellectuelles d’un homme et
celles d’une machine 45. En effet, selon l’exemple du cryptologue et mathématicien,
aucun ingénieur ni chimiste ne pouvait prétendre, à l’époque, être capable de pro-
duire un matériau indiscernable de la peau humaine, mais en revanche il était selon
lui tout à fait imaginable que cela puisse se faire un jour. Devrions-nous alors penser
qu’il est inutile d’essayer d’apprendre à une machine à penser en l’habillant d’une
telle chair artificielle 46 ? A contrario, si l’homme essayait pour sa part d’imiter la
machine, il produirait assurément une piètre performance, parfaitement normale tant
en raison de sa lenteur que de son inexactitude dans l’arithmétique. Les machines
doivent ainsi être considérées comme étant capables de réaliser quelque chose devant
être décrit comme une pensée, mais très différente de ce que fait un humain 47,
l’idée étant d’essayer de fournir des réponses qui seraient naturellement données
par un homme. C’est par ailleurs ce qu’ont essayé de faire de nombreux chercheurs
en mobilisant la théorie des jeux afin d’étudier mathématiquement les interactions
entre des agents indépendants et des agents intéressés. L’intérêt porté à cette théorie a
considérablement augmenté au cours des dernières années puisqu’elle couvre désor-
mais de multiples domaines scientifiques comme la science politique, la biologie, la

39. Alan M. TURING, « On Computable Numbers, with an Application to the Entscheidungsproblem »,


Proceedings of the London Mathematical Society, 2 (42), 1936, p. 230-265.
40. B. Jack COPELAND, « The Turing Test* », Minds and Machines, 10 (4), 2000, p. 520.
41. Alan M. TURING, « Computing Machinery and Intelligence », article cité, p. 432.
42. ID., « Can Digital Computers Think. BBC 3rd programme », 1951, in B. Jack COPELAND (ed.), The Essential
Turing, Oxford : Oxford University Press, 2004, p.  28-41.
43. ID., « Can Automatic Calculating Machines Be Said To Think? », in B. Jack COPELAND (ed.), The Essential
Turing, op. cit.
44. ID., « Computing Machinery and Intelligence », article cité, p. 433.
45. Ibid.
46. Ibid.
47. Ibid., p. 436.

602  Droit et Société 103/2019


Des machines et des hommes. La guerre n’aura pas lieu

psychologie, l’économie, la linguistique ou encore la sociologie 48. L’on pourrait en


ce sens tenter de mobiliser une approche plus artisanale que celle de machine lear-
ning afin d’identifier et de comprendre les éléments qui fondent la décision d’un
agent. Elle se verrait toutefois, inévitablement, opposer un problème de masse des
données dont la traduction nécessiterait non seulement un temps de traitement
excessif, mais aboutirait aussi à des résultats faux.
Les juristes ont par ailleurs bien connu ce tumulte des données. La mise à dis-
position du public, à titre gratuit, des décisions de justice par les articles 20 et 21 de
la loi pour une République numérique du 7 octobre 2016 ne pouvait avoir pour
conséquence directe d’améliorer la connaissance qu’a le justiciable de sa propre
justice. L’effet, presque pervers, d’une diffusion aussi massive, a précisément été de
provoquer une saturation dans la recherche des données, un état de chaos informa-
tionnel quasi insurmontable pour l’humain. Tandis que l’innovation par l’intelligence
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
artificielle dans le domaine juridique est encore perçue comme « peu dynamique en
France » 49, quelques intermédiaires jouent un rôle dans le data mining 50 des don-
nées. Grâce à des algorithmes à la fonction d’interface entre la donnée brute et
l’utilisateur, ils lui permettent d’extraire les éléments dont la prétention est de faire
sens à sa problématique 51.
Par ailleurs, si les humains sont amenés à accomplir une multitude de tâches et
à prendre de nombreuses décisions, ils sont parfois bien incapables d’expliquer la
façon dont ils procèdent pour parvenir à leur prise de position. Dans un contexte de
judiciarisation toujours plus prononcée, de massification du contentieux et de satura-
tion des données tant en raison de leur quantité que de leurs sources, l’apprentissage
automatisé apparaît comme étant une nécessité lorsque l’expertise juridique se
trouve être comprimée par le temps judiciaire, ou quand un individu est confronté
à une impossible explication de sa propre expertise. En outre, l’humain lui-même
effectue une opération de classification cognitive pour parvenir à sa décision dans un
large éventail d’activités. L’apprentissage couvre pour cette raison tout contexte dans
lequel une décision ou une prévision est faite sur la base d’informations disponibles, la
procédure de classification étant une méthode formelle pour parvenir à un tel juge-
ment dans une situation donnée 52. Elle est aujourd’hui mobilisée dans de nombreux
domaines. Tel est le cas du commerce, milieu dans lequel les entreprises analysent
leurs données passées de ventes pour apprendre du comportement de leurs clients

48. Kevin LEYTON-BROWN, Essentials of Game Theory, San Rafael : Morgan and Claypool, 2008, p. 15.
49. ATAWAO CONSULTING, Intelligence artificielle – État de l’art et perspectives pour la France. Rapport final,
PIPAME, DGE, CGET, TECH’IN, 2019, p. 143.
50. La métaphore du « forage de données » (« data mining ») renvoie à l’image d’un volume de terre extrait
d’une mine qui, lorsqu’il est correctement traité, permet de découvrir une petite quantité de matière pré-
cieuse, tout comme lorsqu’un grand volume de donnée est traité celui-ci livre ses informations les plus
précieuses.
51. Paolo GIAMBIASI, « Les perspectives ouvertes par la mise à disposition du public des décisions de justice :
quelle place et quelle régulation pour la justice prédictive ? État des lieux et analyse à partir de certaines propo-
sitions du rapport de la mission sur l’open data des décisions de justice », in dossier « La justice prédictive »,
Archives de philosophie du droit, 60, 2018, p. 117-123.
52. Donald MICHIE, D. J. SPIEGELHALTER et C. C. TAYLOR, Machine Learning, Neural and Statistical Classification,
op. cit., p. 9.

Droit et Société 103/2019  603


W. AZOULAY

et améliorer leur gestion de la relation clientèle, ou celui des institutions finan-


cières 53 qui analysent les transactions passées pour prédire les risques de crédits de
leurs emprunteurs 54. Certes, cette approche existait déjà avant que les ordinateurs ne
soient accessibles au commun des mortels, mais les statisticiens ne pouvaient avoir
recours qu’à de petits échantillons et travaillaient avec des méthodes « simples » 55,
souvent limitées par la puissance de calcul. L’analyse de données traditionnelle
n’étant plus faisable, à la fois en raison de leur quantité, mais également parce
qu’une analyse manuelle serait trop coûteuse 56, l’apprentissage automatique per-
met, par la conception d’un algorithme, d’optimiser l’exploitation de la base de
données produite par l’expérience du passé 57, et sa conception englobant des pro-
cédures de calcul automatique basées sur des opérations logiques ou binaires per-
met d’apprendre une tâche à partir d’une série d’occurrences. Le propos n’est alors
pas celui d’une concurrence avec l’humain, mais de la complémentarité de celui-ci
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
avec la machine.

III. Pseudo-technoprophètes : la fin des fantasmes


La relation fascinante entre l’homme et la machine se retrouve au niveau des juristes,
étrangers à la programmation et à la conception d’algorithmes, et des chercheurs
en intelligence artificielle animés de la prétention de pouvoir s’emparer de la fonc-
tion du droit 58. Si les deux ne s’opposent pas, bien au contraire, c’est que l’objectif
de l’intelligence artificielle n’est pas de soutenir un argument de paille tendant à
vouloir systématiser le droit ou à le réduire à un exercice mathématique, voire méca-
nique, notamment par sa mise en formule symbolisée de type algébrique 59. Il ne
doit pas non plus être de prétendre que le fait de modéliser les décisions de justice
par le recours à des algorithmes permettrait de trouver une correspondance par-
faite et inattaquable entre une variable explicative et celle à expliquer, le fantasme
d’une équation absolue. Le but n’est donc pas, par exemple, de prétendre qu’il est
possible de mesurer et d’identifier avec une précision parfaite les raisons d’une
prise de décision comme l’incarcération, ou encore d’un montant d’indemnisation,
mais plutôt de construire une approximation fiable et utile afin de rendre compte
des données disponibles. Si l’identification d’un processus complet n’est pour
l’heure pas accessible, l’on peut en revanche en détecter certains modèles afin de
voir émerger des régularités et en dégager des règles d’association. L’utilisation de
ces modèles permettra d’effectuer des prévisions futures en supposant que l’avenir
proche ne présente pas de raisons objectives d’être différent du passé, mais aussi

53. Emmanuel KESTENARE, « Justice prédictive et protection juridique : quel apport dans notre relation
client ? », in dossier « La justice prédictive », op. cit., p. 271-278.
54. Ethem ALPAYDIN, Introduction to Machine Learning, op. cit., p. 25.
55. Ibid., p. 13.
56. Ibid.
57. Ibid., p. 25.
58. Antoine GARAPON et Jean LASSÈGUE, Justice digitale. Révolution graphique et rupture anthropologique,
Paris : PUF, 2018, p. 352.
59. Marie-Laure MATHIEU-IZORCHE, Logique et raisonnement juridique, Paris : PUF, 2e éd., 2015, vol. 1, p. 12.

604  Droit et Société 103/2019


Des machines et des hommes. La guerre n’aura pas lieu

d’enrichir les débats, de rompre avec une quantité de tâches tout aussi chronophages
qu’énergivores, ou encore de limiter l’imprévisibilité de la loi à sa stricte nécessité 60.
En effet, si la qualité de la règle de droit s’apprécie, en partie, par sa prévisibilité 61,
elle n’est en revanche que la formulation d’une règle générale et abstraite devant
s’appliquer à un ensemble de cas particuliers une fois les prismes du raisonnement et
de l’interprétation passés. Ainsi, le juriste mobilise un raisonnement par la casuis-
tique ne consistant pas à penser « au cas par cas », casuistique de conception des sys-
tèmes de common law, mais « sur des cas » 62, casuistique de formulation 63 propre au
modèle romano-germanique que nous connaissons aujourd’hui. Dans le droit fil des
travaux de Chaïm Perelman 64, d’aucuns ont ainsi pu souligner qu’« en s’imposant de
traiter les cas semblables de façon identique, la casuistique produit une véritable
sécurité juridique en maintenant la force d’inertie des précédents jurisprudentiels et
légaux » 65. De cette façon, l’imprévisibilité se limiterait à l’introduction d’une nou-
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
velle distinction lorsqu’elle est nécessaire 66. Si l’apprentissage automatisé ne sait
répondre à lui seul à cette quête de continuité et de cohérence dans le traitement
des cas, il est une piste de réflexion fertile, un premier pas méthodologique vers
elles tout en restant sous la supervision humaine.
Parfois associée au spectaculaire, l’intelligence artificielle ne saurait tendre à « faire
peur », telle que cette angoisse « de la capacité qu’elle aurait à terme de supplanter
l’humain et des moyens de contrôle social qu’elle permettrait » 67. L’humain doit davan-
tage redouter de ce qu’il fera de ses propres innovations, le progrès s’accompagnant de
problématiques nouvelles. L’assistance à la décision par la mobilisation du droit inté-
grée dans des procédures de calcul aux fins probabiliste ne conduira pas, si l’intelli-
gence artificielle est correctement pensée et maîtrisée, à une justice numérique inique,
pas davantage que la forme écrite n’a manqué à l’équité 68. Il appartiendra au magistrat,
par exemple, de combattre toute tentative séduisante de performativité en devenant la
bouche d’un algorithme, ou encore l’adoption d’une approche par mimétisme de ses
pairs transformant la prévision en prophétie autoréalisatrice 69.
Les algorithmes n’étant pas des procédés neutres 70, le traitement qu’ils opèrent
n’est pas dénué de résultats déformés, volontairement ou involontairement, soit en

60. Édouard ROTTIER, « La justice prédictive et l’acte de juger : quelle prévisibilité pour la justice ? », in
dossier « La justice prédictive », op. cit., p. 193.
61. Xavier PIN, Droit pénal général, Paris : Dalloz, 4e éd., 44, 2010.
62. Frédéric ROUVIÈRE, « Apologie de la casuistique juridique », Recueil Dalloz, 2017, p. 118-123.
63. Stefan GOLTZBERG, Les sources du droit, Paris : PUF, 2016, p. 90-92.
64. Chaïm PERELMAN, Éthique et droit, [s.l.] : Éditions de l’université de Bruxelles, 1990, p. 135-136.
65. Frédéric ROUVIÈRE, « Apologie de la casuistique juridique », article cité, p. 118-123.
66. Ibid.
67. Jérôme DUPRÉ, « Du droit saisi par l’IA au droit saisissant l’IA, éléments de réflexion », in dossier « La
justice prédictive », op. cit., p. 104.
68. Emmanuel JEULAND, « Justice numérique, justice inique ? », Les Cahiers de la Justice, 2 (2), 2019, p. 194.
69. Éloi BUAT-MÉNARD, « La justice dite “ prédictive” : prérequis, risques et attentes – l’expérience française »,
article cité, p. 274.
70. Élise MOURIESSE, « Quelle transparence pour les algorithmes de juriste prédictive ? », in dossier « La
justice prédictive », op. cit., p. 130.

Droit et Société 103/2019  605


W. AZOULAY

raison d’aléa, soit même de biais. Considérant que les algorithmes ne sont au départ
que des opinions intégrées à du code, certains lanceurs d’alerte tels que la data
scientist Cathy O’Neil les ont ainsi qualifiés de « bombe à retardement » 71. Si, en
dépit des textes épars existants déjà comme le Règlement général sur la protection
de données (RGPD) 72, le droit de la propriété intellectuelle, celui de la responsabili-
té, civile comme pénale, certains aspirent à un encadrement accru des algorithmes
et à l’audit de leur transparence 73, la Commission nationale de l’informatique et
des libertés (CNIL) rappelait récemment que la régulation ne pourrait se faire qu’en
conciliation avec une préservation du secret de conception des outils 74. À cet im-
pératif devra être ajouté celui d’une collaboration de la recherche et du législateur
permettant de borner l’intelligence artificielle de façon transparente et homogène
selon les pays. L’exemple du policy congress tenu au MIT en ce début d’année 2019
en est une illustration patente en ce qu’il réunissait des chercheurs, anciens chefs
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso
d’états-majors de la Maison-Blanche, secrétaires de cabinets, chefs de la sécurité
intérieure ou encore des dirigeants industriels et de la société civile. Tous réfléchis-
saient conjointement à la problématique d’exploitation de l’intelligence artificielle,
à la question de l’éthique et à sa réglementation. Cette collaboration contribuait
alors à l’élaboration de la première norme intergouvernementale sur l’intelligence
artificielle adoptée par le Conseil de l’OCDE le 22 mai 2019 75, adoptée par 42 pays,
dont le principe directeur est une approche responsable à l’appui d’une intelli-
gence artificielle digne de confiance. La prétention selon laquelle les algorithmes
peuvent être mathématiquement objectifs et sans faille étant fantasmatique, il
faudra orchestrer une coopération entre la machine, dotée d’intelligence artifi-
cielle, et l’Homme, disposant d’une intelligence naturelle, ce dernier ne pouvant
espérer se dispenser de sa propre supervision ou de toute expertise professionnelle
puisque l’intelligence artificielle ne le doterait, le cas échéant, que d’un artifice
d’intelligence.

71. Cathy O’NEIL, Algorithmes : la bombe à retardement, Paris : Les Arènes, 2018.
72. Règlement UE n° 2016/679, 27 avril 2016.
73. Paolo GIAMBIASI, « Les perspectives ouvertes par la mise à disposition du public des décisions de jus-
tice : quelle place et quelle régulation pour la justice prédictive ? État des lieux et analyse à partir de cer-
taines propositions du rapport de la mission sur l’open data des décisions de justice », article cité, p. 120.
74. CNIL, « Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de
l’intelligence artificielle », Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion
éthique confiée par la loi pour une République numérique, 2017, p. 51.
75. OCDE, Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449, 22 mai 2019, p. 4.

606  Droit et Société 103/2019


Des machines et des hommes. La guerre n’aura pas lieu

 L’auteur
Attaché temporaire d'enseignement et de recherche à la Faculté de droit et de science
politique – Aix-Marseille Université, Warren Azoulay est membre du laboratoire de Droit
Privé et de Sciences Criminelles (LDPSC) - EA4690 et chercheur associé de l’Observatoire
Régional de la Délinquance et des Contextes Sociaux (MMSH – USR 3125). Son thème
principal de recherche porte sur la mobilisation de méthodes d’apprentissage machine
pour traiter les décisions de justice en droit pénal dans un objectif d’imputations cau-
sales. Parmi ses publications récentes :
— « Droit et enjeu pénal à l’épreuve du renseignement numérique », Bulletin d’Aix, Faculté
de Droit et de Science Politique, Aix-Marseille Université, 2018 ;
— « Big Brother Watch et autres c/ Royaume-Uni : Strasbourg vous regarde », Lexbase pénal,
(N)TIC, 10, 2018 ;
— « Cybercriminalité : d’une compétence concurrente parisienne à une prérogative du
Parquet », Lexbase pénal, (N)TIC, n° 10, 2018.
Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Document téléchargé depuis www.cairn.info - Université Paris 1 - Sorbonne - - 194.214.29.29 - 02/04/2020 17:45 - © Lextenso

Droit et Société 103/2019  607

Vous aimerez peut-être aussi