Vous êtes sur la page 1sur 22

Département Droit Privé

Master : Juriste d’Affaires


Module : Cyber droit

Encadré par : Mr. ALOUI Bouchta Réalisé par : Fatin BADDRA

Année universitaire: 2023-2024


Table de matière

Introduction ..................................................................................................................... 3
Partie 1 : IA : Concept et enjeux juridiques....................................................................... 4
Chapitre 1 : La notion d’intelligence artificielle ............................................................................................ 5
Section 1 : L’objet de l’intelligence artificielle .......................................................................................... 5
Section 2 : Les techniques de l’intelligence artificielle ............................................................................. 5
Chapitre 2 : Le cadre légal de l’intelligence artificielle ................................................................ 8
Section 1 : Une dichotomie rigide du droit marocain ............................................................................... 8
Section 2 : L’octroi de la personnalité à l’intelligence artificielle .............................................................. 9
Partie 2 : le droit des affaires face à l’adaptation au exigence de l’IA .............................. 12
Chapitre 1 : Les Smart Contracts :............................................................................................................... 12
Section 1 : Les contrats Intelligents et leur réglementation juridique .................................................... 12
Section 2 : les lois et réglementations existantes concernant l'utilisation de l'intelligence artificielle
dans les contrats d'affaires en droit comparé ........................................................................................ 13
Section 3 : Les défis à la phase précontractuelle des contrats électroniques ................... 14
Section 1 : Limites de la responsabilité du fait des choses ..................................................................... 14
Chapitre 2 : Les réponses possibles du droit commun et de la responsabilité civile ................... 15
Section 1 : Le régime de la responsabilité du fait des produits défectueux ............................................ 15
Section 2 : Une responsabilité de l’objet doté de l’IA ? .......................................................................... 16
section 3 : des limites et problèmes liés à L’IA ....................................................................................... 17
Conclusion ...................................................................................................................... 19
Bibliographie .................................................................................................................. 20
CYBER DROIT L’intelligence artificielle et le droit

« Ce ne sont pas les philosophes avec leurs théories, ni les juristes avec leurs formules, mais
les ingénieurs avec leurs inventions qui font le droit et surtout le progrès du droit »[1].

[1] 1 Albert De Lapradelle, juriste et professeur de droit français spécialiste du droit international

public.

2
CYBER DROIT L’intelligence artificielle et le droit

Introduction
L’intelligence artificielle représente une technologie innovante et prometteuse qui offre
de nombreux avantages aux citoyens, aux entreprises et à la société dans son ensemble, elle
offre des gains d’efficacité et de productivité significatifs. Face à l’utilisation quotidienne de
cette technologie (drone, objets connectés, téléphone, voiture autonome…), le droit positif est
en passe de revoir la place de l’intelligence dans la nomenclature juridique.

Les définitions de l’intelligence artificielle (IA) sont nombreuses. Selon la formulation


retenue par le Document de réflexion sur l’IA de l’ACPR1, c'est une technologie qui a pour
objectif d’imiter les différentes fonctions cognitives (perception, raisonnement, apprentissage,
etc.) ou de reproduire des compétences humaines. Le concept d’IA est souvent restreint à des
programmes qui disposent d’une capacité d’apprentissage autonome.

Historiquement, il n'y a pas vraiment de date de début de l'intelligence artificielle, ce


terme a été utilisé pour la première fois lors de la conférence de Dartmouth en 1956 : les termes
de cognitivisme et de connexionnisme était déjà de plus en plus présents dans les années 40
c'est d'ailleurs en 1945 avec l'arrivée du premier ordinateur l’Eniak que les scientifiques
s’intéressaient vers une possibilité de mettre en pratique leur théorie sur l’IA. Il a cependant
fallu attendre l'année 1954 pour que le premier langage de programmation au sens moderne du
terme soit créé il s'agit du Fortran.
Puis les choses avançaient à ce qu'on pourrait considérer comme les débuts de l'intelligence
artificielle par exemple les automates qui utilisait souvent des principes de cybernétique il s'agit
de la science qui étudie les mécanismes de communication et de régulation à la fois chez les
êtres vivants mais aussi dans les machines, une des grandes avancées dans ce domaine fut la
création des tortues de grève Alter en 1950 alors que le premier ordinateur venait d'être créé
quelques années auparavant il était tout simplement impossible de s'imaginer retrouver de
l'informatique ou encore le moindre circuit électronique à l'intérieur de ces tortues celle-ci
fonctionne est donc de manière assez rudimentaire truffé de tubes à vide de semi-conducteurs
et de transistors ainsi que de deux capteurs un pour la luminosité puisque ces tortues avait la
particularité d'être attirés par la lumière et un autre permettant de détecter les obstacles et donc
d'éviter d'éventuelles collisions.

Depuis les années 50 les intelligences artificielles ont connu de grandes avancées, elle
se sont largement démocratisé qu'elles prennent la forme de logiciels ou bien qu'elle soit
intégrée à des robots. On distingue trois types d'intelligence artificielle : On retrouve tout
d'abord la catégorie ANI qui regroupent des ordinateurs aussi compétents voire même plus
compétent qu'un humain mais qui sont cependant limités à l'exécution d'une tâche bien précise.
À ce jour-là elle est très utilisé et fait même partie de notre quotidien, on la retrouve non
seulement dans les jeux mais également dans des logiciels et robots bien plus complexe. On
peut citer de nombreux exemples d’ANI comme par exemple la machine créée par Ibm qui était
capable de battre le joueur d'échecs Kasparov en 1997 alors qu'il détenait le titre de champion
du monde. Cette machine était capable de calculer jusqu'à 200 millions coups par seconde et
même d'anticiper les possibilités sur les sept coups suivants à titre de comparaison l'homme
n'est capable d'analyser qu'une ou deux positions par seconde. Le deuxième type d'intelligence
artificielle IA forte ou de haut niveau aussi appelé AJI, bien que ce type d'intelligence

1 ACPR, « Intelligence artificielle : enjeux pour le secteur financier », Document de réflexion, décembre 2018.

3
CYBER DROIT L’intelligence artificielle et le droit

artificielle n'est pas encore été officiellement atteint ; certains robots ont déjà montré des
comportements impressionnant on peut notamment citer Cubo qui est le premier robot avoir
pris conscience de ce qu'il était lors d'un test, après avoir été placés devant un miroir. Cette prise
de conscience constitue une grande avancée dans le domaine de l’IA. Enfin le dernier type
d’IA appelé super intelligence artificielle ou ASI et simplement une sorte d'AGI encore plus
évoluée qui a pour but de surpasser l'homme en tout point. Ce genre d'intelligence artificielle
reste encore à ce jour du domaine de la science-fiction mais vu la vitesse à laquelle la science a
évolué au cours de ces dernières années il y a fort à parier que les super intelligences artificielles
deviennent réelles dans les prochaines décennies.

Par conséquent, le choix de cette thématique s’avère primordial, en raison notamment


du rôle incontestable que remplit l’IA.

C’est pour cette raison d’ailleurs que, nous assistons sur le plan théorique au grand intérêt
octroyé à l’IA notamment à travers la rédaction de plusieurs ouvrages, thèses, mémoires,
revues… en la matière. Il s’agit, entre autres, de la thèse de M. Samir intitulée « Vers un droit
de l'intelligence artificielle » à Aix-Marseille en 2018, ainsi que celle de V. Alexandre «
L'intelligence artificielle et la responsabilité civile», et nous en passons.

Par la suite, un certain nombre de colloques, de conférences ont été organisés au Maroc comme
à l’étranger pour discuter et analyser l’importance et l’impact de l’IA sur le droit . A cet égard,
nous pouvons citer la Conférence organisée le 3 Avril 2018 à Marrakech par Le Conseil de
l’Europe sous le thème « Intelligence artificielle et systèmes judiciaires La justice dite «
prédictive » ».

L’amélioration considérable des IA dans le monde des affaires laisse supposer la


création de robots autonomes, de plus en plus présents dans nos sociétés. La question est
essentielle à se poser. Quel statut juridique doit être offert à ces intelligences artificielles et
comment le droit des affaires s’est adapté avec elle ?
Cette problématique principale nous pousse à poser d’autres questions subsidiaires : Les
questions de responsabilité sont importantes en la matière. Qui est responsable d'un dommage
causé par un robot ? et quels sont les défis posés devant le droit des affaires face à l’IA, ?

Ceci étant, on examinera, le concept et les enjeux juridique de l’IA dans une première
partie, pour aborder dans une deuxième, droit des affaires face à l’adaptation au exigence
de l’IA.

Partie 1 : IA : Concept et enjeux juridiques

4
CYBER DROIT L’intelligence artificielle et le droit
Afin de donner un aperçu clair et concis sur l’IA, il convient de mettre en évidence son
aspect juridique (Chapitre 2), ainsi que son objet et ses différentes techniques (Chapitre 1).

Chapitre 1 : La notion d’intelligence artificielle

Nous allons étudier dans un premier temps l’objet de l’IA (Section 1), puis dans un second
temps nous verrons ses différentes techniques (Section 2).

Section 1 : L’objet de l’intelligence artificielle

L’intelligence artificielle est le domaine scientifique qui traite de l’étude, la conception


et la mise en œuvre de « machines intelligentes ». Il se situe aujourd’hui à l’intersection de
très nombreux domaines de l’informatique et des mathématiques appliquées, et il est difficile
d’en donner une définition qui fasse consensus.

Dans l’évolution de cette technologie, plusieurs techniques ont été développées, du


machine Learning au plus récent deep Learning. Celles-ci reposent sur l’utilisation d’un déluge
de données ou big data pour atteindre un niveau de performance proche de celui du cerveau
humain.

En pratique, pour mesurer le niveau d’intelligence d’une machine, il faut d’abord définir une
tâche que l’on considère comme complexe. On considérera alors qu’une machine est «
intelligente » par rapport à une certaine tâche complexe – en général celle pour laquelle elle a
été conçue – si son niveau de performance pour celle-ci est suffisamment élevé. Ces tâches «
complexes » peuvent se répartir en pratique en plusieurs catégories, en fonction du niveau
d’expertise requis pour qu’un être humain puisse les résoudre :

• Tâches réalisables par la plupart des êtres humains. ex : tri de photos, conduite,
recommandation de produits
• Tâches réalisables par des êtres humains qualifiés. ex : diagnostic médical, détection de
la fraude, traduction
• Tâches réalisables par des êtres humains géniaux. ex : jeu intellectuel au niveau du
champion du monde, découverte scientifique révolutionnaire, création artistique de
génie.

Il est intéressant de noter que la difficulté d’une tâche pour une machine n’est pas corrélée
à la difficulté pour un être humain d’effectuer cette tâche. Les machines ont par exemple
dépassé le niveau humain aux échecs depuis 1997, avec la victoire de ‘Deep Blue’ sur le
champion du monde Gary Kasparov. A l’inverse, les machines sont encore très loin de pouvoir
répondre à des questions simples sur une histoire pour enfant.

Le but ultime de l’intelligence artificielle est d’aboutir à des machines faisant preuve
d’une intelligence « forte », c’est-à-dire capables de résoudre n’importe quelle tâche qu’un être
humain peut résoudre, y compris celle de déterminer quelle est « la tâche à résoudre » dans une
situation donnée. Une telle machine serait capable de remplacer un être humain pour n’importe
quelle tâche (non manuelle), ce qui révolutionnerait sans doute l’économie et la société.
Section 2 : Les techniques de l’intelligence artificielle

Depuis les années 2010 que l’intelligence artificielle connait une véritable explosion tant
sur le plan académique qu’industriel, avec le développement du big data, de la data science et
du deep Learning.
5
CYBER DROIT L’intelligence artificielle et le droit
• L’apprentissage automatique ou Machine Learning

Dans le but de résoudre des tâches réalisables par des humains, le domaine de l’IA a
naturellement développé des principes correspondant aux processus cognitifs humains. Un des
principes les plus utilisés est celui de l’apprentissage. Les êtres humains font en effet preuve
d’une très grande capacité d’apprentissage, leur permettant d’acquérir des nouvelles capacités
intellectuelles tout au long de leur vie : apprentissage du langage, de capacités de raisonnement,
de nouvelles langues, de nouveaux métiers.

Il est raisonnable de penser que si une machine peut apprendre, elle peut potentiellement
résoudre un grand nombre de tâches. Un sous- domaine de l’intelligence artificielle s’est donc
spécialisé dans les machines qui apprennent automatiquement, c’est l’apprentissage
automatique (machine Learning en anglais).

D’un point de vue informatique, on considère qu’une machine apprend si elle identifie « par
elle-même » une façon de résoudre une tâche donnée.

• Data science et Big Data

De manière assez naturelle, le niveau de performance d’une machine après apprentissage


dépend de deux facteurs : sa capacité de généralisation, et la représentativité du jeu de données
d’apprentissage. Ce dernier étant souvent tiré uniformément au hasard, sa représentativité
dépend directement de son nombre. Ainsi, il est difficile d’avoir une performance élevée avec
seulement quelques exemples, mais cela est plus facile avec plusieurs millions. C’est sur la base
de ce principe que s’est développé le big data. Avec la diminution drastique du coût de stockage
des données est apparue la possibilité́ d’entraîner des machines sur des jeux de données de
plusieurs millions voire milliards d’exemples et donc potentiellement d’aboutir à des machines
extrêmement performantes.

Si ce principe simple offrait une belle promesse, son application s’est avérée être limitée. Pour
obtenir un jeu de données d’apprentissage important il ne suffit pas en effet de disposer de
beaucoup de données, il faut que celles-ci soient labellisées. S’il est concevable de labelliser à
la main 1 000 ou 10 000 exemples, cela devient beaucoup trop couteux pour 1 000 000
d’exemples. Obtenir un jeu de données d’apprentissage d’une telle taille n’est donc possible
que si la labellisation est faite de manière automatique.

• Le deep learning

Il s’agit du sous-domaine du machine learning qui traite des modèles de « réseaux de neurones
profonds ». Inspirés du fonctionnement du cerveau humain, les réseaux de neurones sont parmi
les premiers modèles à avoir été inventés en IA, dès les années 50.

Le deep learning se démarque en intelligence artificielle par plusieurs prouesses :


La première est le niveau de performance atteint : celui-ci est très proche du niveau humain
pour de plus en plus de tâches, notamment de perception complexe, que l’on n’imaginait pas
résoudre il y a encore quelques années.

La deuxième est sa généricité : même si l’application à une nouvelle tâche nécessite beaucoup
d’ajustements, c’est l’utilisation d’un ou plusieurs réseau(x) de neurones profond(s) qui permet
à chaque fois d’atteindre ce niveau de performance.
La troisième enfin est l’intuition que nous avons de sa capacité de généralisation. De
nombreuses expériences font en effet penser que les réseaux de neurones profonds ont la
6
CYBER DROIT L’intelligence artificielle et le droit
capacité d’apprendre des concepts abstraits par eux-mêmes, comme ceux de genre ou de
lunettes de soleil. Ils semblent ainsi produire des représentations des données que les chercheurs
ont pendant longtemps tenté de définir « à la main ».

Il y a cependant beaucoup de choses que les scientifiques ne comprennent pas aujourd’hui à


propos du deep learning. D’abord il est très difficile d’interpréter un réseau de neurones profond
qui a été entraîné sur un jeu de données, et certains montrent parfois des comportements
chaotiques que les scientifiques ne comprennent pas, en affectant par exemple des valeurs
différentes à des images qui ne diffèrent que d’un seul pixel. Ensuite, l’entraînement des réseaux
de neurones profonds nécessite beaucoup d’ingénierie dans chaque cas d’application, reposant
principalement sur des observations empiriques ou intuitions plutôt que sur des principes
clairement formalisés.

Comprendre tous ces aspects permettrait d’améliorer encore les modèles et algorithmes et
potentiellement de les généraliser. Certains modèles appris parviennent effectivement à
dépasser la performance humaine, mais ceux-ci nécessitent encore beaucoup plus de données
que la quantité disponible pour un être humain. En outre, le deep learning a démontré sa
performance sur quelques tâches notamment de perception (ex : identification et reconnaissance
d’objets) ou de jeux de réflexion (ex : jeu de Go) mais reste encore très loin du niveau humain
sur les tâches avec une forte composante sémantique (ex : compréhension d’une histoire). Il est
aujourd’hui difficile de savoir si ces lacunes vont être comblées avec l’augmentation de la
puissance de calcul et donc de la taille des modèles exploitables ou si le deep learning présente
en fait des limites inhérentes qui l’empêcheront d’atteindre le but ultime de l’IA : créer une
intelligence artificielle forte.

Le futur de l’intelligence artificielle

Il semble cependant que le deep learning, comme les autres modèles et algorithmes du machine
learning, présente une limite propre à la théorie actuelle de l’apprentissage statistique : il «
apprend » à partir d’exemples de bonnes et mauvaises réponses pour une tâche donnée. Cela
correspond à un enfant qui apprendrait seulement avec des QCM corrigés. Il est évident que ce
mode d’enseignement est très inefficace, et c’est pourquoi l’humanité transmet son savoir grâce
à des professeurs qui enseignent aux élèves en leur expliquant les principes fondamentaux et en
leur expliquant la nature de leur erreur quand ils font une faute.

L’apprentissage à partir d’exemples de bonnes et mauvaises réponses que nous avons décrit est
dit « supervisé ». Il existe d’autres types d’apprentissage exploités en machine learning, en
particulier l’apprentissage dit « non supervisé ». La principale tâche de ce dernier, consiste à
donner un ensemble d’exemples à la machine et à lui demander de créer des catégories pour y
regrouper les exemples. Mais l’apprentissage non supervisé ne dit pas comment mesurer la
qualité de chacune et donc de dire si une machine est « intelligente » ou pas.

L’apprentissage supervisé ou non supervisé permet ainsi de résoudre de nombreuses tâches, et


grâce au deep learning bien plus que ce qu’on pouvait imaginer il y a cinq ans, mais présente
des limites théoriques qui laissent encore des doutes sur sa capacité à produire une intelligence
artificielle forte. Le domaine de l’intelligence artificielle jouit néanmoins aujourd’hui d’un
attrait incomparable, tant au niveau des financements que des personnes ; même les plus grands
mathématiciens commencent à s’y intéresser. La dynamique est donc plus que jamais lancée
pour résoudre de plus en plus de tâches et aboutir un jour à l’intelligence artificielle forte.

Pour récapituler :

7
CYBER DROIT L’intelligence artificielle et le droit
Artificiel Intelligence : C'est la réplication de l'intelligence humaine dans les ordinateurs.
Machine Learning : C'est à la capacité d'une machine à apprendre en utilisant de grands
ensembles de données.
Deep Learning : C’est un sous-domaine du machine Learning. Avec la particularité d’utiliser
les réseaux de neurone.

Chapitre 2 : Le cadre légal de l’intelligence artificielle

Au Maroc, le législateur n’a pas encore prévu de qualification juridique spécifique, ni


de régime particulier pour l’IA (Section 1).
Conférer un statut juridique à l’IA impliquerait qu’ils soient devenus des entités
responsables, titulaires de droits et de devoirs. Autrement dit qu’ils disposent de la liberté de se
comporter différemment de ce pourquoi ils ont été créés (Section 2).

Section 1 : Une dichotomie rigide du droit marocain

Le système juridique marocain connaît une bipartition en deux grands ensembles, les
personnes (sujet de droit ) et les choses (objet de droit). Les premières, titulaires de la
personnalité juridique, ont vocation à être titulaires de droits et d’obligations. Les secondes sont

8
CYBER DROIT L’intelligence artificielle et le droit
uniquement objets de droit, Elles ne sont pas des sujets de droit et, par conséquent, n’ont pas la
personnalité juridique. A cet effet, les choses sont susceptibles d’appropriation par les sujets de
droit.
Les personnes se composent de personnes physiques (les êtres humains) et les personnes
morales (États, sociétés, organisations internationales...).

Le moins qu’on puisse dire sur cette division binaire, c’est qu’elle est arbitraire, parce
qu’elle entraine une distinction rigide entre les personne et les choses et conséquemment tout
ce qui n’est pas une personne est juridiquement une chose ; c’est le cas de l’intelligence
artificielle et aussi des animaux qui sont considérés comme des choses, des objets de droit.

Cette position du droit marocain est fortement critiquée par les juristes et les scientifiques, car
ces derniers estiment que le fait de soumettre l’IA aux droit des objets est un non-sens totale,
parce que les avancées de l’intelligence artificielle, en particulier dans le domaine de
l’apprentissage automatique, ont permis des progrès rapides sur des problèmes tels que la
perception, l’analyse de l’environnement ou le contrôle de systèmes complexes.

Les progrès actuels de l’intelligence artificielle démontrent une insuffisance du droit


classique qui semble, de plus en plus, inadapté aux évolutions contemporaines. Cette
insuffisance et inadaptation des règles juridiques peuvent être un frein pour l’innovation et la
création.

Somme toute, l’IA est un « agent immatériel », ce qui est un objet nouveau pour notre
droit. Ce dernier connaît déjà des agents matériels (les hommes, les animaux), ou des objets
immatériels (une œuvre, un logiciel), mais il n’a jamais eu affaire à un pouvoir autonome d’agir
sur le monde contenu en puissance dans des algorithmes incorporels. C’est cette nature
singulière qui pose problème pour appréhender juridiquement les dommages générés par l'IA.

Section 2 : L’octroi de la personnalité à l’intelligence artificielle

L' enjeu de la personnalité en droit c'est qu'en l'absence de cette dernière on ne peut pas
être un sujet de droit. C'est à dire qu'on ne peut pas avoir d'existence légale. Donc pas de
droits ni d'obligations. On est une simple chose.

En droit positif marocain, l’IA est une chose, un bien meuble, un objet de droit. La question
qu'il faut se poser est alors la suivante : Quelle pourrait être la qualification juridique applicable
au IA ?
Plusieurs possibilités sont envisageables :
• l’IA est une chose (droit positif) ;
• l’IA se situe entre personne et chose, ce qui implique la création d’une nouvelle catégorie
juridique ;
• l’IA ne relève ni de la personne physique ni de la personne morale, c’est une troisième
personnalité juridique d’un genre nouveau ;

Des débats ont émergé sur l'utilité de la reconnaissance d'une personnalité à l’IA. La
question qu'il faut se poser est alors la suivante : pourquoi faudrait-il reconnaître une
personnalité juridique à l’IA alors qu'il n'a pas de sens commun ?

Pour illustrer cela, prenons l'exemple de la résolution adoptée par le Parlement européen le 16
février 2017 qui préconise la reconnaissance d'une personnalité électronique. Une résolution est
un acte non contraignant, mais c'est un bon indicateur sur l'évolution possible du droit. Cette
9
CYBER DROIT L’intelligence artificielle et le droit
résolution met en avant le fait que, certaines IA, pas tous, sont capables de réaliser des tâches
qu'ils n'étaient autrefois réalisables que par des humains : exemple la conduite automobile avec
les voitures autonomes.

Cette résolution préconise le création une personnalité juridique spécifique aux robots pour
qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des
personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; et il
serait aussi envisageable de conférer la personnalité électronique à tous robot qui prend des
décisions autonomes ou qui interagit de manière indépendante avec des tiers.

N.B : En effet, bien que l’intelligence artificielle soit, par nature, un élément immatériel, elle
reste souvent intégrée au sein d’un corps plus large et matériel représenté par une machine. Ce
peut être un robot nouvelle génération ou plus simplement une voiture, autonome et intelligente,
supposée remplacer l’Homme. Donc lorsqu’on parle de robot on parle indirectement de l’IA
(celle-ci est le cerveau du robot).

Cette question de la personnalité de l’IA a soulevé une grande controverse entre partisans et
opposants, voici les arguments les plus pertinents avancés par les deux camps :

• Pour un statut juridique particulier :

En octobre 2017 le robot Sophia de Hanson Robotics a attiré l’attention planétaire en


recevant la nationalité saoudienne dans le cadre du forum économique Future Investment
Initiative à Riyad. Et puisque la nationalité reconnait la personnalité juridique de son détenteur.
Donc, Sophia a la personnalité juridique. Autrement dit, elle peut être titulaires de droits et
assujettie à des obligations.

Mais, ce pseudo-statut accordé à Sophia est seulement motivé par la volonté de marquer les
esprits et d’attirer l’attention des médias et du public. Il n’a donc pas vocation à accorder un
véritable statut juridique.

Plusieurs autres juristes prônent l’élaboration un statut juridique adapté comparable en


quelque sorte à celui des personnes morales. (La personnalité morale est une pure construction
juridique conçue pour répondre à des nécessités pratiques et faire accéder à la vie juridique des
structures qui n’ont pas d'existence corporelle ou physique.) Elle permet ainsi de reconnaître à
des personnes « virtuelles » (comme les sociétés commerciales, les associations ou les syndicats
professionnels) des droits qui les assimilent en fait à des personnes physiques — de posséder
un patrimoine propre, d’ouvrir un compte bancaire, d’agir en justice pour la protection de leurs
intérêts ou d’obtenir des dommages et intérêts en réparation d'un préjudice, y compris moral
(atteinte à l’image ou à la réputation) ... Ce statut des personnes « virtuelles » est d’autant plus
intéressant qu’il ne se réduit pas à la somme des personnes qui interviennent au sein de la
personnalité morale. Une voie à explorer !...3

D’autre ont poussé cette logique a un cran plus loin en qualifiant l’IA comme un individu
numérique, un individu c'est un peu plus qu'une chose un peu moins qu'une personne, dans le
droit actuel cette catégorie intermédiaire n'existe pas et donc ils pense que nous allons vers la
création de ce statut intermédiaire.

• Contre l’octroi de la personnalité juridique à l’IA

10
CYBER DROIT L’intelligence artificielle et le droit
Ceux qui sont contre la création ou l’octroi d’une personnalité à l’IA avancent plusieurs
argument, dont les plus important sont :

D’abord, c’est dire que l’intelligence artificielle, aussi évoluée soit-elle, n’est que la
simulation4 de l’intelligence humaine à travers la modélisation des fonctions cognitives que sont
les fonctions réceptives ; la mémoire et l’apprentissage ; le raisonnement et la pensée ; les
fonctions expressives.5 Même intégrées dans une intelligence artificielle, ces fonctions n’en font
pas, pour autant, une personne.

Ensuite, le postulat selon lequel le droit de la responsabilité serait face à un vide


juridique avec l’IA de dernière génération, est faux. Il apparaît que la question de la
responsabilité n’est pas insoluble en IA autonome. Même lorsque la machine est autonome et
apprend d’elle-même, elle a nécessairement été conçue, fabriquée, vendue et utilisée par un
humain. L’humain n’a pas disparu de la chaîne des responsabilités.

De plus, l’argument affirmant l’imprévisibilité du comportement de ces IA, imposant de revoir


tout le droit de la responsabilité civile, est également erroné. Si une machine est imprévisible
au point de causer un dommage, c’est qu’elle présente un défaut de sécurité dès la conception.
Il s’agit donc juridiquement d’un produit défectueux.

Enfin, il est impossible de considère l’IA comme une personne, car la machine ne se
rapproche en rien d’un humain. Elle n’a ni conscience ou volonté propre, ni sentiment ou
capacité de souffrance. De plus, si l’IA fait preuve de capacités supérieures à l’humain dans des
domaines spécifiques, comme jouer aux échecs, dans tous les autres domaines ses aptitudes
sont bien inferieures. Accorder la personnalité juridique à un robot sur le modèle de la personne

3 Maître Alain Bensoussan, LES ROBOTS ONT-ILS UNE PERSONNALITÉ ?, Open your Mind.

4 Jean-Gabriel Ganascia, « le mythe de la singularité : faut-il craindre l’intelligence artificielle ? », conférence à l’Agora des

savoirs, 9e édition, 30 janvier 2018 au Centre Rabelais, Youtube.


5 Dans son exposé, le Professeur Jean-Gabriel Ganascia expose ces fonctions comme suit :
- Les fonctions réceptives autorisent l’acquisition, le traitement, la classification et l’intégration de l’information ;
- La mémoire et l’apprentissage permettent le stockage et le rappel de l’information ;
- Le raisonnement et la pensée concernent l’organisation et la réorganisation mentale de l’information ainsi que de son
utilisation ;
- Les fonctions expressives rendent possibles la communication ;
humaine reviendrait à reconnaitre à la machine une égalité avec l’être humain et à lui accorder
des droits fondamentaux, comme le droit à sa dignité, à son intégrité ou à sa citoyenneté.

Si l’on considère plutôt que le modèle de personne retenu serait celui de la personne
morale, la question mérite une plus grande attention. Depuis l’Antiquité, le droit reconnaît le
statut des personnes morales aux sociétés ou aux associations, alors qu’elles ne sont pas
humaines. Donc a priori il semblerait cohérent d’envisager de faire dériver le statut juridique
de l’IA autonome de celui de la personne morale. Cela permettrait de lui constituer un
patrimoine, ce qui rendrait alors possible la prise en charge de ses dommages en cas d’accident.
Le problème est qu’une personne morale ne fonctionne pas toute seule, puisqu’elle a toujours à
sa tête un être humain qui prend les décisions pour la faire agir dans l’espace juridique. Or le
robot autonome devenu personne morale serait bien incapable de prendre de telles décisions.

11
CYBER DROIT L’intelligence artificielle et le droit
Partie 2 : le droit des affaires face à l’adaptation au exigence de l’IA

Dans un contexte économique en constante évolution, l'intelligence artificielle (IA) se


présente comme un catalyseur majeur de transformation pour le monde des affaires. Cette
section explore de manière approfondie la manière dont les entreprises s'adaptent aux exigences
imposées par l'IA. De la redéfinition des modèles contractuels à l'évolution des responsabilités
en passant par les ajustements nécessaires dans la protection des données, cette analyse décrypte
les diverses facettes du paysage commercial à l'ère de l'IA. En examinant donc les Implications
contractuelles des transactions impliquant des technologies d'IA dès la phase de négociation
jusqu’à conclusion des contrat (chapitre 1) sans oublier de traiter la Responsabilité civile et
pénale en cas de défaillance ou d'erreur d'une IA dans un contexte commercial (chapitre 2)

Chapitre 1 : Les Smart Contracts :


L'avènement des Smart Contracts, basés sur la technologie blockchain, marque une révolution
dans le cadre du paysage juridique et commercial. Ce premier chapitre se plongera dans
l'exploration des Smart Contracts et de leur régulation juridique, dévoilant les contours de cette
innovation disruptive. Le second chapitre abordera les avantages, les faiblesses et les limites
ainsi juridiques que techniques inhérentes à l'utilisation des contrats intelligents.

Section 1 : Les contrats Intelligents et leur réglementation juridique

Les contrats intelligents, également connus sous le nom de contrats autonomes ou contrats auto
exécutables, représentent l'évolution numérique des accords contractuels traditionnels Cette
transformation du paysage contractuel soulève également des questions cruciales en matière de
réglementation juridique.
Le fonctionnement des contrats intelligents repose sur des principes de programmation et
d'exécution automatique.
Voici les étapes clés du fonctionnement des contrats intelligents :

1. Écriture du Code : Un contrat intelligent est un programme informatique écrit dans un


langage de programmation adapté à la blockchain sur laquelle il sera déployé. Solidity
est l'un des langages de programmation les plus couramment utilisés pour créer des
contrats intelligents sur des plateformes telles qu'Ethereum2 .

2. Déploiement sur la Blockchain : Une fois que le code du contrat intelligent est écrit, il
est déployé sur la blockchain. Cela implique l'enregistrement du code sur la blockchain,
ce qui génère une adresse unique associée au contrat

3. Activation : Après le déploiement, le contrat intelligent est activé et devient opérationnel.

4. Conditions Programmables : Ces conditions sont définies dans le code du contrat et


spécifient les actions à entreprendre lorsque certaines conditions sont remplies.

5. Réception des Transactions : Les utilisateurs interagissent avec le contrat intelligent en


envoyant des transactions à son adresse sur la blockchain.

2
Est une plateforme logicielle de blockchain, distribuée en open source
(https://www.lemagit.fr/definition/Ethereum#:~:text=Ethereum%20est%20une%20plateforme%20logi
cielle,cadre%20de%20blockchain%20de%20consortium, mai 2018).
12
CYBER DROIT L’intelligence artificielle et le droit
6. Validation des Transactions : Les transactions sont validées par le réseau de la blockchain
en utilisant un mécanisme de consensus. Une fois validées, elles sont ajoutées à un bloc et
enregistrées dans la chaîne de blocs.

7. Exécution Automatique : Lorsque les conditions programmées dans le contrat intelligent


sont remplies, le contrat intelligent s'exécute automatiquement

8. Mise à Jour de l'État : L'exécution du contrat peut entraîner des modifications de son état
interne
9. Événements et Notifications : Certains contrats intelligents peuvent émettre des
événements pour notifier les utilisateurs d'un changement d'état ou d'une action spécifique

10. Réputation et Confiance : La transparence et l'immutabilité de la blockchain contribuent


à renforcer la réputation et la confiance dans l'exécution automatique des contrats
intelligents.

En résumé, les contrats intelligents fonctionnent en automatisant l'exécution de termes


contractuels préprogrammés, réduisant ainsi la dépendance vis-à-vis d'intermédiaires et
renforçant la confiance dans les transactions numériques. Leur fonctionnement repose sur la
blockchain en tant que plateforme sécurisée et décentralisée pour l'exécution et l'enregistrement
des contrats.
Section 2 : les lois et réglementations existantes concernant l'utilisation de
l'intelligence artificielle dans les contrats d'affaires en droit comparé

L'intelligence artificielle (IA) a considérablement transformé le paysage des affaires, offrant


des opportunités innovantes mais soulevant également des préoccupations juridiques
complexes. Dans le cadre des contrats d'affaires, de nombreux pays ont mis en place des lois et
réglementations pour encadrer l'utilisation de l'IA. Ces réglementations visent à équilibrer
l'innovation technologique avec la protection des parties prenantes impliquées dans les
transactions commerciales.

Au Maroc, l'utilisation croissante de l'intelligence artificielle dans les contrats d'affaires est
accompagnée d'un cadre juridique en développement continu. Actuellement, il n'existe pas de
loi spécifique régissant exclusivement les contrats impliquant l'IA, mais le pays s'appuie sur
des lois existantes pour encadrer ces transactions. Le Code de Commerce marocain, par 17
exemple, régit les contrats commerciaux de manière générale. Cependant, des amendements et
des adaptations sont en cours pour intégrer spécifiquement les aspects liés à l'IA.

Le Maroc a également adopté des lois relatives à la protection des données personnelles, telles
que la loi n° 09-083, qui sont pertinentes dans le contexte des contrats d'IA. Ces lois mettent
l'accent sur la confidentialité, la sécurité et l'utilisation responsable des données, des éléments
cruciaux lorsqu'il s'agit de contrats générés par des systèmes d'intelligence artificielle. De plus,
le pays suit de près les normes internationales telles que le RGPD de l'Union européenne pour
s'aligner sur les meilleures pratiques en matière de protection des données dans les contrats
impliquant l'IA.

3
La loi n° 09-08 relative à la protection des personnes physiques à l’égard du traitement des données à caractère
personnel, telle qu’adoptée par la Chambre des représentants et la Chambre des conseillers. Fait à Fès, le 22 safar
1430 (18 février 2009)
13
CYBER DROIT L’intelligence artificielle et le droit
Dans certains pays, comme les États-Unis, les contrats impliquant l'IA sont principalement
régis par les lois existantes sur les contrats. Cependant, les tribunaux commencent à traiter des
questions spécifiques liées à l'IA, telles que la responsabilité en cas de défaillance de
l'algorithme prédictif ou l'authenticité des contrats générés automatiquement. En Europe, le
Règlement Général sur la Protection des Données (RGPD) a un impact significatif sur
l'utilisation de l'IA dans les contrats, en mettant l'accent sur la transparence, la responsabilité et
le consentement des parties concernées.

Certains pays, comme l'Allemagne, ont adopté des lois spécifiques régissant les systèmes
autonomes et les contrats basés sur l'IA.
Dans les régions asiatiques, telles que la Chine et le Japon, les gouvernements ont élaboré des
directives pour réglementer l'IA dans divers secteurs, y compris les contrats d'affaires. Ces
directives couvrent des domaines tels que la divulgation des contrats générés par l'IA, la
responsabilité en cas de préjudice et la protection des données personnelles des parties
impliquées
En somme, La réglementation des contrats d'affaires impliquant l'intelligence artificielle varie
d'un pays à l'autre, avec des lois spécifiques et des organismes de surveillance adaptés à chaque
contexte juridique. Ces réglementations et institutions de contrôle sont essentielles pour
garantir un environnement commercial équitable et éthique dans l'ère numérique en constante
évolution.
Section 3 : Les défis à la phase précontractuelle des contrats électroniques

Au Maroc, la transition vers les contrats électroniques apporte son lot de défis spécifiques à la
phase précontractuelle. Voici quelques-uns de ces défis particuliers dans le contexte marocain
:
 Protection des Données :

• Conformité au cadre juridique: Assurer la protection des données personnelles conformément


aux lois marocaines sur la protection des données peut être un enjeu important.

 Sécurité et Intégrité des Transactions:

Prévention des fraudes: La prévention des fraudes électroniques et la garantie de la sécurité et


de l'intégrité des transactions sont des préoccupations majeures.

 Accessibilité pour Tous:

Inclusion des populations vulnérables: Garantir que les contrats électroniques restent
accessibles aux populations vulnérables, y compris celles qui peuvent ne pas être à l'aise avec
la technologie, est un défi crucial.

 Litiges et Mécanismes de Résolution:

Mécanismes de résolution des litiges : Le développement de mécanismes efficaces de résolution


des litiges électroniques adaptés au contexte marocain est essentiel.

Section 1 : Limites de la responsabilité du fait des choses

L’article 88 du DOC pose la responsabilité du fait des choses qui peut être engagée si
quatre conditions sont réunies : il faut une chose, un fait de la chose, un gardien de la chose et
enfin un dommage. Si la nature juridique ou encore physique de la chose importe peu en réalité,
14
CYBER DROIT L’intelligence artificielle et le droit
la nature même des objets connectés met en évidence les limites de l’application de la
responsabilité du fait des choses à ces innovations. En effet, afin de pouvoir engager la
responsabilité du fait des choses, il faut être gardien de la chose.

Selon la doctrine la notion de garde suppose la réunion de trois conditions à savoir l’usage, la
direction et le contrôle de la chose.

Or, si l’on conçoit facilement l’usage d’une intelligence artificielle (utiliser le logiciel,
exploiter ses capacités), en avoir la direction et le contrôle semblent deux éléments beaucoup
plus difficiles à envisager.
Personne ne contrôle réellement l’intelligence artificielle puisqu’elle est censée opérer selon ses
propres capacités : elle est autonome.
Ainsi, la conception actuelle de la garde est parfaitement inadaptée aux caractéristiques
nouvelles apportées par l’intelligence artificielle, lorsque celle-ci reste prise en son essence,
c’est-à-dire son inexistence physique.
En outre, même en présence d’une application matérielle de l’intelligence, le problème de la
garde reste le même, de sorte que l’utilisateur ne contrôle pas effectivement le logiciel, il peut
simplement l’allumer ou l’éteindre.
On se rend donc rapidement compte de la difficulté face à laquelle le droit se trouve en présence
d’intelligence artificielle et à quel point les moyens de droit existants sont inadéquats.

Somme toute, il faut prendre en compte le progrès exponentiel de l'IA, via notamment
le machine Learning, méthode qui permet à une machine d'évoluer seule grâce à un processus
d'apprentissage. Cette évolution est donc infinie. Qu'en sera-t-il si dans un futur pas si éloigné,
des robots développent une intelligence cognitive ? Et pourquoi pas une certaine forme de "libre
arbitre" allant à l'encontre de leurs codes initiaux de conception ? Dès lors, la responsabilité
des personnes électroniques sera amenée à évoluer et extrêmement délicate à mettre en œuvre.

Chapitre 2 : Les réponses possibles du droit commun et de la responsabilité civile

L’utilisation quotidienne de l’IA questionne sur l’adaptation voire l’adaptabilité des


régimes juridiques de droit commun et spécial de la responsabilité civile.
Plusieurs régimes de responsabilité sont envisageables en appliquant les principes des
régimes communs :
• Responsabilité du fait des produits défectueux (Section 1);
• Responsabilité du fait des choses (Section 2).

Section 1 : Le régime de la responsabilité du fait des produits défectueux

En effet, il serait possible d’appliquer les articles 106-1 et suivants du DOC concernant les
situations où un produit n’offre pas « la sécurité à laquelle on peut s’attendre légitimement»,
en tenant compte « de la présentation du produit, de l’usage attendu, et du moment de sa mise
à disposition du produit sur le marché.»6. Ce régime piste la responsabilité des intervenants
successifs dans le processus de production ou de distribution du produit. Mais ce régime du
produit défectueux ne peut régir l’ensemble des cas de figure, notamment ceux ne relevant pas
d’un défaut de sécurité. Selon ce régime de responsabilité : le producteur est responsable du
dommage causé par un défaut de son produit.7 Pour avoir droit à réparation, la victime est tenue
d’apporter la preuve du dommage qui lui a été causé par le produit défectueux.4

4
Article 106-7 du D.O.C.
15
CYBER DROIT L’intelligence artificielle et le droit
Ce régime de responsabilité pourrait se heurter à plusieurs obstacles : la preuve de l’existence
du dommage, la détermination de la défectuosité au moment de la commercialisation du
système, ou encore l’établissement du lien de causalité scientifique et/ou juridique entre ces
derniers, etc.
Par ailleurs, pour que le régime de la responsabilité du fait des produits défectueux fonctionne,
le défaut intrinsèque, matériel, doit pouvoir être décelé compte tenu de l’état des connaissances
scientifiques et techniques au moment de la mise en circulation du produit. Or, il est tout à fait
envisageable que le système évolue entre sa commercialisation et un accident survenu quelques
mois ou années après (modification du comportement par apprentissage via machine Learning,
ajout de nouvelles fonctionnalités par téléchargement de programmes ad hoc).

Certaines caractéristiques de l’IA pourraient rendre difficiles la traçabilité du dommage


et son imputabilité à un comportement humain susceptible de constituer le fondement d’une
procédure en responsabilité pour faute.
Cela signifie qu’il pourrait s’avérer difficile ou excessivement coûteux d’établir le
bienfondé des procédures en responsabilité sur la base des règles relatifs à la responsabilité
civile et que les victimes pourraient par conséquent ne pas être correctement indemnisées.

Section 2 : Une responsabilité de l’objet doté de l’IA ?

L’hypothèse soutenue par certains , critiquée par d’autres, suppose de reconnaitre à la machine
dotée d’une certaine intelligence artificielle une « personnalité juridique » ou « électronique »
et qui serait ainsi tenue de réparer tout dommage causé à un tiers. La résolution adoptée par le
Parlement européen le 16 février 20175 évoque la réflexion menée autour de la création d’un
statut juridique propre aux robots. Il s’agirait en effet d’envisager « la création, à terme, une
personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus
sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues
de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité
électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière
indépendante avec des tiers» .

Pour arriver à la reconnaissance d’une personnalité juridique autonome, les capacités des
machines d’apprendre, de se corriger et de s’adapter à leur environnement en faisant preuve
d’initiative sont mises en avant. Les critères retenus pour tendre vers la personnalité juridique
seraient ainsi l’intelligence et la capacité à être autonome. Mais ces critères ne sont pas sans
soulever des difficultés majeures notamment en brouillant les repères de la personnalité : Cette
perspective amène inéluctablement à s’interroger sur ce qui fonde la personnalité des êtres
humains. »6

L’attribution d’un patrimoine à un robot pour l’exécution de la dette de réparation est aussi
source d’interrogations. L’attribution d’une personnalité juridique au robot pose des problèmes
éthiques majeurs, sans pour autant apporter de réelles solutions juridiques au problème posé
par la réparation.

5
Résolution du parlement européen, 16 février 2017 contenant des recommandations à la Commission concernant
des règles de droit civil sur la robotique.
6
Laurène Mazeau, Intelligence artificielle et responsabilité civile : Le cas des logiciels d’aide à la décision en
matière médicale, page 7.
16
CYBER DROIT L’intelligence artificielle et le droit
section 3 : des limites et problèmes liés à L’IA

Complexité des produits, des services : Des applications d’IA sont souvent intégrées dans
des environnements complexes des transactions commerciales, dans lesquels différents
dispositifs et services connectés interagissent. Du fait de la combinaison de différents
composants numériques dans un écosystème complexe et de la pluralité des acteurs
concernés, il peut être difficile de déterminer l’origine d’un dommage potentiel et de
remonter à la personne qui en est responsable. De par la complexité de ces technologies, il
peut être très difficile pour les victimes d’identifier la personne responsable et de
prouver, ainsi que l’exige le droit marocain, que toutes les conditions requises pour pouvoir
obtenir réparation sont réunies. Le coût d’une telle expertise peut s’avérer prohibitif sur le
plan économique et dissuader les victimes de demander réparation.

• Connectivité et ouverture : Il est actuellement difficile de savoir avec exactitude


quelles pourraient être les attentes en matière de sécurité en ce qui concerne les
dommages résultant d’atteintes à la cyber sécurité au niveau des produits et de
déterminer si la responsabilité du fait des produits permettrait de réparer ces dommages
comme il se doit. Un produit peut présenter des faiblesses en matière de cyber sécurité
dès le départ, au moment de sa mise en circulation, mais ces faiblesses peuvent aussi
apparaître à un stade ultérieur, bien après cette mise en circulation. Dans les cadres de
responsabilité pour faute, établir des obligations claires en matière de cyber sécurité
permet aux opérateurs de déterminer ce qu’ils doivent faire pour éviter les conséquences
de leur responsabilité. Dans le cadre du DOC sur la responsabilité du fait des produits,
la question de savoir si un producteur aurait pu prévoir certains changements compte
tenu de l’utilisation raisonnablement prévisible du produit pourrait occuper une place
plus importante. Par exemple, on pourrait observer un recours accru au moyen de
défense fondé sur le défaut ultérieur, selon lequel un producteur n’est pas responsable
si le défaut n’existait pas au moment où le produit a été mis en circulation, ou au moyen
de défense fondé sur le risque de développement, selon lequel l’état des connaissances
à l’époque de la mise en circulation ne permettait pas de prévoir le défaut. En outre, la
responsabilité pourrait être réduite si la partie lésée n’effectue pas les mises à jour ayant
une incidence sur la sécurité. Le fait de ne pas effectuer ces mises à jour pourrait
potentiellement être considéré comme une négligence concurrente de la part de la
personne lésée et donc réduire la responsabilité du producteur. Dans la mesure où la
notion d’utilisation raisonnablement prévisible et les questions liées à la négligence
concurrente, comme le fait de ne pas procéder à une mise à jour de sécurité, pourraient
être plus fréquemment invoquées, les personnes lésées pourraient avoir plus de mal à
obtenir réparation pour des dommages causés par un défaut du produit.

• Autonomie et opacité : Lorsque les applications d’IA sont capables d’agir de manière
autonome, elles exécutent des tâches sans que chaque étape ne soit prédéfinie et avec
moins voire pas du tout de supervision ni de contrôle humain immédiat. Les algorithmes
fondés sur l’apprentissage automatique peuvent être difficiles voire impossibles à
comprendre (effet « boîte noire »). Outre la complexité évoquée plus haut, il pourrait,
en raison de cet effet « boîte noire », devenir difficile d’obtenir réparation pour des
dommages causés par des applications d’IA autonomes. La compréhension nécessaire
de l’algorithme et des données utilisées par l’IA requiert des capacités d’analyse et des
compétences techniques dont le coût pourrait être jugé prohibitif par les victimes. En
outre, il pourrait s’avérer impossible d’accéder à l’algorithme et aux données sans la
coopération de la partie potentiellement responsable. Dans la pratique, les victimes

17
CYBER DROIT L’intelligence artificielle et le droit
pourraient donc ne pas être en mesure de demander réparation. De plus, il serait difficile
de savoir comment démontrer la faute d’une IA agissant de manière autonome, ou ce
qui serait considéré comme la faute d’une personne recourant à l’IA7.

7 Rapport de la commission au parlement européen, au conseil et au comité économique et social européen : sur les

conséquences de l’IA, de l’internet des objets et de la robotique sur la sécurité et la responsabilité.

18
CYBER DROIT L’intelligence artificielle et le droit

Conclusion

"Le Droit des Affaires à l'épreuve de l'Intelligence Artificielle" dévoile un paysage juridique
en mutation, profondément influencé par les avancées rapides de l'IA. L'impact de cette
technologie se fait sentir à tous les niveaux du monde des affaires, transformant les modèles
contractuels, redéfinissant les responsabilités, et posant des défis uniques à la protection des
données et à la concurrence.

L'évolution des professions juridiques, notamment celle des avocats, est inévitablement
façonnée par l'intégration croissante de l'IA, exigeant une adaptation constante et une
acquisition de compétences technologiques. Les contrats électroniques, l'analyse prédictive
des litiges, et d'autres applications de l'IA transforment la pratique du droit des affaires, tout
en offrant des opportunités d'efficacité accrue.

Cependant, cette transformation n'est pas sans défis. Les questions liées à la confidentialité
des données, à la sécurité, à l'éthique de l'IA, et aux conséquences sociales nécessitent une
attention continue. La complexité des réglementations et la nécessité de maintenir une balance
entre l'innovation et la protection des droits soulignent la délicate équation à résoudre dans ce
nouvel écosystème.

En dépit de ces défis, il est indéniable que l'IA ouvre des perspectives prometteuses pour le
droit des affaires, avec la potentialité d'accroître l'efficacité opérationnelle, de réduire les
coûts, et de favoriser des décisions éclairées. La collaboration entre les acteurs du droit, les
entreprises et les autorités régulatrices est cruciale pour façonner un cadre juridique qui
encourage l'innovation tout en préservant l'équité, la transparence, et les valeurs éthiques
fondamentales.

En définitive, le droit des affaires à l'ère de l'IA représente un voyage dynamique, où


l'adaptation constante et la collaboration proactive sont essentielles pour naviguer avec succès
dans les eaux changeantes de la technologie et du droit.

19
CYBER DROIT L’intelligence artificielle et le droit

Bibliographie
Mémoires :

• ADRIEN BONNET, « La responsabilité du fait de l’intelligence artificielle : Réflexion sur


l’émergence d’un nouvel agent générateur de dommages », Mémoire, UNIVERSITE
Panthéon-Assas, 2014.

Articles et contributions :

• ALAIN Bensoussan, « Les robots ont-ils une personnalité ? ». Openyour mind.

• LAURENE Mazeau, « Intelligence artificielle et responsabilité civile : le cas des


logiciels d’aide à la décision en matière médicale ». Revue pratique de la prospective et
de l’innovation, 2018.

• NATHALIE Nevejans, « Le statut juridique du robot doit-il évoluer ? ». Robotique et


intelligence artificielle, 2019.

• Ouvrage collectif, « IA, un nouvel horizon : Pourquoi la France a besoin d’une culture
du numérique ? ». Les cahiers Lysias, 2017.

• Théo Doh-Djanhoundy, « Le statut juridique de l'intelligence artificielle ».


ResearchGate, 2019.

Rapports spécialisés :

20
CYBER DROIT L’intelligence artificielle et le droit
• Rapport de la commission au parlement européen, au conseil et au comité économique
et social européen : sur les conséquences de l’IA, de l’internet des objets et de la
robotique sur la sécurité et la responsabilité.

Textes de lois :

• Le Code des obligations et des contrats.

Webographie :

• www.village-justice.com
• www.humanite.fr

21

Vous aimerez peut-être aussi