Vous êtes sur la page 1sur 146

L’intelligence artificielle et son influence sur le droit des affaires

Mémoire en vue de l’obtention du Master en Droit Des Affaires et de l’Entreprise

L’intelligence Artificielle et son influence


sur le Droit Des Affaires

Rédigé par :

Srikssi Oumaima

Sous la direction de :

Pr. Dourhani Yassine

Membres de Jury :

Président :
Pr. DOURHANI Yassine.

Suffragants :
Pr. BENMARZOUG Mohamed.
Pr. AKESBI Jamal.
Pr. TALBI Anas.

Année Universitaire : 2023-2024


L’intelligence artificielle et son influence sur le droit des affaires

The rise of powerful AI will be either the best or the worst thing ever
to happen to humanity. We don’t yet know which.
– Stephen Hawking
L’intelligence artificielle et son influence sur le droit des affaires

Liste des sigles et abréviations

- ABA : American Bar Association.


- BC : Blockchain.
- CAF : Cour d'appel fédérale.
- CNPD : Commission nationale de contrôle de la protection des données à caractère
personnel .
- DGSN : Direction générale de la sûreté nationale.
- DGSSI : Direction Générale de la Sécurité des Systèmes d'Information.
- DOC : Dahir des Obligations et Des Contrats.
- EUROPOL : Agence européenne de police.
- IA : Intelligence Artificielle.
- OACI : Organisation de l'aviation civile internationale.
- OEB : Office européen des brevets.
- RGPD : Règlement général sur la protection des données.
- UNESCO : Organisation des Nations unies pour l'éducation, la science et la culture.
- USC : United States Code.
L’intelligence artificielle et son influence sur le droit des affaires

Remerciements

Je tiens à exprimer mes sincères remerciements au Cher Professeur Mr Dourhani


Yassine pour avoir accepté de diriger ce mémoire. Sa judicieuse orientation a
enrichi mes réflexions critiques à propos des répercussions de la technologie sur le
monde juridique.
Comme je tiens également à exprimer ma profonde gratitude envers Mr nakhli
Mohamed , sa guidance éclairée et son engagement qui ont été des éléments clés
dans mon parcours académique. Merci Mr pour l'inspiration sur ma compréhension
dudit sujet épineux.
Je souhaiterais remercier également les autres Professeurs pour leur soutien
académique et leurs fructueux commentaires et remarques tout au long de mon
cursus universitaire.
En sus , j’aimerais adresser mes remerciements les plus chaleureux à mes proches,
à commencer par mes parents et mes frères et sœurs , qui malgré la distance
arrivent toujours à me redonner le sourire, particulièrement quand je dois relever
des défis. A mes amis , qui eux aussi ont joué un rôle sine qua non dans ma réussite
universitaire.
Je vous en suis très reconnaissante.
L’intelligence artificielle et son influence sur le droit des affaires

SOMMAIRE

Première partie : Impact de l'intelligence artificielle sur le droit des


affaires.

Chapitre 1. L'impact de l'intelligence artificielle sur les contrats.

Section 1. La conclusion des contrats par le biais de l’intelligence artificielle : le


contrat intelligent à titre d’exemple.

Section 2. L'IA dans la gestion des risques liés aux contrats.

Chapitre 2 : L'impact de l’IA sur la propriété industrielle et intellectuelle et la


protection des données à caractère personnel

Section 1 : l’impact de l'intelligence artificielle sur la propriété industrielle et


intellectuelle.

Section 2 : L’IA et La protection des données à caractère personnel.

Deuxième partie : Mise à l'épreuve du droit de la responsabilité dans


l'utilisation de l'intelligence artificielle et ses enjeux.

Chapitre 1: La responsabilité civile liée à l'utilisation de l'intelligence


artificielle.

Section 1: L'insuffisance des règles de responsabilité civile.

Section 2: L'inapplicabilité du droit commun de la responsabilité


délictuelle/extracontractuelle.

Chapitre 2: La responsabilité pénale liée à l'utilisation de l'intelligence


artificielle.

Section 1 : Intervenants pénalement responsables en intelligence artificielle.

Section 2 : Typologie des crimes et sanctions relatives à l’IA.


L’intelligence artificielle et son influence sur le droit des affaires

INTRODUCTION

‘Le juriste augmenté est celui qui parviendra à se saisir des outils digitaux pour
accroître sa valeur ajoutée.’

De nos jours , l'intelligence artificielle accomplit désormais d’avantage que jamais,


et souvent de manière plus économique, plus rapide et plus performante que les
humains. L’histoire de l’IA remonte aux années 1940, avec le mathématicien et
logicien Alan Turing1. Considéré comme étant le père de l’intelligence artificielle
grâce à sa machine de Turing, qui est un modèle théorique de calcul. Ce dernier était
convaincu que les machines pourraient être programmées pour reproduire
l’intelligence humaine.

Au cours des années 1950 et 1960, ce domaine a connu une expansion rapide. Les
chercheurs ont initié le développement de programmes capables de résoudre des
problèmes et de s'engager dans des jeux tels que les échecs. Cette époque a été
caractérisée par un enthousiasme important parmi les chercheurs, prêts à relever des
défis substantiels. Bien que les premiers programmes aient présenté des faiblesses et
commis des erreurs, ils ont néanmoins ouvert la voie à des avancées majeures. 2 Or
comment cette intelligence transforme-t-elle déjà notre monde aujourd'hui ? L'IA est
désormais omniprésente dans notre quotidien, que ce soit à travers des assistants
virtuels ou des véhicules autonomes, apportant des améliorations significatives à
notre vie. Cependant, ces avancées ne sont pas sans risques. Il devient crucial
d'établir des règles et des réglementations afin de garantir une utilisation éthique et
responsable de l'IA.

En 2017, la société DeepMind3 a développé une IA, AlphaGo Master, qui a battu le
champion du monde du jeu de plateau Go. De nombreux experts avaient prédit que

1
Alan Mathison Turing, né le 23 juin 1912 à Londres et décédé le 7 juin 1954 à Wilmslow, était un
mathématicien et cryptologue britannique. Il est l'auteur d'œuvres qui établissent les fondements scientifiques
de l'informatique et est également l'un des précurseurs de l'intelligence artificielle.
2
L'histoire de l'intelligence artificielle : des origines à aujourd'hui 👇 - IA Insights (ia-insights.fr) visité en Juin
2023.
3
L’objectif de Deepmind est de créer des machines intelligentes capables d’apprendre et d’acquérir de nouvelles
connaissances à la manière des êtres humains.

1
L’intelligence artificielle et son influence sur le droit des affaires

la domination de l'IA dans le Go prendrait une autre décennie en raison de la


complexité du jeu. Il existe plus de configurations possibles sur le plateau de Go
qu'il n'y a d'atomes dans l'univers. Plus tard en même an, une version révisée
d'AlphaGo, AlphaGo Zero, a battu AlphaGo Master cent parties à zéro. Il a réalisé
cet exploit après seulement trois jours d'entraînement en jouant contre lui-même.
Contrairement à ses prédécesseurs, AlphaGo Zero n'a jamais appris à partir
d'exemples humains.4
En effet , l'impact social futur de ces avancées sera énorme. Déjà, des expressions
impressionnantes telles que la Quatrième Révolution industrielle, la Deuxième ère
des Machines et la Révolution de l'Automatisation sont utilisées pour décrire la
perturbation à venir. Entre autres choses, on prévoit que l'IA générera une quantité
massive de richesse en transformant l'avenir du travail. Cela a longtemps été le cas
avec l'automatisation du travail physique par l'IA, comme dans la fabrication
automobile, mais l'IA s'attaque désormais à l'automatisation du travail mental, et pas
seulement à des activités de service relativement simples telles que l'exploitation
d'une caisse enregistreuse chez McDonald's. Cette dernière a également accomplit
des tâches effectuées par des médecins, des avocats et des scientifiques. 5
En indiquant les avocats , le domaine juridique joue un rôle sine qua non dans la
gouvernance et l'évolution des technologies d'intelligence artificielle (IA). Les
législations établissent des normes contraignantes de comportement afin de garantir
le bien-être social et la protection des droits individuels. Elles ont pour objectif de
maximiser les avantages des avancées technologiques tout en minimisant les risques
inhérents. Des situations telles que les krachs boursiers, les actes de cybercriminalité
et les manipulations sociales et politiques ont impliqué ces technologies. Des
personnalités éminentes, notamment Elon Musk et des universitaires tels que
Stephen Hawking, ont soulevé la possibilité d'une menace existentielle posée par
l'IA.6 Cependant, la majorité des préoccupations se concentrent sur des
problématiques plus immédiates, telles que le chômage technologique, la
discrimination et les problèmes de sécurité.

4
Ryan Abbott , The Reasonable Robot , introduction Artificial Intelligence and the Law, Publisher:
Cambridge University Press , Print publication year: 2020 Page 1-2.
5
Ibid , Ryan Abbott , The Reasonable Robot. Page 3.
6
Ibid.

2
L’intelligence artificielle et son influence sur le droit des affaires

Malgré la reconnaissance générale des risques et des avantages associés à l'IA, un


consensus fait défaut quant à la manière optimale de réglementer ce domaine. Les
différentes juridictions à travers le monde peinent à définir les actions à
entreprendre. Une division internationale notable subsiste concernant l'utilisation de
l'IA dans la surveillance étatique, la question de la propriété des données
personnelles cruciales pour le développement de ces technologies, ainsi que le
moment où les individus ont le droit d'obtenir une explication des décisions prises
par l'IA, qu'il s'agisse d'approbations de crédit ou de sentences pénales.

Il est séduisant de penser que l'intégration harmonieuse de l'IA dans les cadres
réglementaires existants est envisageable. Cependant, les lois conçues pour encadrer
le comportement des acteurs humains peuvent générer des conséquences
involontaires et négatives lorsque les machines commencent à imiter le
comportement humain. Bien que les lois spécifiquement axées sur l'IA aient mis du
temps à émerger, en partie en raison de la crainte qu'un environnement
réglementaire excessivement contraignant n'inhibe l'innovation, l'IA est déjà
soumise à des régulations élaborées il y a des décennies pour traiter des
problématiques telles que la vie privée, la sécurité et la concurrence déloyale. Ce qui
est nécessaire, ce n'est pas nécessairement plus ou moins de lois, mais plutôt
l'élaboration de lois appropriées.

Il est peu probable qu'un seul changement juridique, tel que l'octroi d'une
personnalité juridique à l'IA similaire à une société, résolve tous les problèmes dans
chaque domaine du droit. C'est pourquoi il est nécessaire d'entreprendre le travail
ardu de réfléchir aux implications de l'IA dans divers contextes. À cet égard, il est
encourageant de constater que des efforts ont été déployés ces dernières années pour
formuler des normes politiques ou des principes fondamentaux tels que la fiabilité et
la durabilité spécifiquement pour la régulation de l'IA par les gouvernements, les
groupes de réflexion et l'industrie. Par exemple, l'Organisation de coopération et de
développement économiques a adopté des Principes sur l'intelligence artificielle en
mai 2019, et un mois plus tard, le G207 a adopté également des principes sur l'IA
centrés sur l'humain, guidés par ceux énoncés par l'OCDE.

7
Depuis 2010, le G20 conclut l'année avec un sommet en présence des chefs d'État et de gouvernement
respectifs et avec la participation de leurs homologues des pays invités et des représentants de certaines des
principales organisations internationales et régionales. C’est lors de ce sommet que les résultats des différentes

3
L’intelligence artificielle et son influence sur le droit des affaires

D’ailleurs , cette intelligence a rapidement évolué pour devenir une force


omniprésente dans de nombreux domaines de notre société moderne. Des secteurs
tels que la finance, le transport, la santé, le commerce et même la justice ont tous été
touchés par les avancées de l'IA. De nos jours, il est de plus en plus rare de trouver
des domaines qui échappent à l'influence de cette technologie révolutionnaire. Il
s’agit en effet d’une tendance majeure dans le domaine IT, qui suscite autant
d’espoirs et de solutions – notamment par l’amélioration de la qualité de vie,
l’efficacité renforcée des services fournis , voire la lutte contre la fraude. 8

Subséquemment , dans le domaine juridique, notamment dans le droit des affaires,


les applications de l'IA couvrent des aspects tels que les contrats, les affaires
pénales, la propriété intellectuelle, et bien d'autres encore. Les algorithmes d'IA
peuvent analyser des contrats complexes en un temps record, identifier les risques
potentiels et faciliter la négociation et la rédaction de contrats. De plus, l'IA peut
aider à détecter les activités frauduleuses et à protéger les droits de propriété
intellectuelle grâce à des systèmes de surveillance et de détection avancés.

Quant au définition de celle-ci , elle ne détient pas une notion juridique. Néanmoins ,
elle désigne tout un domaine technologique qui vise à simuler et éventuellement
remplacer l'intelligence humaine en reproduisant les capacités de perception, de
compréhension, d'apprentissage, de raisonnement, de calcul, de mémoire, de
comparaison et de prise de décision. L'aspect "artificiel" se réfère à l'utilisation
d'ordinateurs ou d'autres dispositifs électroniques, tandis que "l’intelligence" se
rapporte à l'objectif d'imiter le comportement humain ou animal. L'intelligence
artificielle combine des éléments de l'informatique, de la logique, des
mathématiques, de l'électronique, des sciences cognitives, des sciences de la
communication, de l'éthologie et de la neurobiologie, notamment grâce aux
techniques d'apprentissage profond inspirées des réseaux neuronaux interconnectés. 9

Grâce aux progrès constants des technologies informatiques et des techniques


algorithmiques, en particulier l'apprentissage profond, l'intelligence artificielle a déjà

réunions sont traditionnellement adoptés par les chefs d'État et de gouvernement réunis.
https://www.gouvernement.fr/actualite/le-g20-un-forum-de-cooperation-economique-internationale .
8
Hervé Jacquemin et Alexandre de Streel , L’intelligence artificielle et le droit. Edition LARCIER . Page 73.
9
Le droit en datas : comment l’intelligence artificielle redessine le monde juridique. Boris Barraud Docteur en
droit, chercheur au LID2MS (Laboratoire interdisciplinaire de droit des médias et des mutations sociales,
Université d’Aix-Marseille) Revue Lamy droit de l’immatériel , 2019. Page 1.

4
L’intelligence artificielle et son influence sur le droit des affaires

obtenu des résultats spectaculaires, surpassant l'homme dans plusieurs volets.


Cependant, bien qu'une machine puisse restructurer ses connaissances initiales à
partir de nouvelles informations, aucun ordinateur ne pense ni n'est réellement
intelligent. Sa capacité d'apprentissage et de prise de décision est programmée ,
donnant simplement l'illusion d'intelligence. Les machines ne sont pas conscientes
d'elles-mêmes et ne peuvent pas décider de leurs propres objectifs ni concevoir de
nouvelles représentations du monde pour guider leurs raisonnements.

De telles avancées dans l'utilisation de l'intelligence artificielle ont soulevé de


nombreuses questions et préoccupations quant à leur impact sur la société. Les
progrès rapides de la digitalisation et de l'automatisation alimentées par l'IA ont
conduit les pouvoirs publics à chercher des moyens de réguler ces domaines en
évolution constante.

L'une des principales préoccupations concerne la protection des individus dans un


monde de plus en plus numérisé. L'utilisation de l'IA dans des domaines tels que la
finance, la santé et le commerce implique la collecte et l'analyse de vastes quantités
de données personnelles. Cette collecte de données soulève des questions sur la
confidentialité, la sécurité et le consentement éclairé des individus. Les pouvoirs
publics se sont donc efforcés de mettre en place des réglementations strictes pour
protéger les droits des individus et garantir que leurs données sont utilisées de
manière éthique et sécurisée.

Parallèlement, l'utilisation de cette dernière a également ouvert la voie à de


nouvelles formes de fraudes et de manipulations. Les algorithmes intelligents
peuvent être utilisés de manière malveillante pour manipuler les marchés financiers,
tromper les consommateurs ou encore commettre des fraudes en ligne. Face à ces
défis, les gouvernements et les autorités réglementaires se sont mobilisés pour
mettre en place des mécanismes de surveillance et des cadres juridiques pour
contrôler et prévenir les abus liés à l'IA.

Alors que le droit cherche à réguler l'intelligence artificielle pour encadrer son
développement et prévenir les abus, il est indéniable que l'intelligence artificielle
influence profondément le domaine juridique. Elle le façonne et le redéfinit, créant
ainsi un nouvel univers juridique aux contours encore flous. L'intelligence
artificielle transforme à la fois les professions juridiques et les marchés du droit,

5
L’intelligence artificielle et son influence sur le droit des affaires

modifiant les méthodes de travail des juristes ainsi que les normes qu'ils appliquent
ou étudient. L'influence des algorithmes sur le droit est si prégnante que la plupart
des juristes sont déjà touchés, ou le seront très prochainement, par les nouvelles
"lois" générées par le traitement automatisé des données.

Cette régulation de l'utilisation de l'IA vise donc à trouver un équilibre entre


l'innovation technologique et la protection des individus. Il est essentiel de mettre en
place des politiques et des lois qui favorisent le développement responsable de l'IA,
en garantissant la transparence, la responsabilité et la protection des droits
fondamentaux des individus.

Cette recherche vise à explorer de manière approfondie comment l'intégration de


l'IA dans les pratiques juridiques des entreprises peut être conduite de manière
responsable. Cela nécessite une investigation minutieuse des mécanismes
garantissant la confidentialité des données et la responsabilité des décisions prises
par les systèmes d'IA, tout en considérant la question cruciale de la responsabilité
juridique civile et pénale.

Ainsi, cette étude ambitieuse cherche à répondre aux questions suivantes de manière
approfondie :

Comment l'intelligence artificielle peut-elle impacter le droit des affaires ? Comment les
entreprises peuvent-elles intégrer et mettre en œuvre de manière responsable l'intelligence
artificielle dans le domaine du droit des affaires, en assurant la confidentialité des données
et la responsabilité des décisions prises par les systèmes d'IA, tout en prenant en compte les
aspects de responsabilité juridique civile et pénale ?

Dans une dynamique classique et dans le but de répondre à ces interrogations, l'intelligence
artificielle sera initialement soumise à l'examen du droit positif, mettant ainsi en lumière les
limites et déformations qu'elle peut induire dans les régimes juridiques existants. La détection
de ces lacunes conduira à la nécessité d'élaborer les fondements et les règles spécifiques dans
les domaines du droit des contrats, du droit de la propriété industrielle et intellectuelle, ainsi
que de la protection des données à caractère personnel (partie I). Cette analyse sera effectuée
en suivant une méthode descriptive et une méthode comparative, étant donné que l'intelligence
artificielle représente un sujet à la fois actuel et novateur dans le domaine juridique. De plus,

6
L’intelligence artificielle et son influence sur le droit des affaires

une approche analytique sera employée pour approfondir la compréhension des implications
juridiques dudite intelligence dans ces domaines.

Parallèlement, la responsabilité civile sera examinée dans un contexte où son


application à l'intelligence artificielle pourrait déformer son cadre traditionnel. Cette
constatation initiale conduira à une réflexion approfondie sur la nécessité de
réformer la responsabilité civile en raison des spécificités de l'intelligence artificielle
(partie II).

Pour mener à bien cette analyse, une méthode descriptive sera employée pour saisir
la complexité des enjeux juridiques découlant de l'interaction entre l'IA et la
responsabilité civile, tout en utilisant une approche analytique pour identifier les
modifications nécessaires dans le cadre juridique. En outre, une méthode
comparative sera appliquée pour évaluer les diverses approches adoptées par
différentes juridictions face à ces défis émergents en tenant compte que le législateur
marocain n’a pas toujours reconnu une base juridique pour cette dernière. Ainsi,
cette démarche méthodologique multidimensionnelle vise à offrir une perspective
complète et approfondie sur les implications juridiques de l'intelligence artificielle.

7
L’intelligence artificielle et son influence sur le droit des affaires

Première partie
Impact de l'intelligence artificielle sur le
droit des affaires.

8
L’intelligence artificielle et son influence sur le droit des affaires

I. Impact de l'intelligence artificielle sur le


droit des affaires.

Chapitre 1. L'impact de l'intelligence artificielle sur les contrats.


De manière générale et dans une perspective plus globale , les relations
contractuelles posent toujours cette question de confiance tout au long d’un
processus contractuel , l’absence de confiance mutuelle entre individus rend
indispensable le recours à des figures de confiance10. Ces figures peuvent être le rôle
des entités publiques qui veillent à maintenir la véracité et l’authenticité des
interactions contractuelles. Cependant , ce n’est pas assez suffisant, de nos jours ,
pour constater l’erreur dans un tel contrat. Par conséquent , le recours à des systèmes
de confiance tels que les contrats intelligents est obligatoire pour optimiser et
minimiser ces risques.

Pour ce faire , nous examinerons plus en détail dans la première section dudit
chapitre la conclusion des contrats par le biais de l’intelligence artificielle , voire la
phase précontractuelle , bien précisément , celle de la négociation , en mettant
l'accent sur les implications dudite intelligence sur les contrats commerciaux
traditionnels et son rapport avec la nouvelle forme des contrats à savoir les contrats
intelligents. Ainsi , nous discuterons le risque qui peut incomber dudit contrat dans
une deuxième section.

Section 1. La conclusion des contrats par le biais de l’intelligence artificielle : le


contrat intelligent à titre d’exemple.

“First, we want to establish the idea that a computer language is not just a way of getting a computer
to perform operations but rather that it is a novel formal medium for expressing ideas about
methodology. Thus, programs must be written for people to read, and only incidentally for machines

10
Moradinejad, R. (2019). Le contrat intelligent, nouveau vecteur de confiance dans les relations contractuelles
: réalité ou rêve ? Les Cahiers de droit, 60(3), https://doi.org/10.7202/1064651ar Page 626.

9
L’intelligence artificielle et son influence sur le droit des affaires

to execute.”11 (Hal Abelson & Gerald Jay Sussman, dans le livre Structure and Interpretation of
Computer Programs, 1996).12

L’une des sources essentielles de l'engagement est le contrat ,celui-ci représente la


convergence de deux volontés pour produire des effets juridiques. 13 Bien que la
législation marocaine n'ait pas défini le contrat, en laissant cette question à la
jurisprudence et à l'interprétation. Par contre , le législateur français, lui, l'a défini
comme suivant : " le contrat est un accord do volontés entre deux ou plusieurs
personnes destiné à créer, modifier transmettre ou éteindre des obligations".14

Par conséquent, tout contrat, qu'il soit conclu de manière traditionnelle ou


électronique, nécessite initialement l'élément de volonté et de consentement mutuel
15
entre les parties. Cela soulève alors des questions pertinentes, notamment
concernant les contrats intelligents conclus par l'intelligence artificielle, quel est le
sort dudit contrat ?

Paragraphe 1 : Utilisation de l'IA pour la négociation des contrats .


A. Une optimisation contractuelle :

L’expression « contrat intelligent » tire la sonnette d’alarme aux oreilles des juristes
qui s’intéressent au droit des contrats, 16 l’utilité dudit contrat est souvent souligné en
matière contractuelle. Cette optimisation potentielle concerne tant la phase de
conclusion du contrat que sa phase d’exécution.

Le monde du droit dans notre pays est , bien évidemment, régi par une variété des
règles et de réglementations visant à encadrer les relations individuelles entre les
différentes parties impliquées. Au cœur de ces relations se trouvent les contrats

11
Traduction : "Premièrement, nous voulons établir l'idée qu'un langage informatique n'est pas simplement un
moyen de faire exécuter des opérations à un ordinateur, mais plutôt qu'il s'agit d'un nouveau médium formel
pour exprimer des idées sur la méthodologie. Ainsi, les programmes doivent être écrits pour être lus par des
personnes, et seulement accessoirement pour être exécutés par des machines."
12
Maria Ivone Godoy , La reconnaissance juridique des contrats intelligents face à la réglementation globale
des technologies Faculté de Droit Mémoire présenté en vue de l’obtention du grade de Maître en Droit (LLM),
option Droit des technologies de l’information Avril 2019 © GODOY, 2019. Page 1.
13
، ‫ دون ذكر المطبعة‬،1 ‫" ج‬-‫ أوصاف االلتزامات‬-‫ في قانون االلتزامات و العقود المغربي‬، ‫ "النظرية العامة لاللتزامات‬، ‫مأمون الكزبري‬
11 ‫ص‬،1972 ‫ لسنة‬،2‫ط‬.
14
L'article 1101 du C.C.F stipule:" le contrat est un accord do volontés entre deux ou plusieurs personnes
destiné à créer, modifier transmettre ou éteindre des obligations".
15
‫ جامعة‬، ‫ ماستر الوسائل البديلة لفض المنازعات‬- ‫ من اعداد الطالب صابر الهدام‬-‫ دراسة مقارنة‬-‫القانون في مواجهة الذكاء االصطناعي‬
17 ‫ص‬، 2022-2021 ،‫سيدي محمد بن عبد هللا بفاس‬.
16
Moradinejad, R. (2019). Le contrat intelligent, nouveau vecteur de confiance dans les relations contractuelles
: réalité ou rêve ? Les Cahiers de droit, 60(3), 623–651, Page 627. https://doi.org/10.7202/1064651ar

10
L’intelligence artificielle et son influence sur le droit des affaires

commerciaux, qui établissent les droits et les obligations des parties cocontractantes.
Lesdits contrats jouent un rôle sine qua non dans la conduite des affaires et sont
sujets à une évolution constante pour s'adapter aux nouvelles réalités du marché.

De surplus , l'émergence de l'intelligence artificielle a également eu un impact


significatif sur la manière dont les contrats commerciaux sont négociés, conclus et
exécutés. En effet , l'IA en tant que technologie permettant aux machines de réaliser
des tâches qui nécessitaient autrefois l'intervention humaine, a ouvert de nouvelles
possibilités dans le domaine des contrats.

En pratique, ces contrats commerciaux peuvent revêtir différentes formes en


fonction de leur nature d’activité et des parties impliquées ; à savoir : des contrats
d'achat et de vente, des contrats de distribution, des contrats de franchise, des
contrats de partenariat, des contrats de licence, etc. C’est-à-dire , chaque type de ces
contrats a ses propres caractéristiques spécifiques et doit être rédigé avec soin pour
protéger les intérêts des parties concernées.

Pour ce faire , l'intelligence artificielle, à son rôle, a révolutionné la façon dont les
contrats sont négociés, grâce à des algorithmes sophistiqués qui peuvent analyser et
interpréter un grand volume des données contractuelles , tels que l'apprentissage
automatique et le traitement du langage naturel, en permettant aux entreprises de
gagner du temps et de réduire les risques en automatisant certaines tâches liées à la
rédaction et à la gestion des contrats. Ces contrats intelligents, qui sont basées sur la
technologie de la blockchain,17 représentent une autre facette de l'intersection entre
l'IA et les contrats commerciaux. Ces derniers utilisent des protocoles de
confiance et des conditions prédéfinies pour exécuter automatiquement les termes
d'un contrat, sans nécessite d'intervention humaine. Cette technologie émergente
offre des avantages potentiels en termes de transparence, de sécurité et d'efficacité
pour les parties contractantes.

Cependant, l'utilisation des contrats intelligents n'est pas sans risques. Les erreurs de
codage ou les vulnérabilités dans cette technologie peuvent entraîner des
conséquences juridiques et financières graves. Par conséquent, il est essentiel
d'évaluer soigneusement les risques associés à ces contrats et de mettre en place des
mécanismes de contrôle et de supervision adéquats ; mais tout en mettant en

17
Op,cit Maria Ivone Godoy.

11
L’intelligence artificielle et son influence sur le droit des affaires

évidence la traduction du langage naturel contractuel en algorithmes qui n’est pas


toujours possible. Quant aux conditions d’existence et de validité d’un contrat
peuvent-elles être entièrement algorithmiques ? Comment traduire l’existence
d’une offre et d’une acceptation ? Comment garantir la capacité d’une personne ?
18

Avant d’y répondre , il faut tout d’abord mettre le point sur les notions principales
qu’il faut comprendre à savoir la BLOCKCHAIN , les CONTRATS INTELLIGENTS
voire leur rapport avec le droit des affaires , voire les contrats commerciaux
traditionnels, en sus de son rôle à renforcer les relations contractuelles, notamment
dans le domaine des affaires.

L’intelligence artificielle et la blockchain , quel rapport ?

De prime à bord , une blockchain est une base de données décentralisées et sans
besoin d'intermédiaire, permettant l'automatisation, l'authentification et l'horodatage
des transactions tout en garantissant leur immuabilité et leur inviolabilité. Elle offre
également la possibilité de crypter les données pour assurer leur confidentialité.
Cette technologie est parfois considérée comme révolutionnaire, à l'instar d'Internet,
car elle pourrait transformer les échanges de valeurs de la même manière qu'Internet
a transformé les échanges d'informations. Cette transformation suscite de
nombreuses questions juridiques.19

En effet , ces blockchains ont le potentiel de remplacer ou de révolutionner le droit


en permettant notamment de s'affranchir de l'intervention de l'État et des tiers de
confiance traditionnels. Elles remettent en question des modèles établis depuis des
siècles pour générer et garantir la confiance, tels que le droit, l'État, les banques et
les notaires. Ces derniers incarnent le mouvement général de ‘technologisation’ de la
société, où les individus ont de moins en moins besoin de faire confiance à autrui et
se tournent de plus en plus vers la technologie. Cette tendance pourrait également
toucher le domaine juridique.

18
Mustapha Mekki , Blockchain : l’exemple des smart contracts Entre innovation et précaution. Agrégé des
Facultés de droit Professeur à l’Université Paris 13 Co-directeur de l’IRD Page 10.
19
Boris Barraud. Les blockchains et le droit. Revue Lamy Droit de l’immatériel, 2018, 147, pp.48-62. ffhal-
01729646f Page 1.

12
L’intelligence artificielle et son influence sur le droit des affaires

D’un point de vue personnel , l'avenir rendu possible par les BC est un monde plus
horizontal, où le nouveau droit qu'elles façonnent serait lui aussi plus horizontal, se
dispensant d'organes de surveillance et de contrôle traditionnels. Ce qui veut dire
que l’IA va remplacer toute procédure traditionnelle afin d’avoir une perfection
entière dans l’exécution des rapports contractuels. Par conséquent , les enjeux liés à
la relation entre la BC et le droit sont majeurs, en termes de blockchains saisies par
le droit, mais aussi et surtout en termes du droit saisi par les BC.

En effet , en tirant parti de l'essor des nouvelles technologies numériques, les BC


semblent être à l'origine d'un bouleversement rapide, avec le potentiel de remplacer
un modèle existant par un nouveau. Cela pourrait avoir des répercussions sur le droit
et même sur la notion d'État. Les blockchains pourraient jouer un rôle déterminant
dans la transition du droit moderne vers un droit postmoderne, ainsi que dans
l'évolution de l'État moderne vers un État postmoderne. Cependant, il est également
possible de les considérer comme une source de "paradroit", une forme de
20
régulation qui opère en dehors du cadre traditionnel du droit et de l'État.

B. Le contrat intelligent : une réalité ou un rêve en tant que nouveau moyen de


renforcer la confiance dans les relations contractuelles ?

D’ailleurs , le contrat intelligent résulte de l'utilisation de deux techniques :


Premièrement , la numérisation du contenu contractuel et deuxièment l'utilisation du
BC. Cette technologie de la chaîne de blocs a été adoptée comme un mécanisme
alternatif offrant des garanties réelles pour assurer l'intégrité du registre et maintenir
la confiance, en fournissant des niveaux de sécurité comparables, voire supérieurs, à
ceux du système bancaire. Bien que la première application de cette technologie ait
été liée aux paiements en ligne sécurisés grâce aux cryptomonnaies, certains ont
également vu en elle une solution pour résoudre le problème de confiance dans les
relations contractuelles.

Autrement dit , le concept d’un "contrat intelligent" dit (Smart Contract), intégré
dans une chaîne de blocs, est présenté par certains comme une solution radicale
permettant d'éliminer définitivement le problème de confiance dans les relations
contractuelles. Ces initiatives ont abouti à un contrat inviolable, dont l'exécution est
automatique et transparente. Bien que le contrat intelligent ne puisse pas résoudre

20
Ibid , Les blockchains et le droit , Page 2.

13
L’intelligence artificielle et son influence sur le droit des affaires

définitivement le problème de confiance, en raison des limites liées à la


numérisation du contenu contractuel, il est indéniable qu'il peut contribuer
positivement à rétablir un climat de confiance entre les parties. Et ceci en améliorant
la transparence et en garantissant l'exécution conforme du contrat, dans la mesure où
cela est techniquement possible, le contrat intelligent offre une perspective
encourageante pour renforcer la confiance entre les parties.

En mentionnant le renforcement de la confiance entre les parties , cette confiance


représente un élément essentiel dans le domaine du droit des Contrats. Elle est
souvent remise en question en raison de la crainte légitime de faire face à des
comportements opportunistes lors d'un échange contractuel. Ces comportements
peuvent se manifester par une inexécution ou une mauvaise exécution des
obligations contractuelles. Afin de dissiper ces craintes, les parties ont besoin d'un
climat de confiance.

Dans certains cas, des relations préexistantes entre les parties favorisent
l'établissement d'une confiance mutuelle. Par exemple, dans le cas d'une vente d'un
objet de faible valeur entre deux voisins, si l'acheteur n'a pas d'argent liquide pour un
paiement immédiat, le vendeur peut être enclin à remettre l'objet en espérant être
payé ultérieurement par son voisin. Dans cette situation, la confiance du vendeur
repose sur la relation existante entre les deux voisins, et des sources externes de
confiance, telles que la loi ou les normes sociales, ne viennent qu'en complément de
cette confiance interne. Cette confiance interne est directement liée à l'intensité de la
relation entre les parties. Cependant, la question à poser est , qu'est-ce qu'on
entend réellement par un contrat intelligent? Et quel est son rapport avec un
contrat commercial ?

L'expression "contrat intelligent" suscite une vive réaction chez les juristes
spécialisés en droit des contrats, car elle met en évidence le terme "contrat". Selon
certains auteurs, le terme "contrat intelligent" diffère du concept juridique
traditionnel du contrat et est principalement utilisé par les acteurs du domaine
informatique.21 Les définitions proposées mettent généralement l'accent sur deux
caractéristiques essentielles. Tout d'abord, il s'agit d'un programme informatique

21
Moradinejad, R. (2019). Le contrat intelligent, nouveau vecteur de confiance dans les relations contractuelles
: réalité ou rêve ? Les Cahiers de droit, 60(3), 623–651.

14
L’intelligence artificielle et son influence sur le droit des affaires

constitué de codes et d'instructions visant à automatiser l'exécution d'une commande


par un ordinateur. Ensuite, ce programme informatique doit être intégré dans une
chaîne de blocs pour être qualifié de contrat intelligent.

En d'autres termes, selon cette approche, le terme "contrat intelligent" ne serait


qu'une désignation décorative pour un programme informatique qui opère en
utilisant les données enregistrées sur une chaîne de blocs. Autrement dit, le contrat
intelligent est essentiellement un "contrat informatisé" ou un "contrat calculable".
Appelé également un « Computable Contract ». Cette expression, qui a été proposée
en anglais par un auteur américain, fait référence à un programme informatique
capable d'effectuer une évaluation sommaire des conditions d'exécution d'un
contrat.22 Pour cela, les termes du contrat doivent être préalablement exprimés d'une
manière facilement lisible et compréhensible par un ordinateur. Ainsi, contrairement
à un contrat ordinaire où les termes sont présentés dans un langage naturel (comme
le français, l'anglais, etc.), dans un contrat exprimé en données, le contenu est traduit
en données informatiques.

A cet effet , plusieurs interrogations se manifestent dans notre étude : Quels seraient
les impacts de l’informatisation du contenu contractuel sur le droit des contrats?
Comment appréhender juridiquement cette informatisation? La réponse à ces
questions dépend essentiellement du rôle que les parties réservent au contrat
intelligent. Le contrat intelligent devient un simple instrument destiné à faciliter
l’exécution du contrat lorsque celui-ci ne joue aucun rôle au stade de sa formation.
C’est alors une hypothèse où l’ensemble des clauses contractuelles sont exprimées
en langage naturel. Les parties décident de traduire une ou plusieurs clauses de ce
contrat en langage informatique dans le but de concevoir un contrat intelligent.
Ainsi, la partie informatisée du contrat n’en devient pas l’instrumentum.23

Bien que le principe du consensualisme donne une importance primordiale à la


rencontre des volontés, la forme dans laquelle les parties expriment leur
consentement peut jouer un rôle crucial. Malgré la conception abstraite du contrat
privilégiée par le consensualisme, l'échange du consentement nécessite une

22
Ibid , Moradinejad, R, Le contrat intelligent, nouveau vecteur de confiance dans les relations contractuelles :
réalité ou rêve ? Les Cahiers de droit, 60(3), Page 627.
23
Ibid , Page 635. En d'autres termes, bien que le contrat intelligent puisse être utilisé pour faciliter l'exécution
et la gestion automatique d'un contrat, il ne remplace pas la substance du contrat lui-même. interface
technologique qui permet d'automatiser certaines fonctionnalités ou conditions d'exécution du contrat.

15
L’intelligence artificielle et son influence sur le droit des affaires

manifestation externe de la volonté des parties. Cela peut se faire verbalement, par
écrit ou par des gestes concrets.

Dans le contexte numérique, la question du consentement a suscité de nombreux


débats. Les contrats électroniques conclus à distance ont déjà été largement étudiés
par la doctrine. Certains auteurs admettent que des gestes tels que cliquer sur un lien,
comme dans le cas d'un contrat d'achat au clic (clickwrap contract)24, peuvent
suffire à constater un accord de volontés. Cette interprétation est cohérente avec les
principes généraux du droit québécois qui reconnaissent l'acceptation implicite
comme une forme valide d'acceptation.

Peut-on appliquer cette solution aux contrats intelligents où certains termes sont
exclusivement exprimés en données et en instructions informatiques ? La réponse
à cette question n'est pas facile. Il est nécessaire de faire une distinction entre un
contrat dont les termes ont été négociés en langage naturel et un contrat pour lequel
aucun échange de ce type n'a eu lieu. Cette distinction est primordiale pour vérifier
si le contenu de l'offre et de l'acceptation est intelligible. Ceci veut dire qu’un
contrat normal dit aussi en langage naturel , est un contrat dont l’échange du
consentement entre les parties cocontractantes et sa conclusion ne permettent pas
d’avoir une machine ou un robot pour l’exécuter , c’est un contrat simple et
authentique dont la forme est un acte écrit, alors que le cas d’un contrat intelligent
est étroitement lié à la technologie de Blockchain. La question à poser à ce niveau
est la suivante , est-ce que ce type de contrat nécessitera également une phase
précontractuelle et une négociation comme dans le cas d'un contrat traditionnel ?
et quelles sont les étapes à suivre pour bien conclure ce dernier ?

Le stade précontractuel est une étape primordiale et préliminaire afin de conclure un


contrat sans risques , la négociation dans un contrat commercial normal est claire et
nette , il se peut même qu’il n’y ait pas encore eu d’offre de contracter prête à être
acceptée telle quelle, mais seulement des propositions et des contre-propositions. Cette
étape des pourparlers est l’élément indispensable à la formation d’un contrat. En effet,

24
Un contrat d’achat au clic est un contrat qui est exécuté en ligne , c’est-à-dire un contrat associé au
commerce en ligne, notamment à l’achat de logiciels par internet ou à leur téléchargement, qui se distingue
par le fait que le cyberconsommateur indique son accord avec les termes du contrat d’achat en cliquant sur le
bouton ( I agree, I accept ou j’accepte, en français).

16
L’intelligence artificielle et son influence sur le droit des affaires

une convention ne peut se former que lorsque les parties cocontractantes sont d’accord
sur les éléments du contrat qu’ils se proposent de conclure.

IA en tant qu'outil de communication :

La question centrale de ce paragraphe est la suivante : que se passe-t-il lorsqu’un contrat


conclu par une intelligence artificielle n'est pas aligné avec les attentes raisonnables d'un
mandant ? Dans les paragraphes suivants, nous discutons de ce désalignement
contractuel dans l'hypothèse où un système d'IA agit purement comme un outil de
communication. Ce faisant, nous devons ignorer sa nature autonome. Cette approche de
l'IA en tant que simple "outil" est séduisante par sa simplicité. Elle facilite l'intégration
de l'IA dans notre système existant et ne nécessite aucune réforme statutaire.25

Une fois qu'il a été déterminé si une volonté de contracter existe ou non, il est nécessaire
d'examiner la validité du consentement. Ce consentement est considéré comme valide
uniquement en l'absence de défauts. Parmi les défauts couramment mentionnés, on
trouve la tromperie et l'erreur. Pour des raisons de concision, nous nous concentrerons
sur le consentement erroné du mandant du système IA, en référence à l'Article 39 du
DOC qui stipule : "Est annulable le consentement donné par erreur, surpris par dol, ou
extorqué par violence."26

Toute partie a le droit de contester la validité d'un contrat si elle a basé son accord sur
une "erreur" ou une perception erronée de la réalité. Pour ce faire, une première
condition est que cette perception erronée de la réalité concerne l'objet du contrat qui a
incité la partie errante à conclure le contrat en premier lieu. De plus, l'autre partie doit
être consciente de la nature cruciale de cet objet. Lorsque l'objet du contrat est considéré
objectivement comme crucial, il n'y a pas de problème supplémentaire. Cependant, cela
peut être plus difficile lorsque la partie errante détermine subjectivement qu'un certain
objet du contrat était décisif pour elle. Dans ce cas, cela aurait dû être clairement
indiqué à l'autre partie.

La deuxième condition pour pouvoir invoquer l'erreur comme un vice du consentement


est que l'erreur doit être excusable. Des circonstances peuvent parfois indiquer qu'une
partie diligente aurait dû être plus approfondie ou proactive dans sa compréhension de

25
Jan De Bruyne Cedric Vanleenhove (eds.) , Artificial Intelligence and the Law, First published in hardcover in
2021, ISBN 978-1-83970-103-0 , Intersentia Ltd 8 Wellington Mews | Wellington Street Cambridge | CB1 1HW |
United Kingdom CHAPTER 13 A I IN BELGIAN CONTRACT LAW: DISRUPTIVE CHALLENGE OR BUSINESS AS
USUAL? Page 337.
26
Dahir des Obligations et Des Contrats.

17
L’intelligence artificielle et son influence sur le droit des affaires

l'objet sur lequel elle prétend s'être trompée. Ainsi, la charge de la preuve incombe à la
partie errante.

En se basant sur ces exigences, il devient rapidement évident que l'application de la


théorie de l'erreur à un contrat conclu par notre assistant de réservation IA n'est pas
d'une grande aide. Imaginons un scénario où une intelligence artificielle est impliquée
dans un contrat de vente. Supposons qu'un consommateur utilise un assistant de
shopping IA pour acheter une table en bois spécifique. L'utilisateur communique
clairement son choix à l'IA, qui procède ensuite à la commande.

Cependant, lors de la livraison, il s'avère que la table livrée est en métal au lieu du bois
spécifié dans la demande de l'utilisateur à l'IA. Dans ce cas, l'utilisateur pourrait
invoquer une erreur comme un vice du consentement, en soutenant que l'IA a commis
une erreur en choisissant un matériau différent de celui spécifié.

La question de savoir si cette erreur est excusable dépendrait de divers facteurs. Si l'IA a
accès à des informations incorrectes sur les caractéristiques du produit ou si elle a mal
interprété les préférences de l'utilisateur en raison d'un défaut dans son programme, cela
pourrait constituer une erreur excusable. Cependant, si l'utilisateur n'a pas fourni des
informations claires à l'IA ou si l'erreur découle d'une défaillance technique inattendue,
cela pourrait rendre l'erreur moins excusable.

Pour y savoir profondément , nous allons faire la distinction entre un contrat intelligent ou qui est
rédigé par un outil d’IA , et entre un contrat traditionnel nommé afin d’analyser les conditions de
chacun des deux et de pouvoir lier les dispositions juridiques de la législation marocaine à un contrat
intelligent qui est l’objet de l’actualité juridique internationale voire nationale.

Paragraphe 2. DISTINCTION ENTRE CONTRAT COMMERCIAL TRADITIONNEL ET UN


CONTRAT INTELLIGENT : S’agit-il de la même nature ?

D’ailleurs , les contrats commerciaux traditionnels sont souvent sujets à des erreurs
humaines et à des retards dans l'exécution. En revanche, des contrats intelligents
sont auto-exécutables27 et s'exécutent automatiquement lorsqu'un ensemble de
conditions prédéfinies est rempli. Les contrats intelligents peuvent également être

27
Smart contract : définition et utilité (legalstart.fr) Visité en 8 Juillet 2023.

18
L’intelligence artificielle et son influence sur le droit des affaires

utilisés pour automatiser les processus de négociation et d'exécution des contrats


commerciaux.

Autrement dit , dans un contrat commercial traditionnel, la négociation se fait


généralement face à face , par téléphone ou par e-mail. Les parties prenantes
discutent des termes du contrat et proposent des modifications jusqu'à ce qu'un
accord soit trouvé. Une fois que les termes du contrat ont été convenus, le contrat est
rédigé et signé par les parties prenantes.

En revanche, dans un contrat intelligent, la négociation se fait en utilisant un


système de négociation automatisé qui utilise des algorithmes pour proposer des
conditions de fond équitables. Les parties prenantes peuvent définir les conditions
du contrat en utilisant un langage de programmation spécifique. Les conditions du
contrat sont stockées sur une blockchain, qui est un registre public et décentralisé.
Les parties prenantes peuvent alors voter pour approuver les conditions du contrat.
Lorsque les conditions sont approuvées, le contrat est exécuté automatiquement. 28

Donnant un exemple d’un contrat commercial peut être transformé en un contrat


intelligent en utilisant un code informatique pour définir les conditions d'exécution
du contrat. Les parties prenantes peuvent ensuite négocier les conditions du contrat
en utilisant un système de négociation automatisé qui utilise des algorithmes pour
proposer des conditions de contrat équitables. De cette façon, les contrats intelligents
peuvent aider à accélérer le processus de négociation et d'exécution des contrats
commerciaux, tout en réduisant le risque d'erreurs humaines et de retards.

En résumé, la négociation d'un contrat commercial traditionnel se fait en face à face


ou par téléphone ou e-mail, tandis que la négociation d'un contrat intelligent se fait
en utilisant un système de négociation automatisé qui utilise des algorithmes pour
proposer des conditions de contrat équitables.

UN CONTRAT COMMERCIAL TRADITIONNEL ET UN CONTRAT


INTELLIGENT : Mêmes conditions de forme voire de fond ?

Avant d'entamer une analyse comparative entre un contrat intelligent et un contrat


commercial traditionnel, nous devons d'abord établir une base solide en comprenant

28
Primavera De Filippi and Aaron Wright : Blockchain and the Law: The Rule of Code. [Cambridge, MA:
Harvard University Press, 2018. Note 8. Page 37.

19
L’intelligence artificielle et son influence sur le droit des affaires

en quoi consistent ces deux types de contrats et comment ils fonctionnent dans leurs
contextes respectifs. De ce fait , plusieurs interrogations surgissent quant à la
reconnaissance légale des transactions réalisées via les contrats intelligents, et ce, en
conformité avec les lois nationales de chaque État. Parmi ces questions, on peut se
demander si les contrats intelligents sont purement des mécanismes d'exécution de
contrats existants ou s'ils doivent être considérés comme des contrats à part
entière ?, ayant des implications juridiques directes. De plus, la question se pose
de savoir si le langage de programmation utilisé équivaut à un langage
contractuel valide, notamment en ce qui concerne l'expression du consentement
libre et éclairé des parties contractantes ?29

En cas de découvertes de vices juridiques dans les contrats intelligents, comment


serait gérée leur révision, modification ou annulation ? Quels éléments de preuve
seraient pris en compte pour établir la validité et l'exécution de ces contrats ?
Étant donné l'utilisation de la cryptographie dans les contrats intelligents,
comment les tribunaux pourraient-ils accéder aux informations et identifier toutes
les parties impliquées dans ces transactions ? Ces questions soulignent l'importance
cruciale de développer un cadre juridique approprié pour régir les contrats
intelligents à l'ère de la technologie blockchain.

Or , cette étude n’a pas l’audace de répondre à toutes ces questions. Néanmoins
l'application du Dahir des obligations et des contrats peut nous fournir des indices
sur la manière dont ces contrats intelligents pourraient être envisagés dans le cadre
juridique marocain, offrant ainsi une perspective prospective sur la réglementation
potentielle de cette nouvelle forme contractuelle au Maroc.

En se référant aux Dahir des Obligations et des contrats , et en faisant un petit rappel
de quelques dispositions de ce dernier à savoir ; le fameux 2ème article30 qui nous
incite vers la notion de capacité, de volonté des parties cocontractantes , ainsi à
l’objet et à la cause pour laquelle les parties s’obligent. En parlant du deuxième

29
Maria Ivone Godoy , La reconnaissance juridique des contrats intelligents face à la réglementation globale
des technologies , Faculté de Droit Mémoire présenté en vue de l’obtention du grade de Maître en Droit (LLM),
option Droit des technologies de l’information Avril 2019 © GODOY, 2019 Page 72
30
Article 2 Du Dahir des Obligations et de contrats : Les éléments nécessaires pour la validité des obligations
qui dérivent d'une déclaration de volonté sont : 1° La capacité de s'obliger ; 2° Une déclaration valable de
volonté portant sur les éléments essentiels de l'obligation ; 3° Un objet certain pouvant former objet
d'obligation ; 4° Une cause licite de s'obliger.

20
L’intelligence artificielle et son influence sur le droit des affaires

condition de cet article qui est , la volonté des parties , cette dernière détient deux
volets essentiels , à savoir : L’offre et l’acceptation. La volonté de conclure un
contrat réside dans le fait que les parties prenantes négocient clairement le contenu
dudit contrat et se mettent d’accord sur sa conclusion, cette conclusion est le résultat
d’une bonne négociation. Néanmoins , la question à poser est la suivante , est-ce que
l’offre et l’acceptation comme ils sont indiquées dans l’article précédent peuvent
être appliquer dans le cas d’un contrat intelligent ?

Une réponse affirmative est plus au moins possible dans notre cas présent , puisqu’il
convient de noter que le Maroc n’a pas toujours prévu des dispositions juridiques
spécifiques qui régissent la conclusion de ces contrats automatisés. A cet effet ,
l’article 2 du DOC peut être appliquer aux contrats intelligents, dans le cas où l’offre
et l’acceptation peuvent être programmés pour se produire automatiquement si
certaines conditions sont remplies. Cependant , dans une étape de négociation , les
parties peuvent discuter des termes et convenir de certains détails avant que l’offre
ne soit faite et acceptée. Dans ce cas, les principes de l’offre et l’acceptation
s’appliquent toujours , mais la façon dont ils sont mis en œuvre peut être différente
de celle d’un contrat traditionnel , vu la nature différente de ce type de contrat.

De surcroît , une clarté et liberté tout au long d’un processus contractuel s’impose,
afin de permettre à chaque cocontractant de consentir en pleine connaissance de
cause. Les parties prenantes trouvent leur source dans l’exigence de bonne foi. Un
arrêt de la Cour de Cassation exprime clairement ceci en mentionnant que :
« Lorsque les termes d'un acte sont formels, il n'y a pas lieu de rechercher quelle a
été la volonté de son auteur… »31 en se basant sur les articles 230, 231 et 461 du
Code des obligations et des contrats, il est établi que les obligations contractuelles
créées de manière valide ont force de loi pour les parties qui les ont établies, et ne
peuvent être annulées que par leur consentement mutuel. De telles obligations et
conditions s’imposent également lorsque l’objet du contrat porte sur une application
d’intelligence artificielle.32

Néanmoins , la valeur juridique des documents ne dépend pas du support sur lequel
ils sont créés mais plutôt sur leur conformité aux exigences légales, en mettant en

31
CCass,15/05/1985,1165 Réf : 20121.
32
Hervé Jacquemin et Alexandre de Streel , L’intelligence artificielle et le droit. Edition LARCIER . P84.

21
L’intelligence artificielle et son influence sur le droit des affaires

priorité leur objectif. Par conséquent, que l'accord soit conclu à l'aide d'un
programme informatique ou de manière classique sur papier, c'est l'exécution de sa
fonction qui devrait être la principale préoccupation du droit. 33

Dans le même contexte , certaines personnes soutiennent que les contrats intelligents
peuvent remplacer efficacement le besoin d'un tiers de confiance, en promettant un
climat de confiance infaillible. En droit commercial, cela se traduit par l'émergence
de contrats de vente automatisés, qui fonctionnent de manière autonome et
transparente grâce à la technologie des contrats intelligents. 34

Par exemple, envisageons un contrat de vente automatisé dans le contexte du


commerce électronique. Lorsqu'un client effectue un achat en ligne, un contrat
intelligent peut être automatiquement exécuté. Ce contrat enregistrera la commande,
vérifiera la disponibilité des produits, calculera le coût total, générera une facture et,
une fois le paiement reçu, organisera la livraison. Toutes ces étapes se déroulent de
manière transparente et sécurisée grâce à la blockchain et aux contrats intelligents.

Ainsi, les contrats intelligents offrent un exemple concret de la manière dont la


technologie transforme le droit commercial. Ils automatisent et sécurisent les
transactions, éliminant ainsi le besoin d'un tiers de confiance traditionnel. Cela peut
rendre les échanges commerciaux plus efficaces et réduire les coûts tout en
renforçant la confiance entre les parties. Cependant, cela soulève également des
questions juridiques sur la responsabilité en cas de litige et la nécessité de
réglementations appropriées pour encadrer cette évolution technologique.

Par ailleurs , en ce qui concerne l'examen de l'équivalence fonctionnelle entre ces


deux types de contrats , que ce soit traditionnel ou automatisé, il nous conduit
généralement à examiner trois concepts juridiques qui sont fréquemment présents
dans les normes des États et qui ont une étroite relation avec le DOC : l'écrit, la
signature et l'original.

Concernant le premier concept, à savoir l'écrit, la loi exige à la fois l'intégrité et


l'identification de l'auteur du document. Cette intégrité comprend deux aspects :

33
Op,cit , Maria Ivone Godoy,Page 81.
34
Reza Moradinejad , Le contrat intelligent, nouveau vecteur de confiance dans les relations contractuelles :
réalité ou rêve ? Volume 60, numéro 3, septembre 2019 Le droit des activités économiques à l’ère numérique
page 646.

22
L’intelligence artificielle et son influence sur le droit des affaires

l'authenticité du contenu et l'authenticité de l'origine du document. Par conséquent, il


est impératif de respecter les exigences juridiques, quel que soit le support utilisé
pour la création du document. Le deuxième concept, la signature, se résume à
l'identification de l'auteur et à sa manifestation de volonté. 35

Enfin, le concept d'originalité d'un document peut être interprété comme la


préservation de l'intégrité du document, qu'il s'agisse de la source première d'une
reproduction, de son caractère unique, ou de la forme initiale d'un document liée à
une personne. Ainsi, ces trois concepts juridiques sont essentiels pour évaluer la
validité et l'équivalence fonctionnelle des documents, quelle que soit leur forme ou
leur support.

En dépit de la possibilité d'adapter et d'appliquer les normes générales déjà


existantes aux contextes technologiques, et en rappelant que le Maroc n'a pas encore
pris de mesures législatives similaires pour réguler cette technologie émergente.
Certaines juridictions élaborent des règles spécifiquement conçues pour la
technologie de la chaîne de blocs et ses applications, notamment les contrats
intelligents. Il convient tout d'abord de noter que cette étude ne prétend pas être
exhaustive, car de nombreux projets de loi liés à ces sujets "à la mode" sont
constamment proposés, et de nombreuses juridictions sont impliquées, rendant cette
tâche particulièrement complexe.36

Malgré la diversité potentielle des applications de la technologie de la chaîne de


blocs, la plupart des législations actuelles se concentrent principalement sur les
crypto-monnaies. Au Canada, par exemple, elles sont régies par la Loi sur le
recyclage des produits de la criminalité et le financement des activités terroristes, en
plus d'être soumises aux réglementations en matière de valeurs mobilières.

En France, le Plan d'Action pour la Croissance et la Transformation des Entreprises


(PACTE) vise, entre autres mesures, à faciliter le financement par le biais des Offres
Initiales de Jetons (ICO). En Suisse, l'Autorité fédérale de surveillance des marchés
financiers (FINMA) précise que toutes les ICO ne sont pas soumises aux

35
Maria Ivone Godoy , La reconnaissance juridique des contrats intelligents face à la réglementation globale
des technologies, 2019 Page 82.
36
Ibid , Page 83.

23
L’intelligence artificielle et son influence sur le droit des affaires

réglementations des marchés financiers, car la définition des ICO peut varier
considérablement.

Cependant, il existe également des propositions spécifiques axées sur les contrats
intelligents, bien que ces dernières soient moins courantes. Un exemple notable
d'engagement des autorités publiques dans ce domaine est le projet de la
Commission du droit du Royaume-Uni, un organe indépendant créé par la loi de
1965 sur les commissions juridiques pour surveiller le droit en Angleterre et au Pays
de Galles, et recommander des réformes si nécessaire.

Même s'il ne s'agit pas d'une proposition de loi, cela illustre l'intérêt des institutions
étatiques pour ce sujet. Cette étude soulève différentes questions, principalement
liées à l'interaction entre le droit des contrats existant et les contrats intelligents. Par
conséquent, des concepts tels que la nullité contractuelle, les conditions implicites,
ainsi que les notions d'interprétation, de responsabilité et de résolution de litiges
seront examinés dans le contexte de la recherche menée par la Commission du droit
du Royaume-Uni.

De même, le projet de la loi SB 300 de l'Ohio définit les "records and contracts
secured by blockchain technology as electronic records"37, autorisant ainsi
l'utilisation du terme "contrats intelligents". Tout comme dans les deux normes
précédemment mentionnées, en Ohio, les contrats intelligents sont reconnus comme
étant légalement contraignants, tout comme les contrats traditionnels. 38

Plus récemment, l'Italie a également reconnu la validité juridique de la technologie


de la chaîne de blocs et des contrats intelligents grâce à la loi N° 12 du 11 février
2019, qui a converti le Décret-loi N° 135 du 14 décembre 2018 en loi. En plus de
définir ces deux technologies, la nouvelle réglementation stipule que les registres sur
une chaîne de blocs dotés d'un mécanisme de validation temporelle seront
considérés comme valides.

En ce qui concerne les contrats intelligents, la loi italienne reconnaît leur validité
juridique et leur force exécutoire. En résumé, les contrats intelligents sont assimilés
aux contrats traditionnels en ce qui concerne les notions de consentement et de

37
Traduction , les enregistrements et contrats sécurisés par la technologie de la chaîne de blocs comme
des enregistrements électroniques.
38
OP, Cit GODOY 2019 , Page 86.

24
L’intelligence artificielle et son influence sur le droit des affaires

valeur probante, pour autant que l'authentification des parties respecte les normes
établies par l'Agence pour l'Italie numérique (Agenzia per l'Italia digitale), qui n'ont
pas encore été publiées.

Ainsi, nous constatons que les gouvernements du monde entier s'engagent


actuellement dans l'examen des questions liées à la chaîne de blocs et à ses
applications. Chaque État adopte son propre processus, en préservant ses
spécificités, tout en abordant les sujets de la réglementation.

Section 2. L'IA dans la gestion des risques liés aux contrats.


Les applications de l’IA sont des outils complexes, qui peuvent déclencher des
risques pour la sécurité des utilisateurs ou des tiers, vu le comportement de cette
machine qui peut se révéler a priori imprévisible, puisqu’il résulte des algorithmes
mis en place.39 A cet effet , nous visons à démystifier dans la présente section la
transparence des contrats intelligents , et nous allons retenir les risques liés à ce type
de contrats , ainsi analyser la pratique commerciale trompeuse dans l’application
d’intelligence artificielle.

Paragraphe 1 : La question de transparence des contrats intelligents :


Tout d’abord , un contrat informatisé dit aussi intelligent , représente un ensemble
des codes sources et des données relatives aux termes de celui-ci , et le dépôt de ce
dernier sur un bloc ferait en sorte que le programme informatique qui exprime les
termes dudit contrat qui est responsable de son exécution serait entièrement placé
hors de la portée des contractants. De ce fait , ce contrat deviendrait ainsi
parfaitement et pratiquement infalsifiable, car personne n’aurait la possibilité d’en
altérer frauduleusement les termes.

Le caractère interrelié des blocs dans une Block Chain garantirait en lui-même
qu’aucun changement ne pourrait y être effectué. De plus, il n’y aurait aucune
possibilité technique voire juridique pour les parties cocontractantes de s’esquiver de
leur obligation contractuelle ; aucune des parties ne pourrait, techniquement,
empêcher l’exécution du contrat. En effet, le contrat informatisé agirait selon ses
instructions et exécuterait une prestation lorsque les conditions d’exécution seraient

39
Op,Cit Page 85.

25
L’intelligence artificielle et son influence sur le droit des affaires

réunies. Cela incombe du caractère rigoureux et transparent du langage informatique


qui ne laisse aucune place à une exécution nuancée.

Bref, l’intégration dans une chaîne de blocs donnerait un caractère concret au


principe d’intangibilité des contrats40 car, dans les faits, personne ne pourrait
modifier ni révoquer le contrat informatisé. Cependant dans un contrat normal
traditionnel ce caractère est absent , en se référant à l’article 19 du DOC41 qui
précise que pour qu'un contrat soit considéré comme parfait, il faut un accord sur les
éléments essentiels et les clauses importantes. Les modifications apportées
ultérieurement au contrat sont censées faire partie du contrat initial, sauf indication
contraire explicite des parties. L'article poursuit en précisant que si les parties
apportent des modifications au contrat peu de temps après sa conclusion et que ces
modifications sont faites d'un commun accord, elles ne constituent pas un nouveau
contrat à part entière. Au contraire, ces modifications sont censées faire partie
intégrante du contrat initial, à moins que les parties n'expriment clairement le
contraire. Chose qui n'est pas possible pour le cas d'un contrat intelligent ce qui
diminue la chance de tomber dans un risque contractuel ou dans un acte de mauvaise
foi , ainsi de maintenir une transparence et clarté totale dans son exécution et
conclusion.

La transparence et la précision des informations dans les contrats intelligents sont


deux avantages habituellement soulignés. À la différence des contrats traditionnels,
lorsque nous utilisons un langage de programmation, il n’y a pas de place pour
l’interprétation ou l’ambiguïté. Étant donné qu’un code informatique doit être exact
pour bien fonctionner, l’exécution du contrat suivra strictement les dispositions
initialement prévues, c’est-à-dire que toutes les informations doivent être
préalablement et précisément définies. Cette caractéristique de précision est aussi
vérifiée dans les contrats intelligents parce que, considérant l’immutabilité des

40
Ce principe d’intangibilité des contrats a été mentionné dans le droit québécois dans l’article1439 C.c.Q selon
lequel un contrat valablement formé ne peut être modifié ou révoqué unilatéralement ou par la voie judiciaire
que dans la mesure prévue par la loi. Or, sans l’intervention des tribunaux pour sanctionner une modification
unilatérale du contrat, ce principe demeure un vœu pieux. Le contrat intelligent peut, dans certains cas,
renforcer l’application de ce principe, et ce, sans faire intervenir les tribunaux.
41
L’article 19 du Dahir des obligations et des contrats : La convention n'est parfaite que par l'accord des parties
sur les éléments essentiels de l'obligation… Les modifications que les parties apportent d'un commun accord à
la convention, aussitôt après sa conclusion, ne constituent pas un nouveau contrat, mais sont censés faire
partie de la convention primitive, si le contraire n'est exprimé.

26
L’intelligence artificielle et son influence sur le droit des affaires

registres sur la chaîne, les parties sont sûres qu’aucune modification n’a été
apportée.42

Donnant un exemple du commerce électronique, ces contrats intelligents permettent


des transactions directes entre les vendeurs et acheteurs ; et ces contrats peuvent être
pour s’exécuter uniquement lorsque les obligations spécifiées ont été bien remplies.
C’est le cas d’un acheteur qui peut envoyer le prix déterminé d’un produit en crypto-
monnaie au contrat.43

Le vendeur envoie la preuve de propriété au contrat intelligent et lie ledit contrat à


l’entreprise transportant le produit vendu. Dès que le vendeur accomplisse toutes ses
obligations , le contrat intelligent enverra automatiquement les fonds au porte-
monnaie du vendeur, sans qu’il y aurait un risque de retard du versement du prix ou
du paiement de la chose vendue , et que toute la formation du contrat et son
exécution soit transparente et claire.

Et dans une même trajectoire et dans l’optique de maintenir une transparence


contractuelle , la signature électronique est complémentaire d’un smart contract , la
signature permet de certifier la conclusion d’un contrat, et le smart contract de garantir son
exécution , afin de garantir un processus contractuel dématérialisé transparent.
Toutefois , la question qui semble se dégager de prime à bord des considérations qui
précèdent est la suivante : Existe-t-il des mesures législatives et pratiques au Maroc
relatives à l’utilisation de l’IA visant à assurer une transparence totale dans les
relations contractuelles ?

Le législateur marocain n’a pas toujours mis en œuvre un cadre normatif qui régit ce
44
type de contrat , cependant la liaison entre la signature électronique qui dispose
déjà d’une loi spécifique qui l’encadre à savoir celle du Dahir n° 1-07-129 du 19
kaada 1428 (30 novembre 2007) portant promulgation de la loi n° 53-05 relative à
l’échange électronique de données juridiques, et la méthode des contrats intelligents
représentant toutes les deux une bonne solution pour maintenir la transparence.

42
Maria Ivone Godoy , La reconnaissance juridique des contrats intelligents face à la réglementation globale
des technologies Faculté de Droit Mémoire présenté en vue de l’obtention du grade de Maître en Droit (LLM),
option Droit des technologies de l’information Avril 2019.
43
BLOCKCHAIN ET CONTRAT COMMERCIAL (murielle-cahen.com) Consulté le 13.06.2023 à 13h08.
44
Sans oublier que le Maroc peut se positionner leader en l’utilisation de la Blockchain comme étant une
innovation, dont les Smart contracts font partie, ainsi en introduisant les meilleures pratiques éprouvées
ailleurs. Nous avons le Groupe de La Banque Populaire à titre d’exemple qui font usage de cette technologie.

27
L’intelligence artificielle et son influence sur le droit des affaires

Toutefois , il est important de ne pas confondre un contrat commercial traditionnel


rédigé sur papier avec un contrat intelligent. L’un est rédigé sous papiers et l’autre
qui repose sur un programme informatique auto-exécutable qui est généralement
basé sur la technologie de la BC .

Par ailleurs , il convient de souligner que la complémentarité entre un contrat


intelligent et un contrat commercial réside dans l'utilisation conjointe de ces deux
outils pour améliorer l'efficacité et la sécurité des transactions commerciales. Alors
que le contrat commercial traditionnel établit les termes de l'accord, le contrat
intelligent offre une exécution automatisée et sécurisée de ces termes.

De ce fait , la signature électronique représente dans notre étude une méthode


utilisée pour authentifier électroniquement un document ou un contrat, confirmant
l'identité de la personne qui le signe et attestant de son consentement. Dans le
contexte des contrats intelligents, la signature électronique peut être utilisée pour
confirmer l'acceptation des termes et conditions par les parties, renforçant ainsi la
validité et la sécurité du contrat intelligent.

En sus , la transparence est un autre avantage clé des contrats intelligents. Grâce à la
technologie de la BC, les transactions effectuées dans un contrat intelligent peuvent
être enregistrées de manière transparente et immuable, permettant à toutes les parties
d'avoir une visibilité complète sur les transactions et les modifications apportées.
Cependant, pour que les contrats intelligents soient bien appliqués, il est nécessaire
d'avoir un cadre normatif adapté. Ce cadre normatif peut inclure des lois et des
réglementations spécifiques qui encadrent l'utilisation des contrats intelligents,
définissent les droits et obligations des parties, et clarifient les aspects juridiques liés
à leur utilisation. Un cadre normatif approprié permet d'établir la confiance et la
sécurité juridique nécessaires pour l'adoption et l'utilisation généralisées des contrats
intelligents.

En résumé, la complémentarité entre un contrat intelligent et un contrat commercial


réside dans l'automatisation et la sécurisation de l'exécution des termes contractuels.
La signature électronique renforce cette sécurité en fournissant une authentification
électronique, tandis que la transparence des transactions est assurée par cette BC.
Pour une utilisation efficace des contrats intelligents, un cadre normatif adapté est

28
L’intelligence artificielle et son influence sur le droit des affaires

nécessaire pour garantir leur bonne application et fournir une sécurité juridique aux
parties impliquées.

Paragraphe 2 : les risques liés à ce type de contrats :


“For decades, scholars have recognized that symbolic logic, like software code, can decrease contractual
ambiguity by turning promises into objectively verifiable technical rules. Because smart contracts are
nothingmore than bits of logic executed in a deterministic manner, they can decrease the possibility of
misinterpretation in instances where parties can reliably identify objectively verifiable performance
obligations.”45

Autrement dit :

"Pendant des décennies, les chercheurs ont reconnu que la logique symbolique, tout comme le code logiciel,
peut réduire l'ambiguïté contractuelle en transformant les promesses en règles techniques objectivement
vérifiables. Parce que les contrats intelligents ne sont rien d'autre que des morceaux de logique exécutés de
manière déterministe, ils peuvent réduire la possibilité de mauvaise interprétation dans les cas où les parties
peuvent identifier de manière fiable des obligations de performance objectivement vérifiables."

Premièrement, selon la pratique contractuelle, la formation d'un contrat implique des


dépenses, mais l'exécution des obligations contractuelles n'est pas sans risques. Le
risque de non-exécution du contrat est toujours présent, ce qui suscite l'inquiétude
des parties contractantes et les pousse à être particulièrement vigilantes et prudentes
lors de la conclusion des contrats. L'apparition d'un événement imprévu indépendant
des parties qui entraîne l'inexécution du contrat est une conséquence de ce risque. Le
terme "risque" reflète le fait que cette inexécution ne peut pas être imputée à une des
parties contractantes. Le droit marocain , ainsi qu’en droit français, ils emploient
différentes terminologies pour désigner cette cause, c’est-à-dire l’événement
producteur du risque. Il sera présenté, d’une part, cet événement sous le terme de
force majeure ,qui paraît le plus approprié, et d’autre part, le traitement juridique de
ses conséquences sur le contrat, autrement dit, du risque. 46

45
Primavera De Filippi and Aaron Wright : Blockchain and the Law: The Rule of Code. [Cambridge, MA:
Harvard University Press, 2018. Note 8. Page 38.
46
Allatan NDORDJ : UNIVERSITÉ DE POITIERS FACULTÉ DE DROIT ET DES SCIENCES SOCIALES
ÉCOLE DOCTORALE DROIT ET SCIENCE POLITIQUE PIERRE COUVRAT — ED 088 THÉORIE DES
RISQUES ET TRANSFERT DE PROPRIÉTÉ COMPARAISON DES DROITS FRANÇAIS, DE L’OHADA

29
L’intelligence artificielle et son influence sur le droit des affaires

47
Selon l'article 269 du Code des obligations et des contrats , la force majeure est
définie comme un événement imprévisible que l'homme ne peut empêcher, tel que
des phénomènes naturels (comme les inondations, les sécheresses, les orages, les
incendies, les invasions de sauterelles), une invasion ennemie ou une action
gouvernementale, qui rendent impossible l'exécution de l'obligation.

Il ressort de cette définition que l'événement constitutif de force majeure doit être
principalement imprévisible au moment de la conclusion du contrat. Il est donc
exclu de considérer comme force majeure tout événement dont la survenance était
prévisible au moment de la conclusion du contrat. Cependant, il est difficile de
délimiter précisément ce qui est considéré comme un événement imprévisible en soi.
L'être humain reconnaît que son pouvoir est toujours limité face aux forces
naturelles et aux actions humaines, et cette prise de conscience influence
constamment ses activités. Comme l'a souligné un auteur, "rien n'est imprévisible,
que ce soit la guerre, un vol à main armée, une inondation, la foudre ou un incendie,
car des mots les désignent...".48 Du point de vue de l'existence de l'événement, aucun
cas de force majeure n'est réellement imprévisible, car tout événement existe.

En effet, la responsabilité des risques liés à un contrat repose généralement sur les
parties contractantes, car les erreurs et les fautes sont inhérentes à la nature humaine.
La gestion du risque contractuel dépend donc de la diligence et de la prudence des
parties impliquées. Cependant, dans le cas des contrats intelligents, la dynamique est
totalement différente. Les contrats intelligents sont entièrement automatisés et
programmés pour anticiper et traiter les risques de manière préétablie. Ces contrats
utilisent des protocoles informatiques pour exécuter automatiquement les termes et
les conditions du contrat, y compris la gestion des risques prédéfinis.

Le contrat comme étant un instrument dans la gestion des risques. Contrairement


aux partisans des contrats intelligents, nous soutenons l'idée de "contractualiser" le
contrat intelligent en l'enrichissant de clauses spécifiques incluses dans un contrat
traditionnel. Deux raisons principales justifient cette approche. Premièrement, étant

ET DU COMMERCE INTERNATIONAL Thèse pour le doctorat en droit privé et sciences criminelles


présentée et soutenue publiquement le 24 janvier 2018. Page 28.
47
Article 269 : La force majeure est tout fait que l'homme ne peut prévenir, tel que les phénomènes naturels
(inondations, sécheresses, orages, incendies, sauterelles), l'invasion ennemie, le fait du prince, et qui rend
impossible l'exécution de l'obligation.
48
L. SEGUR, La notion de faute contractuelle en droit civil français, thèse Bordeaux, 1954, p. 102.

30
L’intelligence artificielle et son influence sur le droit des affaires

donné le manque actuel de règles spécifiques régissant les contrats intelligents, les
parties doivent prendre l'initiative de les encadrer contractuellement, ce qui
représente une forme d'autorégulation. Deuxièmement, le contrat reste la principale
méthode de gestion des risques, comme l'a souligné J.-M. Mousseron.49 Bien que le
contrat intelligent puisse réduire certains risques, il en crée également de nouveaux
qui doivent être encadrés par des clauses contractuelles qui ne peuvent pas être
programmées. Étant donné que, pour le moment du moins, un contrat intelligent ne
peut fonctionner sans un contrat traditionnel conclu dans le "monde réel", plusieurs
clauses peuvent être utilisées pour atténuer les risques liés à l'utilisation de ce
protocole informatique.50

De ce fait , l'utilisation des contrats intelligents, en particulier, renforce la sécurité de


la conclusion et de l'exécution des contrats. Les risques associés à l'intervention de
nombreux acteurs et à l'échange de nombreux documents lors de la formation et de
l'exécution de certains contrats sont bien connus. Les documents peuvent être
perdus, envoyés à de mauvaises personnes, falsifiés ou incomplets. Les échanges
peuvent être ralentis en raison du manque de rapidité de certains acteurs ou de la
complexité des opérations.

Dans ces situations, l'automatisation de certaines tâches au moyen d'une BC permet


de limiter les risques de falsification des documents. Cette technologie facilite
également la preuve de la remise des documents et de leur date. Elle contribue à
réduire les erreurs d'acheminement des biens ou des documents. La multiplicité des
acteurs, qui entraîne normalement des délais plus longs, pose moins de difficultés
dans un système de blockchain. En effet, cette dernière peut être considérée comme
une plateforme numérique sécurisée sur laquelle les documents "certifiés" sont
échangés et mis à disposition en temps réel, avec des contrats intelligents
automatisant un certain nombre de tâches. 51

Pour les contrats traditionnels , entre commerçants comme un exemple , il est


essentiel d'inclure des clauses spécifiques afin de prévenir et atténuer les risques
pouvant découler de ces accords. Par exemple, une clause de limitation de

49
J.-M. Mousseron, La gestion de risques par le contrat, RTD civ. 1988, p. 481.
50
Mustapha Mekki , Blockchain : l’exemple des smart contracts Entre innovation et précaution , Agrégé des
Facultés de droit Professeur à l’Université Paris 13 Co-directeur de l’IRDA Page 12.
51
Ibid Blockchain : l’exemple des smart contracts Entre innovation et précaution P. 9

31
L’intelligence artificielle et son influence sur le droit des affaires

responsabilité peut être insérée pour limiter la responsabilité d'une partie en cas de
dommages indirects ou de pertes financières. Une autre clause importante concerne
la résiliation du contrat en cas d'inexécution grave ou de manquement persistant
d'une partie aux termes du contrat. Notamment, pour une clause de résolution des
litiges , en cas de litige découlant du présent contrat, les parties conviennent de
recourir à la médiation avant d'engager une action en justice. La médiation sera
menée par un médiateur neutre et impartial, choisi d'un commun accord par les
parties. Si la médiation ne parvient pas à résoudre le litige dans un délai raisonnable,
les parties peuvent alors engager une action en justice devant les tribunaux
compétents. Les parties renoncent expressément à toute autre forme de résolution
des litiges, notamment à l'arbitrage.

Cependant lorsqu'il s'agit de contrats intelligents, il est tout aussi crucial


d'encourager l'inclusion de clauses contractuelles pour anticiper et gérer les risques
spécifiques associés à cette automatisation. Les contrats intelligents présentent des
risques uniques tels que les erreurs de codage, les vulnérabilités de sécurité, les
problèmes d'interopérabilité et les erreurs de configuration. Pour prévenir ces
risques, les parties peuvent inclure des clauses qui exigent des audits de sécurité
réguliers, des procédures de test rigoureuses avant le déploiement, ainsi que des
clauses de résolution des litiges spécifiques aux contrats intelligents.

De ce fait, l'automatisation des contrats intelligents offre certains avantages pour la


réduction des risques. Les contrats intelligents sont exécutés de manière
programmée, ce qui réduit les risques d'erreurs humaines et d'interprétation des
termes contractuels. De plus, l'utilisation de la blockchain dans les contrats
intelligents permet une transparence et une immuabilité accrues, réduisant ainsi le
risque de manipulation des données contractuelles.

Néanmoins , il est important de souligner que malgré ces avantages, les contrats
intelligents ne peuvent pas éliminer tous les risques. Ils nécessitent toujours une
supervision et une surveillance humaines pour garantir leur bon fonctionnement et
pour gérer les situations exceptionnelles qui ne peuvent être prévues à l'avance. C'est
pourquoi l'inclusion de clauses spécifiques dans les contrats intelligents est
essentielle pour prévoir les risques potentiels et établir des mécanismes appropriés
pour les gérer de manière efficace.

32
L’intelligence artificielle et son influence sur le droit des affaires

- La force majeure et les contrats intelligents , quel résultat ?

En effet, si l'on applique les articles 268 et 269 du Code des obligations et des
contrats (DOC)52, la gestion de l'imprévisibilité dans un contrat intelligent repose
principalement sur la première série de clauses contractuelles. Cependant, il
convient de noter que cette approche contractuelle n'est pas entièrement efficace. Il
est essentiel de rappeler que le contrat intelligent n'est pas véritablement
"intelligent". Il ne peut exécuter que ce que le programmeur a prévu qu'il fasse. Par
conséquent, lorsqu'il s'agit de l'imprévisibilité de la force majeure, cela signifie que
le contrat intelligent ne peut pas anticiper ou faire face à des événements qui n'ont
pas été prévus ou programmés à l'avance.

En complément des clauses précédentes , une nouvelle forme contractuelle émerge,


celle du réseau smart-contractuel. Dans ce contexte, il devient essentiel d'inclure des
clauses spécifiques pour gérer l'imprévu, notamment les clauses de force majeure
qui définissent les conditions et les effets de la force majeure dans le cadre des
chaines de block et des smart contracts. En effet, les dangers uniques qui menacent
ces technologies, tels que les interruptions temporaires du réseau, les cyber-attaques
ou la corruption des données, nécessitent des mécanismes prévus contractuellement.
De plus, des clauses de renégociation sont également indispensables dans un
domaine où les technologies évoluent rapidement. Les parties doivent être en mesure
de s'adapter rapidement à l'évolution de leur contrat. 53

D’ailleurs , l'une des forces et des faiblesses du smart contract réside dans son
caractère automatique, qui peut engendrer des conséquences graves et irréversibles.
Étant donné l'existence de risques certains et incertains, les clauses contractuelles
ont pour objectif de limiter leur étendue et de répartir leur charge. Cela nécessite la
mise en place d'une forme de conformité numérique à travers un ensemble de

52
Article 268 : Il n'y a lieu à aucuns dommages-intérêts lorsque le débiteur justifie que l'inexécution
ou le retard proviennent d'une cause qui ne peut lui être imputée, telle que la force majeure, le cas
fortuit ou la demeure du créancier.
Article 269 : La force majeure est tout fait que l'homme ne peut prévenir, tel que les phénomènes
naturels (inondations, sécheresses, orages, incendies, sauterelles), l'invasion ennemie, le fait du
prince, et qui rend impossible l'exécution de l'obligation. N'est point considérée comme force
majeure la cause qu'il était possible d'éviter, si le débiteur ne justifie qu'il a déployé toute diligence
pour s'en prémunir. N'est pas également considérée comme force majeure la cause qui a été
occasionnée par une faute précédente du débiteur.
53
Blockchain : l’exemple des smart contracts Entre innovation et précaution Mustapha Mekki
Agrégé des Facultés de droit Professeur à l’Université Paris 13 Co-directeur de l’IRDA Page 12.

33
L’intelligence artificielle et son influence sur le droit des affaires

clauses axées sur la transparence, le contrôle et le suivi. Tout comme le concept de


"privacy by design"54 dans le domaine de la protection des données personnelles, le
smart contract doit être encadré dès sa conception et sa mise en œuvre par des
procédures de vérification et de suivi. L'objectif est de prévenir les effets néfastes et
de rendre compte des utilisations qui ont été faites des smart contracts. Cette
transparence et ce contrôle s'inscrivent dans la logique de l'accountability, en
imposant aux parties une obligation de transparence et en les rendant responsables
des dommages éventuellement causés par un dysfonctionnement du smart contract. 55

On en vient alors aux clauses de répartition des risques, qui peuvent prendre
différentes formes, telles que des clauses limitatives de responsabilité, des clauses
pénales ou des clauses de prise en charge de certains risques. Parallèlement aux
clauses gérant l'imprévu, il est également envisageable qu'un autre smart contract
puisse suspendre ou court-circuiter un smart contract sanction en cas de contestation
ou de risques de dommages irréversibles. Cependant, cette possibilité est plus
réalisable dans une BC privée que dans une BC publique.

En conclusion, la gestion des risques dans les contrats traditionnels implique la mise
en place de clauses spécifiques pour limiter les conséquences indésirables et répartir
les responsabilités. Cependant, avec les contrats intelligents, de nouveaux défis se
posent, notamment en matière de confidentialité. Cela sera exploré plus en détail
dans le prochain chapitre.

Chapitre 2 : L'impact de l’IA sur la propriété industrielle et


intellectuelle et la protection des données à caractère personnel.
Dans un contexte où l'IA se déploie de plus en plus dans divers domaines, la
question de la propriété industrielle voire intellectuelle se pose avec une acuité
particulière. En effet, cette dernière soulève des défis complexes en matière de
protection des droits de propriété intellectuelle, nécessitant une réflexion

54
Le principe de Privacy By Design se retrouve au cœur du Règlement Général pour la Protection des
Données (RGPD). L’article 25 de ce cadre législatif qui a pour but de protéger la vie privée des
citoyens européens, intitulé « Protection des données dès la conception et protection des données par
défaut » prévoit ce principe dit de Privacy by Design, Ce principe de Privacy by Design implique
de protéger les données personnelles dès la conception. Cela signifie que les entreprises ont
désormais l’obligation d’intégrer ce principe de protection des données à caractère personnel dès la
mise en œuvre de projets impliquant un traitement de données au sein d’une structure. Qu'est-ce
le Privacy By Design ? (donnees-rgpd.fr) Déf retraite du site en 25 juin 2023.
55
Op,Cit p.13

34
L’intelligence artificielle et son influence sur le droit des affaires

approfondie sur les cadres juridiques existants et leur adaptation aux nouvelles
réalités technologiques.

De ce fait , le lien entre la propriété industrielle, la propriété intellectuelle et l'IA


réside dans la protection légale des droits des inventeurs et des créateurs dans le
domaine de l'IA. Les innovations techniques et les inventions réalisées grâce à l'IA
peuvent être éligibles à la protection par des brevets, tandis que les créations
artistiques générées par des systèmes d'IA peuvent être protégées par des droits
d'auteur.

En outre , cette intelligence soulève également des préoccupations majeures en ce


qui concerne la protection des données à caractère personnel. Avec la capacité de
collecter, analyser et utiliser de vastes quantités de données, l'IA peut
potentiellement compromettre la vie privée et la confidentialité des individus. La
question fondamentale qui se pose est de savoir comment concilier les avantages de
l'IA avec le respect des droits et de la vie privée des personnes. Comment garantir
que les données utilisées par les systèmes d'IA sont collectées et traitées de manière
licite, transparente et conforme aux principes de protection des données ? Comment
s'assurer que les individus conservent le contrôle sur leurs données et que leur
consentement est valablement obtenu ?

La présente étude se divise en deux sections distinctes afin d'examiner l’impact de


l'intelligence artificielle sur la propriété industrielle et intellectuelle, et d'autre part,
la protection des données à caractère personnel. La première section explore donc
les défis juridiques auxquels sont confrontés les régimes existants dans le contexte
de l'IA, tandis que la deuxième section se concentre sur les implications de cette
dernière pour la confidentialité des données et les questions des lois qui leur
régissent.

Section 1 : l’impact de l'intelligence artificielle sur la propriété industrielle


et intellectuelle :
Dans la première sous-section, nous explorerons les interactions complexes entre
l'intelligence artificielle et la propriété industrielle au Maroc,56 conformément à la
loi n° 17-97 sur la propriété industrielle . Comment l'IA influence-t-elle la

56
la loi n° 17-97 sur la propriété industrielle.
35
L’intelligence artificielle et son influence sur le droit des affaires

reconnaissance et la protection des innovations techniques selon cette loi ? Quels


sont les défis juridiques spécifiques liés à l'utilisation de l'IA dans le cadre de la
propriété industrielle au Maroc ?

Dans la deuxième sous-section, nous analyserons les implications de l'IA sur la


propriété intellectuelle au Maroc, en accord avec la loi n° 34-05 sur les droits
d'auteur. Quels sont les défis particuliers posés par l'IA en matière de création et de
protection des droits d'auteur dans le cadre de cette loi ? Comment le Maroc
s'adapte-t-il aux avancées de l'IA en matière de propriété intellectuelle ?

Cette approche structurée nous permettra d'examiner en détail les enjeux juridiques
et les défis spécifiques au Maroc dans ces deux domaines interconnectés, en tenant
compte des lois marocaines sur la propriété industrielle et intellectuelle.

Paragraphe 1 : L’applicabilité du droit d’auteur aux créations IA :

D'ailleurs, parmi les créations issues d'un traitement par intelligence artificielle, on
peut schématiquement distinguer deux types de "créations IA". En premier lieu, les
créations assistées par ordinateur, qui restent indépendantes du logiciel utilisé,
l'intelligence artificielle ne jouant qu'un rôle d'outil au sein du processus créatif,
lequel est supervisé par un être humain. En second lieu, les créations générées
spontanément par l'intelligence artificielle, qui résultent du logiciel sans qu'une
intervention humaine déterminante n'ait lieu au moment de la création. Certains
estiment même que dans ce cas précis, "c'est essentiellement le programmeur et la
machine qui vont générer l'œuvre finale", voire vont jusqu'à considérer que
l'intelligence artificielle renferme son propre processus créatif. 57

Cette diversité dans les "créations IA" nécessite une approche au cas par cas pour
déterminer la nature de chaque création générée par le biais de ces intelligences
artificielles, ainsi que l'influence, le cas échéant, des différents intervenants,
principalement les auteurs des données en entrée, le programmeur (c'est-à-dire le
concepteur de la base d'apprentissage), et l'utilisateur.

57
Georgie Courtois, Avocat Associé, De Gaulle Fleurance & Associés Jean-Sébastien Mariez, Avocat Associé, De
Gaulle Fleurance & Associés Jeanne Roussel, Avocate, De Gaulle Fleurance & Associés : Intelligence artificielle
et droit d’auteur. Page 2.

36
L’intelligence artificielle et son influence sur le droit des affaires

Ces réflexions soulèvent la question de l'applicabilité du droit d'auteur à ces


créations, ainsi que la possibilité de créer un droit sui generis pour celles qui ne
répondraient pas aux critères légaux (1). Par ailleurs, l'utilisation de l'IA dans
le processus créatif interroge la protection des œuvres face aux traitements
algorithmiques (2).

1-La question de l'applicabilité du droit d'auteur à ces créations et la possibilité


de créer un droit sui generis pour celles qui ne répondraient pas aux critères
légaux :

Au Maroc, il n'a pas toujours été possible de mettre en place une loi spécifique qui
accorde une reconnaissance totale de la protection du droit d'auteur pour les
programmes d'IA. Cependant, la Loi nº 34-05 modifiant et complétant la Loi nº 2-00
relative aux droits d'auteur et aux droits voisins contient des dispositions pertinentes
à cet égard. En disposant dans son deuxième article58 que tout auteur bénéficie des
droits prévus par la loi sur son œuvre littéraire ou artistique. De plus, la protection de
ces droits commence dès la création de l'œuvre, même si elle n'est pas fixée sur un
support matériel.59 Ainsi , l'article 3 de ladite loi élargit l'application de cette
législation aux œuvres littéraires et artistiques, y compris les programmes
d'ordinateur. Cela soulève la question de savoir si les programmes d'ordinateur
peuvent être considérés comme des œuvres créées par des IA, et si l'article 3 peut
s'appliquer à de telles créations.

En fin de compte, la question cruciale à se poser dans ce contexte est de savoir si les
programmes d'ordinateur générés par des IA peuvent être considérés comme des
œuvres protégées par le droit d'auteur, et si les dispositions de l'article 3 dudite loi
sont applicables à de telles situations. En sus , les créations réalises par le biais
d’une intelligence artificielle, susceptibles de recevoir la qualification d’œuvres ?

58
Article 3 mentionne que : La présente loi s'applique aux œuvres littéraires et artistiques (ci-après
dénommées « œuvres ») qui sont des créations intellectuelles originales dans le domaine littéraire et
artistique, telles que: ….. b. les programmes d'ordinateur ; ….etc.
59
Article 2 de la Loi nº 34-05 promulguée par Dahir nº 1-05-192 du 14 février 2006, modifiant et complétant la
Loi nº 2-00 relative au droits d’auteur et droits voisins. Tout auteur bénéficie des droits prévus dans la présente
loi sur son œuvre littéraire ou artistique. La protection résultant des droits prévus au précédent alinéa (ci-
après, dénommée « protection ») commence dès la création de l'œuvre, même si celle-ci n'est pas fixée sur un
support matériel.

37
L’intelligence artificielle et son influence sur le droit des affaires

La reconnaissance d’une personnalité juridique à l’intelligence artificielle, palliatif à


l’absence d’auteur personne physique ?

En effet, contrairement à notre pays, certaines nations telles que les États-Unis,
l'Australie et le Royaume-Uni ont déjà opté pour la protection des créations générées
par l'IA par le biais du droit d'auteur.

Or , il existe une incompatibilité des notions classiques du droit d'auteur avec de


telles créations. Cette position semble plus fondée, car la protection de ces créations
par le droit d'auteur pourrait soit contraindre nos catégories existantes, au risque de
les déformer, soit les élargir, au risque de les altérer. De plus, la raison d'être du droit
d'auteur pourrait être mise en question. Ce concept a été initialement conçu pour
protéger les auteurs en tant qu'individus, en leur octroyant un monopole en
reconnaissance de leur effort créatif. Cette protection, souvent étendue jusqu'à 70
ans après la mort de l'auteur, est accordée en échange d'une création authentique,
capable de refléter la personnalité de son créateur. 60

Dans ce contexte, si l'être humain disparaît derrière le logiciel, la justification même


de la protection par le droit d'auteur est remise en cause. Par conséquent, l'idée
d'accorder une protection par le droit d'auteur devrait être rejetée lorsque l'IA n'est
plus utilisée comme un simple outil dans le processus créatif, mais qu'elle génère des
créations de manière autonome, sans qu'il soit possible de discerner l'empreinte
personnelle d'un quelconque intervenant.

Cependant, il est important de noter que certains observateurs regrettent que les
investissements financiers et humains consentis pour le développement et
l'utilisation de technologies innovantes et créatives ne soient pas suffisamment
récompensés par l'octroi d'un droit exclusif. Cela est particulièrement préoccupant
pour des acteurs tels que les éditeurs et les agences de presse, qui de plus en plus,
ont recours à l'IA pour générer du contenu, en raison de sa fiabilité et de son
efficacité économique. Ils contribuent ainsi à la tendance générale de
l'automatisation de la production d'informations. Les coûts associés au
développement, à l'acquisition, à l'utilisation et à la maintenance de cette technologie
peuvent être considérables, et l'absence de protection spécifique peut priver les
investisseurs de rendements adéquats. Dans ce contexte, une solution pourrait

60
Op,cit, Georgie Courtois, Page 2.

38
L’intelligence artificielle et son influence sur le droit des affaires

consister à créer un droit sui generis qui permettrait de récompenser l'effort financier
et matériel consenti et de garantir un retour sur investissement approprié. 61

1.1 L’absence d’auteur-créateur, rendant vaine toute recherche d’originalité ?

Lorsque l'humain se sert de l'assistance d'une machine pour créer, l'utilisation d'un
outil, qu'il s'agisse d'un logiciel ou d'un autre type d'outil, ne remet pas en question
la reconnaissance du caractère original de l'œuvre qui en découle. À ce titre, la cour
d'appel de Douai a clairement statué que l'utilisation d'une machine n'était
"évidemment pas de nature à faire perdre à l'œuvre considérée son caractère
d'originalité et de nouveauté."62 Cette jurisprudence a été réaffirmée à plusieurs
reprises par l'OMPI, l'UNESCO, et le TGI de Paris. 63 De plus, la cour d'appel de
Bordeaux a également jugé en 2005 qu'une œuvre de l'esprit créée à partir d'un
système informatique serait protégeable dès lors que même une once d'originalité
souhaitée par son créateur serait perceptible. 64
Cependant, la situation est différente pour les créations qui ne sont pas simplement
assistées par un ordinateur, mais générées entièrement par le programme lui-même.
Dans ce contexte, l'humain n'intervient que pour initier le processus de création,
mais n'a aucun contrôle sur l'exécution du processus lui-même. Dans de tels cas, ce
n'est pas une personne physique qui effectue l'acte matériel de création, ce qui
soulève la question de l'existence d'un auteur-créateur.

En vertu de l'article premier de la loi sur le droit d'auteur, l'auteur est clairement
défini comme étant une personne physique, excluant ainsi les machines ou les robots
en tant qu'auteurs potentiels. Cette définition restrictive limite donc le champ
d'application du droit d'auteur en ce qui concerne les créations générées par des IA.
L'article précise que l'auteur est la personne physique qui a créé l'œuvre, et toute

61
Ibid , Page 3.
62
CA Douai, 4 déc. 1964 LNF c. Ass. USVA, Ann. 1965, 218. 1. Cité par : André R Bertrand, Le droit d’auteur:
[histoire, évolution, nature, relation avec les autres droits privatifs, conditions de protection-œuvres
protégeables, champ de la protection, droits et responsabilités des auteurs, titularité des droits d’auteurs,
exploitation des œuvres, défense des droits d’auteur, droit d’auteur international], 3. éd, coll Dalloz action,
Paris, Dalloz, 2010. § 103.24.
63
TGI Paris, 1re ch., 1re sect., 5 juill. 2000, Matt Cooper et al. c. Sté Ogilvy et al. ; M. Raingeart de la Bletiere,
prés. et Mmes Nesi et Dallery, juges ; SCP Schmidt et Goldgrab, Wekstein, SCP Coblence, Ennochi, Jaraud, av. :
Juris-Data n° 130310.
64
Claudia Gestin-Vilion , La protection par le droit d’auteur des créations générées par intelligence artificielle
Mémoire Maîtrise en droit Université Laval Québec, Canada Maître en droit (LL.M.) et Université Paris-Saclay
Sceaux, France Master 2 (M2) © Claudia Gestin-Vilion, 2017 Page 25.

39
L’intelligence artificielle et son influence sur le droit des affaires

référence à des droits patrimoniaux dans la loi s'applique aux titulaires originaux de
ces droits, qu'ils soient des personnes physiques ou morales distinctes de l'auteur.
Cette disposition rend la protection du droit d'auteur pour les créations générées par
des IA pratiquement impossible en vertu de cette loi.

Pour résoudre cette exclusion des créations générées par l'IA en matière de droit
d'auteur, certaines voix ont avancé l'idée d'attribuer une personnalité juridique à l'IA.
Cela permettrait de lui donner un patrimoine et de lui accorder des droits et des
privilèges normalement réservés aux personnes physiques. Cependant, cette
proposition, bien qu'elle gagne en popularité parmi certains auteurs, se heurte à de
nombreuses difficultés.

En d'autres termes, cette solution proposée pour remédier à l'exclusion des créations
générées par l'IA du droit d'auteur, à savoir l'attribution d'une personnalité juridique
à l'IA, se heurte à de nombreuses difficultés.

1.2 La reconnaissance d’une personnalité juridique à l’intelligence artificielle,


palliatif à l’absence d’auteur personne physique ?

Pour résoudre le problème de l'absence d'un créateur, condition nécessaire à l'accès à


la protection par le droit de la propriété littéraire et artistique, certains auteurs ont
avancé l'idée audacieuse d'accorder une personnalité juridique complète à l'IA. Cette
proposition, qui nécessiterait une refonte majeure de plusieurs principes juridiques,
est difficile à justifier. Certains, animés par des sentiments d'empathie ou bien dits
Mus par des sentiments d’empathie65, ont même suggéré d'attribuer une
personnalité juridique aux "robots", ce qui leur conférerait des droits. Cette
dimension émotionnelle n'a pas été ignorée par le Parlement européen, qui a
mentionné dans une résolution de février 2017 concernant les règles de droit civil en
matière de robotique que l'attention devrait être portée aux relations émotionnelles
potentielles entre les êtres humains et les robots, en particulier chez les personnes

65
Une expérience au cours de laquelle Pleo, un dinosaure robotisé se faisait maltraiter par des humains a conduit
Kate Darling, chercheuse au MIT, à envisager la nécessité d’accorder une protection juridique aux robots sociaux
« non pour eux-mêmes mais au bénéfice des humains » : Lucia Sillig, « Donnons des droits aux robots », Le Monde
science et techno (17 février 2013). Pamela Mc Corduck, auteure de « Machines who think », établit, quant à elle,
un parallèle entre le déni de personnalité juridique aux robots aujourd’hui et la privation de droits des femmes au
19e siècle, au prétexte qu’elles ne possédaient pas un corps masculin. (« Pamela McCorduck has noted that the
structure-based argument against recognition of artificially intelligent machines as persons resembles nothing as
clearly as the nineteenth-century assertions that women were inherently incapable of cognition for lack of a male
body »), dans Willick, supra, note 9.

40
L’intelligence artificielle et son influence sur le droit des affaires

vulnérables telles que les enfants, les personnes âgées et les personnes handicapées.
Cette approche pourrait résoudre relativement facilement la question de la
qualification des créations générées par une IA en tant qu'œuvres. En effet, si l'IA
créatrice se voyait attribuer une personnalité juridique, il suffirait alors de
déterminer si la création répond à l'exigence d'originalité pour ouvrir la porte du
droit d'auteur à ces créations.66

Si cette solution n'était guère envisageable il y a une vingtaine d'années, elle gagne
aujourd'hui du terrain parmi les experts juridiques et a même été prise en
considération dans la résolution du Parlement européen précédemment mentionnée.
Cette résolution "demande à la Commission (...) d'évaluer et de prendre en compte
les conséquences de toutes les solutions juridiques envisageables, telles que (...) la
création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au
moins les robots autonomes les plus sophistiqués puissent être considérés comme
des personnes électroniques responsables, tenues de réparer tout dommage causé à
un tiers. Il serait envisageable de conférer la personnalité électronique à tout robot
qui prend des décisions autonomes ou qui interagit de manière indépendante avec
des tiers."67

Bien que cette proposition ait initialement pour objectif de résoudre la délicate
question de la responsabilité en cas de dommages causés par un robot intelligent,
l'attribution d'une personnalité juridique à celui-ci aura des implications dans
d'autres domaines du droit. Elle pourrait également renforcer les arguments de la
doctrine favorable à la reconnaissance de droits d'auteur au profit de l'IA. Des
indications de ces revendications se retrouvent d'ailleurs dans un document qui
présente des suggestions pour un livre vert concernant les questions juridiques
soulevées par la robotique. Cependant, il semble que les partisans de l'attribution
d'une personnalité juridique à l'IA restent une minorité, et la prudence semble
prédominer parmi les auteurs qui ont jusqu'à présent examiné cette question. En
effet, cette solution semble risquée et, dans tous les cas, prématurée.

66
Ibid , Claudia Gestin-Vilion, Page 30.
67
Parlement Européen, Règles de droit civil sur la robotique. Résolution du Parlement européen du 16
février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur
la robotique (2015/2103(INL), P8_TA-PROV(2017)0051, février 2017.
41
L’intelligence artificielle et son influence sur le droit des affaires

Tout d'abord, l'idée d'attribuer une personnalité juridique aux "robots autonomes
intelligents", comme évoqué par le Parlement européen, ne semble tout simplement
pas pertinente. Si l'on examine les critères définis dans la proposition du Parlement
pour qualifier un robot, on constate que celle-ci dépend de cinq conditions :
"l'acquisition d'autonomie grâce à des capteurs et/ou à l'échange de données avec
l'environnement (interconnectivité) et à l'échange et à l'analyse de ces données ; la
capacité d'auto-apprentissage par l'expérience et les interactions (critère facultatif)
; l'existence d'une enveloppe physique, même réduite ; la capacité d'adaptation de
son comportement et de ses actes à son environnement ; le caractère non vivant au
sens biologique du terme."

Cela dit, les obstacles à l'octroi d'une personnalité juridique aux robots, qu'ils
soient virtuels ou physiques, demeurent inchangés. Tout d'abord, cette approche
conduirait à la création d'une troisième catégorie, se situant à l'intersection de la
distinction fondamentale entre les biens et les personnes, et risquerait ainsi
d'introduire une forme de hiérarchisation parmi les biens, ce qui pourrait engendrer
des incertitudes juridiques. Où serait tracée la ligne de démarcation entre les biens
intelligents et ceux qui ne le sont pas ? En effet, le degré et la nature de
"l'intelligence" de ces programmes varient considérablement, dépendant uniquement
du logiciel d'IA et de son niveau de sophistication. À partir de quel moment
pourrait-on considérer qu'un programme est suffisamment intelligent pour mériter
une personnalité juridique ?68

Il est essentiel de prendre en considération que les intelligences artificielles ne sont


pas des entités uniques. Elles peuvent simplement se composer d'un logiciel pouvant
être installé sur plusieurs machines à volonté. Dans ce contexte, il se pose la
question de l'attribution de personnalité juridique ; doit-on considérer que la
personnalité réside dans le logiciel lui-même, avec les machines qui l'exécutent ne
faisant que partie intégrante de ce tout ? Ou bien doit-on accorder une
personnalité juridique distincte à chaque robot équipé de ce logiciel ?

En outre, les développeurs travaillent constamment pour améliorer les


programmes, créant des versions de plus en plus avancées. Si l'on venait à
accorder une personnalité juridique aux intelligences artificielles, que se

68
Ibid, Claudia Gestin-Vilion, Page 34.

42
L’intelligence artificielle et son influence sur le droit des affaires

passe-t-il lorsque les versions ultérieures du programme évoluent


considérablement par rapport à la version originale ? Devrait-on
toujours considérer qu'il s'agit de la même "personne", ou bien faudrait-
il créer de nouvelles entités juridiques à chaque mutation significative du
logiciel ?

De plus, même si l'on accorde une personnalité juridique aux intelligences


artificielles, qu'elles soient physiques ou virtuelles, cela ne garantit pas
nécessairement que ces entités seront reconnues comme les titulaires
originels des droits sur les œuvres qu'elles produisent. Cette personnalité
juridique demeurerait essentiellement une fiction, similaire à celle accordée
aux personnes morales. En d'autres termes, il est peu probable que les
juges, qui disposent d'un pouvoir souverain pour évaluer les critères
d'originalité, soient davantage enclins à attribuer la qualité d'auteur ou de
créateur à une intelligence artificielle par rapport à une personne morale.69
En ce qui concerne la question de la création d'œuvres d'art par des
logiciels intelligents, il semble donc que l'utilisation de la fiction d'une
personnalité juridique pour attribuer un auteur à ces œuvres "orphelines"
ne soit pas une solution viable, en raison de toutes les complexités
juridiques qu'elle entraîne.
En outre, on pourrait également considérer l'absence d'intention créatrice de
l'intelligence artificielle comme un argument supplémentaire pour rejeter la
qualification de ces œuvres en tant qu'œuvres protégées. La notion d'intention est
parfois prise en compte comme un indicateur pour accorder le statut d'œuvre à
certaines créations. Cependant, dans ce contexte, l'intention créatrice de l'IA est
totalement absente : le programme génère des œuvres parce que c'est la tâche pour
laquelle il a été programmé, mais il ne possède ni volonté propre ni libre arbitre, et
par conséquent, il n'a pas d'intention de créer.
Dans ce contexte, la question cruciale à examiner est de savoir si les programmes
d'ordinateur générés par des intelligences artificielles peuvent être légalement
considérés comme des œuvres protégées par le droit d'auteur. Pour répondre à cette

69
Op, cit.

43
L’intelligence artificielle et son influence sur le droit des affaires

question, nous pouvons nous référer à l'article 3 de la loi 34-05 relative aux droits
d'auteur et aux droits voisins.

Cet article définit un programme d'ordinateur comme un ensemble d'instructions


exprimées par des mots, des codes, des schémas ou toute autre forme qui, une fois
incorporée dans un support lisible par une machine, permet à un ordinateur ou à un
processus électronique de réaliser une tâche spécifique ou d'obtenir un résultat
particulier. La question qui se pose alors est de savoir si ChatGPT peut être
considéré comme un programme d'ordinateur en vertu de cette définition légale, et
quel lien cela a-t-il avec les droits d'auteur ?

 Avant de pouvoir répondre à cette question, il est essentiel de comprendre ce


qu'est ChatGPT :

C’est un outil de communication alimenté par une intelligence artificielle,


accessible à tous. Il a été créé par OpenAI, une organisation de recherche en
intelligence artificielle cofondée par des figures telles qu'Elon Musk et Sam
Altman. ChatGPT repose sur le modèle GPT, qui signifie Generative Pre-trained
Transformer, et il excelle dans la génération de texte. Ce robot conversationnel
est capable d'engager des conversations de manière pertinente et d'accomplir une
multitude de tâches liées au langage, notamment la création d'histoires, de
poèmes, de chansons, de dialogues, de scripts, et bien d'autres encore. Pour ce
faire, ChatGPT avait accès à l'ensemble d'Internet jusqu'au 31 décembre 2021.
Actuellement, il fonctionne sur la version GPT3.5, mais une mise à jour (GPT4)
est prévue prochainement.
Selon la définition fournie, ChatGPT est basé sur le modèle GPT (Generative
Pre-trained Transformer) et est alimenté par une intelligence artificielle. Il génère
du texte en utilisant des instructions expressément formulées et peut accomplir
diverses tâches liées au langage. À la lumière de cette description, on pourrait
raisonnablement considérer ChatGPT comme un programme d'ordinateur, car il
remplit les critères de base définis par la loi pour ce type de logiciel. Cependant,
il est important de noter que la qualification légale de ChatGPT en tant que

44
L’intelligence artificielle et son influence sur le droit des affaires

programme d'ordinateur peut dépendre de la juridiction et des lois spécifiques en


70
vigueur.

 Quel est le lien entre ChatGPT et la propriété intellectuelle?

ChatGPT produit du contenu textuel, et ce contenu pourrait être protégé par le droit
d'auteur s'il répondait à certaines conditions, tout comme le serait un contenu créé
par un être humain. Cependant, étant donné que ChatGPT est une intelligence
artificielle, des questions complexes se posent concernant la propriété intellectuelle,
en particulier le droit d'auteur. Pour explorer ce sujet en profondeur, nous allons
aborder quatre questions importantes et y répondre.
Question 1 : Les contenus textuels produits par ChatGPT peuvent-
ils bénéficier de la protection du droit d'auteur ?

Réponse : Il semble que non. Pour qu'une œuvre soit protégée par le droit d'auteur,
elle doit être originale, reflétant ainsi la personnalité de son créateur. Cependant, une
IA ne semble pas avoir l'autonomie nécessaire pour prendre des décisions libres et
créatives, et par conséquent, elle ne peut pas véritablement laisser transparaître
l'empreinte de sa personnalité. De plus, la jurisprudence établit que la qualité
d'auteur est réservée aux personnes physiques. Toutefois, pourrait-on envisager un
scénario dans lequel un texte est créé avec l'assistance de ChatGPT : l'IA génère un
contenu qui est ensuite modifié par une personne physique. Quelle serait la situation
dans un tel cas ?71

Quand j'ai posé la question à chat gpt il a répondu comme ceci : les contenus que tu
génères sont-ils protégés par le droit d'auteur?

Non, les contenus que je génère ne sont pas protégés par le droit d'auteur. Mon
fonctionnement est basé sur des modèles de langage pré-entraînés et sur la
combinaison de données textuelles existantes pour générer des réponses et du
contenu textuel en fonction des requêtes des utilisateurs. En conséquence, les textes
que je produis ne sont pas considérés comme originaux au sens du droit d'auteur, car
ils ne reflètent pas l'empreinte de la personnalité d'un auteur humain et ne sont pas
créés de manière autonome et créative. Les droits d'auteur sont généralement

70
CLARA WLOTYKAMIEN : « Chat GPT et la Propriété intellectuelle » CZ FORMATIONS ,article extrait de
Linkedin. Page 1.
71
Ibid, CLARA WLOTYKAMIEN .

45
L’intelligence artificielle et son influence sur le droit des affaires

réservés aux œuvres originales créées par des personnes physiques ou, dans certains
cas, par des entités légales.

Question 2 : Qui détient la propriété des contenus générés par


ChatGPT : OpenAI, l'utilisateur ou les auteurs ?

Réponse : La question de la propriété des contenus générés par ChatGPT soulève


des nuances. Les "Conditions d'utilisation" établies par OpenAI stipulent que, dans
la mesure permise par la loi, les droits sur les contenus générés sont cédés à
l'utilisateur, ce qui signifie que l'utilisateur serait le détenteur initial de ces droits.
Cependant, ces conditions d'utilisation imposent certaines restrictions, notamment
l'interdiction de faire passer le contenu pour s'il avait été créé par un être humain ou
d'utiliser les contenus de manière illégale.

Cela peut sous-entendre une propriété initiale d'OpenAI sur les contenus générés par
ChatGPT, même si ces contenus ne semblent pas être protégés par le droit d'auteur
(voir question 1). De plus, ces contenus pourraient en réalité être la propriété
d'auteurs tiers dont les données ont été utilisées pour l'entraînement de ChatGPT. Par
conséquent, l'utilisateur doit être prudent en ce qui concerne les créations
préexistantes d'auteurs tiers. En outre, il est important de noter qu'OpenAI décline
toute garantie en cas de contrefaçon, ce qui renforce la nécessité d'une prudence
accrue lors de l'utilisation de ces contenus.
De même , je lui ai posé ‘chatgpt’ la même question comme suivant : qui est
72
propriétaire du contenu que tu génères ?

Sa réponse était la suivante : Le contenu que je génère, en tant qu'IA développée par
OpenAI, est soumis aux conditions d'utilisation établies par OpenAI. Conformément
à ces conditions, dans la mesure permise par la loi, les droits sur les contenus
générés sont généralement cédés à l'utilisateur qui interagit avec moi. Cela signifie
que l'utilisateur est généralement considéré comme le détenteur initial des droits sur
le contenu que je produis en réponse à ses requêtes.

Cependant, il est essentiel de noter que ces conditions d'utilisation comportent des
restrictions, notamment l'interdiction de faire passer le contenu comme s'il avait été
créé par un être humain ou d'utiliser le contenu de manière illégale. De plus, il est

72
Op cit , CLARA WLOTYKAMIEN .

46
L’intelligence artificielle et son influence sur le droit des affaires

possible que le contenu généré puisse être basé sur des données préexistantes, ce qui
peut soulever des questions de propriété intellectuelle supplémentaires.

En fin de compte, la question de la propriété du contenu généré par une IA comme la


mienne peut dépendre des conditions spécifiques d'utilisation et des accords entre
l'utilisateur et l'entité qui fournit le service, dans ce cas, OpenAI. Il est donc
important de consulter les conditions d'utilisation spécifiques et, si nécessaire, de
consulter un juriste spécialisé en propriété intellectuelle pour une clarification
supplémentaire en fonction de la situation particulière.

Question 3: Doit-on obtenir une autorisation pour utiliser les


contenus générés par ChatGPT ? Soyez vigilant !

Selon les termes des conditions d'utilisation, les droits sur les contenus produits par
ChatGPT sont généralement transférés à l'utilisateur (comme mentionné dans la
question 2). Cependant, une question importante se pose lorsque le contenu généré
s'avère être en réalité l'œuvre d'un tiers, en tout ou en partie. Dans un tel scénario, le
titulaire des droits sur cette œuvre doit non seulement donner son accord pour
l'utilisation effectuée par ChatGPT, mais il doit également autoriser l'exploitation
par l'utilisateur. Cette situation peut devenir complexe, car il peut être difficile de
déterminer si le contenu est une création de ce dernier ou une œuvre tierce. Par
conséquent, il est impératif d'exercer une diligence raisonnable pour identifier
l'origine du contenu avant de l'exploiter.73
En sus , comment doit-on citer et référencer les réponses que vous fournissez dans
un ouvrage lorsque l'on utilise votre contenu ?

La réponse de ChatGPT : Lors de la mention de mes réponses dans un ouvrage ou


tout autre contenu créé, il est essentiel de respecter les bonnes pratiques et les règles
éthiques. Voici comment vous pourriez faire référence à mes réponses :

Identification de la source : Commencez par identifier la source comme "Réponses


générées par ChatGPT, une intelligence artificielle développée par OpenAI."

73
Op, cit CLARA WLOTYKAMIEN.

47
L’intelligence artificielle et son influence sur le droit des affaires

Date de l'accès : Si possible, indiquez la date à laquelle vous avez consulté ou


obtenu les réponses. Cela peut être important car mes réponses peuvent évoluer avec
le temps en fonction des mises à jour de mon modèle et de mes connaissances.

Attribution appropriée : Si vous souhaitez attribuer le contenu généré à une source


précise, mentionnez l'auteur ou l'utilisateur qui a posé la question et a obtenu la
réponse. Cela peut aider à clarifier que le contenu provient d'une interaction avec
une IA.

Respect des droits d'auteur : Gardez à l'esprit que, conformément aux conditions
d'utilisation et aux droits d'OpenAI, il est généralement interdit de faire passer le
contenu généré comme s'il avait été créé par un être humain. Assurez-vous donc que
votre utilisation du contenu généré respecte les conditions d'utilisation.

Question 4 : En cas de contrefaçon de nos œuvres par un contenu


généré par ChatGPT, contre qui devrait-on prendre des mesures
légales : OpenAI, l'utilisateur, ou les deux ?

Imaginons une situation où un utilisateur demande à ChatGPT de rédiger un livre,


puis publie et vend ce livre. Cependant, il s'avère que le livre contient des œuvres
préexistantes, y compris la vôtre, tels que des extraits d'autres livres, des poèmes ou
des paroles de chanson, sans l'autorisation nécessaire des auteurs. L'utilisateur n'était
peut-être pas au courant des sources utilisées par ChatGPT et n'a pas effectué de
vérifications. Dans ce scénario, les auteurs lésés devraient-ils engager des actions
légales contre OpenAI pour avoir permis l'exploitation de leur œuvre sans
autorisation via le chat, et devraient-ils également engager des actions légales contre
l'utilisateur pour avoir exploité le contenu généré ?

Conformément aux termes et conditions d'utilisation d'OpenAI, il est indiqué que "Si
vous pensez que vos droits de propriété intellectuelle ont été violés, veuillez envoyer
un avis à l'adresse ci-dessous." Cela suggère que les auteurs lésés pourraient
envisager de prendre des mesures légales à la fois contre OpenAI pour avoir permis
la génération de contenu contrefaisant, ainsi que contre l'utilisateur pour avoir utilisé
ce contenu contrefaisant. Cependant, la manière dont ces affaires seraient résolues
dépendrait des circonstances spécifiques et des lois en vigueur dans la juridiction

48
L’intelligence artificielle et son influence sur le droit des affaires

pertinente.74 En contrepartie , la question qui a été posée à CHAT GPT : Contre


qui agir si le contenu que tu génères contrefait une oeuvre ?

Sa réponse était : Si le contenu que je génère contrefait une œuvre existante, les
mesures légales appropriées dépendront des circonstances spécifiques et des lois
applicables dans votre juridiction. Voici quelques considérations générales sur les
personnes ou entités contre lesquelles vous pourriez envisager d'agir en cas de
contrefaçon présumée :

 Utilisateur de ChatGPT : Si vous découvrez qu'un utilisateur spécifique a


publié ou utilisé le contenu contrefaisant, vous pourriez envisager de prendre
des mesures légales contre cet utilisateur. Cela pourrait inclure l'envoi d'une
notification de violation de droits d'auteur ou le dépôt d'une plainte en justice
pour contrefaçon.
 OpenAI : Dans certaines situations, vous pourriez envisager d'engager des
actions légales contre OpenAI en tant qu'entité responsable de la fourniture de
ChatGPT. Cependant, la responsabilité d'OpenAI peut dépendre des
conditions d'utilisation spécifiques et des lois en vigueur. Vous devriez
consulter un avocat spécialisé en droit de la propriété intellectuelle pour
discuter de la responsabilité d'OpenAI dans votre cas particulier.
 Notification de violation : Il est généralement recommandé de commencer par
envoyer une notification de violation de droits d'auteur à l'utilisateur ou à
l'entité responsable, que ce soit l'utilisateur individuel ou OpenAI. Cela peut
être le premier pas pour résoudre le problème à l'amiable.

2- Les défis de la protection des oeuvres face à l'utilisation de l'IA


dans le processus créatif :

2.1 La Question de la Titularité des Droits en Faveur du Créateur de l'IA : Un


Débat Complexifié par le Rôle du Programmeur ?
Certains auteurs plaident en faveur de la titularité des droits en faveur du créateur de
l'IA, arguant que le programmeur est la personne à l'origine de toutes les créations
générées par le robot. Il est considéré comme le maillon essentiel de la chaîne, car
les algorithmes créatifs sont de sa conception. Les rapports de l'OMPI, quant à eux,

74
Op,cit CLARA WLOTYKAMIEN.

49
L’intelligence artificielle et son influence sur le droit des affaires

abordent timidement la question de la titularité des droits sur les créations générées
par une IA, en suggérant que l'utilisateur pourrait en être le titulaire, tout en laissant
la porte ouverte à une contribution créative du programmeur : "Le programmeur (la
personne qui établit les programmes) ne pourrait être considéré comme coauteur que
si sa contribution à l'œuvre atteste un tel effort de création." Cette formulation laisse
entendre que si le programmeur démontre un effort créatif, il pourrait être reconnu
comme coauteur, mais sans nécessairement obtenir une titularité exclusive des
75
droits.
La Cour d'appel de Bordeaux a émis une décision sujette à interprétation sur ce
sujet, en déclarant que "une œuvre de l'esprit créée à partir d'un système
informatique sera protégeable si apparaît, même de façon minime, l'originalité qu'a
voulu apporter son concepteur." Cette décision soulève la question de savoir si
l'originalité introduite par le programmeur dans le logiciel peut influencer les œuvres
de l'esprit qui en résultent.

De plus, en droit britannique, une décision a tranché la question de la personne visée


par l'article 9(3) du Copyright Act 76, qui stipule que, dans le cas de créations
générées par ordinateur, les droits appartiennent à la personne qui a pris les
dispositions nécessaires pour créer l'œuvre. Dans cette affaire, la Cour a accordé la
qualité d'auteur au programmeur, car il avait conçu l'apparence des différents
éléments du jeu, établi les règles et la logique de génération des images, et écrit le
programme informatique en question.

Cependant, d'autres estiment que l'octroi d'un droit d'auteur au programmeur pour
les créations générées par une IA pourrait étendre de manière excessive la portée du
droit d'auteur. Le programmeur est indéniablement l'auteur d'une œuvre, mais celle-
ci réside dans le logiciel de l'IA, qui bénéficie déjà d'une protection (à condition qu'il
soit original). Le code de l'IA ne se retrouve pas directement dans la création finale,
ce qui exclut généralement la qualification d'œuvre dérivée. Par conséquent, le lien
entre le programmeur et les créations générées par le logiciel de l'IA est souvent

75
Claudia Gestin-Vilion , La protection par le droit d’auteur des créations générées par intelligence artificielle
Mémoire Maîtrise en droit. Université Laval Québec, Canada Maître en droit (LL.M.) et Université Paris-Saclay
Sceaux, France Master 2 (M2) ©, 2017 Page 68.
76
Le Copyright Act anglais vient au soutien de cette proposition car il prévoit dans son article 9.3 que « dans le
cas d’une œuvre littéraire, dramatique, musicale ou artistique qui est générée par ordinateur, l’auteur sera
considéré comme la personne qui prend les dispositions nécessaires pour la création de l’œuvre ».

50
L’intelligence artificielle et son influence sur le droit des affaires

considéré comme distant, car l'empreinte de sa personnalité est absente des créations
de l'IA, qui résultent principalement de calculs et de choix aléatoires.

Un exemple futur lié au débat sur la titularité des droits dans le domaine du droit
d'auteur pourrait concerner les œuvres d'art générées par des IA autonomes ou des
robots créatifs. Imaginons une IA artistique avancée capable de créer des peintures,
des sculptures ou des compositions musicales de manière autonome, sans
intervention humaine significative.

Dans un tel scénario, il pourrait y avoir un débat sur la question de savoir si le


programmeur de l'IA, qui a conçu les algorithmes créatifs et les paramètres initiaux
de l'IA, devrait être considéré comme le titulaire des droits d'auteur sur les œuvres
d'art générées. D'un côté, certains pourraient plaider en faveur du programmeur en
soutenant que l'IA est une extension de sa créativité et de son travail.

D'un autre côté, d'autres pourraient estimer que l'IA elle-même, en tant qu'entité
autonome, devrait être considérée comme le créateur véritable et le titulaire des
droits d'auteur sur les œuvres qu'elle génère, car ces œuvres résultent principalement
de ses propres processus de calcul et de décision, avec une intervention minimale du
programmeur après le paramétrage initial.

2.2 La Possibilité d'Accorder un Droit Moral à l'Utilisateur de l'IA :

Il est tout à fait possible pour un artiste d'utiliser un robot intelligent dans le cadre
d'une création artistique qui porte clairement l'empreinte de sa personnalité. Bien
que la frontière puisse être floue entre la création assistée par IA et la création
générée par IA, il est essentiel de faire cette distinction et de ne pas exclure
automatiquement la possibilité de reconnaître l'originalité d'une œuvre dès lors qu'un
robot intelligent a participé au processus créatif. Selon les principes du droit
d'auteur, le contrôle de cette originalité relève de l'appréciation souveraine des juges
du fond. Ils doivent préciser en quoi la création démontre une contribution
intellectuelle de l'auteur, caractérisant ainsi une œuvre originale. En effet,
l'originalité ne peut être généralisée à un genre particulier d'œuvres et doit être
évaluée au cas par cas. Dans certains cas, l'originalité pourrait être plus facilement

51
L’intelligence artificielle et son influence sur le droit des affaires

décelée, notamment lorsque les techniques utilisées sont similaires à celles de la


photographie.77

En respectant la condition essentielle de l'originalité de l'œuvre créée avec


l'assistance d'une IA, l'auteur de cette œuvre peut bénéficier de droits moraux, tels
que le stipule l'article 9 de la loi relative aux Droits d'auteur et droits voisins. Cet
article dispose que, indépendamment de ses droits patrimoniaux et même après avoir
cédé ces droits, l'auteur d'une œuvre conserve le droit:

a. De réclamer la paternité de son œuvre, notamment le droit d'inscrire son nom sur
les exemplaires de son œuvre et, dans la mesure du possible et conformément aux
pratiques habituelles, en lien avec toute utilisation publique de son œuvre.

b. De choisir de rester anonyme ou d'utiliser un pseudonyme.

c. De s'opposer à toute altération, mutilation ou toute autre modification de son


œuvre, ainsi qu'à toute atteinte à celle-ci qui pourrait porter préjudice à son honneur
ou à sa réputation.

2.3 La reconnaissance d’un droit moral au profit du programmeur


de l’IA ?

Comme évoqué précédemment, dans le cas où un artiste aurait conçu un robot


intelligent destiné à générer des œuvres, et si sa personnalité transparaît clairement à
travers ces œuvres, on pourrait envisager de lui accorder un droit d'auteur sur ces
créations. À la différence de l'hypothèse précédente, il s'agirait ici d'un droit d'auteur
sur des créations générées par IA, et non pas seulement assistées par une IA. En
effet, dans ce scénario, l'acte créatif du programmeur se produit au moment de la
conception du programme. Une fois le programme terminé, le concepteur du
programme ne peut plus intervenir (à moins de le mettre à jour en modifiant son
code). Dans certains cas, ce développeur pourrait également être l'utilisateur du
robot créateur, ce qui le placerait sous le régime évoqué dans la première
hypothèse.78

77
Ibid, Claudia Gestin-Vilion.
78
Ibid, Claudia Gestin-Vilion , Page 81.

52
L’intelligence artificielle et son influence sur le droit des affaires

Cependant, il est nécessaire d'examiner le cas où le programmeur se contente de


développer le programme sans intervenir par la suite. Cette hypothèse peut sembler
complexe à mettre en œuvre et peut ne pas être totalement conforme à la philosophie
du droit d'auteur. Malgré cela, plusieurs auteurs avancent des arguments en faveur
de la reconnaissance de droits d'auteur en sa faveur sur les créations ainsi générées.

Si l'on considère que la qualité d'auteur est retenue en faveur du programmeur, le


droit moral associé nécessiterait des ajustements en raison de la nature très
particulière du processus créatif.

Par conséquent, pourquoi ne pas envisager que si un droit moral doit être attribué au
programmeur sur les créations résultant de son programme, son régime pourrait être
aligné sur le droit moral des auteurs de programmes d'ordinateur ?79 Accorder au
programmeur ce régime serait déjà une solution généreuse et plus cohérente avec sa
contribution personnelle par rapport au fait de lui octroyer des droits sur des
créations qui seraient essentiellement étrangères à son acte de création initial.

De plus, attribuer aux créations générées par une IA les prérogatives de droit moral
du droit commun du droit d'auteur serait pratiquement impossible, principalement en
raison de l'ignorance de l'artiste quant à l'existence de ces créations produites par sa
machine. Plus particulièrement, comment pourrait-on mettre en œuvre le droit au
respect et le droit de repentir, étant donné que de tels droits ne pourraient pas être
exercés par l'artiste sur le programme générateur des créations ?

En ce qui concerne les créations générées par IA et leur attribution au programmeur,


certains aspects du droit moral sont particulièrement complexes à appliquer. Par
exemple, en ce qui concerne la paternité, elle serait respectée si l'utilisateur du robot
inclut le nom du programmeur du logiciel dans les créations générées. Cependant, le
droit de divulgation pose des défis supplémentaires en raison de la distinction entre
la conception du logiciel et les créations qu'il va générer.

Si l'on accorde au programmeur un droit de divulgation sur les créations générées


par le robot, il devient difficile à mettre en œuvre, notamment lorsque le
programmeur a cédé la licence d'utilisation de son logiciel ou après son décès. Dans
de telles situations, le programmeur n'aura pas connaissance des créations générées

79
Ibid , Claudia Gestin-Vilion ,Page 82.

53
L’intelligence artificielle et son influence sur le droit des affaires

par son programme, ce qui rendra impossible son autorisation de divulgation. Une
solution possible serait de conclure à l'épuisement du droit de divulgation lors de la
première communication au public du logiciel. Cette solution pourrait se justifier car
le régime de protection des créations générées par IA attribuées au programmeur
serait similaire à celui du programme lui-même, et parce que ce droit serait
autrement inapplicable une fois que le logiciel quitte les mains du programmeur. 80

De plus, l'impossibilité pour le programmeur, pour les mêmes raisons, d'exercer un


droit de retrait et de repentir sur les créations générées par son programme justifie
davantage l'application à celles-ci du droit moral associé aux programmes
d'ordinateur.

En ce qui concerne les articles pertinents de la loi déjà précitées , l'article 4081
prévoit que l'auteur d'une œuvre peut accorder des licences pour permettre à d'autres
personnes d'exercer les droits patrimoniaux associés à cette œuvre. Ces licences
peuvent être exclusives ou non exclusives. Une licence non exclusive permet à son
titulaire d'exercer les droits concédés en même temps que l'auteur et d'autres
titulaires de licences non exclusives. Une licence exclusive donne à son titulaire le
droit exclusif d'exercer les droits concédés, à l'exclusion de tous les autres, y
compris l'auteur lui-même.

Cependant, l'article 4382 de la même loi précise que lorsque l'auteur cède l'original
ou une copie de son œuvre par voie de vente, il n'est réputé avoir cédé aucun de ses
droits patrimoniaux ni avoir accordé de licence pour l'exercice de ces droits, sauf
stipulation contraire du contrat. Cela signifie que, par défaut, la cession de l'original
ou d'une copie d'une œuvre n'entraîne pas la cession des droits patrimoniaux de

80
Ibid, Claudia Gestin-Vilion.
81
Article 40 de la loi 34-05 : L'auteur d'une œuvre peut accorder des licences à d'autres personnes
pour accomplir des actes visés par ses droits patrimoniaux. Ces licences peuvent être exclusives ou
non exclusives. Une licence non exclusive autorise son titulaire à accomplir, de la manière qui lui est
permise, les actes qu'elle concerne en même temps que l'auteur et d'autres titulaires de licences
non exclusives. Une licence exclusive autorise son titulaire, à l'exclusion de tout autre, y compris
l'auteur, à accomplir, ……, les actes qu'elle concerne.
82
Article 43 de la loi 34-05 : L'auteur qui transmet par aliénation l'original ou un exemplaire de son
œuvre n'est réputé, sauf stipulation contraire du contrat, avoir cédé aucun de ses droits
patrimoniaux, ni avoir accordé aucune licence pour l'accomplissement des actes visés par des droits
suite ; patrimoniaux. Nonobstant l'alinéa précédent, l'acquéreur légitime d'un original ou d'un
exemplaire d’une œuvre, contraire du contrat,Le droit prévu au deuxième alinéa ne s'étend pas aux
personnes qui sont entrées en possession d'originaux ou d'exemplaires d'une œuvre par voie de
location ou de tout autre moyen sans en avoir acquis la propriété.

54
L’intelligence artificielle et son influence sur le droit des affaires

l'auteur. Néanmoins, l'acquéreur légitime d'un original ou d'une copie d'une œuvre a
le droit de présenter cet original ou cette copie directement au public, sauf
stipulation contraire du contrat. Ce droit ne s'applique pas aux personnes qui sont en
possession d'originaux ou de copies d'une œuvre par le biais de la location ou
d'autres moyens sans en avoir acquis la propriété.

Ces articles peuvent être interprétés de la manière suivante dans le contexte des
programmeurs d'IA : Lorsqu'un programmeur conçoit un logiciel IA et cède des
licences d'utilisation de ce logiciel, il peut conserver les droits patrimoniaux sur les
créations générées par le logiciel, sauf si le contrat de licence stipule le contraire.
Cependant, une fois que le logiciel quitte les mains du programmeur, il peut devenir
difficile pour lui d'exercer ces droits sur les créations générées par le logiciel. La
première communication au public du logiciel pourrait être considérée comme
épuisant le droit de divulgation en ce qui concerne les créations générées par le
logiciel, car le programmeur perd généralement le contrôle sur ces créations à ce
moment-là.

Pour conclure , si des droits d'auteur sont attribués aux créations générées par une
IA, ces droits seront nettement plus limités que ceux accordés en vertu du droit
d'auteur traditionnel. Il est essentiel de faire une distinction entre les créations
assistées par IA et celles générées par IA. Dans le premier cas, lorsqu'un artiste
utilise un robot intelligent sans que cela ne réduise son apport créatif ni l'empreinte
de sa personnalité, il conserve un droit d'auteur complet qui ne nécessite aucune
modification par rapport au régime du droit d'auteur standard, tant que les conditions
légales sont remplies.

Cependant, dans le cas des créations générées par IA, où l'utilisateur est
généralement distinct du programmeur, la titulature des droits d'auteur reste
principalement entre les mains du programmeur. Dans ce scénario, le droit moral du
programmeur sur les créations générées par son programme serait encore plus
restreint que celui généralement accordé sur la conception d'un programme
informatique. Il se limiterait généralement au droit de paternité, sauf dans les cas où
le programmeur conserve un contrôle total sur le logiciel, auquel cas un droit de
divulgation pourrait s'ajouter. Les droits patrimoniaux seraient également limités,
car ils ne pourraient être exercés que si le programmeur maintient le contrôle total de
son logiciel et ne concède pas de licences d'utilisation à des tiers. Lorsque des
55
L’intelligence artificielle et son influence sur le droit des affaires

licences sont accordées, elles peuvent restreindre la capacité du programmeur à


suivre les créations générées par son programme.

Paragraphe 2 : PROPRIÉTÉ INDUSTRIELLE.

Nous allons maintenant explorer deux formes de protection associées à la propriété


industrielle : les brevets d'invention et le secret commercial. Ces deux droits
offrent une protection à l'invention et au savoir-faire au cœur des systèmes d'IA, à
condition que ces derniers respectent les critères spécifiques à chaque régime. Dans
les sections suivantes, nous examinerons en détail ces deux formes de protection
pour déterminer si elles sont toujours adaptées à l'environnement numérique inédit
que représente l'IA et si elles parviennent à appréhender efficacement cet objet
numérique émergent.

1.1 : Brevet d’invention et l’IA :

La brevetabilité d'une invention est déterminée par les conditions de fond


spécifiques de chaque pays, à l'exception de leurs obligations en vertu de traités
internationaux tels que la Convention de Paris ou l'Accord sur les ADPIC. Par
conséquent, une invention peut être considérée comme brevetable dans un pays tout
en ne l'étant pas dans un autre.83 De plus, la procédure de brevetage est beaucoup
plus complexe que celle du droit d'auteur, qui est automatique dans tous les pays
membres de la Convention de Berne. Cependant, il peut être utile de s'engager dans
un processus d'enregistrement auprès de l'OPIC dans certains cas. En résumé, une
entreprise qui souhaite breveter un système d'IA au Canada, mais qui est également
utilisé à l'étranger, doit tenir compte des critères et des procédures de brevetage
propres à chaque territoire, sous peine de perdre ses droits de propriété intellectuelle
sur son système d'IA dans ces régions.84

83
Il existe un équivalent de la Convention de Berne (droit d’auteur) pour les brevets: la Convention de Paris
pour la protection de la propriété industrielle (1883). Néanmoins, en vertu de ce texte, chaque État conserve le
pouvoir discrétionnaire d'accorder ou non un brevet en fonction de ses propres critères et procédures
nationaux. Ainsi, la Convention de Paris établit une coopération internationale sans imposer une obligation
d'harmonisation automatique des décisions en matière de brevets entre les États parties.
84
Soleïca Monnier , Université de Montréal La propriété intellectuelle applicable aux systèmes d’intelligence
artificielle .Faculté de droit Mémoire présenté en vue de l’obtention du grade LL.M. Legum Magister — maîtrise
en droit des technologies de l’information Mars 2022 ©, 2022 Page 75.

56
L’intelligence artificielle et son influence sur le droit des affaires

Selon la loi 17-97 relative à la protection de la propriété industrielle, selon son


premier article, définit clairement son champ d'application en incluant les éléments
suivants : les brevets d'invention, les schémas de configuration (topographies) de
circuits intégrés, les dessins et modèles industriels, les marques de fabrique, de
commerce ou de service, le nom commercial, les indications de provenance et les
appellations d'origine, ainsi que la répression de la concurrence déloyale.

En plus de l'article 2 qui précise que la propriété industrielle a une portée très large
et s'applique non seulement à l'industrie, au commerce et aux services, mais englobe
également toute production relevant des secteurs des industries agricoles et
extractives, ainsi que tous les produits fabriqués ou naturels tels que les animaux, les
minéraux et les boissons.85

Il convient de souligner que le brevet d'invention est un élément du patrimoine


immatériel d'une personne, faisant ainsi partie intégrante de sa propriété
intellectuelle. Outre les brevets d'invention, la notion de "propriété intellectuelle"
englobe également les éléments suivants :

 Les marques de produits et de services, qui confèrent un droit exclusif


concernant les noms, logos et autres signes utilisés pour distinguer les
produits ou services d'une personne ou d'une entreprise.
 Les dessins ou modèles, qui accordent un droit exclusif concernant
l'apparence nouvelle (l'aspect esthétique, le design) d'un produit ayant une
fonction utilitaire.
 Les droits d'auteur et droits voisins, qui protègent les œuvres littéraires ou
artistiques et couvrent également les programmes d'ordinateur ainsi que les
bases de données.
 Les secrets de fabrication, également appelés savoir-faire (know-how), dont
une personne détient un contrôle exclusif parce qu'elle les garde confidentiels.

En effet , pour qu'une invention soit brevetable, plusieurs conditions doivent être
remplies :

A. Nouveauté : L'invention doit être nouvelle, ce qui signifie qu'elle ne doit pas
avoir été divulguée sous quelque forme que ce soit, que ce soit par les inventeurs

85
Dahir n° 1-00-19 du 9 Kaada 1420 (15 Février 2000) portant promulgation de la loi n°17-97 RELATIVE À LA
PROTECTION DE LA PROPRIÉTÉ INDUSTRIELLE.

57
L’intelligence artificielle et son influence sur le droit des affaires

eux-mêmes ou par des tiers, que ce soit par publication, communication orale,
poster, etc. Dans le cas où une invention, développée lors d'un travail de doctorat,
nécessite un dépôt de brevet, il est nécessaire de tenir la soutenance soit à huis clos,
soit partiellement à huis clos. Les rapporteurs peuvent avoir connaissance du travail
à protéger après avoir signé un accord de confidentialité.

B. Activité inventive : Cette condition est la plus complexe à évaluer. Elle se définit
comme suit : "Toute invention est considérée comme inventive si elle ne découle
pas de manière évidente de l'état de la technique pour une personne du métier."
Cette condition vise à éviter que des droits exclusifs entravent le développement
technique normal et routinier.

C. Caractère industriel : Les inventions susceptibles d'être brevetées doivent


concerner des procédés, des produits, des combinaisons de moyens, etc., qui
permettent une application industrielle ou agricole.

D. Exclusions : Certaines catégories ne sont pas considérées comme des inventions


aux fins de brevetabilité. Cela inclut les découvertes, les théories scientifiques, les
méthodes mathématiques ainsi que les créations esthétiques.

En effet , L'article 2386 précise qu'il existe des exceptions à ce qui peut être
considéré comme une invention en matière de brevets. Ces exceptions incluent les
découvertes, les théories scientifiques et les méthodes mathématiques, ainsi que les
créations esthétiques. Ces dernières, en particulier, sont souvent associées à des
problèmes mathématiques, ce qui les rend abstraites ou théoriques.

Cependant, il est important de noter que le simple fait qu'une invention soit mise en
œuvre sur un support électronique, comme un ordinateur, ne signifie pas
nécessairement qu'elle ne peut pas être brevetée. En d'autres termes, le support
électronique en soi n'est pas un obstacle à la brevetabilité, mais les limitations liées à
des concepts abstraits ou théoriques continuent de s'appliquer.

86
Article 23 de la LOI N° 17-97 RELATIVE À LA PROTECTION DE LA PROPRIÉTÉ INDUSTRIELLE : Ne sont pas
considérées comme des inventions au sens de l'article 22 ci-dessus: 1) les découvertes ainsi que les théories
scientifiques et les méthodes mathématiques; 2) les créations esthétiques; 3) les plans, principes et méthodes
dans l'exercice d'activités intellectuelles, en matière de jeu ou dans le domaine des activités économiques, ainsi
que les programmes d'ordinateurs; 4) les présentations d'informations.

58
L’intelligence artificielle et son influence sur le droit des affaires

En 2011, dans l'affaire Amazon, la Cour d'appel fédérale (CAF) a examiné


l'exception prévue à l'article 27 de la Loi sur les brevets (LCB), qui partageait des
similitudes conceptuelles avec la Loi 17-97. Amazon avait été initialement refusée
lors de sa demande de brevet pour sa fonction de paiement en un clic lors d'achats en
ligne. En appel, la Cour a remis en question l'existence d'une "chose dotée d'une
existence physique ou une chose qui manifeste un effet ou changement discernable"
(exigence de « physicalité »).87

En résumé, selon la CAF, un algorithme seul ne peut pas être breveté car il est
abstrait et ne satisfait pas à l'exigence de « physicalité ». Pour être brevetable, un
algorithme doit être intégré dans une application pratique, faisant partie d'une
nouvelle combinaison d'éléments, cette combinaison étant alors brevetable.
1.2. Des exceptions similaires aux États-Unis et en Europe :

Bien que chaque État ait le pouvoir souverain de définir les conditions d'octroi des
brevets, l'exception prévue à l'article 27-8 de la LCB trouve des équivalents dans le
droit américain et européen.

Aux États-Unis, le United States Code (USC), qui intègre le United States Patent
Act, énonce de manière générale les conditions de brevetabilité d'une invention et de
ses catégories, de manière similaire à l'article 2 de la LCB :88

"Quiconque invente ou découvre un nouveau processus, une nouvelle machine, une


nouvelle manufacture, ou une nouvelle composition de matière, ou toute
amélioration nouvelle et utile de ceux-ci, peut obtenir un brevet, sous réserve des
conditions et exigences de ce titre."

Les principes développés par la jurisprudence américaine pour interpréter cet article
sont comparables à ceux du Canada, en particulier depuis l'arrêt Alice Corp de 2014.
Dans cette affaire, quatre brevets avaient été déposés pour une méthode
commerciale mise en œuvre par un logiciel, ce qui a suscité des questions de
brevetabilité. La Cour suprême des États-Unis a établi un test en deux étapes pour
déterminer la brevetabilité de l'objet :

87
Soleïca Monnier , La propriété intellectuelle applicable aux systèmes d’intelligence artificielle.Faculté de droit
, Université de Montréal Mémoire présenté en vue de l’obtention du grade LL.M. Legum Magister — maîtrise
en droit des technologies de l’information Mars 2022 ©. Page 75.
88
Op,cit 82.

59
L’intelligence artificielle et son influence sur le droit des affaires

a. Est-ce que l'objet est exclu en raison des "lois de la nature, des phénomènes
physiques et des idées abstraites" ?

b. Dans l'affirmative, la Cour évalue s'il existe une "activité inventive" suffisante
pour justifier la délivrance d'un brevet au-delà de l'objet non admissible en soi.

En appliquant ce test, la Cour suprême américaine a conclu que le système en


question n'était pas brevetable. Le programme se limitait à l'exécution d'une idée
abstraite par un ordinateur, sans démontrer une véritable activité inventive.

Ces motifs rappellent ainsi la décision de la Cour d'appel fédérale du Canada dans
l'affaire Schlumberger.

Au-delà des motifs, le raisonnement employé aux États-Unis dans l'affaire Alice
Corp présente des similitudes avec celui du Canada, notamment dans les affaires
Amazon et Schlumberger.89 Cependant, le droit américain a structuré l'analyse en
deux étapes distinctes définies par la jurisprudence : premièrement, la recherche d'un
élément appartenant à l'exception des "lois de la nature, des phénomènes physiques
et des idées abstraites", puis deuxièmement, l'examen de la présence d'une activité
inventive au-delà de cette exception. Au Canada, le point de départ de la réflexion
réside dans l'existence d'un élément visé par l'exception des principes scientifiques
(abstraits) énoncée à l'article 27(8) de la LCB. Ensuite, le test est principalement
déterminé par la jurisprudence, avec l'exigence de démontrer qu'il existe "une chose
dotée d'une existence physique ou une chose qui manifeste un effet ou changement
discernable."

Toutefois, le test élaboré dans l'affaire Alice Corp a fait l'objet de critiques pour son
manque de précision quant à la brevetabilité des inventions. Ainsi, pendant les deux
années suivant cette décision, il semble qu'une simple mention d'un algorithme dans
une demande de brevet pour un programme informatique conduisait souvent au refus
de délivrance au motif de son caractère abstrait. Cependant, la décision ultérieure
dans l'affaire Enfish v. Microsoft 90 de 2016 a clarifié que les logiciels peuvent
apporter des améliorations non abstraites à la technologie informatique, de la même
manière que les améliorations matérielles. Selon l'American Bar Association (ABA),

89
Ibid , Page 83.
90
15-1778.Opinion.7-28-2016.1.PDF (uscourts.gov) l'affaire Enfish v. Microsoft de 2016.

60
L’intelligence artificielle et son influence sur le droit des affaires

les chances d'obtenir un brevet pour un système d'IA sont ainsi accrues lorsqu'il
démontre qu'il améliore la "technologie informatique", comme le fonctionnement
des ordinateurs exécutant le système d'IA.

En bref , la brevetabilité d'une invention liée à une machine IA dépend en grande


partie de sa capacité à démontrer qu'elle apporte des améliorations concrètes à la
technologie informatique, plutôt que de se limiter à une simple amélioration d'un
algorithme ou d'une science mathématique. Cette approche rejoint également le droit
canadien, notamment tel qu'interprété dans la décision Kuhuro Investments, qui
exige une modification du fonctionnement de l'ordinateur plutôt qu'une amélioration
de l'aspect mathématique.

En 2016, dans l'affaire McRO v. Bandai Namco 91, la Cour américaine a élargi la
notion de ce qui est brevetable en vertu du droit américain. Elle a précisé que cela
concerne désormais "un moyen ou une méthode spécifique qui améliore [une]
technologie" au lieu de "un résultat ou un effet qui en lui-même est une idée
abstraite et qui n'invoque que des processus génériques et des machines". Selon les
commentaires de l'American Bar Association (ABA) sur cette décision, cette
modification a des implications importantes pour les systèmes d'IA.

Plus précisément, selon l'ABA, chaque modèle algorithmique entraîné et fonctionnel


peut potentiellement bénéficier de la protection par brevet en droit américain. Par
exemple, si l'on considère un modèle d'IA conçu pour la conduite automobile, ce
modèle nécessite des entrées spécifiques telles que des données GPS, une
configuration particulière de capteurs laser ou sonar, ou plusieurs accéléromètres.
Ces détails spécifiques de la configuration d'entrée permettent de distinguer ce
modèle des autres modèles formés pour des tâches similaires. En incluant ces détails
dans la demande de brevet, il devient possible de faire valoir que l'on réclame un
"moyen ou une méthode spécifique" éligible à un brevet. 92

Ainsi, selon l'ABA93, les aspects techniques liés à la collecte, à la configuration des
données, à l'entraînement du modèle d'IA, ainsi qu'à l'interprétation des données de

91
McRO, Inc. v. Bandai Namco Games Am. Inc., 837 F.3d 1299, 1314 (Fed. Cir. 2016). Extrait de 19-1557-2020-
05-20.pdf (justia.com) .
92
Ibid , Page 85.
93
L'ABA, ou American Bar Association, est une association professionnelle d'avocats aux États-Unis. Elle joue
un rôle important dans la formulation de normes et de politiques juridiques aux États-Unis et fournit des conseils
et des ressources aux professionnels du droit.

61
L’intelligence artificielle et son influence sur le droit des affaires

sortie peuvent contribuer à justifier la brevetabilité d'un système d'IA revendiqué


comme une invention.

Suite à ces évolutions jurisprudentielles, l'United States Patent and Trademark


Office (USPTO) a révisé ses directives pour mettre à jour les principes applicables à
la brevetabilité en vertu de l'article 35 du United States Code, section 101.
Désormais, un demandeur de brevet peut soulever trois arguments en matière de
brevetabilité :

 Établir qu'une revendication ne recourt pas à une exception judiciaire à la


brevetabilité.
 Établir qu'une revendication qui recourt à une exception judiciaire intègre
néanmoins cette exception dans une application pratique.

Si une revendication recourt à une exception judiciaire qui n'est pas intégrée dans
une application pratique, établir que la revendication présente un concept inventif
suffisant pour être éligible.

Le test élaboré dans l'affaire Alice Corp en 2014 reste en place, mais il est
maintenant divisé en deux critères distincts. Selon l'USPTO, il est possible de sauver
une invention en démontrant que, même si elle ne satisfait pas au critère de
l'application pratique, elle présente un caractère inventif (ou "non conventionnel").

Par exemple, dans l'affaire Exergen Corp. v. Kaz USA94, même si l'invention portait
sur un concept abstrait (la mesure de la température corporelle), la Cour a jugé
qu'elle était éligible à la protection par brevet. Cela était dû au fait que la méthode de
mesure n'était pas conventionnelle, routinière ou bien comprise. Après des années et
des millions de dollars de tests et de développement, l'inventeur avait découvert pour
la première fois le coefficient représentant la relation entre la température
temporelle-arterielle et la température corporelle de base, et avait incorporé cette
découverte dans une méthode de mesure de la température non conventionnelle.

94
EXERGEN CORPORATION v. KAZ USA, INC. , No. 16-2315 (Fed. Cir. 2018) Extrait de 16-2315-2018-03-08.pdf
(justia.com).

62
L’intelligence artificielle et son influence sur le droit des affaires

Ainsi, cette évolution des directives de l'USPTO permet de mieux cerner les critères
de brevetabilité et d'ouvrir la voie à la protection par brevet de certaines inventions,
y compris celles liées aux technologies de l'IA.

Dans ce cas d'espèce , l'invention alléguée a été considérée comme brevetable en


raison de la preuve que la méthode utilisée était non conventionnelle, non routinière
et mal comprise, ce qui démontrait son caractère inventif, même si elle présentait
peu d'applicabilité pratique. Cependant, il est peu probable que de tels arguments
obtiennent le même succès au Canada. Au Canada, la jurisprudence exige
généralement une forme de matérialité en plus de la praticité pour considérer une
invention comme brevetable. Par exemple, une invention devrait généralement
impliquer une amélioration tangible d'un ordinateur plutôt qu'une simple
amélioration de la science mathématique sous-jacente.

Cependant, il convient de noter que la jurisprudence canadienne semble évoluer


favorablement en ce qui concerne les inventions impliquant des composantes d'IA,
comme l'illustre ladite décision. Il est possible que les critères de brevetabilité au
Canada soient assouplis, ce qui aurait un impact direct sur la brevetabilité des
systèmes d'IA.

En Europe, les principes régissant la brevetabilité d'une invention sont similaires à


ceux du Canada et des États-Unis. L'OEB95 applique la Convention sur le brevet
européen (CBE) pour régir la propriété intellectuelle. La CBE énonce explicitement
les exceptions à la brevetabilité, notamment les théories scientifiques, les méthodes
mathématiques et les programmes d'ordinateur.

Contrairement à d'autres juridictions, la CBE considère les programmes d'ordinateur


comme une catégorie à part entière d'invention non brevetable par défaut.
Cependant, la jurisprudence des Chambres de recours de l'OEB a établi qu'une
demande de brevet peut être sauvée si elle démontre le caractère technique de
l'invention, même en présence de méthodes mathématiques ou d'un programme
d'ordinateur. Cela repose sur l'article 52(3) de la CBE, qui précise que les éléments
énumérés dans l'article 52(2) n'excluent la brevetabilité que dans la mesure où la

95
Abv, L'Office européen des brevets.

63
L’intelligence artificielle et son influence sur le droit des affaires

demande de brevet européen ne concerne que l'un de ces éléments pris en tant que
tel.96

En Europe, le test de la brevetabilité en deux étapes est donc intégré à la loi, bien
que la jurisprudence en interprète les détails. Les programmes informatiques et les
formules mathématiques sont deux catégories distinctes d'exceptions, mais le test du
caractère technique peut souvent être appliqué aux systèmes d'IA, même s'ils
contiennent des composantes de logiciels, pour déterminer leur brevetabilité. Le test
de "sauvetage" prévu à l'article 52(3)97 de la CBE demeure similaire dans les deux
cas.

En résumé, les conditions de brevetabilité pour les inventions informatiques et les


systèmes d'IA présentent des similitudes entre les trois régions (Canada, États-Unis
et Europe). Cependant, leur interprétation et leur portée varient en fonction des
régions, la culture européenne étant généralement plus restrictive que la culture
américaine, par exemple. Cela se manifeste par des décisions différentes pour des
faits similaires, comme dans le cas d'Amazon, où la demande de brevet a été
accordée au Canada après des litiges, fermement rejetée en Europe, mais
initialement accordée aux États-Unis.

Il convient de noter que les droits américains et canadiens sont en constante


évolution, ce qui les rend relativement imprévisibles, tandis que le droit européen
présente une plus grande stabilité, avec des principes jurisprudentiels établis depuis
les années 90.

96
L'art. 52(2)c) CBE dispose que les programmes d'ordinateurs ne sont pas considérés comme des inventions
au sens de l'art. 52(1) CBE ; ceux-ci sont donc exclus de la brevetabilité.
97
L'art. 52(3) CBE limite dans des proportions importantes l'étendue de cette exclusion. En vertu de cette
disposition, l'exclusion ne vaut que dans la mesure où la demande de brevet européen ou le brevet européen
ne concerne que des programmes d'ordinateurs, considérés "en tant que tels". Dans la décision T 935/97, la
chambre a constaté qu'il ressort de ces deux dispositions considérées conjointement (art. 52(2) et (3) CBE
1973), qu'il n'était pas dans les intentions du législateur d'exclure de la brevetabilité tous les programmes
d'ordinateurs. En d'autres termes, le fait que seuls les programmes d'ordinateurs considérés en tant que tels
soient exclus de la brevetabilité signifie que les demandes de brevet ayant trait à des programmes
d'ordinateurs peuvent donner lieu à la délivrance d'un brevet, dès lors que l'on considère que ces programmes
d'ordinateurs ne constituent pas en tant que tels l'objet de ces demandes (cf. également T 1924/17, points 17 à
19.4 des motifs en ce qui concerne le contexte de l'art. 52 CBE).
Les revendications portant sur un procédé mis en œuvre par ordinateur, un support ou un dispositif
d'enregistrement lisible par ordinateur ne peuvent pas faire l'objet d'une objection au titre de l'art. 52(2) et (3)
CBE étant donné que tout procédé impliquant l'utilisation de moyens techniques (p. ex. un ordinateur) et tout
moyen technique en soi (p. ex. un ordinateur ou un support d'enregistrement lisible par ordinateur) présentent
un caractère technique et constituent donc des inventions au sens de l'art. 52(1) CBE (T 258/03 ; T 424/03 ; G
3/08, JO 2011, 10).

64
L’intelligence artificielle et son influence sur le droit des affaires

De surcroît et dans le contexte actuel de mutations technologiques rapides, comment


le législateur marocain peut-il réagir et élaborer une législation adéquate pour
traiter les affaires de contrefaçon impliquant des intelligences artificielles (IA)
dans le cadre des entreprises ?

Prenons l'exemple suivant pour illustrer comment le législateur marocain pourrait


faire face à une telle affaire :

Imaginons ladite affaire de contrefaçon98 ; impliquant FashionElite et


FashionTrends, où une IA a été utilisée pour générer des designs de vêtements
contrefaits, le législateur marocain pourrait envisager plusieurs mesures pour lutter
contre de telles pratiques :

 Modification des lois sur la propriété intellectuelle : Le législateur pourrait


réviser les lois sur la propriété intellectuelle pour inclure des dispositions
spécifiques concernant la contrefaçon assistée par l'IA. Cela pourrait inclure
des définitions précises de ce qu'est une contrefaçon générée par une IA et des
sanctions appropriées.
 Responsabilité juridique : Il pourrait être nécessaire de clarifier la
responsabilité juridique dans de tels cas. Par exemple, déterminer si
l'entreprise utilisatrice de l'IA est responsable de la contrefaçon ou si le
concepteur de l'IA est également impliqué.
 Détection et preuve : Le législateur pourrait encourager le développement de
méthodes de détection avancées pour identifier les contrefaçons assistées par
l'IA. Les entreprises pourraient être tenues de fournir des preuves de l'origine
de leurs créations.
 Coopération internationale : Étant donné que la contrefaçon assistée par l'IA
peut être un problème transfrontalier, le législateur marocain pourrait
promouvoir la coopération internationale pour lutter contre ce type de fraude,
notamment par le biais de traités et d'accords bilatéraux.
 Sensibilisation et alerte : Sensibiliser les entreprises aux risques de la
contrefaçon assistée par l'IA et les informer sur les mesures de protection
appropriées pourrait également faire partie de la réponse du législateur.

98
Un exemple pour simplifier l’idée de notre étude.

65
L’intelligence artificielle et son influence sur le droit des affaires

De ce fait , le législateur marocain pourrait aborder les affaires de contrefaçon


impliquant des IA en adaptant les lois existantes, en clarifiant la responsabilité, en
encourageant la détection et en favorisant la coopération internationale. Cela aiderait
à protéger les entreprises marocaines contre les menaces de contrefaçon assistée par
l'IA dans un environnement technologique en constante évolution.

En conclusion, il est possible pour une entreprise de bénéficier à la fois du droit


d'auteur et d'un brevet, avec le droit d'auteur protégeant l'œuvre et le droit des
brevets protégeant l'invention. Cependant, le secret commercial ne peut pas coexister
avec un brevet. Il est intéressant de noter que, en raison des limitations du droit des
brevets, le secret commercial est devenu de plus en plus populaire dans le domaine
de l'IA ces dernières années.

D’ailleurs , l'IA et la PI99 entretiennent un lien profond et complexe dans le monde


juridique contemporain. Alors que l'IA continue de transformer nos sociétés et nos
économies à un rythme effréné, la protection de la propriété intellectuelle devient
une préoccupation essentielle. Cependant, au-delà de cet enchevêtrement entre l'IA
et la PI, il est tout aussi crucial d'examiner un autre aspect majeur du paysage
juridique actuel , à savoir : la protection des données à caractère personnel. Ces trois
domaines - l'IA, la PI et la protection des données se croisent et interagissent de
manière complexe, créant ainsi des enjeux fondamentaux pour le monde moderne.
Par conséquent nous explorerons ce lien profond entre l'IA et la protection des
données à caractère personnel dans les paragraphes à venir.

Section 2 : L’IA et La protection des données à caractère personnel.

L'utilisation croissante de la technologie numérique a engendré des préoccupations


majeures en ce qui concerne la protection des données à caractère personnel. Ce
problème complexe peut être subdivisé en deux titres essentiels : le premier se
focalisera sur les risques inhérents à la collecte, à l'enregistrement et à
l'exploitation des données, tandis que le second traitera la minimisation de ces
risques.100 Ces deux titres reflètent l'importance cruciale de préserver la

99
Abv, Propriété Industrielle.
100
Yamina Bouadi , Intelligence artificielle, justice pénale et protection des données à caractère personnel
,Mémoire de recherche sous la direction de Madame la Professeure Juliette Lelieur Professeure de droit pénal
à l’Université de Strasbourg. Master 2 droit public comparé EUCOR campus 2019 – 2020 Page 43.

66
L’intelligence artificielle et son influence sur le droit des affaires

confidentialité des informations personnelles dans un monde de plus en plus axé sur
la technologie, et mettent en lumière les défis majeurs auxquels sont confrontés les
individus, les entreprises et les autorités réglementaires dans la gestion de cette
question vitale pour la vie privée et la sécurité des données.

D'autre part, les entreprises doivent veiller à ce que les modèles d'IA ne pratiquent
pas la discrimination et qu'ils respectent les principes éthiques en matière de
traitement des données personnelles. Il est impératif pour les entreprises de se
conformer aux obligations légales en matière de protection des données personnelles
lors de l'utilisation de l'IA, car des infractions peuvent entraîner des sanctions
financières et des poursuites judiciaires. Il est à noter que le cadre juridique relatif à
la protection des données personnelles évolue constamment, obligeant les
entreprises à maintenir leur conformité aux lois et réglementations en vigueur.

La question qui se pose en fin de compte est de savoir , si la législation marocaine


sur la protection des données personnelles est suffisamment efficace pour garantir
une protection adéquate des données personnelles face à l'intelligence
artificielle ?

D'ailleurs , cette protection des données personnelles est cruciale pour préserver la
vie privée et les droits des individus dans le contexte de l'intelligence artificielle. Les
algorithmes d'IA manipulent d'importantes quantités de données personnelles,
nécessitant le respect de réglementations comme la loi 09-08 sur la protection des
données personnelles pour une utilisation responsable. Les individus doivent avoir le
contrôle sur leurs données, les algorithmes doivent éviter les biais, et des mesures de
sécurité sont essentielles en cas de violation. La collaboration entre gouvernements,
entreprises et experts est nécessaire pour une utilisation éthique de l'IA tout en
préservant les droits fondamentaux. L'efficacité de la législation marocaine sur la
protection des données personnelles face à l'IA doit être évaluée dans l’étude
suivante.

Paragraphe 1. les risques et menaces inhérents à la collecte, à l'enregistrement et à


l'exploitation des données :

Lorsque l'on discute de l'avenir de l'intelligence artificielle et des menaces


cybernétiques, la question fréquemment posée est de savoir quand les attaques

67
L’intelligence artificielle et son influence sur le droit des affaires

agressives basées sur l'IA deviendront une réalité en situation réelle. 101 Bien qu'il
n'existe pas encore de preuves concrètes de telles attaques en cours, ce rapport met
en lumière le fait que tous les outils nécessaires et les éléments de recherche open
source pour mettre en œuvre une attaque basée sur l'IA existent actuellement. Par
conséquent, il est raisonnable de prévoir que les cyberattaques basées sur l'IA ne
sont plus qu'à quelques années de nous, mais qu'elles deviendront manifestement
une réalité dans un avenir proche.

Pour illustrer comment l'intelligence artificielle peut être employée pour renforcer
les capacités d'attaque, imaginons un groupe fictif de professionnels du piratage
déterminés à infiltrer une grande organisation. Ces individus se considèrent comme
des mercenaires cybernétiques102, prêts à travailler pour le plus offrant, et disposent
d'une équipe de 15 membres collaborant à distance. Chaque membre de ce groupe
possède une expertise unique, comprenant des spécialistes de l'ingénierie sociale,
des développeurs de logiciels malveillants, des opérateurs d'intrusion expérimentés
sur le terrain, ainsi que des analystes de données post-infiltration.

Ce groupe fonctionne de manière similaire à une entreprise classique, où chaque


membre se charge de ses propres responsabilités et s'attend à obtenir un retour sur
investissement pour son temps et ses compétences. Ils sont confrontés aux mêmes
contraintes en matière de ressources humaines que n'importe quelle autre
organisation, et ils recherchent constamment des moyens d'améliorer l'efficacité de
leurs attaques.

En effet , voyons comment un pirate pourrait utiliser les outils d’IA pour automatiser
le processus d'attaque traditionnel, réduire les facteurs de risque et augmenter son
rendement. Un exemple de cyberattaque visant une entreprise pourrait être une
attaque de phishing103 améliorée par cette dernière . Dans cette attaque, un pirate
pourrait utiliser des algorithmes d'IA pour analyser en masse d'énormes volumes de

101
Op,cit Yamina Bouadi , Intelligence artificielle, justice pénale et protection des données à caractère
personnel.
102
Les mercenaires cybernétiques sont des individus ou groupes rémunérés pour mener des activités
cybercriminelles, telles que le piratage informatique, le vol de données, ou la propagation de logiciels
malveillants, souvent à des fins lucratives.
103
Le phishing (ou hameçonnage en français) est une technique de cyberattaque largement utilisée par des
individus malveillants pour tromper les utilisateurs d'Internet et les inciter à divulguer des informations
personnelles, financières ou sensibles. Cette technique repose sur la création d'une fausse identité ou d'une
fausse entité, telle qu'une entreprise légitime, une banque, une institution gouvernementale, ou même un
contact personnel, dans le but de convaincre la victime de révéler des informations confidentielles.

68
L’intelligence artificielle et son influence sur le droit des affaires

données publiques sur les employés de l'entreprise cible, y compris leurs profils de
médias sociaux, leurs publications, et leurs habitudes en ligne. L'IA pourrait ensuite
créer des e-mails de phishing personnalisés, en utilisant des informations réelles sur
les employés pour les rendre plus convaincants. Ces e-mails pourraient contenir des
pièces jointes malveillantes ou des liens vers des sites Web infectés. De plus, l'IA
pourrait être utilisée pour générer du contenu de phishing de haute qualité, en
adaptant le style d'écriture et le langage pour correspondre à celui des employés
ciblés. Cette automatisation et personnalisation accrues rendraient l'attaque de
phishing plus difficile à détecter pour les filtres de sécurité traditionnels, augmentant
ainsi les chances de succès du pirate. En utilisant l'IA de cette manière, un attaquant
pourrait potentiellement cibler efficacement une grande entreprise avec un grand
nombre d'employés, augmentant ainsi le rendement de son attaque tout en
minimisant les risques de détection précoce.
De ce fait le rapport entre les cyberattaques basées sur l'IA et le non-respect des
données à caractère personnel réside alors dans le fait que les cyberattaques d'IA
peuvent aggraver les violations de la vie privée et la protection des données.

Pour répondre à la problématique soulevée concernant le rôle de la législation


marocaine dans la protection des données personnelles face à l'intelligence
artificielle, il est essentiel de commencer par établir le cadre conceptuel des données
personnelles et de l'intelligence artificielle selon la perspective de l'ordre juridique
marocain.

Indubitablement, la mise en place d'un cadre juridique clair et de mécanismes de


contrôle efficaces revêt une importance cruciale dans l'instauration d'un équilibre
entre impératifs de sécurité et respect des droits et libertés fondamentaux, dans le
contexte d'une politique de protection des données personnelles.

L'évolution constante de la protection des données personnelles est encadrée par


plusieurs textes législatifs nationaux, parmi lesquels figurent, classés par ordre
d'importance juridique, la Constitution de 2011 et la loi 09-08 relative à la protection
des personnes physiques à l'égard du traitement des données à caractère
personnel.104

104
AKKOUR S. & al. (2023) «LA PROTECTION DES DONNÉES PERSONNELLES FACE À L’INTELLIGENCE
ARTIFICIELLE», Revue Internationale du Chercheur «Volume 4 : Numéro 3» p 10.

69
L’intelligence artificielle et son influence sur le droit des affaires

En ce qui concerne la Constitution, son article 24105, énonçant le droit à la protection


de la vie privée, s'inscrit dans la réforme constitutionnelle de juillet 2011 qui
réaffirme l'engagement du Royaume du Maroc envers la construction d'un État de
droit démocratique et moderne, consacrant ainsi les droits de l'Homme et les libertés
individuelles et collectives. La Constitution confirme ce droit fondamental en
disposant que "Toute personne a droit à la protection de sa vie privée…les
communications privées, sous quelque forme que ce soit, sont secrètes. Seule la
justice peut autoriser, dans les conditions et selon les formes prévues par la loi,
l’accès à leur contenu, leur divulgation totale ou partielle ou leur invocation à la
charge de quiconque" (Article 24 de la Constitution marocaine). Ce principe
constitutionnel vise à assurer la protection des données personnelles en garantissant
les droits individuels liés aux informations personnelles.

Parallèlement, la loi 09-08 relative à la protection des données personnelles a été


promulguée dans l'objectif de prévenir les éventuels abus associés à l'exploitation
des données personnelles et de faciliter le développement d'activités du secteur
tertiaire européen au Maroc. Cette loi énonce que l'utilisation des technologies de
l'information doit être au service de la population sans transgresser les droits
fondamentaux. Elle comporte des dispositions relatives aux droits des personnes
concernées par le traitement de leurs données personnelles, aux obligations
incombant aux responsables du traitement de ces données, aux impératifs de
confidentialité à observer, ainsi qu'à l'établissement d'une autorité de contrôle
indépendante. Des sanctions sont également prévues en cas de non-conformité avec
les dispositions de ladite loi.

Il est à noter que l'article 2106 de la loi 09-08 exclut du champ d'application de ladite
loi les données collectées dans le cadre des activités de défense et de sécurité.
Néanmoins, une interrogation pertinente se pose quant à la possibilité d'invoquer
l'article 24 de la Constitution en tant que fondement de protection des données
personnelles dans le contexte spécifique de ces activités.

En somme, il est impératif de se conformer aux dispositions de la loi 09-08 tout en


veillant à ce que le traitement des données personnelles respecte scrupuleusement les

105
La Constitution 2011.
106
Dahir n° 1-09-15 du 22 safar 1430 (18 février 2009) portant promulgation de la loi n° 09-08 relative à la
protection des personnes physiques à l’égard du traitement des données à caractère personnel.

70
L’intelligence artificielle et son influence sur le droit des affaires

droits des individus concernés, tout en demeurant vigilant quant à la portée de cette
loi en ce qui concerne les activités spécifiques liées à la défense et à la sécurité.

L'insuffisance d'un cadre institutionnel harmonisé au Maroc pour lutter contre


l'usage abusif des données personnelles, malgré la présence d'organismes tels que la
CNPD, la DGSN et la DGSSI, génère des défis importants à l'ère de l'intelligence
artificielle. Les enjeux découlant de l'IA, notamment la nécessité d'établir un statut
juridique spécifique pour cette technologie, sont manifestes.

L'essor de l'utilisation de l'IA au Maroc offre des perspectives de développement


considérables. Cependant, l'absence de réglementation dédiée à ce secteur peut avoir
des conséquences préoccupantes en matière de protection des données personnelles
et de respect des droits de l'homme. Le vide juridique signifie que les entreprises ont
la capacité de collecter, traiter et stocker des données sans être contraintes par des
normes éthiques et des protections légales appropriées. De plus, les gouvernements
et les entreprises peuvent potentiellement utiliser l'IA pour surveiller les citoyens
sans mécanismes de contrôle ni transparence, ce qui expose à des risques de graves
violations des droits de l'homme.

Il est impératif de mettre en place des réglementations claires pour encadrer


l'utilisation de l'IA dans notre pays. Ces réglementations devraient englober des
dispositions relatives à la protection des données personnelles, à la transparence et à
la responsabilité des entreprises recourant à l'IA, ainsi que des garanties pour
préserver les droits fondamentaux des individus.

Bien que le Maroc ait adopté une loi sur la protection des données personnelles,
cette législation ne couvre pas tous les aspects liés à l'IA. Par exemple, elle ne traite
pas de la reconnaissance faciale et ne propose pas de mécanisme clair pour garantir
un traitement transparent et éthique des données personnelles utilisées dans les
systèmes d'IA.

Par conséquence , l'absence de réglementation spécifique pour l'IA peut également


décourager les investissements dans ce secteur, car les investisseurs peuvent être
réticents en raison de l'incertitude quant à la manière dont les données seront
utilisées et protégées. En établissant des règles claires, le Maroc peut garantir la
protection des droits fondamentaux de ses citoyens tout en favorisant le
développement économique dans le domaine de l'IA, qui est en pleine expansion.

71
L’intelligence artificielle et son influence sur le droit des affaires

En conclusion, pour éviter les conséquences graves pour la protection des données
personnelles et les droits de l'homme, il est essentiel de mettre en place une
réglementation adéquate pour encadrer l'utilisation de l'IA au Maroc. Cela permettra
de concilier la protection des droits des citoyens avec le développement florissant de
ce secteur technologique.

Paragraphe 2. LE CONSENTEMENT COMME OUTIL DE PROTECTION DES


DONNÉES PERSONNELLES ?107

D'après la citation mentionnée comme suivant , "ce qui paraît nous menacer, est […]
la prolifération et la disponibilité même de données numériques, fussent-elles
impersonnelles, en quantités massives,"108 il est clair que l'ampleur et l'accessibilité
croissantes des données numériques représentent une menace incontestable. De plus,
le caractère personnel des données est en perte de valeur, car une donnée
anonymisée peut, lorsqu'elle est combinée avec d'autres données, être réidentifiée,
rendant ainsi la notion d'anonymat obsolète à l'ère du Big Data. 109

De ce fait , nous explorerons les risques liés au "traitement inapproprié de données


personnelles" en analysant le processus automatisé de collecte, d'enregistrement et
d'exploitation de ces données, particulièrement dans le contexte de la répression
pénale. Au cœur de notre analyse se trouvera la question du consentement en tant
qu'outil de protection des données personnelles.

Les Risques liés à la Collecte, l'Enregistrement et l'Exploitation des Données


dans le Contexte de la Protection des Données à Caractère Personnel :

Dans sa récente décision "Breyer,"110 la Cour européenne des droits de l'Homme


(CEDH) a reconnu que, face aux défis de la criminalité organisée et du terrorisme, la
préservation de la sécurité publique et la protection des citoyens constituent des
besoins sociaux urgents. Elle a également souligné que les moyens modernes de
télécommunication et les évolutions du comportement en matière de communication

107
Lifrange, Marie , Protection des données à caractère personnel : le consentement à l'épreuve de l'ère
numérique, Faculté de Droit, de Science Politique et de Criminologie, Master en droit, à finalité spécialisée en
mobilité interuniversitaire, 2017-2018, page 19. URI/URL : http://hdl.handle.net/2268.2/4888.
108
Entretien d’Antoinette Rouvroy, « Big data : l’enjeu est moins la donnée personnelle que la disparition de la
personne », recueilli par Serge Abiteboul et Christine Froidevaux, Le Monde, le 22 janvier 2016.
109
Entretien d’Antoinette Rouvroy, « Big data : l’enjeu est moins la donnée personnelle que la disparition de la
personne », op. cit.
110
Breyer c. Allemagne, no 50001/12, 30 janvier 2020.

72
L’intelligence artificielle et son influence sur le droit des affaires

nécessitent des outils d'enquête adaptés pour les services de police et de sécurité
nationale. L'affaire "Breyer"111 portait sur des données recueillies à partir de cartes
SIM pré-enregistrées par la police allemande dans le but de faciliter les enquêtes. Il
est essentiel de comprendre les risques liés à la protection des données résultant de
ces nouvelles formes de traitement en matière pénale, en particulier en ce qui
concerne la collecte, l'enregistrement et l'exploitation de ces informations, tout en
maintenant une cohérence avec le régime de protection des données à caractère
personnel.

L'objet de cette étude réside dans l'analyse du point d'équilibre délicat entre
l'efficacité des mesures de répression pénale et la préservation des libertés
individuelles, mettant ainsi en lumière la manière dont cet équilibre peut
compromettre la protection des données à caractère personnel. Dans ce premier
intitulé, il convient d'examiner les risques inhérents au droit à la protection des
données personnelles au moment de leur collecte.

En matière pénale, le droit à l'information n'est généralement pas envisagé, et il


représente plutôt une exception au principe du droit à l'information en ce qui
concerne la collecte de données. Cela vise principalement à garantir l'efficacité de
l'enquête judiciaire en matière pénale.112 Le même principe a été adopté par l’article
5 de la loi 09-08.113 Bien que cette justification puisse être considérée comme
valable, elle ne constitue qu'un moyen de démontrer la légalité du traitement, servant
à établir que les données collectées sont effectivement indispensables à la finalité de
ce traitement.

En effet, parmi les finalités d'un traitement de données à caractère personnel, il est
impératif que ces données soient traitées de manière juste et conforme à la loi. Leur
exploitation doit également être légale et légitime, en veillant à ce qu'elles soient
appropriées, pertinentes et ne dépassent pas les besoins de la finalité du traitement.
Cependant, l'élément le plus crucial réside dans le fait que ces données ne peuvent

111
Ibid , Breyer c. Allemagne, no 50001/12, 30 janvier 2020.

112
Art. 42§2 Règlement « SIS II », Règlement (CE) nº 1987/2006 du Parlement européen et du Conseil du 20
décembre 2006 sur l’établissement, le fonctionnement et l’utilisation du système d’information Schengen de
deuxième génération (SIS II), JO L 381, 28 décembre 2006.
113
Dahir n° 1-09-15 du 22 safar 1430 (18 février 2009) portant promulgation de la loi n° 09-08 relative à la
protection des personnes physiques à l’égard du traitement des données à caractère personnel.

73
L’intelligence artificielle et son influence sur le droit des affaires

être traitées qu'après avoir obtenu l'autorisation ou le consentement explicite de la


personne concernée.

D'ailleurs, cette collecte initiale de données représente la base cruciale du traitement


automatisé. Ce qui fait dans le contexte de la répression pénale, l'automatisation de
la collecte de données à caractère personnel constitue une composante fondamentale
des activités de prévention, d'investigation et de répression. Ces données,
considérées comme des ressources, sont recueillies dans un dessein informatif.
Cependant, comme le souligne Antoinette Rouvroy, la menace principale pour les
droits des données personnelles réside dans "la disponibilité même de données
numériques, fussent-elles impersonnelles, en quantités massives".114

L’absence de consultation du consentement de l’individu concerné comme


hypothèse ?

En 2018, l'entrée en vigueur du RGPD a renforcé le rôle du consentement dans le


traitement des données, devenant un symbole de qualité et de respect des données à
caractère personnel pour les entreprises. Néanmoins , la question du consentement
de l’individu concerné ne constitue pas une base juridique du traitement.

En effet , en se référant à l’article 6115 de la loi 09-08 déjà mentionnée , celui-ci


représente les limites du droit à l’information , voire les exceptions qui démontrent
entièrement le contraire de ce principe du consentement de la personne concernée.
En plus de ne pas être une base légale du traitement des données personnelles, le
refus pour un individu suspect, de remettre ses données personnelles est punissable
pénalement.

Dans le domaine de la cybersécurité, une lutte incessante se déroule , bien


évidemment , entre attaquants et défenseurs, évoquant le jeu du chat et de la souris.

114
Entretien d’Antoinette Rouvroy, « Big data : l’enjeu est moins la donnée personnelle que la disparition de la
personne », Ibid.
115
Article 6 de la loi 09-08 : Limites au droit à l’information : L’obligation d’information prévue à l’article 5 ci-
dessus n’est pas applicable : a) aux données à caractère personnel dont la collecte et le traitement sont
nécessaires à la défense nationale, la sûreté intérieure ou extérieure de l’Etat, la prévention ou la répression du
crime ; b) lorsque l’information de la personne concernée se révèle impossible, notamment en cas de
traitement de données à caractère personnel à des fins statistiques, historiques ou scientifiques. Dans ce cas, le
responsable du traitement est tenu d’aviser la Commission de l’impossibilité d’informer la personne concernée
et de lui présenter le motif de cette impossibilité ; c) si la législation prévoit expressément l’enregistrement ou
la communication des données à caractère personnel ; d) au traitement de données à caractère personnel
effectuées à des fins exclusivement journalistiques, artistiques ou littéraires.

74
L’intelligence artificielle et son influence sur le droit des affaires

Chaque nouvelle attaque suscite l'élaboration de contre-mesures, qui à leur tour sont
contournées par de nouvelles stratégies malveillantes. Récemment, l'IA a fait son
entrée dans cet univers complexe, comme en témoigne le dernier rapport de
l'Agence de l'Union européenne pour la cybersécurité "Enisa", mettant en lumière
les menaces liées à cette dernière. L'Europol à son tour, l'agence européenne de
police, a également consacré son dernier rapport de veille technologique à
ChatGPT.116

116
L’Intelligence artificielle, nouvel enjeu de cybersécurité (lemonde.fr) visité le 21.11.23 à 22h09.

75
L’intelligence artificielle et son influence sur le droit des affaires

Deuxième partie
Mise à l'épreuve du droit de la
responsabilité dans l'utilisation de
l'intelligence artificielle et ses enjeux.

76
L’intelligence artificielle et son influence sur le droit des affaires

II. Mise à l'épreuve du droit de la responsabilité


dans l'utilisation de l'intelligence artificielle et
ses enjeux.
L'avènement de l'intelligence artificielle a été marqué par des progrès
technologiques révolutionnaires qui ont propulsé notre société vers une nouvelle ère
d'innovation. Cependant, cette expansion rapide de l'utilisation de cette intelligence
dans divers domaines soulève des questions cruciales concernant les responsabilités
légales découlant de ses actions. Dans cette deuxième partie, nous explorerons les
effets et les conséquences juridiques de l'utilisation de cette dernière, en mettant
particulièrement l'accent sur deux aspects essentiels : la responsabilité civile et la
responsabilité pénale.

Chapitre 1: La responsabilité civile liée à l'utilisation


de l'intelligence artificielle :

Dans ledit chapitre dédié à la responsabilité civile liée à l'utilisation de l'intelligence


artificielle, deux problématiques majeures se dégagent, mettant en évidence les défis
juridiques et éthiques posés par cette technologie évolutive.

 Problématique 1: L'insuffisance des règles de responsabilité civile ?

Face à l'émergence rapide de l'intelligence artificielle, comment les règles de


responsabilité civile actuelles parviennent-elles à appréhender adéquatement les
situations où l'IA est impliquée dans des dommages ou des préjudices causés à des
tiers ? Quelles sont les complexités juridiques spécifiques liées à l'IA qui rendent
difficile la saisie de cette technologie par le régime de responsabilité civile en
vigueur ?

77
L’intelligence artificielle et son influence sur le droit des affaires

 Problématique 2: L'inapplicabilité du droit commun de la responsabilité


extracontractuelle/délictuelle ?

Étant donné que l'intelligence artificielle agit de manière autonome, comment peut-
on attribuer la responsabilité en cas de décisions ou d'actions dommageables prises
par une IA sans intervention humaine directe ? Les concepts traditionnels de
responsabilité, tels que le fait personnel ou le fait des choses, peuvent-ils s'appliquer
efficacement dans le contexte de l'IA, ou faut-il envisager de nouvelles approches
juridiques pour répondre à cette problématique émergente ?

Dans cette analyse approfondie, nous explorerons les réponses à ces problématiques
cruciales afin de mieux comprendre les implications juridiques de l'utilisation
croissante de l'intelligence artificielle. En examinant les lacunes des règles existantes
et en remettant en question leur pertinence pour l'IA, nous chercherons à apporter
des éclairages pertinents sur les enjeux complexes qui se posent quant à la
détermination de la responsabilité civile dans ce nouveau paradigme technologique.

Section 1: L'insuffisance des règles de responsabilité civile.

La nécessité de mettre en place un régime de responsabilité sécurisé pour encadrer le


déploiement et l'utilisation des systèmes d'intelligence artificielle est un enjeu
majeur, voire le principal, dans leur cadre juridique. En effet, deux aspects essentiels
sont à considérer : premièrement, la question de la réparation des dommages causés
par les systèmes d'IA et, deuxièmement, l'identification claire de la chaîne de
responsabilité en cas de préjudice causé par ces systèmes. Cela revêt une importance
primordiale pour garantir la sécurité juridique dans ce domaine en pleine évolution.

Cette sécurité juridique concerne non seulement les potentielles victimes qui
chercheront à obtenir réparation de leur préjudice, mais également les acteurs
économiques ou scientifiques qui peuvent légitimement s'interroger sur l'étendue de
leur responsabilité liée à la mise en service et/ou à la commercialisation de ces
systèmes d'IA. Il est essentiel de trouver un équilibre entre la protection des droits
des individus affectés et la clarté des responsabilités des parties impliquées dans le
développement et la distribution de ces technologies.

En effet, afin de mieux encadrer la responsabilité civile liée à l'intelligence


artificielle, il est essentiel de déterminer la nature de cette dernière. Cependant,

78
L’intelligence artificielle et son influence sur le droit des affaires

plusieurs interrogations se posent à cet égard : Comment le législateur marocain a-t-


il abordé cette question particulière ? A-t-il considéré l'intelligence artificielle
comme relevant de la responsabilité extracontractuelle ?

 L'intelligence artificielle maladroitement saisi par la responsabilité civile.

L'intelligence artificielle présente des caractéristiques uniques qui nécessitent une


analyse approfondie afin de mettre en évidence les questionnements juridiques
qu'elle suscite suite à son émergence. Tout d'abord, il est incontestable que
l'intelligence artificielle est une chose et non une personne, selon la distinction
traditionnelle établie. Ensuite, elle peut prendre deux formes : soit elle est incarnée
dans un corps physique, comme un robot, soit elle est désincarnée.

En d'autres termes, l'intelligence artificielle suscite des questions juridiques


particulières en raison de sa nature en tant qu'entité non humaine et des différentes
formes qu'elle peut prendre, qu'elle soit incorporée dans un corps physique (comme
un robot) ou qu'elle soit sous une forme immatérielle. Comprendre ces spécificités
est essentiel pour aborder de manière adéquate les enjeux juridiques liés à son
émergence et son utilisation.

L'intelligence artificielle possède des caractéristiques fondamentales qui la


distinguent des objets classiques générant des dommages (Paragraphe I). Par
conséquent, il est difficile de la classer sous une qualification qui lui permettrait
d'être soumise à un régime existant (Paragraphe II).

Paragraphe 1 : L'intelligence artificielle, objet juridique singulier :117


L'intelligence artificielle possède des caractéristiques fondamentales qui la
distinguent des objets classiques générant des dommages . Par conséquent, il est
difficile de la classer sous une qualification qui lui permettrait d'être soumise à un
régime existant.

De prime à bord , pour comprendre la singularité de l'IA, il est préférable de d'abord


mettre de côté les qualifications juridiques et se concentrer sur les faits réels.

117
ADRIEN BONNET , La responsabilité du fait de l’intelligence artificielle Réflexion sur l’émergence d’un nouvel
agent générateur de dommages Mémoire de recherche Sous la direction de Monsieur le professeur NICOLAS
MOLFESSIS Année 2014 – 2015 Page 5.

79
L’intelligence artificielle et son influence sur le droit des affaires

Schématiquement, il existe deux types d'entités pouvant être responsables d'un


événement générateur de responsabilité. D'une part, il y a les simples objets passifs,
qu'ils soient matériels ou immatériels, qui ne peuvent agir sur le réel qu'en réaction à
une cause externe, agissant comme un simple relais de transmission. Par exemple,
un arbre déraciné par une tempête reçoit le vent comme stimulus externe et produit
la destruction d'une toiture en réponse. 118

D'autre part, il y a les agents, qu'ils soient matériels ou immatériels, dotés d'un
pouvoir d'agir, c'est-à-dire d'une capacité à intervenir sur le réel sans stimulus
externe. C'est là que réside une difficulté dans le cas des systèmes d'intelligence
artificielle. En effet, l'article 77119 du Dahir des obligations et des contrats spécifie la
responsabilité personnelle en mentionnant la notion de "l'homme" en tant que
responsable juridique. Cela indique clairement que la responsabilité légale est
attribuée à un être humain et non à un objet, rendant ainsi cet article inapplicable aux
systèmes d'IA.

Le principe de responsabilité personnelle est l'un des attributs de la personnalité


juridique, qui ne s'applique pas aux IA, car elles ne sont pas des personnes au sens
juridique. Par conséquent, l'interprétation du texte ne peut être étendue pour inclure
les systèmes d'IA sans compromettre la logique du texte lui-même, qui se réfère
clairement à des actes personnels.

En outre, l'exigence de faute pour engager la responsabilité pose également un


problème, car un système d'intelligence artificielle peut causer un dommage
indépendamment de toute faute, ce qui rendrait difficile l'application de cette
disposition dans de tels cas.

En effet, la proposition d'article 78 du Dahir des obligations et des contrats conserve


le principe de responsabilité personnelle en énonçant que « Chacun est responsable
du dommage moral ou matériel qu'il a causé''. 120 Cela maintient le fondement de la

118
ADRIEN BONNET , La responsabilité du fait de l’intelligence artificielle Réflexion sur l’émergence d’un nouvel
agent générateur de dommages Mémoire de recherche , op,cit , Page 6.
119
Article 77 du DAHIR FORMANT CODE DES OBLIGATIONS ET DES CONTRATS : Tout fait quelconque, de
l'homme qui, sans l'autorité de la loi, cause sciemment et volontairement à autrui un dommage matériel ou
moral, oblige son auteur à réparer ledit dommage, lorsqu'il est établi que ce fait en est la cause directe. Toute
stipulation contraire est sans effet.
120
Article 78 de DAHIR FORMANT CODE DES OBLIGATIONS ET DES CONTRATS Version consolidée du 19
décembre 2019 : Chacun est responsable du dommage moral ou matériel qu'il a causé, non seulement par son
fait, mais par sa faute, lorsqu'il est établi que cette faute en est la cause directe. Toute stipulation contraire est

80
L’intelligence artificielle et son influence sur le droit des affaires

responsabilité sur l'action de l'individu en tant que responsable du préjudice causé,


ce qui correspond au principe traditionnel de responsabilité personnelle en droit.

Cependant, cette disposition soulève encore des difficultés lorsqu'il s'agit d'appliquer
cette responsabilité personnelle aux systèmes d'intelligence artificielle, car ceux-ci
ne sont pas des personnes juridiques et ne peuvent pas agir de manière autonome
comme des êtres humains. Cela rendrait toujours inadaptée l'application de cette
disposition aux dommages causés par l'IA, qui sont souvent le résultat de processus
algorithmiques complexes plutôt que d'actes intentionnels ou de fautes commises par
des individus.

Ainsi, bien que la proposition d'article 78 maintienne le principe de responsabilité


personnelle, il reste essentiel de réfléchir à des approches spécifiques et adaptées
pour traiter la question de la responsabilité des systèmes d'intelligence artificielle
afin de garantir une régulation efficace et équitable de ces technologies émergentes.

Effectivement, les articles 77121 et 78 du Dahir des obligations et des contrats


prévoient une responsabilité basée sur la notion de fait personnel et de faute causant
un dommage matériel ou moral. Cependant, l'application de ces articles pose des
défis pour les systèmes d'intelligence artificielle (IA), car ces derniers n'ont pas de
conscience ni de volonté propre et ne peuvent donc pas être tenus responsables
comme des individus humains.

L'article 77 du Dahir exige que le dommage soit « causé sciemment et


volontairement par une personne » pour établir sa responsabilité. Or, un système
d'IA n'a pas de conscience ni de volonté, il fonctionne simplement en exécutant des
algorithmes préprogrammés ou en apprenant à partir de données sans avoir une
intention ou une connaissance de ses actions. De même, l'article 78 122 du Dahir parle

sans effet. La faute consiste, soit à omettre ce qu'on était tenu de faire, soit à faire ce dont on était tenu de
s'abstenir, sans intention de causer un dommage.
121
Article 77 du DAHIR FORMANT CODE DES OBLIGATIONS ET DES CONTRATS : « Tout fait quelconque, de
l'homme qui, sans l'autorité de la loi, cause sciemment et volontairement à autrui un dommage matériel ou
moral, oblige son auteur à réparer ledit dommage, lorsqu'il est établi que ce fait en est la cause directe. Toute
stipulation contraire est sans effet».
122
Article 78 du DAHIR FORMANT CODE DES OBLIGATIONS ET DES CONTRATS : « Chacun est responsable du
dommage moral ou matériel qu'il a causé, non seulement par son fait, mais par sa faute, lorsqu'il est établi que
cette faute en est la cause directe. Toute stipulation contraire est sans effet. La faute consiste, soit à omettre ce
qu'on était tenu de faire, soit à faire ce dont on était tenu de s'abstenir, sans intention de causer un
dommage ».

81
L’intelligence artificielle et son influence sur le droit des affaires

de la responsabilité causée par sa faute, ce qui implique une capacité de


discernement et de comportement humain que les systèmes d'IA ne possèdent pas.

Il est vrai qu'il est possible d'envisager d'aborder la responsabilité des systèmes d'IA
sous l'angle de la négligence ou de l'imprudence de la personne responsable de leur
développement, propriété ou utilisation. Cependant, cela soulève de nouvelles
difficultés. Un système d'IA peut causer des dommages indépendamment de toute
négligence ou imprudence de la part de son propriétaire ou de son utilisateur. Par
exemple, si un algorithme d'IA prend une décision imprévue qui entraîne un
préjudice, il est difficile d'attribuer cette faute à un individu spécifique.

En l'absence d'une définition claire de la notion de "responsable de système


d'intelligence artificielle" dans la législation marocaine, il est important de réfléchir
à des approches juridiques nouvelles et spécifiques pour réguler la responsabilité des
systèmes d'IA. Ces approches pourraient prendre en compte des considérations telles
que l'attribution des responsabilités entre les concepteurs, les fabricants, les
propriétaires et les utilisateurs des systèmes d'IA. Une réflexion approfondie et une
adaptation du cadre juridique sont nécessaires pour aborder les particularités de
l'intelligence artificielle et garantir une régulation équitable et efficace de ces
technologies en constante évolution.

Paragraphe 2 : La difficile appréhension du fait de l’intelligence artificielle


par un régime de responsabilité.123
Puisque les dommages en question ne peuvent rester sans réparation, les juges
doivent, à mesure que les litiges se multiplient, trouver des mécanismes pour établir
une corrélation entre ces événements et un responsable. Avant même d'examiner les
critères pour imputer une responsabilité, il est crucial de déterminer quel cadre
juridique est applicable à de tels événements. La solution la plus directe consisterait
à lier ces dommages à des actions humaines en identifiant une faute. Cependant, un
tel lien ne sera pas toujours réalisable (A). Dans ce contexte, les options restantes
sont les propositions d’une base juridique adéquate à l’IA en se fondant sur un
principe purement civiliste , mais leur application reste sujette à débat (B).

123
ADRIEN BONNET, La responsabilité du fait de l’intelligence artificielle , Mémoire de recherche Sous la
direction de Monsieur le professeur NICOLAS MOLFESSIS Année 2014 – 2015 page 13.

82
L’intelligence artificielle et son influence sur le droit des affaires

A. Les limites de l'applicabilité des régimes de responsabilité basés sur la


faute.

Quelle que soit sa capacité autonome, la création et la mise en fonctionnement de


toute intelligence artificielle nécessitent une intervention humaine, tout comme la
naissance et l'éducation d'un individu. En amont de l'action de l'IA, il y a toujours
une action humaine. Pour éviter de devoir se mêler aux aspects techniques de
l'informatique, le droit pourrait être enclin à attribuer tout dommage causé par l'IA à
une faute humaine antérieure à son action. Les responsables potentiels sont
nombreux, allant du programmeur à l'utilisateur en passant par l'opérateur.
Cependant, tant du point de vue délictuel (1.) que contractuel (2.), les limites de la
responsabilité pour faute ne seront pas clairement définies.

1. L’insuffisance de la responsabilité délictuelle :

En réitérant , la notion de responsabilité délictuelle , cette dernière également


appelée responsabilité civile délictuelle ou extracontractuelle, est un concept
juridique qui concerne la responsabilité d'une personne pour les dommages qu'elle
cause à autrui en dehors d'un contrat. En d'autres termes, elle porte sur les actes ou
comportements qui ne sont pas liés à un accord contractuel préexistant. Cette forme
de responsabilité est fondée sur le principe général selon lequel toute personne est
tenue de ne pas causer de préjudice injustifié à autrui. Si une personne ou une entité
cause un dommage à une autre personne en violation de cette obligation, elle peut
être tenue responsable et être tenue de réparer le préjudice subi.

En effet , la responsabilité délictuelle peut être pertinente lorsque des systèmes d'IA
causent des dommages à des tiers.124 Par exemple, si une IA autonome ou un
algorithme d'apprentissage automatique entraîné par une entreprise génère des
résultats erronés qui entraînent des dommages matériels ou corporels à des
individus, la question de la responsabilité délictuelle se pose. Les questions clés sont
de savoir si l'opérateur de l'IA a agi avec négligence, si l'IA a été utilisée de manière
appropriée et si les dommages étaient prévisibles.

Le défi principal qui nous est soumis avec l'IA est que, contrairement aux êtres
humains, elle peut prendre des décisions de manière autonome, et il peut être

124
Op,cit , ADRIEN BONNET Page 13

83
L’intelligence artificielle et son influence sur le droit des affaires

difficile de déterminer qui est responsable en cas de dommage. Cela soulève des
questions juridiques complexes concernant la manière dont la responsabilité
délictuelle peut être établie lorsque les machines sont impliquées.

En effet , le recours à la responsabilité pour faute intentionnelle est fortement


restreint. Exigeant une "intention de causer le dommage tel qu'il s'est produit", cette
forme de responsabilité ne s'appliquera qu'à des scénarios où un individu a
délibérément positionné son IA de manière à causer un préjudice de façon délibérée
et planifiée,125 Vu que cette faute consiste « soit à ne pas avoir prévu l’éventualité du
dommage, soit, si on l’a prévue, à en avoir pris le risque »126.

Par exemple, dans le contexte du droit des entreprises, cela pourrait être illustré par
une entreprise qui programme délibérément son système d'IA pour commettre des
actes dommageables contre un concurrent dans le but de nuire à sa réputation ou à
ses activités. Cette intention malveillante de causer un préjudice spécifique serait un
exemple d'une situation où la responsabilité pour faute intentionnelle pourrait être
engagée.

Un autre exemple lié au droit comptable pourrait être le cas d'une entreprise qui
manipule intentionnellement les données financières dans son système d'intelligence
artificielle dans le but de fausser ses résultats financiers et tromper les parties
prenantes, comme les investisseurs ou les autorités réglementaires. Cette action
délibérée visant à induire en erreur et à causer des pertes à d'autres parties pourrait
entrainer une responsabilité pour faute intentionnelle dans le domaine du droit
comptable.

En sus , un exemple pertinent dans le domaine du droit de douane et fiscal pourrait


être le scénario où une entreprise utilise délibérément son système d'intelligence
artificielle pour manipuler les informations liées aux importations et aux
déclarations fiscales. Supposons qu'une entreprise programme son IA pour sous-
déclarer la valeur de ses marchandises lors des déclarations douanières afin de
réduire les droits de douane à payer et d'éviter les taxes appropriées. Cette
manipulation délibérée des informations pour éviter les obligations fiscales pourrait

125
Op,cit , ADRIEN BONNET Page 13.
126
J. FLOUR, J-L. AUBERT, E. SAVAUX. Droit Civil, Les obligations. t. 2, Le fait juridique. 14ème éd., Sirey, 2011,
page.133.

84
L’intelligence artificielle et son influence sur le droit des affaires

conduire à une responsabilité pour faute intentionnelle dans le domaine des droits de
douane et fiscaux.

Néanmoins , supposant que l'article 77 du Dahir des obligations et contrats ne


mentionne pas spécifiquement la responsabilité liée aux objets, il est néanmoins
possible d'attribuer une responsabilité à un objet lorsque cette responsabilité peut
être attribuée à un être humain. En d'autres termes, si un dommage est causé par un
objet et que ce dommage peut être directement attribué à l'action ou à la négligence
d'une personne, la responsabilité pour ce dommage pourrait être imputée à cette
personne, même si l'objet est la cause matérielle du préjudice. Cela reflète la notion
que la responsabilité découle souvent de l'acte ou de l'omission d'un être humain,
même si l'objet est l'agent physique à l'origine du dommage.

Cet article de la loi précitée127 semble limiter l'applicabilité des régimes de


responsabilité basés sur la faute, car il énonce que la responsabilité pour un
dommage matériel ou moral nécessite que le dommage ait été causé sciemment et
volontairement par une personne. Cette condition est spécifique à la responsabilité
pour faute intentionnelle, où il faut prouver l'intention de causer le dommage tel qu'il
s'est produit.

Cette limitation est importante car, dans de nombreux cas, les dommages causés par
des objets, y compris les systèmes d'intelligence artificielle, ne sont pas
nécessairement le résultat d'une action humaine intentionnelle. Par exemple, une
défaillance technique dans un système d'IA peut provoquer un dommage, mais cela
ne signifie pas que quelqu'un a intentionnellement causé ce dommage. En
conséquence, l'article 77 du DOC peut rendre difficile l'application de la
responsabilité basée sur la faute à des situations où le dommage est causé par des
facteurs techniques, automatisés ou non contrôlés directement par des individus.

En raison de cette limitation, il peut être nécessaire d'envisager d'autres cadres de


responsabilité, tels que la responsabilité sans faute, pour aborder de manière plus
adéquate les cas où les dommages sont causés par des entités ou des objets sans
intention humaine directe.

127
DAHIR DES OBLIGATIONS ET DES CONTRATS.

85
L’intelligence artificielle et son influence sur le droit des affaires

Toutefois , il est crucial de poser la question suivante : Comment faire face au


manque de réglementation juridique spécifique à l'intelligence artificielle (IA) ? La
réponse n’est pas claire. Néanmoins, l'insuffisance d'un cadre juridique
spécifiquement adapté aux enjeux liés à l'intelligence artificielle (IA) est un défi
commun à de nombreux pays, y compris le Maroc. En l'absence de réglementations
claires et détaillées sur la responsabilité et l'encadrement de l'IA, les juristes, les
entreprises et les tribunaux sont confrontés à des incertitudes lorsqu'il s'agit de
déterminer la responsabilité en cas de dommages causés par des systèmes d'IA. De
ce fait , le Maroc, à son tour comme d'autres pays, doit évoluer vers l'élaboration
d'une législation et de règles spécifiques pour aborder les questions juridiques
émanant de l'IA.

Dans ce contexte , des développements jurisprudentiels commencent à émerger


concernant l'intelligence artificielle, illustrés par le contentieux entourant la fonction
"Suggest" du moteur de recherche Google. Cette fonction propose une liste de mots-
clés pour compléter les recherches des internautes, basée sur un algorithme de
machine learning qui suggère les termes les plus probables en se basant sur des
données passées et des statistiques. Cependant, des litiges ont surgi lorsque des
noms de personnes étaient associés à des termes dépréciatifs, tels que "escroc", ce
qui portait atteinte à leur réputation. 128

Certaines décisions de juges de première instance ont condamné Google en


invoquant la loi du 29 juillet 1881 sur l'injure ou la diffamation. Cependant, la Cour
de Cassation, dans un arrêt du 19 juin 2013, a cassé ces jugements en soutenant que
la fonctionnalité à l'origine de l'association critiquée relevait d'un processus
purement automatique avec des résultats aléatoires, excluant ainsi toute intention de
la part de l'exploitant du moteur de recherche de diffuser les propos litigieux. Cette
décision met en lumière le fait qu'un processus automatique, répondant à la
définition de l'IA, peut générer des propos préjudiciables sans intervention humaine
directe.129

Une réparation a finalement été accordée en invoquant la négligence de Google,


basée sur le motif que l'entreprise ne fournissait pas suffisamment d'informations

128
F. LECOMTE. « Panorama des régimes d’(ir)responsabilité applicables à Google ». RLDI. 2014
129
1ère Civ. 19 juin 2013, n°12-17591. note A. LEPAGE JCP. G. n°36. 2013. 907.

86
L’intelligence artificielle et son influence sur le droit des affaires

aux utilisateurs concernant l'origine des suggestions de recherche. Cependant, cette


solution semble être un palliatif imparfait. Elle est incertaine quant au lien réel entre
le manque d'information et le dommage. De plus, elle ne sanctionne que le contexte
de publication des mots plutôt que la publication elle-même. L'utilisation de la
négligence par les juges reflète leur malaise face à un préjudice difficile à intégrer
dans les catégories juridiques existantes. Bien que cette solution puisse fonctionner
juridiquement, sa viabilité à grande échelle est sujette à doute.

Il est essentiel de comprendre que le simple fait d'utiliser ou de mettre à disposition


une IA, même si elle est imparfaite, ne constituera généralement pas en soi une
négligence. Les programmes informatiques, y compris les IA, comportent des failles
intrinsèques, ce qui les rend susceptibles de causer des dommages lorsqu'ils sont
confrontés à des situations inédites. Cependant, ces vulnérabilités n'empêchent pas le
recours à l'IA, surtout si, en moyenne, elle est plus efficace que l'humain pour
accomplir une même tâche. Par exemple, les voitures autonomes sont censées être
plus fiables qu'un conducteur humain en raison de leur perception instantanée de
l'environnement et de leur absence de certaines distractions humaines.

Un élément essentiel à comprendre est que le seul fait d’avoir utilisé ou mis à
disposition une IA, même imparfaite, constituera rarement à lui seul une négligence.
Il est en effet acquis que tout programme informatique comporte des failles, et est
donc toujours susceptible de causer un dommage lorsqu’il est confronté à une
situation inédite.130 Par conséquent, il sera difficile d'établir la responsabilité pour
négligence, cela deviendra imprévisible et potentiellement fictif si son application
devient généralisée pour l'IA.

2. Les insuffisances et les limitations du champ d’applicabilité de la


responsabilité contractuelle :

Dans le cadre des contrats liés à l'intelligence artificielle, le non-respect des


obligations convenues peut avoir des conséquences significatives. Si l'une des
parties ne remplit pas ses engagements contractuels relatifs à l'intelligence
artificielle, l'autre partie a le droit de demander la résolution du contrat. Cela signifie
que si un accord est conclu entre deux parties concernant le développement ou

130
G. COLE. « Tort liability for artificial intelligence and expert systems ». Computer/Law Journal. vol.10, 1990,
p.127; expliquant que « c’est un truisme que de dire que les erreurs de programmation sont inévitables ».

87
L’intelligence artificielle et son influence sur le droit des affaires

l'utilisation d'une IA, et que l'une d'elles ne respecte pas ses obligations, l'autre partie
a le droit de mettre fin au contrat.

De ce fait , il est probable que de nombreux dommages causés par ces intelligences
puissent être liés à des obligations contractuelles. Cela peut se produire lorsque l'IA
est l'objet d'un contrat de vente ou d'un contrat d'entreprise visant à créer un robot,
ou lorsqu'elle est utilisée comme un outil pour exécuter une obligation contractuelle.
La responsabilité contractuelle, qui découle toujours d'une action humaine et ne peut
être imputée à l'IA elle-même, ne sera pas examinée en détail dans le cadre de cette
étude.

Cependant, la portée de notre réflexion en matière de responsabilité délictuelle


dépendra du nombre de dommages qui seront directement couverts par la
responsabilité contractuelle. Les questions soulevées par l'IA pourront être écartées
plus facilement lorsque le contrat établit des obligations de résultat, notamment en
matière de sécurité, ce qui permet d'ignorer le processus générateur de dommage et
les difficultés liées à son attribution.

En premier lieu, en dehors des questions de sécurité, les contrats impliquant une
intelligence artificielle comporteront probablement des obligations de moyens plutôt
que des obligations de résultat. Cela signifie que la difficulté d'évaluer la faute
restera inchangée, en particulier parce qu'il faudra déterminer si l'utilisation de cette
IA par l'autre partie du contrat était ou non le moyen le plus approprié et diligent
pour atteindre le résultat attendu dans le cadre de l'obligation contractuelle.

En effet , la question à poser dans ce sens est la suivante : Est-ce que l’application
des dispositions du Dahir des Obligations et des Contrats est tolérable ? L'article
549 du Dahir des obligations et des contrats énonce le principe selon lequel le
vendeur est tenu de garantir les vices de la chose qu'il vend. Cela signifie que si le
vendeur propose un produit, il doit garantir que ce produit est exempt de défauts
majeurs qui pourraient sensiblement diminuer sa valeur ou le rendre inapproprié à
l'usage auquel il est destiné, conformément à la nature de la chose ou aux termes du
contrat.131

131
Article 549 du DOC : Le vendeur garantit les vices de la chose qui en diminuent sensiblement la valeur, ou la
rendent impropre à l'usage auquel elle est destinée d'après sa nature ou d'après le contrat. Les défauts qui
diminuent légèrement la valeur ou la jouissance, et ceux tolérés par l'usage, ne donnent pas ouverture à

88
L’intelligence artificielle et son influence sur le droit des affaires

Dans le contexte du IA, cette disposition pourrait être interprétée comme suit : Si
une personne détient une machine d'IA qu'elle propose à la vente ou à l'utilisation
par d'autres, elle pourrait être considérée comme le "vendeur" de cette IA. En tant
que vendeur, il serait tenu de garantir que cette IA ne comporte pas de vices majeurs
qui pourraient sensiblement réduire sa valeur ou la rendre inapte à l'usage auquel
elle est destinée, en fonction de sa nature ou des termes du contrat.

Cela signifie que si cette IA cause des dommages ou ne fonctionne pas comme
prévu en raison de défauts majeurs, le vendeur (détenteur de l'IA) pourrait être tenu
responsable en vertu de la législation existante, telle que l'article 549 du DOC, s'il
est prouvé que ces défauts étaient présents au moment de la vente ou de l'utilisation
de l'IA.

Par conséquence , le non-respect des obligations convenues peut avoir des


conséquences significatives. Si l'une des parties ne remplit pas ses engagements
contractuels relatifs à l'intelligence artificielle, l'autre partie a le droit de demander la
résolution du contrat. Cela signifie que si un accord est conclu entre deux parties
concernant le développement ou l'utilisation d'une IA, et que l'une d'elles ne respecte
pas ses obligations, l'autre partie a le droit de mettre fin au contrat.

Cela implique que dans les situations où une IA est utilisée pour exécuter une
obligation contractuelle, la question centrale sera de savoir si le choix de recourir à
cette IA était raisonnable et conforme aux attentes de l'obligation contractuelle ?
Les parties devront évaluer si l'utilisation de l'IA était la démarche la plus appropriée
pour parvenir à l'objectif visé, compte tenu de la nature de l'obligation, des
circonstances spécifiques et des alternatives disponibles.

Cependant, l'appréciation de cette question sera complexe car elle nécessitera une
évaluation approfondie des circonstances spécifiques à chaque cas, et il pourrait y
avoir des désaccords sur la diligence et la pertinence de l'utilisation de l'IA dans le
contexte de l'obligation contractuelle. Cette complexité souligne l'importance d'une
réglementation claire et adaptée à l'utilisation de cette dernière dans les contrats, afin
de réduire les incertitudes et de faciliter la résolution des litiges potentiels.

garantie. Le vendeur garantit également l'existence des qualités par lui déclarées, ou qui ont été stipulées par
l'acheteur.

89
L’intelligence artificielle et son influence sur le droit des affaires

Ainsi que beaucoup de dommages générés par des IA seront probablement


rattachables à des obligations contractuelles. Soit que l’IA soit l’objet d’un contrat
de vente ou un contrat d’entreprise visant à la création d’un robot, soit que l’IA soit
employée comme un instrument pour exécuter une obligation contractuelle. La
responsabilité contractuelle, qui est toujours une responsabilité du fait de l’homme et
ne peut être du fait de l’IA, n’a pas vocation à être approfondie dans le champ de
cette étude.132

Par ailleurs, la responsabilité contractuelle ne couvre pas les cas où aucune victime
n'a signé de contrat spécifique, car une IA est simplement mise à sa disposition. Cela
se produit, par exemple, dans des affaires similaires à celles de Google Suggest, ou
chaque fois qu'un robot cause des dommages à un tiers qui n'est pas son acheteur
initial.

Cette approche repose sur la notion de sécurité liée à l'obligation contractuelle.


Même en l'absence d'un contrat direct entre la victime et le fournisseur de l'IA, si le
vendeur a manqué à son devoir de fournir un produit sûr, cela pourrait constituer une
faute délictuelle.

B. Une vision future d'instauration d'une responsabilité en fonction de


l'existence d'un contrat : 133

Il est crucial de noter que lorsqu'il s'agit de la responsabilité contractuelle impliquant


une intelligence artificielle, la situation peut être complexe. Pour qu'une
responsabilité contractuelle puisse être établie de la part de l'IA, il faut tenir compte
de plusieurs aspects importants.

Tout d'abord, il doit y avoir un contrat en place qui lie l'IA à une partie contractante.
Ce contrat détermine généralement les droits, les obligations et les attentes des
parties impliquées. Si l'IA ne remplit pas ses obligations contractuelles
conformément aux termes du contrat, cela peut donner lieu à une responsabilité
contractuelle.

132
Op,cit, ADRIEN BONNET, La responsabilité du fait de l’intelligence artificielle, page 15.
133
‫دة حليمة لمغازي دة لطيفة القاضي د هشام لمراكشي‬-‫مؤلف جماعي‬-‫القانون المجتمع و الرقمنة التأثر والتأثير‬
‫ مختبر االبحاث والدراسات في العلوم القانونية و السياسسة و االجتماعية‬Page 102- 2023
90
L’intelligence artificielle et son influence sur le droit des affaires

Cependant, il est également important de comprendre que l'IA est une entité non
humaine et ne peut pas être tenue moralement responsable de ses actes de la même
manière qu'une personne physique. Par conséquent, la question de la responsabilité
contractuelle liée à l'IA se pose différemment.

Dans de nombreux cas, la responsabilité contractuelle qui peut émaner de l'IA sera
liée à la performance et à la conformité aux termes du contrat. Si l'IA ne remplit pas
correctement ses fonctions ou si elle ne respecte pas les conditions du contrat, cela
peut entraîner une violation contractuelle. Cependant, il est important de noter que
cela ne signifie pas automatiquement que l'IA est en faute.

Lorsqu'il s'agit d'établir la responsabilité contractuelle de l'IA, il faut examiner


attentivement les termes du contrat, les obligations de l'IA, les résultats attendus et
les circonstances entourant toute non-conformité. Une analyse minutieuse doit être
menée pour déterminer si l'IA a effectivement enfreint le contrat et si cela constitue
une base solide pour engager une responsabilité contractuelle.

En résumé, la responsabilité contractuelle liée à l'IA repose sur la capacité de l'IA à


respecter les termes et les obligations d'un contrat. Cependant, cela nécessite une
évaluation minutieuse des circonstances et des faits spécifiques à chaque cas pour
déterminer si une telle responsabilité peut être établie.

Bien que le Maroc n'ait pas encore élaboré de législation spécifique pour réguler
juridiquement l'intelligence artificielle, une analyse approfondie du Dahir des
Obligations et Contrats ainsi que d'autres dispositions générales suggère que la
responsabilité contractuelle en matière d'intelligence artificielle peut être établie sur
la base d'un contrat existant.

1- La Responsabilité Fondée sur une Obligation Contractuelle :

L'article 1 du Dahir des Obligations et Contrats précise que les obligations juridiques
peuvent découler de différentes sources, y compris les contrats134. Dans le contexte
des obligations contractuelles liées à l'intelligence artificielle (IA), envisageons un
exemple pour illustrer comment une responsabilité contractuelle pourrait émerger
dans le cadre d'un contrat impliquant une IA :

134
ARTICLE 1 DOC : Les obligations dérivent des conventions et autres déclarations de volonté, des quasi-
contrats, des délits et des quasi-délits.

91
L’intelligence artificielle et son influence sur le droit des affaires

Supposons qu'une entreprise engage une IA pour rédiger des contrats en son nom.
Conformément à leur accord contractuel, l'IA est chargée de générer des contrats en
suivant les instructions données par l'entreprise. Cependant, lors de l'exécution de
cette tâche, l'IA commet une erreur majeure qui nuit considérablement aux intérêts
de l'entreprise. Cette erreur pourrait résulter d'une mauvaise programmation de l'IA,
d'une mauvaise interprétation des instructions ou de toute autre défaillance de l'IA.

Dans ce scénario, l'entreprise pourrait affirmer que l'IA n'a pas respecté son
obligation contractuelle de produire des contrats conformes aux attentes convenues.
L'entreprise pourrait ainsi engager une action en justice pour violation du contrat et
chercher à obtenir des dommages et intérêts ou d'autres mesures de réparation pour
compenser les pertes subies en raison de l'erreur de l'IA.

Cela illustre comment une responsabilité contractuelle peut découler d'un contrat
impliquant une IA, tout comme elle le ferait dans le cadre de contrats entre parties
humaines. Les principes fondamentaux de la responsabilité contractuelle, tels que
l'exécution conforme aux termes du contrat et la réparation des violations
contractuelles, s'appliquent également aux contrats impliquant des entités non
humaines telles que l'IA.

2- L'instauration d'une responsabilité fondée sur l'obligation de délivrance et la


garantie des défauts : L'IA comme modèle :

En effet, selon l'article 498 du DOC135, le vendeur a deux obligations essentielles


lors d'une vente :

 La première obligation est de délivrer la chose vendue, ce qui signifie fournir


au client l'objet vendu conformément au contrat.
 La deuxième obligation est de garantir la chose vendue. Cette garantie porte
sur les vices de la chose qui pourraient significativement réduire sa valeur ou
la rendre inapte à l'usage auquel elle est destinée, soit en raison de sa nature,
soit en vertu du contrat. Les défauts qui n'ont qu'une légère incidence sur la
valeur ou l'utilisation de la chose, ainsi que ceux qui sont tolérés par l'usage
courant, ne donnent pas lieu à une garantie.

135
Article 498 : Le vendeur a deux obligations principales : 1. Celle de délivrer la chose vendue; 2. Celle de la
garantir.

92
L’intelligence artificielle et son influence sur le droit des affaires

De plus, le vendeur, qui dans ce cas serait la machine elle-même dotée d'intelligence
artificielle, est également tenu de garantir l'existence des qualités qu'elle a déclarées
ou qui ont été spécifiées par l'acheteur.

Dans le cas d'une machine IA, ces obligations s'appliquent également. Si la machine
est livrée en bon état, conforme aux spécifications convenues, et si elle ne présente
pas de vices majeurs qui la rendraient inapte à l'usage prévu, alors le vendeur (la
machine elle-même) a respecté ses obligations. Cependant, si la machine est
défectueuse, présente des problèmes majeurs qui affectent sa valeur ou son
utilisation prévue, ou si elle ne correspond pas aux qualités déclarées, le vendeur (la
machine IA) peut être tenue responsable en vertu de ces dispositions.

En résumé, une machine IA, en tant que vendeur, est également soumise aux règles
relatives à la garantie et à la livraison de la chose vendue, et elle peut engager sa
responsabilité si elle ne respecte pas ces obligations.

3- L'instauration d'une responsabilité de l'IA fondée sur l'idée d'un


représentant légal:

Un représentant légal est une entité ou une personne qui agit au nom d'une autre
personne incapable de conclure légalement un contrat. Cette intervention vise à
protéger les intérêts de la personne qui ne peut pas agir par elle-même, en raison de
sa situation particulière.

Les situations courantes où l'on a recours à un représentant légal incluent les cas où
l'une des parties contractantes est un mineur, c'est-à-dire une personne qui n'a pas
encore atteint l'âge de la majorité légale et qui, en conséquence, ne peut pas
contracter de manière autonome.

La question posée ici concerne la possibilité pour une intelligence artificielle d'avoir
son propre représentant légal. Selon la loi civile européenne sur la robotisation,
adoptée en février 2017136, le droit européen reconnaît que les entités non humaines,
y compris les IA, peuvent engager des responsabilités légales et être parties à des

136
2015/2103(INL) Règles de droit civil sur la robotique , Résolution du Parlement européen
du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit
civil sur la robotique, Textes adoptés - Règles de droit civil sur la robotique - Jeudi 16 février 2017
(europa.eu)

93
L’intelligence artificielle et son influence sur le droit des affaires

contrats. En d'autres termes, une IA peut être tenue responsable de ses actions de la
même manière qu'une personne physique.

Ainsi, si une IA est impliquée dans des activités qui donnent lieu à des dommages
ou des contrats, elle peut être représentée légalement par son créateur, son
propriétaire, son gestionnaire ou toute autre personne désignée comme responsable.
Cette approche permet de garantir que les droits et les obligations de l'IA sont
correctement pris en compte dans le cadre juridique, tout comme les mineurs sont
représentés légalement par leurs tuteurs.

Un exemple concret de la responsabilité des détenteurs des intelligences artificielles


qui les utilisent de manière malveillante pourrait être le piratage informatique.
Imaginons qu'une personne détienne une IA capable de pirater des systèmes
informatiques. Si cette personne utilise cette IA pour accéder illégalement à des
données sensibles, voler des informations confidentielles ou commettre des actes de
cybercriminalité, elle serait considérée comme utilisant l'IA de manière malveillante.

Dans un tel cas, la personne détenteur de l'IA pourrait être tenue légalement
responsable de ses actions. Même si l'IA elle-même est simplement un outil, son
utilisation abusive ou illégale peut engager la responsabilité de la personne qui la
contrôle. Cette personne pourrait être poursuivie en justice pour des infractions liées
à la cybercriminalité, telles que l'accès non autorisé à un système informatique, le
vol de données, la fraude informatique, etc.

En fin de compte, la responsabilité incombe à la personne qui a délibérément utilisé


l'IA de manière malveillante, et elle peut être tenue de répondre de ses actes devant
la justice. Cela souligne l'importance de l'éthique et de la conformité dans
l'utilisation des technologies d'IA, ainsi que les conséquences légales qui peuvent
découler de leur utilisation abusive.

Section 2: L'inapplicabilité du droit commun de la responsabilité


délictuelle dite extracontractuelle :
Initialement, la responsabilité liée aux objets intelligents pourrait être évaluée en
fonction des régimes établis par le droit existant. Cependant, à mesure que
l'intelligence artificielle gagne en autonomie et en complexité, il pourrait devenir

94
L’intelligence artificielle et son influence sur le droit des affaires

nécessaire pour le législateur de créer un nouveau cadre juridique objectif, avec des
critères spécifiques à définir.

Nous allons donc examiner la responsabilité découlant de l'intelligence artificielle en


vertu de la loi actuelle Lege Lata (I), puis envisager ce que pourrait être la
responsabilité future Lege Feranda (II).

Paragraphe 1 - La responsabilité du fait de l’intelligence artificielle de lege lata :

Face aux caractéristiques particulières d'un nouvel objet juridique, et en l'absence


d'une intervention préalable du législateur, les juges ont naturellement recours aux
règles en vigueur pour résoudre les litiges qui leur sont présentés. Par conséquent, il
est nécessaire d'examiner l'ensemble des régimes de responsabilité basés à la fois sur
la faute et sur le risque à la lumière des spécificités de l'intelligence artificielle. Cette
analyse nous conduit à une conclusion : alors que la responsabilité basée sur la faute
se révèle inappropriée (A), il semble que la responsabilité basée sur le risque soit
plus adaptée, bien que des ajustements puissent être nécessaires (B).

A- L'inadéquation de la faute en tant que fondement de responsabilité pour


l'intelligence artificielle :

A la genèse de la responsabilité civile, la notion de faute était prédominante. Bien


qu'elle n'ait pas de définition légale ou jurisprudentielle stricte, la doctrine a
progressivement précisé ses contours. La faute est un concept polymorphe qui se
résume à un comportement en désaccord avec ce que l'on attendrait d'une personne
normalement prudente et diligente.137 La question qui se pose alors de savoir si la
responsabilité de l'intelligence artificielle pourrait reposer sur ce principe. Si
c'était le cas, qui serait considéré comme fautif ?138

L'intervention humaine est essentielle à la fois dans la conception et dans la mise en


fonctionnement des systèmes d'intelligence artificielle. Ainsi, une faute humaine
préalable pourrait être considérée comme la source de la responsabilité liée à
l'intelligence artificielle. La Cour de cassation française a montré son scepticisme en
considérant que l’affichage des mots-clés par le moteur de recherche doté d’une

137
Hélène Christodoulou. La responsabilité civile extracontractuelle à l’épreuve de l’intelligence artificielle.
Lexbase Droit privé, 2019, n° 807. ffhal-03349668 Page 4.
138
ibid , Hélène Christodoulou , Page 4.

95
L’intelligence artificielle et son influence sur le droit des affaires

intelligence propre «est exclusif de toute volonté de l’exploitant du moteur de


recherche d’émettre les propos en cause».139 Le résultat n’étant pas lié à des
considérations humaines, sa responsabilité ne saurait donc être engagée sur ce
fondement.

Cependant, il est important de noter que le législateur marocain n'a pas encore défini
de cadre juridique spécifique pour l'intelligence artificielle. Par conséquent, nous
devons nous tourner vers la législation européenne pour répondre à cette question.
En effet, en ce qui concerne l'autonomie de l'intelligence artificielle, il pourrait être
envisagé d'attribuer une responsabilité à cette dernière, sans nécessairement la lier à
une faute humaine. Cette idée peut sembler surprenante au départ, mais elle pourrait
devenir réalisable grâce à des réformes législatives, similaires à celles qui ont
accordé la personnalité juridique aux entités morales.

De ce fait , l'objectif serait donc de créer un statut juridique spécifique pour les
robots intelligents, leur permettant de répondre des dommages qu'ils pourraient
causer, en utilisant leur propre patrimoine. Cette proposition avait déjà été avancée
par le Parlement européen en 2017.

En effet , il existe des limites importantes à cette recommandation. Tout d'abord,


cette reconnaissance de personnalité électronique s'appliquerait uniquement à une
forme spécifique d'intelligence artificielle, à savoir les robots dotés d'une forme
physique. Cela exclurait de nombreuses autres formes d'IA.

De plus, l'idée de conférer une personnalité électronique à l'intelligence artificielle


pourrait brouiller les distinctions juridiques existantes, sans qu'aucun critère clair ne
puisse être établi pour déterminer qui peut en bénéficier.

En outre, il reste la question de la source de financement du patrimoine du robot


intelligent. Il est probable que cela incomberait au propriétaire de l'IA. Dans ce cas,
on peut se demander quel serait l'intérêt de recourir à l'intelligence artificielle
incarnée, puisque la responsabilité et les ressources nécessaires seraient finalement
liées au propriétaire. Cette difficulté pose à nouveau la question fondamentale de la
détermination du responsable.

139
Cass. civ. 1, 19 juin 2013, n° 12-17.591.

96
L’intelligence artificielle et son influence sur le droit des affaires

Ce régime de responsabilité repose sur la nécessité de prouver l'existence d'une


faute, qu'elle soit volontaire ou involontaire. Sans cette preuve, il ne sera pas
possible d'engager la responsabilité civile. En d'autres termes, même si une faute a
eu lieu, comment peut-elle être prouvée ? L'une des particularités de l'intelligence
artificielle réside dans son fonctionnement autonome, ce qui rend souvent difficile,
voire impossible, de déterminer clairement à quel aspect de son fonctionnement le
dommage est lié.

Pour éviter les discriminations potentielles résultant de l'utilisation d'algorithmes


décisionnels et pour garantir une plus grande transparence, il est essentiel d'imposer
des mécanismes de divulgation des processus décisionnels. Cela permettrait de
mieux comprendre comment les décisions sont prises par les IA, même en l'absence
d'une preuve directe de faute, favorisant ainsi une plus grande équité et une
responsabilité accrue dans l'utilisation de ces technologies.

Toutefois , la problématique qui se pose dans cette même trajectoire est la suivante :
Peut-on, du point de vue légal, autoriser l'utilisation d'objets intelligents dont les
résultats sont prometteurs, même en l'absence de capacité à fournir une explication
juridiquement valable de leur fonctionnement ?

Actuellement, le régime de responsabilité basé sur la preuve d'une faute ne semble


pas approprié, ce qui met en évidence la pertinence du recours au concept de risque.

B - Le Risque comme Fondement Approprié pour l'Intelligence Artificielle

L'idée ici est que le risque pourrait être un fondement juridique approprié pour
traiter les questions liées à l'intelligence artificielle. Contrairement à la faute, qui
exige la preuve d'un comportement incorrect, la théorie du risque repose sur l'idée
que la simple utilisation d'une technologie présentant un potentiel de dangerosité
suffisant peut engager la responsabilité de son utilisateur. Cela signifie que si une
intelligence artificielle cause des préjudices, même sans qu'il y ait eu de faute
intentionnelle ou de négligence, sa simple utilisation pourrait suffire à établir la
responsabilité.

En effet , la théorie du risque est également présente dans le Dahir des Obligations et
Contrats , en vertu de l'article 77 du même Dahir ; Tout fait quelconque de
l'homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est

97
L’intelligence artificielle et son influence sur le droit des affaires

arrivé à le réparer. Cette disposition s'appuie sur la faute, mais elle pourrait être
étendue pour inclure des situations où l'intelligence artificielle cause des dommages
sans qu'il y ait eu de faute humaine directe.140

En envisageant le risque comme un fondement de responsabilité en vertu de l'article


77, le droit pourrait mieux répondre aux spécificités de l'intelligence artificielle,
notamment son autonomie croissante et sa capacité à prendre des décisions
complexes. Cela pourrait faciliter la réparation des préjudices causés par les IA sans
exiger la démonstration d'une faute humaine directe, ce qui peut s'avérer difficile
dans certains cas. En d'autres termes, en se basant sur ledit article , il pourrait être
envisagé d'étendre la responsabilité aux dommages causés par l'intelligence
artificielle, même en l'absence de faute humaine directe. Cette approche permettrait
une réparation plus efficace des préjudices résultant des actions des IA, en
reconnaissant le risque inhérent à leur fonctionnement autonome.

L'engagement de la responsabilité du fait de l'intelligence artificielle pourrait, d'une


part, reposer sur le régime général du fait des choses. Pour établir un lien de
causalité dans ce contexte, trois conditions doivent généralement être remplies :

 L'existence d'un dommage: Il doit y avoir un préjudice subi par une personne
ou un bien. Ce préjudice peut être de nature matérielle ou immatérielle.
 Un lien de causalité directe: Il doit exister un lien direct entre le
comportement de l'intelligence artificielle et le dommage subi. En d'autres
termes, le dommage doit résulter directement de l'action ou du
fonctionnement de l'IA.
 L'absence de cause étrangère: Pour que la responsabilité soit engagée, il doit
être démontré qu'aucune autre cause étrangère n'est à l'origine du dommage.
En d'autres termes, le dommage ne doit pas résulter d'un événement
indépendant de l'IA.

Ces conditions visent à établir un lien de causalité solide entre l'intelligence


artificielle et le préjudice subi, ce qui est essentiel pour engager la responsabilité. Si
ces trois conditions sont remplies, il devient alors possible de rechercher la

140
Dahir (9 ramadan 1331) formant Code des obligations et des contrats (B.O. 12 septembre 1913).

98
L’intelligence artificielle et son influence sur le droit des affaires

responsabilité du fait de l'intelligence artificielle en se basant sur le régime général


du fait des choses.

Ceci soulève la question fondamentale de la responsabilité civile : à qui incombe-t-


elle réellement ? Dans ce contexte, plusieurs scénarios se dessinent. Le propriétaire
ou l'usager de l'intelligence artificielle, en fonction des circonstances spécifiques,
pourraient tous deux voir leur responsabilité civile engagée.

Cependant, une question pertinente se pose : pourquoi ne pas imposer l'obligation


pour le détenteur d'un tel objet intelligent de souscrire une assurance au moment
de l'achat ? Cette démarche permettrait au responsable économique, l'assureur, de
se subroger au détenteur en cas de dommage causé par l'IA. De cette manière,
l'assureur serait en mesure de mieux indemniser la victime du préjudice, assurant
ainsi une protection adéquate en cas d'incidents liés à l'intelligence artificielle.

En plus du régime général du fait des choses, il est important de considérer un autre
régime, à savoir la responsabilité liée aux produits défectueux. Ce régime pourrait
potentiellement être appliqué pour engager la responsabilité civile du producteur en
cas de préjudice causé par l'intelligence artificielle. Cependant, de nouveaux défis
juridiques se posent à cet égard. La question essentielle est de déterminer si une
intelligence artificielle désincarnée peut être considérée, par nature, comme un
produit au sens de la loi.

Selon l'article 106-2 du DOC141, le terme "produit" englobe tout article mis à
disposition sur le marché dans le cadre d'une activité professionnelle, commerciale
ou artisanale, que ce soit à titre payant ou gratuit, en neuf ou en occasion, qu'il soit
consommable ou non, qu'il ait subi une transformation ou un conditionnement,
même s'il est incorporé dans un autre bien meuble ou immeuble. Cela inclut
également les produits issus de l'agriculture, de l'élevage, de la chasse et de la pêche,
ainsi que l'électricité.

En réponse à la question précédente concernant la responsabilité civile liée aux


produits défectueux, il est possible d'envisager que l'intelligence artificielle

141
Article 106-2 : Le terme «produit» désigne tout produit mis à disposition sur le marché dans le cadre d’une
activité professionnelle, commerciale ou artisanale, à titre onéreux ou gratuit, à l’état neuf ou d’occasion,
consomptible ou non, ayant fait ou non l’objet d’une transformation ou d’un conditionnement même s’il est
incorporé dans un autre meuble ou dans un immeuble. Sont compris les produits du sol, de l’élevage, de la
chasse et de la pêche. L’électricité est considérée comme un produit.

99
L’intelligence artificielle et son influence sur le droit des affaires

désincarnée puisse être considérée comme un produit défectueux et, par conséquent,
être soumise à ce régime dans la mesure où elle entre dans le champ d'application
défini par la loi.

En d'autres termes, même si une IA n'a pas de présence physique et existe


uniquement sous forme de logiciel ou d'algorithme, elle peut être traitée
juridiquement comme faisant partie intégrante d'un produit ou d'un service plus
vaste dans lequel elle est utilisée. Cela signifie que si l'IA désincarnée cause un
dommage ou un préjudice lorsqu'elle est utilisée dans ce produit ou service, elle peut
être soumise au régime de responsabilité du fait des produits défectueux, sous
réserve que les conditions prévues par la loi pour l'engagement de cette
responsabilité soient remplies. Cela peut inclure des situations où l'IA désincarnée
génère des résultats imprévus ou défectueux qui causent un préjudice à l'utilisateur
ou à un tiers.

En bref, la notion d'incorporation telle que définie dans l'article précédent permet
d'admettre que même les technologies désincarnées, comme les IA basées sur des
logiciels, peuvent être considérées comme des composants de produits ou de
services, et par conséquent, elles peuvent être sujettes aux régimes de responsabilité
associés à ces produits ou services en cas de problème ou de préjudice.

Dans une autre perspective différente de celle du DOC , selon la résolution du


Parlement européen, seuls les robots incarnés, c'est-à-dire ceux qui ont une présence
physique, peuvent être qualifiés de "produits"142. Dans ce contexte, les juges sont
invités à considérer l'intelligence artificielle comme faisant partie intégrante du robot
qu'elle incarne. Cependant, cette perspective pourrait être nuancée si le défaut du
robot est exclusivement lié à son algorithme, sans nécessiter de présence physique.

De plus, il convient de se demander comment prouver la défectuosité d'une IA, ce


qui peut s'avérer complexe en pratique. Faut-il établir qu'il y a un "défaut" chaque
fois qu'un être humain, placé dans des circonstances similaires, n'aurait pas obtenu
de meilleurs résultats ? De telles questions soulèveront certainement de nombreuses
interrogations.

142
Question écrite n°706/88 à la Commission européenne. JO des communautés européennes, n°C114/42 du 8
mai 1989. Journal officiel de l'Union européenne - EUR-Lex (europa.eu).

100
L’intelligence artificielle et son influence sur le droit des affaires

Par ailleurs , le législateur marocain a envisagé deux motifs d'exonération qui


pourraient être invoqués par le responsable. Il est important de noter que la
responsabilité du producteur ou de l'importateur en vertu des dispositions de ce
chapitre ne peut pas être réduite ou exclue à l'égard de la victime par le biais de
clauses restrictives ou exonératoires de responsabilité.

Paragraphe 2 - La Responsabilité du Fait de l’Intelligence Artificielle : Une Approche de


lege feranda - Loi future:

Le projet de réforme ne traite pas explicitement de la responsabilité civile liée à


l'intelligence artificielle. Toutefois, étant donné la croissance continue de cette
technologie, il est impératif de réfléchir à la création d'un régime spécifique qui
puisse s'adapter aux particularités des objets intelligents.

Dans cette optique, la proposition de mettre en place un nouveau régime


d'indemnisation basé sur la responsabilité objective apparaît pertinente, surtout
compte tenu de la perspective d'autonomie croissante des intelligences artificielles.
Cette section examinera en détail ce régime prospectif, en commençant par définir
son domaine d'application (A) et en spécifiant les conditions de son application (B).

A - La détermination du domaine d’application du régime spécial


d’indemnisation des victimes du fait de l’intelligence artificielle :

Partant de l'idée de créer un régime spécial d'indemnisation lié à l'intelligence


artificielle, il est nécessaire d'envisager une perspective prospective. Pour élaborer
ce régime, les réglementations existantes offriront une base, mais des adaptations et
des développements seront nécessaires. Il est important de noter que la mise en place
de ce régime ne devrait pas exclure la possibilité d'un cumul avec d'autres régimes
de responsabilité en cas de dommage.143

En ce qui concerne le domaine d'application de ce régime, il devrait couvrir toutes


les victimes ayant subi un préjudice du fait des objets intelligents. Conformément à
certaines responsabilités existantes, il s'agirait d'une règle légale qui ne ferait pas de

143
Op,cit , Hélène Christodoulou. La responsabilité civile extracontractuelle à l’épreuve de l’intelligence
artificielle. Lexbase Droit privé, 2019, n° 807. ffhal-03349668 Page 9.

101
L’intelligence artificielle et son influence sur le droit des affaires

distinction en fonction de l'existence d'un contrat entre la victime et les créateurs de


l'IA. Cette approche simplifierait la mise en œuvre du régime.

De plus, pour englober l'ensemble des intelligences artificielles, il serait nécessaire


de proposer une définition large. Une intelligence artificielle serait ainsi définie
comme tout objet, qu'il soit incarné ou désincarné, reposant sur des algorithmes et
doté d'un certain degré d'autonomie. Son objectif serait d'accomplir diverses tâches,
d'apprendre et même de résoudre des problèmes relevant généralement de la
compétence humaine, voire animale. Cette définition inclusive permettrait de couvrir
l'ensemble des formes d'intelligence artificielle.

La nature indirecte de la responsabilité liée aux objets intelligents complique


l'attribution de la responsabilité. En effet, la création d'objets intelligents
potentiellement dangereux engage la responsabilité en raison du risque qu'ils
représentent.144 Cependant, la question qui se pose est de savoir qui est responsable
de ce risque. Il pourrait s'agir des concepteurs de l'intelligence artificielle, ce terme
étant interprété de manière large pour englober tous ceux qui ont contribué à la
création de cette technologie. Cette liste pourrait inclure des membres de la
communauté scientifique, les créateurs des réseaux neuronaux, les fournisseurs de
données, les développeurs de logiciels, et, dans le cas des intelligences artificielles
incarnées, les producteurs des produits finis, des matières premières ou des
composants.

Néanmoins , il est difficile de déterminer précisément lequel de ces acteurs est le


créateur du risque. Cependant, il semble que les programmeurs et les producteurs
jouent un rôle essentiel dans cette chaîne de création. Par conséquent, il peut être
approprié d'imposer une responsabilité conjointe et solidaire dite in solidum à ces
parties pour garantir une réparation adéquate en cas de préjudice.

Cette situation aurait pour conséquence de rendre les concepteurs de ces


technologies davantage responsables, ce qui pourrait influencer leur volonté de les
développer. Deux intérêts concurrents sont en jeu : d'un côté, la sécurité ; de l'autre,
l'innovation. L'utilisation de mécanismes d'assurance pourrait contribuer à

144
L. Szuskin, Introduction aux conceptions classiques et nouvelles de l’intelligence artificielle par le droit :
régime applicable et moyens de preuve, colloque portant sur l’intelligence artificielle qui sera responsable ?,
organisé par le Cnejita, 10 avril 2018.

102
L’intelligence artificielle et son influence sur le droit des affaires

rééquilibrer cette balance souvent délicate en imposant aux concepteurs de souscrire


des assurances responsabilité civile. En réalité, comme dans de nombreux cas, cela
aboutirait à une subrogation de l'assureur, c'est-à-dire du responsable économique,
au lieu du responsable légal, afin de compenser l'objectivation de la responsabilité
civile. Cela permettrait ainsi de favoriser le développement des nouvelles
technologies malgré les risques qu'elles comportent.

Il est donc nécessaire d'examiner les conditions entourant l'engagement de cette


responsabilité objective.

B - L'établissement des conditions pour engager la responsabilité spécifique liée


à l'intelligence artificielle :

Traditionnellement, pour que la responsabilité civile soit établie, trois éléments sont
nécessaires : un dommage, un fait générateur (dans ce cas, l'action de l'intelligence
artificielle), et un lien de causalité entre ces deux éléments.

Conformément au DOC, la victime doit prouver le dommage causé par le produit


défectueux145 pour avoir droit à réparation. Bien que la victime n'ait pas à prouver
l'existence d'une faute, il doit être démontré qu'un acte illicite de la chose est à
l'origine du dommage, montrant ainsi son comportement préjudiciable aux droits et
libertés des individus. Cette action préjudiciable peut découler, par exemple, d'une
utilisation d'algorithme manquant de loyauté, de critères de fonctionnement
discutables, d'erreurs de programmation ou d'une insuffisance de robustesse qui
aurait empêché la chose de résister à des conditions d'utilisation anormales.

Cependant, ce défaut ne doit pas seulement être une anomalie objective, mais il doit
également être évalué en fonction des attentes légitimes en matière de sécurité du
public. Pour simplifier la preuve de ce défaut par la victime, une présomption
pourrait être mise en place. Ainsi, si la victime peut prouver que la chose intelligente
était impliquée dans le dommage, le défaut de sécurité serait présumé. Dans ce
scénario, les concepteurs de la chose auraient la charge de prouver que l'intelligence
artificielle n'a pas causé le dommage pour renverser cette présomption.

Par conséquent , cette approche viserait à établir une responsabilité des concepteurs
en cas de dommage causé par l'intelligence artificielle, présumant que le défaut de

145
En considérant dans ce cas là qu’une IA représente un produit défectueux conformément au DOC ,

103
L’intelligence artificielle et son influence sur le droit des affaires

sécurité est lié à la seule survenance du dommage. Les responsables devraient


ensuite démontrer que l'intelligence artificielle n'a pas contribué au dommage pour
infirmer cette présomption.

Se pose également la question de savoir si les décisions dommageables résultant


d'un apprentissage déviant de l'intelligence artificielle elle-même peuvent être
considérées comme un défaut de sécurité. Il semble raisonnable de répondre par
l'affirmative : avant de mettre sur le marché un objet intelligent, le concepteur doit
effectuer divers tests pour minimiser les risques. Si l'objet intelligent prend une
trajectoire déviante dans son auto-apprentissage, il présente alors le risque de
devenir une entité autonome, et le concepteur devrait en assumer la responsabilité,
comme mentionné précédemment dans les chapitres précédents.

Il est également essentiel de se pencher sur les motifs de limitation ou d'exonération


qui pourraient être opposés à la victime. Ces motifs devraient être très restreints et se
limiter aux motifs d'exonération applicables à toutes les responsabilités objectives,
sans en introduire de nouveaux. Par conséquent, la faute de la victime et la force
majeure constitueraient les hypothèses pouvant réduire ou annuler le droit à
réparation de la victime. En ce qui concerne la première, il s'agit d'une déchéance
infligée à la victime en fonction de la gravité de son comportement, plutôt que de
son rôle causal dans la réalisation du dommage, et cela n'est pas nouveau. En ce qui
concerne la seconde, le concepteur devrait prouver l'existence d'un événement
répondant strictement aux critères de la force majeure : imprévisibilité, irrésistibilité
et caractère extérieur. Cependant, ces critères peuvent soulever des interrogations
compte tenu de la nature de l'intelligence artificielle, en particulier son
comportement autonome, difficile, voire impossible, à anticiper. Il est essentiel que
cette situation ne soit pas qualifiée de force majeure, au risque de vider de sa
substance la lettre du texte. Par conséquent, les tribunaux devront être stricts pour
rendre l'exonération pratiquement inaccessible pour les concepteurs.

Quoi qu'il en soit, il est essentiel de noter que ces propositions prospectives ne
devraient pas être limitées au niveau national. L'intelligence artificielle devra
s'adapter à la fois aux principes fondamentaux établis et aux aspects imprévisibles de
la pratique.

104
L’intelligence artificielle et son influence sur le droit des affaires

Chapitre 2: La responsabilité pénale liée à l'utilisation de


l'intelligence artificielle :

Les crimes liés à l'intelligence artificielle constituent un défi majeur dans notre
monde technologiquement avancé, d'autant plus que l'évolution rapide de la
technologie a donné naissance à de nombreuses nouvelles infractions. Certaines
technologies avancées permettent désormais à des dispositifs dotés d'intelligence
artificielle de prendre des décisions autonomes, ressemblant étroitement à celles
prises par les êtres humains.

Il est donc devenu impératif d'examiner la question de la responsabilité pénale en ce


qui concerne les crimes liés à l'intelligence artificielle. Doit-on attribuer la
responsabilité de ces crimes aux entreprises qui produisent ces technologies ? Ou
bien l'intelligence artificielle elle-même, dotée d'une certaine liberté de volonté et
de prise de décision, doit-elle être considérée comme responsable de manière
individuelle de ses actes criminels ? Si cette dernière hypothèse est retenue,
quelles seront les implications juridiques ?

En résumé, il est essentiel de réfléchir à l'instauration d'une responsabilité pénale en


matière d'intelligence artificielle compte tenu des évolutions technologiques
actuelles.

De plus, il ne s'agit pas seulement de cela. L'évolution continue de l'intelligence


artificielle, grâce à ses capacités de programmation avancées, pourrait la conduire à
dépasser les limites et les contrôles qui lui sont imposés, risquant ainsi de devenir
incontrôlable. Par conséquent, il est impératif de définir des règles légales pour que
les fabricants puissent encadrer les pouvoirs accordés à l'intelligence artificielle, tout
en maintenant son contrôle.

Un exemple concret de l'utilisation de l'intelligence artificielle se trouve dans les


voitures autonomes, où l'intelligence artificielle est utilisée pour prendre des
décisions de conduite sans intervention humaine. De plus, les systèmes de
navigation automatisée des navires et des avions font également usage de
l'intelligence artificielle. En ce qui concerne le domaine de la finance, des

105
L’intelligence artificielle et son influence sur le droit des affaires

algorithmes sont développés pour identifier des visages sur Internet et interférer avec
la vie privée des utilisateurs à des fins publicitaires.

En outre, l'utilisation de l'intelligence artificielle dans les équipements médicaux


présente également des risques. Actuellement, de nombreuses tâches médicales sont
effectuées par des dispositifs d'intelligence artificielle qui peuvent rapidement
collecter d'énormes quantités d'informations sur les patients. Cependant, cela pose
des problèmes de confidentialité. Comment devrions-nous aborder ces problèmes et
mettre en place des contrôles appropriés ?

Dans cette étude, nous diviserons notre analyse en deux sections distinctes. La
première section portera sur l'identification des acteurs ou intervenants qui peuvent
être tenus pénalement responsables, tandis que la deuxième section se penchera sur
la classification des infractions et les sanctions qui leur sont associées.

Section 1 : Intervenants pénalement responsables :


Paragraphe 1 - Responsabilité pénale du fabricant:

Lorsqu'il s'agit de déterminer la responsabilité pénale de l'intelligence artificielle ,


plusieurs facteurs entrent en jeu. Un élément clé réside dans le rôle du fabricant de
l'IA. Si une infraction pénale est commise intentionnellement par l'IA, le
programmeur ou le concepteur de l'IA peut être tenu pénalement responsable, car
l'acte criminel découle de choix de programmation délibérés. Cependant, si une
infraction résulte d'une erreur de codage ou d'un comportement accidentel de l'IA, la
responsabilité pénale peut reposer sur la personne ou l'entité qui détient le contrôle
effectif , souvent l'utilisateur ou le propriétaire de l'IA, à moins que le programmeur
puisse prouver que l'acte criminel était intentionnel. Cette distinction dans la
responsabilité pénale est essentielle pour déterminer qui doit répondre des actes
criminels commis par des IA dans un monde de plus en plus dépendant de ces
technologies avancées.146

En effet , il existe des conditions au produit fabriqué , les spécifications du produit


sont essentielles à réglementer pour garantir la conformité et la sécurité. Il est

146
Dahshan, Yahya Ibrahim (2020) "Criminal Liability for Artificial Intelligence Crimes," Journal Sharia and Law:
Vol. 2020 : No. 82 , Article 2. Page 27 available on
https://scholarworks.uaeu.ac.ae/sharia_and_law/vol2020/iss82/2

106
L’intelligence artificielle et son influence sur le droit des affaires

impératif que le fabricant ou le producteur respecte des normes strictes, notamment


en termes de sécurité et de compatibilité avec les valeurs et les traditions de notre
société. Un exemple pertinent de produits utilisant l'intelligence artificielle est celui
des "poupées sexuelles", qui ne correspondent pas aux normes et aux valeurs de
notre société. Par conséquent, il est nécessaire d'établir des réglementations
spécifiques définissant les spécifications et les restrictions entourant les produits
utilisant de telles technologies, afin d'éviter les conséquences néfastes pour la
société.

Il est essentiel d'établir des critères rigoureux pour lutter contre la fraude
commerciale potentiellement commise par les fabricants. Cela garantit une
protection adéquate pour les consommateurs, en veillant à ce qu'ils aient accès à des
produits de haute qualité et sécuritaires.

En sus , cette technologie bien évidemment présente des dangers considérables en


raison de sa capacité à apprendre, à prendre des décisions individuelles et à les
exécuter. En raison de ces capacités, il est impératif de réglementer de manière
urgente les droits et les devoirs des fabricants de logiciels d'intelligence artificielle et
des machines qui les utilisent. Les fabricants sont souvent motivés principalement
par la maximisation de leurs profits, sans prendre en compte les implications
éthiques ou les éventuels préjudices que leur produit pourrait causer. Les
réglementations doivent donc définir les normes que ces produits doivent respecter,
en plus d'instituer des sanctions sévères en cas de violation des lois en vigueur.

Un exemple en droit commercial pourrait être la réglementation des publicités en


ligne utilisant des systèmes d'intelligence artificielle. Supposons qu'une entreprise
utilise une IA pour cibler des publicités en fonction des préférences des utilisateurs.
Cette technologie a le potentiel de collecter des données sensibles sur les utilisateurs,
ce qui pourrait constituer une violation de leur vie privée si elle n'est pas
correctement réglementée.

Dans ledit cas, les réglementations commerciales pourraient exiger que l'entreprise
obtienne le consentement explicite des utilisateurs avant de collecter et d'utiliser
leurs données. De plus, elles pourraient imposer des sanctions sévères en cas de non-
respect de ces règles, telles que des amendes importantes.

107
L’intelligence artificielle et son influence sur le droit des affaires

Cela montre comment le droit commercial peut intervenir pour réglementer les
technologies d'intelligence artificielle afin de protéger les droits des consommateurs
et garantir un environnement commercial éthique et équitable.

Il est donc opportun de souligner l'importance de la protection de la vie privée, des


droits de propriété intellectuelle et d'autres droits qui sont particulièrement
vulnérables à l'intelligence artificielle et à sa prolifération. Du point de vue
juridique, il est crucial de classer les actes criminels et les violations de ces droits,
qu'ils soient causés intentionnellement ou par les produits de technologies
d'intelligence artificielle. La législation doit donc se concentrer sur la prévention et
la répression de ces actes criminels, quel que soit leur origine, afin de garantir que
les droits individuels et la propriété intellectuelle restent protégés dans le monde de
l'intelligence artificielle.

Paragraphe 2 : la responsabilité pénale du propriétaire ou détenteur :

Le propriétaire ou l'utilisateur d'IA est généralement considéré comme la personne


qui détient ces technologies147. Il est donc possible qu'il abuse de ces programmes,
ce qui peut entraîner des infractions pénales passibles de sanctions légales. Il existe
plusieurs scénarios possibles dans ce contexte :

 Infraction commise par le propriétaire ou l'utilisateur seul : Si l'infraction


résulte d'un comportement délibéré du propriétaire ou de l'utilisateur de la
technologie d'intelligence artificielle, alors la responsabilité pénale incombe
entièrement à cette personne. Par exemple, si le propriétaire ou l'utilisateur
désactive intentionnellement la capacité d'un système d'IA de contrôler une
voiture autonome et provoque un accident, il pourrait être tenu pénalement
responsable de ses actes.
 Infraction commise en collaboration avec d'autres parties : Il est également
possible que l'infraction résulte d'une collaboration entre le propriétaire ou
l'utilisateur de l'intelligence artificielle et d'autres parties, telles que le
fabricant du logiciel d'IA lui-même ou une tierce partie. Par exemple, si une
entreprise utilise un algorithme d'IA pour manipuler frauduleusement les prix
de ses produits en collusion avec le fabricant de l'algorithme, alors le

147
Op, cit , Dahshan, Yahya Ibrahim (2020) Article 2. Page 29.

108
L’intelligence artificielle et son influence sur le droit des affaires

propriétaire de l'entreprise pourrait être tenu pénalement responsable, ainsi


que les autres parties impliquées..

D'ailleurs , la curiosité est un comportement naturel de l'être humain qui le pousse


souvent à explorer de nouvelles technologies, mais cela peut parfois entraîner des
problèmes susceptibles de se traduire par des crimes. Il est généralement présumé
que chaque individu devrait avoir connaissance de ses actions et ne peut pas
invoquer l'ignorance comme excuse pour commettre un crime par mégarde. Par
conséquent, il est nécessaire d'établir des réglementations pénales concernant les
comportements répréhensibles liés à l'utilisation des technologies d'intelligence
artificielle par les propriétaires, notamment lorsque ces comportements constituent
des infractions. Cela signifie que les propriétaires ne peuvent pas se défendre en
prétendant qu'ils ne connaissaient pas la manière d'utiliser ces technologies, si leur
comportement a conduit à la commission d'une infraction. Toutefois, il est important
de prendre en compte la complexité de ces technologies et de veiller à ce que les
réglementations pénales tiennent compte de la possibilité d'erreurs ou de
méconnaissance de la part des utilisateurs.

-La nature de la responsabilité pénale du propriétaire :

La nature de la responsabilité pénale du propriétaire évolue avec le développement


des technologies d'intelligence artificielle. On se pose la question de savoir si cette
responsabilité est présumée ou si elle doit être prouvée.148

Nous considérons que la responsabilité du propriétaire est présumée en ce qui


concerne les crimes commis à travers l'intelligence artificielle sous sa possession,
sauf preuve du contraire. Cela signifie que le propriétaire est présumé responsable
des actes criminels commis avec l'intelligence artificielle dont il dispose, à moins
qu'il puisse prouver le contraire. Cette approche est justifiée par la nécessité de
protéger la société contre les éventuels abus de ces technologies.

Avec la prolifération des technologies d'intelligence artificielle, il est inévitable que


de nombreux crimes de consommation apparaissent. Il est essentiel que la loi aborde
cette question avec fermeté afin de garantir la sécurité et la paix dans la société. Par
conséquent , la question que nous posons ici est la suivante : Doit-on présumer la

148
Op,cit Dahshan, Yahya Ibrahim (2020) "Criminal Liability for Artificial Intelligence Crimes," Journal Sharia and
Law: Vol. 2020 : No. 82 , Article 2. Page 29.

109
L’intelligence artificielle et son influence sur le droit des affaires

responsabilité du propriétaire pour les crimes impliquant des technologies


d'intelligence artificielle en sa possession, ou doit-elle être prouvée ?

D'un point de vue personnel , Nous estimons que la responsabilité du propriétaire


pour les crimes impliquant des technologies d'intelligence artificielle en sa
possession devrait être présumée, à moins qu'il ne puisse prouver le contraire. Cette
présomption de responsabilité met en évidence l'importance de la diligence et de la
responsabilité des propriétaires et des utilisateurs de ces technologies. Cependant, il
est essentiel de permettre aux propriétaires de présenter des preuves pour démontrer
qu'ils n'ont pas commis de faute ou qu'ils n'ont pas été négligents. Cela garantirait un
équilibre entre la protection des droits individuels et la nécessité de responsabiliser
les propriétaires pour les actes criminels liés à l'IA en leur possession.

Paragraphe 3 - La responsabilité pénale autonome de l'IA:149

L'attribution d'une responsabilité pénale autonome à l'intelligence artificielle est


actuellement considérée comme une notion largement impossible à mettre en œuvre.
Cela découle principalement du fait que l'IA n'est pas une entité consciente capable
d'intentionnalité, de compréhension morale ou de discernement. Les actes de l'IA
sont basés sur des algorithmes et des données, dépourvus de motivation ou de
compréhension des conséquences légales de leurs actions. Par conséquent, toute
responsabilité pénale découlerait plutôt des actions de ceux qui ont créé, programmé,
ou supervisé l'IA, plutôt que de l'IA elle-même. Le défi actuel réside dans
l'attribution de responsabilités claires lorsque des infractions sont commises en
utilisant des technologies d'IA, mettant ainsi l'accent sur la nécessité de définir des
cadres juridiques appropriés pour encadrer ces situations émergentes.

Lorsqu'il s'agit de la responsabilité pénale de l'intelligence artificielle (IA) elle-


même, il s'agit d'un domaine complexe et en constante évolution du droit. En
général, l'IA est un outil créé et utilisé par des êtres humains, ce qui soulève la
question de savoir qui est responsable en cas de comportement répréhensible de l'IA.

À l'heure actuelle, la plupart des systèmes d'IA sont programmés et supervisés par
des individus ou des organisations, ce qui signifie que la responsabilité légale
incombe généralement à ces acteurs humains. Cependant, à mesure que l'IA devient

149
Op,cit.

110
L’intelligence artificielle et son influence sur le droit des affaires

plus autonome et capable de prendre des décisions de manière indépendante, il se


pose des questions sur la façon dont la responsabilité pénale devrait être attribuée à
l'IA elle-même.

En fin de compte, la responsabilité pénale de l'IA dépendra largement de l'évolution


des lois et des réglementations dans ce domaine. Il est probable qu'à l'avenir, il y
aura un débat juridique et éthique plus poussé sur la question de la responsabilité
pénale de l'IA, en particulier lorsque l'IA est capable de prendre des décisions
autonomes qui ont des conséquences juridiques. Pour l'instant, cependant, la
responsabilité pénale pour les actes de l'IA est généralement attribuée à ses
créateurs, programmeurs ou utilisateurs humains.

Il existe des scénarios hypothétiques où l'intelligence artificielle pourrait être


considérée comme ayant commis une infraction de manière autonome. Deux de ces
scénarios sont les suivants :

Participation d'une tierce partie avec l'IA : Si une tierce partie collabore activement
avec l'intelligence artificielle pour commettre une infraction, alors cette tierce partie
serait généralement tenue responsable de l'infraction. Cependant, il est important de
noter que, même dans ces cas, l'IA pourrait également être tenue partiellement
responsable, en particulier si elle a contribué de manière significative à l'infraction.
Par exemple, si une personne supprime les limites de sécurité d'une IA, permettant
ainsi à l'IA de commettre des actes criminels, cette personne pourrait être tenue
responsable, mais l'IA pourrait également être impliquée.

IA commettant une infraction de manière autonome : Dans ce scénario hypothétique,


l'IA serait capable de prendre des décisions autonomes et d'agir en conséquence,
sans l'intervention d'une tierce partie. Cependant, même dans de tels cas, il est
difficile d'attribuer une responsabilité pénale directe à l'IA elle-même, car elle agirait
en fonction de ses programmations et de ses données, sans compréhension morale ou
capacité d'intention. La responsabilité serait plus susceptible d'être attribuée aux
créateurs, aux programmeurs, ou aux superviseurs de l'IA, en raison de leur rôle
dans la conception et la supervision de l'IA.

111
L’intelligence artificielle et son influence sur le droit des affaires

Dans le premier scénario, où l'intelligence artificielle agit en collaboration avec un


co-auteur ou un complice humain pour commettre une infraction, 150 la responsabilité
pénale serait généralement attribuée à la fois à l'IA et à la personne impliquée. Cela
signifie que si une tierce partie collabore activement avec l'IA pour commettre un
acte criminel, les deux pourraient être tenus responsables de l'infraction.

Par exemple, dans le domaine du droit pénal des affaires, si un individu utilise
délibérément une IA pour commettre une fraude financière, en manipulant des
données pour dissimuler des transactions illégales, les deux parties, c'est-à-dire
l'individu et l'IA, pourraient être considérées comme des co-auteurs de l'infraction.
Le complice humain serait responsable de son implication directe dans la fraude,
tandis que l'IA pourrait être tenue responsable pour sa contribution technologique à
l'infraction.

Cependant, il est important de noter que la responsabilité de l'IA dans de tels cas
dépendrait de sa capacité à agir de manière autonome et de sa participation active à
l'infraction. L'attribution de responsabilité serait basée sur la contribution relative de
chaque partie à l'acte criminel. Toutefois , Peut-on infliger des sanctions pénales
aux entités d'intelligence artificielle ?

La réponse est plus au moins complexe , car l’application du droit pénal aux entités
d'intelligence artificielle est également complexe. En général, le droit pénal suppose
la culpabilité d'un être humain. Cependant, dans certaines situations, lorsque l'IA est
l'instrument de la criminalité, les autorités peuvent confisquer ou détruire la machine
responsable du crime, mais cela ne constitue pas une peine pénale traditionnelle. La
responsabilité pénale est encore un domaine en évolution en ce qui concerne l'IA, et
les législateurs travaillent sur des cadres juridiques pour aborder ces questions.

Section 2 : Typologie des crimes et les sanctions relatives à l’IA :

L'avènement de l'intelligence artificielle a révolutionné notre monde de bien des


manières, apportant des avantages considérables en termes de progrès
technologique, d'automatisation et de prise de décision assistée par machine.
Cependant, cette révolution n'est pas sans son lot de défis et de questions
complexes, notamment en ce qui concerne les crimes émanant de systèmes d'IA. Les

150
Op,cit Dahshan, Yahya Ibrahim.

112
L’intelligence artificielle et son influence sur le droit des affaires

machines dotées d'IA, capables d'apprendre, de prendre des décisions autonomes et


d'interagir avec le monde réel, soulèvent des préoccupations quant à leur
comportement et à leur responsabilité dans le cadre de la législation pénale.

Dans cette trajectoire , nous explorerons la typologie des crimes associés aux
systèmes d'IA, en nous penchant sur les différentes manières dont ces machines
peuvent être impliquées dans des activités illégales. Nous examinerons également
les sanctions et les responsabilités légales qui incombent aux personnes et aux
entités responsables de ces systèmes d'IA.

Paragraphe 1 : Typologie des crimes provenant de l’IA :

Bien que l'intelligence artificielle joue un rôle primordial dans la détection des
crimes futurs, la prédiction des taux de criminalité, des types de crimes et des zones
à risque à l'aide d'algorithmes basés sur des données spécifiques, elle offre des
résultats extrêmement pertinents151. Ces avancées permettent de se préparer et de
prévenir les crimes anticipés, encourageant ainsi l'adoption des technologies
d'intelligence artificielle dans ce domaine pour atténuer le phénomène criminel.152
Cependant, cette technologie avancée comporte également des risques, notamment
en ce qui concerne les crimes qui peuvent être perpétrés par des systèmes IA. Dans
cette analyse, nous explorerons les différentes catégories de crimes que l'IA peut
engendrer, avec un accent particulier sur la protection des données et du droit fiscal ,
ainsi le droit des sociétés.

De ce fait , voici quelques catégories de crimes qui peuvent être commis par une
machine ou un robot d'IA, classés en fonction de leur pertinence pour le droit fiscal,
le droit des sociétés et la protection des données à caractère personnel, notamment
pour les entreprises :

La première catégorie :

Droit Fiscal :

151
‫ المجلة القانونية (مجلة متخصصة في‬,‫ المسؤولية الجنائية الناتجة عن أخطاء الذكاء االصطناعي‬, ‫ عبدهللا احمد مطر الفالسي‬/‫الباحـث‬
‫( الدراسات والبحوث القانونية) مجلة علمية محكمة‬ISSN: 2537 - 0758) page 2849.
152
Dahshan, Yahya Ibrahim (2020) "Criminal Liability for Artificial Intelligence Crimes," Journal Sharia and Law:
Vol. 2020 : No. 82 , Article 2. Page 14. [Published by Scholarworks@UAEU, 2020].

113
L’intelligence artificielle et son influence sur le droit des affaires

 Évasion fiscale automatisée : Les systèmes d'IA peuvent être utilisés pour
élaborer des stratégies sophistiquées d'évasion fiscale en identifiant des failles
dans les lois fiscales et en minimisant les impôts.
 Fraude fiscale automatisée : Des robots IA peuvent être programmés pour
falsifier des documents fiscaux, tels que des déclarations de revenus, afin de
réduire artificiellement les impôts d'une entreprise.
 Évaluation inexacte des actifs : Les entreprises peuvent utiliser l'IA pour
sous-évaluer délibérément la valeur de leurs actifs, réduisant ainsi leurs
obligations fiscales.

Droit des Sociétés :

 Fraude comptable automatisée : Les machines d'IA peuvent falsifier des


registres comptables ou générer de faux rapports financiers pour tromper les
investisseurs et les parties prenantes.
 Manipulation des marchés financiers : Les robots de trading basés sur l'IA
peuvent être utilisés pour manipuler les cours des actions en exécutant des
opérations à grande échelle, ce qui peut entraîner des infractions aux lois sur
les marchés financiers.
 Délit d'initié automatisé : Les systèmes d'IA peuvent analyser rapidement des
données financières et des tendances du marché pour identifier des
opportunités d'initiés, ce qui peut donner lieu à des délits d'initiés.

Protection des Données à Caractère Personnel :153

 Violation de données automatisée : Les robots peuvent être utilisés pour


accéder à des bases de données contenant des informations personnelles et
provoquer des violations massives de données.
 Collecte illicite de données : Les systèmes d'IA peuvent collecter des données
personnelles sans le consentement approprié, ce qui enfreint les lois sur la
protection des données.

153
Dahir n° 1-09-15 du 22 safar 1430 (18 février 2009) portant promulgation de la loi n° 09-08
relative à la protection des personnes physiques à l’égard du traitement des données à caractère
personnel.

114
L’intelligence artificielle et son influence sur le droit des affaires

 Filtration de données personnelles : Les robots d'IA peuvent être utilisés pour
filtrer des informations personnelles à partir de sources publiques ou privées
sans autorisation, ce qui constitue une violation des lois sur la protection des
données.

La deuxième catégorie :

La deuxième catégorie de crimes liés à l'IA concerne la cyber-sécurité des


entreprises. Avec l'automatisation et l'intelligence artificielle, les entreprises sont de
plus en plus vulnérables à des attaques sophistiquées et à la violation de leurs
données sensibles. Les systèmes IA peuvent être utilisés pour perpétrer les crimes
suivants :

 Cyberattaques complexes : Les criminels peuvent exploiter des systèmes IA


pour mener des cyberattaques sophistiquées, telles que des attaques par déni
de service distribué (DDoS), des attaques de phishing améliorées par l'IA et
des intrusions dans les réseaux d'entreprise.
 Vol de données : L'IA peut être employée pour extraire de grandes quantités
de données sensibles d'une entreprise, telles que des informations financières,
des données personnelles et des secrets commerciaux, dans le but de les
exploiter, de les vendre ou de les divulguer.
 Ransomware intelligent : Des programmes malveillants alimentés par l'IA
peuvent être utilisés pour chiffrer les données d'une entreprise et exiger une
rançon en échange de leur déverrouillage, ce qui peut avoir des conséquences
financières graves.

En sus , il existent des crimes liées aux transgressions des algorithmes des réseaux
sociaux. C’est l’idée par laquelle on présume « qu’il n'y a pas de service sans
contrepartie »,154 c'est le cas de Facebook, où la collecte de données ne se limite pas
aux cookies pris par le navigateur de l'utilisateur. En effet, Facebook va jusqu'à
filtrer complètement les conversations vocales et les chats textuels de l'utilisateur
pour trouver des mots clés correspondant à ses intérêts, afin de les utiliser à des fins
publicitaires voire d'autres fins inconnues. Ces derniers temps , beaucoup ont

154
Op,cit, Dahshan, Yahya Ibrahim (2020 Article 2. Page 23.

115
L’intelligence artificielle et son influence sur le droit des affaires

remarqué que dès qu'ils discutent d'une certaine marque ou d'une envie spécifique,
des publicités de cette marque ou de ce produit apparaissent sur Facebook. Toutes
ces pratiques constituent des violations de la vie privée de l'utilisateur et peuvent
être considérées comme des crimes. Récemment, quelques chercheurs ont découvert
que Facebook enregistre les appels et les messages texte sur les téléphones des
utilisateurs, une révélation que ladite entreprise a tenté de nier en prétendant que
l'enregistrement des appels était une fonctionnalité disponible uniquement pour les
utilisateurs de Facebook Lite et Messenger sur les téléphones Android, et qu'il
pouvait être désactivé. Et non sur les téléphones iOs. 155

La troisième catégorie :

La troisième catégorie de crimes liés à l'IA concerne le droit pénal des affaires. Les
systèmes d'intelligence artificielle peuvent être utilisés de manière abusive ou
frauduleuse dans le contexte commercial et financier, ce qui peut entraîner diverses
infractions. Voici quelques exemples de ces crimes :

 Fraude financière automatisée : Les entreprises ou les individus malveillants


peuvent utiliser l'IA pour manipuler des données financières, créer de faux
rapports, ouvrir des comptes fictifs, ou même effectuer des transactions
financières frauduleuses, entraînant ainsi des pertes financières pour d'autres
parties prenantes.
 Blanchiment d'argent automatisé : L'IA peut être utilisée pour dissimuler
l'origine illicite de fonds en automatisant le processus de blanchiment
d'argent, en rendant difficile la détection des activités criminelles.
 Manipulation du marché automatisée : Les traders ou les entités financières
peuvent exploiter l'IA pour exécuter des opérations de manipulation du
marché, telles que la création de faux ordres d'achat ou de vente, afin
d'influencer artificiellement les prix des actifs financiers.
 Concurrence déloyale : L'utilisation de l'IA pour collecter et analyser de
manière abusive des informations sur les concurrents ou pour diffuser de
fausses informations peut constituer une infraction liée à la concurrence
déloyale.

155
Ibid , Dahshan, Yahya Ibrahim (2020 Article 2. Page 23.

116
L’intelligence artificielle et son influence sur le droit des affaires

Ces crimes peuvent avoir des répercussions graves sur le monde des affaires,
perturbant la confiance du marché, entraînant des pertes financières et nuisant à la
réputation des entreprises. Les autorités de régulation et les organismes de lutte
contre la criminalité financière doivent être vigilants face à ces nouvelles menaces
émanant de l'IA.

En concluant ce paragraphe , L'IA a tout à fait révolutionné notre façon de vivre et


de faire des affaires, mais avec cette avancée technologique sont apparues de
nouvelles catégories de crimes. Dans le premier paragraphe de notre analyse nous
avons exploré la typologie de ces crimes, notamment dans le domaine fiscal, de la
protection des données et du droit des affaires. Cependant, il est tout aussi important
de se pencher sur les sanctions qui peuvent être appliquées en cas d'infraction
commise par une machine IA, ainsi que sur les considérations éthiques entourant ces
questions.

Dans ce deuxième paragraphe de la section, nous examinerons les diverses sanctions


que les systèmes juridiques peuvent envisager pour répondre à ces infractions
perpétrées par des robots ou des machines IA. Nous aborderons également les défis
éthiques qui se posent, tels que la responsabilité des concepteurs, les droits de l'IA,
et les implications plus larges pour la société. En fin de compte, cette discussion vise
à mettre en lumière les complexités juridiques et éthiques qui émergent à mesure que
l'IA devient une partie intégrante de notre monde.

Paragraphe 2 : Anticipation des sanctions pour les Systèmes d'IA : Vers une Meilleure
Visibilité Future: 156

Le 3ème article du code pénal157 énonce un principe fondamental du droit pénal :


nul ne peut être condamné pour un acte qui n'est pas expressément qualifié
d'infraction par la loi, ni être soumis à des peines qui n'ont pas été prévues par la
loi. Cela garantit que la responsabilité pénale est clairement définie et que personne
ne peut être puni de manière arbitraire. Cependant, à mesure que la technologie
évolue, notamment avec l'avènement de l'intelligence artificielle, il peut y avoir un
vide juridique concernant la responsabilité pénale de l'IA, car il n'existe pas encore

156
‫دة حليمة لمغازي دة لطيفة القاضي د هشام لمراكشي‬-‫مؤلف جماعي‬-‫القانون المجتمع و الرقمنة التأثر والتأثير‬
‫ مختبر االبحاث والدراسات في العلوم القانونية و السياسسة و االجتماعية‬Page 102- 2023
157
DAHIR N° 1-59-413 DU 28 JOUMADA II 1382 (26NOVEMBRE 1962) PORTANT APPROBATION DU TEXTE DU
CODE PENAL.

117
L’intelligence artificielle et son influence sur le droit des affaires

de textes spécifiques pour la sanctionner. Bien que cette inapplicabilité actuelle


puisse poser des défis, il est envisageable que des propositions futures élaborent des
règles spécifiques pour l'IA, en veillant à ce que toute législation à venir respecte les
principes fondamentaux du droit pénal, tels que celui énoncé à l'article 3, assurant
ainsi la clarté et l'équité dans la responsabilité pénale de l'IA.

En sus , la question de l'inapplicabilité du code pénal aux machines (IA) se pose, car
ces machines sont considérées comme des objets et non des individus, ce qui
soulève des défis juridiques importants. A cet , plusieurs problématiques se posent :

 Comment devrait-on traiter la responsabilité pénale des systèmes d'IA, étant


donné qu'ils ne sont pas des individus conscients et que les actes
répréhensibles peuvent résulter de décisions autonomes de l'IA ?
 Faut-il élaborer une législation spécifique pour l'IA afin de combler ce vide
juridique et d'établir des normes claires en matière de responsabilité pénale
?
 Comment garantir que toute législation future respecte les droits
fondamentaux et les principes du droit pénal, en particulier le principe
énoncé à l'article 3 du code pénal ?158
 La qualification de l'IA en tant qu'"objet" pose-t-elle des problèmes
particuliers en matière de responsabilité pénale, étant donné sa capacité à
prendre des décisions autonomes et à influencer le monde réel ?
 Comment le droit peut-il évoluer pour rester adapté à l'évolution rapide de
la technologie de l'IA tout en maintenant l'intégrité et l'équité du système
de justice pénale ?

Pour y répondre , il faut tout d’abord mettre le point sur les défis que posent les
différences entre la loi pénale et l’inapplicabilité de cette dernière sur un système IA
, nous avons tout en premier :

1. Conflit entre la Responsabilité Pénale des Robots et la Philosophie


Traditionnelle du Droit Pénal :

L'attribution de responsabilité pénale aux robots crée un conflit avec la philosophie


traditionnelle de la peine pénale. Dans le droit pénal, il est généralement supposé

158
Article 3 : Nul ne peut être condamné pour un fait qui n'est pas expressément prévu comme infraction par la
loi, ni puni de peines que la loi n'a pas édictées.

118
L’intelligence artificielle et son influence sur le droit des affaires

que la peine touche directement et personnellement l'auteur du délit, que ce soit dans
son corps, sa liberté, son patrimoine, son honneur ou sa considération. Par
conséquent, l'application de sanctions aux robots, en tant qu'entités non vivantes
incapables de ressentir ou de souffrir, pose un défi à ce concept traditionnel de la
peine pénale.159

De plus, il est largement admis que l'imposition de sanctions aux robots ne réalise
pas efficacement les objectifs principaux du droit pénal. L'application de sanctions à
des entités dépourvues de conscience ou de capacité à influencer leur propre
comportement est considérée comme inefficace en termes de dissuasion générale et
de réadaptation individuelle. L'objectif principal du droit pénal est de réformer et de
réhabiliter la personne condamnée, afin de la réintégrer efficacement dans la société.
Cet objectif est difficile à atteindre dans le cas des robots, car ils ne peuvent pas être
réhabilités de la même manière que les individus.

Par conséquent, l'attribution de responsabilité pénale aux robots entre en conflit avec
les principes traditionnels de la peine pénale et manque d'efficacité dans la
réalisation des objectifs du droit pénal. Aborder ce défi nécessite une réflexion
approfondie sur la manière d'adapter le système juridique pour faire face aux
évolutions technologiques et aux questions éthiques liées à l'intelligence artificielle.

2. Impossibilité d'Appliquer les Sanctions Pénales Traditionnelles sur les


Robots :

Le système de sanctions pénales traditionnelles est impraticable pour les robots. 160
En réalité, l'application de n'importe quelle peine pénale conventionnelle sur un
robot semble irréalisable, que ce soit une peine corporelle telle que la peine de mort,
une privation de liberté comme l'emprisonnement, une amende ou une confiscation,
ou même une sanction touchant à la réputation ou à l'estime. Ce qui est dit à propos
de la mise à l'arrêt ou de l'interdiction d'activité, ainsi que de l'imposition d'amendes,
ces sanctions sont essentiellement dirigées vers le propriétaire ou l'utilisateur du

159
ADOU K. M., Robotum criminalis : Analyse prospective de l’application des concepts de droit pénal
aux robots intelligents, Editions JFD, 2020 page 93.
160
‫دة حليمة لمغازي دة لطيفة القاضي د هشام لمراكشي‬-‫مؤلف جماعي‬-‫القانون المجتمع و الرقمنة التأثر والتأثير‬
‫مختبر االبحاث والدراسات في العلوم القانونية و السياسسة و االجتماعية‬Page 101- 2023

119
L’intelligence artificielle et son influence sur le droit des affaires

robot. Même avec les évolutions récentes du système de sanctions, qui tendent à
réhabiliter le condamné et à le réintégrer dans la société, ces sanctions demeurent
inadéquates pour les robots.

En d'autres termes, il est pratiquement impossible d'appliquer les sanctions pénales


traditionnelles aux robots. Ces sanctions ont été conçues pour des êtres humains, et
elles ne s'appliquent pas de manière adéquate aux entités artificielles telles que les
robots, car ils n'ont pas de corps, de liberté, d'argent, de réputation ou de conscience.
Même les sanctions modernes axées sur la réhabilitation des délinquants ne sont pas
appropriées pour les robots, car ils ne peuvent pas être réhabilités de la même
manière que les individus.

Compte tenu des défis posés par l'application des sanctions pénales aux robots et à
l'intelligence artificielle, il est essentiel que la législation marocaine, comme celle
d'autres pays, prenne en considération ces nouveaux enjeux. Il serait nécessaire
d'envisager une révision législative ou la création de lois spécifiques pour
réglementer la responsabilité pénale des robots et de l'IA. Cela permettrait de
combler le vide juridique actuel et de garantir que les sanctions appropriées sont
appliquées en cas de comportement répréhensible de la part de ces entités
artificielles. Ce processus législatif devrait être guidé par des principes
fondamentaux du droit pénal, tels que la clarté, l'équité et la proportionnalité des
sanctions, tout en tenant compte des spécificités de l'IA.

En réalité, les crimes commis par un robot sont imputables à l'entité qui contrôle et
utilise ce robot. Le robot en lui-même n'est qu'un outil, une technologie, et il ne
possède pas la capacité d'agir de manière autonome et intentionnelle. Ainsi, les
crimes commis par un robot sont en réalité perpétrés par l'individu ou l'entité qui
exerce un contrôle sur ce robot et qui l'utilise pour réaliser des actions illégales. Le
robot n'est qu'un instrument entre les mains de cet acteur moral, qui devient le
véritable auteur de la criminalité commise par le biais du robot. Cette notion est
essentielle pour établir la responsabilité pénale dans les affaires impliquant des
robots, car elle identifie clairement l'individu ou l'entité qui doit répondre de ces
actes criminels.

120
L’intelligence artificielle et son influence sur le droit des affaires

 Résolution du dilemme de l'absence de textes de loi régissant les crimes


liés à l'intelligence artificielle , comment y faire ? 161

Dans cette même trajectoire, les chercheurs en droit pénal sont confrontés à un défi
majeur en raison de l'absence de textes de loi spécifiques régissant les crimes liés
aux technologies de (IA). Cela contraint les chercheurs à explorer les lois pénales
existantes et à tenter de les appliquer de manière adaptée à ces crimes complexes.
Cependant, cette approche ne résout pas entièrement les problèmes juridiques liés à
l'application des lois existantes aux crimes liés à l'IA.

Dans ce contexte, des solutions juridiques peuvent être explorées à travers deux
approches distinctes :

1. Première approche : Interprétation des textes existants - Les chercheurs


peuvent étudier les lois pénales existantes et essayer de les interpréter de
manière à les appliquer aux crimes résultant des technologies de l'IA de
manière appropriée. Cette approche repose sur l'utilisation de principes
juridiques généraux pour atteindre l'équité et l'objectif premier du droit pénal.
2. Deuxième approche : Appel au législateur pour promulguer une nouvelle
législation - Plutôt que de traiter avec les lois existantes, les chercheurs
peuvent plaider en faveur de l'élaboration de nouvelles lois spécifiques
régissant ces crimes de manière précise. Cela nécessite de proposer des
législations qui reflètent la nature des nouvelles technologies et les défis qui y
sont associés de manière exhaustive. Cette approche repose sur la nécessité de
mettre à jour les lois pour les adapter aux avancées technologiques modernes
et garantir l'application équitable et efficace des sanctions.

Le premier volet : L'examen des textes juridiques existants pour l'application


des lois liées aux crimes d'IA.

Bien que le problème de la responsabilité pénale découlant des crimes liés aux
technologies de l'intelligence artificielle trouve son origine dans l'absence de textes
de loi spécifiques, il est complexe en raison de la multiplicité des parties pouvant
être impliquées dans un crime, telles que les concepteurs, les utilisateurs ou même

161
Op,cit , ADOU K. M.

121
L’intelligence artificielle et son influence sur le droit des affaires

l'IA elle-même. Par conséquent, les lois existantes peuvent ne pas être entièrement
adaptées à ces types de crimes.

L'idée de la responsabilité morale, parfois désignée comme une entité morale, peut
être explorée lors de la réflexion sur les crimes liés à l'IA. Dans cette perspective, le
concept de "l'auteur moral" est envisagé. Cette approche repose sur l'idée que les
crimes d'IA sont commis par une entité morale, que ce soit le concepteur, le
programmeur, l'utilisateur ou l'IA elle-même.

Le deuxième volet : L'impossibilité d'appliquer les sanctions pénales


traditionnelles aux IA :

En réalité, l'application de sanctions pénales traditionnelles à l'encontre des


intelligences artificielles s'avère être une tâche difficile, voire impossible. Les
sanctions traditionnelles, telles que la peine de mort, la privation de liberté, les
amendes ou la confiscation, sont conçues pour s'appliquer aux individus humains.
Elles reposent sur l'idée que le coupable ressentira la douleur ou subira des
conséquences en raison de sa sanction.

Cependant, les IA n'ont pas de conscience, de sensations ou de subjectivité. Par


conséquent, elles ne peuvent ni ressentir la douleur ni comprendre la nature de la
sanction qui leur est infligée. Les sanctions traditionnelles ne sont donc pas
appropriées pour ces derniers.

Même avec l'évolution récente du droit pénal, qui vise à réhabiliter et réintégrer les
délinquants dans la société, ces sanctions restent inapplicables aux IA. La
réhabilitation, par exemple, repose sur la capacité du délinquant à comprendre et à se
réformer, ce qui est impossible pour une IA.

En fin de compte, l'application de sanctions traditionnelles aux IA n'est pas


pertinente ni efficace. Au lieu de cela, il est nécessaire de développer de nouvelles
approches juridiques et éthiques pour traiter les problèmes posés par les IA, en
tenant compte de leur nature unique en tant qu'entités non humaines. Toutefois , La
confiscation d'un objet IA en tant que mesure de sanction est-elle une approche
logique ?162

162
L'article 36 du Code Pénal fait référence à la confiscation en tant que peine accessoire, tandis que l'article 42 définit la
confiscation comme le transfert à l'État d'une partie ou de biens spécifiquement désignés appartenant au condamné.

122
L’intelligence artificielle et son influence sur le droit des affaires

La réponse est plus au moins affirmative , en tant que mesure de sanction cette
dernière est logique comme elle peut être expliquée de la manière suivante :

 Dissuasion : La confiscation d'un objet IA peut servir de moyen de dissuasion


contre la commission de crimes par le biais de cet objet. En retirant l'IA à
l'auteur de la criminalité, on réduit la possibilité future de perpétrer des actes
répréhensibles par le biais de cette technologie.
 Protection des victimes : Dans les cas où l'IA a été utilisée pour commettre
des crimes, la confiscation de cette IA peut être considérée comme une
mesure de protection des victimes potentielles. Cela permet d'empêcher
l'utilisation future de l'IA à des fins criminelles.
 Responsabilité et justice : La confiscation d'un objet IA peut être considérée
comme une forme de responsabilité pour l'auteur de la criminalité. Cela
envoie un message selon lequel l'utilisation abusive de la technologie IA
entraîne des conséquences, renforçant ainsi le principe de justice.

Cependant, il convient de noter que la confiscation d'objets IA soulève également


des questions juridiques complexes, notamment en ce qui concerne la propriété de
ces objets, leur valeur, et la manière dont ils sont utilisés dans le cadre d'une enquête
criminelle. Par conséquent, bien que la confiscation puisse être logique en principe,
sa mise en œuvre pratique nécessite une réflexion approfondie et des garanties
juridiques appropriées.

En effet , l'Article 89 du Code pénal163 énonce que la confiscation des objets et


biens peut être ordonnée en tant que mesure de sûreté, même si ces objets
appartiennent à un tiers et même en l'absence de condamnation. Cela signifie que,
conformément à cette disposition légale, les biens liés à une infraction peuvent être
confisqués sans que cela dépende nécessairement d'une condamnation préalable.

En ce qui concerne les objets IA, cela pourrait signifier que s'ils ont été utilisés pour
commettre une infraction ou sont en lien avec une infraction, ils peuvent être saisis
par les autorités compétentes, même si le propriétaire de l'IA n'a pas été condamné.

D'autres articles précisent les infractions spécifiques et les types de confiscation associés à chacune d'entre elles. En
somme, la confiscation est abordée dans ces articles sous différents angles, détaillant les circonstances dans lesquelles elle
peut être appliquée et les biens auxquels elle peut s'appliquer, en fonction de la nature de l'infraction.
163
DAHIR N° 1-59-413 DU 28 JOUMADA II 1382 (26NOVEMBRE 1962) PORTANT APPROBATION DU TEXTE DU
CODE PENAL

123
L’intelligence artificielle et son influence sur le droit des affaires

Cette disposition vise à renforcer les mesures de sécurité et à prévenir toute


utilisation future abusive de ces objets.

Ainsi l'article 87 du même code164 déjà précité peut-il être appliqué en tant que
sanction d'interdiction d'exercice dans le contexte des infractions liées à
l'intelligence artificielle ?

L'Article 87 du code pénal, qui autorise l'interdiction d'exercer une profession,


activité ou art en cas de condamnation pour crime ou délit, peut avoir des
implications intéressantes en ce qui concerne l'intelligence artificielle. Dans le
contexte de l'IA, cela pourrait signifier qu'en cas d'utilisation abusive ou criminelle
d'un système d'IA, la personne ou l'entité responsable de cette utilisation pourrait se
voir interdire l'accès et l'utilisation de l'IA pour une période spécifique,
conformément à la loi.

Par exemple, si une entreprise utilise un système d'IA pour commettre des fraudes
fiscales ou des activités criminelles, une mesure de sûreté telle que l'interdiction
d'utiliser des systèmes d'IA pendant une certaine période pourrait être imposée. Cela
empêcherait l'entreprise de continuer à exploiter l'IA de manière nuisible pour la
société.

Il est important de noter que cette mesure serait prise dans le but de protéger l'intérêt
public et de prévenir de futures infractions liées à l'IA. Cela montre comment le
droit pénal existant peut être adapté pour traiter les nouvelles technologies, comme
l'IA, afin de garantir la sécurité, la santé, la moralité et l'épargne publiques.

Dans ces circonstances, les règles éthiques jouent un rôle crucial pour réglementer
les systèmes d'intelligence artificielle.

Paragraphe 3 : L'IA et les règles d'éthique :

Comment peut-on établir des liens entre les technologies numériques avancées, y
compris l'IA, et les conceptions actuelles de la responsabilité ? Qui doit assumer la
responsabilité des effets négatifs et des risques liés au développement et à
l'application de ces technologies, y compris les violations des droits de l'homme et
d'autres préjudices causés par leur fonctionnement ? Bien que la question puisse être

164
Ibid.

124
L’intelligence artificielle et son influence sur le droit des affaires

posée relativement facilement, y répondre comporte d'importantes difficultés


conceptuelles. Comme l'a souligné le Groupe européen d'éthique, les technologies
d'IA soulèvent;

[…] des questions de responsabilité morale de l’homme. Où se situe l’entité moralement


pertinente dans les systèmes sociotechniques dynamiques et complexes de l’IA et des
composants robotiques avancés ? Comment attribuer et répartir la responsabilité morale, et
qui est responsable (et en quels termes) en cas de résultats indésirables ?

En d’autres termes , la complexité des technologies elles-mêmes et des contextes


dans lesquels elles sont déployées peut rendre floue la question de la responsabilité
morale, en particulier lorsque leur fonctionnement inattendu entraîne des dommages
ou des violations des droits. Toutefois, il est important de rappeler que la
responsabilité morale et la responsabilité juridique, bien qu'interconnectées, sont des
concepts distincts.

Contrairement à la morale, le système juridique repose sur un ensemble de règles


élaborées pour formaliser et faire respecter les responsabilités, y compris en
appliquant des sanctions lorsque cela s'avère nécessaire. Il sert à résoudre des litiges
dans le monde réel, nécessitant des jugements définitifs et une stabilité juridique.
Aucune société ne peut reposer uniquement sur la bonne volonté individuelle.
L'absence de mécanismes institutionnels pour faire respecter les normes éthiques, y
compris par des sanctions légitimes en cas de violations, ne permettrait pas la
coopération pacifique nécessaire au sein des sociétés contemporaines.

Éthique et Droit : Entre Proximité et Distance dans la Régulation de l'Intelligence


Artificielle :

D’ailleurs , les relations entre l'éthique et le droit se dessinent dans une ambivalence
complexe, oscillant entre proximité et éloignement, accentuée par la difficulté à
définir clairement la notion d'éthique.165

Éthique : Idéaux et Principes Moraux en Action

165
Lêmy Godefroy, Maître de conférences HDR GREDEG UMR 7321 , Éthique et droit de l'intelligence
artificielle Osmose ou symbiose ? - Université Côte d'Azur. Recueil Dalloz 2020 p.231

125
L’intelligence artificielle et son influence sur le droit des affaires

L'éthique se trouve au carrefour des idéaux qui confèrent un sens à la vie et des
règles que l'on ressent le devoir de respecter. Elle explore la sphère des valeurs et
des principes moraux, englobant des questions philosophiques fondamentales telles
que la nature d'une action vertueuse, la valeur de la vie humaine, la justice, et la
définition d'une vie bonne. Cette discipline, souvent liée à la philosophie, soulève
des débats où les termes "morale" et "éthique" sont utilisés de manière
interchangeable, chacun renvoyant à des aspects concrets et évaluatifs des
comportements humains.

L'éthique et le Droit : Un Renfort et un Compagnon Interdisciplinaire

Envers le droit, l'éthique apparaît comme un renfort, apportant une légitimation


morale et agissant comme un moyen en attente de réponses. Cette interdisciplinarité
s'avère cruciale dans la régulation de l'intelligence artificielle, une innovation
technologique disruptive. Elle alimente la réflexion sur le cadre juridique en offrant
une perspective holistique sur ses enjeux.

Chartes Éthiques et Rôle Fondamental

Dans le contexte actuel, où de nombreuses chartes éthiques liées à l'intelligence


artificielle sont en développement, en élaboration ou déjà adoptées, se pose la
question du rôle respectif de l'éthique et du droit dans cette régulation.

Synergie Régulatoire : Une Intrication Nécessaire

L'idée d'une "synergie régulatoire" entre l'éthique et le droit émerge, soulignant la


complexité de la régulation de l'intelligence artificielle. Le flou entourant ses
impacts favorise une intrication où l'éthique offre une zone de quasi-droit flexible et
mobile, tandis que le droit donne corps aux aspirations éthiques par sa force
contraignante.

Éthique et Droit : Coauteurs dans une Osmose Complexifiée (I)

Éthique et droit agissent en coauteurs dans la régulation de l'intelligence artificielle,


échangeant des éléments entre eux. Les droits fondamentaux évoluent du droit vers

126
L’intelligence artificielle et son influence sur le droit des affaires

l'éthique, tandis que la transparence, l'équité et l'autonomie humaine circulent de


l'éthique vers le droit. Cette collaboration semble s'opérer en osmose.

En Symbiose ou Non ? (II)

Cependant, la question demeure : cette collaboration est-elle une véritable symbiose,


où éthique et droit se fondent harmonieusement, ou persiste-t-il des nuances et des
défis dans leur coexistence ?166

I - Osmose: Flux Bidirectionnel Entre Éthique et Droit dans la Régulation de


l'Intelligence Artificielle

La dynamique régulatoire entre l'éthique et le droit se manifeste à travers un flux


bidirectionnel : du droit vers l'éthique (A) et de l'éthique vers le droit (B).

A - Du Droit vers l'Éthique

Le cadre juridique actuel de l'intelligence artificielle s'appuie sur des textes


européens et internationaux relatifs aux droits fondamentaux, ancrés dans le respect
de la dignité humaine. Ces droits, définis dans la charte de l'Union, englobent la
dignité, les libertés, l'égalité, la solidarité, les droits des citoyens et la justice. Le
droit trace la voie éthique en abordant des questions telles que la prise de décision
automatisée, réglementée par la loi pour une République numérique, ou la protection
des données selon le Règlement général sur la protection des données (RGPD).

La démarche éthique propose des objectifs idéaux, émergents de la réflexion des


parties prenantes sur les principes vertueux à protéger dans l'intelligence artificielle.
Des exemples concrets incluent la déclaration de Montréal, énonçant dix principes
orientant le développement éthique de l'intelligence artificielle. Ces principes, tels
que le bien-être, la solidarité, et la responsabilité, s'inscrivent dans le cadre des droits
humains internationalement reconnus.

B - De l'Éthique vers le Droit

L'éthique, parfois imprégnée de valeurs contradictoires, peut nécessiter l'intervention


du droit en tant qu'arbitre. Par exemple, les objectifs éthiques tels que la prévention
des atteintes et le respect de l'autonomie humaine peuvent entrer en conflit dans des

166
Op,cit , Lêmy Godefroy.

127
L’intelligence artificielle et son influence sur le droit des affaires

domaines tels que la "police prédictive". Le droit agit comme un modérateur,


instaurant des processus d'autorisation et des mesures de protection des libertés
individuelles.167

Les idéaux éthiques, bien que non contraignants par nature, peuvent influencer le
droit une fois réceptionnés et institutionnalisés. Cependant, seules les valeurs
praticables actuellement dans le contexte technologique de l'intelligence artificielle
accèdent à la consécration du droit.

Le dialogue entre normativités juridique et technique, souvent opposées, se révèle


crucial. Par exemple, l'intelligibilité d'une décision algorithmique, bien que
techniquement réalisable, peut être exigée juridiquement. Ce lien entre éthique et
droit s'observe également dans certaines obligations juridiques reflétant des
principes éthiques.168

Malgré des croisements ponctuels, l'éthique et le droit restent distincts, séparés par
une membrane semi-perméable sélective, conservant leur irréductibilité mutuelle.

II - Symbiose ?

L'éthique et le droit se caractérisent par leurs finalités distinctes : le droit façonne les
moyens contraignants pour atteindre les objectifs éthiques, tandis que l'éthique
nourrit la confiance dans l'intelligence artificielle. Ils entretiennent un rapport
d'altérité, parfois source d'incompréhensions. 169

A - Altérité

La confiance dans l'intelligence artificielle est cruciale pour son acceptation par la
société civile. L'éthique joue un rôle majeur en favorisant cette confiance, posant les
bases de la confiance sociale envers les systèmes artificiellement intelligents. Les
parties prenantes, dont les citoyens, acteurs économiques, développeurs, et
institutions publiques, participent activement à la construction de cette éthique. Des
mesures concrètes, telles que la privacy by design et des tests de détection de biais,
sont attendues pour rendre ces principes éthiques tangibles.

167
Op,cit, Lêmy Godefroy.
168
Op,cit , Lêmy Godefroy, p.231

169
Ibid.

128
L’intelligence artificielle et son influence sur le droit des affaires

La confiance dépend également de la connaissance des mécanismes et des enjeux de


l'intelligence artificielle. Des audits de conformité éthique, réalisés par des
organisations habilitées et impliquant toutes les parties prenantes, pourraient certifier
qu'une intelligence artificielle est "digne de confiance." Les normes techniques
issues de ces audits matérialiseraient les enjeux éthiques de l'intelligence artificielle.

B - Incompréhensions

Cependant, des incompréhensions peuvent surgir entre l'éthique et le droit. Des


tensions peuvent émerger, notamment dans des domaines tels que la transparence
des algorithmes, qui peut entrer en conflit avec la protection du secret des affaires.
Les questions de responsabilité soulignent également des différences entre
l'imputation éthique et juridique d'un dommage. L'éthique peut écarter des actes
selon le principe, tandis que le droit rattache ces actes à un agent en fonction de la
négligence ou des charges.

En conclusion, l'éthique et le droit ne sont pas en symbiose mais sont interconnectés


et interdépendants dans la régulation de l'intelligence artificielle. La complexité de
cette régulation nécessite une approche interdisciplinaire pour traiter les
problématiques sous une perspective partagée, mettant en avant la nécessité d'une
mainmise de la société sur les algorithmes.

Afin d’éviter tous ces incompréhensions , une mise en place d’un régime
d’assurance est sine qua non.

Mise en place d'un Régime d'Assurance Obligatoire pour les Technologies


Numériques Avancées :

Au lieu de chercher à attribuer la responsabilité à des acteurs spécifiques contribuant


aux dommages causés par les technologies numériques avancées, une alternative
serait de privilégier la compensation financière des personnes lésées. Cette approche
consisterait à établir un régime d'assurance obligatoire, basé sur le principe "même
en l'absence de faute", avec la création d'une caisse d'assurance accessible à toutes
les victimes de ces technologies.

Le financement de ce régime pourrait être assuré de différentes manières,


notamment par des contributions de l'industrie technologique, et les demandes
d'indemnisation pourraient être gérées par une autorité indépendante ou publique.

129
L’intelligence artificielle et son influence sur le droit des affaires

Une autre option serait d'imposer aux entreprises intervenant dans la chaîne de
valeur concernée de souscrire une assurance responsabilité civile.

L'avantage de cette approche réside dans le fait qu'elle permet aux individus affectés
par les technologies de demander une indemnisation même lorsque l'identification
précise des entreprises responsables des dommages s'avère difficile, ou lorsque ces
entreprises ne sont plus en mesure de couvrir les coûts liés à l'indemnisation.

À mesure que nous dépendons de plus en plus de systèmes intelligents autonomes,


qui continuent de fonctionner bien après la disparition de leurs créateurs ou des
entreprises qui les ont développés, il est possible que nos sociétés envisagent de
mettre en place des institutions durables, telles qu'un régime d'assurance collectif.
Cette solution pourrait permettre de garantir que les victimes ne restent pas sans
indemnisation lorsque la responsabilité devient floue ou lorsque les entreprises ne
sont plus solvables.

Dans ce contexte, certaines propositions suggèrent même d'accorder un statut


juridique aux machines intelligentes afin de faciliter le processus d'indemnisation
des victimes.

Un exemple dans le domaine du droit du travail lié à l'intelligence artificielle :

Imaginons une entreprise qui utilise des robots dotés d'IA avancée pour automatiser
une grande partie de sa production. Au fur et à mesure que ces robots deviennent
plus sophistiqués, l'entreprise constate qu'elle peut remplacer un certain nombre de
ses employés par ces machines, réduisant ainsi ses coûts de main-d'œuvre.

Cela soulève des questions de responsabilité en cas de licenciement massif. Les


employés licenciés pourraient estimer que leur perte d'emploi est due à
l'automatisation par l'IA, ce qui pourrait les amener à intenter des actions en justice
pour obtenir des indemnités ou des recours.

Dans ce cas, la question de la responsabilité se pose. Est-ce que l'entreprise est


responsable de ces licenciements, ou est-ce que la responsabilité incombe à la
technologie d'IA elle-même ? Les employés pourraient avoir du mal à prouver la
responsabilité de l'entreprise ou de l'IA de manière individuelle.

Une approche pourrait consister à mettre en place un régime d'assurance du travail


obligatoire, où les entreprises utilisant l'automatisation de l'IA paieraient des primes
130
L’intelligence artificielle et son influence sur le droit des affaires

d'assurance pour couvrir d'éventuels licenciements massifs. Cela garantirait une


certaine sécurité financière pour les employés licenciés tout en évitant des litiges
coûteux pour déterminer la responsabilité individuelle.

Ainsi, le droit du travail pourrait évoluer pour prendre en compte les spécificités de
l'IA et garantir la protection des droits des travailleurs dans un environnement de
plus en plus automatisé.
Pour conclure cette deuxième partie, il semble assez loin que le Maroc mette en
place une réglementation dans un futur proche pour encadrer et garantir une
utilisation saine de l'intelligence artificielle pour les utilisateurs, les détenteurs et les
tiers. Ceci en vue de la quasi-inexistence d’une robotisation dans un tel domaine.
Dans cette section, notre attention a été principalement axée sur la proposition de
nouvelles dispositions ou hypothèses qui pourraient contribuer à l'établissement de
nouvelles règles concernant la robotisation, en particulier l'IA.
Cependant, et à titre indicatif , dans un domaine spécifique celui des Forces Armées
Royales, le Maroc dispose d'une réglementation particulière concernant les drones,
170
qui sont des machines utilisant l'intelligence artificielle. Cette réglementation est
en conformité avec les normes et pratiques recommandées par l'OACI 171pour la
navigation aérienne, et peut s'appliquer aux opérations de drones dans certaines
situations. Ces derniers ont des limites d’utilisation voire des conditions spécifiques.

170
Magazine scientifique : l'espace marocain des forces armées royales air N°105. Inspection FRA.
171
l'OACI : Organisation de l'aviation civile internationale.
131
L’intelligence artificielle et son influence sur le droit des affaires

Conclusion
En guise de conclusion, la digitalisation, la numérisation, et la robotisation ont
métamorphosé notre monde, simplifiant les procédures et remodelant la manière
dont nous interagissons avec notre environnement. Cette révolution technologique a
transcédé les frontières de multiples secteurs, impactant profondément le tissu même
de la société. Le monde juridique, en particulier, n'a pas échappé à cette
transformation, se trouvant confronté à la présence omniprésente de l'intelligence
artificielle.

Au Maroc, malgré l'émergence fulgurante de l'IA dans notre quotidien, le législateur


n'a pas toujours répondu à cette évolution en élaborant des dispositions juridiques
spécifiques. Notre étude s'est attachée à identifier des fondements dans les articles
de base du code civil et pénal marocain, démontrant ainsi que les notions
fondamentales du droit peuvent être adaptées pour réguler les interactions
impliquant l'intelligence artificielle.

Prenons l'exemple éloquent des contrats intelligents, qui ont été scrutés à travers le
prisme du Dahir des obligations et contrats, ou encore des délits liés aux données à
caractère personnel explorés dans le cadre des lois pénales existantes. Ces analyses
détaillées nous ont permis de démontrer que les codes de base de la loi marocaine
peuvent constituer une assise solide pour une réglementation nouvelle et spécifique
concernant l'utilisation de l'intelligence artificielle et des robots.

Ainsi, notre travail de recherche a posé une question cruciale comme suivante : est-
ce que les dispositions juridiques de notre législation marocaine peuvent servir de
socle pour l'élaboration d'une législation novatrice encadrant les limites
d'utilisation de l'intelligence artificielle et des robots au Maroc ? Nous avons mis
en lumière les opportunités que cela offre pour combler le vide juridique actuel et
garantir une approche équilibrée et adaptée à la réalité numérique qui s'impose.
Notre contribution aspire à être le catalyseur d'un dialogue juridique constructif pour
l'élaboration d'une législation moderne et spécifique, permettant au Maroc de
naviguer avec assurance dans l'ère de l'intelligence artificielle, tout en préservant les
valeurs fondamentales et les droits de ses citoyens.

132
L’intelligence artificielle et son influence sur le droit des affaires

Le 23 octobre 2023, à Rabat, le Maroc et l'UNESCO ont conjointement initié une


réflexion nationale multipartite sur "L'utilisation et le développement d'une
intelligence artificielle responsable au Maroc".172 Cette démarche, inscrite dans leur
partenariat stratégique, vise à définir des orientations majeures pour une vision
nationale axée sur une utilisation responsable de l'IA. De ce fait , notre pays se
positionne ainsi en tant que précurseur dans l'exploitation du potentiel de l'IA pour
un développement durable et inclusif du pays. En déclarant son alignement effectif
sur la Recommandation de l'UNESCO, le Maroc bénéficie d'un soutien structurel du
Ministère de la Transition Numérique et de la Réforme de l'Administration pour la
mise en œuvre de cette recommandation et l'élaboration d'une vision nationale de
l'IA dans des cadres stratégiques. Le lancement de la réflexion nationale élargie,
intitulée "L'utilisation et le développement d'une IA responsable : Fédérer autour
d'une vision commune et inclusive", marque une étape importante dans cet
engagement. La discussion implique toutes les parties prenantes et s'articule autour
de la manière dont l'IA peut être exploitée au profit de la société et de l'humanité,
soulignant la responsabilité de tous dans son utilisation judicieuse en tant que
moteur de développement socio-économique.
Dans une perspective différente et sur la même trajectoire, les États-Unis ont
transcendé la simple idée de main-d'œuvre en adoptant la robotisation comme
concept central pour un progrès remarquablement prometteur, en date de 30 octobre
2023, le président Biden a signé un décret 173 présidentiel américain sur l’IA ,
promettant de réglementer son utilisation dans divers domaines, y compris le
système judiciaire. Le décret vise à promouvoir l'équité et les droits civils en
établissant des pratiques appropriées pour l'utilisation de l'IA dans la détermination
des peines, la libération conditionnelle, la probation, la mise en liberté provisoire, la
détention, l'évaluation des risques, la surveillance, la prévision de la criminalité et la
police prédictive, ainsi que l'analyse médico-légale. Malgré la reconnaissance des
biais potentiels des algorithmes, le texte autorise toujours l'utilisation de ces outils,
suscitant des questions sur leur impact potentiel, notamment dans la détermination
des peines des condamnés. Bien que l'IA soit déjà utilisée dans le système judiciaire

172
Le Maroc trace la voie d’un futur éthique en IA avec l'UNESCO | UNESCO Visité le 1 oct 2023.
173
FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence |
The White House Visité le 1 oct 2023.

133
L’intelligence artificielle et son influence sur le droit des affaires

américain, le décret ouvre la possibilité d'explorer des applications plus avancées,


telles que la prise de décision active concernant les peines.

134
L’intelligence artificielle et son influence sur le droit des affaires

BIBLIOGRAPHIE
Textes et lois législatifs marocains
Dahir des Obligations et Des Contrats

Dahir n° 1-09-15 du 22 safar 1430 (18 février 2009) portant promulgation de la loi
n° 09-08 relative à la protection des personnes physiques à l’égard du traitement des
données à caractère personnel.

DAHIR N° 1-59-413 DU 28 JOUMADA II 1382 (26NOVEMBRE 1962)


PORTANT APPROBATION DU TEXTE DU CODE PENAL.

Loi nº 34-05 promulguée par Dahir nº 1-05-192 du 14 février 2006, modifiant et


complétant la Loi nº 2-00 relative au droits d’auteur et droits voisins.

La LOI N° 17-97 RELATIVE À LA PROTECTION DE LA PROPRIÉTÉ


INDUSTRIELLE.

La Constitution 2011.

Textes et lois Français/Européens.


2015/2103(INL) Règles de droit civil sur la robotique , Résolution du Parlement
européen du 16 février 2017 contenant des recommandations à la Commission
concernant des règles de droit civil sur la robotique, Textes adoptés - Règles de droit
civil sur la robotique - Jeudi 16 février 2017 (europa.eu)

Règlement "SIS II", Règlement (CE) nº 1987/2006 du Parlement européen et du


Conseil du 20 décembre 2006 sur l’établissement, le fonctionnement et l’utilisation
du système d’information Schengen de deuxième génération (SIS II), JO L 381, 28
décembre 2006

Office européen des brevets - Droit national relatif à la CBE

Code Civil Français.

Jurisprudence
Cass. civ. 1, 19 juin 2013, n° 12-17.591.

135
L’intelligence artificielle et son influence sur le droit des affaires

CCass,15/05/1985,1165 Réf : 20121.

EXERGEN CORPORATION v. KAZ USA, INC. , No. 16-2315 (Fed. Cir. 2018) Extrait de
16-2315-2018-03-08.pdf (justia.com).
L'affaire Enfish v. Microsoft de 2016. 15-1778.Opinion.7-28-2016.1.PDF
(uscourts.gov)

McRO, Inc. v. Bandai Namco Games Am. Inc., 837 F.3d 1299, 1314 (Fed. Cir.
2016). Extrait de 19-1557-2020-05-20.pdf (justia.com)

1ère Civ. 19 juin 2013, n°12-17591. note A. LEPAGE JCP. G. n°36. 2013. 907.

Ouvrages en arabe
-‫كأ صأأأ الكزوب زمأأأ ن‬-‫أأأز‬ ‫كاأأأزكمأأأ الكزوب زمأأأ نك كزبة أأأا كزب‬،‫ك"زبنظ يأأألكزبة مأأألكباب زمأأأ نك‬،‫مأأأنمالكزبر أأأ يك‬
11‫صك‬،1972‫كبسنلك‬،2‫كط‬،‫ك لكذك كزب طبةلك‬،1‫"كجك‬.

‫كم سأأأ كزباسأأأ ديكزببطي أأألك‬-‫كمأأأعكز أأأطز كزبط بأأأهكصأأأ كزبكأأأطز ك‬-‫ك رزسأأألكم ر أأأل‬-‫زب أأأ الكاأأأزكمازذكأأألكزبأأأيك كزوصأأأطن ز‬
17‫صك‬،‫ك‬2022-2021‫ك‬،‫كذ مةلكسيطيكمح طك عك بطكهللاك ف س‬،‫بفضكزب ن ز نك‬.

‫زبب حأأأأعبدك بأأأأأطهللاكزح أأأأأطكمطأأأأأ كزبفاسأأأأأزكاكزب سأأأأأا بيلكزبءن ديأأأألكزبن جءأأأأألك أأأأأعكأ طأأأأأ كزبأأأأأيك كزوصأأأأأطن زاكزب ء أأأأألك‬
‫يلكمحر ل‬ ‫( زب ا يلك(مء لكم خصصلكازكزبطرزس نك زببحاثكزب ا يل)كمء لك‬ISSN: 2537 - 0758).

‫ك ةكح ي أأأألكب أأأأ زيك‬-‫كمابأأأمكذ أأأأ زك‬-‫يأأأألك‬ ‫مخ بأأأ كزو حأأأأ ثك زبطرز سأأأأ نكاأأأأزكزبة أأأا كزب ا يأأأألك كزبسي سسأأأألك كزوذ‬
‫ – ةكبطيفلكزب ضزك كهش كب زكشز‬2023.

Ouvrages en anglais
Ryan Abbott , The Reasonable Robot , introduction Artificial Intelligence and the
Law, Publisher: Cambridge University Press , Print publication year: 2020 Page 1-2.

Jan De Bruyne Cedric Vanleenhove (eds.) , Artificial Intelligence and the Law, First
published in hardcover in 2021, ISBN 978-1-83970-103-0 , Intersentia Ltd 8
Wellington Mews | Wellington Street Cambridge | CB1 1HW | United Kingdom
CHAPTER 13 A I IN BELGIAN CONTRACT LAW: DISRUPTIVE
CHALLENGE OR BUSINESS AS USUAL? Page 337.

G. COLE. « Tort liability for artificial intelligence and expert systems ».


Computer/Law Journal. vol.10, 1990, p.127; expliquant que « c’est un truisme que
de dire que les erreurs de programmation sont inévitables ».

136
L’intelligence artificielle et son influence sur le droit des affaires

Ouvrages en français
Adrien Bonnet , La responsabilité du fait de l’intelligence artificielle Réflexion sur
l’émergence d’un nouvel agent générateur de dommages Mémoire de recherche
Sous la direction de Monsieur le professeur NICOLAS MOLFESSIS Année 2014

ADOU K. M., Robotum criminalis : Analyse prospective de l’application des


concepts de droit pénal aux robots intelligents, Editions JFD, 2020

Boris Barraud. Les blockchains et le droit. Revue Lamy Droit de l’immatériel, 2018,
147.

F. LECOMTE. « Panorama des régimes d’(ir)responsabilité applicables à Google ».


RLDI. 2014

Hervé Jacquemin et Alexandre de Streel , L’intelligence artificielle et le droit.


Edition LARCIER .

Hélène Christodoulou. La responsabilité civile extracontractuelle à l’épreuve de


l’intelligence artificielle. Lexbase Droit privé, 2019, n° 807. ffhal-03349668

Lêmy Godefroy, Maître de conférences HDR GREDEG UMR 7321 , Éthique et


droit de l'intelligence artificielle Osmose ou symbiose ? - Université Côte d'Azur.
Recueil Dalloz 2020

Maria Ivone Godoy , La reconnaissance juridique des contrats intelligents face à la


réglementation globale des technologies , Faculté de Droit Mémoire présenté en vue
de l’obtention du grade de Maître en Droit (LLM), option Droit des technologies de
l’information Avril 2019 © GODOY, 2019

Moradinejad, R. (2019). Le contrat intelligent, nouveau vecteur de confiance dans


les relations contractuelles : réalité ou rêve ? Les Cahiers de droit, 60(3),
https://doi.org/10.7202/1064651ar

Mustapha Mekki , Blockchain : l’exemple des smart contracts Entre innovation et


précaution. Agrégé des Facultés de droit Professeur à l’Université Paris 13 Co-
directeur de l’IRD

137
L’intelligence artificielle et son influence sur le droit des affaires

Lêmy Godefroy, Maître de conférences HDR GREDEG UMR 7321 , Éthique et


droit de l'intelligence artificielle Osmose ou symbiose ? - Université Côte d'Azur.
Recueil Dalloz 2020.

Articles/Revues :
AKKOUR S. & al. (2023) «LA PROTECTION DES DONNÉES PERSONNELLES
FACE À L’INTELLIGENCE ARTIFICIELLE», Revue Internationale du Chercheur
«Volume 4 : Numéro 3».

Boris Barraud , Docteur en droit, chercheur au LID2MS (Laboratoire


interdisciplinaire de droit des médias et des mutations sociales, Université d’Aix-
Marseille), Le droit en datas : comment l’intelligence artificielle redessine le
monde juridique. Revue Lamy droit de l’immatériel , 2019.

CLARA WLOTYKAMIEN : « Chat GPT et la Propriété intellectuelle » CZ


FORMATIONS ,article extrait de Linkedin.

Dahshan, Yahya Ibrahim (2020) "Criminal Liability for Artificial Intelligence


Crimes," Journal Sharia and Law: Vol. 2020 : No. 82 , Article 2. available on
https://scholarworks.uaeu.ac.ae/sharia_and_law/vol2020/iss82/2

Georgie Courtois, Avocat Associé, De Gaulle Fleurance & Associés Jean-Sébastien


Mariez, Avocat Associé, De Gaulle Fleurance & Associés Jeanne Roussel, Avocate,
De Gaulle Fleurance & Associés : Intelligence artificielle et droit d’auteur.

Magazine scientifique : l'espace marocain des forces armées royales air N°105. Inspection
FRA.

Webographie

L'histoire de l'intelligence artificielle : des origines à aujourd'hui 👇 - IA Insights (ia-


insights.fr)

https://www.gouvernement.fr/actualite/le-g20-un-forum-de-cooperation-economique-
internationale

BLOCKCHAIN ET CONTRAT COMMERCIAL (murielle-cahen.com)

FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy
Artificial Intelligence | The White House

138
L’intelligence artificielle et son influence sur le droit des affaires

Le Maroc trace la voie d’un futur éthique en IA avec l'UNESCO | UNESCO

Qu'est-ce que le RGPD ? Comment se mettre en conformité ? (donnees-rgpd.fr)

139
L’intelligence artificielle et son influence sur le droit des affaires

Table des matières


i. Listes des abréviations
ii. Remerciements
iii. Sommaire
INTRODUCTION ..........................................................................................................................1
Première partie Impact de l'intelligence artificielle sur le droit des affaires. ......................8
Chapitre 1. L'impact de l'intelligence artificielle sur les contrats. .........................................9
Section 1. La conclusion des contrats par le biais de l’intelligence artificielle : le
contrat intelligent à titre d’exemple. ................................................................................9
Paragraphe 1 : Utilisation de l'IA pour la négociation des contrats .............10
Section 2. L'IA dans la gestion des risques liés aux contrats. ...............................................25
Paragraphe 1 : La question de transparence des contrats intelligents : ....................... 25
Paragraphe 2 : les risques liés à ce type de contrats : .................................................... 29
Chapitre 2 : L'impact de l’IA sur la propriété industrielle et intellectuelle et la
protection des données à caractère personnel. ........................................................................34
Section 1 : l’impact de l'intelligence artificielle sur la propriété industrielle et
intellectuelle : ................................................................................................................................35
Paragraphe 1 : L’applicabilité du droit d’auteur aux créations IA : ............................ 36
Paragraphe 2 : PROPRIÉTÉ INDUSTRIELLE. .......................................................... 56
Section 2 : L’IA et La protection des données à caractère personnel. .................................66
Paragraphe 1. les risques et menaces inhérents à la collecte, à l'enregistrement et à
l'exploitation des données : .........................................................................................................67
Paragraphe 2. LE CONSENTEMENT COMME OUTIL DE PROTECTION DES
DONNÉES PERSONNELLES ? ...............................................................................................72
Deuxième partie Mise à l'épreuve du droit de la responsabilité dans l'utilisation de
l'intelligence artificielle et ses enjeux. .......................................................................................76
Chapitre 1: La responsabilité civile liée à l'utilisation de l'intelligence artificielle : .........77
Section 1: L'insuffisance des règles de responsabilité civile. .................................................78
Paragraphe 1 : L'intelligence artificielle, objet juridique singulier : ............................ 79
Paragraphe 2 : La difficile appréhension du fait de l’intelligence artificielle par un
régime de responsabilité. ................................................................................................ 82
Section 2: L'inapplicabilité du droit commun de la responsabilité délictuelle dite
extracontractuelle : ......................................................................................................................94
Paragraphe 1 - La responsabilité du fait de l’intelligence artificielle de lege lata : ..........95
Paragraphe 2 - La Responsabilité du Fait de l’Intelligence Artificielle : Une Approche de
lege feranda - Loi future: ..........................................................................................................101
Chapitre 2: La responsabilité pénale liée à l'utilisation de l'intelligence artificielle :.....105

140
L’intelligence artificielle et son influence sur le droit des affaires

Section 1 : Intervenants pénalement responsables : .............................................................106


Paragraphe 1 - Responsabilité pénale du fabricant: ............................................................106
Paragraphe 2 : la responsabilité pénale du propriétaire ou détenteur : ...........................108
Paragraphe 3 - La responsabilité pénale autonome de l'IA: ...............................................110
Section 2 : Typologie des crimes et les sanctions relatives à l’IA : .....................................112
Paragraphe 1 : Typologie des crimes provenant de l’IA : ...................................................113
Paragraphe 2 : Anticipation des sanctions pour les Systèmes d'IA : Vers une Meilleure
Visibilité Future: ........................................................................................................................117
Paragraphe 3 : L'IA et les règles d'éthique : .........................................................................124
Conclusion ...................................................................................................................................132
BIBLIOGRAPHIE .....................................................................................................................135
TABLES DES MATIERES ............................................................. Error! Bookmark not defined.

141

Vous aimerez peut-être aussi