Vous êtes sur la page 1sur 26

De l'intelligence artificielle à la personne virtuelle :

émergence d'une entité juridique ?


Danièle Bourcier
Dans Droit et société 2001/3 (n°49), pages 847 à 871
Éditions Éditions juridiques associées
ISSN 0769-3362
ISBN 2275021000
DOI 10.3917/drs.049.0847
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

Article disponible en ligne à l’adresse


https://www.cairn.info/revue-droit-et-societe1-2001-3-page-847.htm

Découvrir le sommaire de ce numéro, suivre la revue par email, s’abonner...


Flashez ce QR Code pour accéder à la page de ce numéro sur Cairn.info.

Distribution électronique Cairn.info pour Éditions juridiques associées.


La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le
cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque
forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est
précisé que son stockage dans une base de données est également interdit.
Droit et Société 49-2001
De l’intelligence artificielle à la (p. 847-871)

personne virtuelle : émergence


d’une entité juridique ?

Danièle Bourcier *

Résumé L’auteur

Directrice de recherche au CNRS,


Nos machines, jusqu’alors considérées comme incapables d’agir sans membre du Centre de théorie du
nous, viennent de franchir une nouvelle étape : apprenantes et coopé- droit, Université Paris X-Nanterre.
rantes, elles sont appelées à agir de façon autonome dans un monde Ses recherches portent sur
virtuel, le cybermonde. Faudra-t-il changer de paradigme : leur donner l’informatisation de l’État et du
droit dans ses aspects
encore plus d’autonomie et accepter qu’elles nous représentent, de façon
institutionnels, normatifs et
durable et dans un cadre juridique à construire ? Cette question est linguistiques. Ses derniers
l’occasion de reprendre les débats qui se sont développés depuis les travaux analysent les nouvelles
débuts de l’intelligence artificielle : comment le droit traite-t-il le monde
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


formes d’écriture du droit et
virtuel ? et si des êtres artificiels agissent à notre place, quelles capacités explorent les avancées d’une
juridiques réelles doit-on leur donner ? à quoi la fiction de personne approche plus cognitive du
virtuelle pourrait-t-elle servir ? phénomène juridique.
Parmi ses publications :
– La décision artificielle. Le droit,
Cybermonde – Droits de la personne – Intelligence artificielle – Personne
la machine et l’humain, Paris,
virtuelle – Vie privée. PUF, 1995 ;
– Les paradoxes de l’expertise.
Savoir ou juger (avec M. de
Summary Bonis), Le Plessis-Robinson,
Synthélabo, 1999 ;
– Savoir innover en droit :
From Artificial Intelligence to Virtual Personhood : Emergence of a concepts, outils, systèmes.
Hommage à Lucien Mehl (sous la
Legal Entity ?
dir., avec L. Cadoux), Paris, La
Up to now, it has been assumed that machines were not able to act by Documentation française, 1999 ;
themselves but they have bridged the gap and become autonomous in the – Droit et intelligence artificielle.
new virtual world. Must we change our paradigms and allow machines to Une révolution de la connaissance
embody us in a sustainable way and in a legal framework ruling virtual juridique (sous la dir., avec P.
communities ? These questions give us the opportunity to exhume Hassett et C. Roquilly), Paris,
debates that have been going on since the early days of artificial Romillat, 2000.
intelligence. What is the relationship between natural and artificial – « La loi, l’écriture », Passages
d’encre, n° spécial 14/15, 2001.
persons ? How does law come to grips with the cyberworld ? And if
virtual agents can act on our behalf, what will be their real legal capacity ?
What will the fiction of the virtual person be used for ? * Centre de Théorie du Droit,
Université Paris X-Nanterre,
Artificial intelligence – Cyberworld – Individual’s rights – Personal data – 200 avenue de la République,
F-92001 Nanterre cedex.
Virtual person.
<bourcier@msh-paris.fr>

847
D. Bourcier
De l’intelligence artificielle à
Orientations
la personne virtuelle : Le droit, qui traite plutôt des activités humaines, se trouve
émergence d’une entité désormais confronté à des activités générées par des machines.
juridique ?
Ces machines devenant intelligentes, c’est-à-dire de plus en plus
autonomes, c’est peu à peu l’ensemble des rapports entre
systèmes humains et systèmes techniques qui doit être réexaminé.
Nos machines viennent de franchir une nouvelle étape : leur
capacité à agir instantanément et collectivement dans un monde
virtuel. Cette combinaison (intelligence, apprentissage, coordina-
tion et communication) décuple leurs possibilités et réduit les
capacités humaines de contrôle et d’action. Faudra-t-il changer de
paradigme : leur donner encore plus d’autonomie, et accepter
qu’elles représentent nos intérêts dans les communautés vir-
tuelles ? L’intelligence des machines a ainsi réactivé des questions
qui relevaient traditionnellement de la philosophie : la responsabi-
lité, la volonté, l’intentionnalité, le jugement, la conscience, la
personne.
Ces interrogations pratiques seront l’occasion de reprendre les
débats juridiques qui se sont développés depuis les débuts de
l’intelligence artificielle : profils automatiques de comportement,
systèmes experts décideurs, agents cognitifs sur internet (I). Face à
ces interrogations, le législateur a élaboré des réponses en termes
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


de protection de la vie privée et de l’intimité : même insuffisants,
ces régimes peuvent nous éclairer sur le contenu de fictions
juridiques possibles (II). Celle de personne virtuelle, par exemple,
citée à l’occasion de nouvelles activités dans le monde d’internet,
commence à émerger : pourrait-elle devenir une nouvelle catégorie
juridique (III) ?

I. Questions sur le virtuel, le fictif et


l’artificiel
Notre univers mental et onirique est peuplé d’espaces imagi-
naires que nous créons et que nous explorons, avec des identités
plus ou moins conscientes. Toute fiction littéraire est construite
sur ce principe et propose au lecteur de partager cet espace. Mais
ce monde fictif était reconstruit individuellement par chacun
d’entre nous. Entre le créateur et le lecteur, aucune interaction
réelle n’était possible. Nous ne partagions pas le même lieu où nos
« personnages » pouvaient communiquer et agir : la virtualité
remet en cause cette ligne de partage.
Créer un personnage ou construire un automate répond à la
même logique de découverte et d’invention pour l’homme de
1. Isabelle KRZYWKOWSKI (sous la
dir.), L’homme artificiel : lettres 1 ou l’homme de science : animer des doubles de toutes
Hoffmann, Shelley, Villiers de pièces, tester l’entreprise métaphysique (méta-technique) de la
l’Isle-Adam, Paris, Ellipses, 1999.

848
simulation et observer les situations nouvelles et surprenantes qui Droit et Société 49-2001
découlent de l’autonomisation de nos créatures.
Cette entreprise n’est pas nouvelle, et ce n’est pas l’objet ici de
reprendre l’histoire culturelle et technique des robots et autres
artefacts 2.
Cependant, un renversement s’est produit après von Neumann :
ce ne sont plus les performances physiques de l’homme qui sont
simulées mais celles de son « cerveau », globalement comparé à
une machine (universelle). L’ordinateur reproduit les fonctions
humaines les plus nobles (comme comprendre, traduire, évaluer)
et surtout non répétitives, au point que la différence deviendrait
difficile à déceler entre la programmation et le fonctionnement
cérébral 3. Dès lors, dans un monde complètement virtuel, le double
invisible peut prendre la place de l’être original, à l’insu des autres
êtres virtuels. Il s’agit ici de considérer non pas que le monde réel
est devenu virtuel mais qu’il existe un univers où la réalité se
présente sous d’autres formes. Ces formes qui sont des infor-
mations, traitées et échangées par des machines, vont avoir des
effets dans la réalité.
Agent intelligent, être numérique, formes de vie, personne im-
matérielle, automate d’appel, télépersonnalité, knowbot, double 2. Voir, à ce propos, Philippe
BRETON, À l’image de l’Homme.
informationnel, avatar… 4, la sémantique des automates s’est Du golem aux créatures
enrichie de métaphores avec le développement des réseaux ouverts virtuelles, Paris, Seuil 1995.
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


comme internet. Nous envoyons sur les réseaux des logiciels qui 3. John SEARLE, « Minds, Brains
and Science », Behavioral and
peuvent simuler certaines de nos fonctions et programmer nos Brain Sciences, 3, 1980 (en
choix. Nous sommes perçus par des machines à travers certaines français : Du cerveau au savoir,
de nos actions et devenons des profils qui sont les tenants-lieu de Paris, Hermann, 1985) ; et ID., La
redécouverte de l’esprit, Paris,
notre personnalité et de nos comportements. Nous devenons Gallimard, 1992.
responsables de décisions qui nous échappent car nos automates 4. Le mot « avatar » désigne les
ont pris le large et échappent à notre vigilance. Nous signons des différentes incarnations du dieu
Vishnou. Le premier auteur de
actes qui vont déclencher des procédures ; nous déléguons des science-fiction à parler des
pouvoirs à nos machines et il pourra être difficile de reprendre la avatars est l’auteur de
main et d’interrompre le cours du dialogue. Snowcrash : Neil STEPHENSON.
La conception assistée, l’intelligence artificielle et la mise en 5. Gilles DELEUZE, Différence et
répétition, Paris, PUF, 1968.
réseau d’agents logiciels participent désormais à cette mise en 6. On dit aussi « agile
scène en temps réel. Nous pouvons partager un univers commun, entreprise » dans la mesure où
un cybermonde, où nous faisons circuler et agir nos avatars, alias, elles sont censées répondre à
une demande précise et ont
doubles et autres automates numériques mais où nos profils et besoin de structures
nos identités sont tracés, répertoriés, analysés, reconstruits, changeantes. Voir Denis
exploités, détournés souvent à notre insu. Le virtuel transforme ETTIGHOFFER, L’entreprise virtuelle
ou les nouveaux modes de travail,
non seulement la perception de la réalité mais aussi les façons Paris, Odile Jacob, 1992.
d’agir car « le virtuel possède une pleine réalité, en tant que 7. Howard RHEINGOLD, The Virtual
virtuel » 5. Community : Homesteading on
Ce terme est désormais affecté à toute une série d’objets et the Electronic Frontier, Reading
(Mass.), Addison-Wesley, 1994.
d’institutions : entreprise virtuelle 6, communauté virtuelle 7, État 8. Steven LEVY, Artificial Life : The
virtuel 8. Le virtuel peut être assimilé au potentiel : l’hypertexte, Quest for a New Creation, New
York, Pantheon Books, 1992.

849
D. Bourcier par exemple, est une matrice de textes latents. En ce sens, notre
De l’intelligence artificielle à activité sur internet réalise, à chaque interaction, un des mondes
la personne virtuelle : possibles. Enfin, les notions d’artificiel et d’immatériel sont venues
émergence d’une entité
enrichir ce réseau sémantique 9 que l’on trouve souvent relié à une
juridique ?
analyse de la post-modernité. La menace que font peser les
systèmes informatiques intelligents sur nos droits et libertés a
donné lieu à de nombreux débats juridiques et philosophiques.
Nous actualiserons trois de ces débats sur l’intelligence des
machines, en rappelant les fonctionnalités techniques, les usages
sociaux et les questions juridiques qui les ont provoqués.

I.1. Le profil est-il la personne ?


Le « profilage » (profiling) est le résultat d’une technique
informatique qui a pour objet de constituer des profils individuels
ou de groupes à partir du traitement des données personnelles et
de modèles de comportement. Il s’agit moins de connecter des
fichiers que de construire des méta-connaissances qui sont en
réalité des prédictions sur des décisions personnelles.
Un groupe peut être constitué autour d’attributs communs ou
de variables socio-économiques. Un « modèle du drogué », par
exemple, pourra regrouper plusieurs critères : moins de 40 ans, un
taux d’absentéisme important, un nombre d’accidents du travail
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


supérieur à la moyenne et la recherche d’une indemnité de départ.
L’entreprise pourra soumettre cette population à un test de
dépistage 10.
En ce qui concerne les profils individuels, on peut cumuler les
méthodes inductive et déductive. D’un côté on diagnostique les
paramètres déterminants d’un groupe. Puis on compare des
données individuelles avec le modèle général. En matière de
douane, par exemple, des passagers seront soupçonnés d’être des
trafiquants de drogue, parce qu’ils ont suivi certains itinéraires,
sont passés par certaines zones de transit, ont payé leur billet en
liquide et ont peu de bagages : ils seront alors soumis à des
contrôles renforcés (système mis en place par certaines adminis-
9. Pierre LEVY, Qu’est-ce que le trations douanières).
virtuel ?, Paris, La Découverte, D’une façon générale, le profiling est fondé sur des
1995. programmes statistiques de catégorisation plus ou moins
10. G. MARX et N. REICHMAN,
« Computer as Informants », sophistiqués 11. L’ambivalence du terme de « profils » en matière
Newsweek, août 1983. de recrutement est significative à cet égard. Actuellement, ces
11. A. TOUSSAINT, « Le tests sont de plus en plus informatisés et souvent auto-
recrutement est-il sous l’empire administrés par les candidats eux-mêmes. Les logiciels les plus
de sciences, para-sciences et
pseudo-sciences ? », Semaine récents mesurent le temps de réponse et introduisent des
sociale, Lamy, 460, 12 juin 1989. « indices de sincérité » sur la base de questions « contradic-
12. Claude LEVY-LEBOYER, toires ». Les définitions des traits et des critères (personnalité,
Évaluation du personnel. Quelle
méthode choisir ?, Paris, éd. aptitudes) ne sont en général pas précisées 12.
d’organisation, 1990.

850
La technique du scoring consiste à attribuer une note à chaque Droit et Société 49-2001
modalité de variable choisie pour définir un profil. Cette technique
est développée dans le domaine du marketing pour opérer des tris
dans de grands fichiers et choisir, à partir d’une cible recherchée,
une grille de notation qui permettra de dresser une liste utile
d’individus à prospecter en priorité. C’est ce qu’on appelle la
segmentation comportementale. Cette technologie est aussi utilisée
par les banques pour classer et cibler les clients à démarcher, à
partir de l’analyse des chèques ou de la nature de leurs achats par
exemple 13.
Mais la police aussi utilise le profiling. Un système informa-
tique peut permettre à la police française de faire le rapproche-
ment entre des crimes susceptibles d’avoir été commis par le
même auteur. Les questionnaires remplis par les enquêteurs sur
les homicides sont croisés. CHARDON est un système qui a été
élaboré par la brigade criminelle de la préfecture de Paris : il
s’inspire du fichier mis en place par le FBI pour favoriser
l’identification des tueurs en série. Le projet vise aussi la résolution
éventuelle de « crimes sans histoire » où n’apparaissent ni mobile,
ni piste évidente. Il propose un formulaire de 218 questions que
les policiers devront remplir lorsqu’ils sont confrontés à un
homicide, en vue de futurs recoupements.
Les logiciels de profilage peuvent aussi améliorer la produc-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


tivité d’un service administratif ou réduire les risques d’un choix,
qu’il s’agisse d’un recrutement, de l’octroi d’une subvention ou
d’un crédit, du refus d’une autorisation. Ils exigent des données
particulièrement sensibles. Mais surtout leurs effets dans le monde
réel peuvent porter atteinte aux droits de la personne car les
critères retenus peuvent être discriminatoires et que les motifs
sont prédéterminés.
Ces outils nouveaux sont désormais liés au développement
massif de réseaux interconnectés et à la disponibilité de vastes
fonds de données (méga-bases) en ligne qui ont pour finalité ce
que l’on a appelé le data mining. Le data mining est « le processus
de découverte de corrélations, formes et tendances nouvelles et
significatives en passant au crible de grandes quantités de données
stockées dans des bases et utilisant des technologies de reconnais-
sance des formes conjointement aux techniques statistiques et
mathématiques » (Groupe Gartner) 14. Ce mode d’exploitation est
né avec l’idée qu’il faut passer des recherches sur les « segments
de marché » à une relation avec des individus. Pour tenir compte
du client individuellement, il faut recueillir et traiter le maximum 13. Voir chapitre préliminaire,
de connaissances le concernant : observer ses besoins, se souvenir note 3.
de ses préférences et exploiter les informations recueillies à partir 14. Michael J.A. BERRY et Gordon
de ses interactions. Dans un secteur ultra-concurrentiel, où se LINOFF, Data Mining. Techniques
appliquées au marketing, à la
trouvent les plus grands volumes d’informations, il n’y a plus de vente et aux services clients, Paris,
limites pour exploiter le maximum de données individuelles Inter éditions, 1997, p. 81.

851
D. Bourcier obtenues à partir de ce qu’on appelle les enregistrements
De l’intelligence artificielle à transactionnels.
la personne virtuelle : Troisième étape de cette généralisation du profiling liée au
émergence d’une entité développement d’internet : le stalking ou « traçage » qui utilise les
juridique ?
techniques de saisie et de traitement de données de connexion
(cookies) et de données d’interrogation en ligne. Nous participons
désormais tous à la collecte de nos données personnelles, souvent
à notre insu, dès que nous nous trouvons connectés sur le réseau
internet. Comme le signale le rapport 2000 de la Commission
nationale Informatique et Libertés (CNIL), « la constitution d’un
fichier résultait jadis du seul fait de la technologie. En 20 ans,
nous sommes passés d’une problématique de fichiers à une
problématique de traces ».
Ces traces peuvent être dès lors récupérées et utilisées pour la
surveillance administrative et policière, ou pour des décisions de
gestion ou de marketing. Les cartes à puces « mouchardes » et
autres technologies « espionnes » interviennent aussi en dehors
d’internet. À titre d’exemple, le simple passage à une caisse
enregistreuse permet de collecter des renseignements sur le client.
Sur les réseaux, le pistage d’un internaute commence dès la
connexion : son fournisseur d’accès lui attribue une adresse IP
(Internet Protocol). Ce numéro est une plaque d’immatriculation.
15. La plupart des navigateurs
En analysant les fichiers (logs) d’un même numéro IP, on peut
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


proposent désormais une
fonction pour désactiver les reconstituer pas à pas le parcours du visiteur. Autre méthode de
cookies, sous la pression traçage : les cookies. Il s’agit de fichiers mouchards. En entrant
d’organismes de protection de la
vie privée. De grands pour la première fois sur un site, l’utilisateur reçoit à son insu un
constructeurs ont utilisé la identifiant sous la forme d’un petit fichier qui reste sur le disque
technologie du mouchard comme dur de l’ordinateur, même quand il n’est plus en ligne. On dit que
INTEL, avec le processeur
Pentium III doté du PSN l’ordinateur est « tatoué » par le cookie qui va enregistrer toutes
(Processor Serial Number). Le les informations laissées par l’utilisateur lors des connexions
PSN, à la différence du IP, n’est ultérieures : noms des pages, contenu des informations entrées
pas modifiable : il peut servir à
répertorier les habitudes et les dans ces pages. Lors de la prochaine visite, le site vérifie que le
goûts des internautes. Microsoft tatouage est présent, le récupère et en lit le contenu. Le site peut
a tenu longtemps secrète
l’existence de son GUID (Globally
ainsi savoir qui est ce visiteur et comment il se comporte 15. Le but
Unique Identifier) dans Windows avoué de tous ces systèmes est l’identification afin de personna-
98. Ce numéro devait servir au liser les services aux internautes.
départ à identifier ses produits.
Le GUID, en réalité, permettait Nous sommes donc classés, triés, tracés. Ces traitements nous
d’envoyer à Microsoft les échappent d’autant plus que ces données personnelles deviennent
données personnelles ainsi des biens commercialisables. Nous ne correspondons pas à
qu’une liste du contenu du
disque dur… Enfin, il existe des l’ensemble des profils que le cybercommerce induit de nos
programmes appelés « Applets comportements et nous ne voulons certainement pas que ces
Java » ou « Contrôle Active X » : profils représentent à notre insu notre self et notre personnalité.
attachés aux pages web, ces
petits programmes viennent
s’exécuter sur l’ordinateur de
l’internaute. Certains récupèrent
les adresses des utilisateurs à
leur insu. On parle même de
cheval de Troie.

852
I.2. Un système expert peut-il remplacer un Droit et Société 49-2001

expert ?
Les systèmes experts sont des technologies décisionnelles
plus anciennes : les premières applications, souvent médicales et
juridiques, sont nées dans les années 1970. Un système expert est
un système informatique qui a pour finalité de simuler l’activité
d’un expert humain et de traiter de problèmes qui mettent en jeu
une rationalité limitée. Ce domaine relève de l’intelligence artifi-
cielle, une branche de l’informatique qui vise à représenter des
fonctions cognitives humaines comme le raisonnement, la mémo-
risation, le jugement, la décision et à confier aux ordinateurs une
partie de ces facultés que nous considérons comme relevant de
l’intelligence. « Est intelligente une machine qui fait illusion et
passe pour intelligente aux yeux des hommes », disait Turing, un
des inventeurs de l’ordinateur.
Le terme de système expert a été critiqué pour son assimi-
lation à une activité intelligente humaine. Tout dépend en effet de
la façon dont on définit l’intelligence et la connaissance sur
laquelle elle opère... On dira par exemple qu’il simule l’activité
d’un expert (ou d’un être humain dans une activité décidante) :
— soit parce qu’il est conçu pour remplacer certaines activités
humaines ;
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


— soit parce qu’il rend autonome une partie des résultats de la
machine ;
— soit parce qu’il est doté de suffisamment de connaissances pour
conclure sur une action.
La nature des connaissances d’un système expert est le point
nodal de la discussion. Le système expert n’est pas un logiciel
ordinaire. Ce système logiciel est conçu pour exploiter, grâce à un
moteur d’inférence, une base de connaissances recueillies auprès
d’un spécialiste (un expert). L’arrêté du 27 juin 1989 relatif à
l’enrichissement du vocabulaire informatique (sans finalité juri-
dique) donne la définition suivante : « Ensemble de logiciels
exploitant un domaine particulier de connaissances explicites et
organisées pouvant se substituer à l’expert humain ».
En quoi un système expert concerne-t-il le droit ?
Se posent d’abord la question de la transparence du système
par rapport au domaine puis celle des procédures de transposition
de la connaissance. En matière de système expert juridique, le
sujet n’est pas trivial : la réécriture doit faire émerger des
parcours, déterminant les conditions pour aboutir à des solu-
16. Danièle BOURCIER, Lucien
tions 16. L’utilisateur n’est donc pas confronté à la loi mais à une MEHL et Henriette MIGNOT-MEHL,
certaine lecture du droit, effectuée par l’auteur du système. Enfin, « Interactions des aspects
juridiques et des aspects
l’interactivité fait de l’usager un interrogé plus qu’un interrogeant : techniques des systèmes
experts », Cahiers Lamy du droit
de l’informatique, 25, avril 1991.

853
D. Bourcier « Aidé, guidé, le consultant d’un système participe déjà à la gestion
De l’intelligence artificielle à sociétale de sa propre personne 17. »
la personne virtuelle : En ce qui concerne la responsabilité de l’usage de ces
émergence d’une entité
systèmes, des questions nouvelles peuvent se poser car ils inter-
juridique ?
viennent dans des organisations complexes avec de multiples
acteurs.
Faut-il affecter au système une responsabilité objective par la
mise en jeu de la responsabilité du fait des produits défec-
tueux 18 ? Qui sera responsable si une solution est aberrante et
que le client n’a pas été suffisamment éclairé sur les limites du
système ?
Ce système est modulaire et collectif. Sa nature hétérogène ne
va pas faciliter la reconnaissance de la chaîne de causalité qui va
s’imbriquer dans les multiples aspects du programme entre les
acteurs suivants : le développeur, le fournisseur du moteur de
recherche, l’expert ou les experts (à condition que l’expertise soit
formalisée), le cogniticien (qui aide l’expert à s’exprimer mais qui
peut aussi s’être servi d’un outil d’aide à l’acquisition de
connaissances), le serveur et bien sûr l’utilisateur.
Le droit, enfin, s’intéresse à la finalité du système expert : y a-
t-il une obligation de moyen ou de résultat ? Cette structure, où les
connaissances sont séparées des mécanismes, s’oppose à celle qui
prévaut dans la programmation classique. S’agit-il d’une aide à la
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


décision ou de simulation de décision ? La précision et la perti-
nence des conclusions peuvent dépendre de ces attentes.
Dans ses réflexions sur le statut de la machine, Jean Lafitte
disait : « À chacun des progrès de son développement, la machine
extériorise et marque une étape du progrès de notre propre
organisation » 19, et il ajoutait : « [Les machines] sont la chair de
notre chair. » Ce à quoi Leroi Gourhan a répondu : « L’humanité
change un peu d’espèce chaque fois qu’elle change à la fois d’outils
et d’institutions. »
En 1982, le titre d’« homme de l’année » a été décerné par le
magazine Time à… une machine et non à un homme. L’intelligence
artificielle a pris sa place dans les activités humaines et juridiques.
L’ordinateur raisonne et informe de telle façon qu’il est de plus en
plus difficile de distinguer son activité de celle de la prestation
humaine.
Une solution serait de voir le système comme indivisible et
17. Jean-Claude VIGNAL, « Faire unique. Cette œuvre composite devient alors une œuvre affectée
des systèmes : ceci n’est pas une
pomme », in Marc SCHAUSS (sous
d’une unicité, voire d’une intériorité. L’interrogation particulière
la dir.), Systèmes experts et droit, recompose la nature du service rendu. Le recours à des monopoles
Bruxelles, Story-Scientia, 1989. professionnels sur le fondement d’exercice illégal d’une profession
18. Directive 85-374 du 25 juillet corrobore cette autonomie et ce savoir-faire particulier. Le système
1985.
19. Jean LAFITTE, Réflexions sur la
expert devient-il un professionnel ? La vision de l’outil n’est-elle
science des machines [1932], pas trop anthropomorphique quand on signale que le système
Paris, Vrin, 1972. expert pourrait être « l’incarnation vivante et autonome de son

854
auteur » 20 ? Les décisions de la Cour de cassation ont apporté une Droit et Société 49-2001
réponse en affectant une responsabilité à l’auteur mais aussi à
l’éditeur.
Évidemment, si l’on a une vue anthropomorphique du système
expert en tant que « système qui prend des décisions », la
définition peut changer. Pour Jean-Paul Cailloux 21, le logiciel est le
bourreau mais c’est le juge qui est le système expert « à tel point
qu’on pourrait se demander s’il n’est pas le coauteur sinon du
système mais au moins de chacune des consultations parti-
culières ». Pour lui, il ne peut exister de responsabilité stricte car
la notion de process ou de procédures ne peut pas s’appliquer : il
est impossible de faire de véritables validations 22 pour l’ensemble
des combinatoires. Une certaine co-responsabilité de tous les
auteurs serait la solution.
Enfin, pour Marshal Willick, il existerait une solution, celle de
considérer l’ordinateur comme intelligent au même titre qu’une
personne. « Cette identité croissante entre l’homme et la machine
pourrait rendre nécessaire une reconnaissance juridique des
ordinateurs en tant que personnes 23. » Il existe même un test, dit
test de Turing, pour savoir si ce système peut être jugé « apte » :
un interrogateur doit pouvoir reconnaître avec certitude si le sujet
qui répond est une personne ou une machine. Autrement dit, on
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


peut évaluer le degré d’intelligence et d’autonomie de la machine ;
partant, on peut voir si l’ordinateur peut se conduire comme un
expert humain. Si ces systèmes sont dotés de telles capacités,
« nous ne devons pas, dit Dan Brobow, donner une autorité aux 20. Jean GASNAULT, « Les
ordinateurs sans leur donner une responsabilité » 24. Il va sans problèmes juridiques suscités
par les systèmes experts ou
dire que de tels systèmes pourraient être considérés comme des d’aide à la décision », in Marc
personnes responsables des conséquences de leurs actions, selon SCHAUSS (sous la dir.), Systèmes
une répartition semblable à celle qui est appliquée, par exemple, experts et droit, op. cit.
en droit des sociétés. 21. Jean-Paul CAILLOUX, « La
responsabilité des auteurs de
Quelle est l’analyse de Willick ? Pour lui, la reconnaissance systèmes experts », in Danièle
juridique se fait à deux niveaux. Le premier niveau définit la BOURCIER, Patricia HASSETT et
Christophe ROQUILLY (sous la
catégorie d’individus considérés comme personnes (par exemple, dir.), Droit et intelligence
les fœtus ne le sont pas). Le second niveau détermine quels sont artificielle. Une révolution de la
les droits et les obligations assignées à ces personnes en fonction connaissance juridique, Paris,
Romillat, 2000.
de leurs capacités présumées (par exemple, les handicapés
22. Les tests de certains
mentaux ont une capacité limitée, les jeunes âgés de moins de dix- systèmes prendraient 300 000
huit ans n’ont pas le droit de vote). C’est aussi cette approche qui ans.
pourrait être adoptée pour évaluer les aptitudes de ceux qui 23. Marshal S. WILLICK,
peuvent jouir de tous les attributs de la personnalité : par « L’intelligence artificielle : les
approches juridiques et leurs
exemple, la preuve du succès d’un ordinateur serait la capacité de implications », Cahiers STS
son programme à « raisonner suivant les normes fixées par la (CNRS), 12, 1986 : « Ordre
juridique, ordre technologique »,
société ». p. 54.
Prenons un système expert spécialisé dans la police de l’envi- 24. Dan BOBROW, New York Times
ronnement sonore : il peut « jouer » le rôle d’un expert, à la fois Magazine, 14 décembre 1980,
p. 62.

855
D. Bourcier technicien et juriste. Face à une situation de nuisance, il enregistre
De l’intelligence artificielle à correctement les fautes et les circonstances (il s’agit d’un bruit
la personne virtuelle : provenant d’une discothèque) en faisant quelques déductions
émergence d’une entité
factuelles utiles (les niveaux sonores doivent être enregistrés à la
juridique ?
fois sur le lieu d’origine mais aussi sur celui de réception du bruit,
ce que le législateur ne dit pas). Il fait un diagnostic de gêne et
« dit le droit applicable ». Mais s’il se trompe et entraîne le maire à
prendre une décision illégale inadaptée voire franchement dis-
proportionnée, jusqu’à quel point faut-il considérer que c’est le
programmeur, la machine, le maire, le fonctionnaire, le cogniticien
qui est responsable ? Certes, le droit a prévu la réponse. Le
résultat donné par une machine n’est qu’une conclusion : le maire
doit l’examiner avant de la considérer comme une décision. Mais si
les cas sont entrés automatiquement dans la machine et que la
machine se reprogramme en fonction des résultats validés voire
de nouvelles politiques, elle pourrait acquérir une certaine auto-
nomie qui impliquerait une marge de responsabilité. C’est en tout
cas le raisonnement de ceux qui pensent que les ordinateurs
ressemblent à l’espèce qui les a créés 25.
Le système expert peut faire illusion et être efficace par des
heuristiques simples. Marvin Minsky ajoutait : « Aujourd’hui les
systèmes experts démontrent un fait étonnant que nous ne
connaissions pas il y a 25 ans. Si vous écrivez des règles en SI-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


25. A contrario, la substitution ALORS pour un ensemble de situations et que vous les organisez
(et non plus la simulation) de
fonctions cérébrales par des ensemble, le système qui en résultera peut résoudre des pro-
machines artificielles ne peut blèmes que les gens pensent difficiles. Il est remarquable de noter
avoir de répercussions sur le que ce que nous pensons requérir de l’intelligence peut-être fait en
statut juridique de celui qui
« utilise » ces machines pour compilant des règles comportementales superficielles. Beaucoup
remplacer les parties lésées : « Il de gens sont surpris encore de cela 26. »
ne sera probablement pas facile
d’expliquer aux personnes
concernées qu’elles ne peuvent I.3. Un agent virtuel peut-il être un acteur
plus être considérées comme des
êtres humains pour la simple juridique responsable ?
raison qu’elles “contiennent trop
d’éléments matériels”. » Passons au troisième type de logiciels de simulation.
L’exemple pris était celui de J. Certains mots de la langue traduisent l’ambiguïté entre
Brady (garde du corps de R.
Reagan) qui avait reçu une balle individus et machines : un « lecteur » fait désormais référence à
en pleine tête et perdu de la une machine qui lit à notre place. Nous sommes entourés d’agents
matière cervicale en grande logiciels qui peuvent agir en notre absence. Il ne s’agit plus là,
quantité. Comme il a survécu, il a
gardé tous les attributs de la comme dans le domaine des systèmes experts, de systèmes
personnalité juridique tout en sophistiqués susceptibles d’avoir une expertise très complète sur
étant assisté de composants un problème. Il s’agit de logiciels plus simples mais capables
artificiels.
26. Marvin MINSKY, « The Problem
d’agir en ligne et de façon coordonnée. Ces logiciels se sont
and the Promise », in Patrick H. développés sur internet mais aussi sur n’importe quel type de
WINSTON et Karen A. PRENDERGAST, réseaux. Cette catégorie recouvre donc une série d’opérations
The AI Business : The Commercial
Uses of Artificial Intelligence, intelligentes qui intègrent des procédures à exécuter.
Cambridge (Mass.), MIT Press,
1984.

856
Premiers exemples de ce type d’application : les échanges de Droit et Société 49-2001
données informatisées. Les EDI sont des systèmes informatiques
destinés à agir juridiquement sur les réseaux : ils passent des
commandes, accusent réception sans même qu’il y ait accord
préalable actualisé des personnes physiques ou morales. Le
représentant, pour l’instant, doit être une personne. Cependant le
Code de commerce américain reconnaît déjà l’existence de ces
agents électroniques. Ce sont « des programmes d’ordinateurs
désignés pour agir au nom d’une partie sans qu’une intervention
humaine soit nécessaire ».
Le développement des EDI est un sujet nouveau pour les
échanges institutionnels. Au départ, ce type de technologie est vu
comme un mode de structuration et de traitement de l’information
qui permet à deux systèmes informatiques autonomes de
communiquer rapidement, sans saisie intermédiaire via un langage
normalisé. On a dit aussi que l’EDI est une technique d’échange
linguistique qui permet la transmission d’intentions « à travers
des phrases ». En France, EDIJUSTICE était un projet (il a été
provisoirement abandonné) qui avait pour objectif « de transposer
en contexte électronique sécurisé les précautions voulues par le
législateur et les usages judiciaires » 27.
Désormais, la plupart des échanges se font sur le web qui
comprend plus de 80 millions de pages d’information. Les inter-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


nautes n’ont plus le temps suffisant pour être pleinement
informés et les moteurs de recherche 28 standards n’offrent plus
de solutions satisfaisantes. Ainsi est apparue cette nouvelle géné-
ration d’outils.
Les agents intelligents ou agents cognitifs sont des logiciels
(par exemple : Bargainfinder ou Firefly, ou encore Agentco)
entraînés à agir sur le web à notre place et en notre absence. Ils 27. Voir EDIJUSTICE, Charte et
sont autonomes car on peut leur donner des instructions et, dit- organisation, définition.
on, ils ont « des désirs et des mobiles ». Ils peuvent interagir avec 28. Un moteur de recherche est
un logiciel de recherche
d’autres agents et échanger entre eux de l’information 29. d’information à l’aide de mots
Jusqu’à quel point pouvons-nous en être responsables ? Un clés (autrement appelé logiciel
agent peut-il contracter à votre place ? Supposez que vous documentaire).
cherchiez le plus bas prix pour un produit. L’agent le cherche, le 29. Rose DIENG, Olivier CORBY,
Alain GIBOIN et al., Méthodes et
trouve, clique la licence (click wrap license) et contracte de façon à outils pour la gestion des
vous lier sur les termes des conditions qu’elle contient. Ces connaissances, Paris, Dunod,
licences existent sur internet mais l’utilisateur est invité à lire les 2000, p. 174-184 : « L’acquisition
des connaissances selon la
termes et à cliquer sur le bouton « j’accepte » avant que son méthode AGENTCO consiste
accord soit enregistré. La validité de cet accord n’est pas toujours alors à identifier les agents
claire. Pour avoir une réponse, il faut savoir comment cet agent a humains adéquats impliqués
dans la résolution de problèmes,
été configuré, et quel degré d’autonomie a été confié à cet agent à les représenter sur papier ou
par l’utilisateur. dans un outil d’acquisition par
des agents virtuels, et à
Les logiciels sont configurés pour rechercher le prix le plus déterminer progressivement les
bas mais aussi pour négocier avec d’autres agents. Ils peuvent caractéristiques individuelles et
aussi retrouver des images, des documents protégés sur internet sociales de ces agents virtuels. »

857
D. Bourcier et exposer le « propriétaire » à une responsabilité potentielle 30.
De l’intelligence artificielle à Les utilisateurs sont actuellement capables de lire les notices de
la personne virtuelle : copyright et de savoir s’ils seront en contravention avec elles.
émergence d’une entité
Ainsi, en téléchargeant les fichiers, les utilisateurs savent à quoi ils
juridique ?
s’exposent. Mais comment distinguer ces téléchargements conscients
de ceux qui sont faits par une machine ? Si Superweb Compass
revient le soir et copie les fichiers sur le disque dur de l’utilisateur,
on peut considérer qu’une infraction peut avoir été commise. Une
Cour ne pourra séparer l’action du logiciel de celle de son
utilisateur.
Les questions posées par l’usage de ces agents doivent être
distinguées de celles qui sont suscitées par les systèmes experts.
En effet, les systèmes experts tels qu’ils avaient été conçus ne
pouvaient échapper à une intervention humaine car ils appre-
naient très peu et leurs connaissances étaient stables. Ces
nouveaux systèmes peuvent opérer rapidement des actions sus-
ceptibles d’engager la responsabilité de leur mandant.
Prenons le cas d’un être humain tué accidentellement par un
robot 31. Si l’ordinateur était doté d’un programme IA capable
d’autoprogrammation ou d’un moteur autopoïétique, on pourrait
se demander qui pourrait être « accusé » : le programmeur ou la
machine ? Pour Willick, les affaires de responsabilité en cas de
démence pourraient donner des pistes juridiques pour juger ce
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


type de problème. La représentation est une « institution grâce à
laquelle les incapables et les non-présents peuvent faire des actes
juridiques à la place d’autrui » 32. Les effets de l’acte juridique
concernent la personne du représenté et non du représentant. La
responsabilité est aussi impliquée par ce type d’outil.
On peut, de la même façon, se demander si les contrats passés
par l’intermédiaire de ces systèmes sont valables en tant qu’ils
mettent en œuvre un « véritable consentement » et manifestent
30. Certains logiciels se
conduisent comme de véritables une « volonté ». Un système informatique peut-il manifester un
enquêteurs automatiques : des véritable consentement, c’est-à-dire « posséder une volonté propre
filtres d’images (lookatup.com) indépendante des êtres humains et des personnes morales » 33 ?
se substituent à la vision
humaine en détectant des images La question centrale est de savoir si l’homme joue un rôle
pornographiques sur le web. essentiel dans ces actions et décisions et si le système n’est qu’un
31. Cas cité par Marshal WILLICK, substitut, ou si l’homme a eu l’intention de déléguer aux machines
« Robots Kill Man », United Press
International News Bulletin une certaine prise de risque qui leur permet d’agir de façon
(Tokyo, Japan), 8 décembre 1981 autonome, voire à sa place…
(voir note 73). La machine, en l’état actuel des technologies transactionnelles,
32. Jean CARBONNIER, Droit civil. pourrait « contracter », c’est-à-dire valider son consentement.
Introduction, Paris, PUF, 1996
p. 286. Quant à dire qu’elle manifesterait sa volonté, il y a un grand pas.
33. Éric CAPRIOLI, « Consentement Ce sont seulement les contenus « intentionnels » du droit qui ont
et systèmes informatiques », in tendance à devenir plus objectifs. Le contrat ne serait plus défini
Danièle BOURCIER, Patricia
HASSETT et Christophe ROQUILLY
comme un accord de volontés mais « comme le résultat d’une
(sous la dir.), Droit et intelligence réponse positive donnée par un individu ou une entreprise, voire
artificielle, 2000, op. cit.

858
une machine mise en place par lui ou elle, à une proposition Droit et Société 49-2001
standardisée dont les modalités s’imposent en dehors d’une
acceptation véritable » 34. C’est donc une fiction d’accord qui
remplacerait la réalité d’une manifestation de volonté.

Ces trois débats montrent que les machines intelligentes ont


toujours été perçues par le droit comme pouvant menacer notre
intégrité et empiéter sur nos compétences. La loi, tout au moins en
France, a constitué le premier paravent contre les us et les abus de
l’informatique.

II. La loi, protection contre les usages


sensibles de l’intelligence artificielle
Les machines que nous venons de décrire impliquent
plusieurs domaines du droit. L’usage peut en être volontaire et
éclairé de la part des acteurs et nous avons évoqué quelques-unes
des questions de responsabilité qu’elles pouvaient soulever.
Quand elles se fondent sur des données personnelles ou
qu’elles décident à l’insu des personnes, ce sont les droits fonda-
mentaux et notamment la vie privée et l’intimité qui sont en jeu.
Comment le droit intervient-il dans le domaine sensible des
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


données, des méta-données et des décisions ? Nous allons voir, à
travers la loi française dite « Informatique et Libertés » et la
directive européenne en cours de transposition, comment les
traitements intelligents des données ont été régulés par le droit et
quelle est la teneur du consentement entre l’individu traité par un
tel ordinateur et l’administrateur du système. Ce panorama est
susceptible d’ouvrir des pistes de réflexion pour notre discussion
sur la notion de personne virtuelle.

II.1. Acquérir des données sensibles pour


construire des artefacts ?
La loi du 4 janvier 1978 35 n’interdit pas la création de fichiers 34. Jerôme HUET, « Aspects
nominatifs, mais en réglemente l’usage en fixant des obligations à juridiques du commerce
électronique : approche
la charge des personnes qui créent des traitements et en internationale », Petites Affiches,
reconnaissant des droits aux personnes fichées. Les données, 26 septembre 1997.
connaissances et méta-connaissances que nous avons analysées ci- 35. Cette loi est en cours de
dessus sont particulièrement sensibles parce qu’elles mettent en transposition. Un projet n° 3250
a été déposé à l’Assemblée
jeu la liberté de conscience, l’interdiction de toute discrimination nationale le 18 juillet 2001 et
et la liberté d’opinion. Les règles (article 31 de la loi) peuvent sera examiné en janvier 2002.
s’énoncer en plusieurs étapes, des principes aux exceptions : Nous tenons compte des
nouvelles numérotations dans
— un principe général d’interdiction : il est interdit de « mettre ou notre commentaire, mais celles-ci
conserver en mémoire informatique certaines données nomi- sont susceptibles d’être
natives qui, directement ou indirectement, feraient apparaître la modifiées lors du débat
parlementaire.

859
D. Bourcier race, les opinions ou les appartenances syndicales, et les mœurs ».
De l’intelligence artificielle à Le projet français de transposition parle désormais d’« orientation
la personne virtuelle : sexuelle » ;
émergence d’une entité
— deux exceptions : le principe du consentement de l’intéressé et
juridique ?
le principe de l’intérêt supérieur (motif d’intérêt public).
Les données peuvent donc perdre ce caractère « sensible ».
Mais elles peuvent perdre aussi le privilège de la protection ren-
forcée au nom de plus grandes valeurs en balance : intérêt général,
santé, intérêt scientifique.
La directive du 24 octobre 1995 énonce des règles un peu
différentes suivant la logique suivante :
— le principe d’interdiction est réaffirmé, étendant les données
sensibles à celles qui concernent la santé et la vie sexuelle ;
— une première catégorie d’exceptions correspond à l’intérêt ou à
un acte de volonté de la personne :
* si l’intéressé donne son consentement explicite (et non plus
seulement exprès) ;
* si les intérêts vitaux (« la clause humanitaire ») de la personne
concernée sont en jeu (si notamment la personne ne peut plus
donner son consentement) ;
* si le traitement est effectué par une association à finalité
politique, philosophique, religieuse ou syndicale ;
* si les fichiers sont nécessaires pour respecter le droit du travail
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


(dans certaines législations, l’employeur doit gérer des « données
sensibles », mais non en France) ;
* lorsque des données sont manifestement publiques (déclarations
d’hommes politiques, par exemple) ;
* s’il s’agit de traitements nécessaires à l’exercice d’un droit en
justice (dossiers d’avocats sur leurs clients, par exemple) ;
— une deuxième catégorie d’exceptions vise des intérêts
supérieurs à ceux de la personne :
* les traitements à des fins médicales, qu’il s’agisse de diagnostics
ou de gestion, à condition que le traitement soit effectué par un
praticien soumis au secret professionnel ;
* les motifs d’intérêt public important comme la gestion de la
santé et de la protection sociale, la recherche et les statistiques
publiques ;
* le registre des infractions et condamnations pénales.
La loi de 1978 avait mis au cœur de ses mécanismes de
protection la finalité des traitements et le consentement des inté-
ressés. Chaque renseignement devait en effet être situé dans un
processus d’information vu dans un ensemble. Avec les possibi-
lités infinies des méga-bases de données, le développement des
profils et plus généralement des décisions automatiques, les
menaces contre la vie privée proviennent moins des données
sensibles par elles-mêmes que du rapprochement de données qui
ne le sont pas a priori (localisation géographique, par exemple).

860
Cette menace est renforcée par l’utilisation des logiciels Droit et Société 49-2001
analysés ci-dessus qui opèrent des raisonnements sur des données
en ligne et en continu, à la place du décideur. En effet, ils ont pour
fonction de rechercher sur l’ensemble du réseau des noms ou des
groupes de noms ou des données et de les agréger en fonction
d’un certain objectif. Ils simulent on line des corrélations et
peuvent faire certaines déductions qui s’apparentent à des choix
multicritères. Considérés comme des « technologies nouvelles »,
au sens de la directive par la CNIL, ces logiciels nécessiteront une
veille technologique attentive.

II.2. Décider avec des machines ?


La loi française comme la directive ont été particulièrement
soucieuses de parer les risques nouveaux provoqués par les
technologies intelligentes : l’aide à la décision qui implique des
outils d’intelligence artificielle (dont la banalisation était encore
difficilement prévisible en 1978) en constitue le meilleur exemple.
En effet, les législateurs ont inclus, dans la loi de 1978, deux
articles phares (art. 2 et 3) qui ont permis par la suite de parer les
effets les plus nocifs des systèmes experts, réseaux de neurones et
algorithmes génétiques fondés sur des données personnelles.
Que dit la loi française de 1978 ? Elle interdit qu’une décision
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


privée ou administrative qui implique un jugement sur des
comportements humains puisse être fondée uniquement sur un
profil de l’intéressé. Ce qui revient à dire que les systèmes infor-
matiques ne peuvent produire directement une décision impli-
quant des données personnelles : un décideur humain doit rompre
le chaînage automatique des raisonnements pour évaluer, voire
corriger, le résultat en fonction d’éléments subjectifs et circons-
tanciels.
En ce qui concerne la directive, les mêmes dispositions sont
reprises dans l’article 15, intitulé « Décisions individuelles auto-
matisées » : toute personne a ainsi « le droit de ne pas être
soumise à une décision produisant des effets juridiques à son
égard ou l’affectant de manière significative, prise sur le seul
fondement d’un traitement automatisé de données destiné à éva-
luer certains aspects de sa personnalité tels que son rendement
professionnel, son crédit, sa fiabilité, son comportement, etc. ».
Quelles différences les deux textes manifestent-ils par rapport
aux machines intelligentes ?
D’abord, la disposition est présentée au cœur du texte de la
directive, dans la section « Droit d’opposition de la personne » et
non dans les articles de principe dont la place peut être
emblématique. Ensuite, la directive définit la décision par ses
effets, juridiques ou non, qui peuvent être plus ou moins « sen-
sibles » : mais que signifie « être affecté de manière significa-

861
D. Bourcier tive » ? La notion semble faire une certaine part aux circonstances,
De l’intelligence artificielle à au type imprévisible de technologie utilisée, voire à la subjectivité
la personne virtuelle : de la personne. Les exemples donnés renvoient plus directement à
émergence d’une entité
des décisions privées (demande de crédit, évaluation profession-
juridique ?
nelle).
Cependant, la principale différence réside dans la présence
d’exceptions dans la directive : la personne concernée ne peut
arguer de l’illégalité de cette décision si elle est la conséquence
d’un acte volontaire (contrat) ou d’une loi et si des garanties ont
été prises. Par exemple, les principes procéduraux de non-
discrimination, de motivation et du contradictoire doivent avoir
été respectés comme pour n’importe quel acte juridique.
Quant au projet de loi français, il reprend, dans son article 25-
4, l’article 2 de la loi de 1978 qui soumet à la procédure d’auto-
risation les traitements sensibles comme ceux « ayant pour finalité
de sélectionner les personnes susceptibles de bénéficier d’un
droit, d’une prestation ou d’un contrat alors que les personnes en
cause n’en sont exclues par aucune disposition légale et régle-
mentaire » et, dans son article 38, la règle suivant laquelle toute
personne « a le droit de s’opposer à ce que les données la
concernant fassent l’objet d’un traitement » et « de connaître et de
contester la logique qui sous-tend le traitement automatisé
lorsque des résultats de celui-ci lui sont opposés ». Il s’agit en
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


réalité de connaître le raisonnement général de la machine et la
façon dont elle individualise le cas qui lui est soumis. Ce sont les
décisions automatisées qui sont visées en tant qu’elles peuvent
prendre en compte des règles d’expert qui ne seraient qu’une
interprétation de la règle de droit ou même une création.
Mais surtout, la formulation de la loi de 1978 sur l’auto-
matisation des décisions est reprise explicitement dans l’article 10
du projet de loi : « Aucune décision de justice impliquant une
appréciation sur le comportement d’une personne ne peut avoir
pour fondement un traitement automatisé de données à caractère
personnel destiné à évaluer certains aspects de sa personnalité. »
Le juge ne peut donc substituer une machine à son propre
raisonnement, ce qui reviendrait à nier son indépendance et à
confier son choix à une autorité non-juridictionnelle. Cette objec-
tion peut d’ailleurs être écartée si le résultat n’est qu’indicatif 36.
Suivant ce même article 10, un administrateur (fonctionnaire,
maire…), un banquier, un assureur peuvent en revanche utiliser
des profils personnels, à condition que leur choix définitif ne soit
pas pris par la machine : « Aucune décision administrative ou
36. On assiste aux mêmes débats
lorsqu’il s’agit d’automatiser les privée produisant des effets juridiques à l'égard d'une personne
barèmes en matière de fixation ne peut être prise sur le seul fondement d'un traitement auto-
de pensions alimentaires. Voir matisé de données destiné à évaluer certains aspects de sa person-
Lettre d’information de la mission
de recherche Droit et Justice, 10 nalité. » Si la décision se situe dans le cadre d’un contrat et que la
juillet 2001, p. 11-12. personne concernée est « mise à même de présenter ses obser-

862
vations », la décision est présumée ne pas avoir été prise sur le Droit et Société 49-2001
seul fondement du traitement informatique ; le projet reprend les
mêmes exceptions que la directive pour éviter la mauvaise foi du
plaignant éventuel.
La prise de décision qui a des effets juridiques peut porter
atteinte à certains droits de la personne, comme les droits de la
défense, l’exigence de motivation en cas de décisions défavorables
ou le droit à l’examen de son cas. Au delà de la prise en compte
(opaque) d’un critère illicite (et donc discriminatoire) qui peut
affecter l’impartialité, toujours présumée, de l’auteur de la
décision finale, c’est la simulation du processus décisionnel
humain qui est visée. Or l’intelligence artificielle saura traiter de
mieux en mieux ce processus dans tous ses aspects techniques.
Le principal danger des logiciels d’intelligence artificielle
réside en effet dans le fait qu’ils sont relativement opaques parce
qu’organisés sous forme de bases de connaissances – plutôt que
de données – et que les mécanismes d’inférence utilisés sont
distincts des données. La loi de 1978 avait donc accompagné cette
disposition du droit de connaître et de contester les résultats,
droit repris par le projet. Mais s’agit-il d’avoir accès à une partie
du raisonnement et des données du cas traité, ou s’agit-il, plus
largement, du droit de porter un jugement sur l’ensemble du
raisonnement ?
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


La directive, dans ses considérants, donne le droit à toute
personne de connaître la logique de la décision qui lui est opposée.
Mais à la différence de la loi de 1978, elle s’est prémunie contre
une interprétation trop large qui donnerait accès à l’expertise
globale du système : le secret des affaires et le droit de l’auteur du
logiciel seront protégés en priorité. L’application de ce droit
d’opposition paraît techniquement bien problématique à faire
valoir.
Signalons que la CNIL, dans une délibération du 14 mai 1996,
avait élaboré une liste de « traitements à risques particuliers »
nécessitant le maintien d’un contrôle a priori dans l’optique de la
transposition de la directive. Cette liste comprenait, entre autres,
les cas ci-dessus analysés : les données sensibles et les décisions
automatisées. Y figuraient aussi les traitements conduisant à « une
exclusion des personnes d’un droit, d’une prestation ou d’un
contrat », qui ne sont pas loin de renvoyer directement aux traite-
ments de ces mêmes décisions. 37. Procédures de
On remarquera que l’application des ordonnances du 24 avril télétransmission de feuilles de
1996 – et notamment celle sur la maîtrise médicalisée des soins électroniques, cartes de
professionnels de santé,
dépenses de soins – nécessite de plus en plus de traitements informatisation des cabinets
automatisés d’informations nominatives 37. Les systèmes de médicaux, cartes électroniques
gestion de la santé et de la protection sociale auront besoin de individuelles (carte VITALE),
répertoire national interrégimes
dispositifs de plus en plus fiables d’identification de personnes, des bénéficiaires de l’assurance-
maladie.

863
D. Bourcier une généralisation de « l’identité informatisée » dont parlait
De l’intelligence artificielle à Philippe Lemoine en 1980 38.
la personne virtuelle : Les articles 2 et 3 de la loi n° 78-17 du 6 janvier 1978 avaient
émergence d’une entité
pour objectif de prendre en compte la partie plus cognitive de
juridique ?
l’informatique qui ne fait pas que mémoriser, trier, fusionner,
compter, comparer mais traite des informations avec des modèles
plus sophistiqués, simulant des processus de raisonnement et
conduisant à une décision qui pourrait ressembler au résultat d’un
raisonnement humain (sélection, qualification, discrimination).
Cependant, l’efficacité de ces dispositifs est remise en cause par
les résultats d’une enquête lancée par la CNIL 39, et surtout par
une nouvelle perception proactive de la gestion des données
personnelles par les acteurs d’internet. Si nous ne pouvons, de
façon radicale, éviter d’être profilés dans une machine ou re-
construits à travers nos transactions sur le réseau, pourquoi ne
pas prendre en main cette partie de nous-même qui nous
échappe ?

III. Vers une nouvelle catégorie juridique : la


personne virtuelle ?
Nous arrivons à la dernière étape de notre réflexion : les
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


mécanismes de cette loi seront-ils adaptés aux agents électro-
niques de plus en plus intelligents que l’on nous promet dans le
cyberespace, prêts à anticiper nos propres décisions ? Dans un
rapport officiel de 1998, la notion de personne virtuelle est
proposée, sinon comme alternative aux mécanismes législatifs
mais, du moins, comme sujet de prospective. La réflexion, est-il
signalé, a besoin d’apports juridiques mais aussi « sociologiques
38. Philippe LEMOINE, « L’identité et politiques ». La personne virtuelle est-elle simplement une
informatisée », in Les enjeux image, une métaphore ? S’agit-il de réfléchir à une nouvelle fiction
culturels de l’informatisation,
Paris, La Documentation juridique ? Une littérature commence à se développer autour de ce
française, 1980. terme 40. La notion est désormais utilisée dans plusieurs domaines
39. 46 % des sites ne sont pas du droit, sans recouvrir les mêmes interrogations.
déclarés à la CNIL, 52 % ne
précisent pas le lieu où s’exerce Réfléchir à la notion de personne virtuelle met en lumière la
le droit d’accès… (Enquête Ipsos- façon dont se construit une fiction juridique. C’est à ce titre que
Mediangle et EMAP, mai 2000 : j’en analyserai quelques aspects. Ce n’est pas tant la finalité
évaluation de 100 sites de
commerce électronique). poursuivie que la façon dont les juristes construisent des êtres
40. Philippe QUÉAU, Le virtuel : fictifs qui mérite attention. Ces fictions, nous le verrons, ne sont
vertus et vertiges, Seyssel, Champ pas loin des logiciels imaginés pour garantir notre vie privée sur le
Vallon, Bry-sur-Marne, Institut
national de l’audiovisuel (INA),
réseau.
1993 ; Grigore BURDEA et Philippe
COIFFET, La réalité virtuelle, Paris,
Hermès, 1993 ; Howard
RHEINGOLD, La réalité virtuelle :
quand l’illusion a toutes les
apparences de la réalité, Paris,
Dunod, 1993.

864
III.1. La personne virtuelle : Droit et Société 49-2001

sources terminologiques
La notion de personne virtuelle a été utilisée dans plusieurs
contextes et recouvre plusieurs réalités.
La personne virtuelle peut être vue, d’abord, comme une
personne numérique. Il s’agit d’un « groupe d’informations nomi-
natives qui circulent dans un réseau, rendant ainsi l’individu
concerné présent sous forme incorporelle ». La transformation de
la personne physique 41 en nombre, en numéro, c’est-à-dire sa
« numérisation », crée une nouvelle logique d’identification qui se
caractérise « par une domiciliation abstraite où s’exprime une télé-
personnalité ». Ce qui est en jeu pour l’analyse juridique, c’est la
distance par rapport à la personnalité. Ces questions se sont
posées à l’occasion des échanges de données numériques (EDI).
Un des objectifs de ces réflexions était de définir ce que
pouvait être un être juridique dans l’échange télématique 42. C’est
à cette occasion que la question juridique des transactions par
ordinateur et de la signature électronique a été lancée 43. La
signature, signe physique et personnel, devait changer de statut
dans le cadre de la numérisation et de la communication par
ordinateur. Ce qui distinguera un échange conventionné d’un
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


échange purement privé, c’est l’existence d’un cadre général pré-
défini auquel des partenaires nouveaux peuvent se joindre. Pour
Pierre Mackay, les logiciels de « réalité virtuelle » étaient liés aux
réflexions sur les procédures d’échanges « en tant qu’ils permettent
de simuler de façon saisissante des environnements complexes » 44.
Cette première acception de personne virtuelle renvoie à des 41. Étienne DUBUISSON, La
modes de communication où les machines n’agissent pas de façon numérotation des personnes
autonome mais comme expression numérisée de la personne physiques, thèse Université Paris
XI, 1994.
physique.
42. Herbert BURKERT, « Une
La deuxième approche de la notion de personne virtuelle expérience positive de solution
considère les systèmes informatiques comme des instruments de juridico-technique : le projet
médiation pouvant créer de nouvelles « formes de vie ». Ce n’est OSIS », in COMITÉ EUROPÉEN LEX
INFORMATICA MERCATORIAQUE
plus la distance entre personnes physiques qui est analysée à (CELIM), Les transactions
travers leurs attributs numériques mais les caractéristiques des internationales assistées par
réseaux informatiques (notamment l’ubiquité possible et les ordinateur, Paris, Litec, 1987,
p. 139-152.
actions parallèles). Les machines et les robots seraient en train de 43. Ethan KATASCH, The Electronic
modifier la notion d’échange de consentements. Le système Media and the Transformation of
informatique n’est pas seulement un ensemble d’éléments cor- Law, New York, Oxford
University Press, 1989.
porels et incorporels mais pourrait être affecté d’un embryon de
44. Pierre MACKAY, « L’échange de
personnalité juridique. Il ne s’agit plus de savoir si ces systèmes données informatisées (EDI) et
peuvent être protégés comme logiciels ou comme œuvres de l’administration de la preuve », in
l’esprit. La réflexion juridique s’est déplacée des actions du Danièle BOURCIER et Claude
THOMASSET (sous la dir.),
créateur à celles de la créature. Que peut entreprendre celle-ci ? L’écriture du droit face aux
technologies de l’information,
Paris, Diderot, 1996, p. 319-337.

865
D. Bourcier Peut-elle « créer » à son tour des messages, se substituer à une
De l’intelligence artificielle à expertise ou à une « volonté » humaine 45 ?
la personne virtuelle : On remarquera qu’il ne s’agit plus de faire une créature à
émergence d’une entité
l’image de l’homme (un robot), car l’univers du virtuel nous
juridique ?
montre que la dimension physique n’est plus nécessaire pour imi-
ter l’homme. Il ne s’agit plus, non plus, de créer une « conscience »
derrière l’intelligence artificielle 46. Il n’y aurait, pour Gilles Chazal,
que des « intentionnalités dérivées » 47, homme ou machine :
« Nous préférons à l’intentionnalité originelle, […] à nos gènes
dotés de pouvoirs mystérieux, la notion de forme informante 48
que nous pouvons toujours lire dans les traces 49 qu’en sont les
formes informées ». Le juriste sera-t-il donc obligé de revenir aux
formes et autres formalismes qui ont fondé le droit de la preuve ?
45. Le terme de création apparaît Le droit n’a pas besoin d’une théorie de la subjectivité pour
dans la plupart des définitions donner une personnalité à une entité. Certains philosophes de
techniques officielles ; voir loi-
type de la CNUDSI sur le l’informatique affirment qu’il en est de même pour le créateur
commerce électronique : le terme d’une machine intelligente : il n’a pas besoin d’une théorie de
« système informatique » désigne l’émotion artificielle. Cet obstacle (de l’émotivité, de la croyance,
« un système utilisé pour créer,
envoyer, recevoir, conserver, ou de l’intention) ne devrait donc pas empêcher la qualification de
traiter de tout autre manière des personne virtuelle pour une machine.
messages de données », Mais peut-on affecter une personnalité juridique à un système
Publication des Nations Unies,
n° 97-2270, Vienne, mai 1997. informatique ? Si tel était le cas, on pourrait en déduire qu’un
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


46. On ne reprendra pas le débat système possède une volonté propre. Actuellement, les juristes
qui a opposé John Searle et Dan considèrent que les systèmes informatiques ne sont pas suffisam-
Demmett sur la conscience et
l’intentionnalité. Pour Searle, ment « intelligents » pour mériter cette reconnaissance. Mais
nous avons le privilège humain l’argument est purement technique, donc provisoire.
du sens, donc nos artefacts n’ont Enfin, dernière référence à la personne virtuelle : dans le
qu’une intentionnalité dérivée.
Pour Demmett, « la doctrine de rapport du Conseil d’État intitulé Internet et les réseaux numé-
l’intentionnalité originelle est la riques (1998), l’auteur utilise à plusieurs reprises cette notion
thèse selon laquelle, alors que comme source de réflexion 50. La proposition est insérée dans la
certains artefacts nous doivent
leur intentionnalité, nous avons partie consacrée aux données personnelles et à la vie privée. La
une intentionnalité originelle qui personne virtuelle dans ce contexte reprend l’idée que les profils
n’est pas dérivée. Aristote disait et la traçabilité des personnes constituent des atteintes à l’identité
que Dieu est le Moteur non mû et
cette doctrine annonce que nous de celles-ci. Nous avons vu que ces atteintes proviennent de la
sommes des Signifieurs non création de méga-bases de données comportementales – consti-
signifiés. Je n’y ai jamais cru et je
m’y suis toujours opposé »
tuées à l’insu ou non de la personne –, mais aussi de l’élaboration
(Douglas HOFSTADTER et Daniel de profils et de systèmes de décision automatique. Le rapport
DEMMETT, Vues de l’esprit, Paris, distingue, à cet effet, les traitements « visibles » et les traitements
InterEditions, 1987).
« invisibles », critères qui concernent notre approche de la per-
47. Gilles CHAZAL, Le miroir
automate. Introduction à une sonne virtuelle.
philosophie de l’informatique, Si le traitement est visible et que la personne a donné son
Paris, Champ Vallon, 1995 p. 68. consentement, on peut considérer que la personne virtuelle est
48. Je souligne. constituée de l’ensemble des informations que donne un inter-
49. Idem.
naute sur un réseau ouvert. Si le traitement est invisible, il n’y a
50. CONSEIL D’ÉTAT, Internet et les
réseaux numériques. Rapport, pas de consentement et cette personne virtuelle échappe à son
Paris, La Documentation créateur aussi bien du point de vue patrimonial qu’extra-
française, 1998, p. 241.

866
patrimonial. On a vu comment plusieurs techniques tant psycho- Droit et Société 49-2001
comportementales qu’informatiques pouvaient être utilisées. L’or-
dinateur est un grand capteur de données. Ces données seront
utilisables dans des reconstructions personnalisées, même si les
éléments nominatifs ou identificatoires sont absents.
Dans cette acception, une personne virtuelle serait constituée
de l’ensemble des données permettant de construire un profil, un
double informationnel sur une personne physique. Ces données, on
l’a vu précédemment, permettent de catégoriser des personnes
réelles, et de prévoir leurs comportements sans qu’à aucun moment
ces personnes puissent être réduites à ces ensembles de données.

III.2. Une catégorie juridique émergente ou un


nouveau dispositif technique ?
Le terme de personne virtuelle a donc été utilisé par les
juristes dans des contextes différents. L’incitation à aller plus loin
dans la reconnaissance d’une personnalité juridique pour conférer
des droits et des obligations ne renvoie pas aux mêmes besoins.
On fera l’hypothèse que cette fiction pourrait résoudre deux types
de problèmes juridiques, évoqués régulièrement face aux déve-
loppements des réseaux : la protection des données personnelles
et la sécurisation des transactions.
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


Nous donnerons d’abord quelques jalons pour élaborer cette 51. Fred SCHAUER, « Internet
construction, en tenant compte des besoins pratiques et des Privacy and the Public-Private
principes juridiques. Nous verrons ensuite de quelle façon des Distinction », Jurimetrics, 38,
1998, p. 564 : « The increasing
logiciels peuvent traiter à leur tour cette fiction juridique. pervasiveness of the Internet
Comment créer une nouvelle entité juridique ? may inform the society’s general
La notion de vie privée est en train de changer 51. Il ne s’agit understandings of database
privacy, both within and without
plus seulement de se cacher derrière ses volets en exigeant d’une the Internet. Thus, increasing
cyberpolice une protection plus ou moins efficace. D’abord, cette awareness and dependence on
the Internet may change our
protection peut conduire à d’autres excès. En outre, dans une understandings of privacy
société de l’information, vouloir « protéger » ses données paraît a itself. »
priori suspect, à tel point que la tendance serait plutôt à l’invo- 52. Simson GARFINKEL, Database
cation systématique d’un intérêt légitime pour s’y opposer. Nation : The Death of Privacy in
the 21st Century, Beijing,
Pour Simson Garfinkel, la vie privée regroupe désormais les Cambridge, O’Reilly, 2000.
principes de « self possession, integrity, autonomy » 52. La notion 53. C. Stone en 1972 propose de
de vie privée est devenue proactive, c’est-à-dire positive, volontaire reconnaître un statut aux arbres
(Christopher STONE, « Should
et préventive. Cela signifie qu’il convient de voir en quoi elle peut Trees Have Standing ? Toward
donner lieu à de nouvelles institutions et de nouvelles règles Legal Rights for Natural
positives. Objects », South Carolina Law
Review, 45, 1972) ; L. Solum se
Ce n’est pas la première fois que, sous la pression d’une demande en 1992 si une
évolution technologique ou culturelle, la théorie du droit propose intelligence artificielle peut
d’accorder des statuts ou de créer de nouvelles entités 53. devenir « trustee » (Lawrence B.
SOLUM, « Legal Personhood for
La personne virtuelle à laquelle nous pensons n’est pas un Artificial Intelligence », North
prolongement de notre personnalité mais représente un ensemble Carolina Law Review, 70, 1992,
p. 1231-1287).

867
D. Bourcier de droits sur un profiling consenti de données ou d’activités. Elle
De l’intelligence artificielle à peut être « encryptée » ou avoir une identité numérique, mais elle
la personne virtuelle : n’a pas de marque personnelle sur le réseau. Elle peut être
émergence d’une entité
anonymisée et donner le minimum d’informations concernant son
juridique ?
identité à l’hébergeur. Cette possibilité sauvegarde notre propre
identité et, en même temps, garantit que nous sommes bien celui
ou celle qui conclut la transaction ou prend la décision 54.
Cette entité serait virtualisée, non parce qu’elle est déréalisée
mais parce que son ontologie répond à « une mutation d’iden-
tité ». Nous pourrions, en effet, créer plusieurs personnes
virtuelles qui nous seraient attribuées. Chaque personne virtuelle
a droit à un nombre quasi illimité de relations et peut enregistrer
le résultat de ses activités de façon permanente. Ces êtres
pourraient faire plusieurs choses en même temps : « La synchro-
nisation remplace l’unité de lieu, l’interconnexion l’unité de
temps 55. » Même si, du fait des listes ou du courrier électronique,
les entités ne se connectent pas en même temps, les moments de
connexion à l’espace commun créent un temps commun.
Certes nous ne sommes pas complètement protégés, mais
nous avons le contrôle de la façon dont nous voulons exprimer
notre identité. Cette fonction est liée au fait que nous avons des
facettes et des activités différentes résultant de nos rôles et iden-
tifications. Nous pouvons alors individualiser ces facettes à notre
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


gré et personnaliser ces différents aspects de notre « self indivi-
duel et collectif ».
Cette entité aurait juridiquement des droits et des obligations
qui seraient attribués suivant un catalogue de ressources que nous
négocierions dans une communauté virtuelle et par rapport aux
règles qui régissent cette communauté. Qu’est-ce qu’une commu-
nauté virtuelle ? « A group of person who may or may not meet
one another face to face and who exchange words and ideas
through the medium of computer bulletin boards and networks. In
Cyberspace, we argue, engage an intellectual intercourse, perform
acts of commerce, exchange information, share emotional support,
make plans, play games, fall in love and so on. Millions of us have
already built communities where our identities commingle and
interact electrically, independant of local time or location 56. »
L’État – mais aussi une association – peut être une communauté
virtuelle.
Ainsi l’entité créée pourrait être à la discrétion exclusive et
conditionnée de l’individu mais elle interviendrait dans un univers
54. J. BROWNING, « I encrypt collectif et coordonné. Les données personnelles ne seraient pas le
therefore I am », Wired, seul patrimoine de cette personne virtuelle : elle aurait des moyens
novembre 1997.
d’action, susceptibles d’évoluer suivant les fonctions dont elle (se)
55. Pierre LEVY, 1995, op. cit.,
p. 19. serait chargée.
56. Howard RHEINGOLD, 1994, op. La particularité de cette nouvelle entité serait d’intervenir
cit. dans une cybersociété. Cette personne virtuelle, comme toute

868
personne physique, se constituerait ainsi d’après le « regard de Droit et Société 49-2001
l’autre » (captage des données personnelles, mais consenti) et par
rapport à son action dans un environnement collectif (intention,
consentement, décision, coopération, interaction). Cette définition
rejoint la définition technique des agents virtuels : « Nous repré-
sentons chaque expert par un agent virtuel. Notre modèle d’agent
indique des caractéristiques individuelles et des caractéristiques
sociales relatives à l’insertion de l’agent dans une organisation et à
ses interactions avec les autres agents 57. »
Les avantages attendus de cette création sont une autonomie
plus grande par rapport à la personne physique et une adaptation
fonctionnelle et juridique plus efficace face aux contraintes spatio-
temporelles spécifiques du réseau. Cette entité virtuelle circons-
crirait les intrusions contre l’intimité de la personne physique
dont elle émane, et limiterait la responsabilité aux finalités (inten-
tions ?) confiées à cet agent intelligent et évolutif.
En tant que personne, elle pourrait alors devenir un sujet de
droit, titulaire de droits et d’obligations et distinct de la personne
physique. De la législation Informatique et Libertés, on retiendra
deux règles qui pourraient lui être appliquées :
— elle serait définie par rapport à un domaine d’application ou un
champ d’activité ;
— elle répondrait au principe de finalité. Elle pourrait s’opposer à
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


ce que certaines actions soient commises à son égard (droit
d’opposition) et demander des informations sur la façon dont elle
est traitée. Son comportement devrait en retour répondre à
certains principes (proportionnalité et licéité des données).
Enfin, son statut de personne – cette analogie avait été faite
pour la personne morale – lui permettrait de revendiquer certains
attributs de la personnalité juridique de la personne physique,
qu’il faudra spécifier : le début et la fin de la personnalité juri-
dique, l’état civil (le nom, la domiciliation, la mort), les droits de la
personne humaine (intégrité, mais quid de la vie privée ?). Des
attributs de la personne morale (responsabilité limitée, principe de
spécialité) pourraient lui être accordés...
Un tel statut accordé à une entité juridique est-il plus efficace
qu’un dispositif technique sur le réseau ?
Certains moyens numériques peuvent s’avérer des protections
efficaces (cryptage). Mais le projet de technologie P3P 58 se
rapproche plus directement de la « personne virtuelle » que nous
avons décrite. En effet, cette technologie interactive a été conçue
pour améliorer la protection de la vie privée et rétablir la
confiance entre les acteurs du web en permettant aux fournisseurs
de services de révéler leurs pratiques en matière d’informations
57. Rose DIENG et al., 2000, op.
personnelles, et aux personnes de prendre des décisions infor- cit., p. 174.
mées sur la collecte et l’usage de celles-ci. 58. http ://www.w3.org/TR/
1998/NOTE-P3P10-principles.

869
D. Bourcier L’agent intelligent (user agent) est un programme qui agit au
De l’intelligence artificielle à nom de l’utilisateur : il se substitue à lui à partir de ses préfé-
la personne virtuelle : rences (règles) en matière de filtrage de contenu, de prise de
émergence d’une entité
décision ou de vie privée. L’utilisateur peut utiliser plusieurs
juridique ?
agents en même temps (espace virtuel). L’interaction se déroule en
plusieurs étapes au cours desquelles un accord se fait sur les
engagements réciproques entre l’utilisateur et le site. Cet agent
intelligent pourrait être le support technique de la personne
virtuelle dont nous avons esquissé les traits.
Ainsi, pour le rapport du Conseil d’État (1998), l’évocation de
« personne virtuelle » appelle des prolongements juridiques clairs :
« Faut-il reconnaître l’existence d’une personne virtuelle dotée de
droits distincts de ceux de la personne physique ? » Pour d’autres,
il s’agit de reconnaître juridiquement la personnalité aux systèmes
informatiques et de leur accorder « une volonté propre indé-
pendante des êtres humains et des personnes morales ». C’est
entre ces deux approches que pourraient êtres testés, puis définis
ou refusés, les caractéristiques ou les principes de cette nouvelle
fiction au sein de la communauté des juristes. On pourrait
imaginer que les droits et obligations de la personne virtuelle
soient simulés voire incorporés dans un tel logiciel (user agent).

Conclusion. Où les fictions juridiques


© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)


rejoignent les artefacts techniques
Dans cet article, nous avons commencé à explorer les ques-
tions posées par le développement et l’usage des technologies de
l’intelligence combinées aux réseaux. Nous avons donc observé
l’émergence d’une entité qui pourrait avoir un statut par le biais
d’une technique juridique bien connue, celle de la fiction éventuel-
lement soutenue par un dispositif technique.
Ces réflexions sur l’émergence d’une catégorie nouvelle
comme la personne virtuelle visent aussi à tester les ressources
des machines pour mieux comprendre le statut octroyé à la
personne. On sait que des controverses existent sur le statut même
de personne au sens juridique. Pour les jusnaturalistes, la per-
sonne est exclusivement une personne humaine et relève de
l’ordre naturel. Mais que dire de la personne morale ? Nos per-
sonnes virtuelles ne sont évidemment pas des personnes douées
d’une unicité, d’une intériorité, d’une rationalité et d’une parfaite
autonomie comme la personne humaine. Il s’agit d’un artefact
juridique, dans une approche nominaliste et fonctionnelle des
ontologies juridiques.
Si nous considérons qu’il s’agit d’une fiction prolongeant la
conception artificialiste de la personne et obtenue par analogie,
nous nous sentons plus à l’aise pour avancer dans le statut d’une

870
personne virtuelle en tant que « sujet de droit ». Dans ce cas, elle Droit et Société 49-2001
peut effectivement avoir un patrimoine, être auteur d’actes juri-
diques (voire titulaire d’un droit de vote numérique), être protégée
et être responsable. Ces quatre caractéristiques peuvent régler la
plupart des problèmes posés par l’inadéquation de l’arsenal
réglementaire sur la protection de la vie privée et le développe-
ment harmonieux de nos activités sur les réseaux numériques.
Entre le personnage et la personne, il y a la même distance
qu’entre le masque et le profil. Il existe sur le réseau de nombreux
jeux qui permettent de masquer/protéger son identité, en
devenant un avatar. Par analogie, et grâce à une fiction juridique,
la personne humaine pourrait peut-être créer, dans le cyberespace,
son sujet de droit virtuel qui se présenterait, bavarderait, agirait et
s’engagerait au sein d’une communauté d’autres sujets de droit,
virtuels eux aussi. La personne virtuelle, entre l’Homme numé-
rique et le coffre-fort électronique de données, reste, par l’auto-
nomie technique qu’elle consacre, une solution juridique à expéri-
menter.
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)

871

Vous aimerez peut-être aussi