Académique Documents
Professionnel Documents
Culture Documents
Danièle Bourcier *
Résumé L’auteur
847
D. Bourcier
De l’intelligence artificielle à
Orientations
la personne virtuelle : Le droit, qui traite plutôt des activités humaines, se trouve
émergence d’une entité désormais confronté à des activités générées par des machines.
juridique ?
Ces machines devenant intelligentes, c’est-à-dire de plus en plus
autonomes, c’est peu à peu l’ensemble des rapports entre
systèmes humains et systèmes techniques qui doit être réexaminé.
Nos machines viennent de franchir une nouvelle étape : leur
capacité à agir instantanément et collectivement dans un monde
virtuel. Cette combinaison (intelligence, apprentissage, coordina-
tion et communication) décuple leurs possibilités et réduit les
capacités humaines de contrôle et d’action. Faudra-t-il changer de
paradigme : leur donner encore plus d’autonomie, et accepter
qu’elles représentent nos intérêts dans les communautés vir-
tuelles ? L’intelligence des machines a ainsi réactivé des questions
qui relevaient traditionnellement de la philosophie : la responsabi-
lité, la volonté, l’intentionnalité, le jugement, la conscience, la
personne.
Ces interrogations pratiques seront l’occasion de reprendre les
débats juridiques qui se sont développés depuis les débuts de
l’intelligence artificielle : profils automatiques de comportement,
systèmes experts décideurs, agents cognitifs sur internet (I). Face à
ces interrogations, le législateur a élaboré des réponses en termes
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
848
simulation et observer les situations nouvelles et surprenantes qui Droit et Société 49-2001
découlent de l’autonomisation de nos créatures.
Cette entreprise n’est pas nouvelle, et ce n’est pas l’objet ici de
reprendre l’histoire culturelle et technique des robots et autres
artefacts 2.
Cependant, un renversement s’est produit après von Neumann :
ce ne sont plus les performances physiques de l’homme qui sont
simulées mais celles de son « cerveau », globalement comparé à
une machine (universelle). L’ordinateur reproduit les fonctions
humaines les plus nobles (comme comprendre, traduire, évaluer)
et surtout non répétitives, au point que la différence deviendrait
difficile à déceler entre la programmation et le fonctionnement
cérébral 3. Dès lors, dans un monde complètement virtuel, le double
invisible peut prendre la place de l’être original, à l’insu des autres
êtres virtuels. Il s’agit ici de considérer non pas que le monde réel
est devenu virtuel mais qu’il existe un univers où la réalité se
présente sous d’autres formes. Ces formes qui sont des infor-
mations, traitées et échangées par des machines, vont avoir des
effets dans la réalité.
Agent intelligent, être numérique, formes de vie, personne im-
matérielle, automate d’appel, télépersonnalité, knowbot, double 2. Voir, à ce propos, Philippe
BRETON, À l’image de l’Homme.
informationnel, avatar… 4, la sémantique des automates s’est Du golem aux créatures
enrichie de métaphores avec le développement des réseaux ouverts virtuelles, Paris, Seuil 1995.
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
849
D. Bourcier par exemple, est une matrice de textes latents. En ce sens, notre
De l’intelligence artificielle à activité sur internet réalise, à chaque interaction, un des mondes
la personne virtuelle : possibles. Enfin, les notions d’artificiel et d’immatériel sont venues
émergence d’une entité
enrichir ce réseau sémantique 9 que l’on trouve souvent relié à une
juridique ?
analyse de la post-modernité. La menace que font peser les
systèmes informatiques intelligents sur nos droits et libertés a
donné lieu à de nombreux débats juridiques et philosophiques.
Nous actualiserons trois de ces débats sur l’intelligence des
machines, en rappelant les fonctionnalités techniques, les usages
sociaux et les questions juridiques qui les ont provoqués.
850
La technique du scoring consiste à attribuer une note à chaque Droit et Société 49-2001
modalité de variable choisie pour définir un profil. Cette technique
est développée dans le domaine du marketing pour opérer des tris
dans de grands fichiers et choisir, à partir d’une cible recherchée,
une grille de notation qui permettra de dresser une liste utile
d’individus à prospecter en priorité. C’est ce qu’on appelle la
segmentation comportementale. Cette technologie est aussi utilisée
par les banques pour classer et cibler les clients à démarcher, à
partir de l’analyse des chèques ou de la nature de leurs achats par
exemple 13.
Mais la police aussi utilise le profiling. Un système informa-
tique peut permettre à la police française de faire le rapproche-
ment entre des crimes susceptibles d’avoir été commis par le
même auteur. Les questionnaires remplis par les enquêteurs sur
les homicides sont croisés. CHARDON est un système qui a été
élaboré par la brigade criminelle de la préfecture de Paris : il
s’inspire du fichier mis en place par le FBI pour favoriser
l’identification des tueurs en série. Le projet vise aussi la résolution
éventuelle de « crimes sans histoire » où n’apparaissent ni mobile,
ni piste évidente. Il propose un formulaire de 218 questions que
les policiers devront remplir lorsqu’ils sont confrontés à un
homicide, en vue de futurs recoupements.
Les logiciels de profilage peuvent aussi améliorer la produc-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
851
D. Bourcier obtenues à partir de ce qu’on appelle les enregistrements
De l’intelligence artificielle à transactionnels.
la personne virtuelle : Troisième étape de cette généralisation du profiling liée au
émergence d’une entité développement d’internet : le stalking ou « traçage » qui utilise les
juridique ?
techniques de saisie et de traitement de données de connexion
(cookies) et de données d’interrogation en ligne. Nous participons
désormais tous à la collecte de nos données personnelles, souvent
à notre insu, dès que nous nous trouvons connectés sur le réseau
internet. Comme le signale le rapport 2000 de la Commission
nationale Informatique et Libertés (CNIL), « la constitution d’un
fichier résultait jadis du seul fait de la technologie. En 20 ans,
nous sommes passés d’une problématique de fichiers à une
problématique de traces ».
Ces traces peuvent être dès lors récupérées et utilisées pour la
surveillance administrative et policière, ou pour des décisions de
gestion ou de marketing. Les cartes à puces « mouchardes » et
autres technologies « espionnes » interviennent aussi en dehors
d’internet. À titre d’exemple, le simple passage à une caisse
enregistreuse permet de collecter des renseignements sur le client.
Sur les réseaux, le pistage d’un internaute commence dès la
connexion : son fournisseur d’accès lui attribue une adresse IP
(Internet Protocol). Ce numéro est une plaque d’immatriculation.
15. La plupart des navigateurs
En analysant les fichiers (logs) d’un même numéro IP, on peut
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
852
I.2. Un système expert peut-il remplacer un Droit et Société 49-2001
expert ?
Les systèmes experts sont des technologies décisionnelles
plus anciennes : les premières applications, souvent médicales et
juridiques, sont nées dans les années 1970. Un système expert est
un système informatique qui a pour finalité de simuler l’activité
d’un expert humain et de traiter de problèmes qui mettent en jeu
une rationalité limitée. Ce domaine relève de l’intelligence artifi-
cielle, une branche de l’informatique qui vise à représenter des
fonctions cognitives humaines comme le raisonnement, la mémo-
risation, le jugement, la décision et à confier aux ordinateurs une
partie de ces facultés que nous considérons comme relevant de
l’intelligence. « Est intelligente une machine qui fait illusion et
passe pour intelligente aux yeux des hommes », disait Turing, un
des inventeurs de l’ordinateur.
Le terme de système expert a été critiqué pour son assimi-
lation à une activité intelligente humaine. Tout dépend en effet de
la façon dont on définit l’intelligence et la connaissance sur
laquelle elle opère... On dira par exemple qu’il simule l’activité
d’un expert (ou d’un être humain dans une activité décidante) :
— soit parce qu’il est conçu pour remplacer certaines activités
humaines ;
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
853
D. Bourcier « Aidé, guidé, le consultant d’un système participe déjà à la gestion
De l’intelligence artificielle à sociétale de sa propre personne 17. »
la personne virtuelle : En ce qui concerne la responsabilité de l’usage de ces
émergence d’une entité
systèmes, des questions nouvelles peuvent se poser car ils inter-
juridique ?
viennent dans des organisations complexes avec de multiples
acteurs.
Faut-il affecter au système une responsabilité objective par la
mise en jeu de la responsabilité du fait des produits défec-
tueux 18 ? Qui sera responsable si une solution est aberrante et
que le client n’a pas été suffisamment éclairé sur les limites du
système ?
Ce système est modulaire et collectif. Sa nature hétérogène ne
va pas faciliter la reconnaissance de la chaîne de causalité qui va
s’imbriquer dans les multiples aspects du programme entre les
acteurs suivants : le développeur, le fournisseur du moteur de
recherche, l’expert ou les experts (à condition que l’expertise soit
formalisée), le cogniticien (qui aide l’expert à s’exprimer mais qui
peut aussi s’être servi d’un outil d’aide à l’acquisition de
connaissances), le serveur et bien sûr l’utilisateur.
Le droit, enfin, s’intéresse à la finalité du système expert : y a-
t-il une obligation de moyen ou de résultat ? Cette structure, où les
connaissances sont séparées des mécanismes, s’oppose à celle qui
prévaut dans la programmation classique. S’agit-il d’une aide à la
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
854
auteur » 20 ? Les décisions de la Cour de cassation ont apporté une Droit et Société 49-2001
réponse en affectant une responsabilité à l’auteur mais aussi à
l’éditeur.
Évidemment, si l’on a une vue anthropomorphique du système
expert en tant que « système qui prend des décisions », la
définition peut changer. Pour Jean-Paul Cailloux 21, le logiciel est le
bourreau mais c’est le juge qui est le système expert « à tel point
qu’on pourrait se demander s’il n’est pas le coauteur sinon du
système mais au moins de chacune des consultations parti-
culières ». Pour lui, il ne peut exister de responsabilité stricte car
la notion de process ou de procédures ne peut pas s’appliquer : il
est impossible de faire de véritables validations 22 pour l’ensemble
des combinatoires. Une certaine co-responsabilité de tous les
auteurs serait la solution.
Enfin, pour Marshal Willick, il existerait une solution, celle de
considérer l’ordinateur comme intelligent au même titre qu’une
personne. « Cette identité croissante entre l’homme et la machine
pourrait rendre nécessaire une reconnaissance juridique des
ordinateurs en tant que personnes 23. » Il existe même un test, dit
test de Turing, pour savoir si ce système peut être jugé « apte » :
un interrogateur doit pouvoir reconnaître avec certitude si le sujet
qui répond est une personne ou une machine. Autrement dit, on
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
855
D. Bourcier technicien et juriste. Face à une situation de nuisance, il enregistre
De l’intelligence artificielle à correctement les fautes et les circonstances (il s’agit d’un bruit
la personne virtuelle : provenant d’une discothèque) en faisant quelques déductions
émergence d’une entité
factuelles utiles (les niveaux sonores doivent être enregistrés à la
juridique ?
fois sur le lieu d’origine mais aussi sur celui de réception du bruit,
ce que le législateur ne dit pas). Il fait un diagnostic de gêne et
« dit le droit applicable ». Mais s’il se trompe et entraîne le maire à
prendre une décision illégale inadaptée voire franchement dis-
proportionnée, jusqu’à quel point faut-il considérer que c’est le
programmeur, la machine, le maire, le fonctionnaire, le cogniticien
qui est responsable ? Certes, le droit a prévu la réponse. Le
résultat donné par une machine n’est qu’une conclusion : le maire
doit l’examiner avant de la considérer comme une décision. Mais si
les cas sont entrés automatiquement dans la machine et que la
machine se reprogramme en fonction des résultats validés voire
de nouvelles politiques, elle pourrait acquérir une certaine auto-
nomie qui impliquerait une marge de responsabilité. C’est en tout
cas le raisonnement de ceux qui pensent que les ordinateurs
ressemblent à l’espèce qui les a créés 25.
Le système expert peut faire illusion et être efficace par des
heuristiques simples. Marvin Minsky ajoutait : « Aujourd’hui les
systèmes experts démontrent un fait étonnant que nous ne
connaissions pas il y a 25 ans. Si vous écrivez des règles en SI-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
856
Premiers exemples de ce type d’application : les échanges de Droit et Société 49-2001
données informatisées. Les EDI sont des systèmes informatiques
destinés à agir juridiquement sur les réseaux : ils passent des
commandes, accusent réception sans même qu’il y ait accord
préalable actualisé des personnes physiques ou morales. Le
représentant, pour l’instant, doit être une personne. Cependant le
Code de commerce américain reconnaît déjà l’existence de ces
agents électroniques. Ce sont « des programmes d’ordinateurs
désignés pour agir au nom d’une partie sans qu’une intervention
humaine soit nécessaire ».
Le développement des EDI est un sujet nouveau pour les
échanges institutionnels. Au départ, ce type de technologie est vu
comme un mode de structuration et de traitement de l’information
qui permet à deux systèmes informatiques autonomes de
communiquer rapidement, sans saisie intermédiaire via un langage
normalisé. On a dit aussi que l’EDI est une technique d’échange
linguistique qui permet la transmission d’intentions « à travers
des phrases ». En France, EDIJUSTICE était un projet (il a été
provisoirement abandonné) qui avait pour objectif « de transposer
en contexte électronique sécurisé les précautions voulues par le
législateur et les usages judiciaires » 27.
Désormais, la plupart des échanges se font sur le web qui
comprend plus de 80 millions de pages d’information. Les inter-
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
857
D. Bourcier et exposer le « propriétaire » à une responsabilité potentielle 30.
De l’intelligence artificielle à Les utilisateurs sont actuellement capables de lire les notices de
la personne virtuelle : copyright et de savoir s’ils seront en contravention avec elles.
émergence d’une entité
Ainsi, en téléchargeant les fichiers, les utilisateurs savent à quoi ils
juridique ?
s’exposent. Mais comment distinguer ces téléchargements conscients
de ceux qui sont faits par une machine ? Si Superweb Compass
revient le soir et copie les fichiers sur le disque dur de l’utilisateur,
on peut considérer qu’une infraction peut avoir été commise. Une
Cour ne pourra séparer l’action du logiciel de celle de son
utilisateur.
Les questions posées par l’usage de ces agents doivent être
distinguées de celles qui sont suscitées par les systèmes experts.
En effet, les systèmes experts tels qu’ils avaient été conçus ne
pouvaient échapper à une intervention humaine car ils appre-
naient très peu et leurs connaissances étaient stables. Ces
nouveaux systèmes peuvent opérer rapidement des actions sus-
ceptibles d’engager la responsabilité de leur mandant.
Prenons le cas d’un être humain tué accidentellement par un
robot 31. Si l’ordinateur était doté d’un programme IA capable
d’autoprogrammation ou d’un moteur autopoïétique, on pourrait
se demander qui pourrait être « accusé » : le programmeur ou la
machine ? Pour Willick, les affaires de responsabilité en cas de
démence pourraient donner des pistes juridiques pour juger ce
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
858
une machine mise en place par lui ou elle, à une proposition Droit et Société 49-2001
standardisée dont les modalités s’imposent en dehors d’une
acceptation véritable » 34. C’est donc une fiction d’accord qui
remplacerait la réalité d’une manifestation de volonté.
859
D. Bourcier race, les opinions ou les appartenances syndicales, et les mœurs ».
De l’intelligence artificielle à Le projet français de transposition parle désormais d’« orientation
la personne virtuelle : sexuelle » ;
émergence d’une entité
— deux exceptions : le principe du consentement de l’intéressé et
juridique ?
le principe de l’intérêt supérieur (motif d’intérêt public).
Les données peuvent donc perdre ce caractère « sensible ».
Mais elles peuvent perdre aussi le privilège de la protection ren-
forcée au nom de plus grandes valeurs en balance : intérêt général,
santé, intérêt scientifique.
La directive du 24 octobre 1995 énonce des règles un peu
différentes suivant la logique suivante :
— le principe d’interdiction est réaffirmé, étendant les données
sensibles à celles qui concernent la santé et la vie sexuelle ;
— une première catégorie d’exceptions correspond à l’intérêt ou à
un acte de volonté de la personne :
* si l’intéressé donne son consentement explicite (et non plus
seulement exprès) ;
* si les intérêts vitaux (« la clause humanitaire ») de la personne
concernée sont en jeu (si notamment la personne ne peut plus
donner son consentement) ;
* si le traitement est effectué par une association à finalité
politique, philosophique, religieuse ou syndicale ;
* si les fichiers sont nécessaires pour respecter le droit du travail
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
860
Cette menace est renforcée par l’utilisation des logiciels Droit et Société 49-2001
analysés ci-dessus qui opèrent des raisonnements sur des données
en ligne et en continu, à la place du décideur. En effet, ils ont pour
fonction de rechercher sur l’ensemble du réseau des noms ou des
groupes de noms ou des données et de les agréger en fonction
d’un certain objectif. Ils simulent on line des corrélations et
peuvent faire certaines déductions qui s’apparentent à des choix
multicritères. Considérés comme des « technologies nouvelles »,
au sens de la directive par la CNIL, ces logiciels nécessiteront une
veille technologique attentive.
861
D. Bourcier tive » ? La notion semble faire une certaine part aux circonstances,
De l’intelligence artificielle à au type imprévisible de technologie utilisée, voire à la subjectivité
la personne virtuelle : de la personne. Les exemples donnés renvoient plus directement à
émergence d’une entité
des décisions privées (demande de crédit, évaluation profession-
juridique ?
nelle).
Cependant, la principale différence réside dans la présence
d’exceptions dans la directive : la personne concernée ne peut
arguer de l’illégalité de cette décision si elle est la conséquence
d’un acte volontaire (contrat) ou d’une loi et si des garanties ont
été prises. Par exemple, les principes procéduraux de non-
discrimination, de motivation et du contradictoire doivent avoir
été respectés comme pour n’importe quel acte juridique.
Quant au projet de loi français, il reprend, dans son article 25-
4, l’article 2 de la loi de 1978 qui soumet à la procédure d’auto-
risation les traitements sensibles comme ceux « ayant pour finalité
de sélectionner les personnes susceptibles de bénéficier d’un
droit, d’une prestation ou d’un contrat alors que les personnes en
cause n’en sont exclues par aucune disposition légale et régle-
mentaire » et, dans son article 38, la règle suivant laquelle toute
personne « a le droit de s’opposer à ce que les données la
concernant fassent l’objet d’un traitement » et « de connaître et de
contester la logique qui sous-tend le traitement automatisé
lorsque des résultats de celui-ci lui sont opposés ». Il s’agit en
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
862
vations », la décision est présumée ne pas avoir été prise sur le Droit et Société 49-2001
seul fondement du traitement informatique ; le projet reprend les
mêmes exceptions que la directive pour éviter la mauvaise foi du
plaignant éventuel.
La prise de décision qui a des effets juridiques peut porter
atteinte à certains droits de la personne, comme les droits de la
défense, l’exigence de motivation en cas de décisions défavorables
ou le droit à l’examen de son cas. Au delà de la prise en compte
(opaque) d’un critère illicite (et donc discriminatoire) qui peut
affecter l’impartialité, toujours présumée, de l’auteur de la
décision finale, c’est la simulation du processus décisionnel
humain qui est visée. Or l’intelligence artificielle saura traiter de
mieux en mieux ce processus dans tous ses aspects techniques.
Le principal danger des logiciels d’intelligence artificielle
réside en effet dans le fait qu’ils sont relativement opaques parce
qu’organisés sous forme de bases de connaissances – plutôt que
de données – et que les mécanismes d’inférence utilisés sont
distincts des données. La loi de 1978 avait donc accompagné cette
disposition du droit de connaître et de contester les résultats,
droit repris par le projet. Mais s’agit-il d’avoir accès à une partie
du raisonnement et des données du cas traité, ou s’agit-il, plus
largement, du droit de porter un jugement sur l’ensemble du
raisonnement ?
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
863
D. Bourcier une généralisation de « l’identité informatisée » dont parlait
De l’intelligence artificielle à Philippe Lemoine en 1980 38.
la personne virtuelle : Les articles 2 et 3 de la loi n° 78-17 du 6 janvier 1978 avaient
émergence d’une entité
pour objectif de prendre en compte la partie plus cognitive de
juridique ?
l’informatique qui ne fait pas que mémoriser, trier, fusionner,
compter, comparer mais traite des informations avec des modèles
plus sophistiqués, simulant des processus de raisonnement et
conduisant à une décision qui pourrait ressembler au résultat d’un
raisonnement humain (sélection, qualification, discrimination).
Cependant, l’efficacité de ces dispositifs est remise en cause par
les résultats d’une enquête lancée par la CNIL 39, et surtout par
une nouvelle perception proactive de la gestion des données
personnelles par les acteurs d’internet. Si nous ne pouvons, de
façon radicale, éviter d’être profilés dans une machine ou re-
construits à travers nos transactions sur le réseau, pourquoi ne
pas prendre en main cette partie de nous-même qui nous
échappe ?
864
III.1. La personne virtuelle : Droit et Société 49-2001
sources terminologiques
La notion de personne virtuelle a été utilisée dans plusieurs
contextes et recouvre plusieurs réalités.
La personne virtuelle peut être vue, d’abord, comme une
personne numérique. Il s’agit d’un « groupe d’informations nomi-
natives qui circulent dans un réseau, rendant ainsi l’individu
concerné présent sous forme incorporelle ». La transformation de
la personne physique 41 en nombre, en numéro, c’est-à-dire sa
« numérisation », crée une nouvelle logique d’identification qui se
caractérise « par une domiciliation abstraite où s’exprime une télé-
personnalité ». Ce qui est en jeu pour l’analyse juridique, c’est la
distance par rapport à la personnalité. Ces questions se sont
posées à l’occasion des échanges de données numériques (EDI).
Un des objectifs de ces réflexions était de définir ce que
pouvait être un être juridique dans l’échange télématique 42. C’est
à cette occasion que la question juridique des transactions par
ordinateur et de la signature électronique a été lancée 43. La
signature, signe physique et personnel, devait changer de statut
dans le cadre de la numérisation et de la communication par
ordinateur. Ce qui distinguera un échange conventionné d’un
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
865
D. Bourcier Peut-elle « créer » à son tour des messages, se substituer à une
De l’intelligence artificielle à expertise ou à une « volonté » humaine 45 ?
la personne virtuelle : On remarquera qu’il ne s’agit plus de faire une créature à
émergence d’une entité
l’image de l’homme (un robot), car l’univers du virtuel nous
juridique ?
montre que la dimension physique n’est plus nécessaire pour imi-
ter l’homme. Il ne s’agit plus, non plus, de créer une « conscience »
derrière l’intelligence artificielle 46. Il n’y aurait, pour Gilles Chazal,
que des « intentionnalités dérivées » 47, homme ou machine :
« Nous préférons à l’intentionnalité originelle, […] à nos gènes
dotés de pouvoirs mystérieux, la notion de forme informante 48
que nous pouvons toujours lire dans les traces 49 qu’en sont les
formes informées ». Le juriste sera-t-il donc obligé de revenir aux
formes et autres formalismes qui ont fondé le droit de la preuve ?
45. Le terme de création apparaît Le droit n’a pas besoin d’une théorie de la subjectivité pour
dans la plupart des définitions donner une personnalité à une entité. Certains philosophes de
techniques officielles ; voir loi-
type de la CNUDSI sur le l’informatique affirment qu’il en est de même pour le créateur
commerce électronique : le terme d’une machine intelligente : il n’a pas besoin d’une théorie de
« système informatique » désigne l’émotion artificielle. Cet obstacle (de l’émotivité, de la croyance,
« un système utilisé pour créer,
envoyer, recevoir, conserver, ou de l’intention) ne devrait donc pas empêcher la qualification de
traiter de tout autre manière des personne virtuelle pour une machine.
messages de données », Mais peut-on affecter une personnalité juridique à un système
Publication des Nations Unies,
n° 97-2270, Vienne, mai 1997. informatique ? Si tel était le cas, on pourrait en déduire qu’un
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
866
patrimonial. On a vu comment plusieurs techniques tant psycho- Droit et Société 49-2001
comportementales qu’informatiques pouvaient être utilisées. L’or-
dinateur est un grand capteur de données. Ces données seront
utilisables dans des reconstructions personnalisées, même si les
éléments nominatifs ou identificatoires sont absents.
Dans cette acception, une personne virtuelle serait constituée
de l’ensemble des données permettant de construire un profil, un
double informationnel sur une personne physique. Ces données, on
l’a vu précédemment, permettent de catégoriser des personnes
réelles, et de prévoir leurs comportements sans qu’à aucun moment
ces personnes puissent être réduites à ces ensembles de données.
867
D. Bourcier de droits sur un profiling consenti de données ou d’activités. Elle
De l’intelligence artificielle à peut être « encryptée » ou avoir une identité numérique, mais elle
la personne virtuelle : n’a pas de marque personnelle sur le réseau. Elle peut être
émergence d’une entité
anonymisée et donner le minimum d’informations concernant son
juridique ?
identité à l’hébergeur. Cette possibilité sauvegarde notre propre
identité et, en même temps, garantit que nous sommes bien celui
ou celle qui conclut la transaction ou prend la décision 54.
Cette entité serait virtualisée, non parce qu’elle est déréalisée
mais parce que son ontologie répond à « une mutation d’iden-
tité ». Nous pourrions, en effet, créer plusieurs personnes
virtuelles qui nous seraient attribuées. Chaque personne virtuelle
a droit à un nombre quasi illimité de relations et peut enregistrer
le résultat de ses activités de façon permanente. Ces êtres
pourraient faire plusieurs choses en même temps : « La synchro-
nisation remplace l’unité de lieu, l’interconnexion l’unité de
temps 55. » Même si, du fait des listes ou du courrier électronique,
les entités ne se connectent pas en même temps, les moments de
connexion à l’espace commun créent un temps commun.
Certes nous ne sommes pas complètement protégés, mais
nous avons le contrôle de la façon dont nous voulons exprimer
notre identité. Cette fonction est liée au fait que nous avons des
facettes et des activités différentes résultant de nos rôles et iden-
tifications. Nous pouvons alors individualiser ces facettes à notre
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
868
personne physique, se constituerait ainsi d’après le « regard de Droit et Société 49-2001
l’autre » (captage des données personnelles, mais consenti) et par
rapport à son action dans un environnement collectif (intention,
consentement, décision, coopération, interaction). Cette définition
rejoint la définition technique des agents virtuels : « Nous repré-
sentons chaque expert par un agent virtuel. Notre modèle d’agent
indique des caractéristiques individuelles et des caractéristiques
sociales relatives à l’insertion de l’agent dans une organisation et à
ses interactions avec les autres agents 57. »
Les avantages attendus de cette création sont une autonomie
plus grande par rapport à la personne physique et une adaptation
fonctionnelle et juridique plus efficace face aux contraintes spatio-
temporelles spécifiques du réseau. Cette entité virtuelle circons-
crirait les intrusions contre l’intimité de la personne physique
dont elle émane, et limiterait la responsabilité aux finalités (inten-
tions ?) confiées à cet agent intelligent et évolutif.
En tant que personne, elle pourrait alors devenir un sujet de
droit, titulaire de droits et d’obligations et distinct de la personne
physique. De la législation Informatique et Libertés, on retiendra
deux règles qui pourraient lui être appliquées :
— elle serait définie par rapport à un domaine d’application ou un
champ d’activité ;
— elle répondrait au principe de finalité. Elle pourrait s’opposer à
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
869
D. Bourcier L’agent intelligent (user agent) est un programme qui agit au
De l’intelligence artificielle à nom de l’utilisateur : il se substitue à lui à partir de ses préfé-
la personne virtuelle : rences (règles) en matière de filtrage de contenu, de prise de
émergence d’une entité
décision ou de vie privée. L’utilisateur peut utiliser plusieurs
juridique ?
agents en même temps (espace virtuel). L’interaction se déroule en
plusieurs étapes au cours desquelles un accord se fait sur les
engagements réciproques entre l’utilisateur et le site. Cet agent
intelligent pourrait être le support technique de la personne
virtuelle dont nous avons esquissé les traits.
Ainsi, pour le rapport du Conseil d’État (1998), l’évocation de
« personne virtuelle » appelle des prolongements juridiques clairs :
« Faut-il reconnaître l’existence d’une personne virtuelle dotée de
droits distincts de ceux de la personne physique ? » Pour d’autres,
il s’agit de reconnaître juridiquement la personnalité aux systèmes
informatiques et de leur accorder « une volonté propre indé-
pendante des êtres humains et des personnes morales ». C’est
entre ces deux approches que pourraient êtres testés, puis définis
ou refusés, les caractéristiques ou les principes de cette nouvelle
fiction au sein de la communauté des juristes. On pourrait
imaginer que les droits et obligations de la personne virtuelle
soient simulés voire incorporés dans un tel logiciel (user agent).
870
personne virtuelle en tant que « sujet de droit ». Dans ce cas, elle Droit et Société 49-2001
peut effectivement avoir un patrimoine, être auteur d’actes juri-
diques (voire titulaire d’un droit de vote numérique), être protégée
et être responsable. Ces quatre caractéristiques peuvent régler la
plupart des problèmes posés par l’inadéquation de l’arsenal
réglementaire sur la protection de la vie privée et le développe-
ment harmonieux de nos activités sur les réseaux numériques.
Entre le personnage et la personne, il y a la même distance
qu’entre le masque et le profil. Il existe sur le réseau de nombreux
jeux qui permettent de masquer/protéger son identité, en
devenant un avatar. Par analogie, et grâce à une fiction juridique,
la personne humaine pourrait peut-être créer, dans le cyberespace,
son sujet de droit virtuel qui se présenterait, bavarderait, agirait et
s’engagerait au sein d’une communauté d’autres sujets de droit,
virtuels eux aussi. La personne virtuelle, entre l’Homme numé-
rique et le coffre-fort électronique de données, reste, par l’auto-
nomie technique qu’elle consacre, une solution juridique à expéri-
menter.
© Éditions juridiques associées | Téléchargé le 09/04/2024 sur www.cairn.info (IP: 190.45.115.95)
871