Robot, réponds de tes actes !

Jordanne MONSEAU

Jordanne MONSEAU
Toulouse Business School
24 ans
Prix de Publication

Machine, humanoïde, assistant, ami, ennemi ? Qu’implique juridiquement l’entrée des robots intelligents dans notre quotidien ?
Le droit et l’intelligence artificielle se sont rencontrés dès 1942 pour donner naissance aux trois lois dîtes d’Asimov.1 Ces lois robotiques définissent fictivement les « devoirs » du robot appréhendés au travers de l’humain. Cependant, le robot cognitif dit intelligent, en tant que détenteur d’une capacité d’analyse et de décision acquise par programmation ou apprentissage, se distingue des autres objets par son indépendance face à l’humain.
Vers quoi conduit cette intelligence du robot ? Pourra-t-il un jour répondre de ses actes et détenir sa propre conscience créant ainsi une nouvelle génération de robot ?2

Au-delà du simple bien juridique

Le robot intelligent agissant de manière « indépendante » peut, à cet égard, commettre des dommages. Mais dans un tel cas, qui est responsable ? Le fabricant ? Le propriétaire ? Ou le robot lui-même ?
De premier abord, le droit actuel, tant par la responsabilité du fait des choses, que par la loi relative aux produits défectueux, en passant par les garanties de conformité et de vices cachés, paraît couvrir l’ensemble des dommages pouvant être causés par un robot. Cependant, de tels mécanismes peuvent présenter des faiblesses. Par exemple, la responsabilité du fait du robot pose une difficulté dans le cas où le robot se soustrait à la garde de son propriétaire en raison de son autonomie.3
Deux possibilités sont donc à envisager afin d’éviter cet écueil :

- la distinction de la garde de la structure (fabricant) et de la garde du comportement dû à l’apprentissage du robot (propriétaire) ;

- la mise en place de règles spécifiques à l’image de la législation sur les drones permettant d’engager la responsabilité du propriétaire en cas de dommages causés par le robot.

L’hypothèse futuriste d’une personnalité juridique propre aux robots a également été développée. C’est ainsi qu’un projet européen « RoboLaw » envisage la construction d’un cadre légal selon lequel le robot détiendrait des actifs permettant le dédommagement de tiers.4 Cette responsabilité des robots, qui semble tout d’abord complexe à mettre en œuvre, peut également entraîner une déresponsabilisation du propriétaire et du fabricant, qui ne seront plus incités à créer ou utiliser des robots de manière sécuritaire. Le robot deviendrait le seul responsable de ses actes, ce qui impliquerait qu’il en ait conscience.
Une dernière possibilité, plus rétrograde, serait d’envisager le robot comme un « esclave » juridique, faisant ainsi écho à l’étymologie du terme « robot » (venant du tchèque « robota » signifiant corvée et travail obligatoire) et à la conception originelle du robot aux fins de remplacement de l’humain dans les tâches laborieuses ou domestiques à l’image des « Hubots » de la série « Real Humans » (photographie ci-dessous).

Photographie extraite de la série « Real Humans » créée par Lars Lundström et réalisée par Harald Hamrell et Levan Akin

Photographie extraite de la série « Real Humans » créée par Lars Lundström et réalisée par Harald Hamrell et Levan Akin

En tant que bien, personne ou esclave juridique, les robots demeurent soumis au droit, et ce, eu égard aux lois du pays de son éventuelle immatriculation ou de sa géolocalisation.

La soumission au droit

Aux fins de respect des législations nationales, il est envisageable que le robot intègre et mette à jour, au sein de son système informatique, les règles lui étant applicables.
Une telle fonctionnalité permettrait au robot de directement exécuter les obligations afférentes à son responsable notamment concernant le droit des données personnelles. Par exemple, les robots assistants de vie capables de capter, de conserver et d’analyser des données à caractère personnel (ex : enregistrement de voix, de traits du visage, de traitement médicaux, de résultats liés à l’apprentissage des enfants, etc.) pourront directement répondre aux exigences de la loi Informatique et Libertés en déclarant les fichiers concernés.
La machine ainsi programmée agirait en fonction d’un corpus juridique et d’une hiérarchie 5 dont la norme supérieure resterait à définir, que ce soit de manière nationale via le bloc de constitutionnalité du pays ou de manière plus universelle via un standard démocratique (la déclaration universelle des droits de l’homme), un standard religieux (dix commandements, charia, etc.) ou un standard robotique (trois lois d’Azimov).
Tout en sachant que ces algorithmes ne seront jamais suffisants et qu’il faudra comme dans l’esprit des textes faire confiance à la conscience des sujets…

Vers des robots éthiques ?

Au-delà du droit, la question de la conscience des robots, notamment militaires, est centrale, car elle influe sur le comportement de la machine et de son utilisation. En 2007, une charte éthique des robots a ainsi été élaborée en Corée du Sud afin d’éviter tout abus réciproque entre l’humain et la machine. De même, des organismes de réflexion tel que le Groupe de travail dédié à la robotique de la CERNA 6 se sont penchés sur la question de la possibilité de programmer une « morale » aux robots…
Or, à l’inverse de l’humain, le robot n’est que le résultat de sa programmation, de son apprentissage perceptuel, de sa mémoire et de son raisonnement critique. Il n’adoptera un comportement qu’en fonction des données qu’il aura captées, et non pas par rapport à une conscience autonome. Ce comportement ne dépendra pas de la propre morale du robot mais sera empreint de celle de son créateur et de son propriétaire.
Néanmoins, l’homme n’est pas toujours capable de définir une éthique universelle ou de résoudre les problèmes en relevant… Dès lors, comment imposer à un robot un comportement que l’homme, lui-même, est dans l’impossibilité de définir de manière objective et qu’il n’est peut-être pas prêt à accepter ?

Notes

1 Les trois lois d’Isaac Asimov :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Les trois générations de robots :

-          Robot automate (ex : grille-pain), qui effectue une tâche spécifique;

-          Robot réactif (ex : aspirateur autonome), qui réagit avec son environnement;

-          Robot cognitif, qui a une capacité d’analyse et de décision grâce à l’apprentissage.

3         La garde de la chose se définit par l’usage, la direction et le contrôle du bien.

4         Site Internet dédié au projet européen « RoboLaw » : http://www.robolaw.eu

5         Selon la classification des normes juridiques définie par le théoricien du droit Hans Kelsen (1881-1973) dans son   ouvrage Théorie pure du droit.

6         Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene

 

Sources

  • Cercle vicieux, Runaround, Azimov Isaac, 1942
  • Droit des robots : être ou ne pas être !, LexisNexis, Anton Kisyelyov, 28 Juin 2015
  • Du robot en droit à un droit des robots, La Semaine Juridique – Edition générale n°48, Loiseau Grégoire et Bourgeois Matthieu, 24 Novembre 2014
  • Faudra-t-il donner une personnalité juridique aux robots?, Entreprise Romande, Le Magazine, Cormon Pierre, Juillet 2015
  • Faut-il des lois pour nous protéger des robots?, L’express L’expansion, Karavan Raphaele, 4 Avril 2015
  • Le droit des robots, de l’éthique au droit, Planète Robot n°24, Bensoussan Alain, Nov-Déc 2013
  • Le droit des robots, repenser les lois des robotiques d’Isaac Asimov, Planète Robots n°33, Bensoussan Alain, Mai-Juin 2015
  • Le droit des robot, les robots avatars, Planète Robots n°29, Bensoussan Alain, Sept-Oct 2014
  • Le droit des robots, les voitures intelligentes, Planète Robots n°30, Bensoussan Alain, Nov-Déc 2014
  • L’intelligence artificielle, les robots et le droit, Laurine Tavitian, 17 Septembre 2015
  • Pour la création d’un droit des robots face à la rupture technologique, L’opinion, Bensoussan Alain, 28 Juin 2015
  • Quel statut légal pour les robots, Les Echos, Niedercorn Frank, 14 Octobre 2014
  • Real Humans revu par les chercheurs (2), CNRS Le journal, Zeitoun Charline, 12 Juin 2014
  • Arrêté du 11 avril 2012 relatif à la conception des aéronefs civils qui circulent sans aucune personne à bord aux conditions de leur emploi et sur les capacités requises des personnes qui les utilisent
  • Arrêté du 11 avril 2012 relatif à l’utilisation de l’espace aérien par les aéronefs qui circulent sans personne à bord
  • Article 1384 du Code civil
  • Article 1641 du Code civil
  • Articles 211-1 et suivants du Code de la consommation
  • Article 6131-2 du Code des transports
  • Loi n°78-717 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés
  • Loi n°98-389 du 25 juillet 1985 relative aux produits défectueux