Les robots seront-ils des justiciables ?

Nina LASBLEIZ

Nina LASBLEIZ

18 ans
Faculté de Droit et de Sciences Politiques de Rennes 1
Mention spéciale du Jury

Imaginez-vous propriétaire d’une voiture autonome.
Vous lui demandez d’aller chercher seule un ami. Sur le trajet, elle calcule mal les distances et devient alors actrice d’une situation accidentelle : deux voitures lui font face, la première doublant la seconde. Il n’y a pas assez de temps pour ralentir. Votre voiture doit obligatoirement en percuter une. Laquelle ?
L’algorithme de votre voiture autonome dotée d’intelligence artificielle va lui ordonner de percuter celle dans laquelle elle aura détecté le moins de passagers à bord.

Qui est responsable ?

Actuellement, la législation est dans l’incapacité de résoudre une telle problématique. Aucune règle de droit n’a été établie afin d’encadrer de potentiels accidents causés par la faute de ces nouvelles technologies.

Face à ces robots dotés d’intelligence artificielle, c’est-à-dire capables de simuler l’intelligence humaine, le cadre juridique ne peut appréhender la diversité et la complexité des situations dont nous auront à faire face dans les années à venir : et pour cause, les robots seront de plus en plus nombreux sur le marché1 .

De ce fait, ces petites machines intelligentes sont actuellement irresponsables. À qui, attribuerons-nous alors la responsabilité ? À vous, jeune propriétaire et utilisateur de ce véhicule intelligent ? À son concepteur ? Son fabricant ? Et si ce dernier est lui-même un robot?

A la recherche d'un encadrement juridique

Alain Bensoussan ainsi que plusieurs autres juristes se sont posé la question de savoir comment encadrer juridiquement ces robots dotés d’intelligence artificielle.

Faut-il créer une personnalité juridique propre aux robots, leur permettant de jouir de droits et d’encourir des obligations ? Et leur permettre ainsi d’être sujet de droit ?

Force est d’admettre que certaines des sociétés commerciales ou encore certains syndicats bénéficient de la personnalité morale leur accordant des droits semblables aux personnes physiques.

Doter les robots de cette personnalité semblerait donc possible. Cela reviendrait à considérer ces machines comme des sujets de droit capables de répondre de leurs actes.

Vers une responsabilité calquée sur celle des Hommes?

Admettons que l’on dote les robots de la personnalité juridique. En l’état du droit actuel, il semble difficile de concevoir une responsabilité civile ou pénale de ces machines intelligentes.

En effet, l’engagement de la responsabilité repose essentiellement sur la capacité de discernement de l’agent responsable. Il doit être apte à maitriser ses actes tout en ayant conscience de leurs conséquences.

C’est pourquoi la jurisprudence s’est refusée de rendre responsables des machines, invoquant principalement leur manque d’autonomie décisionnelle.    

L’article 1384 du Code civil2 introduit alors un nouveau concept, celui de la responsabilité du fait des choses : un individu engage sa responsabilité délictuelle3pour le dommage qu’il aurait causé à autrui par le biais d’une chose qu’il a sous sa garde. Entendez que l’individu a non seulement l’usage, mais aussi le contrôle et la direction de cette chose.

Est-il possible pour autant de transposer ce concept au cas des robots? Compte tenu du développement de leur niveau d’intelligence et d’autonomie, le contrôle et la direction de ceux-ci semble inconcevable. De toute évidence, l’innovation dans ce domaine est en pleine croissance, ce qui laisse présager la création de robots dotés de capacités inouïes dans les années à venir, remettant ainsi en cause l’aptitude des humains à anticiper leurs comportements.

Google Car

Le 1er mars 2016, la Google car a été pour la
première fois responsable d'une collision avec un bus.

Responsabilité des robots : une fausse bonne idée

Si dans l’absolu, leur reconnaitre une personnalité juridique ne semblerait pas poser de problème, il ne faudrait néanmoins pas oublier certains aspects moraux essentiels.

Est-il réellement raisonnable d’engager la responsabilité des robots ? La question se pose sachant qu’ils ne possèdent pas de réelles capacités cognitives. En effet, non seulement ils sont entièrement imaginés, conçus et construits par l’Homme mais leurs facultés intellectuelles continuent de se perfectionner tout au long de leur existence grâce aux interactions avec l’environnement. Ainsi, la responsabilité ne leur est pas imputable car leurs décisions sont en réalité le fruit d’une prise en compte de nombreux facteurs externes.

En d’autres termes, les rendre responsables équivaudrait à les assimiler aux Hommes, ce qui conduirait à des dérives anthropomorphiques importantes. Plus grave encore : nous déresponsabiliserions les personnes à l’origine de ce robot, celles qui l’ont imaginé, celles qui l’ont programmé à agir ainsi ! L’initiative du constructeur automobile Volvo est une première à aller dans ce sens : en cas d’accident impliquant la faute de leur voiture autonome activée sur ce mode, la responsabilité de la marque sera engagée.

Afin de travailler à la source du problème, commençons dans un premier temps par obliger les concepteurs a prendre en compte des règles éthiques qui offriraient aux robots la capacité d’une prise de décision morale. Définir ces règles éthiques suppose d’apporter en amont des réponses aux situations prévisibles auxquelles les robots devront faire face, mais également penser un cadre pouvant résoudre certaines situations inhabituelles.

Ne rejetons pas la faute sur ces machines, venues au monde et fonctionnant qu’avec l’apport de l’intelligence humaine. Privilégions au contraire la responsabilité des fabricants qui, plutôt que de créer librement des robots à l’action immorale et démesurée, seraient soumis à des normes éthiques en accord avec celles de la société.

Le monde des robots va ainsi nous contraindre à repenser à la fois notre cadre juridique, mais également à éclairer quelles sont nos propres valeurs morales.

Alors, est-il préférable que notre voiture autonome percute l’automobile dans laquelle se trouve deux jeunes femmes ou celle contenant trois vieillards? L’algorithme épargne les trois vieillards. Et vous?

Notes

1 Selon le Plan National pour la Robotique, les robots pourraient devenir la prochaine révolution industrielle (d’où l’invention du néologisme “robolution” par Bruno Bonnel) avec un marché multiplié par 30 en seulement 10 ans. La Commission européenne a d’ailleurs estimé la seule robotique de service à 100 milliards d’euros en 2020. (se reporter notamment au graphique).

2 L’article 1384 du Code civil dispose dans son premier alinéa : “on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde”.

3 D’après Gérard Cornu, la responsabilité délictuelle est “en général, toute obligation, pour l’auteur du fait dommageable (ou la personne désignée par la loi), de réparer le dommage causé par un délit civil (que celui-ci soit ou non un délit pénal), en indemnisant la victime, presque toujours par le versement d’une somme d’argent à titre de dommages-intérêts”.

Sources

Ouvrages :

  • Vocabulaire Juridique, Gérard Cornu, 10ème édition, PUF.
  • Code Civil, LexisNexis, édition 2016.
  • A quoi rêvent les robots? Le monde,  grands formats, 18 janvier 2016.
  • Droit des robots : science-fiction ou anticipation? Alain Bensoussan, recueil Dalloz, 30 juillet 2015.
  • Repenser les lois de la robotique d’Isaac Asimov, Alain Bensoussan, Planète robots n°33.

Sites internet :

Autres :

  • Chaine Youtube d’un avocat spécialiste en droit des robots : Alain Bensoussan.
  • France Inter, émission “ce qui nous arrive sur la toile” de Xavier De La porte : la morale du robot.