Relation Homme-Robot : que nous dit la loi ?

Décryptage – D’abord des êtres de papier, les robots se sont extirpés des pages de science-fiction pour prendre corps sur Terre. De Unimate, premier robot dans l’industrie automobile à Erika, présentatrice du journal télévisé japonais, ces créatures technologiques pullulent et se perfectionnent. À l’ouvrage dans le domaine médical, militaire, industriel ou domestique, on leur attribue des capacités primaires d’intelligence, d’autonomie, et même d’empathie. De l’assemblage de ferrailles à un anthropomorphisme parfois déroutant, l’humanisation des machines s’accélère. 

Comment la loi encadre ces évolutions ? En France, les robots dépendent du droit des biens, en d’autres termes, ils ne jouissent ni de droit, ni de devoir. Et pourtant, un haut degré d’autonomie des robots soulève des questions à la fois éthiques et juridiques. Doit-on limiter l’humanisation des robots ? En cas de dommages,  à qui incombe la responsabilité ? Les robots devront-ils répondre de leurs actes ? Pour y répondre, Caractères interroge Alain Bensoussan, avocat à la cour d’appel de Paris et spécialiste  du droit des technologies avancées.

Point de vue – Les relations Homme-Robot, qu’elles soient encadrées par la loi ou non, poseront de nouveaux défis. L’Homme par sa nature instinctive, complexe et imprévisible s’accordera-t-il avec le fonctionnement programmé et raisonné d’une machine ?  Pour l’heure, la cadence des innovations en robotique s’accélère d’un côté, quand de l’autre, la loi tâtonne. Derrière une certaine frilosité à légiférer sur les évolutions technologiques, se cachent des intérêts économiques. Dans les secteurs de pointe comme la robotique et l’intelligence artificielle, la France et l’Union européenne bataillent sur la scène internationale pour être des acteurs pionniers. Des résolutions et des recommandations souples sont alors préférées à des lois restrictives et susceptibles de brider l’innovation technologique. 

 Depuis plusieurs années, vous menez un plaidoyer en faveur du développement du droit de la robotique. La création d’une personnalité juridique pour les robots est devenue votre véritable fer de lance. Dans quelle mesure cette innovation juridique est-elle essentielle à la relation Homme-Robot ?

En théorie, les humains naissent libres et égaux en droits. En régulant notre liberté, on s’est attribué une personnalité juridique générale. Par la suite, lorsqu’on a voulu inventer un mécanisme de concentration du capital, on a créé des personnes morales avec une personnalité juridique particulière. Aujourd’hui, lançons le terme personnalité juridique singulière pour les robots, car les robots sont des sujets et non des objets de droit. Leur singularité juridique repose sur les trois piliers que sont : la responsabilité, la traçabilité et la dignité. 

Le besoin d’un statut juridique est d’autant plus nécessaire que les robots développent un phénomène de double indépendance. Pourquoi parler de double indépendance ? Car le robot est à la fois capable de percevoir son environnement et de prendre des décisions que personne ne lui a dictées. Comme les hommes, chaque robot devient unique par le biais de son expérience et de ses capacités d’auto-apprentissage. Comme les hommes, deux robots dans deux espaces différents auront des réactions distinctes. 

Évidemment, l’erreur humaine n’est pas équivalente à l’erreur robot, mais soumettre les robots au droit des objets, c’est un non-sens. Pour ou contre, à terme, nous serons forcés de créer un droit particulier aux robots.

La création d’un statut juridique hybride qui mêlerait droit des biens et droit des personnes est la solution envisagée. Toutefois, doter les robots d’une personnalité juridique ne comporte-t-il pas le risque de déresponsabiliser les fabricants et les utilisateurs ? 

Les fabricants sont responsables des schémas de certification, autrement dit, des règles implémentées dans le robot. De mon point de vue, la responsabilité des fabricants est engagée sur ce que j’ai nommé “la raison d’être des robots”. Pour un robot, sa raison d’être correspond au codage à l’intérieur de son système, c’est ce qui lui permet de prendre des décisions. Les fabricants sont donc uniquement responsables du code, mais l’agencement des décisions n’est pas de leur ressort.

Prenons l’exemple de la voiture autonome. L’utilisateur reçoit la consigne d’entraîner sa voiture autonome en répétant cinquante fois le même parcours. La voiture repère les lieux, puis elle devient capable de se garer en toute autonomie à la fin de l’entraînement. L’utilisateur est responsable des fonctions d’apprentissage qu’il met en œuvre sur sa voiture autonome et du respect de la raison d’être du robot. Si les fonctions d’apprentissage expressément demandées ne sont pas réalisées par l’utilisateur et que le tout est enregistré en tant que preuve, alors sa responsabilité est engagée.

Le monde de demain ne sera pas organisé autour d’une responsabilité exclusive des robots envers les humains. Nous devrons apprendre à jauger cette responsabilité entre le robot programmé et l’humain dont les comportements ne sont pas nécessairement conformes aux règles.

Depuis 2019, le Parlement européen a adopté deux résolutions qui encouragent le développement du droit de la robotique. Par définition, ces résolutions se limitent à des recommandations souples. Les institutions françaises comme européennes tardent à légiférer sur l’utilisation des robots, comment expliquez-vous ce phénomène ?

En cinq ans, le droit de la robotique a explosé partout dans le monde. Le droit est évolutif et comme souvent, c’est le droit pénal qui anticipe le droit civil et technologique. On peut alors parler d’une reconnaissance en creux du statut juridique des robots. Par exemple, la loi pacte de 2019 clarifie le régime de responsabilité dans le cas où une voiture autonome serait impliquée dans un  accident. La règle est la suivante : lorsque la voiture est en position d’autonomie, la responsabilité pénale du conducteur ne peut pas être engagée. La loi ne fixe pas de responsabilité pénale, mais elle a le mérite de déterminer qui est irresponsable dans la situation donnée. 

Si j’attends avec hâte le premier procès, pour le moment, ni en France ni en Europe nous n’avons pas connu de tels cas. Seuls les Etats-Unis ont rencontré les premières affaires avec trois  accidents impliquant des voitures autonomes. La plupart du temps, les accidents ne sont pas causés par la défaillance de la machine mais par celle de l’Homme en interaction avec la machine. C’est par exemple un cycliste qui, selon le code de la route intégré chez le robot, n’avait pas le droit de traverser à un moment donné.  La mauvaise anticipation du robot n’est pas une défaillance, mais c’est une anticipation erronée déclenchée par l’entorse du cycliste au code de la route.

La ressemblance entre humanoïde et humain est de plus en plus saisissante. Quel regard portez-vous sur ces questions éthiques ? Quels sont les dangers cachés de l’humanisation des robots ?

Les robots sont une nouvelle espèce, mais je considère que la décision de les humaniser revient aux concepteurs. Si les robots sont féminisés et portent des prénoms, c’est peut-être que nous dépassons la vallée de l’étrange, thèse non vérifiée qui avance qu’en dessous d’un haut degré de perfection des humanoïdes, nous serions gênés par leur ressemblance anthropomorphique. 

L’enjeu primordial n’est pas de savoir si l’anthropomorphisme doit être poussé à son extrême. Ce qui importe par-dessous tout, c’est le respect du droit à la transparence. L’Homme, en interaction avec la machine, doit toujours être en capacité de comprendre qu’il se trouve face à un robot. Le robot physique ou le robot logiciel ne doit pas tromper l’interlocuteur humain.

La vraie question est de déterminer qui, de l’Homme ou du robot, aura la décision en dernier ressort. Doit-on mettre un bouton rouge sur le robot ? Est-ce que les humains auront toujours la possibilité de déconnecter le robot ou est-ce que les robots pourront être autonomes par rapport à la décision humaine ?