Intelligence artificielle « forte » et robots autonomes : quel régime de responsabilité ? Par Thibault Verbiest, DS Avocat

L’on se réfère souvent à deux régimes spécifiques de responsabilité pour encadrer les robots autonomes dotés d’intelligence artificielle : la responsabilité du fait des choses et le régime de responsabilité du fait des produits défectueux.

Le premier régime n’est pas adapté à l’hypothèse d’un robot autonome car il suppose justement un certain pouvoir d’usage, de direction et de contrôle. Le second régime pose également problème car un dommage peut être causé sans que le « producteur » soit responsable d’une « défectuosité » à proprement parler, le robot ne faisant qu’évoluer de manière autonome, sur un mode d’auto-apprentissage.

C’est pourquoi certains ont suggéré l’adoption d’un régime de responsabilité inspiré du régime de responsabilité du fait des animaux, tandis que d’autres ont proposé l’instauration d’un régime de responsabilité propre aux robots autonomes. Dans ce dernier cas, il y aurait création d’une nouvelle personnalité juridique, en plus de la personne humaine et des personnes morales (comme les sociétés et associations reconnues par la loi). Ce courant a obtenu un écho favorable auprès du Parlement européen dans une résolution fort controversée adoptée en 2017.

Quelle éthique ?

Pour tenter d’apporter un éclairage plus global au débat, commençons par le début : quelles règles éthiques veut-on appliquer aux robots intelligents et autonomes ?

C’est en 1944 que la question a été évoquée pour la première fois par le célèbre auteur de science-fiction Isaac Asimov, dans ses trois lois de la robotique : 

  • Première Loi
    Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé.
  • Deuxième Loi
    Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
  • Troisième Loi
    Un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la Première et/ou la Deuxième Loi.

Ces trois lois sont aujourd’hui au cœur du débat, à tel point qu’elles ont même été citées au fronton de la résolution précitée du Parlement européen.

La Commission européenne est, de son côté, très active sur le sujet puisqu’elle a institué un « Groupe d’experts de haut niveau sur l’intelligence artificielle » (GEHN IA). Le 9 avril 2019, la Commission a publié les lignes directrices proposées par ce Groupe d’experts.

Selon lui, l’IA doit :

  • respecter les droits fondamentaux, la réglementation applicable ainsi que les valeurs et principes de base, garantissant une «finalité éthique»;
  • être centrée sur l’être humain: l’IA doit être conçue, déployée et utilisée avec une «finalité éthique», fondée sur les droits fondamentaux, les valeurs sociétales et les principes éthiques de bienfaisance (faire le bien), de non-malfaisance (ne pas nuire), d’autonomie des êtres humains, de justice et d’explicabilité. Il s’agit d’un aspect essentiel pour parvenir à une IA digne de confiance.
  • être digne de confiance dès la première étape de conception: responsabilisation, gouvernance des données, conception pour tous, gouvernance de l’autonomie de l’IA (supervision humaine), non-discrimination, respect de l’autonomie humaine, respect de la vie privée, robustesse, sécurité, transparence.

En outre, le groupe insiste sur la nécessité de faciliter la vérifiabilité des systèmes d’IA, en particulier dans les contextes ou situations critiques. L’IA devrait être conçue de manière à permettre de retracer les différentes décisions qu’elle prend. C’est un enjeu majeur pour l’humanité. A cet égard il conviendra probablement de coupler l’IA à une technologie blockchain qui tracera en temps réel son processus de décision. 

Un nouveau régime de responsabilité ? 

Au final, faudrait-il créer un nouveau régime de responsabilité du fait des choses intelligentes ? 

C’est probable. Les balises suivantes pourraient être proposées pour dessiner les contours d’un tel régime :

  • le concepteur de l’IA serait tenu pour responsable s’il n’a pas développé une intelligence
    « digne de confiance », c’est-à-dire conforme aux préceptes précités
  • le concepteur devrait établir une « étude d’impact préalable » de l’IA sur les libertés individuelles, à l’image de l’étude d’impact imposée par le RGPD dans le cas de traitements de données massifs ou sensibles.
  • L’IA devrait pouvoir être contrôlée en permanence par un « agent moral artificiel » qui signalerait des comportements anormaux et permettrait à l’humain d’intervenir, au besoin  en désactivant l’IA (et cette possibilité technique doit pouvoir exister)
  • L‘usage de cet agent artificiel, ainsi que l’établissement préalable d’une étude d’impact et d’un outil de traçabilité, relèverait d’un principe général d’accountability, toujours à l’image du RGPD.
  • Un fonds collectif d’indemnisation devrait être institué dans l’hypothèse d’un dommage causé par l’IA sans faute imputable à son concepteur.

Plus d’informations sur Thibault Verbiest, Avocat associé chez DS Avocats

AUCUN COMMENTAIRE

LAISSER UN COMMENTAIRE