Si un robot, muni d’une intelligence artificielle avancée, commet un dommage important à l’encontre d’une personne ou d’un bien, doit-on uniquement chercher la responsabilité civile de son créateur et/ou de son propriétaire ou doit on également rechercher sa responsabilité pénale?
Telle est l’intéressante question posée par Ying Hu, chercheur à l’université américaine de Yale.
De prime abord, rechercher la responsabilité pénale d’une telle entité paraît complexe tant cette responsabilité paraît basée sur un élément profondément humain, à savoir l’intention.
Vouloir la responsabilité pénale d’un robot, c’est considérer que celui-ci est capable, individuellement, d’une intention coupable.
Madame le Professeur Hu affirme qu’une telle responsabilité est possible, arguant notamment du fait que les robots, même s’ils ont été créés précautionneusement par un humain, peuvent commettre des actes nuisibles qui leurs sont uniquement attribuables.
Evidemment, cette réflexion ne peut s’appliquer qu’aux robots capables d’apprendre, de raisonner et d’adapter leurs comportements au fur et à mesure de leurs expériences. Leur réflexion peut être si complexe qu’il devient impossible de déterminer si l’acte provient d’une erreur de programmation ou d’une décision interne.
Intellectuellement, il n’est finalement pas si difficile d’admettre la responsabilité d’une entité non-humaine dès lors que l’on a déjà accepté dans notre droit d’envisager la responsabilité des personnes morales.
Mais la question qui suit cette réflexion est évidente, quelle peine faut-il appliquer aux robots?
Priver de liberté un robot n’aurait pas de sens. Le punir d’amende semble difficile également sauf a imaginer un monde dans lequel les robots aurait un patrimoine propre. Nous n’en sommes pas encore là.
On se rend compte de la difficulté d’imaginer une peine adaptée.
Et cela fait nécessairement réfléchir aux peines que l’on applique aux êtres humains.
Document de recherche du Pr Ying HU