Les continuelles avancées du secteur robotique soulèvent des questions, notamment de responsabilité. Le point avec Jean-Christophe Baillie*, qui interviendra sur le sujet au Forum Science, Recherche et Société en juin 2009.
La multiplication des robots dans la vie quotidienne soulève nécessairement des questions liées à l’éthique. Ce sera d’ailleurs le thème d’une des conférences proposées le 20 juin 2009 prochain par le Forum Science, Recherche et Société. Pour Jean-Christophe Baillie, fondateur de l’entreprise GOSTAI et intervenant à la rencontre, la question est d’autant plus importante à aborder qu’elle est encore mal définie. « Pour comprendre ces problématiques d’éthique, il faut d’abord identifier précisément le terme robot« , explique-t-il.
Pour certains, ce terme peut recouvrir des objets comme les voitures ou les maisons intelligentes. Mais, pour ce spécialiste de la robotique, dans le cas de l’éthique, cela concerne la machine qui apprend, dont la connaissance et donc le comportement évoluent au contact d’autres éléments : humain, autre robot…
De par cet apprentissage, le robot s’éloigne des données intégrées initialement par l’ingénieur qui l’a construit, pour adopter des comportements non prévus.
Plus d’informations et vidéo sur le robot apprenant devra-t-il nécessiter une éthique dans la suite …
Une définition du robot
« Il s’agit d’une catégorie d’objets nouveaux, de nature différente de l’électronique grand public » précise-t-il. La question de l’éthique appliquée aux robots se décompose donc en deux parties : « d’une part l’éthique humaine, liée à ce que le constructeur, l’ingénieur et l’utilisateur veulent en faire, à l’instar de n’importe quel objet« .
Et d’autre part l’éthique du robot en lui-même, soit le choix qu’il effectue avant d’agir, et donc la décision qu’il prend, lorsqu’il est capable d’en prendre. « Mais aujourd’hui, et pour encore quelques années, seule l’éthique humaine est d’actualité : nous ne savons pas encore créer de robots capables d’apprendre de manière générale » continue le fondateur de la société Gostai. « Nous ne parvenons à le faire que sur des tâches simples. »
Se pose alors, pour l’avenir, la question de la responsabilité. Si un robot apprenant provoque un dommage, qui en sera responsable ? Tant que le robot reste une machine exécutive, la problématique reste classique.
Ethique humaine et éthique robotique
Comme lors d’un accident automobile, le constructeur n’est pas responsable de ce que le conducteur fait de son véhicule. Mais si le robot est capable d’apprendre, « il s’agit d’une question qui s’apparente davantage à une problématique d’éducation, à l’instar de la responsabilité de parents en cas de délit de leur enfant« .
Et Jean-Christophe Baillie d’évoquer le domaine de la robotique développementale, qui prend pour modèle l’évolution d’un enfant. « Ce qui est intéressant, c’est que les chercheurs de cette branche abordent le problème de l’apprentissage d’actions et de représentations du monde« .
Et Jean-Christophe Baillie de terminer : « il est difficile de discuter de ce qui n’existe pas encore. Dans une vingtaine d’années, l’humain sera peut-être augmenté et intègrera directement de la robotique dans le corps. Dans ce cas, il ne serait plus pertinent d’opposer humain et robot, et les débats sur l’éthiques deviendraient plus compliqués« .
* fondateur de la société Gostai spécialisée dans l’intelligence artificielle orientée robotique.
Source : L’Atelier
Cette problématique n’appartient déjà plus à la science-fiction : en octobre 2007, en Afrique du Sud, un canon robotisé a tiré du 35 mm, sans raison apparente, a tué neuf soldats et en a blessé 14.
Le Oerlikon GDF-005, arme anti-aérienne, est devenu soudainement incontrôlable. En avril 2009 en Suède, un robot a “attaqué” un ouvrier le blessant grièvement.
En Irak, les fameux robots SWORDS armés n’ont pas eu le temps de tirer une seule cartouche, et n’en tireront jamais plus, car ils ont été retirés du service actif. Ils auraient mis en en joue un membre de la coalition sans qu’on le lui demande.
Un embryon d’éthique pour les robots avait été imaginé par l’écrivain de science-fiction Isaac Asimov, avec ses Trois lois de la robotique, des règles auxquelles tous les robots positroniques qui apparaissent dans sa fiction doivent obéir :
1. Un robot ne peut porter atteinte à un être humain, ni en restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.