Année 2018. Les familles d’un soldat et d’un sous-officier américains reçoivent 100 millions de dollars de dommages et intérêts de la firme Milibots Inc. Les deux militaires, pris comme boucliers humains par des insurgés afghans qui venaient de s’emparer de leur batterie mobile de missiles, ont été « sacrifiés » par le robot autonome JCN 3000 chargé de la protection du convoi. En détruisant la batterie et ses servants, le robot a voulu parer un risque imminent d’utilisation de ces armes, susceptible d’occasionner un plus grand nombre de morts dans le camp allié, a tenté de faire valoir Milibots Inc, lorsque l’affaire a été ébruitée – avant de sortir son chéquier.
2020. Le Tribunal pénal international fait comparaître un « robot casque bleu » Swissor B12, dans une affaire de crime de guerre en Géorgie. C’est le contenu de sa boîte noire qui intéresse le tribunal. La présence de ce témoin mécanique n’a semble-t-il pas empêché ses camarades de section humains de se venger sur des civils d’une embuscade ayant fait des morts dans leurs rangs près d’un village frontalier russe.
science-fiction ? Pas tout à fait. Ces deux exemples illustrent des scénarios susceptibles de se produire dans un proche avenir, à mesure que les robots autonomes se multiplieront dans les zones de conflit. Seront-ils dotés d’un sens moral pour prendre les bonnes décisions ? Rendront-ils les guerres moins meurtrières ? Le sens du sacrifice de ces « consommables » réduira-t-il les pertes humaines ? En cas de dérapage, qui sera responsable – leur constructeur, l’armée qui les a enrôlés, les robots eux-mêmes ? Mais alors, comment punir une machine ?
Les états-majors commencent à se soucier des enjeux éthiques qui se profilent. En témoigne la publication, fin décembre 2008, d’un rapport intitulé « Robots militaires autonomes : risques, éthique, design », commandé par l’US Navy.
Plus d’informations et vidéo sur Un sens moral pour les robots militaires dans la suite …
Lire la suite »