On se croirait dans le film Robot, quelles sont les lois que l’on doit accorder au robot. Peuvent-ils prendre des décisions d’ordre moral ? Doit-on laisser l’intelligence artificielle agir où s’en remettre seulement à l’être humain ?
Nuage
Des experts se questionnent sur les droits et limites de l’utilisation des robots

L’humain est de plus en plus transformé par les technologies. Photo : iStock
Quels droits les robots doivent-ils avoir? Qui est responsable des actions d’une machine autonome : son fabricant ou son propriétaire? Des experts se penchent sur ces questions, rendues pressantes par les récents développements technologiques.
Un texte de David Savoie aux Années lumière
Des participants du monde entier, dont des roboticiens, des philosophes et des ingénieurs, étaient réunis à l’Université Laval à Québec, cette semaine, pour discuter des robots et de tout ce que représente leur présence dans notre société.
Ici, pas question de robots tueurs, ceux qui pourraient soumettre l’humanité à l’esclavage ou l’annihiler, comme dans le cas des films hollywoodiens. Mais plutôt de considérations assez terre à terre : voitures autonomes, intelligence artificielle et robots utilisés dans des maisons de retraite comme compagnons pour aînés.
Les intervenants ne manquent pas d’exemples pour démontrer l’urgence de se doter de règles pour encadrer les robots, leur conception et leur statut.
Par exemple, le cas de véhicules autonomes, développés en ce moment par des compagnies comme Google et Uber. Que doivent faire les véhicules devant la possibilité d’un accident? Comment la machine peut-elle trancher lorsque des vies doivent être préservées? Cette décision devrait-elle reposer sur des humains plutôt que sur un automate?
Des machines au statut moral?
« Il y a une pression à trouver une solution face à ces problèmes », soutient Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique de l’Université de Zagreb, en Croatie.
Il n’y a pas d’encadrement comme c’est le cas dans d’autres disciplines académiques ou scientifiques, comme la médecine. Pourtant, la robotique pourrait avoir des impacts sérieux sur les êtres humains.
Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique à l’Université de Zagreb
Pour le philosophe, la robotique, particulièrement la biorobotique, est si avancée qu’elle porte la promesse de créer des êtres qui seront similaires à l’humain à plusieurs égards, ou même supérieurs à l’homme.
« C’est important : comment allons-nous traiter ces êtres et doivent-ils avoir un statut moral ou des droits pour éviter les abus? »
D’autres aspects ont aussi été évoqués durant les discussions, entre autres la question juridique. Charles-Étienne Daniel, doctorant en droit à l’Université de Sherbrooke, s’intéresse à la question de la robotique, un domaine où les lois canadiennes paraissent peu adaptées.
« Sur le plan du droit réglementaire, est-ce qu’on doit élaborer des catégories spécifiques à la robotique? Est-ce qu’on doit prévoir les différents risques qui peuvent se poser, comment ces cadres-là vont se mettre en place? » se demande-t-il.
Ces échanges entre des roboticiens, des ingénieurs et des philosophes constituent les débuts d’un dialogue entre les disciplines, selon Alexandre Pitti, qui est roboticien et maître de conférence à l’Université Cergy-Pontoise, en France.

Une voiture autonome est testée à Pittsburgh. Photo : La Presse canadienne/Jared Wickerham
Une première mondiale
Un robot doit-il être soumis aux trois lois de la robotique, ces règles inventées par l’auteur de science-fiction Isaac Asimov, dans les années 40?
« Ce sont de vraies questions, parce que les robots, on est en train de les programmer, donc sur un plan pratique, il est important de penser les normes d’actions sociales et les régulations sociales », estime Marie-Hélène Parizeau, professeure de philosophie à l’Université Laval et organisatrice du colloque.
Elle est également la présidente de la Commission mondiale de l’éthique des connaissances scientifiques et des technologies (COMEST) de l’UNESCO. À l’issue de ces discussions, le comité va déposer un rapport en septembre au sujet de l’éthique des robots, qui sera remis aux États membres de l’UNESCO.
Une éthique pour les machines?
C’est une des questions qui est revenue régulièrement dans les discussions : comment établir la responsabilité juridique des machines, et comment un robot peut prendre une décision aux conséquences morales?
Plutôt que de s’attaquer de front à cette épineuse question, la professeure en ingénierie électrique de l’Université de Tel-Aviv Hagit Messer-Yaron propose de contourner le problème avec une charte qui vise à restreindre les décisions que pourraient prendre des machines. Une solution imparfaite, concède-t-elle, mais une approche pragmatique qui pourrait être mise en place rapidement.
La charte qu’elle propose couvrirait l’ensemble des situations : certains moments où la machine suit les algorithmes déterministes qui font partie de son programme, alors que dans d’autres circonstances – par exemple lorsqu’il est question de vie ou de mort – la machine ne prendrait pas de décisions, un être humain serait en charge de le faire. Et enfin, le robot décidera d’éléments avec peu ou moins d’impacts sur l’homme, comme le chemin le plus court à prendre, par exemple.
Selon elle, cela éviterait de devoir tenter de programmer les machines en fonction de critères moraux.
« Les décisions reposeraient sur des codes moraux qui existent déjà pour les hommes. Cette solution pourrait servir de cadre aux débats actuels à ce sujet », fait-elle valoir. « Je suis une ingénieure, je cherche une solution pratique », dit-elle en riant.
http://ici.radio-canada.ca/