Pour Laurence Devilliers, spécialiste française de l’informatique sociale, et autrice de Robots émotionnels (à paraître en août*), le risque principal est désormais de surinvestir la charge affective. Elle rappelle le statut d’objet des machines:
«Un robot est avant tout une fonction, il n’a pas de valeur morale, et par conséquent ni droits, ni devoirs. Les débats autour de la responsabilité juridique des robots sont insensés.» Et d’estimer que l’anthropomorphisme des robots doit être limité: «Des formes humanoïdes simples conviennent très bien.»
D’autres enjeux apparaissent dès lors que ce principe de base est outrepassé.
Le bluff technologique des robots réalistes. La spécialiste explique:
«Deux aspects co-existent en matière de robotique et d’émotion : la simulation des émotions d’une part, et la détection des émotions humaines d’autre part»
«La détection des émotions humaines est très difficile, car l’expression des émotions est très variable d’une personne ou d’une culture à l’autre. Elle n’est pas forcément souhaitable, car elle peut ouvrir la porte à des applications potentiellement dangereuses. Imaginez un robot de ce type au contact de jeunes enfants : cela interférerait avec leur développement. Il faut se limiter à simuler quelques émotions uniquement, et seulement lorsque c’est justifié.»
«La synthèse des émotions est plus facile que leur détection, mais représente une forme de bluff technologique, puisque les robots ne savent pas décrypter les nôtres. Au final, c’est l’humain qui y projette ses propres émotions… Un exemple : le robot humanoïde Sophia développé par Hanson Robotics, qui reproduit le visage de l’actrice Audrey Hepburn. (photo)» Sa capacité à soutenir une conversation simple et sa troublante ressemblance avec une face humaine ne doivent pas faire oublier qu’il ne s’agit que d’une machine.
Genre et robotique. Gare au mythe de Galatée et de Pygmalion, avertit la chercheuse.
«On retrouve ici le même problème qu’en intelligence artificielle : les outils sont principalement développés par des hommes… mais représentés sous des atours féminins. Il faut plus de femmes dans les processus de conception et de validation, sinon les comportements sociaux des machines renforceront les stéréotypes actuels.»
Le rôle du politique et du juridique. Laurence Devilliers appelle à poser d’entrée de jeu les règles de la cohabitation entre humains et machines. A partir de juillet 2019, une loi californienne contraindra les sociétés ayant recours à des agents conversationnels à l’indiquer clairement à l’utilisateur, avant toute interaction…. Un modèle dont tout le monde devrait s’inspirer:
«Nous avons besoin de garde-fous au niveau politique pour encadrer les applications de l’intelligence artificielle.»
Et que fait la Suisse? Ce nouvel enjeu posé par la robotique sociale n’échappe pas au débat. Par la densité de son écosystème universitaire et technologique, le pays est en pointe en robotique. Depuis 2010, il existe un Pôle de recherche national (PRN) financé par le Fonds national suisse intitulé Robotique – Robots intelligents pour améliorer la qualité de vie. Ce PRN organise régulièrement, en collaboration avec DigitalSwitzerland, un Swiss Robotics Industry Day, dont la prochaine édition aura lieu en novembre 2020. Avec cela, TA-Swiss, le Centre pour l’évaluation des choix technologiques, organise le 3 mai 2019 à Berne un débat ouvert au public, où des chercheurs répondront aux questions du public
(*) Robots émotionnels, à paraître en août aux Editions de l’Observatoire