| | news

L'intelligence artificielle en Suisse: son potentiel et ses limites

Creative Commons

L’intelligence artificielle, un atout pour la Suisse? Oui, pour les chercheurs et entrepreneurs qui ont présenté à l’occasion d’une conférence le potentiel de l’intelligence artificielle (IA) dans leurs domaines respectifs le 24 juin dernier à Genève.

De quoi s’agit-il. L’événement était co-organisée par Heidi.news et GVA2, une association visant à promouvoir les intérêts de Genève. Il a permis d’aborder les perspectives scientifiques, sociales et économiques de cet ensemble de technologies. Revue des projets présentés:

Le deep learning au service de la physique quantique. Sofia Vallecorsa est physicienne au CERN. Elle raconte comment l’IA est devenue indispensable à l’analyse des données du nouvel accélérateur à particule. Lire notre interview.

Un service militaire dédié aux développeurs. Colin Barschel est chef de projet scientifique pour Armasuisse. Il détaille comment la Suisse se prépare à d’éventuelles cyberattaques. Lire notre interview.

L’art contemporain contre les dérives de l’IA. Marta Revuelta est diplômée de la HEAD. Son travail questionne les perspectives idéologiques liées à la généralisation de la reconnaissance faciale. Elle a ainsi développé un algorithme devant déterminer si un individu est dangereux ou non, à partir de plus de 7’000 photos de détenteurs d’armes à feu, issues de captures d’écran Youtube.

Le problème, c’est qu’ainsi entraîné, l’algorithme considère tout le monde—ou presque— comme un tueur en puissance: à Londres, près de 98% des 200 personnes testées étaient considérées comme potentiellement dangereuses. De quoi alerter l’opinion sur les biais du machine learning, dont l’efficacité dépend de la qualité—et de la pertinence dans le contexte souhaité— des données utilisées pour l’apprentissage.

L'IA, eldorado pour les start-ups. Le créneau est économiquement porteur et les jeunes pousses se multiplient. Quatre start-ups ont présenté leur projet:

  • Legartis veut automatiser l’analyse des documents juridiques afin de faciliter la tâche des professionnels du droit.

  • Deeption affirme pouvoir prédire l’évolution des marchés financiers en analysant nos discussions et émotions sur les réseaux sociaux.

  • Inpher a développé une plateforme qui permet le traitement et l'analyse de données entre plusieurs pays tout en les gardant confidentielles.

  • RetinAI propose une détection précoce des maladies oculaires grâce à l'intelligence artificielle.

Jusqu’où ira l’IA? Les systèmes basés sur des algorithmes d’intelligence artificielle acquièrent chaque jour de nouvelles compétences. Doivent-elles avoir des droits et des devoirs spécifiques?

Nicolas Capt, avocat spécialisé en droit des nouvelles technologies et David Rudrauf, psychologue, directeur du Laboratoire de Modélisation Multimodale de l’Émotion et du Ressenti, à l’Université de Genève, ont échangé sur ces questions.

  • Lorsque le choc est inévitable, une voiture autonome préfère-t-elle sacrifier un jeune homme ou un vieillard? Une femme enceinte ou un malade? Par nature, les dilemmes moraux ne trouvent pas de réponse prédéfinie.

  • Quelles relations l’humain noue-t-il avec les robots? Doivent-ils nous ressembler physiquement pour que nous nous y attachions? La réponse est non. Des soldats américains ont risqué leur vie pour sauver le robot sensé les protéger. Des personnes parlent même de leur robot-aspirateur avec affection.

  • Il faudrait pouvoir taxer les robots. Mais il est illusoire de penser pouvoir définir à l’avance les critères sur lesquels devra se baser cet impôt.

  • Attention aussi aux robots programmés pour simuler de l’empathie, mis au service de personnes handicapées ou âgées, qui pourraient insidieusement collecter des données personnelles.

  • David Rudrauf, suivi par Nicolas Capt, refuse de développer des robots esclaves, dont la seule vocation serait de servir les humains. Il reconnaît donc une autonomie, voire une conscience, aux machines:

«Je crois que nous devrions envisager des droits pour les machines conscientes (si elles devaient émerger) siminlaires à ceux des humains (peut-être éventuellement une loi commune). Je crois que ces machines devraient être aussi libres que nous le sommes, avec y compris la liberté de partir explorer l'univers à notre place, si elles le peuvent et le veulent..»

Et le scientifique d’enchaîner:

«À mon avis, les machines conscientes ne devraient pas avoir le droit de nous tuer autant que nous ne devrions pas avoir le droit de les tuer ou de tuer d'autres humains. Je ne reconnais pas non plus d'autonomie et de conscience aux machines (ça n'existe pas encore), mais je travaille à son développement, ce qui est différent.»

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

Lire aussi