#intelligence artificielle


S'abonner
| | news

Comment l'IA pourrait transformer un mauvais médicament en excellent antibiotique

Image d'illustration | MIT News

Face à l’augmentation de l’antibiorésistance, l’humanité a désespérément besoin de nouveaux antibiotiques. Des chercheurs du MIT explorent une nouvelle voie: l’apprentissage profond (ou deep learning), approche désormais classique en intelligence artificielle, pour identifier, dans des bases de données de molécules, celles ayant des propriétés antibactériennes. Résultat: la redécouverte d’un ancien candidat médicament contre le diabète, qui s’avère être un antibiotique à large spectre prometteur.

Pourquoi c'est intéressant. Développer de nouvelles solutions antibiotiques est compliqué: l’invention de nouvelles molécules exige des investissements très importants. Selon l'OMS, seulement 60 agents antibiotiques sont actuellement en cours de développement. Un nombre bien faible dans un contexte où de nombreuses bactéries deviennent de plus en plus résistantes aux antibiotiques.

| | radar

Des algorithmes meilleurs que les humains pour prévoir les récidives?

La réforme de la justice pénale américaine envisage l'utilisation d'algorithmes pour évaluer les risques de récidive. Credit: Keystone-ATS

L’intelligence artificielle tente d’infiltrer même la justice pénale. Non sans mal. Il y a deux ans des chercheurs de l’Université de Dartmouth avaient conclu que les machines ne sont pas meilleures que les humains pour prévoir les récidives. En affinant leur méthodologie, des chercheurs de Stanford et Berkeley arrivent maintenant à la conclusion inverse dans une étude publiée par ScienceAdvances. Dans leur comparaison, les prévisions des algorithmes sont justes dans 89% des cas contre 60% pour les humains.

Pourquoi c’est intéressant En 2016, une étude de ProPublica montrait que les algorithmes prédisent des risques de récidive plus important pour les accusés noirs que blancs. Dans le cadre d’une recherche sur ces biais racistes, il était montré qu’un logiciel dédié n’évaluait pas mieux ces risques que les humains. La méthodologie a depuis été affinée: l’algorithme a désormais accès aux mêmes informations que celles dont dispose la justice. Ces résultats interviennent dans un calendrier particulier: la généralisation de ces algorithmes est envisagée dans le cadre de la réforme du système pénal américain.

link

Lire l'article de ScienceAdvances

| | radar

Comment pirater une Tesla avec un simple morceau de scotch

(Image d'illustration) | DAVID ZALUBOWSKI/AP/KEYSTONE

Comme d’autres voitures partiellement autonomes, les Tesla sont capables de maintenir une vitesse de croisière en «lisant», grâce à leurs caméras, les limites de vitesse affichées par la signalisation routière. Or, il est facile de les tromper à l’aide d’un simple morceau de scotch noir astucieusement placé sur les panneaux, ont montré des spécialistes de McAfee. Les voitures ont subitement accéléré de 35 à 85 miles par heure (soit de 56 à plus de 136 km/h), raconte le MIT Technology Review.

Pourquoi on en parle. En particulier depuis l’accident d’un véhicule Uber semi-autonome qui a causé la mort d’un piéton en 2018, la sécurité de ces systèmes automatisés est prise très au sérieux. Au-delà des enjeux de cybersécurité, et de la crainte d’un piratage à distance, cet exemple montre que la menace peut aussi venir de subtiles altérations de l’environnement réel.

link

Lire l'article du MIT Technology Review

| | news

L'UE dévoile son livre blanc sur le développement de l'intelligence artificielle

Image d'illustration | Commission Européenne/Flickr/Creative Commons

La Commission européenne (CE) a présenté ce 19 février sa stratégie pour l’intelligence artificielle (IA) et la gestion des données. A la clé, un livre blanc, ainsi qu’un rapport plus technique sur les enjeux juridiques des technologies associées. C’est Margrethe Vestager, Commissaire européenne chargée de la concurrence, également vice-présidente, qui a coordonné ce travail, dans le cadre de la priorité A Europe fit for the digital age, fixée par la présidente Ursula von der Leyen pour la période 2019-2024.

Pourquoi on en parle. Aujourd’hui, on ne parle plus seulement des GAFAM (Google, Apple, Facebook, Amazon, Microsoft, du nom des cinq entreprises américaines leaders sur le numérique) mais aussi des BATX (Baidu, Alibaba, Tencent, Xiaomi), quatuor d’entreprises chinoises en pointe. A travers cette initiative, l’Europe veut se positionner face aux Etats-Unis et à la Chine, et s’assurer les moyens de ses ambitions de devenir un leader mondial.

| | radar

En Inde, des «deepfakes» pour traduire un discours politique dans plusieurs langues

Manoj Tiwari a utilisé le principe du deepfake pour traduire un discours vidéo en plusieurs langues | Montage d'après Youtube

On pointe souvent du doigt les deepfakes, ces vidéos inventées de toutes pièces par un algorithme. En Inde, la technologie vient de fournir un cas d’usage étonnant, en permettant de traduire un discours dans le cadre d’élections à Delhi. Une vidéo a ainsi été diffusée en haryanvi, langue parlée par une part importante de travailleurs migrants à Delhi, et en anglais, raconte Vice. Manoj Tiwari, président du parti Bharatiya Janata, y critique le gouvernement.

Pourquoi cela pose de nouvelles questions. En Inde, près de 40% de la population parle le hindi, mais plus de 500 dialectes sont aussi utilisés, ce qui mène en général à des campagnes politiques très ciblées. Mais au-delà de leur usage à des fins de traduction, ces technologies posent des problèmes de confiance. En Inde, la maîtrise du numérique est loin d’être acquise par tous les citoyens, ce qui pose des risques accrus en cas de manœuvres de désinformation, souligne l’article.

link

A lire sur Vice

| | radar

Bruxelles va encadrer les usages «à risques» de l'intelligence artificielle

Margrethe Vestager | Flickr

Big brother à la chinoise ou simple moyen de paiement, la reconnaissance faciale divise à Bruxelles. Pour réguler un secteur en pleine croissance et largement dominé par les Etats-Unis et la Chine, un «livre blanc» avec des pistes d’actions va être présenté par la Commission européenne.

Pourquoi c’est important. De ce projet Bruxelles souhaite faire émerger une prise de conscience des risques qui s’appliquent à l’usage de l’IA. Parmi les principaux points, la mise en place d’une «supervision humaine», comme l’a indiqué la vice-présidente de la Comission euopéenne, Margrethe Vestager, en charge du digital. D’autres aspects de l’IA seront aussi discutés par l’exécutif européen: la reconnaissance faciale, et l’usage des données.

link

Les Echos

| | radar

Des sociétés japonaises développent une valise pour guider les aveugles

Capture d'écran d'une vidéo de présentation. | BBeep

Cinq sociétés, dont IBM Japon, co-développent une valise intelligente, nommée Bbeep, conçue pour guider les personnes ayant une déficience visuelle. Equipée de caméras et de capteurs, elle peut être embarquée à bord d'un avion et remplacer les chiens-guide.

Pourquoi c’est encourageant. En cours de développement, la valise est testée actuellement et un prototype pourrait être proposé dès le mois de juin. Une commercialisation pourrait être envisagée d’ici 2022.

link

A lire dans The Mainichi

| | radar

Les Pays-Bas contraints d'abandonner leur algorithme pour détecter la fraude à l'aide sociale

Une consultation dans un bureau de l'aide sociale à Zurich. | Christian Beutler / Keystone

Aux Pays-Bas, la justice a ordonné ce mardi 5 février aux autorités de stopper l’utilisation de SyRI, un outil basé sur l’intelligence artificielle pour détecter les fraudes à l’aide sociale, raconte Le Temps. Ce système, déployé uniquement dans certains quartiers de Rotterdam et Amsterdam et qualifié par l’ONU d’«Etat de surveillance contre les pauvres», était combattu par une coalition d’organisations de la société civile et de syndicats. Le tribunal a retenu son caractère discriminatoire.

Pourquoi c’est important. Comme le rappelait Heidi.news récemment, l’utilisation d’algorithmes d’intelligence artificielle dans l’implémentation des politiques sociales soulève de nombreuses questions et peut conduire à aggraver certaines inégalités. Le verdict néerlandais aura certainement une résonance dans d’autres pays. En Grande-Bretagne ou en Australie, par exemple, des cas comparables sont aussi devant les tribunaux, souligne Le Temps.

link

Lire l'article du Temps

| | vidéo

Un QR code pour traquer les contrefaçons

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

La contrefaçon est un business juteux qui représentait en 2019 un peu plus de 3% des échanges commerciaux, selon l’OCDE. Un chiffre en hausse, puisqu’il n’était que de 2,5% en 2013. En 2019, la valeur des marchandises contrefaites s’élevait à 500 milliards de dollars. Pour répondre à ce problème, une spin-off de l’EPFL a développé un QR code, afin de donner une identité infalsifiable à un produit. Justin Picard, qui a co-fondé ScanTrust en 2014, précise ce projet, présenté aux AMLD à l’EPFL.

Comment ça marche. Le principe est simple: chaque produit ou composant se voit attribuer un QR code, qui abrite de précieuses informations de provenance et de traçabilité. «Ce QR code, c’est un peu comme le numéro d’identification sur la carte d’identité», détaille Justin Picard. Et ce numéro d’identification, de nombreux produits et secteurs en ont besoin: «tout ce qui est de marque peut être contrefait». Le fabricant peut ensuite suivre son produit en temps réel, et prévenir les copies illégales: en scannant chaque QR code à chaque étape de la production à la vente, on s’assure que chaque exemplaire est unique.

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

| | vidéo

«L'IA en aviation permet de détecter les signes précurseurs avant une situation critique»

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

L’aviation est un secteur traditionnellement truffé de nouvelles technologies, où l’intelligence artificielle est appelée à prendre de plus en plus de place. À l’École nationale de l’aviation civile (ENAC) à Toulouse, des chercheurs travaillent sur l’amélioration de l’atterrissage grâce au machine learning. Daniel Delahaye, l’un des experts aux commandes, était présent aux AMLD. Il détaille pour Heidi.news le projet.

Comment ça marche. Au moment de l’approche de l’avion, «il s’agit d’être dans l’axe, à la bonne vitesse, selon la bonne pente». Or, il arrive que ces conditions ne soient pas correctement remplies, comme en février 2009, où un avion de Turkish Airlines s’est écrasé à Amsterdam. Selon l’expert de l’ENAC, 47% des accidents se produisent lors des phases d’approche et d’atterrissage.

| | radar

Qui doit se préoccuper des biais de l'intelligence artificielle?

Image d'illustration | Ars Electronica/Flickr/Creative Commons

Au cours des dernières années, la dimension éthique est parvenue à se frayer un chemin au sein des recherches en intelligence artificielle. Mais à quel niveau doit se tenir cette discussion? La revue Nature s’interroge ainsi sur l’opportunité de mettre en place un comité éthique choisissant les articles publiés à l’occasion des congrès scientifiques tels que le Neural Information Processing Systems (NeurIPS), l’un des plus importants du domaine, qui s’est tenu en décembre.

Pourquoi on en parle. Les géants du numérique comme Google, aujourd’hui responsables d’une large part de la production de littérature scientifique sur la question, mettent peu à peu en place des cadres visant à limiter les biais de ces technologies, mais avec un succès relatif, et des soupçons d’opportunisme. En filigrane, l’article pose ainsi la question du contrôle éthique de ces recherches: faut-il placer le curseur au niveau des réglementations nationales, au niveau des codes de conduite des entreprises, ou au sein même du processus de production de littérature scientifique? Ou peut-être même tout cela à la fois?

link

Lire l'article de Nature

| | vidéo

L'intelligence artificielle pour trouver «la meilleure forme possible» en ingénierie

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

Neural Concept, start-up basée à l’Innovation Park à l’EPFL de Lausanne, était présente aux Applied Machine Learning Days. Elle propose d’appliquer les principes du deep learning à la conception géométrique afin d’optimiser divers paramètres physiques, par exemple l’aérodynamisme. De quoi réduire les coûts et temps de production. Luca Zampieri, ingénieur pour Neural Concept explique le concept dans la vidéo ci-dessus.

Pourquoi c’est important. «Traditionnellement, un ingénieur va réaliser un design et le tester», explique Luca Zampieri, «il va donc essayer peut-être 10 ou 50 designs par jour maximum» puis réaliser des simulations numériques, par exemple d’écoulement fluide dans le cas de l’aérodynamisme. Neural Concept promet de pouvoir tester, grâce au deep learning, «des millions de designs» afin de non pas «trouver une forme suffisamment bonne» mais bien «la meilleure», avance l’ingénieur. Une technologie qui a déjà fait ses preuves puisque la start-up de l’EPFL a développé grâce à cette technologie un vélo de course à l'aérodynamisme optimisé, qui a battu deux records du monde de vitesse.

Une actualité vous interroge ?

Posez votre question à la rédaction de Heidi.news

| | news

Les dangers de l'automatisation appliquée aux aides sociales

Image d'illustration | JoLynne Martinez/Creative Commons/Flickr

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

Les outils du machine learning souvent utilisés en intelligence artificielle sont-ils vraiment neutres lorsqu’on les applique à l’implémentation des politiques sociales, par exemple pour automatiser l’identification de la fraude sociale? Considérer ces algorithmes comme des boîtes noires peut conduire à aggraver certaines inégalités sociales, ce que montrent plusieurs exemples de déploiement de ces technologies en Europe. Panorama.

Pourquoi c’est émergent. Pays-Bas, Royaume-Uni, Australie… Nombreux sont les pays à avoir expérimenté ce type de système. Avec quelle efficacité, et quels effets sur les inégalités? La question, qui lève de nombreux enjeux de transparence, concerne aussi la Suisse: le 29 janvier 2020, 24 heures révélait que le canton de Vaud allait placer des émetteurs GPS sur les voitures des personnes suspectées de fraude aux services sociaux.

| | news

Les risques de l'obsolescence de nos compétences face à l'intelligence artificielle

Image d'illustration | Pexels

Heidi.news est partenaire des Applied Machine Learning Days (AMLD), et a déplacé sa rédaction à l'EPF de Lausanne, sur le site de l'événement.

L'utilisation de plus en plus généralisée de l'intelligence artificielle et du big data pourrait bien s'accompagner d'un défaut de compétences pour bon nombre d'entreprises dont les employés, y compris les dirigeants et managers, ont été formés avant ce nouveau tournant technologique. Une situation qui s'accélère et à laquelle les voies de formation continue classiques peinent à faire face. Le système académique, quant à lui, commence tout juste à s'y adapter.

Pourquoi on en parle En une décennie, l'intelligence artificielle est passée de curiosité de laboratoire à technologie incontournable dans les milieux économiques, financiers et industriels, en passant par la médecine. Une percée fulgurante à laquelle les acteurs de ces différents secteurs n'étaient pas forcément préparés. Mauvaise utilisation des nouveaux outils, méconnaissances des possibilités et limites des algorithmes employés, obligation de suivre le mouvement avec une équipe mal formée ou encore incapacité à repérer les bons spécialistes à engager: autant de difficultés provenant du manque de compétences et de connaissances sur ce sujet complexe qu'est l'IA.

| | interview

Max Tegmark: «Il faut créer un CERN de l'IA dédié aux recherches biomédicales, global et ouvert»

Max Tegmark lors de sa présentation lundi soir 27 janvier 2020 à l'EPFL | Martin Vetterli/Twitter

Heidi.news est partenaire des Applied Machine Learning Days (AMLD), et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPF de Lausanne, sur le site de l'événement.

Il est temps de prendre à bras le corps la question du contrôle de l’intelligence artificielle (IA), et de cesser d’attendre que le futur se passe. C’est le plaidoyer délivré par l’un des pontes actuels de l’IA, Max Tegmark, professeur de physique au prestigieux MIT de Boston à l’assemblée des AMLD2020, lundi soir à l’EPFL.

Pourquoi c’est intéressant. L’homme est aussi célèbre pour avoir co-fondé le Future of Life Institute, qui s’intéresse aux risques existentiels menaçant l’humanité, surtout ceux provenant de l’IA. De manière courageuse, alors que l’IA est plutôt connotée négativement, le scientifique plaide aussi pragmatiquement pour que l’on voit aussi les bienfaits associés à cette technologie. Comme l’idée de l’appliquer globalement aux recherches biomédicales en créant ce qu’il nomme un « CERN de l’IA au profit de la santé ». Il a accordé une interview exclusive à Heidi.news lors des AMLD.