Alexa défie un enfant de toucher une prise électrique avec une pièce

L'assistant vocal Amazon et son enceinte Echo. | Keystone/DPA / Britta Pedersen

C’est une histoire qui ne va pas rassurer les parents. Amazon a dû mettre à jour son assistant vocal Alexa après que celui-ci a défié une fillette de 10 ans de toucher avec une pièce de monnaie les broches d’un chargeur de téléphone à moitié inséré dans une prise électrique, rapporte la BBC. Alors que l’enfant a demandé à Alexa de lui trouver un «défi à relever», l’intelligence artificielle lui a répondu:

«Branche un chargeur de téléphone à moitié dans une prise murale, puis touche les broches avec une pièce de monnaie.»

C’est la mère de la jeune fille, Kristin Livdahl, qui a découvert l’incident grâce à l’historique de conversation contenu dans les enceintes Echo d’Amazon. Elle a publié la capture d’écran sur Twitter.

Pourquoi c’est inquiétant. Amazon a bien évidemment déployé un correctif dès que l’entreprise a eu vent de l’histoire. Le problème, c’est qu’il est difficile de dire si un tel incident ne pourra pas se reproduire sous une autre forme. En l’occurrence, l’assistant vocal Alexa a simplement répondu à la demande de défi de la fillette en s’appuyant sur des recherches effectuées sur le web. Et le «Penny Challenge» est une tendance qui est apparue il y a environ un an sur TikTok.

Toucher une prise sous tension avec une pièce de monnaie est particulièrement dangereux, car les métaux agissent comme des conducteurs de l’électricité. Heureusement, la fillette n’a pas suivi les indications d’Alexa. De son côté, Amazon a affirmé à la BBC:

«La confiance des clients est au centre de tout ce que nous faisons et Alexa est conçu pour fournir des informations précises, pertinentes et utiles aux clients. Dès que nous avons eu connaissance de cette erreur, nous avons pris des mesures rapides pour la corriger.»

Bien qu’Alexa n’ait jamais eu pour vocation d’agir de la sorte, cette histoire rappelle combien l’intelligence artificielle est une technologie qui peut avoir des effets de bord que ses concepteurs n’avaient absolument pas prévus.

En 2016, le «chatbot» Tay de Microsoft, déployé sur Twitter, avait rapidement été désactivé. L’intelligence artificielle avait en effet publié des tweets racistes. Dans un autre registre, les algorithmes déployés des réseaux sociaux ont aussi des conséquences qui ne sont a priori pas souhaitées. Ainsi, le réseau social Facebook est régulièrement épinglé parce que son algorithme de promotion des contenus a la fâcheuse tendance de favoriser les publications polarisantes.

A lire sur la BBC