#voiture autonome


Abonnez-vous
| | radar

Le véhicule semi-autonome d'Uber n'était pas programmé pour détecter un piéton sur la chaussée

Image d'illustration | Thomas Dwyer/Flickr/Creative Commons

Le 18 mars 2018, un véhicule Uber semi-autonome — le conducteur, qui devait prendre le relais en cas de défaillance du logiciel, ne regardait pas la route — percutait une femme qui poussait son vélo à pied. Un accident qui a mené au décès d’Elaine Herzberg, 49 ans. Après 20 mois d’enquête, la National Transportation Safety Board (NTSB), autorité indépendante de sécurité routière aux Etats-Unis, est enfin prête à rendre ses conclusions. En cause, révèle Wired: les algorithmes d’intelligence artificielle au cœur de la conduite, qui n’étaient pas programmés pour admettre qu’un piéton puisse se trouver sur la route en dehors d’un passage clouté…

Pourquoi c’est important. Les algorithmes d’intelligence artificielle sont tout sauf neutres: ici, l’erreur revient à l’incapacité des concepteurs à prendre en compte les zones grises des règles de la conduite: un piéton peut se trouver sur la chaussée, un piéton peut pousser son vélo à pied… Car le véhicule a bien détecté, plus de cinq secondes avant le drame, Elaine Herzberg, mais l’a d’abord considérée comme un «véhicule». Avant de changer plusieurs fois d’avis: «autre», «vélo», de nouveau « autre», puis enfin «vélo». Autrement dit, cette incertitude a plongé l’algorithme dans un cercle vicieux qui l’a empêché de réagir à temps… Ce n’est que 1,2 seconde avant l'impact que l’ordinateur a réalisé que la collision était inévitable et que le freinage a été déclenché.

link

Lire l'article publié sur Wired

| | analyse

Les accidents des véhicules semi-autonomes liés aux couacs de l'interaction humain-machine

Vue d'artiste des différents capteurs extérieurs (caméras, radars, lidars...) utilisés par une Tesla pour son Autopilot | Tesla

L’autorité américaine des transports, le NTSB, a rendu son rapport préliminaire (EN) suite au crash mortel d’un véhicule Tesla en autopilot début mars 2019. Ni le conducteur ni l’ordinateur de bord n’auraient donné de coup de volant pour éviter l’obstacle, ou même cherché à freiner. A qui en revient la faute?

Pourquoi c’est plus qu’un problème technologique. Dans le terme “semi-autonome”, nous entendons surtout “autonome”, alors que ces véhicules requièrent que les conducteurs maintiennent leur attention sur la route, même lorsqu’ils ne conduisent pas. L’enjeu est celui de l’interaction humain-machine: pour le véhicule, comment s’assurer que le conducteur reste attentif, et comment lui signaler qu’il doit reprendre le volant, et vite?