Accueil A la une Véhicules autonomes : les vraies causes de l’accident Uber

Véhicules autonomes : les vraies causes de l’accident Uber

par Ray Blanco
véhicules autonomes sécurité

S’il y a bien une chose sur laquelle tout le monde s’est accordé à la Conférence sur les Véhicules Autonomes de Détroit – des politiciens aux relations publiques – c’est que la sécurité est la priorité N°1 pour tous les professionnels de l’univers des véhicules autonomes (“VA”).

Pourtant tout le monde se souvient de l’accident mortel du véhicule d’Uber en mars 2018… Alors quand j’ai eu l’opportunité de discuter avec les principaux enquêteurs fédéraux du National Transportation Safety Board (NTSB), qui étudient ce qui a pu “mal tourner”, j’ai sauté sur l’occasion.

En fait, dans cette histoire, on ne peut pas se contenter de blâmer un VA défaillant. C’est bien plus compliqué.

Que s’est-il vraiment passé le dimanche 18 mars 2018 ? 

La plupart d’entre vous connaît le résumé sommaire de cette histoire : un véhicule autonome Uber a renversé et tué un piéton qui traversait la rue. Ce fut un événement tragique. Et la sécurité des VA s’est retrouvée sous le feu des projecteurs.

Mais que s’est-il vraiment passé en Arizona ? S’agissait-il d’une défaillance de l’IA (“intelligence artificielle“) contrôlant les systèmes de conduite autonome dans les véhicules Uber ? S’agissait-il d’une erreur humaine commise par le piéton ? Est-ce que l’origine de cet accident se situe totalement ailleurs ?

En réalité, cet accident de la circulation n’a pas été provoqué par un seul événement. On peut incriminer le système d’IA. Mais on peut également incriminer les concepteurs… Et nous… les piétons.

L’enquêteur principal travaillant sur cet incident survenu en Arizona a souligné en particulier que, techniquement, l’IA n’avait pas été défaillante. L’IA était parvenue à reconnaître un piéton. Elle avait pu reconnaître un vélo. Elle avait pu reconnaître des sacs remplis d’articles et de provisions.

Mais elle n’avait pas réussi à reconnaître un piéton en train de pousser un vélo tout en transportant des provisions. Cette forme (ou cas d’utilisation dans le langage informatique) n’avait jamais été introduite dans la programmation de l’IA… et elle ne l’a pas reconnue.

L’IA a bien tenté d’activer le système de freinage d’urgence pour prendre la main sur le système de conduite autonome d’Uber et stopper la voiture avant l’impact.

Mais Uber avait désactivé cette fonctionnalité, ainsi que d’autres cas de prise de contrôle, en précisant qu’ils entraient en conflit avec d’autres parties du système de conduite autonome.

Pour compliquer encore les choses, le piéton traversait dans un endroit peu éclairé de la route, à plus de 100 mètres d’un passage pour piéton, et il portait des vêtements sombres.

Les éléments vidéo ont également montré que la personne n’avait pas regardé des deux côtés avant de traverser.

Dans cette histoire, on ne peut donc se contenter de dire que les VA sont dangereux. Ce fut un concours de circonstances tragique.

Quelles sont les perspectives des VA, à partir de là ? 

Au sein du grand public, on constate un énorme “vide de connaissances” à propos des véhicules autonomes. Et c’est pourquoi, à la suite de l’incident en Arizona, bon nombre de personnes se sont acharnées à décréter que les VA n’étaient pas adaptés à notre monde.

Mais je dois dire que, considérant les données, ce discours ne s’appuie pas sur des faits. Ce qu’il faut faire à présent, dans l’univers des VA, c’est une solide campagne de formation permettant d’aider les gens à identifier les véritables bienfaits qu’ils pourraient retirer des VA.

Les VA ont également besoin de réglementations fédérales supplémentaires afin de permettre une standardisation de la plateforme. En outre, les concepteurs du système doivent appréhender le meilleur moyen d’incorporer l’IA et l’apprentissage automatique à leurs systèmes autonomes.

En parlant avec les dirigeants de Green Hills Software, j’ai appris que beaucoup de monde souhaitait “simplifier” un peu l’IA .

Le problème, tel qu’on me l’a expliqué, ce n’est pas l’IA, mais le fait que l’IA change son protocole de base… change son code, à mesure qu’elle tire des enseignements de toutes les données qu’elle collecte.

Si vos systèmes de sécurité sont bâtis sur un code qui change toutes les quelques minutes, alors au bout d’une heure, vos protocoles de sécurité deviennent inutilisables.

Il faut sortir l’IA du code de base et il ne faut pas qu’elle se situe au-dessus des protocoles de sécurité.

La bonne nouvelle, c’est que les gens de Green Hills, ainsi que certains concepteurs de système travaillant dans d’autres sociétés, sont déjà en train de développer des solutions innovantes.

Les VA ont toujours été plus sûrs que les voitures et camions pilotés par des humains, lesquels provoquent d’ailleurs 40 000 décès par an aux Etats-Unis et 25 000 en Europe.

A mesure que les concepteurs traiteront ces cas d’utilisation imprévus et aléatoires, les VA deviendront encore plus sûrs.

[Et c’est d’ailleurs l’objectif premier d’une des valeurs que nous avons en portefeuille.]

Et c’est ce qui nous rapportera beaucoup d’argent, à nous aussi.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

1 commentaire

odile 14 septembre 2019 - 12 h 44 min

comme toujours, il n’existe pas d’accident à cause unique, les causes d’un accident sont toujours multiples et reliées logiquement entre elles jusqu’au dénouement fatal. ” source : L’arbre des causes d’un accident : http://www.officiel-prevention.com/formation/formation-continue-a-la-securite/detail_dossier_CHSCT.php?rub=89&ssrub=139&dossid=260

Reply

Laissez un commentaire