Fermer

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Menu

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Les nouvelles mobilités

L’intelligence artificielle n’est pas un as du volant

Publié le 23/09/2018 • Par Auteur associé • dans : France

voiture-autonome-intelligence-artificielle-ville
Adobe Stock
L'intelligence artificielle veut prendre le volant. Mais malgré les avancées du deep learning, rouler en autonomie dans un milieu aussi complexe que la ville reste un défi.

Ma Gazette

Sélectionnez ce thème et créez votre newsletter personnalisée

Manuel Moragues

Journaliste à l'Usine Nouvelle

Fini volants et pédales, les voitures autonomes vont débarquer en ville. Du moins si l’on en croit la surenchère de communication des géants de la tech et des constructeurs. Waymo (Google), Ford, BMW, Daimler et General Motors promettent des voitures pleinement autonomes entre 2019 et 2021 avec Uber et Lyft. L’intelligence artificielle (IA) qui pilote ces véhicules serait-elle donc prête à passer son permis ? Rien n’est moins sûr. De plus en plus de spécialistes appellent à garder les roues sur terre, à l’image de Steven Shladover, de l’université de Berkeley.

Ce pionnier de la voiture autonome dénonce à l’envi un engouement déconnecté de la réalité et pointe la confusion entretenue par les entreprises. Si les progrès réalisés ces dernières années sont plus qu’impressionnants, l’IA ne sait pas encore conduire en vraie autonomie (niveau 4 ou plus) n’importe où, ni en sécurité. « Nous sommes au début de l’histoire et encore loin de la navigation autonome en milieu urbain ! », tranche Fawzi Nashashibi, chercheur à la tête de l’équipe Rits de l’Institut national de recherche en informatique et en automatique (Inria) et auteur du Livre blanc de l’institut sur le sujet.

L’IA sait conduire sur un circuit fermé depuis vingt ans

Les démonstrations en cours, sous le vernis de succès autoproclamé, dévoilent les limites de l’IA au volant. « Waymo, l’un des rares à rouler en ville, revendique rien que pour 2017 en Californie, plus de 800 000 kilomètres parcourus et une moyenne de quelque 14 500 kilomètres entre deux reprises en main par un chauffeur de secours. C’est impressionnant », concède Fabien Moutarde, professeur à l’université Paris Sciences & Lettres (PSL) et chercheur au centre de robotique de Mines ParisTech. Mais il pointe l’opacité de ces chiffres : « De quels miles parle-t-on ? S’il s’agit surtout de route comparable au périphérique parisien, ce n’est guère concluant ! »

Cela fait vingt ans que l’IA sait conduire sur un circuit fermé et le niveau 4 sur autoroute est déjà prêt techniquement, selon le chercheur. Rester dans sa voie, avec une IA maintenant le véhicule entre les lignes, et réguler sa vitesse en s’adaptant à celle du véhicule qui est devant, via un radar, sont deux fonctions déjà commercialisées. Ne reste que le changement de voie et le dépassement, relativement simples à réaliser sur autoroute et déjà en prototype chez les constructeurs.

La ville, ses cyclistes, ses motards et ses piétons

Certes Waymo circule aussi dans les rues, mais, comme Uber, il privilégie les tranquilles banlieues américaines. Un environnement très simplifié au regard des villes européennes, avec de larges voies, souvent multiples et à sens unique, comptant très de peu de cyclistes, motards et piétons. « Je ne pense pas que Waymo puisse rouler dans Paris », tacle Fabien Moutarde. En outre, Waymo ne circule que dans des zones restreintes entièrement numérisées en 3D, et évite des voies, intersections ou quartiers trop difficiles pour son IA. General Motors, qui a au contraire décidé de s’attaquer à des situations plus complexes, dans le nord-est de San Francisco, fait face à de nombreuses difficultés, pointait le site « The Information » en mars, citant notamment la circulation dans des rues étroites à double sens, le passage d’intersections embouteillées et le dépassement de cyclistes.

Moins de morts sur les routes, voilà la promesse première des voitures autonomes. Elle reste à tenir. L’accident mortel causé par une voiture d’Uber en mars 2018 est venu le rappeler, mettant en lumière l’enjeu du compromis retenu entre le risque de faux positifs – la détection erronée d’un objet causant une action non nécessaire voire un arrêt d’urgence – et celui de non-détection d’un vrai problème. L’IA d’Uber, suspectée d’être paramétrée de façon « agressive » afin de ne pas être sans cesse bloquée, a jugé qu’une cycliste n’était qu’un objet insignifiant comme un sac plastique avant qu’il ne soit trop tard pour l’éviter.

Waymo, qui n’a pas connu d’accident mortel, revendique une conduite prudente. Mais cache le revers de la médaille. Car si la filiale de Google affiche n’avoir besoin d’une reprise en main par un humain que tous les 14 500 kilomètres, elle ne compte que les cas dont elle a vérifié, par simulation, qu’ils auraient conduit à un accident. « Qu’en est-il des fois où la voiture a simplement été paralysée par sa prudence ou par des situations qu’elle ne savait pas gérer ? », s’interroge Fabien Moutarde. « The Information » a rapporté en octobre 2017 que les chauffeurs de Waymo devaient parfois intervenir pour débloquer une voiture dans une intersection ou une impasse.

Le deep learning n’est pas une potion magique

La ville est un milieu ouvert, peuplé d’une grande variété d’objets et d’acteurs souvent imprévisibles, régi par de nombreuses règles – explicites et implicites – et une signalisation complexe. Y circuler représente encore un défi extraordinaire pour l’IA alors que la robotique sort à peine de l’usine. Le deep learning permettra-t-il de le dépasser ? L’accélération phénoménale de ces dernières années a été déclenchée par cette technique à base de réseaux de neurones profonds qui a donné un coup de fouet à l’IA. « En faisant bondir les performances de la vision par ordinateur, le deep learning a ouvert de nouvelles perspectives, c’est lui qui permet d’envisager les véhicules autonomes », souligne Fawzi Nashashibi.

La capacité étonnante du deep learning à apprendre, via des données, à réaliser des tâches inaccessibles à l’IA traditionnelle fondée sur des règles semble idéale pour traiter la complexité de la navigation en milieu urbain. Au point, peut-être, d’aveugler ses aficionados. « Certains prennent le deep learning pour de la potion magique, dénonce Fawzi Nashashibi. C’est faux, il ne peut pas tout résoudre. » Pour Vanessa Picron, la directrice de la recherche sur l’assistance à la conduite chez Valeo, « la perception passera par le deep learning, cela fait consensus. Ensuite, les avis divergent sur l’étendue des tâches qui basculeront en deep learning ».

De la perception à la compréhension de l’environnement

Pour passer son permis, l’IA devra progresser sur trois principaux fronts. D’abord la perception, « le premier enjeu, car sans la perception, rien n’est possible », relève Vanessa Picron. Mieux détecter et identifier objets et êtres vivants s’impose. Y compris par mauvais temps. Cela passera notamment par un travail sur la fusion des données issues des différents capteurs – caméra, lidar (scanner laser), radar -, qui apportent chacun des informations complémentaires. « La difficulté vient notamment de l’hétérogénéité des capteurs, du volume important de données et de l’exigence de temps réel », explique Paul Labrogère, le directeur du programme transport autonome de l’institut de recherche technologique SystemX. « Les techniques sont variées, mais si l’on veut gagner en performance et en fiabilité, il faut se rapprocher des données brutes », prône-t-il. Plutôt que de fusionner les informations digérées par l’intelligence de chaque capteur – par exemple, pour une caméra, la liste des objets vus, leur vitesse, position… -, il s’agirait de fusionner les pixels, scans laser et échos radar avant de faire analyser le tout par un logiciel. Le deep learning est le candidat tout désigné à cette opération.

Une deuxième difficulté, peut-être plus fondamentale, réside dans la compréhension de la scène perçue et de l’intention des acteurs. Un camion est arrêté sur une voie à double sens. L’humain voit le hayon baissé, y associe une personne portant une caisse et comprend : il s’agit d’un déchargement, le camion ne va pas redémarrer, on peut – on doit même, sous peine de bloquer la circulation – le dépasser. La machine, elle, en est incapable. Ce piéton à l’arrêt sur le trottoir de la voie dans laquelle je m’apprête à tourner, est-il en train d’attendre quelqu’un ou va-t-il traverser ? Ce conducteur qui s’engage à l’intersection, va-t-il me laisser passer ou forcer le passage ? Ce cycliste m’a-t-il vu ? Ce motard va-t-il griller le feu ?

Le sens commun, lointain Graal pour l’IA

Autant de questions auxquelles l’humain répond grâce à la prise en compte du contexte, l’interprétation d’un geste ou d’un regard. Une espèce de « sens commun » qui constitue précisément un lointain Graal pour l’IA en général. Peut-on s’en approcher avec le deep learning ? « Nous pensons que le deep learning va permettre de s’attaquer à cet enjeu majeur qu’est la compréhension de scènes en saisissant la complexité des situations », avance Vanessa Picron. Une opinion appuyée par l’avalanche de prouesses réalisées avec les neurones profonds.

« Le deep learning avance très vite et d’énormes progrès sont à venir. L’analyse en temps réel des postures des piétons, de l’orientation de leur tête pourrait par exemple permettre d’interpréter leur intention », illustre Fabien Moutarde. Reste une limite, selon Fawzi Nashashibi : « Le deep learning seul ne suffira pas pour prendre en compte globalement les situations et reproduire l’ensemble des raisonnements de l’humain. »

L’éthique bien loin de rouler

Une voiture autonome se retrouve sans freins à une intersection. Deux piétons traversent, dont un enfant. La voiture doit-elle se jeter sur un mur pour les éviter quitte à tuer ses trois passagers, adultes ? Cette variation du dilemme du tramway s’impose aux voitures autonomes, qui devront prendre des décisions fondées sur des considérations éthiques. Comme avec l’IA en général, l’éthique devra être intégrée par les programmeurs. Mais quelle éthique et comment la coder ? « Dans quelle mesure l’éthique peut-elle être mathématisée et comment des principes programmés peuvent-ils répondre à la diversité des situations ? », s’interroge Catherine Tessier, chercheuse à l’Office national d’études et de recherches aérospatiales. Le deep learning, nourri d’exemples de décisions humaines comme celles récoltées pour la machine morale du MIT, peut-il être une solution ?

Quid de la planification des trajectoires

Le débat sur la place du deep learning se retrouve dans le troisième grand défi: la planification des trajectoires. Comment se faufiler entre les obstacles pour tourner à gauche à une intersection encombrée ? Pour Fawzi Nashashibi, les méthodes classiques de robotiques intégrant les modèles dynamiques et cinématiques de la voiture, la cartographie et la modélisation des autres acteurs sont indispensables : « C’est d’ailleurs ce que Waymo et consorts utilisent. » Mais la complexité de la ville pousse ces méthodes, gourmandes en calcul, à leurs limites. « Peut-être n’est-ce pas la bonne approche », suggère Fabien Moutarde, qui vient de lancer une thèse sur un modèle de deep learning qui apprendrait, par renforcement et sur simulation, à piloter directement et seulement à partir des images de la caméra.

Cette approche relève d’une alternative radicale et encore peu explorée : un réseau de neurones court-circuitant toute la séquence de tâches du pilotage. Un seul réseau « end-to-end » avec les images, voire d’autres signaux, en entrée et, en sortie, directement la commande du volant et des pédales. Pas de représentation de la scène ni de modélisation de quoi que ce soit mais « un pilotage purement réactif : j’agis en conséquence de ce que je perçois, pas dans un but donné », décrypte Fawzi Nashashibi, de l’Inria-Rits, pour qui cette démarche est une impasse. « Pas forcément, nuance Raoul de Charette, chercheur en post-doc au sein de son équipe. Une piste pourrait être de forcer, lors de l’apprentissage, le réseau de neurones à prendre en compte des éléments symboliques comme la représentation de la scène ou des modèles physiques avant de prendre une décision de pilotage. » Réponse de Fawzi Nashashibi : « Qui sait ? Le deep learning ouvre tellement de possibilités qu’on pourrait lancer dix sujets de thèse par jour ! »

Des performances à garantir

De quoi perdre les industriels ? Pas forcément. Leur pragmatisme s’accommode bien de la pluralité des approches. Car la redondance, non seulement matérielle mais algorithmique, s’impose pour garantir la sécurité de fonctionnement des voitures autonomes. « Chez Valeo, nous voulons garder une séquence de tâches classiques, basées majoritairement sur des règles et enrichies par le deep learning. Mais nous y associerons un réseau de neurones end-to-end. Un algorithme placé derrière comparera les résultats de chaque processus et décidera lequel suivre », explique Vanessa Picron.

Les contraintes des industriels vont cependant au-delà des seules capacités de l’IA. L’homologation des véhicules nécessitera de pouvoir garantir leurs performances. Un double défi pour l’IA par apprentissage et en particulier pour le deep learning. D’une part parce que la complexité de ces modèles est telle qu’il est difficile voire impossible d’expliquer, de manière intelligible à l’humain, leurs décisions.

D’autre part parce que leur nature non-déterministe empêche de valider leurs performances de façon classique. « Comment s’assurer que mes algorithmes seront performants dans toutes les situations ? », résume Vanessa Picron. Une piste serait « d’articuler essais physiques et simulation pour couvrir la variabilité fantastique des solutions et fournir un jeu de données de test capable de valider un système », prône Paul Labrogère. Reste que l’explicabilité comme la validation du deep learning sont des sujets de recherche qui émergent à peine. En attendant, start-up, géants de la tech comme constructeurs continuent d’avaler les kilomètres réels et simulés pour entraîner leurs algorithmes. Volants et pédales ont encore un avenir.

 

L’IA fait face à de nombreux obstacles

Avoir confiance dans ses données – Fusionner les données des différents capteurs du véhicule comme le radar, le lidar et la caméra doit permettre d’améliorer la détection et l’identification des objets, personnes, panneaux… Mais chacun a ses limites : une caméra est par exemple peu performante en cas de pluie abondante. Pour en tenir compte, l’équipe Rits de l’Inria a développé un formalisme fondé sur la confiance que l’on peut avoir en un capteur dans une situation donnée. De quoi, en ayant identifié les situations délétères et quantifié la baisse de performance associée, pondérer par un facteur de confiance les informations fournies.

Se passer des cartes à haute résolution – Les voitures autonomes sont aujourd’hui cantonnées à des zones parfaitement connues, où elles s’appuient sur des cartes très détaillées à haute résolution.

L’obtention et l’actualisation constante de telles cartes à l’échelle d’un pays a tout d’une gageure. C’est pourquoi de nombreux chercheurs travaillent à se passer de cartes détaillées. Le système MapLite développé par le MIT avec l’aide du Toyota Research Institute se contente ainsi d’une cartographie sommaire. Alliant machine learning et modèles déterministes, MapLite s’appuie sur les capteurs de la voiture pour détecter la route 30 mètres à l’avance, déterminer un but intermédiaire et s’y rendre.

Ne pas être paralysé par la prudence – Un dépassement sur une route encombrée peut se révéler bien intimidant pour une voiture autonome. Car les marges de sécurité qu’elle prend – des zones tampons autour des autres voitures précalculées avec des modèles de trafic complexes pour garantir la sécurité – peuvent la paralyser.

Des chercheurs du MIT ont présenté une méthode simplifiée pour calculer en temps réel des zones tampons garantissant l’absence de collision. À la clé, des zones plus petites donc des possibilités accrues de dépassement. Et la capacité à moduler la conduite, entre « prudente » et « agressive ».

Thèmes abordés

Réagir à cet article
Prochain Webinaire

La protection sociale complémentaire, un moyen de renforcer l’attractivité de la fonction publique territoriale

de La Rédaction du Courrier des maires en partenariat avec MUTAME

--
jours
--
heures
--
minutes
marche online

Aujourd'hui sur les clubs experts gazette

Nos services

Prépa concours

CAP

Évènements

Gazette

Formations

Gazette

Commentaires

L’intelligence artificielle n’est pas un as du volant

Votre e-mail ne sera pas publié

Les informations à caractère personnel recueillies font l’objet d’un traitement par La Gazette des Communes du Groupe Moniteur, Nanterre B 403 080 823. Elles sont uniquement nécessaires à la gestion de votre commentaire à cet article et sont enregistrées dans nos fichiers. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement