Nous suivre Industrie Techno

CVPR 2020 : Tesla, Waymo et Argo AI dévoilent leurs technos de détection d'objets pour la voiture autonome

CVPR 2020 : Tesla, Waymo et Argo AI dévoilent leurs technos de détection d'objets pour la voiture autonome

© Carnegie Mellon University

L’édition 2020 de la conférence Computer Vision and Pattern Recognition était l’occasion pour trois acteurs majeurs du véhicule autonome, Tesla, Argo AI et Waymo, d'exposer leurs approches dans la perception d’objets assistée par ordinateur. Et de dévoiler quelques nouveautés.

Si beaucoup d’événements continuent d’être annulés ou repoussés, l’édition 2020 de la conférence Computer Vision and Pattern Recognition (CVPR), grand raout de la vision par ordinateur organisé chaque année par l’IEEE, a bien eu lieu – de manière virtuelle – du 14 au 19 juin. Les 7 000 visiteurs ont ainsi pu voir que cette édition donnait la part belle aux innovations liées aux véhicules autonomes. Voici les trois les plus marquantes.

Tesla détaille son approche anti-lidar, reposant essentiellement sur le machine learning

Les amateurs de véhicules semi-autonomes connaissent sûrement déjà la position iconoclaste de Tesla au sujet des capteurs embarqués dans ses voitures – c’est le seul acteur majeur du secteur à se passer des lidars.

Ce qu’on sait peut-être moins, c’est que l’entreprise d’Elon Musk se distingue aussi par l’approche de son intelligence artificielle. C’est ce qu’a voulu démontrer Andrej Karpathy, directeur de l’IA chez Tesla, lors d’un atelier sur le véhicule autonome au CVPR 2020. Partant de deux scènes très similaires montrant, d’un côté un véhicule Tesla et d’un autre Waymo prenant tous deux un virage sans l’aide d’un conducteur humain, ce dernier expliquait que les systèmes qui permettent cette manœuvre sont en réalité très différents chez les deux concurrents.

Waymo - et d’autres - s’appuient sur des cartes de navigation en haute définition avec l’ensemble des données de géolocalisation (coordonnées GPS, emplacement des panneaux, de la signalisation au sol…), constituées au préalable grâce aux lidars. Ce qui permet au véhicule d'anticiper chaque intersection et chaque changement de l’environnement routier. « Nous ne faisons pas ces suppositions. Pour nous, chaque intersection que nous abordons, nous la voyons pour la première fois », souligne Andrej Karpathy. Les images captées par les 8 caméras embarquées sur les Tesla sont traitées par des algorithmes de machine learning de la firme, qui apprennent en continu grâce au million de véhicules vendus, un chiffre dépassé en mars 2020.

S’il admet que cette approche pose des problèmes de sécurité insolvable à 100% aujourd’hui, c’est pour lui la seule qui puisse être déployées sur des millions de véhicules. « Alors que la construction de ces cartes lidar à l'échelle avec laquelle nous opérons avec les capteurs qu'elle nécessite serait extrêmement coûteuse. Et vous ne pouvez pas simplement les construire, vous devez les maintenir ! »

Cette fonction de reconnaissance d'images est assurée par la fonction Navigation de l'Autopilot de Tesla. La conférence a aussi été, pour Andrej Karpathy, l'occasion de détailler d'autres fonctions, comme le Smart Summon, qui permet au véhicule de quitter sa place de parking pour venir se placer aux pieds du conducteur - et dont la fonction opposée devrait arriver avant la fin de l’année.

Argo AI avec Carnegie Mellon pour améliorer la détection grâce à la modélisation du vide

Il n’y a pas de doute, la détection est l’un des enjeux les plus critiques pour la démocratisation de véhicules individuels à haut niveau d’autonome. Dans ce domaine, des chercheurs du Robotics Institute, à l’université Carnegie Mellon (CMU) ont dévoilé, à CVPR 2020, une innovation qui pourrait bien faire parler d’elle dans les mois ou les années à venir, issue d’un projet de recherche soutenu par la start-up Argo AI.

L’idée est de donner la faculté à un véhicule de détecter – et reconnaître – non seulement ce qu’il voit grâce à ses capteurs, mais aussi ce qu’il ne voit pas, caché derrière les premiers obstacles rencontrés par le lidar. Généralement les systèmes de reconnaissance installés sur les voitures semi-autonomes utilisent les données 3D du lidar pour représenter les objets comme un nuage de points et essaient ensuite de faire correspondre ces nuages de points à une bibliothèque de représentations 3D des objets. Problème, selon Peiyun Hu, qui dirige le travail de recherche : les données 3D du lidar ne sont pas vraiment en 3D - le capteur ne peut pas voir les parties occluses d'un objet, et les algorithmes actuels ne peuvent pas prendre en compte cette deuxième vague d’obstacles, qui pourraient surgir à tout moment.



Le système de reconnaissance développé par les chercheurs de CMU s’inspire des logiciels de cartographie utilisés par Waymo, Argo AI et consorts – mais pas Telsa, donc – en distinguant l’espace occupé par un objet, un être humain ou autre, et l’espace « vide ». Ce qui lui permet de fournir avec plus de précision dans la détection. « Lorsqu'elle a été testée par rapport à approche standard, la méthode CMU a amélioré la détection de 10,7% pour les voitures, 5,3% pour les piétons, 7,4% pour les camions, 18,4% pour les bus et 16,7% pour les remorques », note l’université Carnegie Mellon.

Waymo dévoile ViDAR, un nouveau système de perception adapté au mouvement

La filiale d’Alphabet, maison-mère de Google, a, elle, profité de CVPR 2020 pour rendre public et open source une base de données en haute définition constituée de 1150 scènes de 20 secondes chacune, bien synchronisées et calibrées, avec des données lidar et des données de caméra haute résolution, capturées dans toute une série de zones géographiques urbaines et suburbaines. L'ensemble de données contient environ 12 millions d'annotations de boîtier lidar et environ 12 millions d'annotations de boîtier de caméra, ce qui donne lieu à environ 113 000 pistes d'objets lidar et environ 250 000 pistes d'images de caméra.

Surtout, Drago Anguelov, directeur de la recherche chez Waymo, a présenté ViDAR, un nouveau système de détection s’appuyant sur les caméras et la distance qui modélise la géométrie, la sémantique et la dynamique de la scène.

Collaboration entre Waymo et l'un des nombreux laboratoires d'IA de Google, Google Brain, ViDAR infère la structure d’un objet à partir du mouvement. Il apprend la géométrie 3D à partir de séquences d'images - capturées par des caméras montées sur des voitures - en exploitant la parallaxe du mouvement, un changement de position provoqué par le mouvement. À partir de quelques images et de données lidar, ViDAR peut prédire les points de vue futurs des caméras et les données de profondeur.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Lanceurs du futur, véhicules autonomes, tests sérologiques de Bio-Rad, le best-of de la semaine

Lanceurs du futur, véhicules autonomes, tests sérologiques de Bio-Rad, le best-of de la semaine

Cette semaine a été marquée par le premier challenge R&D du Cnes sur le thème des lanceurs : dix projets ont[…]

26/06/2020 | TransportSpatial
C-V2X : Qualcomm poursuit son travail d’évangélisation en faveur de la 5G pour le véhicule autonome

C-V2X : Qualcomm poursuit son travail d’évangélisation en faveur de la 5G pour le véhicule autonome

Mercedes s’associe à Nvidia pour développer des véhicules autonomes nouvelle génération d’ici 2024

Mercedes s’associe à Nvidia pour développer des véhicules autonomes nouvelle génération d’ici 2024

Avec son plan Auto, le gouvernement met l'accent sur l'usine 4.0 et le véhicule « propre »

Avec son plan Auto, le gouvernement met l'accent sur l'usine 4.0 et le véhicule « propre »

Plus d'articles