4 octobre 2017
Le Toyota Research Institute annonce de nouvelles avancées en conduite autonome et en robotique
- Un livre blanc présente la philosophie et l’approche de Toyota en matière de conduite autonome.
- Une nouvelle plateforme d’essai permet d’expérimenter les modes de conduite Guardian et Chauffeur.
- Extension des compétences des robots domestiques d’assistance à la personne.
Toyota Motor Corporation (Toyota) vient de dévoiler quelques-uns des progrès accomplis au Toyota Research Institute (TRI) sur la conduite autonome et d’autres sujets d’étude.
« Ces derniers mois, nous avons accéléré le rythme d’évolution des capacités de la conduite autonome Toyota dans l’optique d’épargner des vies, d’élargir l’accès à la mobilité, mais aussi de rendre la conduite plus amusante et plus pratique », a déclaré Gill Pratt, directeur général de TRI. « Nos équipes de recherche ont également progressé en intelligence artificielle, afin de poursuivre le développement des robots domestiques d’assistance à la personne. »
Toyota vient aussi de publier une présentation exhaustive de son travail sur la conduite autonome. Ce livre blanc expose la philosophie de sa démarche technologique, les programmes de recherche en cours et les produits prévus à court terme. L’entreprise y exprime sa perception du potentiel de la conduite autonome : améliorer radicalement la sécurité routière et les solutions de mobilité dans le monde, en instaurant une société où les déplacements seraient sûrs, pratiques, agréables et accessibles à tous. Toyota espère ainsi aider les différents acteurs à comprendre sa démarche et les sensibiliser aux problématiques indissociables de la conduite autonome, comme le développement des infrastructures et l’acceptation sociétale.
Ce livre blanc résume la double notion de Guardian et de Chauffeur qui guide la recherche Toyota sur la conduite autonome. On y découvre aussi le « Mobility Teammate Concept » : selon Toyota, la relation entre le conducteur et sa voiture devrait s’apparenter à celle d’amis, de coéquipiers qui partagent un même objectif, veillent l’un sur l’autre et s’entraident au besoin.
Le livre blanc est en ligne sur www.automatedtoyota.com
« Les véhicules à conduite autonome apporteront à la société de nombreux avantages, mais l’amélioration de la sécurité routière reste l’une des priorités de Toyota », a commenté Kiyotaka Ise, directeur technique Sécurité et membre du directoire de Toyota Motor Corporation. « En proposant des technologies automobiles capables d’anticiper et d’interagir en douceur avec les gens et le trafic, nous nous rapprocherons du jour où la route ne fera plus de blessés ni de tués. »
Par ailleurs, TRI fait part des progrès accomplis dans les domaines suivants :
CONDUITE AUTONOME
Depuis qu’il a dévoilé son véhicule d’essai Platform 2.0 en mars 2017, TRI est rapidement passé à la version 2.1 de sa technologie de conduite autonome. Parallèlement à cette plateforme d’essai innovante, l’institut a bien progressé dans la modélisation de la perception, une technique d’apprentissage profond qui permet au véhicule autonome d’appréhender précisément les alentours, de détecter les objets et la chaussée afin de mieux calculer une trajectoire sans danger. Ces nouvelles architectures sont plus rapides, plus efficaces et gagnent encore en précision. Outre la détection des objets, ces modèles sont également capables de fournir des données sur des éléments routiers tels que les panneaux de signalisation et les marquages au sol, afin de faciliter l’élaboration de cartes routières, un facteur essentiel à la conduite autonome.
Le véhicule d’essai Platform 2.1 élargit par ailleurs le portefeuille de fournisseurs de TRI en se dotant d’un nouveau système LIDAR haute-fidélité fourni par Luminar. Ce radar laser offre une plus longue portée, un nuage de points beaucoup plus dense qui améliore la détection d’objets tridimensionnels ainsi qu’un champ de vision adaptable pour la première fois en continu : en clair, le système peut concentrer les points de mesure là où il en a le plus besoin. Ce nouveau LIDAR se combine au capteur existant afin d’assurer une couverture sur 360°. Des fournisseurs supplémentaires viendront s’ajouter à mesure qu’émergeront d’autres technologies de rupture.
La Platform 2.1 a été équipée d’un second poste de conduite côté passager, doté d’un volant et de pédales sans liaison mécanique parfaitement opérationnels à l’accélération comme au freinage. L’équipe de recherche peut ainsi tester des méthodes de transfert du contrôle du véhicule entre le conducteur et le système autonome, dans différents scénarios posant une difficulté. Cette configuration facilite l’élaboration d’algorithmes d’apprentissage automatique, capables de se former auprès d’un expert humain en pilotage et de conseiller ensuite des conducteurs novices.
L’institut a uniformisé la présentation des différents stades d’autonomie du véhicule en employant la même interface pour les écrans, les éclairages colorés et le langage parlé liés au Guardian et au Chauffeur. Il expérimente actuellement la façon d’attirer l’attention du conducteur sur une situation donnée, en lui montrant sur l’écran de la console centrale un nuage de points matérialisant tout ce que « voit » la voiture.
Grâce aux progrès accomplis sur le matériel et les logiciels, la Platform 2.1 permet de tester simultanément sur une même structure le Guardian et le Chauffeur – les deux volets d’accession à l’autonomie selon TRI. En mode Guardian, le conducteur conserve le contrôle de la voiture et le système de conduite autonome opère en parallèle, en surveillant les risques d’accident et en intervenant au besoin pour protéger les occupants. Quant au Chauffeur, il correspond au niveau 4/5 d’autonomie défini par la SAE. Les deux modes font appel au même ensemble de capteurs et de caméras.
Le Guardian est notamment capable de détecter dans certains cas un état de distraction ou de somnolence au volant et de prendre des mesures si le conducteur ne réagit pas à l’approche d’un virage. Dans une telle situation, le système commence par l’avertir, puis intervient en freinant et en braquant afin de suivre la courbe de la route en toute sécurité. Les scénarios testés en mode Chauffeur démontrent que le véhicule est capable de conduire seul sur un circuit fermé en évitant les obstacles. Il sait aussi changer de file sans prendre de risque s’il est gêné dans sa trajectoire, alors qu’un autre véhicule roule à même allure sur la voie adjacente.
En complément des essais en conditions réelles, TRI recourt aux simulations pour valider précisément et sans danger les hypothèses techniques.
ROBOTIQUE ET INTELLIGENCE ARTIFICIELLE
TRI progresse aussi en robotique et en intelligence artificielle. Dans le cadre de ses recherches sur les robots d’assistance qui peuvent effectuer certaines tâches à domicile (comme ramasser un objet), l’institut a inauguré de nouveaux outils qui leur donneront une dextérité quasi-humaine, afin d’attraper et de manipuler des objets sans les laisser tomber ni les abîmer. Il exploite aussi la vision et l’intelligence artificielles pour permettre aux robots de détecter la présence d’humains et d’objets, de noter leur position et d’attraper un objet si quelqu’un leur demande. Un robot est capable de voir qu’un objet a changé de place, d’actualiser sa position dans sa base de données et même d’identifier des visages connus et de différencier des individus.
Ces progrès en robotique s’expliquent par l’amélioration de la pertinence et de la précision des simulations, au bénéfice des essais physiques. Comme il est impossible de tester concrètement la totalité des situations auxquelles un robot peut être confronté, l’institut modélise des environnements et les adapte constamment en fonction des données collectées en conditions réelles, afin d’augmenter la précision.
De plus, ses chercheurs étudient de nouvelles applications de l’intelligence artificielle dans l’habitacle pour préserver le confort, la sécurité et la satisfaction des occupants. TRI a créé un simulateur qui présente un assistant de bord capable de détecter la posture du squelette du conducteur, la position de la tête, la direction du regard et les émotions, afin d’anticiper les besoins ou une éventuelle incapacité. Un exemple : si le système voit que le conducteur attrape une boisson et lit sur son visage une expression assimilable à de l’inconfort, l’assistant va supposer qu’il a trop chaud et peut ajuster la climatisation ou baisser les vitres. Si l’assistant perçoit une somnolence, il peut inviter oralement le conducteur à faire une pause-café ou paramétrer le navigateur pour mener la voiture jusqu’à un café.
Source : Toyota