Tesla : son Autopilot se comporte très étrangement face aux piétons

 

Après de nombreuses critiques, Tesla a retravaillé son Autopilot afin de le rendre plus sûr. Au point d'engendrer des réactions pas toujours naturelles.

Nouvelle bêta du FSD de Tesla // Source : Whole Mars Catalog

Intégré de série sur toutes les voitures de Tesla depuis avril 2019, le système de conduite semi-autonome Autopilot ne cesse de créer la polémique. Si celui-ci permettrait d’éviter plus de 40 accidents chaque jour selon Ashok Elluswamy, patron du programme chez le constructeur américain, il ne serait évidemment pas dénué de défauts. À tel point que la NHTSA, la Sécurité Routière américaine, pourrait même le faire interdire aux États-Unis alors qu’une enquête est en cours dans le cadre d’une série de collisions.

Une nouvelle amélioration

Souvent sous le feu des critiques, le système Autopilot, dans sa version la plus évoluée baptisée FSD et offrant une conduite 100 % autonome, vient de s’offrir une nouvelle mise à jour OTA (over-the-air). Les 100 000 conducteurs sélectionnés pour jouer le rôle de bêta-testeurs aux États-Unis peuvent donc profiter d’une nouvelle version du logiciel, baptisée 10.69.2, tout juste déployée, comme l’a annoncé Elon Musk sur Twitter. Celle-ci offre de nouvelles fonctionnalités et met notamment l’accent sur la sécurité des usagers les plus vulnérables, et tout particulièrement des piétons, en réponse à une campagne de dénigrement de l’Autopilot cet été.

FSD Beta 10.69.2 rolling out now. Please note that top priority is safety, so expect it to be overly cautious, especially around pedestrians.

— Elon Musk (@elonmusk) September 11, 2022

Mais la marque californienne n’en a-t-elle pas un peu trop fait ? En effet, comme le montre une vidéo publiée sur Twitter par Kim Paquette, actuellement bêta-testeuse, le système aurait des réactions peu naturelles, qui pourraient même poser quelques problèmes. En effet, il arrive que la voiture se mette à freiner violemment si elle aperçoit un piéton au bord de la route. Une fois que celui-ci a traversé la chaussée, le véhicule patiente jusqu’à ce que celui-ci se soit bien éloigné pour pouvoir redémarrer. Si l’intention est louable, cela risque de créer des embouteillages, voire même engendrer des accidents dans certains cas.

Une mise à jour à prévoir

Pour l’heure, Elon Musk n’a pas encore réagi à cette vidéo et aux retours des bêta-testeurs, mais nul doute qu’une mise à jour serait prévue pour corriger ce problème. Depuis son lancement, le système Autopilot a en effet profité de nombreuses améliorations, visant à le rendre plus performant et plus naturel. Le FSD, qui n’est autre que la capacité de conduite entièrement autonome, est en effet capable de prendre en charge les dépassements sur les autoroutes et même de rouler en milieu urbain en traversant les ronds-points. S’il est également en mesure de prendre les sorties d’autoroute seul, cette fonctionnalité pourrait être interdite en Allemagne et dans certains pays d’Europe.

#FSDBeta 10.69.2 is really struggling around pedestrians – way over cautious for people just on sidewalk and not crossing. Many interventions. I’ve often wondered how the AI will judge a human’s intentions – are they just standing there, or intending to cross? #tesla @elonmusk pic.twitter.com/DJ5nhitimk

— Kim Paquette 💫🦄 🇺🇦 🕊 (@kimpaquette) September 11, 2022

Pour l’heure, le FSD n’est pas encore disponible en Europe, alors que la version bêta n’est proposée qu’aux États-Unis et au Canada. Il est toutefois possible d’opter pour cette option dans le configurateur, sans qu’elle puisse pour l’instant être utilisée chez nous. Cela n’est néanmoins qu’une question de temps.


Pour nous suivre, nous vous invitons à télécharger notre application Android et iOS. Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.