Problème mortel, l’Autopilot de Tesla ne reconnaîtrait pas les enfants

 

Lors d’un test, une voiture Tesla avec le mode Full Self-Driving de Tesla a percuté à plusieurs reprises un mannequin de la taille d’un enfant.

Tesla Model 3
Source : Projet Dawn

Mise à jour du 11 août 2022 : D’après Electrek, les résultats de l’étude seraient faussés.


Article original du 10 août 2022On attend de pied ferme de pouvoir profiter de la capacité de conduite entièrement autonome. La conduite autonome dite de niveau 3 est légale en Europe depuis mi-juillet 2022, il faudra néanmoins attendre jusqu’au 1ᵉʳ septembre pour conduire sans les mains en France. Jusqu’alors, seule la conduite autonome de niveau 2 était autorisée sur le Vieux continent. Et, rien n’indique que vous pourrez profiter de la conduite entièrement autonome chez Tesla dès septembre, le fabricant américain doit effectuer des demandes à ce sujet.

Ce n’est pas forcément une mauvaise chose de patienter encore un peu. La fonction de conduite entièrement autonome de Tesla, Full Self-Driving (FSD), est très critiquée depuis le début. Elle est fonctionnelle (en bêta) aux États-Unis, mais Tesla est accusé de tester dans la nature une fonction loin d’être aboutie. Qu’il s’agisse de la fonction d’assistance au pilotage automatique ou du Full Self-Driving (FSD) : Tesla et Elon Musk battent toujours le tambour et promettent beaucoup. Ce faisant, ils créent de fausses attentes et induisent en erreur les propriétaires de Tesla — du moins c’est ce que disent les critiques.

Les enfants ne sont pas identifiés par les Tesla

Le projet Dawn, qui s’est consacré à l’interdiction des logiciels dangereux, vient de prouver dans un test relativement simple à quel point le FSD peut être dangereux. En particulier pour les personnes les plus vulnérables de la circulation routière, à savoir les enfants.

image-003
Source : Projet Dawn

Comme le rapporte The Guardian, le projet a mis un (petit) enfant factice sur le chemin d’un Tesla Model 3 avec la dernière version FSD 10.12.2. Ce mannequin était immobile, c’est-à-dire qu’il ne bougeait pas. Ainsi, selon The Dawn Project, ce mannequin a été écrasé à plusieurs reprises – à une distance d’environ 100 m et à une vitesse d’environ 40 km/h. Dan O’Dowd, l’initiateur de l’étude, a qualifié les résultats de l’enquête (accessible sur ce PDF) de « profondément troublants » et a déclaré que Tesla avait échoué à plusieurs reprises à ce simple test.

Un mode FSD loin d’être prêt

Selon Elon Musk, une nouvelle version baptisée FSD Beta v11 devrait bientôt voir le jour, sans doute d’ici à la fin du mois d’août. Concrètement, Tesla va fusionner les logiciels dédiés à la conduite sur autoroute et en ville, pour rendre son système de conduite autonome encore plus performant.

À noter que ce système nécessite toujours une certaine vigilance de la part du conducteur, qui doit pouvoir reprendre la main à tout moment. Ce dispositif est donc toujours considéré comme un système de conduite autonome de niveau 2.

L’Union européenne autorise depuis le 1ᵉʳ juillet dernier la conduite autonome de niveau 3 sur les routes, tandis que cette mesure sera adoptée en France dès le 1ᵉʳ septembre. Pour l’heure, seules les Mercedes EQS et Classe S sont dotées de cette technologie, qui ne nécessite plus de garder les mains sur le volant.

La flotte de clients bêta-testeurs du système de conduite semi-autonome de Tesla baptisé FSD a déjà parcouru plus de 50 millions de kilomètres. Et le rythme continue d’accélérer.
Lire la suite


Pour nous suivre, nous vous invitons à télécharger notre application Android et iOS. Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Les derniers articles