Vidéo Autopilot Tesla truquée ? L’ingénieur en chef confirme la piste d’un grand mensonge

 
Un ingénieur de Tesla confirme que la vidéo montrant les mérites de la conduite autonome de Tesla aurait été truquée. Une déclaration qui pourrait mettre à mal la réputation de l’entreprise et changer le cours de l’enquête qui fait suite à la mort de Walter Huang dans un accident à bord d’un Model X, sous Autopilot, en 2018.

Cela fait de nombreuses années que Tesla travaille au développement de sa technologie de conduite autonome, baptisée Autopilot. Un système arrivé sur les véhicules de la marque en 2015 et livré de série en 2019 sur toutes les nouvelles voitures de la marque. Si celle-ci fut l’une des premières à avoir proposé ce dispositif, elle fut aussi sous le feux des critiques à de nombreuses reprises. En octobre dernier, la justice américaine a d’ailleurs lancé une enquête, accusant Elon Musk d’induire en erreur ses clients sur les capacités réelles de l’Autopilot.

Une révélation coup de poing

Mais ce n’est pas la première fois que Tesla est visée par les autorités. Et pour cause, en 2021, une enquête avait déjà été ouverte par la NHTSA à la suite d’une série d’accidents, dont un mortel, ayant eu lieu alors que l’Autopilot était activé. Pourtant, en 2016, Elon Musk affirmait haut et fort que le système FSD (full self-driving), encore un peu plus évolué était « probablement meilleur » qu’un conducteur humain et que « la personne sur le siège du conducteur n’est là que pour des raisons juridiques. Elle ne fait rien du tout. La voiture se conduit toute seule« .

Des propos alors étayés par une vidéo de 3 minutes 46 montrant ce dispositif en action. On y voit alors des images de l’intérieur et de l’extérieur de la voiture, qui semble se comporter parfaitement, quelle que soit la situation. Sauf que tout cela serait totalement faux. C’est en tout cas que ce déclare Ashok Elluswamy, directeur de la division en charge de l’Autopilot. Dans une déposition relayée par The Verge, l’ingénieur affirme en effet que cette vidéo ne montrerait pas les capacités réelles de la voiture, mais plutôt tout ce qu’il serait possible avec ce système dans le futur.

Une vidéo trafiquée ?

Ainsi, le tracé de l’itinéraire aurait été pré-enregistré et cartographié en avance, la voiture n’étant alors pas capable de planifier elle-même son trajet. Comme l’explique Bloomberg, Elon Musk aurait supervisé les opérations de près, et aurait écrit dans un mail qu’il était normal d’exagérer les capacités, puisqu’il s’agit d’une démonstration. Des mises à jour OTA à distance étaient alors prévues, pour apporter ces capacités plus tard, pour les clients. Par ailleurs, Elluswamy précise qu’à l’époque où les images ont été tournées, la voiture n’était pas en mesure d’analyser les feux tricolores, contrairement à ce qui était montré.

Tesla Model 3 en Navigation Autopilot // Source : Bob Jouy pour Frandroid

En 2021 déjà, d’anciens employés de la marque affirmaient que la vidéo n’était pas tout à fait authentique. En effet, la marque aurait dissimulé un accident qui aurait eu lieu durant le tournage en supprimant les images. Une preuve que l’Autopilot ne serait pas si performant que la marque veut le faire croire ? D’autant plus que depuis plusieurs années, les ingénieurs en charge du projet émettent des réserves face à la certitude d’Elon Musk sur le fonctionnement de cette technologie.

Un autre problème alarmant

Par ailleurs, Mahmood Hikmet, à la tête du département recherche et développement au sein de l’entreprise Ohmio Automation souligne un autre souci. Dans sa déposition, Elluswamy affirme n’avoir jamais entendu l’accronyme ODD (Operational Design Domain). Il s’agit pourtant d’un élément capital dans le développement d’une voiture autonome, puisqu’il définit les limites de l’utilisation du système de conduite autonome, et limitant l’usage de nuit ou sous la pluie par exemple, comme sur la Mercedes EQS. Ce qui signifie probablement que l’Autopilot et le FSD n’ont pas d’ODD et ont été pensés pour être utilisés partout et tout le temps.

Hors, il existe actuellement des lois qui régissent l’usage de cette technologie. En Europe, le niveau 3 de la conduite autonome ne peut être utilisé que sur autoroute, à 60 ou 130 km/h selon les pays. C’est pour cette raison que le Drive Pilot de Mercedes, pourtant en niveau 3, est moins évolué que le FSD de Tesla, en niveau 2.

Pourtant, Tesla se dédouane dans le manuel, qui précise que « l’Assistance au maintien de cap est conçue pour être utilisée sur les autoroutes à accès limité » et que « le non-respect de ces instructions peut entraîner des dommages et des blessures graves, voire mortelles« . Ainsi, la marque ne peut pas être accusée de proposer un système 100 % autonome et d‘induire les clients en erreur.

Pour l’heure en tout cas, pas question de proposer la conduite autonome de niveau 3 à ses clients, alors que le FSD est toujours en bêta-test. Une preuve que la marque n’est pas réellement sûre de ses capacités ? Pourtant, selon un récent rapport, l’Autopilot serait de plus en plus sûr. Mais homologuer le système en niveau 3, comme sur l’EQS, comporte beaucoup de contraintes. Car dans ce cas, c’est le constructeur qui est responsable en cas d’accident, et il faut respecter les limites de la conduite autonome de niveau 3, avec notamment la vitesse maximale. Tesla ne semble pas encore prêt à assumer ces aspects.

Mais si les systèmes de Tesla n’ont pas d’ODD, c’est sans doute parce que la marque prévoit qu’ils puissent être utilisés partout. Dans un entretien avec le chercheur Lex Fridman il y a trois ans, Elon Musk se moquait de l’acronyme ODD et affirmait qu’il était « assez fou » de laisser les humains conduire des voitures plutôt que des machines.

Néanmoins, l’Autopilot semble donc avoir encore du chemin à faire, même si ce système permettrait d’éviter 40 accidents par jour. De son côté, le FSD (Full Self-Driving) pourrait avoir à changer de nom, alors que la Californie vient d’instaurer une loi interdisant Tesla à désigner cette technologie sous le nom de conduite autonome.

Pour aller plus loin
Tesla aurait camouflé un accident dans une vidéo promouvant sa conduite autonome