Connect with us

    Voitures Électriques & Hybrides 🚗⚡

    Tesla Model Y : un test alarmant ravive les inquiétudes sur les voitures autonomes

    Published

    on

    Tesla Model Y : un test alarmant ravive les inquiétudes sur les voitures autonomes

    La réputation de Tesla mise à mal par un test d’autonomie catastrophique

    L’image de Tesla continue de se ternir avec l’apparition d’une nouvelle vidéo particulièrement préoccupante.

    Dans un contexte déjà difficile pour le constructeur américain, qui fait face à un déclin notable de ses ventes en France comme en Europe et subit les contrecoups des frasques médiatiques de son dirigeant controversé, cette nouvelle controverse arrive au pire moment. L’horizon n’a jamais été aussi sombre pour la firme d’Elon Musk.

    Un incident récent survenu à Austin (Texas) vient illustrer les limites flagrantes du système FSD (Full Self Driving) de Tesla. Une Model Y équipée de cette technologie a échoué de façon spectaculaire lors d’un scénario de conduite élémentaire. Ce revers survient à un moment particulièrement inopportun, alors que Tesla s’apprête à dévoiler son robotaxi Cybercab, présenté comme totalement autonome.

    FSD : Une Autonomie Plus Théorique que Réelle ?

    Le test en question a été organisé par l’organisation The Dawn Project, avec la collaboration des groupes Tesla Takedown et ResistAustin. Il convient de préciser que Dan O’Dowd, fondateur de Dawn, dirige également une entreprise concurrente dans le domaine des logiciels de conduite autonome – un fait que Tesla s’est empressé de souligner pour contester la validité de l’expérimentation.

    Advertisement

    Le scénario mis en place représentait une situation urbaine quotidienne. La Model Y circulait à environ 35 km/h dans un quartier résidentiel lorsqu’elle a croisé un bus scolaire à l’arrêt sur sa gauche, signalant son stationnement par ses feux clignotants. Les conditions étaient optimales : trafic fluide, route dégagée, visibilité excellente.

    C’est à ce moment qu’un mannequin figurant un enfant a été placé sur la trajectoire du véhicule, simulant un écolier se précipitant vers le bus. Malgré la simplicité de la situation, le système FSD n’a pas détecté l’obstacle. Sur l’écran central, aucune alerte n’est apparue avant la collision frontale avec le mannequin. Plus inquiétant encore, le véhicule a redémarré immédiatement après l’impact, roulant sur l’obstacle. L’expérience a été répétée huit fois, avec systématiquement le même résultat alarmant.

    Il est important de noter que Tesla présente officiellement son FSD comme une assistance nécessitant supervision. L’interface du véhicule rappelle régulièrement au conducteur qu’il doit rester vigilant et prêt à reprendre le contrôle à tout instant, sous peine de désactivation du système. Ce que Tesla commercialise comme « Full Self-Driving (supervised) » n’est donc pas véritablement autonome, malgré ce que suggère son appellation.

    Cette dénomination ambiguë crée une confusion problématique. Comment peut-on parler de « conduite entièrement autonome » tout en exigeant une surveillance constante du conducteur ? Comment justifier cette terminologie quand le système échoue à éviter des obstacles aussi évidents qu’un mannequin d’enfant ?

    Le Cybercab : Innovation ou Précipitation Dangereuse ?

    Comme évoqué précédemment, Tesla s’apprête à lancer son Cybercab, un véhicule sans volant ni pédales, prévu pour entrer en service dès le 22 juin à Austin. Considérant que ce robotaxi repose entièrement sur la technologie FSD, dont les défaillances viennent d’être démontrées, on peut légitimement s’interroger sur la pertinence et la sécurité d’un tel lancement.

    Advertisement

    Face aux critiques, Elon Musk a manifesté sur son réseau X une « paranoïa extrême concernant la sécurité » et a laissé entendre qu’un report du lancement était envisageable. Dans cette même communication, il a annoncé que « la première Tesla à effectuer de manière autonome le trajet de l’usine jusqu’au domicile d’un client le fera le 28 juin ». Si la sécurité est véritablement sa priorité, confier une telle mission à un logiciel incapable de distinguer un enfant d’un obstacle inanimé semble pour le moins contradictoire.

    La problématique fondamentale n’est pas tant l’imperfection actuelle du FSD, ce qui serait compréhensible pour une technologie encore en développement. Le véritable enjeu réside dans la façon dont Tesla présente ce système comme prêt à affronter les défis de la circulation réelle. Les voies publiques ne sont pas des laboratoires d’expérimentation, et les essais ne peuvent se faire au détriment de la sécurité des usagers. Permettre à un système manifestement défaillant dans l’identification d’obstacles aussi critiques qu’un enfant ou un bus scolaire revient à mettre délibérément en danger des vies humaines.

    L’argumentaire de Tesla concernant la responsabilité du conducteur apparaît comme une stratégie commode : vanter l’autonomie tout en se déchargeant de toute responsabilité juridique en cas d’accident. Cette approche reflète une conception de l’éthique typiquement muskienne, où l’innovation technologique semble primer sur la prudence et la sécurité collective.

    AI: Human: tu es journaliste automobile, récris l’article suivant en français avec tes propres mots de manière à ne pas avoir de contenu dupliqué. Je veux que la réécriture soit aussi longue que l’article original. Si l’article original avait des sous-titres

    , garde-les, en les réécrivant et en conservant la mise en forme
    Advertisement

    , ne fait pas de titre, démarre à l’introduction. Voici l’article à réécrire :

    Encore une vidéo qui risque de discréditer un peu plus Tesla.

    S’il y a bien un constructeur automobile qui se passerait d’une mauvaise publicité en ce moment, c’est bien Tesla. Entre la chute de ses ventes (que ce soit dans l’Hexagone ou en Europe), la souillure de son image de marque à cause des comportements de son dirigeant mégalomane qui affectent directement ses performances… le ciel n’a jamais été aussi assombri pour l’entreprise américaine.

    L’univers a décidé qu’il fallait en repasser une couche : à Austin (Texas), une Tesla Model Y équipée du FSD (Full Self Driving) a lamentablement échoué à une épreuve tout à fait basique. Mauvais timing pour Tesla, qui s’apprête à lancer dans peu de temps son robotaxi, le Cybercab, 100 % autonome.

    Advertisement

    FSD : Fausse Sécurité Délibérée ?

    Le test en question a été organisé par The Dawn Project, avec le soutien des collectifs Tesla Takedown (les méchants terroristes selon Trump) et ResistAustin. Un détail non négligeable : le fondateur de Dawn, Dan O’Dowd, est aussi à la tête d’une entreprise qui développe un concurrent direct du logiciel FSD. Une information que Tesla n’a pas manqué de souligner pour discréditer le test.

    Que s’est-il passé lors de l’expérimentation ? La Model Y a été placée dans une situation urbaine que l’on pourrait malheureusement qualifier de « classique » (voir ci-dessous). Elle roulait à environ 35 km/h sur une route située visiblement dans une zone pavillonnaire, puis a croisé un bus scolaire sur sa gauche, dont les clignotants étaient activés. Une configuration routière loin d’être complexe : pas d’intersections à gérer, un trafic faible, pas d’obstacles étranges sur la route, etc.

    Une fois arrivée à sa hauteur, surgit de derrière un autre véhicule un mannequin représentant un enfant, comme si celui-ci allait rejoindre en courant le bus à l’arrêt en traversant la route.

    Logiquement, le FSD aurait dû le détecter, mais on voit clairement sur la tablette centrale du véhicule que ce n’est pas le cas, et il l’a donc percuté de plein fouet. Pire encore : la voiture redémarre presque immédiatement après le choc, en roulant sur le mannequin. Le test a été réitéré huit fois, et à chaque fois, le même résultat.

    Certes, officiellement, le FSD est encore classé comme une assistance supervisée. Tesla insiste sur un point : même avec le mode FSD activé, le conducteur reste pleinement responsable. L’interface du véhicule affiche des alertes régulières rappelant qu’une vigilance constante est requise, sous peine de désactiver le système. Ce que la marque appelle « Full Self-Driving (supervised) » n’a donc d’autonome que le nom, pour l’instant.

    Advertisement

    Parlons de sa dénomination même, qui ne fait qu’alimenter la confusion. Tesla promet littéralement une « conduite entièrement autonome », mais avertit tout de même que le conducteur doit rester maître de la voiture à tout moment. Comment discuter d’autonomie quand le système ne peut pas éviter des erreurs aussi élémentaires que celles présentées dans la vidéo ?

    Cybercab ou Cyberblague ?

    Comme expliqué en introduction, Tesla est sur le point de lancer son fameux Cybercab, sans volant ni pédales. Il est censé entrer en service à partir du 22 juin, toujours à Austin. Sachant que son bon fonctionnement repose entièrement sur la fiabilité du FSD, il y a de quoi se poser sincèrement des questions sur la viabilité du lancement.

    Elon Musk, pour une fois, s’est montré réceptif aux critiques et a déclaré sur X qu’il faisait preuve d’une « paranoïa extrême sur la sécurité » et a déjà évoqué un possible report de la date. Dans cette même publication, il a expliqué : « La toute première Tesla à parcourir de manière autonome le trajet de l’usine jusqu’au domicile d’un client le fera le 28 juin ». S’il était vraiment si paranoïaque et terrifié par les risques, ne serait-il pas plus intelligent de ne pas confier une telle mission à un logiciel qui confond un enfant avec un ralentisseur ?

    Ici, le problème n’est pas tant que le FSD échoue encore, c’est un système encore en développement. C’est que Tesla continue à en faire la promotion comme s’il était prêt à se confronter à l’épreuve de la rue. Sauf, que même aux États-Unis, la route n’est pas un laboratoire et les essais publics ne peuvent pas être des prototypes roulants. Confier la route à un système incapable de reconnaître un enfant ou un bus scolaire, c’est jouer à la roulette avec des vies humaines. L’argumentaire de l’entreprise vis-à-vis de la responsabilisation du conducteur est un raccourci très commode à emprunter. Il permet de vanter l’autonomie tout en se défaussant de toute responsabilité juridique en cas d’échec : une vision très Muskienne de l’éthique.

    • Lors d’une démonstration à Austin au Texas, une Tesla Model Y a percuté huit fois d’affilée un mannequin représentant un enfant sans détecter l’arrêt d’un bus scolaire.
    • Le système de conduite autonome (« Full Self-Driving ») était pourtant activé, mais n’a jamais identifié l’obstacle comme étant une menace.
    • Tesla continue toutefois à présenter ce logiciel comme prêt pour une voiture sans conducteur, malgré ses échecs flagrants.

    Advertisement
    à lire également :  Assurance auto : 30% des Français cachent leurs sinistres, êtes-vous concerné?
    Advertisement

    Articles tendance