Imaginez : vous êtes arrêté à un feu rouge, il pleut, il fait nuit. La Tesla devant vous démarre tranquillement… alors que le feu est toujours rouge. Pas d’erreur du conducteur, non : c’est le fameux Full Self-Driving qui a décidé tout seul de passer. Scène de science-fiction ? Non, réalité documentée plus de 80 fois par les autorités américaines.

Tesla FSD sous le feu des autorités : les nouveaux chiffres qui font mal

Le 5 décembre 2025, la NHTSA (l’agence américaine de sécurité routière) a envoyé une lettre cinglante à Tesla. Résultat : au moins 80 cas avérés où le système Full Self-Driving (Supervised) a violé le code de la route en franchissant des feux rouges ou en traversant des lignes continues.

Ce n’est pas une petite augmentation : en octobre 2025, l’agence parlait déjà d’une cinquantaine de cas. En deux mois, le compteur a grimpé de 60 %. Parmi ces signalements :

  • 62 plaintes directes de conducteurs Tesla
  • 14 rapports transmis par Tesla elle-même
  • 4 articles de presse ayant déclenché des vérifications

« Le système est-il capable de détecter correctement et de répondre de manière appropriée aux feux de signalisation, aux panneaux et aux marquages au sol ? »

NHTSA – Lettre du 5 décembre 2025

Un problème récurrent, même après correctif

L’histoire est d’autant plus gênante que plusieurs incidents initiaux provenaient… du même carrefour à Joppa, dans le Maryland. Tesla avait pourtant assuré à la NHTSA avoir déployé un correctif spécifique pour cet endroit. Visiblement, cela n’a pas suffi : de nouveaux cas continuent d’apparaître partout aux États-Unis.

La firme d’Elon Musk rédige systématiquement ses rapports, mais les censure fortement avant transmission. Impossible donc de savoir si certains États ou certains types de carrefours sont plus touchés.

Deux enquêtes simultanées sur le même logiciel

Ce n’est pas la première fois que le FSD se retrouve dans le collimateur. Depuis octobre 2024, une autre enquête est en cours sur la gestion des conditions de faible visibilité (brouillard, soleil rasant, poussière). Résultat : Tesla fait désormais l’objet de deux investigations distinctes sur le même produit phare.

La NHTSA demande cette fois des données précises :

  • Nombre exact de véhicules équipés FSD
  • Taux d’utilisation réel du mode supervisé
  • Toutes les plaintes clients internes (y compris flottes et arbitrages)
  • Détails techniques sur la détection des feux et marquages

Réponse attendue pour le 19 janvier 2026. Autant dire que Noël sera studieux à Austin.

Elon Musk en plein délire promotionnel… au pire moment

Le timing est presque comique. La même semaine, Elon Musk publie sur X que la prochaine version FSD permettra de “texter en conduisant” car le système sera si bon que ce sera sûr. Problème : envoyer des SMS au volant est interdit dans 48 États sur 50.

La NHTSA n’a pas (pas encore) répondu officiellement, mais on imagine sans peine la tête des enquêteurs en lisant ça.

Comparaison avec la concurrence : Waymo, Cruise et les autres

Pour remettre en perspective, regardons les chiffres des vrais leaders de la conduite 100 % autonome (sans conducteur de sécurité) :

SociétéKilomètres autonomesIncidents graves signalés (2024-2025)
Waymo (Alphabet)+35 millions23 (aucun feu rouge franchi)
Cruise (GM)+8 millions20 (dont 1 accident grave)
Tesla FSD (supervisé)3 milliards80+ feux rouges + accidents

La différence ? Waymo et Cruise utilisent des lidars et cartes HD ultra-précises. Tesla mise tout sur la vision pure (caméras + réseaux de neurones), approche qu’Elon Musk qualifie de “seule scalable”. Les faits semblent lui donner tort pour l’instant.

Impact business : le Robotaxi en danger ?

Le plan maître d’Elon Musk repose sur le Cybercab et le Robotaxi, censés être déployés massivement en 2026-2027. Or chaque enquête NHTSA retarde les autorisations d’exploitation sans conducteur de sécurité.

En Californie, Waymo opère déjà plus de 300 véhicules sans personne au volant à San Francisco et Phoenix. Tesla, lui, n’a toujours pas le droit de retirer le volant de ses voitures de série.

Et les utilisateurs dans tout ça ?

Sur les forums (Reddit, Tesla Motors Club, X), les témoignages se multiplient :

  1. « Ma Model 3 a traversé un stop sans ralentir à 60 km/h »
  2. « FSD a freiné d’urgence devant un feu… qui était vert »
  3. « J’ai dû reprendre la main 12 fois en 20 minutes en ville »

Même les plus fervents défenseurs commencent à douter. Un utilisateur résume : “Je paie 15 000 € pour un beta permanent qui me fait peur plus qu’il ne m’aide.”

Que risque réellement Tesla ?

Plusieurs scénarios possibles :

  • Un simple rappel logiciel (le plus probable)
  • L’obligation de désactiver certaines fonctions en ville
  • Une amende (record actuel : 1,2 milliard $ pour les airbags Takata)
  • Dans le pire des cas, suspension pure et simple du FSD

La NHTSA a déjà forcé Tesla à rappeler 2 millions de véhicules pour l’Autopilot en 2023. Elle sait donc faire.

Conclusion : la course à l’autonomie totale est loin d’être gagnée

Ces 80 feux rouges grillés ne sont qu’un symptôme. Ils révèlent le gouffre qui sépare encore la promesse marketing d’Elon Musk de la réalité technique. La conduite autonome niveau 4 ou 5 (sans intervention humaine) demande une fiabilité de 99,9999 %. Tesla est encore très loin du compte.

Pour les startups du secteur, c’est à la fois un avertissement et une opportunité : la première qui prouvera une sécurité irréprochable raflera le marché des dizaines de milliards de dollars du transport autonome. Pour l’instant, ce n’est clairement pas Tesla.

Et vous, feriez-vous encore confiance à FSD pour traverser une ville la nuit sous la pluie ?

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.