La NHTSA investiga el software de conducción autónoma de Tesla por infracciones de tráfico
La NHTSA investiga el software Full Self-Driving de Tesla por fallos en semáforos y carriles. Más de 50 incidentes reportados, incluyendo lesiones.
Tesla Model Y. Crédito: Shutterstock
Con más de 50 incidentes reportados, incluyendo cuatro con lesiones, el caso pone en jaque la confianza en los sistemas avanzados de asistencia al conductor. ¿Es este el tropiezo que frena el sueño de los autos sin manos al volante?
La noticia llega en un contexto de optimismo por parte de Tesla, que acaba de desplegar su versión más reciente de FSD. Sin embargo, los reguladores federales no esperan: la investigación se centra en comportamientos erráticos que podrían comprometer la seguridad vial.
Antecedentes de las pesquisas regulatorias en Tesla
Tesla no es ajena a las miradas de la NHTSA. Hace apenas un año, en octubre de 2024, la agencia inició una revisión del FSD tras accidentes en condiciones de visibilidad reducida, como niebla o lluvia intensa. Aquella indagación buscaba entender por qué el software, diseñado para manejar escenarios complejos, fallaba en entornos cotidianos adversos.
Más atrás en el tiempo, abril de 2024 marcó el cierre de otra investigación clave: la relacionada con Autopilot, el precursor menos sofisticado del FSD. En ese caso, se documentaron 13 colisiones fatales vinculadas al mal uso del sistema por parte de conductores distraídos.

Aunque la NHTSA consideró implementadas ciertas mejoras por parte de Tesla, una evaluación pendiente sobre la efectividad de esas correcciones mantiene viva la vigilancia. Estas acciones previas ilustran un patrón: la agencia no duda en actuar cuando la evidencia acumulada apunta a riesgos sistémicos.
En el panorama más amplio, el ecosistema de conducción autónoma enfrenta presiones crecientes. Competidores como Waymo y Cruise han lidiado con sus propios desafíos regulatorios, pero Tesla, con su enfoque en software over-the-air y datos masivos de usuarios, se posiciona como el caso más visible.
Detalles de las violaciones reportadas en el FSD
El núcleo de la controversia radica en incidentes concretos que cuestionan la fiabilidad del FSD. La Oficina de Investigación de Defectos (ODI) de la NHTSA ha compilado al menos 18 quejas formales y un reporte periodístico sobre fallos en semáforos en rojo. En estos casos, el software no solo omitió detener el vehículo, sino que lo mantuvo en movimiento ante luces rojas claras, exponiendo a ocupantes y peatones a peligros inmediatos.
Otro foco de preocupación son las intrusiones en carriles contrarios. Se han registrado 18 denuncias adicionales, junto con dos coberturas mediáticas y dos reportes obligatorios de Tesla bajo la Orden General Permanente para Reportes de Choques (SGO). Estos describen cómo el FSD ingresó a vías opuestas durante giros, cruzó líneas dobles amarillas en trayectos rectos o incluso intentó maniobras en dirección prohibida, ignorando señales explícitas de “no entrada”.
No menos alarmante es el manejo de intersecciones: seis quejas, un artículo de prensa y cuatro informes SGO detallan vehículos que procedieron recto desde carriles de giro o viceversa, creando confusiones potencialmente catastróficas.
En varios escenarios, los cambios de carril hacia direcciones opuestas ocurrieron con escaso aviso, dejando poco margen para que el conductor intervenga manualmente. De todos estos eventos, cuatro derivaron en lesiones leves a moderadas, subrayando que no se trata solo de fallos técnicos, sino de impactos humanos reales.
Acciones correctivas y el nuevo lanzamiento de Tesla
Tesla no ha permanecido pasiva. En colaboración con autoridades locales, la compañía ya ha implementado ajustes específicos para mitigar problemas recurrentes. Un ejemplo destacado es la intersección en Joppa, Maryland, donde múltiples incidentes se repitieron. Trabajando con la Autoridad de Transporte de Maryland y su policía estatal, la NHTSA verificó la repetibilidad de estos fallos, y Tesla respondió con actualizaciones localizadas para esa zona.
Curiosamente, esta investigación coincide con el debut de la última iteración del FSD, que incorpora datos frescos del piloto de robotaxis en Austin, Texas. Elon Musk, CEO de Tesla, ha dedicado meses a promocionar esta actualización como un salto cualitativo, prometiendo mayor precisión en entornos urbanos dinámicos. Sin embargo, el timing genera especulaciones: ¿los datos del robotaxi, recolectados en un entorno controlado, subestimaron riesgos en carreteras reales?

La ODI clasifica esta como una “Evaluación Preliminar”, con un plazo típico de ocho meses para conclusiones. Factores externos, como recortes presupuestarios en la NHTSA (atribuidos en parte a iniciativas de eficiencia gubernamental impulsadas por Musk) podrían dilatar el proceso. A pesar de ello, la agencia insiste en su compromiso con la transparencia y la seguridad.
Implicaciones para la conducción autónoma y los usuarios
Esta pesquisa no solo afecta a Tesla, sino que resuena en todo el sector de la movilidad inteligente. Para los propietarios de Model 3, Y o Cybertruck equipados con FSD, surge la duda: ¿vale la pena el costo premium de una tecnología que aún patina en lo básico? Expertos en seguridad vial advierten que, mientras el software evoluciona, los conductores deben mantener vigilancia absoluta, evitando la complacencia que ha costado vidas en el pasado.
A nivel global, reguladores europeos y asiáticos observan de cerca, potencialmente inspirándose en las medidas de la NHTSA. Para Tesla, el desafío es doble: demostrar que sus actualizaciones resuelven estos huecos sin comprometer la innovación. Si la investigación avanza hacia un recall, podría retrasar el despliegue masivo de robotaxis y erosionar la ventaja competitiva de la marca.
En última instancia, este episodio recuerda que la autonomía total no es solo código y sensores, sino un pacto de confianza con la sociedad. Mientras Tesla acelera hacia un futuro sin choferes, la NHTSA asegura que nadie deje atrás la seguridad.
Te puede interesar: