Tesla: la NHTSA investiga el software del piloto automático tras una serie de accidentes mortales
La Administración Nacional de Seguridad del Tráfico en las Carreteras ha abierto una investigación contra el piloto automático de Tesla tras los multiples accidentes generados. La investigación cubre la totalidad de la alineación de Tesla, unos 765,000 vehículos
El piloto automático Tesla está bajo fuego, de nuevo. Esta vez, las cosas son mucho más serias. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) abrió una investigación formal sobre el software de control de crucero adaptativo patentado de Tesla. Lamentablemente, esto se produce tras una serie de accidentes, algunos de ellos mortales. Pero ahora, Tesla está realmente en problemas con los federales.
Toda la gama de modelos de la marca está sujeta a consultas
Entonces, ¿qué fue exactamente lo que llevó a los federales al piloto automático de Tesla específicamente? Desafortunadamente, ha habido una serie de accidentes, 11 para ser exactos, que la NHSTA dice que involucraron a un Tesla y a los primeros en responder mientras Tesla Autopilot estaba activo. Evidentemente, la NHSTA no toma amablemente que el personal de emergencia sea atropellado por automóviles que “conducen solos” hasta que sea legalmente conveniente que no lo hagan. Sin embargo, Tesla tiene un historial de transferir la responsabilidad de su software de computadora a los propietarios cuando le conviene.
Este comportamiento ha llamado la atención de la NHTSA. Desafortunadamente, la investigación cubre la totalidad de la alineación de Tesla, unos 765,000 vehículos. Sin embargo, es importante tener en cuenta que Tesla y, por extensión, Elon Musk, son inocentes hasta que se demuestre su culpabilidad. La investigación está en curso, pero la Junta Nacional de Seguridad en el Transporte (NTSB) recomendó que la NHTSA requiera que Tesla limite las áreas en las que se puede usar el piloto automático de Tesla.
El piloto automático de Tesla claramente no es un sustituto de las personas reales
La NTSB le ha disparado a Tesla antes, culpando a la compañía de muchos otros accidentes. Sin embargo, hay que señalar que no es sólo el piloto automático de Tesla el culpable aquí. La gente no es muy responsable con el software semiautónomo. Han hecho de todo, desde dormir hasta conducir borrachos en sus Teslas. Sin embargo, la mayoría de las veces esas personas son castigadas. La NHTSA ahora está tratando de determinar si Tesla comparte la culpa allí también.
De alguna manera, deberían hacerlo. Existe una cultura en torno a los modelos de Tesla que se ha vuelto bastante dañina. Y es que los autos son promocionados como algo salido de iRobot o Bladerunner cuando simplemente no lo son. La conducción autónoma completa de Tesla no es una conducción autónoma total. En el mejor de los casos, es una versión beta. Francamente, los seres humanos no son lo suficientemente responsables de los coches autónomos. Y eso es lo que parece haber estimulado la investigación de la NHTSA.
¿Cómo puede la marca recuperarse de esto?
Está bastante claro que Tesla tiene un problema de imagen en este momento. Tesla tiene que empezar con algo de transparencia. Cambiar algunos nombres sería un buen comienzo. “Tesla Autopilot” es algo engañoso. El software de control de crucero adaptativo “SuperCruise” de GM no connota la conducción autónoma, mientras que “Autopilot” sí lo hace. Sin duda, sería un comienzo, pero habrá que ver qué dice la NHSTA para cualquier cambio real.
********
TE PUEDE INTERESAR:
– Toyota Tacoma: durabilidad y capacidades todoterreno, las razones por las que es la mejor camioneta usada que puedes comprar
– Cómo ver el estreno virtual del nuevo Hyundai Elantra N 2022 el próximo 19 de agosto