La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) ha publicado los resultados de una investigación de casi tres años sobre el sistema Autopilot de Tesla, que ha revelado un «fallo de seguridad crítico» en el sistema. Según la investigación, el Autopilot de Tesla contribuyó a al menos 467 colisiones, 13 de las cuales resultaron en muertes y «muchas otras» en heridos graves.
La NHTSA encontró que el diseño del Autopilot de Tesla era «predecible» para un mal uso y que el sistema no garantizaba suficientemente la atención del conductor y el uso apropiado. El sistema, que vigila el grado de atención y compromiso con la conducción «del conductor débil», permanece encendido incluso cuando un conductor no está prestando la atención adecuada a la carretera o al hecho de conducir.
Con el diseño actual del Autopilot era de esperar que la gente haría un mal uso de el
La polémica sobre el sistema Autopilot de Tesla se centra en el nombre del sistema, que sugiere una capacidad de conducción autónoma total, lo que no es cierto. El sistema es en realidad un sistema de conducción autónoma de Nivel 2, que requiere que el conductor mantenga las manos en el volante y esté atento a la carretera.
La marca Tesla ha sido objeto de críticas por no ser lo suficientemente clara sobre las limitaciones del sistema y por no ofrecer un sistema de conducción autónoma de Nivel 3, que no requiere la atención del conductor. A pesar de la polémica, Tesla sigue apostando por una conducción autónoma y una flota de robotaxis, en detrimento de un nuevo coche más asequible.
La investigación de la NHTSA es un llamado a atención para los fabricantes de automóviles y los consumidores sobre la importancia de la seguridad en el desarrollo y el uso de sistemas de conducción autónoma.
Lo que no hay que hacer cuando estas usando el Autopilot
Si bien Tesla representa con precisión lo que vende y ofrece, la compañía ha sido criticada por no ser más proactiva a la hora de explicar a sus clientes que el sistema Autopilot no permite la conducción totalmente autónoma. En cambio, la compañía se basa en la letra pequeña en su manual de usuario y sitio web, afirmando que las características actuales requieren una supervisión activa por parte del conductor y no convierten el automóvil en un vehículo autónomo.
Recientemente, Tesla resolvió una demanda con la familia de Walter Huang, un ingeniero de Apple y padre de dos hijos, que murió en un accidente cuando su Tesla Model X con el piloto automático activado se estrelló contra una barrera de la carretera. Los términos del acuerdo se mantuvieron ocultos al público.
A pesar de la controversia, Tesla sigue priorizando su tecnología de conducción autónoma y su flota de robotaxis, en lugar de desarrollar un sistema autónomo de nivel 3 que no requiera la atención del conductor, a diferencia de competidores como Honda y Mercedes. Este enfoque en la autonomía puede venir en detrimento de opciones de coches nuevos más asequibles.