ARTÍCULOS SOYMOTOR.COM

Tesla y su Autopilot no se llevan bien con los vehículos de emergencias

10/08/2023 12:45

Tesla está teniendo problemas con la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos debido a los accidentes que sus coches eléctricos están provocando con coches policiales y de emergencias implicados. Esto ha pasado al menos ya en 16 ocasiones y el sistema Autopilot está en el punto de mira.

Varios accidentes de coches de Tesla con vehículos de emergencias implicados tiene a la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos investigando desde 2021, momento en el que empezaron a registrarse estas peligrosas situaciones.

De los 11 accidentes en los que se estudiaba la responsabilidad del sistema Autopilot de Tesla, han pasado a ser 16 los que se están investigando por los federales.

Las imágenes y los informes recopilados hasta el momento, muestran que la tecnología de conducción semiautónoma de Tesla estaría teniendo problemas para detectar a tiempo y con seguridad a los vehículos policiales o de otras agrupaciones de emergencias cuando éstos se encuentran parados en el arcén.

Y del total de accidentes, al menos en seis los automóviles de emergencias tenían encendidas las luces en modo intermitente, alertando del peligro de la situación.

Un interesante reportaje del Wall Street Journal arroja importante información sobre uno de estos accidentes, con material gráfico real que ayuda a entender lo que está sucediendo.

Es un caso algo conflictivo, porque se detectó que el conductor del Tesla Model X que impacta con el vehículo policial estaba bajo los efectos del alcohol.

En el trayecto de 45 minutos antes del accidente, el Model X de 2019 se mantuvo prácticamente todo el tiempo con el modo Autopilot activado, una tecnología que alertó en hasta 150 ocasiones al conductor de que tenía que colocar las manos en el volante.

Recordemos que la letra pequeña de estos sistemas todavía solicita atención por parte del conductor y avisa si detecta que hay situaciones en las que el usuario tiene que actuar. Un texto legal al que Tesla recurre para lavarse las manos en caso de que falle el sistema.

En las imágenes previas al accidente, el Tesla Model X circula a 87 kilómetros/hora, y va detectando los distintos vehículos con los que se cruza. No ocurre así con los que hay aparcados en el arcén poco antes de encontrarse con el coche de policía en medio de la carretera con las luces de emergencia encendidas.

De hecho, este último no es detectado por Autopilot hasta que está a 34 metros de distancia y con un margen de 2,5 segundos, lo que hace que, a esa velocidad, el sistema haga un amago de reducir la velocidad para después desconectarse y recibir el impacto.

Al menos cinco agentes fueron heridos en ese accidente, en el que claramente el conductor no estaba pendiente de la carretera, porque los avisos del sistema de Tesla y la visibilidad eran óptimas para poder haber evitado el golpe con un actuación por parte del usuario que conducía el Tesla.

El fabricante ya alegó haber hecho cambios en el software en 2021 y revisado aquellos vehículos que pudieran dar este tipo de errores. Pero lo cierto es que hay informes de accidentes similares del año 2022, tras esta 'supuesta' solución al problema

Si bien es cierto que Testa puede seguir defendiéndose con el argumento de que todos son errores humanos, puesto que no se respetan las obligaciones del conductor que se indican en el manual, lo cierto es que tampoco es buena publicidad para la marca ni para Elon Musk.

Más que nada, porque Musk lleva meses afirmando que están muy cerca de lograr la conducción autónoma total, cuando la realidad es que los niveles de conducción autónoma de momento no pasan del nivel 2 y 3 en algunos países, y sólo para marcas puntuales que han obtenido la aprobación.