ACTUALIDAD

Confirmado: Tesla, exculpada del accidente mortal con Autopilot

Los sensores del vehículo no detectaron a un camión de grandes dimensiones que se cruzó

Estados Unidos exculpa a la compañía de eléctricos de este incidente

La marca recuerda que el conductor debe estar atento en todo momento

AmpliarConfirmado: Tesla, exculpada del accidente mortal con Autopilot - SoyMotor.comConfirmado: Tesla, exculpada del accidente mortal con Autopilot

A primeros del mes de julio se desveló que se había producido en Florida el primer accidente mortal a bordo de un Tesla Model S con el sistema Autopilot activado. El conductor del eléctrico semi-autónomo falleció tras colisionar con un camión de grandes dimensiones. Las primeras conclusiones de la investigación del percance apuntaban a que se pudo producir por un fallo del sistema Autopilot.

Tesla se ha enfrentado a un proceso bastante complejo desde que comunicó el primer fallecimiento a borde del Model S. La víctima, Joshua Brown, circulaba a bordo de su vehículo por una autopista de Florida con el sistema Autopilot activado cuando colisionó con un vehículo de gran tonelaje. Según la información facilitada por la compañía, el camión que precedía al Model S realizó una maniobra brusca que el sistema de conducción autónoma del vehículo de Brown no detectó.

xddffng.jpg

La investigación posterior de la National Highway Traffic Safety Administration –NHTSA- con la colaboración de la propia marca determinó que el radar del paragolpes delantero y la cámara situada en el parabrisas no tuvieron un funcionamiento correcto. En este aspecto se barajan dos hipótesis que pueden explicar el fallo en el Autopilot. En ambas Tesla deja claro que el conductor no ejerció un mal uso del sistema a pesar de circular distraído y con un ligero exceso de velocidad.

Confirmado el fallo del sistema Autopilot, concentrado en la cámara frontal y el radar de frenado, la primera hipótesis que se ha desprendido de una investigación que aún no se ha cerrado es que el vehículo pudo ser víctima de su software. El gran tamaño del camión habría provocado que el software de reconocimiento ignorase el obstáculo al pensar que se trataba de una infraestructura anexa o accesoria (un edificio, puente, etc...). Además, se mantiene la opción del 'deslumbramiento' del radar y la cámara que provocó este falso diagnóstico.

VEREDICTO FINAL

La NHTSA ha exculpado a Tesla de este accidente finalmente. Se confirma que Brown utilizaba Autopilot en el momento en que sufrió el percance y también que el sistema de frenada de emergencia no actuó para evitarlo. También se ha podido conocer que la última acción que realizó el conductor se produjo dos minutos antes del impacto y fue incrementar la velocidad del control de crucero hasta los 119 kilómetros por hora, una velocidad superior a la máxima admitida en la vía por la que circulaba.

Igualmente, se descarta que estuviera viendo una película, aunque en el recorrido, que duró 37 minutos, el conductor sólo tuvo las manos en el volante durante 25 segundos, pese a los constantes avisos del sistema para que tomase el control del vehículo.

La investigación también concluye que el accidente se produjo en un día claro, con suficiente visibilidad, y con el asfalto seco. De acuerdo con la NHTSA, el conductor debía de haberse dado cuenta de la presencia del camión siete segundos antes del impacto, tiempo suficiente como para esquivarlo o frenar y así, evitar el impacto.

Desde la agencia estadounidense se recuerda que los sistemas Autopilot son sólo asistentes a la conducción, que reclaman la constante atención del conductor. La NHTSA ha aplaudido el hecho de que Tesla Motors haya limitado el funcionamiento de Autopilot en los últimos meses y hayan alertado a sus usuarios de las precauciones que deben tomar con el Autopilot.

También se llega a la conclusión de que el sistema de frenada de emergencia automática no falló, ya que no está diseñado para evitar el choque con un vehículo que invade la carretera desde un lateral, sino para evitar el impacto contra el vehículo de delante. Esto quiere decir que el Model S sólo recurre a la frenada de emergencia si sus sensores y cámaras consideran que hay un obstáculo delante de nuestro coche.

Desde Tesla Motors defienden que esta tecnología reducirá los accidentes por alcance un 40 por ciento y animan a hacerla obligatoria para antes del año 2025, pues, de este modo, se podrían prevenir 28.000 incidentes cada año en EE.UU. y 12.000 heridos.

Para comentar o votar INICIA SESIÓN
5 comentarios
Imagen de fenix80

Han confirmado lo esperado, los culpables fueron el conductor por no atender a la carretera y el del camión por hacer una maniobra incorrecta. Esa versión del Autopilot es un control de crucero avanzado, es un nivel 2 ó 3 de conducción autónoma, no 4 ó 5. Esperemos que con esto dejen de culpar al autopilot en otras situaciones donde está claro que no estaba puesto y parece más bien una confusión freno-acelerador.

Imagen de Lobera

[#2 Raulos] Por cierto, el sistema será perfecto una vez que todos los coches sean autónomos, mientras no sea así siempre habrá algún accidente debido a cualquier fallo o negligencia humana como en este caso (maniobra indebida del conductor del camión).

Imagen de Lobera

[#2 Raulos] Leí en otro lado que ese modelo lleva acumulado 130 millones de millas de conducción autónoma sin ningún accidente hasta este caso.
http://www.elmundo.es/motor/2016/07/01/5775e50022601dba108b4660.html?cid...

Imagen de Raulos

Sería interesante saber cuál ha sido el kilometraje total del modelo desde su lanzamiento hasta el fatídico día y compararlo con el recorrido por humanos hasta el primer accidente mortal a cargo de un humano. Es la única forma de ser medianamente imparciales con la tecnología. Supongo yo, sin tener pruebas a la mano, que el sistema autónomo es mucho más seguro que el "método" humano, obviamente no es perfecto, pero es perfectible, lo cual en los seres humanos, eso no es posible. Saludos.

Imagen de Sakhir

Complicado panorama para Tesla con este caso, salvo que hiciera firmar documentos asegurando lo que dice de que el sistema necesita constante vigilancia y que no es perfecto, esa escusa no tiene fundamento, pero además la responsabilidad esta en instalar ese sistema poniendo en riesgo a sus clientes a un posible grave accidente por un sistema con fallas.
Esto va camino a unos de esos juicios pesados de reclamación por parte de la familia de alguna pequeña fortuna, y mas en EEUU.

Usuario no registrado Queremos saber tu opinión
¿Nuevo en SoyMotor.com? ¡Bienvenido! Regístrate aquí para participar.
Scroll To Top