COCHES

ACTUALIDAD

Resolución sobre el accidente mortal en un Tesla: culpa compartida

Los sensores del vehículo no detectaron a un camión de grandes dimensiones que se cruzó
Estados Unidos exculpa a la compañía de eléctricos de este incidente
La marca recuerda que el conductor debe estar atento en todo momento
autopilot_tesla_soy_motor.jpg
6
13 Sep 2017 - 10:50

A primeros del mes de julio se desveló que se había producido en Florida el primer accidente mortal a bordo de un Tesla Model S con el sistema Autopilot activado. El conductor del eléctrico semi-autónomo falleció tras colisionar con un camión de grandes dimensiones. Las primeras conclusiones de la investigación del percance apuntaban a que se pudo producir por un fallo del sistema Autopilot.

Tesla se ha enfrentado a un proceso bastante complejo desde que comunicó el primer fallecimiento a borde del Model S. La víctima, Joshua Brown, circulaba a bordo de su vehículo por una autopista de Florida con el sistema Autopilot activado cuando colisionó con un vehículo de gran tonelaje. Según la información facilitada por la compañía, el camión que precedía al Model S realizó una maniobra brusca que el sistema de conducción autónoma del vehículo de Brown no detectó.

xddffng.jpg

La investigación posterior de la National Highway Traffic Safety Administration –NHTSA- con la colaboración de la propia marca determinó que el radar del paragolpes delantero y la cámara situada en el parabrisas no tuvieron un funcionamiento correcto. En este aspecto se barajan dos hipótesis que pueden explicar el fallo en el Autopilot. En ambas Tesla deja claro que el conductor no ejerció un mal uso del sistema a pesar de circular distraído y con un ligero exceso de velocidad.

Confirmado el fallo del sistema Autopilot, concentrado en la cámara frontal y el radar de frenado, la primera hipótesis que se ha desprendido de una investigación que aún no se ha cerrado es que el vehículo pudo ser víctima de su software. El gran tamaño del camión habría provocado que el software de reconocimiento ignorase el obstáculo al pensar que se trataba de una infraestructura anexa o accesoria (un edificio, puente, etc...). Además, se mantiene la opción del 'deslumbramiento' del radar y la cámara que provocó este falso diagnóstico.

VEREDICTO FINAL

La NHTSA ha exculpado a Tesla de este accidente finalmente. Se confirma que Brown utilizaba Autopilot en el momento en que sufrió el percance y también que el sistema de frenada de emergencia no actuó para evitarlo. También se ha podido conocer que la última acción que realizó el conductor se produjo dos minutos antes del impacto y fue incrementar la velocidad del control de crucero hasta los 119 kilómetros por hora, una velocidad superior a la máxima admitida en la vía por la que circulaba.

Igualmente, se descarta que estuviera viendo una película, aunque en el recorrido, que duró 37 minutos, el conductor sólo tuvo las manos en el volante durante 25 segundos, pese a los constantes avisos del sistema para que tomase el control del vehículo.

La investigación también concluye que el accidente se produjo en un día claro, con suficiente visibilidad, y con el asfalto seco. De acuerdo con la NHTSA, el conductor debía de haberse dado cuenta de la presencia del camión siete segundos antes del impacto, tiempo suficiente como para esquivarlo o frenar y así, evitar el impacto.

Desde la agencia estadounidense se recuerda que los sistemas Autopilot son sólo asistentes a la conducción, que reclaman la constante atención del conductor. La NHTSA ha aplaudido el hecho de que Tesla Motors haya limitado el funcionamiento de Autopilot en los últimos meses y hayan alertado a sus usuarios de las precauciones que deben tomar con el Autopilot.

También se llega a la conclusión de que el sistema de frenada de emergencia automática no falló, ya que no está diseñado para evitar el choque con un vehículo que invade la carretera desde un lateral, sino para evitar el impacto contra el vehículo de delante. Esto quiere decir que el Model S sólo recurre a la frenada de emergencia si sus sensores y cámaras consideran que hay un obstáculo delante de nuestro coche.

RESULTADO DE LA INVESTIGACIÓN FINAL

Finalmente, la NHTSA emitió ayer los resultados de su última investigación, en la que culpa a un error del conductor, a una confianza excesiva en el sistema Autopilot, y a la ausencia de medidas de seguridad de este sistema. Es decir, una concurrencia de culpas.

Y eso pese a que la familia de Brown emitió un comunicado exculpando a Tesla en base al conocimiento que tenía Brown del coche: "Joshua amaba su Model S. Estudió y probó el coche como una pasión. Cuando atendía a eventos de Tesla en el concesionario, era de los más activos en explicar las bondades tecnológicas y las capacidades del coche. En sus vídeos siempre enfatizaba la seguridad del modelo, y que NO era autónomo, con el conductor teniendo que prestar atención siempre."

Según la Comisión, el sistema Auotpilot no debió permitir que en esa carretera pudiera utilizarse, por lo que le culpa de no tener suficiente seguridad propia, un control de cuándo es viable su uso. Reconocen sin embargo que el sistema funcionó correctamente, pero en un lugar que no era apto para su uso, por lo que el problema está en la falta de seguridad del sistema en cuanto a impedir automáticamente su uso en lugares inadecuados. 

Desde Tesla Motors defienden que esta tecnología reducirá los accidentes por alcance un 40 por ciento y animan a hacerla obligatoria para antes del año 2025, pues, de este modo, se podrían prevenir 28.000 incidentes cada año en EE.UU. y 12.000 heridos. Pero en respuesta a la decisión, insisten en que el Autopilot no es un sistema autónomo pleno, y que los conductores deben estar en todo momento atentos.

Algo que, según los resultados de las investigaciones, no hizo el fallecido.

6 comentarios
Para comentar o votarInicia sesión
13 Sep 2017 - 21:34
Comment

Bien puede aplicarse la interesante teoría de la homeostasis del riesgo... paradojas del cerebro humano.... https://www.xatakaciencia.com/psicologia/cuando-reducir-un-riesgo-implica-que-aumente-el-riesgo

F1-Team
12 Sep 2017 - 11:12
Comment
#5 Han confirmado lo esperado, los culpables fueron el conductor por no atender a la carretera y el del ... Ver comentario
Desde este momento----pese a los constantes avisos del sistema para que tomase el control del vehículo.---- Queda claro que el culpable iba a ser el conductor.
20 Ene 2017 - 20:51
Comment

Han confirmado lo esperado, los culpables fueron el conductor por no atender a la carretera y el del camión por hacer una maniobra incorrecta. Esa versión del Autopilot es un control de crucero avanzado, es un nivel 2 ó 3 de conducción autónoma, no 4 ó 5. Esperemos que con esto dejen de culpar al autopilot en otras situaciones donde está claro que no estaba puesto y parece más bien una confusión freno-acelerador.

01 Jul 2016 - 18:26
Comment
#2 Sería interesante saber cuál ha sido el kilometraje total del modelo desde su lanzamiento hasta el ... Ver comentario
Por cierto, el sistema será perfecto una vez que todos los coches sean autónomos, mientras no sea así siempre habrá algún accidente debido a cualquier fallo o negligencia humana como en este caso (maniobra indebida del conductor del camión).
01 Jul 2016 - 16:38
Comment

Sería interesante saber cuál ha sido el kilometraje total del modelo desde su lanzamiento hasta el fatídico día y compararlo con el recorrido por humanos hasta el primer accidente mortal a cargo de un humano. Es la única forma de ser medianamente imparciales con la tecnología. Supongo yo, sin tener pruebas a la mano, que el sistema autónomo es mucho más seguro que el "método" humano, obviamente no es perfecto, pero es perfectible, lo cual en los seres humanos, eso no es posible. Saludos.

Sakhir
01 Jul 2016 - 16:08
Comment

Complicado panorama para Tesla con este caso, salvo que hiciera firmar documentos asegurando lo que dice de que el sistema necesita constante vigilancia y que no es perfecto, esa escusa no tiene fundamento, pero además la responsabilidad esta en instalar ese sistema poniendo en riesgo a sus clientes a un posible grave accidente por un sistema con fallas.
Esto va camino a unos de esos juicios pesados de reclamación por parte de la familia de alguna pequeña fortuna, y mas en EEUU.

Últimos vídeos
Te puede interesar
BYD Fuel Challenge: 1.000 kilómetros sin repostar con un SUV de 4,77 metros. ¿Pero no hacía BYD solo coches eléctricos? - SoyMotor.com
Coches

BYD Fuel Challenge - Parte I: 1.000 kilómetros sin repostar con un SUV de 4,77 metros, pero ¿no fabricaba BYD solo coches eléctricos?

BYD o Build Your Dreams, como prefieran, es el rival más potente de Tesla y la compañía que más coches 'enchufables' fabrica pero ¿no fabricaba solo coches eléctricos? No. BYD fabrica solo coches enchufables, sean eléctricos o híbridos PHEV, y en conjunto BYD es el líder del mercado. En España las dos tecnologías, eléctrica e híbrida enchufable, tienen etiqueta cero, así que BYD incorpora ya el primer híbrido enchufable en su gama: el BYD Seal U, y nos propone un reto, ¿seremos capaces de alcanzar los 1.000 kilómetros sin repostar con esta versión DN-i o 'Dual-Mode Intelligent'? Vamos a intentarlo.

0
18 Nov 2024 - 16:55
Gafas inteligentes Amazon Echo Frames - SoyMotor.com
Coches

Realidad aumentada al volante: ¿y si el futuro pasa por llevar el GPS integrado en las gafas?

Corría el año 1988 cuando salieron al mercado los primeros coches con un sistema de head-up display, una idea que hacía décadas que sobrevolaba la industria y se dejaba ver en varios prototipos, pero que todavía nadie había conseguido llevar a producción. El japonés Nissan Silvia S13 y el estadounidense Oldsmobile Cutlass Supreme, que llegó a ejercer de pace-car en las 500 Millas de Indianápolis, fueron los encargados de abrir camino. El resto es historia.

2
15 Nov 2024 - 15:30