ACTUALIDAD

Resolución sobre el accidente mortal en un Tesla: culpa compartida

13/09/2017 10:50

A primeros del mes de julio se desveló que se había producido en Florida el primer accidente mortal a bordo de un Tesla Model S con el sistema Autopilot activado. El conductor del eléctrico semi-autónomo falleció tras colisionar con un camión de grandes dimensiones. Las primeras conclusiones de la investigación del percance apuntaban a que se pudo producir por un fallo del sistema Autopilot.

Tesla se ha enfrentado a un proceso bastante complejo desde que comunicó el primer fallecimiento a borde del Model S. La víctima, Joshua Brown, circulaba a bordo de su vehículo por una autopista de Florida con el sistema Autopilot activado cuando colisionó con un vehículo de gran tonelaje. Según la información facilitada por la compañía, el camión que precedía al Model S realizó una maniobra brusca que el sistema de conducción autónoma del vehículo de Brown no detectó.

La investigación posterior de la National Highway Traffic Safety Administration –NHTSA- con la colaboración de la propia marca determinó que el radar del paragolpes delantero y la cámara situada en el parabrisas no tuvieron un funcionamiento correcto. En este aspecto se barajan dos hipótesis que pueden explicar el fallo en el Autopilot. En ambas Tesla deja claro que el conductor no ejerció un mal uso del sistema a pesar de circular distraído y con un ligero exceso de velocidad.

Confirmado el fallo del sistema Autopilot, concentrado en la cámara frontal y el radar de frenado, la primera hipótesis que se ha desprendido de una investigación que aún no se ha cerrado es que el vehículo pudo ser víctima de su software. El gran tamaño del camión habría provocado que el software de reconocimiento ignorase el obstáculo al pensar que se trataba de una infraestructura anexa o accesoria (un edificio, puente, etc...). Además, se mantiene la opción del 'deslumbramiento' del radar y la cámara que provocó este falso diagnóstico.

VEREDICTO FINAL

La NHTSA ha exculpado a Tesla de este accidente finalmente. Se confirma que Brown utilizaba Autopilot en el momento en que sufrió el percance y también que el sistema de frenada de emergencia no actuó para evitarlo. También se ha podido conocer que la última acción que realizó el conductor se produjo dos minutos antes del impacto y fue incrementar la velocidad del control de crucero hasta los 119 kilómetros por hora, una velocidad superior a la máxima admitida en la vía por la que circulaba.

Igualmente, se descarta que estuviera viendo una película, aunque en el recorrido, que duró 37 minutos, el conductor sólo tuvo las manos en el volante durante 25 segundos, pese a los constantes avisos del sistema para que tomase el control del vehículo.

La investigación también concluye que el accidente se produjo en un día claro, con suficiente visibilidad, y con el asfalto seco. De acuerdo con la NHTSA, el conductor debía de haberse dado cuenta de la presencia del camión siete segundos antes del impacto, tiempo suficiente como para esquivarlo o frenar y así, evitar el impacto.

Desde la agencia estadounidense se recuerda que los sistemas Autopilot son sólo asistentes a la conducción, que reclaman la constante atención del conductor. La NHTSA ha aplaudido el hecho de que Tesla Motors haya limitado el funcionamiento de Autopilot en los últimos meses y hayan alertado a sus usuarios de las precauciones que deben tomar con el Autopilot.

También se llega a la conclusión de que el sistema de frenada de emergencia automática no falló, ya que no está diseñado para evitar el choque con un vehículo que invade la carretera desde un lateral, sino para evitar el impacto contra el vehículo de delante. Esto quiere decir que el Model S sólo recurre a la frenada de emergencia si sus sensores y cámaras consideran que hay un obstáculo delante de nuestro coche.

RESULTADO DE LA INVESTIGACIÓN FINAL

Finalmente, la NHTSA emitió ayer los resultados de su última investigación, en la que culpa a un error del conductor, a una confianza excesiva en el sistema Autopilot, y a la ausencia de medidas de seguridad de este sistema. Es decir, una concurrencia de culpas.

Y eso pese a que la familia de Brown emitió un comunicado exculpando a Tesla en base al conocimiento que tenía Brown del coche: "Joshua amaba su Model S. Estudió y probó el coche como una pasión. Cuando atendía a eventos de Tesla en el concesionario, era de los más activos en explicar las bondades tecnológicas y las capacidades del coche. En sus vídeos siempre enfatizaba la seguridad del modelo, y que NO era autónomo, con el conductor teniendo que prestar atención siempre."

Según la Comisión, el sistema Auotpilot no debió permitir que en esa carretera pudiera utilizarse, por lo que le culpa de no tener suficiente seguridad propia, un control de cuándo es viable su uso. Reconocen sin embargo que el sistema funcionó correctamente, pero en un lugar que no era apto para su uso, por lo que el problema está en la falta de seguridad del sistema en cuanto a impedir automáticamente su uso en lugares inadecuados. 

Desde Tesla Motors defienden que esta tecnología reducirá los accidentes por alcance un 40 por ciento y animan a hacerla obligatoria para antes del año 2025, pues, de este modo, se podrían prevenir 28.000 incidentes cada año en EE.UU. y 12.000 heridos. Pero en respuesta a la decisión, insisten en que el Autopilot no es un sistema autónomo pleno, y que los conductores deben estar en todo momento atentos.

Algo que, según los resultados de las investigaciones, no hizo el fallecido.