Público
Público

Coches autónomos: ¿quién tiene la culpa en caso de accidente?

'Software' de inteligencia artificial, bases de datos de entrenamiento, sensores para captar el entorno... y peliculeras estrategias de marketing. Un cóctel explosivo que nubla la responsabilidad en caso de fallos.

Tesla Model X 2022: el más barato ya está en nuestro mercado
Tesla Model X 2022  TESLA

En noviembre del año pasado, un juez de Florida admitió una demanda que acusa a Tesla de negligencia y ocultación intencional. El magistrado afirmó que había evidencias de que la compañía de Elon Musk "seguía una estrategia de marketing que mostraba sus productos como autónomos". Un par de años antes, Stephen Banner, marido de la denunciante, fallecía en Miami al estrellarse su flamante Tesla 3 contra un megacamión de 18 ruedas. Y no era el primer caso. Ya en 2016, Joshua Brown inauguró la fatídica colección de muertos a bordo de Tesla estampados contra un vehículo pesado.

¿Marcará el juicio por la muerte de Banner un hito y un cambio respecto a la tendencia actual? Todavía estamos a la espera del veredicto. Mientras, sabemos que Tesla ha conseguido salir indemne de denuncias similares por el momento. En 2023 ganó dos casos en los que se ponía en tela de juicio presuntos defectos de sus sistema de piloto automático.

La legislación, una vez más, va por detrás de los hechos, cuando nos preguntamos quién debería cargar con la responsabilidad cuando algo así ocurre. ¿La persona tras el volante aun cuando está puesto el modo autónomo? ¿El fabricante del vehículo? ¿El desarrollador del software de inteligencia artificial que toma las decisiones de conducción?

Por una parte, la mediática Ley de Inteligencia Artificial europea contempla como sistemas de IA "de alto riesgo" aquellos en los que están en juego vidas humanas –como un coche autónomo–, sometidos por tanto a una supervisión más estricta antes de que puedan salir al mercado.

Dentro de la UE, solo Alemania y Francia han aprobado sus propias normativas para esta clase de vehículos. En el resto de países, por el momento, se sigue aplicando la legislación que ya existía: el conductor es el responsable de a quién atropelle su coche, siempre que no se de demuestre otra cosa.

Seis muertos en diez meses

Y eso que está a la cabeza en el ranking de colisiones, según datos de la Administración Nacional de Seguridad del Tráfico en las Carreteras de EEUU. En los diez meses entre julio de 2021 y mayo de 2022, hubo 400 accidentes con coches autónomos en Estados Unidos. Seis de ellos, mortales.

También fue un Tesla el que se desbocó en el centro de Chaozhou (China), en noviembre de 2022, sembrando el pánico en una calle llena de gente, con dos muertos y tres heridos graves. La compañía señaló como culpable al taxista que había estado al volante, quien, no obstante, aseguraba que le había sido imposible frenar.

Resulta que los fallos en los frenos y las aceleraciones repentinas de su sistema de autopiloto ya habían sido reportados en otros casos con anterioridad. Un accidente de las mismas características había ocurrido en París el año anterior. Y en 2019, dos personas murieron cuando un Tesla en modo autopiloto se saltó un semáforo en rojo.

Pero la marca de Musk no es la única que se ha librado –insistimos, por el momento– de pagar por las muertes provocadas por sus coches. En 2018, un taxi Uber autónomo de la marca Volvo atropelló a una mujer de 49 años que salió de improviso de las sombras para cruzar una carretera de noche, en Temple, Arizona.

Los fabricantes se libran, por ahora

Por lo visto, la inteligencia artificial del vehículo no fue capaz de identificar el peligro y no activó el freno, ni la alerta de emergencia. Aunque sí captó el objeto en movimiento 5,6 segundos antes del choque, sus algoritmos no estaban lo bastante entrenados como para discernir de qué se trataba.

Rafaela Vasquez, la "operadora de seguridad" del Uber –que no llamaba conductores a sus empleados al volante– estaba distraída con su móvil y tampoco tuvo tiempo de reaccionar. Y ha sido ella, precisamente, quien ha pagado el pato, con una sentencia de homicidio negligente.

Uber –que saldó la cuestión con un acuerdo privado de indemnización a la familia de la fallecida– ni siquiera fue llamado al banquillo de los acusados, y eso que se comprobó que había hecho una modificación al sistema de frenado automático de emergencia del Volvo XC90 en su flota de robotaxis y, encima, no tenía en su puesto al encargado de seguridad que debía monitorizar a distancia el trayecto.

En San Francisco sucedió algo parecido con otro servicio de taxis autónomos –Cruise, propiedad de General Motors y Microsoft–. Justo dos meses después de recibir la licencia para operar durante las 24 horas en la zona, uno de sus vehículos le pasó por encima y arrastró bajo sus ruedas más de seis metros a otra viandante.

Exceso de confianza y aburrimiento al volante

Por otra parte, el problema podría estar en cómo los fabricantes publicitan sus modelos inteligentes.

Si nos dicen que conducen solos gracias a sofisticados sistemas de IA, si nos aseguran que son seguros y que causan menos muertes en carretera que los coches convencionales, ¿no es acaso de esperar que la persona tras el volante se aburra de mirar hacia delante y se distraiga un rato?

"Los conductores humanos perciben a los vehículos autónomos como agentes inteligentes con la habilidad de adaptarse a comportamientos más arriesgados al volante por parte del humano. Esta tecnología puede hacer que la gente corra más riesgos, porque sabe que los vehículos autónomos están diseñados para conducir de forma segura", apunta Xuan Di, investigador del Instituto de Ingeniería de Columbia y autor de un estudio sobre el tema.

Y eso que todavía estamos en la fase incipiente de esta tecnología: el 75% de los turismos que se comercializan en España llegan al nivel dos de autonomía –el sistema puede acelerar o controlar la velocidad, pero debe llevar un conductor humano que lo supervise–. Solo el 18% está en el nivel tres–solo se requiere que el humano tome el control en caso de que el sistema se lo pida–.

La prueba de fuego llegará en un futuro con los niveles cuatro y cinco, que no precisan a una persona monitorizando la conducción de forma continua, pero sí necesitarán cobertura de internet constante para comunicarse con el centro de proceso de datos en la nube que les dictará cómo actuar ante imprevistos... y todo en milésimas de segundo.

¿Te ha resultado interesante esta noticia?