¿Quién es el responsable cuando la IA falla y provoca un accidente de tráfico?

Un accidente en EE.UU de un vehículo autónomo abre el debate sobre a quién se debería juzgar.

¿Confiar o no confiar en la Inteligencia Artificial? En la actualidad, nos hemos acostumbrado a lo primero, a hacer caso a lo que dice una máquina. Y no es raro, pues los avances tecnológicos han llegado a un punto en el que son fiables al 99% de los casos. Sin embargo, ¿y si hubiera un fallo que afectara a la vida de varias personas?

Un accidente de tráfico en Estados Unidos ha puesto en entredicho la fiabilidad de la IA. De hecho, en dicho accidente de circulación falleció una persona. Esto ha hecho que se plantearan dudas sobre quién debe ser considerado responsable de dicha muerte.

Una mujer cruzaba a pie con una bicicleta una calle de la localidad de Tempe, Arizona, y fue atropellada por un vehículo autónomo de Uber que estaba en pruebas.

Los sistemas del coche, cuya conductora de respaldo en ese momento estaba distraída mirando un programa de televisión en su móvil, detectaron a la peatón 5,6 segundos antes del choque pero no detuvieron el vehículo ya que no pudieron determinar si era un ciclista, un peatón o un objeto desconocido.

Este hecho provocó que Uber detuviera temporalmente las pruebas de sus coches autónomos, y reclutara nuevos conductores que recibieron formación tanto en pruebas de carretera como en pruebas de circuito cerrado para ofrecer la máxima información posible sobre esta tecnología.

El caso llegó a los tribunales, pero los fiscales no presentaron cargos contra Uber por este hecho, sino que lo hicieron contra la conductora de respaldo que iba en el vehículo por no vigilar la carretera mientras veía la televisión en su teléfono.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio