BAQUIA

Pasajero o peatón: la seguridad de uno de ellos debe primar para el coche autónomo

Científicos de la industria del coche autónomo trabajan en aplicar una “moralidad utilitaria” a sus algoritmos de circulación, un estudio del MIT advierte del peligro de esta capacidad.

coche autonomo

La programación ‘by default’ de un coche autónomo es uno de los mayores quebraderos de cabeza para sus desarrolladores, que se ven obligados a valorar la integración de algoritmos de carácter ‘moral’, esta cuestión ha sido valorada en un reciente estudio del MIT.

Por un lado muchos potenciales pasajeros se muestran reticentes a subir en un vehículo que no pueden controlar y que no antepondrá su seguridad a la de un peatón, por ejemplo; mientras que para la sociedad y los órganos reguladores un vehículo sin conductor que no esté programado para velar por la integridad de los viandantes plantea múltiples controversias.

Un estudio del Instituto Tecnológico de Massachusetts (MIT) publicado en la revista Science del que se hace eco la agencia EFE, revela que la ciudadanía tiene opiniones encontradas a la hora de determinar cómo debería actuar un vehículo autónomo en situaciones en que tenga que decidir entre atropellar a peatones o salirse de la carretera y poner en riesgo a los pasajeros.

“La mayoría de las personas quieren vivir en un mundo en el que los vehículos minimizan el número de víctimas. Pero todos quieren que su automóvil los proteja a ellos primero a toda costa”, asegura en una nota de prensa Iyad Rahwan, profesor del prestigioso MIT Media Lab y coautor de la investigación.

El informe, titulado “El dilema social de los vehículos autónomos” y publicado por Science, se basa en un conjunto de seis encuestas realizadas entre junio y noviembre del año pasado, en el que se manifiesta que el 76 por ciento de los sondeados consideraron que es más “moral” para un vehículo autónomo “sacrificar” a un pasajero antes que atropellar a diez peatones.

Pese a ello, solo uno de cada tres encuestados reconoció que se subiría un vehículo autónomo cuyo algoritmo estuviese programado para arriesgar la vida de los pasajeros a cambio de salvar a diez peatones.

Regulación de algoritmos

Según las valoraciones de los participantes en este análisis conducido por el MIT, la mayoría se opuso a que el gobierno regule estos automóviles robóticos y consideran que los propios algoritmos deben configurarse para que tengan una moral ‘utilitaria’ capaz de valorar hacia dónde decantar la balanza valorando el número de vidas a salvar y el número que se arriesga a morir.

Este es un desafío que deben tener en consideración los reguladores y fabricantes de vehículos.

Los científicos apuntan también que en el caso de que los vehículos autónomos mejoren de tal modo que sean más seguros que los vehículos manejados por humanos, este tipo de moralidad “utilitaria” podría poner en riesgo más vidas de las que salva.


Compartir en :


Noticias relacionadas




Comentarios