Uno de los mayores dilemas a los que durante años se ha estado enfrentando el concepto del coche autónomo es el decidir a quién debe atropellar un coche autónomo en caso de duda. Ahora un grupo de investigadores del Media Lab del MIT y el Departamento de Machine Learning de la CMU dice haber hallado una solución al problema.
Se trata de un sistema de toma de decisiones éticas basado en los votos de la gente. Lo han publicado en un paper, y explican que la solución sería hacer una gigantesca encuesta entre millones de personas para ver cuales son las decisiones más éticas en cada situación según la sociedad, y luego simplemente hacer que los coches apliquen los resultados.
La solución está en un consenso moral

Imagínate que un tranvía se dirige a cinco personas atadas a las vías, y tú estás al lado de un botón que podría hacer que el tranvía cambie de vía hacia una en la que hay una única persona atada e inmovilizada. ¿Qué deberías hacer? Es lo que se llama el dilema del tranvía, y la solución según los investigadores sería buscar un consenso para decidir cual es el mal menor.
Esta investigación sobre cómo automatizar el proceso de encuestas para obtener un resultado claro en cada situación es un proyecto conjunto de cuatro investigadores del Media Lab del MIT y tres del Departamento de Machine Learning de la CMU. Para evaluar su teoría, han creado un modelo basándose en las decisiones tomadas por 1,3 millones de votantes en la web Moral Machine del MIT.
En esta web se le presenta a los votantes una serie de situaciones complejas con varias personas y animales involucrados, y ellos tienen que decir cual es la decisión que creen que debería tomar el coche autónomo en cada situación. La encuesta sigue abierta, o sea que aún puedes votar para ver cuales son las situaciones.
Con todos estos datos, han desarrollado un sistema de prueba de concepto que toma una decisión equivalente que probablemente sea la misma que si se acudiese a cada uno de los 1.3 millones de votantes, se les pidiese su opinión, y se generase con todas una opción que satisfaga las nociones matemáticas de justicia social.
Aproximación según lo acordado por la sociedad

Según el estudio, el principal obstáculo a la hora de automatizar la toma de decisiones es la falta de una base formal de principios éticos que se pueda aplicar a los algoritmos de los coches. Lo que sugieren es que a falta de esta base, lo que deberíamos hacer es utilizar una "aproximación según lo acordado por la sociedad". Vamos, basarse en la opinión de la gente.
Para conseguirlo proponen un proceso de cuatro pasos. Durante el primero se haría una especie de encuesta entre el mayor grupo de personas posible. A estas se le preguntaría a quién verían más ético atropellar en determinadas ocasiones, basándose en vectores como el número de víctimas, su género, su edad, su salud o incluso su especie.
Una vez hecho esto, el segundo paso sería el de crear modelos de preferencia de cada uno de los votantes, de manera que se puedan combinar en un tercer paso para crear un modelo único basado en las preferencias generales. Esto quiere decir que en cada una de las situaciones que se expusieran, elegirían la opción más votada como consenso sobre cómo sería más ético actuar según la sociedad.
De esta manera llegaríamos al cuarto paso, el de la agregación. Habría que insertar en los coches autónomos todas las preferencias generales que ha votado la gente, de manera que cuando el vehículo se enfrente a uno de los dilemas morales sobre el que se ha votado, se limite a actuar según lo que ha decidido la mayoría de ciudadanos.
Esta opción sólo se aplicaría si no queda más remedio, y si los algoritmos del coche no detectan ninguna manera posible en la que ante un inminente accidente nadie salga herido. Sería como optar por lo que la sociedad ha considerado como el mal menor o la salida menos catastrófica.
A la hora de tomar decisiones habría que conseguir el mayor número de personas posibles a la hora de realizar las encuestas, y en ellas también se deberían tener en cuenta otros parámetros como quienes son exactamente los que están involucrados en el accidente en cada caso. También otros aspectos de la situación como si alguno de los afectados se ha saltado alguna señal de tráfico como un semáforo en rojo.
No hay respuesta fácil en esta cuestión
Empresas como Mercedes han intentado posicionarse en este dilema moral sobre qué hacer en caso de accidente. En un principio dijo que priorizarían la vida de los ocupantes, pero las críticas recibidas hicieron que tuvieran que dar marcha atrás y puntualizar su declaración.
Esto demuestra que no estamos ante una solución fácil, ya que puede haber tantas respuestas ante el dilema como situaciones diferentes y cantidades y tipos de personas involucradas. Así pues, buscar un consenso como han propuesto estos investigadores no es una idea tan descabellada, y desde luego le ahorraría muchos dolores de cabeza a los fabricantes.
Sea como fuere, la mera existencia de este dilema y la posible automatización de una respuesta que no depende de la opinión de quien va conduciendo no dejará de ser polémica. Después de todo, ¿te comprarías un coche autónomo si este puede decidir sacrificarte como mal menor? Habrá que ver cómo se recibe esta propuesta por parte de la industria y si alguien tiene una sugerencia mejor.
En Xataka | ¿Estamos preparados para el día en el que un coche autónomo mate a alguien?
Ver 68 comentarios
68 comentarios
db1234
La verdad es que es un tema curioso, si lo cogemos desde otro punto de vista sería como puntuar a las personas por orden de "sacrificalidad", es un poco bestia (o crudo, mejor dicho) pero el planteamiento que se está haciendo es realmente ese: si eres viejo, debil, ignorante y delincuente implica menos puntuación y eres más sacrificable, si eres joven, sano, culto y bueno tienes más puntos y eres menos sacrificable. estirando el planteamiento, la cosa podría degenerar en que a cada uno se nos asignase una puntuación usando ese baremo para luego emplearlo en otro tipo de decisiones: ¿a quien se opera o trasplanta antes?,¿cuanto pagaré de seguro?, ¿quien tendrá más ventajas sociales dentro de un grupo?, etc....volviendo a ser crudo, podría llegar a ser bastante práctico e incluso incentivar "buenas" actitudes (aunque cada sociedad tendrá las suyas, claro)
ceotz90
Joder... Si tan solo alguien fuera capaz de inventar un freno para un coche...
grovoz
La solución sería que todos lleváramos pulseras chinas que evalúan a la persona para que el coche tomara la decisión en base a nuestro score
mikimiguel
Solución: La que menos indemnizaciones provoque.
nino
¿Dejar esas decisiones en manos de la sociedad, de los ciudadanos? madre mía a dónde vamos a parar...
La subjetividad de cada uno condicionaría sus respuestas, eso es algo tan aplastantemente lógico que no sé de qué cerebrito del MIT y la CMU ha salido esta brillante solución.
Por favor, hay tantos ejemplos de decisiones erróneas en manos de la "masa" que parece que no aprendemos...
Como dijo el gran Tommy Lee Jones en "Men in Black":
"Una persona es inteligente. Pero en masa la gente es tonta, son animales asustadizos y peligrosos y tú lo sabes"
Pues eso...
Usuario desactivado
Ojo con las IA's y estros experimentos, porque por esa regla de 3, como dentro del coche vaya 1 persona, y fuera atropelles a 5, lo mismo te vas tu por un terraplen...
Usuario desactivado
A ver como lo explico... vende tu un coche que cuesta unos cuantos miles y dile al cliente que el coche igual decide sacrificarle, no se vosotros pero yo no lo compro, llamarme egoista o lo que querais.
ninomi
Relacionada:
https:// xkcd.com/1897/
:D
kinico
Solo diré, que no le hagan esta encuesta a los saudíes, porque imaginen la misma situación con un coche homologado en Arabia Saudita, un hombre de un lado y cinco mujeres del otro ¿a quienes creen que va a arrollar el coche?
tecnoman
Yo creo que el asunto está mal enfocado. No creo que se trate de elegir a quien se atropelle y a quien no. Lo veo más que esa situación no se produzca nunca, es decir, que el coche pueda evitar ambos posibles casos.
vodor
En china ya están preparando el sistema de puntos por adelantado, así ahorran tiempo al coche, van un paso por delante :P
Presidente del gobierno, o autobús lleno de niños? … quizás el código tenga algún if/elseif más de la cuenta.
smoo
tener un coche autonomo que atropelle a quien incumpla la ley.
mandar a tu coche autonomo a patrullar la ciudad.
todo uno.
luisferx
Terminaremos todos teniendo una puntuación personal y otra laboral. Y muchas decisiones se basarán en ese baremo.
Muy parecido a los que ocurre en el capítulo de caída en picado ( nosedive) de Black Mirror.
acerswap
He estado mirando la encuesta y realmente la idea de "asesinabilidad" que plantea es estupida. Un coche autonomo no debe basarse en el criterio de si una persona es hombre, mujer, deportista, anciana o joven. Entre otras cosas si una IA tiene la posibilidad de analizar a los peatones tambien deberia tener la de presionar el claxon para que la gente se aparte.
En las opciones que he escogido no me he fijado en ese aspecto, sino en las posibilidades de salvar a la gente. Si las opciones son lanzarse contra un obstaculo o contra unos peatones lo mejor es lanzarse contra el obstaculo y pedirle a los ocupantes que se pongan el cinturon y se agarren a lo que puedan. Un coche tiene unos sistemas de seguridad activos y pasivos que protegen a los pasajeros, mientras que los peatones no los tienen. En el caso de que la unica opcion sea peatones en un cruce, lo prioritario es lanzarse a donde los peatones puedan esquivar mejor el coche, y el criterio es que se tarda menos en ir hacia delante que en dar la vuelta y volver a la acera de la que vienes.
Esto es mas simple además que valorar sexo y edad de "la victima" por unos sensores: distancia y velocidad de los elementos moviles hacia los que se dirige.
emedoble
La conducción autonoma va a ser esencialmente mucho más segura. Es decir, que la mayoría de situaciones imprudentes que causan actualmente los accidentes (excesos de velocidad, adelantamientos indevidos, no respetar señales, etc.), simplemente no van a darse.
No van a haber situaciones de perdida de control y la IA va a tener capacidad de reacción y corrección ante la más imperceptible de las señales.
No se me ocurre una situación en la que, teniendo el control del vehículo, una IA tenga que decidir escoger el mal menor, pero en cualquier caso, mi opinión es que la IA debería anteponer siempre la preservación de la vida de los ocupantes del vehículo, igual que haría un conductor humano.
Por varias razones aparte de las evidentes: 1) porque es lo que esperarán los peatones y reaccionarán en consecuencia, y 2) porque en caso de accidente, al menos el ocupante del vehículo podrá explicar lo que haya ocurrido.
Usuario desactivado
Según la constitución de la mayoría de los países democráticos todo el mundo posee los mismos derechos, no hay que romperse mucho el coco con estos planteamientos, que se escoja a la víctima al azar o se implementen varios sistemas de frenado.
pacman2013
Si existiera un método para "puntuar" el valor de una persona basándose en calificaciones dadas por la interacción social diaria (al puro estilo de black mirror), el carro en cuestión podría calcular en nanosegundos qué grupo de víctimas es "menos peor" atropellar... lo cual sería bastante Orwelliano.
javier.a.franco.5
Soy solamente yo o es tan fácil como primero tratar de evitarlo y en segundo si el impacto es inminente solo dejarlo que pase sin tomar ninguna decisión, que el resultado lo defina tanto la física como el azar en la mayoría de los casos
foil
En los psicotécnicos para las fuerzas y cuerpos de seguridad del estado es una pregunta que hacen de manera similar, por ejemplo: si se quema un piso, a quién sacas primero, a tu madre a tu hermano o a tu hijo.
En realidad no tiene ninguna respuesta correcta pero refleja formas de pensar y razonamientos.
foil
¿Por qué elegir el mal menor?
bacp
Esto es un error
Solo hay una razón por la que la gente no cruza por cualquier parte: no quieren morir atropellados.
Es por eso que tus padres te enseñan:
- a cruzar solo por pasos de peatones
- a mirar a los dos lados antes de cruzar
- a esperar a que los coches se detengan antes de cruzar
Haz un coche que siempre frene al ver un peaton cruzar y ni dios respetará al coche
Haz todo lo contrario, un coche asesino que SOLAMENTE pare en pasos de peatones cuando haya peatones y no se te ocurrirá volver a pasar por cualquier parte esperando que el conductor reduzca para que te de tiempo a pasar.
killer7129
En el esquema del coche, yo lo tengo claro. Quien escoge el riesgo de meterse en una máquina que puede fallar es el que va en el coche; el peatón no tiene riesgo de que la gravedad falle. Por lo tanto, y viendo que hay un estupendo semáforo contra el que se puede chocar, que lo haga así, y es más probable que el ocupante del vehículo sobreviva. Además, como el semáforo está antes de llegar donde las personas es posible que no llegue a hacer nada a los peatones.
macintosh64
Yo apuesto por la equidad, que atropelle a unos, y luego se de la vuelta para atropellar al resto. y si alguno huye que ponga el turbo y a por el!
julianfraco
Preferiria un estudio HUMANO de las decisiones dificiles que han tomado humanos en situaciones similares, en dicotomias morales y que se le aplique a la IA. Dejarlo a conevnciones morales lo veo aterrador, por lo menos de personasque no se han visto en el estres de tomar decisiones dificles. Consensos morales son fallas eticas si vemos lo que ocurrio con la alemania nazi, los paises arabes o en nuestras propias sociedades cuando son influenciadas por el populismo. Lo que diferencia a humanos(empáicos) de maquinas, es que creo que en estos casos, en su momento de maximo estres, es posible que no puedan ni decidir el mal menor, que se "bloqueen" y lo mas justo resulta siendo hasta el azar.
frutosm
La respuesta es muy fácil, al negro.
ertioderbigote
Este post merece chincheta eterna por los comentarios!!!!
estebanlezcano
y si eran 5 ladrones asesinos y en el otro esta solo un ladron asesino...
funkman
Creo que lo más sensato , aunque bestia, sería, en la medida de lo posible, intentar un accidente controlado contra algun objeto del entorno. Es de suponer que si el coche autonomo circula en el ambito urbano, debería estar a una velocidad en la cual podrá chocar con un objeto exterior, sin hacer daño a los ocupantes. En una autovia es distito, porque probablemente esas personas no deberían estar ahí, así que si no es posible esquivarlo que lo atropelle frenando lo más posible.
Así que no creo que lo que intenten sea evitar perdidas humanas, sinó evitar perdidas monetarias. Porque sí,si hace esto el coche será destruido y habrá varios destrozos en la vereda, pero no morirá nadie por la decisión de una computadora.