Se revelan las preferencias globales sobre a quién ahorrar en accidentes automovilísticos autónomos

Si los autos sin conductor se generalizan, la sociedad tendrá que lidiar con una nueva carga: la capacidad de programar vehículos con preferencias sobre qué vidas priorizar en caso de colisión. Los conductores humanos toman estas decisiones instintivamente, pero los algoritmos podrán hacerlo con anticipación. Entonces, ¿las compañías automotrices y los gobiernos elegirán salvar a los viejos oa los jóvenes? ¿Muchos o pocos?

un nuevo papel publicado hoy por MIT examina los pensamientos del público sobre estos temas y recopila datos de un cuestionario en línea lanzado en 2016 llamado Moral Machine. Pidió a los usuarios que tomaran una serie de decisiones éticas con respecto a accidentes automovilísticos ficticios, similares a los famosos. problema de transporte. Se probaron nueve factores separados, incluidas las preferencias de los individuos para chocar contra hombres versus mujeres, salvar más vidas o menos, matar a jóvenes o viejos, peatones o peatones, e incluso elegir entre individuos de bajo o alto estatus.

Millones de usuarios de 233 países y territorios participaron en el cuestionario y tomaron un total de 40 millones de decisiones éticas. A partir de estos datos, los autores del estudio encontraron algunas preferencias globales consistentes: salvar a las personas sobre los animales, más vidas en lugar de menos y niños en lugar de adultos. Sugieren que estos factores, por lo tanto, deberían considerarse como «bloques de construcción» para los tomadores de decisiones al crear leyes para los vehículos autónomos. Sin embargo, los autores enfatizaron que los resultados del estudio no son de ninguna manera una plantilla para la toma de decisiones algorítmicas.

«Lo que estamos tratando de mostrar aquí es una ética descriptiva: las preferencias de las personas en las decisiones éticas», dijo Edmond Awad, coautor del artículo. La frontera. «Pero cuando se trata de ética normativa, ese es el caso deberá debe dejarse en manos de los expertos».

Los datos también mostraron variaciones significativas en las preferencias éticas en diferentes países. Estos se correlacionan con una serie de factores, incluida la geografía (diferencias entre las naciones europeas y asiáticas, por ejemplo) y la cultura (comparar sociedades individualistas versus colectivistas).

Es importante tener en cuenta que, aunque estas decisiones deberán tomarse en algún momento en el futuro, la tecnología de conducción autónoma todavía tiene mucho camino por recorrer. La autonomía aún está en pañales y los automóviles autónomos (a pesar de la percepción pública) aún son prototipos, no productos. Los expertos también dicen que aunque no está claro cómo se programarán estas decisiones en los vehículos en el futuro, existe una clara necesidad de consulta y debate público.

«Lo que sucede con los vehículos autónomos puede marcar la pauta para otras IA y robótica, ya que son los primeros en integrarse a la sociedad a gran escala», dijo Patrick Lin, director del Grupo de Ética y Ciencias Emergentes de la Universidad Cal Poly. La frontera. «Así que es importante que la conversación sea lo más informada posible, porque la vida está literalmente en juego».

¿Cómo afecta la cultura a las preferencias éticas?

Los resultados de Moral Machine indican que existen algunos principios comunes cuando se trata de estos dilemas éticos. Pero los autores de la revista también encontraron variaciones en las preferencias que seguían ciertas lagunas. Ninguno de estos invirtió estos principios básicos (como perdonar a muchos sobre unos pocos), pero variaron un poco.

Los investigadores encontraron que en países de Asia y Medio Oriente, por ejemplo, como China, Japón y Arabia Saudita, la preferencia por salvar a los personajes más jóvenes en lugar de los más viejos era «mucho menos pronunciada». A las personas de estos países también les importaba relativamente menos salvar a las personas con un alto patrimonio neto en comparación con las personas que respondieron desde Europa y América del Norte.

Los autores del estudio sugieren que esto puede deberse a las diferencias entre las culturas individualistas y colectivistas. En el primero, donde se enfatiza el valor distintivo de cada individuo como individuo, hubo una «preferencia más fuerte por ahorrar la mayor cantidad de caracteres». Por el contrario, la preferencia más débil por salvar a los personajes más jóvenes puede ser el resultado de culturas colectivistas, «que enfatizan el respeto de los miembros mayores de la sociedad».

Estas variaciones sugieren que «la proximidad geográfica y cultural puede permitir que grupos de territorios converjan en preferencias compartidas por la ingeniería mecánica», dicen los autores del estudio.

Sin embargo, hubo otros factores que se correlacionaron con variaciones que no eran necesariamente geográficas. Los países menos prósperos, por ejemplo, con un producto interno bruto (PIB) per cápita más bajo e instituciones cívicas más débiles, tenían menos probabilidades de querer chocar con los peatones imprudentes que con las personas que cruzan la calle legalmente, «probablemente debido a su experiencia de menor cumplimiento y sanciones más débiles por desviación de la regla «.

Los autores enfatizan, sin embargo, que los resultados de la Máquina Moral no son de ninguna manera evaluaciones definitivas de las preferencias éticas de diferentes países. Para empezar, el cuestionario es de autoselección, que probablemente solo lo toman personas relativamente expertas en tecnología. También está estructurado de una manera que elimina los matices. Los usuarios solo tienen dos opciones con resultados definitivos: matar estos gente o aquellas gente. En la vida real, es probable que se tomen estas decisiones, con individuos que eligen entre resultados de diferentes grados de dificultad y grados. («Si doy la vuelta a este camión, hay una pequeña posibilidad de que golpee a ese peatón a baja velocidad», y así sucesivamente).

Aún así, los expertos dicen que eso no significa que tales cuestionarios sean irrelevantes. La naturaleza construida de estos dilemas es una «función, no un error», dice Lin, porque eliminan «variables desordenadas para enfocarnos en las que nos interesan en particular».

Agrega que aunque los autos no tienen que elegir regularmente entre chocar contra el objeto X o el objeto Y, todavía tienen que sopesar las decisiones relacionadas, como qué tan ancha es la litera para dar a estos objetos. Y todavía es «básicamente una cuestión ética», dice Lin, «así que esta es una conversación que debemos tener en este momento».

Coche autónomo de Google

Una cámara se asoma a través de la rejilla de un automóvil autónomo de Google.
Foto de Sean O’Kane / The Verge

Transformar la ética en legislación

Pero, ¿qué tan cerca estamos de necesitar una legislación sobre estos temas? ¿Cuándo deberían las empresas empezar a programar decisiones éticas en vehículos autónomos?

La respuesta corta a la segunda pregunta es que ya lo han hecho. Esto es cierto en el sentido algo pedante de que cada algoritmo toma decisiones de algún tipo, y algunas de ellas tendrán consecuencias éticas. Pero más específicamente, es probable que las preferencias brutas estén codificadas, incluso si las empresas involucradas no están dispuestas a hablar de ellas en público.

Ya en 2014, por ejemplo, el fundador de Google X, Sebastian Thrun sa el prototipo de autos sin conductor de la compañía elegiría golpear el más pequeño de dos objetos en caso de colisión. Y 2016, Chris Urmson de Google sa sus coches «harían el mayor esfuerzo para evitar atropellar a los usuarios de la vía desprotegidos: ciclistas y peatones». Ese mismo año, un gerente de Mercedes-Benz habría dicho que los vehículos autónomos de la empresa darían prioridad a la vida de los pasajeros en caso de accidente, aunque la empresa más tarde nekad esto y dijo que era una cita incorrecta.

Es comprensible que las empresas no estén dispuestas a ser abiertas sobre estas decisiones. Por un lado, los sistemas de conducción autónoma aún no son lo suficientemente sofisticados como para poder distinguir, por ejemplo, entre jóvenes y viejos. Los algoritmos y sensores de última generación pueden marcar diferencias obvias, como entre ardillas y ciclistas, pero no pueden ser mucho más sutiles que eso. Además, cualquier vida que las compañías digan que priorizan (personas o animales, pasajeros o peatones) será una decisión que molestará a alguien. Por eso son éticos dilema: no hay una respuesta fácil.

Las empresas privadas trabajan principalmente con estos temas, dice Andrea Renda, investigadora principal del Centro de Estudios de Política Europea. “El sector privado está tomando medidas al respecto, pero los gobiernos pueden pensar que esto no es suficiente”, dice Renda. La frontera. Él dice que en Europa, la UE trabaja con pautas éticas y es probable que las mantenga a través de «leyes de mando y control o mediante certificación y corregulación». En los Estados Unidos, el Congreso ha publicado Principios duales de regulación potencial, pero es probable que la supervisión federal llegue lentamente, y no está claro si los legisladores quieren sumergirse en la hierba de las preferencias éticas de accidentes automovilísticos.

Renda advierte que incluso si el público necesita involucrarse en estos debates, «depender solo de la consulta de abajo hacia arriba sería extremadamente peligroso». Los gobiernos y los expertos, dice, deberán tomar decisiones que afirmen los derechos humanos.

Pero los problemas que se avecinan ya se ven en Alemania, el único país que hasta ahora ha sido libre directrices oficiales para elecciones éticas hechas por vehículos autónomos. Los legisladores trataron de cortar el nudo gordiano del problema del vagón diciendo que toda vida humana debería ser valorada por igual y que deberían prohibirse todas las distinciones basadas en características personales como la edad o el género. Pero como señalan los investigadores del MIT, si se llevara a cabo esta elección, iría en contra de la fuerte preferencia del público de perdonar a los más jóvenes sobre los mayores. Si un gobierno adopta esta política, preguntan, cómo lidiará con la reacción violenta «que inevitablemente ocurrirá el día en que un vehículo autónomo sacrifique niños en una situación de dilema».

Awad dice que este tipo de conflicto es «inevitable», pero debe ser parte del proceso. «Lo importante es hacer que estas decisiones sean transparentes», dice, «para que quede claro lo que se está haciendo. Si todo esto está sucediendo entre bastidores, y la gente está diciendo ‘solo confía en nosotros’, no creo que pase». «Todos deben estar involucrados en estas decisiones».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.