COCHE SIN CONDUCTOR

¿Mataría el coche sin conductor al bebé o a la abuela? Pues depende de dónde seas

El infame "problema del trolley" se presentó a millones de personas en un estudio global, revelando la divergencia de la ética entre las culturas

¿Mataría el coche sin conductor al bebé o a la abuela? Pues depende de dónde seas
El dilema del coche sin conductor. EP

En 2014, los investigadores del MIT Media Lab diseñaron un experimento llamado Moral Machine.

La idea era crear una plataforma similar a un juego que llevara a las decisiones de la gente sobre cómo los autos que conducen por sí mismos deberían priorizar vidas en diferentes variaciones del «problema del trolley».

Como subraya Karen Hao en Business Insider, los investigadores nunca predijeron la recepción viral del experimento.

Cuatro años después de la puesta en marcha de la plataforma, millones de personas en 233 países y territorios han registrado 40 millones de decisiones, lo que lo convierte en uno de los estudios más grandes jamás realizados sobre preferencias morales globales.

Un nuevo artículo publicado en Nature presenta el análisis de esos datos y revela la divergencia de la ética intercultural en función de la cultura, la economía y la ubicación geográfica.

El problema del trolley clásico es el siguiente: usted ve un coche de los que funcionan sin conductor fuera de control que acelera en la carretera, a punto de golpear y matar a cinco personas.

Tienes acceso a una palanca que podría cambiar el coche a una pista diferente, donde una persona diferente se encontraría con una desaparición prematura.

¿Deberías tirar de la palanca y terminar una vida para ahorrar cinco?

La Máquina Moral tomó esa idea para probar nueve comparaciones diferentes que demostraron polarizar a las personas: si un auto auto-piloto prioriza a los humanos sobre las mascotas, a los pasajeros sobre los peatones, a más vidas sobre menos, a las mujeres sobre los hombres, a las personas mayores que a las viejas, a las personas más enfermas y sociales.

 ¿Debería el automóvil girar (actuar) o mantenerse en curso (inacción)?

En lugar de plantear comparaciones individuales, el experimento presentó a los participantes varias combinaciones, por ejemplo, si un automóvil que conduce por sí mismo debe continuar de frente para matar a tres peatones ancianos o pasar a una barricada para matar a tres pasajeros jóvenes.

Los investigadores encontraron que las preferencias de los países difieren ampliamente, pero también se correlacionan altamente con la cultura y la economía.

Por ejemplo, es menos probable que los participantes de culturas colectivistas como China y Japón perdonen a los jóvenes por encima de los viejos, tal vez, según la hipótesis de los investigadores, debido a un mayor énfasis en el respeto a los ancianos.

De manera similar, los participantes de países más pobres con instituciones más débiles son más tolerantes con los transeúntes que con los peatones que cruzan legalmente.

Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento de las personas con estatus social alto y bajo.

Y, en lo que se reduce a la cuestión esencial del problema del trolley, los investigadores descubrieron que la gran cantidad de personas en peligro no siempre fue el factor dominante en la elección de qué grupo debería evitarse.

Los resultados mostraron que los participantes de culturas individualistas, como el Reino Unido y los EEUU, ponen un mayor énfasis en salvar más vidas dadas todas las demás opciones, tal vez, en opinión de los autores, debido al mayor énfasis en el valor de cada individuo.

Los países muy próximos entre sí también mostraron preferencias morales más cercanas, con tres grupos dominantes en el oeste, el este y el sur.

Los investigadores reconocieron que los resultados podrían ser sesgados, dado que los participantes en el estudio fueron auto-seleccionados y, por lo tanto, más propensos a estar conectados a Internet, de alto nivel social y conocedores de la tecnología.

Pero aquellos interesados ​​en conducir autos auto-conducidos probablemente también tendrían esas características.

El estudio tiene implicaciones interesantes para los países que actualmente prueban autos de conducción automática, ya que estas preferencias podrían jugar un papel en la configuración del diseño y la regulación de dichos vehículos.

Los fabricantes de automóviles pueden encontrar, por ejemplo, que los consumidores chinos entrarían más fácilmente en un automóvil que se protegía a sí mismo sobre los peatones.Pero los autores del estudio enfatizaron que los resultados no pretenden dictar cómo deben actuar los diferentes países.

De hecho, en algunos casos, los autores consideraron que los tecnólogos y los formuladores de políticas deberían anular la opinión pública colectiva.

Edmond Awad, un autor del artículo, mencionó la comparación del estado social como ejemplo.

«Parece preocupante que a las personas les resulte aceptable en gran medida ahorrar un estatus más alto que un estatus más bajo».

«Es importante decir: ‘Oye, podríamos cuantificar eso’ en lugar de decir ‘Oh, tal vez deberíamos usar eso'».

Los resultados, dijo, deben ser usados ​​por la industria y el gobierno como una base para entender cómo el público reaccionaría a la ética de diferentes decisiones de diseño y políticas.

Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la IA más allá de los autos que conducen por sí mismos.

«Utilizamos el problema del trolley porque es una muy buena forma de recopilar estos datos, pero esperamos que la discusión sobre ética no se mantenga dentro de ese tema».

«La discusión debería pasar al análisis de riesgo, sobre quién corre más riesgo o menos riesgo, en lugar de decir quién va a morir o no, y también sobre cómo está ocurriendo el sesgo».

Cómo estos resultados podrían traducirse en un diseño y regulación más éticos de la IA es algo que espera estudiar más en el futuro.

«En los últimos dos, tres años más personas han comenzado a hablar sobre la ética de la IA».

«Más personas han comenzado a tomar conciencia de que la IA podría tener diferentes consecuencias éticas en diferentes grupos de personas. El hecho de que veamos personas comprometidas con esto, creo que eso es algo prometedor «.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Recibe nuestras noticias en tu correo

Lo más leído