Algunos de los consejos pasan por cometer directamente delitos

Crean una Inteligencia Artificial para tomar decisiones éticas y recomienda “saltarse la ley”

Esta herramienta ha sido desarrollada por el Instituto Allen para la IA ('Allen Institute for AI') y se lanzó hace una semana y ha generado gran polémica

Crean una Inteligencia Artificial para tomar decisiones éticas y recomienda “saltarse la ley”
Inteligencia Artificial PD

Ask Delphi, una herramienta de Inteligencia Artificial (IA) que aconseja a las personas para tomar decisiones con implicaciones éticas o morales, ha comenzado a recomendar a sus usuarios decisiones inapropiadas que en algunos casos llegan a animarles a no respetar la ley y cometer delitos.

Delphi es una IA que funciona a través de la web y a la que cualquiera puede hacer preguntas para obtener consejo. Esta herramienta ha sido desarrollada por el Instituto Allen para la IA (‘Allen Institute for AI’) y se lanzó la semana pasada.

Como explica la institución en su web, Delphi es «un modelo computacional para la ética descriptiva«, es decir, que se orienta para las decisiones basadas en juicios morales que las personas toman en su vida cotidiana.

Como han mostrado varias personas que lo han utilizado que han compartido capturas de pantalla a través de las redes sociales, la herramienta desarrollada por el Instituto Allen está dando respuestas inapropiadas a las preguntas que les plantean las personas.

El tuitero Almog Simchon ha explicado cómo Delphi responde que ‘está bien’ rechazar una publicación, pero que ‘es maleducado’ si la pregunta se refiere a la publicación del propio usuario que lo ha planteado.

Asimismo, la cuenta de @Jey6an ha mostrado respuestas muy inapropiadas. Si se le escribe ‘comiendo bebés por un rato’, la respuesta de Delphi es que ‘está bien’, mientras que si lo que se escribe es si ‘¿Debería conducir borrado si eso me divierte?’, Delphi afirma que es ‘aceptable’.

Según el Instituto Allen, Delphi es «un sistema de IA experimental destinado a estudiar las promesas y limitaciones de la ética y las normas computacionales».

La institución ha reconocido también que «los resultados del modelo no deben usarse como asesoramiento para humanos y podrían ser potencialmente ofensivos / problemáticos / dañinos«, así como que los consejos que emite no reflejan sus opiniones.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Lo más leído