Se parece a los test para medir nuestro coeficiente intelectual

Inmortalidad: Crean una prueba para medir la capacidad de la Inteligencia Artificial para razonar

La Inteligencia Artificual (IA) se ha revelado como competente completar tareas específicas, pero aún queda un largo camino por delante para tener lo que denominan una inteligencia general, el tipo de inteligencia que permitiría que la IA navegue por el mundo de la misma manera que lo hacen los humanos.

Uno de los elementos clave de la inteligencia general es el razonamiento abstracto: la capacidad de pensar más allá del «aquí y ahora» y participar en pensamientos complejos.

Para estar seguro de que la AI pasa a ese nivel necesitamos varemos para calibrar su capacidad. Por eso, según publica el portal Futurism.com, investigadores de DeepMind, una filial de Google centrada en la inteligencia artificial, publicaron un documento que detalla el intento de medir las capacidades de razonamiento abstracto de varias IA.

Para hacerlo, nada más sencillo, que emplear las mismas pruebas que usamos para medir nuestra inteligencia.

En los humanos, medimos el razonamiento abstracto usando pruebas visuales de coeficiente intelectual bastante simples.

Una prueba popular, llamada Matrices progresivas de Raven, presenta varias filas de imágenes en la última fila faltando su imagen final. Depende del examinado elegir la imagen que debe venir a continuación según el patrón de las filas completadas.

La prueba no le dice directamente al examinado qué buscar en las imágenes, tal vez la progresión tiene que ver con la cantidad de objetos dentro de cada imagen, su color o su ubicación. Depende de ellos darse cuenta de eso por sí mismos usando su habilidad para razonar abstractamente.

Para aplicar esta prueba a las IA, los investigadores de DeepMind crearon un programa que podía generar problemas únicos de matriz. Luego, probaron varios sistemas de IA para resolver estos problemas de matriz.

Finalmente, probaron los sistemas. En algunos casos, usaron problemas de prueba con los mismos factores abstractos que el conjunto de entrenamiento, como entrenar y evaluar a la IA en problemas que requirieron considerar la cantidad de formas en cada imagen.

En otros casos, usaron problemas de prueba incorporando diferentes factores abstractos que aquellos en el conjunto de entrenamiento. Por ejemplo, podrían entrenar a la IA en problemas que requieran la cantidad de formas en cada imagen que considere, y luego probarla en aquellas que requieran que se consideren las posiciones de las formas para encontrar la respuesta correcta.

Lamentablemente los resultados de la prueba no fueron geniales. Cuando los problemas de entrenamiento y los problemas de prueba se centraron en los mismos factores abstractos, a los sistemas les fue bien, respondiendo correctamente los problemas el 75 por ciento de las veces.

Sin embargo, las IA funcionaron muy mal si el conjunto de prueba difería del conjunto de entrenamiento.

En última instancia, la prueba de coeficiente intelectual del equipo muestra que incluso algunas de las IA más avanzadas de la actualidad no pueden resolver problemas que no les hemos enseñado a resolver.

Eso significa que probablemente aún estamos muy lejos de la IA general. Pero al menos ahora tenemos una manera directa de monitorear nuestro progreso.

 

Te puede interesar

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Recibe nuestras noticias en tu correo

Lo más leído