Tecnología viral

Así son los nuevos principios éticos para usar inteligencia artificial de Google

Promete no emplearla en armas

Así son los nuevos principios éticos para usar inteligencia artificial de Google
Cerebro, inteligencia, invento y memoria. PM

Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de imitar por completo a un ser humano. Sin embargo, hay expertos en el tema que indican que ningún humano individual tiene capacidad para resolver todo tipo de problemas, según WP, y autores como Howard Gardner han teorizado que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas por lo que es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución.

En los humanos, la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten, por ejemplo, almacenar y recuperar información en la memoria, mientras que en los aspectos aprendidos reside el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan llegar a resolverlos.

Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina.

En la carta firmada por Sundar Pichai, CEO de Google, se menciona que se han establecido «estándares concretos», es decir, no se trata de conceptos teóricos o flexibles, los cuales «regirán de manera activa nuestra investigación y desarrollo de productos e influirán en nuestras decisiones de negocio», según recoeg Raúl Álvarez en xataka.

A partir de ahora, Google asegura que evaluará los proyectos de inteligencia artificial en base en los siguientes objetivos:

  1. Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.

  2. Evitar crear o reforzar un sesgo injusto. Como lo veíamos con ‘Norman‘, en este punto la compañía asegura que trabajará para evitar «impactos injustos» en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.

  3. Estar construida y probada para ser segura. Aquí mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.

  4. Ser responsable con las personas. «Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano». Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.

  5. Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.

  6. Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.

  7. Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo a cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.

VÍDEO DESTACADO: La Inteligencia Artificial cambiará el modo en que hacemos medicina

Recibe nuestras noticias en tu correo

Lo más leído