Para no convertirse en ‘villanos tech’, el Departamento de Defensa de EEUU ha establecido una serie de principios éticos

El Pentágono y la Inteligencia Artificial: un letal arsenal de robots asesinos

"Este buen uso de la IA está en contraste con lo que Rusia y China están haciendo, cuyo uso de tecnología de inteligencia artificial para fines militares plantea una gran preocupación por los derechos humanos, la ética y las normas internacionales”

La clave de todo, como casi siempre, es la inteligencia.

Aunque aún no se sabe con exactitud cómo será el diseño ni la apariencia ni la manera en que serán construidos los robots, el Pentágono los divide en tres categorías: Ligera, media y pesada.

Y parte de un supuesto básico: el campo de batalla del siglo XXI será la mente humana.

Al menos, así creen los grandes gurús bélicos de EEUUY, que desarrollan un nuevo armamento que sería controlado solo con el cerebro de los soldados.

No hace mucho que Elon Musk, el multimillonario fundador de Tesla Inc. y Space X, envió una carta a la ONU en la cual se solicita prohibir la autonomía en las armas letales.

El hombre más rico del Planeta Tierra no ha sido el único en solicitar dicha prohibición. A Musk se sumaron 116 empresas fundadoras de iniciativas robóticas e inteligencia artificial.

Poco caso les han hecho.

Estados Unidos, como hacen a escondidas Rusia, China y otros países, entre los que están Israel o Irán, tiene un casi enfermizo interés en estar a la vanguardia en tecnología de guerra.

Y lo más letal posible…para el enemigo.

El último grito en el que el Pentágono ha fijado los ojos es la Inteligencia Artificial: quiere aplicarla a todo tipo de soluciones, desde análisis de datos hasta temas de vigilancia, pasando por áreas tan esenciales como la atención médica.

Pero toda tecnología puede ser usada también para el peor de lo males.

Para no convertirse en ‘villanos tech’, el Departamento de Defensa de EEUU ha establecido una serie de principios éticos que deberá seguir el desarrollo de la IA aplicada al ejército, según han dicho en un comunicado de prensa.

PARA EL BIEN Y CONTRA EL MAL

Implantar la imaginación en máquinas con inteligencia artificial: el último reto para la ‘humanización’ de los robots

El pentágono ha firmado y hecho públicas cinco pautas con las que se comprometen a usar la IA «solo para el bien».

Promete que sus esfuerzos de IA serán:

  • 1) responsables
  • 2) equitativos
  • 3) rastreables
  • 4) fiables
  • 5) gobernables.

«Estados Unidos, junto con nuestros aliados y socios, debe acelerar la adopción de IA y liderar en sus aplicaciones de seguridad nacional para mantener nuestra posición estratégica, prevalecer en futuros campos de batalla y salvaguardar el orden internacional basado en reglas». 

«La tecnología de IA cambiará mucho sobre el campo de batalla del futuro, pero nada cambiará el firme compromiso de Estados Unidos con un comportamiento responsable y legal».

La lista es el resultado de un estudio de 15 meses realizado por la Junta de Innovación en Defensa, que está compuesto por académicos y ejecutivos en tecnología y negocios.

En resumen, el desarrollo y la operación de cualquier tecnología debe desarrollarse y utilizarse cuidadosamente, tener salvaguardas contra sesgos en el análisis de datos, ser auditables para encontrar las fuentes de errores y corregirlos, tener parámetros de uso estrechamente definidos y tener planes de respaldo para el cierre en caso de que algo salga mal.

«Este buen uso de la IA está en contraste con lo que Rusia y China están haciendo, cuyo uso de tecnología de inteligencia artificial para fines militares plantea una gran preocupación por los derechos humanos, la ética y las normas internacionales”.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Lo más leído