Inteligencia Artificial: La nueva carrera armamentística entre EEUU y China

Robots Asesinos: cuando el ordenador decide quién vive y quién muere

Una amenaza para la Humanidad

El ‘robot asesino‘ es un arma completamente autónoma que puede seleccionar y atacar objetivos sin la participación significativa del ser humano.

Quienes se oponen a este tipo de inventos, consideran que son una amenaza para la Humanidad y que debería prohibirse que se les otorgara cualquier capacidad para matar de forma autónoma.

«Si no frenamos la carrera armamentística para desarrollar robots asesinos, los resultados serán catastróficos».

Esa es la advertencia de la ONG Pax, organización dedicada a la defensa de la paz con sede en Holanda, sobre los avances en inteligencia artificial para uso militar por parte de grandes potencias mundiales como China o Estados Unidos, y en el marco de la falta de normas internacionales al respecto.

«Nos situamos frente a un futuro cercano en el que armas de inteligencia artificial se apoderarán de puestos que hoy ejercemos los humanos, seleccionado y atacando objetivos por sí mismos».

«Sin normas internacionales claras, podemos entrar en una era en la que algoritmos, no personas, decidirán sobre la vida y la muerte».

No son argumentos baladíes.

Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados.

Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.

Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurrirán a la fuerza porque reduciría el riesgo para sus propios soldados.

En cualquier caso, se ha abierto una carrera mundial para liderar la creación de este tipo de robots.

Siete países, especialmente, están volcando ingentes recursos para optimizar la inteligencia artificial en sus aplicaciones militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.

Estados Unidos, que se considera líder en el sector seguido de cerca por Rusia y China, ya ha dejado claro que el Pentágono está empleando miles millones para desarrollar la siguiente «oleada» de esta tecnología.

Un «robot asesino» no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción.

De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles.

La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano.

Los especialistas ven probable que la tecnología se incorpore en un primer momento a drones, pero que luego se extienda a otro tipo de vehículos.

Brad Smith, presidente de Microsoft, no es  ni el primero ni el único alto ejecutivo de una gran compañía tecnológica que insiste en la necesidad de una regulación.

El multimillonario sudafricano presidente de SpaceX o Tesla, Elon Musk, es muy pesimista en cuanto al uso que los humanos daremos a ellas, van más allá de las acciones de los líderes humanos.

El hombre más rico del mundo sostiene que a este paso, no falta mucho para que una guerra mundial pueda ser iniciada por una computadora, que calculase un ataque como la mejor opción (tipo Skynet en Terminator).

Musk fue uno de los firmantes de relevancia de una solicitud a la ONU en 2017 para la prohibición de armas letales autónomas.

 «Una vez desarrolladas, las armas letales autónomas van a permitir conflictos armados en una escala mayor que nunca, y en tiempo más rápido que los humanos puedan comprender. No tenemos tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil de cerrar».

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Los vídeos más vistos

Lo más leído