Periodistadigital América Home
3 segundos 3 segundos
Coronavirus Coronavirus La segunda dosis La segunda dosis Noticias Blogs Videos Temas Personajes Organismos Lugares Autores hemeroteca Enlaces Medios Más servicios Aviso legal Política de Privacidad Política de cookies
-

Inteligencia Artificial: La nueva carrera armamentística entre EEUU y China

Robots Asesinos: cuando el ordenador decide quién vive y quién muere

Una amenaza para la Humanidad

Mario Lima Actualizado: 14 Dic 2024 - 22:08 CET
Archivado en:

Más información

El crecimiento del cerebro no equivale a una evolución de la inteligencia

El último gadget de Apple: calcetines inteligentes

El ‘robot asesino‘ es un arma completamente autónoma que puede seleccionar y atacar objetivos sin la participación significativa del ser humano.

Los robots asesinos y la inteligencia artificial (IA) están transformando el panorama bélico actual, generando tanto fascinación como preocupación.

La proliferación de estos sistemas plantea desafíos éticos significativos.

La falta de emociones en la toma de decisiones bélicas puede llevar a consecuencias devastadoras.

La IA puede actuar basándose en algoritmos que no siempre son transparentes, lo que genera un «problema de caja negra» donde ni los desarrolladores pueden prever las decisiones que tomarán estos sistemas.

Robots Asesinos Famosos

Estos robots, aunque ficticios, reflejan preocupaciones reales sobre el desarrollo de tecnologías autónomas en el ámbito militar.

Uso Actual de Robots y IA en la Guerra

La guerra moderna ha visto un aumento significativo en el uso de drones y robots autónomos, que operan sin intervención humana directa. Estos son algunos ejemplos:

DILEMAS MORALES

Quienes se oponen a este tipo de inventos, consideran que son una amenaza para la Humanidad y que debería prohibirse que se les otorgara cualquier capacidad para matar de forma autónoma.

«Si no frenamos la carrera armamentística para desarrollar robots asesinos, los resultados serán catastróficos».

Esa es la advertencia de la ONG Pax, organización dedicada a la defensa de la paz con sede en Holanda, sobre los avances en inteligencia artificial para uso militar por parte de grandes potencias mundiales como China o Estados Unidos, y en el marco de la falta de normas internacionales al respecto.

«Nos situamos frente a un futuro cercano en el que armas de inteligencia artificial se apoderarán de puestos que hoy ejercemos los humanos, seleccionado y atacando objetivos por sí mismos».

«Sin normas internacionales claras, podemos entrar en una era en la que algoritmos, no personas, decidirán sobre la vida y la muerte».

No son argumentos baladíes.

Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados.

Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.

Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurrirán a la fuerza porque reduciría el riesgo para sus propios soldados.

En cualquier caso, se ha abierto una carrera mundial para liderar la creación de este tipo de robots.

Siete países, especialmente, están volcando ingentes recursos para optimizar la inteligencia artificial en sus aplicaciones militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.

Estados Unidos, que se considera líder en el sector seguido de cerca por Rusia y China, ya ha dejado claro que el Pentágono está empleando miles millones para desarrollar la siguiente «oleada» de esta tecnología.

Un «robot asesino» no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción.

De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles.

La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano.

Los especialistas ven probable que la tecnología se incorpore en un primer momento a drones, pero que luego se extienda a otro tipo de vehículos.

Brad Smith, presidente de Microsoft, no es  ni el primero ni el único alto ejecutivo de una gran compañía tecnológica que insiste en la necesidad de una regulación.

El multimillonario sudafricano presidente de SpaceX o Tesla, Elon Musk, es muy pesimista en cuanto al uso que los humanos daremos a ellas, van más allá de las acciones de los líderes humanos.

El hombre más rico del mundo sostiene que a este paso, no falta mucho para que una guerra mundial pueda ser iniciada por una computadora, que calculase un ataque como la mejor opción (tipo Skynet en Terminator).

Musk fue uno de los firmantes de relevancia de una solicitud a la ONU en 2017 para la prohibición de armas letales autónomas.

 «Una vez desarrolladas, las armas letales autónomas van a permitir conflictos armados en una escala mayor que nunca, y en tiempo más rápido que los humanos puedan comprender. No tenemos tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil de cerrar».

Más en Gadgets

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

CONTRIBUYE

Mobile Version Powered by