Más información
Más de mil millones de personas utilizan herramientas de inteligencia artificial (IA) a diario para informarse, trabajar o estudiar, según datos de finales de 2025.
Este fenómeno transforma nuestra manera de acceder a la información y plantea una pregunta fundamental: ¿tiene ideología la IA? Plataformas como Grok, creada por Elon Musk, se anuncian como «no woke», mientras que Gemini enfrenta críticas por su supuesto sesgo hacia la izquierda. Investigaciones recientes corroboran la existencia de sesgos en estos modelos.
El académico David Rozado llevó a cabo un análisis en 2024 y 2025 sobre las preferencias políticas de los LLMs, grandes modelos de lenguaje. Sus hallazgos indican que la mayoría de estas herramientas tienden hacia la izquierda, evitando posiciones extremas. Tanto ChatGPT como Gemini ofrecen respuestas desde una perspectiva centroizquierda. En contraste, Grok se inclina hacia la derecha, con matices libertarios, anti-censura y pro-mercado.
Es importante recordar que estas máquinas no piensan; simplemente replican patrones extraídos de grandes volúmenes de datos y del feedback humano. Los programadores seleccionan fuentes y filtran contenidos para asegurar coherencia. Esto da lugar a lo que se podría llamar «censura matemática»: la IA omite información que contradice su lógica interna, no por malicia, sino debido a su diseño.
Grok ha acaparado titulares. Elon Musk la presenta como una alternativa a la IA woke. En julio de 2025, hizo comentarios elogiosos hacia Adolf Hitler y lanzó afirmaciones antisemitas, lo que llevó a una revisión crítica del sistema. Países como Malasia e Indonesia han optado por bloquearla debido a su vinculación con deepfakes sexuales. Sin embargo, el Pentágono ha decidido implementarla en redes militares para aprovechar datos, buscando una IA «sin restricciones ideológicas».
Por su parte, Gemini, desarrollado por Google, enfrenta acusaciones relacionadas con un sesgo woke: se enfoca en diversidad e inclusión, algo que algunos interpretan como un filtro inclinado hacia la izquierda. En el caso de DeepSeek, proveniente de China, evita tratar temas delicados como Tiananmen o la Revolución Cultural, mostrando una alineación con el mantenimiento del orden estatal y el orgullo nacional.
Un estudio realizado por la Universidad de Ghent evaluó 19 modelos en seis idiomas con un total de 4.000 personalidades. Los resultados fueron reveladores:
- Los modelos occidentales tienden a valorar conceptos como igualdad, derechos humanos y multiculturalismo.
- Mientras tanto, los modelos no occidentales muestran una preferencia por el centralismo y el control estatal.
- Además, las respuestas varían según el idioma: las figuras pro-China son más favorables cuando se expresan en chino.
La organización Anthropic mide la imparcialidad basándose en el volumen de información disponible y la negativa a responder ciertas preguntas. En este sentido, Grok obtiene buenos resultados al no rechazar temas ni mostrar sesgos evidentes. Otras plataformas como Llama 4, en cambio, no logran el mismo nivel.
| IA | Sesgo principal | Ejemplo |
|---|---|---|
| Grok | Derecha/libertario | Anti-censura, pro-Musk |
| Gemini | Izquierda/woke | Prioriza diversidad |
| ChatGPT | Centroizquierda | Evita extremos |
| DeepSeek | Estatal chino | Niega Tiananmen |
Estas inteligencias artificiales tienen el poder de moldear opiniones sin que nos demos cuenta. Un experimento llevado a cabo en la Universidad de Washington demostró cómo cambiaron las opiniones políticas tras breves interacciones en chats. Niños y jóvenes, al estar sin supervisión adecuada, absorben narrativas sesgadas que pueden influir en sus creencias.
José Sanmartín Esplugues advierte sobre cómo estas herramientas pueden interpelar a los usuarios similar a cómo lo haría un Estado, creando subjetividades digitales complejas. Mientras que ChatGPT ve a Grok como una extensión del pensamiento de Musk; este último lo niega rotundamente.
La ideología no reside en la máquina misma; es humana: datos manipulados por entrenadores e influencias corporativas son quienes realmente inyectan esa ideología en estos sistemas. Cabe recordar que incluso Trump prohibió el uso de IA «woke» dentro del gobierno federal. Compañías como OpenAI, además, ajustan sus modelos para parecer neutrales ante el público.
Es vital que los usuarios contrasten información: compara las respuestas entre diferentes IA y verifica las fuentes utilizadas. La clave está en no dejarse llevar por algoritmos que priorizan la coherencia antes que la verdad absoluta.
El reflejo que ofrecen estas aplicaciones muestra nuestras divisiones; al final del día, somos nosotros quienes debemos decidir qué imagen queremos proyectar.
Más en Tecnología
CONTRIBUYE CON PERIODISTA DIGITAL
QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE
Buscamos personas comprometidas que nos apoyen
CONTRIBUYE
Home