Periodistadigital América Home
3 segundos 3 segundos
Coronavirus Coronavirus La segunda dosis La segunda dosis Noticias Blogs Videos Temas Personajes Organismos Lugares Autores hemeroteca Enlaces Medios Más servicios Aviso legal Política de Privacidad Política de cookies
-

POLÉMICA POR LA GESTIÓN DEL ABUSO INFANTIL EN REDES

‘Zora’, víctima de abuso sexual infantil, suplica a Elon Musk eliminar todos los enlaces de sus imágenes en X

El drama de una superviviente reabre el debate sobre el papel de X y los límites de la inteligencia artificial para frenar el contenido más atroz en Internet

Periodista Digital 26 Ago 2025 - 07:38 CET
Archivado en:

Más información

El escándalo Epstein se amplía: las cartas de Woody Allen y otros famosos, clave para desentrañar el caso

La IA de Elon Musk la lía y gorda: ahora crea con Grok Imagine un vídeo de Taylor Swift medio desnuda

La historia de Zora, una estadounidense que sufrió abuso sexual infantil hace más de veinte años, ha vuelto a conmocionar a la opinión pública.

Lo ha hecho no solo por el horror de los hechos, sino porque, a día de hoy, 26 de agosto de 2025, las imágenes de aquel abuso siguen circulando en X, la red social de Elon Musk que antes conocíamos como Twitter.

Zora, en declaraciones a la BBC, ha pedido directamente al multimillonario que elimine de su plataforma los enlaces que permiten la difusión de esas imágenes:

“Nuestro abuso se está compartiendo, comercializando y vendiendo en la app que usted posee… El momento de actuar es ahora”.

El caso de Zora no es aislado.

Su denuncia se suma a la de muchas otras víctimas, que ven cómo su sufrimiento se perpetúa en el entorno digital.

Pero el eco de su voz, amplificado por los medios y las redes, ha puesto el foco en la capacidad real de las grandes plataformas tecnológicas para combatir el abuso sexual infantil en la red.

La indignación no es solo personal:

“Escuchar que mi abuso, y el de muchas otras personas, sigue circulando y siendo comercializado aquí es indignante”.

X, el escrutinio judicial y la presión social

El drama de Zora coincide con un contexto legal cada vez más tenso para X y su propietario. Un tribunal federal de Estados Unidos acaba de reabrir una demanda por negligencia contra la red social por su gestión del material de abuso sexual infantil (CSAM, por sus siglas en inglés). Según la investigación judicial, la plataforma tardó hasta nueve días en eliminar y reportar un vídeo explícito con menores tras recibir avisos formales, periodo durante el cual fue visto más de 167.000 veces.

Las críticas se centran en dos cuestiones:

Los tribunales han dejado claro que la obligación de reportar material de abuso infantil prevalece sobre la inmunidad que, hasta ahora, protegía a las plataformas por el contenido publicado por sus usuarios. Esto supone un precedente relevante para la industria tecnológica.

Redes criminales y el papel de la inteligencia artificial

El problema no se limita a casos individuales. Investigaciones recientes han destapado la existencia de redes coordinadas que utilizan X para vender y distribuir material de explotación infantil. Solo en cuatro días de julio, se identificaron al menos 150 cuentas compartiendo millones de publicaciones, muchas de ellas con enlaces a colecciones de imágenes y vídeos alojados en Telegram.

¿Cómo se combate esta lacra en un entorno digital tan dinámico? Aquí entra en juego la inteligencia artificial. X afirma haber invertido en tecnología avanzada para detectar y eliminar CSAM. Según datos de la propia empresa, en 2024 se enviaron más de 686.000 reportes al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) y se suspendieron 4,5 millones de cuentas por este motivo. Esto permitió la detención de 94 personas y una condena.

Las técnicas empleadas incluyen:

Sin embargo, las cifras no engañan: la magnitud del problema sigue superando la capacidad de respuesta, y la comunidad de expertos reclama más transparencia y eficacia en los sistemas de moderación.

Limitaciones, retos y controversias

El uso de inteligencia artificial presenta ventajas, pero también genera controversia. Por un lado, permite identificar grandes volúmenes de material ilícito de forma más rápida que los equipos humanos. Por otro, plantea desafíos:

En paralelo, Telegram asegura haber eliminado más de 565.000 grupos relacionados con la explotación infantil en lo que va de 2025, pero sigue siendo un canal habitual para la venta y distribución de material ilegal, muchas veces vinculado a lo que se encuentra en X.

El debate social y político

El caso ha reabierto el debate sobre el papel de los gigantes tecnológicos en la protección de los menores y la responsabilidad de sus directivos. Musk, conocido por su discurso de tolerancia cero, afronta el escrutinio de víctimas, activistas y políticos, que exigen medidas más contundentes.

En el Reino Unido, el debate ha llegado incluso al Parlamento, con partidos de la oposición y figuras públicas reclamando investigaciones nacionales y cambios legislativos para obligar a las plataformas a actuar con mayor diligencia.

El futuro inmediato

Mientras tanto, miles de víctimas esperan justicia y reparación. La inteligencia artificial promete ser una aliada, pero no sustituye el compromiso humano ni la voluntad política. A día de hoy, la voz de Zora resuena como recordatorio incómodo de que la tecnología, por sí sola, nunca será suficiente para proteger a los más vulnerables. Como diría cualquier usuario cansado de notificaciones inútiles, pero con mucho más motivo: el botón de “reportar” no puede quedarse en un simple adorno digital.

Más en Tecnología

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

CONTRIBUYE

Mobile Version Powered by