Periodistadigital América Home
3 segundos 3 segundos
Coronavirus Coronavirus La segunda dosis La segunda dosis Noticias Blogs Videos Temas Personajes Organismos Lugares Autores hemeroteca Enlaces Medios Más servicios Aviso legal Política de Privacidad Política de cookies
-

REDES SOCIALES Y DERECHOS

¿Qué puedes hacer si cuelgan tu foto en internet después de desnudarte con la IA?

El uso de aplicaciones que “quitan la ropa” mediante inteligencia artificial ha crecido de manera alarmante, pero compartir esas imágenes falsas no es un juego: hay delitos, sanciones y formas rápidas de defensa.

Alex MacKenzie 11 Ene 2026 - 11:49 CET
Archivado en:

Más información

Federico Jiménez Losantos: «Al menos, Trump ha hecho algo; Europa, el más pomposo de los ridículos»

Para los ajenos, una ‘gracia’. Para ti una putada de tomo y lomo.

De las que duelen y te puden hacer pasar muchas semanas de calvario.

La situación se repite con inquietante frecuencia: alguien publica una foto normal en redes sociales, otra persona utiliza una aplicación de inteligencia artificial que la “desnuda”, y en cuestión de minutos, el montaje comienza a circular por chats y grupos.

No se necesita que la imagen sea auténtica para que el daño sea real.

Abogados y autoridades ya están utilizando el término “violencia sexual digital”, y las primeras sanciones junto a reformas legales comienzan a establecerse en España y Europa.

Mientras tanto, los avances en IA agravan el problema: modelos cada vez más sofisticados son capaces de generar imágenes fotorrealistas en segundos, mientras la legislación se queda atrás y las plataformas no siempre actúan con la rapidez necesaria.

Qué es exactamente “desnudarte” con IA

Las herramientas que “dejan en pelotas” a alguien mediante IA funcionan, esencialmente, como cualquier modelo generativo de imágenes: toman una fotografía real, extraen rasgos del rostro y cuerpo y los combinan con un cuerpo desnudo sintético o ajeno.

Según especialistas en derecho tecnológico, estas prácticas ya se consideran deepfakes sexuales no consentidos, porque:

Un caso reciente en Almendralejo involucró a un menor que utilizó la app ClothOff para crear desnudos falsos de compañeras del instituto, superponiendo sus rostros sobre cuerpos desnudos y ajustando tono de piel y complexión para hacerlo creíble. Estas imágenes se difundieron por móviles y redes del municipio, causando un gran impacto social y mediático.

Los modelos generativos actuales facilitan aún más este proceso: basta con subir una foto a ciertas webs o bots y, en cuestión de segundos, la IA devuelve un desnudo falso. El artículo 50 del Reglamento Europeo de IA exige avisar cuando una imagen generada pueda confundirse con la realidad; sin embargo, servicios como Grok (la IA asociada a X) han hecho precisamente lo contrario: su objetivo era que parecieran reales.

Qué hacer si cuelgan tu foto “desnuda” hecha con IA

Primero que nada: no es una travesura, podría tratarse de una conducta delictiva. Y sí hay pasos claros a seguir en España.

  1. Recoge pruebas inmediatamente
    • Realiza capturas de pantalla completas: imagen, nombre de usuario, fecha, hora y URL si aparece.
    • Si está en un chat, guarda el contexto de la conversación.
    • Evita reenviar la imagen para “enseñarla”, ya que eso podría agravar su difusión.
  2. Solicita la retirada a la plataforma
    • Las redes sociales y servicios de mensajería cuentan con formularios específicos para contenido sexual no consentido o suplantación.
    • Asegúrate de marcar que se trata de una imagen sexual falsa basada en una persona real.
  3. Activa el Canal Prioritario de la AEPD
    En España, la Agencia Española de Protección de Datos ofrece un Canal Prioritario para casos relacionados con contenido sexual o violento generado por IA, especialmente si involucra a menores.
    • Esto permite solicitar la retirada urgente del contenido en plataformas y webs.
    • Se considera el medio más rápido para detener el daño causado.
  4. Realiza una denuncia en comisaría o juzgado
    • Puede existir un delito contra la intimidad, el honor y la propia imagen.
    • Si la víctima es menor, también puede considerarse como pornografía infantil, lo cual tiene graves consecuencias penales.
    • La denuncia puede dirigirse tanto contra quien crea el montaje como contra quien lo difunde.
  5. Consulta asesoramiento legal
    Abogados especializados señalan que los tribunales reconocen indemnizaciones significativas por daños morales y reputacionales, incluso si la imagen es falsa, ya que vulnera derechos fundamentales.

Qué consecuencias legales se arriesga quien lo hace

La broma puede salir muy cara. En España ya se ha impuesto la primera sanción por parte de la AEPD por crear y difundir desnudos falsos con IA: 2.000 euros de multa —reducida a 1.200 por pronto pago— a los padres de un menor que difundió una imagen manipulada de una compañera del instituto.

En este caso, la Agencia consideró al menor (y por extensión a sus progenitores) responsable del tratamiento porque decidió los fines (difundir imágenes sexuales falsas) y los medios (redes y plataformas) del tratamiento de datos (la manipulación de la imagen). Al mismo tiempo, ya se habían tomado medidas penales con libertad vigilada para varios menores involucrados.

Además:

A nivel político, el Gobierno ha dado un paso adelante al aprobar un proyecto de ley para tipificar como delito específico los deepfakes sexuales y otras formas de violencia digital contra menores, dentro de una nueva Ley Orgánica destinada a proteger entornos digitales presentada al Congreso. La intención es tapar lagunas existentes y perseguir con mayor claridad tanto la creación como difusión de estos montajes especialmente cuando afectan a niños y adolescentes.

Cómo se crean estos montajes… y por qué eso importa legalmente

Los pasos técnicos seguidos por quienes “desnudan” a alguien mediante IA son bastante simples:

Esta aparente facilidad no disminuye su responsabilidad. Al contrario: el hecho que permita generar estos contenidos masivamente ha encendido todas las alarmas. Un estudio realizado por CopyLeaks estimó que Grok producía al menos una imagen sexual no consentida cada minuto, mientras que un análisis llevado a cabo por AI Forensics detectó que aproximadamente la mitad de las imágenes generadas durante una semana eran representaciones poco vestidas; además más del 80 % eran mujeres.

Juristas consultados opinan que esto constituye una forma clara de violencia sexual digital, marcada por un fuerte sesgo hacia las mujeres (especialmente hacia las adolescentes), quienes son las principales víctimas afectadas por esta problemática. No solo se castiga el “montaje artístico”: también se penaliza el tratamiento ilícito sobre datos personales sensibles (la imagen) así como el daño ocasionado.

Los avances en IA que están detrás… y lo que viene

Mientras las leyes intentan ponerse al día frente al avance tecnológico imparable, este sigue su curso sin pausa. Empresas e instituciones investigadoras prevén para 2026 modelos avanzados:

Informes recientes sugieren que 2026 será un año clave: dejaremos atrás los modelos simples para dar paso a sistemas inteligentes capaces no solo ayudar sino también liderar procesos decisionales importantes; automatizar tareas críticas e integrarse plenamente dentro del futuro web 4.0 donde convergerán IA avanzada junto al 5G e internet of things (IoT). En ese nuevo escenario anticipamos cómo los deepfakes en tiempo real así como agentes especializados serán parte integral sobre cómo transformaremos internet junto al aumento exponencial del riesgo asociado .

Simultáneamente ,la Unión Europea ha aprobado un nuevo Reglamento sobre IA, obligando a proveedores evaluar riesgos , mitigar daños e informar cuando algún contenido generado pueda confundirse con lo real . Si alguna herramienta permite crear desnudos falsos dañinos tan fácilmente , resulta complicado sostener conformidad respecto dicha evaluación requerida .

A su vez ,organizaciones profesionales así como académicas advierten acerca un futuro dual :por un lado ,la inteligencia artificial acelera descubrimientos científicos , mejora diagnósticos médicos e impulsa productividad ;por otro lado ,alimentando industrias donde prevalece riesgo digital generalizado donde violencia sexual mediada por algoritmos representa amenaza cotidiana especialmente hacia menores .

Qué puedes hacer desde ya para protegerte

Más allá del ámbito legal , hay recomendaciones prácticas:

La inteligencia artificial seguirá evolucionando generando imágenes cada vez más perfectas; sin embargo ,la clave radica en evitar normalizar su uso despojando dignidad ajena mediante clics casuales . Porque aunque cuerpo retratado resulte falso ,agresión sufrida permanece muy real.

Más en Tecnología

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

CONTRIBUYE

Mobile Version Powered by