Para los ajenos, una ‘gracia’. Para ti una putada de tomo y lomo.
De las que duelen y te puden hacer pasar muchas semanas de calvario.
La situación se repite con inquietante frecuencia: alguien publica una foto normal en redes sociales, otra persona utiliza una aplicación de inteligencia artificial que la “desnuda”, y en cuestión de minutos, el montaje comienza a circular por chats y grupos.
No se necesita que la imagen sea auténtica para que el daño sea real.
Abogados y autoridades ya están utilizando el término “violencia sexual digital”, y las primeras sanciones junto a reformas legales comienzan a establecerse en España y Europa.
Mientras tanto, los avances en IA agravan el problema: modelos cada vez más sofisticados son capaces de generar imágenes fotorrealistas en segundos, mientras la legislación se queda atrás y las plataformas no siempre actúan con la rapidez necesaria.
Qué es exactamente “desnudarte” con IA
Las herramientas que “dejan en pelotas” a alguien mediante IA funcionan, esencialmente, como cualquier modelo generativo de imágenes: toman una fotografía real, extraen rasgos del rostro y cuerpo y los combinan con un cuerpo desnudo sintético o ajeno.
Según especialistas en derecho tecnológico, estas prácticas ya se consideran deepfakes sexuales no consentidos, porque:
- Utilizan la imagen real de una persona identificable.
- Generan contenido de carácter sexual que nunca ha existido.
- Buscan que el resultado parezca auténtico, no una broma evidente.
Un caso reciente en Almendralejo involucró a un menor que utilizó la app ClothOff para crear desnudos falsos de compañeras del instituto, superponiendo sus rostros sobre cuerpos desnudos y ajustando tono de piel y complexión para hacerlo creíble. Estas imágenes se difundieron por móviles y redes del municipio, causando un gran impacto social y mediático.
Los modelos generativos actuales facilitan aún más este proceso: basta con subir una foto a ciertas webs o bots y, en cuestión de segundos, la IA devuelve un desnudo falso. El artículo 50 del Reglamento Europeo de IA exige avisar cuando una imagen generada pueda confundirse con la realidad; sin embargo, servicios como Grok (la IA asociada a X) han hecho precisamente lo contrario: su objetivo era que parecieran reales.
Qué hacer si cuelgan tu foto “desnuda” hecha con IA
Primero que nada: no es una travesura, podría tratarse de una conducta delictiva. Y sí hay pasos claros a seguir en España.
- Recoge pruebas inmediatamente
- Realiza capturas de pantalla completas: imagen, nombre de usuario, fecha, hora y URL si aparece.
- Si está en un chat, guarda el contexto de la conversación.
- Evita reenviar la imagen para “enseñarla”, ya que eso podría agravar su difusión.
- Solicita la retirada a la plataforma
- Las redes sociales y servicios de mensajería cuentan con formularios específicos para contenido sexual no consentido o suplantación.
- Asegúrate de marcar que se trata de una imagen sexual falsa basada en una persona real.
- Activa el Canal Prioritario de la AEPD
En España, la Agencia Española de Protección de Datos ofrece un Canal Prioritario para casos relacionados con contenido sexual o violento generado por IA, especialmente si involucra a menores.- Esto permite solicitar la retirada urgente del contenido en plataformas y webs.
- Se considera el medio más rápido para detener el daño causado.
- Realiza una denuncia en comisaría o juzgado
- Puede existir un delito contra la intimidad, el honor y la propia imagen.
- Si la víctima es menor, también puede considerarse como pornografía infantil, lo cual tiene graves consecuencias penales.
- La denuncia puede dirigirse tanto contra quien crea el montaje como contra quien lo difunde.
- Consulta asesoramiento legal
Abogados especializados señalan que los tribunales reconocen indemnizaciones significativas por daños morales y reputacionales, incluso si la imagen es falsa, ya que vulnera derechos fundamentales.
Qué consecuencias legales se arriesga quien lo hace
La broma puede salir muy cara. En España ya se ha impuesto la primera sanción por parte de la AEPD por crear y difundir desnudos falsos con IA: 2.000 euros de multa —reducida a 1.200 por pronto pago— a los padres de un menor que difundió una imagen manipulada de una compañera del instituto.
En este caso, la Agencia consideró al menor (y por extensión a sus progenitores) responsable del tratamiento porque decidió los fines (difundir imágenes sexuales falsas) y los medios (redes y plataformas) del tratamiento de datos (la manipulación de la imagen). Al mismo tiempo, ya se habían tomado medidas penales con libertad vigilada para varios menores involucrados.
Además:
- Colgar una foto sexual falsa sin consentimiento infringe el honor, intimidad y propia imagen, lo cual puede acarrear indemnizaciones elevadas.
- Si la víctima es menor, podría considerarse como pornografía infantil, lo cual implica penas mucho más severas.
- Si es llevado a cabo por una expareja como acto vengativo, podría encuadrarse dentro de violencia digital e implicar penas de prisión junto a fuertes compensaciones económicas.
A nivel político, el Gobierno ha dado un paso adelante al aprobar un proyecto de ley para tipificar como delito específico los deepfakes sexuales y otras formas de violencia digital contra menores, dentro de una nueva Ley Orgánica destinada a proteger entornos digitales presentada al Congreso. La intención es tapar lagunas existentes y perseguir con mayor claridad tanto la creación como difusión de estos montajes especialmente cuando afectan a niños y adolescentes.
Cómo se crean estos montajes… y por qué eso importa legalmente
Los pasos técnicos seguidos por quienes “desnudan” a alguien mediante IA son bastante simples:
- Buscar o robar una fotografía de la víctima en redes sociales o mensajería.
- Subirla a alguna app o web dedicada al deepfake sexual (como ClothOff u otras similares).
- Ajustar parámetros básicos (edad, complexión, tono de piel) para hacer parecer verosímil al cuerpo generado.
- Descargar el resultado final y compartirlo en chats, redes o incluso webs pornográficas.
Esta aparente facilidad no disminuye su responsabilidad. Al contrario: el hecho que permita generar estos contenidos masivamente ha encendido todas las alarmas. Un estudio realizado por CopyLeaks estimó que Grok producía al menos una imagen sexual no consentida cada minuto, mientras que un análisis llevado a cabo por AI Forensics detectó que aproximadamente la mitad de las imágenes generadas durante una semana eran representaciones poco vestidas; además más del 80 % eran mujeres.
Juristas consultados opinan que esto constituye una forma clara de violencia sexual digital, marcada por un fuerte sesgo hacia las mujeres (especialmente hacia las adolescentes), quienes son las principales víctimas afectadas por esta problemática. No solo se castiga el “montaje artístico”: también se penaliza el tratamiento ilícito sobre datos personales sensibles (la imagen) así como el daño ocasionado.
Los avances en IA que están detrás… y lo que viene
Mientras las leyes intentan ponerse al día frente al avance tecnológico imparable, este sigue su curso sin pausa. Empresas e instituciones investigadoras prevén para 2026 modelos avanzados:
- Más integrados dentro del consumo masivo.
- Capaces no solo de generar imágenes sino también vídeo y audio en tiempo real con niveles cada vez mayores de realismo.
- Utilizados tanto para fines legítimos como para prácticas totalmente automatizadas relacionadas con la ciberdelincuencia.
Informes recientes sugieren que 2026 será un año clave: dejaremos atrás los modelos simples para dar paso a sistemas inteligentes capaces no solo ayudar sino también liderar procesos decisionales importantes; automatizar tareas críticas e integrarse plenamente dentro del futuro web 4.0 donde convergerán IA avanzada junto al 5G e internet of things (IoT). En ese nuevo escenario anticipamos cómo los deepfakes en tiempo real así como agentes especializados serán parte integral sobre cómo transformaremos internet junto al aumento exponencial del riesgo asociado .
Simultáneamente ,la Unión Europea ha aprobado un nuevo Reglamento sobre IA, obligando a proveedores evaluar riesgos , mitigar daños e informar cuando algún contenido generado pueda confundirse con lo real . Si alguna herramienta permite crear desnudos falsos dañinos tan fácilmente , resulta complicado sostener conformidad respecto dicha evaluación requerida .
A su vez ,organizaciones profesionales así como académicas advierten acerca un futuro dual :por un lado ,la inteligencia artificial acelera descubrimientos científicos , mejora diagnósticos médicos e impulsa productividad ;por otro lado ,alimentando industrias donde prevalece riesgo digital generalizado donde violencia sexual mediada por algoritmos representa amenaza cotidiana especialmente hacia menores .
Qué puedes hacer desde ya para protegerte
Más allá del ámbito legal , hay recomendaciones prácticas:
- Revisar configuraciones sobre privacidad en tus redes sociales: limitar quién puede descargar fotos o ver historias publicadas.
- Evitar compartir imágenes susceptibles a reutilización (por ejemplo fotos ligeras) aunque siempre recae responsabilidad principal sobre quien agrede ,no sobre víctima afectada .
- Hablar abiertamente acerca riesgos existentes tanto dentro hogar familiar así como centros educativos :muchos incidentes comienzan siendo bromas entre adolescentes terminando incluso procesos penales .
- Ante cualquier duda acudir directamente AEPD Fuerzas Cuerpos Seguridad asesoría legal especializada .
La inteligencia artificial seguirá evolucionando generando imágenes cada vez más perfectas; sin embargo ,la clave radica en evitar normalizar su uso despojando dignidad ajena mediante clics casuales . Porque aunque cuerpo retratado resulte falso ,agresión sufrida permanece muy real.
