EUROPA ENDURECE LA VIGILANCIA DIGITAL INFANTIL

La UE aprieta a TikTok y YouTube por fallar en la protección de menores

La Comisión Europea abre expediente a TikTok y YouTube por no proteger a niños y adolescentes frente a algoritmos adictivos y contenidos nocivos

Youtube y Tik Tok
Youtube y Tik Tok. PD

El pulso entre Bruselas y Silicon Valley está servido.

Y esta vez parece que nadie va a poder mirar hacia otro lado mientras millones de chavales siguen pegados a sus pantallas.

A día de hoy, 5 de septiembre de 2025, la Comisión Europea ha dado un golpe sobre la mesa. Las grandes plataformas digitales, con TikTok y YouTube a la cabeza, están bajo el foco por algo más serio que los habituales rifirrafes regulatorios: la presunta desprotección de millones de menores frente a algoritmos adictivos y contenidos poco recomendables.

Bruselas ha abierto un procedimiento formal contra ambas compañías por incumplir la Ley de Servicios Digitales (DSA), una normativa que no se anda con rodeos cuando se trata del bienestar infantil.

La preocupación no es nueva, pero el hartazgo institucional sí. Los datos son claros: casi la mitad de los adolescentes europeos pasan más de dos horas diarias en redes como TikTok o YouTube, donde el contenido se adapta a sus gustos con una precisión casi quirúrgica gracias a la inteligencia artificial.

Pero esa misma tecnología se ha convertido en un arma de doble filo.

El algoritmo, lejos de ser neutral, está diseñado para maximizar el tiempo de uso —y, por tanto, los ingresos publicitarios— sin tener en cuenta las consecuencias para la salud mental de los más jóvenes.

La DSA y el giro europeo: multas millonarias y exigencia real

La DSA exige que las plataformas extremen las precauciones con los usuarios menores, no solo eliminando contenido manifiestamente dañino sino también limitando el efecto adictivo de sus sistemas de recomendación. Según la Comisión, ni TikTok ni YouTube han demostrado esfuerzos suficientes en este sentido. El expediente amenaza con sanciones millonarias que podrían alcanzar hasta el 6% de su facturación global anual si no corrigen el rumbo.

No es una amenaza vacía. Recientemente, Australia anunció que prohibirá a los menores de 16 años crear cuentas en YouTube y otras redes sociales a partir de diciembre, con multas equivalentes a 32 millones de dólares para las tecnológicas que no cumplan. Europa parece dispuesta a seguir ese camino si las plataformas no reaccionan.

Algoritmos adictivos: ¿el nuevo flautista de Hamelin?

Los expertos lo tienen claro: los algoritmos que rigen TikTok y YouTube funcionan como auténticas máquinas tragaperras digitales. Están optimizados para captar la atención juvenil mediante ciclos cortos e inagotables de recompensas dopaminérgicas. El resultado es una espiral difícil de romper: retos virales peligrosos, memes creados con IA y vídeos personalizados según las emociones del usuario —todo perfectamente calculado para que el adolescente no suelte el móvil ni para cenar.

Un informe reciente apunta que ver apenas 260 vídeos puede ser suficiente para engancharse a TikTok, donde cada vídeo dura unos pocos segundos y el siguiente está siempre listo sin esfuerzo alguno. Las propias compañías reconocen internamente que sus herramientas para limitar el tiempo de uso apenas han reducido el consumo diario: solo 1,5 minutos menos sobre una media diaria superior a las 100 minutos.

Por si fuera poco, la IA también filtra contenido considerado inapropiado… aunque con lagunas notables. Hay casos documentados donde vídeos sobre autolesiones han permanecido accesibles hasta alcanzar decenas de miles de visualizaciones antes de ser retirados. La moderación automatizada tiene límites claros; los revisores humanos llegan tarde o nunca en algunos temas delicados.

Padres exhaustos, menores atrapados

El panorama preocupa especialmente a padres y educadores. Muchos reconocen sentirse impotentes ante herramientas diseñadas para vencer cualquier resistencia infantil al aburrimiento o al tedio analógico. No es casualidad que crezcan las consultas sobre dependencia digital o cambios bruscos en la conducta adolescente vinculados al uso excesivo de estas apps. Algunos países han decidido intervenir directamente: en España se tramita una reforma legal para exigir autorización administrativa antes de que un menor pueda generar ingresos como influencer o creador digital.

Las plataformas argumentan que ofrecen controles parentales y versiones infantiles (como YouTube Kids), pero lo cierto es que la efectividad real es limitada si el diseño central sigue premiando el enganche continuo. Los expertos subrayan que el verdadero desafío es técnico y ético: diseñar algoritmos menos adictivos sin sacrificar la personalización ni convertir internet en un páramo aburrido.

Avances en IA… ¿solución o parte del problema?

La inteligencia artificial tiene un papel central en todo este embrollo. Por un lado, permite filtrar contenidos peligrosos, detectar discursos de odio o bloquear cuentas fraudulentas con mayor eficiencia que nunca. Por otro lado, es precisamente esa misma IA la que alimenta sistemas hiperpersonalizados capaces de anticipar los gustos del usuario casi antes que él mismo lo sepa.

Algunas propuestas regulatorias sugieren obligar a las plataformas a auditar externamente sus algoritmos y publicar informes periódicos sobre su impacto real en menores. Otras voces reclaman abrir esas “cajas negras” algorítmicas al escrutinio público para evitar abusos y mejorar la transparencia tecnológica.

Puntos clave del debate actual

  • La UE exige pruebas concretas del cumplimiento normativo antes del final del año.
  • Las empresas podrían verse obligadas a rediseñar radicalmente sus sistemas automáticos.
  • Las sanciones económicas serían solo el primer paso; podrían llegar restricciones funcionales mucho más severas.
  • Los avances en IA generativa plantean nuevos desafíos tanto para la moderación como para la personalización responsable.

Preguntas frecuentes (FAQ)

¿Por qué actúa ahora la Comisión Europea?
Las investigaciones han evidenciado falta real de protección efectiva frente a algoritmos adictivos y contenidos perjudiciales para menores en grandes plataformas tecnológicas.

¿Qué exige exactamente la DSA?
Medidas proactivas para prevenir riesgos sistémicos (adicción, exposición a contenido nocivo) y mayor transparencia sobre cómo funcionan los algoritmos recomendadores.

¿Qué sanciones podrían enfrentar TikTok o YouTube?
Hasta un 6% del volumen global anual si incumplen plazos o medidas correctivas exigidas por Bruselas.

¿Las restricciones afectan solo a Europa?
No; otras regiones como Australia han aprobado normas similares e incluso más estrictas respecto al acceso infantil.

¿La inteligencia artificial es parte del problema o una posible solución?
Ambas cosas: potencia tanto la personalización responsable como el diseño adictivo; todo depende del marco legal y ético con que se implemente.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Lo más leído