La prohibición como coartada tecnológica

IMAGE: A square split-panel illustration comparing approaches to regulating digital platforms. The left panel shows a person holding a large padlock, representing restriction. The right panel depicts a hand pulling the lever of a slot machine with coins and digital code flowing out, representing algorithmic triggers

Mi columna de esta semana en Invertia se titula «Prohibir a los menores o prohibir el negocio que vive de engancharlos» (pdf), y trata sobre esa tentación política, cada vez más extendida, de abordar la relación entre adolescentes y redes sociales como si el problema pudiera resolverse simplemente levantando una barrera de edad, fijando una cifra redonda y anunciando una prohibición con tono solemne. Es una idea atractiva porque suena contundente, porque permite a los gobiernos presentarse como protectores de la infancia y porque convierte un problema complejo en una consigna fácilmente comunicable. Pero precisamente por eso conviene mirarla con cautela: cuando una cuestión profundamente estructural se traduce demasiado deprisa en un titular simple, lo normal es que estemos ante una solución aparente, no ante una solución real.

La Comisión Europea lleva tiempo trabajando esta cuestión con un enfoque bastante más sofisticado que el del simple veto generacional. En julio de 2025 publicó sus directrices para la protección de menores bajo el Digital Services Act, en las que habla no solo de contenidos nocivos, sino también de comportamientos problemáticos y adictivos, ciberacoso y prácticas comerciales perjudiciales. A la vez, presentó un prototipo de aplicación de verificación de edad, pensado como solución transitoria hasta la llegada de la identidad digital europea. España, además, no ha sido una mera espectadora: participa en ese despliegue y lleva tiempo intentando combinar protección de menores con garantías de privacidad, un equilibrio mucho más difícil y mucho más interesante que el habitual recurso a la prohibición retórica.

Ese es, en realidad, el punto central: el problema existe, pero no es exactamente el que muchos responsables políticos parecen querer describir. No estamos simplemente ante «menores usando redes», como si el daño proviniese de la mera exposición a una tecnología neutral. Estamos ante entornos diseñados deliberadamente para capturar atención, prolongar permanencia, fomentar comparación social, explotar impulsos y maximizar recurrencia. El foco, por tanto, no debería ponerse solo en la edad del usuario, sino en la arquitectura del servicio. Si el negocio depende de enganchar, de generar hábito, de convertir vulnerabilidad en tiempo de pantalla monetizable, entonces el verdadero objeto regulatorio no son únicamente los menores, sino el modelo económico que los convierte en materia prima conductual.

Además, la evidencia disponible dista mucho de justificar los atajos intelectuales con los que suele legislarse este asunto. Las autoridades sanitarias estadounidenses advirtieron ya de que no puede afirmarse que las redes sociales sean suficientemente seguras para niños y adolescentes, y pidió precisamente más transparencia, más responsabilidad y más datos. La OCDE, por su parte, plantea explícitamente una aproximación de «toda la sociedad», en la que administraciones, familias, escuelas, profesionales y plataformas compartan responsabilidad. Es decir, ni complacencia tecnológica ni histeria moral. Quien lea esos documentos con un mínimo de honestidad verá que ninguno avala la idea de que prohibir por edad, por sí solo, vaya a resolver el problema.

La investigación académica más seria tampoco encaja bien con el simplismo prohibicionista. Un estudio publicado en Nature Human Behaviour subraya que la relación entre redes sociales y salud mental adolescente no puede reducirse a una causalidad lineal y uniforme, y muestra que los efectos dependen mucho del perfil previo del menor, de su situación emocional y del tipo de uso. Y un estudio reciente en JAMA introduce un matiz decisivo: el problema más claramente asociado a ideación suicida, conductas suicidas y peores resultados de salud mental no era simplemente el tiempo total de pantalla, sino las trayectorias de uso adictivo. Dicho de otro modo: no basta con contar horas: hay que entender dinámicas de dependencia, compulsión, deterioro del sueño, afectación del rendimiento y pérdida de control. Eso obliga a pensar la regulación desde el diseño de los sistemas, no solo desde la puerta de entrada.

Por eso me parece tan problemática la facilidad con la que el debate público se desplaza hacia la verificación de edad y se olvida del resto. Verificar edad puede tener sentido en algunos contextos, sobre todo cuando se trata de acceso a contenidos manifiestamente inadecuados. La propia AEPD ha desarrollado principios razonables para hacerlo minimizando la identificación y protegiendo datos personales. Pero convertir esa herramienta en el centro absoluto de la política pública es otra cosa. Porque entonces dejamos intacto lo esencial: los sistemas de recomendación, el diseño persuasivo, la opacidad algorítmica, las notificaciones invasivas, el scroll infinito y la ingeniería conductual que define hoy a buena parte de las plataformas. Nos quedamos, como tantas veces, regulando la superficie y dejando intacto el subsuelo.

En España, además, este debate tiene una dimensión política especialmente significativa. Aquí existe una gran facilidad para convertir la protección de los menores en terreno de consenso simbólico, precisamente porque casi nadie se atreve a cuestionar públicamente una medida presentada como escudo generacional. Pero una democracia madura debería distinguir entre protección efectiva y pánico moral administrativamente elegante. La primera exige incomodar a las plataformas, auditar sus prácticas, imponer obligaciones técnicas, exigir interoperabilidad regulatoria y asumir conflictos jurídicos y económicos. El segundo consiste en anunciar límites de edad, multiplicar declaraciones solemnes y confiar en que la tecnología de verificación haga el resto. Una estrategia transforma el entorno, la otra simplemente desplaza la conversación.

En el fondo, la pregunta no es si hay que proteger a los menores. Eso, afortunadamente, no admite discusión. La pregunta es de qué queremos protegerlos exactamente. Si la respuesta es «de internet», estamos perdidos antes de empezar, porque internet no va a desaparecer de sus vidas. Si la respuesta es «de modelos de negocio que convierten la vulnerabilidad en beneficio y que se están haciendo cada vez peores«, entonces la conversación cambia por completo. Ya no se trata de vigilar al menor, sino de limitar al depredador. Ya no se trata solo de impedir el acceso, sino de rediseñar las condiciones del acceso. Y ya no se trata de una política de control de usuarios, sino de una política de control de plataformas. Lo lógico: en un entorno, Europa, que protege la privacidad como derecho fundamental, prohibir que haya empresas que nos espían a todas horas y venden nuestros intereses y patrones de comportamiento al mejor postor. Ahí es donde de verdad empieza el debate serio. Lo otro, por desgracia, se parece demasiado a legislar contra el síntoma… para no tener que tocar la enfermedad.

Liked Liked