Estafas y adicción: más razones por las qué Europa debería prohibir el modelo publicitario de las redes sociales

IMAGE: A smartphone designed as a slot machine overflowing with gold coins, surrounded by dark hooded figures and scam symbols, all set against a backdrop of the European Union flag, symbolizing the link between social media, addiction, fraud, and profit

Un informe de Juniper Research sobre anuncios fraudulentos en redes sociales estima que, solo en 2025, se habrían servido en Europa 993,000 millones de impresiones de anuncios de estafas, y que aproximadamente un 10% de los ingresos publicitarios de las redes sociales vendrían de esas estafas, unos 4,400 millones de euros. Incluso si uno discute el margen de error, la escala es tan grande que el debate deja de ser «hay un problema» y pasa a ser «el problema es el modelo de negocio».

Porque el propio informe reconoce el núcleo del conflicto: las plataformas cobran por la publicidad que circula por sus sistemas con independencia de que sea legítima o fraudulenta. Si una décima parte de tus ingresos proviene de anuncios delictivos, no estás ante un «fallo en su moderación»: estás ante un incentivo económico para tolerarlos hasta donde te lo permitan el escándalo, los reguladores y el coste reputacional. Y esa tolerancia no es una patología del sistema: es el sistema funcionando.

Más allá del informe, lo más interesante es ver cómo encaja con lo que vamos conociendo por otras vías. ABC News, resumiendo documentos internos revisados por Reuters, publicó que Meta habría proyectado obtener alrededor del 10% de sus ingresos anuales de publicidad vinculada a estafas, falsificaciones y bienes prohibidos, unos 16,000 millones de dólares, y que un documento interno hablaba de una media de 15,000 millones de anuncios al día eufemísticamente denominados «de alto riesgo» (¿riesgo para quién?) en sus plataformas. Cuando llegas a ese nivel de magnitud, el «se nos cuelan anuncios» o el «es tanto volumen que no se puede supervisar» deja de ser una excusa plausible: la plataforma ya no es un mero canal, es una parte esencial de la economía del fraude.

Pero centrarlo todo en las estafas se queda corto. Las estafas son el síntoma más evidente porque tienen víctimas y pérdidas fácilmente imaginables. Lo verdaderamente corrosivo es que el mismo circuito que hace rentable el fraude hace rentable cualquier otra forma de abuso que compre segmentación, opacidad y alcance. Por eso la cuestión no debería ser «cómo obligamos a las plataformas a controlar mejor», sino si el modelo de publicidad hiper-segmentada, sustentado en vigilancia masiva, es compatible con los principios europeos de protección de derechos. Y no, no lo es.

Aquí entra la pieza que mucha gente prefiere tratar como un debate de «salud digital» separado del económico: la adicción. El modelo publicitario hiper-segmentado no sólo necesita datos: necesita tiempo, repetición y hábito. Cuanto más tiempo pasas dentro, más señales conductuales generas, mejor se afina tu perfil y más dinero se extrae por impresión servida. La consecuencia es inevitable: las plataformas compiten por capturar y retener atención, no por ofrecer una herramienta de comunicación «mejor» en ningún sentido cívico. El scroll infinito, la reproducción automática, las notificaciones que interrumpen, la recompensa social de los likes y la personalización agresiva no son casualidades de diseño: son técnicas para convertir el uso en compulsión, en adicción.

No es una metáfora decir que funcionan como auténticos camellos de la atención. Los reguladores europeos, de hecho, están empezando a describirlo en esos términos, aunque con lenguaje burocrático. En febrero de 2026, y en el contexto del Digital Services Act, la Comisión Europea señaló en una resolución preliminar que el diseño adictivo de TikTok, incluyendo infinite scroll, autoplay, notificaciones y recomendación altamente personalizada, podría dañar el bienestar físico y mental y fomentar comportamiento compulsivo, reduciendo el autocontrol. Precisamente lo que ahora mismo está siendo enjuiciado en los tribunales norteamericanos. Que esto aparezca ya en un expediente DSA no es un detalle: es el reconocimiento de que el diseño adictivo es un vector de daño sistémico, no un «mal uso».

La literatura académica lleva tiempo apuntando en la misma dirección: los «persuasive designs» prolongan el tiempo de pantalla, refuerzan hábitos de comprobación del teléfono y pueden contribuir a conductas problemáticas y de tipo adictivo. Si lo conectamos con las estafas, el cuadro se completa: para que el fraude escale, necesitas usuarios hiper-expuestos, en piloto automático, con baja fricción de salida y con confianza inducida por la familiaridad del entorno. El negocio exige enganchar, y una vez enganchas, monetizas. Estafas incluidas.

El salto siguiente, y el que suele incomodar más, es político. Cuando el producto real es la capacidad de segmentar mensajes invisibles para terceros, la manipulación electoral deja de ser un riesgo teórico y pasa a ser una posibilidad funcional. El regulador británico, en el caso Cambridge Analytica, documentó registros e investigación asociados al uso de datos y prácticas que alimentaron esa discusión pública sobre influencia y micro-targeting. Y la investigación académica reciente sigue advirtiendo sobre los efectos persuasivos del micro-targeting político, además de su escalabilidad con nuevas herramientas. No hace falta asumir conspiraciones constantes: basta con entender que, si el sistema premia vender segmentación y opacidad, siempre habrá actores dispuestos a comprarla.

No es extraño que el propio supervisor europeo de protección de datos (EDPS) haya recomendado, en el contexto de la regulación de publicidad política, reglas más estrictas e incluso un veto total al micro-targeting político, precisamente por su capacidad de dirigir mensajes a individuos o pequeños grupos en función de preferencias inferidas a partir de su comportamiento. Y tampoco es casual que sigamos viendo indicios de segmentación sobre criterios sensibles: un reportaje de Le Monde basado en un informe de AI Forensics describía cómo en X se han utilizado criterios de segmentación vinculados a opiniones políticas, religión u orientación sexual, algo en principio prohibido salvo excepciones muy específicas bajo la GDPR. Sólo eso debería ser suficiente para justificar la prohibición de esta red social.

Llegados aquí, la conclusión es incómoda pero difícil de esquivar. La respuesta habitual, «que cambien su modelo de negocio», es una pura fantasía. No es un ajuste incremental: significaría renunciar al núcleo de su facturación y a la ingeniería que la hace posible. Además, aunque pudieran, no son creíbles. Llevan años prometiendo autorregulación, transparencia y seguridad, mientras el incentivo económico empuja en dirección contraria. El resultado es predecible: maquillaje, cumplimiento mínimo, y cuando toca elegir entre ingresos y daño, se elige ingresos.

Por eso, si Europa se toma en serio la protección de sus ciudadanos, debería dejar de tratar esto como una discusión de «mejores controles» y empezar a tratarlo como lo que es: la incompatibilidad entre un modelo de negocio basado en vigilancia, adicción y segmentación opaca, y su marco de derechos fundamentales. La regulación puede mitigar bordes, pero no cambia la esencia. Si el precio de operar es enganchar a la población para perfilarla mejor, servirle más anuncios y permitir que estafas y campañas opacas compren el mismo motor, entonces ese motor no debería operar en suelo europeo.

La alternativa no es el silencio digital, ni las acusaciones de pretender «prohibir la conversación». Es prohibir esta forma de monetización y asumir que, si existe demanda real de comunicación y comunidades, el mercado, liberado del dominio de quienes controlan la adicción y la vigilancia, generará otras soluciones alternativas. Modelos de suscripción, cooperativas, arquitecturas descentralizadas o servicios públicos digitales: lo que sea. Pero algo que no necesite convertir a los ciudadanos en adictos para garantizar su «lealtad», ni tolerar un billón de anuncios fraudulentos para cuadrar la cuenta de resultados. Plantear la prohibición de determinadas redes sociales no es «ser un liberticida», ni pretender «acabar con la conversación», es velar por la ley, por la salud y por lo derechos de todos. Es así de sencillo.

Liked Liked