De confidente a vendedor: cómo la publicidad amenaza la confianza en ChatGPT
Hay un momento en la historia de cada tecnología en el deja de ser un refugio inmaculado para convertirse en un espacio comercial. La radio lo hizo cuando surgieron los anuncios que financiaron programas, internet lo hizo cuando las páginas se llenaron de banners, las redes sociales lo hicieron cuando los muros de amigos se transformaron en malditos escaparates.
Hoy, estamos a punto de ver lo mismo con la primera generación de la inteligencia artificial conversacional, un producto todavía muy lejos de la madurez que cuando recordemos dentro de unos pocos años, nos parecerá un verdadero chiste: ChatGPT, el lugar donde millones han sido sinceros al contar detalles de su vida, desde dudas médicas más o menos vagas hasta confesiones íntimas, está a punto de empezar a mostrar anuncios en nuestras conversaciones.
Lo que OpenAI presenta como un «enfoque cuidadoso» para introducir publicidad, prometiendo que «las respuestas no estarán influenciadas por anuncios», que los anuncios estarán «claramente etiquetados» y que no se venderán tus datos a anunciantes, suena bien en un comunicado corporativo. Pero la realidad es mucho más inquietante: un agente que ha aprendido de miles de millones de interacciones ahora te va a mostrar sugerencias publicitarias fundamentadas en el contexto profundo de tus preguntas, en la misma conversación donde antes solo estaba la ayuda. No es un banner a un lado, es una recomendación contextualizada justo ahí, donde antes solo había información y confianza. Pero sobre todo, con esas mismas supuestas buenas intenciones empezaron muchos otros, y después ya sabemos lo que pasó.
La cuestión no es solamente si OpenAI dice que no influirá en las respuestas. La cuestión es si te lo crees. Cuando una máquina empieza a introducir en tu flujo de información productos relevantes a tus consultas, la línea entre la recomendación útil y el empuje comercial se vuelve borrosa. Hasta la investigación académica más básica sobre anuncios en chatbots señala que, aunque los usuarios pueden no detectar la publicidad inmediatamente, una vez que son conscientes de su presencia perciben el sistema como menos confiable y más manipulador: la publicidad integrada rompe la ilusión de un espacio neutral, aun cuando el texto de la respuesta no esté realmente «comprado».
La situación se agrava en un contexto donde el monocultivo de un puñado de grandes plataformas domina no solo la infraestructura de búsqueda e información, sino ahora también la intimidad digital. ¿Cuánta gente llega a ChatGPT buscando alivio, consejo o soluciones prácticas sin pensar que «puede haber un incentivo comercial detrás»? Eso, que se convirtió en relativamente poco tiempo en una tranquilidad tácita, se diluye de golpe cuando en la misma conversación aparece una sugerencia patrocinada justo después de una pregunta personal.
Algunos incluso comparan esta estrategia con «el objetivo final de la publicidad masiva en televisión»: llegar a nuestras casas, a nuestro sofá mental, con contenidos diseñados para influenciar. Antes la televisión tenía unos pocos canales: ahora, la inteligencia artificial tiene millones de conversaciones privadas en las que puede colar un anuncio con la precisión que la televisión nunca pudo soñar tener.
Ya hay señales claras de malestar. Algunos usuarios han reportado lo que perciben como anuncios incluso en espacios que se anunciaban como libres de publicidad, generando debate sobre la frontera entre una recomendación contextual y un verdadero anuncio intrusivo. Esto no es un problema menor: hablamos de centenares de millones de personas que usan estos sistemas semanalmente, no como experimentos técnicos, sino como herramientas cotidianas de decisión.
Una consecuencia lógica de esa erosión de confianza es la huida hacia soluciones alternativas, más aún cuando Demis Hassabis anuncia en Davos que no hay planes previstos para poner publicidad en Gemini. Pero más que simplemente «cambiarse a Google», ya se habla de power users que migran a modelos locales, a soluciones de código abierto, a opciones que aseguran la confidencialidad o a chatbots alojados en nubes privadas, precisamente para escapar de la lógica comercial que impregna las plataformas centralizadas. Si quien me ayuda a planificar un viaje también me vende hoteles y seguros, ¿cómo sé que la recomendación no está sesgada por comisiones? Esa inquietud, antes periférica, ahora salta directamente al mismísimo centro de la relación entre usuario y asistente.
Aquí entra además otro factor: las diferencias culturales y regulatorias entre Estados Unidos y Europa. En Europa, con normativas como la GDPR y con una mayor sensibilidad hacia la privacidad y la protección del usuario, la integración de publicidad en servicios que se usan para actividades sensibles podría enfrentarse a más resistencia y escrutinio. En los Estados Unidos, donde la cultura digital ha sido históricamente más tolerante con una publicidad omnipresente, la aceptación podría ser mayor, aunque no menos crítica desde el punto de vista del usuario informado. La legislación y la sensibilidad pública podrían definir dos experiencias claramente distintas de uso de inteligencia artificial conversacional.
Al final, la pregunta no es si los anuncios dañarán la experiencia de uso (eso parece bastante probable) sino cómo transformarán nuestra percepción de lo que es un asistente digital de confianza. Cuando cada recomendación útil puede concebirse como una oportunidad comercial encubierta, el espacio que antes era de ayuda desinteresada se convierte en un mercado persa. Y la confianza, una vez que se fractura, es extraordinariamente difícil de recuperar.
Las plataformas que hoy prometen que «los anuncios no influirán en las respuestas» deberían saber que la percepción de manipulación, más que la manipulación misma, es el verdadero riesgo existencial de esta industria. Una vez que la inteligencia artificial deja de ser una herramienta colaborativa para convertirse en un canal comercial más, ¿qué nos queda? Y sobre todo: ¿cuánta gente decidirá que su próximo asistente sea uno que ellos controlan, en lugar de uno que se dedica a venderles cosas?
En un mundo donde ya desconfiamos de los algoritmos de recomendación de las redes sociales, introducir publicidad en los sistemas de inteligencia artificial que manejan nuestros pensamientos y decisiones íntimas no es solo un cambio de modelo de negocio: es una ruptura del contrato de confianza con el usuario. Y ese contrato, una vez roto, no se restaura con palabras bienintencionadas ni promesas etiquetadas de «anuncios claramente identificados». Eso es lo que está en juego.
This article was previously published on IE Insights, «From confidant to sales rep: how advertising threatens trust in ChatGPT»
