La inteligencia artificial deja de parecer gratis: quién y cómo pagará la factura

IMAGE: A tiered structure of how AI is monetized. At the bottom, a user works at a computer, connected to several levels stacked above. The levels represent different payment models: a green "AD-SUPPORTED LAYER," a brown "SUBSCRIPTION & PREMIUM" tier with an arcade-style "PRO MODE" cabinet, and a blue "CORPORATE & ENTERPRISE" section with data servers. Pipes and cables connect these tiers to a large, complex "AI INFERENCING ENGINE" on the right, which looks like a factory with smoking chimneys and a power gauge. Various small robots operate the systems and move money bags

Durante los últimos dos años, muchos usuarios han vivido con la inteligencia artificial una ilusión conocida en Silicon Valley: la sensación de que una tecnología carísima podía ofrecerse casi gratis, o gratis del todo, mientras las compañías se dedicaban a capturar cuota de mercado, hábitos de uso y dependencia.

No es una anomalía nueva. Ya ocurrió con Uber, DoorDash y todas aquellas «subvenciones al estilo de vida millennial» que en su momento describió Derek Thompson en The Atlantic: servicios que parecían mágicamente baratos porque, en realidad, alguien podía permitirse perder dinero para comprar crecimiento. Lo que se plantea ahora con la inteligencia artificial es exactamente eso: no que el coste tecnológico deje de bajar, sino que la etapa en la que el usuario podía pagar menos de lo que realmente costaba su uso puede tener fecha de caducidad.

La clave está en distinguir dos cosas que mucha gente confunde deliberadamente: que el coste unitario de inferencia baje no significa que el acceso vaya a ser más barato para el usuario final. De hecho, puede ocurrir justamente lo contrario. Los modelos serán más eficientes, los chips mejores y algunas tareas costarán menos por token, pero el gasto total seguirá disparado porque la demanda crece aún más deprisa, porque los usuarios quieren contextos más largos, multimodalidad, agentes, búsquedas, memoria y ejecución de tareas, y porque las empresas necesitan amortizar inversiones gigantescas. Meta, por ejemplo, cerró 2025 con 72,220 millones de dólares en capex y anticipó para 2026 entre 115,000 y 135,000 millones. Anthropic anunció en febrero una ronda de 30,000 millones que la valora en 380,000 millones post-money, y Microsoft, NVIDIA y Anthropic sellaron una alianza en la que Anthropic se compromete a comprar 30,000 millones de capacidad de Azure y hasta un gigavatio adicional de computación. Eso ya no se parece en nada a un experimento: se parece a una industria intensiva en capital que, tarde o temprano, exigirá rentabilidad.

La pregunta ahora no es si la inteligencia artificial seguirá siendo gratis, sino quién la subvencionará, y a cambio de qué. En algunos casos, la respuesta será muy simple: el usuario pagará una suscripción más alta, o varias. En otros, la pagará su empresa dentro de una suite corporativa, de la misma manera que hoy paga correo, ofimática, CRM o ciberseguridad. Y en otros, la pagará sin verla como pago directo, porque vendrá empaquetada en el sistema operativo, en el navegador, en el móvil, en la nube o en la tarifa empresarial de turno. La inteligencia artificial tenderá a convertirse en infraestructura, y la infraestructura rara vez se cobra de forma transparente: se empaqueta, se cruza, se mete en lotes de todo tipo y se usa para defender negocios adyacentes con márgenes mayores.

También veremos, y de hecho ya estamos viendo, un regreso con fuerza del viejo modelo publicitario. OpenAI ya ha oficializado su enfoque: está probando anuncios en Estados Unidos para las cuentas Free y Go, manteniendo sin anuncios las modalidades Plus, Pro, Business, Enterprise y Edu, y afirma que «los anuncios serán claramente etiquetados y no influirán en las respuestas», que no sé si os suena de algo. Es una decisión reveladora, porque significa que incluso la empresa que más hizo por popularizar el chatbot conversacional asume que no todo el mundo puede o quiere pagar una cuota mensual, pero que alguien tiene que financiar el acceso masivo. En otras palabras: la «inteligencia artificial para todos» empieza a parecerse sospechosamente a la vieja economía de internet, donde el usuario gratuito no era el cliente, sino el inventario.

Google está recorriendo una ruta parecida, pero con una ventaja estructural enorme: ya tiene el negocio publicitario, el inventario comercial y el comportamiento de búsqueda. Su propia documentación para anunciantes deja claro que los anuncios pueden mostrarse por encima, por debajo o dentro de los AI Overviews, y que se sirven teniendo en cuenta tanto la consulta del usuario como el contenido generado por el resumen producido por la inteligencia artificial. Es decir, Google no necesita inventar un modelo de negocio para la inteligencia artificial conversacional: le basta con extender a ella el que lleva décadas refinando. Meta, por su parte, tampoco depende de cobrar directamente al usuario para justificar su apuesta: sus documentos de resultados y su comunicación corporativa insisten en que la inteligencia artificial ya está mejorando clics, conversiones, calidad publicitaria y negocio de mensajería con empresas. Para una compañía así, la inteligencia artificial no tiene por qué pagarse con una suscripción: puede pagarse con un mayor acoso publicitario, con más comercio de productos mayoritariamente fraudulentos y con más transacciones y estafas a incautos dentro de sus plataformas.

Eso nos lleva a una bifurcación muy interesante. La primera vía será una inteligencia artificial premium, con mejores modelos, menos límites, más velocidad, más contexto, más herramientas y cero publicidad, reservada a quienes puedan y quieran pagar. La segunda será una inteligencia artificial «gratuita» o de bajo coste, pero financiada por anuncios, promociones, afiliación, e-commerce o integración vertical. La tercera, cada vez más relevante, será la ejecución local: modelos más pequeños, afinados y razonablemente buenos funcionando en ordenadores personales, estaciones de trabajo o infraestructura propia. IEEE Spectrum señalaba ya a finales de 2025 que la ejecución local de LLMs iba a impulsar el mayor cambio en los portátiles en décadas, y herramientas como Ollama ya facilitan ejecutar modelos como DeepSeek-R1, Qwen3 o Gemma 3 en hardware local. La alternativa local no será universal ni sustituirá a los frontier models en todo, pero para muchas tareas (resúmenes, redacción, clasificación, asistencia al código, trabajo con documentos sensibles, etc.) será más que suficiente.

Aquí aparece otro actor decisivo: los modelos abiertos, muchos de ellos chinos. DeepSeek no solo ofrece acceso web y API, sino que publicó DeepSeek-R1 como modelo abierto con licencia MIT y dejó claro que sus modelos y código podían destilarse y comercializarse libremente. Eso altera por completo la conversación económica, porque convierte parte de la inteligencia en una commodity portable. Ya no se trata únicamente de elegir entre pagar a OpenAI, Anthropic o Google. También se trata de decidir si a una empresa, universidad, medio o despacho le compensa más desplegar un modelo abierto en su propia infraestructura, aceptando un rendimiento algo inferior en algunas tareas a cambio de soberanía, control de costes, privacidad y ausencia de lock-in.

En cualquier caso, tampoco conviene idealizar el futuro local ni el open source como si fuesen una panacea o una emancipación completa: para muchos usuarios, mantener un buen modelo en casa seguirá siendo demasiado complejo, demasiado caro o sencillamente innecesario. La mayoría no quiere administrar VRAM, cuantizaciones ni latencias: quiere hacer preguntas y obtener respuestas. Por eso el mercado tenderá, probablemente, a estratificarse. Habrá una capa gratuita financiada por publicidad o por subsidio cruzado, una capa profesional por suscripción, una capa corporativa integrada en suites empresariales, y una capa soberana o doméstica basada en modelos abiertos. No desaparecerá el acceso a los chatbots. Lo que desaparecerá es la ingenuidad de creer que ese acceso puede ser masivo, continuo, multimodal y de alta calidad sin que alguien soporte una factura astronómica detrás.

En realidad, el futuro de la inteligencia artificial no será gratis ni caro: será ambiguo. La pagaremos de cuatro maneras, a veces simultáneamente: con dinero, con atención, con datos o con dependencia. Algunos pagarán 20 ó 200 dólares al mes por no ver anuncios y disponer de las mejores capacidades. Otros aceptarán respuestas patrocinadas, límites más estrictos y menor privacidad a cambio de una gratuidad aparente y de convertirse en el producto. Otros ni siquiera sabrán que la están pagando, porque vendrá incluida en Microsoft 365, en Google Workspace, en un dispositivo o en un contrato empresarial. Y un grupo creciente decidirá que, para según qué usos, le sale más a cuenta descargarse un modelo abierto y ejecutarlo por su cuenta. La era de la inteligencia artificial barata no termina porque la tecnología fracase: termina, precisamente, porque funciona, genera dependencia y alguien decide que ya va siendo hora de monetizarla.

Liked Liked