El choque entre el Pentágono y Anthropic es una advertencia para cualquier empresa que compre inteligencia artificial
De vez en cuando, una disputa aparentemente «técnica» revela algo mucho más profundo. El reciente enfrentamiento entre el Departamento de Defensa de los Estados Unidos y Anthropic es uno de esos momentos: no por tratarse de un contrato de doscientos millones de dólares, sino porque hace visible un nuevo tipo de riesgo empresarial, uno que la mayoría de los CEO, CTO y CIO siguen tratando como un simple detalle de compras.
En un artículo reciente, «El día en que el Pentágono decidió que la ética era un estorbo«, me centré en el significado político de que un gobierno intente forzar a una empresa de inteligencia artificial a relajar sus propias salvaguardas. Para los líderes empresariales, la conclusión más importante es mucho más práctica: si tus capacidades de inteligencia artificial dependen de los términos, políticas y mecanismos de control de un único proveedor, tu estrategia pasa a depender de conflictos ajenos.
Según diversas informaciones, el Pentágono quería poder utilizar los modelos de Anthropic «para cualquier propósito legal», mientras que Anthropic insistía en excepciones explícitas, especialmente en torno a la vigilancia masiva y las armas totalmente autónomas. Cuando Anthropic se negó a ceder, el conflicto escaló hasta amenazas de exclusión y designación como «riesgo en la cadena de suministro», con presión pública al más alto nivel político. La Associated Press describe con detalle tanto la demanda de acceso ampliado como sus posibles consecuencias, incluida la disposición del Pentágono a considerar el cumplimiento como condición no negociable para participar en su red interna de inteligencia artificial, GenAI.mil.
Y entonces llegó el segundo acto: OpenAI intervino con su propio acuerdo con el Pentágono, presentándolo como compatible con sólidos principios de seguridad, mientras continuaba el debate sobre lo que realmente impide el lenguaje contractual, especialmente en lo relativo al uso de datos públicos a gran escala.
Puede que tu empresa no venda al Pentágono ni a gobiernos que hacen que la democracia parezca cada vez más una idea anticuada. Pero casi con toda seguridad estás construyendo sobre proveedores cuyos modelos están moldeados por políticas, decisiones políticas, contratos y riesgos reputacionales. Y si estás desplegando esos modelos «tal cual», o construyendo sistemas agénticos estrechamente acoplados a las herramientas y supuestos de un único proveedor, estás haciendo una apuesta estratégica cuyo coste probablemente no has internalizado.
Eso es lo que este conflicto debería enseñar a cualquier empresa.
Tu proveedor de inteligencia artificial no es solo un suministrador. Es un régimen de gobernanza
Durante los últimos dos años, muchas empresas han tratado la adquisición de LLM como si fuera la adquisición de cloud: elegir proveedor, negociar precio, firmar condiciones, integrar APIs y lanzar pilotos.
Pero los proveedores de LLM no venden infraestructura neutral. Venden modelos con restricciones incorporadas, políticas que pueden cambiar y mecanismos de control que pueden endurecerse de la noche a la mañana. Incluso cuando los modelos se consumen vía API, la realidad práctica es que tu «capacidad» está en parte controlada desde fuera: mediante políticas de uso, comportamientos de rechazo, límites de uso, registros, retención de datos, capas de seguridad y redacción contractual.
Por eso esta disputa es relevante. La postura de Anthropic no era simplemente «ética». Era gobernanza de su producto. La postura del Pentágono no era simplemente «presión del cliente». Era una exigencia de control sobre esa gobernanza.
Los directivos deberían reconocer inmediatamente el paralelismo: el comportamiento de la inteligencia artificial en tu empresa está determinado en parte por la definición de uso aceptable de un proveedor, y esa definición puede chocar con tus necesidades de negocio, tu entorno regulatorio, tu geografía o tu apetito de riesgo.
En cierto sentido, estás externalizando parte de tu arquitectura de decisión. Y cuando la gobernanza se convierte en el campo de batalla, deja de ser un problema técnico: pasa a ser estratégico.
La inteligencia artificial «de fábrica» es inteligencia alquilada. La estrategia exige capacidad propia
He escrito anteriormente que la mayoría de los despliegues actuales de inteligencia artificial son, en esencia, inteligencia alquilada: potente, conveniente, pero en última instancia genérica. Ese era el núcleo de mi argumento en «This is the next big thing in corporate AI« y en «Why world models will become a platform capability, not a corporate superpower«. Cuando todos pueden alquilar capacidades similares de OpenAI, Anthropic, Google, xAI u otros, la diferenciación se desplaza a lo que construyes por encima del modelo: tus flujos de trabajo, tus bucles de retroalimentación, tu integración con la realidad operativa.
El conflicto del Pentágono pone de relieve una verdad incómoda: cuando dependes del comportamiento «tal cual» de la inteligencia artificial, tu continuidad operativa depende de las líneas rojas de otro, y esas líneas pueden verse cuestionadas por clientes, gobiernos, tribunales o dinámicas internas.
Si eres CIO o CTO, este es el momento de dejar de considerar la elección de LLM como «la estrategia de inteligencia artificial» y empezar a verla como un componente sustituible dentro de un sistema más amplio.
Porque la verdadera pregunta estratégica no es «¿qué modelo elegimos?», sino: «¿tenemos la capacidad técnica y organizativa para cambiar de modelo rápidamente, sin reescribir nuestra lógica de negocio, reentrenar a toda la organización o reconstruir nuestros sistemas de agentes?»
Los sistemas agénticos multiplican el lock-in… y amplifican el riesgo
¿De verdad pensabas que por decir «estamos desarrollando un sistema agéntico» eras, de algún modo, «más sofisticado»? Casos de uso simples como resumir, redactar o mejorar búsquedas son relativamente portables. Los sistemas agénticos no lo son.
En el momento en que construyes agentes que llaman a herramientas, activan flujos de trabajo, acceden a sistemas internos y encadenan decisiones, empiezas a codificar lógica de negocio en lugares sorprendentemente difíciles de migrar: prompts, esquemas de llamadas a funciones, patrones de selección de herramientas, comportamientos de seguridad específicos del modelo, frameworks de orquestación propios del proveedor e incluso «peculiaridades» de cómo un modelo concreto maneja la ambigüedad.
Por eso el conflicto entre el Pentágono y Anthropic debería percibirse como un escenario de riesgo corporativo, no como un drama en Washington: un cambio repentino de política, una disputa contractual o un shock reputacional pueden obligarte a cambiar de proveedor rápidamente, y si tus agentes están fuertemente acoplados a un stack concreto, tu negocio no «cambia». Se detiene.
En un artículo anterior, «Why your company (and every company) needs an ‘AI-first’ approach«, defendí algo relacionado, desde otro ángulo. «AI-first» no debería significar desplegar más inteligencia artificial, sino construir sistemas en los que la inteligencia artificial esté estructuralmente integrada, pero también gobernada, testable, observable y resiliente al cambio.
Resiliencia es la palabra que falta en la mayoría de los planes de inteligencia artificial empresarial.
La lección no es «ética primero». Es «arquitectura primero«
No necesitas adoptar una postura moral pública como la de Anthropic (o quizá sí, pero ese no es el tema aquí). Lo que sí necesitas es diseñar asumiendo que tu relación con el proveedor será volátil… porque lo será.
Esa volatilidad puede venir de múltiples frentes:
- Un proveedor cambia su postura de seguridad.
- Un regulador introduce nuevas restricciones.
- Un cliente exige excepciones contractuales.
- Un gobierno presiona a los proveedores.
- Un proveedor modifica precios, retención o disponibilidad.
- Un modelo se retira, restringe o reclasifica.
- Un evento geopolítico redefine lo que significa «uso aceptable».
Las organizaciones que navegarán mejor este entorno serán aquellas que traten los LLM como motores intercambiables y construyan capacidades independientes del modelo.
Eso implica invertir en una capa que te pertenezca: evaluación, enrutamiento, políticas, observabilidad e integración con tu realidad operativa.
Si necesitas un marco mental, piensa en lo que está haciendo NIST con su AI Risk Management Framework: una forma estructurada de mapear, medir y gestionar el riesgo de inteligencia artificial en distintos contextos y casos de uso, en lugar de asumir que la tecnología es segura porque lo diga el proveedor.
El propio Pentágono (irónicamente, dada esta disputa) dispone de principios formales de implementación de inteligencia artificial responsable, que enfatizan la gobernanza, las pruebas y la disciplina a lo largo del ciclo de vida.
Las empresas deberían leer esos documentos no como «ética gubernamental», sino como un recordatorio de que la capa de control es tan importante como el modelo.
Construye capacidades de inteligencia artificial que reflejen tu negocio, no a tu proveedor
El objetivo final no es la «independencia de modelo» como principio abstracto. Es la dependencia de la estrategia: sistemas de inteligencia artificial profundamente moldeados por tu cadena de suministro, tu modelo operativo, tu perfil de riesgo, tus obligaciones con clientes y tu contexto competitivo, por complejos que sean.
Esa es la parte que la mayoría de las empresas sigue evitando, porque es más difícil que comprar un modelo.Requiere construir competencia institucional: la capacidad de evaluar modelos, sustituirlos, ajustar su comportamiento mediante capas propias de gobernanza, instrumentar resultados, gestionar el acceso a herramientas y tratar a los agentes como sistemas de producción, no como demostraciones.
En «What are the 2 categories of AI use and why do they matter?» traté de describir la diferencia entre las organizaciones que usan inteligencia artificial y las que construyen con inteligencia artificial. El conflicto entre el Pentágono y Anthropic ilustra perfectamente por qué esa diferencia se está volviendo existencial. Si solo «usas», heredas las limitaciones de otros. Si «construyes», puedes adaptarte.
Las empresas que sigan tratando la inteligencia artificial como un complemento para reducir costes casi con toda seguridad infrainvertirán en la arquitectura que permite cambiar. Las narrativas de eficiencia resultan tranquilizadoras, pero a menudo te encierran en la versión más superficial de la tecnología.
El Pentágono no quería que la ética fuera un obstáculo. Anthropic no quería ceder el control. OpenAI negoció otro conjunto de condiciones. Ese triángulo no es una anécdota aislada. Es un anticipo de hasta qué punto el suministro de inteligencia artificial será disputado, politizado y estratégicamente crítico.
El trabajo de tu empresa no es elegir al proveedor «correcto».
Tu trabajo es asegurarte de que, cuando llegue el conflicto inevitable, tu negocio no quede atrapado dentro de la discusión de otro.
(This article was previously published on Fast Company)
