OpenAI y el Pentágono: Cuando el dinero supera a la ética

A veces, la historia se escribe en tiempo real. Este 2026 está siendo, como se podría preveer, un año muy marcado por el auge y el uso de la Inteligencia Artificial, primero con el milmillonario contrato entre Apple y Google para el uso de Gemini como motor de la futura Siri rompiendo décadas de proclamas y ejemplo de la privacidad abriendo las puertas a Google en el ecosistema de Apple después de años de ataques, batallas y pullas entre una empresa que apostaba por la privacidad y un ecosistema cerrado frente a otra compañía que apostaba por el marketing, el uso de los datos personales y la falta de seguridad y ahora, hace unas pocas semanas el mundo tecnológico fue testigo de una de  las escenas más reveladoras de lo que puede ocurrir cuando los principios chocan con los contratos millonarios. Dos empresas, la misma disyuntiva. Dos respuestas completamente distintas. Y un precedente que marcará el futuro de la IA.

1. Los orígenes: cuando OpenAI prometía «no hacer el mal»

OpenAI fue fundada en 2015 como una organización sin ánimo de lucro con una misión aparentemente clara: la de desarrollar una IA de forma segura y en beneficio de toda la humanidad. Sam Altman, Elon Musk, Greg Brockman y otros pusieron sobre la mesa el argumento de que la IA era demasiado importante para dejársela solo a las grandes corporaciones.

En aquellos primeros años, OpenAI tenía una política explícita: no trabajar en aplicaciones bélicas ni en sistemas que pudieran causar daños a gran escala sin supervisión humana. Ese era su diferencial ético. Eso era lo que los hacía especiales y lo que hacía que su origen fuese una bonita idea pero que iba a durar poco, 4 años.

Llegó el dinero y donde dije Digo digo Diego. En 2019, Microsoft invirtió 1.000 millones de dólares en OpenAI. En 2023, otros 10.000 millones más. La estructura sin ánimo de lucro fue mutando hacia un modelo híbrido mientras que poco a poco los principios fundacionales de OpenAI se empezaban a ir difuminando pero fue en el 2022 el que esa versión de ChatGPT de 2022 lo cambiaría todo cuando pasó de simple investigación académica a un producto masivo. Y con el producto masivo, llegaron los contratos gubernamentales. Esto hizo cambiar la pregunta de «¿qué es correcto?», sino que surgió la clásica pregunta empresarial: «¿cuánto vale esto?»

2. Y llegó el contrato con el Pentágono

En junio de 2025, OpenAI firmó un primer contrato con el Departamento de Defensa de EE.UU. (o como se llama ahora, Departamento de Guerra) por 200 millones de dólares para aplicaciones de análisis de datos y ciberseguridad. Era un trabajo clasificado como no crítico y la mayoría no le prestó atención porque tampoco tuvo una gran repercusión o no se le dio la importancia que merecía porque apenas se publicó en la asignación de contratos de la página del Departamento de Guerra y muy pocos medios se hicieron eco.

Lo que vino después fue mucho más significativo y crítico, hace unas semanas, a finales de febrero de 2026, mientras Anthropic estaba enfrascada en una negociación tensa con el Pentágono para renovar sus propios términos, OpenAI aprovechó el momento para cerrar un acuerdo que permitía desplegar sus modelos en redes militares clasificadas al coste que fuese.

¿Qué permitiría este nuevo contrato?

  • Despliegue de modelos de IA en operaciones militares clasificadas
  • Uso para «todos los fines legales» según lo determine el Departamento de Defensa
  • Integración en sistemas de inteligencia y análisis estratégico

OpenAI dijo que incluyó «líneas rojas»: como «prohibición de vigilancia doméstica masiva», «uso de armas autónomas sin control humano» y «decisiones automatizadas de alto riesgo». Sin embargo, la pregunta que nadie ha podido responder con claridad desde OpenAI ni desde ningún otro lado es: si esas mismas líneas rojas fueron las que hicieron que el Pentágono rompiese el contrato con Anthropic e incluso el presidente de EEUU, Donald Trump llegó a llamar «Una IA radical de Izquierdas» ¿por qué las aceptaron cuando las propuso OpenAI?

Tras romper el contrato desde el Gobierno de EEUU con Anthropic, Donald Trump publicó lo siguiente:

«Ordeno a TODAS las agencias federales del Gobierno de Estados Unidos que CESE INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!». Acusó a la empresa de ser «una empresa de IA radical de izquierda fuera de control»

Sin embargo, desde OpenAI lo único que pudieron responder a estas preguntas fue:

«El acuerdo fue apresurado y las apariencias no son buenas.» — Sam Altman, CEO de OpenAI, admitiendo públicamente el error de comunicación sin admitir haber roto las lineas rojas que Anthropic negó a quebrar.

3. El problema ético.

OpenAI dice que su contrato tiene salvaguardas y que aunque aparentemente pueda ser afirmativo, promete que como empresa no usará su IA para matar personas de forma autónoma ni que vigilará a ciudadanos norteamericanos sin embargo esto lleva a dos problemas que apunta a que es más que posible que OpenAI esté mintiendo:

Problema 1: Una verificación es imposible

OpenAI no ha publicado el contrato completo. Solo fragmentos llenos de lenguaje corporativo y jerga de seguridad nacional. No hay auditoría independiente existente ni posible. Mientras que su contrato está oculto, lo único que tiene el presidente Sam Altman es que se confíe en su palabra, en su palabra y en la de Pete Hegseth, el Secretario de Defensa, ese mismo hombre que decía que el Covid y los gérmenes no existen porque no se ven a simple vista, que el ataque al Congreso fue falso y un invento de la izquierda y que la victoria de Biden fue por trampas en las elecciones y que los soldados estadounidenses muertos por Irán eran Fake News, en estas personas hay que confiar.

Problema 2: Las «garantías» son promesas, no mecanismos

El propio equipo de seguridad nacional de OpenAI afirmó en público que el Pentágono «no tiene autoridad legal para vigilar masivamente». Pero hay documentación que demuestra que la Agencia de Inteligencia de Defensa (DIA) lleva años comprando bases de datos de localización de teléfonos móviles sin orden judicial. Las promesas no sustituyen a los controles técnicos.

Problema 3: El precedente político

Si el Pentágono puede presionar a una empresa de IA hasta que ceda sus salvaguardas de seguridad, o reemplazarla por otra que acepte menos restricciones, el mensaje es nítido: los principios éticos son negociables si hay suficiente presión política y económica de por medio.

4. El daño a OpenAI: reputación, empleados, cancelaciones y desinstalaciones

La respuesta pública fue inmediata, clara y contundente. En los días posteriores al anuncio sucedieron cosas muy impactantes para OpenAI:

  • Las desinstalaciones de ChatGPT aumentaron casi un 300% en EE.UU.
  • Las descargas de Claude (Anthropic) se dispararon, convirtiéndola temporalmente en la app número uno del país
  • Surgió el movimiento en redes sociales, llamando al boicot activo de ChatGPT
  • Mensajes escritos con tiza cubrieron la acera frente a las oficinas de OpenAI en San Francisco: «¿Dónde están vuestras líneas rojas?»

El daño interno no fue menor. Según CNN, muchos empleados dentro de OpenAI estaban tan furiosos como traicionados por la decisión. El movimiento fue percibido internamente como una traición a los valores fundacionales de la empresa.

Todor Markov, exinvestigador de OpenAI y hoy en Anthropic, describió a Sam Altman en documentos judiciales como «una persona de baja integridad que mintió directamente a empleados».

Altman terminó reconociendo públicamente el error: «No deberíamos haber actuado tan deprisa. Pareció oportunista y descuidado.» Pero el daño ya estaba hecho. Y una disculpa no deshace un contrato.

5. Anthropic: la empresa que dijo «no»

Aquí es donde la historia toma un giro que merece reflexión seria y, al menos por mi parte ha logrado un suscriptor nuevo. Anthropic no es solo otra empresa de IA desde sus orígenes, fue fundada en 2021 precisamente por exempleados de OpenAI que estaban convencidos de que la seguridad de la IA no podía sacrificarse en el altar del crecimiento comercial. Dario Amodei, su CEO, y su hermana Daniela, entre otros, salieron de OpenAI para crear una IA que realmente cumpla con los principios originales de OpenAI, un control y una ética necesaria en la Inteligencia Artificial.

Anthropic fue la primera empresa de IA en desplegar sus modelos en las redes clasificadas del Pentágono, con un contrato de 200 millones de dólares firmado en julio de 2025 pero llegado el momento de renovar y ampliar ese contrato, el Departamento de Defensa Guerra exigió algo que Anthropic ni estaba dispuesta ni podía ofrecer: acceso sin restricciones a Claude para «todos los fines legales», incluyendo armas autónomas y vigilancia masiva de ciudadanos estadounidenses.

La postura de Anthropic fue lo que parecía más lógico y de un modo muy claro:

  • No a la vigilancia masiva doméstica
  • No a las armas autónomas sin supervisión humana. Argumento técnico: la IA actual «alucina» demasiado como para fiarse de ella en decisiones de vida o muerte

La respuesta del Pentágono fue tan repentina como radical: designaron automáticamente a Anthropic como «riesgo para la cadena de suministro de seguridad nacional«. Una etiqueta que históricamente se ha utilizado únicamente para proveedores y adversarios extranjeros como Huawei. Esta era la primera vez en la historia de EEUU que se usaba contra una empresa americana.

Trump fue más lejos: ordenó a todas las agencias federales cesar el uso de Claude de inmediato. Dario Amodei respondió con ecuanimidad, pero sin ceder. El 9 de marzo de 2026, Anthropic presentó dos demandas federales contra la administración Trump, argumentando que la designación viola sus derechos de la Primera Enmienda y excede la autoridad legal del gobierno.

«La Constitución no permite al gobierno usar su enorme poder para castigar a una empresa por su libertad de expresión protegida.» — Demanda de Anthropic contra el Pentágono, 9 de marzo de 2026

6. ¿Por qué Anthropic está en el lado correcto de la historia?

Esta es la pregunta que me hago y no voy a caer en el idealismo ni la ingenuidad: Anthropic también es una empresa, no solo es una empresa sino una empresa estadounidenses sujeta a sus leyes y a la Cloud ACT que permite revisar los datos de estadounidenses, además tiene inversores tan preocupantes como Amazon y Google que han invertido miles de millones en ella y no, no es una ONG. Pero lo que hizo y la decisión que tomó en febrero-marzo de 2026 con todo el impacto de pérdidas que le reportaría pese a la «facilidad» de vender sus principios como hizo OpenAI o como hizo Google o Amazon con Nimbus importa por varias razones:

Razón 1: Estableció un precedente de resistencia

Ninguna empresa tecnológica grande había dicho «no» al Pentágono antes y menos de esta manera. Todos habían cedido o negociado. Anthropic no solo dijo que no sino que aguantó el golpe brutal que le asestó el Gobierno estadounidense y Trump por negarse. Eso tiene valor en sí mismo, independientemente de lo que pase después.

Razón 2: El argumento técnico es sólido

Los responsables de Anthropic tienen razón al decir que los LLMs no son lo suficientemente fiables para decisiones letales autónomas. La alucinación en IA no es un bug menor: es una característica estructural de cómo funcionan estos modelos. Poner ese sistema en la cadena de decisión de una operación militar sin supervisión humana no es solo éticamente cuestionable, es técnicamente irresponsable.

Razón 3: La coherencia con su origen

Anthropic fue fundada para hacer IA más segura y ética, sus líneas rojas en este conflicto son exactamente coherentes con esa misión fundacional. No hay contradicción entre lo que dicen que son y lo que hacen. Eso es raro en el mundo corporativo tecnológico.

Razón 4: El coste real

Esta postura le costará a Anthropic cientos de millones de dólares en contratos gubernamentales. El CEO calculó que podría afectar a varios miles de millones en ingresos de 2026. Decir «no» cuando cuesta tanto decir que no tiene un peso moral diferente a decir «no» cuando no hay nada en juego.

Conclusión:

El episodio OpenAI-Pentágono-Anthropic de estas últimas semanas no es solo una noticia de tecnología sino también de ética, de compromiso y sobre los límites del capitalismo cuando no tiene frenos éticos estructurales.

OpenAI empezó prometiendo que la IA sería para el bien de la humanidad y puede acabar siendo una pesadilla para la misma. Terminó firmando un contrato con el Departamento de Guerra en un fin de semana, con el CEO reconociendo que «fue apresurado» y que «las apariencias no son buenas». Eso es todo lo que necesitas saber sobre qué primó en esa decisión y no fueron las vidas humanas precisamente.

Anthropic decidió que sus principios valían más que un contrato y puede que pierdan esa batalla legal siendo otro ejemplo de David contra Goliath con una empresa contra todo el Gobierno Estadounidense que ya ha demostrado su menosprecio a la legalidad propia y ajena. Seguramente el mercado penalice a Anthropic corto plazo pero cuando dentro de unos años miremos atrás y se recuerde cómo se establecieron los precedentes sobre el uso de la IA en contextos bélicos, recordaremos quién dijo «no» cuando fue necesario creando un precedente para otras compañías que prefieran anteponer la ética al capital.

En un mundo donde la IA va a estar presente en infraestructuras críticas, en sistemas de defensa, en decisiones que afectan a millones de personas… la pregunta no es solo «¿funciona?» o «¿es rentable?». La pregunta es: ¿quién controla los límites? ¿Y quién decide que los límites no tienen precio?

chevron_left