La empresa de inteligencia artificial Anthropic atraviesa un posible cambio en su relación con el gobierno de Estados Unidos, tras meses de tensiones públicas y desacuerdos estratégicos.

Según reportes, su CEO, Dario Amodei, mantuvo recientemente una reunión en la Casa Blanca con funcionarios de la administración, en lo que se interpreta como un intento de recomponer vínculos institucionales.

El origen del conflicto

La relación se deterioró a fines de febrero, cuando Anthropic rechazó colaborar en dos áreas sensibles:

Uso de IA para vigilancia masiva interna.

Desarrollo de armas autónomas sin intervención humana.

Estas negativas derivaron en acusaciones desde sectores gubernamentales, que llegaron a catalogar a la empresa como un riesgo para la seguridad nacional, además de disputas legales posteriores.

“Mythos Preview”: la carta de negociación

El nuevo modelo de ciberseguridad, denominado Claude Mythos Preview, aparece como una herramienta clave en este acercamiento.

Desde la compañía sostienen que puede contribuir a:

Reforzar la seguridad digital nacional.

Mantener el liderazgo estadounidense en la carrera global de la IA.

Establecer estándares de uso seguro de estas tecnologías.

Este giro sugiere una estrategia pragmática: ofrecer cooperación en áreas críticas sin ceder en principios éticos previamente definidos.

IA, defensa y geopolítica

El caso refleja una tensión estructural en el desarrollo de la inteligencia artificial:

Empresas tecnológicas buscan autonomía ética y reputacional.

Estados priorizan seguridad nacional y ventajas estratégicas.

En este contexto, la IA se consolida como un activo geopolítico central, comparable a sectores como la energía o la defensa.