En una semana marcada por la tensión, la empresa de inteligencia artificial Anthropic se encuentra en el centro de dos frentes simultáneos: por un lado, mantiene "conversaciones continuas" con altos funcionarios del gobierno estadounidense, incluyendo al Secretario del Tesoro Scott Bessent y al presidente de la Reserva Federal Jerome Powell, sobre las capacidades y riesgos de su nuevo modelo de IA, Claude Mythos Preview. Por otro lado, la compañía enfrenta una batalla legal con el Departamento de Guerra tras ser designada como "riesgo para la cadena de suministro" por negarse a permitir el uso de su tecnología en sistemas de armas autónomas y vigilancia masiva .
Mythos: un arma de doble filo que preocupa a Washington
Anthropic presentó Claude Mythos Preview a principios de abril de 2026, pero inmediatamente anunció que no lo liberaría al público general. La razón, según la compañía, es que el modelo demostró ser "excepcionalmente bueno" identificando vulnerabilidades de seguridad en software, incluyendo fallos que habían pasado desapercibidos durante décadas . En sus pruebas internas, Mythos identificó una vulnerabilidad en OpenBSD, un sistema operativo conocido por su seguridad, que Anthropic afirma permaneció sin descubrir durante 27 años, así como "miles de vulnerabilidades adicionales de alta y crítica gravedad" en programas de código abierto y cerrado .
La capacidad del modelo para encadenar múltiples fallos en una sola ruta de ataque una técnica que los hackers humanos consideran difícil de ejecutar ha puesto en alerta a los reguladores. Según Anthropic, Mythos puede operar de manera totalmente autónoma, identificando vulnerabilidades y creando código para explotarlas sin intervención humana .
Ante estos riesgos, Anthropic lanzó "Project Glasswing", una iniciativa que restringe el acceso a Mythos a solo 40 organizaciones, incluyendo gigantes tecnológicos como Apple, Amazon, Google, Microsoft y Nvidia, firmas de ciberseguridad como CrowdStrike y Palo Alto Networks, y el banco JPMorgan Chase . El objetivo del proyecto es utilizar el modelo para identificar y parchear vulnerabilidades en software crítico antes de que herramientas similares estén ampliamente disponibles para actores maliciosos .
La reunión de emergencia en Washington: bancos instados a prepararse
El 7 de abril de 2026, Bessent y Powell convocaron una reunión de emergencia en la sede del Tesoro en Washington con los CEOs de los bancos más grandes de Estados Unidos. Los asistentes incluyeron a Brian Moynihan de Bank of America, Jane Fraser de Citigroup, David Solomon de Goldman Sachs, Ted Pick de Morgan Stanley y Charlie Scharf de Wells Fargo . La única ausencia notable fue la de Jamie Dimon de JPMorgan Chase, quien se encontraba fuera del país por compromisos previos .
Según fuentes familiarizadas con el encuentro, los funcionarios no citaron ninguna amenaza específica contra las instituciones financieras, pero el mensaje fue claro: los bancos deben tomar en serio las capacidades de Mythos y desplegar la tecnología para detectar vulnerabilidades en sus propios sistemas antes de que los atacantes puedan explotarlas . La urgencia del mensaje quedó reflejada en las declaraciones de Kevin Hassett, director del Consejo Económico Nacional, quien dijo a Fox News: "Estamos tomando todas las medidas posibles para garantizar que todos estén a salvo de estos riesgos potenciales, incluyendo que Anthropic acordara retener el lanzamiento público del modelo hasta que nuestros funcionarios hayan resuelto todo" .
Aunque JPMorgan fue el único banco nombrado públicamente como socio inicial de Project Glasswing, otras instituciones importantes, incluyendo Goldman Sachs, Citigroup, Bank of America y Morgan Stanley, también están probando la tecnología internamente o esperan hacerlo en los próximos días .
La disputa con el Pentágono: el origen del conflicto
Paralelamente a las conversaciones sobre ciberseguridad, Anthropic se encuentra en medio de una intensa disputa legal con el Departamento de Guerra. El conflicto se remonta a febrero de 2026, cuando la compañía estableció límites claros sobre el uso de su tecnología Claude en aplicaciones militares, específicamente negándose a permitir su uso en "sistemas de armas totalmente autónomos" y "vigilancia doméstica masiva" .
En respuesta, el Secretario de Guerra Pete Hegseth designó a Anthropic como un "riesgo para la cadena de suministro" bajo dos estatutos de adquisición militar: 10 U.S.C. § 3252 y 41 U.S.C. § 4713 . La designación efectivamente prohibía a los contratistas federales usar los productos de Anthropic, lo que la compañía calificó como una medida "ilegal" y "retaliativa" que violaba sus derechos de la Primera Enmienda .
En su declaración pública del 5 de marzo de 2026, el CEO Dario Amodei expresó su preocupación por la situación: "Nuestra prioridad más importante en este momento es asegurar que nuestros combatientes y expertos en seguridad nacional no se vean privados de herramientas importantes en medio de operaciones de combate importantes. Anthropic proporcionará nuestros modelos al Departamento de Guerra y a la comunidad de seguridad nacional, a costo nominal y con apoyo continuo de nuestros ingenieros, durante el tiempo que sea necesario para hacer esa transición, y durante el tiempo que se nos permita hacerlo" .
El fallo judicial: una victoria parcial para Anthropic
El 26 de marzo de 2026, un tribunal federal en el Distrito Norte de California otorgó a Anthropic una orden de restricción preliminar, calificando las acciones del gobierno como "orwellianas" y "probablemente tanto contrarias a la ley como arbitrarias y caprichosas" . El tribunal determinó que las acciones del gobierno constituían una "clásica represalia ilegal de la Primera Enmienda" y que el gobierno no había seguido los procedimientos requeridos por la ley .
El juez señaló que la ley "no permite al Departamento de Guerra designar a proveedores de TI como 'riesgos para la cadena de suministro' cada vez que hacen preguntas inquisitivas o insisten obstinadamente en términos contractuales particulares, incluso si su hacerlo causa que el Departamento dude de su confiabilidad" . El tribunal también encontró sospechoso el momento de la decisión del gobierno, dado que en la "relación de trabajo de varios años y durante el extenso proceso de evaluación de seguridad nacional de Anthropic, el gobierno nunca planteó ninguna preocupación sobre la cadena de suministro" .
Sin embargo, la victoria fue solo parcial. El tribunal aclaró que su orden no requería al Departamento de Guerra comprar los productos de Anthropic ni aceptar las limitaciones contractuales preferidas por la compañía . Además, el Departamento de Guerra recibió una suspensión administrativa de siete días para buscar una suspensión de emergencia de un tribunal de apelaciones, y un tribunal de apelaciones federal rechazó posteriormente la solicitud de Anthropic de pausar la designación .
El panorama internacional: preocupación global
La preocupación por Mythos no se limita a Estados Unidos. Los reguladores en el Reino Unido están revisando los riesgos potenciales que plantea el modelo, y el Banco de Inglaterra ha convocado a su "Cross Market Operational Resilience Group" para discutir las implicaciones para la estabilidad financiera británica . En Canadá, el Canadian Financial Resilience Group también ha convocado reuniones de emergencia con los seis bancos más grandes del país .
Entre el pánico y el escepticismo
El anuncio de Mythos ha generado reacciones encontradas en la industria de la ciberseguridad. Por un lado, expertos como el veterano de 25 años David Lindner, CISO de Contrast Security, han expresado escepticismo sobre el impacto real del modelo. "Nunca hemos tenido un problema para encontrar vulnerabilidades. Las encontramos todos los días. En realidad, tenemos un montón de ellas que simplemente no arreglamos", dijo Lindner a Fortune, señalando que más del 99% de las vulnerabilidades que Mythos descubrió aún no han sido parcheadas .
Por otro lado, otros expertos advierten que el verdadero peligro no es Mythos en sí, sino la inevitabilidad de que capacidades similares estén ampliamente disponibles en el futuro cercano. Como señala el reconocido experto en seguridad Bruce Schneier, "el cambio de paradigma ya ocurrió o está a punto de ocurrir, y ocurrirá antes de lo que estamos preparados" . Schneier advierte que nos estamos dirigiendo hacia un mundo donde los exploits de día cero serán "baratos y abundantes", y donde muchos atacantes tendrán repentinamente capacidades ofensivas que superan con creces sus habilidades.
El dilema regulatorio: equilibrio entre seguridad y control
La situación de Anthropic plantea preguntas fundamentales sobre el papel de las empresas de tecnología en la seguridad nacional y los límites del control gubernamental. Por un lado, el gobierno argumenta que necesita "acceso completo a los modelos de Anthropic si su tecnología está integrada en nuestros sistemas sensibles", como declaró el Fiscal General Adjunto Todd Blanche . Por otro lado, Anthropic sostiene que no es el papel de una empresa privada participar en la toma de decisiones operativas militares, sino que su única preocupación son las excepciones sobre armas totalmente autónomas y vigilancia masiva .
El resultado de esta disputa tendrá implicaciones significativas no solo para Anthropic, sino para toda la industria de la inteligencia artificial. La orden de restricción preliminar sugiere que las empresas pueden tener cierta protección contra acciones gubernamentales retaliativas cuando participan públicamente en debates sobre seguridad y políticas relacionadas con el uso de sus productos por parte del gobierno .
Lo que viene en las próximas semanas
La situación de Anthropic continúa evolucionando en múltiples frentes. En el ámbito judicial, el caso sigue pendiente en el Tribunal de Apelaciones del Circuito de D.C., donde Anthropic impugnó la designación bajo el segundo estatuto. Para que la empresa evite el impacto comercial inminente de la designación de "riesgo para la cadena de suministro", necesita tanto que se mantenga la decisión de California como que el tribunal de D.C. falle a su favor .
Mientras tanto, Project Glasswing continúa su trabajo con los 40 socios iniciales para identificar y parchear vulnerabilidades en software crítico. El resultado de estas pruebas probablemente determinará si el modelo se despliega más ampliamente en el sector financiero y otras industrias críticas, o si se imponen restricciones adicionales a su uso .
Para los observadores de la industria, el mensaje es claro: la inteligencia artificial está transformando la ciberseguridad a una velocidad sin precedentes, y el equilibrio entre aprovechar sus capacidades defensivas y mitigar sus riesgos ofensivos será uno de los desafíos definitorios de la próxima década. Como resumió el CEO de Anthropic, Dario Amodei: "Los peligros de equivocarnos son obvios, pero si lo hacemos bien, existe una oportunidad real de crear un internet y un mundo fundamentalmente más seguros de lo que teníamos antes de la llegada de las capacidades cibernéticas impulsadas por IA" .