
La IA de Anthropic y el nuevo riesgo estructural para la seguridad nacional
Anthropic ha anunciado Claude Mythos Preview, un modelo de IA que, según la propia empresa, es capaz de identificar y explotar vulnerabilidades en los principales sistemas operativos y navegadores, la mayoría de ellas aún sin corregir. La compañía ha decidido no liberar el modelo por considerarlo demasiado peligroso, y ha lanzado Project Glasswing para colaborar con actores como AWS y Google en su despliegue seguro. Este anuncio ha reavivado el debate sobre quién debe controlar tecnologías con potencial de impacto sistémico en la ciberseguridad nacional, en un contexto donde la supervisión pública es limitada y la regulación aún no se adapta al ritmo de la innovación privada. Más que el anuncio, lo relevante es el despliegue. ¿Qué mecanismos de control y supervisión pueden garantizar que el poder sobre infraestructuras críticas no quede concentrado en manos de actores privados sin suficiente escrutinio institucional?
Anthropic ha anunciado Claude Mythos Preview, un modelo de IA que, según la propia empresa, es capaz de identificar y explotar vulnerabilidades en los principales sistemas operativos y navegadores, la mayoría de ellas aún sin corregir. La compañía ha decidido no liberar el modelo por considerarlo demasiado peligroso, y ha lanzado Project Glasswing para colaborar con actores como AWS y Google en su despliegue seguro. Este anuncio ha reavivado el debate sobre quién debe controlar tecnologías con potencial de impacto sistémico en la ciberseguridad nacional, en un contexto donde la supervisión pública es limitada y la regulación aún no se adapta al ritmo de la innovación privada. Más que el anuncio, lo relevante es el despliegue. ¿Qué mecanismos de control y supervisión pueden garantizar que el poder sobre infraestructuras críticas no quede concentrado en manos de actores privados sin suficiente escrutinio institucional?
Qué se anunció y cuál es el alcance real
Anthropic presentó Claude Mythos Preview, un modelo de IA que, según la empresa, puede identificar y explotar miles de vulnerabilidades no parcheadas en sistemas operativos y navegadores. La compañía afirma que más del 99% de estas vulnerabilidades no han sido detectadas ni corregidas durante décadas. Ante el riesgo potencial, Anthropic ha optado por no liberar el modelo públicamente y ha iniciado Project Glasswing, una colaboración con empresas como AWS y Google para explorar su uso seguro en ciberseguridad. Sin embargo, la fuente indica que existe debate entre expertos sobre la validez de los métodos y métricas empleados por Anthropic para fundamentar sus afirmaciones. No se especifica el alcance técnico exacto del modelo ni los criterios que guían su posible despliegue futuro.
Para qué sirve en la práctica
En la práctica, Claude Mythos podría emplearse para detectar vulnerabilidades críticas en infraestructuras digitales, permitiendo a defensores anticipar y corregir fallos antes de que sean explotados. Un ejemplo sería su uso por equipos de ciberseguridad para reforzar sistemas gubernamentales o empresariales. Otro posible uso sería la colaboración con proveedores de servicios en la nube, como AWS y Google, para proteger plataformas ampliamente utilizadas. No obstante, la fuente no detalla casos concretos de aplicación ni protocolos de acceso diferenciados para actores públicos o privados, lo que deja abierta la cuestión de cómo se gestionará el acceso y la utilización responsable del modelo.
Qué riesgos abre si se despliega mal
El principal riesgo, según la fuente, es la concentración de capacidades ofensivas y defensivas en manos de una empresa privada sin mecanismos claros de supervisión democrática. Si Mythos cayera en manos de actores maliciosos o si su acceso no estuviera suficientemente restringido, podría facilitar ataques a gran escala contra infraestructuras críticas. Además, la falta de regulación específica y la ausencia de requisitos legales para notificar o coordinar con autoridades públicas antes de liberar modelos de este tipo agravan la opacidad y dificultan la auditoría independiente. La fuente también señala que la legislación actual, como la Defense Production Act, no otorga al gobierno la capacidad de controlar plenamente el uso o la distribución de modelos como Mythos.
Qué condiciones mínimas deberían exigirse
La fuente sugiere que serían necesarias nuevas normativas que obliguen a empresas como Anthropic a informar y coordinar con autoridades antes de liberar modelos con potencial impacto en la seguridad nacional. Se menciona la posibilidad de establecer requisitos de acceso diferencial, permitiendo que defensores acreditados accedan antes que el público general. También se plantea la necesidad de una mayor implicación gubernamental en iniciativas como Project Glasswing. Sin embargo, no se detallan en la fuente mecanismos concretos de auditoría, criterios de transparencia ni procedimientos de supervisión pública que garanticen el control institucional sobre el despliegue de estas tecnologías.
Conclusión
Será una mejora institucional si se garantiza la coordinación obligatoria con autoridades públicas y la existencia de protocolos de acceso restringido para modelos de alto riesgo. Puede no alcanzar los objetivos declarados si persiste la falta de regulación específica y la opacidad en los criterios de despliegue. La evolución dependerá de la capacidad de los gobiernos para establecer marcos de supervisión efectivos y adaptados al ritmo de la innovación tecnológica. El dilema central es quién retiene la capacidad de decisión cuando la infraestructura de ciberseguridad depende de tecnologías controladas por actores privados.
Fuente: Politico — https://www.politico.com/newsletters/digital-future-daily/2026/04/09/anthropics-ai-sparks-concerns-over-a-new-national-security-risk-00865901
Nota editorial: Contenido generado y estructurado con apoyo de un editor de IA de PorqueIA.com.