Tecnología

Qué es Mythos de Anthropic y por qué preocupa a las autoridades de EE.UU.

Un nuevo modelo de inteligencia artificial demostró “capacidades muy avanzadas” para encontrar fallas críticas de ciberseguridad. En lugar de lanzarlo al público general, la compañía optó por un acceso restringido para pruebas defensivas de grandes bancos y tecnológicas.

Qué es Mythos de Anthropic y por qué preocupa a las autoridades de EE.UU.

En la acelerada carrera de la inteligencia artificial, la norma de la industria suele ser publicar rápido y corregir sobre la marcha. Sin embargo, Anthropic -la compañía conocida por crear la familia de modelos Claude y por su enfoque metódico en la seguridad- decidió alterar el guion.

Su nuevo desarrollo, bautizado como Claude Mythos Preview, no estará disponible para los usuarios en Internet, al menos desde un primer momento.

La razón detrás de este freno de mano se debe a un “exceso de capacidades” que encendió las alarmas de las autoridades estadounidenses y en Wall Street, según detalla un reporte de Bloomberg.

Durante las fases de evaluación, Mythos demostró una habilidad inusual para identificar vulnerabilidades de “día cero” en los sistemas operativos y navegadores web más utilizados del mundo.

Una vulnerabilidad de día cero es un fallo de seguridad en software, hardware o firmware que aún no es conocido por el fabricante ni tiene parche disponible. Se llama así porque los desarrolladores tienen “cero días” para corregirlo antes de que pueda ser explotado.

El caso más gráfico documentado por Anthropic fue el hallazgo de una brecha de seguridad de 27 años de antigüedad en OpenBSD, un sistema operativo de código abierto célebre, precisamente, por su robustez ante ataques.

Mythos no fue entrenado específicamente para ser una herramienta de hacking. De acuerdo a los investigadores de Anthropic, estas habilidades son resultado de su avanzada capacidad para razonar y procesar código informático a gran escala.

La inteligencia artificial aprendió a programar y analizar estructuras tan bien que se volvió excepcionalmente lúcida para detectar las fallas que los expertos humanos pasan por alto. La encrucijada, claro, es que el mismo sistema que sirve para encontrar y reparar una grieta digital puede ser usado por las manos equivocadas.

El llamado en Washington

Qué es Mythos de Anthropic y por qué preocupa a las autoridades de EE.UU.

Esta tecnología de doble filo fue lo que motivó una reunión de carácter urgente en Washington. Como consigna Bloomberg, el Secretario del Tesoro de EE.UU., Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron a los principales líderes de Wall Street -incluyendo ejecutivos de JPMorgan Chase, Citigroup, Bank of America y Goldman Sachs- para calibrar el riesgo que esto podría representar para el sector financiero.

La estrategia estadounidense va por una adopción pragmática y defensiva de Mythos. Las autoridades están recomendando a los grandes bancos a desplegar la IA internamente para auditar sus propias redes.

La lógica gubernamental asume que es cuestión de meses para que actores hostiles logren replicar estas capacidades. Por ende, las instituciones críticas deben usar esta ventana de tiempo para blindarse usando la misma tecnología.

Proyecto Glasswing

Para gestionar este potencial riesgo en el corto plazo, Anthropic estructuró el Proyecto Glasswing. Se trata de un acceso cerrado y estrictamente controlado, donde Mythos solo está disponible para un puñado de gigantes tecnológicos y financieros, entre ellos Amazon, Google, Apple, Microsoft y CrowdStrike.

Según Anthropic, el objetivo de esta alianza es utilizar la IA como un escudo masivo: auditar ecosistemas enteros y aplicar parches de seguridad en el software crítico que sostiene gran parte de la infraestructura global, antes de que este tipo de modelos se vuelva de uso común.

El caso de Mythos confirma que los modelos de lenguaje más avanzados ya están operando como tecnología de doble uso, exigiendo protocolos de seguridad a la altura de la infraestructura crítica de un país.

Aunque el modelo permanecerá bajo llave, si la estrategia defensiva funciona, es probable que la próxima actualización de su teléfono celular o la red de su banco local sea un poco más segura, gracias a un puñado de vulnerabilidades descubiertas por una IA.

Lee también:

Más sobre:Inteligencia artificialClaude Mythos PreviewAnthropicMythosTecnologíaevaluación de riesgos con IAparches de seguridadinfraestructura críticadefensa cibernéticaJerome PowellScott BessentProyecto GlasswingGlasswingmodelos de lenguaje avanzados

COMENTARIOS

Para comentar este artículo debes ser suscriptor.

Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera

Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE