Por Alexis Paiva MackQué se sabe de los ciberdelincuentes que utilizaron IA para intentar realizar un ataque a gran escala, según Google
El gigante tecnológico reportó que ciberdelincuentes utilizaron inteligencia artificial para facilitar el descubrimiento y la explotación de una vulnerabilidad, en un sistema de otra compañía.

Google reportó este lunes 11 de mayo que un grupo de ciberdelincuentes intentó realizar un ataque a gran escala.
De acuerdo al gigante tecnológico, los cibercriminales aparentemente utilizaron inteligencia artificial (IA) para detectar un fallo previamente desconocido.
“Tenemos una alta probabilidad de que el atacante haya utilizado un modelo de IA para facilitar el descubrimiento y la explotación de esta vulnerabilidad”, escribió la empresa en un informe.
La compañía no especificó cuándo ocurrió el ataque frustrado, a quién iba dirigido ni qué modelo de IA utilizaron los atacantes.
Sin embargo, agregó, no se trató de su propio chatbot, Gemini.
El reporte realizado por Google se posiciona en medio de un escenario en el que especialistas en ciberseguridad han alertado sobre la posibilidad de que modelos de IA puedan ser utilizados para facilitar la realización de ciberataques.

Qué se sabe de los ciberdelincuentes que utilizaron IA para intentar realizar un ataque, según Google
Los ciberdelincuentes que identificó Google se centraron en explotar lo que se conoce como “vulnerabilidades de día cero”, es decir, fallos de seguridad desconocidos por los desarrolladores del software.
La vulnerabilidad de día cero fue detectada por el Grupo de Inteligencia de Amenazas de Google en los últimos meses y explotada por “actores de ciberdelincuencia de renombre” mediante un script en Python, según informó el gigante tecnológico.
Aquella vulnerabilidad permitió a los hackers eludir la autenticación de dos factores en “una popular herramienta de administración de sistemas web de código abierto”.
Google no reveló el nombre de esa herramienta. Sin embargo, dijo haber notificado al fabricante del software con la suficiente rapidez para que se pudiera lanzar un parche antes de que el ataque causara daños.
La compañía tampoco reveló el nombre del grupo de hackers.
El analista jefe del Grupo de Inteligencia de Amenazas de Google, John Hultquist, dijo en declaraciones reunidas por el New York Times que el hecho de que hayan utilizado IA para encontrar una vulnerabilidad de día cero “es un anticipo de lo que está por venir”.
“Creemos que esto es solo la punta del iceberg. Este problema probablemente sea mucho mayor; esta es solo la primera evidencia tangible que podemos observar”, agregó.
El exdirector de ciberseguridad de la Agencia de Seguridad Nacional de Estados Unidos, Rob Joyce, quien revisó los hallazgos antes de su publicación, afirmó que puede ser complejo determinar si el código informático fue escrito por un humano o una máquina, ya que “el código creado por IA no se delata”.
Sin embargo, agregó, las pistas que reunió Google en relación a este caso resultaron convincentes.
Entre estas se encontró texto explicativo excesivo y otras peculiaridades que los programadores humanos no tendrían por qué incluir, dijo Joyce.
Hultquist aseguró que Google contaba con otros indicios que reforzaban su conclusión de que el código malicioso fue escrito por IA. No obstante, prefirió no revelarlos.
Según el analista del gigante tecnológico, a largo plazo, la IA podría fortalecer la ciberseguridad, a partir de la creación de código abierto sin flancos.
“Los modelos de vanguardia nos permitirán crear el código más seguro que jamás hayamos creado. Eso representa un triunfo absoluto para la ciberseguridad. El reto es que apenas hemos comenzado este proceso y tenemos que lidiar con un mundo de código que ya existe”, afirmó Hultquist.
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
1.
2.
4.
Casi nadie tiene claro qué es un modelo generativo. El resto lee La Tercera.
Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE

















