Google aseguraron haber detectado el primer exploit zero-day creado por medio de la IA, un descubrimiento que marca un nuevo escenario en la ciberseguridad mundial.
El descubrimiento fue realizado por el equipo de Google Threat Intelligence Group (GTIG), especializado en amenazas informáticas. Según explicó la compañía en un informe de seguridad, el ataque consistió en un script diseñado en Python con el objetivo de vulnerar la Autenticación en Dos pasos (2FA) de una conocida herramienta de administración web de código abierto.
El exploit buscaba saltarse la segunda capa de seguridad utilizada para proteger cuentas y sistemas, lo que permitiría a los atacantes acceder incluso a cuentas incorrectas. Google señaló que logró trabajar en conjunto con el proveedor afectado para detener la campaña antes de que se realizara el ataque masivo.
La empresa detectó que el código había sido generado con IA, ya que contaba con ciertas características poco habituales en el malware tradicional. Entre las que se encontraban errores típicos de los modelos de lenguaje, como puntuaciones CVSS inventadas, estructuras académicas y fragmentos de documentación demasiado ordenados.
Los investigadores también encontraron docstrings educativos, los cuales son menús de ayuda muy detallados y patrones parecidos a los materiales que suelen utilizarse en modelos de IA. Estos elementos no suelen ser herramientas desarrolladas manualmente por los ciberdelincuentes.
Google indica que no se encontró evidencia de que se utilizara su IA Gemini; este caso representa la primera vez que la compañía identifica un exploit zero-day desarrollado por modelos de lenguaje.
El informe demostró que la IA ayudó a descubrir una vulnerabilidad que había pasado desapercibida para las herramientas tradicionales de seguridad. El problema está ligado a una suposición de confianza integrada directamente en la lógica del sistema de autenticación de dos factores.
Con la aparición de estos ataques se confirma una tendencia que especialistas en ciberseguridad vienen observando desde hace meses: los hackers están incorporando modelos de IA para aumentar la velocidad de sus procesos que antes requerían grandes cantidades de tiempo y trabajo humano.
El informe finaliza mencionando que el uso ofensivo de la IA dejó de ser una práctica experimental y se está convirtiendo en una metodología que cada vez es más común en el mundo del cibercrimen.
Con información de AGENCIAS.





