Instagram
TikTok
X (Twitter)
Facebook
Roams Logo
Cabeza de inteligencia artificial con ojo rojo y circuitos digitales, simbolizando la IA avanzada y ciberseguridad.
Seguridad

Corea del Norte, China y Rusia ya usan IA para ciberataques reales: Google revela hasta dónde han llegado

  • El primer exploit de día cero creado con IA ya existe: Google lo frenó
  • Agentes, deepfakes y malware polimórfico: así operan los hackers
Andrea Benito
Andrea Benito
Icono rrss X
Icono rrss Whatsapp
Icono comentarios

El equipo de inteligencia de amenazas de Google (GTIG) dio la voz de alarma el pasado lunes 11 de mayo tras confirmar uno de los mayores temores de la industria tecnológica.

Han detectado, por primera vez en la historia, una vulnerabilidad de “día cero” desarrollada con la ayuda de la Inteligencia Artificial. El ataque fue interceptado antes de desplegarse a gran escala, pero el precedente es inequívoco: los ciberdelincuentes ya usan IA para crear armas informáticas reales.

¿Qué es un Día Cero y cómo ha intervenido la IA?

Un ataque de “día cero” (Zero-Day) es el premio gordo de los piratas informáticos. Se trata de un fallo de seguridad que ni siquiera el fabricante o creador del programa conoce, por lo que no existe ninguna actualización para defenderse.

Hasta ahora, encontrar estas grietas secretas exigía meses de investigación manual por parte de expertos muy cualificados. Sin embargo, la IA ha cambiado las reglas del juego de forma radical.

Hacker con inteligencia artificial manejando interfaces de ciberseguridad, nube y protección de datos digitales.
Fuente: Magnific

En este caso, Google descubrió que los ciberdelincuentes usaron inteligencia artificial para crear un código en Python capaz de saltarse la autenticación de doble factor, el típico SMS o código temporal que te llega al móvil para verificar que eres tú, en una popular herramienta web de administración.

Por suerte, la IA aún necesita de la supervisión humana y sus fallos los delataron. Errores en la implementación final del ataque permitieron a Google detectarlo a tiempo. Avisaron de inmediato al desarrollador, quien pudo emitir un parche de seguridad antes de que el despliegue del virus fuera exitoso a gran escala.

Hackers de Estado: la automatización del mal

El informe AI Threat Tracker de Google revela que esto no es obra de aficionados aislados. Grupos organizados, muchos de ellos respaldados por gobiernos, están exprimiendo los modelos de lenguaje para automatizar sus campañas de daño cibernético.

A continuación, los casos más alarmantes que destaca el informe:

  • Corea del Norte (Grupo APT45): Han utilizado la IA para validar y probar miles de exploits (códigos que aprovechan una vulnerabilidad) de forma simultánea, logrando una velocidad y escala que es humanamente imposible de alcanzar de forma manual.
  • China (Grupo APT27 y afines): Llegaron a usar modelos comerciales como Gemini de Google para acelerar el desarrollo de una aplicación de gestión de flotas destinada a administrar una red de nodos de retransmisión, infraestructura clave para ocultar el origen de sus ataques. Otros actores vinculados a China han empleado la IA para sondear de forma masiva los puntos débiles de empresas tecnológicas japonesas.
  • Rusia: Emplean estas herramientas para perfeccionar su software malicioso en la guerra de Ucrania y crear vídeos o audios falsos (deepfakes) para inundar de desinformación a Estados Unidos, Ucrania y Francia.

El salto no llega en un vacío: el repunte de la cibercriminalidad ya venía mostrando que los atacantes no solo buscan más víctimas, sino también más eficiencia en cada campaña.

Agentes autónomos y alianza con la española Virus Total

La evolución más preocupante que señala Google es el uso de agentes de IA, como OpenClaw o OneClaw. Ya no hablamos de simples chats a los que les pides un resumen, sino de programas autónomos a los que les das una orden, por ejemplo, “ataca esta empresa”, y ellos mismos buscan el fallo, prueban contraseñas y ejecutan el ataque.

Robot humanoide frente a un ordenador con una alerta de virus informático sobre fondo de circuitos digitales.
Fuente: Magnific

Para intentar frenar esta nueva amenaza, el ecosistema de ciberseguridad está tomando medidas. El responsable del proyecto OpenClaw se ha aliado con Virus Total, la famosa plataforma española de análisis de malware, propiedad de Google.

Su objetivo conjunto es escanear los complementos o “skills” que se suben a estas plataformas de agentes para detectar cualquier código malicioso oculto.

La carrera ya ha comenzado

John Hultquist, analista jefe de Google Threat Intelligence Group, ha sido tajante respecto a estos descubrimientos. Asegura que existe la falsa creencia en el sector de que la amenaza de una IA creando virus letales es algo del futuro. “La realidad es que ya ha comenzado”, advierte de forma directa.

Según el experto, la inteligencia artificial permite a los delincuentes ser más rápidos, atacar a mayor escala y mantener la persistencia contra sus objetivos de forma indetectable.

El problema real, según Hultquist, es que por cada vulnerabilidad que han conseguido atribuir a la IA y frenar a tiempo, es muy probable que existan muchas más operando en las sombras y que aún no hemos sido capaces de descubrir.

Fuente: Google

Comentarios

Tu opinión nos importa. ¡Cuéntanos!
CTA acción
Comentar
CTA acción
Comparte tu opinión
¡Gracias por tu comentario!
CTA acción
Comentar