Cómo luchar contra el cibercrimen si sus cabecillas son cada vez mejores y ya usan Inteligencia Artificial
Recientemente se ha detectado el uso de inteligencias artificiales generativas para elaborar ataques sofisticados. De momento parecen experimentos, pero es probable que en 2026 dichos ataques escalen.

Madrid--Actualizado a
Se acercan tiempos complicados para la seguridad informática, un mundo extremadamente sensible a cualquier avance importante, como lo es el acelerado desarrollo de modelos de inteligencia artificial generativa. Incluso desde Google reconocen que "los actores de amenazas son de los mejores; de hecho, son muy buenos adoptando nuevas tecnologías".
El gigante tecnológico ha deslumbrado al mundo con Gemini 3, su modelo de inteligencia artificial (IA) "más inteligente" hasta la fecha, capaz de leer el ambiente y crear experiencias interactivas sobre cualquier tema, y que supone competir directamente con OpenAI tras la llegada de GPT-5.
Mientras, recientemente el Grupo de Inteligencia de Amenaza de Google (GTIG por sus siglas en inglés) ha actualizado hace pocos días su análisis de enero de 2025 y alerta de la existencia de "experimentos con la IA" por parte de ciberdelincuentes y grupos patrocinados por gobiernos.
Por primera vez, según este informe, Google han identificado familias de malware que usan modelos de lenguaje grande (LLM, por sus siglas en inglés) durante su ejecución, potencialmente capaces de modificar su comportamiento de forma dinámica, autoescribir parte de su código para evitar así su detección (como Prompflux) e incluso crear funciones maliciosas "a la carta", aunque aún de manera experimental.
En su análisis, Google indica que ha comprobado cómo ciberataques procedentes de China, Corea del Norte, Rusia e Irán están usando herramientas de inteligencia artificial, incluso su propia Gemini, en sus procesos para "mejorarlos".
Ciberatacantes más 'productivos'
En una entrevista por videoconferencia concedida a Público, Steve Miller, responsable de amenazas de IA del mencionado GTIG de Google, no espera ver ataques realmente nuevos. "Basándome en nuestra experiencia, los actores de amenazas también son personas y simplemente están adoptando la IA: todo lo que hemos visto hasta ahora se enmarca en el ámbito de la productividad".
Por ejemplo, señala, los ciberdelincuentes usan la IA para escribir correos electrónicos masivos. "Están investigando", afirma Miller, pero añade: "Lo que cambió este año fue que empezamos a ver estas cosas ligeramente nuevas con actores que crean malware que podría usar sistemas de IA para sus capacidades".
Estos intentos de ataque eran triviales, meramente experimentales, no muy sofisticados. "No más peligrosos que cualquier otro malware", apunta este experto. Lo cierto es que Google compartió esta información en forma de paper porque es una muestra de que los adversarios simplemente intentan hacer lo que mejor saben hacer: experimentar.
"Son de los mejores"
Para Miller, "en muchos sentidos, los actores de amenazas son de los mejores; de hecho, son muy buenos adoptando nuevas tecnologías porque, en parte, intentan adoptar siempre lo último y lo mejor".
Para este experto es posible que a partir de estos experimentos con AI "se busque una mayor escalabilidad, en la medida en que vayan descubriendo cómo la IA puede cubrir sus necesidades de manera eficiente".
De cara al próximo año, Miller augura que los ciberatacantes estén en una fase de mayor automatización, con el fin de desarrollar más herramientas que aprovechen la IA a gran escala. "Creo que la evidencia apunta en esa dirección, pero queda mucho por determinar a medida que continuamos explorando este campo", apunta.

Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.