Los ciberdelincuentes llaman a tu puerta disfrazados con inteligencia artificial
La revolución que está suponiendo el rapidísimo desarrollo de las inteligencias artificiales generativas trae también problemas que desafían la imaginación de quienes nos protegen en el espacio digital.

Madrid--Actualizado a
Ataques con malware cada vez más sofisticados, deepfakes muy realistas, falsos currículums generados con el objetivo de colar en las empresas actores de espionaje industrial o ladrones de credenciales... Varias compañías y expertos alertan ya de una rápida evolución de los ciberataques a causa de la adopción masiva de la inteligencia artificial; se trata de la cara menos amable del avance de la computación generativa.
En el mundo de la seguridad informática hay una máxima: el eslabón más débil de las organizaciones es, casi siempre, el factor humano. Ahora, gigantes tecnológicos, compañías de análisis de mercados y empresas de seguridad informática están detectando la proliferación de identidades verosímiles, pero falsas, capaces de engañar eficazmente y, así, desarrollar ataques más complejos.
Por ejemplo, la compañía ESET informa sobre la actividad de un grupo denominado WageMole, vinculado a Corea del Norte, que ha afectado a más de 300 compañías internacionales. Según los investigadores de esta empresa, el ataque detectado "trata de engañar a desarrolladores occidentales para que soliciten trabajos". "Los estafadores consiguen que sus víctimas participen en un reto de programación o en alguna tarea previa a una entrevista", añade, "pero el proyecto que descargan contiene un código troyanizado capaz de robar la identidades de desarrolladores aspirantes".
Existen otros enfoques. Por ejemplo, el grupo Scattered Spider utilizaba técnicas de phishing con un alto grado de personalización gracias a la información extraída de sitios corporativos, redes sociales y fuentes de código abierto. Solía dirigir sus ataques a miembros de servicio de asistencia técnica de la empresa objetivo haciéndose pasar por un empleado con acceso bloqueado. Una vez restablecida la contraseña, podía saltarse la autenticación multifactor (MFA) del usuario y acceder de forma profunda a los sistemas de la víctima.
Contra los engaños generados por la IA es clave elaborar y aplicar procesos
Josep Albors, director de Investigación y Concienciación de ESET España, explica por teléfono a Público que estas operaciones pueden plantearse para sustraer información sensible o, como en algunos casos, simplemente para obtener un trabajo remunerado y redirigir esos fondos a países como Corea del Norte. En su nota, ESET destaca el caso sufrido por la empresa estadounidense KnowBe4, donde un candidato utilizó un deepfake en una entrevista para obtener un puesto remoto.
En cuestión de seguridad, subraya Albors, la clave está en "la elaboración de los procesos" en el seno de los departamentos de recursos humanos. "No se trata tanto de implementar medidas técnicas sino de crear procesos y aplicarlos cuando éstos sean necesarios", sugiere este experto, de manera que no se tenga que engañar sólo a una persona (por ejemplo, con una videollamada de baja calidad para camuflar posibles defectos), sino a más sujetos encargados de revisar la autenticidad de los datos.
'Malware' cada vez más sofisticado
Otro frente preocupante es la evolución del propio malware mediante el uso de IA generativa de forma maliciosa. El Grupo de Inteligencia de Amenaza de Google (GTIG por sus siglas en inglés) ha actualizado esta semana su análisis de enero de 2025 y alerta de la existencia de "experimentos con la IA" por parte de ciberdelicuentes y grupos patrocinados por gobiernos [PDF].
Por primera vez, según este informe, Google han identificado familias de malware que usan modelos de lenguaje grande (LLM, por sus siglas en inglés) durante su ejecución, potencialmente capaces de modificar su comportamiento de forma dinámica, autoescribir parte de su código para evitar así su detección (como Prompflux) e incluso crear funciones maliciosas "a la carta", aunque aún de manera experimental.
En su análisis, Google indica que ha comprobado cómo ciberataques procedentes de China, Corea del Norte, Rusia e Irán están usando herramientas de inteligencia artificial, incluso su propia Gemini, en sus procesos para "mejorarlos". Y no sólo usan las IA convencionales, sino otras "sin restricciones" adquiridas en el mercado negro y que pueden facilitar la entrada de nuevos delincuentes, según explica en una nota Billy Leonard, jefe de tecnología del GTIG.
Josep Albors remarca que, de momento, los casos de malware capaces de automodificarse es más algo teórico que real. "Siempre hay que analizar la cadena de infección, que va mucho más allá de la supuesta existencia de un malware que lo hace todo", comenta, y añade que "cada herramienta cumple con un objetivo como robar credenciales, y con esas credenciales se usan otras herramientas para realizar ataques laterales... es más complejo".
Lo que sí que parece es que muchos de los procesos para tratar de atacar un sistema se están automatizando, algo que se sucede desde hace años y que ahora lo hace más rápido y con más frecuencia debido a las herramientas de inteligencia artificial.
Peligro actual y creciente
Un reciente informe de Gartner muestra que el 62% de las organizaciones del mundo desarrollado ha sufrido al menos un ataque de deepfake, bien mediante técnicas de ingeniería social o a través de la explotación de procesos automatizados. Ante este panorama, la compañía aboga por fortalecer los controles básicos de identidad: ya no vale sólo el nombre de usuario y una contraseña. Akif Khan, vicepresidente analista de Gartner, afirmó hace unas semanas en un evento de dicha compañía sobre seguridad que "a medida que se acelera la adopción de AI generativa, los ataques que utilizan esta tecnología para phishing, deepfakes e ingeniería social se han generalizado".

Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.