Los audios con Inteligencia Artificial que estafan a los mayores al oír una voz familiar
La Policía Nacional advierte a lo largo de este año del 'voice hacking', nuevo método fraudulento con el que los ciberdelincuentes tratan de extorsionar a sus víctimas.

Madrid--Actualizado a
Cualquiera puede ser víctima de una estafa por un audio de voz creado con Inteligencia Artificial (AI). Pero las personas mayores son más vulnerables a este tipo de timos. Así lo confirma la Policía Nacional que desde este año ha lanzado alertas sobre la estafa por voice hacking.
El Movimiento para Detener el Maltrato a las Personas Mayores, ha reclamado, ante estos fraudes, una mayor coordinación entre servicios sociales, sanitarios, bancos y Policía para detectar malos tratos y abusos.
Las fuerzas y cuerpos de Seguridad del Estado, también en las policías autonómicas, han alertado de este tipo de estafas. La Policía Nacional incluso ha lanzado una advertencia en TikTok, donde una portavoz explica cómo los ciberdelincuentes obtienen grabaciones de voz de sus víctimas y las utilizan para generar audios falsos con el fin de solicitar dinero o realizar otras acciones fraudulentas a su círculo más cercano.
En el vídeo de la policía, esta agente advierte de que "los ciberdelincuentes obtienen tu voz mediante una grabación y, con Inteligencia Artificial, consiguen un audio en el que pueden engañar a tus familiares y amigos fingiendo que eres tú y solicitándoles dinero".
Hay más estafas sin necesidad de hacerse pasar por una voz conocida dentro de este sistema fraudulento. Pilar Sánchez, de 80 años, en Bilbao cuenta a Público cómo una operadora se hacía pasar por su compañía telefónica para informarle de una subida desproporcionada de su tarifa. Unas horas después, la víctima recibía otra llamada de la empresa de la competencia para ofrecerle sus servicios con una tasa más baja que la que ahora le ofrecía su propia compañía. Finalmente, la afectada perdía el número de teléfono fijo con el que llevaba 45 años.
Este tipo de estafa que afectó a Pilar, sin embargo, no podría darse desde el pasado 7 de junio, porque desde esa fecha las empresas y entidades pública tienen prohibido efectuar llamadas comerciales a través de móviles en virtud de un plan del Ministerio de Transformación Digital y para la Función Pública encaminado a combatir las estafastelefónicas y por mensajería móvil.
En España, los ciberdelitos, incluyendo las ciberestafas, han experimentado un aumento significativo en los últimos años. En 2023, hubo 427,448 estafas informáticas conocidas por las Fuerzas y Cuerpos de Seguridad, un 27% más que el año anterior, según datos del Ministerio del Interior Revista Ciberseguridad. Los fraudes informáticos representan la mayoría de los ciberdelitos, con más del 90% de las denuncias. Tres autonomías, Madrid, Cataluña y Andalucía, concentran casi la mitad de los fraudes informáticos detectados.
Tipos de estafa por 'voice hacking'
El Instituto Nacional de Ciberseguridad (Incibe) también alerta en su web sobre el voice hacking y explica que hay tres tipos de estafa a través de este sistema.
Vishing es una técnica de estafa en la que los delincuentes utilizan llamadas telefónicas para engañar a las víctimas y obtener información confidencial. Los estafadores suelen hacerse pasar por representantes de instituciones confiables, como bancos, servicios de atención al cliente o incluso agencias gubernamentales. Durante la llamada, pueden utilizar técnicas de ingeniería social para ganar la confianza de la víctima, haciéndole creer que debe proporcionar datos sensibles como números de cuentas bancarias, contraseñas, o detalles de tarjetas de crédito. Los delincuentes pueden utilizar esta información para realizar transacciones fraudulentas o para cometer otros tipos de fraude financiero.
En el caso de la suplantación de identidad por voz, los ciberdelincuentes emplean software avanzado de clonación de voz, conocido también como deepfake de voz o , para replicar la voz de una persona específica. Esta tecnología utiliza inteligencia artificial para analizar grabaciones de la voz de una persona y crear una versión sintética que suena igual que la original. Los delincuentes pueden usar esta voz clonada para realizar llamadas telefónicas o enviar mensajes de texto que parecen ser de alguien de confianza, como un ejecutivo de empresa o un familiar. Esto les permite engañar a las víctimas para que realicen acciones como transferencias de dinero, proporcionar información confidencial o realizar compras en línea bajo falsas pretensiones.
Además, otra forma de estafa es la de Asistentes de voz y dispositivos IoT, en este caso pueden explotar vulnerabilidades en dispositivos como asistentes virtuales (Alexa, Google Home, Siri) o sistemas de seguridad doméstica conectados a Internet para ejecutar comandos no autorizados. Esto puede incluir realizar compras en línea, desactivar alarmas de seguridad, acceder a información personal almacenada en el dispositivo, o incluso espiar a los usuarios mediante la activación de micrófonos. Estos ataques pueden ser llevados a cabo mediante comandos de voz falsificados o aprovechando brechas de seguridad en el software del dispositivo.
Casos denunciados
Incibe publica también su web casos de estas estafas que han dado la vuelta al mundo para alertar a la ciudadanía. Así, cuentan el caso de Ruth Card, una mujer canadiense de 73 años recibió una llamada de alguien que sonaba como su nieto, diciéndole que estaba detenido y necesitaba dinero para pagar la fianza. Preocupada, Ruth y su marido retiraron 3.000 dólares canadienses del banco. Sin embargo, antes de entregar el dinero, se dieron cuenta de que habían sido víctimas de una estafa. La voz que escucharon no era la de su nieto, sino una clonación generada por inteligencia artificial.
En 2023, Jennifer DeStefano recibió una llamada de alguien que, utilizando tecnología de clonación de voz, imitó la voz de su hija y le dijo que había sido secuestrada. Un hombre en la llamada exigió un rescate de 50.000 dólares. Aterrorizada, Jennifer intentó ganar tiempo y buscar ayuda, solo para descubrir después que su hija estaba a salvo y nunca había sido secuestrada. El caso destaca el peligro de la clonación de voz utilizada para estafar y manipular emocionalmente a las personas.
Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.