Porno no consentido generado con IA: ¿Qué es y qué regulación hay?

publicado el 21 de Septiembre de 2023

Una veintena de niñas y chicas de Almendralejo -Badajoz-, de entre los 11 y los 17 años, han denunciado la difusión de imágenes falsas de ellas desnudas generadas con Inteligencia Artificial.

Pero, ¿cómo se controlan estos deepfakes y, sobre todo, a quién afectan?

Los deepfakes son imágenes que imitan de forma muy fidedigna a la persona real, son un robo de su identidad y un fraude.

El 95% de estas imágenes se generan con la intención de crear porno sin consentimiento de las víctimas, y nueve de cada diez de ellas son mujeres, según la compañía Sensity AI.

Los primeros casos conocidos fueron con celebridades famosas. En España, Rosalía fue víctima de esta práctica cuando otro cantante hizo campaña de su disco con un desnudo falso de ella. La influencer Laura Escanes también denunció un ataque similar. O Susanna Grisso, a la que le hicieron un montaje pornográfico que se llegó a exponer en la feria de arte, ARCO.

Scarlett Johansson, víctima reiterada de estos deepfakes, ha llegado a decir que no hay nada que hacer contra tal perversión en internet.

Pero, a nivel legal ¿hay algo que hacer? Abogadas y abogados debaten sobre qué legislación se puede aplicar contra estos delitos. Entre los abogados y abogadas hay debate sobre qué jurisprudencia se aplica en este caso. Para Borja Adsuara, Profesor de Derecho en la Universidad Villanueva, especializado en el mundo digital, sería el artículo 189. del Código Penal. ¡Te explicamos más en el vídeo!

Firma: Candela Barro.
Imágenes: Atlas y archivo propio.
Espacio de la entrevista y agradecimientos: Universidad Villanueva.






Te recomendamos