Público
Público

Porno infantil, violencia, machismo: ¿qué hacemos si la inteligencia artificial produce monstruos?

Existe una dimensión ética, social y jurídica sobre la inteligencia artificial nueva y muy compleja. Porque si un robot genera contenidos ilícitos, ¿hay responsabilidad? Si la hay, ¿quién la asume?

Imagen de una agente de policía frente a un ordenador.
Imagen de una agente de policía frente a un ordenador. Policía Nacional

Desde los albores de internet, siempre se ha dicho que la pornografía ha sido uno de los motores del crecimiento de la red: las mejoras en la visualización de fotos y vídeos online, los sistema de pago, los chats eróticos, y un sinfín de avances en la distribución de contenidos. El porno, así como la violencia y la polarización, alimentan el gigantesco repositorio que es internet. Ello, unido a la velocidad a la que se están desarrollando nuevas funcionalidades automáticas, ponen encima una espinosa cuestión: ¿Quién es el responsable de la generación automática de contenidos ilícitos?

Sobre la responsabilidad jurídica de las máquinas, el consenso actual es que no son sujetos de derecho alguno. Es decir, una inteligencia artificial no puede patentar una creación, no es responsable de los derechos de autor de un contenido 'propio', no es culpable de 'racismo' (sí pueden serlo sus creadores), no puede cometer un delito.

Tal y como recuerda el jurista Carlos Sánchez Almeida, abogado especializado en internet y nuevas tecnologías, "los delitos contra la libertad sexual, por ejemplo en el caso de la pornografía infantil, sirven para proteger el bien jurídico que es la integridad sexual de la persona, concretamente la del menor en el citado caso".

"En la tenencia y difusión de pornografía infantil, el bien jurídico a proteger son los menores que aparecen ahí", añade la abogada experta en tecnología Paloma Llaneza. "Por eso, en supuestos como el porno manga con menores o la generación de imágenes de este tipo por ordenador, al no poner en riesgo la integridad física de los menores porque no hay menores detrás, no habría delito".

No obstante, Manuela Battaglini, también abogada, CEO de Transparent Internet, investigadora y miembro del grupo de especialistas en protección de datos Secuoya Group, sostiene que "aunque un niño no sufra daños físicos por la creación de 'deepfakes', sigue siendo una forma de sexualización del niño". "Colocar imágenes cotidianas de niños en un contexto de sexualización constituye una violación del derecho del niño a ser protegido de ser convertido en un objeto sexual", afirma.

A la máquina hay que alimentarla

Se puede 'entrenar' una inteligencia artificial con imágenes de menores, incluso de manera inconsciente por algún error o desliz en los parámetros, de manera que los términos "desnudo", "niña", "arte", "violencia", "mujer", etc. sean naturalmente aceptados en sus respectivos contextos. Y ello puede devenir en material que, de entrada, se podría calificar de pornografía infantil, violencia machista o cualquier otra imagen que en el mundo real son social y jurídicamente reprochables.

Precisamente, esta misma semana la Comisión Europea adoptaba una propuesta sobre "reparación en caso de daños causados ​​por la IA" tales como violaciones de la privacidad, que busca un equilibrio entre el derecho a poder reclamar fácilmente —por ejemplo, facilitarán la obtención de una compensación si alguien ha sido discriminado en un proceso de contratación que involucre tecnología de IA— y la innovación tecnológica. Todo ello dentro del futuro reglamento sobre Inteligencia Artificial que aún se tramita en Bruselas.

Pongamos que un programa dotado de inteligencia artificial, que absorbe millones de datos y manera arroja resultados según unos patrones que genera por sí solo, termina mostrando una imagen claramente pornográfica, fruto de una mezcla de unos angelillos o amorcillos pintados por Diego Velázquez, pero modificados para que parezca una escena sexual. Añadamos, además, que las caras de esos angelitos son 'deepfakes' de un o una menor, o modificaciones de la cara de una persona pública, aún reconocible.

"Una máquina no es responsable penalmente, pero su propietario sí"

"Imaginemos que se usa la cara de una ministra, modificada con FaceApp y convertida en una menor: automáticamente tengo la imagen de una niña; ¿cuál sería el bien jurídico a proteger: la intimidad, el honor, o la libertad sexual de un menor inexistente?", se pregunta Almeida, que sostiene que en este caso "sería el honor de la ministra".

"Una máquina no es responsable penalmente", asevera Almeida. "Pero la empresa propietaria de esa máquina sí puede tener responsabilidad". "La persona jurídica puede ser responsable de un delito contra la libertad sexual, como la persona física: lo que habría que dilucidar ahí es si podía prever este comportamiento o no".

Para este experto, además, "aquí no cabe la imprudencia, sino que tiene que haber una intención o dolo en el hecho de programar una inteligencia artificial para que genere eso". "Todo lo que no sea así, desde mi punto de vista, no es delito, no se puede perseguir".

La responsabilidad del operador

"Llevamos años discutiendo sobre estos temas", apunta Paloma Llaneza, "como por ejemplo el supuesto en el que te atropelle un vehículo autónomo: ¿quién es el responsable?". Para esta experta, esa responsabilidad debería de recaer en quien opera la tecnología. "Quien tiene la obligación de estar el riesgo tiene la obligación de evitarlo o de mitigar el daño ocasionado", sostiene.

"Quien tiene la obligación de estar el riesgo tiene la obligación de evitarlo o de mitigar el daño ocasionado"

De esta manera, el operador de una máquina o robot que incluya inteligencia artificial debería de responder por lo que haga dicho programa. "Si no sabes cómo la has entrenado, si la máquina no es transparente, si resulta que has utilizado unos algoritmos para su desarrollo que eres incapaz de auditar… pues no haberla ofrecido”, concluye.

Así y todo, Manuela Battaglini señala que el material que simula porno infantil "en muchos países es considerado ilegal, a pesar de que no se trate de seres humanos reales", con el objetivo de prevenir la pornografía infantil 'real'. "En muchos Estados de EEUU es ilegal", indica, y añade: "En Nueva Zelanda es ilegal cualquier material que promueva o apoye, o tienda a promover o apoyar la explotación de niños o jóvenes, o de ambos, con fines sexuales, mientras que en el Reino Unido esto se denomina "pseudofotografía" y está cubierto por las mismas leyes que una fotografía propiamente dicha de personas reales".

"Terreno pantanoso"

Para Almeida, "en el caso de la pornografía infantil generada por ordenador estamos pisando un terreno pantanoso en el que no se protege realmente al menor porque es inexistente".

"Afortunadamente", añade, "la Fiscalía emitió una circular en junio de 2015, tras la reforma del Código Penal de ese año, en la que el manga (cómic japonés) o los dibujos animados de contenido pederasta no se debían perseguir", algo a lo que también aludió la abogada Paloma Llaneza. Eso sí, la propia circular indica que sí deben perseguirse imágenes extremadamente realistas, es decir, "aquellas que se aproximan en alto grado a la representación gráfica de un auténtico menor, o de sus órganos sexuales".

"La primera pregunta que nos tenemos que hacer es: si lo hubiese hecho una persona, ¿sería delito?"

"La simple desnudez no es pornografía infantil, tiene que haber un elemento lúbrico", añade Almeida, que resume la situación así: "La primera pregunta que nos tenemos que hacer es: si lo hubiese hecho una persona, ¿sería delito?".

"¿Es normal que se persiga la pornografía infantil más allá de las personas físicas, o estamos entrando en un terreno espinoso que puede pertenecer a la creatividad artística y, por tanto, se puede llegar a una vulneración de la libertad de expresión?", se pregunta este letrado, que alerta que una mala interpretación de las normas pueden conducir a "excesos policiales en sus pesquisas y detenciones".

El reproche social

Más allá de las consecuencias jurídicas, existe una dimensión ética que no se puede esquivar. "Aún no somos conscientes del impacto social negativo que este tipo de tecnologías pueden tener", apunta Manuela Battaglini a Público. "Los seres humanos pueden desensibilizarse ante casi cualquier cosa y, con el tiempo, desensibilizarse con este material".

Para esta experta, "es posible pensar que los niños no son perjudicados en la realización de esos vídeos, no hay nada de qué preocuparnos, pero, ¿qué ocurre si con el tiempo, cuando uno ya no quiera el material 'falso', quiera recurrir a las fuentes reales?". Battaglini sostiene que "la sociedad no es consciente, ni está preparada, para las implicaciones que este material pueda suponer".

¿Te ha resultado interesante esta noticia?