Público
Público

La UE trabaja en una regulación de la inteligencia artificial con importantes carencias para los más vulnerables

La futura normativa comunitaria recogerá la prohibición del uso de la inteligencia artificial para la vigilancia policial predictiva, pero se queda corta al abordar los abusos de los procedimientos automáticos en los controles migratorios.

Imagen de la frontera hispanomarroquí en Ceuta.
Imagen de la frontera hispanomarroquí en Ceuta. EP

La propuesta sobre la que trabaja el Parlamento Europeo para abordar una regulación de la Inteligencia Artificial carece de salvaguardias y garantías suficientes para proteger a los más vulnerables. Si bien prohíbe en general los sistemas de vigilancia predictiva, que tanto daño causan, no incluye protecciones específicas frente a las identificaciones biométricas y los sesgos que puedan perjudicar, por ejemplo, a los migrantes.

El pasado día 20 de abril, la Comisión de Libertades Civiles, Justicia y Asuntos de Interior del Parlamento Europeo (Libe) publicó un borrador con importantes enmiendas (PDF) a la futura y esperada normativa comunitaria sobre Inteligencia Artificial.

Varias organizaciones de defensa de los derechos humanos celebraron ciertos avances, aunque en general insisten en que siguen siendo insuficientes para proteger a los ciudadanos del posible abuso de estas tecnologías.

"Hay una proliferación de sistemas de inteligencia artificial totalmente indefendibles que pretenden hacer de todo, desde predecir la orientación sexual o política a partir de los rasgos físicos hasta detectar mentiras a partir de microexpresiones faciales", alerta Daniel Leufer, analista principal de políticas de Access Now, que incide: "Necesitamos líneas rojas claras para detener esas prácticas que socavan irremediablemente nuestros derechos fundamentales".

De esta manera, si bien recoge una prohibición general al uso de sistemas de inteligencia artificial para predecir comportamientos ilícitos -sobre todo por el riesgo de violación de la presunción de inocencia-, este veto no se extiende en concreto a los "sistemas de vigilancia predictiva basadas en la ubicación geográfica, que pueden aumentar las vigilancia policial discriminatoria en comunidades racializadas y pobres", comentaba hace unos días Sarah Chander, asesora senior de políticas de la ONG EDRi.

"Los ponentes han perdido una oportunidad importante para proteger los derechos de las personas, ya que no se prohíbe por completo la identificación biométrica remota en espacios públicos", afirma por su parte Caterina Rodelli, analista de políticas de la UE en Access Now, que añade: "Tal como está redactado ese borrador, existen excepciones tan amplias a esa 'prohibición' en la Ley de IA que prácticamente proporciona una base legal para esta tecnología tan distópica".

Derechos y migrantes

Otros asuntos íntimamente relacionados con la identificación automatizada que no aborda el texto de la futura ley europea son aquellos que tienen que ver con el control migratorio, uno de los puntos calientes en donde el uso de la inteligencia artificial sesgada puede terminar vulnerando derechos humanos fundamentales.

Para EDRi, es "crucial que los legisladores también prohíban los usos más peligrosos de la IA en contextos de migración y asilo, incluidas las evaluaciones de riesgo discriminatorias y el uso de sistemas predictivos para prevenir la migración", porque "exacerban el racismo y la discriminación" en un sistema que, de hecho, "ya es discrecional".

Se trata de una preocupación que comparten algunos expertos como Ana García Valdivia, doctora en computación e inteligencia artificial e investigadora en el prestigioso King's College de Londres. Personalmente interesada en las cuestiones migratorias, en una reciente entrevista con Público recordaba que "por mucho que lo programes de acuerdo con una base ética, un algoritmo no va a ser justo si el contexto no es justo".

El borrador propuesto "garantiza que las personas estén informadas y tengan formas de quejarse si se violan sus derechos", pero "no incluye el derecho a una explicación sobre cómo funcionan esos sistemas, ni el derecho a no estar sujeto a un sistema de inteligencia artificial prohibido", recuerda la citada ONG. Este extremo es importante, porque aunque la IA se usa cada vez más en empresas y administraciones, no hay manera de saber si nos evalúa una máquina o un humano.

"Los sistemas de categorización biométrica y reconocimiento de emociones tampoco se prohíben expresamente en el borrador", sostienen desde EDRi, y ello abre la puerta "a la discriminación y la invasión de la privacidad de las personas, ya que la naturaleza de estos sistemas es colocar a las personas en casillas arbitrarias en función de cómo se ven, caminan o se mueven".

En general, estas organizaciones civiles piden que las restricciones se extiendan a cualquier sistema de IA que represente un riesgo inaceptable para los derechos fundamentales.

El reto de regular la IA

La regulación acerca del aprendizaje automático supone todo un desafío debido a la naturaleza compleja del objeto: son sistemas desarrollados para evolucionar a medida que va alimentándose de datos puede crearse para un fin inicial y terminar usándose para otro completamente diferente

Asimismo, la inteligencia artificial no sólo se limita a la identificación biométrica o a los sistemas que predicen comportamientos, sino que abarca también prácticamente todos los aspectos de la vida digital cotidiana como las búsquedas en internet, la actividad en redes sociales, el scoring bancario e incluso una gran parte de la Administración electrónica (aunque la opacidad del Estado nos impide verlo).

El proyecto de normativa europea propone una clasificación de la Inteligencia artificial por su "riesgo". Así, en el borrador se recogen ocho categorías de "alto riesgo": identificación personal biométrica, gestión de infraestructuras críticas, educación, empleo, acceso a ayudas públicas, cumplimiento de las leyes, gestión de la migración y fronteras, administración de justicia y procesos democráticos (como procesos electorales o consultivos).

Incluye otras aplicaciones de IA, como los deepfakes (material generado automáticamente que imita algo real, como los rostros de personas inexistentes generados por máquinas) y chatbots (sistemas de interacción y respuesta para aplicaciones de mensajería), a los que exigirá mas transparencia, pero no aborda el uso de la IA en el sector militar, materia reservada para otro tipo de normativa.

Desde Access Now, EDRi y más de un centenar de organizaciones de defensa de los derechos civiles hacen un llamamiento a la Eurocámara para que refuercen la protección de los derechos individuales y, de este modo, la futura Ley de Inteligencia Artificial "pueda hacer lo que se supone que debe hacer: proteger a millones de personas del abuso y la explotación por parte de los sistemas de IA".

¿Te ha resultado interesante esta noticia?

Más noticias