Público
Público

Armas autónomas o la perpetuación de los prejuicios, riesgos de la inteligencia artificial

Los sesgos discriminatorios de los algoritmos, la invasión de la privacidad, los riesgos del reconocimiento facial y la regulación de las nuevas relaciones entre humanos y máquinas son retos para gobiernos y grandes empresas, cuyos intereses priman muchas veces sobre las buenas prácticas.

Robot llamado Sophia durante la presentación del Web Summit, en Lisboa, Portugal, el 6 de noviembre. / Reuters

Ana hernando / SINC

La inteligencia artificial (IA) ya no es cosa de ciencia ficción, está en todas partes. Tu banco la usa para saber si te va a dar un crédito o no y los anuncios que ves en tus redes sociales salen de una clasificación llevada a cabo por un algoritmo, que te ha microsegmentado y ‘decidido’ si te muestra ofertas de cremas antiarrugas o de coches de alta gama. Los sistemas de reconocimiento facial, que utilizan aeropuertos y fuerzas de seguridad, también se basan en esta tecnología.

“Las máquinas no tienen una inteligencia generalista, tampoco hemos logrado que tengan sentido común, pero sí disponen de inteligencias específicas para tareas muy concretas, que superan la eficiencia de la inteligencia humana”, explica a Sinc Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC.

“Muchas empresas están ahora creando comités éticos, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas, dice Carles Sierra. Por ello –agrega– “la IA tiene un enorme potencial en la mejora de procesos industriales, el diseño de nuevos medicamentos o para lograr mayor precisión del diagnóstico médico, por citar unos pocos ejemplos”.

Los datos son el nuevo petróleo

Pero aparte de un gran avance, la IA es ahora mismo un enorme negocio, que se estima en unos 190.000 millones de dólares (unos 170.000 millones de euros) para 2025, incluyendo hardware, software y servicios alrededor de la tecnología. Los datos son considerados ahora como el nuevo petróleo.

Este negocio tan apetitoso se lo disputan, entre otros, gigantes tecnológicos como Amazon Google, Facebook, Microsoft e IBM, “cuyos intereses comerciales priman muchas veces sobre las consideraciones éticas”, dice Sierra.

Empresas como Amazon, Google o Facebook han creado comités éticos, pero de forma reactiva tras las críticas recibidas

Muchas de estas firmas –señala– “están ahora creando comités éticos en el ámbito de la IA, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas por el uso inapropiado de la IA en ámbitos relacionados con la privacidad de los usuarios o la utilización sin la debida supervisión de algunas aplicaciones.

Según comenta a Sinc Carme Artigas, experta en big data y embajadora en España del programa Women in Data Science de la Universidad de Stanford, un ejemplo de estos usos controvertidos fue el llevado a cabo por Microsoft cuando decidió lanzar su bot Tay. Este chatbot basado en IA “estuvo navegando por sí solo en Twitter y al cabo de unas horas empezó a publicar tuits racistas y misóginos porque había cogido lo mejor de cada casa en esta red social”. A las 16 horas del lanzamiento la firma tuvo que desactivarlo. “Cuando un sistema no se supervisa, no hay filtro", señala Carme Artigas.

La ética de la IA es una cuestión que está ahora en una fase incipiente de desarrollo y tendrá que afrontar importantes retos. Uno de ellos, en opinión de esta experta, es lo que denomina la “dictadura de los algoritmos”.

Por ejemplo –señala– los algoritmos de clasificación, lo que hacen “es microsegmentar a las personas, es decir, clasificarlas por su comportamiento, lo cual puede conducir, si no se regula o si el proceso no es transparente, a que al final se le limiten a la gente sus opciones para elegir libremente”.

“Imagina –añade Artigas– que un algoritmo microsegmenta a alguien como una persona de renta media baja, deduce que nunca se va a poder comprar un Ferrari o un Porche y, por tanto, en los anuncios nunca le va a mostrar un coche de gama alta porque sabe que no se lo puede permitir. Este es un ejemplo que puede parecer poco importante, pero deberíamos preguntarnos si es ético no presentar algo a la gente ni siquiera para que sueñe porque ya ha sido preclasificada”.

El riesgo de perpetuar los prejuicios

"Los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado", Artigas, experta en big data

Otra cuestión relevante y que ocasiona graves problemas de sesgo “es que, como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”. Artigas habla para ilustrar este aspecto de los “típicos estudios de criminalidad en EE UU, que apuntan a que las personas afroamericanas tienen más probabilidades de cometer delitos”.

En esta misma línea, Isabel Fernández, directora general de Inteligencia Aplicada en Accenture, hablaba en una entrevista con Sinc sobre la necesidad de un protocolo que regule los sesgos en IA. “No me cabe ninguna duda de que esto va a haber que regularlo. Ya no solo se trata de buenas prácticas. Igual que ocurre en un quirófano para garantizar que está limpio, creo que tiene que haber un protocolo o una acreditación para evitar los sesgos en los datos”, subrayaba.

Según Carme Artigas, hay otro gran requerimiento ético que se debe pedir a cualquier empresa u organización que trabaje con IA y que se sitúa alrededor de la transparencia y lo que se denomina explainability. Esto es, explica, “si el banco te deniega un crédito porque, según el algoritmo, no eres apto, tienes el derecho a que la entidad te explique por qué y cuáles son los criterios para desecharte”.

Las cajas negras de los algoritmos

Sin embargo, los algoritmos basados en 'deep learning' muchas veces llegan a conclusiones que ni los propios expertos entiende. “Esta opacidad es lo que se denomina cajas negras de los algoritmos”, comenta a Sinc Aurélie Pols, responsable de protección de datos (DPO, por sus siglas en inglés) de la firma mParticle y consultora de privacidad.

“En estas cajas negras la entrada y el procesamiento no siempre son claros o explicables. Estos resultados opacos pueden tener consecuencias en la vida de las personas y posiblemente no estarán alineados con sus valores ni con sus opciones”, subraya Pols.

Patrick Riley, científico de computación de Google, abundaba también en esta misma idea en un artículo en la revista Nature del pasado mes de julio. “Muchos de estos algoritmos de aprendizaje automático son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas", advertía Riley.

A todas estas reflexiones, se suman los problemas relacionados con la protección de los datos personales. En IA “es importante que los modelos de datos que se usen para alimentar estos sistemas y su tratamiento respeten la privacidad de los usuarios”, destaca Carme Artigas, preocupándose por países exentos de regulación en la materia como China. 

Artigas se refiere además a otro de los viejos retos éticos vinculados a la IA, que es el de cómo regular las nuevas relaciones entre humanos y máquinas. “Si utilizas un paralelismo como ha hecho la UE de la leyes de la robótica de Asimov y las traduces a normativa, esta te dice, por ejemplo, que no se deben establecer relaciones emocionales con un robot . Y esto entra en contradicción con algunas aplicaciones de los robots sociales, que se usan, precisamente, para provocar emociones en personas con autismo o con enfermedades neurodegenerativas, ya que esta vinculación ha demostrado ser beneficiosa y positiva en terapias”.

Principio de prudencia

Por su parte, Ramón López de Mántaras, profesor de investigación del CSIC en el IIIA, hablaba en una reciente conferencia de la importancia que tiene en el desarrollo de la inteligencia artificial aplicar el principio de prudencia. “No hay que lanzarse alegremente a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subrayaba.

Un ejemplo de la aplicación de este principio –señalaba– “lo ha protagonizado la ciudad de San Francisco, cuyas autoridades han decidido prohibir los sistemas de reconocimiento facial. Algo de lo que me congratulo porque es una tecnología con muchos fallos, que puede acabar teniendo repercusiones tremendas en la vida de la gente cuando es utilizada por gobiernos o fuerzas de seguridad”. Un ejemplo reciente de este uso es el llevado a cabo por la policía con los manifestantes de las revueltas de Hong Kong, que ha sido ampliamente criticado.

Armas autónomas y decisión de matar

Otro de los aspectos éticos problemáticos puestos de relieve por López de Mántaras en su intervención está relacionado con el uso de armas autónomas basadas en IA. “Hay principios básicos como los de discernimiento y proporcionalidad en el uso de la fuerza que ya resultan difíciles de evaluar para los seres humanos. Veo imposible que un sistema autónomo pueda tener en cuenta estos principios”, señalaba.

“Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”, opina López de Mántaras. Este Premio Nacional de Investigación se preguntaba cómo un sistema autónomo “va a ser capaz de distinguir –por ejemplo– a un soldado en actitud de ataque, de rendición, o a uno herido. Me parece absolutamente indigno delegar en una máquina la capacidad y la decisión de matar”.

¿Te ha resultado interesante esta noticia?