Público
Público

Tecnología Ética para robots: ¿a quién deben lealtad los algoritmos que nos rodean?

Detrás de una inteligencia artificial hay una mente humana que la ha desarrollado y unos datos que la alimentan. Pero, sobre todo, suele haber una empresa. Mientras el mundo se automatiza a toda velocidad y dejamos cada vez más que las máquinas 'decidan' de forma autónomas, quizá habría que cuestionarse quién debería establecer ciertos límites.

Publicidad
Media: 5
Votos: 1

Tenemos que hablar de ética e inteligencia artificial | Jonny Lindner | PIXABAY

Queremos más inteligencia artificial, pero aún estamos buscando establecer los límites éticos a los que se debería someter este desarrollo. Estamos a las puertas de la automatización de los vehículos, ciertas decisiones relacionadas con la banca y los seguros se basan ya en inteligencia artificial, y las mayores compañías del planeta (Amazon, Alphabet, Microsoft, Facebook, pero también Apple) se dedican a la recogida masiva de datos. Resolver este debate es de vital importancia antes de que la tecnología decida por sí misma sobre nuestras vidas cotidianas.

Porque ya lo está haciendo. El caso más "ruidoso" lo protagonizan las redes sociales y los gigantes de la red, que alimentan sus máquinas con los datos personales de sus usuarios (o no) para, al final, llegar a conocer nuestros deseos, anhelos y temores casi mejor que nosotros mismos. Y el motor que alimenta todo este desarrollo es el beneficio derivado de la publicidad, de convencernos para que actuemos y compremos.

En ese proceso, los escándalos sobre el uso irregular de los datos personales de millones de personas han contribuido a impulsar el debate sobre la necesidad de un marco normativo y, por encima de él, ético. De hecho, los códigos deontológicos suelen apuntar más alto que las propias normas jurídicas. Es decir, marcan una serie de conductas a evitar que, aún siendo legales, no serían buenos en nuestra actividad ni para nuestros usuarios ni para nuestros clientes, si hablamos de empresas. Precisamente por esto, parece que la autorregulación no funciona.

Por ejemplo, la enésima pillada a Facebook en comportamientos poco éticos ha tenido lugar hace escasos días, cuando la NBC confirmó a través de miles de documentos internos que la compañía de Mark Zuckerberg vendió acceso a datos de usuarios a cambio de inversiones en anuncios. Esto trasciende gracias a un trabajo periodístico a partir de una filtración, no porque la compañía sea más transparente. Mientras, en público, el propio fundador se muestra cada vez más "preocupado" por la privacidad de los usuarios.

"El debate sobre los límites éticos de la tecnología está presente, pero se habla mucho más de lo que se hace"

"En el entorno tecnológico, el debate sobre los límites éticos del desarrollo de la tecnología está presente, pero se habla mucho más de lo que se hace; es lo que se conoce ya como el ethics-washing, un intento de lavado de cara mediante la invocación de la ética del que adolecen muchas tecnológicas", subraya la periodista y profesora Esther Paniagua, que recuerda también la reciente cancelación por parte de Google del flamante (y problemático) Comité Asesor en Ética una semana después de crearlo, debido a que algunos de sus integrantes eran 'cuestionables'.

A veces son los accionistas los que piden a una tecnológica que ponga el freno a algún desarrollo. Es lo que está pasando en Amazon, cuyos trabajos en reconocimiento facial automático suscita recelos por la posibilidad de que caiga en manos del gobierno sin una regulación adecuada.

"Sin duda deben existir límites en el desarrollo de la inteligencia artificial y de cualquier tecnología que respeten derechos fundamentales, como el derecho a la intimidad o a la no discriminación por razones de género o procedencia, por ejemplo", comenta Paniagua. "Las consecuencias de sistemas que incurran en estas violaciones son muy graves; si tienes un algoritmo para asignación de recursos que no ha pasado los controles procedentes puedes acabar dejando sin coberturas de salud a personas que las necesitan, como pasó en Arkansas". También sucede, por ejemplo, con ciertos programas informáticos de recursos humanos que tienen un sesgo de género que perjudican a las mujeres.

"Otro aspecto son los riesgos a los que nos exponemos con la aceptación automática de los términos y condiciones de turno, que nos dejan expuestos a que hagan poco menos que lo que quieran con nuestros datos", apunta esta periodista.

Algoritmos y lealtad

"El algoritmo —que es un proceso, como una receta de cocina— no es ético, quien tiene que ser ético es quien lo ha construido", sostiene Borja Adsuara, profesor y abogado especializado en sociedad digital. "Por eso no se le puede echar la culpa al algoritmo sino a quien ha diseñado el procedimiento, que puede ser mala persona o estar buscando un interés".

A Borja Adsuara le gusta hablar de "éticas, porque no hay una sola ética"; por eso prefiere centrarse en el concepto de "lealtad". "Cuando tengo que explicar en mis clases, por ejemplo, qué es el tratamiento leal de los datos, me remito al principio filosófico kantiano que dice 'no hagas con los datos de los demás lo que no te gustaría que hiciesen con tus propios datos'", explica.

Además, el abogado recuerda que principio tiene un reflejo normativo como inspirador del derecho a la protección de datos que recoge la Carta Europea de Derechos Fundamentales: el tratamiento "leal" de los datos.

Una inteligencia artificial ética debería de girar siempre en torno al beneficio para el ser humano, no sólo a la empresa. Pete Linforth | PIXABAY

En este contexto, ¿cuál es la lealtad de una empresa con los datos de sus clientes, datos con los que además se alimentan los algoritmos con los que entrena sus máquinas? La lealtad —como sucede en las parejas— ha de ser mutua, recuerda este experto, que apunta que la falta de lealtad de una empresa como Facebook hacia sus usuarios se ha traducido en una quiebra de la confianza: "Ha sido desleal en el tratamiento de nuestros datos". "Luego puedes seguir emparejado porque igual no te queda otra, pero esa confianza va a ser muy difícil recuperarla", añade.

"Creo que hemos pecado de confiados", opina Paniagua, que sostiene que "lo ideal sería que hubiera un organismo independiente de supervisión y regulación profesional para la industria de la inteligencia artificial, que se someta obligatoriamente a un código de conducta igual que lo hace los médicos, abogados, ingenieros o nosotros los periodistas". "La inteligencia artificial reconfigura la sociedad y es una creciente fuente de poder que debe someterse al control democrático", apunta.

De hecho, la Comisión Europea cuenta con el grupo "de alto nivel", integrado por 52 expertos procedentes del ámbito académico, empresas y de la sociedad civil, que ha estado trabajando en un documento con una serie de principios "para una inteligencia artificial confiable", con cinco principios básicos: hacer el bien, no hacer el mal, autonomía de los humanos, justicia y que sus acciones sean explicables. Habrá que esperar para ver en qué desemboca esto.

'Botón rojo de parada'

"De todas maneras, la inteligencia artificial está aún en pañales", sostiene Adsuara. Para él, hoy en día en el mejor de los casos deberíamos hablar de procesos automatizados que, por regla general, surgen a partir de patrones detectados por un algoritmo a partir de la ingesta masiva de datos.

Además, un problema añadido se plantea con el aprendizaje profundo, es decir, aquel que está diseñado para lograr que una máquina 'aprenda ella sola' a partir de unas instrucciones o reglas. En este caso, puede que el desarrollo sea completamente ético, pero el sistema podría dar resultados indeseados, injustos o discriminatorios para el usuario. Porque la máquina no tiene ética, sino que buscará la eficiencia.

"El Reglamento de Protección de Datos nos da el derecho a los ciudadanos para preguntarle al banco por las decisiones de los programas que usan para la clasificación crediticia, por ejemplo, pero sólo pueden contarte cómo son las instrucciones iniciales porque luego, por el aprendizaje profundo, van sacando sus propias conclusiones", comenta Adsuara.

Para el abogado, la inteligencia artificial no sabe aún "leer entre líneas", aplica tal cual las normas que se le proporcionan; le queda mucho aún para acercarse a la inteligencia natural humana porque carece de emociones y "no es previsible que esto vaya a cambiar pronto". Por tanto, se corre el mismo riesgo que comentábamos antes: que las decisiones que 'tome' un programa informático, ajustadas perfectamente a las instrucciones y normas, deriven en resultados injustos o perjudiciales.

"La única manera de controlar todo esto es, por un lado, que una inteligencia humana analice y valide el resultado", sugiere Adsuara, "y por otro, como ya se ha dicho muchas veces, prever que en toda inteligencia artificial exista un botón rojo de parada".

Más noticias en Política y Sociedad