Público
Público

Algoritmos desigualdad Guetos digitales: cuando el algoritmo se ceba con los más pobres

La búsqueda de soluciones técnicas a problemas que son políticos a través de la inteligencia artificial, perpetúa la desigualdad, ahonda en la brecha que separa a los parias de toda la vida de las clases privilegiadas.

migrantes
Un joven migrante revisa su teléfono en un campamento improvisado por Médicos Sin Fronteras en París durante el verano de 2020. Christophe Archambault / AFP

La inteligencia artificial produce monstruos. Hasta aquí nada que no haya contado ya la ciencia ficción con sus imaginarios apocalípticos. Pero distopías a un lado, lo cierto es que los desmanes de esa criatura etérea llamada algoritmo tienen sus consecuencias en el hoy y en el ahora. Esa supuesta panacea promovida por la tecnología afecta, y de qué manera, a los derechos civiles y la equidad económica.

La búsqueda de soluciones técnicas a problemas que son políticos perpetúa la desigualdad, ahonda en la brecha que separa a los parias de toda la vida de las clases privilegiadas. La investigadora Virginia Eubanks le pone cifras a una afrenta que es histórica, lo hace en el ensayo La automatización de la desigualdad (Capitán Swing), un texto que se da de bruces con automatismos que rigen vidas y que condenan a amplias capas de la sociedad estadounidense a no levantar cabeza.

Se ha erigido un nuevo régimen de los datos que limita las oportunidades de los más necesitados

"En la actualidad hemos cedido gran parte de ese poder de toma de decisiones a máquinas sofisticadas. Sistemas de elegibilidad automatizados, algoritmos de clasificación y modelos de predicción de riesgos controlan qué barrios se someten a vigilancia policial, qué familias reciben los recursos necesarios, a quién se preselecciona para un empleo y a quién se investiga por fraude", lamenta la académica.

Como lo oyen, de la mano del big data se ha erigido un nuevo régimen de los datos que limita las oportunidades de los pobres y de la clase trabajadora, desmoviliza su organización política, restringe sus movimientos y recorta sus derechos. Un proceso que en muy poco se diferencia de aquellos asilos y guetos que aglutinaban y escondían a las clases más desfavorecidas, manteniéndolos ocultos del común de las gentes.

Lola Burgueño, investigadora del Internet Interdisciplinary Institute de la Universitat Oberta de Catalunya, subraya la importancia de los datos que nutren, precisamente, dichos algoritmos: "Hay un tipo de algoritmo, que es de aprendizaje automático, que reciben cantidades importantes de datos y lo que hacen es aprender de ahí, de tal forma que si partimos de datos sesgados, los algoritmos perpetuarán esos mismos sesgos". 

Así de sencillo. Ese sesgo inicial podría ser como el pecado original. De ahí en adelante todo será un reflejo deformado. Esto explicaría, por ejemplo, que en 2014, el sistema algorítmico que puso en marcha Amazon con el objetivo de optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal, deviniera un reclutador sexista, tal y como desveló una investigación llevada a cabo por Reuters

Lola Burgueño: "Si partimos de datos sesgados, los algoritmos perpetuarán esos mismos sesgos"

Al parecer, el sistema recibió información sobre solicitantes de empleo durante un periodo de 10 años, y fue entrenado para observar patrones. Como la mayoría de los trabajadores reclutados hasta la fecha habían sido hombres, se impuso un sesgo en las contrataciones que dejaba en inferioridad de oportunidades a las mujeres. 

Fue sonada también la confusión de la aplicación Google Photos, encargada de compartir y almacenar imágenes y vídeo, al etiquetar a una pareja de negros como "gorilas". De nuevo, el "pecado original" consistía en haber "entrenado" al algoritmo con imágenes de blancos. Por no hablar de la investigación llevada a cabo en EEUU por informáticos y defensores de derechos humanos que demostraron en 2018 que el algoritmo COMPAS, implementado por los jueces para dictar sentencia, favorecía a los criminales blancos frente a los negros.

El riesgo siempre estará ahí. Dejarle a una máquina la responsabilidad de dirimir qué es justo y qué no, tiene su contrapartida. La sospecha de inhumanidad siempre andará al acecho. "El objetivo es contrarrestar esta capacidad −apunta Burgueño−, la Comisión Europea está sacando guías con directrices éticas para que cualquier software que tenga inteligencia artificial se ciña a ellas". 

Virginia Eubanks: "La mejor cura para el mal uso del 'big data' pasa por narrar historias mejores"

Se trata, por tanto, de editar, de detectar esos sesgos e introducir variantes: "Todavía quedan muchas zonas grises al respecto, pero confío en que progresivamente consigamos, desde la ingeniería, que esos algoritmos se comporten conforme a valores éticos".

Entretanto, y tal y como apunta la investigadora norteamericana Virginia Eubanks, quizá podamos empezar por generar nuevos relatos referidos a la pobreza: "El paso más importante es cambiar nuestro modo de pensar, de hablar y de sentirnos acerca de la pobreza. Aunque pueda sonar contradictorio, la mejor cura para el mal uso del big data pasa por narrar historias mejores. Ocurre, no obstante, que nuestra visión se ha visto radicalmente limitada por la mentalidad estrecha de miras que ha cuajado a la hora de hablar de los pobres y de la clase obrera".