Este artículo se publicó hace 3 años.
"Els algorismes no són neutrals, també necessiten ètica i control social"
Enric Senabre i Vicent Costa alerten en un llibre com la intel·ligència artificial s’està utilitzant per implementar un poder teòricament "tècnic" que escapa dels controls democràtics
Joan Canela
València-
La intel·ligència artificial ja fa temps que és entre nosaltres i condiciona bona part de les nostres vides, encara que no tinga el mateix aspecte que a les pel·lícules de ciència ficció. Els algorismes ens "orienten" i condueixen a l’hora de comprar, informar-nos, viatjar o decidir quina pel·lícula veurem o quin sopar triem. Però no només això, els algorismes es van estenent a cada cop més camps i ja s’apliquen en empreses de selecció de personal, administracions que regulen ajudes socials, sistemes d’admissió de centres escolars i, fins i tot, estratègies d’intervenció policial.
"L’algorisme s’ha envoltat d’un caràcter gairebé sagrat"
"L’algorisme s’ha envoltat d’un caràcter gairebé sagrat, les decisions que pren es venen com una solució merament tècnica i totalment asèptica, lliure dels biaixos humans, i per tant inapel·lable. I nosaltres hem volgut destapar aquesta mentida. L’algorisme està fet per persones i per tant té els seus mateixos biaixos i és propietat d’una empresa que, en última instància és responsable de les seues decisions i a qui se li pot demanar responsabilitats", explica a Públic Enric Senabre, professor de filosofia i especialitzat en la càrrega ètica de la tecnologia.
Senabre, juntament amb Vicent Costa –també filòsof i investigador a la UAB- ha publicat el llibre 'Intel·ligència Artificial. Com els algorismes condicionen les nostres vides' (Sembra Llibres) on expliquen amb molta pedagogia que és (i que no) la intel·ligència artificial, on i com s’aplica actualment, quins reptes planteja i quines implicacions socials i morals està suposant el seu desplegament sense pràcticament debat públic o, ni tan sols, regulació legal.
Un reflex de la nostra societat
Una de les qualitats que caracteritzen els actuals ginys d’intel·ligència artificial és la capacitat d’autoaprenentatge a partir de les experiències en què es troben mentre funcionen. Així, als biaixos introduïts pels prejudicis –conscients o no- dels programadors- cal sumar-hi els que la màquina va adquirint pel contacte amb el context social amb el qual interactua i que, a diferència d’un ésser humà no pot valorar ni comprendre. Així, els algorismes que s’han dissenyat per facilitar processos de selecció de personal o d’adjudicació d’ajudes socials de forma "neutra" i "tècnica" acaben reproduint els mateixos biaixos que suposadament es volien eliminar. Amb l’agreujant que ara es reprodueixen de forma molt més obscura i potent.
És el cas, per exemple, de Pred Pol, un algorisme aplicat per alguns serveis de seguretat dels Estats Units per tal d’identificar les zones més conflictives i facilitar una distribució dels recursos policials de forma més eficient. El resultat, però, és que una major concentració d’efectius en determinats barris va centrar en aquests les identificacions, els escorcolls i les investigacions, incrementant al seu torn el nombre de delictes detectats, en una profecia autocomplerta. Però, a més, a mesura que l’algorisme anava analitzant i incorporant les noves dades, el biaix es feia més i més profund, caient en els mateixos prejudicis racials, econòmics o nacionals que tenia una organització humana de la policia, però sense la possibilitat d’un debat polític sobre aquests. És el que la científica americana Cathy O’Neill va anomenar "armes de destrucció matemàtica".
"Cal una mirada ètica sobre la intel·ligència artificial"
"Exemples com aquest demostren perquè cal una mirada ètica sobre la intel·ligència artificial i perquè hi ha decisions que, encara que puguen tenir un suport de les màquines, necessiten sempre una supervisió humana. No podem deixar la justícia, l’educació o la guerra exclusivament en mans de robots", continua Senabre. "Per sort, el món tècnic comença a abandonar la idea del cientisme com a una ciència neutra i adonar-se que també necessiten l’ètica", apuntala Vicent Costa, coautor del llibre.
Ètica o benefici
"Un dels problemes per al control social de la intel·ligència artificial és l’opacitat dels algorismes. Davant les queixes per les decisions que aquests puguen generar la resposta és que ‘aquest funciona així i no s’hi pot fer res’. I açò és mentida, els algorismes podrien ser públics i transparents, però darrere l’opacitat s’hi amaguen els interessos econòmics de les empreses que els dissenyen", explica Costa. I és que al problema tecnològic s’hi suma la realitat econòmica. A diferència de la primera internet, on la majoria de les iniciatives eren públiques o d’organitzacions sense ànim de lucre, ara el gruix de la intel·ligència artificial està desenvolupada per empreses, el primer dels seus objectius, és el benefici dels accionistes. I, es poden conjugar capitalisme i ètica?
"Els algorismes es desenvolupen en un món, el d’internet, que és una selva, no hi ha normes, és la màxima expressió del neoliberalisme"
"Per respondre a la pregunta de si és possible una intel·ligència artificial ètica en el capitalisme, primer hem de respondre a la pregunta de ¿quin capitalisme? –reflexiona Senabre-. El problema no és només que aquests algorismes estiguen en mans d’empreses privades, sinó que a més es desenvolupen en un món, el d’internet, que és una selva, no hi ha normes, és la màxima expressió del neoliberalisme". Per fer front a aquesta realitat, aquest filòsof aposta per una regulació pública, una tendència, assegura, "que comença a imposar-se", amb experiències com la taxa Google o el control de les dades de Facebook.
Però per això, els autors del llibre fan una crida a organitzar una "guerrilla digital", una consciència ciutadana de control social del paper d’aquestes grans multinacionals. Una tasca que creuen que malgrat que semble inabastable, davant del poder de les grans empreses, "acaba donant els seus resultats".
Comentaris dels nostres subscriptors
Vols comentar-ho?Per veure els comentaris dels nostres subscriptors, inicia sessió o registra't..