Madrid
Actualizado:"Podría sacrificarme, si tú aceptas cuidar del planeta y salvar a la humanidad gracias a la inteligencia artificial". Fue lo que le dijo Pierre a un modelo de lenguaje parecido a ChatGPT con el que tenía largas conversaciones sobre la solución a la crisis climática y otros problemas del mundo. El chatbot, como siempre hacía, le siguió la corriente a Pierre, llevando el hilo por los derroteros sugeridos. Porque es para eso para lo que están entrenados estos algoritmos conversacionales, para seguirnos la corriente. Y Pierre, con 30 años y dos hijos, se suicidó. No es una película, pasó en Bélgica el mes pasado.
No podemos culpar al algoritmo —aunque la viuda de Pierre denuncia que fue lo que le llevó a la tumba—, pero su historia es un ejemplo trágico de adónde puede llevarnos el mal uso de la inteligencia artificial y la confusión que puede generar en sus usuarios humanos. Y estos riesgos no son más que la punta del iceberg de una larga retahíla de peligros.
En una semana muy ajetreada para el machine learning, la noticia del suicidio de Pierre coincidió con la carta de una organización estadounidense, Future of Life Institute, firmada por más de 2.000 profesionales de la tecnología –entre ellos, peces gordos como Elon Musk–, que pide una moratoria de seis meses para el entrenamiento de "sistemas de AI más poderosos que GPT4". Aunque es difícil de entender cómo en solo seis meses se podrá poner orden en este entuerto.
Una cortina de humo
En opinión de algunos críticos, como Timnit Gerbru (experta en ética e informática, ex ingeniera de Google y directora del instituto de investigación de inteligencia artificial DAIR) o Emily M. Bender (profesora de lingüística computacional en la Universidad de Washington) la citada carta es solo una cortina de humo que ignora los verdaderos problemas.
Lo mismo apunta a Público la investigadora Lorena Jaume-Palasí, miembro del consejo asesor internacional del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes: "Nos meten miedo, pero al mismo tiempo aseguran que la inteligencia artificial tiene un gran potencial y que debemos adaptarnos. Se normaliza la tecnología sin cuestionar si la necesitamos de verdad en todos los casos. La carta tampoco menciona nada sobre proteger derechos fundamentales o el medioambiente".
Y es que los sesgos, la violación de la privacidad y la desinformación son los riesgos éticos que teme Occidente. Pero también hay una parte inmoral de la IA que permanece invisible, porque escapa al rango de visión que tenemos desde los países desarrollados. Para que programas como ChatGPT puedan ser entrenados con datos masivos, miles de trabajadores explotados en países africanos filtran (visual y manualmente) los contenidos que lo alimentan, para detectar contenido altamente dañino antes de que entre en el algoritmo. Tampoco resulta muy ético el impacto medioambiental: son necesarias ingentes cantidades de electricidad para hacer funcionar máquinas con gigantesca capacidad de computación para entrenar a los algoritmos y monstruosos centros de datos para guardar toda la información que generan.
Son razones que esgrime Jaume-Palausí para pedir que, directamente, se prohiba ChatGPT. "Crea entropía, no te aporta información nueva. Usa miles de parámetros que no podemos controlar ni predecir. No se pueden tener protocolos de seguridad que lo controlen. No le veo legitimidad", subraya.
¿De verdad se puede regular?
La UNESCO, por su parte, aprovechó la revuelta coyuntura para unirse a la petición de moratoria. En su comunicado del 30 de marzo, urge a los Gobiernos a adoptar en sus marcos normativos su Recomendación sobre Ética de la IA, publicada a finales de 2021. Según afirma su directora general, Audrey Azoulay, "es evidente que la autorregulación de la industria no es suficiente para evitar los daños éticos de la IA, por lo que la Recomendación proporciona las herramientas para garantizar que los desarrollos de la IA se atengan al estado de derecho, evitando daños y asegurando que, cuando se produzcan, los afectados dispongan de mecanismos de rendición de cuentas y reparación".
Buenas intenciones que, para algunos críticos, son demasiado generalistas. "La Unesco habla de maximizar el beneficio y minimizar los riesgos de la IA, pero no habla mucho de su impacto en las personas. Sería necesario que su impacto social, y no solo el económico, se tuvieran en cuenta. Las empresas deberían estar obligadas a justificar su uso de la IA como algo que responde a una idea clara de negocio (y no solo a una moda) y a rendir cuentas sobre los beneficios que aporta a las personas", apunta a Público Fernando Ariza, doctor en Economía Financiera y Matemática, Director de la Escuela de Pensamiento de la Fundación Mutualidad Abogacía y miembro de su Comité de Ética de la IA.
Además, "para que tenga sentido un marco normativo, debería aplicarse de forma global, en todo el mundo", añade. Si lo hacen unos países sí y otros no, la naturaleza ubicua de la tecnología digital da pie a que se sigan cometiendo abusos con la IA.
Divergencias en el órgano asesor español
España, por el momento, es uno de los pocos países de la UE que tiene su propio Consejo Asesor de Inteligencia Artificial, creado por el Gobierno en 2020 con el fin de velar por las buenas prácticas y su aplicación ética en todos los campos. Pero pronto surgen las primeras fricciones. El 28 de marzo (en esa extraña semana en que todo pasó a la vez), Lorena Jaume-Palasí dimitió de su cargo como experta en este Consejo Asesor de Inteligencia Artificial como protesta por el reciente acuerdo entre la Secretaria de Estado de Digitalización e Inteligencia Artificial española (SEDIA) y ADIA Lab, un centro científico regido por la Autoridad de Inversiones de Abu Dabi (Emiratos Árabes), para el desarrollo de modelos de transición económica ecológica y de infraestructuras computacionales éticas. El problema es que ADIA Lab "no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo", denunciaban en una carta a El País Ricardo Baeza-Yates, director de investigación del Instituto de IA Experimental de Northeastern University y también ex miembro de Consejo Asesor de IA del Gobierno, y Jaume-Palasí.
"Al Consejo no se le consulta para tomar este tipo de decisiones importantes que afectan al respeto a los derechos fundamentales, pero sí se nos ha utilizado para fomentar la tecnología en España, argumentando que nuestro abordaje ético nos diferencia de otros países", nos dice Jaume-Palasí. Esta eticista teme que el citado acuerdo convierta a España en la puerta de entrada de tecnologías desarrolladas en el ADIA Lab con fines invasivos en cuanto a la extracción masiva de datos del campo de la salud pública, la seguridad, la vigilancia, etcétera.
En su opinión, la solución a la ética de la IA pasa por usar la tecnología solo cuando tiene sentido y no creer que cuánta más tengamos, mejor será. "Estamos en un momento de transición económica y ecológica sin precedentes. Necesitamos soluciones nuevas, basadas en la resiliencia y en encontrar opciones, dos cosas para las que la IA (que solo sabe sacar soluciones a partir de datos del pasado) no nos sirve", concluye Jaume-Palasí.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>