La UE se encamina a su primera ley de Inteligencia Artificial en medio de unos 'chatbots' incontrolados
Italia se ha convertido en el primer país occidental en prohibir el uso de ChatGPT por sus brechas sobre la privacidad y la seguridad.
María G. Zornoza
Bruselas-Actualizado a
Un belga atormentado por el cambio climático se suicidó tras semanas interactuando con Eliza, un chatGPT. "Sin estas conversaciones, mi marido seguiría aquí", afirmó su viuda. A modo de simulacro, Bruno Le Maire, ministro de Economía francés, obtuvo de esta aplicación un discurso "fascinante" sobre la China de Xi Jinping en 2023. El periódico El Mundo llevaba a portada una fotografía realizada con Inteligencia Artificial de Yolanda Díaz y Pablo Iglesias. Y un alcalde australiano amenaza con demandar a dicho chat si no elimina información difamatoria y falsa contra él. Todos estos acontecimientos han ocurrido en el transcurso de una semana y ya abren el debate sobre los riesgos éticos, sociales y económicos de una tecnología que avanza a pasos agigantados.
"En los últimos meses, los laboratorios de Inteligencia Artificial (AI) han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable", reza una carta abierta publicada por más de 1.000 expertos del sector y respaldada por más de 10.000 firmas anónimas.
La Inteligencia Artificial está penetrando en la vida de las personas a un ritmo voraz al que la regulación no ha hecho frente y que deja a las grandes tecnologías que emergen en un vacío legal de impunidad. El riesgo creciente para identificar qué es verdad o que no está aupando la desinformación y la polarización social. Y la automatización de trabajo de las máquinas está dando paso a un escenario asimétrico en el que destruye más puestos de trabajo de los que genera. El 14 % de los empleos en los países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) son altamente automatizables y un 32 % podría enfrentar cambios sustanciales.
Por todo ello, el millar de firmantes de la misiva pide a las compañías tecnológicas una tregua de seis meses en el que se establezcan de forma clara y precisa las nuevas reglas del juego.
Con esta tormenta de fondo, Italia se ha convertido recientemente en el primer país occidental en bloquear el programa ChatGPT, que utiliza los algoritmos y los macrodatos para dar una respuesta instantánea a todo tipo de dilemas y preguntas: desde una ecuación a un discurso político o un soneto. El regulador italiano de protección de datos personales impulsó esta medida con carácter inmediato alegando preocupaciones sobre la seguridad, sobre brechas en torno a la Directiva europea de protección de datos y en torno a fisuras para la identificación de menores de trece años.
La decisión transalpina podría generar un efecto cascada en el resto de socios europeos. Las agencias de datos de Francia e Irlanda ya se han puesto en contacto con sus homólogas italianas para recabar información sobre esta decisión y Alemania ya estudia seguir los pasos de Roma, según revela la agencia Reuters.
A los ojos de Matteo Salvini, viceprimer ministro y líder de la ultraderechista Lega, el paso de su país es erróneo y desproporcionado. "Si solo uno de los 27 países de la UE ha tomado este camino, o los otros 26 están distraídos o son muy tolerantes o aquí ha habido mucho fervor", señalaba esta semana desde Roma.
Hacia la primera ley europea
"La forma en la que abordemos hoy la Inteligencia Artificial definirá el mundo en el que vivimos mañana", resumen desde la Comisión Europea. En abril de 2021, el Ejecutivo comunitario presentó su propuesta para crear el primer marco jurídico que regule la IA. Se trata de la primera legislación en esta materia y busca establecer una base europea armonizada en torno a las implicaciones humanas y éticas de la Inteligencia Artificial.
En ella, que de momento es solo una propuesta, se desgranan de forma gradual las tecnologías en función de su riesgo: inaceptable, alto riesgo, limitado o mínimo. La IA de color rojo en lo alto de la tabla se prohibirá y será aquella que presente una amenaza a la integridad, la vida o los derechos de las personas. La naranja, de alto riesgo, cuenta con el potencial de entrar en conflicto con los derechos fundamentales. En este caso, la normativa obligará a las compañías a ser más transparente y a aportar garantías de seguridad. La tercera, de riesgo limitado, incluye a los chatbots y solo exige a estos sistemas que se identifiquen claramente como máquinas y no como humanos.
Sin embargo, dado el fugaz desarrollo tecnológico de los últimos dos años, los chatbots podrían escalar un peldaño más arriba y estar sometidos a una regulación más estricta. No obstante, la mayoría de aplicaciones con AI que se utilizan en la UE, como videojuegos o filtros de spam, se encuentran en la categoría de riesgo mínimo.
Las leyes de protección de datos europeas son las que cuentan con más salvaguardas del globo y una regulación de este tipo se proyecta como pionera. Pero para ser implementada por los 27 gobiernos todavía debe culminar el farragoso proceso de trámite institucional. El próximo paso es la Eurocámara, que la deberá someter a votación.
"Ser una potencia global implica ser líder en la IA", reza un informa del Parlamento Europeo sobre esta tecnología, más y más presente en todos los aspectos del día a día. Se espera que el volumen de datos en el mundo pase de 33 zettabytes en 2018 a 175 en 2025 (1 zettabyte son mil billones de gigabytes).
En esta nueva era en la que los datos son el nuevo oro, la forma en la que se regulan y controlan las tecnologías emergentes definirá el presente y el futuro, como reconoce Bruselas.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.