kⒶosTICa

La IA en ciencia más allá de los humanoides

La IA es muy útil en la investigación de ciencias de la Tierra. - Pixabay
La IA es muy útil en la investigación de ciencias de la Tierra. - Pixabay

En la semana del Mobile World Congress (MWC) de Barcelona, en el que la Inteligencia Artificial (IA) se ha impuesto a la movilidad, más se evidencia la venta de humo de esta nueva tecnología y, muy especialmente, casos de uso disparatados que poca utilidad real aportan a la humanidad. Por este motivo resulta tan importante bajar la IA a ras de suelo y fijarse más en las aplicaciones prácticas que trascienden ingenios humanoides que balbucean respuestas que intentan imitar a una persona. 

¿Qué beneficios puede aportar la IA a ciencias como la hidrología, precisamente en un momento en el que la sequía se ha convertido en un problema de primer orden? Un grupo de expertos, en el que participó el español Xavier Sánchez-Vilá, catedrático en el Departamento de Ingeniería Civil y Ambiental de la Universitat Politècnica de Catalunya (UPC) de Barcelona, publicó el pasado mes de septiembre un artículo en Waters Resources Research abordando esta cuestión. 

La investigación en hidrología y ciencias de la Tierra se enfrenta al desafío de depender cada vez más de la programación, en gran parte, debido al extraordinario volumen de datos generados a partir de las observaciones terrestres y de teledetección. La aparición de Google Earth Engine, por ejemplo, ha simplificado el preprocesamiento y la recopilación de datos de teledetección, pero ha incrementado su volumen de manera muy significativa. 

Entre los lenguajes de programación más habituales en este campo figuran Python, que proporciona una amplia gama de bibliotecas y herramientas para implementar algoritmos de aprendizaje automático; y R, que tiene un enfoque al análisis estadístico. ¿Cuál es el problema? Que no todos los investigadores tienen dominio de estos lenguajes, especialmente los de mayor edad, que se formaron en otros como Fortran o C++ que no son adecuados para manejar grandes conjuntos de datos. 


En esta coyuntura, el artículo expone cómo soluciones como ChatGPT pueden ser de utilidad para generar código, depurar, explicar la sintaxis y agregar comentarios al código. Tal y como indican los expertos, la asistencia que este modelo de IA puede brindar en entornos Linux es particularmente beneficioso para los sistemas de computación de alto rendimiento, que son los utilizados para la creación de simulaciones. Esta IA no sólo puede ayudar a reducir el tiempo, sino también los errores en la codificación. 

Según la experiencia de los autores del artículo, "ChatGPT funciona bien, con alta precisión y confiabilidad, cuando se trata de problemas simples y tareas de codificación, como lectura o preprocesamiento de datos, y otras tareas de codificación de nivel principiante a intermedio relacionadas con la ciencia de datos". 

Los potenciales riesgos 

El artículo en Waters Resources Research no se centra exclusivamente en las bondades que puede aportar ChatGPT; también señala cuáles pueden ser los potenciales riesgos que trae consigo, especialmente en los casos de desarrollo y depuración de código complejo, donde puede proporcionar correcciones o información inexacta o engañosa.  


Para ilustrar esta problemática, el artículo describe una experiencia real: los expertos le pidieron a ChatGPT que generara código Python que utilizara un modelo de Deep Learning para pronosticar el índice de vegetación utilizando imágenes de teledetección, además de realizar algunas operaciones matemáticas y estadísticas para el posprocesamiento. El modelo de IA no sólo no pudo hacerlo sin errores sino que, una vez detectados éstos y solicitada su reparación, fue incapaz de depurar este  código complejo. 

Por otro lado y a la hora de elaborar los artículos científicos, los expertos centran su mayor utilidad para editar, refinar, reformular, mejorar la legibilidad, detectar errores y mejorar el vocabulario de los mismos –sobre todo cuando no se escribe en el idioma propio-, más que para confiar en ChatGPT como única fuente de contenido. Prueba de ello es otra experiencia real que vivieron los autores, recibiendo dos respuestas a radicalmente contrarias a una misma pregunta: 

Al ser preguntado ChatGPT sobre los efectos de la radiación de onda corta sobre las precipitaciones en regiones húmedas, el modelo de IA proporcionó una respuesta y al indicarle que no estaba en lo cierto, contestó "estás en lo correcto. Pido disculpas por mi respuesta anterior" y expuso una teoría opuesta, pareciendo en ambos casos razonables y científicamente sólidas.  

En opinión de los expertos, esta dualidad se debe al entrenamiento del modelo, habiendo aprendido dos teorías distintas y plausibles, aunque no ambas no sean correctas, un peligro sobre el que la propia OpenAI, creadora de ChatGPT, ya ha advertido. En este mismo campo de la creación de papers, cunde la preocupación de que los artículos científicos sean escritos por IA, pudiendo incluso caer en el plagio. Con el propósito de atajar esta problemática, ya han surgido detectores de IA, capaces de identificar con bastante precisión si un documento fue generado por algoritmos 

Entre las recomendaciones expuestas en el artículo, aparece un llamamiento a las universidades para que incorporen cursos sobre varios lenguajes de programación adaptados al sistema terrestre, el agua y los estudios ambientales, pues de ello depende también la supervisión al código generado por IA. De cara a los estudiantes, el artículo expone lo que todavía a día de hoy es un desafío, dado el estadio temprano de la ‘democratización’ de la IA. Según los expertos, del mismo modo que ya en algunos exámenes universitarios se permite el acceso a internet para ayudar a la resolución de problemas, la IA debería poder cumplir con este papel asistente, pero no que ésta sea la que resuelva el problema por sí sola durante el examen.  

Además, siempre que estos modelos sean empleados, la recomendación pasa por divulgar los datos y códigos utilizados. El artículo concluye que los autores deben ser transparentes en el uso de los LLM, la IA generativa y el aprendizaje automático en sus esfuerzos de investigación, proporcionando explicaciones detalladas de cómo se utilizaron estas herramientas en la sección de métodos de sus publicaciones.

Más Noticias