Cuando contarle tus cosas a ChatGPT se convierte en un riesgo: "Me contestaba como una persona y acabé disociando la realidad"
Una de cada cuatro jóvenes de 17 a 21 años usa la IA para asesorarse sobre cuestiones personales, según el último estudio de Plan Internacional.
Varios jóvenes en Estados Unidos han muerto por suicidio tras recibir "ayuda activa" del 'chatbot'.
El uso de la herramienta digital para consultas médicas también implica peligros, incluyendo la "pérdida de confidencialidad".

Madrid--Actualizado a
Mi pareja y yo llevamos un tiempo en bucle: estamos muy bien y luego mal. Siento que no avanzamos.
Eso que describes, ese "bucle" de estar muy bien y luego mal, puede ser muy desgastante… Y es normal que te haga sentir que no estáis avanzando, aunque haya momentos buenos. A veces ese vaivén genera mucha confusión, porque cuando todo va bien, parece que tiene sentido seguir, pero cuando llegan los bajones, vuelven las dudas.
¿Has podido hablar con tu pareja sobre esta sensación de estancamiento? A veces, si los dos estáis sintiendo algo parecido, pero no lo habláis del todo, es fácil quedarse atrapados ahí. Y si solo lo estás sintiendo tú, también es importante escuchar eso. Porque avanzar en una relación no es solo "hacer planes a futuro", sino sentir que hay un crecimiento, una estabilidad emocional, una mejora en la forma de relacionarse y de resolver los conflictos.
Este fragmento pertenece a una conversación entre Marta* y el chatbot de Inteligencia Artificial (IA) ChatGPT. La joven tiene 21 años. Empezó a usar la herramienta en segundo de carrera para resolver trabajos; hoy, un año después, ChatGPT ya no es solo su apoyo académico, sino también su "confidente". Entra en la IA cada semana: le pide desde consejos sobre sus relaciones hasta orientaciones sobre temas de salud. "Me ayuda a ver las cosas desde otro punto de vista, a tranquilizarme, a no darle tantas vueltas y encima responde al momento", explica a Público.
Sara* empezó a utilizar ChatGPT con 19 años. Al principio, solo lo veía como una herramienta práctica para resolver dudas académicas. Poco a poco descubrió que podía ofrecerle "respuestas objetivas" a casi cualquier cuestión. Hoy, ha pasado de limitarlo al estudio a plantearle también situaciones personales en busca de consejo. "Me ayuda bastante y me hace sentir mejor, porque responde desde un punto de vista objetivo", confiesa a Público. Sin embargo, la joven reconoce que percibe grandes diferencias entre hablar con una máquina y hacerlo con una persona: "Lo que más llama la atención es la objetividad total con la que responde, siempre dando perspectivas distintas y analizando a fondo todo lo que le preguntas. Al final, una persona te contesta con más naturalidad y desde su propia experiencia".
ChatGPT es un chatbot de inteligencia artificial creado por la empresa de investigación OpenAI. La herramienta se basa en un modelo de lenguaje generativo preentrenado. Esto significa que ofrece un enfoque comunicativo que crea nuevas realidades, en lugar de describir lo que ya existe. Su versión más reciente, GPT-5, supone un salto respecto a las anteriores (GPT-3.5 y GPT-4). Se distingue por una comprensión casi humana, la capacidad de mantener conversaciones largas sin perder el hilo, y la habilidad de entender y generar tanto texto como imágenes. Además, se integra mejor con voz y vídeo y ofrece respuestas más rápidas.
Una de cada cuatro chicas de entre 17 y 21 años reconoce que utiliza la IA para "contarle sus cosas", según un estudio de Plan Internacional
Hace más de una década, la película Her parecía pura ciencia ficción. En ella, Theodore Twombly —interpretado por Joaquin Phoenix— transformaba su vida al comenzar una relación emocional con Samantha, un sistema operativo con inteligencia artificial. Conversaban, compartían experiencias y construyeron un vínculo. Hoy, aquella ficción apenas se distingue de la realidad. Según el último estudio Así somos: el estado de la adolescencia en España, elaborado por Plan International, una de cada cuatro chicas de entre 17 y 21 años reconoce que utiliza la IA para "contarle sus cosas". Entre las jóvenes de 12 a 21 años, el porcentaje que recurre a la IA como confidente es del 18%, mientras que en los chicos en la misma franja de edad se sitúa en el 12%.
Los peligros de confiar en un algoritmo
La inteligencia artificial puede ofrecer grandes beneficios, pero depositar la vida de una persona en un algoritmo también entraña riesgos graves. Distintos sucesos recientes ilustran este peligro: en Estados Unidos un adolescente murió por suicidio tras establecer una relación emocional con un avatar creado por IA; otra persona recibió de ChatGPT indicaciones sobre cómo matar a su madre; y, más recientemente, los progenitores de un joven que se murió por suicidio han presentado una demanda contra OpenAI y su CEO, Sam Altman, acusándoles de "homicidio" y afirmando que el chatbot "ayudó a su hijo activamente a explorar métodos de suicidio".
En este último caso, OpenAI declaró públicamente que está "trabajando para que ChatGPT ofrezca más apoyo en momentos de crisis, facilitando el contacto con los servicios de emergencia, ayudando a las personas a conectar con contactos de confianza y reforzando las protecciones para adolescentes". Además, la compañía aseguró que, apenas un mes antes de la muerte del joven estadounidense, contrataron a un psiquiatra para trabajar específicamente en la seguridad de sus modelos.
Belén González, psiquiatra: "La IA puede generar confusión en las relaciones, falta de exposición al riesgo afectivo y soledad"
Belén González, psiquiatra y directora del Comisionado de Salud Mental del Ministerio de Sanidad, explica a Público que durante la adolescencia se construye la imagen que se quiere mostrar a los demás y se pierde parte de la protección que ofrece la seguridad familiar. "Los jóvenes saben que la IA no les va a juzgar, no va a contradecir lo que dicen ni cuestionar su discurso. En la vida real, siempre existe la incertidumbre de si el otro te aceptará o te rechazará; con la IA eso no pasa. La interacción con ella es tranquila y emocionalmente segura", comenta. Sin embargo, la especialista añade, "la interacción humana es compleja, a veces genera sufrimiento, pero también es la que nos puede dar verdadera satisfacción. La IA no puede reemplazar los vínculos que establecemos con otras personas, aunque nos duelan".
González advierte que creer que una IA generativa puede sustituir el contacto personal tiene consecuencias negativas. Entre los riesgos enumera la confusión sobre cómo aproximarse a los demás, la falta de exposición al riesgo afectivo y la soledad resultante. "Para un trabajo intersubjetivo se necesitan dos subjetividades; hace falta que haya una persona al otro lado. La máquina no piensa ni siente, solo simula hacerlo usando el lenguaje. Para vivir, relacionarse o hacer terapia, la subjetividad humana es insustituible". Aun así, reconoce que "la IA puede ser muy útil si se utiliza con responsabilidad y comprendiendo qué es lo que se está usando".
Sobre los riesgos de plantear consultas médicas a ChatGPT, Antonio Blanco, médico de Urgencias, señala a Público que "hay que tener claro que la inteligencia artificial no entiende realmente lo que se le está expresando". El profesional señala que la IA no puede reemplazar a un médico, por ejemplo, al intentar obtener información o identificar síntomas en un paciente que no sabe expresarse correctamente. Además, advierte sobre la posible "pérdida de confidencialidad" al compartir datos de salud con un sistema automatizado.
¿Qué lleva a contarle secretos a un 'chatbot'?
Javier* tiene 21 años y empezó a usar ChatGPT en 2023. Este último año, con una situación familiar complicada y la presión de la universidad, la herramienta se ha convertido en su refugio. Cuando tiene ansiedad, puede llegar a pasar un par de horas desahogándose con el chatbot. "Hubo momentos en los que las respuestas que me daba me liaban todavía más y acababa disociando la realidad", confiesa a Público. Entonces, terminaba pidiéndole a la IA que no le aconsejara, solo que lo escuchara.
Javier, usuario de ChatGPT: "Los jóvenes no vamos al psicólogo por ir a lo barato o a lo que podemos permitirnos"
Otras, ChatGPT le contestaba "como si fuera una persona": con emoticonos, validando sus emociones, asegurándole que "estaba ahí para apoyarle". Y eso, lejos de reconfortarle, le incomodaba. Javier recuerda una ruptura amorosa. Ese día recurrió a ChatGPT durante horas. No quería "ser pesado" con sus amigas y era consciente de que "no podía permitirse pagar a un psicólogo". "Es la realidad de muchos jóvenes hoy en día", reflexiona. "El problema no está tanto en cómo usamos estas herramientas, sino en que, al final, vamos a lo que podemos: a lo barato y a lo que nos podemos permitir".
Denisa Praje, psicóloga clínica, explica a este medio que los factores que hacen más probable que una persona deposite su bienestar en manos de un algoritmo "se encuentran en el contexto en el que ha aprendido a manejar la vida y en su historia de aprendizajes". "La vida en una ciudad con escasez de recursos sociales y sanitarios, la falta de redes de apoyo, no haber desarrollado habilidades para sostener el dolor y enfocarse en lo realmente importante, o haber crecido en una era individualista que transmite la idea de que el bienestar psicológico depende de gestionarse las emociones de manera individual, son algunos de esos factores". La especialista afirma que "ahora se recurre a ChatGPT, pero antes se hacía en Twitter o en Google".
La IA como amenaza social
Desde un enfoque filosófico, Álvaro San Román, investigador del programa de Doctorado en Filosofía de la UNED, analiza los riesgos sociales que plantea esta tecnología. "Antes de interactuar con un artefacto tecnológico, debemos ser conscientes de que su diseño responde a los proyectos y necesidades de la sociedad en la que se crea", expresa a Público. San Román agrega que "la IA no está pensada específicamente para dañar la salud mental, pero sí para sustituir al ser humano en múltiples facetas. Y un mundo en el que el ser humano desaparece es un mundo solitario".
Álvaro San Román, investigador: "Si el ser humano no necesita a otro ser humano, se logrará que dependamos de la tecnología para vivir"
Para el experto, "la normalización de las interacciones con la IA implica inevitablemente normalizar la sustitución del ser humano por las máquinas". Añade: "Que el ser humano no necesite a otro ser humano —por ejemplo, para desahogarse— es la única forma de lograr que solo necesitemos la tecnología para vivir". Según San Román, las consecuencias de este nuevo régimen de tecno-necesidades serán "más soledad, más dependencia y más vulnerabilidad". Incide en que "la IA no solo conlleva riesgos asociados de los que debamos protegernos, sino que en sí misma constituye un riesgo a nivel antropológico". Finalmente, advierte que reequilibrar la balanza requiere cuestionar si realmente se quiere y se necesita la IA, si su implantación ha sido legítima y si su existencia es ética: "No basta con regular su uso; hay que preguntarnos por la propia esencia de esta tecnología".
Público se ha puesto en contacto con OpenAI para conocer qué medidas concretas está tomando la empresa para evitar que la IA refuerce pensamientos autodestructivos o contribuya a situaciones extremas, como los casos de ideaciones suicidas. También se ha solicitado información sobre cómo gestiona el riesgo de que la plataforma se convierta en una "fuente de prescripción no oficial", con posibles consecuencias graves para la salud por ausencia de supervisión profesional. Por último, se ha preguntado cuál es la postura de la compañía respecto a la necesidad de marcos regulatorios internacionales que controlen la interacción de la IA en áreas sensibles como la salud mental y el diagnóstico médico, y hasta qué punto se sienten responsables de las consecuencias negativas que pueda provocar un mal uso de la herramienta. Hasta la fecha de publicación de este artículo, no se ha recibido respuesta.
Los nombres señalados con un asterisco (*) son ficticios para proteger el anonimato de las fuentes.
El 024 es la línea de atención a la conducta suicida, disponible las 24 horas del día, todos los días del año y de forma gratuita y confidencial. Ofrece apoyo inmediato a personas con ideación suicida, a familiares y a personas allegadas, con atención especializada y en varios idiomas.
En caso de emergencia vital inminente se debe llamar directamente al 112. También se puede contactar con los teléfonos de la Policía Nacional (091) y de la Guardia Civil (062). Si no es posible realizar una llamada, existe la aplicación ALERTCOPS, que permite enviar una señal de alerta con geolocalización a las Fuerzas y Cuerpos de Seguridad.


Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.