OpenAI culpa a un adolescente de su muerte por suicidio por "hacer un uso indebido" de ChatGPT
La compañía tecnológica niega que la herramienta actuara de forma autónoma para incitar al menor y rechaza que el 'chatbot' "ayudara activamente a explorar métodos de suicidio".
La familia del menor asegura que la empresa se precipitó al lanzar ChatGPT-4o "pese a conocer fallos de seguridad" y que esa "imprudencia comercial" dejó a su hijo expuesto a riesgos.

Madrid--Actualizado a
Un joven de 16 años murió por suicidio en Estados Unidos el pasado abril. Sus progenitores llevaron a la empresa tecnológica OpenAI y a su director ejecutivo ante los tribunales. La familia acusó a la compañía de "homicidio negligente" y sostuvo que las interacciones del menor con ChatGPT influyeron en el desenlace. La empresa, sin embargo, rechaza de plano cualquier responsabilidad. En un escrito remitido esta semana al Tribunal Superior de California, en San Francisco, argumentan que la tragedia responde a un "uso indebido" de la herramienta, no a fallos en el sistema ni a negligencia por su parte.
La compañía expone que "las lesiones y daños alegados por los demandantes fueron causados o favorecidos por un uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT". En su defensa, niegan que la herramienta actuara de forma autónoma para incitar al menor y rechazan la acusación de que el chatbot "ayudó activamente al joven a explorar métodos de suicidio", tal y como figura en la demanda. La familia, por el contrario, insiste en que la empresa sí tiene responsabilidad. Aseguran que OpenAI se precipitó al lanzar la versión de ChatGPT-4o "pese a conocer fallos de seguridad" y que esa "imprudencia comercial" dejó a su hijo expuesto a riesgos que la compañía no supo prevenir.
Por su parte, la empresa tecnológica manifiesta que "el joven incumplió varios puntos de los términos de uso", entre ellos la prohibición de acceder al servicio sin consentimiento parental siendo menor de 18 años. También subrayan que la herramienta recuerda de forma explícita que sus respuestas no deben tomarse como "única fuente de verdad" y añade que, según los registros aportados al tribunal, ChatGPT instó en más de un centenar de ocasiones al adolescente a solicitar ayuda profesional.
El menor incumplió los términos de uso y ChatGPT le recordó no tomar sus respuestas como única verdad, según OpenAI
Asimismo, alegan que hubo además una "falta de respuesta de terceros ante señales evidentes de angustia". Afirman que su contestación a la demanda presentada por la familia "incluye hechos difíciles sobre la salud mental del menor y su situación personal". Y aseguran que la denuncia original recogía "fragmentos seleccionados" de las conversaciones del joven con el chatbot, y que el documento presentado ante el tribunal aporta el contexto completo.
ChatGPT es un chatbot de inteligencia artificial desarrollado por OpenAI. Se basa en un modelo de lenguaje generativo. En la práctica, esto implica que no solo procesa información: también crea respuestas nuevas, verosímiles y fluidas, capaces de simular una conversación real. En este reportaje, psicólogos consultados por Público advierten de los riesgos de interactuar con la herramienta sin comprender bien cómo funciona: desde confusiones en los vínculos emocionales hasta una menor exposición al riesgo afectivo y un aumento de la soledad.
El 024 es la línea de atención a la conducta suicida, disponible las 24 horas del día, todos los días del año y de forma gratuita y confidencial. Ofrece apoyo inmediato a personas con ideación suicida, a familiares y a personas allegadas, con atención especializada y en varios idiomas.
En caso de emergencia vital inminente se debe llamar directamente al 112. También se puede contactar con los teléfonos de la Policía Nacional (091) y de la Guardia Civil (062). Si no es posible realizar una llamada, existe la aplicación ALERTCOPS, que permite enviar una señal de alerta con geolocalización a las Fuerzas y Cuerpos de Seguridad.
Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.