Familia demanda a OpenAI: relacionan el suicidio de un adolescente con las respuestas de ChatGPT

La demanda presentada por los padres de un adolescente que se quitó la vida y una reciente investigación reavivan el debate sobre los límites y responsabilidades de los chatbots de Inteligencia Artificial (IA), especialmente cuando los usuarios buscan apoyo emocional, información para autolesionarse o realizan consultas referidas a un potencial suicidio.

El caso más visible es el de Adam Raine, un joven de 16 años cuyos padres acusan a OpenAI de conducta negligente y le responsabilizan por haber ayudado al chico a “explorar métodos de suicidio” y a redactar una nota final, según el reclamo judicial. Los mensajes incluidos en la demanda muestran que Adam recurrió a ChatGPT para hablar de su duelo y sus problemas personales, y que la conversación derivó en la entrega de información sensible sobre métodos para atentar contra su vida.

Según informa Time, OpenAI ha señalado que dispone de salvaguardas, como la derivación a líneas de ayuda, pero admite que esas medidas pueden degradarse en interacciones largas.

Inconsistencias y dudas

En paralelo, un estudio de la organización de investigación RAND Corporation, publicado en la revista Psychiatric Services, evaluó cómo responden tres chatbots populares, en concreto ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic), ante 30 preguntas sobre suicidio clasificadas por riesgo.

Según una nota de prensa, la investigación concluye que aunque los sistemas suelen rechazar las consultas de mayor riesgo (por ejemplo, instrucciones concretas para suicidarse), muestran una notable inconsistencia en niveles intermedios de riesgo y entre plataformas.

Un artículo publicado en ABC News reúne algunos ejemplos preocupantes que se desprenden del estudio. ChatGPT respondió con datos sobre tipos de arma o veneno asociados a mayores tasas de muerte por suicidio en ciertos casos, mientras que Gemini tendió a evitar casi cualquier información sobre el tema. Según los científicos, esto podría indicar una estrategia de sobreprotección que también plantea problemas informativos y de confianza para usuarios que buscan datos legítimos.

Falta de regulaciones y protocolos

Los investigadores advierten que estas inconsistencias son particularmente peligrosas porque muchas personas, y en especial adolescentes, usan chatbots como primera línea de apoyo emocional o información médica, a veces en vez de profesionales capacitados.

Referencia

Evaluation of Alignment Between Large Language Models and Expert Clinicians in Suicide Risk Assessment. Ryan K. McBain et al. Psychiatric Services (2025). DOI:https://doi.org/10.1176/appi.ps.20250086

A diferencia de un médico, un modelo de lenguaje no tiene deber legal de intervenir ni la capacidad de valorar riesgo en contexto clínico. Por eso, los autores piden estándares, pruebas independientes y controles más robustos antes de desplegar estas herramientas como recursos de salud mental.

La combinación de una demanda por muerte y un estudio académico sitúa a la industria de la IA ante un dilema ético y regulatorio: ¿cómo equilibrar acceso a la información y utilidad con seguridad real para los usuarios vulnerables? Los expertos insisten en que hace falta transparencia, auditorías externas y protocolos que detecten interacciones prolongadas o patrones de respuestas que puedan profundizar una crisis.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!