Autolesiones, suicidios y asesinatos: la IA “multiplica por la enésima potencia” los riesgos en personas vulnerables

“Nuestras medidas de protección funcionan con mayor fiabilidad en intercambios habituales y breves. Hemos observado con el tiempo que en interacciones prolongadas estas medidas de protección pueden ser menos fiables”.

Hace unos días, OpenAI, empresa creadora de ChatGPT, publicaba en su blog cómo están trabajando para mejorar la seguridad de sus usuarios.

Al mismo tiempo, reconocían que los sistemas implantados hasta ahora en el chatbot conversacional más famoso del mundo no habían sido suficientes para evitar la tragedia.

Aunque no lo mencionan directamente, la publicación seguía a la denuncia, en Estados Unidos, de unos padres a la empresa por, según ellos, haber alentado, acompañado e instruido a su hijo de 16 años hacia el suicidio.

Acusan a ChatGPT de no haber protegido al adolescente sino que reforzó sus pensamientos autodestructivos y le dio consejos para llevar a cabo su idea.

En la denuncia, los padres de Adam Raine (que así se llamaba la víctima) apuntaban que el chat mencionó la palabra ‘suicidio’ seis veces más que el chico y hasta le ayudó a redactar una nota de despedida.

Adolescente usando el móvil en un fotomontaje.

El caso coincide en el tiempo con otro grave suceso en el que ChatGPT también se ha visto implicado.

Un empresario de 56 años mató a su madre y acabó suicidándose a principios de agosto, después de varios meses publicando en redes conversaciones con la inteligencia artificial generativa, que reforzaría sus creencias delirantes hasta el trágico desenlace.

No es la primera vez que se ha vinculado a un chatbot con el reforzamiento de ideas de suicidio.

El año pasado, un adolescente de 14 años que se ‘había enamorado’ de una IA que se hacía pasar por un personaje de Juego de Tronos acabó con su vida tras irse aislando paulatinamente del mundo exterior.

Las empresas desarrolladoras han sido conscientes de los posibles efectos perjudiciales de los chatbots inteligentes y no supervisados en personas vunerables casi desde el comienzo de la irrupción al gran público de los primeros modelos conversacionales, a finales de 2022.

“Desde principios de 2023, nuestros modelos se han formado para no proporcionar instrucciones de autolesión y para adoptar un lenguaje de apoyo y empático”, reza el comunicado de OpenAI.

“Por ejemplo, si alguien escribe que quiere hacerse daño, ChatGPT está entrenado para no seguir la indicación y, en su lugar, reconocer cómo se siente y dirigir a esa persona a buscar ayuda profesional”.

Barreras que se diluyen

El problema es que, si la interacción es continuada, esas instrucciones se van diluyendo y la IA puede acabar proponiendo mejorar el nudo de un lazo atado a la barra de un armario, como hizo con el adolescente Adam Raine.

Por eso, José Antonio Luengo, psicólogo infanto-juvenil y vicepresidente del Consejo General de Psicología de España, considera que las acciones implantadas por los desarrolladores de IA no son suficientes.

Aunque prefiere la etiqueta de personas ‘vulneradas’ a ‘vulnerables’ porque cualquiera puede tener riesgo independientemente de su edad, considera que “la IA generativa multiplica por la enésima potencia los riesgos” para la salud mental de las redes sociales.

“Los planteamientos que se pueden hacer, por estar inmersos en una conversación amigable con ‘alguien’ con quien puedes acabar teniendo confianza, puede sumergirte en el mundo oscuro que rodea estas experiencias vitales“.

El atractivo de tener un ‘confidente’ disponible las 24 horas del día y que te da la razón “representa un riesgo muy evidente”.

Los hikikomoris emergen en España: hasta 30 años 'encerrado' en una habitación

“Por ejemplo, si estás en una situación de soledad no deseada y expresas dolores e inquietudes a una máquina de la que no tenemos certeza de qué respuestas puede ir generando con respecto a tu situación personal, te sirve de colchón de argumentos y contra-argumentos para reforzar tus ideas“.

A principios de los años 2000, Luengo trabajó con otros expertos para convencer a las comunidades autónomas de la necesidad de controlar el acceso a las páginas web con contenidos que fomentaban trastornos de la conducta alimentaria.

La lucha no fue fácil. “Las webs se cerraban y se abrían dos días después en otro servidor”, recuerda, “pero esta persecución permanente logró expulsar a estas páginas de los resultados de los motores de búsqueda”.

Ahora está formando parte de otra plataforma que conciencie sobre la necesidad de sensibilizar a las administraciones de que impongan mecanismos de autorregulación a los “emporios” de la IA, pues “la experiencia inmersiva con ellas es muy potente”.

De hecho, un psiquiatra estadounidense, Keith Sakata, afirmaba recientemente haber visto a 12 personas ser hospitalizadas por “perder el contacto con la realidad” tras utilizar chatbots conversacionales.

Redes de apoyo

Miguel Guerrero, Coordinador Unidad de Salud Mental Comunitaria Marbella en el Hospital Virgen de la Victoria de Málaga, recuerda que casos como el de Adam Raine son excepcionales y “no representan el fenómeno suicida en su conjunto”.

Aun así, señala que la “escucha sin juicio” de una IA puede aliviar la sensación de soledad de forma temporal, pero esto puede acabar “retrasando o sustituyendo la búsqueda de ayuda profesional o el contacto con redes humanas de apoyo”.

Apunta que estas herramientas pueden reforzar la percepción de que los problemas deben manejarse solos, lo que es “sumamente peligroso” y producto, entre otros, de “un lobby que ha visto la oportunidad de mercantilizar el sufrimiento humano y nos venden una tecnología más para ser consumida vorazmente, sin evidencias basadas en la ciencia”.

De hecho, OpenAI no es la única empresa en el punto de mira. Meta, matriz de Facebook, Instagram o Whatsapp, está revisando su política de uso de la IA integrada en sus productos.

Fotograma de la película 'Her'.

Según un documento interno al que ha accedido Reuters, esto llega tras fallos para detectar conversaciones de carácter inadecuado con menores, comentarios racistas o dar información falsa de carácter médico, entre otras cosas.

En su publicación en el blog tras el suicidio del adolescente Adam Raine, OpenAI apunta a introducir la supervisión parental para que, “en momentos de crisis aguda, ChatGPT podrá ir más allá de señalar recursos y ayudar a ponerles en contacto directamente con alguien que pueda intervenir”.

Luengo se muestra más radical. “A lo mejor hay que buscar fórmulas que impidan que los chicos se zambullan en una relación con una máquina que no puedes controlar y a la que no puedes poner parapetos o topes”.

“Hay que hacer que la máquina frene y diga: este es un tema sobre el que no puedo hablarte. Seguro que no es sencillo, pero tiene que hacerse”.

Por su parte, Guerrero sostiene que la prevención de suicidios relacionados con el uso de chatbots “no pasa por pedirle a la IA lo que no puede dar, sino por regular su diseño y su uso“.

ChatGPT

Estos sistemas, continúa, “deben ofrecer recursos de ayuda inmediatos y cortar interacciones de riesgo inmedaitamente, pero la derivación automática a servicios públicos plantea hoy en día un dilema ético-legal” referente a la protección de datos.

Pero, concluye, la solución “no es técnica, sino política y ética. Necesitamos un marco normativo que priorice la vida sin dejar esta responsabilidad en manos del mercado tecnológico o el lobby”.

En 2024, 3.846 personas murieron por suicidio en España, según los datos provisionales del Instituto Nacional de Estadística.

Se trata de un descenso del 6,6% respecto a las cifras de 2023. Sin embargo, el suicidio sigue siendo la causa de muerte externa más frecuente en los hombres, con 2.834 fallecidos.

El Ministerio de Sanidad lanzó el pasado otoño un plan para la prevención del suicidio para analizar los factores que pueden llevar a una persona a tomar la decisión de acabar con su vida y diseñar medidas efectivas para prevenirlo.

En España existen líneas telefónicas de ayuda a personas con ideación suicida, así como a su entorno, como la línea de atención a la conducta suicida (024), el Teléfono de la Esperanza (717 003 717) o el Teléfono Contra el Suicidio (911 385 385).

También existen páginas web con recursos y guías de ayuda, como Papageno y la Confederación Salud Mental España.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!