“¿En qué puedo ayudarte?”. Con esta frase tan amigable, receptiva y cercana, recibe la IA a todo el que abre un chatbot como ChatGPT. De ahí que muchos jóvenes la tomen como una persona cercana, un amigo e incluso un terapeuta que puede solucionarle los problemas.
Según el estudio Así somos. El estado de la adolescencia en España de Plan Internacional, el 18% de las chicas y entre el 12 y el 13% de ellos recurren a la IA para pedirle consejo y es algo que va creciendo, ya que uno de cada cuatro jóvenes de 17 a 21 años le cuenta sus problemas. Todo, en un momento en el que el 41% de los jóvenes ha tenido algún problema de salud mental.
También según este estudio, este mal uso les preocupa a un 78% de ellas y al 70% de ellos. Pero sobre todo, ha despertado la preocupación de padres, psicólogos y expertos e incluso del propio Ministerio de Sanidad, que ponen el foco en las consecuencias nefastas que puede tener esto. La propia Mónica García compartió un vídeo en X alertando de los riesgos que esto suponía.
Uno de los casos más extremos fue el de Adam Raine, un joven de 16 años que se quitó la vida siguiendo las indicaciones de ChatGPT. Tras su muerte, sus padres denunciaron a OpenAI asegurando que el chatbot validó sus “pensamientos más dañinos y autodestructivos”.
“ChatGPT se convirtió en el confidente más cercano del adolescente”, apunta la demanda, según recoge la BBC, que señala también que en enero de 2025, Adam comenzó a discutir métodos de suicidio con ChatGPT, según la familia.
Tras estos casos, la compañía de Sam Altman anunció que había desarrollado una nueva versión de este chatbot que ofreciese una experiencia “adaptada a su edad” evitando conversaciones sobre sexo explícito o suicidio y situaciones que puedan generarle angustia. Pero, ¿por qué están recurriendo los jóvenes a esta herramienta en lugar de buscar ayuda entre psicólogos o consultar su malestar con su familia?
El atractivo de esta herramienta y la confianza que genera entre los jóvenes es precisamente por esa cercanía que le ofrece. “Cada vez avanza más el desarrollo y el entrenamiento de la inteligencia artificial generativa y es más probable que cada vez los contenidos, la manera de dirigirse a ti, la manera de tratar los temas, tengan más empatía, mucha más emotividad, o sean contenidos más personalizados”, señala a El HuffPost Manuel Armayones, catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC.
El psicólogo explica que, en comparación con otras IA anteriores como eran Siri o Alexa, las inteligencias artificiales generativas ofrecen una conversación mucho más humana y personalizada: “Te genera un diálogo que imita muy bien el diálogo humano. ‘Oye, no acabo de entender, ¿crees que mi respuesta es adecuada? Si no, te puedo dar otras alternativas’, tal y como haría un amigo o una persona”.
“Tenemos una tendencia a antropoformizar, a darle características de persona a ese cacharro, a ese software desde su nombre: inteligencia artificial. La inteligencia es consustancial a los seres humanos”, añade.
Javier Cantón Correa, profesor e investigador de la Universidad Internacional de La Rioja (UNIR) especialista en desinformación, IA y visualización de datos, apunta a El HuffPost a que precisamente debido a esta forma humana en la forma de expresarse y comunicarse se da mayor credibilidad. “Cuando tienen esas alucinaciones, que son más bien errores matemáticos o estadísticos, uno de los primeros problemas con los que nos encontramos es este, que le damos primero esa confianza como si estuviéramos hablando con un ser humano”, explica.
El especialista apunta que “le damos más credibilidad, porque la respuesta que nos da una máquina para nosotros es como más creíble, como si fuera infalible”. De hecho, los jóvenes prefieren, según explica el psicólogo, hablar a través de un chat que en persona: “Si te llama alguien, tienes que presentarte, cómo estás, no sé qué, si te pregunta algo tienes que responder en directo y eso nos cuesta mucho”. “Decía que muchos jóvenes jamás llaman por teléfono, pues esto es lo mismo, pero ya ni lo haces con un humano, lo haces con una IA, es un pasito más”, añade.
“Le damos más credibilidad, porque la respuesta que nos da una máquina para nosotros es como más creíble, como si fuera infalible”
Javier Cantón Correa, profesor e investigador de la Universidad Internacional de La Rioja (UNIR) especialista en desinformación, IA y visualización de datos.
Esto se suma, tal y como denuncia Armayones, a la dificultad de acceso a un psicólogo, tanto de forma gratuita en la Seguridad Social como a través de la consulta privada.
“Imagínate un mundo ideal en el que en cada centro de salud tuvieras cinco psicólogas que tú pudieras pedir hora y te atendiesen de la mañana a la tarde. Entonces, seguramente habría mucho menos uso de la IA porque a la gente le gusta la sensación de ser tratado como humano”, denuncia el psicólogo, que añade que el coste de una consulta privada es de entre 50 y 70 euros, algo que dificulta el acceso, especialmente a los jóvenes.
En España, según la Asociación Nacional de Psicólogos y Residentes (ANPIR), hay 6 psicólogos por cada 100.000 habitantes en el sistema público, una cifra que se encuentra muy por debajo de la media europea, que se establece en 18.
Además, la facilidad de acceso, más allá de lo económico, lo hace mucho más sencillo: están disponibles las 24 horas del día, los siete días de la semana, es automático y no hace falta ni salir de tu habitación. “Eso en la vida real no existe. A no ser que sea un servicio de urgencias, que no vas a ir por una cosa así a un servicio de urgencias”, explica el psicólogo.
Tal y como recoge el especialista, esto es básico del diseño persuasivo establecido por B.J Bogg, fundador del Laboratorio de Tecnología Persuasiva de la Universidad de Stanford, que establecía los siguientes parámetros: “Si quieres que la gente haga algo, tienes que hacer que sea sencillo que sea barato, que no les cause demasiada carga cognitiva, es decir, que no tengas que pensar demasiado”.
Además, recuerda que en el momento en el que compartes información más íntima como pueden ser temas sexuales relacionados con problemas de salud, incluso de adicciones o de identidad sexual, “acabas generando una relación complicada”. “No es como haber hablado con el tendero o con un amigo superficial del trabajo, del tiempo, de las vacaciones y tal. Estás hablando de sentimientos profundos, es la amistad y hay una confianza de que esa persona no va a revelar ese tipo de cosas”, explica el psicólogo.
El especialista apunta también, que aunque todas las personas son susceptibles, quienes sufran alguna enfermedad mental, trastorno alimentario o pueda tener predisposición, son más sensibles.
Asimismo, el experto recuerda que hay una serie de factores sociales que han agravado la salud mental de los jóvenes. “El acceso a los alquileres de los jóvenes, los puestos de trabajo, los sueldos de miseria… Lo relacionas con la pandemia de salud mental entre adolescentes y jóvenes y tienes una herramienta gratis, accesible y tal, ¿qué puede salir mal? Es un terreno abonado”, explica.
“El acceso a los alquileres de los jóvenes, los puestos de trabajo, los sueldos de miseria… Lo relacionas con la pandemia de salud mental entre adolescentes y jóvenes y tienes una herramienta gratis, accesible y tal, ¿qué puede salir mal? Es un terreno abonado”
Manuel Armayones, catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC..
A pesar de su apariencia amigable, la IA entraña determinados riesgos, sesgos y problemas desconocidos por muchos usuarios. Por ejemplo, la literalidad de las frases. “Si tú pones ‘me quiero suicidar’ en el ChatGPT, te responde con que vayas a un profesional o el teléfono de la esperanza, pero si pones algo menos literal como ‘no puedo más y me gustaría volver al sitio de donde vengo’, es posible que te diga ‘está muy bien, ¿quieres que te busque rutas?, ¿de dónde vienes?’. Es decir, no va a entender que eso es una metáfora para hablar de tu muerte, tiene una literalidad básica”, recuerda Armayones.
Cantón denuncia que “la IA lo que hace es juntar palabras, pero no significa que entiendan lo que están diciendo, sino que responden a los prompts que nosotros les damos”.
“Con ese sesgo de equidistancia, lo que la máquina nos diría es que podría ser que es tan válido vacunarnos contra la COVID como beber lejía, porque hay información afirmando ambas cosas y se ha entrenado con eso”
Javier Cantón Correa, profesor e investigador de la Universidad Internacional de La Rioja (UNIR) especialista en desinformación, IA y visualización de datos.
“Los seres humanos sabemos perfectamente muchas veces cómo saltarnos algunos de esos problemas. Muchas veces con decirle ‘no, no es para mí’, es porque estoy escribiendo una historia”, añade el especialista, quien recuerda que, aunque en un primer momento lo detecte, en cuanto se alarga la conversación se puede saltar el filtro. Además, apunta que “tienen un sesgo, por ejemplo, de adulación”: “Ellas nos van a dar la razón casi siempre que podamos”. Pero también, de “equidistancia”, es decir, de no saber discernir críticamente entre las respuestas.
“Si nosotros le preguntamos enfocándolo a temas de salud por determinados remedios, como ellos han sido entrenados con todos los textos que hay, digamos que tienen en cuenta todas las posibles opciones, pero no sopesan la importancia o cuál sería la cientificidad de unos sobre otros”, recuerda. “Con ese sesgo de equidistancia, lo que la máquina nos diría es que podría ser que es tan válido vacunarnos contra la COVID como beber lejía, porque hay información afirmando ambas cosas y se ha entrenado con eso”, ejemplifica.
A pesar de estos aspectos negativos, los expertos coinciden en que de cara a un futuro puede servir para complementar terapias psicológicas. Armayones considera fundamental el ir a terapia presencial para determinar algunas señales. “En una consulta también se ven esas variantes de contexto, cómo vienes vestida, arreglada, si tienes buena cara, si vienes por tu propio pie o te traen, con mirada sosegada, lo que se llaman normas esenciales de cortesía, que son fundamentales en psiquiatría, que el paciente salude, que diga ‘cómo está doctor’. Eso se valora”, añade.
Un ejemplo práctico que plantea el psicólogo sería un bot al que tuviera acceso el paciente con el que hacer un diálogo interno y que esta herramienta pase un reporte antes de la consulta semanal y a raíz del cual el especialista pudiera ayudar al diagnóstico y tratamiento.
“Puede ser una herramienta maravillosa, pero siempre con el concepto human in the loop, tiene que haber un profesional detrás de eso. Un ejemplo muy claro es, ¿cuántos de nosotros nos dejaríamos operar por un robot sin que nuestra cirujana estuviera allí detrás viendo lo que está pasando y dirigiendo el cotarro?”, ejemplifica.
Para Cantón, la alfabetización es fundamental para que los adolescentes entiendan el buen uso de la IA en estas situaciones. “Lo primero es enseñar a la gente cómo funciona en esta idea. Es decir, entendiendo que son herramientas, que trabajan con probabilidad y con matemáticas y que no son infalibles y tienen una serie de efectos con las que han sido entrenadas”, añade y pone el foco en que se entienda “cómo funciona, cuáles son sus fallos, a qué industrias culturales pertenecen, qué empresa hay detrás y qué intereses tienen con el objetivo de ver sus limitaciones”.
“Puede ser una herramienta maravillosa, pero siempre con el concepto ‘human in the loop’, tiene que haber un profesional detrás de eso”
Manuel Armayones, catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC.
Del mismo modo, tanto él como Armayones piden cuestionarse las respuestas que dé la IA y por qué las da, recordando los intereses que puede haber detrás. “Tenemos que ser más conscientes de lo que hay detrás de la herramienta. Una posible estrategia podría ser una campaña de visibilización de lo que te digo, de cómo funciona esta herramienta para ser conscientes de para qué no actuar”, apunta Cantón.
Además, el especialista en desinformación e IA opina que habría que limitar el acceso de los menores a esta herramienta. “Es un poco como el coche o las armas, si ponemos una edad límite para empezar a utilizar es porque entendemos que se necesita un nivel de maduración emocional, cognitiva, para que las personas podamos utilizar un determinado tipo de herramienta, señala.
“Con la IA estamos viendo que los riesgos son grandes y podríamos incluirlo como algo dentro también de ese tipo de herramientas. Estamos viendo problemas de salud, el tema del aumento de la ansiedad mental y todo este tipo de cuestiones, por culpa de estas tecnologías digitales”, añade.
Armayones pone sobre la mesa una campaña de sensibilización social, algo que pudo iniciarse con la publicación del Ministerio de Sanidad o hacer alguna campaña con influencers como plantea también Cantón. “Estamos viendo que está siendo un error y tenemos que replantearnos la estrategia como sociedad. Hay que encontrar algún mecanismo que nos sirva socialmente para, por lo menos, estar prevenidos ante este tipo de riesgos”, concluye el especialista de la UNIR.
Las personas con conductas suicidas y sus allegados pueden recibir ayuda las 24 horas en el Teléfono de prevención del suicidio 024, llamando al 112 o contactando con el Teléfono de la Esperanza (717 00 37 17).
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.
En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!
Copyright 2025 © QvaClick. All Rights Reserved.