‘Si no recuperamos el lugar de lo humano, la tecnología lo va a ocupar’

Es indudable que la inteligencia artificial (IA) llegó para quedarse y cada vez es más omnipresente en nuestras vidas y, lo que es más peligroso, en nuestras soledades. La inteligencia artificial puede parecer otra persona, porque en apariencia podemos sostener una charla con ella, además, una en la que casi nunca nos van a contradecir y en la que vamos a tener siempre, o casi siempre, la razón. 

Y esto sucede porque la IA es una máquina diseñada con un “comportamiento psicofante”, al menos así lo define la doctora en Psicología Cimenna Chao Rebolledo, profesora de la Universidad Iberoamericana de México, quien estuvo en Colombia para participar en el Tercer Congreso Internacional de la Red de Internacional de Educación Emocional y Bienestar (Rieeb) que organizó la Universidad del Rosario.

La palabra psicofante define a un tipo de persona que busca su propio beneficio a través de la adulación o la difamación (en colombiano podríamos decir que es una máquina lagarta). Pues bien, para Chao Rebolledo, quien ha sido consultora de la Unesco y la Unicef, la IA es una máquina psicofante porque está diseñada para adular en beneficio propio o, mejor, de sus diseñadores. Lo cual, por defecto no la convierte en buena consejera, aunque muchos las están utilizando para eso. Y eso ha tenido graves consecuencias. 

En las últimas dos semanas, la inteligencia artificial (IA) se vio involucrada en dos casos de suicidio. En el primero, una pareja de California (Estados Unidos) demandó a OpenAI, la empresa que creó ChatGPT, porque según ellos esta aplicación animó a su hijo a quitarse la vida. La demanda es por negligencia. De acuerdo con la BBC, “la familia alega que la interacción de su hijo con ChatGPT y su posterior muerte fue un resultado predecible de decisiones de diseño deliberadas”. Los padres acusan a OpenAI de diseñar su chatbot “para fomentar la dependencia psicológica en los usuarios”.

Y para poner más alertas sobre los riesgos de usar esta tecnología con si fuera un ser humano, o un profesional de la salud, un estudio de la organización Common Sense Media descubrió que el 72 por ciento de los adolescentes estadounidenses dijeron haber utilizado la IA como compañero y una octava parte como apoyo emocional.

Educacion

Cimenna Rebolledo durante su intervención en el Congreso de la RIEEB Foto:Archivo particular

Chao Rebolledo ha sido asesora de la Unesco y la Unicef y se ha especializado en procesos de enseñanza-aprendizaje mediados por tecnologías digitales. Ella, al igual que muchos expertos, no es de aquellos que celebran incondicionalmente la llegada de esta tecnología, reconoce sus virtudes, pero señala los riesgos que conlleva su abuso.

En el marco del Congreso del Rieeb, la doctora Chao concedió una entrevista a un grupo de jóvenes periodistas escolares de la plataforma Educalidad y a EL TIEMPO para hablar sobre la IA y su impacto en la salud mental. 

¿Cómo se puede ayudar a un compañero que se ha vuelto

Es muy importante detectar si se ha vuelto dependiente, ya sea cognitiva o socioemocionalmente. Esta dependencia trae una suerte de deterioro de la autonomía, pero también de la visión crítica del objeto al que somos dependientes, es decir, en la dependencia no somos conscientes de lo que está pasando. Se ha visto en estudios, por ejemplo del Massachusetts Institute of Technology (MIT), que el uso excesivo de este tipo de herramientas puede llegar a vulnerar capacidades como comprensión lectora, síntesis de ideas y retención de la información. En términos socioafectivos, cuando usas ChatGPT –o cualquiera de estas herramientas– para comentar cuestiones de tu vida personal, puedes terminar aislándote. 

Es fácil hacerlo, porque esta tecnología te responde, te entiende y, además, te da consejos. Pero eso te pone en riesgo de no consultar a un profesional que sí te entiende. Porque estas tecnologías no comprenden lo que te sucede. El consejo que te dan es simplemente porque es la posibilidad probabilísticamente más factible. 

¿Qué señales de alerta podemos ver en alguien que se está volviendo dependiente de la inteligencia artificial?

Una de las primeras señales es la cantidad de horas que pasas en el dispositivo. La segunda sería ver qué tipo de interacciones está haciendo, la información que está compartiendo. Tenemos que recordar que estas plataformas no te dicen del todo qué hacen con la información que compartes. Y la tercera es cuando esa persona tiende a separarse del grupo para estar embebida en esa tecnología. 

¿Perdieron los adolescentes el pensamiento crítico?

No, lo que creo es que nos tomamos con mucha naturalidad la incorporación de esas tecnologías en nuestras vidas. Son herramientas muy invasivas y glamorosas, diseñadas para que nos enganchemos y las vamos naturalizando sin preguntarnos qué es lo que estamos haciendo.

¿Hablemos de la demanda que una familia de California acaba de interponer contra ChatGPT por la presunta responsabilidad que tiene en el suicidio de su hijo?

Esto es un tema muy delicado. En efecto, hemos tenido ya registrados varios hechos en la prensa sobre este tipo de casos de suicidio. Este último muy lamentable porque lo que reportan los padres de este menor es que había compartido con la plataforma sus ideaciones suicidas. Había pedido incluso consejo en cómo manejar esa afectación emocional que estaba sintiendo.

Educacion

Cimenna rebolledo es experta en enseñanza-aprendizaje mediante herramientas digitales Foto:Archivo particular

Había incluso preguntado si debía o no compartir esta ideación suicida y parecería que la plataforma fue empujando o generando unas respuestas que no fueron del todo afortunadas y que, bueno, terminó en el desenlace trágico.

Por eso diría que el tema es complejo por varias cuestiones, la primera porque no estamos concientizando ni alfabetizando ni regulando en la ley, en la educación ni en la casa el uso que se les da a estas tecnologías. Dejamos a los menores a merced de estas entidades que, más allá de ser artificiales, y esto hay que entenderlo muy bien, están limitadas, no tienen un servicio de alertas de vigilancia de este tipo de conversaciones. Y aquí es importante preguntarse cuál es el grado de responsabilidad de estas industrias que generan este tipo de tecnologías y cuál es el grado de responsabilidad que tenemos como educadores y como padres de familia por no estar educando y alfabetizando de manera crítica a nuestros jóvenes y a nuestros niños.

Pero no son solo los adolescentes, The New York Times también trae el doloroso testimonio de la madre de una mujer adulta que se suicidó y estuvo consultando en los días previos una aplicación de inteligencia artificial.

Este fenómeno se está dando incluso en adultos. Primero había una suerte de explicación, se decía que son adultos que ya tenían una historia clínica de padecimientos psicológicos o algún tipo de afectaciones a la salud mental. Después nos empezamos a dar cuenta de que no necesariamente ocurría en este tipo de personas y que efectivamente se generaban una suerte de conflictos con la inteligencia artificial, en donde la conversación iba llevando a situaciones emocionalmente comprometidas y aquí, otra vez, lo más importante es entender que estas tecnologías no es que estén programadas para llevarnos al suicidio, pero tampoco están programadas para darnos apoyo emocional. Sí están programadas para entablar una conversación que parte desde la última predicción más probable de lo que has conversado previamente con ella. Entonces, si tus conversaciones van llevando a la desolación emocional, a la ideación suicida, pues esta tecnología va a partir de esa conversación. En ningún momento va a confrontar o cuestionar lo que le estás diciendo porque no tiene esa autonomía.

La segunda cuestión es que el fin último de estas inteligencias artificiales generativas y de estas plataformas es seguir enganchando al usuario a que las utilice. Y la conversación estará orientada a que encuentres resonancia o satisfacción en lo que te está diciendo, incluso cuando no es verdad. Ahí es dónde empiezan las alucinaciones de la inteligencia artificial.

Durante su presentación en el congreso dijo que hay que resistir a estas tecnología para que no suceda lo que pasó con las redes sociales. ¿A qué se refería?

Desde este punto de vista, la resistencia se presenta como no dejarnos, no ceder el espacio de la interacción humana a la tecnología, sobre todo, cuando hablamos de cuestiones socioafectivas y también de abrir un espacio a la educación. Empezar a entender que si los seres humanos no recuperamos el lugar de lo humano, la tecnología lo va a ocupar, y ya lo está ocupando. Lo hizo con las redes sociales. Sabemos que vivimos una suerte de crisis, de percepción y de soledad en el mundo, a pesar de estar hiperconectados y con un montón de seguidores y amigos. Las redes no satisfacen esa percepción de compañía. Entonces cuando llega la inteligencia artificial necesitamos resistir aún más como humanidad.

Con el apoyo de la plataforma Educalidad, especializada en alfabetización mediática e informacional.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!