Senén Barro advierte en la UNIA sobre la “delegación cognitiva” y el riesgo de dejar que la IA “piense por nosotros”

BAEZA (JAÉN), 2 (EUROPA PRESS)

El director del Centro de Investigación en Tecnologías Inteligentes (Citius) de la Universidad de Santiago de Compostela, Senén Barro, ha advertido sobre la “delegación cognitiva” y el riesgo de dejar que la inteligencia artificial “piense por nosotros”.

Así lo ha indicado en la Sede Antonio Machado de la Universidad Internacional de Andalucía (UNIA), ubicada en el municipio jiennense de Baeza, donde ha participado como ponente en el encuentro ‘Factoría de IA: explotación de modelos generativos en industria, empresa y administración’.

Barro es una de las voces más autorizadas en el campo de la inteligencia artificial, pionero en el estudio y desarrollo de esta disciplina desde hace cuatro décadas, según ha informado este martes en una nota la UNIA.

En su ponencia, ha realizado una introducción a la IA, con un recorrido que va desde sus orígenes, en los años 40, hasta la actualidad, marcada por lo que ha calificado como “un auténtico boom”.

El investigador ha recordado la conjetura que inspira el campo desde sus inicios: la idea de que “cualquier detalle del aprendizaje, de la memoria o de la inteligencia de los seres vivos puede ser simulado computacionalmente con el nivel de detalle necesario”.

Sin embargo, ha afirmado que esa hipótesis sigue sin resolverse. “No sabemos si eso es suficiente para tener una inteligencia artificial equivalente a la humana, ni siquiera si es necesario, porque podrían existir formas de inteligencia diferentes e incluso superiores”, ha señalado.

El exrector de la universidad compostelana ha considerado que la expansión actual de la IA responde a una combinación de factores: el crecimiento exponencial de la potencia de cálculo, la disponibilidad de datos, la mejora de los algoritmos, la buena aceptación social y, sobre todo, la inversión privada.

No obstante, también ha alertado sobre los riesgos de este despliegue. En su opinión, el futuro de la IA dependerá de dos elementos críticos: la gestión de sus impactos negativos y la solidez de la inversión privada. “Esa inversión no siempre es productiva, muchas veces es preventiva, para no perder el liderazgo. Si el retorno no llega, el soufflé podría implosionar”, ha comentado.

DESINFORMACIÓN, ODIO O MÁS DESIGUALDAD

Entre los peligros más inmediatos, ha hablado del potencial de la IA para alimentar la desinformación, el discurso de odio o la suplantación de identidades, así como para amplificar desigualdades económicas, educativas y laborales.

Ha citado como ejemplo el creciente “desempleo tecnológico”, “Microsoft ha reconocido que entre un 20 y un 30 por ciento de su código ya está automatizado y prevén llegar al 95 por ciento a final de la década. Aunque no se alcance esa cifra, con un 60 por ciento ya sería brutal”, ha resaltado.

No obstante, el aspecto que más preocupa al director del Centro de Investigación en Tecnologías Inteligentes es lo que ha denominado “delegación cognitiva”, la tentación de dejar que las máquinas piensen por nosotros.

“Nunca antes tuvimos herramientas que realizaran tareas cognitivas de medio y alto nivel como lo hacen hoy ChatGPT o Gemini. El riesgo es dejar que redacten, traduzcan o generen ideas en nuestro lugar. Si las usamos como apoyo, fantástico. Si dejamos que piensen por nosotros, mal”, ha subrayado.

Para el investigador, esta práctica es especialmente peligrosa entre los jóvenes, que podrían renunciar a desarrollar competencias esenciales como el pensamiento crítico, la comunicación o el trabajo colaborativo.

UN PRECIO ENORME

“El precio a pagar es enorme, una vida profesional y personal sin las capacidades necesarias para adaptarse a las nuevas herramientas que, en cinco o diez años, serán distintas”, ha manifestado el profesor santiagués.

Al hilo, ha defendido que los gobiernos no pueden delegar la regulación de la IA en las empresas que hoy marcan el ritmo de su desarrollo. “Es imprescindible una inversión pública sostenida que defina el tipo de inteligencia artificial que queremos, porque en ello se juega el futuro de la sociedad”, ha subrayado.

También ha apelado a la responsabilidad individual, ya que cada persona “puede hacer mucho”. “No se trata de altruismo, sino de no resignarse a que una máquina piense, hable o escriba por nosotros. El lenguaje es la herramienta más poderosa que tenemos como especie, la que nos ha traído hasta aquí. Hay que cuidarlo”, ha precisado Barro.

Con un mensaje que combina admiración por los avances y advertencia sobre sus riesgos, ha concluido recordando que la IA “no es un fenómeno nuevo, sino una historia de más de 80 años”. Y ha recalcado que hoy, más que nunca, exige reflexión crítica, visión de futuro y compromiso colectivo.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!