Hay tecnologías que se anuncian como herramientas útiles y terminan convirtiéndose en mecanismos de dependencia y hasta esclavización, que organizan e incluso toman el control de nuestras vidas sin que nos demos cuenta. La inteligencia artificial ya filtra lo que se lee, recomienda lo que se ve y orienta decisiones sobre empleo, crédito, salud, seguridad y política. La cuestión, por tanto, no es si la IA decide, que es algo meridiano a estas alturas, sino quién la programa, con qué datos y bajo qué intereses.
Decisiones probabilísticas
Muchas veces parece que decidir es pulsar un botón o tomar el camino A en vez del B. Pero decidir consiste en ordenar prioridades y también se puede influir en una decisión ocultando alternativas. En nuestro mundo digitalizado, un sistema decide cuando coloca una noticia por encima de otra, cuando modifica el precio mostrado a un cliente, cuando descarta un currículo antes de que lo revise un humano, cuando silencia o amplifica la visibilidad de un mensaje o cuando asigna un riesgo a un préstamo o una prioridad para ser operado a un paciente. Se trata de decisiones probabilísticas, entrenadas con datos históricos y orientadas a objetivos fijados por quienes diseñan y operan el sistema de IA.
El primer problema al que nos enfrentamos es la opacidad. Se manifiesta en tres capas: primero, la del modelo, porque los sistemas de IA más potentes son cerrados y no se publican sus parámetros ni sus criterios de ajuste. Segundo, la de los datos, porque a menudo se desconoce qué muestras se han empleado, con qué sesgos, bajo qué licencias y con qué calidad. Sin saber qué “entra”, resulta difícil juzgar lo que “sale” del sistema. Y, por último, la del proceso y la gobernanza, porque la inmensa e incomprensible letra pequeña de las licencias de uso, las auditorías internas no divulgadas (si es que las hay) y acuerdos de confidencialidad firmados entre distintos actores de la cadena de valor impiden una verificación independiente. El resultado es una asimetría informativa entre quien usa la IA y quien la controla. El usuario es un completo ignorante. El propietario de los medios de producción tiene toda la información y potestades. El medievo en versión digital, señores.
De la confianza ciega al control oligárquico
La confianza acrítica —hacer “lo que diga la IA”— añade una segunda capa de riesgo. El sesgo de automatización, documentado en diferentes ámbitos, lleva a sobrevalorar la recomendación de una máquina aunque existan señales claras de duda. A ello se suma la fatiga informativa a la que estamos sometidos y la comodidad de delegar, o vaguedad, según queramos llamarla. La IA entrega respuestas rápidas, formateadas, verosímiles. Contrastar exige tiempo y criterio. Cuando se abandona ese hábito, la frontera entre ayuda y heteronomía —que otros decidan por nosotros— se desdibuja. Y esto se está llenando de heterónomos a un ritmo que da miedo.
¿Quién controla, en la práctica, los algoritmos? Creo que nadie duda de que las grandes plataformas y proveedores definen sus objetivos de optimización (tiempo de permanencia, conversión, reducción de costes, retención), poseen los datos y marcan el ritmo de la innovación, al estar constituidos en oligarquía (si no fuera por el amigo Elon, quizás hasta un cártel, con accionistas cruzados entre ellas). Por otra parte, los estados y agencias públicas compran o desarrollan sistemas para seguridad y gestión que, según el caso, pueden mejorar servicios públicos o, en el caso extremo —que nunca ocurre, afortunadamente—, orientar mensajes políticos y propaganda utilizando recursos públicos.
Sin embargo, hay un tercer grupo del que muy pocos se acuerdan. El de personajes relevantes con capacidad financiera casi ilimitada para entrar en la propiedad de empresas de IA, como ya están haciendo masivamente, y promover su visión del mundo, sus valores, su filosofía y su concepción personal de cómo debería ser el ser humano, mediante decisiones de producto, inversión o simplemente influyendo en cómo hay que desarrollar los grandes modelos de IA que todos consumimos. No es necesario recurrir a teorías conspirativas para reconocer que hay intereses globales capaces de influir en el flujo informativo y, con ello, en la percepción social.
La duda como resistencia
La IA permite un salto de escala en la influencia informativa. Primero, por volumen: generación masiva de textos, imágenes, audios y vídeos a coste marginal casi nulo. Segundo, por personalización: microsegmentación que adapta el mensaje al perfil de cada usuario. Tercero, por verosimilitud sintética: deepfakes y voces clonadas que erosionan la confianza en lo audiovisual. La consecuencia es conocida: polarización amplificada, realidades paralelas y saturación. Sin embargo, cuando todo parece posible gracias a la IA, la duda, eso con lo que Descartes realmente alucinó toda su vida, se convierte en la mejor herramienta de resistencia. En una sociedad donde ya no se discuten los hechos, sino relatos incompatibles sintetizados por verdades paralelas generadas por IA, quien se haga maestro de la duda será el capitán de su destino.
La realidad es que, en la actualidad, la conversación democrática se debilita cada día y crece la dependencia de “autoridades algorítmicas” no elegidas, pero que “lo saben todo”. Pero no; la IA no es un oráculo. Es una infraestructura de poder. La cuestión no es usarla o no, sino en qué condiciones, con qué límites y bajo qué controles. Con modelos menos opacos, decisiones explicables y usuarios más exigentes, resulta posible aprovechar su utilidad sin entregar la autonomía personal a una caja negra. Y si piensas que tu voz y tus acciones personales no van a cambiar nada, haz una escapadita a la playa más cercana. Pasea, recoge arena entre tus dedos y piensa que cada granito de arena es lo que hace que no te hundas al centro de la tierra.
Antonio Flores Galea tiene dos ingenierías superiores de Telecomunicación y en Electrónica por la Universidad de Sevilla y es MBA por la escuela de negocios IESE. Es profesor de Inteligencia Artificial y Big Data en la Universidad Francisco de Vitoria.
Leer en la fuente
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.