“La inteligencia artificial miente”: el aviso que todos los usuarios de WhatsApp deberían leer

¿Hasta qué punto sabe una inteligencia artificial lo que sentimos, pensamos o hacemos? ¿Y qué ocurre cuando esa IA está integrada en las redes sociales que usamos a diario? Estas son las preguntas que plantea Rafael López, portavoz de Check Point Software, al analizar el despliegue de la inteligencia artificial de Meta,matriz de Facebook, Instagram y WhatsApp, y su impacto directo en la privacidad de los usuarios.

“Imagina que hay una tecnología que sabe dónde estás, qué sientes, qué necesitas o incluso con quién hablas. Eso ya está pasando con la IA de Meta”, advierte López al comienzo de la entrevista.

Desde abril, Meta ha incorporado chatbots con inteligencia artificial directamente en sus plataformas, como el asistente de WhatsApp, alimentado por el modelo LLaMA (Large Language Model Meta AI). Según Check Point, esta integración puede resultar útil, pero también conlleva “una serie de retos importantes en materia de privacidad y seguridad digital”, especialmente porque muchas de las opciones para proteger los datos no son claras ni fáciles de configurar.

“No es que nos roben los datos, es que los estamos regalando, muchas veces sin saberlo”, explica López, al referirse a cómo la IA accede a fotos, mensajes, ubicaciones o incluso emociones.

La preocupación no se limita al uso comercial. El modelo de IA, según López, podría ser entrenado con información confidencial sin que el usuario lo sepa. Además, alerta sobre la manipulación algorítmica del precio de servicios en función de las conversaciones con estos asistentes, como ya se ha detectado en algunas aerolíneas que ajustan sus tarifas según la urgencia que el usuario manifiesta a través de su interacción con la IA.

Deepfakes, fraude y manipulación: el lado oscuro

Uno de los riesgos más serios identificados por Check Point es el uso de IA por parte de ciberdelincuentes. López señala que los criminales pueden clonar modelos sin limitaciones éticas y emplearlos para crear campañas de phishing, suplantaciones de identidad y deepfakes altamente convincentes.

“La inteligencia artificial siempre te va a dar una respuesta, aunque sea falsa. Por eso hay que hacer siempre doble verificación”, insiste.

Este fenómeno, asegura, no solo afecta a mayores: “Muchos jóvenes también son víctimas. Los delincuentes adaptan el mensaje por edad, intereses o referentes. No es casual que uses TikTok y recibas una estafa con la cara de Ibai”.

Meta, privacidad y la delgada línea entre utilidad y abuso

Meta ya ha sido criticada por solicitar pagos para evitar la cesión de datos, una práctica que, para López, evidencia una asimetría de poder entre el usuario y las grandes plataformas. Aunque la regulación europea ofrece protección frente a estos abusos, no es suficiente.

“Tenemos buena legislación en Europa, pero sigue siendo reactiva. No evita estafas ni impide que anuncios fraudulentos estén activos durante semanas”, denuncia.

También advierte sobre el círculo azul en WhatsApp, símbolo del asistente de IA: “Se supone que es un apoyo, pero hay que saber desactivarlo si no queremos alimentar el modelo. Lo preocupante es que pocos saben cómo hacerlo”.

El mensaje final de López es claro: usar redes sociales no es un problema si se hace con conocimiento. “No vamos por la calle contando nuestra vida a gritos, pero en redes sociales lo hacemos. Todo lo que compartimos puede ser usado para perfilar, vender o manipular. Así que, sí, podemos usar IA y redes… pero con cabeza.”

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!