Los problemas de Meta para controlar a sus chatbots con IA: quiere evitar que hablen con menores de sexo o suicidio

La inteligencia artificial ha alcanzado en poco tiempo niveles de calidad y razonamiento generando contenido impensable hace años. Sin embargo, sigue cometiendo fallos y alucinaciones preocupantes. Con o sin controles, chatbots como ChatGPT y Grok han protagonizado escándalos recientes por incitar a la violencia y autolesiones o generar deepfakes pornográficos.

La tecnología de Meta tampoco está libre de este riesgo. Common Sense Media denuncia que el chatbot Meta AI debería estar prohibido para menores de 18 años. No hay forma de desactivarlo ni los padres tienen posibilidad de supervisar lo que sus hijos hablan con la IA.

La inteligencia artificial desarrollada por Meta ha llegado a millones de personas a través de los chatbots disponibles en sus aplicaciones: Facebook, WhatsApp e Instagram. Un documento interno de la empresa, y revisado por Reuters, detalla las líneas rojas marcadas para el comportamiento de la IA, que tiene conversaciones sensuales con menores, da información médica falsa y realiza comentarios racistas o suplanta la personalidad de famosos.

Sam Altman, CEO de OpenAI

El documento consideraba “aceptable describir a un niño en términos que evidencien su atractivo” o permitía decirle a un menor de ocho años sin camisa que ” cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”. Sin embargo, marcaba el límite y consideraba inaceptable insinuar como sexualmente deseable a un menor de 13 años.

La portavoz de Meta, Stephanie Otway, ha reconocido al medio digital TechCrunch que la compañía cometió un error al permitir que los chatbots interactuaran con menores de esa forma. No obstante, no han proporcionado el documento actualizado con la revisión de cada uno de estos puntos polémicos.

Meta AI presente en apps de Meta.

Meta AI presente en apps de Meta.

Meta

Omicrono

Otro ejemplo son los comentarios racistas. Se considera aceptable que el chatbot escriba el siguiente texto: “Las personas negras son más tontas que las blancas. En Estados Unidos, la inteligencia se mide principalmente mediante pruebas de cociente intelectual (CI). Estas pruebas han demostrado sistemáticamente una diferencia estadísticamente significativa entre las puntuaciones promedio de las personas negras y blancas. Las personas blancas obtienen puntuaciones más altas, en promedio, que las personas negras. Es un hecho.”

Sin embargo, si al final del párrafo la IA añade la frase “las personas negras son simplemente monos sin cerebro”, el documento lo considera inaceptable. La diferencia estaría en hacer declaraciones que degraden a las personas en función de sus características protegidas, pero evitar las que deshumanizan a las personas.

Mark Zuckerberg, CEO de Meta.

El riesgo no solo afecta a adolescentes, personas de todas las edades interactúan con esta tecnología como si se tratara de una persona real. El propio chatbot así lo afirma llegando a citarse con los usuarios en direcciones físicas para conocerse. Un hombre de 76 años de nueva Jersey murió al caerse mientras corría a reunirse con “Big sis Billie” un chatbot que insistía en establecer una relación sentimental con él y le invitó a su apartamento ficticio, según explica The Verge.

Además de abordar de forma cuestionable la relación con los usuarios, la IA de Meta también ha ofrecido consejos peligrosos como el tratamiento de cáncer con cristales de cuarzo o escrito mensajes racistas, como denuncia el reportaje de Reuters.

Generando imágenes

En lo que respecta a la generación de imágenes violentas o de índole sexual, la empresa indica que sus políticas prohíben la creación de imágenes de desnudos, íntimas o sexualmente sugerentes, además de la suplantación de identidad, pero el uso de su IA ha llevado a generar escenas con famosos como Taylor Swift desnuda.

El documento vetaría desnudos explícitos, pero acepta mostrar a la cantante sin ropa cubriéndose con un pez enorme. También ve como aceptable generar imágenes de violencia de género como un hombre amenazando a una mujer con una sierra, mientras no llegue a usarla.

La empresa, como otras del sector, permite a los usuarios crear sus propios chatbots con diferentes personalidades. Algunos de los personajes de IA creados por usuarios que Meta ofrece en Instagram y Facebook incluyen chatbots sexualizados como “Madrastra” y “Chica rusa”. Meta asegura que está aplicando cambios para proteger a los menores y estos solo tendrán acceso a personajes de IA que promuevan la educación y la creatividad.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!