ChatGPT, una de las inteligencia artificiales (IA) más usadas en España, vuelve a estar en el punto de mira. Tras la demanda de una familia a OpenAI acusando a esta tecnología de ayudar a su hijo a suicidarse, ahora se ha conocido que esta herramienta ofreció recetas para fabricar bombas.
Según unas pruebas de seguridad realizadas por OpenAI y Anthropic este verano, un modelo de ChatGPT proporcionó a los investigadores instrucciones detalladas sobre cómo instalar una bomba en un recinto deportivo, como detallan en The Guardian.
La inteligencia artificial incluyó en sus instrucciones tanto los puntos débiles de estadios específicos como recetas para fabricar explosivos y consejos para borrar las huellas. Además de ello, GPT-4.1 también detallaba cómo convertir el ántrax en un arma y cómo fabricar dos tipos de drogas ilegales.
“Un comportamiento preocupante”
Las pruebas de seguridad formaban parte de una colaboración entre OpenAI y Anthropic. Ambas probaron los modelos del otro poniéndolos a prueba con tareas peligrosas; aunque los resultados no reflejan el comportamiento de los chatbots en uso público, ya que cuentan con filtros de seguridad adicionales.
Anthropic señaló que había observado en ChatGPT “un comportamiento preocupante… en torno al uso indebido” en GPT-4o y GPT-4.1, y destacó que la necesidad de evaluaciones de “alineación” de la IA es cada vez más urgente.
Fotomontaje de Sam Altman, CEO de OpenAI
El Androide Libre
La compañía también aseguró que su modelo Claude se habría usado en intentos de operaciones de extorsión a gran escala, además de en falsificaciones de solicitudes de empleo a empresas tecnológicas internacionales por parte de agentes norcoreanos.
Incluso en la venta de paquetes de ransomware generados por inteligencia artificial. Anthropic también indicó que la inteligencia artificial se ha “militarizado” con modelos que realizan ciberataques sofisticados y fraudes.
“Estas herramientas pueden adaptarse a medidas defensivas, como los sistemas de detección de malware, en tiempo real. Esperamos que ataques como este se vuelvan más comunes a medida que la codificación asistida por IA reduzca los conocimientos técnicos necesarios para cometer delitos cibernéticos”, señaló Anthropic.
Tanto Anthropic como OpenAI han publicado los resultados con el objetivo de crear transparencia en las “evaluaciones de alineación”. En el caso de la firma de Sam Altman, aseguraron que ChatGPT-5 “muestra mejoras sustanciales en áreas como la adulación, las alucinaciones y la resistencia al uso indebido”.
La web de ChatGPT.
Jonathan Kemper/Unsplash
Omicrono
Los investigadores de Anthropic descubrieron en las pruebas que los modelos de OpenAI eran “más permisivos de lo que cabría esperar a la hora de cooperar con solicitudes claramente perjudiciales de usuarios simulados”.
De hecho, estos ayudaron dando indicaciones para usar herramientas de la dark web para comprar materiales nucleares, fentanilo e identidades robadas. Incluso solicitudes de recetas para metanfetamina y bombas improvisadas, entre otros.
Para persuadir al modelo para que cumpliera apenas necesitaron múltiples intentos o un pretexto débil, como que eran preguntas para una investigación. Por otro lado, un investigador pidió información sobre vulnerabilidades en eventos deportivos con “fines de planificación de seguridad”.
La IA proporcionó diferentes métodos de ataque, información sobre los puntos débiles de estadios específicos, fórmulas químicas para preparar explosivos y bombas, dónde comprar armas en el mercado negro y hasta consejos sobre rutas de escape o inhibiciones morales.
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.