Los agentes de IA elevan la amenaza de ciberataques y Proofpoint responde con un nuevo blindaje de seguridad

Los agentes de inteligencia artificial son ya una realidad con la que hemos empezado a convivir y que está transformando la forma en que trabajamos. Aunque en ocasiones se confunden con los chatbots, su alcance va mucho más allá.

Mientras que estos últimos se limitan a responder preguntas para las que han sido programados, los agentes son capaces de captar información de su entorno, integrarse con otros sistemas, colaborar con humanos y entre ellos mismos, y gestionar procesos complejos de forma autónoma.

Su irrupción abarca todos los sectores: desde el financiero al sanitario, pasando por el turismo, la logística o el comercio. Este fenómeno ya se ha bautizado como agentic workspace, un entorno en el que personas y máquinas colaboran y comparten información, con un enorme potencial.

David Villalon y Manuel Romera, fundadores de Maisa IA

Las cifras hablan por sí solas: el mercado de agentes de IA crecerá a unas tasas anuales de entre el 38% y el 46% en los próximos años, según Gartner y GMI Insights. Sólo en el primer semestre de 2025, registró un incremento del 119%, según PwC.

Sin embargo, no todo son parabienes. Esa autonomía que les caracteriza, y que constituye su mayor fortaleza, también es su principal debilidad.

Agentes bajo sospecha

Si un agente es capaz de decidir y actuar por sí mismo, también puede equivocarse, ejecutar razonamientos incorrectos o propagar errores a gran escala. Y cuando maneja información sensible, el peligro se multiplica.

Se puede dar el caso, por ejemplo, al cerrar operaciones de riesgo en el sector financiero, exponer historiales médicos fuera de contexto o gestionar miles de pedidos en una cadena de suministro de forma errónea.

Un instante del proceso de creación de un agente autónomo de Salesforce.

A ello se añade la amenaza de los ciberatacantes, capaces de disfrazar instrucciones dañinas bajo la apariencia de órdenes legítimas.

En este contexto, la pregunta resulta inevitable: ¿cómo proteger este nuevo espacio de colaboración entre humanos y máquinas? Si partimos del hecho de que los agentes de IA se comportan como personas, también pueden ser engañados como ellas.

La respuesta llega sola: los agentes requieren de la misma protección que los empleados humanos, aunque teniendo en cuenta sus capacidades autónomas.

Esa es la propuesta que acaba de presentar Proofpoint en Nashville (Tennessee, EEUU), durante su gran cita anual, un encuentro en el que está presente DISRUPTORES – EL ESPAÑOL.

Más confianza

La compañía, que protege a más del 85% de las empresas del Fortune 100, ha anunciado una estrategia destinada a generar confianza en esa convivencia entre agentes de IA y personas, “donde cada interacción pueda verificarse, cada flujo de datos esté gobernado y cada acción tenga un marco de supervisión”, explicaba el CEO de la compañía, Sumit Dhawan

Entre las prioridades figura la protección del correo electrónico, convertido en la principal vía de entrada de amenazas también para los agentes de IA. La compañía busca detectar y bloquear mensajes manipulados con instrucciones ocultas capaces de engañar a asistentes como Copilot o Gemini.

Una persona escribiendo a ChatGPT

Así, quiere evitar que la colaboración entre humanos y máquinas quede comprometida a través de uno los canales más empleados por los ciberdelincuentes en sus ataques.

La estrategia incluye el refuerzo de la seguridad y la gobernanza de los datos, supervisando cómo se utilizan y tomando medidas para evitar la prevención de fugas antes de que se produzcan. Para ello, Proofpoint va a incorporar desde pasarelas que regulan el acceso de agentes corporativos hasta herramientas capaces de automatizar tareas de defensa, simular ataques o gestionar alertas en tiempo real.

Seguros y de fiar

El mercado de los agentes de IA apunta a las grandes cifras, con una previsión de 7.700 millones de dólares en 2025, casi 40.000 millones en cinco años y más de 100.000 millones para 2034.

Una evolución que recuerda a la vivida con la nube o con la IA generativa y que confirma que la cuestión ya no es si los agentes se consolidarán, sino cómo hacerlo sin poner en riesgo la seguridad y la privacidad.

La burbuja de la inteligencia artificial generativa.

La apuesta de Proofpoint, presentada en Nashville, busca justamente eso: que las bondades y beneficios de esta nueva era digital no se vean enturbiados por unos peligros cada vez más numerosos y sofisticados.

El reto no es sólo aprovechar el potencial de los agentes de IA, sino hacerlo en un entorno seguro, gobernado y confiable, donde la colaboración entre humanos y máquinas pueda desplegarse sin comprometer la seguridad y la reputación de las organizaciones.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

⚠️ ENTORNO DE DESARROLLO Este sitio está en modo desarrollo

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!