Las empresas no están preparadas para un mundo de agentes maliciosos de IA

Publicado el:

spot_img
- Advertisment -spot_img

Siga ZDNET: Agréguenos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • La gestión de identidades no funciona cuando se trata de agentes de IA.
  • Los agentes de IA amplían la superficie de amenazas de las organizaciones.
  • Parte de la solución serán agentes de inteligencia artificial que automaticen la seguridad.

A medida que las empresas comienzan a implementar agentes de inteligencia artificial, los altos ejecutivos están alerta sobre los riesgos de la tecnología, pero tampoco están preparados, según Nikesh Arora, director ejecutivo del gigante de la ciberseguridad Palo Alto Networks.

- Advertisement -[wpcode id="699"]

«Está empezando a darse cuenta de que a medida que empecemos a implementar la IA, vamos a necesitar seguridad», dijo Arora en una conferencia de prensa en la que participé.

«Y creo que la mayor consternación está en torno a la parte de los agentes», dijo, «porque a los clientes les preocupa que si no tienen visibilidad para los agentes, si no entienden qué credenciales tienen los agentes, será el Salvaje Oeste en sus plataformas empresariales».

Los agentes de IA se definen comúnmente como programas de inteligencia artificial a los que se les ha otorgado acceso a recursos externos al propio modelo de lenguaje grande, lo que permite que un programa lleve a cabo una variedad más amplia de acciones. El enfoque podría ser un chatbot, como ChatGPT, que tenga acceso a una base de datos corporativa mediante una técnica como la generación aumentada de recuperación (RAG).

Un agente podría requerir una disposición más compleja, como que el bot invoque una amplia gama de llamadas a funciones a varios programas simultáneamente a través de, por ejemplo, el estándar Model Context Protocol. Luego, los modelos de IA pueden invocar programas que no son de IA y orquestar su operación en conjunto. Todos los paquetes de software comerciales agregan funciones de agente que automatizan parte del trabajo que una persona tradicionalmente realizaría manualmente.

- Advertisement -[wpcode id="699"]

La esencia del problema es que los agentes de IA tendrán acceso a los sistemas corporativos y a información confidencial de muchas de las mismas maneras que los trabajadores humanos, pero la tecnología para gestionar ese acceso (incluida la verificación de la identidad de un agente de IA y la verificación de las cosas a las que tienen acceso privilegiado) está mal organizada para la rápida expansión de la fuerza laboral a través de agentes.

Leer  Google ofrece certificación de IA para líderes empresariales ahora, y la capacitación es gratuita

Aunque hay consternación, las organizaciones aún no comprenden plenamente la enormidad de asegurar agentes, dijo Arora.

«Requiere toneladas de inversión en infraestructura, requiere toneladas de planificación. Y eso es lo que me preocupa, es que nuestras empresas todavía tienen la ilusión de que son extremadamente seguras».

El problema se agudiza, dijo Arora, por el hecho de que los malos actores están intensificando sus esfuerzos para utilizar agentes para infiltrarse en los sistemas y extraer datos, aumentando el número de entidades que deben ser verificadas o rechazadas para el acceso.

La gestión de identidad está rota

La falta de preparación se debe al subdesarrollo de técnicas para identificar, autenticar y otorgar acceso, dijo Arora. La mayoría de los usuarios de una organización no son objeto de un seguimiento regular, afirmó.

«Hoy en día, la industria está bien cubierta en el lado del acceso privilegiado», dijo Arora, refiriéndose a técnicas conocidas como gestión de acceso privilegiado (PAM), que realiza un seguimiento de un subconjunto de usuarios a los que se les concede el mayor número de permisos. Ese proceso, sin embargo, deja una gran brecha en el resto de la fuerza laboral.

- Advertisement -[wpcode id="699"]

«Sabemos lo que están haciendo esas personas, pero no tenemos idea de lo que está haciendo el resto del 90% de nuestros empleados», dijo Arora, «porque hoy en día es demasiado costoso rastrear a cada empleado».

Ampliando la superficie de amenaza

Arora sugirió que el enfoque es insuficiente ya que los agentes amplían la superficie de amenaza al usarse para manejar más tareas. Debido a que «un agente (IA) es también un usuario de acceso privilegiado, y también un usuario normal en algún momento», entonces cualquier agente, una vez creado, puede obtener acceso a «las joyas de la corona» de una organización en algún momento durante el curso de su funcionamiento.

Leer  Invertí en un timbre de video sin suscripción, y está dando sus frutos para mi hogar inteligente

A medida que las máquinas obtienen acceso privilegiado, «lo ideal sería conocer todas mis identidades no humanas y poder encontrarlas en un lugar y rastrearlas».

Los «paneles» actuales de los sistemas de identidad no están diseñados para rastrear la variedad de agentes que obtienen acceso a este o aquel sistema, dijo Arora.

«Un agente necesita la capacidad de actuar. La capacidad de actuar requiere que tengas acceso a las acciones en algún tipo de panel de control», explicó. «Esas acciones hoy en día no se configuran fácilmente en la industria entre proveedores. Por lo tanto, las plataformas de orquestación son el lugar donde realmente se configuran estas acciones».

La amenaza se ve aumentada por los estados-nación que intensifican los ataques cibernéticos y por otros actores que buscan comprometer las credenciales de los usuarios privilegiados.

«Estamos viendo ataques de smishing y ataques de credenciales de alto riesgo en toda la población de una empresa», dijo Arora, refiriéndose al «phishing a través de mensajes de texto». Estos textos generados automáticamente tienen como objetivo atraer a los usuarios de teléfonos inteligentes para que revelen información confidencial, como números de seguridad social, para intensificar un ataque a una organización haciéndose pasar por usuarios privilegiados.

La investigación de Palo Alto ha identificado 194.000 dominios de Internet que se utilizan para propagar ataques de smishing.

Agentes para encontrar agentes.

El discurso de Arora a los clientes para abordar este problema es doble. En primer lugar, su empresa está integrando las herramientas obtenidas mediante la adquisición de este año de la empresa de gestión de identidad CyberArk. Palo Alto nunca ha vendido ningún producto de gestión de identidad, pero Arora cree que su empresa puede unificar lo que es una colección fragmentada de herramientas.

«Creo que con el núcleo y el corpus de CyberArk, podremos expandir sus capacidades más allá de los usuarios privilegiados en toda la empresa y podremos proporcionar una plataforma cohesiva para la identidad», dijo Arora.

«Con la llegada de la IA agente (…) ahora existe la oportunidad para que nuestros clientes la miren y digan: ‘¿Cuántos sistemas de identidad tengo? ¿Cómo se administran todas mis credenciales en la nube, en las cargas de trabajo de producción, en el espacio de privilegios, en todo el espacio IAM (gestión de identidad y acceso)?'»

Leer  Ahora puede generar imágenes con chatgpt en whatsapp - aquí está cómo

El segundo aspecto de una solución, dijo, es utilizar más tecnología agente en los productos de seguridad, para automatizar algunas de las tareas asociadas con un director de seguridad de la información y sus equipos.

«A medida que empezamos a hablar de IA agente, empezamos a hablar de agentes o flujos de trabajo automatizados que hacen cada vez más trabajo», dijo.

Con ese fin, Arora está lanzando una nueva oferta, Cortex AgentiX, que emplea automatización entrenada en «1.200 millones de ejecuciones de manuales de estrategias en el mundo real» de amenazas cibernéticas. Los diversos componentes del agente pueden buscar automáticamente «técnicas de adversario emergentes», dijo la compañía. Las herramientas pueden analizar puntos finales informáticos, como PC o sistemas de correo electrónico, para recopilar datos forenses después de los ataques para que los analistas del centro de operaciones de seguridad (SOC) tomen una decisión humana sobre cómo proceder con la reparación.

«Estamos tomando una tarea que es imposible manualmente», dijo Arora sobre las técnicas de AgentiX.

«No se pueden procesar terabytes de datos manualmente y descubrir cuál es el problema y resolverlo», dijo. «Entonces, los analistas de SOC ahora dedicarán su tiempo a analizar los problemas complejos y preguntarán: ‘¿Cómo resuelvo el problema?’ Y tendrán todos los datos que necesitan para resolver el problema».

Arora se apresuró a añadir que los productos de Palo Alto seguirán implicando en gran medida la aprobación de los analistas de SOC.

«La mayoría de nuestros agentes tendrán humanos en el medio, donde nuestros clientes podrán ver el trabajo realizado por el agente, confirmarlo y luego avanzar y tomar la acción», dijo.

Con el tiempo, Arora dijo que se puede otorgar mayor autonomía a los agentes de IA para manejar la seguridad: «A medida que mejoremos en esto, permitiremos que nuestros clientes digan: ‘Está bien, he hecho esto cinco veces mientras lo observaba (el agente de IA), lo está haciendo bien, lo aprobaré y permitiré que actúe en mi nombre'».

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img