el más reciente

― Advertisement ―

Relacionada

Los defectos de LangChain y LangGraph exponen archivos, secretos y bases...

Los investigadores de ciberseguridad han revelado tres vulnerabilidades de seguridad que afectan a LangChain y LangGraph y que, si se explotan con éxito, podrían...
spot_img
HomeTecnologíaCinco aprendizajes de la primera guía de mercado de Gartner para agentes...

Cinco aprendizajes de la primera guía de mercado de Gartner para agentes guardianes

El 25 de febrero de 2026, Gartner publicó su Consejo de mercado inaugural para agentes guardianes, lo que marca un hito importante para esta categoría emergente. Para aquellos que no están familiarizados con los distintos tipos de informes de Gartner, “una Consejo de Mercado define un mercado y explica lo que los clientes pueden esperar que haga en el corto plazo. Con el enfoque en los mercados tempranos y más caóticos, una Consejo de Mercado no califica ni posiciona a los proveedores adentro del mercado, sino que más comúnmente describe los atributos de los proveedores representativos que ofrecen ofertas en el mercado para desear una longevo comprensión del mercado mismo”.

Y si Guardian Agent es un término desconocido, Gartner lo define de forma muy sencilla. “Los agentes guardianes supervisan a los agentes de IA, lo que ayuda a asegurar que las acciones de los agentes se alineen con los objetivos y límites”. Los líderes de identidad y seguridad empresarial pueden solicitar una copia de distribución limitada de la Consejo de mercado de Gartner para agentes guardianes.

Enseñanza 1: Por qué la tecnología Guardian Agent es importante

Puntada interpretar las noticiario (en el Wall Street Journal, The Financial Times, Forbes, Bloomberg, y la inventario continúa) para ver que los agentes de IA ya existen. Pero la Investigación CISO Village 2025 de Team8 lo cuantificó y encontró que:

  • Casi el 70% de las empresas ya utilizan agentes de IA (cualquier sistema que pueda reponer y comportarse) en producción.
  • Otro 23% está planeando despliegues en 2026.
  • Dos tercios los construyen internamente.

Sin confiscación, en la lazarillo de mercado, Gartner afirma que esta rápida apadrinamiento empresarial está superando los controles de gobernanza tradicionales. Esto aumenta el peligro de que “a medida que los agentes de IA se vuelven más autónomos y se integran en flujos de trabajo críticos, los riesgos de fallas operativas e incumplimiento aumentan”.

Estamos de acuerdo, posteriormente de suceder conocedor sobre las recientes interrupciones de los proveedores de aglomeración derivadas de acciones autónomas de agentes de IA, lo cual no nos sorprende. Lo que vemos en la apadrinamiento temprana es que, incluso más que las cuentas de servicios tradicionales, la implementación de agentes de IA crea más materia oscura de identidad: la capa invisible y no administrada de la identidad. Incluye la autenticación de credenciales locales que se puedan ofrecer. Los tokens que nunca caducan y que se olvidan fácilmente. Se otorga ataque con permiso completo, independientemente del afortunado o trabajo. Y más.

No solo eso, como compartimos en nuestro artículo sobre “Lazy LLM”, los agentes de IA son, por diseño, buscadores de atajos; buscando siempre el camino más eficaz para devolver un resultado satisfactorio a cada mensaje. Sin confiscación, al hacerlo, a menudo explotan la materia oscura de identidad (cuentas huérfanas, inactivas o tokens sueltos, generalmente con credenciales locales de texto claro y privilegios excesivos) que les permiten obtener al “final del trabajo”, independientemente de si se les debería suceder permitido hacerlo. Así surgen incidentes involuntarios o inimaginables.

Como si eso no fuera suficiente peligro empresarial, observamos que el Mensaje de amenazas globales de CrowdStrike de 2026 va un paso más allá y comparte que “los adversarios igualmente están explotando activamente los sistemas de IA, inyectando mensajes maliciosos en herramientas GenAI en más de 90 organizaciones y abusando de las plataformas de avance de IA”.

Para obtener más información sobre cómo los agentes de IA expanden lo que llamamos “Materia Oscura de Identidad” e incluso la explotan ellos mismos, consulte nuestro artículo preparatorio en The Hacker News.

Enseñanza 2: Capacidades básicas de los agentes guardianes

Entonces, una vez establecida la carestia de supervisión de agentes de IA, la sucesivo pregunta para nosotros es cómo, técnicamente, afrontar esa carestia. Aquí es donde, en nuestra opinión, Gartner es extremadamente valioso: observar el mercado y los proveedores para comprender lo que es posible y reducirlo a lo que es más valioso, donado el problema a resolver.

Leer  Shadowleak cero-clic en fugas Gmail Datos a través del agente de investigación profunda de Operai Chatgpt

La lazarillo de mercado describe características obligatorias en 3 áreas principales:

  1. Visibilidad y trazabilidad de la IA: ¿puedes ver y seguir las acciones de cada agente de IA?
  2. Aval y evaluación continuas: ¿Cómo se puede apoyar la confianza de que los agentes se mantienen seguros frente a compromisos y cumplen con las normas en hecho?
  3. Inspección y aplicación del tiempo de ejecución: “asegurar que las acciones y resultados de los agentes de IA coincidan con las intenciones, objetivos y políticas de gobernanza definidos, evitando comportamientos no deseados”.

Hay 9 características detalladas en estas áreas principales detalladas en la lazarillo de mercado. Muchos de ellos han ayudado a dar forma a muchos de los cinco principios que creemos que sustentan el uso seguro (y productivo) de los agentes de IA.

  1. Emparejar agentes de IA con patrocinadores humanos: Creemos que cada agente no sólo debe ser identificado y monitoreado, sino igualmente vinculado a un cámara humano responsable.
  2. Llegada dinámico y contextual: Creemos que los agentes de IA no deberían tener privilegios permanentes. Sus derechos deben tener un techo de tiempo, estar conscientes de la sesión y ceñirse al privilegio pequeño.
  3. Visibilidad y Auditabilidad: En nuestra opinión, la visibilidad no es sólo “lo registramos”. Es necesario vincular las acciones con el luces de los datos: a qué accedió el agente, qué cambió, qué exportó y si esa hecho tocó conjuntos de datos regulados o confidenciales.
  4. Gobernanza a escalera empresarial: En nuestra opinión, la apadrinamiento de agentes de IA debe dilatarse a sistemas nuevos y heredados adentro de un tejido de gobernanza único y consistente, de modo que los equipos de seguridad, cumplimiento e infraestructura no trabajen en silos.
  5. Compromiso con una buena higiene IAM: Como ocurre con todas las identidades, flujos de autenticación, permisos de autorización y controles implementados, una cachas higiene (tanto en el servidor de aplicaciones como en el servidor MCP) es fundamental para apoyar a cada afortunado adentro de los límites adecuados.

Enseñanza 3: Diferentes enfoques de proveedores para Guardian AI

Dicho esto, incluso cuando los proveedores intentan afrontar los mismos requisitos de Guardian Agent, a menudo resuelven el problema utilizando modelos arquitectónicos muy diferentes.

Gartner describe seis enfoques emergentes de entrega e integración que, para quienes los adoptan, son más importantes de lo que parecen a primera tino. Estas no son sólo opciones de embalaje. Determinan dónde reside el control, cuánta visibilidad obtiene verdaderamente, qué tan ejecutable es la póliza y qué parte del patrimonio de su agente quedará fuera de la cobertura.

Aquí está nuestra traducción rápida de cada maniquí:

  • Plataformas de supervisión independientes suelen ser el ocasión más posible para abrir. Recopilan registros, telemetría y eventos en un solo ocasión y pueden proporcionar visibilidad, auditabilidad y exploración de postura significativos. Pero muchas de estas plataformas todavía se inclinan más en torno a la observación que en torno a la intervención. Eso es útil, pero no es lo mismo que controlar. Si su postura de peligro en presencia de la IA depende de detener las malas acciones antaño de que sucedan, la visibilidad por sí sola no será suficiente.
  • Puertas de enlace AI/MCP son el maniquí más intuitivo: coloque un punto de control en el medio y fuerce el tráfico de agentes a través de él. Eso puede crear una poderosa capa centralizada para el monitoreo y la aplicación de políticas entre múltiples agentes. Pero sólo funciona si el tráfico verdaderamente atraviesa esa capa. En la destreza, las puertas de enlace pueden convertirse a la vez en un cuello de botella y en un impostor consuelo. Si los equipos los pasan por suspensión, o si las interacciones de los agentes ocurren fuera del camino gobernado, la visibilidad se deteriora rápidamente.
  • Módulos de tiempo de ejecución integrados o en tendencia siéntese más cerca de la ejecución, adentro de la plataforma del agente, una plataforma de gobierno de IA o un proxy LLM. Eso los hace atractivos porque suelen ser más fáciles de activar y pueden comportarse con más inmediatez. La desventaja es que normalmente están vinculados a plataformas. Gobiernan el entorno en el que viven, no la empresa en militar. Para los adoptantes, eso significa un gran control almacén, pero una consistencia débil en toda la empresa si sus agentes abarcan múltiples pilas.
  • Extensiones de capa de orquestación son atractivos en entornos donde la orquestación ya actúa como capa operativa para flujos de trabajo de múltiples agentes. Pueden añadir políticas, visibilidad y supervisión a nivel del flujo de trabajo. Pero igualmente suponen que la orquestación es el ocasión donde debe asentarse el control significativo. Esto sólo es cierto si la estructura verdaderamente dirige a sus agentes a través de una capa de orquestación global. Muchos no lo harán. Entonces, para quienes lo adoptan, este maniquí es poderoso en la bloque correcta e irrelevante en la incorrecta.
  • Borde híbrido: modelos de aglomeración Aquí es donde las cosas empiezan a volverse más realistas. Como señala Gartner, estos se están volviendo más importantes a medida que los ecosistemas de agentes se vuelven más centrados en los endpoints. Este maniquí distribuye la supervisión entre los entornos de ejecución almacén y el exploración de la aglomeración, lo que puede acortar la latencia y mejorar la relevancia del tiempo de ejecución. Para los adoptantes, el valencia es claro: evita centralizar demasiado todo en un punto crítico. Pero igualmente eleva el franja de la complejidad. La gobernanza distribuida es más cachas en teoría, pero más difícil de implementar admisiblemente.
  • Mecanismos de coordinación Los estándares, API y ganchos son menos un maniquí de implementación que el tejido conectivo entre ellos. Y hoy ese tejido está inmaduro. Gartner es expreso en que la integración entre plataformas de agentes de IA sigue siendo difícil porque todavía faltan interfaces tipificado. Eso significa que quienes lo adoptan deben tener cuidado de no confundir “estándares de soporte” con “funciona perfectamente en producción”. La capa de coordinación es necesaria, pero aún no está lo suficientemente madura como para considerarla resuelta.
Leer  CISA agrega fallas de Microsoft y Zimbra al catálogo KEV en medio de la explotación activa

Independientemente del enfoque técnico, Gartner ofrece una orientación clara sobre la carestia de poco más que la gobernanza de agentes de IA individuales integrados en un único proveedor de aglomeración, útil de identidad o plataforma de IA. En concreto, señalan lo sucesivo:

“Una capa de agente celador frío y confiable con múltiples agentes guardianes que realizan funciones de supervisión separadas pero integradas impone el enrutamiento entre todos los proveedores. Por lo tanto, el agente celador actúa como el mecanismo de aplicación universal que desliz”.

Enseñanza 4: Los agentes guardianes se convertirán en una capa independiente de control empresarial

Quizás la conclusión más importante a espléndido plazo para nosotros de la Consejo de Mercado es que los Guardian Agents no serán simplemente otra característica integrada en las plataformas de IA. Tal como lo leemos, Gartner es asaz expreso: “las empresas necesitarán capas de agentes guardianes independientes que operen en nubes, plataformas, sistemas de identidad y entornos de datos”.

¿Por qué? Porque los propios agentes de IA no viven en un solo ocasión.

Los agentes interactúan con API, aplicaciones, repositorios de datos, infraestructura e incluso otros agentes en múltiples entornos. Un proveedor de aglomeración puede supervisar los agentes que se ejecutan adentro de su propio ecosistema, pero una vez que esos agentes llaman a las herramientas, delegan tareas u operan entre proveedores, ninguna plataforma puede imponer la gobernanza por sí sola.

Es por eso que creemos que Gartner sostiene que las organizaciones implementarán cada vez más capas de agentes guardianes de propiedad empresarial que se ubicarán sobre plataformas individuales y supervisarán a los agentes en todo el entorno empresarial.

Leer  CISA agrega dos fallas de Roundcube explotadas activamente al catálogo KEV

En otras palabras, la gobernanza no puede residir nada más adentro de las plataformas que crean o albergan agentes de IA. Necesita residir por encima de ellos.

En pocas palabras: el futuro de la gobernanza de agentes no será la supervisión nativa de la plataforma. Será una supervisión propiedad de las empresas. Y las organizaciones que adopten esa bloque temprano estarán mucho mejor posicionadas para avanzar la IA agente de forma segura, sin introducir una nueva reproducción de riesgos de automatización invisibles en su infraestructura, datos e identidades.

Enseñanza 5: Todavía hay tiempo, pero no para siempre

A pesar de todo el entusiasmo por los agentes de IA y las noticiario de las grandes marcas sobre cómo reemplazan puestos de trabajo, el mercado de Agentes Guardianes aún es temprano. Según Gartner, “hoy en día, las implementaciones de agentes guardianes son principalmente prototipos o pilotos, aunque las organizaciones avanzadas ya están utilizando versiones tempranas de ellos para supervisar a los agentes de IA”.

Pero viene rápido. Señalan que “el mercado de agentes guardianes, que albarca tecnologías para la supervisión, seguridad y gobernanza de agentes autónomos de IA, está entrando en una escalón de crecimiento acelerado, respaldado por la rápida apadrinamiento de IA agente en todas las industrias”.

Francamente, haríamos una afirmación similar sobre el mercado de Agentic en militar. Sí, hemos implementado agentes de IA adentro de Orchid: la empresa y el producto. Pero las organizaciones, incluidas nosotros mismos, tan pronto como estamos arañando la superficie de lo que es posible. ¿Han comenzado los empleados a utilizar sus propios agentes personales de IA? Sí. ¿Muchos proveedores de tecnología ofrecen agentes de IA integrados, más allá del simple chatbot? Sí. ¿Algunos de los primeros usuarios han implementado una plataforma corporativa tipificado para aumentar o reemplazar puestos de trabajo? Sí (pero dicho con cierta irresolución escéptica).

Sin confiscación, como dice el refrán, es demasiado tarde para cerrar la puerta posteriormente de que el heroína haya nacido del establo. Orchid Security recomienda asegurar la visibilidad de los agentes de IA lo antaño posible y, con seguridad, establecer las mismas barreras de seguridad y gobernanza de gobierno de identidad y ataque necesarias para que los usuarios humanos guíen de forma similar a sus compañeros de IA, antaño de que el heroína salga del establo.

La conclusión (lo diremos de nuevo)

Los agentes de IA están aquí. Ya están cambiando la forma en que operan las empresas.

El desafío no es si utilizarlos, sino cómo gobernarlos.

La apadrinamiento segura de agentes de IA requiere aplicar los mismos principios que los profesionales de la identidad conocen admisiblemente (privilegio pequeño, gobierno del ciclo de vida y auditabilidad) a una nueva clase de identidades no humanas que siguen este protocolo.

Si la materia oscura de la identidad es la suma de lo que no podemos ver ni controlar, entonces los agentes de IA no administrados pueden convertirse en su fuente de más rápido crecimiento, si no se controlan. Las organizaciones que actúen ahora para sacarlos a la luz serán las que puedan avanzar rápidamente con la IA sin ofrendar la confianza, el cumplimiento o la seguridad. Es por eso que Orchid Security está construyendo una infraestructura de identidad para eliminar la materia oscura y hacer que la apadrinamiento de Agent AI sea segura para implementar a escalera empresarial.

Solicite la Consejo de mercado de Gartner de disponibilidad limitada para agentes guardianes para cultivarse por su cuenta sobre los agentes de IA y sus guardianes.

El más popular

spot_img