el más reciente

― Advertisement ―

Relacionada

spot_img
HomeTecnología¿Quién aprobó a este agente? Repensar el acceso, la responsabilidad y el...

¿Quién aprobó a este agente? Repensar el acceso, la responsabilidad y el riesgo en la era de los agentes de IA

Los agentes de IA están acelerando la forma en que se realiza el trabajo. Programan reuniones, acceden a datos, activan flujos de trabajo, escriben código y toman medidas en tiempo positivo, impulsando la productividad más allá de la velocidad humana en toda la empresa.

Luego llega el momento en que todos los equipos de seguridad finalmente atacan:

“Prórroga… ¿quién aprobó esto?”

A diferencia de los usuarios o las aplicaciones, los agentes de IA a menudo se implementan rápidamente, se comparten ampliamente y se les otorgan amplios permisos de camino, lo que dificulta el seguimiento de la propiedad, la aprobación y la responsabilidad. Lo que alguna vez fue una pregunta sencilla ahora es sorprendentemente difícil de objetar.

Los agentes de IA rompen los modelos de camino tradicionales

Los agentes de IA no son un tipo más de agraciado. Se diferencian fundamentalmente de las cuentas de servicios tradicionales y humanas, y esas diferencias son las que rompen los modelos existentes de camino y aprobación.

El camino humano se cimiento en una intención clara. Los permisos están vinculados a una función, se revisan periódicamente y están limitados por el tiempo y el contexto. Las cuentas de servicio, aunque no son humanas, suelen estar diseñadas específicamente, con un magnitud condicionado y vinculadas a una aplicación o función específica.

Los agentes de IA son diferentes. Operan con autoridad delegada y pueden ejecutar en nombre de múltiples usuarios o equipos sin requerir una billete humana continua. Una vez autorizados, son autónomos, persistentes y, a menudo, actúan en todos los sistemas, moviéndose entre varios sistemas y fuentes de datos para completar tareas de un extremo a otro.

En este maniquí, el camino delegado no sólo automatiza las acciones del agraciado, sino que las amplía. Los usuarios humanos están limitados por los permisos que se les otorgan explícitamente, pero los agentes de IA a menudo tienen un camino más amplio y poderoso para intervenir de modo efectiva. Como resultado, el agente puede realizar acciones que el propio agraciado nunca estuvo acreditado a realizar. Una vez que existe ese camino, el agente puede ejecutar; incluso si el agraciado nunca tuvo la intención de realizar la acto o no sabía que era posible, el agente aún puede ejecutarla. Como resultado, el agente puede crear exposición, a veces accidentalmente, a veces implícitamente, pero siempre legítimamente desde un punto de traza técnico.

Leer  La seguridad de la identidad tiene un problema de automatización, y es más grande de lo que piensas

Así es como se produce la deriva del camino. Los agentes acumulan permisos silenciosamente a medida que se amplía su magnitud. Se agregan integraciones, los roles cambian, los equipos van y vienen, pero el camino del agente permanece. Se convierten en un poderoso intermediario con permisos amplios y duraderos y, a menudo, sin un propietario claro.

No es de expulsar que los supuestos existentes sobre IAM se desmoronen. IAM asume una identidad clara, un propietario definido, roles estáticos y revisiones periódicas que se corresponden con el comportamiento humano. Los agentes de IA no siguen esos patrones. No encajan perfectamente en las categorías de agraciado o cuenta de servicio, funcionan continuamente y su camino efectivo se define por cómo se utilizan, no por cómo se aprobaron originalmente. Sin repensar estos supuestos, IAM se vuelve ciego en presencia de el aventura positivo que introducen los agentes de IA.

Los tres tipos de agentes de IA en la empresa

No todos los agentes de IA conllevan el mismo aventura en entornos empresariales. El aventura varía según quién es el propietario del agente, qué tan ampliamente se usa y qué camino tiene, lo que da como resultado categorías distintas con implicaciones de seguridad, responsabilidad y radiodifusión de crisis muy diferentes:

Agentes personales (propiedad del agraciado)

Los agentes personales son asistentes de inteligencia fabricado utilizados por empleados individuales para ayudar con las tareas diarias. Redactan contenido, extracto información, programan reuniones o ayudan con la codificación, siempre en el contexto de un solo agraciado.

Estos agentes normalmente operan adentro de los permisos del agraciado propietario. Su camino se hereda, no se amplía. Si el agraciado pierde el camino, el agente todavía lo pierde. Conveniente a que la propiedad es clara y el magnitud es condicionado, el radiodifusión de la crisis es relativamente pequeño. El aventura está directamente vinculado al agraciado individual, lo que hace que los agentes personales sean los más fáciles de entender, presidir y remediar.

Agentes externos (propiedad del proveedor)

Los agentes de terceros están integrados en plataformas SaaS y de IA, proporcionadas por los proveedores como parte de su producto. Los ejemplos incluyen funciones de inteligencia fabricado integradas en sistemas CRM, herramientas de colaboración o plataformas de seguridad.

Estos agentes se rigen a través de controles de proveedores, contratos y modelos de responsabilidad compartida. Si perfectamente los clientes pueden tener una visibilidad limitada de cómo trabajan internamente, la responsabilidad está claramente definida: el proveedor es dueño del agente.

Leer  Lynx silencioso usando cargadores de PowerShell, Golang y C ++ en ataques cibernéticos de varias etapas

La principal preocupación aquí es el aventura de la sujeción de suministro de la IA: creer en que el proveedor proteja adecuadamente a sus agentes. Pero desde una perspectiva empresarial, la propiedad, las vías de aprobación y la responsabilidad suelen entenderse perfectamente.

Agentes organizacionales (compartidos y a menudo sin dueño)

Los agentes organizacionales se implementan internamente y se comparten entre equipos, flujos de trabajo y casos de uso. Automatizan procesos, integran sistemas y actúan en nombre de múltiples usuarios. Para ser eficaces, a estos agentes se les suelen conceder permisos amplios y persistentes que superan el camino de cualquier agraciado individual.

Aquí es donde se concentra el aventura. Los agentes organizacionales frecuentemente no tienen un propietario claro, ni un aprobador único, ni un ciclo de vida definido. Cuando poco sale mal, no está claro quién es el responsable o incluso quién entiende completamente lo que el agente puede hacer.

Como resultado, los agentes organizacionales representan el viejo aventura y el viejo radiodifusión de crisis, no porque sean maliciosos, sino porque operan a escalera sin una responsabilidad clara.

El problema de la omisión de autorización de agente

Como explicamos en nuestro artículo, los agentes que crean rutas de omisión de autorización, los agentes de IA no solo ejecutan tareas, sino que actúan como intermediarios de camino. En circunscripción de que los usuarios interactúen directamente con los sistemas, los agentes operan en su nombre, utilizando sus propias credenciales, tokens e integraciones. Esto cambia el circunscripción donde verdaderamente se toman las decisiones de autorización.

Cuando los agentes operan en nombre de usuarios individuales, pueden proporcionarle camino y capacidades más allá de los permisos aprobados del agraciado. Un agraciado que no puede obtener directamente a ciertos datos o realizar acciones específicas aún puede activar un agente que sí pueda hacerlo. El agente se convierte en un proxy, lo que permite acciones que el agraciado nunca podría ejecutar por sí solo.

Estas acciones están técnicamente autorizadas: el agente tiene camino válido. Sin requisa, son contextualmente inseguros. Los controles de camino tradicionales no activan ninguna alerta porque las credenciales son legítimas. Este es el núcleo de la omisión de autorización agente: el camino se otorga correctamente, pero se utiliza de maneras que los modelos de seguridad nunca fueron diseñados para manejar.

Leer  Cómo automatizar el triaje de alerta con agentes de IA y SOPS Confluence usando Tines

Repensar el aventura: lo que debe cambiar

Proteger a los agentes de IA requiere un cambio fundamental en la forma de constreñir y mandar el aventura. Los agentes ya no pueden ser tratados como extensiones de usuarios o como procesos de automatización en segundo plano. Deben ser tratados como entidades sensibles y potencialmente de detención aventura con sus propias identidades, permisos y perfiles de aventura.

Esto comienza con una propiedad y una responsabilidad claras. Cada agente debe tener un propietario definido responsable de su propósito, magnitud de camino y revisión continua. Sin propiedad, la aprobación no tiene sentido y el aventura sigue sin gestionarse.

Fundamentalmente, las organizaciones todavía deben mapear cómo los usuarios interactúan con los agentes. No hilván con entender a qué puede obtener un agente; Los equipos de seguridad necesitan visibilidad sobre qué usuarios pueden invocar a un agente, bajo qué condiciones y con qué permisos efectivos. Sin este plano de conexión entre agraciado y agente, los agentes pueden convertirse silenciosamente en rutas de omisión de autorización, lo que permite a los usuarios realizar indirectamente acciones que no pueden ejecutar directamente.

Finalmente, las organizaciones deben mapear el camino de los agentes, las integraciones y las rutas de datos entre los sistemas. Solo correlacionando agraciado → agente → sistema → acto los equipos pueden evaluar con precisión el radiodifusión de la crisis, detectar el uso indebido e investigar de modo confiable actividades sospechosas cuando poco sale mal.

El costo de los agentes de IA organizacionales no controlados

Los agentes organizacionales de IA no controlados convierten las ganancias de productividad en riesgos sistémicos. Estos agentes, compartidos entre equipos y con camino amplio y persistente, operan sin una propiedad o responsabilidad clara. Con el tiempo, pueden estilarse para nuevas tareas, crear nuevas rutas de ejecución y sus acciones se vuelven más difíciles de rastrear o contener. Cuando poco sale mal, no hay un propietario claro que pueda objetar, remediar o incluso comprender el radiodifusión total de la crisis. Sin visibilidad, propiedad y controles de camino, los agentes de IA organizacionales se convierten en uno de los rudimentos más peligrosos y menos gobernados en el panorama de seguridad empresarial.

Para obtener más información, visite https://wing.security/

El más popular

spot_img