el más reciente

― Advertisement ―

Relacionada

AISURU/Kimwolf Botnet lanza un ataque DDoS de 31,4 Tbps que bate...

La botnet distribuida de denegación de servicio (DDoS) conocida como AISURU/Kimwolf ha sido atribuida a un ataque sin precedentes que alcanzó un mayor de...
spot_img
HomeTecnologíaLa guía del comprador sobre el control del uso de la IA

La guía del comprador sobre el control del uso de la IA

La efectividad contemporáneo de “IA en todas partes” está entretejida en los flujos de trabajo cotidianos de toda la empresa, integrada en plataformas SaaS, navegadores, copilotos, extensiones y un universo en rápida expansión de herramientas paralelas que aparecen más rápido de lo que los equipos de seguridad pueden rastrear. Sin bloqueo, la mayoría de las organizaciones todavía dependen de controles heredados que operan allá de donde positivamente ocurren las interacciones de la IA. El resultado es una brecha de gobernanza cada vez longevo donde el uso de la IA crece exponencialmente, pero la visibilidad y el control no.

Ahora que la IA se está volviendo central para la productividad, las empresas enfrentan un nuevo desafío: permitir que la empresa innove mientras mantiene la gobernanza, el cumplimiento y la seguridad.

un nuevo Explorador del comprador para el control del uso de IA Sostiene que las empresas han entendido fundamentalmente mal dónde reside el peligro de la IA. Descubrir el uso de la IA y eliminar la IA ‘sombra’ igualmente se discutirá en un próximo artículo. refrigerio aparente y instruirse.

La sorprendente verdad es que la seguridad de la IA no es un problema de datos ni de aplicaciones. Es un problema de interacción. Y las herramientas heredadas no están diseñadas para ello.

IA en todas partes, visibilidad en ninguna

Si le pregunta a un líder de seguridad característico cuántas herramientas de inteligencia químico utiliza su fuerza sindical, obtendrá una respuesta. Pregúntales cómo lo saben y la habitación se queda en silencio.

La conductor revela una verdad incómoda: la acogida de la IA ha superado la visibilidad y el control de la seguridad de la IA en abriles, no en meses.

La IA está integrada en plataformas SaaS, suites de productividad, clientes de correo electrónico, CRM, navegadores, extensiones e incluso en proyectos de los empleados. Los usuarios saltan entre identidades de IA corporativas y personales, a menudo en la misma sesión. Los flujos de trabajo agentes encadenan acciones a través de múltiples herramientas sin una atribución clara.

Y, sin bloqueo, la empresa promedio no tiene un inventario confiable del uso de la IA, y mucho menos control sobre cómo fluyen los mensajes, las cargas, las identidades y las acciones automatizadas en el entorno.

Este no es un problema de herramientas, es un problema arquitectónico. Los controles de seguridad tradicionales no operan en el punto donde positivamente ocurren las interacciones con la IA. Esta brecha es exactamente la razón por la que el control del uso de la IA ha surgido como una nueva categoría creada específicamente para controlar el comportamiento de la IA en tiempo existente.

Leer  El fracaso OPSEC expone las campañas de malware de Coquettte en servidores de alojamiento a prueba de balas

El control del uso de la IA le permite controlar las interacciones de la IA

AUC no es una mejoramiento de la seguridad tradicional, sino una capa de gobernanza fundamentalmente diferente en el punto de interacción de la IA.

AUC eficaz requiere tanto el descubrimiento como la aplicación en el momento de la interacciónimpulsado por señales de peligro contextuales, no por listas permitidas estáticas ni flujos de red.

En recapitulación, las AUC no se limitan a objetar “¿Qué datos dejó la utensilio de IA?”

Alega “¿Quién utiliza la IA? ¿Cómo? ¿A través de qué utensilio? ¿En qué sesión? ¿Con qué identidad? ¿En qué condiciones? ¿Y qué pasó luego?”.

Este cambio de desde el control centrado en las herramientas hasta la gobernanza centrada en la interacción es donde la industria de la seguridad necesita ponerse al día.

Por qué la mayoría de los “controles” de IA no son positivamente controles

Los equipos de seguridad caen constantemente en las mismas trampas cuando intentan proteger el uso de la IA:

  • Tratar AUC como una característica de casilla de demostración interiormente de CASB o SSE
  • Necesitar nada más de la visibilidad de la red (que pasa por parada la mayoría de las interacciones de IA)
  • Sobreindexación en caso de detección sin aplicación de la ley
  • Ignorar las extensiones del navegador y las aplicaciones nativas de IA
  • Hacerse cargo que la prevención de pérdida de datos por sí sola es suficiente

Cada uno de estos crea una postura de seguridad peligrosamente incompleta. La industria ha estado intentando adaptar viejos controles a un maniquí de interacción completamente nuevo y simplemente no funciona.

AUC existe porque no se creó ninguna utensilio heredada para esto.

El control del uso de la IA es más que solo visibilidad

En el control del uso de la IA, la visibilidad es sólo el primer punto de control, no el destino. Entender dónde se utiliza la IA es importante, pero la verdadera diferenciación radica en cómo una decisión comprende, gobierna y controla las interacciones de la IA en el momento en que ocurren. Los líderes de seguridad suelen producirse por cuatro etapas:

  1. Descubrimiento: Identifique todos los puntos de contacto de IA: aplicaciones autorizadas, aplicaciones de escritorio, copilotos, interacciones basadas en navegador, extensiones de IA, agentes y herramientas de IA en la sombra. Muchos suponen que el descubrimiento define el ámbito total del peligro. En efectividad, la visibilidad sin un contexto de interacción a menudo conduce a percepciones de peligro infladas y respuestas crudas como prohibiciones amplias de la IA.
  2. Conciencia de interacción: El peligro de IA ocurre en tiempo existente mientras se escribe un mensaje, se resume automáticamente un archivo o un agente ejecuta un flujo de trabajo automatizado. Es necesario ir más allá de “qué herramientas se utilizan” y producirse a “qué están haciendo positivamente los usuarios”. No todas las interacciones con la IA son riesgosas y la mayoría son benignas. Comprender las indicaciones, acciones, cargas y resultados en tiempo existente es lo que separa el uso inofensivo de la exposición existente.
  3. Identidad y contexto: Las interacciones de IA a menudo pasan por parada los marcos de identidad tradicionales y se producen a través de cuentas personales de IA, sesiones de navegador no autenticadas o extensiones no administradas. Transmitido que las herramientas heredadas asumen que identidad es igual a control, omiten la longevo parte de esta actividad. Las AUC modernas deben vincular las interacciones con identidades reales (corporativas o personales), evaluar el contexto de la sesión (postura del dispositivo, ubicación, peligro) y aplicar políticas adaptativas basadas en el peligro. Esto permite controles matizados como: “Permitir resúmenes de marketing de cuentas que no sean SSO, pero cortar las cargas de modelos financieros de identidades no corporativas”.
  4. Control en tiempo existente: Aquí es donde los modelos tradicionales fracasan. Las interacciones de IA no encajan en permitir/cortar el pensamiento. Las soluciones AUC más sólidas operan en los matices: redacción, advertencias para el becario en tiempo existente, omisión y barreras de seguridad que protegen los datos sin cerrar los flujos de trabajo.
  5. Ajuste arquitectónico: La etapa más subestimada pero decisiva. Muchas soluciones requieren agentes, servidores proxy, redireccionamiento del tráfico o cambios en la pila de SaaS. Estas implementaciones a menudo se estancan o son ignoradas. Los compradores aprenden rápidamente que la obra ganadora es la que se adapta perfectamente a los flujos de trabajo existentes y hace cumplir las políticas en el punto existente de interacción de la IA.
Leer  Russian Apt29 explota contraseñas de la aplicación Gmail para evitar 2FA en la campaña de phishing objetivo

Consideraciones técnicas: conductor la individuo, pero la facilidad de uso impulsa el corazón

Si correctamente la adecuación técnica es primordial, los factores no técnicos a menudo deciden si una decisión de seguridad de IA tiene éxito o fracasa:

  • Gastos operativos – ¿Se puede implementar en horas o requiere semanas de configuración de endpoints?
  • Experiencia de becario – ¿Los controles son transparentes y mínimamente disruptivos, o generan soluciones alternativas?
  • Preparación para el futuro – ¿Tiene el proveedor una hoja de ruta para adaptarse a las herramientas de IA emergentes, la IA agente, los flujos de trabajo autónomos y los regímenes de cumplimiento, o está comprando un producto petrificado en un campo dinámico?

Estas consideraciones tienen menos que ver con “listas de demostración” y más con la sostenibilidad, asegurando que la decisión pueda subir tanto con la acogida organizacional como con el panorama más amplio de la IA.

El futuro: la gobernanza centrada en la interacción es la nueva frontera de la seguridad

La IA no va a desaparecer y los equipos de seguridad deben cambiar del control perimetral al gobernanza centrada en la interacción.

La Explorador del comprador para el control del uso de IA ofrece un situación práctico e independiente del proveedor para evaluar esta categoría emergente. Para CISO, arquitectos de seguridad y profesionales técnicos, establece:

  • ¿Qué capacidades positivamente importan?
  • Cómo distinguir el marketing de la sustancia
  • Y por qué el control contextual en tiempo existente es el único camino escalable a seguir

El control del uso de IA no es sólo una categoría nueva; es la subsiguiente período de la acogida segura de la IA. Replantea el problema desde la prevención de pérdida de datos hasta la gobernanza del uso, alineando la seguridad con la productividad empresarial y los marcos de peligro empresarial. Las empresas que dominen la gobernanza del uso de la IA desbloquearán todo el potencial de la IA con confianza.

Leer  Prevención de violaciones de datos, mal uso de privilegios y más

Descargue la Explorador del comprador para el control del uso de IA para explorar los criterios, capacidades y marcos de evaluación que definirán la acogida segura de la IA en 2026 y más allá.

Únase al refrigerio aparente y aprenda: Descubriendo el uso de la IA y eliminando la IA ‘sombra’.

El más popular

spot_img