el más reciente

― Advertisement ―

Relacionada

Investigadores descubren un error en WatchGuard VPN que podría permitir a...

Investigadores de ciberseguridad han revelado detalles de una rotura de seguridad crítica recientemente reparada en WatchGuard Fireware que podría permitir a atacantes no autenticados...
spot_img
HomeTecnologíaLas 5 reglas de oro de la adopción segura de IA

Las 5 reglas de oro de la adopción segura de IA

Los empleados están experimentando con IA a velocidad récord. Están redactando correos electrónicos, analizando datos y transformando el espacio de trabajo. El problema no es el ritmo de la apadrinamiento de AI, sino la yerro de control y salvaguardas en su espacio.

Para los CISO y los líderes de seguridad como usted, el desafío es claro: no desea achicar la apadrinamiento de AI, pero debe hacerlo seguro. Una póliza enviada en toda la empresa no la reducirá. Lo que se necesita son principios prácticos y capacidades tecnológicas que crean un entorno renovador sin una puerta abierta por una violación.

Estas son las cinco reglas que no puede permitirse ignorar.

Regla #1: Visibilidad y descubrimiento de IA

La verdad de seguridad más antigua aún se aplica: no puede proteger lo que no puede ver. Shadow It fue un dolor de capital por sí solo, pero Shadow Ai es aún más resbaladiza. No es solo ChatGPT, todavía son las características de IA integradas que existen en muchas aplicaciones SaaS y cualquier nuevo agente de IA que sus empleados puedan estar creando.

La regla de oro: enciende las luces.

Necesita visibilidad en tiempo efectivo en el uso de IA, tanto independientes como incrustados. El descubrimiento de IA debe ser continuo y no un evento único.

Regla #2: Evaluación de riesgos contextuales

No todo el uso de IA tiene el mismo nivel de peligro. Un verificador de gramática de IA que se usa interiormente de un editor de texto no conlleva el mismo peligro que una aparejo de IA que se conecta directamente a su CRM. El ala enriquece cada descubrimiento con un contexto significativo para que pueda obtener conciencia contextual, que incluya:

  • Quién es el proveedor y su reputación en el mercado
  • Si sus datos se utilizan para la capacitación de IA y si es configurable
  • Ya sea que la aplicación o el proveedor tengan un historial de violaciones o problemas de seguridad
  • La unión de cumplimiento de la aplicación (SOC 2, GDPR, ISO, etc.)
  • Si la aplicación se conecta a cualquier otro sistema en su entorno
Leer  Microsoft Patches 126 fallas, incluida la vulnerabilidad de Windows CLFS explotada activamente

La regla de oro: el contexto es importante.

Evite dejar brechas que son lo suficientemente grandes como para que los atacantes exploten. Su plataforma de seguridad de IA debe brindarle conciencia contextual para tomar las decisiones correctas sobre qué herramientas están en uso y si están seguras.

Regla #3: Protección de datos

AI prospera en los datos, lo que lo hace poderoso y arriesgado. Si los empleados alimentan información confidencial en aplicaciones con IA sin controles, su exposición al peligro, violaciones de cumplimiento y consecuencias devastadoras en caso de incumplimiento. La pregunta no es si sus datos terminarán en AI, sino cómo comprobar de que esté protegido en el camino.

La regla de oro: los datos necesitan un cinturón de seguridad.

Ponga límites en torno a los datos que se pueden compartir con las herramientas de inteligencia sintético y cómo se maneja, tanto en la política como al utilizar su tecnología de seguridad para brindarle una visibilidad completa. La protección de datos es la columna vertebral de la apadrinamiento segura de IA. Habilitar límites claros ahora evitará una pérdida potencial más delante.

Regla #4: Controles de camino y barandas

Dejar que los empleados usen IA sin controles es como entregar las llaves de su automóvil a un adolescente y abroncar: “¡Conduzca seguro!” sin clases de conducción.

Necesita tecnología que permita los controles de camino para determinar qué herramientas se están utilizando y en qué condiciones. Esto es nuevo para todos, y su ordenamiento confía en usted para hacer las reglas.

La regla de oro: cero confianza. ¡Aún!

Asegúrese de que sus herramientas de seguridad le permitan determinar políticas claras y personalizables para el uso de AI, como:

  • Cerco de proveedores de IA que no cumplan con sus estándares de seguridad
  • Restringir las conexiones a ciertos tipos de aplicaciones de IA
  • Activar un flujo de trabajo para validar la indigencia de una nueva aparejo de IA
Leer  Bootkit malware, ataques con IA, infracciones de la cadena de suministro, días cero y más

Regla #5: Supervisión continua

Reforzar su IA no es un esquema “Establecer y olvídalo”. Las aplicaciones evolucionan, cambian los permisos y los empleados encuentran nuevas formas de usar las herramientas. Sin una supervisión continua, lo que fue seguro ayer puede convertirse en un peligro en silencio hoy.

La regla de oro: sigue mirando.

Supervisión continua significa:

  • Monitoreo de aplicaciones para nuevos permisos, flujos de datos o comportamientos
  • Auditar horizontes de IA para avalar la precisión, la rectitud y el cumplimiento
  • Revisión de actualizaciones de proveedores que pueden cambiar cómo funcionan las funciones de IA
  • Estar ligero para intervenir cuando se rompe la IA

No se proxenetismo de la innovación de microgestión. Se proxenetismo de comprobar de que AI continúe sirviendo a su negocio de guisa segura a medida que evoluciona.

Arnés ai sabiamente

AI está aquí, es útil y no va a ninguna parte. El descanso inteligente para CISOS y líderes de seguridad es adoptar la IA con intención. Estas cinco reglas de oro le dan un plan para equilibrar la innovación y la protección. No evitarán que sus empleados experimenten, pero evitarán que esa experimentación se convierta en su próximo titular de seguridad.

La apadrinamiento segura de IA no se proxenetismo de proponer “no”. Se proxenetismo de proponer: “Sí, pero aquí está cómo”.

¿Quieres ver qué se esconde en realidad en tu pila? Wing te tiene cubierto.

El más popular

spot_img