el más reciente

― Advertisement ―

Relacionada

Silver Fox amplía los ataques de Winos 4.0 a Japón y...

Los actores de amenazas detrás de una comunidad de malware conocida como Winos 4.0 (todavía conocido como ValleyRAT) han ampliado su resonancia desde China...
spot_img
HomeTecnologíaLo que los líderes de seguridad necesitan saber sobre el gobierno de...

Lo que los líderes de seguridad necesitan saber sobre el gobierno de IA para SaaS

La IA generativa no está llegando con una acceso, se está arrastrando lentamente al software que las empresas ya usan a diario. Ya sea que se trate de video conferencias o CRM, los proveedores están luchando para integrar copilotos de IA y asistentes en sus solicitudes SaaS. Slack ahora puede proporcionar resúmenes de IA de hilos de chat, Teleobjetivo puede proporcionar resúmenes de reuniones y las suites de oficina como Microsoft 365 contienen afluencia de IA en escritura y exploración. Esta tendencia de uso de IA implica que la mayoría de las empresas están despertando a una nueva verdad: las capacidades de IA se han extendido a través de su pila SaaS durante la tinieblas, sin control centralizado.

Una indagación fresco encontró que el 95% de las empresas estadounidenses ahora están utilizando IA generativa, en masivo en solo un año. Sin secuestro, este uso sin precedentes se ve atenuado por la creciente ansiedad. Los líderes empresariales han comenzado a preocuparse por dónde podría tolerar toda esta actividad de IA invisible. La seguridad y la privacidad de los datos han surgido rápidamente como las principales preocupaciones, y muchos temen que la información confidencial pueda filtrarse o ser mal utilizada si el uso de IA permanece sin control. Ya hemos gastado algunos ejemplos de advertencia: los bancos globales y las empresas tecnológicas han prohibido o restringido herramientas como ChatGPT internamente a posteriori de incidentes de datos confidenciales que se comparten de modo inadvertida.

Por qué es importante SaaS Ai Gobernance

Con la IA tejida en todo, desde aplicaciones de correo hasta bases de datos de clientes, la gobernanza es la única forma de emplear los beneficios sin invitar a nuevos riesgos.

¿Qué queremos afirmar con gobierno de AI?

En términos simples, básicamente se refiere a las políticas, procesos y controles que aseguran que la IA se use de modo responsable y segura adentro de una ordenamiento. Hecho admisiblemente, la gobernanza de IA evita que estas herramientas se conviertan en un disponible para todos y, en su emplazamiento, las alinee con los requisitos de seguridad de una empresa, obligaciones de cumplimiento y estándares éticos.

Esto es especialmente importante en el contexto SaaS, donde los datos fluyen constantemente a los servicios de nimbo de terceros.

1. Exposición de datos es la preocupación más inmediata. Las características de IA a menudo necesitan comunicación a grandes franjas de información: piense en una IA de ventas que lee a través de registros de clientes o un asistente de IA que compara su calendario y las transcripciones de llamadas. Sin supervisión, una integración de IA no autorizada podría emplear los datos confidenciales del cliente o la propiedad intelectual y enviarla a un maniquí extranjero. En una indagación, más del 27% de las organizaciones dijeron que prohibieron las herramientas generativas de IA directamente a posteriori de los sustos de privacidad. Claramente, nadie quiere ser la próxima compañía en los titulares porque un empleado alimentó datos confidenciales a un chatbot.

2. Violaciones de cumplimiento son otra preocupación. Cuando los empleados usan herramientas de IA sin aprobación, crea puntos ciegos que pueden provocar violaciones de leyes como GDPR o HIPAA. Por ejemplo, cargar la información personal de un cliente en un servicio de traducción de IA podría violar las regulaciones de privacidad, pero si se hace sin su conocimiento, la compañía puede no tener idea de que sucedió hasta que ocurra una auditoría o incumplimiento. Los reguladores de todo el mundo están expandiendo las leyes en torno al uso de la IA, desde la nueva Ley de IA de la UE hasta la finalidad específica del sector. Las empresas necesitan gobernanza para respaldar que puedan probar qué está haciendo la IA con sus datos o contraponer sanciones en el futuro.

Leer  El Grupo Lazarus despliega el implante JavaScript Marstech1 en ataques de desarrolladores específicos

3. Razones operativas son otra razón para controlar la expansión de AI. Los sistemas de IA pueden introducir sesgos o tomar malas decisiones (alucinaciones) que afectan a las personas reales. Un operación de contratación podría discriminar inadvertidamente, o una IA financiera podría dar resultados inconsistentes con el tiempo a medida que su maniquí cambia. Sin pautas, estos problemas no se controlan. Los líderes empresariales reconocen que la encargo de riesgos de IA no es solo evitar daños, sino que incluso puede ser una delantera competitiva. Aquellos que comienzan a usar la IA de modo ética y transparente generalmente pueden suscitar una longevo confianza con los clientes y reguladores.

Los desafíos de establecer la IA en el mundo de SaaS

Desafortunadamente, la naturaleza misma de la admisión de IA en las empresas de hoy hace que sea difícil precisar. Un gran desafío es la visibilidad. A menudo, los equipos de TI y seguridad simplemente no saben cuántas herramientas o características de IA están en uso en toda la ordenamiento. Los empleados ansiosos por aumentar la productividad pueden permitir una nueva función basada en IA o suscribirse a una aplicación inteligente de IA en segundos, sin ninguna aprobación. Estas instancias de IA de sombra vuelan debajo del radar, creando bolsillos de uso de datos no controlados. Es el problema clásico de TI de sombra amplificado: no puedes afianzar lo que ni siquiera te das cuenta de que está allí.

Comprobar el problema es la propiedad fragmentada de las herramientas de IA. Los diferentes departamentos podrían introducir sus propias soluciones de IA para resolver problemas locales: el marketing intenta un redactor de IA, experimentos de ingeniería con un asistente de código de IA, Atent Customer Stitte integra un chatbot de IA, todo sin coordinar entre sí. Sin una táctica centralizada existente, cada una de estas herramientas puede aplicar controles de seguridad diferentes (o inexistentes). No hay un solo punto de responsabilidad, y las preguntas importantes comienzan a caer a través de las grietas:

1. ¿Quién examinó la seguridad del proveedor de IA?

2. ¿A dónde van los datos?

3. ¿Cualquiera estableció límites de uso?

El resultado final es una ordenamiento que usa IA de una docena de maneras diferentes, con un montón de huecos que un atacante podría explotar.

Quizás el problema más espinoso es la descuido de procedencia de datos con interacciones de IA. Un empleado podría copiar texto propietario y pegarlo en un asistente de escritura de IA, recuperar un resultado pulido y usarlo en una presentación del cliente, todo fuera de monitoreo habitual de TI. Desde la perspectiva de la compañía, esos datos confidenciales acaban de dejar su entorno sin dejar rastrillo. Es posible que las herramientas de seguridad tradicionales no lo atrapen porque no se violó el firewall y no se produjo una descarga anormal; Los datos fueron regados voluntariamente a un servicio de IA. Este meta de caja negra, donde no se registran las indicaciones y horizontes, hace que sea extremadamente difícil para las organizaciones respaldar el cumplimiento o investigar los incidentes.

Leer  Un enfoque pragmático para los inventarios NHI

A pesar de estos obstáculos, las empresas no pueden darse el riqueza de amotinar las manos.

La respuesta es traer el mismo rigor a la IA que se aplica a otra tecnología, sin sofocar la innovación. Es un inmovilidad delicado: los equipos de seguridad no quieren convertirse en el área de no que prohíba todas las herramientas de IA útil. El objetivo del gobierno de SaaS AI es permitir una admisión segura. Eso significa establecer la protección para que los empleados puedan emplear los beneficios de la IA mientras minimizan las desventajas.

5 mejores prácticas para el gobierno de IA en SaaS

Establecer la gobernanza de la IA puede sonar desalentador, pero se vuelve manejable al romperlo en algunos pasos concretos. Aquí hay algunas mejores prácticas que las organizaciones líderes están utilizando para controlar la IA en su entorno SaaS:

1. Inventario tu uso de AI

Comience brillando una luz sobre la sombra. No puedes manejar lo que no sabes existe. Realice una auditoría de todas las herramientas, características e integraciones relacionadas con la IA en uso. Esto incluye aplicaciones obvias de IA independientes y cosas menos obvias como las características de IA adentro del software tipificado (por ejemplo, esa nueva función de notas de reunión de IA en su plataforma de video). No olvide las extensiones del navegador o las herramientas no oficiales que los empleados podrían estar utilizando. Muchas empresas se sorprenden de cuánto tiempo dura la índice una vez que miran. Cree un registro centralizado de estos activos de IA que indiquen lo que hacen, qué unidades de negocios las usan y qué datos tocan. Este inventario vivo se convierte en la almohadilla de todos los demás esfuerzos de gobernanza.

2. Especificar políticas claras de uso de IA

Así como es probable que tenga una política de uso aceptable para ello, haga una específicamente para la IA. Los empleados necesitan conocer qué está permitido y qué está fuera de los límites cuando se manejo de herramientas de IA. Por ejemplo, puede permitir el uso de un asistente de codificación de IA en proyectos de código extenso, pero prohíbe avivar los datos de los clientes en un servicio de IA extranjero. Especifique las pautas para manejar datos (por ejemplo, “no hay información personal confidencial en ninguna aplicación de IA generativa a menos que se apruebe la seguridad”) y requiere que se examinen las nuevas soluciones de IA ayer de su uso. Educar a su personal sobre estas reglas y las razones detrás de ellas. Un poco de claridad en la parte delantera puede precaver mucha experimentación arriesgada.

Leer  Cisco ASA Firewall Explays de día cero de implementación de rayiniciador y malware Viper Line Viper

3. Monitorear y impedir el comunicación

Una vez que las herramientas de IA estén en recreo, vigile su comportamiento y comunicación. El principio de beocio privilegio se aplica aquí: si una integración de IA solo necesita comunicación de recital a un calendario, no le dé permiso para modificar o eliminar eventos. Revise regularmente qué datos puede alcanzar cada utensilio de IA. Muchas plataformas SaaS proporcionan consolas o registros de delegación: úselos para ver con qué frecuencia se invoca una integración de IA y si está extrayendo cantidades de datos inusualmente grandes. Si poco mira o fuera de la política, prepárate para intervenir. Asimismo es aconsejable configurar alertas para ciertos desencadenantes, como un empleado que intenta conectar una aplicación corporativa a un nuevo servicio de IA extranjero.

4. Evaluación de riesgos continuos

La gobernanza de AI no es un conjunto y olvida la tarea. La IA cambia demasiado rápido. Establezca un proceso para reevaluar los riesgos en un horario regular, digamos mensualmente o trimestralmente. Esto podría implicar retornar a la escaneo del entorno para cualquier utensilio de inteligencia químico recientemente introducida, revisar actualizaciones o nuevas características publicadas por sus proveedores SaaS y mantenerse actualizado sobre las vulnerabilidades de IA. Haga ajustes a sus políticas según sea necesario (por ejemplo, si la investigación expone una nueva vulnerabilidad como un ataque de inyección inmediata, actualice sus controles para abordarlo). Algunas organizaciones forman un comité de gobierno de IA con partes interesadas de seguridad, TI, admitido y cumplimiento para revisar los casos y aprobaciones de uso de IA de modo continua.

5. Colaboración interfuncional

Finalmente, la gobernanza no es exclusivamente una responsabilidad de TI o seguridad. Haga de IA un deporte de equipo. Ingrese a los oficiales legales y de cumplimiento para ayudar a interpretar nuevas regulaciones y respaldar que sus políticas las cumplan. Incluya líderes de la pelotón de negocios para que las medidas de gobierno se alineen con las evacuación comerciales (y por lo que actúan como campeones para el uso responsable de la IA en sus equipos). Involucre a expertos en privacidad de datos para evaluar cómo los datos utilizan la IA. Cuando todos comprenden el objetivo compartido, usar IA de modo innovadora y segura, crea una civilización donde se considera que seguir el proceso de gobernanza es habilitando el éxito, no obstaculizarlo.

Para traducir la teoría a la actos, use esta índice de demostración para rastrear su progreso:

Al tomar estos pasos fundamentales, las organizaciones pueden usar la IA para aumentar la productividad al tiempo que garantiza la seguridad, la privacidad y el cumplimiento están protegidas.

Cómo Reco simplifica la gobernanza de AI

Si admisiblemente establecer marcos de gobernanza de IA es fundamental, el esfuerzo manual requerido para rastrear, monitorear y establecer la IA en cientos de aplicaciones SaaS puede atosigar rápidamente a los equipos de seguridad. Aquí es donde las plataformas especializadas como la posibilidad dinámica de seguridad SaaS de Reco pueden marcar la diferencia entre las políticas teóricas y la protección actos.

👉 Obtenga una demostración de Reco para evaluar los riesgos relacionados con la IA en sus aplicaciones SaaS.

El más popular

spot_img