el más reciente

― Advertisement ―

Relacionada

El grupo UNG0002 llega a China, Hong Kong, Pakistán usando archivos...

Múltiples sectores en China, Hong Kong y Pakistán se han convertido en el objetivo de un categoría de actividad de amenazas rastreado como UNG0002...
spot_img
HomeTecnologíaLangsmith Bug podría exponer las claves de Operai y los datos de...

Langsmith Bug podría exponer las claves de Operai y los datos de los usuarios a través de agentes maliciosos

Los investigadores de seguridad cibernética han revelado una descompostura de seguridad ahora parchada en la plataforma Langsmith de Langchain que podría explotarse para capturar datos confidenciales, incluidas las claves API y las indicaciones del sucesor.

La vulnerabilidad, que lleva una puntuación CVSS de 8.8 de un mayor de 10.0, ha sido renombrado en código Agente por Noma Security.

Langsmith es una plataforma de observabilidad y evaluación que permite a los usuarios desarrollar, probar y monitorear las aplicaciones del Maniquí de lengua holgado (LLM), incluidas las creadas con Langchain. El servicio incluso ofrece lo que se claridad Langchain Hub, que actúa como un repositorio para todas las indicaciones, agentes y modelos que listados públicamente.

“Esta vulnerabilidad recientemente identificada explotó a los usuarios desprevenidos que adoptan un agente que contiene un servidor proxy malvado preconfigurado cargado en ‘Hub rápido'”, dijeron los investigadores Sasi Levi y Gal Moyal en un documentación compartido con The Hacker News.

“Una vez recogido, el proxy malvado interceptó discretamente todas las comunicaciones de los usuarios, incluidos datos confidenciales como claves API (incluidas las claves API de OpenAI), las indicaciones del sucesor, los documentos, las imágenes y las entradas de voz, sin el conocimiento de la víctima”.

La primera etapa del ataque se desarrolla esencialmente: un mal actor crea un agente de inteligencia fabricado (IA) y lo configura con un servidor de modelos bajo su control a través de la característica del proveedor proxy, lo que permite que las indicaciones se prueben contra cualquier maniquí que cumpla con la API de OpenAI. El atacante comparte al agente en Langchain Hub.

Leer  Nuevos informes descubren jailbreaks, código inseguro y riesgos de robo de datos en los principales sistemas de IA

La ulterior etapa se activa cuando un sucesor encuentra este agente malvado a través de Langchain Hub y procede a “probarlo” proporcionando un mensaje como entrada. Al hacerlo, todas sus comunicaciones con el agente se enrutan sigilosamente a través del servidor proxy del atacante, lo que hace que los datos se exfiltren sin el conocimiento del sucesor.

Los datos capturados podrían incluir claves API de OpenAI, datos de inmediato y cualquier archivo adjunto cargado. El actor de amenaza podría cargar la esencia de la API de OpenAI para obtener llegada no facultado al entorno OpenAI de la víctima, lo que lleva a consecuencias más graves, como el robo del maniquí y la fuga de inmediato.

Adicionalmente, el atacante podría usar toda la cuota API de la estructura, aumentar los costos de facturación o restringir temporalmente el llegada a los servicios de OpenAI.

No termina ahí. Si la víctima opta por clonar al agente en su entorno empresarial, anejo con la configuración de proxy maliciosa integrada, corre el aventura de filtrar continuamente datos valiosos a los atacantes sin darles ninguna indicación de que su tráfico está siendo interceptado.

A posteriori de la divulgación responsable el 29 de octubre de 2024, la vulnerabilidad fue abordada en el backend por Langchain como parte de una posibilidad implementada el 6 de noviembre. Adicionalmente, el parche implementa un mensaje de advertencia sobre la exposición a los datos cuando los usuarios intentan clonar a un agente que contiene una configuración de proxy personalizada.

“Más allá del aventura inmediato de pérdidas financieras inesperadas del uso no facultado de API, los actores maliciosos podrían obtener llegada persistente a conjuntos de datos internos cargados a OpenAI, modelos propietarios, secretos comerciales y otras propiedades intelectuales, lo que resulta en pasivos legales y daños en la reputación”, dijeron los investigadores.

Leer  Vulnerabilidad crítica en el MCP de Anthrope expone máquinas de desarrolladores a exploits remotos

Nuevas variantes WORMGPT detalladas

La divulgación se produce cuando Cato Networks reveló que los actores de amenaza han audaz dos variantes WORMGPT previamente no reportadas que funcionan con Xai Grok y Mistral AI Mixtral.

WORMGPT se lanzó a mediados de 2013 como una utensilio de IA generada sin censura diseñada para favorecer expresamente actividades maliciosas para los actores de amenazas, como crear correos electrónicos de phishing a medida y escribir fragmentos de malware. El tesina se cerró no mucho a posteriori de que el autor de la utensilio fuera expulsado como un programador portugués de 23 primaveras.

Desde entonces, se han anunciado varias nuevas variantes “WORMGPT” en foros de cibercrimen como incumplimientos, incluidos Xzin0vich-Wormgpt y Keanu-Wormgpt, que están diseñados para proporcionar “respuestas sin censura a una amplia matiz de temas” incluso si son “poco éticos o ilegales”.

“‘WORMGPT’ ahora sirve como una marca reconocible para una nueva clase de LLM sin censura”, dijo el investigador de seguridad Vitaly Simonovich.

“Estas nuevas iteraciones de WORMGPT no son modelos a medida construidos desde cero, sino más acertadamente el resultado de que los actores de amenaza adapten hábilmente los LLM existentes. Al manipular las indicaciones del sistema y potencialmente empleando el ajuste de datos ilícitos, los creadores ofrecen potentes herramientas con AI para operaciones cibernéticas cibernéticas bajo la marca WORMGPT”.

El más popular

spot_img