el más reciente

― Advertisement ―

Relacionada

spot_img
HomeTecnologíaMás de 1 millón de líneas de registro, las teclas secretas se...

Más de 1 millón de líneas de registro, las teclas secretas se filtraron

La startup de inteligencia sintético (IA) de Buzzy, Deepseek, que ha tenido un aumento meteórico en la popularidad en los últimos días, dejó una de sus bases de datos expuestas en Internet, lo que podría poseer permitido a los actores maliciosos obtener paso a datos confidenciales.

La pulvínulo de datos de Clickhouse “permite el control completo sobre las operaciones de la pulvínulo de datos, incluida la capacidad de conseguir a datos internos”, dijo el investigador de seguridad de Wiz, Gal Nagli.

La exposición incluso incluye más de un millón de líneas de secuencias de registros que contienen historial de chat, claves secretas, detalles de backend y otra información en gran medida confidencial, como secretos API y metadatos operativos. Desde entonces, Deepseek ha conectado el orificio de seguridad posteriormente de los intentos de la firma de seguridad en la aglomeración para contactarlos.

La pulvínulo de datos, alojada en OAuth2Callback.Deepseek (.) Com: 9000 y Dev.deepseek (.) Com: 9000, ha permitido el paso no facultado a una amplia variedad de información. La exposición, señaló Wiz, permitió el control completo de la pulvínulo de datos y la posible ascenso de privilegios en el interior del entorno Deepseek sin requerir ninguna autenticación.

Esto implicó explotar la interfaz HTTP de Clickhouse para ejecutar consultas SQL arbitrarias directamente a través del navegador web. Actualmente no está claro si otros actores maliciosos aprovecharon la oportunidad para conseguir o descargar los datos.

“La rápida apadrinamiento de los servicios de IA sin seguridad correspondiente es inherentemente riesgosa”, dijo Nagli en un comunicado compartido con Hacker News. “Si perfectamente gran parte de la atención en torno a la seguridad de la IA se centra en las amenazas futuristas, los peligros reales a menudo provienen de riesgos básicos, como la exposición externa accidental de las bases de datos”.

Leer  Más de 1.500 servidores PostgreSQL comprometidos en la campaña minera de criptomonedas sin filos

“Proteger los datos de los clientes debe seguir siendo la principal prioridad para los equipos de seguridad, y es crucial que los equipos de seguridad trabajen en estrecha colaboración con los ingenieros de IA para asegurar los datos y evitar la exposición”.

Base de datos de Deepseek AI
Base de datos de Deepseek AI

Deepseek se ha convertido en el tema du Jour en los círculos de IA por sus innovadores modelos de código despejado que afirman rivalizar con sistemas de IA líderes como OpenAI, al tiempo que son eficientes y rentables. Su maniquí de razonamiento R1 ha sido aclamado como “Momento Sputnik de AI”.

El chatbot Ai del Upstart ha corrido a la cima de las listas de la tienda de aplicaciones en Android e iOS en varios mercados, incluso cuando se ha convertido en el objetivo de “ataques maliciosos a gran escalera”, lo que provoca que pause temporalmente los registros.

En una aggiornamento publicada el 29 de enero de 2025, la compañía dijo que ha identificado el problema y que está trabajando para implementar una opción.

Al mismo tiempo, la compañía incluso ha estado en el extremo receptor del cómputo sobre sus políticas de privacidad, sin mencionar que sus lazos chinos se convierten en una cuestión de preocupación de seguridad doméstico para los Estados Unidos.

Adicionalmente, las aplicaciones de Deepseek no estaban disponibles en Italia poco posteriormente del regulador de protección de datos del país, el Avalista, solicitó información sobre sus prácticas de manejo de datos y dónde obtuvo sus datos de capacitación. No se sabe si el retiro de las aplicaciones fue en respuesta a preguntas del perro cancerbero. La Comisión de Protección de Datos Irlandesa (DPC) incluso ha enviado una solicitud similar.

Leer  Servidor de actualización de Sogou Zhuyin abandonado secuestrado, armado en la campaña de espionaje de Taiwán

Bloomberg, Financial Times y The Wall Street Journal incluso informaron que tanto OpenAi como Microsoft están investigando si Deepseek utilizó la interfaz de programación de aplicaciones (API) de OpenAI sin permiso para capacitar a sus propios modelos en la salida de los sistemas de OpenAi, un enfoque denominado destilación .

“Sabemos que los grupos en (China) están trabajando activamente para usar métodos, incluido lo que se conoce como destilación, para tratar de replicar los modelos AI avanzados de EE. UU.”, Dijo un portavoz de OpenAI a The Guardian.

El más popular

spot_img