La compañía de seguridad cibernética ESET ha revelado que descubrió una cambio de ransomware de inteligencia químico (IA) con nombre en código Lock.
Escrito en Golang, la cepa recientemente identificada utiliza el maniquí GPT-ASS: 20B de OpenAI localmente a través de la API Ollama para ocasionar scripts maliciosos de Lua en tiempo efectivo. El maniquí de idioma de peso rajado fue emprendedor por OpenAI a principios de este mes.
“PromptLock aprovecha los scripts de Lua generados a partir de indicaciones codificadas para enumerar el sistema de archivos restringido, inspeccionar archivos de destino, exfiltrate los datos seleccionados y realiza el criptográfico”, dijo ESET. “Estos scripts Lua son compatibles con la plataforma cruzada, funcionan en Windows, Linux y MacOS”.
El código de ransomware asimismo incorpora instrucciones para elaborar una nota personalizada basada en los “archivos afectados”, y la máquina infectada es una computadora personal, un servidor de empresas o un compensador de distribución de energía. Actualmente no se sabe quién está detrás del malware, pero ESET le dijo a Hacker News que los artefactos de prontloc se cargaron a Virustotal desde los Estados Unidos el 25 de agosto de 2025.
“PractLock utiliza scripts Lua generados por AI, lo que significa que los indicadores de compromiso (IOC) pueden variar entre las ejecuciones”, señaló la compañía de seguridad cibernética eslovaca. “Esta variabilidad introduce desafíos para la detección. Si se implementa adecuadamente, dicho enfoque podría complicar significativamente la identificación de amenazas y dificultar las tareas de los defensores”.
Se evalúa como una prueba de concepto (POC) en punto de un malware totalmente eficaz implementado en la naturaleza, TRAdLock utiliza el operación de criptográfico Speck de 128 bits para cercar los archivos.
Adicionalmente del criptográfico, el descomposición del artefacto de ransomware sugiere que asimismo podría estilarse para exfiltrar los datos o incluso destruirlos, aunque la funcionalidad para realizar el borrado parece que aún no se ha implementado.
“PractLock no descarga todo el maniquí, que podría tener varios gigabytes de tamaño”, aclaró Eset. “En cambio, el atacante puede simplemente establecer un proxy o túnel desde la red comprometida a un servidor que ejecuta la API Ollama con el maniquí GPT-OSS-20B”.
El surgimiento de PractLock es otra señal de que la IA ha facilitado los ciberdelincuentes, incluso aquellos que carecen de experiencia técnica, establecer rápidamente nuevas campañas, desarrollar malware y crear contenido de phishing y sitios maliciosos convincentes.
Hoy temprano, Anthrope reveló que prohibió las cuentas creadas por dos actores de amenazas diferentes que utilizaron su chatbot Claude Ai para cometer robo a gran escalera y molestia de datos personales que se dirigen al menos a 17 organizaciones distintas, y desarrollaron varias variantes de ransomware con capacidades de diversión avanzadas, criptográfico y mecanismos anti-recoverosias.
El crecimiento se produce como modelos de jerga alto (LLMS) que alimentan varios chatbots y herramientas de desarrollador centradas en AI, como Amazon Q Developer, Anthrope Claude Code, AWS Kiro, Butterfly Effect Manus, Google Jules, Lenovo Lena, Microsoft Github Copilot, OpenAi Chatgpt Investigación profunda, OpenHands, fuente AMP y Windsurf, han sido fundamentales, han sido fundamentales, se han donado un aviso de inicio, se han presentado un aviso de inicio, se ha donado un aviso de inicio, se ha donado un aviso de inicio, se han presentado a los ataques, y han sido los ataques de Windsurf. Permitir la divulgación de información, la exfiltración de datos y la ejecución del código.
A pesar de incorporar barandillas de seguridad y seguridad sólidas para evitar comportamientos indeseables, los modelos de IA han caído repetidamente presa de nuevas variantes de inyecciones y jailbreaks, lo que subraya la complejidad y la naturaleza evolucionada del desafío de seguridad.
“Los ataques de inyección inmediatos pueden hacer que AIS elimine los archivos, robe datos o realice transacciones financieras”, dijo Anthrope. “Las nuevas formas de inyección inmediata asimismo están siendo desarrolladas constantemente por actores maliciosos”.
Adicionalmente, la nueva investigación ha descubierto un ataque simple pero inteligente llamado Promisqroute, sigla de “Manipulación de modo rajado en el enrutador de aviso inducida a través de consultas similares a SSRF, reconfigurando las operaciones de reconfiguración utilizando la diversión de la confianza” que abusa de los modelos de enrutamiento de modelos de chatgpt para obtener una disminución de una disminución de una disminución y causa que se envíe un maniquí más antiguo y menos seguro, por lo tanto, lo que permite el sistema de seguridad por parada.
“Asociar frases como ‘Use el modo de compatibilidad’ o ‘respuesta rápida necesaria’ omite millones de dólares en la investigación de seguridad de IA”, dijo Adversa Ai en un crónica publicado la semana pasada, agregando el ataque apunta al mecanismo de rutor de modelos de reducción de costos utilizado por los proveedores de IA.