
La compañía de seguridad cibernética ESET ha revelado que ha descubierto PractLock, una variante de ransomware con nombre en código Trictlock, impulsado por inteligencia artificial (IA).
La cepa recientemente identificada escrita en Golang genera scripts de Lua maliciosos en tiempo real utilizando el modelo GPT-OSS: 20B de OpenAI a través de la API Ollama. El modelo de idioma de peso abierto fue lanzado por OpenAI a principios de este mes.
«PromptLock aprovecha los scripts de LUA generados a partir de indicaciones codificadas para enumerar los sistemas de archivos locales, inspeccionar archivos de destino, eliminar los datos seleccionados y realizar el cifrado», dijo ESET. «Estos scripts Lua son compatibles con la plataforma cruzada y funcionan en Windows, Linux y MacOS».
El código de ransomware incorpora pasos para crear notas personalizadas basadas en «archivos afectados», y la máquina infectada puede ser una computadora personal, servidor de la empresa o controlador de distribución de energía. Actualmente no está claro quién está detrás del malware, pero ESET le dijo a Hacker News que Artifact se cargó a Virustotal desde los Estados Unidos el 25 de agosto de 2025.

«PractLock utiliza scripts Lua generados por AI. Es decir, la métrica de compromiso (IOC) puede variar según la ejecución», señaló la compañía de seguridad cibernética eslovaca. «Esta variación plantea desafíos de detección. Si se implementa correctamente, dicho enfoque puede complicar significativamente la identificación de amenazas y dificultar las tareas del defensor».
Reconocido como una prueba de concepto (POC), en lugar de un malware de trabajo completamente implementado en la naturaleza, TRAdLock utiliza el algoritmo de cifrado Speck de 128 bits para bloquear los archivos.
Además del cifrado, el análisis de artefactos de ransomware sugiere que la funcionalidad para realizar una borrado aún no parece estar implementada todavía, pero también se puede usar para eliminarla o destruirla.
«PractLock no descarga todo el modelo. Esto podría ser de tamaño de un tamaño de gigabytes», reveló Eset. «En cambio, un atacante puede simplemente establecer un proxy o túnel desde la red comprometida a un servidor que ejecuta la API Ollama en el modelo GPT-OSS-20B».
El surgimiento de PractLock es otra indicación de que la IA ha facilitado los ciberdelincuentes, incluso aquellos que carecen de experiencia técnica para configurar rápidamente nuevas campañas, desarrollar malware y crear contenido de phishing y sitios maliciosos.
Hoy, la humanidad ha revelado que ha prohibido las cuentas creadas por dos actores de amenazas diferentes que cometieron un robo masivo y temor a los datos personales que se dirigen al menos a 17 organizaciones diferentes que utilizan el Claude AI Chatbot, y desarrollaron varias variaciones de ransomware con capacidades de evasión avanzadas, cifrado y mecanismos de repetición.
El desarrollo se produce como modelos de lenguaje grande (LLMS) que alimentan varios chatbots y herramientas de desarrollador centradas en AI, como el desarrollador de Amazon Q, el código de Claude antrópico, AWS Kiro, Butterfly Effect Manus, Google Jules, Lenovo Lena, Microsoft Github Copilot, OpenAi Chatgpt Investigaciones profundas, OpenHands, origen amp y Windsurf, ha sido un aviso de inicio, ha sido un aviso de inicio, puede haber sido susceptible a los ataques de inicio, puede ser un aviso de inicio de inicio, puede ser un inyección de inicio a los inyectores de Windsurf a Windsurf, puede haber sido susceptible a Windsurf, puede haber sido susceptible a Windsurf, puede haber sido un aviso de inicio de inicio, puede tener un aviso de inicio de inicio, puede ser un inyección de Windsurf a Windsurf a Windsurf. Divulgación de información, eliminación de datos y ejecución del código.
A pesar de incorporar barandillas de seguridad y seguridad robustas para evitar el comportamiento no deseado, los modelos de IA son presas repetidamente de nuevas variantes de inyección y jailbreak, destacando la complejidad y la naturaleza evolucionada de los desafíos de seguridad.

«Como un ataque de inyección rápida, AIS eliminará los archivos, robará datos y participará en transacciones financieras», dice Humanity. «Las nuevas formas de ataques de inyección rápida también están siendo desarrolladas constantemente por actores maliciosos».
Además, una nueva investigación revela un ataque simple pero inteligente llamado Promisqroute. «Reconfigurar operaciones utilizando operaciones de modo de enrutador de enrutador de inmediato, evitación de confianza inducida a través de consultas como SSRF»: abusa
Evitar millones de dólares con investigación de seguridad de IA adicional con frases como «Usar el modo de compatibilidad» y «Necesita respuesta rápida», dijo AbsversA AI en un informe publicado la semana pasada, con el ataque dirigido a los mecanismos de enrutamiento del modelo de ahorro de costos utilizados por los proveedores de IA.
Source link
