AI可一键生成上万种JavaScript变体,88%能规避检测
网络安全研究人员发现 ,可键借助大型语言模型(LLMs),生成上万可以大规模生成新型恶意的规避JavaScript代码变体,这些变体将更难被安全防护设备检测 。检测

Palo Alto Networks旗下的可键Unit 42团队指出 :“尽管LLMs难以独立创建恶意软件 ,但犯罪分子能利用它们重写或混淆现有恶意软件,生成上万从而加大检测难度 。规避罪分子可通过提示LLMs执行更自然的检测转换,使这种恶意软件更难被发现。可键”
长期来看 ,生成上万通过大量转换,规避这种方法可能降低恶意软件检测系统的检测性能 ,模板下载甚至使其误判恶意代码为良性 。可键尽管LLM提供商不断加强安全防护 ,生成上万防止其产生不良输出 ,规避但不法分子已开始利用恶意AIGC工具如WormGPT,自动化设计高针对性的网络钓鱼邮件 ,甚至创造新的恶意软件 。
早在2024年10月 ,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络。
Unit 42表示 ,他们利用LLM反复重写现有恶意软件样本 ,目的是建站模板规避机器学习(ML)模型的检测,例如Innocent Until Proven Guilty(IUPG)或PhishingJS ,从而成功创造了10000种新JavaScript变体 ,且功能不变。
这种对抗性机器学习技术通过变量重命名 、字符串拆分 、垃圾代码插入等方法转换恶意软件 ,每次输入系统时都进行变换 。
“最终产生的新恶意JavaScript变体 ,行为与原脚本相同 ,但恶意评分大幅降低,”该公司表示 ,并补充说,源码库其贪婪算法能将自身恶意软件分类模型的判断 ,从恶意翻转为良性的概率高达88%。
更糟糕的是,这些重写的JavaScript代码在上传至VirusTotal平台时 ,也成功逃避了其他恶意软件分析设备的检测 。LLM相关混淆技术的另一优势在于 ,其重写效果比obfuscator.io等库更自然,后者因改变源代码的高防服务器方式而更容易被检测和识别 。
Unit 42指出:“借助生成式人工智能,新恶意代码变体的规模可能会大幅增加。然而 ,我们也可利用相同策略重写恶意代码,以帮助生成训练数据 ,提高ML模型的鲁棒性 。”
这一发现正值北卡罗来纳州立大学一组学者设计出名为TPUXtract的侧信道攻击 ,该攻击针对Google Edge张量处理单元(TPU)执行模型窃取攻击,准确率高达99.91%,可能被用于知识产权盗窃或后续网络攻击。
研究人员表示 :“将展示一种超参数窃取攻击,亿华云能提取所有层配置 ,这是首次全面攻击能提取以前未见过的模型 。”
本质上 ,是这种黑匣子攻击捕获了TPU在执行神经网络推理时发出的电磁信号 ,并利用这些信号推断模型超参数。但这种方法依赖于攻击者对目标设备的物理访问权限,以及昂贵的探测设备 。
参考来源 :https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html