研究人员利用 AI 越狱技术大量窃取 Chrome 信息

Cato Networks作为一家安全访问服务边缘(SASE)解决方案提供商,研究越狱近日发布了其《2025年Cato CTRL威胁报告》  ,利用揭示了一项重要发现 。技术研究人员称,大量他们成功设计了一种技术 ,信息使毫无编程经验的研究越狱个人也能够利用现成的生成式AI(GenAI)工具创建恶意软件 。

通过“沉浸式世界”技术实现LLM越狱 ,利用打造Chrome信息窃取工具

该研究的技术核心是一项名为“沉浸式世界”(Immersive World)的新型大语言模型(LLM)越狱技术,由Cato CTRL威胁情报研究员开发 。大量该技术通过构建一个详细的高防服务器信息虚构叙事环境 ,为包括DeepSeek、研究越狱Microsoft Copilot和OpenAI的利用ChatGPT在内的GenAI工具分派特定角色和任务 。

通过这种叙事操纵,技术研究员成功绕过了这些AI工具的大量默认安全控制,迫使它们生成能够窃取Google Chrome登录凭证的信息功能性恶意软件。

“Cato CTRL威胁情报研究员在没有恶意软件编码经验的情况下 ,成功越狱多个LLM,包括DeepSeek-R1 、建站模板DeepSeek-V3、Microsoft Copilot和OpenAI的ChatGPT,打造了一个完全可用的Google Chrome信息窃取工具 ,适用于Chrome 133。”

Cato Networks

这一“沉浸式世界”技术揭示了GenAI提供商所实施保护措施中的一个关键漏洞 ,因为它轻松绕过了旨在防止滥用的限制 。Cato Networks威胁情报研究员Vitaly Simonovich表示 :“我们认为,零知识威胁分子的崛起对组织构成了高度风险 ,因为GenAI工具大幅降低了创建恶意软件的亿华云门槛 。”

报告的发布促使Cato Networks与受影响的GenAI工具提供商取得联系 。尽管微软和OpenAI确认收到了相关信息 ,但DeepSeek尚未作出回应。

截图显示研究人员与DeepSeek互动,最终生成了一个功能性的Chrome信息窃取工具(图片来自Cato Networks)

谷歌拒绝审查恶意软件代码

研究人员称,尽管谷歌被提供了审查所生成恶意软件代码的机会,但其拒绝进行审查。各大科技公司对此缺乏统一回应,突显了应对先进AI工具威胁的香港云服务器复杂性。

LLM与越狱技术

尽管LLM相对较新,但越狱技术已与之同步发展 。2024年2月发布的报告显示,DeepSeek-R1 LLM在一次安全分析中未能阻止超过一半的越狱攻击。同样 ,SlashNext于2023年9月发布的报告展示了研究人员如何成功越狱多个AI聊天机器人以生成钓鱼邮件 。

防护措施

作为Cato Networks威胁情报团队的首期年度出版物,《2025年Cato CTRL威胁报告》强调了主动、全面的模板下载AI安全策略的迫切需求。其中包括通过构建包含预期提示和响应的可靠数据集 ,以及全面测试AI系统 ,来防止LLM越狱 。

常规的AI红队测试同样重要 ,因为它有助于发现漏洞和其他安全问题 。此外,应设置明确的免责声明和使用条款,告知用户正在与AI交互 ,并定义可接受行为以防止滥用。云计算

滇ICP备2023006006号-15