Cato Networks作为一家安全访问服务边缘(SASE)解决方案提供商,研究越狱近日发布了其《2025年Cato CTRL威胁报告》
,利用揭示了一项重要发现。技术研究人员称,大量他们成功设计了一种技术
,信息使毫无编程经验的研究越狱个人也能够利用现成的生成式AI(GenAI)工具创建恶意软件。 该研究的技术核心是一项名为“沉浸式世界”(Immersive World)的新型大语言模型(LLM)越狱技术,由Cato CTRL威胁情报研究员开发 。大量该技术通过构建一个详细的源码下载信息虚构叙事环境,为包括DeepSeek、研究越狱Microsoft Copilot和OpenAI的利用ChatGPT在内的GenAI工具分派特定角色和任务。 通过这种叙事操纵,技术研究员成功绕过了这些AI工具的大量默认安全控制,迫使它们生成能够窃取Google Chrome登录凭证的信息功能性恶意软件
。 “Cato CTRL威胁情报研究员在没有恶意软件编码经验的情况下,成功越狱多个LLM ,包括DeepSeek-R1、香港云服务器DeepSeek-V3、Microsoft Copilot和OpenAI的ChatGPT ,打造了一个完全可用的Google Chrome信息窃取工具 ,适用于Chrome 133。” Cato Networks 这一“沉浸式世界”技术揭示了GenAI提供商所实施保护措施中的一个关键漏洞
,因为它轻松绕过了旨在防止滥用的限制。Cato Networks威胁情报研究员Vitaly Simonovich表示:“我们认为
,零知识威胁分子的崛起对组织构成了高度风险,因为GenAI工具大幅降低了创建恶意软件的模板下载门槛。” 报告的发布促使Cato Networks与受影响的GenAI工具提供商取得联系 。尽管微软和OpenAI确认收到了相关信息,但DeepSeek尚未作出回应。 截图显示研究人员与DeepSeek互动 ,最终生成了一个功能性的Chrome信息窃取工具(图片来自Cato Networks) 研究人员称
,尽管谷歌被提供了审查所生成恶意软件代码的机会,但其拒绝进行审查。各大科技公司对此缺乏统一回应,突显了应对先进AI工具威胁的源码库复杂性。 尽管LLM相对较新,但越狱技术已与之同步发展 。2024年2月发布的报告显示,DeepSeek-R1 LLM在一次安全分析中未能阻止超过一半的越狱攻击
。同样,SlashNext于2023年9月发布的报告展示了研究人员如何成功越狱多个AI聊天机器人以生成钓鱼邮件
。 作为Cato Networks威胁情报团队的首期年度出版物 ,《2025年Cato CTRL威胁报告》强调了主动、全面的云计算AI安全策略的迫切需求。其中包括通过构建包含预期提示和响应的可靠数据集,以及全面测试AI系统
,来防止LLM越狱。 常规的AI红队测试同样重要
,因为它有助于发现漏洞和其他安全问题。此外,应设置明确的免责声明和使用条款,告知用户正在与AI交互 ,并定义可接受行为以防止滥用。服务器租用
