思科Talos最新研究表明
,恶意网络犯罪分子正越来越多地滥用大语言模型(LLM)来增强其非法活动
。模型这些以生成文本 、正掀罪新解决问题和编写代码著称的起网强大AI工具
,据报告正被操纵用于发起更复杂、络犯浪潮更广泛的恶意攻击。 虽然LLM设计时内置了安全功能——包括对齐(通过训练减少偏见)和防护栏(防止有害输出的模型实时机制)——例如ChatGPT等正规LLM会拒绝生成钓鱼邮件
,但网络犯罪分子正在积极寻找规避这些保护措施的正掀罪新方法。 Talos与Hackread.com共享的起网调查揭示了攻击者采用的源码下载三种主要方法: 暗网已成为这些恶意LLM的交易市场
。以FraudGPT为例
,其宣传功能涵盖编写恶意代码、创建无法检测的恶意软件、寻找漏洞网站以及生成钓鱼内容。但该市场对犯罪分子同样存在风险——Talos研究人员发现
,自称FraudGPT开发者的CanadianKingpin12实际上通过兜售不存在的产品骗取潜在买家的加密货币。 除直接生成非法内容外
,源码库网络犯罪分子正以恶意方式将LLM用于与合法用户相似的场景
。2024年12月 ,Claude LLM的开发方Anthropic指出编程 、内容创作和研究是其模型的主要用途。犯罪LLM同样被用于: 攻击者正在Hugging Face等平台分发植入后门的模型
,这些模型被下载时会执行嵌入的恶意代码。此外,采用检索增强生成(RAG)技术的外部数据源LLM可能遭受数据投毒攻击——攻击者通过操纵数据来影响LLM的输出 。 思科Talos预测,随着AI技术持续发展
,网络犯罪分子将越来越多地采用LLM作为现有攻击方法的"力量倍增器" ,而非创造全新的免费模板"网络武器",从而提升其犯罪效率。
