近年来,只需随着生成式人工智能的个暗飞速发展,语音克隆 、号即图片克隆甚至视频克隆(数字人)等深度伪造技术不断成熟
,可戳已经成为电信诈骗
、穿语“杀猪盘”网络诈骗等网络犯罪团伙的音克热门工具。如何识别和防范足可以假乱真的隆骗语音克隆已经成为提高民众安全意识的迫切议题。 近日,只需美国联邦调查局(FBI)发布了一项重要建议:与家人设置一个专属“暗号”或“暗语”,个暗以应对日益猖獗的号即AI语音克隆骗局。随着越来越多的可戳犯罪分子利用生成式AI技术模仿亲友声音实施诈骗,源码下载FBI提醒民众,穿语这种简单的音克防护措施可以有效识别骗局
,保护财产安全。隆骗 AI语音克隆技术已发展到令人惊叹的地步,犯罪分子仅需一段(短至数秒钟的)音频样本 ,就能生成逼真的合成语音,冒充亲友,编造紧急情况
,例如“遭遇绑架勒索”或“急需医疗费用”,诱骗受害者汇款。 这类骗局往往需要获取目标人物的公开音频样本 ,云计算例如播客
、社交媒体视频或公开演讲
。因此 ,如果你的声音未广泛传播 ,被克隆的可能性相对较低。但对公众人物、企业高管或常在网上分享内容的普通用户来说
,这种风险较为突出
。 为了帮助公众防范AI克隆骗局 ,FBI在最新发布的公共服务公告(I-120324-PSA)中提出了“暗号验证”方法。其核心思路是服务器租用:在家人和亲密朋友之间设置一个独特且秘密的词组,作为“身份验证密钥”。当接到疑似诈骗的来电时,只需提出要求对方说出密语,便可轻松识别对方的真实身份 。 例如,可以设置诸如“老鼠进洞,黄雀出笼”、“青山不改
,绿水长流”之类的暗号。当然,这些例子只是建站模板示范,实际的暗号应高度私密、独特,确保安全性 。 此外,在接到异常来电时 ,需要留意对方的通话语气和用词 。如果对方声音虽与亲友相似 ,但语气或措辞异常 ,则有可能是AI语音克隆。 语音克隆骗局只是生成式AI被滥用的冰山一角。免费模板犯罪分子还利用AI生成逼真的个人照片 、身份证明文件,甚至部署聊天机器人,在钓鱼网站上引导受害者落入圈套
。这些AI工具显著减少了传统诈骗中常见的破绽,例如低劣的语法和明显的假照片,大大提高了诈骗的成功率
。 为此
,FBI建议公众限制公开分享的个人音频和图像
。例如,香港云服务器关闭社交媒体账户的公开访问权限
,仅允许熟人查看内容,可以显著减少成为目标的风险
。 需要指出的是
,“暗号验证”的概念并非FBI首创
。在AI语音合成和深度伪造领域
,这一策略最早可追溯到2023年3月27日。AI开发者Asara Near在推特上首次提出 :“或许建立一个‘人类验证’暗号会很有用
。你的联系人可以在接到可疑来电时向你询问这个暗号,以确认他们是在与你本人通话
,而不是一个深度伪造的数字人 。” 这一想法迅速传播开来。到2024年2月
,彭博社的一篇文章引用业内人士的话指出:“这一理念已在AI研究界广泛传播,因为暗号简单、免费且高效。” GoUpSec安全专家FunyG指出,暗号/密码/符契自古以来就是验证身份的工具。从秦汉的虎符
,到现代的多因素身份验证
,这种方法经久不衰 。在当今高科技AI身份欺诈的时代,古老的“暗号”凭借其私密性和易操作性 ,依然展现出强大的实用价值。FunyG建议用户采用以下方法管理个人“暴露面”并防御深度伪造诈骗
: 随着AI技术的普及与进步 ,诈骗手段也在快速升级
。语音克隆和深度伪造技术的应用,揭示了技术的两面性:一方面,它们推动了人类生活的便利与效率;另一方面
,也为犯罪分子提供了更高效 、更强大的工具 。 “暗号验证”方法提醒我们,在最具颠覆性的AI技术革命中,最古老的安全方法和智慧依然有用武之地
。我们开发先进安全技术和防御工具的同时,不要忘记从传统文化和智慧中汲取灵感和方法
,提升人的安全意识和“免疫力”。