联邦调查局警告说,黑客黑客正在疯狂地使用像ChatGPT这样的正用生成式人工智能工具,快速创建恶意代码并发起网络犯罪
,生成式这在过去需要付出更多的建恶件努力
。 联邦调查局在与记者的意软电话会议上详细说明了这种担忧
。并解释说,黑客人工智能聊天机器人助长了各种违法活动 :从诈骗者和欺诈者通过ChatGPT完善他们的正用技术到恐怖分子咨询如何发动更具破坏性的化学攻击工具,各种手段无所不包。亿华云生成式 根据联邦调查局高级官员的建恶件说法 ,“我们预计,意软随着时间的黑客推移,人工智能模型的正用采用和普及度的提高
,这些趋势将增加明显
。生成式“他们表示:”违法者正使用人工智能来补充他们的建恶件常规犯罪活动
,包括使用人工智能语音生成器冒充受信任的源码库意软人,以欺骗被害者亲人或老人 。“ 这不是我们第一次看到黑客使用ChatGPT等工具并扭曲它们来创建危险的恶意软件 。2023年2月,安全公司 Checkpoint 的研究人员发现,恶意行为者已经能够更改聊天机器人的 API
,使其能够生成恶意软件代码,并使病毒创建让任何潜在的建站模板黑客都能触手可及。 联邦调查局的立场与2023年五月采访的一些网络专家的态度截然不同 。这些网络专家告诉我们,人工智能聊天机器人的威胁在很大程度上被夸大了,大多数黑客从更传统的数据泄漏和开源研究中发现了更易于攻击的代码漏洞。云计算 例如
,Bitdefender的技术解决方案总监Martin Zugec解释说,“大多数恶意软件编写新手不太可能具备绕过聊天机器人反恶意护栏所需的技能”
。除此之外,Zugec解释说,“聊天机器人产生的恶意软件代码的质量往往很低 。” 这为联邦调查局的说法提供了一个反驳 ,高防服务器我们必须进一步观察以证实哪一方是正确的
。随着ChatGPT制造商OpenAI停止使用自己的工具来检测聊天机器人产生的抄袭这一现象来看,其后果并不令人鼓舞
。如果联邦调查局是对的,那么在与黑客及其对聊天机器人驱动的恶意软件的香港云服务器斗争中,我们可能会更加艰难 。