AIGC如今越来越受欢迎
,它使人们能够以前所未有的目构方式创造 、互动和消费内容。成严随着大型语言模型(例如GPT)的安全显著进步,AIGC系统现在拥有生成类似人类的威胁文本、图像甚至代码的流行能力
。集成了这些技术的目构开源项目的数量正在呈指数级增长。 例如 ,成严自从OpenAI公司七个月前首次推出ChatGPT以来,安全GitHub上现在有30000多个开源项目使用GPT-3.5系列的服务器租用威胁LLM。 尽管用户对这些技术的流行需求激增,但GPT和LLM项目给使用它们的目构用户带来了各种安全风险,其中包括信任边界风险、成严数据管理风险
、安全固有模型风险以及一般安全问题
。威胁 早期采用AIGC或任何新生技术(特别是LLM) ,需要在整个软件开发生命周期中进行全面的风险评估并遵守稳健的安全实践
。通过对安全风险给予应有的关注 ,企业可以就是云计算否以及如何采用AIGC解决方案做出明智的决定,同时坚持最高标准的审查和保护。 Rezilion公司漏洞研究总监Yotam Perkal表示
:“AIGC的应用越来越普遍,但它还不成熟,而且极易存在风险。除了固有的安全问题之外
,个人和企业在没有适当安全护栏的情况下为这些AI模型提供了过度的访问和授权
。通过我们进行的研究 ,旨在传达使用不安全的免费模板AIGC和LLM的开源项目也具有较差的安全态势
。这些因素导致企业面临重大风险
。” Rezilion公司的研究团队调查了GitHub上50个最受欢迎的AIGC项目的安全状况。该研究利用开源安全基金会记分卡客观地评估了LLM开源生态系统
,并强调了许多基于LLM的项目缺乏成熟度、基本安全最佳实践的差距以及潜在的安全风险
。 这一调查结果突出了人们的担忧,源码库揭示了得分较低的非常新的和受欢迎的项目 : 对于AIGC系统的安全部署和操作
,Rezilion公司建议采用以下最佳实践和指南:教育团队了解采用任何新技术相关的风险;评估和监控与LLM和开源生态系统相关的安全风险;实施稳健的安全实践,进行彻底的风险评估,并培养安全意识的企业文化。 虽然在采用AIGC模型及其生态系统方面存在重大的安全挑战 ,但AI技术具有强大的功能和能力 ,模板下载并且将会继续发展下去。