根据Gartner数据,到年到2027年超过40%的人工人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。 用户对GenAI技术的数据应用范围和速度超过了数据治理和安全措施的发展 ,由于支持这些技术所需的泄露集中计算能力有限,引发了人们对数据本地化的将自担忧。 Gartner副总裁分析师Joerg Fritsch表示 :“由于监管不足,跨境经常会发生意外的到年跨境数据传输,特别是人工当GenAI在没有明确描述或公告的情况下集成到现有产品中时。免费模板”“组织注意到员工使用GenAI工具生成的数据内容发生了变化。虽然这些工具可用于批准的泄露业务应用程序,但如果向未知位置托管的将自AI工具和API发送敏感提示,则会带来安全风险
。跨境” 人工智能和数据治理缺乏一致的到年全球最佳实践和标准,导致市场碎片化 ,人工迫使企业制定针对特定地区的数据战略
,从而加剧了挑战。这可能会限制他们在全球范围内扩展运营并从人工智能产品和服务中受益的能力。亿华云 Fritsch说:“由于本地化的人工智能政策 ,管理数据流和保持质量的复杂性可能会导致运营效率低下 。”“组织必须投资于先进的人工智能治理和安全,以保护敏感数据并确保合规性 。这一需求可能会推动人工智能安全、治理和合规服务市场的增长,以及提高人工智能流程透明度和控制力的技术解决方案。” Gartner预测,到2027年,模板下载人工智能治理将成为全球所有主权人工智能法律法规的要求。 Fritsch说
:“无法整合所需治理模型和控制的组织可能会发现自己处于竞争劣势,尤其是那些缺乏快速扩展现有数据治理框架的资源的组织。” 为了降低人工智能数据泄露的风险
,特别是跨境滥用GenAI的风险
,并确保合规性,Gartner建议企业采取以下几项战略行动: