随着人工智能(AI)技术的安全迅猛发展,企业首席信息安全官(CISOs)正面临前所未有的头等大单挑战,既要满足企业业务快速迈向智能化的事建需求,同时又要防御爆炸式增长的产清AI安全威胁 。 风靡全球的安全DeepSeek只是AI工具潮的一朵浪花
,未来还将有更多类似工具快速涌现。头等大单这些未经授权的事建(消费级)AI应用如同一颗颗定时炸弹,潜伏在企业内部
,产清威胁着数据安全与合规性。高防服务器安全那么
,头等大单如何应对这一危机
?事建答案的起点在于建立一个全面的AI资产清单。 AI资产清单的建立不仅是必要的,而且正成为强制性要求。安全没有这一清单,头等大单企业如同盲人摸象,事建无法准确识别AI使用带来的敏感数据暴露风险,也无法应对日益严格的合规性要求
。云计算 欧盟《AI法案》(EU AI Act)、ISO 42001标准以及美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)等监管框架已明确将AI资产清单视为治理AI的基础性步骤。 例如
,欧盟《AI法案》于2024年8月正式生效
,其覆盖范围极为广泛 ,几乎囊括了所有AI系统 ,要求企业对其使用的AI技术进行全面登记和风险评估。ISO 42001则为企业提供了一个AI管理系统标准 ,强调通过清单化管理确保AI的透明性和责任性 。而NIST AI RMF虽然是自愿性框架,但其“MAP”功能明确要求企业绘制AI使用图谱,源码下载识别潜在风险。 这些框架共同表明
,AI资产清单不仅是合规的起点,更是安全治理的核心。 然而
,定义“AI资产”本身就是一大难题 。欧盟《AI法案》采取广义方法,将几乎所有AI增强功能纳入监管范围;而企业则需自行判断是否应监控每一项AI特性
,还是聚焦于生成式AI、模板下载大语言模型(LLM)和内容创建系统等高风险领域。专家建议
,缩小关注范围至特定AI类别可显著降低清单编制的复杂性,使其更具可操作性。 除了监管压力,第三方供应商评估也日益要求企业提供AI资产清单,常称之为“审计”或“服务目录” 。但合规只是表象,真正的挑战在于识别“影子AI”——那些未获正式批准却已被员工融入日常工作的AI工具
。据网络安全公司ZScaler的2024年报告,香港云服务器企业中超过60%的员工承认使用过未经授权的AI工具,其中许多工具通过个人账户或免费版本接入,绕过了IT部门的监控。 影子AI的泛滥使得传统IT治理工具捉襟见肘。员工可能在不知情的情况下将敏感数据暴露给第三方模型,而这些工具的风险往往瞬息万变——一款昨天看似安全的工具,可能因新增AI功能而在一夜之间变成高危对象。例如 ,DeepSeek的免费模板快速流行就暴露了企业对新兴工具的反应滞后
,其数据存储政策引发了广泛争议。 目前,企业采用的AI资产清单编制方法主要有以下六种,每种方法各有优劣: 这些方法虽能提供一定可见性,却普遍依赖手动操作,效率低下且难以应对动态风险
。网络安全专家指出,AI资产清单不仅是列出工具清单,更需评估其风险 :这些工具是否从员工输入中学习?其数据保留政策如何?是否符合GDPR、HIPAA等隐私法规? 为应对上述挑战,业界正转向更自动化、可重复的AI资产追踪工具
。这些工具通过持续监控检测AI使用,包括个人和免费账户,并识别哪些应用在训练企业数据。例如,2025年初推出的Darktrace AI Guardian能够实时扫描网络流量,标记未经批准的AI工具 ,并生成动态资产清单
。此类工具还支持企业制定防护策略,防止员工无意中泄露机密信息。 此外 ,自动化工具还推动了员工教育
。例如
,微软在2024年为其企业客户推出了AI使用仪表板,显示员工使用的AI工具并标注其安全性,帮助员工分辨哪些工具获批使用。这种透明性不仅降低风险,还增强了员工对合规工具的信任 。 AI治理不应仅被视为风险管理任务,更是一个抓住创新机会的窗口。领先建立AI资产清单的企业能够主动接触员工
,了解其真实需求和用例,引导他们转向安全、批准的AI解决方案。安全领导者通过与AI委员会和高层分享这些数据,可提供基于现实的洞察
,超越理论政策讨论。 例如
,谷歌在其2024年AI安全报告中提到,通过资产清单识别员工对生成式AI的高需求后
,该公司迅速部署了内部批准的生成工具,不仅提升了生产力,还降低了外部工具带来的风险
。这种做法表明
,AI资产清单不仅是防御性措施
,更是推动企业安全使用AI,在这场人工智能革命中取得竞争优势的的战略举措。