随着企业将网络安全纳入治理、何重风险与合规(GRC)体系,塑治重新审视现有的理风略GRC计划至关重要,以确保GenAI和自主式AI使用量的险合增加及其带来的风险得到妥善处理,从而让企业能够持续满足监管要求
。规战 “AI是何重一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是塑治AI’的事物 ,”国际信息系统审计与控制协会(ISACA)董事会成员兼澳大利亚证券和投资委员会(ASIC)的理风略CISO杰米·诺顿(Jamie Norton)表示。 AI的建站模板险合风险难以量化,但AI的规战采用如何扩大和改变企业的风险面
,这方面数据可提供线索。何重根据Check Point发布的塑治《2025年AI安全报告》
,企业设备向GenAI服务发送的理风略每80个提示词中,就有1个(1.25%)存在敏感数据泄露的险合高风险。 CISO面临的规战挑战在于 ,既要满足企业对创新的需求,又要确保AI部署的源码库安全,同时考虑到其中的风险。诺顿告诉记者:“从纯粹的安全角度出发,他们正努力防止‘影子AI’成为一种文化现象
,即我们不加限制地采用和使用它。” 治理 、风险与合规这一概念起源于21世纪初的开放合规与道德小组(OCEG) ,旨在定义一套关键能力,以应对不确定性 、诚信行事并确保合规,从而支持企业的目标,云计算此后 ,GRC已从专注于合规的规则和清单
,发展为更广泛的风险管理方法,数据保护要求、不断增长的监管环境
、数字化转型努力以及董事会层面的关注
,推动了GRC的这一转变。 与此同时,网络安全已成为企业核心风险,CISO也帮助确保了监管要求的合规性,免费模板并建立了有效的治理框架,如今,随着AI的扩展 ,有必要将这一新的风险类别纳入GRC框架 。 然而 ,行业调查显示
,在AI监管方面
,仍有很长的路要走。根据《2025年联想首席信息官指南》
,只有24%的企业全面实施了企业AI GRC政策,同时,香港云服务器报告发现,AI治理与合规是首要任务。 行业研究表明,由于领导层渴望在不增加风险的情况下获得回报,CISO需要紧急加强AI风险管理
。 AuditBoard的CISO里奇·马库斯(Rich Marcus)表示 ,CISO处境艰难 ,因为他们肩负着双重使命:既要提高生产力
,利用这一强大的新兴技术,又要履行治理、风险与合规义务。“他们被要求利用AI或帮助加速企业内AI的源码下载采用
,以实现生产力提升
,但如果我们做错了,不能让它成为扼杀企业的因素
。”马库斯说。 为支持风险知情型的AI采用 ,马库斯的建议是,CISO应避免单打独斗
,CISO需要在整个企业内培养广泛的信任和风险管理认同。“成功管理AI风险的关键在于以协作的心态应对情况 ,并向大家传达这样的信息
:我们共同面对
,你不是来拖后腿的 。” 这种方法应有助于鼓励企业内部对AI使用方式和领域的透明度。诺顿表示,网络安全领导者必须通过建立安全流程来获取可见性 ,该流程将记录AI当前的使用情况或新AI需求的出现
。 “如今,你的每一款产品都包含某种AI
,而且没有一个治理论坛能够全面覆盖各种形式的AI。”他说
。 诺顿建议CISO制定战略和战术方法,以定义不同类型的AI工具,捕捉相对风险,并平衡生产力和创新方面的潜在回报 。采用安全设计流程、IT变更流程 、影子AI发现计划或基于风险的AI库存和分类等战术措施 ,是处理小型AI工具的实用方法。诺顿说:“对于日常使用的AI——比如嵌入在某个产品或某个SaaS平台中的AI,且这种AI正在各地增长——可以通过战术方法进行管理 ,以确定哪些[元素]需要监督。” 战略方法适用于伴随微软Copilot和ChatGPT等主要工具而来的重大AI变革。与保护众多其他添加了AI功能的工具相比 ,使用内部AI监督论坛来保护这些“重磅”AI工具要相对容易一些。 这样,CISO就可以将资源集中在影响最大的风险上 ,而不会创建繁琐或不可行的流程。诺顿说:“我们的想法不是让这件事变得冗长复杂
,以至于几乎无法取得任何成果
,因为企业通常希望迅速行动
,所以,这更像是一个相对轻量级的过程 ,将这种风险考量应用于允许AI使用或如果AI存在风险则阻止其使用。” 最终 ,安全领导者的任务是利用治理和风险作为更广泛的组织GRC框架的一部分,从安全角度审视AI。诺顿说:“许多企业都设有首席风险官或类似职位的人 ,负责整体环境中的广泛风险,但安全应该有一席之地。如今,CISO不再只是说‘行’或‘不行’,我们更多的是提供做某些事情所涉及的风险可见性,然后让组织和高级管理人员围绕这些风险做出决策。” AI的风险包括数据安全、AI工具滥用、隐私考虑 、影子AI、偏见与伦理考虑、幻觉与结果验证、法律与声誉问题以及模型治理等
。 Check Point的AI技术副总裁丹·卡尔帕蒂(Dan Karpati)表示
,应将AI相关风险作为组织风险组合中的一个独立类别,通过融入GRC支柱来确立。卡尔帕蒂提出了四大支柱
: • 企业风险管理 :定义AI风险偏好,并成立AI治理委员会。 • 模型风险管理:监控模型漂移、偏见和对抗性测试。 • 运营风险管理 :包括AI故障应急计划和人工监督培训。 • IT风险管理 :包括定期审计
、AI系统合规性检查 、治理框架以及与业务目标保持一致。 为帮助绘制这些风险图,CISO可以参考美国国家标准与技术研究院(NIST)的AI风险管理框架以及其他框架,如企业风险管理整合框架(COSO)和信息及相关技术控制目标(COBIT) ,并应用其核心原则——治理 、控制和风险对齐——来覆盖AI特性 ,如概率性输出、数据依赖性 、决策不透明性、自主性和快速演变
。新兴基准ISO/IEC 42001为AI提供了一个结构化的监督和保证框架,旨在将治理和风险实践嵌入AI生命周期。 调整这些框架有助于提升AI风险讨论 ,使AI风险偏好与企业的整体风险承受能力保持一致,并在所有业务部门中嵌入强大的AI治理
。“安全领导者无需重新发明轮子 ,可以将AI风险映射到实际业务影响上
。”卡尔帕蒂说。 AI风险还可以映射到因欺诈或错误决策导致的潜在财务损失
、因数据泄露导致的声誉损害、偏见结果或客户不满 、因与遗留系统集成不佳和系统故障导致的运营中断以及法律和监管处罚
。CISO可以利用信息风险因素分析(FAIR)等框架来评估AI相关事件发生的可能性,以货币形式估计损失,并获取风险暴露指标
。卡尔帕蒂说 :“通过从定性和定量角度分析风险,企业领导者可以更好地理解和权衡安全风险与财务基准。” 此外
,马库斯表示,随着新兴监管要求的出现,CISO需要关注法规草案 、跟踪意见征求期、提前了解新标准
,并在批准前做好实施准备 。 利用行业网络和同行可以帮助CISO及时了解威胁和风险,而GRC平台中的报告功能则监控任何监管变化。马库斯说:“了解实际中出现了哪些风险、哪些措施可以保护其他组织,并共同建立关键控制和程序,这将使我们行业随着时间的推移对这些类型的威胁更具韧性,这是很有帮助的
。” 治理是更广泛的GRC框架中的关键部分,CISO在制定企业如何负责任地使用AI的规则和原则方面发挥着重要作用。 除了定义风险和管理合规性外,CISO还必须制定新的治理政策。马库斯说:“有效的治理需要包括AI的可接受使用政策
,评估过程的早期成果之一应该是为你的组织定义行为准则。” 马库斯建议采用红绿灯系统——红
、黄、绿——来对业务中AI工具的使用进行分类,它为员工提供了明确的指导,为技术好奇的员工提供了一个安全探索的空间
,同时使安全团队能够建立检测和执行程序
,重要的是 ,它还让安全团队能够以协作的方式促进创新。 “绿色”工具已经过审查和批准,“黄色”工具需要额外评估和特定使用案例,而标有“红色”的工具则缺乏必要的保护措施,禁止员工使用。 在AuditBoard ,马库斯和团队制定了一套AI工具选择标准
,其中包括保护专有数据和保留所有输入和输出的所有权等。马库斯说:“作为一家企业,你可以开始制定你关心的标准
,并以此作为衡量任何新工具或使用案例的标尺
。” 他建议CISO及其团队提前定义指导原则,教育公司了解哪些是重要的,并帮助团队通过过滤掉不符合标准的事物来实现自我执行
。马库斯说 :“这样,当一个AI工具到达CISO手中时
,人们就已经了解了期望是什么。” 在具体的AI工具和使用案例方面
,马库斯和团队制定了“模型卡片”,即一页纸的文件 ,概述了AI系统架构,包括输入、输出、数据流
、预期使用案例、第三方以及系统数据的训练方式。他告诉记者
:“这使我们的风险分析师能够评估该使用案例是否违反了任何隐私法律或要求
、任何安全最佳实践以及可能适用于企业的任何新兴监管框架。” 这一过程旨在识别潜在风险
,并能够将这些风险传达给组织内的利益相关者,包括董事会。马库斯说 :“如果你评估了数十个这样的使用案例
,你就可以找出常见的风险和主题
,将它们汇总起来
,然后制定策略来减轻其中一些风险 。” 然后 ,团队可以查看可以应用哪些补偿性控制措施
,以及这些措施可以在多大程度上应用于不同的AI工具,并向高管提供这一指导 。马库斯说:“这将对话从关于这一个使用案例或这一个风险的更战术性讨论,转变为制定应对组织中‘AI风险’的更战略性计划。” 杰米·诺顿警告说 ,现在AI的炫酷界面已对所有人开放,安全团队需要将注意力集中在这些工具表面之下发生的事情上
。应用战略风险分析 、利用风险管理框架、监控合规性以及制定治理政策,可以帮助CISO在企业的AI之旅中提供指导。 诺顿说
:“作为CISO,我们不想阻碍创新,但我们必须设置一些限制 ,以确保我们不会盲目行事,导致数据泄露。”