CISO保障AI业务安全的五个优先事项

安全领导者必须成为AI的保障倡导者 、风险专家 、业务优先数据管理员 、安全教育者和研究者,事项以下是保障如何引领你的企业走向更安全、更有效的业务优先AI使用之路。

当ChatGPT首次问世时 ,安全我询问了一个由CISO组成的事项小组,这对他们的保障网络安全计划意味着什么。他们认识到了即将到来的业务优先变化 ,香港云服务器但回顾了过去的安全颠覆性技术 ,如iPods、事项Wi-Fi接入点和SaaS应用程序进入企业界的保障情况。大家的业务优先共识是 ,安全AI将成为一个类似的安全颠覆者 ,因此他们认为80%(或更多)的AI安全要求已经到位。诸如强大的资产清单 、数据安全 、身份治理、高防服务器漏洞管理等安全基础 ,将作为AI网络安全的基础。

快进到2025年,我的CISO朋友们说得对——但又不完全对 。确实,一个健全且全面的企业安全计划可以作为AI安全的锚点 ,但剩下的20%比最初想象的要更具挑战性。AI应用正在迅速扩大攻击面,同时还将攻击面扩展到第三方合作伙伴,以及深入到软件供应链内部  ,免费模板这意味着有限的可见性和盲点  。AI通常根植于开源和API连接性 ,因此可能到处都存在影子AI活动。最后,AI创新正在迅速推进 ,使得负担过重的安全团队难以跟上步伐。

除了AI的技术方面外 ,值得注意的是,许多AI项目最终都以失败告终。根据标准普尔全球市场情报(S&P Global Market Intelligence)的研究 ,模板下载2025年有42%的企业关闭了大部分AI倡议(相比之下,2024年这一比例为17%)。此外,近一半(46%)的企业在AI概念验证还未进入生产阶段就已叫停 。

为什么这么多AI项目会失败?行业研究指出 ,成本、数据质量差、缺乏治理 、人才缺口以及扩展问题等是主要原因。

随着项目的失败和一系列安全挑战的出现,企业在确保稳健的云计算AI创新和安全战略方面有一长串且不断增长的任务清单。当我最近与我的CISO朋友们会面时 ,他们经常强调以下五个优先事项:

1. 以强大的治理模型为起点

需要明确的是,我所说的不仅仅是技术或安全 。事实上,AI治理模型必须始于业务和技术团队之间就AI如何以及在哪里用于支持企业使命达成的一致  。

为了实现这一点,CISO应与CIO合作 ,亿华云对业务领导者以及法律 、财务等业务职能部门进行教育 ,以建立一个支持业务需求和技术能力的AI框架,该框架应遵循从构思到生产的生命周期 ,并包括伦理考虑、可接受的使用政策 、透明度 、监管合规性以及成功指标 。

在此过程中,CISO应审查现有的框架,如NIST AI风险管理框架、ISO/IEC 42001:2023、联合国教科文企业关于人工智能伦理的建议,以及RockCyber的RISE(研究、实施 、维持、评估)和CARE(创建 、采用、运行 、进化)框架 。企业可能需要创建一个适合其特定需求的“最佳”框架  。

2. 全面且持续地了解AI风险

要掌握企业的AI风险,首先要从基础做起  ,如AI资产清单、软件物料清单、漏洞和暴露管理最佳实践以及AI风险登记册。除了基础卫生外,CISO和安全专业人员必须了解AI特有的威胁 ,如模型中毒、数据推断、提示注入等。威胁分析师需要跟上新兴的战术  、技术和程序(TTP)  ,这些用于AI攻击  。MITRE ATLAS是一个很好的资源 。

随着AI应用扩展到第三方,CISO将需要对第三方数据 、AI安全控制、供应链安全等进行定制审计。安全领导者还必须关注新兴且经常变化的AI法规 。欧盟AI法案是目前最全面的 ,强调安全性、透明度 、非歧视性和环境友好性。其他法规  ,如科罗拉多州人工智能法案(CAIA),可能会随着消费者反应 、企业经验和法律判例法的演变而迅速变化 。CISO应预期其他州、联邦、地区和行业法规的出现。

3. 关注不断发展的数据完整性定义

你可能会认为这是显而易见的 ,因为机密性 、完整性和可用性构成了网络安全的CIA三要素,但在信息安全领域 ,数据完整性一直侧重于未经授权的数据修改和数据一致性等问题 。这些保护措施仍然是必要的,但CISO应扩大其视野 ,以包括AI模型本身的数据完整性和真实性 。

为了说明这一点 ,这里有一些著名的数据模型问题示例 。亚马逊创建了一个AI招聘工具 ,以帮助其更好地筛选简历并选择最合格的候选人 。不幸的是,该模型主要使用男性导向的数据进行训练 ,因此它歧视女性申请者。同样 ,当英国创建一个护照照片检查应用程序时,其模型是使用白皮肤的人进行训练的,因此它歧视深色皮肤的人。

AI模型的真实性不是CISSP认证的一部分,但CISO必须将其作为AI治理责任的一部分来掌握 。

4. 在所有层面追求AI素养

每个员工 、合作伙伴和客户都将在某种程度上与AI合作 ,因此AI素养是一个高度优先事项  。CISO应从自己的部门开始 ,对整个安全团队进行AI基础知识培训。

已建立的软件安全开发生命周期(SDLC)应进行修订,以涵盖AI威胁建模、数据处理、API安全等内容 。开发者还应接受AI开发最佳实践的培训,包括大型语言模型(LLM)的OWASP十大安全风险、谷歌的安全AI框架(SAIF)以及云安全联盟(CSA)的指导。

最终用户培训应包括可接受的使用、数据处理 、错误信息和深度伪造培训 。来自Mimecast等供应商的人类风险管理(HRM)解决方案可能是跟上AI威胁并为不同个体和角色定制培训所必需的 。

5. 对用于网络安全的AI技术保持谨慎乐观的态度

我会将今天的AI安全技术归类为更像是“驾驶员辅助” ,如巡航控制 ,而非自动驾驶。尽管如此 ,事情正在迅速推进 。

CISO应要求其员工识别离散的任务,如警报分类、威胁狩猎  、风险评分和创建报告  ,在这些任务中他们可能需要一些帮助,然后开始研究这些领域的新兴安全创新 。

同时 ,安全领导者应与领先的安全技术合作伙伴安排路线图会议 。参加这些会议时 ,要准备好讨论具体需求,而不是听那些不切实际的PowerPoint演示。CISO还应直接询问供应商AI将如何用于现有技术的调优和优化 。创新正在不断涌现,因此我认为值得在现有合作伙伴、竞争对手和初创企业中广泛寻找。

然而,要小心谨慎 ,许多AI“产品”实际上只是产品功能 ,AI应用需要大量资源,且开发和运营成本高昂 。一些初创企业将被收购,但许多可能会迅速衰落 。买家要当心!

未来的机遇

我将以一个预测来结束这篇文章,目前 ,约70%的CISO向CIO汇报工作,我相信,随着AI的普及 ,CISO的汇报结构将迅速发生变化,更多地将直接向CEO汇报,那些在AI业务和技术治理中发挥领导作用的人很可能会成为首批被提拔的人。

滇ICP备2023006006号-15