人工智能安全政策:向第三方供应商提出的问题

了解如何为您的组织制定人工智能安全政策,并向供应商提出这16个问题以评估其人工智能安全控制措施。

如今,大多数组织都在探索运用新兴的人工智能技术来优化工作流程与业务流程,分析并归纳数据,并以前所未有的速度生成内容。你和你的同事可能已经开始使用人工智能工具和框架来开展研究、生成内容以及解决编程难题等工作。

然而,重要的是要通过适当的指导和限制来抑制组织对人工智能的热情。全面禁止人工智能技术可能会损害业务需求和目标,那么如何在保护敏感数据和确保生成内容准确性方面保持警惕?解决方案始于制定人工智能安全政策。

一套强有力的AI安全政策将使您的组织能够充分利用人工智能的优势,同时制定必要的风险评估和安全控制措施,以保护敏感数据并确保内容准确性。与此同时,必须确保您的供应商、供货商及其他第三方具备足够的安全控制措施,能够充分保护您的关键系统和数据。

本文将探讨人工智能安全政策;分析如何将人工智能安全政策应用于第三方;并分享评估供应商和供货商人工智能安全控制措施的关键问题。

什么是人工智能安全政策?

人工智能安全政策是一套指导方针,用于评估和使用人工智能工具及框架,以最大化洞察力、控制力及数据保护。该政策同时概述了人工智能的脆弱性,并提出缓解其潜在风险的措施。

通过制定完善的AI安全政策,组织能够保障其人工智能系统及由人工智能处理的任何数据的安全性与完整性。AI政策通常包含以下条款:

  • 通过加密和访问控制保护敏感数据
  • 通过身份验证和授权机制确保授权用户的访问权限
  • 通过防火墙、入侵检测系统及其他工具维护网络安全

人工智能安全政策通常是组织通用信息安全政策及相关控制措施的延伸,其中包含关于数据保护、隐私和准确性的一些共同概念。

人工智能安全政策的组成部分有哪些?

工具评估政策

这些政策为需要评估人工智能工具以供组织使用的安全团队规定了工作流程和程序。它们概述了不同类型服务所需的数据保护级别,并说明了审查敏感数据如何可能被用作人工智能训练输入和/或出现在人工智能生成的内容中的程序。

源代码政策

源代码政策强调安全开发实践(例如遵守编码规范、定期进行代码审查),并规定了用于追踪系统行为和检测异常的监控与日志记录机制。这些政策通常要求组织追踪源代码作为AI工具输入的使用情况,以及任何由AI生成的代码的使用情况。

事件响应政策

事件响应政策概述了处理安全漏洞的规程,并强调必须遵守要求制定此类规程的行业标准和法规。

数据保留与隐私政策

数据保留政策确保上传至人工智能工具和服务的输入数据将在可接受的时间范围内被删除。隐私考量同样需要评估,因部分地区出于对个人数据收集与使用的担忧,已暂时禁止使用生成式人工智能工具。

道德政策

人工智能安全政策包含伦理考量与意识培训,旨在解决偏见问题、确保责任追溯并培育安全文化。例如,政策可能要求生成式人工智能用户对创建内容进行审核与编辑,以确保准确性、消除偏见并规避冒犯性内容。

关于人工智能幻觉及类似风险的声明

人工智能安全政策应承认,人工智能工具已知会产生错误、偏颇或冒犯性的结果。尤其值得关注的是"人工智能幻觉"现象——当生成式人工智能工具创造出出人意料、不真实或缺乏证据及现实数据支撑的内容时便会发生这种情况。人工智能工具对近期现实事件的认知往往存在局限,这可能导致生成的内容出现更多不准确之处和遗漏。

人工智能安全政策如何适用于第三方?

您的AI安全政策应包含评估、缓解和监控所有AI解决方案风险的标准,这些解决方案为您的组织处理或生成数据——包括由第三方供应商、供货商和服务提供商提供和/或使用的解决方案。确保第三方工具和服务能够保护敏感数据、对输入数据进行净化以清除机密信息,并遵循其他必要的安全控制措施至关重要。

在第三方风险管理(TPRM)计划中,主要有三种方式来运用人工智能安全策略:合同前尽职调查、供应商合同签订以及供应商评估。

合同签订前的尽职调查

您的AI安全政策应在评估潜在供应商时指导尽职调查流程。通过参照该政策,贵组织可系统性地评估供应商的安全管控措施、数据保护机制及访问协议。这将确保外部方满足与内部系统同等严格的安全标准,从而最大限度降低潜在安全漏洞。

供应商合同签订

与供应商签订的合同协议可纳入人工智能安全政策条款。通过将政策指导原则写入协议,贵组织能就安全要求、数据处理规范及事件响应流程建立明确预期。这种协同机制确保供应商提供的人工智能解决方案或服务符合组织安全标准,从而构建更安全、更具韧性的人工智能生态系统。

供应商评估

供应商评估过程中,您的AI安全政策可作为基准,用于对照贵组织既定标准衡量供应商的安全实践。这同时确保了在整个供应商生态系统中建立统一的安全期望值。

总体而言,人工智能安全政策作为一个综合性框架,用于评估供应商的安全实践,并使其与贵组织的战略性人工智能目标保持一致。

人工智能安全控制评估:向第三方提出16个关键问题

第三方人工智能供应商可能潜藏隐性威胁,这些风险未必能立即显现。此类威胁涵盖安全漏洞、潜在数据泄露、隐蔽恶意代码、数据滥用以及算法偏见——任何一项都可能危及贵机构的数据安全、声誉及运营。

为应对这些风险,贵机构必须对第三方供应商进行严格评估。尽职调查应涵盖安全措施、数据保护实践及算法透明度等方面的评估。持续监控、强有力的合同协议以及应急预案对于发现并缓解潜在的人工智能威胁同样至关重要。

2021年12月,微软发布了人工智能安全风险评估框架,旨在协助各类组织对人工智能系统的安全性进行审计、追踪与优化。Prevalent公司基于该框架开发了一份包含16个问题的调查问卷,可用于评估供应商和合作伙伴所采用的人工智能安全控制措施。

使用此第三方人工智能安全评估来:

  • 收集有关供应商生态系统中人工智能安全状况的信息。
  • 执行差距分析,并与供应商合作制定风险整改路线图。
  • 定期进行重复评估,以追踪随时间推移的整改进展。

 

问题 可能的回应
1. 用于人工智能系统的数据是否来自可信来源? 请选择一项:

a) 是的,该组织确保所收集的数据仅来自可信来源。

b) 所收集的数据并非全部来自可信来源。

c) 不适用。

2. 是否已制定包含隐私保护及敏感数据类型保护的数据政策? 选择所有符合条件的选项:

a) 已制定正式的数据政策。

b) 数据政策应传达给所有参与人工智能系统使用或创建的人员,并向其提供该政策。

c) 数据通过数据分类标签进行分类。

d) 以上皆非。

3. 该组织是否根据数据分类确保其安全存储? 选择所有符合条件的选项:

a) 该组织采用基于明确定义的数据分类流程的安全存储方案。

b) 人工智能系统所使用的数据依据既定的分类政策进行分类和保护。

c) 对数据访问进行审计,并强制执行正式的用户访问请求审批流程。

d) 数据集实施版本控制,并遵循既定的变更控制流程。

e) 以上皆非。

4. 数据集在使用前是否通过加密哈希进行了适当的追踪和验证? 选择所有符合条件的选项:

a) 该组织对数据集实施基于角色的访问控制。

b) 定期执行访问审计。

c) 已采取措施确保任何第三方资源提供商或外部方均无法访问测试数据资产。

d) 以上皆非。

5. 该组织如何确保在人工智能系统生命周期内始终保持数据完整性? 选择所有符合条件的选项:

a) 对数据集应用唯一标识。

b) 采用中央位置来追踪数据集及其加密描述。

c) 对数据集的访问权限将定期接受审计。

d) 对数据集所做的修改须经管理层批准后方可提交。

e) 以上皆非。

6. 数据处理管道是否安全? 请选择一项:

a) 是的,该组织采取措施确保其数据处理安排的安全性。

b) 不,该组织未采取措施确保其数据处理安排的安全性。

c) 不适用。

7. 该组织是否以与数据集相同的方式保护数据子集? 请选择一项:

a) 是的,该组织对数据子集采用相同级别的安全措施和数据分类流程。

b) 不,该组织并未对数据子集应用相同级别的安全措施和数据分类流程。

c) 不适用。

8. 该组织是否在适当的环境中对其示范培训准则进行审查? 请选择一项:

a) 是的,该组织在远离生产环境的安全专用环境中审查和管理模型代码。

b) 模型代码未在远离生产环境的专用环境中进行正式审查。

c) 不适用。

9. 用于人工智能系统的模型训练是否在与部署环境相同的条件下进行? 请选择一项:

a) 是的,该组织确保模型训练是在与部署阶段相同的条件下进行的。

b) 该组织未在与部署阶段相同条件下对模型进行训练。

c) 不适用。

10. 模型设计和训练算法是否包含显式或隐式的模型正则化? 请选择一项:

a) 是的,模型设计和训练算法的规范化已得到保障。

b) 不,模型设计和训练算法的规范化无法得到保证。

c) 不适用。

11. 当新的训练数据流入训练管道时,模型是否会持续接受重新训练? 请选择一项:

a) 是的,该组织已建立持续再培训计划,用于测试和验证新的培训数据。

b) 不,该组织尚未建立持续再培训计划来测试和验证新的培训数据。

c) 不适用。

12. 该组织如何在部署前保障其人工智能系统的安全性? 请选择一项:

a) 已为新的人工智能系统、升级版本及新版本制定并记录了正式验收测试标准。

b) 新的人工智能系统、升级或新版本在实施时需经过正式测试。

c) 该组织利用自动化工具对信息系统、升级或新版本进行测试。

d) 测试环境与最终生产环境高度相似。

e) 独立安全审查的频率、范围及方法均有记录。

f) 以上皆非。

13. 该组织如何保障并管理人工智能系统所运行的底层网络? 请选择一项:

a) 网关设备需对域间流量进行过滤,并阻止未经授权的访问。

b) 安全配置指南已形成文件并定期进行审查。

c) 网络采用隔离架构,遵循既定的访问控制策略。

d) 制定要求以隔离并限制对公共可访问系统、内部网络及关键资产的使用。

e) 以上皆非。

14. 该组织如何记录和监控其人工智能系统及配套基础设施? 请选择一项:

a) 该组织已部署事件日志系统(例如安全信息与事件管理解决方案)用于监控事件日志和安全日志。

b) 定期审查事件和安全日志,以发现异常行为。

c) 针对系统活动生成并审查综合报告和警报。

d) 日志记录和监控包括存储、管道和生产服务器。

e) 以上皆非。

15. 该组织如何识别和管理与人工智能系统相关或对其产生影响的安全事件? 请选择一项:

a) 建立了报告人工智能系统事件的正式流程。
b) 建立了管理事件的职责分工。

c) 已建立正式的事件响应和升级处理流程。

d) 定期测试事件响应程序。

e) 以上皆非

16. 该组织是否建立了流程,以确保人工智能系统在发生事件后能够得到修复和恢复? 请选择一项:

a) 关键人工智能资产已完成识别与盘点。

b) 该组织已制定正式的业务连续性计划。

c) 影响评估包括规划因关键人工智能系统遭受攻击而失效的影响。

d) 对关键人工智能系统进行业务连续性测试,并按固定周期重复实施。

e) 以上皆非。

管理第三方人工智能风险的下一步行动

请将上述问卷作为起点,用于发现供应商和合作伙伴所采用的人工智能系统中的风险。通过主动识别和管理第三方人工智能风险,您既能保护组织系统和数据安全,又能规避公平性、透明度及责任归属等潜在问题。第三方人工智能风险评估不仅能保障运营安全,更有助于推动道德决策、优化供应商选择并维系长期合作伙伴关系。

如需了解Prevalent如何协助贵机构在整体第三方风险管理框架下评估供应商的人工智能安全状况,立即申请演示

 


编者按:本文最初发表于Prevalent.net。2024 年 10 月,Mitratech 收购了人工智能第三方风险管理公司 Prevalent。此后,我们对内容进行了更新,以纳入与我们的产品、监管变化和合规性相一致的信息。