《人工智能隐私保护白皮书_市场营销策划_重点报告202301202_doc.docx》由会员分享,可在线阅读,更多相关《人工智能隐私保护白皮书_市场营销策划_重点报告202301202_doc.docx(46页珍藏版)》请在课桌文档上搜索。
1、中国联通China Unieom中国联通人工智能隐私保护白皮书中国联通研究院中国联通网络安全研究院下一代互联网宽带业务应用国家工程研究中心2023年11月版权声明本白皮书版权属于中国联合网络通信有限公司研究院,并受法律保护。转载、摘编或利用其他方式使用本报告文字或者观点的,应注明“来源:中国联通研究院”。违反上述声明者,本院将追究其相关法律责任。目录前言1-人工智能全生命周期隐私风险分析31.1 人工智能通用隐私风险41.1.1 数据采集存储流通阶段隐私风险41.1.2 模型训练与推理阶段隐私风险61.2 生成式人工智能隐私风险9二人工智能隐私保护法规政策和标准化现状102.1人工智能隐私保护
2、国内外法律法规和政策102.1.1国内情况102.1.2国外情况132.2人工智能隐私保护国内外相关标准化情况191 .2.1国内相关标准研究情况192 .2.2国外相关标准研究情况21三人工智能隐私保护技术和平台223.1 人工智能隐私保护技术233.1.1 人工智能隐私保护管控技术233.1.2 人工智能隐私保护数据加密技术233.1.3 人工智能隐私保护攻击防御技术253.1.4 人工智能隐私保护新兴技术263.2 人工智能隐私保护平台30四人工智能隐私保护建议314.1 建立健全的人工智能隐私保护合规监管机制314.2 加强可操作的人工智能隐私保护标准建设324.3 3构建全周期的人工
3、智能隐私保护体系334.4 发展多维度的人工智能隐私保护技术354.5 培养复合型的人工智能隐私保护人才364.6 6构建负责任的人工智能隐私保护生态37参考文献37刖百人工智能(ArtificialIntelIigence,简称AI)作为战略性新兴产业,作为新的增长引擎,日益成为科技创新、产业升级和生产力提升的重要驱动力量。生成式人工智能工具、人脸识别、智能工厂、智慧城市等人工智能技术现已广泛落地,这些令人难以置信的技术正在快速改变人们的生活,对经济社会发展和人类文明进步产生深远影响。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战,潜在的滥用对以前被认为是不可侵犯的个人敏感信息构成
4、了前所未有的威胁,技术自身缺陷导致智能决策在多个领域存在不确定性和敏感信息泄露,系统被非法控制导致个人隐私被未授权的第三方获取和推理。因此,人工智能技术引发的隐私与安全问题已经成为时下的关注话题,也是当前人工智能领域所面临的最大挑战之一。为了更好的推动新一代人工智能安全发展,让人工智能用的放心,各国政府和企业越来越重视人工智能隐私保护。人工智能隐私保护指的是在数据采集存储和数据使用共享,模型训练以及模型推理应用的全生命周期过程中有效的保护用户数据隐私不泄漏,不被未授权第三方获取或推理。因此,在人工智能处理大量个人数据和敏感信息的过程中,如何加强数据隐私管控;在人工智能训练过程中,如何保证数据质
5、量,避免原始数据隐私泄露;在人工智能推理应用过程中,如何防御攻击引起的数据隐私推理,如何保护模型保密性与完整性日渐成为国际人工智能的重要议题。本白皮书从人工智能隐私保护的内涵出发,从人工智能全生命周期系统梳理人工智能通用隐私风险和生成式人工智能隐私风险。在此基础上,总结了国内外人工智能隐私保护法规政策标准化现状。然后分析了人工智能隐私保护技术和平台,包括管控技术、数据加密技术、攻击防御技术、隐私保护机器学习平台和人工智能安全检测平台等。最后以技术发展和隐私保护并重为原则,研究提出了多维度、负责任的人工智能隐私保护实施建议,让下一代人工智能用的放心。本白皮书由中国联通研究院主笔,中国联通集团网络
6、与信息安全部、中国软件评测中心(工业和信息化部软件与集成电路促进中心)、数据安全关键技术与产业应用评价工业和信息化部重点实验室、中国计算机行业协会数据安全专业委员会、三六零数字安全科技集团有限公司、中兴通讯股份有限公司联合编写。编写组成员(排名不分先后):总策划:苗守野、李浩宇、叶晓煜编委会:徐雷、陶冶、李慧芳、孙艺、陈泱、曹咪、傅瑜、唐刚、张德馨、白利芳、李尤、林青、杨晓琪、黄英男、李泽村、唐会芳、王雨薇、王继刚、陈靖-人工智能全生命周期隐私风险分析在智能化变革的今天,技术的发展和变化都会对人们的生活带来空前的改变,互联网和大数据等相关技术的更迭加速了人工智能应用的步伐,使得人们的生产生活方
7、式悄然的有了新的活力。技术的发展给社会带来机会的同时也同样不能忽略它的弊端和随之带来的一系列负面影响,尤其在今天这样无隐私的透明化的时代,人们在让渡出自己的部分权利来交换智能应用所带来的便利服务时,隐私泄露是人们必须要直面的问题。最近几年,有关隐私受到侵犯的案件一再发生。例如,Facebook未经用户允许将用户个人信息泄露给剑桥分析公司用于非正当目的,同时其利用网民的浏览行为来精准的投放广告,剑桥大学心理测量学中心从用户对哪些帖子和新闻进行阅读和点赞,来分析出每个人的性别、性取向、个性外向还是内向等,美食外卖企业“饿了么”、“大众点评”、“美团”会利用算法推送一些推荐食物和餐馆帮用户做出饮食决
8、定,自动驾驶技术让人们可以轻松的出行,高德地图、百度地图等智能导航系统减少了人们寻找路线的时间和精力,ChatGPT和其他生成式人工智能工具可以提高用户交互体验、提高员工的创作和办公效率,但这些信息都以数据的形式存储了下来,并被企业或其他主体收集和利用,一些智能手机应用甚至过度的收集并违规使用个人信息,使得个人隐私信息面临被泄露或被窃取的风险。可以看到人工智能的普及与滥用使其面临越来越多的隐私与安全威胁,社会各界也逐渐加大了对隐私风险的分析和隐私保护的关注度。从隐私保护角度,数据隐私性、模型保密性、模型完整可用性是用户和服务提供商最为关心的问题。因此,本章将先从数据、模型这两个不同的方面来揭示
9、人工智能面临的通用隐私威胁。同时,由于生成式人工智能(GeneratiVeArtificiaIInteIIigence,简称生成式Al)技术的快速发展和应用给人们带来了巨大的想象空间,但也增加了新的Al隐私风险,本章还将对生成式人工智能隐私风险进行揭示。1.1 人工智能通用隐私风险1.1.1 数据采集存储流通阶段隐私风险数据不正当收集风险。人工智能算法尤其是在深度学习的开发测试过程中,需要大量训练数据作为机器学习资料、进行系统性能测试。在网上公开数据源和商务采购时,由于目前数据共享、交易和流通的市场化机制不健全,存在非法数据、买卖数据、暗网数据等不正当收集行为和一些未经授权的收集行为,这些数据
10、缺乏用户知情同意,实际并没有获得数据的采集权限,很容易泄露用户隐私。数据过度收集风险。在无人驾驶、智能家居、智慧城市等典型应用场景中,数据主要通过在公开环境中部署各类传感器或终端,并以环境信息为对象进行无差别、不定向的现场实时采集。现场采集由于难以提前预知采集的数据对象和数据类型,因此,在公开环境尤其是公共空间进行现场采集时,将不可避免地因采集范围的扩大化而带来过度采集问题。比如,在智能网联汽车的无人驾驶场景中,自动驾驶汽车的传感器需要采集街景数据来支持智能驾驶系统的决策从而控制汽车行驶,但是这种无差别的街景数据采集必然会采集到行人的个人数据,其中包括行人的人脸数据等个人敏感信息,造成行人的隐
11、私泄露风险,甚至还可能会采集到路边的重要基础设施、地理位置信息、军事营区等重要数据,给国家安全带来风险。数据存储隐私泄露风险。一方面,在对数据进行保存时,如果没有对数据采取技术手段进行安全防护,容易被非法需求者通过网络攻击等黑客行为进行隐私数据窃取。另一方面,在数据存储过程中,由于对数据没有明确的隐私界定与标注,如果使用者无意中将涉及隐私的数据用于公开的人工智能训练分析中,个人隐私将在不经意间被泄露。再另一方面,在人工智能数据处理使用的过程中,涉及众多数据处理、保存步骤,对于种类多、数据量大的数据集,处理、保存操作难以规范与监管,潜藏被非法使用者利用、拷贝等安全隐患。数据流通隐私泄露风险。由于
12、大量人工智能企业会委托第三方公司或采用众包的方式实现海量数据的采集、标注、分析和算法优化,数据将会在供应链的各个主体之间形成复杂、实时的交互流通,可能会因为各主体数据安全能力的参差不齐,产生数据泄露或滥用的风险。此外,在全球数字经济发展不均衡的大背景下,大型科技巨头将人工智能的数据资源供给、数据分析能力、算法研发优化、产品设计应用等环节分散在不同的国家,数据跨境流动的场景也会对国家安全和个人信息保护造成不可控的隐私风险。1.1.2 模型训练与推理阶段隐私风险(1)模型训练阶段数据污染风险数据污染有失数据真实性。人工智能模型依赖海量数据,相比数据集大小,研发工程师更关注数据质量。知名学者吴恩达提
13、出u80%的数据+20%的模型二更好的机器学习”,而数据污染和错误将降低模型精度,数据偏差和噪声将降低模型的泛化性和可靠性。数据是连接现实空间和虚拟空间的桥梁,如果数据质量出现问题,如数据内容失真、数据标注错误、数据多样性有限,则无法反映现实世界的真实情况,在此基础上建立的人工智能模型便会出现偏差,导致预测结果偏差或错误,甚至导致种族歧视或者性别歧视偏见,出现“垃圾进、垃圾出”的现象。如今的生成式Al模型也因静态数据的时效性,导致生成内容存在过时或者错误现象。数据投毒攻击风险。数据投毒是指通过在训练数据集中故意添加污染数据(如错误样本或恶意样本),导致训练出来的模型在决策时发生偏差,从而影响模
14、型的完整性或可用性。人工智能模型在训练过程中容易受到数据投毒攻击,攻击者可以通过实施标签翻转或添加后门等恶意行为来破坏训练数据的正确性。从而破坏模型决策的正确性。近年来,对人工智能模型的数据投毒问题已使得多个世界知名公司遭受重大负面影响,并造成了十分严重的后果。例如:美国亚马逊公司因其Alexa智能音箱学习了网络不良信息,发生了引导用户自杀的恶意行为。因此,训练数据的正确性问题已成为阻碍人工智能发展的重大问题。(2)模型推理应用阶段隐私风险隐私被推理风险。人工智能模型推理产生的信息可能会间接暴露用户隐私。一方面,在对数据进行深度挖掘与分析时,所得到的结果数据可能将用户的个人隐私一并挖掘出来,并
15、进一步进行数据应用,从而使数据中隐藏的个人隐私信息进行暴露。另一方面,在对去标识化的个人信息和行为模式进行融合和关联分析时,可能推理出与个人隐私相关的信息,比如政治倾向、财务状况等。成员推理攻击风险。成员推断攻击是一种数据隐私攻击方法,该攻击通过判断输入数据是否是目标模型的训练数据来达到攻击效果。具体来说,攻击者不需要获取模型结构、模型参数、训练方法等,只需要向模型输入数据,从模型输出的置信度即可判断该输入是否为训练集中的数据。尤其对于过拟合模型,训练集数据与非训练集数据的置信度表现会有明显差异,如果目标攻击模型使用了个人敏感信息进行模型训练,成员推理攻击就会造成模型训练集中这部分敏感数据的泄
16、漏。模型逆向攻击风险。模型逆向攻击是一种通过还原训练数据造成数据隐私泄漏的攻击方法。攻击者可以在没有训练数据的情况下,通过模型输出的置信度不断调整输入数据,最终近似获得训练集中的数据。这一攻击如果使用在人脸识别系统、指纹识别系统等,则会造成用户生物识别信息的泄漏,例如随机构建一张图片,人脸识别模型给出用户名与置信度,结合置信度不断调整图片,最终就有可能将训练集中的人脸恢复出来。模型提取攻击风险。模型提取攻击是一种可以造成模型保密性被破坏与知识产权被侵犯的攻击方法。该攻击通过模型预测结果反推模型具体参数和结构,以达到训练出一个与目标模型相似度极高的模型的过程。企业训练一个机器学习模型往往要花费大
17、量金钱,投入大量人力,通过模型提取攻击,攻击者可以在对模型不掌握任何信息的前提下,仅通过模型的输入与输出来训练一个替代模型,一定程度上侵犯了企业的知识产权,破坏了企业的商业模式。对抗样本攻击风险。对抗样本攻击是一种在模型推理阶段破坏模型完整性的攻击方法,其通过对人工智能模型的输入数据加入微小噪声,以欺骗模型做出错误预测。人工智能模型并不总是稳定和可靠的,攻击者对输入数据加入难以察觉的细小扰动,可以使模型产生意想不到的错误。例如,对于一个猫和狗的图像分类器,攻击者可以在猫的照片上进行微调,使分类器错误地将该图分类为狗。对抗样本攻击的出现给人工智能模型的准确性和鲁棒性带来了挑战,这种攻击可能对身份
18、识别系统这类关键应用产生严重影响,因此也对个人隐私产生极大威胁。提示注入攻击风险。模型面临提示注入攻击,尤其对于语言模型,当模型无法区分系统指令与不受信任的用户输入指令时,用户攻击者就有机会绕过模型限制并违反模型的指导原则来劫持模型输出,注入攻击就有可能发生。这种攻击的思路是,通过注入指令来劫持模型输出,使模型忽略原始指令并执行注入的指令,从而偏离其原始行为,造成信息泄漏或者生成违规内容等问题。提示泄露攻击是提示注入攻击的一种形式,该攻击用于泄露可能包含未经公开的机密或专有信息的提示的攻击。微软公布的NewBing对话机器人就被使用提示注入攻击发现了其聊天的初始提示,该提示通常对用户隐藏。1.
19、2 生成式人工智能隐私风险随着生成式人工智能(GenerativeArtificialIntelIigence,简称生成式AI)技术的发展,Al模型开始具备更通用和更强的基础能力,并从计算智能、感知智能进一步迈向认知智能。但同时,Al模型能力的提升,也带来了新的隐私风险。生成式人工智能隐私风险可分为生成式人工智能内生隐私风险和生成式人工智能滥用导致的衍生风险。生成式人工智能内生隐私风险主要是在使用生成式Al模型的过程导致的数据泄漏风险。一方面,当用户与以ChatGPT为代表的生成式Al模型进行问答交互时,有时会输入包含隐私数据的PromPt指令,而这些指令都会被无差别地记录并存储。由于缺乏对相
20、应数据的访问限制,这些指令中包含的用户隐私存在被泄漏的风险。另一方面,生成式Al模型通过对海量训练数据的学习来生成新的数据,且目前以ChatGPT为代表的生成式Al模型基本属于重组式创新,在进行前向推理时,模型存在将训练数据中包含的隐私数据变换、拼接后生成输出,暴露给无关用户的风险。生成式人工智能滥用导致的衍生风险主要是指在缺乏约束和监管的情况下,生成式Al技术可能被用于深度伪造虚假信息,从而进一步危害用户隐私安全。例如,ChatGPT由于其强大的生成能力,可能被不法分子用于生成钓鱼短信和邮件,一些多模态大模型也可能被用于生成用户语音、图像和视频,进行诈骗攻击。这些行为不仅侵犯他人的肖像权、隐
21、私权、名誉权,还可能被用来实行勒索诈骗等违法犯罪活动。-人工智能隐私保护法规政策和标准化现状2.1 人工智能隐私保护国内外法律法规和政策2.1.1 国内情况随着数据安全法个人信息保护法与网络安全法三法的落地实施,我国数据安全领域法律框架基本搭建完毕,在人工智能安全领域,我国目前尚未对人工智能治理进行综合立法,但已有较多针对数据安全与信息保护的专门立法实践。(D法律层面个人信息保护法确立了以“告知-同意”为核心的个人信息处理规则,详细规范了平台企业的大数据使用和用户画像行为,约束处理个人信息的行为。2021年1月1日,中华人民共和国民法典正式施行,针对人工智能隐私相关问题,民法典规定人工智能技术
22、的使用需要遵守相关法律法规,保护个人信息安全,并对其造成的损害承担相应的法律责任。(2)部门规章层面2017年国务院印发新一代人工智能发展规划,其中明确指出要“确保人工智能安全、可靠、可控发展”“形成人工智能算法与平台安全性测试评估的方法、技术、规范和工具集”。2021年12月,网信办发布互联网信息服务算法推荐管理规定,该管理规定主要对各类算法技术的适用场景和企业使用算法时需恪守的强制性义务及违反后的惩罚措施做了详细规定,明确指出算法推荐服务提供者应当建立数据安全和个人信息保护管理制度和技术措施。此外,最高人民法院于2022年12月发布了关于规范和加强人工智能司法应用的意见,要求人工智能建设要
23、确保国家秘密、网络安全、数据安全和个人信息不受侵害。2023年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局发布了生成式人工智能服务管理暂行办法。该办法的出台既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。办法明确要求,参与生成式人工智能服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的个人隐私和个人信息应当依法予以保密,不得泄露或者非法向他人提供,且要尊重他人合法权益,不得危害他人身心健康,不得侵害他人隐私权和个人信息权益。另外,工信部发布了“十四五”信息化和工业化深度融合发展规划,对智能产品在工业、交通
24、、医疗、教育等重点行业的应用推广进行了系统性的部署。2021年9月,科技部发布的新一代人工智能伦理规范围绕管理、研发、供应、使用和组织五个环节提出了18项具体规范,将抽象的伦理原则以具体规范的形式融入了人工智能全生命周期,推动形成具有广泛共识的人工智能治理框架和标准规范。市场监督管理总局组织起草的互联网平台分类分级指南(征求意见稿)和互联网平台落实主体责任指南(征求意见稿)也于2021年年末开始向社会征求意见,有望通过合理划分平台等级,推动超大型平台承担更多责任与义务,形成更为细致合理的平台责任规范。其他部委如人民银行、人力资源社会保障部、卫健委等也在具体领域积极出台政策文件,共同促进人工智能
25、治理在我国落地生根。(3)地方层面2022年,上海、深圳等地发布促进人工智能产业发展相关条例,湖北、四川等地发布了省人工智能相关发展规划。2023年5月,北京市人民政府印发北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年),提出充分发挥北京市在人工智能领域的创新资源优势,持续提升全球影响力,进一步推动人工智能发展,到2025年,人工智能核心产业规模达到3000亿元,持续保持10%以上增长,辐射产业规模超过1万亿元。此外,深圳经济特区人工智能产业促进条例于2022年9月6日正式公布,条例创新性地规定市政府应当设立人工智能伦理委员会,并明确指出从事人工智能研究和应用的
26、组织或者个人,应当遵守人工智能伦理安全规范,不得从事危害国家安全和社会公共利益、侵犯个人隐私和个人信息权益、实施价格歧视或者消费欺诈等七类行为。从国内的发展情况来看,党和国家高度重视人工智能时代下隐私保护面临的新挑战,近年来人工智能隐私保护相关的法律法规、政策正在紧锣密鼓的制定,步伐夯实稳健,我国人工智能隐私保护顶层设计正在不断构建。2.1.2 国外情况近年来人工智能在深度学习、人机协同等关键领域呈现出蓬勃的发展态势,但其日益凸显的隐私与安全问题也为人类权益、社会公平和国际格局带来了风险和挑战。为此,世界各地的监管机构持续致力于人工智能系统的规范使用,近年来起草、讨论、通过、发布和生效了大量法
27、律法规、原则性文件与行政命令。(D欧盟和英国欧盟和英国关于监管人工智能的建议在范围和方法上有明显差异,并考虑了部署人工智能系统的组织可以采取哪些步骤,以确保这些建议从最初阶段能符合GDPR(通用数据保护条例)。该条例被称为史上最严格的条例,于2018年生效,规定了数据控制者和处理者的责任和义务,设立了数据保护官,增大了处罚力度。人工智能的设计和运行需要获取的所有数据,都受到该条例的有效约束。欧盟选择了一个广泛的立法框架,而英国选择依靠部门监管机构,并将推行一项侧重于促进技术进步和保持人工智能“超级大国”地位的议程。英国人工智能战略于2021年9月22日公布(人工智能战略)o-16-该计划是一项
28、十年计划,英国打算通过该计划“促进人工智能的商业应用,吸引国际投资,培养下一代科技人才”,同时将自己定位为人工智能治理的全球领导者。根据人工智能战略,人工智能代表了“最高水平的经济、安全、健康和福祉优先”。英国政府认为“在人工智能领域保持竞争力对我们的国家雄心至关重要,同时,英国人工智能办公室(OfficeforArtificiaIIntelIigence)打算发布一份关于人工智能促进创新立场的白皮书(人工智能白皮书)。作为人工智能白皮书的前奏,英国政府于2022年7月20日发布了一份题为建立有利于创新的方法来监管人工智能的政策文件(人工智能政策文件)。这份人工智能政策文件阐述了英国政府的愿景
29、,即建立一个“相称、轻触和前瞻性”的监管框架,使英国能够跟上全球竞争对手的步伐。同时英国中央数字办公室等机构在2021年11月发布算法透明度标准,涵盖了数据要求、透明度模板和行动指南等内容,为政府部门和公共机构利用算法进行决策提供支持。与英国相反,欧盟选择了广泛的立法方式,正在敲定发布世界首部人工智能法案。作为人工智能监管在全球范围内的“第一推动者”,2021年欧盟继续采用全面立法的方式规范人工智能在各行业的应用,并于4月21日发布人工智能法提案,这是世界范围内首部对人工智能进行综合性立法的法案。该法案将人工智能应用划分为不可接受的风险(Unacceptablerisk)、高风险(Highri
30、sk)、有限风险(Limitedrisk)和极低风险(Minimalrisk)四类。其中,涉及操纵人类行为的“潜意识技术”,利用儿童和残疾人脆弱性或可能影响社会信用评分的人工智能应用被认为具有不可接受的风险,法案禁止该类应用上市;涉及公共基础设施、社会福利、医疗服务、教育培训等领域的人工智能应用被认为具有高风险,法案提出应在其上市前进行充分的风险评估,确保算法偏见最小化、活动记录可追溯,并引入合适的人力监管措施以最大限度地减少风险;聊天机器人等对人类生存安全与基本权利具有有限风险的人工智能应用,法案仅明确了其向用户公开透明的义务;电子游戏和垃圾邮件识别软件等对人类安全与权利不产生影响或者影响甚
31、微的极低风险的人工智能应用,法案并未进行干预。2019年4月,欧盟委员会发布了正式版的人工智能道德准则可信赖人工智能的伦理准则,提出了实现可信赖人工智能(TrustworthyAl)全生命周期的框架。该准则提出,可信赖Al需满足3个基本条件:合法的(lawful),即系统应该遵守所有适用的法律法规;合伦理的(ethical),即系统应该与伦理准则和价值观相一致;稳健的(robust),即从技术和社会发展角度来看,可信赖Al必须是鲁棒的。2022年6月生效的数据治理法案是欧洲数据战略框架下的第一份立法草案。数据治理法案强调规则创新,鼓励数据共享、提高数据利用效率,进而让数据资源的流转利用服务更高
32、的公共政策目标:一是建立公共部门持有数据的再利用机制,二是建立框架以促进数据中介机构的发展,三是对于数据利他行为做出规范化的引导。2023年6月14日,人工智能法案授权草案在欧洲议会高票通过,人工智能法案授权草案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案严格禁止对人类安全造成不可接受风险的人工智能系统,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统,并扩大了人工智能高风险领域的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。(2)美国2016年10月,美国政府发布国家人工智能研究和发展战略规划和国家人工智能研究和发展战略规划(
33、2016)两项报告,提出实施“人工智能公开数据”计划。2019年2月,美国总统特朗普签署人工智能倡议发展规划,进一步指示加强联邦政府、机构的数据、算法和计算机处理资源对人工智能研发人员和企业的开放。2019年6月,美国政府发布国家人工智能研发与发展战略计划(2019),新版本中要求所有机构负责人审查各自联邦数据和模型,注重保护数据安全、隐私和机密性。2020年1月,美国政府发布人工智能应用监管指南,要求联邦机构继续促进技术和创新进步的同时保护美国的技术、经济和国家安全、隐私、公民自由和其他美国价值观。2019年,美国颁布了2019年国防授权法案,依据此授权法,美国成立国家人工智能安全委员会(N
34、ationalSecurityCommissiononArtificialIntelIigence),研究人工智能和机器学习方面的进展,以及它们在国家安全和军事方面的潜在应用。此外,依据2019年国防授权法案,美国国防部创建了联合人工智能中心(JAlC),作为开发和执行总体人工智能战略的责任机构。2021年1月,美国正式颁布2020年国家人工智能倡议法案,旨在确保美国在全球人工智能技术领域保持领先地位。该法案强调要进一步强化和协调国防、情报界和民用联邦机构之间的人工智能研发活动;同时,设立国家人工智能倡议办公室,承担“监督和实施美国国家人工智能战略”等职责。2020年5月,生成人工智能网络安全
35、法案出台,该法案要求美国商务部和联邦贸易委员会明确人工智能在美国应用的优势和障碍,调查其他国家的人工智能战略,并与美国进行比较;评估找出对应的供应链风险及解决方案,制定国家人工智能战略的建议。2022年6月3日,美国参议院和众议院发布了美国数据隐私和保护法(theAmericanDataPrivacyandProtectionAct,ADPPA)的草案,该立法草案是第一个获得两党两院支持的美国联邦全面隐私保护提案。这项具有分水岭意义的隐私保护法案,将为数据隐私保护引入一个美国联邦标准。2023年5月下旬,拜登政府采取了几项额外措施,进一步明确其人工智能治理方法。同时,美国白宫科技政策办公室(O
36、STP)发布了修订后的国家人工智能研发战略计划,以“协调和集中联邦研发投资”。OSTP还发布了一份信息征询书,征求关于“减轻人工智能风险,保护个人权利和安全,利用人工智能改善生活”的意见。2023年10月下旬,拜登政府签署了一项旨在改善人工智能安全的行政命令,这是美国迄今为止最全面的人工智能规则和指南,具有里程碑意义。行政令规定了“人工智能安全新标准”、“保护美国公民隐私”等内容,明确要求开发高级人工智能系统的公司应与美国政府分享安全测试结果、加强对隐私保护技术的支持和研究等。(3)日韩2022年4月22日,日本政府在第11届综合创新战略推进会上正式发布人工智能战略2022,作为指导其未来人工
37、智能技术发展的观战略。该战略提出推进数据合作和标准化,防止数据偏差、人工智能技术滥用的风险;确保数据真实性和数据所有人的知情权;构建数据存储的基础设施,确保供应链的安全性。2023年4月21日,日本政府决定设立新的“战略会议”及uAI战略小组”,负责讨论与人工智能相关的国家战略。对于正在迅速普及的聊天机器人ChatGPT等整个人工智能领域,上述“战略会议”将发挥指挥塔作用,指明政策的基本方向。针对人工智能方面课题,该会议将从促进应用、研究开发和强化规则两方面进行讨论。除精通人工智能技术的学者和研究人员外,法律相关领域的专家和政府相关人士也将加入上述“战略会议”。2020年1月,韩国科技部公布2
38、020年度工作计划,正式启动人工智能国家战略,意图推动韩国从“IT强国”发展为uAI强国”,计划在2030年将韩国在人工智能领域的竞争力提升至世界前列。其中提到发展人工智能,必须对数据进行收集以及利用。数据作为人工智能发展的核心,人工智能国家战略表示数据安全具有多种隐患,需要对相关法律法规进行修改。2020年12月24日,韩国科学和信息通信技术部和国家事务协调办公室共同发布了人工智能立法路线图,包括了11个领域的30项立法任务,旨在奠定人工智能时代的法律基础。韩国认识到,在大力推动人工智能发展的同时,需要尽快推动现有立法的变革。为此,韩国科学信息通信技术部成立了立法研究小组,组织法学、人文、社
39、会科学和哲学等多领域的人员,共同草拟这个立法线路图。算法决策对政治、社会、经济和文化具有重大影响,因此有必要确保算法的透明性和公平性,以建立应用人工智能技术的信任基础。2020年12月22日,韩国科学与信息通信技术部发布了国家人工智能伦理标准,通过制定人工智能伦理规范,打造安全的人工智能使用环境,为韩国未来人工智能发展和负责任使用提出了方向和指引。随着人工智能技术的快速发展和应用,个人隐私保护面临着不断演变的挑战。从世界范围观察,近年来各国尤其是发达国家正不断加强人工智能隐私保护法规政策的制定和执行,建立有效的监管机制,以确保个人隐私权得到充分的保护,为人工智能隐私保护相关技术在全球范围内的应
40、用及全球化合作交流提供保障和支持,逐渐在人工智能发展中平衡创新与隐私保护的需求。2.2 人工智能隐私保护国内外相关标准化情况2.2.1国内相关标准研究情况我国人工智能领域标准建设由国家牵头统一布局,2020年7月,国家标准委、中央网信办、国家发展改革委、科技部、工信部联合印发国家新一代人工智能标准体系建设指南,旨在加强人工智能领域标准化顶层设计、推动人工智能产业技术研发和标准制定、促进产业健康可持续发展。在标准体系结构中,“安全/伦理”单独成块,贯穿于其他部分,为人工智能建立合规体系。指南明确指出,安全与隐私保护标准包括基础安全、数据、算法和模型安全、技术和系统安全、安全管理和服务、安全测试评
41、估、产品和应用安全六个部分。我国人工智能安全国家标准,主要归口于全国信息安全标准化技术委员会(简称“信安标委”或TC260)o截止2023年7月,已有处于征求意见阶段的信息安全技术人工智能计算平台安全框架(20230249-T-469)以及处于批准阶段的信息安全技术机器学习算法安全评估规范(20211000-T-469)两项人工智能安全国家标准,另有基因识别、声纹识别、步态识别、人脸识别数据安全要求四项国家标准,规定了生物特征识别数据处理的基本安全要求、全生命周期中的安全要求以及应用场景中的安全要求。此外,我国企业、高等院校等也积极参与国际安全标准制定工作,在人工智能安全领域,清华大学在IEE
42、E标准协会牵头立项了生成式预训练Al模型的安全性和可信性技术要求(P7018)国际标准。在行业人工智能安全领域,已有面向特定行业的人工智能算法安全、算力安全处于征求意见阶段,例如信息通信领域人工智能算法安全评估指南、电信领域人工智能算法安全要求、互联网深度合成信息由员务标识通用安全要求、算力网络计算节点安全能力要求等。2. 2.2国外相关标准研究情况2017年10月IS0IECJTC1在俄罗斯召开会议,决定新成立人工智能的分委员会SC42,负责人工智能标准化工作。SC42目前已成立5个工作组,包括基?蜗隹(WG1)、大数据(WG2)、可信赖(WG3)、用例与应用(WG4)、人工智能系统计算方法
43、和计算特征工作组(WG5)o其中,SC42WG3人工智能可信标准组已经开展人工智能风险管理、人工智能的可信度概览、算法偏见、伦理等标准研制。IEEE标准协会主要聚焦于涉及人工智能伦理道德规范的标准研究,已经发布了多项人工智能伦理标准和研究报告。IEEEP7002数据隐私处理指出如何对收集个人信息的系统和软件的伦理问题进行管理,将规范系统/软件工程生命周期过程中管理隐私问题的实践,也可用于对隐私实践进行合规性评估(隐私影响评估)。2019年5月1日,美国国家标准与技术研究院(NIST)发布人工智能标准化计划纲要,将人工智能数据安全与隐私保护相关标准化纳入人工智能可信标准领域。2022年2月,全球
44、移动通信系统协会(GSMA)发布了人工智能安全指南第一版,概述了人工智能应用潜在的风险并提供了相对应的防护措施。2023年1月26日,美国国家标准与技术研究院(NIST)为加强对人工智能(AI)相关个人、组织和社会风险的管理,通过与私营和公共部门合作,制定了人工智能风险管理框架,该框架将可信度考量纳入设计、开发、使用和评估Al产品、服务和系统中,并基于其他机构的Al风险管理工作,确保制定过程的公开、透明。除此之外,与该框架相关的其他资源也包含在人工智能风险管理框架中。在人工智能隐私保护标准化方面,国内外还存在一定的差异。例如,国际标准化组织(ISO)发布的标准具有全球通用性,在全球范围内均适用
45、。而国内印发的相关标准主要适用于我国境内的企业和组织,与国际标准存在一定的差异。此外,由于在文化和社会背景等方面存在差异,国内外对于人工智能隐私保护的要求和做法也有所不同,例如欧洲的GDPR在个人数据保护方面比较严格,而我国则更注重技术标准和应用指南的制定。为了解决这些差异,国际标准化组织(ISO)和国内标准化工作组间已经开始展开交流与合作,以推动国际标准与国内标准的对齐。通过积极开展国际合作与对话,可以加强国内外标准的互认和对齐,形成更加全面和统一的人工智能隐私保护体系标准。三人工智能隐私保护技术和平台实践中,针对人工智能隐私保护和数据安全问题,科技公司/金融科技在尝试“以子之矛攻己之盾”,
46、即运用技术手段解决技术带来的挑战。目前,常用的人工智能隐私保护技术包括管控技术、数据加密技术、攻击防御技术以及一些新兴技术。在此基础上,业界推出了隐私保护机器学习平台和人工智能安全检测平台。2.1 人工智能隐私保护技术2.1.1 人工智能隐私保护管控技术权限管理是根据预设的规则或者策略限制用户访问被授权的资源,可以保护系统安全和数据完整性。访问控制是一种确保数据处理系统的资源只能由经授权实体以授权方式进行访问的手段。对人工智能系统实施访问和使用权限控制机制,只有授权人员可以访问和使用特定的数据,可以确保人工智能数据与模型的隐私与安全。分类分级保护可以理清楚保护需求及重点,并针对不同等级,采取相
47、应的保护措施。这种精细化的、分级化的管控手段,有助于降低系统隐私泄露带来的负面影响。智能化程度越高的人工智能应用,数据隐私风险越高。因此,可以根据人工智能应用场景和功能,对人工智能应用进行分类分级,然后定制差异化的人工智能隐私保护机制。例如,针对初级的基于人工智能技术的数据分析,可按权限申请数据调取和共享,保证数据可信共享。针对智能化程度更高的生成式人工智能应用,可采用可溯源的解决方案,应对图片、视频等生成内容进行标识,发现违法内容及时采取处置措施等。2.1.2 人工智能隐私保护数据加密技术差分隐私(DifferentialPrivacy)是一种数据匿名化技术,其最早是针对统计数据库的隐私泄露
48、问题提出的一种隐私定义。该定义要求数据集的计算处理结果对于具体某记录的变化是不敏感的,即攻击者无法通过观察计算结果来获取准确的个体信息。差分隐私保护技术通过添加噪声使敏感数据失真但同时保持某些数据或数据属性不变,来保证处理后的数据仍然可以保持某些统计方面的性质,以便进行数据挖掘等操作。LaPlaCe机制和指数机制是两种基础的差分隐私保护实现机制,分别适用于对数值型结果的保护和对非数值型结果的保护。近年来,基于机器学习的数据发布和数据挖掘技术成为热点研究方向。为了保护机器学习应用中的用户数据隐私,研究者将差分隐私技术和机器学习算法结合,提出了基于差分隐私的机器学习隐私保护方案,主要包括基于输入扰动的隐私保护方案、基于中间参数扰动的隐私保护方案、基于目标扰动的隐私保护方案和基于输出扰动的隐私保护方案。机器学习中部署差分隐私技术时仅需要通过随机化和利用随机噪声扰动数据,因此并不会带来过多额外的计算开销。同态加密(HomomorphicEncryption)是一种加密形式,允许用户直接对密文进行特定的代数运算,得到的数据仍是加密的结果