程 尧,蔡一军
(上海政法学院刑事司法学院,上海201701)
中国科学技术协会对于算法的定义是:“算法(Algorithm)是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。”[1]在人工智能时代的今天,在大数据技术与物联网技术的推动下,人工智能算法所摄取数据信息愈加丰富,算法程序愈加自主化、类人化,“算法”的核心地位也越发明显,它的发展使我们的生活更加便捷,但在这繁荣之下我们应当意识到它就像“潘多拉魔盒”一样充满了不确定性和不可控风险因素,需要及时发现并进行法律规制。
在面对各类风险过程中,在结合我国实情的基础上需要进一步参考欧美各国的治理经验,在法律框架内完善各项法律原则以及公民权利配置、健全专门的行政监督机构、积极推动行业自律产业发展并对于人工智能算法侵权的责任划分作出明确的界定。
(一)算法设计缺陷风险 尽管目前主流的各类人工智能产品处于弱人工智能阶段,但在近些年的快速发展下,我们已经积累了丰富的实践经验,构建起了相对成熟的理论体系,尤其是自动驾驶、智能推荐等发展较早的领域已经投入商用,但在完善技术规范以及建立统一的、恰当的法律标准上,世界各地都不同程度地存在滞后与监管空白。正是这方面的原因,致使人工智能算法领域很难得到有效的监管,近年来“特斯拉”电动汽车致死案以及两起波音737MAX8 空难事故等都与相关驾驶控制软件的设计缺陷不无关系。尤其是在这些危险系数较高的领域,智能控制软件已经成为各种大型交通工具、机械设备的核心,往往是人类做出决策或操纵设备的重要参考,甚至在某种程度上代替人类进行自动决策,所以算法上任何细微的瑕疵都会造成无法挽回的损失。
(二)个人隐私泄漏风险 软银CEO 孙正义曾说:“谁控制了数据,谁就控制了世界”。[2]如果把人工智能算法比作一个人的灵魂的话,那么数据就是算法的血液。所以数据的质量决定了算法的效果,算法的好坏决定了数据的安全性。现阶段涉及个人隐私的算法数据呈现出以下三个特点:储存成本低廉、数据产生后会被各方多次重复利用、数据获取渠道及其内容更加多元。基于算法数据的以上三个特点,隐私泄漏风险容易出现在以下三个阶段:
1.数据的获取阶段。2019 年7 月,英国《卫报》报道了苹果公司的人工智能语音助手Siri会在未经用户允许的条件下,将手机端录音上传至其服务器,并由第三方公司进行数据分析,据说窃听的内容包括毒品交易、机密医疗信息等,另外还会显示位置、联系方式、应用数据等私人信息。[3]无独有偶,谷歌、亚马逊等知名公司均被爆料存在此类侵权行为。另外,随着物联网技术的发展,私人领域的智能家居、智能医疗设备、可穿戴设备以及公共场合的图像、语音采集设备均会在相对方没有授权、无人监管的状态下获取大量个人隐私数据并上传和智能分析。[4]
2.数据存储阶段。当前,各类用户数据成为了无形的金矿与各方势力争相掠夺的战略资源,数据资源的储存安全也随即成为我们需要面对的一个挑战。2019年是人工智能技术突飞猛进的一年,也是数据存储安全面临挑战最为严峻的一年,比如2019 年末,Elasticsearch 服务器接连泄漏数十亿级的个人数据,腾讯、新浪、搜狐、网易等国内邮件提供商均受到波及,[5]然而被爆料出来的泄漏事件仅仅是“冰山一角”,数据泄漏所造成的损失只会比我们的预期更糟。
3.算法处理阶段。数据处理阶段的隐私泄漏风险主要体现在对于原始数据进行整合、挖掘后会反映出数据主体近期处于何种状态、有何种待办事项、将要从事什么行为等。比如目前各大电商平台推出的“千人千面”的商品智能推荐系统,原理就是根据每一位用户长期的购物喜好以及搜索习惯,结合该公司旗下各类平台针对该用户打造的专属于该用户的“数据画像”,某种程度上它可能比你自己更了解你的“需求”。我们不妨作进一步设想,如果该平台由于保管不善或者出于其他商业目的,将类似的信息泄漏出去,不仅会泄漏我们的隐私还会为电信诈骗分子从事违法犯罪活动提供便利。
(三)“算法集权”风险 同样是以“千人千面”为特征的新闻资讯智能推荐算法,看似在为我们提供个性化、定制化贴心服务,实则存在着巨大的“集权”风险。算法会根据我们的兴趣爱好、阅读习惯不断推送相关内容,短期来看确实满足了我们的现实需要,给用户带来了良好的体验,但长此以往阅读内容便会严重同质化,我们的视野和兴趣就像温水煮青蛙那样变得僵化和单一,会慢慢丧失对于新闻资讯的选择权,因为你所看到的都是被人工智能算法筛选过的,你只会被集权的算法束缚的越来越紧,自己却浑然不知。所以这类智能算法的贴心服务在某种程度上是对人们自主选择权有意或无意的剥夺,我们无法逃避这一现实,因为几乎所有的资讯软件都在不同程度上使用此类算法,这只会加剧我们对于不同领域认知的隔阂以及不同社会群体的分化,加剧了互联网诞生后得到缓解的“信息不对称”现象。[6]
(四)歧视风险 人工智能背景下的算法歧视可以根据其产生的原因分为技术和人为因素两类。
1.技术因素导致的歧视。目前处于弱人工智能阶段的所谓“智能”就是通过海量的数据对预先建立的算法不断训练,让已有的算法不断进行深度学习,不断试错,进而不断完善各种问题,在这个过程中一些必然会遇到或者出现的错误就容易演变为“歧视”的意味,实则并非算法设计者的本意,例如早期的部分人像识别算法就出现过将黑人误识别为黑猩猩的情况,所以这类“歧视”大多是由于算法缺陷的缘故造成的。[7]
此外,技术因素导致的歧视还包括数据失真等情形,用于人工智能算法训练的数据必须全面而海量,那么使用者便会通过各种渠道获取数据,这个过程中势必收集到存在问题的数据,这是无法避免的,但算法的数学特性决定了即使是一个微小的数据瑕疵也会在大量的数学运算中被无限放大且无法消除,有时这种量化的偏差体反映到现实生活中便造就了歧视。
2.人为因素导致的歧视。人为的因素归根到底只来自于一个原因那就是“主观的偏见”,现阶段人工智能技术在某种程度上体现的还是背后人类主观的意志,设计者主观的偏见可以在算法运行的任何一个阶段体现出来,他们可能是根深蒂固的认知误区,也可能是出于利益的考量,还可能是宗教、文化的不认同等等,思维的不一致让他们形成了先入为主的观念,进而导致他们在设计、实施算法的过程中产生了歧视的结果。
(一)数据源头监管立法强化行业主体责任模式如前所述,人工智能算法风险主要来源于数据采集、存储以及算法运行两个阶段,而对于数据层面风险的管控是目前最为现实可行,也是最为重要的环节。
欧美等国在算法风险规制领域较为成熟,已经产生实际效果的立法项目也主要集中在对于数据的治理上,欧盟与美国在具体的立法趋势以及规范内容上也各有千秋,欧盟于2018年5 月25 号生效的《通用数据保护条例》可以说在法律规范以及司法实践等方面树立了堪称典范并可供借鉴的榜样,该条例以“严苛”著称,稍不合规就有可能面临最高达2000 万欧元或者企业全球营业收入百分之四的罚款。[8]当然,与之匹配的必然是法律规范的进一步体系化与精细化,首先就体现在该《条例》不仅适用欧盟内部的数据使用主体,还将直接约束任何与欧盟内部成员国有业务来往的数据使用主体。此外GDPR 不仅规定了对姓名、性别、电话、住址等传统个人信息的保护,同时还将保护范围扩大至生物识别数据、健康数据、基因数据、个人兴趣爱好、社交数据等信息。在数据主体权利方面,GDPR的出台也使得访问权、更正权、反对权、被遗忘权、数据携带权、限制处理权等权利应用而生。[9]条例中最为重大的突破便是确立了以下关于个人数据处理的七大原则:1、公平、透明、合法原则;2、正当目的原则;3、准确性原则;4、数据最小化原则;5、存储期限原则;6、完整性与保密性原则;7、权责一致原则。
同欧盟成体系化的法律规范相比,美国的相关规定更集中于各种判例、部分专业领域法案以及地方性法案。诞生于1996 年的《健康保险携带和责任法案》(HIPAA)是美国最有代表性的关于个人数据保护法案,该法案制定了医疗健康产业的标准规范,就医疗服务机构所使用、存储的个人敏感数据制定了严格而全面的规定,然而后续的一系列医疗数据泄漏事件表明HIPAA 并没有起到预期的作用。[10]为了尽快应对这一现状,美国各州迅速开展了积极且富有成效的探索,最为引人注目的便是于2020年1月1日生效的《加利福尼亚州消费者隐私法案》(CCPA),该法案不同于以往针对特定行业隐私权利的规定,而是明确规定了消费者对于被企业收集和使用的个人数据拥有更加丰富的控制权,比如访问权、删除权、知情权等。[11]
(二)完善行政以及外部监督机构模式 对于算法的外部审查可以通过建立和完善行政审查机构、第三方专门审核机构两个途径来实现,这两个机构各有利弊并互为补充。行政审查机构主要是指由各国政府牵头成立的在数据收集以及算法运行等领域运用行政力量进行审查、监督、处罚的执法机构,美国的联邦贸易委员会、欧盟的数据保护委员会、日本的个人数据保护委员会等行政机构自成立至今借助行政监管力量快速、有效的优势在近年来已经接连处理了涉及苹果、谷歌、脸谱等知名跨国互联网公司涉及数据以及算法相关的侵权案件。
算法的行政审查机构对于政府审查及监督算法的正常运作是必须的,但随着算法以及数据技术的飞速发展,对其进行审查及监督的专业化门槛也越来越高、行业规模也越来越大,这些都是造成行政审查机构应对力不从心的重要因素。为了避免贪大求全而浪费行政审查资源,继而采取对于过程动态抽查、对于结果严格控制的方式开展行政审查,逐步将一部分由行政力量审查的监督工作让渡给经过政府注册的专业化第三方认证、审核机构实施,不失为一种可行的解决方案。[13]这样既可以将行政监督力量从繁杂的工作中解脱出来,从而使审查工作更加有针对性和全局性,同时也可以充分调动市场资本与社会专业力量来有效提升审查、监督的质量。例如美国白宫就于2016 年发布了《大数据报告:算法系统、机会与公民权利》,建议算法行业以及研究机构一起主动开展算法审计以及大数据系统的外部测试,以避免大数据可能带来的歧视和偏差,从而将算法相关技术可能的负面影响降到最低。
(三)算法解释权模式 所谓算法解释权就是政府以及用户有权要求与算法设计、编制、运行控制相关的企业对算法自动决策的过程及其结果做出合理、合法的解释并更新数据或更正错误。[14]因为如果一个决策可以被解释并为大家所理性认识的话,那么我们就可以更全面地了解此算法的风险与不足,从而进行改进,即使侵权事件发生以后也可以正确地划分责任,实现公平正义。目前,IEEE、ACM等业界的代表机构以及欧美的部分算法专家就已经着手相关事宜,以期促进算法的可解释性。IEEE 于2016年发布的人工智能及自动化系统伦理设计白皮书中提出了对于人工智能和自动化系统应有解释能力的要求;[15]ACM也于2017年的《关于算法透明性和可问责性的声明》中鼓励使用算法决策的系统和机构对算法过程和特定决策提供解释;[16]欧盟更是于2018 年5 月生效的GDPR 中直接规定并创设了解释权,要求所有与欧盟有关的企业对其算法决策进行解释。
但是伴随着热议,也必然存在一些不一样的声音。有研究者认为,伴随着人工智能算法技术的不断进步,强人工智能阶段的算法会变得极其复杂并不可控,相应地对其进行准确和详细的解释也是难上加难。但总的来看,算法解释权在法律上不失为一种理性且合法的进路,只是现阶段在技术的可行性上还需要不断探索与实践。
(四)数据保护官(DPO)模式 数据保护官模式就是GDPR 规定的一种综合的、二元的集行政监督、行业自律于一体的。旨在增强数据以及算法技术安全性、可解释性的透明化进路,该模式最早源自于德国的个人数据保护顾问制度。GDPR 中规定,拥有250名员工以上的涉及处理敏感数据的企业、组织需指定一位数据保护官(DPO)。[17]其中DPO 不仅应当具备一定程度的计算机专业知识并能够直接阅读算法,还应熟知企业所涉及数据、算法活动对应风险防范的法律规定,从而更容易发现问题并及时采取措施。
数据保护官既是企业负责日常数据、算法技术安全监督的员工,依据法律规定从事对部分存在巨大风险的技术项目进行事前检查、日常安全评估、审计等工作,同时DPO也受到数据监管局的管理并接受其业务指导,在必要时可以直接向数据管理局汇报工作并获得其帮助。这样的制度设计使得DPO享有独立行使职责,且不受公司高层干扰的权利。较其他模式而言,DPO模式最大的意义在于这样既保护了企业相关数据、算法技术的商业秘密,又可以让DPO没有束缚地履职尽责,降低了技术门槛,提升了执法效能,实现了企业经济效益与社会秩序价值的平衡。
(一)我国算法风险规制现状 我国对于算法及数据技术风险的法律规范还处于初始阶段,总体设置上相对分散和不完善,数量有限且不完全能够符合现阶段技术发展需要,比如现阶段在司法实践中能够被用于解决数据及算法侵权案件的已生效法律规范资源相对匮乏,大概分布于《中华人民共和国刑法》、《中华人民共和国民法》、《中华人民共和国网络安全法》、《中华人民共和国电子商务法》等若干已出台的法律规定中。即使最新修订的《刑法》修正案进一步加强了对于公民个人信息保护,扩大了犯罪主体的范围, 同时完善了对于其他网络犯罪行为的规定,但随着我国人工智能等信息技术的不断发展,不论是规范的范围还是实践的效果上都显力不从心。此外,纵观所有涉及计算机算法、数据技术的法律规范条款的内容上,总体呈现出重刑轻民的现状,而日常生活中多数侵权案件不会严重到触及刑法,这就造成对处在刑事和民事之间的侵权案件,司法机关缺乏法律来进行有效的处理,遇到此类案件目前只能由相关行政机关进行处理而无法形成统一的标准和长效的治理,且即使存在相关规定也由于表述较为抽象、内容不完善、责任划分模糊而缺乏可操作性。
在行政法规与部门规章层面,由于较立法程序更为灵活、自主、有针对性的缘故,国务院、各地区、各部门相关规定的制定呈现出紧跟国际先进理念、日新月异的局面。例如,近年来由国务院及其各部门相继出台了《数据安全管理办法》、《新一代人工智能发展规划》、《信息安全技术个人信息安全规范》、《互联网个人信息安全保护指南》、《移动互联网应用(APP)手机个人信息基本规范》、《信息安全技术个人信息告知同意指南》、《云计算服务安全指南》等一批既符合我国国情也具有国际水准的法规、规章,逐步构建起了具有中国特色的能够积极应对并有效解决我国目前数据及算法治理困局的行政法规体系,其中《数据安全管理办法》堪称中国版的“GDPR”,该规章对个人数据安全的各个方面进行了细致的规定,为进一步规制算法风险和进行相应的立法活动提供了明确的技术指引和丰富的实践经验。
总的来看,我国现阶段对于算法风险的规制处于初期阶段,还没有出台专门的关于数据以及算法风险规制的法律,但这一现状是国内外现阶段所共同存在的,需要我们在未来的一段时间来面对和解决。
(二)我国应对算法风险中长期规划进路展望
人工智能背景下算法演进过程中产生各种风险是必然的,而且随着信息技术的飞速发展,它给人类带来的挑战也势必与日俱增。经过前几部分的分析我们发现,算法的价值来自于数据,同样风险也源自于数据,近期只有在管控好公民个人数据安全的基础上进一步研究算法安全才更有意义。其次,必须将完善公民各类数据权利、厘清不同主体之间的责任划分、规范各类行政监督制度、健全行业自律机制等各种措施,通过法律的形式将各类预防和规制措施确定下来。在应对个人数据及其算法风险的立法活动中,应着重针对以下几个方面不断深入并细化相关规定:
1.法律原则方面。参考欧盟《通用数据保护条例》(GDPR)、加拿大《隐私法》(PIPEDA)以及美国《加利福尼亚州消费者隐私法案》(CCPA)等已经颁布的各项法律原则,我国也应当及时确立符合我国实情的数据及算法风险规制的法律原则,主要为以下几个方面:
(1)合法性原则:个人数据信息的收集、存储、迁移以及相关处理算法应该公平、合法。
(2)目的明确、限定原则:即数据信息使用者以及算法程序设计、使用者对于所获取的数据以及设计的算法有特定、明确、正当的使用目的,且该目的应该处于必要、合理、合法的范围内。[18]
(3)反对原则:在任何企业、单位涉及个人数据的收集、使用以及对其进行算法处理时,如果存在泄漏隐私、歧视等风险,数据主体有权反对对其数据的任何操作。[19]
(4)备案审计原则:应当对各类数据、算法、模型等进行备案,以便在需要之时对其进行评估或审计。
(5)相对透明化原则:即不强制要求数据使用者或者算法设计者及其使用企业对外完全公开数据及算法程序,但应当适时地向社会公布数据的用途以及对于算法中可能涉及重大公众利益的决策程序进行适当的解释,并鼓励通过备案、注册等间接方式保障算法公平。[20]
(6)严格审核原则:政府行政监管部门、企业内部、第三方认证机构等应当建立定期或者不定期监督、审查机制,严格执行测试流程,及时发现数据及算法存在的各类风险并采取措施。
(7)问责原则:数据及算法使用者应当对其数据使用结果以及算法所做决定承担责任。
2.健全个人权利配置。 现阶段面对各种风险我们所能够做到的、最具现实意义的应对措施就是针对源头数据、算法程序进行细致的规制,那么首先就需要对个人涉及数据、算法方面的权利进行完善。
(1)否定权:在一些情况下,数据主体可以要求数据使用者停止处理其数据,特别是可能泄漏个人隐私或者存在其他不良风险的时候。
(2)数据更正权。如果数据主体发现数据有误或者不完整,可以要求数据使用者及时予以更正。
(3)数据删除权:当数据主体撤回同意或者认为数据使用者对数据的处理不再具有最初的合法目的时,数据主体可以要求数据使用者删除或者移除其个人数据。[21]
(4)算法解释权:指在人工智能背景下,算法决策程序的某些决定如果对相对人的法律及其他权益造成了侵害,相对人可以向算法程序的使用者及其设计者提出异议,并要求其对算法决策程序进行解释。虽然现阶段在算法解释实践中遇到了来自于人工智能算法解释困难、商业秘密保护等两方面的困境,但目前弱人工智能阶段中,算法绝大多数属于大数据背景下可控、可解释的高阶函数,即使对于黑箱性质的深度学习人工智能算法也还是可以通过隐层分析方法、模拟/代理模型、敏感性分析方法等三类途径进行解释。此外,借鉴欧盟《通用数据保护条例》(GDPR)中的数据保护官(DPO)模式便可以实现既有效保护商业秘密及其知识产权,又增强企业内部对于数据及算法技术的解释和监督工作,从而有效推进算法透明化的进程。
3.健全行政监管力量,完善行业自律机制。首先,就行政监管机构而言我国此前还没有成立真正意义上的专门针对数据及算法技术监管的相关部门,根据最近我国陆续发布的《数据安全管理办法(征求意见稿)》、《个人信息保护法(专家建议稿)》等文件,可以看出国家将会建立以网信部门为统筹、国务院各主管部门负责各自职责范围内监管工作的行政体系。[23]在此基础上,国家在立法中应当进一步对相关部门精简整合并细化其各种职能,广泛赋予其对于数据及人工智能算法监管所需要的各种监督与处罚的权力,在法律规范层面上明确行政监督机构的性质、地位以及权责,以便行政机构在监管活动中有法可依,且有效规范其权力的行使,从而使行政监管机构能够尽快、高效地发挥应有的作用。在行政监督审查方式上,改进我国目前主要采用的单一的备案审查的方式,增加事前和事中等动、静态结合的审查方式,即在算法投入使用前对设计不符合安全标准、有较大风险的算法予以排除,在算法投入使用以后展开随机、动态抽查,以期发现隐藏的风险。
在行业自律方面,需要建立算法审核官模式,并鼓励发展专门的第三方审核机构。正如前文介绍过的数据保护官(DPO)一样,我国可以设置在数据保护职能基础上包含算法审核职责的算法审核官,在算法透明化过程中既可以增强对算法的解释以及数据的管理,还可以实现对商业秘密的有效保护。按照数据保护官的制度设计,算法审核官制度也应当汲取其设计的关键之处,即算法审核官是属于企业的员工,但在业务领域有独立地位,受到行政监管机构的统一管理和领导,制度设计上要保障来自企业高层的压力不得影响其履行职责,这样就使算法审核官既可以获得来自于行政力量的有力支持,也可以倒逼企业提高算法风险防范的意识,逐步实现行政监管与行业自律的有机融合。此外,在下一阶段的立法工作中,需要进一步明确国家对于发展专门的第三方数据及算法审计或认证机构的支持态度,但同时也需要抓紧完善涉及个人数据安全以及人工智能算法等一系列技术标准的统一化进程,从政策上、法律上、技术上以及实施上共同推进我国高水平第三方认证产业的快速发展。
4.人工智能算法的侵权责任划分。对于侵权的人工智能产品及其算法的责任划分问题,我们需要厘清其是否可以作为民事法律主体、人工智能侵权责任主体有哪几类、侵权后的归责原则等三类重要问题,只有这样的侵权责任法律才能既充分保护受害者权益,又不限制人工智能技术的发展。
(1)明确现阶段不赋予人工智能产品及其算法民事法律关系主体地位的大方向。关于人工智能产品及其算法的法律主体资格的定位,笔者认为不应赋予其民事法律主体的资格,并在法律层面将其定性为“物”。因为人工智能产品及其算法并不具有人的身份,与法人的情形也不尽相同,既不会出生也不存在死亡,法律规范上也没有对其权利和义务相配套的规定,此外对于人工智能产品及其算法,有限的处罚措施根本无法弥补受害方在经济以及精神上所受到的实际损失和侵害,归根结底其侵权责任的承担还是要落实到相关自然人或者法人,而人工智能产品及其算法是无法独立承担全部责任的,所以人工智能产品及其算法不具备民事行为能力、民事权利能力、民事责任能力,不具备作为民事责任主体的资格。
(2)需要在立法中明确具体的人工智能产品及其算法的侵权责任主体。目前涉及人工智能产品及算法侵权的责任主体在不同的情形下主要有以下两大类需要在立法中予以明确并规范:
第一类责任主体是人工智能产品以及算法的生产以及设计者,目前的人工智能还处于初期即受人类控制的高阶函数阶段,产品和算法本身并不具有侵权的故意或者过失,在本质上仍然是由于有安全注意义务的人故意或者过失未履行义务而导致在算法设计、调试阶段以及人工智能产品测试、生产阶段导致了产品的缺陷,这就决定了在此种情况下侵权责任要归于设计者或者生产者。
第二类责任主体是人工智能产品以及算法的使用者即人工智能产品的控制者、管理者和受益者。虽然在人工智能技术日趋成熟、自主化决策愈发频繁的情况下使用者无需直接控制与管理,但不排除使用者主观存在故意或者过失,违反了相关技术规范,造成了人工智能产品及其算法侵权结果的发生,在此种情况下让使用者、受益人承担相应的侵权责任是合理合法的。[24]
(3)在立法中完善不同情形下的归责原则。在当前法律体系下,人工智能产品及其算法一旦侵权并造成了侵害的后果,如果根据过错责任原则,不论是要求受害人举证证明加害人有过错以及过错行为与损害结果之间有因果关系,还是要求加害人举证证明自身没有过错以及自身的行为与损害结果之间不存在因果关系,对于现阶段结构复杂、逻辑关联抽象、技术门槛高、透明性较差、解释困难的人工智能产品及其算法来讲,面临的困难无异于大海捞针,对于诉讼双方也将面临诉讼周期较长、成本过高的困扰,此外还会白白消耗大量的司法资源而无法快速结案。所以为了保障受害者能够得到及时、充分、公平的救济,对于生产者以及消费者应当适用无过错责任(严格责任)。
而使用者与生产者、设计者不同,他们完全不参与产品及算法的设计、生产、制造、测试等技术环节,自然也就对于人工智能自身的缺陷不存在任何主观故意或者过失,也就无需承担相应责任,但是对于在使用、管理、获益过程中因为没有尽到自己的注意义务而侵权的行为应当承担有限的过错责任。[25】
在人工智能时代,当我们面对算法导致的隐私泄漏、集权、杀熟、歧视等等社会问题时,为了进一步规制此类风险,首先需要及时确立符合我国发展需要的数据及算法风险规制原则,健全公民在个人数据信息、算法解释等增加算法透明化方面的权利配置,通过立法的方式来规范和完善行政监管机构的建设,使得执法有依据,权力有规范,此外还需要在法律规范层面给予行业自律机制明确的支持态度,最为重要的是在人工智能算法侵权行为出现时对其责任的划分于法律规范中作出清晰的界定。
总之,要使人工智能技术的发展利大于弊,就需要在不同的技术阶段结合,不同的社会需要,有针对性地完善相关的法律规范,降低不必要的损失和风险,从而推动人工智能算法技术在法律的框架下更好地为社会发展创造价值。