第四次工业革命背景下政府数字化转型的挑战和应对

2022-11-24 11:00郭一帆
临沂大学学报 2022年2期
关键词:个人信息算法人工智能

郭一帆

(1.忻州师范学院 法律系,山西 忻州 034000;2.全州大学 法学院,韩国 全州 55069)

一、工业革命和政府转型

詹姆斯·瓦特发明蒸汽机导致第一次工业革命,最终使农业社会转变为工业社会。第一次工业革命的产业核心从农产品生产转向机械化劳动生产,生产中心从生产各种农产品的农村转移到生产批量产品的工业城市。新技术的出现、人口向城市迁移以及重点工业的转移导致了农业社会向工业社会不可逆转的转变。城市成为社会、经济和政治交往的主要平台。制造业成为经济中最重要的部分,成为国家财富和权力的源泉。制造业创造了新的需求和市场,进一步加速了生产者的崛起,促进了加工工业以及其他工业的快速发展,推动了现代化工业国家的建立。类似的社会变革也体现在第二和第三次工业革命进程中。电力促进了电灯器具的发明,进而扩大了人们夜间活动的范围,也推动了诸如电报等通信设备的使用,使人们能够进行即时长途通信,缩短了获得信息的时间。然后在电学基础之上,人类发明了模仿人类大脑计算功能的计算机,随后又发明了互联网——将计算机连接成一个类似大脑的网络。计算机和互联网共同形成了所谓的信息社会(Information Society),其经济活动从物质生产转向信息处理活动。在信息社会中,人工智能(AI)、物联网(IOT)、机器人工学、大数据、云计算、无人机、3D打印机、生命工学、纳米工学等信息技术的发展推动了新一轮的工业革命——“第四次工业革命”[1]。“第四次工业革命”一词最早是在2016年达沃斯论坛(Davos Forum;World Economic Forum)上由论坛创始人兼现任会长克劳斯·施瓦布(Klaus Schwab)提出的。[2]

在第一次工业革命中,大多数国家仍处于农业国,而西欧少数几个国家如英国、法国、德国开始转型为工业社会,人口开始从农村迁移到城市,制造业成为国家经济支柱产业。英国、法国、德国等国家从新的生产引擎中获得了前所未有的权力和财富,在农业时代掌握了统治权。第一次工业革命以前,土地和农业是财富和权力的主要来源,因此国王、贵族、地主等特权阶级占有绝大多数的土地,控制着国家政权。[3]当时政府公职由继承或买卖获得,政府的政策和决策因领导人的不同而具有很大的差异,由此导致了公共行政标准缺乏全面性和一致性,进而导致当时的传统农业社会不能适应工业革命所带来的混乱,社会的混乱迫使政府公共行政开始寻求转型。此外,农业社会是以血缘关系、面对面接触、不成文规范和相互依存的社会网络为基础的,而工业社会的社会关系则是非面对面的、不以人与人之间的关系为基础。工业社会的发展导致以血缘为纽带的农业社会关系的解体,引发了社区失灵,因此需要有一种新的管理体制来协调这些匿名和非基于血缘关系的陌生人关系,这种新的社会管理体制即我们的现代政府。[4]新的政府体制取代了旧的体制,政府公职人员不再由贵族担任,土地规划不再由国王决定而是由宪法、法律、行政法规规定。政府的行政办公逐渐全面化、规范化,行政决策也逐步标准化、法治化。尽管我们把这一切变革理解为政府为应对工业革命而作出的改变,但实际上成功的转型并不容易。新技术本身并不能使一个国家过渡到下一阶段——政府需要适应新的环境,提供新的政策、程序和结构,以借助这一次工业革命的力量顺利实现转型。[5]当前,第四次工业革命如何助力政府数字化转型成为新的议题。

二、第四次工业革命中前沿技术及其应用

(一)前沿技术概述

人工智能、算法和大数据可以称之为决定未来国家竞争力的重要产业领域,是第四次工业革命的核心领域。人工智能(Artificial Intelligence)是指通过人的设计和加工而具有人性或智力的存在或智能。另一种说法是,人工智能也被称为人造智能、智能机器人或智能代理。[6]人工智能并不是单一的一项技术,而是由复杂的多种计算机技术构成的智能系统。这些技术包括人工神经网络、进化计算(由遗传算法、进化战略和遗传程序设计)、模糊逻辑、专家系统、学习分类系统、自动学习和深度学习等。[7]简单来说,人工智能可以分为软件(算法)和硬件(机器)两类。软件中的人工智能技术包括数据挖掘、文本挖掘和情绪分析。在硬件中,主要有机器人、自主车辆、人工视觉和虚拟现实等技术。[8]这些技术的应用将有助于实现工业自动化、降低成本和错误、提高效率和竞争力、创造价值和避免欺诈。人工智能技术的产生需要具备以下领域的知识:物理学、生物学、电子学和编程学,在一些特殊领域,研究人工智能甚至还需要了解神经科学、语言学、程序设计、统计学、运筹学、博弈论等方面知识。

算法是指明确描述解决某一问题的程序(过程)。[9]算法来源于9世纪波斯数学家“阿勒霍瓦里松(al-khwarizmi)”的名字,算法由逻辑(logic)和控制(control)两个元素组成。逻辑是知识解决问题,控制是策略解决问题。算法按照事先给定的顺序依命令运行并提供结果,例如,谷歌搜索算法“页面排名(PageRank)”根据文档的相对重要程度进行加权,对结果进行排序。算法具有权力性、政治性、秘密性、商业性和生活渗透性。[10]算法的权力性,是指算法可以改变人的文化、价值观,也可以判断人的重要权利受到的侵害和影响。另外,算法也具有政治性。人在与他人进行多种方式的互动中,他们的价值观和想法可以被修正和调整,也就是说,通过算法可以控制人的价值观、想法和世界观等。这些算法的控制可以被算法的创建者多样化,因此算法本身可以作为一个政治工具而具有政治性。算法还具有秘密性,即算法不容易被公开或者即使算法被公开也不容易被人了解。此外,算法在我们的生活中随处可见,并经常用于商业和生活,因此具有商业性和生活渗透性。例如算法通过分析人们的喜好,向人们推荐音乐、电影、新闻等多种服务或商品等。

大数据是指提取和分析大量整型或非整型数据的集合以及从这些数据中提取价值的技术,其规模庞大、生成周期短,提取的数据不仅包括数值数据,还包括文字和图像数据。梅塔集团(现加特纳)的分析师道格蕾妮(Doug Laney)在2001年的研究报告和相关讲座中提出了“3V”模式来定义大数据的三个特征:数据量(volume)、数据输入输出的速度(velocity)、数据种类的多样性(variety)。[11]这个“3V”模式后来成为使用最广泛的大数据的定义。之后IBM加上“准确性”(veracity)这一元素,此外还添加了“可变性”(variability)来定义其特征。

人工智能(AI)、算法和大数据构成了第四次工业革命的三大要素。其中大数据是基础要素,如果没有高质量的、大量的数据注入,那么AI技术和算法就毫无意义。反过来,人工智能和算法技术的发展也提高了数据的质量和利用效率,促进了大数据技术的发展。

(二)前沿技术在政府中的应用

人工智能、算法、大数据等前沿技术能减轻行政负担、协助解决资源分配问题,各个国家、政府机构都在努力发展前沿技术来改善政务服务。

在澳大利亚,虚拟聊天助理“Alex”减轻了澳大利亚税务局客服的服务压力。“Alex”答复了接近80%的客户咨询,并解决了客户60%到65%的问题,让澳大利亚税务局的工作人员可以利用剩余时间解决客户相对复杂的难题。[12]

在美国,洛杉矶机场的警察没有足够的警力来随时对机场人员进行检查,他们在AI的帮助下,预测了洛杉矶机场的安全日程并制定了巡逻路线,以此减少警力输出压力。在纽约和洛杉矶主要港口,类似的AI技术被用于随机安排船只巡逻路线。纽约市使用大数据和人工智能方法监测水流、识别和修复水泄漏。华盛顿特区通过检查用水趋势数据来确定潜在的水管渗漏和管道问题并为顾客提供用水高峰示警。旧金山市通过无线智能控制器运行街灯系统以降低能源成本,该系统让城市工作人员能够远程监控城市每一盏灯的性能,根据需要调整光强水平,在检测不到人类活动时减少所需的光线。此外,美国数个城市已安装名为“Shot Spotter”的侦测系统,利用分布在城市街区内的网络声音感应器,自动识别枪弹的声响并准确地报告地点。Shot Spotter的算法可以区分枪弹和其他类似声音如汽车回音,可以测量枪弹的起源、确定是否涉及多枚枪械,并识别射手移动的方向。[13]

在英国,英国自然环境研究委员会(NECK)正在向国立海洋科学中心、埃克塞特大学和南安普敦大学投资430万英镑进行传感器研究。这些传感器将帮助研究人员回答有关海洋中的问题,例如二氧化碳如何在大气和水之间流动、海洋保护区中的冷水珊瑚的健康状况等。[14]

在我国,大数据、人工智能、云计算等技术为我国政府数字化转型带来了契机。我国不断推进“互联网+政务服务”业务体系,创建电子政务app,实现了“最多跑一次”“一网通办”的便民服务。以北京市为例,市民打开“北京通”,无论是办身份证、居住证,还是办理社保卡等业务,仅需要填一张表就可以完全办理,省去了繁琐的程序和手续费。[15]又如,在疫情防控期间,“健康码”“行程码”的应用对加强疫情防控、稳定社会秩序起到了重要作用。

三、第四次工业革命对政府数字化转型提出的挑战

第四次工业革命在对政府数字化转型提供种种助力的同时,也提出了诸多挑战,这些挑战包括人工智能的伦理挑战、算法不透明和算法歧视导致的社会公正挑战、大数据公开和共享难题导致的数据利用挑战以及在信息化社会中公民个人信息保护的挑战。

(一)人工智能的伦理挑战

目前,人工智能技术似乎正在为人们做出一些次要和初步的决定,随着数据的可获得性和机器学习工具的日益成熟,未来它们可能做出具有法律后果的重要决策,这些决策可能会引发一些伦理挑战。

首先,我们如何确定人工智能的决策界限?例如COMPAS是预测犯罪分子再犯可能性的人工智能,该软件基于犯罪分子对137个调查问题的回答,推断出其再犯的可能性。也就是说,COMPAS可以对犯罪分子的犯罪经历、教育水平、职业经历、是否服用药物、精神健康状态等进行评价,并在此基础上预测再犯的可能性。美国司法部的法官们将以COMPAS的再犯危险评价为基础,决定被告保释金的数额及刑量相关的所有问题。[16]这一事实引起了人们关于人工智能决策的广泛讨论:在这种情况下,我们应该仅仅把人工智能的决策作为建议呢,还是会把它置于人类决定之上呢?换句话说,我们要把人工智能推导的决策视为一种政治正确的、价值中立的、基于证据的客观结果来遵循,还是我们仅仅将它们视为值得我们考虑的建议?我们必须为人工智能的决策定下界限。

其次,另一个需要考虑的重要问题是人工智能将如何确定“好”(或可取)和“坏”(不可取)以及“更重要”(为了谁)?换句话说,就是人工智能的决策标准是什么?当前人工智能技术广泛地应用于各种自主系统中,如无人驾驶系统或者自主武器系统,当发生人类无法介入而只有人工智能可以决策的情况时,究竟该如何决策?例如,公共汽车进行自动驾驶时,如果不可避免地卷入一起交通事故,而其智能系统只有两个坏选择,要么是选择避开附近的几名行人但是公共汽车司机将会发生危险,要么是选择保护司机而使行人受损。在这种类似“电车困境”的道德难题下,人工智能应根据什么原则进行决策是当前需要进行明确的。[17]

最后,人工智能是否应为它的决策失误负责?换句话说,人工智能能否成为权利主体(legal subject)?如果人工智能可以成为权利主体,那么根据民法,人工智能的意思表示可以认定为具有法律效力,那么基于人工智能意思表示而作出的决策产生错误的话,人工智能也可以作为责任主体承担责任。但是赋予人工智能与人类相同的权利能力和行为能力具有相当大的伦理风险,关于这一问题还需要深入讨论。

(二)算法不透明和算法歧视导致的社会公正挑战

算法不透明是信息时代最大的困境之一。不透明是算法的一个特征,就连程序员也无法完全理解该算法如何读取和处理数据。在研究机器学习算法的具体情况时,珍娜·伯雷尔描述了三种不透明性[18]:第一种我们可以称为“故意的”不透明——这是一种保密形式,使用该算法的公司故意隐瞒其工作过程。这种形式的不透明是出于保护公司秘密、保持竞争优势或避免公众监督的意图。第二种可以称之为技术文盲的不透明——这是一种功能不透明形式,表现为没有技术训练的人无法阅读代码。由于写作和阅读代码是一种专门的活动,大多数人没有接受过任何训练是无法理解算法代码的,所以造成了这种形式的不透明。例如编程人员开放了算法的源代码,这些算法可以公开使用,但对没有适当培训的人来说,它们的操作基本上是难以理解的。第三种是本质上的不透明。现实情况是,某些机器学习算法(例如神经网络)本质上是非常不透明的。给这些算法编程的人并不知道算法做出决定的依据。编程人员只是使用学习规则对系统进行编程,然后在对算法进行数据训练后,算法便会生成自己的规则集。此外,编程人员不会单独对算法进行操作,他们通常通过团队合作将旧代码组合在一起形成新系统,这就创建了一个复杂的算法生态系统,而由于编程人员较多、编程过程复杂,所以可能很难进行算法逆向推理。算法的不透明造成了人们无法确定算法的分析和决策是否符合伦理标准,因此也就无法准确判断在人工智能事故中算法是否存在问题。

此外,越来越多的学者开始关注算法歧视问题。凯西·奥尼尔在其“算法霸权”一书中写道,数学应用助推数据经济,但这些应用的建立是基于不可靠的人类所做的选择。有些选择无疑是出于好意,但也有许多模型把人类的偏见、误解和偏爱编入了软件系统,而这些系统正日益在更大程度上操控着我们的生活。[19]算法也是如此,算法程序可能包含了人类的偏见,而这种偏见导致了对少数群体的歧视。

算法的歧视大致可分为两类。第一种是指在算法的设计阶段,开发人员故意插入了一个歧视性元素,从而导致了歧视性结果。第二种可以认为,不管算法开发者的意图如何,都会产生差异效果。根据算法的程序,自动决策中包含的优先级、分类、关联、过滤等都可能继承现有社会的偏见并隐含歧视性属性。这种歧视往往很难通过技术手段消除,而从源头上甄别哪些数据带有歧视性是极其困难的,导致这一算法一旦形成并投入使用的话会对社会公平造成较大的影响。例如,谷歌的广告门户网站将关键词“黑人女孩”“亚洲女孩”和“拉丁女孩(但不是“白人女孩”)”与色情网站连接起来。另外,在针对美国国家橄榄球联盟(National Football League)的诉讼中,黑人球员声称,联盟使用的评估神经认知功能算法认为黑人球员天生就比白人球员有更低的认知功能,这使得他们更难获得与脑震荡有关的痴呆症的赔偿。[20]这一事件迅速引起了美国社会中对算法种族歧视的讨论。除此以外,算法的歧视还表现在性别歧视、国籍歧视等方面。

(三)大数据公开和共享难题导致的数据利用挑战

海量的数据产生,起到了持续触发良性循环结构、引导第四次工业革命的关键作用。大数据是信息社会最基础的元素,是提升国家和社会竞争力的有力武器。如果全社会的数据可以实现完全流通和交易,那么其价值将不可估量。数据的流通需要具备完善的数据生态系统。数据生态系统可分为五个阶段过程:第一获取阶段,即生产数据阶段。在这个阶段,可能会有收集和加工现有数据的过程;第二阶段是处理数据的阶段,为符合利用的目的进行存储、修改、删除和补充数据;第三个阶段是分析利用数据的阶段;第四阶段是将与分析和利用相关的数据结果存放在储存装置中;第五个阶段是重新使用或销毁保存的数据。[21]在这五个阶段中,第一和第二最容易实现,例如我国政府通过多种方式收集、记录公民信息,并成立了多个数据平台进行数据的处理和存储。而第四步和第五步也较容易实现。我国数据不能实现完全流通,问题出在第三步,即数据的利用。

当前我国数据“割据”问题严重,数据管理各自为政、数据共享纵强横弱,部门获取地方信息容易、地方获取部门信息困难,垂直管理部门内部共享容易、跨省横向共享困难。[22]究其原因,一是数据孤岛难打破。部门与部门之间相对独立,数据被各自存储、各自保管。又因为各部门功能不同,对数据的使用和定义有比较大的差异,最终导致数据无法互通,形成孤岛。另外,各部门功能化、层级化管理衍生出的数据保护主义,导致各部门认为其收集的数据属于“个人资产”或者“部门资产”,为巩固本部门权力而“不敢共享、不愿共享”。二是并未建立统一的数据共享和交易平台。目前,我国多数省份建立了大数据处理中心以处理各省采集的公共数据,基本实现了市与省之间的纵向数据传输,但是市与市之间、省与省之间并未建立统一的数据共享和交易平台,数据与数据的共享和交易仍存在横向的物理隔离。三是数据开放和共享的法律制度不够完善。例如目前我国在国家层面缺乏统一的数据开放和共享的法律规定,已经有数据开放和共享立法实践的部分省市在数据开放的种类、开放的原则、开放的程序、开放的标准等方面也存在许多差异。另外这些地方立法存在“立法重复”“立法抄袭”的情况,因此,有必要完善数据共享开放法律制度,在国家层面制定数据开放和共享法律或者行政法规以统一数据处理规范、指导地方数据处理实践,为提高数据利用效率保驾护航。

(四)公民个人信息保护的挑战

个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。个人信息分为私密信息和非私密信息,其中私密信息适用《民法典》有关隐私权的规定。

政府出于管理的目的收集和利用个人数据。政府部门之间公开和共享数据,有助于促进部门合作、减少行政负担、提高服务效率,降低政务成本。然而数据开放和共享是把双刃剑,数据之间加速流通不仅带来了种种便利,也带来了公民个人信息被侵犯的风险。这种风险表现为:一是非法处理个人信息的风险,如不经过公民同意,任意采集、使用、加工、公开公民个人信息。二是因政府工作人员或系统漏洞、黑客攻击等原因造成个人信息被泄露的风险。

在现实生活中,政府可以根据公共管理需要采集、使用、公开个人信息,但是在这一过程中政府机关不经过公民同意,任意处理公民个人信息的例子并不鲜见。例如,新京报记者在景德镇市人社局官网上,发现一则名为“大学生一次性创业补贴人员花名册”,用户无需登录,即可下载这一表格。表格中,14名创业大学生的学号、身份证号、手机号码等信息均有载录。记者询问其中4名大学生,均表示此前曾被告知领取创业补贴需进行公示程序,但对个人信息被一并发布一事不知情。[23]这一事例说明虽然随着公众对政府信息公开需求的提升,政府信息公开制度已逐步建立,但是这一制度欠缺个人信息保护机制,同时缺少敏感信息审查机制和程序。

此外,因政府工作人员失误、系统存在漏洞或者黑客攻击等原因造成个人信息泄露的案例也层出不穷。例如,“健康宝”是北京市大数据中心依托北京市防疫相关数据和国家政务服务平台相关功能,针对当前新冠肺炎疫情防控需要,方便广大市民、进(返)京人员查询自身防疫相关健康状态、帮助城市恢复生产生活秩序,推出的一项数字化信息服务工具。而2020年12月,众多明星在健康宝上的素颜照被泄露,明星素颜照甚至被黄牛以“1元钱”打包出售。[24]这次明星素颜照被泄露是因为健康宝查询核酸检测结果的程序存在漏洞导致的。除此以外,2020年8月公安部通报了数起防疫工作人员违反疫情防控工作纪律的事件,例如因防疫需要收集的公民个人信息通过微信群进行公开而造成了公民个人信息泄露等。

四、第四次工业革命的规范路径

第四次工业革命带来的社会变革是全局性、根本性和长期性的,政府为了在这场社会变革中享受技术红利,就有必要对这些前沿技术进行规范和引导,以维护社会的公平稳定和安全,促进社会和谐健康发展。

(一)人工智能伦理规范

人工智能是一把双刃剑:一方面,政府可以利用人工智能应用的潜力改善公共事务、提高行政服务效率。另一方面,人工智能的风险表明,人工智能需要基于原则和社会核心价值的伦理规范和监管才能为人类带来好处。

首先,确保人类对人工智能的控制权、确保人类才是决策者,需要设定人工智能的伦理规范——类似于阿西莫夫的机器人三原则——将人工智能设定为人类的从属助手。阿西莫夫的机器人三原则是指:一是机器人不能伤害人类,或因不作为使人类受到伤害;二是机器人必须服从人类发出的命令,除非这些命令违反第一条规定。三是机器人必须保护自己的存在,但这种保护违反第一和第二原则时除外。[25]许多国家在这一基础上发展了各自的人工智能伦理规范。例如,2007年韩国产业资源部制定机器人伦理规范作为对机器人产业的积极应对方案,其具体内容是:人与机器人应相互尊重生命的尊严,保护并遵守既定的权利、信息伦理及工程伦理等,机器人作为使用者——人类的朋友和帮手伙伴,必须始终服从人类的命令。[26]我国可以参照这一规范,制定我国的人工智能伦理规范指南。

其次,为解决道德困境,我们必须为人工智能输入人类的价值观。香港科技大学和南洋理工大学的研究人员审查了主要AI会议上关于现有伦理决策框架的文章,并提出了将其划分为四个领域:探索伦理困境、个人伦理决策框架、集体伦理决策框架和人类与AI相互作用的伦理。其他研究者也回顾了关于通用AI的安全性研究,提出伦理决策问题研究通常采用强化学习的理论框架。他们假设理性的智能主体可以通过与社会环境互动的经验来学习人类的道德偏好和规则。因此,在强化学习的框架下,人工智能设计者可以将道德价值观指定为奖励函数,以使人工智能的目标与其人类伙伴保持一致,并刺激其按照人类道德规范行事。[27]因此,我们应该把人类的价值观、伦理规范内化为人工智能的软件规范,指导人工智能系统的设计和实现。在设计人工智能之初,编程人员就应该根据不同的场景设计不同的道德原则和标准,并根据这些道德标准对人工智能进行训练,而且这些训练应贯穿人工智能生产和应用的整个生命周期。在人工智能强化学习框架下,通过不断内化人类的道德规范,人工智能才可以规避更多的道德风险、可以更好地适用于各种道德场景中,在未来,也许人工智能可以解决连人类都无法完美解决的“道德困境”。

最后,关于人工智能能否为决策失误承担责任,需要考虑人工智能的意思表达能力。目前人工智能技术仍处于弱人工智能阶段。具备一定心智和意识,能够根据自身意图展开行动的“强人工智能”还没有产生。[28]因此,现阶段不应当认定人工智能具有和人类相同的权利主体地位。根据民法的规定,人工智能可以认定为物(或产品),在不同情况下,人工智能的生产者、销售者、使用者或者所有者应为人工智能的决策失误负责。

(二)算法规范和监管

算法在人类社会快速发展的同时,算法的不透明和算法歧视也引起了人们对算法侵害公民权利和自由、威胁社会公平和正义的普遍担忧,因此,政府应坚持人性尊严本位,对算法进行监管和规范。

算法不透明有三种形式,针对第一种“故意的”算法不透明,理论上来说只需要取消法律特殊保护、坚决抵制企业知识产权垄断、推动建立更多的开源系统,就可以消除这种形式的算法不透明。目前欧盟的《一般数据保护条例》(GDPR)正在进行这方面的努力。[29]但是要实现这方面的算法透明,其真正的阻力是企业对算法利益的维护。因此,即使欧盟努力推进GDPR法案实施,但是其有效性仍有待于观察。我国可以在加强算法知识产权保护力度的基础上,逐步推动企业公开算法程序。在涉及成为商业秘密的算法时,可以不强制要求算法公开,要求企业对算法决策过程进行解释即可。针对第二种所谓技术文盲算法不透明形式,从长远来看,可以通过加强算法教育来应对,例如从小学起开设算法编程课程以培养人们的算法知识素养。从短期来看,可以对政府工作人员进行算法知识培训,尤其是重点培养监管人员的算法知识水平。除此以外可以建立独立的算法审查和许可机构,通过招聘、聘任、选调有能力的算法专家,加强对算法的审查和监管。针对第三种本质上的算法不透明,可以采用技术和制度双重手段进行监督。一是可以设计“算法记录仪”放置于算法程序中,专门记录算法演算过程。二是通过法律规定强制要求编程人员进行更加简单的、具有可解释性的算法编程,但这可能会在一定程度上影响程序的效率和准确性。事实上,在算法监管中,算法决策系统的不透明性是至关重要的变量。如果我们要保障个人的合法权益,那么就需要确保算法透明度。因此,为加强监管,根据比例原则和公平原则,在算法程序的效率和准确性方面做出让步是必要的。

算法可能隐含偏见和歧视,会对社会的公平和正义造成负面影响,因此有必要减少和消除这些偏见和歧视。而要做到这一点,需要从开发做起,即选择适当的数据样本,选择合适的开发者。选择数据样本需要注意避免样本偏差、幸存者偏差以及概率偏差,也就是说选择较大的样本进行统计可以避免以偏概全、选择多样的样本可以全面地观察问题、选择用数学方法验证客观概率以及咨询多位专家以避免心理概率的偏差。而选择合适的开发者需要注意尽量选择不同性别、不同种族的开发者,不要对开发者的选择存在偏好。同时开发者也应遵守人工智能开发的伦理原则,避免输入自己的价值取向,尤其是在行政领域更要避免偏见和歧视态度,保持对公民的客观、公正态度。对于算法歧视的监管,一方面可以成立专门的监管机构,如美国的算法问责法案提出指派一个特别工作组来研究城市政府机构使用算法的方式,研究使用算法决策如何影响纽约人的生活,是否系统地出现基于年龄、种族、宗教、性别、性取向或国籍等歧视现象。[30]另一方面可以通过法律规定创建算法问责制。算法问责制,简单来说就是企业应对自己编程的算法所计算的结果负责。对于在算法编程中故意输入歧视因素,可以直接认定编程人员的责任,对于非故意造成的歧视,可以通过规定算法的可解释性来明确责任,即如果编程人员可以从技术角度解释为什么算法会作出歧视的决定,那么编程人员可以减轻或者免除责任,如果编程人员无法解释算法,那么编程人员要为算法歧视结果负责。

(三)推动数据公开和共享

信息社会中,决定国家竞争力最要紧的是数据流通。如果没有相关数据,一个高度精密的人工智能平台或算法就没有多大意义。因此,应该制定有效的数据开放和共享制度,以促进稳健的数据创造和传播。各国已开始实施某种形式的国家开放数据政策,以促进数据的产生和传播。英国实施了数据开放运动,目标包括刺激经济和社会增长、改善社会服务、提高政府透明度等内容,并正在运营开放数据门户。加拿大已开发了一个数据开放门户试点,建立了十个数据开放原则。澳大利亚也开放并启动了开放数据平台data.gov.au。[31]我国也需要通过完善数据公开和共享的法律制度、建立统一的数据开放和共享平台、培养部门信息共享意识等措施,推动数据的快速交流和传播。

首先,制定《数据公开和共享法》或者《数据公开和共享条例》。我国的政府信息公开和共享的法律体系不够完善,2016年出台的《政务信息资源共享管理暂行办法》对于完全公开共享数据、限制公开共享数据、不公开共享数据的界限规定不够明确,对于各部门的公开共享数据的原则和程序也规定得不够清晰,因此,有必要尽快制定《数据公开和共享法》或者《数据公开和共享条例》,以法律或行政法规的形式规范政府数据公开和共享工作,建立数据公开和共享的统一标准,明确数据公开和共享的界限、原则、程序以及法律责任,完善数据公开和共享的监管机制,为各部门的信息管理工作提供充分的法律依据。

其次,培养部门信息共享意识。政府数据公开与共享的目的是服务大众,信息作为一种公共资源,不应成为信息利益化、利益部门化的资本,更不能成为信息特权和信息腐败的“筹码”,而应为全体社会公众共同拥有和利用。除国家安全、个人隐私和商业秘密外,政府信息管理部门应尽量扩大数据公开的范围,尽力满足社会公众的信息需求。[32]政府应通过教育、培训、宣传等方法培养部门公职人员信息共享意识,树立以公民需求和利益为中心的服务理念。

最后,应建立统一的数据开放和共享平台。为破解“数据割据”难题,我国应建立统一的数据开放和共享平台,以促进数据的交流和互动。统一的数据开放和共享平台应促进各部门、各层级按照统一的数据标准对数据进行整合、归档、存储和再利用。通过这一平台,各部门可以实现部门间的数据交换和数据确认,避免部门间的重复数据采集。此外,数据开放和共享平台应提供在线查阅功能,及时为公众开放公共数据,在保障公众知情权的基础上,方便公众了解、监督政府工作。

(四)强化个人信息保护

个人信息需要多维度、多元化保护,最重要的是需要完备的法律制度保障,我国当前通过《民法典》《网络安全法》《个人信息保护法》等法律已经构建个人信息保护法律框架,但是这一法律框架仍有待完善。具体来说,个人信息保护应重点从以下几个方面对个人信息进行保护。

首先,要全面保障个人的信息自决权。广义上的信息自决权是指自主决定和管理有关自己的信息以保护自己信息的权利。信息自决权包括以下内容:自愿决定有关自我的信息的权利,或主张排除收集、分析和处理有关自我信息的行为的权利;访问自我信息的权利和索取自我信息的权利;要求自我信息更正的权利、中止或阻止使用自我信息的权利、要求删除自我信息的权利;提出质疑的权利和要求赔偿的权利。个人信息的隐私将通过信息自决权得到保障。因此,个人信息保护法应通过法律规定全面赋予公民自愿决定、访问、更正、提出质疑等个人信息自决权,如果政府未征得公民的同意、未按照特定目的使用个人信息或者使用个人信息超过了必要的限度等,那么公民可以拒绝政府使用个人信息或要求政府予以赔偿。

其次,要创建个人信息安保机制。个人信息最大的特征是可识别性,因此,要保护个人信息安全,可以对个人信息做假名处理(或脱敏处理)。[33]所谓信息假名处理,是指对当前的信用信息进行处理后,若没有其他信息予以辅助,就无法通过处理后的信息来锁定出特定个人。当个人信息经过假名处理(高度敏感信息在假名处理后还需要加密处理),在充分保障数据安全后方能提供给其他部门使用。此外,要建立个人信息影响评估机制,对于有可能因使用个人信息而造成重要影响的决策进行个人信息影响评估,根据评估结果决定是否要使用个人信息。

再次,建立统一的个人信息监管机构。有必要在政府层面建立个人信息和隐私保护组织,专门管理个人信息保护事务。以韩国为例,韩国个人信息保护委员会是韩国个人信息保护制度的主控中心,是统筹和管理个人信息保护事务的中央行政机构。这一机构具有一元化和独立的主控中心地位,其工作内容不仅在于与各行政机构、企业、个人建构进行充分协商和合议的共治,而且在于对个人信息保护工作进行统一监管。当前我国个人信息监管部门呈现多头管理、分散管制的特点,个人信息保护的效果和力度不够集中,因此,有必要在政府层面建立统一的个人信息保护机构,形成统一的监管机制,集中力量进行监管。

最后,加强公职人员个人信息保护意识。尽管从制度上防止未经许可使用个人信息很重要,但是加强公职人员对个人信息保护的意识,使公职人员了解个人信息的重要性和价值并认识到未经许可不得使用个人信息同样具有必要性。尤其是最近的个人信息侵权案件更多是由政府内部人员泄露而不是由外部黑客入侵或其他未经授权入侵引起的,因此,提高公职人员保护公民个人信息安全的法律意识尤为重要。具体来说,一方面可以通过教育、宣传、培训、考核等方式提高公职人员认识;另一方面可以通过法律明确规定公职人员泄露个人信息的法律责任使公职人员在处理个人信息时负有审慎态度。

五、结语

与第一次工业革命相同,第四次工业革命将以不可避免、不可逆转之势带来社会的深刻变革,接受并顺应这一变革的国家将崛起成为信息时代的赢家,而抵制这一趋势的国家将成为失利者。新的“比赛”已经拉开帷幕,中国应积极备赛。具体来说,在法律层面上,应推进数据安全立法、数据公开和共享立法、个人信息保护法实施条例立法,制定人工智能伦理指南、算法公开指南;在组织层面上,应建立统一的信息技术监管机构、个人信息保护机构、数据公开和共享平台;在社会意识方面,应通过教育、宣传等方式提升社会整体数据素养,提高政府、企业、个人的数据安全意识,以争取在国际赛道上取得优胜。

猜你喜欢
个人信息算法人工智能
个人信息保护进入“法时代”
哪种算法简便
敏感个人信息保护:我国《个人信息保护法》的重要内容
主题语境九:个人信息(1)
民法典应进一步完善侵害个人信息责任规定
Travellng thg World Full—time for Rree
2019:人工智能
人工智能与就业
数读人工智能
算法框图的补全