人工智能的行政法规制

2018-06-12 05:53文//董
21世纪 2018年6期
关键词:识别性领域人工智能

文//董 妍

董妍 天津大学法学院副教授,中国人民大学宪法学与行政法学专业博士。主要研究方向为行政法学。天津市131工程人才,天津市“双千计划”人才。2018年借调科技部生物技术发展中心,从事科技领域相关立法工作。曾在《南京大学学报》《法制与社会发展》《陕西师范大学学报》《行政论坛》等核心期刊发表过相关领域论文十余篇。

有学者指出,人类在进入到21世纪的三个关键时间点,相继出现了三个互相联系又略有区别的新时代,即网络社会时代、大数据时代、人工智能时代,三者共同构成了新的社会时代。人工智能技术是人类的伟大发明,但是也存在着极大的潜在风险。人工智能的发展程度已经足以让人类开始警觉甚至为自己的地位担忧。同时,有学者也盘点了人工智能失败的案例,如路易斯维尔大学网络安全实验室(Cybersecurity Lab)的主任 Roman Yampolskiy 发表了一篇论文,名为《ArTIficial Intelligence Safety and Cybersecurity:a TImeline of AI Failures》,其中列出了2016年人工智能表现不太好的例子。文章作者指出,这些失败都可以归因于AI系统在学习阶段以及表现阶段中犯的错误。有学者更是将人工智能可能带来的风险归结为十大类:意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。由此可见,无论是人工智能的高速发展,特别是其发展的不确定性,抑或是人工智能研发不完善而导致的事故,都使得人工智能的法律规制,特别是政府对人工智能的行政规制成为了迫在眉睫的任务。对于人工智能的行政规制,主要应当体现在以下几个方面:

构建和完善人工智能研发准入制度及标准

准入制度与研究的自由程度成反比,准入制度越严格,开展研究所需要的周期就越长,研发速度也随之减慢。但对于人工智能领域,准入制度是十分必要的。以无人驾驶技术为例,大多数国家都对无人驾驶的研发、测试进行了严格的规定,目的就在于防止无人驾驶对人身造成伤害,对社会秩序造成冲击。这一点在国外有一些较为成熟的经验可供借鉴。如美国内华达州2011年通过的AB511法案,2012年加利福尼亚州通过的SB1298法案,主要目的都是为了保障无人驾驶汽车的安全。欧洲国家法国、英国和德国也有相关的立法。日本较韩国激进,为保障该技术的发展,专门设计了路线图和法规,并且对生产商等人员承担的责任进行了明确。而在韩国,主要是由政府部门来主导该技术的开发和测试,持一个保守的态度。由此看出,无人驾驶汽车行政规制有全球趋同化的趋势,其最佳效果是能够降低生产厂商的成本。

因此,我国应当尽快建立和完善人工智能研发的准入制度。虽然在简政放权的背景下,清理不必要的行政许可是法治政府建设的重要要求之一,但对于有可能造成重大隐患的新领域,应当本着谨慎的态度,设置研发的准入制度,对研发者的资质和研发项目的内容进行严格审核,确保其研究目的和研究计划不至于发生严重的社会危害。我国目前没有设置任何人工智能研发准入制度,但其如果涉及到在不同领域的应用,可能会需要取得不同领域的行政许可。但在现实中出现了人工智能躲避许可制度的现象:如“智能投顾”就是打着人工智能的幌子进行理财产品的推荐和代销。其实,这一产品就是利用数据算法优化产品配置,其本质上是对理财产品的推荐和销售。因此,进入这一领域应当取得相应的行政许可,而不能借人工智能逃避行政许可制度。

此外,对于部分已经在实践中应用的领域,如无人驾驶等,应当尽快制定各项制造标准,特别是安全标准,确保在研发、制造、测试中遵循统一的标准以保证使用者的人身安全。

同时,制定一套严格的市场准入规则及研发标准,既是规制本国人工智能研制的一个必要举措,也是争夺国际法治话语权的重要措施之一。人工智能在各国都是新兴事物,在这一领域中尚未形成统一的国际立法规则,加快在这一领域的立法可以使我国掌握国际法治话语权。

避免算法歧视,保障公民平等权

算法是解决问题的方案,人工智能中算法是一个非常重要的问题,算法的设置直接影响结果。在人工智能领域,由于算法是由人预先设定的,因此人的价值判断难免渗透其中,或者由于某地区基础数据等问题,算法容易导致新的歧视出现,而且这种歧视是赤裸裸,不加任何掩饰的。有学者指出,由于人工智能算法技术具有复杂性,这些算法就犹如一个“黑箱”,用户根本无法获知算法的意图和目标,也不知道开发者和实际控制者以及算法最后得出的结论,在此种情况下,更谈不上监督问题。

如前文述及的人工智能失败的案例中,Northpointe公司开发了一套AI系统,它可以预测被指控罪犯再次违法的概率。这套算法遭到指责,它可能存在种族歧视,与其他种族相比,黑人未来犯罪的几率更高,威胁性更大。还有一些媒体指出,不论种族如何,Northpointe软件在一般情况下都无法准确预测。此外,在第一届由AI担任评委的国际选美比赛中,机器人小组对选手的脸进行评判,算法可以精准评估各项标准,这些标准与人类对美和健康的感知联系在一起。由于AI没有经历过多样化训练,最终比赛选出来的赢家全部是白人。Yampolskiy评价说:“美成为了模式识别器。”

在上述案例中,由于算法出现问题而导致人工智能产品运行结果或是与人类期望不符,或是与事实不符,或是完全不顾道德和社会习惯甚至是法律的方式,将运行结果赤裸裸地展现出来。在人工智能产品下,种族歧视、地域歧视、性别歧视这些本来已经在社会中被长期抑制的错误观点死灰复燃,甚至人工智能运行结果会刻意被某些人进行强调,用以证明自己带有偏见的观点,让本已经失去普遍认可度的观点再次对部分人造成伤害,使得科技的进步虽然带来了技术的前进和飞跃,但是却带来了社会领域中的倒退,这自然与人类的期望不符。有观点认为,这种单词嵌入技术其实只是对社会存在观点的一个客观反映,真正带有歧视的并不是这种单词嵌入技术所导致的结果,而是因为社会中本来就存在歧视和偏见。因此,应当被纠正的是社会中那些错误的观点,而这与人工智能算法本身无关。对这一说法,本文认为应当谨慎对待,科技发展应当有助于矫正这种性别歧视而并非扩大这种歧视,在算法还不足以对社会观点起到纠偏作用的时候,至少应当做到不放大这些带有问题的观点,更不能将这些观点作为基础数据进行加工,形成进一步的结果。

因此,在行政法领域,应当建立对于算法禁止性标准的制定,在选定算法及数据库的时候,要尽量剔除任何可能有歧视的因素,至少对于这种偏见和歧视不能通过人工智能系统进行放大。如前文述及的微软机器人,其采用单词嵌入技术以谷歌新闻作为基础数据库,其原因是专业记者撰写的文章应当不会带有明显的歧视,但结果并非如此。特别是经过预定算法下单词嵌入技术的处理,这种歧视被明显扩大。而带有这种算法的处理又会进一步导致歧视观点的出现和新的社会不公平。例如按照谷歌新闻数据库中的单词嵌入处理结果,如果搜索程序员的简历,男性的简历会排在女性的简历之前;搜索医生的简历,男性医生的简历会排在女性医生的简历之前,这就导致了极端的性别歧视。研发人员通过对于单词嵌入技术的改良,已经在一定程度上避免了上述情况的发生,这意味着对于人工智能运行的结果,目前人类还是具有绝对主动权的。在行政法领域中,应当加强对这一问题的政府规制,制定算法标准,从而对人工智能的运行结果进行控制。

保护个人信息,删除具有识别性的数据

有人曾经准确地描述,互联网是一个真实的虚拟存在,在互联网中,人类拥有了“数字化人格”,每个人在网络空间上的活动成为了整个大数据库中的一部分。而依托于互联网而发展起来的人工智能离不开大数据的支撑,而大数据中的基础数据大多数来源于公民个人。美国《生物信息隐私法案》中设有用户的知情同意权,互联网用户应当被告知自己信息获取的期限和方式,特别是自己面部、身体等生物信息。尽管如此,Facebook的人脸识别功能仍然被包括德国在内的许多国家认定为违反了数据保护法,要求Facebook删除相关数据。最终,Facebook被迫在欧洲关闭人脸识别功能,并且删除了在欧洲采集的所有人脸数据。这其中有一个我们需要思考的法律问题就是,这些人工智能技术搜集到的个人生物信息,将在何种程度上被以何种方式进行使用。

不当的大数据分析和人工智能使用,不但会产生信息泄露,而且会对用户产生切实的影响。如前一段时间热议的“大数据杀熟”现象,通过大数据的比对和智能分析,可以得出每个人的消费习惯和可接受的价格,从而形成了针对个体用户的定价,实现了经济学上一直不具有可操作性的“一级价格歧视”。这些都是由于对数据的不当使用而导致的。

我国个人信息保护法的制定已经提上日程,之前的《全国人大常委会关于加强网络信息保护的决定》、网络安全法以及民法总则和“两高”《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》都对于个人信息保护问题作出了规定。个人信息最重要的特点是具有特定身份的可识别性,如果去除这一特征,仅利用群体大数据进行分析,则造成损害结果的几率会大大降低。如搜集某地区某种高发疾病人群的信息,对这些数据进行分析可以对疾病预防,提升健康水平具有十分重要的意义。但是如果没有剔除具有可识别性的信息,会导致个人健康等隐私信息泄露,在就业、购买保险等方面造成严重障碍,给个人生活带来极大的不利影响。

因此,监管部门应当建立具有可识别信息的数据库销毁制度。在进行数据录入的时候,具有可识别性的信息和不具有可识别性的信息应当分别录入在两个数据库中,对不具有可识别性信息的数据库,可以应用到各种研究中,并且鼓励这种数据库的跨平台共享,政府数据开放以及企业数据信息共享。这种共享和开放,有利于数据的最大化利用,有利于政府在大数据和智能分析的帮助下作出正确的判断,也有利于企业判断市场形势,从而作出正确的决定。而对于具有可识别性的信息,应当在数据完成录入后永久性删除,任何人不得再次获取这些具有个人信息的数据,避免其不当利用。

人工智能的研发刚刚起步,其可能产生的风险和负面影响并不明晰。作为监管部门应当在促进科技发展的前提下,对人工智能的准入制度、算法标准等进行规制,避免算法歧视,保障公民平等权,加强个人信息保护。

同时,人工智能技术的兴起,还有责任主体认定、道路交通安全、劳动法等领域中的法律问题亟待解决,这是我们法律人所面临的新的时代课题。

猜你喜欢
识别性领域人工智能
2020 IT领域大事记
浅议企业品牌设计
领域·对峙
2019:人工智能
人工智能与就业
提升沈阳特色文化及城市规划识别性发展研究
国产汽车标志设计批评
数读人工智能
下一幕,人工智能!
新常态下推动多层次多领域依法治理初探