人工智能的法律风险及应对路径

2021-01-15 02:43
关键词:个人信息人工智能法律

李 旭

(湖南师范大学 马克思主义学院,湖南 长沙410000)

人工智能科技的跨越式发展已迅速推动我国多领域的联动进步,其应用之广、影响之深已成为我国新时代的新引擎。人工智能使人类进入“智能时代”,体验“智能生活”,不过这种智能时代与生活却给人以复杂的双重情感表征。一方面,人工智能可指引我们破解现有诸多领域的困境,带领我们探索神秘未知领域的奥妙,担任工具角色更好地服务于人类的生活和工作。另一方面,我们目前生活在“弱人工智能时代”,但是科技的发展呈指数倍态势,或许在不久的未来,我们会面临新的“智能拐点”,届时“强人工智能”甚至“超人工智能”将会统驭人类生活。在各种制度尚有缺陷、尚未有效建立前,且存在尚无法约束的法外空间,或许人工智能将会是人类亲手建造并开启的“潘多拉魔盒”。因此,人工智能的科技革新并非一帆风顺,会面临诸多未知艰巨的挑战。比如,如何让人工智能获得感情、思维、自我意识等技术难关;如何进行预先立法来防范人工智能法律风险的法律制度难关等等。这些已成为社会公众共同关心的重点、热点问题,事实上,未来人工智能的发展会超出法律的可控边界这一趋势是极可能的。中共十九届四中全会《中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干重大问题的决定》(简称《决定》)提出:“建立健全运用互联网、大数据、人工智能等技术手段进行行政管理的制度规则。”可见,党与国家对人工智能技术予以高度重视,通过风险管控来降低人工智能所带来的风险已成为共识与当务之急。

一 人工智能技术法律风险的主要形态

法律风险一般是指由于合约在法律范围内无效而无法履行,或者合约订立不当等原因引起的风险。根据《巴塞尔新资本协议》,法律风险是一种特殊类型的操作风险,包括但不限于因监管措施和民商事纠纷解决而产生的罚款或惩罚性赔偿所带来的风险敞口。而本文人工智能技术法律风险的定义为:在人工智能技术的发展进程中,由于智能化程度的高低差异,使得智能技术处于或超出法律的边界而引发的一系列法律问题,包括风险发生的概率(可能性、危险性)及风险导致的后果(期待损失值、损失的不确定性)。

(一)个人信息与个人隐私泄露风险

无论是哪种类型的人工智能(弱、强、超),只要涉及大数据,都有可能因使用大数据而造成个人信息侵权。[1]而个人信息与个人隐私有重合交叉,根据Daniel J. Solove 和Paul M. Schwartz 的观点,个人信息的精髓是一种隐私,在法律上作为隐私受到保护。且《中华人民共和国民法总则》(简称《民法总则》)将隐私权与个人信息置于同一章下的人格权编制度中,充分说明了二者的高度相关性。此外,随着互联网智能化的不断发展,虽呈现出诸多立法对个人隐私权保护明显增强的态势,但若落到实处,反而难以令人满意。特别是互联网智能化与商业智能化浪潮的出现,网络社交、娱乐、购物等网络平台实名制度的建立及个人征信机制的确立,每个人的实时信息都被网络大数据、区块链技术所容纳,个人信息由于脱离本体而寄托于技术载体的特征使得个人隐私的保护难度不断攀升。事实上,人工智能的日益进步和发展,必然会增强站在人工智能发展前沿的那些“大数据控制者”的能力,使越来越多的人难以保护自己的隐私和自由。[2]而这一态势必然致使传统隐私权的保护与现实的逐渐脱节。

个人信息与个人隐私的保护有赖于人工智能的本质支撑,即人工智能的“感知—推理—学习—行动”四个环节均以大数据为内驱力。人工智能的服务系统需要对个人信息进行“收集—分析—使用”,才能更好地为人们提供精准化、高效化服务。在这一系列环节中,将涉及如何更好地使用个人信息数据来有效保护个人隐私的难题。比如,在智能传播环境下,为了使个人数据的商业价值最大化,控制传播权的媒体公司利用智能技术扩大传播力,吞噬人们的隐私。同时,随着公众独立传播能力的提高,“迷恋个人曝光”和窥探他人隐私的行为持续增长,人们隐私面临的风险也越来越大。[3]再如,我们在进行网络搜索后,后台便会保留搜索浏览痕迹,在多次操作后,该技术平台便会对多次浏览痕迹进行关联分析,进而推送各种相关信息。显然,我们的隐私信息在不自觉状况下已泄露给一些网络平台。正如Lori Andrews 所言:我们的时代不再是零隐私的时代,而是消极隐私的时代,我们的隐私到处都被偷窥,甚至在我们自己的朋友圈或微博上,隐私权已经不复存在,它在你毫无准备地轻触键盘的那一刻消失了。[4]或许我们的数字信息将比我们真实的自己更重要、更有价值。

(二)侵权责任风险

人工智能技术欲获得快速发展与广泛运用,就必须以产品形式投入实践环节,而在产品使用过程中,不可避免地会产生侵权问题,包括人工智能产品本身质量问题而产生的侵权,或是人工智能产品被不当使用而产生的侵权。例如,2016 年5 月,特拉斯发生了世界上第一起自动驾驶汽车因系统故障而产生的车祸。而以目前的消费趋势,消费者更愿意购买经过计算机处理的标准化产品。[5]而确定侵权责任涉及人工智能的法律主体地位问题,须予以区别对待。在弱人工智能状态下,人工智能产品仅具有工具属性,不具备自主意识,不能获得法律主体地位;而在强人工智能与超人工智能状态下,人工智能产品具有独立自主意识,可自主实施行为,这类智能技术产品可以获得法律主体地位。前者会产生受人类控制的“轻微”侵权后果,而后者可能会产生超越人类控制边界的“严重”侵权后果。

(三)刑事犯罪风险

人工智能技术最大的威胁莫过于其刑事风险。一方面,智能产品研发方或使用方不当利用,甚至将其作为犯罪工具而造成的刑事后果;另一方面,人工智能产品具备独立自主意识后可能会形成犯罪动机、产生犯罪意图、甚至实施犯罪行为而造成的刑事后果。前者可能使某些传统犯罪形式造成的危害后果加深、程度加重、面积变广,即产生“量变”;后者可能致使新型犯罪形式的出现,其犯罪表现更加智能,危害后果更深,即产生“质变”。这些后果可能对人类的生存构成巨大威胁,即对人类造成伤害或毁灭人类。例如,有学者预言:“在人工智能时代,人类的神圣地位将会消亡、不复存在,人类将变成机器人的奴隶,成为机器人饲养的动物,还有可能被机器人随意宰杀。”[6]未来的人工智能技术可能会逐渐进化至非常强大,脱离人类为其设定的“法律制度”与“道德红线”,亦有可能会产生“反叛意识”,进而对抗人类,而人类又如何对此进行限制呢?如果其施行犯罪后,人类该如何对待这类“犯人”?是否应该像人类一样承担刑事处罚?这些问题值得进一步深究。

(四)劳动者就业风险

人工智能时代的到来是对人类中心主义的巨大挑战,必将对人类各个行业形成巨大冲击,届时将导致人类与其密不可分的“劳动”相分离,引发一系列失业问题。就像比尔·盖茨和埃隆·马斯克所表示的那样,“人工智能将使世界各地的许多人失业”,“它有着不可思议的潜力,然而,它也带来了巨大的危险,应该审慎地追求,并投入足够的思想来改变我们的社会”[7]。不仅如此,它也是对马克思“劳动价值论”原理的挑战,“劳动”使得人类区别于其他物种,但是当人工智能替代人类劳动时,“劳动”这一特质将与人类逐渐分离,人类将成为这一伟大创造物的配角或沦为其附庸。《中华人民共和国劳动法》(简称《劳动法》)中对“劳动者”有清晰的界定,即“劳动者”主要是“自然人”,本质是“人”而非“物”。比如苏宁发布的“卧龙一号”自动送货机器人,顺丰与京东研发的配送货物的无人机,其实质仍是“物”。但是,当人工智能技术越来越进步,步入成熟阶段时,或许它将站在“劳动”的金字塔顶端,从而形成“劳动垄断”,或许它将进入《劳动法》,成为劳动法的主角。研究表明,“人工智能技术在金融服务、安全保障、客户服务等领域的应用,其效率和准确性都远远超出了人类”[8]。也有研究者表明,人工智能“在改变劳动就业市场格局的基础上,也给劳动法制改革带来了空前挑战”[9]。

(五)行政规制风险

人工智能技术的进步将会对行政决策与立法产生一定影响。一方面,当科技时代以人为中心时,即在弱人工智能状态下时,人们主要的行为内容便是依靠行政公法手段来对人工智能的决策与行为予以规制,但是由于规制有一定的标准,且此标准程度较低,在数据安全方面与数据共享方面尤为突出,并存在一定制度分歧,可能引发行政规制主体(尤其是国家或地区)内部萌生不协调因素。另一方面,当科技时代以“人工智能”为中心时,即在强人工智能或超人工智能状态下时,人类担忧的是利用人工智能技术进行决策与立法或人工智能自主决策与立法可能会给法治社会带来的影响。一是人工智能的行政主体地位并不明确,倘若发生决策与立法的失误时,引发的追责困难问题;二是人工智能自主决策与立法难以由人为加以控制,超出行政行为主体的认知范畴,且决策与立法的合理性、合法性、程序正当性、高效实用性等难以预测。

(六)军事应用的国际法风险

当下,人工智能技术已被世界各国广泛应用于军事领域,涉及核心的军事指挥系统、强大的军事装备环节、高效的后勤保障系统、先进的军事训练方案等,覆盖海陆空甚至网络空间等领域。例如:在空军领域,有美国的“RQ-4 全球鹰战略无人机”;在陆军领域,有法国的“FELIN 单兵作战系统”;在海军领域,有世界上最大的无人水上机器人“美国无人驾驶军舰‘海上猎鹰’”;在网络空间领域,美国将网络攻击也视为战争行为,作为第五作战领域。虽然,人工智能技术在军事应用方面已取得较大成效,但是,人工智能技术本身所具有的自主性、非理智性、不可靠性、不可预测性等特征可能会引发一系列国际法风险。尤其是人工智能武器的运用,更加剧了这种风险。一般而言,“人工智能武器是指将人工智能应用于军事目的的武器系统。它是一种能够识别、分析甚至选择目标以施加武力的机器,不需要人力资源的参与或干预,或是具有先进的自动控制能力,基于对世界的主动感知做出自主决策,直接或间接地实现军事侦察目的或军事攻击目的的新型先进武器”[10]。

其一,作为人工智能武器最高形式的自主武器作战系统的运用,应该严格遵守战争法的法律规范,但其使用可能会造成违反国际法的后果,倘若对攻击目标识别错误,造成误判,将会导致其行为违反国际人道法原则。假使有些国家将“自主开火权”赋予该武器,可能使自主武器成为战争的“最佳代理”,届时人类将遭遇难以承受的严重后果。

其二,人工智能系统可能使人类依赖于其强大的军事指挥模拟系统、辅助决策系统,甚至依赖其执行指挥作战任务,倘若将军事决策权交于人工智能,可能会因其决策失误而引起严重的国际政治风险。

其三,依赖于数据与算法的人工智能具有不确定性与不可预测性,本身具有质量和安全风险。如果其数据库与算法遭到破坏与攻击,将会使算法偏离原有路径,人工智能武器将难辨敌我,会严重挑战武装冲突法的区分原则与比例原则。

其四,世界各国可能会为了保证其军事领域的实力或优势,不在人工智能武器上加以设限,大规模研发与使用,导致全球范围内上演激烈而紧张的军备竞赛,给国际关系增添诸多不确定性因素。

二 人工智能技术法律风险的成因分析

(一)主观因素

1.研发者与设计者的主观因素。人工智能通俗来说就是人类的一种独创性作品,该作品的创作主体即研发者与设计者的主观价值追求会对人工智能的外化行为产生诸多影响。由于人工智能依赖于互联网、大数据、算法三大核心要素,而人工智能的外化行为主要就是算法的外化,而算法的价值以研发者与设计者的主观价值为依托,倘若研发者与设计者的人文情怀、感性经验、利益衡量、道德伦理、公平正义、社会理解等价值观念被融入算法,由于此类价值观念具有不确定性、不可预测性,难免产生一系列法律风险。

2.使用者的主观因素。人工智能被研发者与设计者所创造出来时,已然成为脱离于其创作主体的独立产品,该产品使用者的主观价值决定了人工智能法律风险的发生与否。由于我们现在生活在弱人工智能时代,人工智能此时并无独立自我意识与行为,只能由其使用者来进行操控,而其使用者的主观目的、内在动机、利益追求等价值观念会决定人工智能的外在行为,倘若此价值观念呈恶性态势,那将会引发诸多法律风险。

(二)客观因素

1.算法疏漏。人工智能技术依赖人类编写的算法进行系统运作,但是,“当算法触发一些自动动作(如自动伤害行为)时,人类便会被排除在此循环之外,只能被动性地接受结果”,且“危险在于没有人能够确保算法的设计是准确无误的,尤其是当它与许多算法交互时”。[11]此外,在人工智能的算法运行中,即“在其不可预测的序列中更容易发生一些小的疏漏,这可能会导致更大、更具破坏性的事故”[12]。如果放任由人工智能调整复杂的社会关系,极有可能引发社会治理的混乱,进而引发一系列不可预知的法律风险。

2.数据不足。数据是人工智能的主要原料,算法是人工智能的技术工具。当代社会,数据更新与发展的速度非常之快,若人工智能没有足够庞大、实时更新的数据为原料,就无法准确、快速、成熟地将其创作主体的思维、逻辑、经验转化为算法,也就无法实现精准的行为外化,从而发生行为失误、迟滞等不利后果。若某些重要领域应用了没有足够数据支撑的人工智能技术,其造成的后果更为严重,极易致使法律风险的形成。

3.行为失控。人工智能依赖于大数据的持续“喂养”,作为一种前所未有的方式,大数据可以通过对海量数据的分析获得有价值的产品和服务或获得洞察力。作为计算机科学的一个分支,人工智能技术凭借大数据容量大、种类多、速度快、复杂化、变化快等特征使通过“智能感知—推理—学习—行动”四个环节成为一门基于多学科互相渗透的综合性学科,旨在通过收集、分析、使用海量数据并借助机器对人类大脑予以模拟。倘若人工智能的感知、推理与学习能力不断深化,以致达到对人脑的高度模拟,使其拥有自我意识、情感、思维与创造力或自我决策、自我执行的能力时,人类将无法预知该意识的内容与趋势,对其行动全然未知并不可理解,就似昆虫无法探知与理解人类如何进行思考与行为一般,它将是由人类造就并脱离人类掌控的智能顶端技术,并且其行为的“善”与“恶”不可预知。这种寄托于人工智能技术自身道德的做法,极易对人类产生重大威胁,也自然会产生许多不可预测的法律风险。

三 人工智能技术法律风险的应对路径

中共十九届四中全会《决定》提出:“加强重要领域立法,以良法保障善治。”人工智能技术作为科技发展的重要领域,必须要有相应的立法措施为其立法,才能构建完善的法律体系。但是,人工智能技术的进步与立法并不同步,即立法具有迟延性与滞后性。因此,除了立法措施外,亦可采取以下应对路径来应对未来人工智能可能引起的法律风险。

(一)个人信息与个人隐私泄露风险的应对路径

在智能化时代,每个人的个人信息与隐私将是其价值的外现,真正对其实现保护便是使其处于“自由”状态。“然而,在数据和信息繁荣的背后,个人基础数据、设备数据、网络数据和行为数据等隐私和信息将面临巨大的安全风险”[13]。为此,亟须对个人信息与个人隐私加强保护。

1.明确个人信息与个人隐私的保护范围。在《中华人民共和国民法典》(简称《民法典》)人格权编分别对隐私权与个人信息的基本内容予以细致规定。一方面,《民法典》第一〇三二条对自然人隐私权明确规定为“不愿为他人知晓的私密空间、私密活动和私密信息等”,这将其设置为一种排他性权利。另一方面,《民法典》第一〇三四条对个人信息明确规定为“以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息”,且对收集个人信息的具体原则与免责事由、信息主体享有的权利等加以规定。由此可看出此规定的明显表征:将二者分别进行不同的规定,对二者范围予以明确界定,未将二者等同;将个人信息予以扩张,增加电话号码、电子邮箱地址与行踪信息。

2.坚持并遵守目的正当原则、必要原则与告知同意原则。一方面,三项原则的平行并用,从横向进行保护。正当目的原则包括四要素:服务相关、目的具体特定、信息方有一致明确的理解、合法。这就要求信息业者在收集数据之前,要确保收集信息目的的正当性,即收集到的信息与所提供的服务相关、具体、清晰、合法。如“裸贷”这种以“裸”换“贷”的信息收集方式,不仅违反了民法的公序良俗原则,还明显违反了正当目的原则。必要原则具体包含三个要素:信息必需且充足、服务相关、必要且不过量。这就要求信息业者需要确保收集到的信息是实现其服务功能的最小信息。告知同意原则包含两个要素:对方充分告知与个人自愿同意。这要求信息业者在收集个人信息时,必须充分告知服务与产品信息并经个人自愿同意。另一方面,告知同意原则受目的正当原则与必要原则的限制,类似上下位关系,进而从纵向进行保护。这就要求信息业者在收集个人信息时,首先要考虑目的是否正当、必要。只有在符合此前提下,才能考虑征得信息主体的同意这一条件,若个人信息的收集与使用目的无关,将失去要求信息主体同意的前提。[14]如荷兰数据保护局对谷歌数据融合事件的调查报告案件,由于谷歌目的不清、主动收集用户信息,违反了目的正当与必要原则,即便用户同意,也是违法行为。

3.增强自然人个人信息与隐私的自主控制能力与主动防御能力。在智能化时代,个人信息具有被全方位收集、永久性存储的特点,个人隐私具有动态化、场景化、相对性、持久性等特征,可通过立法赋予自然人对其个人信息的删除、更正权利,并且在权利的范围上,“它需要进一步扩展,以涵盖所有类型的个人信息处理行为,信息主体应具有更完整的个人信息权,包括转让权、异议权和限制权”[15]。并且,这些权利应遵循目的正当性、行为必要性、涉他无害性的要求,信息业者在个体合法行权时不得以任何理由加以拒绝,如此,可强化个人对信息与隐私的自控力与防御力。

(二)侵权责任风险的应对路径

1.弱人工智能状态下的责任承担。在此关系下,人工智能尚不具备法律主体地位,“也就是说,人类对人工智能的态度还处于人工智能薄弱的阶段。大数据虽然在发挥作用,但本质上仍处于工具化阶段,与传统产品并无区别”[16]。故此,纵使其造成侵权后果,其背后的数据拥有者也不应该承担责任,而一般应由人工智能产品的生产方与销售方承担多数责任,销售方承担过错责任,生产方有免责事由时不承担责任。若使用时存在过失,当使用方与操作方为同一主体时,便由其分担相应责任,当使用方与操作方非属同一主体时,应遵循“谁的行为谁承担”的原则。

2.强人工智能状态下的责任承担。在此关系下,人工智能产品具有一定法律主体地位,一般应由产品生产方承担多数责任,销售方有过错时才承担责任。而使用方则相当于人工智能产品“监护人”的角色,当使用方尽到监管职责时,侵权责任由具备独立意识的人工智能产品与其生产方承担责任,而当使用方未尽到监管职责时,侵权责任由使用方、人工智能产品及其生产方承担相应责任。

3.超人工智能状态下的责任承担。在此关系下,人工智能产品具备法律主体地位,完全具备独立自主意识,此时不存在产品使用方与销售方承担责任的问题,而由生产方与人工智能产品共同担责。不论生产方有无免责事由,只要该智能产品存在侵权行为并造成侵权后果,不论后果严重与否,生产方均应与该智能产品共同承担责任。

4.可成立人工智能监管部门,出台人工智能物保险制度。一方面,可在人工智能产品进入市场前进行检测调查,降低其侵权概率。另一方面,保险制度的设计,可以保证侵权损害程度的最小化。

(三)刑事犯罪风险的应对路径

1.确定研发者与使用者的刑事责任。首先,倘若其故意利用人工智能技术或产品实施犯罪危害行为,应将人工智能技术或产品视作其“犯罪工具”,所有刑事责任均应当由研发者或使用者承担。倘若人工智能产品通过深度学习,具备了一定独立自主意识,可自主决定犯罪行为或判断犯罪方式,若该智能产品故意实施了犯罪行为,此时智能产品实现的仍是研发者的延伸意识,刑事责任应当由研发者承担,智能产品本身不承担刑事责任。其次,倘若以当时的人工智能技术无法预见危害结果的发生,最终致使危害结果发生的,研究人员和使用者没有义务预见此有害后果。如果当时的人工智能技术能够完全预见有害后果的发生,研发者由于“疏忽大意”或“过于自信”而没有预见,最终导致危害结果发生的,研发者应按具体情况承担相应过失责任。同样,倘若使用者未按照要求进行使用,导致危害结果发生的,也将按具体情况承担相应过失责任。

2.刑事责任主体地位的界定。此问题需分别讨论:一方面,“智能机器人具有工具属性,是人类改造世界的工具,完全在人类设计和编制的程序范围内进行,它不具备在独立意志和意识支配下的辨认和控制能力,不能成为刑事责任主体”[17]。另一方面,“随着科学技术的出现,不受人类设计和编程程序控制、具有独立意志和意识、能够独立决策和执行行为的智能机器人成为可能。在我看来,这种机器人会成为刑事责任的主体”[17]。界定刑事责任主体符合当下“罪责自负”原则,无论智能产品的犯罪后果是否应由研发者或使用者承担,都不影响智能产品刑事责任主体地位的获得与刑事责任的承担。

3.增设相关罪名。“在未来社会,滥用人工智能进行犯罪可能会成为一种常态”[1]。由此,必须对刑法体系予以完善。有学者认为,“在罪名的选择上,暂时可以考虑设立‘滥用人工智能罪’和‘人工智能事故罪’”[18]。确实,增设该罪名可针对当下实情起到预防作用,应在刑法分则的危害国家安全犯罪、人身安全犯罪、公共安全犯罪、财产类犯罪这四大重要犯罪类型中增设相关“人工智能犯罪类罪名”,并遵循高度概括原则、情势紧迫原则和简单少量原则。也可以在刑法总则编设置总括性原则:更改或删除数据原则、调整或修正程序原则、终止或销毁实体原则等。

(四)劳动者就业风险的应对路径

算法所形成的人工智能虽然不能直接决定劳动立法的价值取向,但它会影响劳动形式和劳动力市场环境,进而影响劳动法的价值选择。[19]由于人工智能技术的影响,劳动方与雇佣方的“和谐稳定关系”将被打破,故此,应重塑劳动法立法价值,且劳动法立法价值应着重强调劳资双方的“和谐”与劳动者就业的“稳定”。

1.重塑和谐价值。“和谐”意味着劳资双方成为一个协调有序的利益、事业、命运与使命共同体,劳动方通过就业平台发挥专长实现自身价值,雇佣方通过劳动者创造的价值实现自身利益,二者互为所需。《劳动法》应将人工智能视为劳资双方有效合作的沟通媒介,而非替代者,实现人机灵活性合作,才能实现对劳动者的尊重。

2.重塑稳定价值。“稳定”意味着劳动者就业的持续性、长期性,《劳动法》应充分考虑劳动者的就业需求,但技术的发展使得人们对“收入稳定”的需求大于“岗位稳定”的需求,这是社会发展的必然态势。“西方国家一直在努力以稳定的收入弥补工作稳定的牺牲”[20],西方发达国家这一经验或许值得我国借鉴。最后,在基本生活保障制度的建立上,我们可以考虑“无条件”社会保障制度的建立[19],建立一张保障劳动者就业的“安全网”,才能为劳动者抵御逆境提供保证。

(五)行政规制风险的应对路径

1.依托行政主体对未来风险进行预测。风险预测本身具有不确定性,但是可以最大限度地综合考虑各种可能因素,“随着研究方法的多样化,通过对历史数据的全面调查分析,通过情景模拟、灾害反演、数值试验等,获得不同的致灾因子强度和相应的概率值,是一种更可靠的方法。并以此为依据,绘制出满足减灾实际需要的图表或方程,对不同发生概率下特定强度的风险源进行定性定量分析”[21]。如此,便可以通过“风险图表法”“风险曲线法”“公式法”对人工智能技术可能会带来的致灾因子进行定性与定量分析,提前预知风险发生概率、风险发生强度及风险大致走向,进而将预测结果作为制定规制计划与方案的充分依据,力求形成科学性、合理性的规制结果。换句话说就是,“根据技术手段,监管主体有权采取各种行政行为,防止可能造成社会危害或损害他人权利的行为发生,即有权要求被监管主体从事具体的实体性或程序性行为,最后,有权要求被监管主体对因风险监管而损害其合法权益的相对人进行赔偿”[22]。

2.将法律编入算法,并保证决策程序公开透明。一方面,人工智能依靠大数据与算法进行系统运作,研发者可通过编程将法律规则或原则、法律精神编入算法之中,使其容纳法律一般规范与社会主义核心价值观等法治要素,并将技术规范与法律规范按照合适比例予以调配,且将法律规范设置成为技术规范发挥作用的必经程序,最后通过程序语言使其发挥功用,从而改进人工智能系统的运行规则,达到理想预期效果。另一方面,行政程序越来越强调公众参与度、程序公开化与透明化、程序可追溯性,以来保障公众知情权、参与权及监督权。在人工智能时代,应该更加注重对人工智能的设计原则、运行原理、学习过程及决策与立法程序、重要决策的依据与行为产生的基础予以公开化与透明化,必要时可做出适当解释与说明,以此来防止“黑箱算法”与“暗箱操作”。

(六)军事应用国际法风险的应对路径

1.建立人工智能专业性国际组织。联合国曾采取召开非正式会议与成立致命性自主武器系统(法律)政府专家组的方式对人工智能技术进行干预,[23]但是联合国的此项干预机制在目前的情势下显得无能为力。“2016 年,我国曾呼吁将全自动武器置于国际法的控制之下”[24]。遗憾的是,此呼吁未有成效。为此,可建立一个人工智能专业性国际组织的多边机构,作为世界各国人工智能军事应用问题的管控与协商交流平台,使世界各国在人工智能军事应用领域达成一致。

2.制定相应国际规则,加强国际学术交流。目前,世界各国都发布了在人工智能武器领域的支持政策文件,例如:2018 年,美国国防部发布面向2040年的《无人系统综合路线图》,旨在大幅提升机器人和无人作战平台在美军兵力中的比重;2018 年11月,英国国防部发布《2018—2028 国家武器装备计划》,采购包括潜艇、水面战舰和辅助舰只、航空支援、陆军技术和武器装备等。[25]从这些政策文件可以看出,各国仍在日益加强人工智能武器在军事领域应用的力度,这对战争法与武装冲突法构成极大威胁,必须有相应措施来解决这一重大问题。因此,制定权威的国际规则,尽快将人工智能武器的军控问题提上国际议程,是国际社会的当务之急。[25]另外,加强人工智能军事应用的国际学术交流是十分必要的。通过各种国际组织和多边、双边学术平台,探讨人工智能军事应用的相关问题,并充分讨论,达成共识,为国际社会智能军事应用条约提供理论指导。[26]

3.加强国际合作。人工智能武器在军事领域的广泛运用,其产生的问题并非一国之力可以解决。因此,需要加强国际合作,积极开展多边协商交流与谈判,使世界各国携手同行、共商共治,并制定一部规制各国国际性法律文件的“软法”,以求逐步推进国际共识的达成。

四 结语

人工智能的法律风险是一个非常庞大的问题类别,既包括人工智能对现行法律的挑战,也包括人工智能给未来社会带来的不确定性和不可预测性。因此,不仅需要明确人类与人工智能之间的关系,而且需要根据部门法的不同特性对法律风险予以细化分类。由于人工智能的法律风险可能涉及法律的各个部门,本文不能一一予以列举,只能针对较为重要的部门法领域进行论述,并提出相应解决方案。无论何时,都应坚持一个底线,那就是一旦人工智能装备的存在或活动对人类造成伤害时都应该停止使用并加以限制。或许这样,才能从源头上抑制人工智能技术可能带来的法律风险。又或许,人工智能给人类带来的并非风险,而是最大多数人的最大幸福,正如功利主义法学派代表人物边沁所说的那样。

猜你喜欢
个人信息人工智能法律
防范电信网络诈骗要做好个人信息保护
个人信息保护进入“法时代”
法律解释与自然法
法律讲堂之——管住自己的馋嘴巴
主题语境九:个人信息(1)
警惕个人信息泄露
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!