胡婉 黑龙江大学法学院
人工智能的发展对人类社会的发展起到了加速推动作用,特别是智能机器人的发展,对于对抗人口老龄化的进展、医学领域对于人体组织的更换、大工业化下的人力资源的节省等,在各个行业都起着至关重要的作用。有报道称,机器人在失控条件下对人类进行强制性攻击事件已不鲜见。霍金说,人工智能的进化未必是良性的,一旦机器人达到能够自我进化的关键阶段,我们便无法预测他们与人类的目标是否相同。机器人能够通过“暴力学习”的方式,顷刻间形成算法和数据,而人类由于自身的特点完全不具备此种能力。人工智能比人类进化速度更要快的多,机器人有着自己的演化方式,无法预测机器人在未来是否对人类造成伤害甚至如同科幻电影般互相残害。比如说机器人伤人或者杀人事件,1989 年发生了一起智能机器人伤人事件,IBM“深蓝”由于被象棋大师打败恼羞成怒释放电流杀死人类。机器人与人之间需要建立一种良性关系,或者说,我们需要让机器人符合人类社会的道德伦理规范,才能保障人类的权益不被侵害。
1942年科幻小说家阿西莫夫创造出了“机器人学三大定律”,该定律在当时背景下有一定的前瞻性和预警性。后来又加了第零定律,机器人必须保护人类的整体利益不受伤害。三大定律具有浓烈的功利主义色彩,立场自然是为了人类的生存以及社会的发展。机器人在医学、科研、工业等领域所创造的价值远远大于人对机器人投入的价值。而在情感上,由于机器人的工具属性,致使人类面对机器人时的歧视心理,加之机器人具备人没有的“超能力”,人类对此产生恐惧。在面对人类在陷入人文理性与工具理性的对立分裂时,人类更趋于走向对工具理性屈服。人与机器人之间必须有一个“度”,即机器人的发展需要自由,人类社会的生存同样需要保护。不要因为恐惧与不信任而限制机器人的发展。只要存在于合理范围内,可以赋予它自由的权利。人类应当尊重和保护机器人,从整体上看问题,对机器人如何发展应给予正确的指引。
2017年机器人“Sophia”在沙特获得了公民身份,界内争议不断。赋予权利首先要面对的问题是,机器人是否成为法律中的主体以及应否赋予特殊人格。机器人不是一个生命体,不像人一样有意思能力和行为能力。它的权利更多地存在于社会伦理、科学技术与人类安全的范畴。而机器人的工具价值决定了为人类服务,从这个角度上看,并不适合赋予机器人“特殊权利”。但是机器人的确需要 “监护人”去看护,帮助它行使权利、履行义务,代替它承担责任。这既能使机器人权益真正实现,也能为机器人的侵权行为担责。
面对突如其来的变化,人类社会也因机器人越发的越智能化而产生社会风险。在机器人社会化应用改变传统“人—物”法律关系的情况下,法律治理必须优先于科技伦理,以应对权利概念的崩塌。
第一,明确机器人的权利,并将机器人的权利范围明确划分。任何权利的扩张都会给社会带来风险,尤其是比人类“聪明得多”的机器人,应当将权利装进制度的“牢笼”里。因此,需要尽早制定相关法律,以闭合列举的方式限定机器人的权利范围。
第二,综合多方利益,加强规范之间有机结合。制定规则时要综合考虑多方利益,整合利益最大化规则。找到利益的交叉点,将伦理规则融入到法律规范中,制定统一的法律规则,将规则推向国际化。
第三,建立登记制度,按照不同类型对机器人分类监管。由于机器人种类不同,智能化越高的机器人产生的风险越大。应按照不同的标准进行分别管理,并需设置登记制度予以分类登记。要以行业自治的角度,在技术层面上进行规制。优化机器人的监管效率,减少机器人社会化应用中的潜在风险。
机器人给我们的生活所带来的究竟是一个福音还是一道魔咒,不同人有着不同的认识。人类和机器人的能力在不同的轨道上,人类需要在不同的赛道和维度上超越机器人,而不是惧怕利益受损而限制机器人的发展。