司晓
互联网的前三十年,是一个连接一切的故事,从连接人到连接商业,再到连接万事万物,互联网技术以前所未有的速度和规模改变着人类和人类社会。如今,随着人工智能技术的快速发展和广泛应用,智能时代的大幕正在拉开,在其中,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式。人们常以“数据化”“智能化”“算法决定论”等词汇描述这一趋势,但核心都是一样:人工智能算法正在改变这个世界。基于大量的数据,人工智能有潜力做出比人类更优、更准的预测和决策。
任何有望变革人类社会的新技术都必然会带来法律、伦理以及社会等领域的影响。例如,互联网、大数据、人工智能等数字技术及其应用带来的隐私保护、虚假信息、算法歧视、网络安全、网络犯罪、电子产品过度使用等问题已经成为全球关注焦点,引发全球范围内对数字技术及其应用的影响的反思和讨论,探索如何让新技术带来个人和社会福祉的最大化。未来可能出现的通用人工智能和超级人工智能则可能带来更深远而广泛的安全、伦理等影响。
因此,在当前的人工智能等新技术背景下,我们比历史上任何时候都更加需要“科技向善”理念,更加需要技术与伦理的平衡,以便确保新技术朝着更加有利于人类和人类社会的方向发展。欧盟、德国、英国、OECD、G20、IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。
2019年5月22日,OECD成员采纳了首个由各成员政府签署的AI原则,即“负责任地管理可信AI的原则(Principles for responsible stewardship of trustworthy AI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。我国新一代人工智能治理原则也于同年6月17日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。
我们处在一个正在实现数据化和智能化的时代,所以当前强调的技术伦理主要面向数据和算法。欧盟的GDPR已经针对人工智能应用做出了一些制度安排,欧盟议会发布的《算法责任与透明治理框架》则在考虑建立算法治理框架。
因此,在新的发展阶段,我们提出新的技术伦理(technology ethics),探索技术、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(即“四可”理念),从而让人们可以信任AI,让AI可以给个人和社会创造价值。就AI与个人之关系而言,幸福是人生的终极目的,需要构建和谐的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展。就AI与社会之关系而言,AI可以成为一股“向善”的力量,发挥出巨大的“向善”潜力,应当鼓励社会各界践行“科技向善”,助力经济与社会健康、包容、可持续发展。
互联网在过去二十多年中持续带来的问题,连同最近的人工智能等新技术带来的伦理和社会影响,归根结底是技术信任方面的挑战。现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。也有人说,技术无关价值,但实际情况是,虽然AI等技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。而在技术与社会生态系统互动的过程中,技术发展常常具有环境的、社会的和人类的影响,这些影响远远超过了技术设备和实践自身的直接目的。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。
作为建立技术信任的起点,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究与创新”(responsible research and innovation)、“科技向善”等理念,进一步阐释腾讯公司董事会主席兼首席执行官马化腾提出的人工智能“四可”理念,用以引导负责任地发展和应用人工智能技术,使其可以造福于人类和人类社会。“四可”翻译为“ARCC”(读作“ark”),即“可用(available)”“可靠(reliable)”“可知(comprehensible) ”和“可控(controllable)”四个方面。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。
第一,可用(available)。發展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。
可用性,一方面意味着人工智能的发展应遵循以人为本的理念,尊重人的尊严、权利和自由以及文化多样性,让技术真正能够为人们所用,给人们带来价值。另一方面意味着人工智能与人类之间不是非此即彼的取代关系,而是可以成为人类的好帮手,增强人的智慧和创造力,实现和谐的人机关系。此外,可用性还意味着包容性,要求技术赋能于人,尤其是残障人士等弱势群体及少数族裔。
确保公平正义,防止偏见和歧视,是可用性的一个基本要求。这意味着人工智能应公平、平等地对待每一个人,避免造成不公平歧视,加剧或者固化社会不公平。一方面,应践行“经由设计的伦理”(ethics by design)理念,即将隐私、公平、安全、非歧视、福祉等伦理价值的保障融入到AI产品、服务的设计当中,确保算法的合理性和数据的准确、时新、完整、相关、无偏见和代表性,并采取技术方式识别、解决和消除偏见。另一方面,应制定解决歧视与偏见的指南和原则,并可通过伦理审查委员会等方式发现、解决潜在不公平歧视。
第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其他意外后果,实现安全、稳定与可靠。在该原则之下,一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。
就数字网络安全而言,可靠性意味着,人工智能应遵守隐私法律要求,加强隐私保护和数据安全,保障个人对数据的控制,防止数据滥用。在技术上,人工智能应遵循“经由设计的隐私”(privacy by design)理念,采取加密、匿名化等技术措施加强隐私保护,探索隐私友好型的机器学习方法,如联邦学习(federated learning)。
第三,可知(comprehensible)。人工智能应当是透明的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。人们对技术的信任来源于对技术的理解。然而,现代人工智能系统越来越成为一个“黑盒”,甚至有时连研发人员都无法理解它们的造物。《科学》杂志将破解这一“黑盒”视为人工智能领域的重大难题,为此,研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。
为了实现可知性,不同主体如消费者、政府等需要的透明度和信息是不一样的,还需要考虑知识产权、技术特征、人们的技术素养等事项。一般而言,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。更进一步,考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出,而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。
此外,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使。一方面,由于人工智能对个人和社会的潜在影响,确保社会公众能够参与到人工智能的研发和应用活动中是至关重要的。为此,社会各界应为公众参与创造机会,诸如用户反馈、用户选择、用户控制等,也包括利用人工智能系统的能力促进公平赋能和公众参与。另一方面,公众参与也可以通过行使个人权利的方式来实现。为此,需要尊重数据保护和隐私权、表达和信息自由、非歧视等个人权利。同时,对于人工智能作出的决策,在适当的时候提供异议和申诉机制以挑战这些决策;对于人工智能造成的损害,提供救济途径并能追究各参与方的法律责任。
最后,还需要保障个人的信息自决,比如,确保个人能够合理知晓其在与人工智能系统直接互动、其为人工智能系统提供了个人信息等,并就人工智能系统的目的、功能、限制、影响等向用户提供相关信息,以保障用户对人工智能的预期和一般性控制。
第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。只有当效益和正面价值显著超过可控的风险和消极影响时,人工智能的发展才符合可控性的要求。此外,“可控”还意味着,在人与机器关系中,对于机器所作的决定及其后果,需要考虑由人来承担最终责任,以确保人机共生的社会不失范。
长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionary principle),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。此外,可控性要求人们必须考虑人工智能应用的边界和底线问题,对人工智能技术的武器、监控、人类增强等特殊用途进行限制和规制。
当然,信任的建立,需要一套规则体系,伦理原则的确立只是起点(图 1)。最左端是软法性质的规则,包括社会习俗、道德规范、行业自律等;往右是强制性规则,比如规制组织内行为的法律(如公司法),适用于工业产品的标准,针对医疗、金融、贸易等细分领域的监管规范,等等;再往右是刑法的威慑;最右端是国际法,比如禁止生化武器的国际公约。对于人工智能,人们需要一套类似的规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。在技术伦理的最新发展阶段,未来将可能出现一系列围绕数据和人工智能算法的法律規范。需要遵循以下几个原则:
第一,避免采取统一的专门监管。企图为所有的人工智能应用制定统一的监管框架是不现实的,各个行业的专门监管机构最能评估人工智能对特定领域的影响并采取适宜的监管措施。
第二,采取包容审慎、敏捷灵活的规制方式。技术以及商业模式快速发展和迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免严格、细致的法律要求,而是可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。
第三,遵循分阶段的监管思路。例如,在落实具体监管措施时,应首先考虑人工智能给公共安全和消费者带来的风险是否可以通过既有的监管框架来调整;其次应当考虑这些既有的监管框架是否可以充分且有效地规制这些风险;如果一项风险游离于既有监管框架之外,最后才应当考虑是否需要对监管框架作出修订或增加,以便更好地应对人工智能带来的独特问题。