浮婷
近年来,负责任研究与创新(Responsible Research and Innovation, RRI)逐渐成为研究热点。它建立在多学科背景的理论基础上,是对包括人工智能、互联网、大数据、纳米技术、基因研究等新兴研究与创新领域的深刻反思。在工业革命以及工业革命之前的时期里,科学技术往往以一种绝对正面的力量而存在,它被哲学家认为是一种美德,也被称之为人类社会进步的标志。而在两次世界大战中,科技开始呈现出“恶”的一面,催生了包括核武器在内的威胁人类命运的成果,成为了战争的帮凶。
科学研究的“价值中立主义”最早由德国社会学家马科斯·韦伯(1914年)提出,这一理论强调的是包括社会科学在内的所有研究应当秉持一种“价值中立”的原则,实际上指出了科学研究从选题到提出假设都包含着主观的价值判断。科学研究中纯粹的“价值中立”实际并不存在。为此,负责任研究与创新完全扬弃了所谓的“价值中立”,主张在新科技影响越来越重大的背景下,在研究与创新阶段就贯穿对影响负责任的理念,实现社会价值、环境价值和道德标准的和谐统一,真正将“社会中的科学”转变为“为社会的科学”以及“与社会共生”的科学。
在负责任研究与创新的理论模型中,具有代表性的是英国学者斯蒂尔戈与欧文等(Stilgoe et al. ,2013年)提出的“预见性—反思性—包容性—回应性”四维框架。其中“预見性”是指研究与创新本身所涉及到重大影响需要提前进行分析、认知与管理,既包括了对风险的预防也包括了对于参与者、受益者、替代方案等一系列问题的关注;“反思性”是指研究与创新必须充分考虑法律法规的约束条件和道德要求,确保实验室中的研究与创新能够充分反映社会诉求。“包容性”是指研究与创新的过程必须最广泛地邀请利益相关方参与,并将关键群体的诉求纳入到研究重点议程范围。“回应性”是指保持研究与创新全过程的透明和接受监督,并对政策监管、技术标准、知识产权、文化背景等诸多方面积极做出回应。“预见性—反思性—包容性—回应性”四维框架能够促进责任价值融入实验室的基础研究与企业所推动的应用创新的过程,对于人工智能这样基础研究与企业创新并行的前沿热点领域尤为重要。
1.预见性:我们需要什么样的人工智能?目前人工智能的快速发展是移动互联产生的大数据、机器学习算法演进和硬件发展遵循摩尔定律共同驱动的结果。如果说人工智能发展在多种条件成熟之后具备了发展的前提和动力,那么应当将人工智能引向怎样的方向则是超越技术范畴的社会问题。我们需要考虑的不仅仅是人工智能研究创新需要避免什么,同时也应该清楚的是我们究竟希望从人工智能发展中获得什么。这里需要纳入考量的两条必要原则是:A. 人工智能的研究与创新需要利于经济、社会环境可持续发展。人工智能的意义远不仅仅体现在商业价值,目前企业推动的人工智能模式识别大量被用在了推销产品和制造消费需求上,所有寻找所谓用户“痛点”的商业策略都可谓不痛不痒,关于资源、环境、社会平等等方面的重大问题却鲜有关注,这是一种缺乏预见的方向性偏差。B. 人工智能的应用与创新要有利于个体赋能和人的价值实现。“AI云”即云端的人工智能计算,不应该仅仅为大型企业所掌控,而应当像互联网走出军方的实验室最终成为现代社会的基础设施那样,成为人人都可以便捷利用的个体赋能工具,并能够通过数字化的手段和实时沟通策略,进一步将分散的人类智慧聚合起来,成为使个体专长得到充分发挥的“人机协同系统”。
2.反思性:需要从人与机器的层面同时进行反思。人工智能研究与创新应当最大限度避免管中窥豹的思维,仅从单一的领域与单一的视野出发很容易将研究与创新引向极端,单纯的技术思维不可取,而单纯的商业思维同样也不是最佳解决方案,需要将相关研究创新置于社会—技术系统中认识与分析。这里同样存在着两种反思,A.第一种是研究者与政策制定者的反思。“好心办坏事”往往都是由于过于自信和缺乏反思。不仅研究者们需要反思自己的研究方向和具体的技术构架,商业领域的创新者们同样需要反思人工智能的应用与推广策略,而政策制定者们则更需要有长远的眼光和视角,不能被短期的效果和利益所蒙蔽。B.第二种是构建的人工智能需要具有反思性。强调机器拥有对目标的反思能力听起来似乎还很遥远,但却是关系到人工智能是否会造成威胁的关键因素。如果我们继续向着人类智能的方向塑造人工智能,那么最危险的莫过于最终出现了极其高效并可以通过一切手段实现其目标,但又缺少人类的自我反思能力的人工智能,其后果显然将会是灾难性的。
3.包容性:人工智能需要最广泛的利益相关方参与。究竟谁应当决定人工智能未来的发展方向?目前人工智能的发展中,社会力量的参与和影响微乎其微。普通公众对大数据、算法和人工智能缺少必要的了解与认知,更谈不上监督与参与,市场目前在这一过程中发挥决定性作用,很多人工智能的应用与产品匆匆投向市场,只能接受社会公众消费行动这种唯一的检验方式。然而商业上成功的产品未必就代表着正确的发展方向。这里增加包容性的两点建议是:A.企业与政府在相关决策过程中应促进利益相关方参与。随着人工智能技术的应用,科技巨头企业已日益向着基础设施提供者和“社会公器”的角色演变,这就需要这些企业在收集和运用大数据时,超越单纯的经济价值驱动和企业家个人偏好驱动,开展相关方合作使创新能够服务于社会整体利益;政府在制定与社会关系重大的人工智能政策时,同样需要尽可能广泛地纳入各个群体的意见。B.为利益相关方参与准备资源和平台。这些资源和平台包括信息公开的机制和渠道,必要的知识与技能的培训,政策与理论的储备,以及对公众对于自己数据权益使用敏感意识的培养等。
4.回应性:人工智能研究与创新必须克服“黑箱”与“盲点”。目前人工智能研究流行的神经网络算法,在输入和输出结果之间的调试过程存在着难以确知的“黑箱”,即研究人员也弄不清楚算法自身进行了怎样的演化并产生了最终的结果。这从安全性的角度来看风险极高。针对这样不明确的研究与创新应当怎样回应?需要重点关注以下两点。A.技术上的回应。对于高度不确定性的“黑箱”技术是否一定要采用?是否有技术上的替代方案?在运用的同时有没有建立类似自动切断电源这类的技术安全屏障?B.制度上的回应。必须使制度和政策设计跟上技术的发展,不应该有法律和政策上的盲点,要明确相关影响的主体,产生了什么样的影响就应该对什么样的影响负责,通过合理的制度框架明确责任关系的归属,是应对人工智能可能带来的风险的最后一道保障措施。
编辑|胡文娟 wenjuan.hu@wtoguide.net
作者单位:中国社会科学院工业经济研究所