郑扬涛
(宝鸡文理学院 政法学院,陕西 宝鸡 721013)
在数字经济及计算机功能指数性增长的刺激下,数据资源成为助推经济社会发展不可或缺的基础动力。国家不再是掌握和编撰大数据唯一可行的主体,年轻的技术型企业、互联网企业成为数据的领军者,相对过去即使是个人也能清晰地了解和获取到生活中的大量信息。
数据视角下的“人”,往往不被视为完整的个体——不再是由生理体征、情绪性格、知识素养等所构成的社会人,而是将欲望、情感、行动进行量化分析的“模块人”。衡量学科成熟的标准是一个学科是否被“数学化”,现代社会的发展进程,一个领域是否被“算法化”也可以作为衡量该领域智能化水平的指标。应用伦理学中“把人视为数据信息节点”这种内在逻辑的确是“数据算法的异化”,但一味把算法的异化视为完全磨灭人性价值的洪水猛兽,给予强烈的拒斥或单向度地提出各种道德禁令甚至以回归现代犬儒主义为口号,这反而不是一种积极的伦理观点。
我国庞大的互联网用户为大数据的产生和运用提供了良好的数据基础,通过大量的用户行为数据不断喂养算法使得分析模型逐渐成熟精准。不可否认的是,通过爬虫获取信息流以建立的大数据分析库,让任何人有机会利用创造性信息和通讯技术开辟出惊人的新天地。确实技术所带来的便利往往是人们对未来发展的期望,这总是和乐观主义相伴而行,但我们不能忘记的是,以大数据为代表的技术文明发展过程同时也伴随着诸多问题。我们应该在技术带来的经济诱人的愉快场景中清醒过来,从个体到社会结构层次方面,正视和反思技术带来的潜在伦理结构性问题。
在讨论由技术伦理与算法时代所造成的伦理困境之前必须要明确技术价值立场,无论是技术还是算法并不是价值中立的,相反是带有价值负载的,正是因为其负载有伦理价值,才会引发或加剧原有的伦理问题。认为技术本身是中立价值,只有涉及技术应用才涉及伦理层面的想法显然不适合当下,这就好比美国步枪协会(National Rifle Association,NRA)在为每年枪支造成的死亡事故进行辩解,坚持“枪不杀人,人杀人”,死亡事件之所以发生是因为“自由本质”的枪支落入了不法分子的手里,或者说某人不负责任地使用枪支。这样无形中把责任完全从技术和器械上进行分离,将技术和操作者对立起来,认为技术本身无可厚非,也不具有价值负载,这样的逻辑结论显然对于技术研发者和科研活动的人员来说取消了伦理责任可以探讨的空间。“蜜蜂建筑蜂房的本领使人间的许多建筑师感到惭愧。但是,最蹩脚的建筑师从一开始就比最灵巧的蜜蜂高明的地方,是他在用蜂蜡建筑蜂房以前,已经在自己的头脑中把它建成了”。因此不光是技术的研发目标甚至是技术的使用成果对于设计者而言因是心知肚明,因为运用技术以达成目标是其应有之义。
目的和方法的割裂体现在于操作性责任和设计性责任的分离。算法设计之初就包含价值和伦理效应,其中商业层面数据算法运用最为普遍,因此以平台算法运用为例。用户是否都是根据自我意识进行“自主行为”,充分享有操作自主权且对自己的行为负责呢。显然不是,大数据分析计算行为偏好的算法逻辑所制造的个性化服务选择,就旨在使使用者或操作者难以自拔,俗称“信息茧房”。算法设计之初就含有引导具体操作的目的,这客观上剥夺了用户的设计性责任,用户的设计性责任体现在拥有个体的信息偏好和行为偏好,但偏好与选择不应该成为算法培养的对象,美其名曰“个性化推送”,这恰好让设计者的责任轻巧地一扫而尽。人是群体动物,这是由人的习性所决定,但是现在变成了“同质化信息”动物,这是由算法所决定;另一方面个性推送特性使得用户难以跳出既定的算法舒适圈。
手段与结果的割裂首先体现在行为秩序和道德责任的矛盾。算法和数据负有价值载体性质,作为虚拟的“无形的手”不仅影响个体的行为秩序甚至能够把道德责任进行弱化进而形成新的矛盾冲突和对立。通过分析得出用户的偏好进行服务推荐,以加大用户选择的概率,该算法对于用户行为影响属于间接的。因为用户也可以拒绝接受所提供的算法服务,一定程度上也可以通过扩大或改变行为模式以实现算法检测行为流的改变,增添异质的行为信息从而使得算法重复上述的服务逻辑。但是否算法都只愿意做“建议者”的角色呢?显然不是,为了更好地达到算法的目的或资本追逐利益的步伐,干脆从个体意识的源头——“意识的能动性”进行限制或直接控制个体的目标设定,数据直接对个体的行为作出分配管理。这或许与人类在设计机器时候的逻辑有些相像,而这的确已经成为普遍的现实。
其中最为典型的就是国内的各个外卖平台对于外卖骑手的数据技术控制。通过GPS和数据的算法对外卖骑手的劳动配送过程进行监管,在此基础上数据算法还会进一步在劳动秩序上进行指导。假使不同骑手分别从A地点到B地点进行送餐,数据算法会根据送餐员平均时间进行计算从而制定出这条线路所需要的最少时间,这个时候某一个送餐员发现了一条捷径C,这个时候很多骑手就会改变路径,提前完成送餐的任务,从而节约了送餐时间,这也是骑手发挥主观能动性的表现,然而平台的数据根据每一次骑手的信息记载都会进行数据更新,对于骑手的轨迹进行记录,将这个捷径的完成时间变成了新的最少完成送餐的规定时间。这样让其他的骑手也必须要达到算法所要求的最少时间,如果不走捷径那么就无法完成数据平台所给的任务,骑手的自主性不断地被压缩和限制。数据算法将导致控制权的重新分配,控制权的分配使得原有劳资矛盾进行转移,劳资关系的隐藏导致骑手的用户关系成了新的矛盾点。埃德沃兹(Edwards,1979)在《充满斗争的领域》中将传统控制系统进行分析,提出控制系统包括三要素,分别是指导工人工作、评估工人表现与对工人实施奖惩。对外卖骑手进行任务和评价的环节在平台上就能全部完成,数据算法替代了管理者进行任务分配和优化指导,给予消费者进行外卖点评权力从而作为骑手的绩效奖惩重要部分。当数据算法代替了管理者,通过电子产品屏幕上直接进行任务分配和指导,当送餐过程中产生矛盾和事故,骑手难以直接和上级控制对象进行对接和沟通,显然骑手和算法也无法进行“沟通”,骑手与消费者的接触占劳动环节的比例最大,而矛盾也由此被迫转移,原本劳资关系产生矛盾时仲裁者是第三方例如政府,但是在消费者和骑手产生矛盾之后,数据平台反而成了第三方仲裁,而这是被平台所转移出去应承担的责任。
应用伦理学,尤其是数据伦理学和技术伦理学,不执着建立普适的、庞大的范畴和方法论体系,行业学者们也逐渐从理想的道德实验问题中转到现实中来,例如列车难题、缸中之脑、安卓机器人等,永不停止的理论思辨和伦理规范的反复论证的缺陷在于忽视了实践层面的问题。现实中的数据伦理学和技术伦理学不仅要关注推理和理论中的反例,更要重视具体技术和经验层面的影响因素,从而尝试提出包含可行的实践性与多维度设计层次的解决方案。随着大数据技术应用普及,数据伦理的讨论也愈热烈,学者们也提出关于技术伦理和数据伦理的应对之策,例如学者张贵红认为当下正面临基于价值敏感设计(value sensitive design,VSD)的应用伦理学设计转向。VSD理论主要包括概念分析、技术分析与经验分析三个层面内容,这代表着使用者的价值道德被更多地纳入技术设计本身进行考量。数据伦理发展过程中伴随出现的数据泄露和个体隐私权侵犯、社会信息贫富差距等道德和价值问题,都可以从以上三个层面进行实践分析进行研究。学者张煌提出大数据时代的分配正义三大挑战,分别是分配机会正义、程序正义、责任正义挑战,根据罗尔斯对于所有社会基本价值——自由与机会,收入与财富等都应该平等分配。因此提出大数据时代下的机会均等原则、分配标准与程序合理原则和利益与责任同等分配原则进行正义观念的贯彻。面对算法存在的伦理困境,各种方式都旨在让道德成为算法的有机构成,实现道德化的算法或者算法道德化,从而构建出“道德算法”,而实现道德算法的路径都需要设计者能够蕴含充足的“道德形象力”——超越自我和情景的限制,拥有更加广阔的伦理视角与道德感受力。中西学者都对数据算法下的伦理构建提出具体的践行方式,表面上这是人类作为“碳基生物大脑”同机器核心“晶体硅处理器大脑”之间的博弈,实际上本质就是德国伊曼努尔·康德(I.Kant)所提出的道德箴言:“我们永远不能仅仅把人作为达到目的的手段,而始终要将之作为目的”。这句话被视为人类追求平等的本体论依据。无论在什么时代,例如当下的数据时代,“人是目的”的内涵也历久弥新——不能把人作为估价量化的工具。