劝导式技术的伦理审视

2023-09-01 09:31成素梅
社会观察 2023年6期
关键词:伦理算法用户

文/成素梅

在由科学技术驱动发展的当今社会,基于计算机的技术与劝导理论的深度融合所研发出的各类计算产品,正在不断地裂变出越来越多的生活可能和新突破。这些计算产品由于蕴含了劝导功能,已经在教育、运动、游戏、广告、金融、社交、社会治理、卫生保健、电子商务、环境保护、疾病管理、平台管理、个人的自我管理等各行各业得到了极其广泛的应用,并取得了显著的社会效果。问题在于,当这些应用将过去一个人或群体劝导另一个人或群体改变观念或行为,转化为交互式计算系统劝导人或群体改变态度或行为的活动时,劝导就从有形变成无形、从显性变成隐性、从单一行动变成多态行动,体现出更强大的劝说力和诱导性。与此同时,具有劝导功能的技术也会产生许多伦理问题并带来新的伦理挑战。因此,我们迫切需要强化伦理治理意识,对劝导式技术的研发与应用过程进行伦理审视。本文通过对劝导式技术的产生及其内涵的简要阐述,揭示技术劝导活动所带来的伦理问题,探讨相应的治理原则,以求深化我们对人机交互技术的伦理理解。

劝导式技术的内涵及其伦理审视的必要性

“劝导式技术”是由美国社会科学家和行为设计学的创始人福格在20世纪90 年代提出的概念,意指能够影响乃至改变人的观念、态度、价值或行为的人机交互技术,或者说,能够影响和引导用户的观念、态度或行为向着设计者或机构所希望的特定目标演变的人机交互技术。在此基础上形成的“计算机劝导学”泛指劝导设计和基于计算机的技术相互重叠而产生的一个新的跨学科领域,是对如何使以计算机为基础的技术更具有劝导功能,以及如何更有效地改变用户的态度或行为的研究。

就劝导的内涵而言,劝导意味着受劝者自愿接受,而自愿接受源于人的内驱力。因此,劝导不是强迫、欺骗、洗脑等。福格将劝导定义为:“在没有任何强迫或欺骗之前提下,改变人们的态度或行为或者两者的一种企图。”在这个定义中,劝导式技术设计者是本着为用户着想的善良动机,将劝导意图嵌入在人机交互的计算产品中,诱导用户改变其态度或行为。

然而,从认识论意义上来看,这样的初衷和目标潜在地隐含了家长制的思维方式,认为用户普遍缺乏正确选择和做事的能力,需要被引导、被提醒乃至被管控。从方法论意义上来看,劝导式技术预设了技术解决主义的世界观,把运用技术来解决人的问题作为优先选择或重要途径。然而,事实上,劝导式技术并不总是能够做到客观、透明、公平、公正等。在实际应用中,已经出现了种族仇恨、性别歧视、恐怖组织招募、网络犯罪、侵犯隐私、加剧社会不公等许多令人担忧的社会后果。

这种情况要求我们必须提高警惕,用批判的眼光来认真评估劝导式技术的研发与应用,特别是监督与审查智能化决策系统所优化或传播的价值导向,从而引导设计者和商家将技术的研发与应用奠基在坚实的伦理基础之上,防止和避免劝导式技术的误用和滥用。这是因为,就现状而言,绝大多数相关利益方都没有受到过良好的伦理培训,更缺乏系统的伦理知识。我们现有的伦理培训和伦理审查只是在与医学相关的领域内进行,在其他技术的研发领域内几乎是空白。许多技术人员依然持有技术中立论的观点,认为技术的善恶在于使用者,而不在于发明者。比如,刀枪的发明没有对错,刀枪的指向才有对错。

劝导式技术对这种技术中立论、理论伦理与应用伦理的二分思维方式及其相应的概念框架提出了挑战。因为劝导式技术产品的劝导是主动的和场景敏感的,劝导意图的善恶既与研发者的动机和动用的劝导方法相关,也与算法系统的技术限制和人机互动过程中的信息交互等路径因素相关。比如,成瘾或游戏化项目在以自动奖励等方式来改变用户的态度或行为时,就有可能凌驾于人性之上。因此,揭示劝导式技术有可能导致的伦理问题成为规范其发展的必要环节。

劝导式技术的伦理问题与伦理原则

在由数据驱动、越来越智能化的算法系统所进行的劝导活动中,算法系统的劝导方式变化多端,足以让没有专业知识的用户应接不暇;算法系统的劝导意图经久不衰,足以促使用户产生情感共鸣;算法系统的劝导过程随机应变,能够以润物细无声的方式潜在地引导用户的选择。问题在于,劝导式技术的这些优势同时也会带来下列伦理问题:

首先,技术劝导有可能变相地掩盖劝导意图。在人机交互系统中,执行劝导任务的计算产品既是方法,也是方法的执行者。这种双重身份使得它们既可以借助图形、音频、视频、动画、仿真模型、超链接等形式产生协同效应,来获得最佳劝导效果,也可以利用技术本身的新颖性和复杂性来掩盖其真实的劝导意图和分散用户的注意力,使用户在没有仔细审核内容的情况下接受信息,甚至以默认设置的形式迫使用户必须接受预定选项。

其次,技术劝导有可能潜在地限定用户的自由选择权。在人机交互系统中,计算产品控制着互动方式的展开,用户只有选择是否继续进行交互的权力,而没有要求系统做出澄清或解释的权力。技术劝导在应用于一个人时,劝导的成功与否,不是取决于这个人的理性和逻辑推理能力,而是取决于引导其情绪。劝导式技术在应用于“集体”情境和市场时,个人行为不再是自主选择的结果,而是成为被“构造”的结果。

再次,技术劝导有可能使“成瘾”成为新的“鸦片”。内嵌有劝导功能的数字环境,不仅能够根据用户留下的数字行为特征来自动调整系统的互动行为,而且废除了物质是被动的和精神是主动的二分观念,将用户置于被“解读”与被“投喂”状态。特别是对于冲动等情绪的控制还处于发育期的少年儿童来说,他们在数字环境中痴迷或成瘾,不再是意志薄弱或自我放纵的结果,而是由于劝导式技术的设计者利用了儿童的心理脆弱性所造成的,这很有可能将儿童的身心健康置于危险的境地。

最后,算法系统的情感暗示有可能会使人处于不利地位。在人机交互的劝导过程中,当算法系统具有了情境感知力时,它们所提供的情感暗示会影响人,但不会产生真实的情感共鸣。这种不对等关系有可能使人处于不利地位。目前,机器的情感表达是人机交互的道德灰色区域,迫切需要对其进行系统的伦理学研究。

在实践过程中,有效避免产生伦理问题的方式之一是前瞻性地对劝导式技术产品的设计意图、运用的劝导方法、预期得到的社会结果,以及产品在应用中能够被合理地预见到的意外结果等各个方面进行伦理审查。从劝导伦理和技术伦理(特别是计算机伦理)的视域来看,劝导式技术的设计应用应该遵守下列四项伦理原则:

其一,双重隐私原则,意指劝导式技术的创造者必须至少确保像尊重自己的隐私一样尊重用户的隐私。通过劝导式技术将用户的个人信息传递给第三方时,需要对隐私保护措施进行严格审查。因为劝导式技术能够通过互联网等收集用户的信息,并且能够利用其目标用户的信息更有针对性地劝导。由此,创造者在设计收集和操纵用户信息的劝导技术时,有必要遵守双重隐私原则。

其二,公开揭示原则,意指劝导式技术的创造性应该公开其动机、方法和预期结果,除非这样的公开会严重破坏其他道德目标。因为创造劝导式技术背后所隐藏的动机必须是符合道德规范的。劝导式技术可预见的所有结果,在任何时候都不应该是不道德的,即使是在没有技术的前提下进行劝说,或者,即使所发生的结果与劝说本身无关。劝导式技术的创造者必须考虑到,要为其产品在实际应用中能够合理地预计到的后果承担责任。

其三,准确性原则,意指劝导式技术一定不能为了达到其劝导目标而提供错误信息。普通用户一般都会期待技术是可靠的和诚信的,他们在实际运用技术产品的过程中,对技术的欺骗性并没有天生的觉察能力,所以,为了确保计算产品的可信性和避免滥用,劝导式技术的创造必须遵守准确性原则。

其四,劝导的黄金原则,意指劝导式技术的创造者绝对不应该力图使人们相信连创造者自己都不同意的那些事情。这也是罗尔斯在他的《正义论》一书中考虑“无知之幕”背后的伦理问题所支持的黄金法则。

这四项设计原则既是研发与应用劝导式技术产品的底线原则,也是对整个过程进行伦理审查的基本原则。

劝导式技术的伦理挑战与伦理应对

劝导式技术的创造者所遵守的伦理原则只是针对计算产品的设计和应用而言的,没有涉及具体的技术细节问题。实际上,创造者在研发由数据驱动的算法系统时,不可避免地蕴含着三种偏置:一是作为设计者背景认知的社会文化和风俗习惯所带来的既存偏置;二是算法系统在训练时由于数据的不完整所带来的数据偏置;三是算法系统在人机互动过程中所涌现出来的新生偏置。这是由当前运用的机器学习算法的基本特征所带来的。

算法系统的这三大偏置以及计算产品功能的特殊性,使得劝导式技术带来了在原有的伦理概念框架内或根据原有的思维方式无法解决的伦理挑战,其中,最明显的伦理挑战是“责任归属问题”。劝导式技术系统是介于设计者与用户之间的技术系统,这个系统的复杂性与相互关联的居间性使得传统的责任追溯方式变得困难起来,导致下列四种形式的“归责困境”:

其一,归责的因果关系困境。人机交互计算产品的开发与应用涉及多重道德能动者之间的协作与配合,比如,科学家、工程师、设计师、训练师、评估者、决策者、管理者以及监管者等形式多样而分散的实验小组。硬件与软件生产都是在公司设置中进行的,没有一个能动者能够对所有的研发决策负责,通常是多个工程小组分别研制整个计算系统的不同模块。在这种情况下,如果造成损害,在这些相互关联的多重小组之间找出真正的道德责任承担者不再是一件容易的事情。

其二,归责的系统“漏洞”困境。由数据驱动的算法系统必然依赖于关于现象的某种抽象程度的具体假设,算法的统计本性和训练数据的不完整性会导致计算系统出现错误分类、统计误差和不确定的结果等。当机器学习专家把这些“漏洞”说成是机器学习的基本特征时,开发者就有可能将由此造成的损害归因于算法系统的“漏洞”。这样,算法系统的统计性有可能成为道德能动者推卸责任的借口,导致用户不得不被动地承担由此造成的损失。这种现象意味着在技术提供方和用户之间签定了一份无形的“不平等条约”。

其三,免责的所有权困境。所有权与责任是伦理学和法学概念,历史悠久,意义丰富。但计算机行业的趋势是强化产权而回避责任。比如,软件版权授权采用的拆封许可和点选许可中所设立的霸王条款;各类APP等服务条款中的免责声明;以商业机密为理拒绝接受审查;信息物理系统的制造商很可能将责任转嫁给人机回圈等。这些免责的所有权意识或问责文化的弱化趋势,赋予技术公司对规则的优先支配权,将用户的损害视作是运气不佳,从而带来新的社会问题。

其四,归责的人造能动者困境。随着算法的智能化程度的提高,计算系统具有了类似于人的行动能力,体现出人格化的倾向。但计算系统具有行动能力并不意味着本身能够成为像人一样的道德能动者。如果我们依然在原有的问责框架内,把技术过程视为类似于人的认知活动,让技术来承担责任,那么,问责就会被降格为追溯产品质量的优劣,而不再是与道德责任相关的规范性概念。

摆脱这四种归责困境的思路或许是,超越只限于在道德能动者之间分配责任或寻找因果关系的传统思维方式,拓展责任概念的语义和语用范围,提出新的伦理框架,重塑与劝导式技术发展相适应的思维方式,建构免责的赔偿机制,即将物质系统所要承担的责任与应该受到的惩罚区分开来,探索为每个复杂的智能系统筹建赔偿资金池及其合法使用机制等。当然,这里主张由物质系统来承担责任,既不是将责任转嫁给物质系统来规避相关人员的责任,也不是主张惩罚物质系统,而是呼吁提出一种有效机制,在责任难以认定的情况下,使受害者能够获得相应的资金赔偿。

结语:创建有担当的伦理学体系

综上所述,劝导式技术的劝导功能是建立在智能系统具有的自动化决策能力基础上的。用户喜欢采纳自动化决策的原因之一是,他们普遍认为,自动化决策是建立在海量数据基础上的,不仅比人类的决策更迅速更可靠,而且能够提供超越人类想象力的决策建议。然而,这种认知忽视了算法系统特有的偏置和不确定性有可能带来的决策失误。因此,道德能动者在设计技术劝导产品时,既需要呈现知情同意的选择标志,确保算法系统的劝导意图、劝导方式以及社会结果与公认价值保持一致,与用户利益保持一致,以及尊重用户的自主性,也需要自觉地加强伦理意识和人文教育,统筹安全与发展的关系。伦理学家需要从建构追溯相关责任人的伦理框架,拓展到建构涵盖智能化的物质系统在内的伦理框架,从当前强调被动负责任的技术伦理转向积极担当的技术伦理。法学家需要系统地探讨智能化的算法系统或智能机器是否具有法律主体资格等问题。监管部门则需要探索对劝导式技术全过程的伦理审查机制,来确保智能化社会的健康运行。

猜你喜欢
伦理算法用户
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
关注用户
关注用户
一种改进的整周模糊度去相关算法
关注用户
如何获取一亿海外用户