苗芳艳
(东南大学 人文学院,江苏 南京 211189)
社交机器人在人类生活中扮演着越来越重要的角色,为增强用户的信任和提升用户的接受度,其服务过程中需要收集和处理用户的个人隐私数据。隐私数据的收集引发了与用户相关的一个关键问题——隐私悖论。隐私悖论(private paradox)是“用户一方面担心隐私安全,另一方面热衷于分享个人的隐私信息。”[1]这种隐私态度和隐私行为之间的矛盾即是隐私悖论。隐私态度是用户对自我隐私泄露或者侵害的感知和意识,隐私行为是用户对自我隐私信息的处理和保护。研究发现,当用户对社交机器人的感知利益超越隐私保护时[2],隐私态度和隐私行为容易出现不一致的现象。本文从用户隐私的理性计算、隐私的认知偏差和无隐私风险的评估三个角度分析人机交互中用户隐私悖论的成因,并尝试从隐私设计、隐私增强和隐私制度三个层面提出消解人机交互中用户隐私悖论的路径。
社交机器人在协助人类完成日常任务时,与人共享着空间、环境和数据。许多用户接受它们作为日常生活中的一部分[3]。其在开发和使用过程中通过收集用户需求、偏好和期望等数据,了解用户的个人习惯和生活方式,增进用户对社交机器人的信任度。然而,如何以尊重用户隐私的方式开发和使用社交机器人,成为发展可信社交机器人的伦理难题。由于隐私定义和分类的复杂性,人机交互背景下的隐私概念未得到学界的统一,有必要厘清社交机器人背景下隐私概念的复杂性和隐私悖论的真实性。
隐私的概念随着技术的发展而复杂化。技术和隐私关系的讨论可以追溯到19世纪90年代便携式摄影设备的出现,技术的发展促使隐私从公共空间走向个人空间领域,改变了政府、研究人员、公众等对技术和隐私关系的思考。以往隐私仅限于某些公共领域,如用于公共空间或经济行为等。但随着智能技术尤其是社交机器人的发展和使用,个人空间领域的隐私发生了很大的变化,出现了用户数据被机器制造商收集甚至滥用的现象。学界对隐私的关注越来越多,如通信、计算机科学、心理学、社会学、信息系统、经济和法律等学科,众多学科对隐私的关注使隐私的概念变得更为复杂。社交机器人因其自主性的特征和多样化的角色增加了隐私概念的复杂性。
1.社交机器人作为家庭用户的助手,具有移动性和自主性,配备各种传感器。例如,视觉传感器和红外传感器。这些传感器允许机器人感知周围的环境并与用户互动以发挥更个性化的服务。在互动中它们会接触到有关用户身体、偏好和生活习惯的隐私数据,可以获取更多的个人数据。
2.社交机器人隐私的复杂性取决于人机交互中用户如何看待社交机器人的角色,用户对社交机器人角色的定位成为隐私边界的关键。若用户把社交机器人视为朋友、伴侣,那么,用户愿意和社交机器人共享其更多的个人信息,甚至把潜在的敏感信息也分享给机器人。在用户不知情的情况下,用户的数据可能会被制造商应用于其他不道德甚至违法的数据收集活动。在此意义上,社交机器人的隐私包括两部分:一是物理隐私。因为社交机器人以自主的方式监视个人,与用户共享生活空间和环境;二是信息隐私。随着社交机器人拟人化和个性化发展的需求,收集用户越来越多的个人偏好、习惯等数据时,加大了对用户的敏感信息以及数据访问等披露的风险,隐私问题变得更为复杂。
20世纪90年代罗杰·克拉克提出四种不同类型的隐私,包括身体隐私、个人数据隐私、个人行为隐私、个人交流隐私[4]。他是第一个以逻辑化、结构化和连贯的方式对隐私进行分类的学者。随着新兴技术的发展,克拉克的隐私分类无法涵盖新技术潜在的隐私问题,芬恩等人提出七种隐私类型以应对新兴技术。例如,无人机、人类增强技术和生物识别技术,这一更为详细的隐私类型同样可以应对社交机器人隐私的复杂性。
芬恩提出的七种隐私包括身体隐私、行为隐私、信息隐私、数据和图像隐私、思想和感情隐私、空间隐私、团体隐私[5]。在人机交互领域克里斯托夫·卢茨等学者把社交机器人的隐私类型分为物理隐私(physical privacy)、机构信息隐私(institutional informational privacy)、社交信息隐私(social informational privacy)[6]。物理隐私主要是社交机器人与物理对象和空间交互的隐私类型;机构信息隐私是机器制造商、政府机构和第三方(数据经纪人等)的信息控制、数据保护和数据处理的隐私类型;社交信息隐私是围绕个人访问和数据保护而进行数据收集的隐私类型。这一分类比七种隐私划分更为简洁。因此,本文认同用户与社交机器人交互的隐私概念包括三大部分:物理隐私、机构信息隐私和社交信息隐私。
欧洲机器人伦理工作室成员(The Euron Roboethics Atelier)指出,隐私是与社交机器人相关的必须解决的伦理问题之一[7]。社交机器人技术与其他技术不同,它有三个重要的功能:一是任务功能,使自己“有用”,即能执行各种任务,帮助人类;二是社交功能,能够以社会可接受的方式与人类互动;三是自适应功能,这些功能可以响应用户的不同需求和偏好[8]。要发挥三大功能尤其是社交功能,必须通过收集用户的数据实现个性化的服务。与用户相关的物理隐私、机构信息隐私和社交信息隐私,一方面模糊了个人隐私信息收集的界限,另一方面使得用户很难明确自己隐私的边界,造成用户在隐私态度和行为上出现矛盾,隐私悖论由此产生。
社交机器人有关隐私的实证研究也证实了用户隐私悖论的真实存在。克里斯托夫·卢茨通过结构方程模型对社交机器人三种隐私进行了实证研究。研究发现:受访者最关心的是机构信息隐私即制造商方面的数据保护,其次他们担心社交信息隐私如黑客攻击和跟踪等隐私风险。相比而言,信息隐私(包括机构信息隐私和社交信息隐私)更令用户担忧。瑞恩·卡洛指出社交机器人背景下的隐私风险主要通过三种方式产生:直接监控、频繁访问和社交风险[9]。
1.社交机器人影响用户最直接的方式是监控。社交机器人作为家庭助手,为了给用户提供更加个性化、智能化的服务,配备了一系列精密的传感器和探测器,包括隐藏式的红外摄像机、声呐或激光测距仪、气味探测仪、GPS等,极大增强了对用户甚至家人的监视能力。当下警方可以通过充分的法律程序进入家庭进行搜查,但根据《电子通讯隐私法》,许多社交机器人收集的数据,现在可以由政府在仅仅发出传票甚至是发出要求的情况下全部获取,直接监控使得购买社交机器人的家庭和用户遭受个人隐私披露的风险。
2.社交机器人影响用户隐私的另一种方式是访问用户的私人历史数据。社交机器人成为政府、执法人员、黑客等获取有关居民隐私空间内部信息的一种新方式。目前的技术还存在被黑客攻击和破坏的危险,私人历史数据一旦被披露,用户的隐私数据潜藏着被侵犯甚至不正当利用的伦理风险。
3.社交机器人的社交风险给用户的隐私保护增加了复杂性。社交机器人因其本身具有社会交互性和拟人化的特征,“用户和社交机器人之间形成了信任和依恋,反过来会影响甚至操纵用户自发地向机器人披露私人敏感信息。”[10]研究表明,拟人化的技术使得人们会做出更加积极的反应,产生隐私保护的复杂性。这种复杂性表现在三个方面:一是用户把社交机器人引入家中,参与到个人的生活中,会使得自身的隐私保护机会减少;二是社交机器人不仅可以获取更多的私人信息,还拥有比人类更完美的记忆、不知羞愧的心理和不知疲倦的身体,社交机器人超越人类的有限理性,使得人们愿意信任社交机器人;三是因社交机器人社交特性导致高度敏感的个人信息披露,社交机器人将了解用户的习惯、偏好、疾病信息和个人情况等敏感的信息。社交机器人的直接监控、频繁访问和社交风险使得人机交互中的隐私问题更加复杂。
社交机器人是高度个性化的产品,适合用户的需求、行为和偏好。因此,在提供个性化服务的同时面临着披露用户的数据信息的伦理风险。一方面,用户希望社交机器人能够为其更好、更个性化地服务;另一方面,为了换取短期利益人们不得不以披露自己的隐私为手段,这样隐私悖论就真实存在于人机交互的过程中。
隐私和数据治理在欧盟委员会的可信人工智能道德准则被确立为优先考虑的一项要求[11]。学界有多种理论可以解释隐私悖论。例如,隐私计算理论、有限理性理论、社会理论、解释水平理论、量子力学理论[12]。目前在隐私悖论的文献中,隐私计算(privacy calculus)是占主导地位的一种理论解释[13],国内也有学者从隐私关注视角下通过隐私计算阐述隐私悖论的成因框架[14]。隐私计算理论认为用户有意识和理性权衡披露信息隐私的成本效益比[15]。具体而言,用户会对社交机器人的隐私风险和收益进行计算。如果隐私收益大于风险,他们将愿意披露隐私以获取更大的收益,即便社交机器人有着潜在的隐私披露风险,用户也愿意披露隐私信息达成自己的意图,这造成人们在隐私问题上认知和行为的分离。本文分析人机交互中用户隐私态度和隐私行为不一致的成因如下:
用户隐私的理性计算,是用户通过隐私风险收益决定与社交机器人在何种程度上共享个人的数据等的行为,在社交机器人使用意向上发挥着重要的作用。用户对隐私行为进行决策时,会通过计算权衡最大化效用和最小化风险,以决定自己的隐私信息披露的程度和保护的界限。然而,在风险收益计算中,会忽视隐私保护的问题,具体有以下几种情况:
1.隐私利益感知大于隐私风险感知。用户和社交机器人建立关系的过程可以分为初次使用、探索使用和管理使用三个过程。从前一个过程到下一个过程的进展源于对相关利益和风险的理解和感知。很多时候用户还未能了解清楚社交机器人的使用功能,更无法意识到社交机器人传感器可能收集到私人数据的界限和权限,用户只感知到社交机器人带来的利益,往往容易忽视社交机器人潜在的隐私披露风险。因此,社交机器人所能给予的经济利益、个性化服务和社会效益会抵消用户隐私感知的负面影响。用户很难再去关注服务供应商的传感器和位置跟踪等系统问题,更倾向于关注实际收益。因此,会出现隐私披露的风险。
2.个性化特质导致隐私悖论。社交机器人本身作为个性化的机器人,走进人们的生活。有学者提出在隐私模型中加入五大人格因素和跨文化差异的影响[16]。无论文化环境如何,外向性和随和性个体更能感知到收益,这会导致具有这种个性特质的人将会在人机交互中分享更多的个人隐私。隐私信息披露的程度和保护的边界因个性化特质迥异,个性化的特质导致人们处理个人隐私的方式不同,隐私态度和行为也存在差异。
与用户隐私的理性计算相反,隐私利益和风险权衡也会受到用户认知偏差的影响。用户容易感受当下可以获得的利益,但对自己隐私披露的风险不那么敏感,甚至不在意。因此,用户在对社交机器人个人数据的判断上会出现系统性的偏差。研究表明,用户的决策过程受到各种认知偏差和启发式的影响[17]。具体影响如下:
1.启发式。启发式是一个经验法则,是人们基于自己的经验、知识和直觉做出快速判断的心理捷径[18]。利益启发式倾向于披露更多的个人信息[19]。用户在使用社交机器人时,为了使社交机器人的功能达到最优化,不断尝试最大化利益,在用户有限理性的认知范围下,选择低于标准的方案来满足自己的利益需求,会导致对隐私风险的认知偏差。从用户主观的角度讲,对隐私风险的感知和评估是在用户个人隐私保护的经验基础上进行的,即使用户先前拥有隐私的相关信息,但也无法准确理解所有的信息,这导致了用户心理上允许个人快速做出决定,引起隐私认知偏差的产生。
2.乐观偏差。乐观偏差有两种情况:一种是用户低估自己隐私被侵犯的风险,另一种是高估其他人经历不良事件的可能性。乐观偏差的两种情况最终导致用户相信自己的隐私没有受到威胁,这种情况增加了隐私风险披露的可能性。由于乐观偏差,偏见感知、低估隐私风险等,不了解社交机器人关乎私人数据的重要性和用途,甚至低估隐私风险。即便可以设置机器人在数据上的权限,也没有采取适当的行为保护私人信息,造成用户对社交机器人的感知利益超过了隐私风险,导致对未来隐私风险的风险评估不足,使得在隐私和利益权衡中出现了自相矛盾的情况。
3.即时满足。即时满足是用户倾向于立即得到满足而忽略未来隐私披露的风险,用户会选择短期的收益,即时满足感超越了隐私担忧。社交机器人既能够为人们的生活提供便捷的服务,又能够作为伴侣给予情感意义上的陪伴。随着情感机器人的开发和推广,未来社交机器人会满足人类更多的需求和欲望,变得更加人性化。当用户为了满足一时的需求,而用自己的习惯、爱好、性格等私人数据作为交换,可能会面临更大的隐私风险。例如,私人数据被披露、身份被盗窃或冒用等,从长远来看,即时满足潜藏着隐私披露风险的可能性,对用户自身和社会的危害不可忽视。
在一些情况下,用户几乎不具备和隐私相关的知识,用户对社交机器人的期望超出了对隐私的关注和考虑。尽管存在隐私问题,用户往往愿意接受社交机器人的隐私政策和披露的条件,这是因为用户可以通过访问实现自己的期望目标。人机交互中,用户为了便捷性忽略隐私问题,增加了个人隐私数据披露的伦理风险。
还有一种情况,用户和销售社交机器人的公司存在信息不对称的情况,并非双方了解彼此的价值观和规则。用户可能不知道自身隐私的重要性和隐私披露的后果,由于用户不了解隐私的重要性,最终的隐私风险无法评估,导致用户隐私态度和行为出现自我矛盾的情况。信息不对称的状态阻碍了用户理性行动和最大化利益的评估,无法实现社交机器人为人类增加福祉的伦理目标。此外,如果用户不知道社交机器人会自动收集自己生活习惯、性格等数据,不知道开发商如何利用他们的隐私数据,很难合理判断未来个人隐私信息披露的可能性。
基于理性的风险收益计算,在用户权衡收益和风险时,大多数情况下更倾向于收益而不是风险,提供个人的隐私数据以换取社交机器人提供给用户的便捷性和个性化服务,忽视隐私的感知风险。基于认知偏差的隐私评估,由于启发式思维、即时满足和乐观偏差,用户在隐私风险评估时产生认知偏差,导致收益和风险计算的失真。基于无隐私风险的评估则大多因为用户信息不对称造成隐私问题被压制或被忽视。用户在社交机器人的购买意向和使用意愿中,隐私态度和隐私行为的不一致导致了隐私悖论的产生,影响了人们对社交机器人的信任,侵犯用户的个人隐私数据,甚至被不法分子滥用。
如何消解人机交互中用户隐私悖论的问题,我们从以下三方面提出消解的路径:
通过技术专家的设计,社交机器人个性化的功能得以实现。要实现个性化的服务,用户的隐私必须纳入其设计的事项、目标、流程和规范操作中,以便在人机交互中提供安全和强有力的隐私保护。安·卡沃金提出了隐私设计(privacy by design),这一设计理念是在web应用程序和社交网络背景下引入的。隐私设计的重点是通过在风险识别和管理周期整合隐私问题,把隐私整合到设计和开发的过程中[20]。为了确保社交机器人在开发和使用过程中尊重用户的隐私,卡沃金提出了隐私设计的七大原则。把这七大设计原则转移到社交机器人领域,为人机交互中用户的隐私保护提供保障。
1.预防性和主动性原则。隐私设计的方法要在隐私披露发生之前预测并阻止,重点在于防止隐私披露,因而坚持预防性和主动性的原则是必要的。“随着技术力量越来越强大,我们必须在预防性原则和主动性原则之间达成一种可持续的平衡。”[21]这要求社交机器人公司的开发者首先要明确承诺在伦理设计时制定并实施隐私的高标准,通常要高于全球法律法规制定的标准。其次要在用户和利益相关方明确共享隐私的承诺。最后,在设计中要识别不良的隐私设计,预测不良的隐私后果,能够主动纠正不良的隐私设计。
2.隐私作为默认设置。社交机器人的隐私设计旨在最大程度保证用户的隐私数据。这一设计原则要求把用户的隐私数据内置在社交机器人程序中。首先,要求在设计前主动告知用户收集数据的目的,其目的在于使社交机器人更加个性化,符合用户自身的需求。因此,要在收集、使用、保留和披露个人数据之前告知用户。其次,收集数据应该保证公平、合法,限定在特定领域所必需的内容。再次,应保证用户数据的最小化。用户数据的可识别性、可观察性和可链接性应该最小化,确保用户信息的安全性。最后,用户的信息应该限制在个人已同意的相关事项中,如果用户数据被非法利用,则启用预防原则,默认设置保护用户的隐私。
3.在设计中嵌入隐私。卡沃金指出隐私必须以整体、综合和创造性的方式嵌入技术、运营和信息架构中,要求考虑广泛的背景,征求利益相关者的意见。在嵌入隐私这一原则时,首先要采用一种系统的、有原则的且可以信任的隐私标准和框架。其次,要公开人机交互过程中隐私的内容和风险评估,清楚记录隐私风险和降低这些风险所采取的措施,把事前预防和事后补救的措施嵌入和隐私设计中。
4.隐私设计要实现最大化的有益效果。对社交机器人的隐私设计不仅要满足机器人公司所涉及的声明和承诺,还要满足多方利益相关者的期望。在既定的技术、流程和嵌入隐私设计中,尽最大可能兼顾不同用户的需求,以综合、创造性的方式实现优化和整合的功能,最大程度满足用户的隐私保护需求。
5.隐私设计要确保社交机器人的生命周期。社交机器人的隐私设计,需确保从开发到使用过程信息安全完整的生命周期。隐私安全关系到机器人制造商在承担用户个人信息安全的责任。制造商和技术专家应该确保用户数据在整个社交机器人生命周期中的机密性、完整性和可用性。
6.隐私设计要求透明性。社交机器人的隐私设计旨在向利益相关者保证,在机器人材料、具体数据操作都是透明的,透明性对于建立问责制和信任至关重要。社交机器人隐私设计的透明性,一方面要求机器制造商在收集用户信息时承担保护用户隐私数据的责任。涉及用户隐私相关政策和程序的责任都应该有所记录,并在适当的时候进行沟通。在向第三方传输用户信息的时候,必须确保用户个人信息的安全性。另一方面,要求制定的隐私政策公开和合规。公开和合规是问责制的关键。与用户相关的隐私政策应随时供用户了解,建立投诉和补救机制,用户能够采取正当的途径保护自己的隐私。
7.以用户为中心的隐私设计。社交机器人的服务对象是用户,应该把用户的隐私利益放在首位。隐私设计要围绕用户的兴趣和需求进行有意识的开发和设计,确保用户个人信息的安全性、准确性。在访问设置上,允许用户访问自己的个人信息,并告知用户信息的用途和披露的目的,用户在实际应用中可随时做出访问设置的调整,确保用户个人数据的安全。
引入7大原则对社交机器人的隐私进行设计和开发,嵌入在“风险识别、隐私分析和风险缓解”[22]这一隐私框架中,使得设计隐私友好型社交机器人的伦理原则得以实施。从隐私设计上消解社交机器人隐私悖论,制造商增加对隐私友好型机器人的投资,开发隐私友好型的社交机器人,应该以简洁透明的方式向用户传达隐私保护工作,设计可信的社交机器人服务好用户。
用户没有意识到个人数据披露的风险,往往认为没有隐私问题,一旦将隐私风险透明化会导致用户对社交机器人的接受度和信任度降低。基于这种情况,布罗德本特等学者引入了隐私增强行为(privacy enhancing behavior)[23]这一术语。作为社交机器人使用的道德主体,用户有权控制自己的个人数据,对个人数据的使用有知情同意的权利。因此,社交机器人制造商需要遵守隐私法,考虑用户的隐私权利。通过增强用户和制造商隐私保护的意识,做出隐私增强的行为。
1.隐私增强需要以用户为主体。在用户把社交机器人视为朋友或者伴侣的场景中,信任、诚实和可靠性至关重要[24]。社交机器人被当作人类伴侣时,会给人虚幻的感觉,用户对社交机器人的信任“像朋友一样”,愿意分享更多的个人隐私信息。社交机器人的商业目的是为用户提供个性化和人性化的服务,对机器人的信任程度影响着用户购买和使用它的意图。使用社交机器人时,用户应该意识到自身是主体,不仅是决策的主体,也是行动的主体,社交机器人的服务功能需要用户的数据支撑。因此,我们要以“人”为中心,增强用户的隐私意识。以用户为主体,促使用户在涉及到隐私问题时能够做出明智的决定,转变用户的心理状态,从“不是我的”转化为“是我的”。用户意识到如果忽视隐私声明和政策会伴随隐私披露的风险,从而做出规避风险的判断和决策。
2.隐私增强需要用户参与。用户参与,一方面能够根据自身的实践在隐私保护方面提供真实的体验和社会经验,为隐私设计提供经验性的依据,与技术专家、伦理学家等人员共同参与隐私友好型机器人设计的过程中,寻找在用户与社交机器人交互时规避隐私侵犯风险的方案。另一方面,用户参与,能够让用户了解到社交机器人功能中的安全和隐私问题以及潜在的风险,区分机器人可以识别、感知到的数据和机器人推断出的信息,加强用户对社交机器人隐私保护能力的认识和判断。让用户意识到隐私问题,这种意识使用户能够更好地面对隐私问题,既能最大程度发挥社交机器人的个性化服务,同时保护好用户的隐私信息。用户参与作为一种隐私增强的方法,为社交机器人开发更多功能和服务提供了新的视角。
3.对用户进行隐私相关知识的培训。对用户进行隐私知识的培训,包括对隐私理念、隐私内容和隐私保护实践三个方面,深化用户对隐私的感知和理解。在隐私理念上,要提高用户了解社交机器人隐私信息的主动性,用户自愿接受其购买社交机器人产品的隐私培训,及时更新培训的内容,对不同功能的社交机器人涉及的个人隐私进行个性化的培训,加深用户对人机交互中涉及隐私理念的认识。在隐私内容上,主要包括对社交机器人隐私问题的风险评估、隐私安全设置管理、可访问的控制、识别恶意的黑客或者病毒等。通过培训的方式,既丰富用户对隐私内容的认知,又要学会处理隐私问题,维护自身的隐私权益。在隐私培训路径上,有两种方式,即在线培训和现场培训。在线培训不受时空限制,方便用户在线交流。现场培训可以让用户在现场根据实际操作进行培训,亲身感知社交机器人的隐私保护设置和隐私政策等,把隐私的理论知识和实践问题结合起来。通过对用户的隐私知识和实践的培训,提升用户隐私保护的意识,让用户在实践中可以真切地操作社交机器人的隐私设置和管理,减少用户隐私态度和隐私行为之间不一致的情况。
用户对隐私的担忧影响使用社交机器人的意向,明确社交机器人隐私信任的边界,可以增强用户的信任。相关的研究表明,信任作为中介变量可以显著调节隐私关注对隐私行为的影响[25]。从隐私政策声明和隐私边界两个方面来完善用户的隐私制度,明确隐私信任的边界。
1.明确用户对隐私政策的知情同意内容范围。用户购买社交机器人时,供应商和销售商应从技术和策略上告知用户产品的功能,以及在使用中收集个人信息数据的权限。用户通过了解社交机器人的隐私声明政策,感知隐私的风险,用户根据隐私声明政策可以修改隐私设置的方式实现隐私保护,故而减少隐私披露行为发生的可能性。
2.在法律层面规范社交机器人的隐私边界。确定社交机器人规范化的法律准则,对社交机器人隐私的立法要有前瞻性和预见性,以便应对未来技术进步出现更为复杂的隐私问题。社交机器人未广泛推广个性化服务时,因研究样本的局限性,未能对真正使用社交机器人的用户进行实证研究,加之不同文化的差异,社交机器人隐私伦理问题的复杂性,全球对社交机器人的隐私立法还未出现。随着社交机器人逐渐向个性化机器人、机器人管家的方向发展,对社交机器人隐私边界的法律规范十分必要。
3.在道德层面规范社交机器人的隐私边界。强化社交机器人产品生产方、销售方、用户的责任意识。一方面,在生产和销售过程中坚持正确的义利观,坚守良知,在企业逐利的过程中要保证产品的安全性和人性化;另一方面,要求用户在使用产品时,深入了解产品的各种功能以及可能会出现隐私侵犯的具体情境,在隐私风险和感知利益过程中,从认知和理性双系统角度做出理性的道德决策,促进隐私态度和隐私行为的一致。
试图把隐私悖论放在社交机器人与人的交互应用中讨论,社交机器人因其社交的特性带来了更为复杂的隐私问题。通过用户隐私的理性计算、认知的隐私偏差和无隐私风险的评估三个角度分析隐私悖论产生的成因,从隐私设计、隐私增强和隐私制度消解用户隐私悖论的问题。社交机器人隐私悖论问题,无论在法律层面还是道德层面,目前未能确定可靠的解决方法处理其理论和实践困境。唯一可以确定的是,作为具有主观能动性的人,要谨慎地面对这些问题,在迎接新技术的同时,要提升自己在技术时代的道德品质和隐私保护意识。在未来社交机器人的隐私悖论研究中有两个不同的方面:一是社交机器人应用场景的隐私设置较为困难。社交机器人目前的隐私保护将很难实现,包括密匙管理也可能被意外破坏。二是用户本身的问题。用户被视为机器人的外行,往往难以意识到隐私的风险。因此,在开发和设计中,如何以用户为中心设计,需要参与式设计进行评估,增强用户的隐私保护意识。既可以提高用户对社交机器人隐私问题的敏感性,又有助于机器人专家和团队深入了解用户的思想、愿望和习惯,推动开发人员设计出更友好和可信的社交机器人,实现良性的人机交互。