人工智能商业环境下消费者信任研究综述

2021-05-06 15:50李丹丹
中国市场 2021年11期
关键词:透明化风险人工智能

李丹丹

[摘 要]伴随着人工智能的快速发展,消费者信任成为人工智能商业应用的主要障碍。文章在对国内外关于人工智能消费者信任相关研究文献梳理的基础上,分别从消费者信任与人工智能商业应用的关系研究、消费者信任与人工智能风险因素研究、消费者信任与透明化人工智能发展研究三个方面进行了综述,并对我国人工智能环境下消费者信任研究提出建议。

[关键词]人工智能;消费者信任;风险;透明化

2019年10月23日英国《自然》杂志刊登了谷歌关于实现“量子霸权”的论文,文中说谷歌公司量子计算机200秒的计算量,当前最先进的传统超级计算机需要花费1万年时间[1]。与此同时,一批来自谷歌及加拿大高校、研究所的专家正在通过图神经网络来“训练”人工智能的嗅觉,同时研究人员还尝试让机械臂获得触觉。人工智能的各个方面都在飞速发展,而人工智能基于算法的自主决策系统早已被广泛应用于数据挖掘、搜索引擎、自然语言处理、生物特征识别、医学诊断、新闻、教育、就业、保险、投资、广告、治安和机器人等领域[2]。据2016年美国自由职业者网站Time ETC研究显示,尽管人工智能为人类生活带来很多便利,人们与人工智能的互动也变得越来越频繁,但许多美国人并不信任它们,54%的美国人甚至称从未与人工智能接触过[3]。虽然我国“互联网+”、数字经济已经处于世界领先地位,但人们对“贴心”推送广告的担忧,以及人工智能可能的风险甚至对超人工智能“奇点”来临的恐惧[4],使得许多消费者不信任人工智能或者对人工智能保持警惕。因此,如何让消费者信任人工智能已经成为人工智能商业应用的关键核心问题。

1 消费者信任及其与人工智能商业应用的关系研究

如果将消费实践简化为消费者与商家之间的交换行为,那么消费者信任是交易行为得以成功的前提[5],只有有了信任人们才可能去实施某一行为[6]。经济学家认为消费者信任是经济交换的润滑剂。传统现实消费中,消费者信任会通过感官系统等方式对交易双方真实信息不断地掌握、验证、巩固,但人工智能环境下,原有的消费者信任模式被打破,消费者信任不仅变为基于符号和信息的判断性交往,更加复杂的是交往对象也由传统消费单一的交易主客体关系演进为既包含传统主客体关系又包含消费者与人工智能环境关系的两种关系,且在消费者信任建立过程中这两种关系不是独立的,而是相互关联影响的。

消费实践中产生的不确定性和风险是消费者信任产生的根本原因,在完善的契约关系中消费者信任是没有必要存在的,消费者信任可以降低交易过程中的不确定性和风险。在人工智能商业环境下,存在着较高的不确定性和风险,许多的研究发现消费者信任是消费者智能网购意愿的决定因素[7]。由此可知,人工智能商业应用的核心是消费者信任建设,消费者信任是人工智能商业应用发展的当务之急。

2 消费者信任与人工智能风险因素研究

2.1 消费者感知风险

感知风险概念是由哈佛大学的鲍尔从心理学引入营销学的,他将感知风险定义为:由消费者的行为产生的、而他自己不能明确预期的后果[8]。感知风险的后果有两种类型:一种是产品本身性能属性的不确定性;另一种是购买产品后带来的时间、货币、心理等损失的不利后果。人工智能既是产品又是环境的双重属性,使消费者能够同时感知到两者。随着人工智能由弱人工智能走向强人工智能直到超人工智能,以及人工智能不透明的“思考决策”过程,消费者首先感知到人工智能环境可能带来“被控制”的不利后果;同时人工智能产品可能产生的隐私侵权甚至人身伤害权责混乱风险,也使得消费者同时感知到人工智能产品“不安全”的不确定性。基于感知风险对消费者信任有负向影响作用,[9]因此,消费者会因为人工智能感知风险大而降低对人工智能的信任度。

2.2 消费者被控制风险

现代人已经生活在人工智能算法时代,随着人工智能算法的不断演进,算法代替人类做决策越来越多,全球经济政治的运行模式正在发生改变。人工智能算法不仅是一项新技术,它已经是新的生产要素,更可能是新的权力形态,财富和权力可能会逐步集中在“数字精英”手中。Google(谷歌)、Facebook(脸书)、阿里巴巴、百度等科技企业都是短时间积累了千亿、万亿资产的科技型企业,它们无一例外的在人工智能领域投入巨额资金并已经拥有了较大的技术领先优势。目前,消费者被人工智能算法控制的主要体现是隐私被记录、意识被诱导,即所谓的“懂你的人伤你最深”[10]。如果未来人工智能算法不透明问题没有完全解决,消费者被控制风险有可能上升到消费者阶级被控制,造成前所未有的社会及政治不平等[11]。再往后甚至有可能演变为消费者种群被控制。因此,消费者普遍对被控制风险表现出担忧甚至恐惧[3],所以现阶段消费者对人工智能的信任度较低。

2.3 消费者责任风险

人工智能的快速发展,在商业应用中必然会逐步替代人类劳动。目前,人工智能自动驾驶交通事故、无人机错判误杀平民等现象就遇到了权责混乱、无法追究的问题,人工智能“给我们带来无尽欣喜与期望的同时,也逐渐挑战着我们既有的法律、伦理与秩序”[12]。 即使将人工智能的错误或不当行为都归咎到设计师、程序员,然而“程序有可能是由众多的人共同开发的,程序的产生可能无法追踪到某个具体的个人或组织”[13]。因此,消費者使用人工智能产品的责任风险较大,使得消费者对人工智能产品的信任度偏低。

科研人员发现,人们对人工智能的错误很“敏感”[14],人们会带着各种“偏见”放大人工智能的风险因素。在消费者的意识里人工智能的各种风险会成倍增长,这种状态困扰着消费者并始终挥之不去,其结果是许多消费者选择不信任人工智能或者对人工智能保持警惕。

3 消费者信任与透明化人工智能发展研究

人工智能崛起,要么是人类历史上最好的事,要么是最糟糕的[15]。人类如何“引导”人工智能决定了其未来的发展方向,现有人工智能风险并非它的天然属性,而是技术发展不确定性因素导致负面效应的体现[16]。理论上来讲人工智能的问题都可以通过新的技术发展得到解决,难点在于如何影响技术向某个方向发展。透明化人工智能就是在人工智能消费者不信任的背景驱动下,通过新技术发展让人工智能全部的“思考、判断”过程都能被消费者看到、听到、感觉到,让消费者对人工智能“知人知面又知心”。

3.1 人工智能軟件透明化

人工智能环境以及智能产品都由智能软件实际管理运作着。人工智能软件又被称为“算法黑箱”,这是因为消费者既看不到它的思考逻辑,也看不出它什么时候思考、思考什么内容,只有完全打开“算法黑箱”才能实现人工智能软件透明。加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所的研究提出了一种能够自我解释的算法,有助于人类理解人工智能的决策过程。人工智能软件技术发展不仅要能实现100%透明运行,还要能让消费者自由的参与,比如允许消费者对软件算法进行适当的修改。

3.2 人工智能硬件透明化

人工智能产品硬件透明化更多的是为了配合软件透明技术进行的硬件选材。比如智能产品硬件可以采用全透明材料制作,内部选装光、声、温度、烟等感应设备,这样既可以将软件反馈信息的字符直接显示在透明机体上,又可以将软件运算状态、反馈信息通过光、温度、声音等方法直接、准确地“表达”出来。同时,透明的智能产品材质可以使消费者直观的看到系统“思考区域”,有效地避免了人工智能产品去中心化衍生的责任安全问题。

百度创始人李彦宏说,“‘闷头憋软件的移动互联网时代已经结束,软硬件结合的人工智能时代已经来临”[17]。透明化人工智能通过强大开放的软件和先进透亮的硬件的结合,真正实现了人工智能既拥有超强能力又获得消费者信任的设计目标。

4 总结

目前国内外对人工智能的研究主要集中在技术研究、伦理建设等角度,从消费者视角探析人工智能商业应用中消费者信任问题的研究比较少。本文从消费者信任与人工智能商业应用的关系入手,重点分析了消费者视角下人工智能的风险因素以及透明化人工智能发展的必要性。虽然影响人工智能发展方向的因素有很多,但是上述研究论述无疑证明了透明化人工智能发展对消费者信任以及对人工智能商业应用的重大意义。

我国人工智能的研究几乎与世界同步,但人工智能商业应用却走在了世界的前列,在智能支付、智能共享等经济领域,科技创新结合巨量市场已经打造出了世界第一的人工智能市场经济。笔者在国内外已有研究基础上,结合我国人工智能发展现状来研究人工智能环境下消费者信任情况,构建中国基于消费者信任的人工智能发展理论,这对正确引导我国国民和企业制订科学合理的发展计划具有重要的理论意义和现实意义。

参考文献:

[1] 王露露.新的计算机时代已到来?英媒:谷歌宣称实现量子霸权[EB/OL].(2019-10-25)[2020-08-07].http://www.cankaoxiaoxi.com/science/20191025/2393802.shtml.

[2] 汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6):27-38.

[3] 郭浩.研究显示美国人不信任人工智能系统[EB/OL].(2016-05-31)[2020-08-07].http://tech.163.com/16/0531/18/BODOG9NC00097U7R.html.

[4] 玛格丽特·博登.AI:人工智能的本质与未来[M].孙诗惠,译.北京:中国人民大学出版社,2017:175.

[5] BRANN PETER,FODDY MARGARET.Trust and the consumption of a deteriorating common resource[J].Journal of Conflict Resolution,1987,31(4):615-630.

[6] NIKLAS LUHMANN.Trust and power [M].London:Polity,2017:101-105.

[7] JARVENPAA S,TRACTINSKY N,VITALE M.Consumer trust in an internet store [J].Information Technology Management,2000,1(1):45-71.

[8] 冯建英,穆维松,傅则田.消费者的购买意愿研究综述[J].现代管理科学,2006(11):7-9.

[9] 江若尘,徐冬莉,严帆.网络团购中感知风险对信任及购买意愿的影响[J].现代财经:天津财经大学学报,2013,33(1):87-96.

[10] 翟冬冬.大数据杀熟:最懂你的人伤你最深[N].科技日报,2018-02-28.

[11] 尤瓦尔·赫拉利.未来简史[M].林俊宏,译.北京:电子工业出版社,2017:290.

[12] 腾讯研究院.人工智能:国家人工智能战略行动抓手[M].北京:中国人民大学出版社,2017:322.

[13] 王利明.人工智能对民法的挑战[N].中国城市报,2017-09-11(22).

[14] 倪伟波.人工智能的信任危机[J].科学新闻,2018(2):51-53.

[15] 李醒民.人工智能技性科学与伦理[J].社会科学论坛,2019(4):179-203.

[16] 张卫良,何秋娟.人工智能时代异化劳动的技术形态及其扬弃路径[J].理论探索,2019(3):28-35.

[17] 余来文,封智勇,刘梦菲,等.智能革命[M].北京:经济管理出版社,2017.

猜你喜欢
透明化风险人工智能
人工智能与就业
数读人工智能
奉玮:信息透明化是“互联网+”的核心逻辑
透明化会改善治理吗?
加分“瘦身”,高招还应透明化