可解释人工智能及其对管理的影响:研究现状和展望

2021-10-12 08:29张成洪黄丽华
管理科学 2021年3期
关键词:可视化决策人工智能

张成洪,陈 刚,陆 天,黄丽华

1 复旦大学 管理学院,上海 200433 2 卡耐基梅隆大学 约翰·海因茨公共政策与管理学院,宾夕法尼亚 匹兹堡 15213

引言

近年来,人工智能(artificial intelligence,AI)技术的持续创新和广泛应用,为人们在各领域的生产实践活动提供了高效的智能化产品支持,极大地推动了人们生活方式的智慧化进程。而大数据时代丰富的数据资源更是催生了AI产业巨大的商业价值,据估算到2021年,全球范围内针对AI的投资额将从2017年的120亿美元增长至522亿美元。据数据统计网站Statista分析表明,到2025年,全球AI市场的创收额将从2017年的4 800亿美元增长至25 900亿美元。然而,近段时间以来,随着以深度学习算法为代表的“黑箱模型”取得巨大成功,学术界和产业界对增加AI可解释性的呼声日益高涨[1]。由此,一个全新的研究领域——可解释人工智能(explainable artificial intelligence,XAI)应运而生。

可解释人工智能是一套针对AI系统应用过程生成解释性内容的技术方案,致力于解决AI系统中由模型可解释性不足产生的可靠性、透明性、因果性、公平性和安全性等一系列问题[2]。可解释性的增强为AI模型更加深入和广泛的应用创造了有利条件,为大数据时代推动AI技术发展、深化AI技术应用、实现良好的人机协同和人机共生提供有利契机。

目前,可解释人工智能已经受到来自学术界、产业界和相关政府部门的热切关注,人们对发展可解释人工智能的需求日益迫切。本研究从分析可解释人工智能的兴起入手,系统总结可解释人工智能理论研究和方法研究现状,追踪可解释人工智能在不同领域的应用动态;剖析目前可解释人工智能方法层面和应用层面存在的不足,重点探究可解释人工智能发展对管理学领域带来的挑战;最后,结合管理决策研究,指出未来可解释人工智能领域的若干关键研究问题。图1给出本研究的总体研究框架。

图1 研究框架Figure 1 Research Framework

1 可解释人工智能的兴起及其对AI发展的影响

当前,可解释人工智能概念已在社会各界引发巨大反响。在学术界,2017年国际人工智能联合会议(international joint conference on artificial intelligence,IJCAI)举办了以可解释人工智能为主题的研讨[3];2019年针对可解释机器学习研究的书籍《Interpretable Machine Learning》出版[4];2019年,人工智能领域期刊《Artificial Intelligence》发表了基于社会科学视角的可解释人工智能理论研究成果[5]。在产业界,2016年美国国防高级研究计划局(defense advanced research projects agency,DARPA)发布了可解释人工智能项目计划[2];随后,可解释人工智能在医疗、金融、交通、军事、法律和安全等领域的应用陆续展开[6]。在政府方面,2017年1月美国公共政策委员会发布文件阐述了关于算法透明和可责性的7条原则,致力于解决算法带来的偏见和歧视问题;同年2月,欧盟议会通过决议,就制定《机器人民事法律规则》提出具体建议;同年12月,纽约市议会通过了算法问责法案,以解决算法歧视性问题。然而,目前对可解释人工智能的研究尚处于起步阶段,一方面,研究者对可解释人工智能缺乏统一的理解,就如何构建可解释人工智能方案缺乏全面、有效的理论和方法论指导;另一方面,智慧医疗等AI技术应用的前沿业务应用领域已经展现出对可解释人工智能的迫切需求,如重症监护病房脓毒症的准确预测[7]和不良药物反应预测[8]等。

AI的核心内容是如何让机器进行人性化的、合理的思考,并合理执行与人类思维相关的活动,如决策、解决问题和学习等[9]。自然语言处理、知识表示、自动推理、机器学习、计算机视觉和人机交互等共同构成了AI技术的核心。与这些技术相关的机器学习模型依靠其强大的学习能力为人们进行复杂任务的决策提供了强大的智能化支持。与此同时,大部分机器学习模型由于自身决策过程无法被观察和理解,预测结果的准确性和可靠性也难以被判定和把握,因而在可信任性、透明性、安全性和公平性等方面深受AI系统应用者的诟病。

AI模型的可解释缺陷主要包括:①信任缺陷,模型的黑箱特性使其决策过程难以被调控,模型存在固有偏差和随机偏差,使预测结果不稳定,难以被信任;②透明性缺陷,模型复杂的学习机制使输入数据与输出结果之间的决策流程难以具体化和形象化,这种学习过程的不透明性导致用户无法理解模型运行状态的好坏,从而无法对预测结果的准确性做出判断;③因果性缺陷,模型无法提供对输入数据与输出结果之间因果关系的解释,如利用模型辅助医疗诊断时,当模型的预测结果与领域专家的决策结果发生冲突时,通常需要依靠模型内在的因果逻辑对是否采纳、采纳何种决策结果做出判定;④公平性缺陷,由于模型对不同目标的预测能力存在不均匀分布,使其在特定目标上的决策结果产生偏移,进而引发一系列公平性问题,如在AI系统的实际应用中,曾经出现过AI模型对人种和性别等造成歧视的案例;⑤可视化缺陷,现有深度学习模型复杂的学习机制使对模型决策过程进行可视化变得异常困难,随着AI技术应用的推广和普及,可视化成为帮助大众用户理解AI模型的最有效的手段之一,此外,AI技术研究者也需要通过借助可视化方式对模型的学习性能进行调节和改善。伴随着“无法被理解”的缺陷和隐患,机器学习模型为基于AI系统的决策、应用以及管理AI系统带来诸多挑战,甚至造成网络安全[10]、数据隐私[11]、数据安全[12]、医疗安全[13]和法律安全[14]等方面的损失。

对AI模型进行解释的现象背后,是人们对AI技术发展方向的思考,是对机器学习模型应用价值的质疑,是对理解机器模型决策过程的诉求[15]。具体来看,可解释人工智能研究通过回答4个方面的问题,对AI系统可解释性不足的缺陷进行突破。①是否做(Whether)、谁需要做(Who)和何时做(When)。给定某个AI系统的应用场景时,是否需要增强AI模型的可解释性,AI模型的学习过程和预测机理是否可以理解,AI模型的预测结果是否可以信任和使用[16];面向谁进行AI模型的解释,谁需要AI模型的可解释性[17];AI系统的应用在什么时候需要可解释,AI模型什么时候可以信任、什么时候需要调节、什么情况下会出错[5]。②为什么(Why)。可解释人工智能系统的另一个目标是要告诉用户为什么是这个结果,为什么不是其他结果,结果为什么正确或为什么错误等[2]。③怎么做(How)。AI模型的学习过程是如何进行的,AI模型的预测结果是如何得到的[6]。④做什么(What)。MOLNAR[4]认为,构建可解释人工智能系统的关键是告诉用户预测结果是什么,即需要为用户对AI模型的学习结果的理解提供解释;哪些AI系统的应用场景需要可解释性,同一应用场景下的预测结果中哪些是可以信任和使用的[18]。

综合看,可解释人工智能不仅对AI的可解释性进行了突破,也为AI的发展产生积极影响。可解释人工智能的兴起催生了一系列可解释人工智能方法和方案,为构建兼具学习性和可解释性的AI模型奠定了基础。因此,有必要梳理可解释人工智能的相关概念和理论,探究其发展脉络和趋势,厘清可解释人工智能的研究现状,从而为推动可解释人工智能的进一步发展提供指引和借鉴。

本研究对已有研究进行梳理,过程如下:首先,对可解释人工智能的概念进行基本检索和理解。其次,以基本检索结果中的重要文献为支撑依据,确定准确和全面的可解释人工智能相关检索关键词。检索关键词的重要支撑文献包括4类:①以机器学习透明性[19]和机器学习中的可解释模型[20]等为主题的可解释人工智能相关出版书籍;②可解释人工智能相关综述性期刊文献[5];③人工智能领域和深度学习领域重要的国际会议[21](如AAAI等)的论文集中与可解释人工智能相关的文献[22];④以可解释人工智能为主题的国际研讨会,如ACM on Conference on Information and Knowledge Management[23]、Explainable Computational Intelligence(XCI)[24]、Workshop on ExplainAble Recommendation and Search(EARS)[25]等。最后,以Explainable Artificial Intelligence(XAI)、Interpretable Artificial Intelligence(IAI)、Explainable Machine Learning(XML)、Interpretable Machine Learning(IML)、Explainable Deep Learning(XDeep)和Interpretable Deep Learning(IDeep)等为搜索关键词,在多个数据库中进行文献检索,最终保留249条结果作为核心文献。

2 可解释人工智能的研究现状

本研究对可解释人工智能研究现状的分析围绕理论、方法和应用3个层面展开,基于大量已有研究总结了关于可解释人工智能研究现状的脉络框架,见图2。

图2 可解释人工智能研究现状分析框架Figure 2 Analysis Framework of Research Status Regarding XAI

2.1 可解释人工智能基础理论研究

2.1.1 可解释人工智能概念研究

可解释人工智能概念的起源要追溯到2004年,VAN LENT et al.[26]首先运用英文缩写XAI表示可解释人工智能,可解释人工智能的概念由此诞生。然而,VAN LENT et al.[26]对可解释人工智能的研究仅局限于探讨全谱命令(full spectrum command,FSC)系统在军事仿真和电脑游戏中的应用,这与现在人们对可解释人工智能的理解存在较大差异。在随后的几年里,零星出现了提及可解释人工智能概念的文献,研究内容涉及军事[12]和教育[25]。综合看,早期的相关研究并未对可解释人工智能理论和方法的发展提供实质性见解。直至2016年,美国国防高级研究计划局发布了可解释人工智能研究计划,正式拉开了可解释人工智能快速发展的帷幕。之后的几年中,可解释人工智能在人工智能、计算机、人机交互、医疗和金融等多个领域掀起了研究热潮。

图3给出本研究收集的可解释人工智能核心文献数量随时间(年份)变化的趋势,可以看出,2016年是可解释人工智能研究的“爆发之年”,可解释人工智能相关文献数量自2016年起大幅增长,并呈现出逐年增长的态势,该趋势从一定程度上反映了可解释人工智能正逐渐成为AI领域的新主题。同时,本研究通过对收集的文献进行总结后发现,DARPA发布的可解释人工智能研究计划是被引用的热点文献,由此可见,“DARPA事件”是引发可解释人工智能研究热潮的重要原因之一。

图3 可解释人工智能核心文献收集数量的时间变化趋势Figure 3 Quantity Changing Trend of Collected Core Literature Concerning XAI Over Time

本研究对收集的文献进行统计分析发现,已有的大部分可解释人工智能文献为会议论文,期刊论文的数量较少,说明目前针对可解释人工智能的研究尚处于起步阶段。分析结果还表明,大部分文献都集中于可解释人工智能的理论和应用研究,说明当前对可解释人工智能方法的研究正处于探索阶段。综合看,目前针对可解释人工智能的研究方兴未艾,研究者对可解释人工智能的定义也尚未形成统一认识。2016年,DARPA在其可解释人工智能研究计划中首次较为完整和明确地阐述了关于AI可解释性的概念,即一整套能够产生更多可解释模型,能够维持高水平学习性能,能够使用户理解、信任和有效管理AI的机器学习技术[2]。在IJCAI出版的可解释人工智能研讨会报告中提到,可解释人工智能旨在应对来自不透明机器学习模型的挑战,使这些模型更好地用于解决分析(如分类)或合成(如规划和设计)等任务[3]。MILLER[5]将可解释人工智能定位为AI、人机交互、社会科学三者的交叉,并将其描述为一种为自身或其他系统决策过程的潜在原因提供解释性因素的可解释代理。在可解释人工智能的研究中,还出现了一些与可解释人工智能含义相近的概念,如可解释机器学习[4]、可解释深度学习[27]、可解释推荐系统[17]、可解释的计算智能[24](explainable computational intelligence,XCI)和可解释人机交互[19]等。纵观这些概念,其核心要义都是在给定决策目标的AI系统的应用中,面向用户生成对机器学习模型的解释性描述。

可解释人工智能的目标是对AI系统进行解释,其构成可以理解为一个由包含AI系统要素在内的多个要素构成的有机整体。GUNNING et al.[2]提出的可解释人工智能系统包含用户、学习任务、可解释模型、可解释接口和决策结果等模块;ZHANG et al.[17]基于个性化推荐提出的可解释人工智能系统包含社会化信息、特征提取、推荐模型构建和推荐结果的解释等模块;ESCALANTE et al.[20]提出基于视觉计算的可解释人工智能系统,包括用户、模型、可解释性学习、模型的集成和事后推理等功能模块;MILLER[5]则从社会科学的角度给出可解释人工智能的理论框架,即理论、模型、数据、对象实体和各要素之间的解释性连接关系。

总的来看,①解释性描述的生成是可解释人工智能系统的核心模块,涉及可解释模型、可解释性评估和人机交互过程等内容。②机器学习模型是可解释人工智能的主要解释目标,其包含从数据处理、特征提取、模型构建到预测结果输出等多个环节。③AI系统用户是可解释人工智能系统面向的对象,包含AI系统的构建者、测试者和终端用户等。④可解释人工智能研究是AI研究在可解释性方面的重要拓展,对于改善AI技术的应用效果、提升人机协同效率和增强人机互信有着重要意义。⑤虽然AI系统与可解释人工智能系统在构成上都包含数据、模型和决策任务等要素,但AI研究与可解释人工智能研究有本质区别。从研究目标看,传统的AI研究注重模型学习性能和预测效果的提升,而可解释人工智能的核心目标是对AI系统的学习过程和预测结果进行解释。从研究内容看,AI研究的核心是机器,致力于实现对复杂任务的智能化决策,如自然语言处理、模式识别和机器学习等;而可解释人工智能以AI系统用户为主,通过提升算法透明性、因果性、稳定性、安全性和公平性等,实现对传统AI模型学习过程难理解、预测结果难解释等缺陷的突破,为用户更好地信任、理解、管理和应用AI系统开辟全新的视野。由此可见,二者是定义在不同目标和内容框架下的两种研究范式。

2.1.2 可解释人工智能中的可解释类型研究

常见的可解释人工智能分类依据是可解释性程度和范围不同。SHEH et al.[28]将可解释人工智能划分为源、深度、范围3个维度,①源维度是指可解释性的来源不唯一,有可能来自模型自身的决策过程,也有可能是来自其他的外部模型;②深度维度描述可解释目标的不同层次,其解释对象可以是特征,即解释特征在模型决策中的作用,也可以是模型,即解释模型如何训练以及如何生成预测结果;③范围维度包含两种,当可解释目标集中在某个特定的决策过程时,称之为证明型解释,否则称为教学型解释。LUNDBERG et al.[29]着眼于从机器学习系统中提取有用的语义信息这个学习目标,为可解释性定义了深度(或程度)和类别两个维度,深度(或程度)维度考虑模型必须在多大程度上完成决策过程才能生成解释或满足可解释性要求,具体包含对输入特征的解释、对特征使用的解释和对模型的解释3个方面。类别维度包含多种类型的可解释,例如,①教学型解释,将人所掌握的概念和知识迁移到机器,可用的方式包括利用代理生成假设、逻辑规则、对话框和状态空间的可视化等;②基于反省性信息的解释,当机器的决定与领域专家的期望之间存在差异时,提供少量的信息,使用户能够确认机器决策是否正确,并知道错误可能发生的地方;③事后型解释,引入可解释模型生成对“黑箱模型”的解释,而不对“黑箱模型”自身基本的决策过程进行展示等。

针对有些模型自身具备一定可解释性的情况,研究者将可解释人工智能的可解释类型划分为内部(直接)可解释和外部(间接)可解释。模型自身的可解释性被称为内部可解释,如MOLNAR[4]列举了多种具备自身可解释性的模型,包括正则化稀疏模型、线性回归模型、逻辑回归模型、广义线性回归模型、决策树模型、朴素贝叶斯模型和K近邻(KNN)模型等;间接可解释是引入外部代理模型为决策过程提供解释力,如机器辅助诊疗决策中引入领域专家,通过运用专家掌握的领域知识对模型的学习过程进行解释,同时对模型学习结果的合理性进行评判[30]。也有研究者根据可解释目标和效果的不同将可解释人工智能划分为全局可解释型和局部可解释型两类[6],全局可解释型强调从整体视角出发,对模型的框架和参数进行分析调整,以提高其学习性能[27],如引入透明性算法作为可解释代理算法,但无法对模型特定和局部的预测结果做出合理解释;局部可解释型更专注于单个或局部样本和特征的预测效果,致力于提供对某个特定预测结果的解释,如特征重要性评估[31]等。此外,还可根据学习任务的不同将可解释人工智能理解为基于个性化推荐的解释、基于特征的解释、基于文本分析的解释、基于图像分类的解释和基于社交媒体信息等不同场景下的可解释性生成[17]。表1总结了可解释人工智能可解释性的不同类型。

表1 可解释人工智能可解释性类型Table 1 Types of XAI′s Interpretability

2.1.3 可解释人工智能中的可解释性评价研究

对可解释人工智能可解释性的评价,即如何判定一个模型的可解释性程度大小,可解释人工智能方案的构建和可解释性的生成包含哪些具体内容,是当前可解释人工智能研究关注和探讨的热点。

可解释性评价指标的作用可归结为对模型(算法)可解释性能的评价和对模型应用效果的评价两个层面。在模型可解释性评价方面,MOLNAR[4]为机器学习模型学习性能和可解释性的测量定义了5种指标,①公平性,预测过程和预测结果是否刻意偏向于某组对象;②安全性或隐私性,模型是否能够保障敏感信息的安全;③可靠性或鲁棒性,输入数据的微小变化是否引起模型预测结果稳定性的变化;④因果性,模型学习过程中的因果关系是否易于理解;⑤可信任程度,模型学习结果是否可以信赖。模型应用效果的评价主要是对安全性和公平性进行考量,即模型的应用是否给用户带来安全隐患和公平性挑战[32]。

研究者对模型可解释性的评价涉及多个维度,HAGRAS[18]从人机交互的角度,将AI的可解释性定义为准确性、因果性、透明性、公平性和安全性,准确性为定量指标,因果性、透明性、公平性和安全性为定性指标。MILLER[5]从社会心理学角度定义了5种定性的可解释性指标,包括:①因果关系,即两个事件互为因果,并且可以通过干预原因事件实现对结果事件的变动;②解释,即认知过程中对事件原因的识别和对所得结果的解释,以及社交过程中解释者与被解释者之间的知识迁移;③对疑问的回答结果,如是什么、为什么、怎样、是否等问题;④推理的解释,观察事件、做出假设、判断假设的合理性、选择最优的假设作为最终的解释(因果模型);⑤解释力和合理性,解释力负责对决策过程进行解释,合理性提供对决策好坏的说明。此外,可视化也被认为是评价可解释性的重要方面,通过可视化方法将深度学习的网络学习过程和学习结果的解释和分析形象化。例如,建立可视化分析范式,从而有效评估模型驱动分析系统中人为干预的潜在后果[33];探究视觉分析对深度学习方法研究的影响[34];基于可视化分析和信息可视化视角分析机器学习的可解释性[35]。

综合已有的可解释人工智能理论研究可知,①从定义角度,可解释人工智能的核心内容是在保持机器学习优良性能的基础上,进一步为用户提供更高程度的对机器决策过程和决策结果的解释,进而为人类信任和管理AI系统提供决策支持。②从可解释人工智能系统的构成方面,一个完整的可解释人工智能系统应包含用户、数据、模型、决策任务和可解释性生成模块,其中对可解释性的生成和描述是可解释人工智能系统区别于AI系统的显著特征。③针对可解释人工智能中可解释性的评价,本研究提出一般性指标框架,见表2。同时,从各评价指标相关的统计分析研究中可以明显看出,在可解释人工智能领域,人们关注的核心已不仅是模型的准确性,模型的可靠性、因果性和透明性等指标正在发展成为衡量AI系统性能优劣的新的重要指标。

表2 可解释人工智能可解释性评价指标Table 2 Evaluation Indicators of XAI′s Interpretability

2.2 可解释人工智能基本方法研究

可解释人工智能方法研究是提高模型稳定性和透明性的根本途径之一,是保障模型在应用中的安全性和公平性的重要手段,只有借助可解释人工智能方法,用户才能更好地理解和判断模型的内在运行逻辑,进而管控和信任模型的表现。AI模型可解释性的生成途径并不唯一,可以通过引入理论模型,对机器行为的因果关系进行理解和认知;可以改进机器学习模型本身,提高算法的透明性;也可以使用外部知识推理模型,以特定的归纳或演绎策略对模型的复杂过程进行推断,使其形象化和可观测。因此,本研究将对可解释人工智能方法的分析划分为理论模型、机器学习和知识推理3个方面。

2.2.1 基于理论模型的可解释人工智能方法研究

基于理论模型的可解释人工智能方法是在行为和认知等理论的驱动下,基于一系列用户行为假设,对模型内部存在的因果逻辑关系进行抽象,使模型的关键概念、属性和结构等显性化,从而更易被用户感知和理解。该类可解释人工智能方法主要目标是提高模型可解释性指标中的因果性,本研究对已有研究中常见的基于理论模型的可解释人工智能方案进行梳理,总结如下:

(1)可解释系统和框架

可解释系统和框架的目标并不是提出某个可解释模型,而是通过建立一个由多种模块或组件构成的统一的理论框架或系统来满足用户对模型可解释性的需求,这样的可解释人工智能系统中通常包含系统发布者、终端系统用户、领域知识、学习模型、人机交互接口和解释性推理等模块[37]。

(2)基于概念模型的可解释人工智能方案

通过对机器的学习目标、学习过程和学习结果等进行抽象,绘制出概念模型图,进而对模型中的关键概念、重要属性以及学习过程与预测结果的关联关系等提供解释。例如,DORAN et al.[38]构建基于概念模型的可解释人工智能方案对可理解性、可解释性和透明性的属性以及三者之间的连接关系进行抽象。

(3)基于认知模型的可解释人工智能方案

描绘模型对输入特征的感知过程,以及用户对模型学习经过和输出结果的感知过程,该方案的核心在于回答为什么、是什么、如何等问题。例如,NEERINCX et al.[39]构建基于感知模型的可解释人工智能系统,基于反事实衡量人机交互中AI系统对用户行为感知的可信程度。

(4)基于因果模型的可解释人工智能方案

通过在模型的输入数据与输出结果之间建立对应关系,进而对模型内在的因果逻辑作出解释。例如,ESCALANTE et al.[20]构建因果生成式神经网络模型,该方法通过对生成样本与观测样本之间的最大平均误差进行建模,以二者的联合分布概率最大化为目标学习得到生成式模型,为用户从“原因到结果”的推断提供了可解释性决策支持;KLEIN[16]运用因果模型,通过原因因素的影响力得分和可逆性得分(反映消除这一原因的容易程度),判断其对学习结果的影响程度,从而简化了对复杂模型学习过程的理解。

(5)基于心智模型的可解释人工智能方案

通过应用领域专家的主观经验或知识,对用户如何进行功能性推理(理解机器做什么)和结构性推理(理解机器是如何工作的)做出解释。例如,GARCIA et al.[40]在不同决策场景下运用Likert 7点评分法测量用户内在的推理过程,以此作为生成模型可解释性的依据。

2.2.2 基于机器学习的可解释人工智能方法研究

基于机器学习的可解释人工智能方法的主要思想是引入具备一定可解释性的外部模型,或通过二次建模(学习)的方式生成对模型的解释性内容,其核心目标是提高算法的透明性,使其能够被用户理解。显然,该类可解释人工智能方法与机器学习方法之间存在对应关系。目前,研究者对机器学习模型的可解释性研究主要集中在深度学习模型[41]。对深度学习模型可解释性的研究涵盖了卷积神经网络(CNN)[42]、多层感知网络(MLP)[43]、循环神经网络(RNN)[44]、深度信念网络(DBN)和自编码机网络(AE)[45]等多种网络。本研究将基于深度学习的可解释人工智能方法总结为3类。

(1)基于定性解释的方法

以定性描述或定性探测的方式解释网络的内部结构,如参数传播路径、数据的输入、隐含层的激活状态和结果的输出等。ZHANG et al.[25]认为,对深度神经网络的解释应当是一种由用户驱动生成的解释路径,即用户对深层网络如何工作进行解释,无需打开整个底层网络,对连接权重、隐含层和特征矩阵等进行解释。具体的解释方案包括:①伴随变动。通过改变某个输入变量确定其对结果产生的影响,并以此探究二者之间潜在的因果关系,如用户将图片的某个区域输入到卷积神经网络特定的卷积过滤中,观察分类结果的变化,由此可以判断出该区域是否为网络提供判别信息。②基于一致性的方法。结合用户知识,对深度网络进行自上而下的检查,如某个图片在输出层的类别被预测为鸟,则可以人为判定由中间过程产生的裁剪特征中是否有人类可理解的关于鸟的信息,如喙、翅膀、眼睛和脚等。③基于分歧的方法。对深度网络进行自下而上的检查,用户可以将某个网络已能正确分类的图片(设类别为1)与其他某个图片(设类别为2)进行拼接,形成一张新的图片后输入网络,如果该网络仍将新图片分类为1,则考虑其对何种信息进行忽略,如果将新图片分类为2,则考虑其对何种信息进行利用。④基于调节的方法。对网络进行投射测试,如对图片数据进行变形、添加噪声和平滑等,使网络具备对未学习目标的分类能力。

(2)基于定量解释的方法

对网络中的输入、隐含层、输出和传播关系进行定量测评,以理解网络学习过程与输出结果的关系。层相关性传播(layer-wise relevance propagation,LRP)算法是此类可解释方法的重要代表[46],该方法对深度网络在样本上的预测结果进行逆向分解,得到其与单个输入维度(如图像的子像素)的相关度分数。通过这种方式,用户能够借助输入的相关度分数判断网络分类过程的合理性,即判断网络是依据哪些输入(区域)做出的决策,以图像输入为例,其输入像素的相关度分数常以热力图的形式呈现。在MONTAVON et al.[47]提出的可解释CNN模型中,从输出层开始,将输出类别通过激活函数进行反向映射,将卷积特征逆向映射到输入空间,进而得到每一个类别的主导反射路径及其在输入空间中对应的专注性响应区域,以此实现对网络预测机制的理解。

(3)基于可视化解释的方法

可视化是一种简单通俗的深度学习可解释方法。CHOO et al.[35]总结了可视化技术在深度学习中的应用,并提出基于可视化的可解释深度学习方案,包括外部知识的注入,应用基于外部专家的交互式逐步可视化方法调节深度学习训练过程中出现的偏差,基于专家知识对深度学习的输出结果进行交互式指导(用户驱动的生成模型)等。在利用循环神经网络预测患者状态时,KWON et al.[44]基于可视化提出交互式深度学习模型,实现了模型与领域专家的交互,为预测过程提供了合理的解释和指导;HOHMAN et al.[34]以用户为中心,提出基于可视化的深度学习问询框架,即以深度学习可视化为核心的“6W”框架。具体包括:①Why:为什么使用深度学习可视化,用于对模型的调试和改进、模型的对比和选择、深度学习的概念教学等提供可解释性。②What:深度网络中什么样的数据、特征和关系能够被可视化,计算路径、网络结构、模型参数和神经元等元素的可视化。③When:何时需要用到深度学习可视化,训练过程中和训练完后。④Who:谁能够使用或得益于深度学习可视化,模型的构建者、模型的使用者和非领域专家用户。⑤How:如何对深度学习进行可视化,通过节点连接、散点图、特征降维方法、折线图、交互式实验和特征的可视化算法等。⑥Where:深度学习可视化用在什么地方,学术研究领域和业务应用领域。

2.2.3 基于知识推理的可解释人工智能方法研究

基于知识推理的可解释人工智能方法是面向AI系统应用,基于拟人化的推理方式,借助已有的概念化知识,以特定的归纳或演绎策略对机器模型复杂的训练和预测过程进行理解,使原本不可解释的模型变得可观测。该类方法主要的可解释目标是实现对模型过程的可视化。在可解释人工智能方法的构建中,常被用到的知识推理模型有知识图谱、案例推理和模糊推断等。SILVA et al.[21]在由自然语言词典定义组成的图知识库中引入一种基于词嵌入方法的导航算法,对图知识库中概念之间的连接关系进行搜寻,以此为用户提供可解释的语义关系识别结果;FUJI et al.[48]将深度张量与知识图谱相结合,以此识别和观测深度结构中的可推断性因素;LAMY et al.[49]的研究结合定量可视化和定性可视化两个视角,提出一种基于案例推理(case-based reasoning,CBR)的可解释方法,该方法利用可视化接口对相似案例的查询结果以及结果之间的相似度在用户界面中进行显示,为用户的查询和推理提供可解释依据;FERNANDEZ et al.[50]根据Why、When、What for和Where to提出基于进化模糊系统的可解释人工智能方案,并论证了模糊逻辑方法对于构建可解释人工智能系统的意义,即能够有效解释复杂模型中的不确定问题,虽然解释可能是模糊(不够精确)的,但足以被用户采纳和接受。

2.2.4 可解释人工智能方法研究现状总结

图4给出对已有可解释人工智能方法研究进行分类的分析。由图4(a)可知,目前研究者对可解释人工智能方案的构建主要基于机器学习、理论模型和知识推理3类方法,基于机器学习的可解释人工智能方法占据主导地位,占被调查的可解释人工智能方法研究类数量的68%。这3类方法针对AI模型生成的可解释性具有不同特点,基于机器学习的可解释人工智能方案通过定量分析和精准(二次)学习的方式增强原始模型决策过程的透明性,基于理论模型的可解释人工智能方案更加注重用户对模型内在因果关系的感知、体验和理解,基于知识推理的可解释人工智能方案强调依靠知识(经验)的归纳和演绎使复杂的模型逻辑显性化。3种类型的可解释方案相互协调,满足不同用户对可解释性差异化的需求,共同促进人机协同,增进人机互信。

由图4(b)可知,在基于机器学习的可解释人工智能方法中,分类模型的应用最为广泛,占比为88%,这与分类模型在AI系统中的广泛应用密切相关。由图4(c)可知,在基于分类模型的可解释人工智能方法研究中,近半数研究都聚焦于深度学习模型的可解释性,在对已有的可解释深度学习的研究进行分析和总结后发现,研究者提出的深度学习可解释方案主要是针对卷积神经网络(图像识别的可解释)。以本研究调查的可解释性深度学习相关研究为例,与可解释性卷积神经网络相关的研究数量占比达到43.55%。此外,由于规则模型和概率模型自身具备良好的可解释性能,在可解释人工智能方法的构建中也有广泛应用。由图4(d)可知,在基于知识推理的可解释人工智能方法中,知识图谱受到研究者的广泛青睐,占被调查研究的44%,其与机器学习的结合在可解释人工智能的发展中呈现出良好的发展前景。表3对可解释人工智能方法的研究进行总结,其中列举了最为核心的4种可解释指标。

表3 可解释人工智能方法研究Table 3 Research of XAI′s Methodology

图4 可解释人工智能方法研究分类分析Figure 4 Category Analysis on XAI′s Methodology

2.3 可解释人工智能应用研究

目前,学术界和产业界对可解释人工智能的应用需求日益增长。学术研究领域对于可解释人工智能的需求主要集中在模型的准确性和稳定性方面,研究者希望通过可解释方案的探索和运用,对模型性能的了解更加明确、清晰,进而获得更加准确和稳定可靠的模型表现。可解释人工智能在业务应用领域的需求主要体现在安全性和公平性两个方面,AI系统用户希望借助可解释人工智能,实现对模型更加精准的操控和管理,从而消除其在使用过程中存在的隐患,降低可能造成的损失。本研究对可解释人工智能在学术研究领域和业务应用领域的应用分别进行分析,结果见图5。

(a)XAI在学术研究领域中的应用 (b)XAI在业务应用领域中的应用

由图5(a)可知,可解释人工智能在视觉计算领域的研究和应用较为广泛,这与模式识别已经成为当前AI发展的核心和前沿技术的事实是分不开的。在已有研究中,大部分深度学习模型的可解释方法都是针对卷积神经网络构建的,研究者对卷积神经网络进行解释最直接的目标便是获得准确性和稳定性,准确性保证了模型在图像识别中的有用性,稳定性保证了模型在实际动态变换的决策任务面前依然是可用的,可以发挥其准确的预测和识别功能。例如,层相关性传播[46]、网络测试和网络调节[25]等可解释方法的应用,其核心目标并不是测量模型对图片分类的准确程度,而是通过在已具备预测能力的网络上进行二次学习,确认网络对图片的分类过程是真正合理、可靠的,这样经过用户理解和判断之后的网络,其精确的分类性能才能被用户信任。另一类可解释人工智能领域的研究热点为自然语言处理,因为文本处理和语义分析等学习任务天然面临不确定性较大、模糊性较强等挑战,因此它们对可解释性的需求也较为明显。不仅如此,可解释人工智能在推荐系统领域也受到相当程度的重视,互联网时代,各类社交平台(社交媒体)和网络零售平台的繁荣在一定程度上推动了基于个性化推荐的可解释人工智能研究的发展。此外,视觉计算、NLP、推荐系统、情感分析、异常检测和语音识别等学术研究领域也陆续开始对可解释人工智能的研究。

由图5(b)可知,从业务应用的角度看,虽然人机交互、教育、交通、金融、法律和军事等领域都已经开始对可解释人工智能系统的应用和探索,但医疗健康领域对可解释人工智能的需求最为迫切,可解释人工智能系统的应用对于医患双方都有重要意义。一方面,因AI诊疗系统犯错而造成的损失对于患者而言是难以承受的,患者必须依靠可解释人工智能系统提供的可解释性依据来判断医疗专家或辅助诊疗设备的诊断结果是否准确、可信[7];另一方面,医生需要应用可解释人工智能系统为其诊断过程和诊断结果提供充足的解释力,以此防范错诊和误诊带来的道德或法律风险[13]。研究者为可解释人工智能在医疗领域中的应用提供了大量方案,比较典型的有两类:①以领域专家介入为主的可解释人工智能方案,如通过医学领域专家训练可视化工具,以此帮助用户探索数据隐含的基本解释因素[30];②以机器学习为主的可解释人工智能方法,如SHICKEL et al.[61]提出,结合循环神经网络对流数据的挖掘优势以及序贯器官衰竭评估分数框架对患者心血管、呼吸、神经、肝脏、凝血和肾脏等指标的可解释优势,基于重症监护室电子健康记录数据,共同预测患者的疾病严重程度和住院死亡率,从而高效地获得准确、可信的预测结果,为诊断提供决策支持。

表4总结了可解释人工智能在各领域的应用。

表4 可解释人工智能在各领域的应用总结Table 4 Summary of XAI Applications from Various Fields

3 管理视角下可解释人工智能面临的挑战分析

虽然可解释人工智能作为一个新兴领域正在吸引越来越多研究者的目光,但是可解释人工智能的发展还面临诸多挑战,尤其是作为管理学领域的研究者,更需要清楚可解释人工智能的发展给管理研究带来怎样的挑战,以及随着研究的深入可解释人工智能又引发哪些新的管理问题。基于对已有研究的梳理和分析,本研究从管理学视角对可解释人工智能研究面临的挑战进行分析。

3.1 可解释人工智能方法研究面临的挑战

(1)聚焦于事后可解释

当研究者的目光都集中于深度学习模型的“黑箱”特性时,几乎所有的可解释人工智能研究者都将目光投向“深度学习模型的预测结果是如何得到的”这一最紧迫的可解释目标。于是,大量的可解释人工智能方法研究致力于探讨如何根据预测结果对预测过程进行推理,进而解决预测结果与输入数据之间的对应关系这一问题[46]。这类方法显然属于事后可解释型方法,即对模型输出结果的准确性进行理解和判定。虽然事后型解释为用户对预测结果的使用提供了可信任依据,但是很多模型在数据的输入阶段和训练过程中同样面临可解释性不足的缺陷。遗憾的是,目前事前可解释和事中可解释问题并未引起研究者的重视,如利用机器学习模型辅助风险管理时,在解释决策结果的同时,还需要解释针对风险决策构建的模型其逻辑是否合理。

(2)同质化的解释

已有可解释人工智能方法大都侧重于对模型因果关系、透明性和可视化的解释,而针对其他重要的可解释性指标的研究尚无太大进展。这些指标趋于同质化,因为其目标都是明确模型内在的因果联系,从而为用户信任和采纳模型的输出结果提供依据。例如,模式识别领域倾向于将可视化作为构建可解释人工智能系统的核心手段[46],人机交互领域倾向于将可解释性归结为人或外部知识的参与[68],医学领域构建的可解释人工智能方案更关注对因果关系的解释[66],这些可解释方案对模型自身性能的改进和增强并无直接影响。异质化的可解释方案不仅要帮助增强人机互信,还要能够促进人机协同,允许用户与模型在不断的“解释-被解释”交互中得到增强。例如,如何利用可解释性提升模型的准确率和稳定性,以增加模型的可信任程度,进而缓解其不可解释的缺陷[60]。

(3)输入的可解释性被忽略

从机器学习理论看,数据的获取和特征的构建直接决定了模型假设空间和版本空间的分布,模型输入的可解释性缺陷不可避免地造成模型预测的偏差[72]。因此,对输入模型的数据和特征进行解释,如数据的描述统计和可视化、特征重要性评估、特征之间的相关性处理等,是保证模型训练和预测过程可解释的前提和基础。然而,在已有可解释人工智能方法研究中,输入的可解释性与模型的可解释性并未实现良好的贯穿和统一。当研究者都聚焦于解释模型的决策结果时,对用于刻画决策目标的指标(输入)合理性的解释却被忽略。

(4)准确性与可解释性之间的平衡问题

该问题本质上是可解释人工智能的兴起为管理领域带来的一个新的挑战。已有的AI研究围绕机器的学习性能展开,而可解释人工智能研究首次将用户作为AI系统的核心,致力于为用户提供高质量的可解释性,提升用户对模型应用的满意度。然而,这并不意味着可解释人工智能系统不关注模型的学习效果,可解释人工智能的发展恰恰需要以机器强大的学习性能为基础。离开机器的学习性能谈可解释性,或者抛开用户的理解和体验谈机器的学习性能,都是不可取的。因此,可解释方案的构建需要兼顾模型性能和用户对模型的使用行为。

3.2 可解释人工智能应用面临的挑战

(1)可解释人工智能行业应用范围的拓展

目前,可解释人工智能的发展只在医疗等需求较为迫切的领域引发了热烈反响,研究者对可解释方法的探索也比较集中地面向医疗健康行业。然而,AI发展涉及的行业范围很广,这些行业对于AI技术的应用都面临不同程度的可解释性的需求。随着可解释人工智能的发展,更多领域将显现出对可解释性的需求,可解释人工智能的应用范围也将由医疗、计算机视觉和人机交互等热点领域向其他领域扩展。

(2)可解释人工智能行业应用程度的深化

已有可解释人工智能研究对可解释性的界定比较模糊,对可解释性的评判也非常笼统,用户应当如何理解透明性、因果性和可靠性这些可解释指标,这些指标代表了多大程度的可解释性,是否能够满足用户实际的可解释性需求,多个可解释方案之间应该如何取舍,这些问题不仅阻碍了可解释人工智能在方法层面的深入发展,也影响了可解释人工智能在行业的深入应用,使可解释人工智能始终停留在概念意义上。因此,对可解释性的需求和评价有待进一步量化或具体化,只有当用户能够直接捕捉和利用可解释性信息时,可解释人工智能才能真正为AI技术在行业中的应用发挥作用。

(3)可解释人工智能与AI系统的融合

AI技术的应用和推广催生了一大批智能化产品,作为专门为AI系统提供解释的可解释人工智能系统,其在行业中的应用需要与具体的AI产品或AI场景相融合、相适应。就目前的可解释人工智能研究看,其建立的多种可解释方法相互之间是孤立的,方法的设计对模型的针对性太强,反而没有很好地针对具体的AI系统或AI产品的应用。

3.3 可解释人工智能对于管理研究的挑战

(1)可解释方案的效率低、成本高

已有研究中,可解释人工智能方案的构建过度依赖外部模型或专家的参与,忽略了模型自身具备的可解释性,使对模型的解释成本升高。例如,对于K近邻、决策树和线性回归等透明性较高的模型,可以通过内部可解释的方式理解。需要指出的是,可解释性较强的模型其学习性能通常也会遭遇更大的局限性。例如,当决策树模型面临高维特征时,当线性回归模型的统计假设(线性关系、变量独立性和正态分布等)不被满足时,当贝叶斯分类器中的特征相关性较强时,这些模型的预测效果大幅下降,甚至不再具有可用性,因而可解释也就失去了必要性。深度学习模型比传统的浅层机器学习模型具备更强大的学习性能,虽然其可解释性不高,但并不意味着需要不计代价地对其进行解释,已有的可视化、外部知识和可解释代理的引入以及模型的二次训练等方法对深度网络的解释过程比较复杂,效率也并不高。因此,如何对可解释人工智能系统要素和流程进行优化和控制以提高可解释效率是一大挑战。

(2)可解释人工智能需要更加友好和普适

目前的可解释方法虽然在一定程度上为模型的学习过程和预测结果提供了解释,但是要理解这种解释需要具备一定的领域知识。例如,当可解释人工智能系统对模型的错误作出反馈时,用户要更改错误仍需要一定的模型知识作为基础,要求不具备领域知识的用户理解模型的内部逻辑显得不切实际。因此,如何为可解释人工智能系统与用户之间的交互构建友好的界面或接口是管理研究面临的一大挑战。

(3)构建可解释人工智能系统的可行性和需求分析

虽然,对模型进行解释可以在一定程度上避免其犯错,减少安全性和公平性等方面的隐患,但对模型进行解释的成本较高,解释过程也比较复杂,势必降低模型的使用效率。因此,在构建可解释人工智能系统之前,需要对其经济效益进行评估,需要进行可行性和需求分析。需要说明的是,可解释是相对的,不同领域、不同模型或同一模型的不同应用场景对可解释性的需求都是不同的,也并非所有的模型应用都需要可解释。

(4)可解释人工智能对人机交互模式的影响

可解释人工智能的发展为促进人机协同提供了有利条件,其为用户对机器的使用和管理行为创造了更加人性化的决策支持。而在可解释人工智能环境下,人与机器的关系将发生什么样的变化,智能决策模式将如何改变,这种变化对于人机共生有何影响,这些问题关乎可解释人工智能的长远发展,然而目前的管理研究并未对这些问题进行探讨和回答。

4 面向管理决策的可解释人工智能研究展望

经过对可解释人工智能研究现状进行梳理并对其面临的挑战进行分析后,本研究深入总结了可解释人工智能发展为管理领域带来的一系列新的重要研究问题。一方面,可解释人工智能对管理决策理论和方法的发展带来新的变革,可解释人工智能赋能下的管理决策模式、智能增强模式、知识管理模式和信息管理模式等都呈现出新的特点和发展机遇。另一方面,管理决策理论和方法以及管理实践应用为可解释人工智能的发展起到积极的牵引作用,为可解释人工智能技术发挥作用提供了具体的需求指引,也为推动可解释人工智能技术的进步创造了有利条件。

4.1 可解释人工智能对管理决策的支持和使能作用

(1)可解释人工智能背景下的管理决策模式探究

目前,金融科技、智慧医疗、新零售和现代物流等热点领域中的决策问题吸引了大量的管理研究者,这些领域的共同特点是以大数据和AI技术为依托,随着可解释人工智能技术的应用和推广,管理研究将面临新的机遇。根据西蒙的决策理论,可以将决策过程理解为信息收集、方案设计、方案选择、方案的实施和评价4个阶段。一个完整的基于AI系统的决策流程包含数据收集、模型设计、模型建立和模型评估等步骤,而基于可解释人工智能系统决策的不同之处在于增加了对AI系统每个决策环节的解释,导致原有的决策过程发生变化。例如,在可解释人工智能背景下,信息收集的目标和范围将更加明确,方案设计将遵从新的可解释逻辑,方案的选择有了新的可解释依据,方案的实施和评价也将变得更加透明。因此,可解释人工智能影响下的人机交互模式中蕴含着怎样的决策规律,这种决策模式将为用户对AI技术的使用带来何种影响,与上述领域相关的管理决策问题又将发生什么样的变化,这些问题亟待解决。

(2)可解释人工智能背景下的智能增强模式探究

智能增强(intelligence augmentation)是推动AI技术发展和AI应用转化的重要突破方向,在理想的智能增强模式下,机器能够依靠不断获取的数据、经验和知识,实现自我学习、自我更新、自我增强以及自适应地改善自身学习效率。在可解释人工智能的影响下,用户逐步将自身的理解能力与机器强大的学习能力进行优势互补,这对智能增强模式的进化有何影响,对实现用户与机器的深度互动和融合有何意义,这些问题值得深入探究。

(3)可解释人工智能对知识管理的影响探究

知识管理作为知识经济时代一种新的管理思想和管理方法,为企业的知识创造和应用提供了决策支持,为企业的智慧化成长和提升竞争优势发挥了关键作用。在看到可解释人工智能增进人机协同效率的同时,探讨可解释人工智能是否同样促进知识在企业内部的收集、评估、流动、共享和应用等活动,对提升知识管理效率有重要意义。

(4)可解释人工智能对信息管理的影响探究

大数据时代信息管理的核心任务是以AI技术为手段,对丰富的数据资源进行计划、组织、领导和控制,从而达到对信息资源的开发和利用目标。基于可解释人工智能方法,信息管理的效率将得以改善,信息管理的流程也被优化。因此,可解释人工智能如何优化信息管理流程、如何提升信息管理的质量,这些问题值得深入研究。

4.2 管理决策牵引下可解释人工智能的发展机遇

(1)面向业务应用领域的可解释方案构建

从AI系统的管理实践看,不同业务应用领域的AI用户通常面临不同程度、不同类型的可解释需求。例如,医生在使用AI辅助诊疗系统对患者的病情进行诊断时,其是否采纳或在多大程度上采纳辅助诊疗系统的诊断结果取决于系统的决策过程是否符合专业的医学逻辑。换言之,医生需要判断辅助诊疗系统是如何做出诊断决策的,即需要决策过程的可解释。在人脸支付系统和人脸识别安检系统等人脸识别系统的管理场景中,用户更加关注系统出错的情况,包括错误发生在哪里、什么样的场景下识别会发生错误等,即用户需要面向决策结果的可解释。此外,在金融和法律等领域的管理实践中,用户也呈现出对与具体业务逻辑相适应的可解释方案的需求。因此,未来的可解释人工智能研究应当考虑结合领域知识构建符合特定业务逻辑需求的可解释方案。

(2)适应用户特点的个性化可解释方案构建

从可解释人工智能技术的管理和应用角度看,可解释人工智能发展需要面向具体的用户需求,只有可解释方案被用户理解和接受,可解释人工智能才能真正发挥价值,才能实现对AI系统进行解释的目标。然而,在实际可解释人工智能系统的管理应用中,不同用户由于性格和习惯等存在差异,其对可解释方案的接受程度也不尽相同。例如,对AI医疗影像辅助诊断系统的决策过程进行解释后,同一专业不同医生面对同样的可解释结果时会产生差异化的认知,采纳者与非采纳者的认识之间可能存在差异,不同采纳者采纳的原因也可能不同。因此,未来的研究需要就不同用户对可解释方案的接受和采纳机制进行深入探讨,并基于此构建面向用户个性化需求的可解释人工智能方案。

(3)基于可解释人工智能实现人机协同共生的决策提升模式

从管理决策模式看,随着决策任务的工作量越来越大、复杂性越来越高、时效性和精确度要求越来越严格,决策主体逐渐由用户向AI系统过渡。然而,在管理决策任务中,人与AI系统之间并非简单的角色替代关系,人机协同的决策模式要求在人与AI系统之间实现优势互补、合作共赢,最终达到人机共生的状态[73]。立足于人机共生的管理决策需求,可解释人工智能的发展应当起到促进人机共同成长的作用,可解释人工智能方案的构建则需要以实现用户与AI系统的良好协同、有机互动为目标。因此,如何使可解释人工智能方案满足提升人机协同决策质量、构建人机相容共生的管理生态模式的管理需求,是未来值得研究的问题。

(4)基于元决策管理理论的可解释方案构建

可解释人工智能的兴起为管理理论、方法和实践带来了新的发展机遇,然而,要想使可解释人工智能真正为管理决策创造价值,还需要以具体的管理理论作为引导,以支持可解释人工智能技术的发展。例如,元决策理论表明,决策方案的构建需要考虑和选择多个决策步骤[74],这为可解释人工智能具体技术方案的构建提供了指引和依据,即可解释方案的构建应当面向决策的全过程。因此,一个完整的可解释方案应该是包含事前、事中、事后可解释的全生命周期型可解释人工智能方案。具体地,一个有效的可解释方案应当辅助AI系统用户理解模型输入的合理性、模型过程的因果性和模型结果的可用性。因此,如何构建兼具事前、事中、事后可解释的全生命周期型可解释人工智能方案值得未来研究者深入探究。

5 结论

5.1 研究结果

可解释人工智能已经受到学术界、产业界和政府部门的广泛关注,研究可解释人工智能对于促进AI发展和应用至关重要。本研究从可解释人工智能的兴起入手,分析其对AI发展带来的影响和价值;从基础理论、基本方法和应用3个方面对已有可解释人工智能研究进行全面的梳理和分析;基于管理学视角,深入探讨可解释人工智能面临的挑战,总结了值得管理决策领域研究者深入探讨的关于可解释人工智能的未来重点研究方向。通过研究得到以下结果:

(1)就可解释人工智能的影响而言,在学术界,可解释人工智能已成为多个领域的研究热点,但可解释人工智能研究总体尚处于起步阶段;在产业界,人们对发展可解释人工智能表现出日益迫切的需求;各国政府也开始关注可解释人工智能产生的积极效果,并配套出台了一系列与可解释人工智能相关的政策。可解释人工智能最为明显的价值在于它为AI的发展带来了积极影响,一系列可解释人工智能方法和方案被提出,有效回应了人们对AI可解释性的关切和质疑,也为深化AI技术应用、实现人机良好协同和互动提供了契机。

(2)从可解释人工智能研究现状看,可解释人工智能的核心主要包含模型的准确性、可靠性、因果性、透明性、安全性和公平性等指标,研究者针对可解释人工智能方案的研究主要基于机器学习、理论模型和知识推理展开,其中以基于深度学习模型的可解释方案研究最为常见。从可解释人工智能应用研究看,学术研究对于可解释性的需求主要集中在模型的准确性和稳定性方面,而业务应用领域对可解释人工智能的应用需求主要体现在安全性和公平性等方面。

(3)从可解释人工智能发展面临的挑战看,已有可解释人工智能的方法研究局限于事后和同质化的可解释,模型输入的可解释性被忽略,准确性与可解释性之间的平衡问题尚未得到有效解决;可解释人工智能在各行业的应用范围需要进一步拓展,应用程度有待进一步深化,将AI系统的应用与可解释人工智能相结合是亟待解决的问题;从管理研究的角度看,已有可解释方案的效率低、成本高,有待进一步优化,需更加友好和普适,可解释人工智能对于管理决策的影响值得深入探讨。

(4)分别从可解释人工智能对管理决策的使能作用角度和管理决策牵引下的可解释人工智能角度,对可解释人工智能研究进行深入探讨并得出一系列关键研究问题。有必要探索可解释人工智能背景下新的管理决策模式和新的智能增强模式,探究可解释人工智能对信息管理和知识管理的影响对于管理决策研究有重要意义。同时,需要构建面向业务应用领域的可解释方案,需要构建适应用户特点的个性化可解释方案,有必要探究基于可解释人工智能实现人机协同共生的决策提升模式。进一步地,在元决策理论的牵引下,构建基于事前、事中、事后的全生命周期型可解释人工智能方案。

5.2 研究贡献

本研究分析和总结了大量可解释人工智能研究,梳理了可解释人工智能发展的脉络,探讨了可解释人工智能的概念和类型,为后续可解释人工智能研究奠定了理论基础;本研究总结并提出了可解释人工智能可解释性评价指标的一般性框架,为理解可解释人工智能、评价可解释人工智能提供了依据;本研究系统整理了可解释人工智能方法研究,并提出可解释人工智能方法的综合体系和框架,为后续的可解释人工智能方法研究提供了清晰的借鉴和参考;本研究深入剖析了目前可解释人工智能研究面临的诸多挑战,为推动可解释人工智能研究深入发展提供了有力的依据;本研究总结和指出了若干可解释人工智能未来的重点研究方向,为后续开展有价值的可解释人工智能研究提供启发。

5.3 研究局限和展望

目前,可解释人工智能研究尚处于起步阶段,本研究所能获取和分析的已有相关研究数量和范围有限,随着可解释人工智能研究的不断发展和深入,后续研究有必要基于更多已有研究对可解释人工智能的发展、理论、方法和应用做更加全面的分析和梳理。同时,本研究重点对可解释人工智能的概念、方法和应用进行总结,受篇幅限制,本研究未能逐一详述可解释人工智能某个特定维度的具体内容,仅针对可解释人工智能的不同方面选择最具代表性的研究成果对其进行具体分析,后续研究需要对可解释人工智能概念、方法和应用做更为细致和深入的研究。

猜你喜欢
可视化决策人工智能
自然资源可视化决策系统
思维可视化
复变函数级数展开的可视化实验教学
复变函数级数展开的可视化实验教学
复变函数共形映射的可视化实验教学
复变函数共形映射的可视化实验教学
2019:人工智能
决策大数据
决策大数据
决策大数据