新时代中国伦理思想破解智能财务伦理困境

2025-01-01 00:00:00强群莉田妍张亚新
会计之友 2025年2期

【摘 要】 新一代信息技术的不断发展与深度应用,为财务人员带来便利的同时,也带来伦理风险或困惑。文章从中国传统的伦理思想出发,融合马克思主义政治经济学的伦理特色,以习近平新时代中国特色社会主义思想中的伦理思想为核心抓手,从规范、责任、协同和绿色等层面,深度解析人工智能伦理的内涵与特征、智能财务伦理问题类别,探寻破解智能财务伦理困境的政策建议。

【关键词】 人工智能; 智能财务; 伦理; 政策

【中图分类号】 F230;TP39 【文献标识码】 A 【文章编号】 1004-5937(2025)02-0130-06

数千年来,哲学家们一直在思考,当面对道德困境时(如典型的有轨电车问题),什么才是行为的道德方式,即什么是“正确的事情”,这便是伦理学一般研究的焦点[ 1 ],而伦理学的基础是理解我们的行为如何影响他人的幸福[ 2 ]。新一代信息技术的不断发展与深度应用,为财务人员带来便利的同时也带来伦理风险或困惑。以ChatGPT为代表的生成式BI成为2023年讨论的热点技术,人们在感慨技术进步的同时,也伴随着技术恐慌和忧虑。2023年4月11日,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,期待生成式人工智能技术健康发展和规范应用。当大家在激烈讨论数据泄密、数据伦理相关问题时,应该明确伦理实际上是一个隐性的动机,而不是明确的动机[ 3 ],应该明确智能财务建设中哪些行为属于伦理讨论的范畴,更应该明确如何将中国人工智能治理委员会(CAIGC)发布的新一代人工智能治理原则转换为可以落地的政策与建议。面对这些亟待解决的科学问题,我们应该以史为鉴,从中国传统的伦理思想出发,融合马克思主义政治经济学的伦理特色,以习近平新时代中国特色社会主义思想中的伦理思想为核心抓手,深度解析人工智能伦理的内涵与特征、智能财务伦理问题类别,探寻破解智能财务伦理困境的政策建议。

一、新时代中国伦理思想的核心内涵

中国传统伦理思想源远流长,从强调人的血缘辈分关系到调整人与人关系的条理、道理和原则,既具个体性又具社会性[ 4 ]。伦理是调整个体利益和社会整体利益的协调过程与原则,但目前还没有一个统一的、标准的、明确的伦理体系[ 5 ]。马克思主义政治经济学重视生产的目的、财富的分配以及与此相关的正式和非正式的制度安排是否符合公平正义,这充分体现了马克思主义政治经济学的伦理特色[ 5 ]。进入新时代,以习近平同志为核心的党中央诠释和创新发展了马克思主义政治经济学“以人民为中心”的思想,坚持把“增进人民福祉”作为推进我国经济社会发展的伦理目的,提出的五大新发展理念准确把握了发展伦理学的核心问题。总的来说,新时代中国伦理思想的核心内涵包含以下内容:

(一)法治与德治并举是伦理治理的基本思路

“法安天下、德润人心……法律是成文的道德,道德是内心的法律”①,法律与道德都是人们的行为规范,两者是“准绳”与“基石”的关系,既有联系又有区别,道德对法律有滋养作用,道德规范是人们的价值追求,在一定条件下可以转换为法律规范,而法律可以承载道德理念,对于道德领域的突出问题可以运用法律进行解决。

(二)五大新发展理念是发展过程中应遵循的伦理规范

习近平同志提出的创新、协调、绿色、开放、共享的“新发展理念”,回答了追求怎么样的发展、如何让所有成员共享发展成果、如何处理人与人关系建立公平公正的和谐社会、如何处理人与自然关系实现绿色发展。创新发展特别是技术创新应坚守以人为本的伦理底线,不得损害人、组织与社会利益,应以创造更加公平公正的社会与为人们创造美好生活为宗旨;协调发展是解决发展不均衡的问题,要求技术创新带来的发展应该是在一定规则范围内的、可控制与可持续的发展,不会对人、组织、区域和社会发展带来不公平性;绿色发展要求处理好人与自然和谐共生关系,在技术创新发展过程中应坚持绿色发展方式和生活方式;共享发展注重的是解决社会公平正义问题②,目标是关注现实中每个人的存在,让所有人都具有获得感、参与感以及幸福感,并不会因为自己的行为而影响他人的幸福。

(三)大德与小德统一是伦理价值观的追求

目前所形成的社会主义核心价值观其实是一种德,是大德和小德的统一,既是国家的德、社会的德,也是个人的德③。小德要求我们每个人做好小事、管好小节,而大德是基于社会和国家层面要求服务人民。在日常的行为过程中,修德不仅修的是个人的小德,也是在吸纳中华优秀传统文化的基础上修大德,而传统文化中的“修身齐家治国平天下”正是小德走向大德的过程。

二、人工智能伦理内涵

当信息技术与伦理相融合时,应明确信息技术等工具理性的逻辑,它不仅控制着那些直接遵循嵌入式模型和程序要求的人的行为,而且控制着管理组织资源的人的行为[ 6 ]。或者说以人工智能为代表的新一代信息技术可以看作是工具理性的物理表达,这种技术强加了一种组织、延续和改变社会关系的模式,使它们反映出工具理性的标准,并最终符合主导的意识形态[ 1 ]。因此,在分析人工智能等新一代信息技术具体应用时不能仅仅看作是非道德技术的中立表现,而应看作是与权力和控制相关的社会意识形态的体现[ 1 ]。比如,不同的利益群体所关注、存储的信息不同,反映出看待自己和周围环境的态度也不同;对哪些功能、对象感兴趣,有可能就会选取反映其价值观的模型和程序;隐含在智能产品中的假设、模型和程序的隐蔽性及未知性降低了人们质疑自身行为的基本原则或后果的能力[ 1 ];按照智能产品要求所采取的行为很有可能造成权责归属的不明确问题等。

人工智能等新一代信息技术对人类社会带来益处的同时也内嵌着人类伦理道德的成分,进而会在技术开发或使用过程中因规范标准的不明确带来伦理的反思。对技术伦理的反思主要着眼于技术所处的具体环境,包括技术、人、社会和自然,关注技术进步的条件、使用的预期与目的、运用的手段以及带来的主观与非主观意愿的后果[ 7 ]。有学者运用宏观ETHOs模型(Environmental,Technological,Human,and Organizational,简称ETHOs)理解、识别、发展和检查智能产品设计、开发、实施及应用过程中可能存在的伦理问题[ 3 ],涉及标准、技术规范、行为原则等环境因素,软硬件技术特征与功能等技术因素,文化、个人特征与行为、态度等人为因素,以及组织战略、架构、信息规划等组织因素。

对人工智能伦理的分析主要从主体关系、伦理存在形式、伦理的价值判断标准三个维度进行。人工智能伦理中涉及的伦理主体关系包括人与人、人与自然以及人与智能产品。人工智能伦理存在的形式包括观念、情感等无形形式和标准、行为规范等有形形式。人工智能伦理的价值判断标准主要是指人工智能应该遵循的伦理原则。比如欧洲科学和新技术伦理小组(EGE)在2018年3月公布的“人工智能、机器人和自治系统声明”,含人性尊重、自主决定权、责任、正义、公平、人类团结的促进、民主、法治和当责9项伦理原则及民主前提;而2019年中国人工智能治理委员会(CAIGC)发布了“新一代人工智能治理原则:发展负责任的人工智能”提出了组织在开发AI应用程序以保护人类和社会权利时应遵循的8项规则,包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理[ 8 ]。

综上分析,将人工智能伦理上升为意识形态层面,即从制度、社会和组织层面归结人们做出伦理决策的利益出发点,而对人工智能伦理内涵的讨论,实际上是探究人工智能产品设计、开发、实施及应用过程中的伦理边界问题,即哪些可以纳入人工智能伦理的研究主题范畴。

三、智能财务伦理问题分类

对智能财务伦理而言,强调的是财务人员在人工智能技术使用中的行为原则(Michael Alles,2020a),在适当的时候防止对他人、组织和社会的伤害(Michael Alles,2020b)。综合考虑环境、技术、人的行为、组织以及伦理主体关系、伦理形式和伦理治理原则,将智能财务伦理问题归结于以下几类:

(一)人机伦理

无论是智能财务机器人(含RPA)还是智能财务产品(如智能财务分析软件等)都会涉及道德行为主体的讨论,即智能机械人或智能产品是否要承担道德责任,人机伦理是否要遵守人与人之间的伦常关系[ 9 ]?这些依然是要讨论的核心伦理问题。而人机伦理关系问题的讨论包括:(1)侵犯企业数据隐私问题,比如软件公司对客户数据隐私保密问题,集团内部各子公司财务、业务数据集成到财务数据中台有可能造成数据隐私、滥用问题[ 10 ];(2)人工智能技术是否满足使用者预期和用户需求,目前人们对智能财务机器人或智能财务产品的期望较大,但有时过高的期望反而事与愿违,比如管理会计人员依托RPA技术可以实现管理会计报表的智能生成,但是复杂的管理会计报表间的嵌套逻辑、RPA技术尚未做到完全的自动抓取数据,还需要人工补录、计算、财务数据调整等;(3)事先设定的算法有可能将人类原有的偏见传递给使用者或者被放大,如商业智能(BI)依托实现设定的专家规则对财务数据进行分析,有可能将专家本身的偏见进行传递[ 10 ];(4)使用者对智能财务机器人或智能财务产品的态度,如可能产生较强的依赖,也可能对其不信任,财务机器人可以解放财务人员繁琐的工作,但可能使财务人员造成依赖,影响对原有财务数据的敏感性,也有可能使用某类智能财务产品所产生的决策与其职业判断不相符时造成信任感危机;(5)使用者对智能财务机器人或智能财务产品操作层面是否会带来不舒适感和不公平性,比如智能财务带来的财务人员被迫转型,从核算财务转变成b017585a404afbd8005eb3e365c3f24e业务财务,需要深入到业务一线,而有的业务财务63576f1e9dc6c4de985eb708e2a8eb02需要一定的SQL编程能力,这样会给财务人员带来挑战,又如不公平性主要是一些智能化软件产品对年纪较大的财务人员操作不友好,不容易操作。

(二)责任归属的伦理

责任伦理学是伦理研究中很重要的分支,主要是分析责任主体的伦理目的、行为方式、结果以及成因等[ 11 ]。就智能财务机器人或智能财务产品而言,责任伦理应该是以人工智能技术算法为核心的程序或系统在设计、开发、实施以及应用过程中的责任归属问题。应建立必要的问责制,主要是指与人工智能技术应用相关的监管者、需求分析师、软件开发者、系统建设主要负责人以及使用者应该在哪些环节、哪个节点承担哪些必要的责任。比如在系统设计、开发阶段,系统建设主要负责人、使用者以及需求分析师是否应该做好需求的沟通者、传递者和转化者,使会计准则、账务处理规则、财务管理理念等财务需求可以被软件开发者充分理解;软件开发者是否应充分理解财务需求,将财务语言转化为计算机语言。除此之外,需求分析师是否应根据客户需求选择恰当的数据建模算法或规则。在系统建设实施阶段,哪些人需要参与到数据和功能测试中,即哪些人对数据负责,哪些人对系统功能负责,哪些人对算法和规则结果负责都应该明确;在系统应用阶段,算法或规则及数据的更新、系统稳定性、系统的推广应用等责任的归属应该被明确,以确保智能财务机器人或智能财务产品可以带来预期的效益。

(三)人工智能技术应用带来的伦理价值失衡

技术创新发展是为了更好地追求人类社会的和谐,维护社会公平正义,这也正是社会伦理价值的基本取向[ 9 ],不能因为智能财务机器人或智能财务产品的使用而加大伦理价值的失衡。在新一代信息技术环境下,对智能财务伦理价值失衡的讨论主要集中于:(1)财务算法或规则中本身所隐含的程序偏见。比如智能财务分析与决策类产品,如果财务专业术语多且不好被非财务人员所理解,则会给非财务出身的领导者和各级管理者造成很大的心理压力。(2)智能财务产品的使用可能会加大伦理价值的失衡。比如对待终端用户而言,操作是否易用、界面是否友好都应该被考量,经常被推送的财务指标信息会不会隐藏企业运营中的其他信息,业财人员所诊断的异常财务指标原因是否真实可靠会对管理者决策带来影响。(3)智能财务机器人或智能财务产品的应用使部分财务人员面临失业或者新的工作挑战。新技术的应用不仅造成原来从事凭证登记的财务人员失业,而且使原来从事管理会计分析或财务分析的人员面临失业和转型的风险。比如RPA替代了大量重复且具有明确规则的会计核算工作,迫使财务人员失业或离开原岗位进行财务转型,而财务共享的广泛应用使子公司财务人员转向业务财务岗位,需要对业务进行深度理解并分析财务指标异动背后的业务原因。(4)社会层面的伦理价值失衡。智能财务机器人或智能财务产品的应用可能会对社会公正带来挑战,包括资源的配置、技术利益的分配以及技术成果应用过程可能存在“数字鸿沟”或“发展鸿沟”等。(5)自然生态层面的伦理价值失衡。关注新技术应用带来社会福利和对生态环境改善带来益处的同时,应该密切关注技术应用的“副作用”,即新技术的应用会不会使资源过度消耗而出现生态过载的问题以及环境污染和碳排放增加的风险。

(四)人工智能技术应用对财务人员的伦理行为与伦理关系的影响

从人的伦理行为层面看,智能财务机器人或智能财务产品对财务人员的影响程度会因为人的属性特征不同而呈现差异性。部分使用者对智能财务机器人或智能财务产品产生依赖,而且个性化推荐算法可以根据人的偏好、习惯等特征属性进行精准信息推送,虽然为财务人员获取信息提高了效率,但如果长期依赖这种信息推送功能,就会造成路径依赖甚至依赖成瘾[ 9 ],导致人们将注意力完全集中在AI识别出的异常事件上,以及对未知因素的无知[ 1,12 ],从而形成“信息茧”[ 13 ];部分使用者因担心智能财务产品分析结果会影响自己的职业判断,并造成误导,进而会对其伦理行为产生影响。从人的伦理关系层面看,智能财务机器人或智能财务产品应用会影响人与人之间的伦理关系。比如智能财务机器人或智能财务产品应用给人带来的孤立感或隔离感,这不仅是由于使用了支持远程工作的AI系统,而且归因于各种在线服务的迅速发展,孤立感从个人交流(即人们现在使用微信或其他软件在网上聊天更多,而不是在面对面交流中,年轻人更喜欢下班后玩在线游戏)延伸到工作领域。现有的人工智能产品可以使员工在应用程序中完成大部分工作,对财务人员而言,“工作场所”和“同事”就像在线游戏中的对象和角色一样,无需再进行面对面的沟通与交流,很容易造成人与人之间的伦理问题。

四、基于新时代中国伦理思想的政策建议

面对智能财务机器人或智能财务产品设计、开发、实施及应用过程中可能存在的伦理问题,本文拟从中国新时代伦理思想和内涵出发,在共建共享共治社会治理整体思路下,从规范、责任、协同和绿色等方面提出破解,包括智能财务机器人或智能财务产品在内的人工智能伦理困境的政策建议。

(一)伦理规范与法律约束协同发力

法律有效实施有赖于道德支持,道德践行也离不开法律约束,法律和道德协同发力是习近平治国理政的伦理思路[ 14 ]。应从习近平总书记大德和小德的论述中汲取营养,在智能财务机器人或智能财务产品系统设计、开发、实施和日常应用过程中,充分发挥企业、科研院所、科研人员、监管者、使用者的能动性,形成具有普通共识、约束力的道德伦理规范,强化自我约束与监督[ 9 ]。另外,应在日常的伦理规范执行中不断积累和提升,从而上升到法律和制度层面,形成大德。具体包括:(1)强化自我修身和道德约束。对于开发者而言,应选择不偏不倚的算法,不应该将自身偏见与歧视等主观性意念写入算法中,同时应该注意保护用户或使用者的隐私安全。对于使用者而言,自身素质的提升是指主观上为适应人工智能技术的应用而对自己综合素质的提升,主要有技术能力、专业怀疑能力、正确心态以及用户自主性等,一般是通过自我学习和领悟而提升的。当然,社会或者行业第三方机构或者使用者所在的单位也可以提供必要的培训,主要有新一代信息技术前沿与理念,技术、算法与规则逻辑,系统操作技能,数据治理与规则等[ 15 ]。(2)强化技术创新约束。2015年,美国电气与电子工程师协会首次提出旨在解决人工智能和自主系统使用发展伦理问题的“合乎伦理设计”理念,即将智能财务机器人或智能财务产品的伦理规范与法律约束转换为具体的设计标准,在系统设计之初就嵌入人类的道德规范与约束,使得人工智能系统的决策、行为具有可靠性与安全性,并通过法律法规的“他律”与伦理道德的“自律”甚至智能系统的“物律”相结合,规范人工智能的发展[ 16-17 ]。(3)行业与中介第三方约束。即建立独立第三方的验证、监测机制,在技术层面可以由第三方独立的机构或者由技术专家、伦理学家或决策者组成的团队制定人工智能应用的实践标准、行为准则、实施规范等,验证智能财务机器人或智能财务产品的道德和结构完整性,制定评估标准是否达到了预期用途。

(二)建立利益相关者共担责任机制

在共建共享共治社会治理整体思路下,在智能财务机器人或智能财务产品建设过程中,利益相关者应共同承担责任并分享智能化成果,每个利益相关者应负责避免某些道德风险,而且责任应贯穿在智能财务机器人或智能财务产品整个生命周期。如监管者在智能财务机器人或智能财务产品引入前、应用过程以及推广中承担必要的监管责任;软件开发者在前期需求沟通、系统设计与开发以及系统后期运维方面承担必要的技术伦理责任;智能财务机器人或智能财务产品主要负责人在前期需求沟通、软件功能需求设计、应用宣传等方面承担必要的领导与监督责任;而使用者在系统使用过程中有必要了解系统的操作、功能以及背后的算法逻辑,让系统更好地辅助决策或提升生活质量,减少不舒适感。

(三)建立共享与协同机制

从微观的智能财务机器人或智能财务产品到宏观的人工智能应用,都要在技术创新发展的同时坚持协调发展和共享发展,实际上是在发展的同时兼顾公平,强调利益相关者之间的协同共享。首先,政府层面需注重科技资源的合理配置与调配,包括区域、城乡之间的合理调配,而对于智能财务的推广应用应坚持市场导向和政府宏观调控相结合,西部或偏远地区政府可以通过推进数字化转型促进当地国有企业高质量发展,进而实现弯道超越。其次,社会层面应更加关注弱势群体对新技术的接受度和体验感。比如大到社会上经常性讨论的老年人对智能医疗系统的体验感,要真正便捷于民,医院应在新技术宣传、志愿者服务方面下功夫,让实惠和便利遍及每一个人;小到微观企业要考虑到不同年龄阶段、不同学历背景的财务人员,以及财务与非财务背景的管理者对新技术的接纳情况,进而减少不公平性。最后,完善利益相关者沟通与反馈机制。沟通和反馈对于处理财务人员与技术、财务人员与企业、政府监管与企业之间的关系都是必不可少的,在所有利益相关者之间建立沟通和反馈机制可以在很大程度上减轻由人工智能引起的道德风险。

(四)兼顾技术创新发展与绿色发展

无论是自然生态层面的伦理价值失衡还是人与自然的伦理关系失衡,都说明人工智能等新一代信息技术的发展在给人类带来益处、提升效率的同时,会直接或间接导致资源与材料消耗速度加快。另外,海量训练数据的大规模运转也会造成能耗的上升。因此,在坚持技术创新发展的同时,应兼顾生态环境,实现绿色发展。首先,在技术层面,可以运用低功耗的存储技术降低数据中心的高能耗问题,以技术创新解决人工智能技术带来的高能耗问题;其次,在政策激励方面,鼓励企业、高校、科研院所对更节能高效技术的研发,同时政府应制定新的政府采购标准和相应的政策保障措施,鼓励企业推动低耗节能技术的应用;最后,企业作为新技术应用的主体,应在国家重大政策措施(如碳中和)的约束下,在运用新技术提升效率的同时,控制本企业的碳排放量,从而达到经济效益与社会效益的均衡发展。

智能财务机器人或智能财务产品的广泛应用,为大家的生活带来便利的同时,也不能忽视背后所掩藏的伦理风险。人工智能伦理是一个隐性动机,本文探讨伦理的目的就是预防和减少人工智能新技术应用对人、组织和社会带来的损害。为达到这样的目的,可以从优秀的中国传统伦理出发,融合马克思主义伦理思想,在新时代中国伦理思想的指导下,坚持共建共享共治社会治理的整体思路,从规范、责任、协同和绿色等层面破解人工智能伦理困境,这需要理论界和实务界不断探索和思考。

【参考文献】

[1] ALLES M.Using the 2019 JBE conference and 2017 JIS themed issue as natural experiments to examine the role of editors as gatekeepers of the research literature in AIS and ethics[J].International Journal of Accounting Information Systems,2020,39:1-22.

[2] PAUL R,ELDER L.The thinker's guide to ethical reasoning[M].Tomales,CA:Foundation for Critical Thinking Press,2013.

[3] GURAGAI B,HUNT N,NERI M,et al.Accounting information systems and ethics research:review,synthesis,and the future[J].Journal of Information Systems,2017,31(2):65-81.

[4] 唐凯麟.伦理学[M].合肥:安徽文艺出版社,2017:3-42.

[5] 蒋洁.风险视域下人工智能伦理的主旨和原则[J].信息通信技术与政策,2019(6):13-16.

[6] ALLES M.AIS-Ethics as an ethical domain:a response to guragai,hunt,neri and taylor (2017) and dillard and yuthas (2002)[J].The International Journal of Digital Accounting Research,2020(20):1-29.

[7] 阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,译.北京:社会科学文献出版社,2018.

[8] 吴红,杜严勇.人工智能伦理治理:从原则到行动[J].自然辩证法研究,2021,37(4):49-54.

[9] 谭九生,杨建武.人工智能技术的伦理风险及其协同治理[J].中国行政管理,2019(10):44-50.

[10] ZHANG C,ZHU W,DAI J,et al.Ethical impact of artificial intelligence in managerial accounting[J].International Journal of Acounting Information Systems,2023,49:100619.

[11] DILLARD J,RUCHALA L,YUTHAS K.Enterprise resource planning systems:a physical manifestation of administrative evil[J].International Journal of Accounting Information Systems,2005(6):107-127.

[12] SEOW P S.The efects of decision aid structural restrictiveness on decision-making outcomes[J].International Journal of Accounting Information Systems,2011,12(1):40-56.

[13] GODDARD K,ROUDSARI A,WYATT J C.Automation bias:a systematic review of frequency, efect mediators,and mitigators[J].Journal of the American Medical Informactics Association,2012,19(1):121-127.

[14] 周中之,高屾.习近平治国理政的伦理思想[J].马克思主义研究,2018(5):19-27.

[15] ARGOTE L,EPPLE D.Learning curves in manufacturing[J].Science,1990,247(4945):920-924.

[16] 闫坤如.人工智能“合乎伦理设计”的理论探源[J].自然辩证法通讯,2020,42(4):14-18.

[17] 闫坤如.人工智能“合乎伦理设计”的实现路径探析[J].大连理工大学学报(社会科学版),2019,40(6):123-128.