人工智能审计的伦理问题及对策研究

2022-06-18 05:19戚啸艳王晗赵洋洋
中国注册会计师 2022年6期
关键词:伦理人工智能

| 戚啸艳 王晗 赵洋洋

人工智能(Artificial Intelligence,AI)作为计算机科学领域的分支,是研究、开发出来的用于模拟、拓展和延伸人的智能的一种理论、方法与技术。随着计算机技术与各种信息技术的发展,我国正逐步加快由中国制造向中国智造的转变,以人工智能为代表的新一代信息技术,将成为我国“十四五”期间推动经济高质量发展、建设创新型国家,实现新型工业化、信息化、城镇化和农业现代化的重要技术保障和核心驱动力之一,各行各业应不断创新应用人工智能技术的新模式、新手段。然而,在人工智能为审计行业带来诸多优质高效服务的同时,一系列伦理问题相伴而生,如何应对并使之更好地为审计行业服务成为亟待解决的问题。

一、人工智能审计的发展现状

随着深度学习及大数据技术的发展,人工智能逐步由运算智能向感知智能、认知智能转化,其功能越来越强大,逐步渗透到诸多领域。人工智能致力于模仿人的思维与认知,若能够被事务所合理运用到审计与咨询业务中,将会极大提高发现风险的速度与水平,提升审计的品质与效率。国际“四大”会计师事务所先后开展对人工智能技术与审计融合的探索,诸多人工智能技术被运用在审计实务中(表1)。

1.德勤。2016年3月,德勤正式与人工智能企业Kira Systems合作,将人工智能应用于审计、会计与税务领域。它所推出的智能财务机器人“小勤人”将审计人员从繁复的基础性审计工作中解放出来,投入到更有价值的审计工作中,同时减少了一些由于人工操作带来的失误与风险,提高了审计效率。德勤研发的一款GRAPA(Guide Risk Assessment Personal Assistant,审计计划咨询师)系统通过引入信息技术、数据分析、估值、法证及税务等各类行业专家,与审计团队紧密配合,共同完成审计工作,协助审计师获得充分、适当的审计证据,支持发表恰当的审计意见,实现高质量审计服务。

2.安永。安永将人工智能技术应用于租赁合同的分析方面,智能化提取租赁合同中的生效时间、权责主体、合同内容、后续规划等,还可对支付金额进行实时监控。目前,安永的RPA(Robotic Process Automation,机器人流程自动化)系统正在为彻底实现审计操作流程自动化服务。除此之外,安永还推出人工智能概念验证项目,利用计算机视觉使空中无人机在审计过程中监控库存,并将数据直接传达给其全球审计数字平台—EYCanvas。

3.普华永道。普华永道的人工智能系统能够分析文件并准备报告,大幅节约审计人员的时间及精力,还在自然语言处理方面进行大量投资,帮助用户提出新的见解。普华永道与尖端硅谷人工智能公司H2O合作开发了GL创新机器人,利用人工智能和机器学习性能“X光检测”业务对企业数据进行海量阅读与深度分析,判断发现总帐中的异常情况和异常会计活动。2017年GL荣获国际会计公报(International Accounting Bulletin)颁发的2017“年度审计创新大奖”,并且已成功试用在包括加拿大、德国、瑞典和英国等12个国家及地区在内的20个审计项目中。

4.毕马威。毕马威加强了人工智能技术在未来事项预测方面的应用,通过人工智能异常事件预测工具和分析模型,分析对比非结构化数据资料,剖析关键信息,对客户的状态及未来变化进行预测。毕马威秉持开放创新的战略思维,推出KPMG Clara一站式智能审计平台,包含全球集团策划、执行和管理,从风险评估、数据分析程序乃至与企业日常运营的协作共享,力求与企业携手共进,面向未来,共创双赢。

二、人工智能审计的伦理问题

未来的人工智能技术将会进一步与审计融合,对审计模式产生更大程度的冲击与影响,审计人员、监管者和技术人员也逐渐意识到在享受着技术所带来的高效与便捷服务的同时,其所带来的伦理问题也不容忽视。从人工智能现有能力、技术潜力与它给人类社会带来的负面后果的角度来看,会产生两大类问题,一是人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不足;二是人类缺乏引导人工智能发挥作用的终极伦理准则。在学术界,不少学者对该问题进行探讨。正如Floridi等(2018)所指出的,为了达成建立良好社会的战略目标,人们寄希望于AI可以运用智能能力决策、帮助人类解放自我、加强社会凝聚力与协同力,但其中也面临着非公正、责任缺失、威胁人类主体性地位等问题。Jobin、Ienca和Vayena (2019)通过对私营公司、研究机构和公共部门组织进行调查发现,虽然关于什么是“道德人工智能”以及实现人工智能需要哪些道德要求和技术标准等存在争议,但围绕五项道德原则(透明度、正义和公平、非恶意、责任和隐私)出现了全球趋同。Munoko,Brown-Liburd和Vasarhelyi(2020)则是聚焦审计领域,对围绕人工智能的实际道德和社会问题进行概念分析,并讨论了有关新兴技术的政策和治理的责任。对此,本文将人工智能在审计领域应用中存在的伦理问题归纳为五方面。

1.审计师主体地位动摇问题。审计师对被审计公司进行正确的审计判断一般建立在长期专业知识学习与实践积累的基础上,而审计师的知识容量和对信息的掌控相较于人工智能来说具有一定的不足,人工智能有更强的学习能力和更大的存储容量。目前基于RPA的审计机器人能够高效完成数据密集、重复性高、规则性强、人工易出错或者涉及信息敏感等特点的工作,7×24小时不间断地进行审计工作,会计师事务所审计过程中与计划阶段、实施阶段以及报告阶段相关的技术性工作正逐步被人工智能技术所取代,极大地节约了审计时间,提升审计效率,并且可以避免由于精力、时间、职业道德等原因出现的一些审计失误,降低抽样调查等传统审计方法带来的审计风险。人工智能以其高效、准确、快捷,极大地提高了审计效率,降低了审计风险,也给审计人员带来了可能会被人工智能替代的风险和压力。2018年,普华永道发布的人工智能报告预计人工智能及相关技术在未来20年将取代中国现有约26%的工作岗位。牛津大学研究团队利用应用概率分类模型估计了美国702种职业未来被计算机替代的可能性,发现其中47%的岗位处于高度被替代风险。随着人工智能的研究与发展,基于RPA的审计机器人逐渐向RIA(robotic Intelligent automation,机器人智能自动化)进行转变,人工智能的学习能力与认知能力将得到进一步提升,审计模式将得到更高层次的改变和转型,审计师的主体性地位问题成为一个值得思考的伦理问题。

2.审计事故责任认定问题。人工智能技术运用于审计之中的发展令人欣喜,然而其责任认定带来的伦理问题也不容忽视。在审计过程中因使用审计智能机器人出现失误从而导致审计风险提升,其责任如何认定值得深思。立足于当前整个审计行业,尽管人工智能参与了审计过程,但审计的主体仍然为审计人员,属于主导地位。现阶段人工智能审计失误主要因为设计遗漏或者不当操作造成。随着技术的持续进步,人工智能在发展过程中可能会脱离掌控,出现违背设计目的或主题的行为,关于如何把控其行为,如何强化法律约束,如何划分审计人员、制造者、人工智能等诸多主体的权责,目前相关的法律规则及伦理标准依旧不完善,所以应尽快建立健全相关准则法规,明确各主体权责标准界限,推动责任的归属与落实。

3.审计单位数据泄露问题。人工智能技术结合大数据及云计算技术作用于数据的采集、归纳及分析处理,人工智能审计所涉及到的被审计单位数据保存于云端或者存储器之中,即使有加密措施也无法确保数据的完全私密,存在泄露风险。审计工作涉及的活动具有很高的商业价值,一旦泄露后果不堪设想。人工智能审计的数据隐私问题主要包含以下方面:数据信息访问提取过程是否获得企业认可;会计师事务所、人工智能科技公司或者企业本身,谁拥有获取企业数据的资格;如果出现数据泄露情况,如何界定责任方。当前,审计过程中资料数据泄露包括内部窃取数据和网络安全隐患泄露数据等多种内外部途径。审计人员在辞职、退休、调任等过程中由于主客观因素影响而导致审计数据信息的泄露,可能会对审计单位造成极大影响。2021年咨询行业爆出一条“内鬼窃密”的新闻,安永在清查一批离职员工电脑的过程中,发现ERP系统中有上万笔机密资料被访问下载,甚至一部分原始资料在安永服务器内被彻底删除,相关当事人被依法追查。网络安全隐患的存在也容易导致事务所的网站或服务器遭受攻击从而造成相关数据的泄露。2017年3月,德勤确认遭受数据泄露,黑客成功访问公司客户的电子邮件,获取到一部分重要客户的用户名、密码和个人信息以及公司本身的业务计划和员工健康信息等,更加重要的是,受此次事件影响的机构甚至还包括美国政府部门,影响范围之广令人咂舌。

4.人工智能项目成本负担问题。审计过程中使用人工智能技术可以极大的提高审计效率与质量,使得审计人员投入到更高层次的审计工作中,从而在一定程度上降低审计费用。但是人工智能项目本身存在一系列成本,如果没能有效控制其成本,则会加重事务所与被审计单位的负担。首先是开发与外包成本,会计师事务所需要决定选择内部开发、外包给有经验的厂商定制开发或者与人工智能技术公司合作开发,选择不同,投资回报率也会不同;其次,技术升级成本,新时代技术的不断发展使得会计师事务所必须充分利用这些技术来满足客户的需求,并且根据技术的升级换代不断对其进行调整;最后,监管与管理人工智能的人力成本,人工智能在审计行业中的应用属于初级阶段,需要对人工智能进行系统审计的过程进行监管以确保其可靠。尽管最初管理人工智能项目的开销并不大,但随着业务或额外的流程优化需求的增加,相关管理成本会逐渐增加。

5.人工智能算法监管问题。为了保障人工智能审计的安全性、科学性和可靠性,对其算法的监管是必不可少的。许多学者极力要求算法的公开透明,然而在实际生活中,由于深度学习、人工神经网络和自然语言处理等各种技术的高速成长,除了极其专业的技术人员,几乎没有人能够深入了解算法的运行原理与过程,即使要求算法公开,监管人员可能也很难发现算法存在的问题。算法原理本身都是公开透明的,算法细节才是根本,但当今算法细节可能成为会计师事务所的核心竞争力,公开算法还有可能触及知识产权问题。那么究竟算法要如何公开,公开到什么程度,对哪些人公开都成为有待商榷的问题,这些问题的存在使得对人工智能的算法监管成为一个难题。

表1 人工智能审计技术应用

三、人工智能审计伦理问题的应对策略

究其根本,人工智能在审计应用中存在的伦理问题的特殊性来源于人工智能与人类的关系问题,不同于传统伦理学,人工智能伦理探讨的不再是人与人之间或者是与自然界的既定事实(如动物、生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,这种特殊产品——根据未来学家库兹威尔在《奇点临近》中的说法——一旦超过了某个奇点,就存在彻底压倒人类的可能性。在这种情况下,如何更好地运用法律、道德和伦理来对此进行约束十分重要。针对人工智能审计所面临的伦理问题,本文提出五点对策建议。

1.坚定审计师主体地位,提升审计质量。人工智能技术的飞速发展为审计行业注入新的活力的同时,也给审计人员带来了风险与挑战,要想不被时代发展的浪潮所抛弃,审计人员应该顺时而动,不断提升自身能力与水平,促进审计质量的提高:一是审计人员应当不断提升专业知识和技能,丰富实践经验。审计是一门需要职业判断的岗位,人工智能尚不能代替人为感知,实现人与人之间的紧密沟通与情感交互,从计划阶段的审计策略的制定、审计风险点的判断到实施阶段的审计证据的合理性获取再到报告阶段审计意见的形成,都需要审计人员与被审计单位进行密切交流,此时沟通与分析能力以及丰富的实践经验尤为重要。审计人员应不断提升专业技能与职业素养,加快培育分析判断能力,并不断将业务重心向风险防范、预测分析、专业咨询等方面转移。二是发展新时代复合型人才。面对人工智能浪潮,注册会计师仅掌握扎实的财会和审计专业知识已经无法满足人工智能审计需求,人工智能技术在审计过程中的应用使其对审计低级技能的需求降低,转而对审计师的知识结构和能力水平提出了更高水准的要求,审计人员需要熟练掌握计算机之类的信息技术及数理统计等相关技能,开拓专业视野,发展成为新时代复合型人才。

2.重构伦理框架,落实责任认定。由于人工智能的行为决策受其初始设定目标的影响,应将绝大多数人类所遵循的伦理准则和利益目标贯彻在人工智能的设计过程中,促使其在变化多端的环境中仍能做出相对正确的决策,减轻人类的疑虑和不安。人工智能伦理准则的设定,要建立在社会及大众对其深入研究和凝聚共识的基础上,融入一些共识原则,发展负责任的人工智能。目前欧、美、日等国对于人工智能伦理标准工作给予了充分重视,美国于2016年发布的《国家人工智能研究与发展策略规划》中指出,应理解并解决人工智能的伦理道德、法律和社会影响,创建健康且值得信赖的AI系统。欧盟于2019年发布的《可信赖的AI伦理指南》架构了可信赖 AI体系,首先,它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;其次,它使用的技术应该非常稳健、可靠。日本于2019年发布的《人工智能战略》提出要在日本国内推行“以人为本的人工智能社会原则”,包括以人为中心原则、教育应用原则、保护隐私原则、安全保障原则、公平竞争原则、包容与透明原则、创新原则等七大原则。各国政策均强调围绕AI伦理标准进行更为充足的部署计划。从人工智能审计的技术应用方面看,要充分考虑到人工智能开发和部署过程中的责任和过错问题,通过为人工智能技术开发者、产品生产者或者服务提供者、最终使用者设定权利和义务的具体内容,根据主体负责的理念,对各方的权、责、利进行划分,达到落实安全保障要求的目的。

3.加强隐私观念,保护数据安全。人工智能技术运用于审计的过程中,应当制定一系列准则切实保护公司隐私及数据安全。对会计师事务所、被审计单位、数据中心采集、保存、提取和使用公司数据需制定详尽的规则。在对被审计公司的数据进行搜集整理的过程中,可能存在数据未经授权的情形;数据使用过程中,可能因体系本身存在缺陷或遭遇黑客攻击而导致数据泄露。这是人工智能技术不断发展产生的弊端,需要不断完善相关法律法规。数据安全治理工作应遵循国家级和行业内的安全政策,包括网络安全法、等级保护政策及特定行业政策,并与审计实务相结合,具有一定的针对性。会计师事务所在开展管理分析时,对被审计单位的隐私数据必须打码。此外,要做好数据的加密与脱敏工作,一定程度上保障数据的安全性。任何审计访问行为,应对其登录状态、访问路径、访问内容等进行实时存储与记录,保证整体访问行为的可追溯、可审计,倘若出现数据泄露,可落实相应主体责任。

4.把控AI成本,降低审计负担。事务所应当组建专业的管理团队来对AI项目进行把控与监督,主要目标是管理并评估每个人工智能项目存在的必要性,优化和监控与之相关的成本,提升人工智能使用效率。对于选择内部开发、外包给厂商定制开发还是与人工智能技术公司合作开发,应做好前期调研和预算工作,内部开发需要事务所具备专业的技术开发团队和雄厚的资金储备,而外包给厂商所要求的定制化服务也需要较高的成本,需要比较不同方案之间的投入产出比,选择最合适的方案。人工智能技术更新发展迅速,应根据审计业务实际工作需要,明确客户需求及其变化,有针对性地进行人工智能改造升级,以最小的成本获得最大的收益。监管与管理人工智能的人力成本必不可少,用以对AI项目进行优化和监控,在把控AI成本的同时,保障AI的可靠性和安全性,提高审计效率,在应用层面降低审计负担。

5.完善监管体系,强化特殊监管。在监管方面,由于人工智能监管比较特殊,通过算法透明去监管算法的做法既不科学,也无道理,但可以通过构建合理的约束条件,将人工智能行为引向正确的方向。审计行业可以借鉴伦理委员会的运行模式,成立专门的人工智能审计管理委员会,主要由人工智能专技人员、审计专业人员、法律专家、社区代表等构成,负责评估审计中人工智能的伦理性和安全性。构建会计师事务所人工智能强制登记制度,并创建故障透明制度和可追溯制度,故障透明是方便技术人员对事故原因进行分析,可追溯制度是为了对人工智能决策全过程进行监管,助力各主体对人工智能决策行为的理解,同时给予必要的修正和调整。我国应积极参与全球人工智能治理交流对话,协同探索人工智能治理思路和监管模式,在联合国等多、双边框架下,加强交流、形成共识,推动共同构建全球人工智能治理监管体系。

猜你喜欢
伦理人工智能
《心之死》的趣味与伦理焦虑
员工伦理型领导原型对伦理型领导有效性的影响:员工崇敬感的中介作用*
我校新增“人工智能”本科专业
浅谈我国社会工作伦理风险管理机制的构建
2019:人工智能
人工智能与就业
数读人工智能
亲组织非伦理行为研究
亲组织非伦理行为研究
下一幕,人工智能!