程 威
(清华大学 法学院, 北京 100084)
近些年,人工智能对于现有社会运作机制形成全方位冲击,并有望重塑未来的法律体系[1]。以营利性为本质的公司自然也逃脱不了技术发展的介入。一方面,拥抱人工智能将改进生产工序、促进信息传递,极大提升运营效率,所以企业对于人工智能技术在基础部门的部署愈加重视,并试图通过技术投入替代人力成本[2];另一方面,随着人工智能深度学习算法的不断优化,智能机器介入董事会已然呈现,从边缘性的量化工具渐次介入决策过程,即影响到企业运营的大脑。前者仅是流水线意义上的效率改进,而后者涉及决策选择与长期运营等结构化安排。董事会作为公司经营管理的中枢机关,其义务实现与责任约束关乎代理成本缩减及公司治理绩效[3],从更广泛的意义上来说,如果未能对智能算法之于董事会机关的决策风险加以识别和管控,企业内部流程化的运营机制或可无碍,但公司作为法人实体其组织性功能如机关权衡、利益分配等将受到不利影响。
人工智能法学在前瞻性地讨论技术应用的预测之外,对于现实而紧迫的算法实践亦应有所消化。在公司治理的规范场域,人工智能介入董事会的具体场景为何?人工智能对传统董事会的义务架构和责任机制形成什么挑战?如何重塑董事会的义务体系与责任安排?这些问题牵动公司法研究的主线,也涉及目前及今后不远的公司治理实践。笔者认为,应在现有技术成熟的条件限度内对人工智能作用于董事会的可能场景加以明确,解析其对董事会法律义务与责任的冲击,并结合其技术特点和公司法理的最新进展,探寻人工智能介入董事会的公司法应对。本文将以前述问题和理念为主轴,具体探讨人工智能技术介入董事会场景下所涉及到的基本法律关系。
通常来说,公司管理事务根据介入的心智程度可分为勤务类事项(administrative tasks)与决策类事项。勤务类事项在公司治理背景下主要指行政协调和例行事务,包括但不限于日程规划、资源收集和信息报告等。这类事务的特点在于重复性、流程化,其工作内容相对单一,不需要复杂的心智投入。目前流行的人工智能解放劳动力的观点,主要指这类事务被大规模取代的可能性日渐提高。
与勤务类事项参与之目的在于简化升级运营流程不同,决策工作的核心是判辨力的投入(judgement work),即通过运用理智、洞察力以及人情世故等判断决议方案通过与否,其事项包括与战略、创新、创造性思维和人员管理相关的公司领导任务[2]。这类工作的特点是团队协作频密、待处理情景复杂、心智投入较高。在公司治理语境下,体现比较突出的便是公司董事会的事务,而人工智能介入董事会主要就是指以算法驱动为导向的智能机器参与,其涉及到对具体利益的评价过程,所以对参与主体的要求并不仅限于人力智能,还包括其他能力。进而言之,决策工作虽有独立判断的空间,但一般以集体共治呈现,它需要团队协作的配合能力、事务规划的人际沟通能力,以及各自的社会网络联系等技巧。比如公司治理实践中董事会成员的身份一般较为多元化,甚至在美国公司中独立董事成员居多数,且多为其他公司的高管[4]90,他们往往有比较丰富的社会联系,这正是为了拓展董事会战略决策所需要的信息资源。尽管人工智能对各类工作的取代有加快趋势,但对决策工作而言,其难以广泛获取与决策相关的成员所具有的特质与信息,因此介入的空间受限与难度加大。不过技术始终处于发展的过程中,根据人工智能发展水平和技术自主性的高低,智能机器参与董事会的程度将呈现以下嬗变样态。
协助董事是指智能机器承担董事会的助手职能,协助处理一般程序性和信息收集的事务,其自主性水平较低甚至没有自主性。相应地,其对公司绩效的辅助实现也颇为受限。董事会中的人工智能除了借助移动端进行协助服务,更主要的应用场景体现在智能化会议服务系统,该系统在董事会的会议记录、音频处理、线上统筹等方面提升了办公效率。利用这一协助模式的原因在于,相关算法在特定的任务范围内比自然人做得更好,但本质上来看,其并不具备自主性,仍然隶属于勤务类事项范畴,其所取代的是董事会的会议秘书等工作。
董事的智能顾问模式下,对智能系统要求更高,人工智能可以“通过提问和回复以及构建场景和模拟,为解决更复杂的问题和决策提供支持”。英国特许会计师协会在一份名为《公司顾问中的人工智能》报告中,对人工智能为公司提供顾问服务抱以期待,预计其将对投资策略的设计、专业意见的咨询等提供优化方案。事实上,在投资顾问领域,智能投资顾问已经有充分实践[5]。相比于协助董事模式,智能顾问对于公司绩效的辅助实现功能更为显著,其自主性水平也更高。但就具体的决议事项而言,智能顾问的自主性依附于董事,其并未取代自然人,而是通过汇集对自然人而言无法轻易获取或进行计算处理的信息内容,增强并改善人类智能,所以毋宁说是将自然人的智能与人工智能进行了充分糅合,而自然人始终居于主导和控场的地位。就本质而言,董事顾问模式与协助董事模式属于同一种样态,仅仅是协助的深化程度不同而已。
人工智能为董事会提供协助顾问服务的业务模式主要有两种。第一种是市场上存在专业生产并销售人工智能机器的企业,不同的公司基于自身条件选择购买,以纳入内部决策系统。该种模式下,生产者提供的是物理机器、操作程序,智能计算所需的数据由企业自行提供。这种业务模式主要应用于经营规模较大、数据样本较多的企业中。另一种是专业的第三方公司治理顾问机构设计人工智能机器,从而为不同公司提供个性化的治理意见,它并不销售人工智能机器,仅仅输出治理意见,其特点在于第三方机构自己汇集信息,并专于分析数据[6]。实际上,人工智能顾问服务和外包机制天然地具有相似性和契合度,外包服务依赖于公司需要利用其内部不具有的专业技能,而人工智能依赖于公司需要利用其人力资源无法提供的能力。在此情况下,人工智能顾问的外包服务应运而生。这种模式多发生在无法提供机器学习所需的海量样本的小数据规模企业。两种模式均不同程度上影响到董事会的机制运作。
人工智能替代自然人成为董事会独立成员,这种模式是关于智能技术大胆假设的合理演绎。“技术实践可能很快就会为人工智能取代董事而非仅仅扮演辅助功能提供可能性。”[7]在这一形态下,算法初步具备独立的实体资格,可以针对具体的商业决策作出专业选择。此时人工智能将根据意见评估积极自主地参与到董事会决策中,且决策权切实落于机器之手。
从协助、顾问到替代模式,伴随着决策权的移交。其中人工智能替代董事模式是质的变化,它从依附于董事转向自主决定,而自主性的前提问题是人工智能法律人格的承认与否。从目前整体的研究而言,尽管有论者认为智能机器人自主性日渐提升,工具属性式微,而应将其视为独立于所有人或使用人的法律实体[8],而且,只有赋予其权利义务承担者身份才能解决法律工具主义视野下的归责困局[9],但保守的私法立场和未臻成熟的技术动向均表明该问题应进一步观察而非提前定调。因为人工智能的主体性地位问题事涉伦理评价:人类如何为一个可能比自己更智能的主体立法?为之立法是事实上不可能还是法律上无意义?聚讼纷呈,破解之途仍有赖技术反馈。鉴此,本文所议焦点仅限于“协助—顾问”这样一种由自然人董事主导的情境。
由于董事会是公司生产团队模型中的“协调性层级制度”(mediating hierarchy),对于事前防范激励机制失灵、事后约束集体行动困境具有核心作用[10],董事成员的义务体系和责任分配关乎股东利益实现和一般社会责任的遵守,嵌入人工智能后,必然撼动现存的董事会制度,以适应性为专长的公司法应当认真对待人工智能介入。
现代公司制以所有权与经营权分离为典型特征,执掌经营权的董事会被视为公司(股东)受托人,由此形成股东与董事间利益偏离即代理成本发生之可能性[11]。为了更好地敦促董事履行其职责,公司法规定董事会须遵守信义义务限制,并以其义务之适当履行豁免违信责任之追究。人工智能辅助强化董事决策,使得决策行为的作出变成人机混合过程,董事意志隐身其后,算法决策走向台前,准确界定董事义务履行的难度增加,传统上对于董事会施加的义务要求和责任构成由此面临困境。
传统公司治理中,董事会被视为专业管理能力的出售者,其与股东之间因为专业关系而形成了信义关系,并对股东负担信义义务。董事会的相关决策以其成员集体意志作出,不同成员根据自身的知识背景、与特定资源的具体联系、逻辑推理等个性化因素形成判断的基础。为了尽可能消除个别董事成员的认知偏见对决策效果的影响,独立董事的平衡机制也发挥一定效用[12],董事对股东福利影响甚巨。公司法为了保护股东利益,设置了针对不同语境下的权利机制,即合同机制与非合同机制。通过合同机制约束代理成本的方式主要在于模拟董事与股东之间形成委托合同关系,进而以选任权与任意解除权管控董事的遴选与撤职,但其对董事行为的约束效果不彰。如选任权的行使一般只涉及结果,即被选入董事会的成员在选任程序完成后,其具体履职不一定以选任前的承诺等为准,股东对其控制力也随之下降;而任意解除权也不构成对董事行为的震慑,因为一般而言,除非董事存在明显不当行为,否则股东不应当轻易解除董事职务[4]95。在此条件下,作为非合同机制的信义义务成为一项有效的事后规制手段。
我国《公司法》第147条原则性规定了董事等管理层对公司所负有的信义义务,内容上包括忠实义务与注意义务。忠实义务要求董事必须善意地为股东利益服务,避免利益冲突或利益冲突交易须经股东批准,它是公司治理中董事对股东所负担的基础性义务。注意义务则要求董事必须善尽职守,“尽到处于相似位置的普通理性人在类似情况下所应尽到的注意”。如果董事在处理一项待决议案时,是在充分知情(informed)的基础上进行的决策判断,即便最终的交易结果对公司利益构成损害,也无需承担责任。易言之,忠实义务限定了董事行为的伦理要求,不得损公肥私、不当妄为,注意义务关注董事行为的专业水准,不得消极懈怠、懒惰无为。信义义务之所以能够有效地保护股东利益,在于其模糊而严厉的“威慑作用”[13]。其模糊性在于仅有宣示性的规定,并无特别清晰的配套指引,原因在于,假如为董事设定了轮廓明显的行为边界,反而使其得以借道突破、规避之,但该模糊性并非意指完全无迹可循,通过长期积累的经验,附属规则与实施规则的形成逐步帮助确定了法律适用的逻辑,亦即在具体案件中,法官得根据案情特殊性结合法理一般性加以认定[13]。信义义务使得董事“戴着镣铐起舞”,激励与约束并举,不断以实现股东利益为行为准绳。
在责任构成上,信义义务违反由违法行为、主观过错、损害发生及因果关系构成。其中,主观过错的认定颇具特别法性格且居于核心地位。相较于一般侵权法理论,其特殊之处在于:第一,公司法对董事过失责任的认定倾向于采客观标准,即借助程序性规则检视董事行为的可责性。第二,确认董事违信责任时更倾向于重大过失标准,防止限缩董事的决策行为进而影响公司正常的经营展开。
公司法上的信义义务与违信责任追究机制虽在不同法域有成熟度的差异,但均有效地实现了董事专业经管与股东利益保护之间的平衡。但传统模式下公司法所限定的描述场景是以自然人为主,法官可以通过外观行为辨明自然人决策过程的合法性与合理性,对责任的认定往往有可信赖和可操作的程序,但人工智能介入董事会后,改变了董事会本来的运作生态,传统规则将面临适用上的困境。
(1) 义务逃避
人工智能介入董事会后,使得董事决策环境变得复杂,算法决策的“黑箱”问题凸显,在决策所依据的原始数据信息与最终的决策结果之间存在人们所无法洞悉的“隐层”[14],这不仅可能为董事卸责大开方便之门,也使得董事决策的考量因素叠加,进一步加重了其履职难度,反过来会强化董事的义务逃避行为。
首先,算法中立性冲淡乃至消解忠实义务之履行环境,使得董事逃避忠实义务约束更为便利。一般认为人工智能以机器学习为其主要特征。机器学习是一种典型算法,使得计算机模拟人脑挖掘数据信息并进行转化获取相应结果[15]。深度学习作为机器学习中的前沿算法模型,突破了传统手工选取数据的限制,从原始特征出发,自动学习高级特征组合,实现端到端的跨越,直接保证最终输出最优解[16]。在最优解的达成中,算法被认为是始终处于中立状态,它只对数据负责,但假如原始数据本身被有意识地引导性修改,其最终决策结果将显然失真,但该失真的计算过程难以被溯源。人工智能不会违反忠诚的标准,但并不意味着作为最终决策者的人类不会逃避忠实义务约束。典型的情形是董事在处理涉身利益有关的决策时,并未对智能机器坦诚相待,而是剔除或隐瞒了对自己不利的信息,进而导致最终的决策结果可能会损害公司的利益。
其次,算法介入使得董事“知情”的判断环境复杂化,注意义务的履行难度随之增加。知情基础上的谨慎决策是董事豁免结果损害归因的避风港,但该义务履行与个人地位紧密结合,并且对于不同的职位,有其不同的期许与规制[17]。个人地位因客观环境的变化而有所调整,所以注意义务履行必须充分考虑所处环境的变更,人工智能就是重要的环境变更因素,这主要体现在以下方面。第一,人工智能得否进入董事会本身就构成一项重大的影响因素。考虑到人工智能的优点,围绕着具有自由裁量权的新型决策如建立和测试自动化系统本身的决策等变得重要,人工决策的剩余代理成本将越来越多地与战略选择相关,即判断是否选择适用以及如何规划人工智能的决策成本随之推高,“与其说总代理成本会下降,不如说是代理成本本身发生了转化”[18]。第二,董事会在接受智能机器介入后,理直气壮地将所有决策事项的选定权限交由后者,尽管名义上自然人是最终的决策者,但其仅仅是复述、执行智能机器意见,没有对智能机器提供的治理意见进行审慎监督、细致排查,董事的知情基础貌似得到智能机器辅助而满足,但该知情是不假思索的执行,是一种瑕疵的知情状态,同样难以认定合乎注意义务本旨。综上而言,算法介入不可避免地改变了对注意义务“知情”这一前提性要件的判断环境,特别当事后的公共执法机制也未能准确界定知情履行标准的情况下,对于董事而言,逃避这一义务显然变得更加容易。
(2) 责任模糊
义务违反直接触发责任承担,与逃避信义义务紧密关联的是责任的模糊。这主要体现在两个方面,即过错认定的模糊与归责主体的模糊。
在过错认定层面,人工智能介入影响主观过错的检验标准。其中,违反忠实义务的过错认定较少存在模糊地带,这与检验标准的客观属性有关,即法律预先设定了义务并对违反行为样态初步具体化,一旦违反法定义务,便构成过失。对应到程序上,一般要求董事事先披露涉身利益,经股东会批准方可满足公平要求。智能机器介入下,设若人工智能作出的决策确实涉及到董事个人利益,董事作为最后的决策者,必须悉数披露方可免责,否则就构成忠实义务的违反。简言之,由于忠实义务本旨在于促进董事对股东的信息披露[13],董事向股东隐瞒或不披露相关信息,即有产生义务违反的风险,智能机器介入仅仅是延长了问责过程,并未消除其问责的确定性。
与忠实义务相比,注意义务认定的难度将大幅增加,模糊地带也随之拓展。具体来看,注意义务一般采“理性人”的注意标准。关于理性人在公司治理语境中的理解,显然不能按照普通大众的认知水平进行评判。“理性人的内在结构的核心部分是知识和能力问题”,“为了保护投资人的合理信赖……当具体董事因专业或职业等原因具备更高的知识储备时,标准会被提高,那些超出普通商人应拥有的知识也应纳入理性标准中”[19]。人工智能介入董事会后,注意义务的理性人标准也应按照技术条件而有所调高,对于董事成员而言,其在进行决策过程中采取的谨慎注意程度如何适应,并无可资借鉴的范本。在目前的董事会结构中,成员一般以专业的财会、法律和商业背景为主,熟悉技术特别是人工智能技术的董事成员较少,即便是存在智能系统专家,基于同业互敬的董事会结构传统[12],信任其他董事往往比提出反对意见更符合董事自身利益,董事会最终作出的决策所负载的参考信息能否精准归因于董事会所履行的注意义务,并不容易判断,进而也难以准确识别人工智能提供的意见本身是否符合公司利益。此时,对于董事违反注意义务过错的认定,将变得模糊不清。
在归责主体层面,因人工智能顾问的业务形态差异而更趋复杂。在董事会购置独立人工智能顾问系统的条件下,智能顾问机器的产品属性决定了生产者/销售者与作为买受人的公司及其董事会,在特定不利决策产生的损害结果上均有担责风险。董事对智能顾问机器输出意见的监督和评价、智能机器本身的认识错误或者是自主学习条件下擅自修改程序造成损害、公司对董事吸收智能顾问机器决策过程的监督等,不同程度上构成了最终责任认定的决断参考因素,公司作为不利结果承受者很可能因无法找到真正的责任主体而自吞苦果。
在由第三方外包的智能顾问业务模式下,对于最终损害结果,公司及其董事、第三方机构亦均有苛责的可能性。随着智能机器的成熟和行业伦理与规则的发展,第三方独立机构在治理意见输出的交易关系力量对比中扮演由弱到强的角色,进而从主要责任承担者转化为次要责任承担者甚至不承担责任。具言之,行业发展初期,为了获取客户资源及进行机器学习的训练数据,第三方机构不得不承诺提供定制化的专属治理意见,且愿意为治理意见不当后果承担最终责任,这种承诺减轻了董事责任。行业发展成熟后,为了减轻问责压力,第三方机构可能会在服务合同中明确限制、排除自己所提供的治理意见造成的损害结果归责,彼时,公司及其董事会特别是后者需要承担的风险将随之加重。归责主体在此背景下存在模糊不定的状态。
我国公司治理机制在实践引领与制度借鉴的过程中不断地趋于完善。实践中纷繁多样的公司纠纷促进治理机制演绎,域外的治理进化趋势也影响我国相关制度建构。2018年修订的《上市公司治理准则》即属对治理实践的最新回应,但其内容并未涉及对智能工具介入的规范。考虑到董事会质量的推进是全球性的关键议题,因此,在人工智能介入后,董事义务体系和责任分配问题,需要系统研究。
针对董事逃避义务的行为,一般有两种策略予以回应。一种是限权策略,指的是最小化董事的自主权;另一种是股东介入策略,即对董事已经无法充分履职且对公司利益有损害之虞,股东积极介入予以干预。两种策略均建立在传统的代理法基础上,将委托人对代理人权限的限制手段复制到公司法中,但这仅仅是短期而非常态化的,而且“策略本身在保护委托人免受代理人过失或渎职行为侵害的同时,也使得代理人无法实施对委托人有利的行为”[13]。将规范的焦点置于董事义务之上仍应是今后处理人工智能介入问题的主要手段,在具体内容的设定上,应以促进董事问责与实现激励的有效平衡为依归,所以应当对董事义务体系予以更新。
(1) 董事信义义务的新意
人工智能语境下,董事逃避信义义务的原因在于决策环境的改变,这一方面激励董事以人工智能顾问机器为“替罪羊”,另一方面抬升注意义务履行标准使得董事无法适切定位自身角色。因此,规制的问题重点在于,算法本身根据既定程序输出的适当结果,是建立在并不透明的无监督学习基础之上,无监督运算造成了算法与人类之间信息对称性的失衡。对于无监督学习,应有技术和法律两个维度的规管机制。就技术维度而言,理想的情况是采用对技术参数进行严格检测的方式,通过设定事先确认的标准对每一项人工智能产品加以严格的伦理审查,以防止脱离人类监管。欧盟人工智能专家委员会在2019年发布的《可信赖的人工智能伦理准则》(EthicsGuidelinesforTrustworthyAI)便是应对智能机器风险审查的一项努力,准则中对可信赖AI强调应具备合法性、伦理性、鲁棒性(即稳健性)三个必要条件,在“设计伦理”(ethicsby design)的主导原则下推进AI发展策略,将人类优先与技术安全置于优位考量。所以,对人工智能这一风险敞口,技术层面的严格规制先于技术自身的发展程度。法律维度是对技术维度的立法实现与表达。如为了贯彻人类主导和防范人工智能反噬的危害,刑事法律层面可以将未经审查的人工智能技术研制定性为犯罪行为从而施以刑事处罚[20],私法层面则严格拒斥赋予其主体地位并对其运营管理施加人力控制以保护市民社会运作的基本秩序。在公司法的视域下,强化对人工智能的监督主要体现为董事的监督义务,而这在公司法理中已有历史基础。
传统的信义义务虽主要以忠实义务与注意义务为核心,但在其漫长的发展演变过程中,随着事权分配的弥散化、去中心化,董事监督义务也随之兴起并扩充了信义义务内容。以董事违反监督义务提起诉讼最早缘于美国特拉华州的Graham案,股东认为涉案公司董事因未对部门经理与其他公司联合定价的违法行为作出适当监督,令公司蒙受处罚,应对此承担责任。虽然最终原告败诉,但监督义务作为一项概念仍然被提出来而受到重视,也就是说,当董事将一定的决策与具体经营权分离、下放至经理层时,对于后者的行为,董事是否有积极监督、侦查的义务,这将构成董事承担对公司责任的重要因素。多年以后,在Caremark案中,与Graham案类似,针对股东提起的董事未妥善监督雇员违法推销医疗产品造成公司损失而应担责的问题,特拉华州衡平法院对监督义务进行了进一步的展开讨论,认为董事会实际上有义务主动采取积极措施规避风险,“一个合理设计的组织,其目的是向管理层与董事会本身提供及时、准确的信息,以使管理层和董事会在各自的职责范围内就公司的守法情况和经营业绩作出知情的判断”。因缺乏持续或系统性监督是一种重大过失,使得信息汇报机制无从适用,对此导致的损害后果显然要负担责任。该案的裁判立场得到衡平法院的广泛接受。
应当认为,在代理权不断下沉、董事会形式化特点突出、外部董事席卷的治理实践中,美国法的董事监督义务是合理而必要的,这有利于将董事从具体经营事务中解放出来,从而在治理框架内的角色扮演中专于公司宏观战略设计及对经理层等执行团队的绩效评价上[21],以推升专业分工机制下的公司治理效率。人工智能介入公司后的治理场景改变实际上与代理权下沉的影响是一致的,这主要是因为:第一,人工智能介入董事会在很大程度上减轻了董事对具体运营决策及其他琐细事务的工作量,使其得以将主要的工作投放在公司长远战略的设计上,这与董事会下放执行权限不谋而合;第二,董事依靠人工智能进行决策实际上也是释放权力的一种形式,其主要目的在于决策系统的功能改进,这与董事将部分治理权限交由经理层执行属于同种类型。据此,在这一条件下,承认人工智能介入背景下的董事监督义务将有机会修正其逃避义务的倾向,因为这使其在减轻责任的前提下抬升了监督公司事务运行的要求。
董事监督义务的设定在中国法上具有必要性和可能性。首先,我国公司法上负责监督的机制主要是监事会和股份公司中可能存在的独立董事,遭诟病的是,两者在实践中往往发生职能冲突,由于存在监督义务的重叠,为了减少自身的责任,两方都不愿意积极履行监督义务,以致一边耗费合规成本,一边无法对频发的运营问题产生有效规制。当人工智能介入后,在监督机制不彰的情况下,有可能会影响公司治理的稳定性,所以有必要确立董事监督义务。由董事承担监督义务的好处在于,董事因经营管理行为始终处于治理的金字塔顶尖,对公司内部的组织架构更为熟悉,监督起来更为便利;而在追责过程中,董事必须证明其履职的具体行为标准,私人执法机制展开也更为畅通。除了必要性之外,设定董事监督义务的可能性也至为明显。因为,我国对于信义义务制度虽有明文规范和学理论证,但在司法裁判的适用上始终处于“半沉睡”状态,特别是注意义务条款经常沦落为宣示性的规定而不具备实践品格[22]。以人工智能介入为契机,引入董事监督义务,并在其原则性范例下具体列示行为准则,不仅扩充了董事信义义务内涵,也便于激活信义义务的司法适用。
(2) 合规义务之具体化
在当前普遍强调公司合规建设的环境下,人工智能介入实际上催生了董事会合规义务。按照Caremark案的理解,监督义务要求董事在注意到发生或可能发生不当行为时,有责任采取行动,但事后责任的调查取决于提交给董事会的信息质量,也就是说董事须确保合规层面的信息得以流动[23]。易言之,董事合规义务是监督义务的具体化,面对人工智能技术介入,从董事会层面建构合规制度也是公司多元化合规体系形塑的应有之义。关于人工智能背景下的董事会合规义务,主要从组织结构设计、成员资格要求两方面展开。
第一,组织结构设计上应补强现有董事会的短板,特别是技术监督上的不足。公司董事会成员一般来源于不同的知识背景,但总体上以商业、财会、法律等为主,董事会框架内,专业委员会治理是突出特点,一般公司中有三个委员会:提名、薪酬和审计。每个委员会都处理特定领域管理上的利益冲突。法律、审计虽然与合规有关,但是人工智能介入条件下,对于人工智能的技术细节和监督显然鞭长莫及,而将有些合规业务纳入审计委员会职能中也无法产生预期效用[24]。在数据治理的宏观背景下,对于有关技术和分析的专门知识变得越来越重要。所以,至少在规模较大的股份有限公司董事会中,技术或合规委员会应当成为今后设计上重点考虑的内容。技术委员会功能在于监管智能机器无监督学习的计算结果是否违反一定的操作规程或标准,其目的在于补强董事会相关领域知识的缺陷,防止董事会成员形成结构性偏见而无法妥当识别机器造成的错漏。比较法上,如截至2016年,美国的董事会中设置技术委员会的数量已达到6%[25],这一比例将会随着人工智能引入而继续增长。
第二,成员资格要求上应重视技术背景的专业人士入驻董事会。专业治理是董事会的鲜明特征,人工智能介入董事会后,对董事自身提出的知识与能力要求也会提上议程。法律应当为公司使用人工智能顾问情况下董事会的成员资格要求设置缺省性条款,要求一定比例或数量的董事应当具备特定人工智能知识,除非公司已经通过其他机制如寻求第三方技术监管机构协助。对于是否具备特定人工智能知识的胜任资格,应当由监管部门通过设置智能算法考试的方式予以确认,且在通过考试后进行持续性的督导,以保证该董事专注于技术监督从而可以持续胜任。在小规模的有限责任公司中,如果缺乏设立技术委员会的条件,则辅以技术背景董事的要求即可实现同等目的。证监会在2018年发布的新《上市公司治理准则》第25条规定“鼓励董事成员的多元化”,可以视为对我国董事会包容技术专才并赋之以决策职责提供了规范性指引。
(1) 责任认定的客观化
人工智能语境下,确认董事的过失责任将更倾向于客观标准为宜。在追究董事违反注意义务的责任时对理性人标准的界定并不好判断,但是监督义务概念的引入将有机会使得过错认定客观化,这涉及到对监督义务性质的界定。美国公司法裁判上对于董事监督义务性质的定位存有分歧。在Graham案中,特拉华州最高法院认为,董事监督义务属于注意义务之一环,其适用前提是企业内部的不法行为有被察觉的可能性,在董事没有理由怀疑存在不法行为的情况下,没有义务去设置公司内部控制制度。法官在Caremark案中也延续了将监督义务定位于注意义务之一的理念,Allen法官强调,董事有义务建立一个有效的合规制度,这是基于注意义务的要求[26]。然而,在2003年的Guttman案中,法院的立场有所转变,认为董事善意建立并有效、持续地维持公司内控监督系统才能尽到监督义务的基本要求,也就是说,因怠于监督而生的损害赔偿责任,应建立在违反善意的要求之上,而这是违反忠实义务的前提条件。2006年的Stone案也进一步巩固了这一认识,认为监督义务之违反属于善意行为的欠缺,董事在面对已知行为义务而未采取行动时,将违反忠实义务。将监督义务从注意义务内容转为忠实义务成分,实际上强调对董事善意的要求,且出于对其行为认定客观化的便利性考虑。
结合其性质界定的分歧可知,对监督义务违反采取综合要素认定是比较妥当的,也就是一方面强调董事对建立合规系统的注意要求,另一方面也重视董事善意履职的行为标准。我国采取的立场应当淡化监督义务的性质归属,而以更务实的精神注重监督义务违反的查证便利性,尽量以行为而非主观意识为义务违反的标准,这与转向忠实义务认定有立场上的相似性,但不宜将其列为忠实义务内容,当然也与注意义务相区分,而是作为一项以善意为前提的独立义务。这对于我国董事义务更新具有重要参考价值,原因在于:首先,忠实义务的具体违反样态相对固定,将监督义务违反类型纳入其中会不当地冲击忠实义务认定的稳定性;其次,注意义务本身在我国激活不多,加入监督义务使得注意义务成分复杂、认定困难;最后,我国并无美国丰富的案例演变实践,完全可以将监督义务作为信义义务具体化内容之一种,以行为标准予以确认。人工智能介入后呼唤合规体系的完善,妥当的规划应是对合规义务的类型化进行更细致的规定,如果未能达到合规义务履行的必要行为条件,即可认为其违反监督义务从而需为此担责。
(2) 责任主体的厘定
为消除董事会在人工智能辅助强化决策过程中产生的最终责任承担主体的模糊性,防止公司承担兜底性的不利损害,对责任主体应予清晰化。这需要从人工智能介入的业务模式上展开讨论。
在董事会购置独立人工智能顾问系统的业务模式下,对于责任主体的认定应具体化为以下情形:第一,当董事会在借助人工智能决策过程中,善意地履行了董事监督义务,采取了谨慎的措施控制决策风险,可确定其对最终的不利损害不具备可归责性,此外,对于生产者/销售者而言,其技术符合《产品质量法》相关规定,特别是投入流通时不存在该法第46条所强调的不合理风险,且以彼时的技术标准无法发现设计缺陷从而使用发展风险抗辩原则,那么,最终的损害后果应由公司按照正常商业风险承担。第二,如果经过第三方专业技术机构鉴定发现不利后果乃由机器本身的计算故障所产生,且该故障非可由董事监督义务所能排除,在这种条件下,公司可获得对人工智能机器生产者/销售者进行追偿的权利。第三,如果是因董事会成员未能善意地履行监督职责,产生了最终的损害后果,且人工智能机器并无设计上的故障,董事应当对此结果承担赔偿责任。至于董事承担责任的形态是仅由技术背景董事担责还是包括与其他非技术背景董事承担连带责任,这一问题与待决议案对智能机器的依赖程度、技术董事的解释必要性与清晰度等等因素有关,应根据特定案情加以厘定,不应设定“一刀切”的规范基准,否则将破坏商事法灵活调整复杂商事关系的功能。
在第三方提供外包治理意见服务的模式下,虽然智能机器输出治理意见,但可将其比照为电子代理人的行为,将其行为归诸于使用者[5]。这里的使用者应当是运营者而非服务接受者,因为该业务的具体运作是先由董事会提供需求,然后由运营者将该需求转化为智能机器所能识别的代码加以运算,操控机器的是运营者而非董事会。在该模式下,首先,如果董事会对于智能机器输出的治理结果进行了技术层面的审查,如复盘和检测了记录治理意见计算过程的信息载体,可视为已经完成监督义务,对于最后的商业风险,如果不存在外包机构的技术缺陷,公司应承受其风险。其次,如果损害确因技术本身未臻成熟或运营者出于为相类似企业提供差异化服务以谋取算法歧视下的不当利益所致,毫无疑问应当由运营者为此承担责任。最后,对于董事承担责任的情形,仍应限定在未能妥善履行监督义务、盲信外包公司治理意见所导致的损害,此时仍能为商业判断规则留下适用空间,保持法律规则的稳定性和适应性。
人工智能介入董事会改变了决策所依据的生态环境,进而对义务体系与责任机制产生冲击。以忠实义务和注意义务为核心的传统信义义务及责任追究未能适切地防范智能机器风险,以董事监督义务充实信义义务内容并通过客观化的行为违反责任加强追责,将有利于锁定智能顾问机器使用的风险并维护人类在决策上的优先权。人工智能算法在董事会决策过程中的运用,一方面具备改善传统信息汇集工具的渠道效能,另一方面则作为一种新颖的决策机制本身构成对传统模式的突破,这将可能对公司治理结构特别是股东会与董事会之间的关系构造产生深远影响。未雨绸缪、提前设定义务与责任规则,可以防止智能技术提前到来产生的系统性风险。