人工智能颠覆公司治理?

2024-05-14 00:00:00祝箐
董事会 2024年3期

颠覆式的创新有可能带来颠覆性的结果,而低估人性的复杂性同样有可能被人性反噬。这次OpenAI的闹剧让人们看到了那些号称由人类最强大脑构思出来的治理规则存在基本的漏洞

2024年3月8日,OpenAI官方宣布其创始人山姆·奥特曼正式官复原职,继续为这家全球领先的人工智能公司掌舵。这次事件虽已平息,但其涟漪将持久荡漾。人类文明进入新的纪元,先进如人工智能这般的科技正在颠覆世界。而先进科技的发明者和拥有者,那些高科技创业独角兽的创始人群体,在不断尝试新的方法来驾驭他们的科技巨兽。这个群体大多是技术专家,试图把真实的世界逆向推入元宇宙化,试图把商业环境以技术的方式结构化、模型化,并以他们颠覆技术的方式来颠覆公司治理。然而,他们可能低估了人性的复杂性。

治理灾难的发生

2023年11月,世人看到了足以写入商业史册的OpenAI“五日政变”。创始人山姆·奥特曼在没有被提前通知的情况下被董事会罢免。然而,仅仅5日剧情就迎来反转。两位创始人和数百位员工声称将加入微软并创造一个新的OpenAI,并以此威胁董事会,最终成功逼迫董事会妥协。奥特曼重新控制了局面,而那些参与“政变”的董事会成员则被清扫出局。

在OpenAI投资占比49%的微软,对奥特曼表达了坚定的支持。虽然微软既不能参与董事会投票,也不能重组董事会,但配合奥特曼导演了一出釜底抽薪的大戏,成功实现了对董事会的“逼宫”。如果奥特曼和数百名OpenAI员工真的加入微软,凭借微软的资源,他们完全可以重造一个OpenAI。可以这么说,微软差点“不花一分钱”就得到了OpenAI。

即便没有真的得到奥特曼的加盟,微软却得以染指梦寐以求的OpenAI董事会席位。据美国科技媒体TheVerge报道,OpenAI计划重组董事会并扩充至9人,而微软非常有可能获得席位。微软成了最大的赢家。

颠覆式的治理目标和结构

创始人被董事会罢免的案例时有发生,比如优步创始人卡兰尼斯的出局,以及广为人知的乔布斯“二进宫”。在中国,国美、新浪、雷士照明等公司也都出现过治理争斗。这些争斗大多源于企业治理结构的不完善。OpenAI政变的根源也在于其治理规则的BUG(漏洞)。

和常规企业不同的是,OpenAI的治理目标并不是让股东利益最大化,而是“造福全人类”。这越来越成为很多高科技企业(尤其是拥有颠覆式科技的企业)的使命和价值观。所以,OpenAI遭遇的问题,值得所有类似企业学习和借鉴。

鉴于其“造福全人类”的目标,OpenAI对资本的逐利性和控制欲非常警惕,由此衍生出的治理结构比它的技术还要烧脑。根据哈佛商业周刊的描述,这个组织架构非常“离奇”。首先,它是一个非营利组织,但是控制了一个以营利为目的的公司;其次,员工们拥有营利公司的股权,但是CEO和董事会成员却没有;再次,投资人有分红权,却没有投票权。在我看来,这既是一个不同法人主体的“套娃”,也是一个幻想平等与制衡的“乌托邦”。OpenAI寄希望于这样一个“颠覆式的治理结构”可以帮助它抵御资本的侵蚀,但最终这份期许还是错付了。

诚然,这样的架构有其存在的合理之处。人工智能最好以非营利的形式运营,否则将会因为商业化而变质。然而,高科技的开发需要大量资金,注定了要融资烧钱,而非营利组织无法大规模融资,所以必须还要成立一个营利的组织来实现融资功能。所以,非营利的董事会,控制着营利的运营团队,看上去解决了所有的问题。

讽刺的是,奥特曼亲手设计并引以为傲的规则,最终差一点击败他自己。而拯救他的,恰恰是被他视为洪水猛兽的逐利性资本。造化弄人,“野蛮人”已经登堂入室。

不同的配方,同样的风险

Anthropic是OpenAI最大的竞争对手,由一群OpenAI前员工于2021年成立。基于同样的对资本逐利性的顾虑,Anthropic采用了一个不同于OpenAI,但是同样烧脑的治理结构。

Anthropic虽然注册了一个营利性公司(而非OpenAI那样的非营利组织),但公司的类型是公众利益公司(PublicBenefitCorporation,PBC),目标是“为了全人类的长远目标而负责任地开发和维护人工智能技术”,并由一个长期信托辅助治理。信托持有人持有一种叫作T类普通股的股权(ClassTCommonStock),主要由一群技术精英组成,他们选举出公司的董事会成员。

而信托自身也有其独特的内部架构。信托的性质是一种普通法信托,接受特拉华州法律管理。但是,不像其他普通法信托的存在是为了一群受托人服务,Anthropic的信托是为了服务Anthropic的目标,即“为了全人类的长远目标而负责任地开发和维护人工智能技术”。为了保持信托持有人的独立性,他们的任期为一年。

不得不说,Anthropic的治理模式同样是颠覆式的。作为一个全新的治理方式,Anthropic创始人团队也承认这是一种“社会试验”。他们甚至还邀请了耶鲁大学法学院的教授为其提供一定的咨询意见。即便有专家坐镇,但这种模式还是非常让人忧虑的,其忧虑之处在于不确定性,即不知道大厦在什么位置会产生裂纹。隐藏的风险才是最大的风险。

植入社会目标需渐进

促使OpenAI和Anthropic采用颠覆式治理结构的初衷是平衡社会责任和商业利益。其实,将社会责任融入商业利益的治理模式完全可以采用缓和的方式。比如,强调环境、社会、治理的ESG理念,就主张渐进式的公司治理改革,稳步推进社会责任在企业顶层设计中的融入和深入,从而实现企业和社会的双重基业长青。

具体来说,ESG的流派按目标群体可以分为两个。一个主张单一重要性原则,即还是以股东利益为目标,但是其他利益相关方的利益也需要得到满足,这样才能更好地实现股东利益最大化。另一派则主张双重重要性原则,即股东和利益相关方的利益均为最终目标。利益相关方的利益本身就是最终诉求,而不是建立在股东利益最大化之上的二次诉求。

无论哪一种流派,其底层逻辑中都植入了股东利益之外的更广的自然和社会责任,只是深度有别。这就已经极大地延伸了传统的公司治理范畴。

另外,两种流派都选择了类似的治理组织模式。哈佛法学院2021年发布的一篇论文指出,企业在ESG治理的组织设计方面一般采取以下四种模式:

1.ESG由整个董事会领导。即不设立任何委员会,以全体董事会的形式来监管ESG相关课题。这种方式非常适合小型企业或规模较小的董事会。然而,这种方式的主要问题在于董事会可能没有足够的时间和精力来处理ESG课题,毕竟董事会需要处理的课题很多,这样可能会稀释其对于ESG的注意力。

2.ESG由单一现有委员会领导。有的董事会在现有委员会层面更加聚焦ESG课题(比如精力更充分、ESG技能更充足),所以现有委员会更适合领导ESG课题,比如战略委员会或风险委员会。这种方式更容易让ESG从战略向内部落地。有些公司甚至修改了已有委员会的名称以反映ESG的重要性。比如,美国航空公司就曾经将CorporateGovernanceandNominatingCommittee(公司治理与提名委员会)更名为CorporateGovernanceandPublicResponsibilityCommittee(公司治理和公共责任委员会),并在其职能中加入“监督ESG相关工作”。

3.ESG由多个现有委员会领导。由于ESG职能和多个现有委员会的职能相关,比如ESG战略与战略委员会相关,ESG风险与审计委员会或风险委员会相关,ESG绩效评估与薪酬委员会相关,将ESG课题拆分并由多个现有委员会分头领导也比较常见。这些委员会定期将各自的ESG工作进度向董事会汇报。然而,这种方式由于没有绝对领导机构,有可能造成ESG工作统筹不利和跨委员会不配合等问题。

4.ESG由新建委员会领导。重新成立ESG专业委员会是很多企业的操作方式,用以表现对ESG的重视。这种方式整合了ESG的各项职能,让企业更能够整体通盘考虑ESG课题,而不至于陷入多头领导的困境。然而,这样的风险在于ESG专业委员会可能缺乏其他现有委员会的支持。ESG专业委员会必须主动积极地邀请其他委员会加入沟通和决策,并及时将ESG决议和进展通报其他董事会成员。

以上四种模式并不像OpenAI的治理架构那样具有颠覆性,但可以确保公司治理组织和模式的稳步迭代,将治理风险控制在一定范围内。有了稳固的顶层设计的支持,才有社会责任等新目标在组织内部的导入、宣贯、拉通、固化,从而实现从顶层理念向组织整体理念的转变。这种方式,也许可以给如同OpenAI这样的高科技初创企业以借鉴。

试探治理边界的是人工智能,还是人自身?

“技术很简单,人是最难的。”说这句话的是技术大佬、红杉资本合伙人比尔·库格伦(BillCoughlan)。现在山姆·奥特曼已经有了切身体会。OpenAI在创新治理方面的探索虽然遭遇挫折,却为其他创业企业提供了一个不可多得的鉴戒。哈佛商业周刊的一篇文章《人工智能正在试探治理的边界》中提到,OpenAI的案例至少教会我们以下几点:

第一,传统的公司治理模式无法适用于高科技治理。传统治理的目标是股东利益最大化,而这对于面向全人类福祉的高科技创业已经过时。新的治理模式必须可以匹配新的目标。从这个角度来看,OpenAI的试错是非常有意义的。

第二,独立的董事会不一定以社会福祉为目标。OpenAI和Anthropic都在治理独立性上做足了文章,但是光强调董事会的独立性还不够。以社会福祉为目标需要更多机制的补充。否则,这个命题并没有闭环。

第三,新治理结构的设计和运营必须引入不同的群体,必须兼容技术考虑和商业考虑。这次开除奥特曼的决定,董事会也许有其认为非常正当的理由,甚至是为了社会福祉不得不做的理由。但是,没有提前通知、没有给投资人预警、没有向公众解释,这种做法很明显忽视了商业环境的影响。如果更多考虑这些因素,也许这次“政变”可以成功。

颠覆式的创新有可能带来颠覆性的结果,而低估人性的复杂性同样有可能被人性所反噬。

董事会和治理的复杂程度不亚于任何高科技体系。坐在董事会圆桌边的成员们,他们中的每个人都是一个大模型,也是一个思考的黑盒子。无数的信息变量输入他们的大脑,在大脑中引起神经递质和激素的反应,最终产出他们的决策,而这一切都是从外部不可知的。每一次董事会决策都像5~9个人工智能的深度交互,而最终交互的结果有可能对外界造成相当大的影响,包括了股东和其他利益相关者。

所以,为了确保组织服务于它的目标,光强调公司治理的规则性是不够的,还要充分融入对人的关注。这次OpenAI的闹剧让人们看到了那些号称由人类最强大脑构思出来的治理规则存在基本的漏洞。那么,其他规则是否也存在漏洞?人工智能安全规则体系是不是同样不堪一击?机器人三定律还有效吗?要知道,这些规则可经不起试错,一次错误足以给人类带来灾难性后果。人类需要集中智慧去设计一个人工智能的牢笼,以应对即将到来的系统性风险。如果设计不成熟,宁可放缓技术的开发。一台乖巧而可控的机器,总比聪明而难掌控的机器要更适合我们。

OpenAI治理模式1.0已死,2.0路在何方?

作者系美国管理会计师协会全球董事