罗喜英(副教授),唐玉洁
数字平台围绕数字技术和算法设计优势实施的垄断及不正当竞争行为,引发了一系列数据造假、数据垄断、数据阉割、数据侵权、数据窃取等社会失责问题。2020年12月召开的中央经济工作会议将“强化反垄断和防止资本无序扩张”作为2021年的八项重点任务之一,与国务院反垄断委员会于2021年2月发布的《关于平台经济领域的反垄断指南》相呼应。2021年6月《数据安全法》的颁布,释放了政府监管平台企业的强烈信号并付诸行动。比如:2021年4月市场监管总局对阿里巴巴滥用市场地位的垄断行为处以182.82亿元的罚款;2021年7月国家网信办对“滴滴出行”实施网络安全审查,随后要求全平台、全网络下架包括“滴滴出行”“滴滴企业版”在内的25款应用等。平台企业在价格歧视、滥用市场地位、数据的非法收集和滥用、数据安全等方面的数字伦理问题引起了各界的强烈关注。
平台企业的数字伦理问题通过数据滥用、数据安全、数据霸权和算法歧视等形式体现出来。然而,有关平台企业面临哪些数字困境,以及如何进行识别和重塑,现有研究较为零散。Herden等[1]对509名美国受访者进行了民意调查。结果显示,数字化会带来诸如数据安全、数据所有权和隐私权、破坏劳动力市场、排斥社会中某些群体(如那些低数字能力的人)等问题。Arogyaswamy[2]运用功利主义方法评估高科技公司的道德,并指出高科技公司会引发数据泄露、数字成瘾、影响工作任务和就业、数据寡头等问题。Hilty和Bieser[3]认为,尽管数字化为瑞士气候保护带来了许多好处,但是作为数字技术的载体,信息通信设备会增加环境碳足迹。王妍[4]指出,网络媒体在利用大数据等先进技术迎合用户需求的同时,也带来了“信息茧房”效应。
虽然以上研究识别了多种数字伦理困境的具体表现形式,但都没有系统地对平台企业面临的数字伦理困境进行研究,不利于平台企业全面地认识数字伦理困境,也不利于对平台企业数字伦理进行评估。因此,本文基于现有文献对数字伦理困境的识别,引入ESG(Environmental,Social,Governance)框架,对数字伦理困境进行分类和描述,分析平台企业数字伦理困境形成的原因,并在此基础上提出平台企业数字伦理重塑路径。
平台企业的数字伦理困境形成于企业使用数字技术的过程之中,既可以基于使用过程也可以基于产生的结果对数字伦理困境进行分类。然而,“算法黑箱”的存在让使用过程难以被观察。因此,本文以结果为导向,对平台企业数字伦理困境进行分类。ESG框架提供了一个可参考的分类方案。其中:E(Environmental)是指企业在环境方面的表现,如应对气候问题的成果;S(Social)是指企业对用户、员工、投资人等利益相关者的关系管理情况;G(Governance)是指企业在激励机制、管理规范性等方面的表现。近年来,ESG战略已经成为企业用于实现与环境和社会相关目标,以满足所有利益相关者需求的方法。此外,2018年证监会在新修订的《上市公司治理原则》中也确立了ESG信息披露的基本框架。因此,为了中国资本市场更好地双向开放,运用与国际接轨的ESG框架也十分必要。本文运用企业可持续发展绩效框架中的ESG框架,结合Herden等[1]对企业数字责任相关主题的分类以及MSCI(摩根士丹利)ESG得分框架,对平台企业面临的数字伦理困境进行分类,如表1所示。
表1 根据ESG框架的伦理困境分类
1.环境数字伦理困境。环境方面的数字伦理困境主要体现为碳足迹。企业部门是最早的ICT(Information and Communications Technology)消 费者,目前在已安装的ICT设备中占有相当大的份额。安装了新的操作系统或性能较好的应用程序后,电器和电子设备便会过时。随着技术更新的节奏加快,过时电子设备的数量也会不断增加。尽管互联网行业是较为低碳的行业,但是这种优势可能会被人均设备数量的增加和设备使用寿命的减少而过度补偿。Belkhir和Elmeligi[5]的研究表明,如果不加以控制,ICT全球温室气体排放的相对贡献可能从2007年的约1.6%增长到2040年的14%,占整个运输部门目前相对贡献的一半以上。Belkhir和Elmeligi[5]的研究还强调了智能手机对碳排放的影响,并表明到2020年,智能手机的碳足迹将超过台式机、笔记本电脑和显示器的贡献。在数智化时代下,智能手机等设备的运用与普及势必给二氧化碳减排带来负面的影响。因此,气候问题也是依赖ICT设备的平台企业需要考虑的问题。
2.社会数字伦理困境。社会方面的数字伦理困境主要体现在数字鸿沟、就业问题、数字成瘾、劳工权利和“信息茧房”等方面。
(1)数字鸿沟。数字鸿沟是由于各类新兴的信息与通信技术在不同国家之间、国家内部的不同群体之间等存在设备普及和技术应用方面的不平衡而产生的一种不平等现象[6]。这种不平等的现象进一步加剧了收入的不平等,也让弱势群体,特别是老年人陷入困境之中。2020年初新冠肺炎疫情暴发,数字工具得到了更为广泛的使用。然而,一个棘手的问题也出现在人们面前,那就是老年人面临着更深的数字鸿沟。在疫情期间,通行所需的健康码让使用非智能手机的老年人通行受阻。除此之外,还有种种因为老年人不会使用智能手机而带来的不便。
造成老年人面临数字鸿沟的原因主要有以下两点:一是,现有的智能设备以及软件字体小、操作复杂,与老年人较低的数字能力不相匹配;二是,软件等数字技术更新换代快,而老年人认知能力下降,不能及时跟上技术进步的节奏,如老年人虽然会使用微信聊天,但是并不会用微信进行支付、发红包等操作。根据第七次全国人口普查的数据,我国60岁及以上老年人口占比18.7%,其中65岁以上的人口占总人口的比重为13.5%。预测数据显示,到2023年,我国65岁及以上老年人口数量将超过2亿,而到2050年将接近4亿。面对如此庞大的老年人口,数字鸿沟是一个需要平台企业参与解决的社会问题。
(2)就业问题。互联网平台的兴起给人们的生活带来了极大的便利。微信、QQ等社交平台让人与人之间的联系更加通畅;滴滴打车等交通运输平台使出行更加便捷;淘宝、京东等网购平台使购物更加方便;还有其他的在线医疗、在线教育平台也给人们的生活带来了更好的体验。然而,这些互联网平台给劳动力就业带来了新的困境。第一,随着人工智能的逐步商业化,一部分劳动力会被人工智能取代。近年来,互联网巨头纷纷进入无人驾驶、人脸识别、智能教育、疾病诊断等领域,目前无人配送机器人、无人驾驶等人工智能项目已经实现商业化,这些人工智能有可能会替代快递、外卖配送人员。第二,互联网平台的兴起带来了不稳定的就业模式,会让劳动者处于较高的风险环境中。合同工、独立工作者等不稳定就业群体的福利会受到削减,也缺少工会的保护。
(3)数字成瘾。在数智化时代下,数字技术的广泛应用使得互联网规模,尤其是移动互联网的规模不断增大。中国互联网络信息中心发布的《第45次中国互联网络发展状况统计报告》显示,截至2020年3月,我国网民规模达9.04亿,较2018年底增长7508万,互联网普及率达64.5%,较2018年底提升4.9个百分点,其中使用手机上网的网民比例达99.3%,较2018年底提升0.7个百分点。根据工信部发布的《中国无线电管理年度报告(2019年)》,截至2019年底,我国移动互联网接入流量消费达1220亿GB,比2018年增长71.6%,月户均流量达7.82GB/户/月。然而,在人们尽情享受互联网带来的便利的同时,数字成瘾正在以一种全新的商业模式侵占互联网平台用户的生活,比较典型的有“微博控”以及“抖音上瘾”等案例。这些社交平台通过短文字、短视频等碎片化的信息以及推荐算法,让用户沉迷于平台不断推送的信息中。
尽管社交平台通过这种商业模式吸引了大量用户,增加了用户粘性,但是也给平台用户带来了损害。首先,沉迷于社交平台会耗费用户大量时间,进而影响平台用户的正常生活。其次,数字成瘾会危害平台用户的精神健康,诸如“抖音”这种自动播放的短视频会对人的神经中枢产生持续高强度的刺激,增加疲劳感的积累速度。
(4)劳工权利。随着互联网、移动通信设备等进入人们生活的方方面面,在家办公、异地办公、移动办公等远程办公模式逐渐成为社会普遍认可的办公方式。在我国,远程办公人数在2018年达到了490万人。2020年初,突如其来的新冠肺炎疫情在全球范围内爆发,更使得远程办公成为许多企业的选择。截至2020年3月,钉钉办公平台用户数已达到3亿,3月的月活跃用户高达1.7亿人。远程办公在技术上借助互联网进行数据传输以及联络交流,同时突破时间和空间的限制,这些特征让远程办公模式在互联网行业中运用得更加广泛。
然而,远程办公模式在解开传统模式中时空绑定的同时,给远程工作员工带来了更多的风险。第一,由于与远程办公人员缺乏直接联系,管理人员很难正确评估员工绩效,这令远程办公人员的晋升和发展受到限制[7]。第二,工作与生活之间模糊的界限会增加工作与家庭的冲突。第三,远程办公延长了员工工作时间,并可能对其健康产生负面影响。远程办公打破了传统办公时空界限,数字可及性与可支配性的滥用将会导致员工的休息时间被侵占。例如,员工在非工作时间依然需要回复工作中的电子邮件或电话。根据国际劳工组织的调查报告,远程办公人员的工作时间普遍长于本地办公的平均时间,并且工作时间更为自由的劳动者比工作地点、工作时间相对固定的劳动者承受的压力和失眠比例分别高出16和13个百分点。
(5)“信息茧房”。“信息茧房”这一概念最早是由美国学者凯斯·桑斯坦提出的,其是指人们只关注自己所偏好的信息,并排斥或无视其他信息。如今,随着数字技术的不断精进,“信息茧房”正在加速形成。平台企业运用大数据、云计算等数字技术,分析并推测用户的需求和偏好,进而向用户精准推送信息。无论是淘宝、京东等购物平台,还是抖音、快手等短视频平台,都在通过个性化算法技术实现内容的精准推送。
虽然个性化算法提高了平台企业的服务效率,但长此以往,用户在平台上大多只能接触到经过个性化算法“精心挑选”后的符合自己偏好的信息,无疑让用户封闭在“信息茧房”之中。“信息茧房”的存在会给用户甚至社会带来负面影响。从用户的角度来看,“信息茧房”限制了用户的认知,并可能导致用户认知出现极端化。因为个性化推荐算法让用户周围充斥着与自己观点一致或相似的信息,阻碍用户与不同观点接触,这会让他们的观点不断地得到加强,而且朝着极端的方向发展[8]。从社会的角度来看,“信息茧房”引发了社会治理难题。由于“信息茧房”内的个体更愿意接受并相信“茧房”内的信息而难以接受“茧房”外不同的观点,这使得不同群体间的沟通难度增加,并且“信息茧房”可能在无形之中成为谣言传播的温床。因此,作为个性化推荐算法使用者的平台企业有责任应对“信息茧房”这一问题。
3.公司治理数字伦理困境。公司治理方面的数字伦理困境主要表现为:用户数据权与非法采集用户数据、数据泄露、数据垄断。
(1)用户数据权与非法采集用户数据。数据权是随着大数据技术普及而产生的一个法学概念。从私权的角度看,与公民有关的数据权包括数据公民权、数据隐私权和数据财产权。其中:数据隐私权是指产生并依附于公民的个人信息数据不被其他主体获取、处理和使用;数据财产权是指公民对产生于自身的信息拥有所有权,并享有对数据信息占有、使用、收益和处分的权利[9]。互联网平台中,用户有权决定是否将产生并依附于自身的信息提供给平台,并且有权决定其所提供信息的范围。
然而在现实中,平台企业为了对用户数据进行更好的商业利用,在采集用户数据的过程中侵犯了平台用户的数据权。首先,用户并没有权力决定是否将自身信息提供给平台,而是面临格式条款。平台企业通过所谓的“隐私条款”强制用户提供诸如电话号码、位置信息等个人信息。如果用户不同意“隐私条款”,就不能使用该平台的服务。其次,用户在使用平台时还会遭遇过度采集个人数据的情况。一些互联网平台企业为了方便后续商业利用用户的个人信息,往往会非常详细地采集用户的个人数据,有些数据可能已经超出了采集的必要范围。根据2019年12月初国家网络与信息安全信息通报中心发布的通告,2019年11月以来,包括考拉海购、微店和房天下等知名平台在内的100多款App及其运营的平台企业由于超范围采集个人信息和非必要采集个人信息等情形,被公安机关网络安全部门集中查处。而在2019年一整年里,就有683款App因违法违规采集个人信息被查处。
(2)数据泄露。数据泄露存在如下两种情况:
一种情况是由于外部人员的故意侵害行为加上平台企业自身安全漏洞或者用户的安全意识低下,造成用户数据泄露。2017年,由于恶意爬虫以及多个移动端的漏洞,58同城上2.02亿用户的简历信息被泄露。2018年,弹幕视频网站ACfun遭到黑客攻击,导致包括用户ID、昵称、密码在内的近千万条信息泄露,尽管这次泄露的起因是黑客的入侵,但是在事后,ACfun官方承认发生数据泄露事故的根本原因是网站不够安全。2019年,GitHub、GitLab、Bitbucket几大平台受到黑客攻击,造成大量用户的源代码被删除。同时一些用户被黑客威胁,如果这些用户不按时支付赎金,那么他们的代码将被公开。根据GitLab安全总监的回应,这些被泄露信息的账号密码都是以明文的形式储存的,这使得账号的安全风险增加了。
另一种情况是平台企业或内部员工泄露用户数据。2017年,趣店有超过百万条用户详细数据信息遭到泄露。据内部员工称,这次的信息泄露可能是内部人员所为,因为此前趣店曾进行过大规模裁员,而赔偿金并未到位。尽管趣店处于对数据安全要求较高的互联网金融行业,但是其内部数据管理存在漏洞,许多内部人员都可以导出用户数据。2018年,数据堂被曝出在八个月时间内日均传输公民个人数据1.3亿余条,且这些数据隐私性极高,甚至包括用户具体上网行为,且部分数据能够进入用户个人账号。2019年,由于一名安保团队人员错误地将防火墙拆除,电商网站Gearbest泄露了数百万用户信息。
数据泄露造成的伤害极大:首先,数据泄露让用户处于较高的风险之中,极易造成经济损失和精神损失;其次,数据泄露破坏了用户对企业的信任,不利于保持良好的客户关系。
(3)数据垄断。数据垄断是平台企业垄断中不同于传统企业的垄断行为,目前对于数据垄断的界定比较模糊。法国和德国反垄断执法部门联合发布的Competition Law and Data中指出,对数据的拒绝访问、歧视性访问、排他性合同等行为属于数据垄断。刘云[10]认为,涉嫌数据垄断的行为有三类:第一类是拒绝向竞争对手开放数据入口;第二类是滥用平台用户数据;第三类是利用数据优势削减用户的利益,如“大数据杀熟”。尽管以上对于数据垄断范围的界定存在一些差异,但是以上定义都认为对数据控制权的滥用是数据垄断的表现形式之一。数据垄断行为虽然巩固了平台企业的行业地位,但是给行业发展带来了威胁。首先,数据垄断给其他细分行业的企业带来了较高的进入壁垒,尤其不利于小企业进入市场;其次,数据垄断可能会阻碍行业内中小企业的创新,不利于中小企业生存;最后,数据垄断对中小企业的打压限制了消费者的选择空间,这会进一步恶化非法采集用户数据、数据泄露等数字伦理问题。
平台企业数字伦理困境表现为平台企业在使用数字技术追求企业自身利益的同时损害了社会其他成员利益。然而,企业具有经济和社会双重属性。因此,平台企业的这种行为是企业社会责任缺失的表现。Aguinis和Glavas[11]通过回顾企业社会责任相关研究,构建了由个人、组织和环境三个层面组成的企业社会责任分析框架。这个框架包含了企业社会责任行为的动因和结果。其中:个人层面包含员工等因素对企业社会责任的影响;组织层面则是管理层等因素对企业社会责任的影响;环境层面包括法律、行业规范等因素对企业社会责任的影响。本文从此模型框架提供的个人、组织和环境角度出发,对平台企业社会责任缺失的原因进行分析,分析框架如图1所示。
图1 平台企业数字伦理困境分析框架
1.算法工程师社会责任意识较弱。算法工程师应该对其设计的算法负责,因为他们的价值偏好会体现在其设计的算法中。然而从目前的情况来看,算法工程师们的社会责任意识并不强。对新闻传播行业算法工程师伦理认知水平的问卷调查显示,这些资讯平台的后端算法工程师对于算法在该领域引发的伦理问题知之甚少[12]。道德认知水平低的员工会做出非伦理的行为,而这种行为会影响企业的产品和服务,从而造成企业的社会责任缺失。因此,算法工程师较弱的社会责任意识会造成平台企业社会责任的缺失。
导致算法工程师社会责任意识较弱的原因有二:一方面,算法工程师对于用户对他们的期望认识不足。例如,算法工程师在设计算法时应该考虑用户的隐私期望,并尽可能减少应用程序致使用户隐私被侵犯的情况。然而,对应用程序开发人员的调查显示,许多开发者对如何保护用户的隐私和数据缺乏相应的知识,这就会导致开发人员根据他们对用户隐私期望的感知来设计软件应用程序[13]。算法工程师与用户对责任的这种认知偏差可能会导致算法工程师开发出不符合用户和社会预期的算法,进而损害用户的利益。另一方面,由于公平这一概念是模糊的、难以量化的,算法工程师往往会首先考虑效率与利益[14]。
2.平台企业的股权结构存在弊端。双重股权结构是较多平台企业选择的一种股权结构。双重股权结构包括两种类型的股权,一种是优先级的股票,一种是次级股票。这种股权结构的好处是能够保证创始人的权力,同时让企业更好地跨界。但是,这样的股权结构也存在着弊端,如它让优先级股票的持有者,通常是企业的创始人和内部人员有了更大的动机追求私利,从而引发更严重的代理问题,也增加了企业社会责任缺失的风险。由于高管在组织中具有较高的地位,其行为和价值观会对组织产生强烈的影响。不同形象的高管,其行为特征不同:代理人倾向于机会主义行为,他们主要关心的是如何改善自己的福利;而管理者拥有超越自身利益的道德价值观,并倾向于为了组织和所有利益相关者的利益而采取集体和合作的行为。管理者形象对于组织有效承担企业社会责任至关重要。只有聘用更接近管理者而不是代理人的CEO,企业社会责任才能够得到更好的管理。然而,互联网“独角兽”企业的管理者社会责任意识普遍较弱,在面临经济和道德的抉择时,他们通常会选择股东利润最大化的目标而不是实现企业公民行为[15]。除了双重股权,随着平台企业间收购和并购等活动不断增加,交叉持股以及横向持股等形式也在企业间扮演着重要的角色,但是这些股权结构带来了很大的垄断风险,其中交叉持股表现为平台巨头之间的强强联合,横向持股则提高了行业的集中度[16]。
3.行业自律失效。虽然我国在2001年就成立了一系列互联网相关的行业自律组织,并通过了诸如《中国互联网行业自律公约》等自律协议,但是违反这些自律协议的企业受到的负面影响并不大。根据动态竞争理论,企业作为一种竞争性的组织,其目标是追求自身利益最大化,在与同行业的企业竞争时会形成一种互动关系。这就意味着个体企业的行为决策可能会随着同行业其他企业的行为发生改变。因此,同一行业中个别企业为了追求更高的利润而违反商业伦理的行为可能会引发其他企业的竞相模仿。Daboub等[17]指出,行业内过度竞争、不良模仿等现象都有可能令企业产生社会责任缺失的行为。例如,2020年底,京东、拼多多、美团等国内互联网巨头纷纷布局社区团购。尽管《人民日报》随后发表的相关评论指出,互联网巨头企业不应该将眼光放在几捆白菜的利益上,而应该进行科技创新,但是互联网巨头企业仍然没有停止社区团购领域的商业布局。
4.法律约束不足。尽管平台经济正在迅猛发展,但相应的法律监管体系稍显滞后。对平台、数据和算法的法律监管不足也是平台企业社会责任缺失的主要原因之一。平台经济是近年来兴起的新经济形态,很多问题才初现雏形,对平台企业的监管还处于起步阶段。并且,对于新兴的数字经济监管较为困难,主要原因在于:一是进入数智化时代后,经济形态发生了巨大变化,以往的部分经验已经不适用于对平台经济的监管;二是数字技术迭代速度较快,随之而来的一些问题往往令监管机构始料未及,而当前的法律具有一定的时滞性和被动性;三是我国现有法律对数字经济中的问题虽有较多规制,但是分布较为零散[18];四是为了给平台企业创新营造良好的制度环境,监管机构往往会陷入监管的“松紧悖论”。
为了平台企业健康发展,重塑其数字伦理势在必行。平台企业数字伦理困境是由于企业内外部因素导致企业社会责任缺失而造成的。因此,重塑平台企业数字伦理需要对平台企业社会责任缺失进行治理。从前文的分析中不难发现,平台企业社会责任缺失一方面是因为算法工程师和平台企业管理层的社会责任意识不足,另一方面则是因为缺乏有效的约束。综上所述,本文基于造成平台企业社会责任缺失的内外部因素,从企业、行业和法律三个层面提出平台企业数字伦理重塑路径,如图2所示。
图2 平台企业数字伦理重塑路径
1.培养企业数字责任文化。算法工程师责任意识水平较低以及股权结构存在弊端是造成平台企业社会责任缺失的内部原因。而企业文化有助于规范组织内部成员的行为,良好的企业文化可以促使组织内部成员按照特定的价值观和准则行事,从而达成企业目标,同时促进企业履行社会责任。企业文化通常包含四个层面,从上至下依次是精神层、制度层、行为层和器物层。从这四个层面出发,本文提出了平台企业数字责任文化的培养路径。
在精神层面,数字责任文化应该包括与数字技术运用有关且符合商业伦理的价值观,如注重公平、保护隐私等算法伦理。这些价值观的作用在于提升管理层的道德水平,指导管理层在进行决策时考虑数字伦理。在制度层面,企业需要根据企业价值设立有关的正式文件指导企业的活动,以此将这种价值观具体化、可视化。例如,谷歌在内部设立了“人工智能研究伦理委员会”,并制定了研究原则。在行为层面,算法工程师的行为需要符合数字伦理,企业可以通过制定行为规范来指导算法工程师开发出体现企业数字责任的产品,以及通过算法工程师职业培训,将数字伦理教育嵌入IT课程体系中。在器物层面,企业需提供体现数字责任的产品。为此,算法工程师需要将伦理嵌入其设计的程序之中。例如,算法工程师可以考虑数字技术和数据在不同生命周期阶段的特点,以此开发出体现企业数字责任的产品。
2.加强企业内部治理。显然,企业数字责任文化可以多层次地对算法工程师的价值观和行为进行指引和约束。但是,在双重股权结构下,现有的对于管理层的内部监督机制会失效,数字责任文化只能提供给管理层一种价值观上的指引,需要更强的治理结构来促进管理层履行社会责任。这样一来,除了引入平台企业数字责任文化,还需要加强对管理层行为的监督。双重股权阻碍企业履行社会责任的根源就在于这种结构给予了管理层过大的权力。因此,有必要将优先级股票表决权的倍数设定在合适的水平上,以此在保证双重股权优势的同时,限制过大的管理层权力并增强股东对于管理层的监督。例如,我国香港地区就将优先级股票的投票权倍数限制在10以内。在此基础上,还可以引入“日落条款”,当平台企业达到一定体量或者阶段时降低优先级股票的投票权倍数。这样的目的在于:在平台企业发展的初期保证创始人的权力;而在平台企业达到一定规模时,限制创始人或管理层过大的权力,防止其无序扩张。
3.增强行业自律的约束。行业自律是一种介于法律与商业道德之间的管理工具,具有其独特的优势:相较于法律而言,尽管行业自律的约束力较弱,但是它能够更迅速地根据数字技术变化做出调整;相较于商业道德而言,行业自律则有着更高的约束力。因此,行业自律作为法律的补充是治理平台企业与数字技术的重要工具。好的行业自律体系需要良好的行业自律协议和有效的监督机制。良好的行业自律协议不能局限于满足法律的要求,还应该参考头部平台企业的经验来制定高于法律要求并且符合行业特点的行为准则。有效的监督机制则需要第三方监管机构根据行为协议对违反协议的企业进行制裁。同时,为了加强行业自律的约束力,可以考虑引入声誉机制。例如,行业协会为签订自律协议的企业授予信用标志或徽章,平台企业可以将标志或徽章附在企业产品或体现在企业提供的服务中,这有助于增加企业的附加价值。而对于违反自律协议的企业,行业协会可以给予该企业警告或开除等不同程度的惩罚,以此通过影响平台企业在消费者中的声誉来约束其行为。
4.实施算法伦理审计。算法伦理审计是一种柔性监管方式。英国竞争和市场管理局将算法审计作为对个性化定价的规制对策。算法审计需要收集特定情境中使用的算法行为数据,然后使用该数据评估该行为是否会对某些利益或权利产生负面影响。实施算法审计要满足以下两个条件:首先,平台企业的算法系统要支持审计,这是因为“算法黑箱”的不透明性会阻碍伦理问题的发现,故需要企业的算法系统是可解释的[19];其次,需要一个可行的算法审计机制,以满足监管机构评估某些算法是否符合法律标准或内部政策的需求。
5.完善法律监管体系。相较于企业文化与行业自律,法律对平台企业和数字技术有更强的约束力,因此有必要针对现有法律的不足,构建合适的法律监管体系。首先,平台企业和数字技术具有独特的运行逻辑,需要构建符合平台企业和数字技术特点的法律规制理念。其次,具体的法律制定应具有一定的前瞻性、全面性和可操作性。前瞻性为数字技术的发展留出了一部分空间,有助于鼓励和支持技术创新;可操作性和全面性则需要统筹规划平台经济领域相关法律的设立,包括综合性法律和专门性法律相结合、公法与私法相结合。在此过程中,还可以借鉴其他国家治理平台经济的相关法律。最后,需要完善与法律体系配套的监管执法体系和能力。可以考虑将算法专家等专业人士引入执法机构,增强机构的执法能力。
平台经济中数据垄断、数据滥用、数据安全等数字伦理问题频出,引发了各界的广泛关注。本文首先基于ESG框架,将平台企业面临的数字伦理困境划分为环境、社会和治理三类,为平台企业提供系统化认识数字伦理困境的框架。然后基于个人、组织和环境构成的三维分析框架,发现算法工程师社会责任意识较弱、平台企业股权结构存在弊端、行业自律失效以及法律约束不足导致了平台企业社会责任的缺失,从而使平台企业陷入数字伦理困境。为了加强平台企业履行社会责任的内生动力和外部监管的有效性,应从企业、行业和法律层面出发,培养平台企业数字责任文化、加强企业内部治理、增强行业自律约束、实施算法伦理审计以及完善法律监管体系,以重塑平台企业数字伦理。