自1956年达特茅斯会议①以来,数字技术获得长足发展,互联网成为维系社会正常运作的重要基础设施。信息不断数据化,并经由特定算法收集、储存、整理、分析、运用,数据的重要性被反复提及,其所附权利属性被不断证成且趋于达成共识。数字化、网络化、智能化融合发展,人类开始步入数字时代。数字技术变革引起社会秩序与权义结构显著变化,大数据和人工智能引致监管挑战,但技术本身并非法律可规制的对象,也不具备进行规制的可能性,故需要转换规制视野,针对特定主体的具体行为进行制度设计,以维系法效力的稳定性、法价值的延续性和法规范的拓展性。
具体而言,数字技术同人类社会联系密切的根本动因在于其商业化实践,企业基于经济理性大力发展数字技术②。然而技术本无善恶之分,但技术应用却能反映企业意志。备受关注的“剑桥分析事件”③表明企业有能力进行反向操控,通过大数据分析进行结果模拟与行为预测,籍此影响用户行为,引起了各国政府和社会公众对企业滥用数据信息和数字技术的忧虑,而我国企业家对个人隐私的漠然无疑加重了此种担忧④。另一方面,经济学理论中的“一级价格歧视”因大数据技术具备了现实化可能。电商平台的动态定价使得公众提出“杀熟”质疑⑤,单从经济学视阈审视,动态定价无疑既理性又经济,但囿于交易双方天然不信任、定价信息严重不对称、技术实施难度不高,企业难以自证清白,亦无法消除恶意欺诈或不正当竞争之嫌。作为一种常见的社会组织形式,企业具有社会性,既是经济人,也是社会人。需要明确的是,企业意志不可无限扩张,否则极易触动社会公共利益,亟需受到法律规范与道德准则的双重约束,承担相应的社会责任。故通过分析数字时代之特点,对企业社会责任进行理论拓补,进而探寻其实现路径就显得格外必要。
企业社会责任⑥是企业法不断发展、逐步完善的产物,是对以追求利润最大化为唯一目的的企业传统经营理念的修正[1],主要是指企业在谋求股东利益最大化之外所负有的维护和增进社会利益的义务[2]。企业社会责任理论希冀达致的最佳状态系实现企业内部利润和外部利益的均衡和稳定,意在化解企业正常经营的负外部性,通过发展目标的二元分化,破解单一追求诱致的市场失灵,契合并突出了经济法的社会本位特质[3],体现出“人类的终极关怀”[4]。是故,如何将两种相异理念最大化协同便成为破题关键。
法学理论是系统性极强的逻辑架构,从规范的角度来看,其无法超脱于特定时空背景而单独存在。企业社会责任理论的提出和构建同经济社会发展状况密不可分,不同时期孕育的具体责任内涵不同,所反映的政治、文化底蕴也有差异,但无一不体现着时代特性。
企业社会责任体系是开放的,既包括历史向度,又包含发展视野,其内涵与外延随着时代变迁而逐步演进、缓慢扩张、持续细化,与理论研究同频,与社会实践同调。一般认为,早期的企业社会责任理念可溯源至古代商业社会的商人社会责任观,现代意义上的企业社会责任则是经由多德与伯利的学术论争获得广泛认同。但通过梳理立法背景,可知现代企业社会责任制度的建立是从反垄断立法开始[5]。1890年美国颁布的《谢尔曼法》被视为全世界最早的反垄断立法,其主要推动缘由系因企业规模的快速扩张破坏了正常市场竞争秩序,大企业凭借其既有优势或外部条件完成或试图完成市场独占,其他企业的正常经营遭遇壁垒,消费者亦无法获益。市场竞争秩序本身即是一种社会公共利益,反垄断法通过敦促企业履行法律制度层面的刚性企业社会责任以避免造成实质性损害。另一方面,企业社会责任是经济法回应型立法模式的具体呈现,系针对社会发展现实所作的审慎制度供给。如现阶段的企业社会责任涵摄了劳动者权益维护、消费者权利保护、自然资源和环境合理利用、社区公平发展等多个面向,责任内容、价值理念与承担形式与原初概念相较变化明显。发展视野意味着企业社会责任具有高度适应性,可以在社会演进的过程中不间歇地进行逻辑周延、理论修复与方向矫正,从股东利益最大化到全体利益攸关方的利益最大化,再到近年来“以社会目标为宗旨、以商业运营为手段”的社会企业[6]不断涌现,无一不体现出企业社会责任的包容与延展。
企业社会责任的发展视野决定了其必须有效应对来自于社会经济发展状况的现实挑战。在数字时代,个人权利配置、多方利益关系同传统法律规制模式不相适应,社会关系与商业模式被不断重构,大数据和人工智能的影响日渐深远。要正确认识企业社会责任的现实挑战,需要准确界分大数据和人工智能,廓清二者的实质关联,着重考量应以何标准进行类型化处理。
从形式上看,大数据和人工智能分属不同技术类型,前者强调对海量数据的收集、分析与运用,后者则偏向于模仿或替代人类智能进行学习、判断和决策。但事实上,大数据和人工智能并非相距甚远的独立概念,二者协同引领数字时代的科技创新与技术革命,共同构成社会平稳发展和经济高速增长的新兴引擎。一方面,游离状态的零星数据难以界定其价值几许,只有经过聚合分析、深度挖掘的海量数据方可称之具备实际功用。大数据寻求“数据全本”而非“数据样本”,试图用全面分析取代抽样分析,传统低效的数据处理手段无法满足需要或实现成本过高,必须借助智能算法处理规模庞大、来源多样、即时生成的数据化信息。而现阶段的人工智能显然并不属于理想观念中的人工智能,仅停留在工具理性层面,未充分发挥出模仿人类智能的潜质,也远未实现意志自由,严格来讲应涵摄在弱人工智能范畴,系“能够在给定问题的前提下通过深度学习和强化学习寻求最优解的智能算法”[7]。从此角度出发,现阶段的人工智能实乃协助实现大数据分析的方式方法。另一方面,人工智能的功能内核系隐藏于外化形式之下的算法程式,无论是“深度学习”还是“机器学习”均是如此,但无论算法构造多精密、程式设计多巧妙,都无法逾越人工智能的认知论基础,难以在缺乏海量数据化信息的情况下实现人工智能的“认知可计算化”目标。大数据提供的技术支撑使得“机器学习”具备实践基础,人工智能方有实现可能。从此角度着眼,可知大数据是人工智能的重要分析工具。
由上易知,大数据和人工智能相互勾连且深度交融,人为隔断处理不符合法学研究内在的科学意蕴,此种状况下,将二者视为整体进行统合考量更顺应企业社会责任的发展视野。从观念层面着手,将大数据和人工智能的外在表现形式和内在实质本源进行剥离,可以发现数据与算法共同为二者提供底层支撑,而逻辑融贯后更可发觉数据与算法方是数字时代的核心要义,深刻影响着面向未来的科技变革、追逐利润的商业决策以及偏好稳定的社会秩序,故企业社会责任的现实挑战来自于“数据量化”与“算法统治”。
党的十八届四中全会指出,法律的生命力在于实施,法律的权威也在于实施。与此同理,企业社会责任理论若要发挥全部效能,其关键突破口应在落实层面寻觅,需要确保企业真正承担起相应的社会责任。企业社会责任游走在法律责任与道德准则之间,其落实离不开法律责任的硬约束,也离不开道德准则的软约束[8]。然而,仅对落实作此考量已然不易,遑论尚需契合经济人的理性假设、满足正当的社会实践需求,将企业社会责任理论全盘落在实处几无可能,故其效能总是处于亏损不满的状态。
效能不足仅是企业社会责任理论的实践样态,并不妨碍我们在进行法学理论研究时保持必要的逻辑周延,故审视数字时代企业社会责任的制度规范系题中应有之义。经过规范检索,可以发现如下三个方面的问题⑦:其一,法律规范缺乏系统性。现阶段,我国与企业社会责任有关的法律规范较为分散且层级不一,缺乏系统性。所涉规范大多仅有一个或两个条文直接使用“社会责任”一词,如《公司法》第五条、《合伙企业法》第七条、《民法总则》第八十六条、《网络安全法》第九条等。《产品质量法》《劳动法》《环境保护法》等部门法对企业社会责任的具体内容进行了细化,但其仅可对相关领域产生积极作用。此外,大量行政法规、司法文件、部委规章、地方性法规和其他规范性文件均有浅层次地提及企业社会责任。其二,法律规定过于原则化。现有规范大多停留在宣示性条款层面,没有明确企业社会责任的内涵与外延,也没有明晰履行程序,仅具有倡导性,不具备实践操作或直接适用的可能。其三,有效的监管机制缺位。现有法律规范并未构建企业社会责任监管机制,监管主体与监管责任缺位使得企业履行社会责任流于形式,无法形成有效的制度激励。“中国企业社会责任的发展与西方企业社会责任理论是一脉相承的,基于中国社会经济的阶段发展背景,它又具有显著的本土特征”[9],可以明确的是,我国企业社会责任的法制化水平和标准化程度与域外实践差距明显,且企业的实际履行状况亦有较大提升空间。
数字时代,技术创新成为经济增长的首要赋能要素,企业凭借着自身对数据和算法的掌控开展商业实践,为日常生活增添了诸多便利,但同时也意味着企业对私人领域的全面介入。数字创造价值但却没有温度,为维护新形势下的社会公益,增进整体福利,对企业社会责任理论进行拓展补充极为必要,从以下三个维度着手较为妥当。
数据的本质是以比特为度量单位的仅由0和1构成的二进制代码,其能够被算法程式处理,可存储于计算机或流通在网络上,但并不可单独存在。数据与信息的关系紧密,信息是数据的承载内容,数据是信息的表现形式,无法将数据与信息加以分离而抽象地讨论数据上的权利[10],未反映任何信息的数据毫无意义,法律也毋需对其调整规范。之所以将数据维度置于拓补企业社会责任理论的首要位置,主要是基于数据在数字时代的独特地位。如前所述,数据是数字经济的关键生产要素,与传统经济中人力要素和实物要素齐头并进,甚至更为重要,无论是大数据还是人工智能均不能脱离数据的影响范围。一方面,大数据分析需要海量基础数据,调试人工智能同样需要尽可能充足的“样本库”。另一方面,大数据虽追求海量数据的原始价值,但更重视数据分析产生的增值价值。而作为人工智能的核心技术,机器学习被认为是“基于数据构建模型,以计算的手段模拟人类智能活动”[11]。
对数据而言,企业应否承担社会责任?又应从何处着手?要解答这两个问题,需要重新审视数据权利配置、着重考量数据保护进路。亚当·斯密认为,经济人具有利己本性,而此种特性最终会增进社会公益。企业之所以愿意耗费巨额成本收集个人数据、投入大量资源提高数据分析能力,直接动因便在于其欲通过构建数据优势获取超额利润。为推动数字技术长远发展,实现数字繁荣与经济高效的良好局面,需要将数据权利配置给企业,鼓励企业实行积极的数据政策,确保利益反馈机制正常运行,保护企业数据的财产性权益。企业数据权利与个人数据权利分属不同主体,权利内涵有着明显差异,也存在一定程度的冲突对立。现阶段,企业通常以提供免费服务的方式吸引用户,用户通过“数据支付”享受生活便利,“数据产出者”与“数据消费者”归为同一主体,但此种模式下企业缺乏进行自我约束的动力,在收集数据时无法合理预计未来用途,存在因过度索取而损害个人数据权益的可能,亟需对此进行有效限制。需要明确的是,个人数据事关多方主体和多元利益,个人、企业和政府各有诉求,人格尊严和自由、商业价值、公共价值在其中犬牙交错[12],在进行个人数据保护时必须进行利益平衡,不能无限扩张个人数据的权利边界,妨害数据正常的流动、分享与利用[13],进而间接阻碍技术创新之路,但也绝不允许企业肆意侵害用户的个人数据权利。
基于不同利益主体的良性博弈,个人数据的法律保护可以选择传统观念中的人格权保护进路或财产权保护进路,抑或将二者加以统合考量,也可以借鉴欧盟《一般数据保护条例》所采用的“强化数据主体的数据控制权”式规制路径,这仅是规制逻辑自洽后的表达方式抉择,但数据保护本身并不是一个简单的法律问题,其关涉数字时代经济社会发展的各个方面。在制度设计时,除对企业收集、储存、使用个人数据的行为提出基本要求外,还可以从“数据掌控者”一侧入手,赋予企业更高的数据伦理标准,法律责任和道德准则同时发力,让企业社会责任成为个人数据保护的另一落脚点。
从某种意义上讲,数字时代是人类被算法统治的时代。万物皆可数据化,一切皆可被算法处理,算法预测着人类的未来,也影响着人们的行为模式、交往方式、决策方式、商业模式和社会秩序生成机制[14]。在此过程中,企业投入了充足的资本和人力,不断开发、调试、完善算法程式,不断将认知科学与计算科学融贯交叉,加快了技术创新步伐、满足了社会变迁需要、提高了整体福利水平。企业是逐利的,使用算法仅是其为扩展受众、巩固市场、获取利润的一条捷径,为避免企业凭借算法优势谋取不正当利益,加重各利益相关方间权义结构的不对称程度,对算法进行规制具有正当性、合理性和急迫性。政府应通过合理的制度安排引导、约束算法的发展方向和价值遵循,通过法律的社会控制在此情景下成本较高且效用甚微,企业社会责任反而可以较好配适,故将算法维度列为拓展补充理论视阈的第二顺位。
对算法进行法律规制的难度较大,主要原因在于算法的特殊性。其一,算法结果不可预知。一般来讲,算法为实现特定结果而服务,其代码架构与程式设计相对明确和稳定,但在数字时代,事实并非如此,“我们无法真正预测未来,因为科技发展并不会带来确定的结果”[15],个性化推荐与自动化决策即是典型案例。为实现真正意义上的“深度学习”或“机器学习”,使算法能够尽可能地模仿和替代人类智能,需要同时调用智能化算法与非智能化算法,并促使二者协同共进,但此种模式下的算法结果会被输入数据、参考变量、调试进度与运算经验反复影响,根本无法被企业合理预计。只有监督学习状态下的算法才会被企业彻底掌控,现阶段大量采用的贝叶斯算法、类推算法和神经网络算法各有其特点与优势,但相通点在于“人类无法控制机器学习的结果”[16]。其二,算法代码不可解释。数字时代的算法属于典型的黑箱,信息不对称且流程不透明。算法程式得以正常运行的技术基础是计算机运算能力的显著提高,并行处理海量数据和同时开展复杂运算成为可能,但这两项要求明显超过人类大脑的可接受程度与可承载水平,算法因此不具有可读性。算法代码的自然语言处理是另一大难题,智能化算法的自我完善也加大了处理难度,架构者与设计者已然无法使用通俗易懂的自然语言对算法代码的原理、目的和实现路径进行阐释或开源,法院或监管者只能依据其最终表现出来的模式加以判断[17]。在现行制度框架下,算法代码属于典型的商业秘密,一经开示即遭受价值减损之效果,虽然业界存在算法代码开源的趋势,但总体来讲推行程度不高且已公开内容并非商用算法的前沿、核心板块,企业不愿公开、公权不能强制构成算法代码不可解释的另一层内涵。
政府与市场的边界问题长期以来饱受争议,合理、清晰且不被逾越的边界是为理想状态,经济学与法学对此有着较多讨论,但在传统语境中,政府被视为利维坦式的巨大机器,相关研究也多集中于防止公权滥用、保护私权行使、维护企业自治等方向,但随着我国经济形势、利益格局、思想观念、社会结构、文化氛围发生深刻变化,社会治理出现新情况与新问题,企业似乎成为更能影响公众行为的主体,亟需推进社会治理创新,打造共建、共治、共享的社会治理格局,法学研究需要对此进行制度探索与理论匡正。
数字时代,技术变革对社会治理结构与秩序生成机制产生深远影响,收集信息能力、分析数据水平和行为预测准度直接决定着我国加强和创新社会治理工作的质量和效率。一方面,政府因公权力的强制实施效果在诸多方面拥有显著优势,但受制于相对落后的分析工具和技术手段,政府实质上在更多领域呈现出明显弱势,这显然并不利于推进我国社会治理工作现代化、精细化、智能化和专业化。对此,企业可以凭借其技术优势、数据优势和算法优势参与社会治理,协助政府更好地行使公共管理职能,进而提升全社会的整体福利水准。近些年,我国正着力打造精简高效的服务型政府,政企合作、公私合作或政府购买社会服务的案例逐年增多,大数据和人工智能在政务处理、信息传递、风险预测、安全防控、交通调度和精准扶贫等方面均有不俗表现,最高人民法院在本轮司法改革中大力推行的各类数据交互平台与智慧审理系统便集中体现了这一点。另一方面,企业参与社会治理并非其当然义务,除为获取政策支持、资金扶持和巩固技术优势外,应将其视作数字时代企业社会责任的新内涵,即依法有序参与社会公共事务,更多地强调企业作为重要社会主体的责任担当。与此相对应,政府和社会公众向企业提出了更多要求,也应当将其纳入理论拓补范畴,一是尽可能消除技术偏差、逻辑错误与算法歧视带来的实质侵害,二是避免商业利益偏好影响社会治理效果,三是在技术允许的情况下着重实现公平正义,提高社会整体福利水平与经济运行效率。
在明确数字时代企业社会责任理论的拓补维度之后,需要根据时代特征、技术特性与实践储备,探索数据、算法和社会治理三个维度下企业社会责任的实现路径,将法学研究的重心转移至企业社会责任的有效落实方式之上,这也是拓展补充企业社会责任理论后的必然逻辑延伸,可以重点关注以下四点。
一般认为,推动企业社会责任落实首先需要完善法律规范,主要是指加快企业社会责任领域的专门立法,进一步明晰责任主体、责任类型、承担方式、归责原则、违法后果、激励手段等具体内容。“法律权利必然以道德权利为基础,法体系必须以开放性的态度保持对道德权利的尊重”[18],法律规定的是社会可以容忍的最低限度的道德伦理,故法律制度层面的刚性企业社会责任是政府与公众要求企业必须严格遵守的责任内容。将企业社会责任写入法律是必要的,但正如奥卡姆剃刀定律所言,如无必要、勿增实体,并非所有的企业社会责任均需以法律文本的形式出现,部分责任内容其实更适合通过软法规范或道德准则进行落实,成本更低且效率更高。在此逻辑下,首先需要明晰的是企业社会责任的入法范围,做好政府、公众和企业三者间的利益平衡。
其一,数字时代最为基础和关键的生产要素是数据,个人数据保护和企业数据保护均属于关涉重大的基础性问题,亟需迅速推进相关立法,妥善开展法律保护。况且,这两个领域的理论研究成果较为丰富,存在充足的域外立法实践可供参考,业已受到我国立法者的高度关注,其中《个人信息保护法》已被写入第十三届全国人大常委会立法规划,制定条件相对成熟,短期内推动立法较为可行。需要明确的是,法律应当对数据保护的基本问题和基础要求进行规定,其标准是不损害个人或企业基本的合法权益,绝非通过高标准与严要求阻碍数据的正常流转及合理利用。其二,算法作为数字时代重要的生产工具,需要法律规范为其划定明确的运行边界,但规制对象应当是研发算法的企业,而绝非算法本身。囿于立法者对算法无法进行必要的研读和理解,再加之受制于未来视野与立法技术,法律规范无法准确预测算法的发展趋势,仅可将涉及人类尊严、社会基本秩序的无争议事项用负面清单的形式加以列明。此外,还可以完善侵权责任体系,要求企业对算法造成的损害承担严格责任,引导其选择更有预见性、更可控的算法[19]。其三,企业社会责任是一种应用于商业实践的企业治理理念,企业治理层能否按照法律规定和商业伦理为决策行为,最终决定了企业社会责任能否真正落实[20]。可以通过行政法规或部门规章的形式,要求企业在治理层中设置社会责任委员会或社会责任专员,使其在进行商业决策时将应承担的数据、算法、社会治理三个维度的社会责任纳入考量范畴,平衡多元主体的利益结构,甚至约束私人利益使之服务于公共利益[21]。
一般来讲,企业社会责任落实的关键在于法律规范的责任追究机制,但与伦理准则的无限性相比,法律规范适宜确定的企业社会责任相对有限。为取得良好的实施效果,需要将部分企业社会责任上升为软法责任[22],培育企业社会责任的软法规制机制[23]。
软法规范的特点在于效力的非强制性和主体的非威权性,其作用效果介于伦理道德和法律责任之间,故可以将不便于通过法律规范进行强制性规定的内容以软法形式加以确定,利用行业共同体的约束机制与引导机制敦促企业自觉承担最大限度的社会责任。要充分发挥软法规范的作用,需要尽可能地细化相关规则,为企业履行社会责任提供明确指引,不能将宣示性规定作为软法规范的主要内容,否则极易因欠缺具体内容导致软法规范名存实亡。一方面,细化软法规范需要达成行业共识或基本共识,将符合共同价值和内在秩序的企业社会责任明确下来,最终形成被共同体广泛认可的制度约束。软法规范的具体内容需要同我国数字技术的具体实践相结合,需要着重考量数据、算法和社会治理三个维度,总体价值理念是在促进数字技术发展的同时增进社会整体福利,可作适当超前的制度安排,但不应过分压制技术革新,更不能籍此损害各利益相关方的合法权益。另一方面,为使软法规范发挥预期效用,需要强调企业社会责任的履行标准,并采用强制报告与强制性规范[24]。此外,还需要完善配套的信息披露机制和声誉约束机制,二者均是非正式社会控制的核心构成,企业可以借助适当的利益反馈与声誉激励提高自身经营能力,促使其主动切合软法规范之要求,并积极承担更高水准的企业社会责任。
数字时代的关键在于不断进行技术创新,通过技术迭代实现动能转换,大数据和人工智能的发展轨迹深刻反映出了此项特征。诸如苹果、谷歌、腾讯、阿里等大企业在资本、资源、政策、营运、市场和声誉等方面拥有显著优势,能够迅速投入人力物力进行技术研发,易实现规模效益、更具有竞争能力,甚至经常出现大企业对初创企业的收购、并购或股权投资。但在数字时代,上述优势并不发挥决定性作用,初创企业往往可以通过优化服务模式、提供差异化产品、降低使用难度、提高性价比等手段快速获取用户并迅速实现盈利,近年来与数字技术相关的独角兽企业均具有较高估值即是最佳注解。从此角度来看,企业规模大小并不会直接导致发展机会存在差异,技术研发能力与产品推广水平反而会带来竞争优势,也更易推动技术变革,初创企业往往占据有利地位。
但因大企业在数字经济发展初期创立,不充分的规制手段与不完善的制度规则促使其迅速成为受益者,甚至于主导或影响了企业社会责任法律规范或软法规范的制定全程。若让初创企业承担与大企业相同水平的社会责任,业务开展成本较高、运营费用负担较重,对其来讲既不合理也不公平,但若使二者的承受力度差异过大,又极易导致企业社会责任流于形式,更不符合制度设计初衷。故需合理区分不同规模企业间的差异化承受力度,除法律规范的基本要求外,可以给初创企业提供较为宽松的社会责任承担氛围,毋需对其过度苛责,但此种特殊对待必须得到行业认可,也需要政府、公众予以认同。
数字时代占据主导地位的是算法程式,而构成算法程式的是代码。一方面,因为代码可以有效执行相关规则,代码具有法律化倾向,在数字时代,代码成为规范用户行为的主要方式,企业通过预先设置代码规则对用户行为加以限制或对事件走向作出决定,防止人们违反技术规则或双方约定。例如在智能合约或区块链领域,代码构成了产品的基本规则框架,毋需人为干预或进行审判即可发挥作用。另一方面,法律具有代码化倾向。法律规范通过事后救济发挥作用,被认为实施成本较高,而技术规则却能以代码的形式事先预防不良后果,故可以试图将法律规范转化为技术规则,通过代码自动化执行法律规范,进而获得更高的运作效率、达到更高的透明程度。
企业社会责任的传统规制模式无法有效应对数字时代的法律挑战,不能及时阻止损害扩大,亦无法有效验证企业是否实际履行社会责任。在此状况下,亟需推进规制方法现代化,尽快实现范式转换,将原本规定在法律规范和软法规范中的企业社会责任条文悉数代码化,并交由企业将其作为底层代码无缝嵌入目标算法,效果稳定且内容不可更改。嵌入企业社会责任代码后,其直接阻碍的是智能化算法可能出现的不可控状况,防止因算法缺陷或算法恶意造成严重人身损害或重大财产损失。企业社会责任代码可以被用于判定算法程式是否符合企业社会责任的“硬约束”或“软约束”,也可以被用于检测算法程式是否存在绕过企业社会责任代码的情形,还可以承担起算法程式违反企业社会责任技术标准后的预警职责。此外,政府、用户或第三方机构(主要指行业协会)能够通过特殊验证手段对企业在该算法程式中履行社会责任的实际状况进行识别或认证,进而推定载有该算法程式的大数据或人工智能产品是否能够让人放心使用。总体来讲,通过代码嵌入,可实现对企业履行社会责任的动态把控,弥补了法律规范模糊性伴随着的缺陷,也为软法规范的落实提供了有效路径。
注释
① 一般认为,人工智能源起于1956年召开于美国达特茅斯学院的人工智能夏季研讨会(Summer Research Project on Artificial Intelligence),麦卡锡等人提交报告称“……用机器对学习等可以精确描述的智力特征进行模拟。研究如何让机器使用语言、抽象思考并形成概念,解决那些暂时仅可由人类解决的问题,并自我改善……”,参见http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html,访问于2018年11月20日。
② 作为社会经济发展的重要推动力量,设立企业的终极目标是实现自身利润最大化,为达成该目标,企业需要尽可能的拓展盈利渠道、控制营运成本或提高运作效率,但在外部环境较为恒定、内部基础不发生显著变动的情况下,积极推动、开发、应用新技术成为实现企业健康发展的必然选择。
③ 商业化营运的政治数据分析公司剑桥分析(Cambridge Analytica)在未获得充分授权的情况下,利用第三方软件违规收集8700万Facebook用户的个人数据,将大数据分析结果直接用于制定极具针对性的政治活动策略,并涉嫌以此项技术干扰2016年美国总统大选。
④ 百度集团董事长李彦宏在中国发展高层论坛2018年会上表示:“中国用户更加开放,对隐私问题没那么敏感,在很多情况下愿意用隐私交换便捷性和效率。”参见http://finance.sina.com.cn/meeting/2018-03-26/docifysqfnf8646820.shtml,访问于2018年11月20日。
⑤ 公众对于电子商务平台大数据杀熟的质疑主要集中在即时出行、网络购物、旅游出行等领域。此外,《中国青年报》曾对2008名受访者进行调查,63.4%的受访者认为互联网企业利用大数据“杀熟”情况普遍;51.3%的受访者遇到过互联网企业利用大数据“杀熟”的情况;59.2%的受访者指出大数据面前信息严重不对称,消费者处于弱势;59.1%的受访者希望价格主管部门进一步立法规范互联网企业歧视性定价行为。参见http://zqb.cyol.com/html/2018-03/15/nw.D110000zgqnb_20180315_1-07.htm,访问于2018年11月20日。
⑥ 关于企业社会责任理论的涵摄范围,学界暂未达成一致意见,为便于读者理解并使逻辑严密,特在此进行说明:本文所指称的企业社会责任取广义概念,既包括法律制度层面的刚性企业社会责任,也包括伦理道德层面的软性企业社会责任,还包括游走于二者之间的软法规范层面的企业社会责任。
⑦ 因所涉法律规范众多,为保证准确性与时效性,笔者使用北京威科亚太信息技术有限公司开发的专业法律信息数据库“威科先行”进行检索,访问域名为http://law.wkinfo.com.cn。此外,为增强可读性,文中将相关法律规范的名称进行了简化处理。