组稿人按:科技创新如何影响社会发展,科技创新如何实现高效治理,面向2035如何强化科技创新社会影响的应对,从而推进科技创新与社会发展的协调,这既是社会发展的要求,也是科技创新的必然选择。为此,本组论文从宏观层面对科技创新社会风险治理进行总体探讨,从微观层面针对新兴增强技术的风险规避进行探索,并就科技创新对政治、文化与社会等诸多领域的影响展开分析,包括就业变化、人际交往方式变革、伦理道德冲突及文化影响等,力求把握未来15年科技创新的社会容量,探索如何加强社会支持体系建设,强化科技创新治理,寻求科技创新的最大公约数,以期为消解未来科技创新对社会的影响提出可供参考的思路。(组稿人 潘建红)
潘建红 北京科技大学马克思主义学院教授
贝克曾指出:“风险意识的核心不在于现在,而在于未来。”[1]技术创新可能衍生的问题无所不在,现代技术创新引发的风险对人类社会的影响是广泛而深刻的,甚至会给人类带来毁灭性打击,比如克隆技术、基因编辑技术、人工智能技术等风险,可能造成不可逆转的社会后果。随着技术创新的全面深入推进,社会呈现出高风险的发展态势,这其中既有技术创新本身的风险,也有创新过程中产生的社会风险。技术创新自身的风险主要受自身技术条件等限制,因技术不成熟而形成风险;技术创新社会风险主要是技术创新对现有社会秩序背离而引发的风险,包括伦理风险、市场风险等。技术创新自身风险与社会风险是相关联的,因技术创新自身风险而引发社会风险具有一定的普遍性。技术创新风险具有复杂性、广泛性、严重性、潜藏隐蔽性和不可预见性等特质。为此,对技术创新风险形成清晰认知,评估技术创新的风险,是技术创新风险治理的前提与要求。
面向2035年,技术创新要基于科技强国目标,注重提供新技术发展的战略支撑,技术创新风险治理凸显出重要性。首先,技术创新风险治理能确保技术创新不偏离一定的价值导向,促进技术创新的顺利进行。其次,技术创新风险治理为中长期的技术创新确立预防性治理,避免风险的累积及其他连锁反应发生。经过修正的技术本身仍然是风险的生产者,技术水平的升级不仅不会消除风险,反而会带来风险水平的相应升级[2]。再次,协调创新中各利益主体的关系,实现创新主体的协同,形成技术创新风险治理共同体,这样能更好地汇聚创新要素,整合资源,推动国家创新体系建设。最后,提升中国参与全球科技治理的话语权。
面向2035年,技术创新呈现出新的特点与发展趋势,技术创新风险治理势在必行。
2.1 明确价值导向
技术创新具有一定的价值观作为支持,这种价值观主导技术创新进程,形成强大的凝聚力,不良的价值观也会阻碍技术创新进行。一项技术创新能不能在实践中实施,要看是不是符合规律,还有社会价值包容性问题。要统筹技术创新的社会价值,保持经济效率、社会效率及生态效率协调,强化社会的价值导向,不能过分追求经济价值而忽视社会价值与生态价值。
2.2 强调前瞻性
在技术创新风险治理中,通过识别、诊断、预警技术创新风险变化的趋势和影响,并通过系统、充分考察与评估,进行专业化的预测和科学论证,前瞻性地探索技术创新对社会的影响,提升风险防范能力和主动应对能力,并依据技术创新发展的阶段与态势,调节技术创新风险治理重点,以此对创新风险进行前瞻性治理。将预期治理可能的结果与现实情况相结合,制定技术创新风险治理框架,实现技术创新治理体系的系统适应性。
2.3 坚持以人为本
技术创新中注重人与人关系的调整,要提倡符合人与社会关系、人与自身关系的技术创新活动。首先,要符合人的社会关系要求,遵循社会关系的运行规则,以社会民生为前提,促使技术创新面向生产生活、面向经济发展、面向市场,促进全人类的共同发展。其次,符合人与自身的关系,要注意满足人的需要,以促进人性的完善为目的,致力于人的解放与全面发展,凸显人的存在与价值,避免因为技术创新而导致人的异化与危机。要设立技术创新的最底限度,做到技术创新不能危害人的健康、人的生命安全等。
2.4 注重各方利益平衡
从政策分析过程论的角度看,政策作为一种过程,在运用的每一个环节都存在这样或那样的冲突。冲突的表现形式可能千差万别、林林总总,但归根结底可以归结为利益的矛盾和冲突[3]。首先,进行政策调整,注重平衡各部门的利益,避免出现技术创新政策的冲突。其次,注意协调技术创新中不同次级主体的利益,推进形成创新的利益共同体。最后,要重视公众参与,保护公众与技术创新成果使用者的利益。
创新作为五大发展理念之首,凸显其重要地位。现代技术创新在衍生出新型风险的同时,也倒逼技术创新风险治理的科学化与制度化,形成技术创新风险治理体系现代化,确保社会各方在创新活动中能相互适应、趋利避害。通过全方位协作,多元共治,以有效规避技术创新中的风险。
3.1 注重技术创新风险治理的顶层设计
坚持底线思维,科学谋划以形成自上而下的治理体系,推进治理的科学化与规范化,并在面向2035的中长期规划中有所体现。政府要体现出服务功能,补齐市场失灵,为技术创新提供良好的政策环境。政府要成为技术创新的引导者、推动者和监督者,不断提升技术创新风险治理的能力。实现技术创新政策的全程介入,形成科学、规范、系统、动态的技术创新风险政策,并加大政策落实力度,做好政策的监测与评估,重视政策供给和政策需求的精准对接。
3.2 形成技术创新风险多元主体协同治理的格局
技术创新风险治理涉及到政府、企业、社会组织以及公众等多元主体参与,要做到利益共享、风险共担,相互协商与配合,共同构建多元主体协同治理格局。作为集体行动的结果,研究和创新无法向任何个体行动或意图还原,责任共担是社会行动者和创新者的必然选择[4]。为此,要最大限度激发各主体活力,提升创新治理整体效能,构建技术创新风险治理共同体。要搭建信息共享平台,促进各方面信息对称,推动风险沟通的机制建设,发挥汇聚的优势,促进多元主体享有平等的话语表达权,增进多元主体的共商共治。
3.3 强化技术创新风险治理的制度规制
技术在创新过程中具有一定的不确定性,强化技术创新风险的制度规制与伦理尤为必要。首先,建立技术创新实践中的法律和制度规制。要在立法、执法、司法等层面全面监管技术创新行为,发挥法律约束的作用,有效规避技术创新风险。从制度层面约束技术创新行为,尤其是要明确技术创新中的禁区,严格划分技术创新的红线。其次,强化技术创新行为的伦理规约。技术本身虽然表现为价值中立,但却在技术创新实践中体现人的价值取向。无论是法律制度还是伦理规制,都要贯穿于整个技术创新活动之中。
3.4 实现技术创新风险的有效监控
加强创新活动中的预警—研判风险感知—应对机制的全过程监控,对于风险形成的方式、特点及规律等进行重点监测与把握,真正做到科学监控,综合采取灵活多样性应对措施,高效处置各种突发性和潜在性的技术创新风险,积极构建风险预警与防范机制,注重强化技术创新风险防范的过程性监控与形成性监控,以强有力的监控来促进技术创新风险的治理。在监控中,要建立社会动员机制,注重建立大众信息交流和沟通平台,让大众参与有效的监督,让全社会为技术后果评估负责[5]。
3.5 推进技术风险治理的技术赋能
人工智能、大数据、云计算及物联网等新技术得到广泛运用的同时,也形成了潜在的技术风险。反过来,技术创新又可以为防范技术创新风险提供一定的保障。要注重大数据与人工智能等高新技术在技术风险治理中的作用发挥。大数据作为一种新技术,以其内在的技术特性,可以通过对大量数据的处理、整合,以追溯过去风险的发生和把握当前风险的状态,甚至通过勾勒出风险演化模型和趋势对未来的风险进行精准预测,从而为变革传统技术风险治理模式提供有利的契机。大数据与人工智能的有效结合,更是提升了风险研判的准确性,推动风险治理的精细化与精准化,从而助益于技术创新实践方案的积极调整,降低技术创新风险的发生。此外,还要注重风险的案例库、数据库等基础工程建设,让新技术能适应各种治理场景,为技术风险治理提供强有力的支撑。
3.6 促进技术创新风险治理国际交流与合作
技术创新引发的风险有可能在一定条件上导致全球性风险,为此,技术创新风险治理的国际交流与合作显得非常重要。通过广泛汲取各国的先进经验,做到互通互信、共担责任,并积极参与全球治理,促进国际治理规则的开放、包容和趋同。通过国际交流与合作,形成技术创新风险治理的联盟与利益共同体,这是技术创新风险治理的必要选择。
万伟伟武汉理工大学马克思主义学院副教授
2020年10月,党的十九届五中全会审议通过 《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》,这一远景规划建议的通过绘就了中国经济社会未来15年发展的蓝图,其中,“新型基础设施、数字产业化以及产业数字化”等基于科技创新发展的目标,必将推动新时代中国科技发展逐渐从跟跑转向并跑甚至迈向领跑。然而,在科技创新发展中,一把悬挂在人与社会、人与人、人与自身之间关系的 “达摩克利斯之剑”始终在场。一方面,科技创新创造了巨大的物质文明和精神文明,实现了人类生产、生活和思维方式的巨大跃迁;另一方面,科技创新对不同年龄段人群也产生了负面影响。
从青少年来看,他们过度依赖网络,出现了 “被网络绑架”的现象,对其正常的学习、生活、工作造成负面影响。有学者研究发现:网络依赖和孤独、人格障碍、社会行为障碍等动机变量存在显著正相关[1]。无疑,现实场景的面对面社交演变为虚拟符号之间的文字和语音互动,赋予处于叛逆时期的青少年高度自由的话语权,改变其被支配或被控制的生存样态,缺乏规则的网络时空场域正是引发青少年网络暴力的重要归因。从中年群体来看,科技创新的日新月异改变了传统商业的模式,借助于大数据、云计算、物联网、区块链等信息技术,科技赋能取代人力劳动,自动化设备、人工智能等已使接线员、打字员、铁匠等诸多职业消失。物理学家斯蒂芬·霍金曾警告说,人工智能 “可能意味着人类的终结”。事实上,中年群体因 “技术性失业”已经成为不可避免的社会难题。从老年群体来看,科技创新发展与老年人群体特征的需求匹配度较弱,导致老年群体出现数码疏离[2]。例如:老年人搭乘公交车不会使用智能手机扫码支付;老年人看病就医难以消化医院挂号、买病历本等 “复杂”的应用程序,导致老年群体在智能产品创新之初就产生疏离感。
科技创新作为一种物化创新,并非一开始就将人的尊严和价值融入其发展的宏大叙事当中,在现代性社会时空场域下,科技创新更多倾向于资本增值的追求。海德格尔认为,科技文明只为人类留下一个冷冰冰的 “科学世界”。无论出于何种原因,落后于科技创新发展的 “数字穷人”更容易错失生活中的机会,“技术性失业”和 “社会排斥”是我们面临的重大时代课题。
2.1 “资本逻辑”的非理性
现代社会以资本增值的形式展开,资本以追求增值为目标,引发 “资本的逻辑”无孔不入,导致理性从道德价值领域退出。资本以一种非理性方式用市场的疯狂替代了人类所需的有节制的满足,成为一种与社会符号、社会地位密切相关的社会权力,加之缺失相应的经济规律、社会政策和法律规范予以保障,致使社会结构和治理方式发生深刻变革,人的物化、异化现象愈发突出。拥有资本的人群在科技创新活动中获益,而缺乏知识创新和应用能力的人群则更加边缘化,并继续遭遇资本的盘剥,加剧人与社会疏离的风险。
2.2 “技术逻辑”的非人道
海德格尔认为,现代技术在本质上有一种非人道的价值取向。科技发展以 “价值中立”为理念,然而,在 “工具理性”加持下,现代科技的异质性发展正在使其 “价值中立”发生嬗变,科技创新 “限定”现代人的生活,成为现代人无法摆脱的历史命运。互联网技术构建了一个强大的社会交往网络,使深陷其中的每一个个体难以抽离,虚实结合的 “数字化生存”演变成为现代人的基本样态,而 “技术沉溺”引发的诸如网购瘾、游戏瘾等,将人置于网络的统治之下,剥夺了人的自由,造成人的自我异化和社会异化。
2.3 “个体化生存”的困境
在 “资本逻辑”非理性和 “技术逻辑”非人道的双重制约下,个体的生活方式受到 “技术范式”公开或隐蔽的宰制,物本主义的流行,形成 “个体化生存”的样态,人看似拥有更多的自主权却又因技术依赖而失去自我。技术创新以其 “自主性逻辑”来限定个体,解构个体原生的自我认同,带来个体发展各种未知的不确定性风险。“技术伦理”破坏传统社会的价值准则,形成各种物化的道德准则和社会规则,与传统以人性道德为基础的价值准则相背离,产生了 “个体化”危机。另外,生活体验日益丰富,生命情感却日益匮乏,物欲、功利、技术和实用把人引离故土,人类赖以生存的 “精神家园”却全面失落。
3.1 重构科技伦理体系,关注技术与人情的边界
科技伦理是科技活动必须遵守的价值准则。在科技创新中,必须关注技术与人情的边界,彻底反思 “人是什么”和 “人希望是什么”的伦理议题[3]。因此,从政府层面而言,应主动承担伦理责任,提高领导干部科技伦理素养,建立科技价值全面评估机制,建立政府领导的科技价值专门评估机构,及时将科技创新评估报告向社会公布,引导科技朝人性化方向发展。从个体层面而言,应强化伦理道德评价、提高科技工作者对权责规定和道德规范的认知和自觉,严格遵守科技道德规范。从企业层面而言,应强化自觉提高伦理意识,通过自觉接受社会监督、增强企业科技创新与社会公众需求之间的互动,推动企业科技创新与 “公共之善”相吻合。
3.2 强化科技立法规制,规范权利与义务的范畴
科技立法是防范科技风险的重要基础。需要加强科技创新行为和科技成果应用立法,建立体系化法律法规制度,筑牢科技创新的底线,确保各类科技创新活动依法实施。例如:需要针对人工智能发展造成的伦理困境,制定诸如智能驾驶规范、数据伦理规范、智慧医疗伦理规范、智能制造规范、助老机器人规范等,使科技创新尊重人的尊严,让 “数字穷人”得以体面生存。需要严格执法,对 “越界者”终身追责,针对科技创新可能存在的伦理风险,必须建立体系内的自纠机制和体系外的监督机制,对已成事实的违法行为,必须及时动用法律武器,严格按照惩戒性规定进行处理。
3.3 创新科技伦理治理,划定创新与应用的界限
一是推动治理方式转型。改变传统科技创新 “做了再说”的滞后性治理方式,变革为把 “人的福祉” “尊重人”等作为科技创新基本价值遵循的 “适应性”治理方式[4]。例如:建立科技创新课题或立项的全国性注册平台,便于治理者或监管者及社会公众对风险与受益比做出评估,并实现对科技创新的全程监督。二是完善监管机制。通过构建严密的监管制度、监管程序及伦理规制,使 “以人为本”成为科技创新的基本原则,确保科技风险能够控制在社会所能承受的范围。三是构建科技伦理审查机制。通过强化对科技创新组织的行业规范,加强对科技创新活动事前审批、事中监督和事后跟踪的监管,实现对科技创新的源头治理。
3.4 防范科技创新风险,营造科技向善环境生态
一是建立全民性科技伦理教育体系,从抓好科技伦理普及教育体系顶层设计入手,构建体系健全、高效务实的全民性科技伦理教育机制,使科技创新主体自觉接受科技伦理熏陶、科技应用主体自觉辨识科技创新成果的伦理问题,推动科技创新为增进人类福祉服务。二是构建科技创新与伦理之间的对话机制,加强科技创新立项、课题或成果在社会领域的宣传,引导公众开展关于科技创新的伦理对话,制造良好的舆论氛围。三是推动科技创新的跨学科研究,科技创新风险涉及多个学科,需要从人际关系、就业结构、社会稳定、法律制度、个人隐私、伦理道德等方面进行系统研究,提出切实可行的对策,为防范科技风险提供 “养料”。
陶 锋 南开大学哲学院副教授
近些年来,新一代人工智能、大数据、虚拟现实等智能科技在文化领域的应用日益广泛,如人工智能艺术生成、大数据视频推送、远程虚拟教育等,这些科技创新引发了文化领域的智能化革命。国务院于2017年印发的 《新一代人工智能发展规划》指出,要加强新一代人工智能相关学科发展、鼓励跨学科研究,推动经济社会各领域从数字化、网络化向智能化加速跃升[1]。2020年,全球新型冠状病毒肺炎(COVID-19)暴发,我国在医疗、安全、物流、教育以及文娱领域应用智能科技抗击疫情,让我们看到了智能科技未来的发展前景[2]。
智能科技引发了文艺领域的智能化革命,我们从本雅明所说的 “机械复制时代”一跃进入 “人工智能模拟时代”。随着深度学习等算法的出现,人工智能程序广泛应用于设计、绘画、写作、诗歌等多个文艺领域,智能科技已经可以进行一些文化创意活动。智能艺术创新挑战了原有的艺术定义和审美范式,成为艺术与技术结合的新典范。
目前看来,弱人工智能只能在人类监督下进行半独立的艺术生产活动。一些程序如CAN系统利用迁移学习的方式来生成新风格的作品,在一定程度上可以生成不同风格的艺术作品,但是距离真正的原创性仍有不可跨越的鸿沟。不久的将来,人工智能可以替代文化产业中的艺术工人,但是对于真正的有创造性的艺术家还是难以企及。我们应该限制人工智能技术的无序、无节制发展,将其限制在文化生产领域中,作为文艺生产可控的高级工具,让人工智能丰富人类的文艺生活,而不是全面取代人们进行艺术和脑力劳动。否则,人类的感知、审美甚至是认识,恐怕就会被人工智能或者少数开发者控制,人类会面临全面的异化。
疫情期间,全国很多大中小学实行了虚拟和远程教育,这要得益于虚拟现实、5G技术等智能科技在教育方面的应用。虚拟现实技术可以让学生身临其境地进入实验室、车间和工厂等操作空间进行实践学习,这不仅是疫情隔离的无奈之举,也会成为未来智能教育的重要组成部分。为了丰富隔离期间人们的文化生活,一些旅游景区也开发了虚拟景区旅游,人们通过VR技术,足不出户就可以游山览水。智能科技改变了文化传播方式,在原来的远程网络传播基础上进一步逼真化、互动化,成功地再造了 “灵晕”。但是,无论这种虚拟现实和 “灵晕”多么逼真,它们也只是智能科技利用人类感官的有限性进行的 “模仿游戏”。智能科技一方面拉近了人与人、人与自然的距离,使得人们打破时空界限,进行交流;另一方面,科技又隔绝了人际、隔绝了物我,人们或许会沉浸于这种虚拟世界不可自拔,孤独地生活在 “信息茧房”之中。
2017年发布的 《文化部 “十三五”时期文化产业发展规划》指出,我国要重点提升新兴文化产业发展水平,大力培育基于大数据、云计算、物联网、人工智能等新技术的新型文化业态,形成文化产业新的增长点[3]。
如今,各种智能科技已经在文化产业的许多方面得到广泛应用,例如人工智能和大数据在智能推荐和观众分类方面的应用、情感计算提升智能服务和人机互动的质量等。大数据和人工智能技术对于文化内容的制作方向、深度挖掘以及内容增值具有非常重要的推动作用。利用智能技术,建立文化企业的 “云上平台”,提升企业运营效率;通过对来自客户端的数据进行分析,可以探寻和预测文化消费者的行为;应用大数据技术,绘制 “用户画像”,锁定消费者偏好,确保文化内容生产的多元化,提供更为完善的文化体验。例如,一些影视公司如网飞以及短视频平台如抖音、快手等应用推荐算法和大数据技术,通过收集大量观众的观看偏好来制作和推送相应的内容。网飞估计75%的观众来自其客户推荐引擎的推荐,推荐引擎对于网飞如何留住客户至关重要[4]。
全球新冠疫情的肆虐,让我们看到当前我国文化产业的创新层面还有不足之处,特别是部分传统文化企业缺乏创新意识、智能化不足、线上线下发展脱节。因此,应继续推动文化产业的科技创新发展,促进线上线下文化资源融合,而这种融合需要智能科技的赋能。如果我们充分意识到文化产业线上线下融合发展的重要性,鼓励文化产业与人工智能、大数据、5G通信、虚拟现实等科技结合创新,将会迎来新的发展机遇。还需要促进线上文化资源与资本对接,培育具有抗高风险的文化新型企业模式,研究发展网络+、智能+文化服务的盈利模式,借助短视频平台、网络平台的传播优势,大力发展中国的文化、旅游等行业的智能化模式。笔者在负责的某市十四五规划书中,着力强调了人工智能赋能文化产业发展的重要性,我们需要用智能科技全面提升文化的产业化程度,使之成为一种智能+文化产业,其特点就是数据分类智能化、目标定位精细化、思想引导多样化、传播方式自动化。政府应加强对智能+文化产业的财政支持,完善知识产权的界定与相关法律保护;保障企业的创新权益,降低企业前期的创新成本;完善人工智能与文化产业融合的措施引导和顶层设计,将引导与规制相结合,以确保高效、健康地融合。
在鼓励智能科技创新在文化领域应用的同时,还要看到智能科技应用可能带来的消极影响和风险。对于个体而言,人工智能文艺活动会影响到个人隐私和安全、文艺工作者的权益以及情感问题;对于社会而言,这类特殊的生产应用活动会带来歧视问题、数字鸿沟以及影响到文化产业的人员就业问题。
人工智能的高度拟人化和仿生化凸显了技术的 “智能”性,但是这些科技也可能成为黑科技,例如,Deepfake技术即俗称的 “换脸术”,一方面能够在影视传媒行业屡建奇功,另一方面又可能成为低俗文化甚至是诈骗领域的奇技淫巧,轻则侵犯他人的权益,重则会引发人与人之间的信任危机。另外,人工智能艺术是采用深度学习技术来学习和模拟人类艺术家的作品,这也涉及到知识产权问题。针对以上风险,我国已经出台 《网络音视频信息服务管理规定》,明确 “不得利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播虚假新闻信息”,同时对 “名誉权、肖像权、隐私权、知识产权”进行保护[5]。
除了个人权益,智能科技还可能造成文化产业领域的失业风险,即大量的文化产业工人或者缺乏独创性的艺术家会被人工智能取代。马克思曾指出,机器不仅会取代人的体力劳动,甚至会反过来异化和控制人。人工智能对图像、语言、声音、情感的高度模拟,使得人的文化创意活动也可以被机器取代。人工智能可以快速大量生产绘画、音乐、文学、设计和影视作品,这些廉价的人工智能产品会使得艺术工人失去工作,人工智能客服和虚拟主播也正在代替人类客服和主播,这些可能会引发文艺生产领域的结构性失业。因此,我们必须从伦理指导、法规制定和引导就业等多方面来防范智能科技引发的风险。笔者参与了2019年科技部 《新一代人工智能治理原则》的制定,《原则》提出了 “和谐友好” “公平公正” “尊重隐私”等八条基本原则,其中提到人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识[6]。但是,由于技术发展的不可控性以及规则的滞后性,针对智能科技在文化领域的具体法律法规还没能及时出台,这需要技术专家、法学家和文化专家的跨领域研讨与协商。人工智能等技术介入文化领域,会导致部分低端工作被取代,但同样会催生更多新岗位,所以,我们应该未雨绸缪,培养更多的具有创意思维以及跨学科知识的人才,引导文艺从业者向新兴岗位流动。人工智能艺术生成和应用活动中产生的个人权益和社会风险问题,其原因在于艺术与技术的摩擦、人和机器的矛盾,追根溯源,则是人类自身理性发展的问题。正是由于人们无限制地使用理性,生成了各种无法控制的技术,所以才进一步加剧了人与自然的对立、导致社会矛盾的急剧加深。因此,对于人类理性的控制和引导首当其冲,只有深刻反思人类思想上的痼疾,才能进一步在实践加以转变。
智能科技进入文化领域有助于文化产业的智能化发展,应该利用智能科技去改善人们的文化生活、为贫困地区和弱势群体提供更为优质的文化,而不是去窃取公民隐私、控制人们的审美和认知。必须将智能科技作为文化生产领域的工具,而不是去盲目发展其自主性和独立性,谨防人类的精神文化被泛滥的机器文本所污染,人类的理性被机器理性所异化。
周青鹏 黄冈师范学院马克思主义学院教授
进入21世纪以来,世界范围内的科技创新进入一个空前活跃时期:人工智能(AI)、区块链和物联网等前沿和关键技术领域受到普遍关注,利用政府调控实现内外合作日益成为促进科技创新的重要抓手和战略举措,科技创新越来越呈现出融合研究趋势。在这一发展态势下,我国大力实施创新驱动发展战略,提出 “建设世界科技创新强国”的战略目标,颁布和实施 《国家创新驱动发展战略纲要》 《 “十三五”国家科技创新规划》,竞相出台鼓励科技创新的相关政策。可以预见,从现在到2035年将是我国科技创新加速发展的重要时期。
1.1 伦理道德所调整的对象变得含混
调整对象的明晰化以及伦理道德规范与调整对象之间的有效性关联,是伦理道德能够在社会发展过程中发挥作用的必要前提。在究竟什么是人的问题上,我国伦理道德以马克思主义为指导,始终坚持和强调社会关系对于人的本质的极端重要性。然而,随着科技创新的不断发展,特别是随着基因编辑技术、人工智能、大数据等科学技术的发展和现代电子设备的广泛运用,人与人之间的关系发生了很大变化。由于生命的基因被当成可操控的对象去重新编码,生命被程序化、可操控化,大数据的快速发展使人们的知情同意受到挑战,大量的隐私权被侵犯,以至于出现了 “虚拟情感”和 “伪装道德”,人们在社会交往过程中的心理感受能力不断降低。这些变化不仅使得人际关系变得淡漠、肤浅和不稳定,而且还发生了一定程度的扭曲。人际关系发生的这些变化,势必会引起对什么是人以及人存在的根本价值何在等的质疑。
1.2 伦理道德标准难以适应社会结构的变化
受传统思维方式和文化观念的影响,我国伦理道德一度把家庭私德放在首要位置。社会主义市场经济体制的建立和完善凸显了社会公德的极端重要性,使得以民主权利、公信责任为核心的公民道德意识和以自爱互助、公正契约为核心的公民伦理精神得到弘扬。科技创新的发展使我国伦理道德业已转向的价值取向再次受到挑战。在人工智能、大数据、区块链等技术迅速发展的大背景下,我国的社会结构正发生着飞速改变。公共领域和私人空间的明确界限被打破,“人-社会”的双面社会结构逐渐发展成为 “人-智能技术-社会”三层社会结构。社会结构发生变化的同时,还出现了更大范围、更为显著的社会分化,大数据以其强大的功能和鲜明的时代特征参与到价值分配之中,人们对大数据技术的掌握熟练程度在很大程度上决定着他们在经济生活中所占据的位置。社会结构的这种变化和更显著的社会分化的出现,迫切要求伦理道德标准发生相应的调整,迫切需要建立一个 “多样化”和 “相对化”的伦理道德标准。
1.3 伦理道德建设的基本原则受到挑战
主体性原则和科学性原则是我国伦理道德建设一贯遵循的基本原则。在确立伦理道德规范时,要求既要符合主体的利益,又要符合社会发展的客观规律,科技创新的迅猛发展使得这些基本原则在很大程度上受到挑战。科技创新所引起的社会结构变化和更为显著的社会分化,进一步加大了确立伦理道德规范时同时兼顾不同主体利益的难度,在一定程度上造成伦理道德建设贯彻主体性原则的困扰。在科技创新迅猛发展的背景下,一些西方国家出于国家间综合国力竞争的考量,同时也是为了更好地规避重大科技风险,经常置人类社会发展的实际进程和客观规律于不顾,突破现有的伦理原则对基因编辑技术、人工智能等新兴科技进行过度研究,捏造和篡改实验数据的现象时有发生,给国内新兴科技研发和成果运用产生了不良影响。尊重、不伤害、有利和公正等伦理原则是对人类社会生活应然状态的基本要求,如果这些原则都不能得到应有的重视或者无视,必然会影响科学性原则在伦理道德建设过程中的贯彻落实。
2.1 进一步加强伦理学基础理论研究
科技创新的发展必然会催生出大量的科技伦理问题,如果人们将注意力聚焦于这些问题,伦理学研究的重点就会不知不觉地从规范研究偏转到应用研究上。加强对伦理道德的应用研究,固然会开启生命伦理、大数据伦理和人工智能伦理等许多新的研究视域,取得令人眼花缭乱的成果,但也会出现因为搁置人的本质问题而导致一些争议性的科技问题悬而未决的情形。从近几年争议性科技问题所引发的负面事件乃至社会冲突来看,人们彼此之间之所以会在科技问题上产生分歧甚至出现争议,除了直接与他们的知识水平、情感道德、对风险和利益的认知等因素有关外,在更为深刻的层面上则与他们对人的本质的不同理解有着密切关系。因此,在开展伦理学前沿问题研究的同时,进一步加强伦理学基础理论研究是我们明智的选择。通过强化伦理学基础理论研究,对伦理道德调整的对象主体进行一次重新审视,以此为基础,进一步明确什么是合乎伦理道德的、什么是违背伦理道德的。
2.2 探讨建立 “多样化”和 “相对化”的道德标准体系
除了在伦理道德基础性问题上存在的认知分歧之外,道德标准体系建设与经济社会高速发展不同步也是当下中国所面临的一个难题。一方面,由于实行改革开放,特别是由于新时代中国特色社会主义新征程的开启,我国的经济社会生活方方面面均发生了翻天覆地的变化。另一方面,道德体系仍然盛行形成于计划经济时代的体系。经济社会生活变化很快,而我国社会所倡导和推行的道德体系变化却很小,这就使得道德难以适应变化的社会生活而丧失其应有的规范力和指导力。在科技创新迅猛发展的大背景下,这种不适应还会进一步扩大。为了解决道德建设不适应的问题,充分发挥道德对经济社会生活应有的规范力和指导力,探讨建立 “多样化”和 “相对化”的道德标准体系迫在眉睫。建立 “多样化”和 “相对化”的道德标准体系,要求我们在明确道德价值取向、基本原则、基本规范的前提下,以社会公德和职业道德建设为重点,深入分析科技创新所带来的社会结构变化和社会分化,着力研究基本道德原则在社会不同生活领域的基本要求,从而形成不同生活领域的道德行为准则。
2.3 不断提高科技人员的道德判断能力
要解决科技创新所带来的伦理道德问题,不能仅仅停留在伦理道德标准、规范层面上想办法,还要从伦理道德所调整的对象上做文章。从伦理道德所调整的对象上做文章,就是要进一步规范科技人员的道德行为。从发生学的角度看,道德判断是产生道德行为的先决条件,一个人的道德判断能力直接规定和影响他的道德行为能力。因此,提高科技人员的道德判断能力,对于规范其道德行为、最终解决科技创新所带来的伦理道德问题具有重要意义。目前由于现行教育体制缺乏道德判断能力的显性教育,在我国一些青少年学生中普遍存在道德判断时自我中心意识加强、道德认知与道德情绪不一致等问题,这些问题往往成为他们道德行为失范的重要原因。在我国科技人员不断年轻化的趋势下,青少年学生中存在的这些问题对他们也产生了冲击,以至于他们在科技创新活动中道德误判的情况也偶有发生。针对这种情况,通过问卷调查开展科技人员的道德判断能力实证研究,加强多种形式的、有针对性的显性教育,将道德行为作为考核科技人员业绩的重要指标,相应地建立起每个科技人员的诚信档案,将有助于不断提高科技人员的道德判断能力,从而规范他们的科技创新活动。
杨利利 北京印刷学院马克思主义学院
人工智能作为第四次科技革命的重要引擎,在经济社会领域得到充分应用,彰显出智能经济的强大效应。到2035年,人工智能有潜力使中国的经济年增速提高1.6个百分点,中国的劳动生产率有望提升27%[1]。当前,全球人工智能市场规模不断扩大,中国人工智能产业也迅猛发展,2019年人工智能企业数量超过4000家,位列全球第二[2]。可以预期,随着人工智能呈现更高发展态势,其对就业的影响也更为深刻。新形势下,如何发挥面向2035年人工智能对就业的促进作用,是智能化时代面临的重要课题。
人工智能对就业的抑制和促进并存,其影响机制在于替代效应、补偿与创造效应综合作用。替代效应通过技能偏向型和程序偏向型技术进步得以实现,前者对低技能、低水平劳动者产生排挤,后者对程序化、重复性、机械性劳动进行替代。因而,人工智能不仅是对简单性体力劳动的替代,更多是替代了部分程式化、规则性的脑力工作,从而在更广范围、更大程度上对就业产生深刻影响。近年来,智能自动化水平提升,“机器换人”现象逐步显现,引发部分劳动力的技术性失业,而其所具备的知识结构与能力水平又难以达至人工智能所需的高技术要求,转岗再就业较为困难。据麦肯锡等研究分析,到2030年,将有8亿人的工作被机器人所取代[3]。由此可以进一步预测,到2035年人工智能对就业的冲击将更为显现。
人工智能在减少甚至消灭部分工作岗位的同时,也在与实体经济融合中产生就业创造和补偿效应,扩大就业岗位需求。第一,就业创造效应。人工智能在技术开发研究、实施操作、设备维护等阶段都需要相应的专业技术人员,从而促进新业态、新工种的产生。同时,人工智能推动关联产业发展,开拓新型智能领域,催生新的平台经济、零工经济和智能经济,如 “云劳动” “网约零工” “工作优步化”等新兴数字劳动用工方式[4]。第二,就业补偿效应。主要通过扩大就业需求,以补偿替代效应导致的就业岗位减少。一是以社会产品需求带动就业需求增长。人工智能推动生产率的提升,产品价格降低,社会需求扩大以带动更多就业岗位产生。同时,人工智能促进经济发展,提升居民收入水平,社会需求随之增加进而引发大规模生产,以吸纳更多劳动力。二是人工智能赋能传统产业,促进产业升级,细分领域人才需求增加。例如,人工智能以语音、人脸识别以及深度学习算法等技术特性带动智能化、高端性、个性化服务需求增加,如交通领域的AI无人驾驶、日常生活中的AI智能家居、医疗领域的AI智慧医疗等。麦肯锡等认为[3],到2030年,高水平教育和医疗的发展会在全球创造5000万~8000万个新增工作需求。
当前,人工智能正处于快速发展中,加之市场、政策、伦理道德等多重因素的综合作用,未来一段时期内对于就业总量变化无法进行精准预测。同时,对就业影响的把握应立足于时空维度具体审视。从时间维度看,目前人工智能正处于导入阶段,智能产业链尚未形成,人工智能对就业的冲击仍然有限。但随着人工智能应用范围的日渐拓展和技术趋于成熟,其对就业增长的刺激逐渐显现。空间维度而言,由于各国在技术水平、经济发展、文化制度、产业结构等方面存有差异,研究人工智能对就业的影响应结合不同国家的具体实际分析。
第一,重塑就业结构。就业结构是劳动力需求结构与劳动力供给结构两方面共同作用的结果[5]。人工智能作为新型生产要素渗入经济活动,促进产业结构变革。其与大数据、云计算等技术结合,赋能智能系统以深度学习能力,由此获得类人智能,有效替代程式化劳动。非程式化低端与高端劳动就业需求同步增加,程式化中端劳动就业人员相对减少,出现就业 “极化”现象。大量的失业人员涌向低端性、非程式化或者程式化较弱的劳动领域,从而造成这类领域内的竞争增大,劳动力供给过多,出现 “供过于求”。而对于高端性、程式化技术人才而言,仍存在 “供不应求” “供需错配”等问题。据腾讯研究院2019年统计数据显示,全球AI领域人才约30万人,而市场需求在百万量级。每年AI领域毕业的学生约2万人,远不能满足市场对人才的需求[2]。同时,人工智能对各行业的影响不同,从而导致就业人员在行业间分布的非均匀化,进而引发产业结构转型。埃森哲等(2017)对中国不同行业的人工智能影响研究显示,影响最为显著的是制造业、农林渔业,其行业总增加值的年增速到2035年将分别提高2%和1.8%(见图1),由此可能引发第一、第二产业出现大量的 “机器代人”。由于智能化时代生产率的提升赋予人们更多的闲暇时间,其在休闲娱乐、健康保健等方面的精神性与发展性消费增多,与之相关的第三产业就业需求增多。
资料来源:埃森哲研究。
第二,提升就业质量。一是改善就业环境。人工智能凭借技术特性优势,替代部分脑力劳动强度大、危险系数高、超出人类承受限度等不适于人类从事的工作,如高空高温作业、电磁辐射职业等,从而将劳动者从危险场景与恶劣环境中脱离出来,提升了就业质量。二是增加工作弹性自由。智能化时代工作模式更加多元、工作时间更为灵活,劳动者可通过远程操作与遥控完成工作任务,极大节约了时间损耗成本,提升了工作效率,改善了就业质量。三是提升劳动者素质。一方面,智能化社会倒逼学校教育和职业教育水平不断提升,劳动者在获得高质量教育的同时,也在就业市场高技能需求的导向下自觉提升劳动禀赋,提高就业质量;另一方面,人工智能与劳动者结合形成 “人机交互”的工作模式,延展了劳动者的能力范围,推动工作质量与效率提升。
就业问题关系国计民生,党和国家对这一问题历来高度重视,党的十九大提出实现更充分更高质量的就业目标。为此,应当辩证认识人工智能对就业的多重影响,精准施策,以助推这一目标的实现。
3.1 深化就业影响整体研究,强化政策顶层设计
重视人工智能在未来社会发展中的重要作用及其带来的历史机遇,全面评估、研究人工智能对就业产生的影响及预测就业发展态势,积极拓展智能产品与服务消费市场,推动人工智能就业创造效应的发挥。同时,强化就业政策顶层设计,合理配置劳动力资源,促进就业结构调整、优化和不断升级,推动更多新业态、新就业模式产生,降低未来结构性失业率。
3.2 推进教育改革,补齐人才供给短板
明确智能化时代所需的短缺性人才,并以此为导向深化教育改革,鼓励高等教育机构围绕AI的发展设置相关专业[6],强化创新性、技术性、专业性人才培养,促使劳动力供给与经济发展需求相匹配,有效调和劳动力供需之间的内在结构性矛盾。同时,在全社会大力倡导终身教育、终身学习,既要发挥政府、企业、社会组织等主体合力为终身教育实施搭建相应教育平台,也要在教育中重塑劳动者的思想观念,强化危机、竞争与创新意识,推动其自觉提升智能学习意识和能力素质。
3.3 构建就业监测与风险预警机制,做好职业引导与培训
充分运用大数据搜集、整合就业信息数据,建立就业监测、分析与评估机制,动态观察就业的实际状况,预测与研判就业的未来发展趋势。对于高失业风险的领域与群体,尤其做好重点跟踪与监测,有效预警失业风险。利用智能化手段,做好人才供给与就业需求的匹配和对接,为劳动者提供更多就业平台资讯。强化就业指导与培训,促进劳动者实现数字化转型,以适应智能化时代要求。既要更新劳动者的就业理念,鼓励其从事各种新型灵活性职业和再创业,合理引导失业人员的二次就业。同时以市场为导向,构建服务智能社会发展的就业培训机制,促进个性化培训与市场需求的有效对接。
3.4 完善就业保障制度,加大就业扶持力度
党的十九届五中全会提出强化就业优先政策,健全多层次社会保障体系。应加大就业保障与扶持力度,有效防范与化解社会风险。一是夯实就业保障,适当提升就业保障水平,推进教育、住房、医疗卫生等领域改革与经济社会发展相适应,合理调节低保标准以发挥社会保障的托底作用。同时,拓展就业保险的覆盖范围,尤其要注重对于新型就业形态与就业工种的保障覆盖。二是加大就业扶持力度,探索就业能力提升奖励机制,鼓励劳动者不断强化劳动技能,对于高失业风险劳动群体给予适当的救助和帮扶政策倾斜,做好其积极创业和再就业保障工作。
易显飞 长沙理工大学科技与社会发展研究所所长、教授、博士生导师
党的十九大报告指出,要瞄准科技前沿,突出前沿引领技术,为建设智慧社会提供有力支撑。习近平在中国科学院第十九次院士大会、中国工程院第十四次院士大会上强调,“科学技术从来没有像今天这样深刻影响着国家前途命运,从来没有像今天这样深刻影响着人民生活福祉。”[1]十九届五中全会提出新时代科技创新要坚持 “四个面向”,归根结底,就是要面向当下的中国社会。基于上述重要论述,本文主张面向2035年的科技创新,既要克服学界长期关注的科技创新与经济 “脱节”的问题,更要正视科技创新尤其是前沿高新技术引发的诸多 “社会问题”,通过适当的途径规避前沿科技对社会带来的负面影响,引导科技朝着符合社会期待的方向健康发展。随着 “纳米科学与技术—生物技术与生物医学—信息技术—认知科学”的协同组合形成的 “会聚技术”时代的到来,人类增强自身的能力得到本质性提升,出现了在技术特征、作用方式、技术风险、影响效果等方面与传统增强技术完全不同的新兴人类 “增强技术”。与诸多面向 “自然”的技术不同,新兴增强技术是直接面向 “人”及由人组成的 “社会”本身。可以说,以物理增强、认知增强、道德增强、情感增强为主的当代新兴人类增强技术对人与社会的深度 “干预”使 “人”及由 “人”组成的 “社会”陷入 “深度技术化”状态,这类技术通过医疗药物、脑机接口、基因编辑、人机结合、延展认知、纳米机器人等方式 “直接”作用于人 “本身”,进而挑战现实社会秩序,引发前所未有的 “社会问题”。
一是社会公平问题。新兴增强技术的出现,一定程度上阻碍社会公平的实现。新兴增强技术类产品因为价格、社会群体经济地位上的差异等因素要惠及社会全体成员几乎是不可能的,这就直接导致了不公平现象的出现:经济地位占优的群体可购买增强产品,直接提升自身甚至下一代的能力,而普通人则因难以承担增强产品的高额费用只能 “望洋兴叹”。那么在 “增强人”与 “普通人”之间,势必会形成一道 “能力鸿沟”,增强技术的应用造成不同群体在能力上的不公平现象 “一次公正问题”。进而,“普通人”将很可能无法通过自身能力和努力来获取相应的优势,增强者则几乎轻轻松松就 “立于不败之地”,在学习、工作等竞争激烈的领域占据 “霸权”地位,这样一来,公平的 “社会环境”就遭到破坏,普通人在社会上的优势将会显得越来越小,实现在社会上的个人追求和个人提升的可能性日渐式微,导致严重的 “二次公正问题”,即加剧了 “增强人”与 “普通人”在地位上的悬殊,群体之间的 “界限”日益清晰:一方是经 “增强”而形成的优势群体,另一方则是没有接受 “增强”的 “弱势群体”。
二是社会信任问题。新兴增强技术可以改善和 “隐蔽”被增强者本来的面貌、品格、智力等特征,导致交流的不透明程度剧增,交往过程中的 “屏障”形成,交往的真实性受到质疑,人们陷入 “社交忧虑”。在这个意义上来说,这几乎和 “舞弊”无异。例如,在体育比赛当中,竞争双方在信息方面基本上对彼此有充分的估算,但是若竞争的一方服用物理增强技术产品使体能在短期内迅速攀升进而碾压竞争对手,对竞争的另一方而言,可谓其前期的信息收集已经完全失真,导致该领域的社会信任度急剧下降。再如,情感增强技术可以影响甚至转变个体的真实情感,而在刑侦审讯中,对于目击者之前是否采用过情感增强技术的判定比较困难,因此对于其提供的证据以及情感波动的可靠性也难以甄别。新兴增强技术还将使 “遥控”他人成为现实,以纳米装置或人际芯片为介质的器械增强正日趋成为增强领域的翘楚。科技专家正尝试将神经工程与信息技术结合形成 “联合遥测技术”,该技术可使目标个体的大脑意识发生双层分离,创建 “虚拟代理人”以完成个体决策[2]。此时,个体决策完全没有依其本人的想法,而是受到外界操纵。而当操纵他人可以通过技术手段完成时,信任以及人际关系就丧失了存在的意义[3]。由此一来,增强技术的使用便可能导致整个社会面临 “信任危机”,社会将出现 “信任干扰”和 “信任封闭”,最终导致社会信任秩序混乱。
三是社会责任问题。新兴增强技术引发的与社会责任相关的问题表现为:个人对于个体的责任缺失致使社会责任的正确取向受到挑战;某些组织的行为与社会责任履行的合理性背道而驰。首先,在家庭中,父母通过增强技术对后代进行强制干预是否是负责任的表现?诚然,培养子女使其自身向更完美的方向发展确实属于父母的责任范围之内,增强技术也确实能对未成年人进行技术性 “改造”以提升其能力从而获得更大的竞争优势。但是,在强制性或违背子女知情权的条件下进行的这种 “增强”却恰恰是不负责任的体现。并且,增强给个别技术使用者带来的 “甜头”难免使大部分家庭趋之若鹜,随着技术应用的覆盖面增加会引发更大舆情,产生群体性责任认同危机。其次,新兴增强技术一旦商业化,企业等组织可以利用增强技术衍生的产品来履行社会责任从而回馈社会,但是这种社会责任的合理性却备受质疑。毕竟企业往往以谋取经济价值作为首要标准,这种谋利行为往往不一定符合社会责任的正确价值取向。在增强技术制品领域,这种谋利行为更可能会被公众定义为是 “为少数人服务”的一种牟利行为,甚至令公众质疑其商业伦理的正当性。社会整体利益与个人利益往往并不总是具有同一性,对于企业而言,无法做到惠及绝大多数社会公众的商业实践,就是社会责任感缺失的表现。
一是与新兴增强技术相关资源配置的合理化。为了解决社会公平问题,新兴增强技术资源的合理分配显得尤为重要。合理配置增强技术与社会资源需要协调各方面群体,其中涉及的群体主要有基础研究团体、技术研发团体、企业家、社会公众等。资源配置在于研发经费、研发产品、市场价格三者的有效统一。研发经费不应只顾及增强技术的研发,而忽略技术研发过程中对于技术的社会影响等方面的考量和投入。增强领域的研发产品在量上应当面向不同群体,且在分配上需要具备数量上的限制性。通过不同人群的不同需要,对增强技术制品进行具有不同 “优先权”的配置,按照社会角色与社会发展的需要进行合理配置,而不是仅仅以购买力为配置参数,从而规避某些群体的非理性购买产生的不公平。增强技术制品的市场价格应当合理化,在价格调控上的权利不应当仅掌握在相关企业手中,而需要多方群体协商确定出一个相对最优化的统一价格从而惠及整个社会群体,进而最大程度保证广大社会群体在获取增强产品时价格上具有可接受的公平公正性。
二是确立新兴增强技术研发和应用的社会 “警戒线”。新兴增强技术的发展过程中不应违反 “社会底线”,基于底线思维形成的社会 “警戒线”可以有效防止该领域出现的社会信任等问题。“增强”只是此类技术的目标,对相关技术活动达成底线性、普适性的共同社会价值规范显得尤为重要[4]。如果说通过增强技术对人自身及由人组成的社会群体各方面进行 “完善”是一种价值,那么我们应当对这种 “完善”的过程中所带来的各种可能价值,根据其对社会和人的影响程度及范围为进行价值 “排序”,与社会及人本身最相关的价值排在最优先的位置。在技术研发与应用过程中,相关主体应对此类技术进行充分的 “道德想象”,将其可能造成的社会风险控制在社会 “警戒线”之内。当然,这里的前提是,增强技术在社会层面的 “警戒线”标准应该达成共识,唯有如此,社会信任等问题的规避也才有迹可循。
三是塑造新兴增强技术利益攸关方群体的 “共同责任”意识。规避新兴增强技术导致的社会责任问题,需要增强技术的受众与相关群体共同努力来培养统一的责任意识。任何作为个体的人都不可能脱离社会责任而 “单纯地”只从自身角度进行抉择,个人利益追求在价值阶位上低于或服从于社会整体利益追求,所谓的 “共同责任”方能真正实现。如通过增强技术增强后代能力的行为,父母不应只是功利性地考虑自己的后代能力增强带给自身的 “满足感”,而应更多地考量这一行为对他人、对社会的 “责任问题”。就像提倡 “负责任创新”一样,我们在真正对后代、他人以及社会负责的前提下,对增强技术的应用也应进行 “负责任”的选择。与增强技术相关的企业及一切责任攸关方则更应塑造社会责任意识,社会在给予组织社会权利的同时,也赋予相应的社会责任,承担社会责任是组织必须的内在品质。这对组织而言,既是共同责任意识的树立,也可以理解为是价值观的重塑。在进行有关增强技术的决策与行为时,应当使个人责任、组织责任同其所具有的社会责任相统一,锻造共同责任意识。唯有如此,才能有效避免新兴增强技术引发的社会问题。