王树涛 鲍俊威
[摘 要] 人工智能教育社会实验能够弥合智能技术生产与教育应用的线性两分割裂状态,促进智能技术与教育场域意向性之间的互通与平衡,有效规避与控制智能技术异化教育的风险。通过对人工智能教育社会实验进行价值透视,结合芬伯格的次级工具化理论对人工智能教育社会实验的作用机理进行分析,发现人工智能教育社会实验通过“系统化、中介化、职业化和主动性”四个环节的作用,能够逐步推进人工智能技术在教育场域中完成社会化改造。基于此,在未来人工智能教育社会实验的发展中,应健全人工智能教育社会实验试点机制,建构人工智能教育社会实验伦理框架,保证人工智能教育社会实验的全过程受控,打造人工智能教育社会实验治理循环圈,进而推进智能技术应用于教育的负责任创新。
[关键词] 人工智能; 教育社会实验; 芬伯格; 次级工具化; 作用机理; 建构路径
[中图分类号] G434 [文献标志码] A
[作者简介] 王树涛(1983—),男,山东青岛人。研究员,博士,主要从事数字教育治理、教育公平与伦理研究。E-mail:wangshutao@zju.edu.cn。
一、引 言
依托人工智能教育社会实验的教育治理是一个全局性、系统性和创新性的过程。人工智能技术引发包括教育在内的社会各领域的连锁反应,技术进步的已然性和教育适应的滞后性构成了教育系统平衡失调的基本矛盾,需要通过对技术进行批判以完成技术的社会化改造[1]。目前,对人工智能技术应用于教育所带来的真实社会影响的分析,缺少客观的测量与真实情景中的考察。因此,通过严密分析构建起合理的治理策略,是当下人工智能技术应用于教育所要解决的迫在眉睫的难题。人工智能教育社会实验不仅能够为应对智能技术综合影响教育提供循证知识基础[2],也能为科学测量人工智能教育应用带来的真实社会影响做出路径探索。基于此,深入解读人工智能教育社会实验的价值意义,剖析其作用机理,进而建构促进人工智能技术与教育共生发展的教育社会实验,推动智能技术更好地适应教育发展的逻辑,对智能时代教育主体的生存发展至关重要。
二、人工智能教育社会实验的价值解读
相较于传统社会实验对知识在“非受控”过程中的关注,人工智能教育社会实验尊重“育人”的特殊性需求,是一种受真实教育场域所影响的受控实验,旨在促进人工智能技术与教育的境域互构、意向联结,控制智能技术应用于教育场域中的风险,从而生产出符合教育特定需求的智能技术。
(一)境域互构:弥合智能技术生产与教育应用的线性两分割裂状态
现代技术从近代形而上学中确立起来的主客体对立的对象性思维方式,一方面保证了科学实验的精确性与可验证性,另一方面也推动着智能技术的生产与教育应用走向二元割裂的困境。人工智能教育社会实验的介入,能够促进人工智能技术与教育的关系从二元超越性思维转向关联境域性思维,进而依靠人工智能教育社会实验的力量,构筑教育场域与人工智能技术的“因缘整体”,实现二者的境域互构。
首先,人工智能教育社会实验将技术实验性摄入教育实践,使得智能技术的价值理性逐渐显现,进而搭建起人工智能技术与教育世界的联系,促进技术不断实现“以人为本”的教育价值转向。教育在享受技术便利的同时,其自身也极有可能被裹挟进技术的“座架”(Ge-stell)之中,成为技术系统的节点。人工智能教育社会实验的介入,一方面,能够激发智能技术在教育实践中找寻被“搁置”的技术行为真理意义的原初思想;另一方面,亦能防止智能技术理性膨胀与过度张扬对教育场域的侵蚀。其次,人工智能教育社会实验推动智能技术应用的场景发生转变,使得教育生活反身性介入智能技术实验当中,推动智能技术走向创生性发展。人工智能教育社会实验打破了实验室科学实验以认知导向为核心的演绎推理模式,转向以行动导向为核心的溯因与归纳的知识生产方式,不仅能够促使智能技术在教育场域的实验过程中逐渐释放创造性,进一步提升智能技术与特定教育场域的适切性,而且能够在实验的过程中产生治理作用,推动智能技术改造与升级。最后,人工智能教育社会实验为人工智能技术提供容错空间,减少智能技术的构造性偏见和实施性偏见,从而避免大规模智能技术应用于教育场域可能引发的不良社会效应,使得智能技术不断地接受教育实践意义的调节,促进智能技术生产与教育应用的境域互构。
(二)意向联结:促进智能技术与教育场域意向性之间的互通与平衡
技术工具实践的过程会受到教育主体心理、生理以及教育文化等因素的重重影响,其复杂性要求我们在应用人工智能教育技术工具时,必须认真考虑教育场域自身的意向性以及它对于智能技术意向性的重塑[3]。然而,当下教育所应用的技术通常基于开发人员和市场理念的意向性,而非教育与学习的意向性[4]。人工智能教育社会实验作为智能技术与教育场域融合的“试金石”,能够在实验过程中促进智能技术与教育意向性的互通,从而为实现二者意向的平衡创造空间条件。
人工智能教育社会实验能够逐步实现智能技术的“祛魅”,使其在与教育场域交互建构的实验过程中逐渐澄明自身的意向性。智能技术的意向性主要有“被指”(Being Directed)和“能指”(Directing to)兩种状态。“被指”状态是指智能技术作为人类意向凝结物,主体往往将不同的意向赋予智能技术之中,并使其由虚在走向实在;“能指”状态指当智能技术被投入实践中时,它必然会以呈现状态指向人们的日常生活实践,从而进一步实现人改造技术的目的[5]。首先,人工智能教育社会实验使得智能技术“被指”的意向逐渐在教育场域中展开,有效避免由资本逐利所引发的抽象性智能技术对教育生活的扭曲。其次,在人工智能教育社会实验的过程中,也能进一步厘清智能技术的“能指”状态,最终实现智能技术与教育实践意向性相联结的“应指”状态。教育场域独特意向性对智能技术的批判吸收与建构作用,致使其并不会全盘接受智能技术的意向逻辑。因此,人工智能教育社会实验沟通智能技术与教育实践的意向性,能够使得教育实践领域的现实问题进入智能技术的视野,并对智能技术进行“重新编码”,进而促进二者的意向性联结达到“应指”状态,即共同指向人在教育场域中的生命展开。
(三)风险控制:有效规避与控制智能技术异化教育的风险
教育人工智能风险治理已成为影响人工智能与教育教学深度融合的关键因素[6]。人工智能教育社会实验可以持续跟踪和分析人工智能等新兴技术的社会影响,拨开人工智能应用于教育的风险黑箱[7]。其一,人工智能教育社会实验能够为智能技术应用于教育场域提供“先行先试”的机会,以控制盲目的技术应用异化教育的风险。对个体而言,人工智能教育社会实验“先行先试”能够及时防止个体对技术产生过度依赖与沉迷;对社会整体而言,人工智能教育社会实验“先行先试”能够有效控制大规模的技术应用所带来的阶层区隔、隐私数据泄露等问题,及时分析智能技术应用于教育的潜在风险并采取相应的防范措施。其二,人工智能教育社会实验能够动态化解智能技术应用于教育的伦理风险,营造自适应生境。人工智能教育社会实验的过程是动态评估技术风险、动态平衡各方需求与理由的过程,从而由利益相关者共同探索伦理标准,再造技术应用于教育的共享生境,营造稳定的自适应技术体系。其目的不是揭示普遍性的自然运作机制,而是将人工智能技术与教育应用看作一个自适应整体,用动态系统性的思维找寻智能技术参与教育秩序的适应性建构。
三、人工智能教育社会实验的作用机理剖析
开展人工智能教育社会实验,有助于消解单向度、实体化的技术本质主义,走向社会建构的技术观。正如安德鲁·芬伯格(Andrew Feenberg)的工具化理论所指出的,“一个技术的完善的定义必须表明,技术面向现实的倾向的特点是如何与技术在社会世界中的实现结合起来的”[8]。芬伯格提出两级工具化理论,以期超越技术的工具论和实体论的理论困境。他认为,技术的初级工具化类似于海德格尔所指出的,技术是一种揭示方式,而次级工具化则是一种在社会中的行为,是技术在社会情境中的实际实施[8]。技术合理性和社会合理性共同决定着技术工具实践的最终样态[3]。因此,人工智能教育社会实验发挥作用的过程即是使得人工智能技术在教育实践中“次级工具化”的过程,通过“系统化(Systematization)、中介化(Mediation)、职业化(Vocation)和主动性(Initiative)”[8]四个环节的交互作用(如图1所示),实现人工智能技术与教育场域双向互构,从而形成一个“把智能技术同技术系统和教育生活整合、同伦理和美学符号整合、同人工使用和社会组织整合”的技术图景[9]。
图1 基于“次级工具化”过程的人工智能教育
社会实验作用机理
(一)系统化:助推教育情境重构智能技术,实现技术的转译与拓展
芬伯格指出,在初级工具化中,技术对象和它的直接情境相分离,然而这种去除情境化(Decontextualization)只是技术发展的起点,因为被去除了情境的要素必须相互结合起来以便加以利用[8]。因此,芬伯格认为,技术“系统化”的过程是指“去除了情境的对象相互之间的联系以及与使用者和自然的联系,以便由此形成设备和技术组织”[8]。教育社会实验将人工智能技术带入教育真实场域中,使得技术系统、现有使用者以及教育场域相融合,才能进一步生成再情境化的协调技术系统,实现智能技术的转译与拓展。
其一,人工智能教育社会实验是使得智能技术在发展起点所产生的“去除情境化”破坏效应逐渐消解的过程,从而能够进一步转译并拓展智能技术,并使其应用于更广泛的教育场景。约瑟夫·劳斯(Joseph Rouse)认为,产生于实验室的地方性知识需要借助“标准化”和“转译”过程应用到实验室外部环境[10]。技术向实验室外的拓展首先必须消除各种不确定因素对智能技术产生的影响,即在“标准化”实验室中完成智能技术去情境化的初级工具化过程,这一过程使得技术的“转译”变得可能。但更重要的是,在真实教育场域中重构与丰富实验室情境,将新的教育情境“标准化”为技术产生情境,从而完成智能技术的“转译”过程,即完成智能技术“系统化”发展的次级工具化过程。由此,才能不断拓展人工智能技术应用于教育情境的功能与范围。
其二,人工智能教育社会实验能够不断加深与教育实践者的联系,促进智能技术与人的和谐共生。信息技术与教育深度融合就必须回归生命,必须要以生命的发展为融合的契合点[11]。人工智能社会实验的“系统化”过程是教育逻辑与技术逻辑双向互构的过程,一方面,能够吸纳教育主体的要求,不断提升智能技术在教育情境中的适应性;另一方面,能够帮助教育主体在技术融合教育的实践中及时跳出技术加速陷阱,逐渐克服技术逻辑主导其思维的弊端,凸显教育逻辑的重要性,重视人的生命成长。
(二)中介化:栖居智能技术于教育实践,唤醒技术的伦理与美学关切
芬伯格认为,技术的“中介化”过程体现了伦理学和美学所具有的中介调解作用,是将审美和道德特性融入技术设计中去[8]。与技术次级工具化的“中介化”过程相对的是初级工具化中的“简化”(Reductionism)过程,“简化”过程是为了使技术能够进入技术网络中,需把显现在技术上的无用特性剥离掉的技术发展阶段。然而,在智能技术“简化”的过程中,也造成了技术与道德和审美的人为剥离。在“中介化”的进程中,人工智能教育社会实验能够逐渐克服智能技術的非人性效应,开拓出智能技术的意义世界,不断丰富强化智能技术美与伦理的本体内涵,使其诗意地栖居在教育实践情境之中。
其一,人工智能教育社会实验推动着智能技术不断发挥其应有的伦理温度。在社会实验的“中介化”过程中,智能技术的应用不仅需要注重教育的伦理道德,而且也更加需要进一步关注实验本身的伦理争议,从而评估、分析和降低人工智能技术引入教育实践中的潜在风险。新兴智能技术的不确定性会影响道德伦理的评估[12],人工智能教育社会实验面向的是真实的教育实践场景,通过教育社会实验的过程,智能技术的道德困境才会逐渐显露。此外,通过人工智能教育社会实验“中介化”的过程,能够促进智能技术的应用伦理得到进一步反思。在开展社会实验之前,须对学生、教师以及管理人员的需求与相关伦理价值进行审视,并反思智能技术应用的根本目的,尊重人的基本权利,进而使得智能技术具有伦理可接受性。
其二,在人工智能教育社会实验的“中介化”进程中,教育实践中的自然因素、社会因素以及时间因素逐渐被智能技术所吸纳,唤醒被剥离的技术美学意义,以遏制智能技术的非人性效应,激活教育者丰富的审美感觉与想象力。智能技术与教育实践的互构,一方面,能够为智能技术美学提供形而下的直接经验,使教育者从中感受到创造之美,体悟到智能技术融入教育过程给教育者诗意生存带来的和谐之美;另一方面,人工智能社会实验的“中介化”过程所生成的智能技术美学的形而上价值,又能进一步为教育实践提供规范和人文导向,使得智能技术的发展日趋完善。
(三)职业化:利益相关者彼此反馈融通,构建技术风险的共同责任
芬伯格指出,在技术的“职业化”中,主体与对象不再分离,而是被自身与对象的技术关系所转化,这种关系会逐渐超过被动的沉思或外在的操纵[8]。与技术次级工具化的“职业化”过程相对的是初级工具化中的“自主化”(Reductionism)过程,在“自主化”过程中,技术行为者与其行为后果相分离[8]。在传统的实验中,科学家因拥有生产知识的特权而成为技术的外在操纵者。而智能技术在教育场域的应用中需要考虑教育场域复杂的应用语境,应由利益相关者共同建构智能技術,并对实验结果进行集体反思,推动智能技术的生产过程走向“职业化”的发展道路。
其一,通过人工智能教育社会实验的“职业化”过程,不断地调动教育场域中的“地方性知识”,将教育场域中学生、教师以及管理人员的需求借由实验过程嵌入智能技术之中。“地方性知识”强调的是,知识总是在特定的情境中生成、形成和传递[13]。借由社会实验“职业化”过程对于智能技术的再设计,揭示教育场域的特性,让智能技术的设计者、使用者与受用者共同参与智能技术的改组与改造,使得智能技术的应用不断贴合于教育实际。
其二,通过人工智能教育社会实验的“职业化”过程,促进利益相关者形成风险共同体,共同承担实验过程中的风险与责任。利益相关者必须在相互反馈的过程中理解智能技术在教育应用过程中的真实或潜在问题[14],进而研判与承担智能技术应用于教育可能带来的风险。教育社会实验“职业化”的过程使得教育场域各类主体既是智能技术设计与应用的参与者、建构者,亦是责任者与反思者。在此过程中,各利益相关者共同承担责任,彼此反馈、相互融通,从而降低智能技术应用的社会风险。
(四)主动性:激发利益相关者主体能动性,赋予智能技术创造性意义
在芬伯格的次级工具化理论中,技术的“主动性”过程是指对象能够创造性地使用既有的技术,甚至能够赋予技术多样性的功能和意义。与“主动性”过程相对的是初级工具化中的“定位化”(Positioning)过程,在“定位化”过程中,技术的对象处于被驾驭和被控制的位置[8]。次级工具化中的“主动性”过程表明,技术的设计可以被行为主体与行为对象共同创新与改造。这表明任何新的教育技术工具的设计中都应该考虑教育主体的能动性因素。通过人工智能教育社会实验阶段,各利益相关者可以在反馈与吸收的基础之上激发自身参与智能技术创新设计的积极性、主动性与创造性,共同推进教育走向高质量发展阶段。
其一,通过教育社会实验可以赋予教育主体表达与建议的权力,从而综合各类主体的观察与体验,全方位尊重教育主体的决策参与和创新引领。教育主体是智能技术应用最为关键的“推手”,也是决定智能技术如何发挥作用的关键因素。在人工智能教育社会实验过程中,教育场域的多元主体都需要参与到智能技术的选择过程中并提供相应见解,技术选择的权力不应该只掌握在少数专家手中。正如卡斯特指出,“流动的权力优于权力的流动”[15]。技术的影响取决于技术的设计及使用[8],唯有利用教育社会实验过程为设计者和参与者构建充分交流的空间,才能促进智能技术、教育实践与各利益主体的观点碰撞与信息交流,激发各主体的创新动力。
其二,通过教育社会实验可以有效防范智能技术对教育场域利益相关者的主体性制约。技术不仅仅是实现目的的手段,它们也塑造世界[8]。人工智能技术的算法可塑性在推动着技术不断进步的同时,也可能造成主体权利被隐式的干预。通过人工智能教育社会实验,教育主体能够发挥自身的主动性,逐渐摆脱智能技术的“全景敞视主义”控制,帮助教育场域中的各利益主体在智能技术的使用中不断地进行反思与批判,从而推动智能技术的向善设计。
四、人工智能教育社会实验的建构路径
人工智能教育社会实验不仅是一种规范与调试智能技术作用于教育场域的治理方案,更是一种促进教育主体思维革新的方式,推动智能技术与教育实践的共生发展。综上所述,以境域互构、意向联结、风险控制的价值意蕴为基础,以“次级工具化”作用机理为指向,推动人工智能教育社会实验走向科学化、伦理化、专业化、创新化的整全建构。
(一)健全人工智能教育社会实验试点机制,提升智能技术推广的科学性与实用性
人工智能教育社会实验的目标是为了生产出适用于真实教育场域智能技术的实用性知识。因此,为了实现智能技术在教育场域的转译与拓展,实现人工智能教育社会实验的系统化作用,需要建立健全试点机制,并将试点机制与人工智能教育社会实验的要素相融合,使得智能技术的转译与拓展建立在更为科学与实用的基础之上。
首先,应提升人工智能教育社会实验试点区域的代表性。参照社会实验有控制的差异比较方法,并结合我国地区间发展的差异等特点,在条件允许的情况下,应加大试点数量,从而避免“选择性偏误”而对智能技术应用效果评估的不利影响[16]。其次,应减少人工智能教育社会实验试点环境的内生因素对智能技术推广应用的不良影响。营造更加纯净的试点环境,建立试点的容错机制与激励机制,从而提升智能技术的外推性和延续性。最后,应建立多方评估渠道与机制,注重总结试点实验过程的经验与教训,以便提升智能技术应用的可推广性。可通过建立同行评审机制、第三方监督机制以及网络舆情平台等途径与方法,提升智能技术由试点向外推广的精度与效度。
(二)建构人工智能教育社会实验伦理框架,研判与防控实验的潜在风险与伦理争议
为确保人工智能教育社会实验“中介化”作用的有效发挥,激发智能技术的美学与伦理关切,应建构人工智能教育社会实验伦理框架,以应对教育社会实验本身所带来的伦理争议,研判和防控潜在的伦理风险。
第一,应建立人工智能教育社会实验的基本伦理原则,从而根据伦理原则细化相应的实施策略。应秉持着尊重自主原则、不伤害原则、有利原则和公正原则,为人工智能教育社会实验提供规范性的指引。尊重自主原则即承认自主者有权持有自己的观点、做出选择以及根据自己的个人价值和信念采取行动[17]。这表明在开展人工智能教育社会实验时,需要确保参试者在充分了解实验目的的基础之上参与实验研究,尊重参试者退出实验的权利。不伤害原则建立在尊重自主原则之上,是对尊重主体原则的进一步深化,要求不能阻扰、侵犯或妨碍他人利益[17]。有利原则强调增进他人利益[17]。这意味着人工智能教育社会实验研究是为了增进参试者的利益,助力智能技术在教育场域更好地应用,为参试者提供便利。公正原则是指公平对待、平等对待和适当对待[17],需要根据我国国情,在试点阶段充分考虑应用场景和实验地區的选择,确保社会实验的公平与公正。第二,应加强对人工智能教育社会实验伦理审查的路径探索。重点审查人工智能教育社会实验的科学有效性、实验人员的实验资质、实验的可能后果、参试者和试验区的纳排标准及合理性、伤害赔偿等问题[18],加强对实验参与者的伦理培训,从而提升参试者的伦理保护意识。
(三)保证人工智能教育社会实验的全过程受控,为智能技术的改进与应用建立专业化循证依据
以往的“技术社会实验”没有明确的实验设计人员,具有不可控、不可逆、不可预期等显著特征[19],可能会对教育主体造成不可逆的不良影响。因此,在将新技术引入教育场域中时,必须利用实验数据为智能技术的改进与应用建立专业化的循证基础,避免智能技术应用的风险。
首先,需开发系统性的数据测量监测指标体系,确保人工智能社会实验的全过程受控。综合使用计算机科学、心理学、教育学和社会学等学科的理论方法,交叉探索人工智能社会实验数据的记录模式、存储介质和分析方法。通过对社会科学研究中常用的情景判断测验(Situational Judgment Test)、量表测量、行为跟踪等实验方法,结合人工智能应用于教育的社会实验开展过程中出现的新问题和新需求,进行数据收集和分析方法的优化创新。其次,需营造重视科学证据的氛围,建立有效的科学证据库,为智能技术科学的应用与推广提供循证基础。一是要在数据采集过程中注重数据的标准化和完备性,为实现不同区域的实验数据的交流共享提供便利,也为后续开展研究留下可供参考和利用的资料[2]。二是要将实验数据进行分门别类的整理与筛选,进而采用回归、匹配等统计方法探究智能技术应用于教育的影响,分析教育人工智能应用可能会带来的问题与风险,并基于证据寻求应对策略。
(四)打造人工智能教育社会实验治理循环圈,推进智能技术应用于教育的负责任创新
人工智能算法被称为机器学习算法,其本质是一种机器的“社会化学习”[20]。人工智能的算法逻辑使得教育社会实验具有反身性,因此,教育主体需要注重利用人工智能的“社会化学习”功能,激发教育主体的“自主性”与“能动性”,不断在实验中改进智能技术,从而形成教育社会实验治理循环圈,推进智能技术应用于教育的负责任创新。
其一,有效利用算法技术适应性、灵活性等优点对智能技术的应用进行修改与创新。由于新智能技术的复杂性和不确定性,教育社会实验很可能不会按照所预期的轨迹发展,从而出现“意外事件”[21]。对“意外事件”进行深入剖析,能够促使行动者对先前的技术知识进行拷问,从而展开新旧智能技术的互动,促使教育社会实验走向良性发展,进而推进积极的教育实践活动的展开。其二,在教育社会实验过程中对智能技术创造性意义进行批判性审视,建立负责任的智能技术创新理念与模式,以积极承担全责任为方法特征的创新认识和创新实践[22]。需要公众、 政治、 技术的共同参与,更充分地利用算法的实验性特点来调动与协调多元主体的协同发展,尊重参与实验者的权利,共同推进智能技术应用于教育实践的负责任创新。
[参考文献]
[1] 苏明,陈·巴特尔.人工智能教育伦理的多维审视——基于马克思技术批判和人的全面发展理论[J].西南民族大学学报(人文社科版),2019,40(11):223-228.
[2] 苏竣,魏钰明,黄萃.社会实验:人工智能社会影响研究的新路径[J].中国软科学,2020(9):132-140.
[3] 张务农.现代教育技术工具与生活世界的关联及其伦理旨趣——基于芬伯格工具化理论的视角[J].现代远程教育研究,2019(2):31-39.
[4] 苏慧丽,于伟.路途与景深:指向过程性的教育技术意向变革[J].电化教育研究,2021,42(7):33-39.
[5] 吴国林.技术哲学研究[M].广州:华南理工大学出版社, 2019:2.
[6] 赵磊磊,吴小凡,赵可云.责任伦理:教育人工智能风险治理的时代诉求[J].电化教育研究,2022,43(6):32-38.
[7] 童莉莉,张晨,黄荣怀,雷凤宇,杨赞波.教育社会实验:人工智能融入教育的研究新探索[J].中国电化教育,2022(3):62-68.
[8] 安德鲁·芬伯格.技术批判理论[M].韩连庆,曹观法,译.北京:北京大学出版社,2005.
[9] 乔瑞金,牟焕森,管晓刚.技术哲学导论[M].北京:高等教育出版社,2009:174.
[10] 约瑟夫·劳斯.知识与权力——走向科学的政治哲学[M].盛晓明,邱慧,孟强,译.北京:北京大学出版社,2004:241.
[11] 周建军.聚焦生命:信息技术与教育融合的深层视角[J].电化教育研究,2016,37(12):34-39,81.
[12] 王中贝,周荣庭.新兴技术伦理分析路径研究[J].自然辩证法研究,2022,38(3):29-35.
[13] 吳彤.两种“地方性知识”——兼评吉尔兹和劳斯的观点[J].自然辩证法研究,2007(11):87-94.
[14] 和鸿鹏,刘玉强.面向真实社会的实验:负责任创新的微观解读[J].自然辩证法研究,2018,34(8):51-56.
[15] 曼纽尔·卡斯特.网络社会的崛起[M].夏铸九,王志弘,等译.北京:社会科学文献出版社,2003:569.
[16] 刘军强,胡国鹏,李振.试点与实验:社会实验法及其对试点机制的启示[J].政治学研究,2018(4):103-116,128.
[17] 汤姆·比彻姆,詹姆士·邱卓思.生命医学伦理原则[M].李伦,译.北京:北京大学出版社,2014:64,114,113,220.
[18] 于雪,李伦.人工智能社会实验的伦理关切[J].科学学研究,2022(7):1-17.
[19] 刘玉强,齐昆鹏,赵公民.技术社会实验的理论起源与实践应用[J].科技进步与对策,2018,35(16):16-21.
[20] 张钺,李正风.人工智能算法的社会实验及其意义[J].清华社会学评论,2022(1):60-77.
[21] 刘玉强.社会实验:作为一种技术治理路径——以氟氯烃的社会引入为例[J].自然辩证法研究,2017,33(4):63-67.
[22] 刘战雄.负责任创新研究综述:背景、现状与趋势[J].科技进步与对策,2015,32(11):155-160.
Educational Social Experiment of Artificial Intelligence: Interpretation and Construction
WANG Shutao, BAO Junwei
(College of Education, Zhejiang University, Hangzhou Zhejiang 310058)
[Abstract] Educational social experiment of artificial intelligence (AI) can bridge the linear bifurcation between the production of intelligent technologies and educational applications, promote the interoperability and balance between intelligent technologies and the intentionality of the educational field, and effectively avoid and control the risk of alienated education with intelligent technologies. By analyzing the value perspective of educational social experiment of AI and the mechanism of educational social experiment of AI combined with Feinberg's secondary instrumentalization theory, it is found that educational social experiment of AI can gradually promote the social transformation of AI technology in the educational field through four links of "systematization, mediation, professionalization and initiative". Based on this, in the future development of AI educational social experiments, the pilot mechanism of AI educational social experiments should be improved, the ethical framework of AI educational social experiments should be constructed, the whole process of AI educational social experiments should be guaranteed to be controlled, and the cycle of AI educational social experiments governance should be created, so as to promote responsible innovation in the application of intelligent technology to education.
[Keywords] Artificial Intelligence; Educational Social Experiment; Feinberg; Secondary Instrumentalization; Mechanism of Action; Constructive Path