罗亚海
(临沂大学 法学院,山东 临沂 276000)
自进入21 世纪以来,科学技术前所未有地深刻影响着国家前途命运和人民生活福祉,也深刻改变着经济社会发展轨迹、全球治理体系、人类文明进程。[1]人工智能等现代科技的发展改变了时代法律的场景[2],这必然引起对现代科技法律伦理的新思索。强人工智能的自主意识和自我学习能力让传统的法律伦理观受到挑战,科技法律伦理已经不能再以传统的制度和理念予以审视,在现代语境下,科技法律伦理观需要进行现代化的重构。现代科技法律伦理的流变需要深入思考人工智能背景下社会关系所发生的性质和表征变化、文化变迁等问题。 新兴技术对社会的增益容易让人们低估科技风险,也必然会导致科技风险和伦理道德之间出现现实张力。人工智能可能引发的社会变革及其理念变迁让科技法律伦理成为社会治理的热门话题,科技法律伦理观需要借助道德和价值元素来实现对科技活动和科技发展的道德约束和价值认同。 人身安全和生存安全是人类的两大需求,科技伦理认知的发展依托特定时期的社会背景而形成不同的认知,科技法律伦理观将从传统科技伦理观中孕育并独立发展。 对于人工智能法律性质和语境的理解,我们不能满足于强调这个问题是什么以及该如何回答这个层面,而是要尝试去弄清楚这些问题本身的意蕴。因此,对科技伦理的现代性回答不能局限于一个或者另一个法律概念, 而是要探求这种多样性是如何形成的。 因此,科技法律伦理史观的梳理尤为必要。 科技法律伦理史的研究目的在于寻求自觉、事实性质及其社会背景的某种程度的透彻理解。 客观上讲,作为数字时代具有广泛渗透性的基础技术,人工智能具备颠覆性重构人类社会的潜能。[3]在人工智能背景下,科技法律伦理史的研究不仅要理解科技法律伦理研究的方法论, 更需要探求性质界定中的重要性原因,这些问题需要在特定语境下提出,问题的回答也要依赖特定语境。[4]科技法律伦理的发展是随着科学技术发展而不断进步的,而这种进步以科学技术如何适应社会生活所产生的效应为前提。 科技进步必然会引发新的伦理思考,并得出新的结论。
人工智能背景下的科技法律伦理史观的凝练需要通过历史梳理,探寻科技伦理变迁中的根本性转变。这不仅需要满足社会实践对理论的需求,更需要法律思维方法的转变。在人工智能时代的整体语境下,这种转变不仅仅是对社会面向的一种具体制度修正或者细节改变,而是需要我们对在伦理规则抽象中所依赖的社会基础和基本规则进行创造性转换。 从历史来看,自然界曾经对人类产生了深远的影响。 “在哲学中,人与自然的关系和制度的文化批判、社会公平、正义问题,是最具有人类共通性的问题。”[5]8基因编辑婴儿、宜兴胚胎案、机器人索菲亚的公民身份、阿尔法狗机器人等事件,让人们在传统的科技伦理和科技发展规则中的思索陷入混沌,当然也引发了社会对超人工智能等现象的思索,法律不能再以“回应型”调整和纠偏式方式来应对科技风险,立法的终极价值目标是为了人类社会更美好的未来。[6]人工智能发展引发了我们对科技伦理的新思索,这些思索不仅包括是否可以赋予人工智能主体资格或者部分的主体资格、 人工智能对智慧的承载该如何界定等简单的问题,更应该包括对传统科技伦理关系在法律上的现代性重构,并需有效甄别传统的科技理念需要哪些根本性的转变。 对人工智能而言,人工智能规则构建的前提需要承认实然的科技法律伦理规范品格,并在梳理科技法律伦理规则的变迁中,深入思索现代背景下法律制度背景的深刻转变,以探寻现代法律科技伦理观的现代性流变。
古典的科技伦理思想最早可见于原始社会末期,但那时并没有形成明确的制度关联意识。 苏格拉底的“美德即知识”将科技与道德关系引向深处。[7]1智识的探索可以追溯到超自然时代,朦胧的科技伦理思想隐含在当时的神话中。古希腊、古罗马的科学家和哲学家们已经意识到了科技对社会的影响。 初期的科技伦理更注重科学家的个人道德自律和自我克制,泰勒斯的思想中就体现了淡泊名利和对金钱的轻视;毕达哥拉斯将科技发现视为人生的幸福;苏格拉底将具体科学知识和道德的关系抽象为一般性命题,强调“知识就是美德”;柏拉图认为科学知识,特别是数学是达成善的理念的必要条件和必要环节;亚里士多德则更推进一步指出: 一切技术和研究都要以善为目标[7]13,“如若在所有行为中存在着某一目的,他就是实践所要达到的善,如若有多种目的,那么这个善也就是它们的总和”[8]。 初民的简单劳动包含着科学技术, 他们将科学技术和道德的关系蕴含于某种神化的人格主体,如希腊神话中的普罗米修斯,中国传统科技神话中的“神农氏”等,借助这些人格主体传达科技造福人类的伦理精神。但同时,通过普罗米修斯的故事也传达了这样一个信息:潘多拉的盒子并不都是美好的,“知识科技造福人类,也可以用它危害人类、扼杀文明”[7]21。 神学意识中的智识思想和伦理理念也蕴含了科技伦理思想,培根的批判和文艺复兴运动让科学摆脱了宗教而获得了独立。
以早期资产阶级的两次科技革命和技术革命为背景,康德、拉普拉斯和达尔文等科学家抽象出了科学家品德、科学伦理学等概念。由此,人类借助哲学将神秘主义转换为可以描述的现实存在。在科学和道德领域,“演进”“演化”等概念得到确认。达尔文和斯宾塞将进化论观点植入了科技与道德问题的研究,马克思和恩格斯以辩证唯物主义和历史唯物主义的立场研究了科技道德现象,为科技伦理学奠定了学科基础。[7]3-4在这个时期的科技伦理体系中,鲜见国家角色的影子。 这种现象形成的重要原因在于科学技术的发展并没有对人的基本价值造成实际影响,科学技术和人类之间缺乏切实需要价值判断的社会基础。 可以这样总结,先机器时代的科技伦理观念多数体现在科学家及先贤们的个人思想中,将科技伦理作为一种法律制度的必要性和现实性基础并不明显,科技伦理更多地体现为个人行为和个体观念,整体因素和国家制度要素并没有得到有效彰显。
机器的运用是科技伦理史的第一次转型,因为先于机器的工具是人的工具,它的使用受到人的器官的限制、受到人的能力的限制。 而在机器时代,工具不再是人的工具,而是一个机构的工具,因而不再受人的器官的限制。[5]122科技的工具面向时代,科技伦理所呈现的是人与自然之间的关系,并不触及人与国家、人与人之间的关系。 在机器时代,生产力对机器产生了依赖,人力也对机器产生了依赖,机器时代的科技伦理具有了探讨价值。 当然,科学技术的应用就有了肯定和否定的价值判断。 从肯定意义上讲,科学技术改变了自然的性质,改变了人与自然的关系,具备了人与自然之间价值关系形成的基础,这在中世纪和文艺复兴以来的新兴资产者思想家阶层的思想中得到反映。 如培根就认为科学有道德的价值,科学的进步会给人类带来利益,“利人的品德我认为就是善……这是人类一切精神和道德品格中最伟大的一种”[9]。笛卡尔也认为科学研究要造福人类社会,通过科学技术,让人类成为“自然的主人和统治者”[7]234。 卢梭虽然被解读为科技是破坏道德观点的代表者,但是他也没有否认科学的社会价值。 圣西门在科技和道德论述中涉及了制度要素,他认为实业是建立在大工业生产的基础之上的,“道德实际上是随着实业的完善而发展的”[10]。 德萨米认识到科技发展对道德的危害,他认为“恶化的气候,糟蹋森林的事情到处可见”,这在公有制下才可以得到解决。[11]这些论述涉及了国家制度面向层面。
科技道德受到经济、政治、军事和文化的制约,这必然会依赖国家对待科技的态度。 早期科技的发展服务于资本,因此,科技的功利性不可回避,功利性和公利性的博弈,容易让科技发生脱离解放人类、发展人类智力的需要,从而,具有了让人类从属于资本发展需要的风险。在机器时代,科技独立于经验,科技的使命是创造财富,技术虽然和直接劳动相分离,但是没有发展成独立改变科技伦理价值的根本性因素。“国家”在与内部和外部世界的博弈中正在向非传统型国家加速演变,政治国家中心主义思潮的衰退是必然的了。[2]现代科技法律伦理的关注点转移到国家的权威上,任何现象都可能存在多维的解释,科技发展会自然地带动国家科技道德认同的发展,早期的国家科技观是国家单一面向阶段,这时候科技的发展表现为科技对国家政治的满足度。人工智能背景下的“人”开始出现成为科技客体的可能,科技既服务于人类,但同时也通过开发自动化武器、生化武器等来伤害人类,科技伦理需要上升到法律制度并实现科技发展的价值引领,人与人、人与社会的关系进入了科技伦理,并需要通过法律制度来保障科技目标的实现。
近代以来,相对论、量子力学、分子生物学等的发展,让人类社会经历了第三次科技革命和技术革命。近代科技革命,特别是在两次世界大战中带来的社会伤害,对道德生活产生了重大影响,这引发了社会对科学社会道德和道德义务的重视。 科技伦理的演变历史共形成了知识和道德等同论、科学与道德排斥论、科技与道德无关论、科学决定论和道德决定论几种观点,这些观点的核心理论都是建立在前三次科技革命的基础上。人工智能发展,特别是超人工智能,提供了不同的理论语境和社会背景,传统的伦理规则受到挑战,导致了根本性的现代流变。人工智能时代,科技法律伦理观需要进行颠覆性的重构,生命价值与政治价值、公权力和人权等的关系是这个时代的核心问题。 公民和国家双面向时代需要思索的问题是国家在科技立法上的价值选择和人类根本价值的保护。从马克思对人类发展规律的认知来看,国家一定阶段的经济发展规律是社会的基础,这个基础以满足人类发展的基本生存条件为前提。 恩格斯在《神圣家族》中提出,人是历史的主体,“历史不是把人类当作达到自己目的的工具利用的某种特殊人格, 历史不过是追求自身目的的人的活动而已”[12]。 因此,在人工智能时代,科技法律伦理规则构建应该从人的活动中来探索规律,要注重科技史和人类历史的区分,在保持两者的独立性前提下进行探讨。
人工智能时代引发了诸多新的思索,如主体和客体关系变得模糊,责任主体虚位化,机器对人类的反向歧视,承载智慧不再是人类的“专利”,自我创造和自我发展具有了非生物特征,等等。制度设计不能丧失对进步和正义可能性的信仰,需要构思在后现代主义和多样化条件下建立连贯的叙事模式。 这就引发出人们对科技伦理的共识守护和秩序谋求的思索。“羊吃人”是机器时代机器对人类的第一次驱赶,但是这时候的科技仍然是人与人之间、主体与客体之间关系的呈现,因此,社会现实和法律制度虽受到影响,但仍能容纳于传统理论框架中。 人工智能时代,特别是超人工智能的发展,让人工智能具有了“人拟”的智慧,并具有了智能产品间的学习和自我创造可能,具有了反向歧视和反向控制的风险,人与人、主体与客体之间的关系受到冲击和挑战,这需要对新时代进行反思与重构。
随着人工智能、物联网、生物技术等新兴技术的发展,通过“脑机结合”让智能机器有意识、会思考,进而实现“人机交往”“人机共生”,甚至硅基生命体的出现并不是没有可能。[13]这对传统的法哲学中的“人”的概念带来了挑战,在科技上的“善和恶”讨论中,坚守人的主体价值成为一个突出的问题,这需要系列的伦理规则予以支撑和体现。 一切价值都是质料的性质,它们彼此相对有一个“高”和“低”方面的特定性质,这不依赖它们的存在形式。[14]人的主体性价值由两个方面组成:个体主义的人和整体主义的人,在人工智能背景下人的主体价值的探讨,主要应该体现人的整体性价值,法律伦理应该关注人类的整体发展需要什么样的科学技术以及科学技术如何有效地服务于这个时代人类的整体利益。现代科技的发展不仅仅影响了法律伦理学的方法论,而且更体现在社会生活的实际领域,科技发展推动了经济和社会生活的长足发展,但是科技发展带来的消极后果加深了人自身的异化。 人格价值的物化和客体化,反映出人在内在化创造的同时又被物质世界外在化。[15]科技发展滋生的社会否定性结果摧毁了人传统的价值理想,道德价值观发生紊乱。 法伦理学的主题是“人”,它以人为出发点和归宿为最高目的的存在。[16]在这个价值坚守中,人工智能等科技发展的实践让法哲学在对法律和科技伦理关系的审视中强化了科技视角,科技法律目标的实践需要道德对法律制度的填充方能实现。
在人工智能时代,法律伦理问题的分析需要通过叙述事实的真相获得可靠的知识并利用这些知识构建社会正义。这种分析不能牺牲对法律事业的整体性理解和缺乏社会功效的社会意识。 社会正义构建需要思考这样的问题:我们在人工智能制度设计上该如何看待我们的制度目的和制度内容,如何看待我们对道德、决策和政治决策的公共性约束,这需要对传统制度价值及制度伦理作出新的解释。 社会生活至少包括两个方面:物理方面和存在方面,在传统的解释方法中,物理方面和存在方面具有严苛的独立性,这是源于科技对传统生物学伦理的遵守,作为伦理关系主体的人被抽象成“存在”的独立承载者,并且在主体确认规则上设立了独立的价值坚守,智慧承载是主体作为主体的核心标志。在人工智能时代,智慧承载规则客观上已经发生了变化,生物学规则面临挑战,在人的主体价值评判上,需要建立新的规则体系。 法律主体资格经历了有限自然人人格到全面人格的发展过程,在人工智能发展中,在目的论意义上,认为人工智能具备成为主体的可能性和合目的性。[17]科技的发展需要服务于人的主体价值所坚守的基本理念,科技的发展不论多么绚丽多彩,但是仍然要服务于这个目标。
对人工智能系统进行伦理设计的根本目标,就是使其能够按照人类认为正确的方式进行道德推理与行动,这是人工智能伦理研究中最为重要也最为困难的内容。[18]亚里士多德认为所有人类的每一种作为,在他们看来,都是在谋求某一种善果,所以他认为“一个城邦的目的是在存进善德”[19]。 科技和科技的价值经历了混沌统一到各自发展的转变,在政治诉求和经济发展制约下,两者的“血缘关系”和同一性遭到破坏。在20 世纪科技浪潮的推动以及经济、政治和军事因素的影响下,科学技术与道德的关系及其在法律制度中的体现成为科技伦理学发展的中心问题,科技和伦理的关系得到普遍的认可。杜威认为,哲学的中心问题是:由自然科学所产生的关于事物本身的信仰和我们关于价值的信仰之间存在着什么关系。[7]417科技伦理规则是人的规则,而绝不是机器的规则,是以约束人为目的的规则,而永远不可能是其他尺度。 科学技术的应用和科技伦理应该是一致的。 科技文明可能的困境并非科技后果,而在于人们是否坚守了科学精神,科技法律伦理需要为未来科技发展提供防御性框架,让个体生命、人类自身和人类发展的目标相一致。这个目标的实现需要借助法律特别是宪法制度来应对科技的变化诉求。承认科学发展过程中文化积淀的重要性这一社会学观点,是对当前广泛流行的关于发明之本质观念的可贵转变。[20]
在人工智能时代,法律伦理规则的使命不仅仅要让人工智能时代科技发展带来的道德规则紊乱能够有效复位,更要避免更加紊乱的情形发生,这在科技伦理的现代流变中能够有效地实现文化、理念的沉淀。 这个时期的科技伦理思想更多呈现的是对人内在存在的挑战,而非科技的外力侵害,是对科技伦理具有更高层次的要求和内在约束,从法律伦理视角而言,法律特别是宪法需要设立科技的边界,通过具体制度来体现科技伦理规则,以保障实现“科技向善”的目标。
人工智能时代的科技法律伦理需要摒弃单向的国家干预,需要在建立个体参与和社会交往的基础上,形成国家和公民的沟通机制,将人工智能的正当性逻辑基础延伸到价值多元时代意识统一性、精神凝聚性和现实对人工智能的濡化当中。 18 世纪,启蒙者曾经高歌人类智慧,为人类灌输“科技就是进步”的理念,但是却没有意识到科技造福人类时也给人类带来风险。科技是通过其他社会规则而影响和改变社会的,在人工智能时代,主体与客体关系、生物规则、智慧发展与承载规则等都是科技改变社会的通道,需要超越传统的社会规则基础进行思索。 在新的社会实践中建立文化共识,避免科技发展导致人的工具化和功利化,这也是科技法律伦理观变迁中的新内容。科技伦理要坚持双面向的制度创新,科技越来越高的自主性却有可能摧毁人类社会秩序。
道德嵌入是人工智能发展中应该遵守的最基本规则。因此,双面向中的国家制度创新,既要反思是否继续坚持人在人工智能发展中的功能定位和基本价值坚守,还要反思是否要赋予人工智能全部和部分人格权利的可能性和空间,以及更要反思国家在人工智能发展中是坚持科技发展的价值中立还是倾向性价值导向。维护社会秩序有两套法则:道德和法律。宪法路径是经由宪法伦理规则转化的宪法价值体系及由其指引构建规则体系,并将共识精神凝聚到宪法秩序中,为价值正义创造公共商讨空间。 人工智能等科技发展引发的冲突已经演变为宪法冲突,科技活动及科技成果的运用渗透着道德因素,因此要处理好科技上“能够的”和伦理上“应该的”之间的关系,科技法律伦理的发展方向对整个社会法律伦理的构建具有重要意义。 科技管理到科技治理的转换需要宪法的定位和价值锁定,需要有人类命运共同体意识,需要有全球意识,并将其凝练为法律制度,让法律的前瞻性消弭制度落后于科技发展造成的制度尴尬。
根据一种广为传播的想法,如今存在的风险问题在种类和规模上都是新的。[21]147符号主义到联结主义的发展, 人工智能的无意识歧视等问题都需要现代背景下的思考与探索,需要将新的法律关系构造规则嵌入人工智能法律伦理规则体系中,以全新的认知与规则去思索人和财产的关系,去探求传统的物理界限与人的关系的新变化、新特征。现代性流变不仅仅需要法律制度体系上的构建,更需要塑造公民普遍人格的教养,形成具有普遍认同的精神追求与价值判断。但是,价值相对主义的确又容易在具体情境中引起价值冲突,要确保价值相对主义的理性基础,就必须对价值之间的关系作出新的思考。[22]
人的创造和发展的前提就是确证人在这个世界上的地位和价值,以及生存和发展的根本依据。[23]人的存在是永远超越生物体自身的存在,这种价值在超人工智能时代仍然需要坚守,在此基础上,需要对公民、社会和国家的关系作出新的反思并通过法律规则让其成为一种制度和一致的行为。事实上,任何人从知道伦理原则,到在实际的技术研发行为中得到正确理解与合理应用,需要一个较长的反思与实践过程。[18]习近平总书记强调:“围绕人工智能、基因编辑、医疗诊断、自动驾驶、无人机、服务机器人等领域,加快推进相关立法工作。 ”[24]现实需要深入审查人工智能背景下社会关系的性质和表征发生了哪些切实的变化,人文的文化背景发生了何种的变迁,然后重新凝练科技法律伦理的规则,并达成宪法秩序的遵守。 科技法律伦理的现代性流变需要有合法性基础,这就意味着需要在价值合理的基础上建立人工智能发展的策略和价值。
人改造社会制度的行为,正如改造自然的行为一样,都是一种使对象“为我化”的过程。[25]科学技术是否独立于人的精神世界是一个值得反思的问题。 从地球诞生起,包含人类在内的所有碳基生物的繁衍都是遵从自然选择的进化规律。[13]科技具有严格的物理形态,科技和精神世界的关系是一个不需要思考的问题,人的界定亦坚守“碳基”的生物学规则。 而人工智能时代,人工智能和生物技术具有了高度融合的可能,精神世界似乎不再单纯是人类的“专利”,人工智能产品具有了意识形态基础,而且人工智能增长的速度已经超过人类智能增长的速度,人工智能时代科技伦理问题的抽象需要突破传统生物规则的限制,物质和作为主体的个人之间的关系需要重新构造,但是这种关系不能脱离法律基本价值,需要建立在基本价值秩序和制度基础之上。
传统的科技立法伦理实际上受一些伦理规则的约束,法律不可能以这种方式对自然佯装不知。[26]6因此,人工智能时代的科技法律伦理规则构建,要实现对传统法学理念的创造性转变。 对于人工智能制度的地位以及责任承担方式等的界定,需要突破传统的理论背景进行讨论。机器人是机器还是人,在法理上涉及主客体二分法的基本问题。[27]无论从民法还是宪法的角度,二分法都认为人之外的生物均归属于物,主客体之间具有不可逾越的鸿沟,但是在人工智能背景下,二分法受到挑战。[28]因此,在界定人与物的关系上,需要谋求新的理论支撑和方法论。人工智能产品主体资格与人的关系,需要做有区别于自然人的设计,并据此进行风险防范的制度体系构建。
科学技术的现实化要建立在一个社会的、沟通上可用的现实结构上,社会系统与技术现实之间的结构性耦合变得习以为常[21]148,这要求在人工智能发展中嵌入透明原则和公众参与原则。 构建基于人类价值维护的科技诚信制度,能够避免可能引发对科技成果受试者或者消费者的利益风险,体现人工智能发展的伦理之治和法律治理。但是,社会与科学技术的耦合中部分还会彼此冲突,这需要降低社会对技术的依赖性,省去那些过度的恐惧和骚乱,避免因为这些情绪引发已经可以预防的不幸[21]150-151,去构建人工智能发展中可能违背重大伦理、科技发展规律的监督机制和成果准入的伦理审核机制。
人工智能需要构建符合科学共识和伦理规范的公众参与机制, 在人工智能发展中,既需要公众的理解和信任,也需要科学共同体的科学共识和社会共识,要“整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”[29]。 在人工智能伦理上,需要在尊重多元格局和理论共识的前提下,实现具有制度内聚力和包容性的伦理规则体系。在这个耦合结构中,法律伦理需要实现对政府在人工智能发展中的价值引领,以确保国家在这个过程中能够有效地保证“价值中立”面向。
人工智能时代科技伦理规则的新抽象要体现三个方面:第一,回答好什么是人的问题;第二,在理论上回应人工智能发展中人的变化;第三,如何通过规则实现人工智能和人的关系问题。在人工智能情境下,仿生人存在是否可以被看作是人类的争议,足以引起我们对于什么是人的思考,并需要斟酌后人类时代主体、心灵、权利、义务等概念界定中是否需要嵌入新的要素。“处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题。 ”[30]生物规则在主体界定上的决定意义引起了反思,法律制度在主体和客体关系的界定上是否可以突破对生物规则的依赖也需要重新进行斟酌。 随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。[27]人工智能让“存在”和物理的界限变得模糊,智慧承载具有新的事实基础,因此,人工智能制度的叙事规则可能会发生改变,这对传统社会的生活规则带来了挑战。目前,我们对于人工智能最活跃的反思主要是对超级人工智能的担忧,特别害怕它会毁灭人类。[31]从生物规则上来讲,人工智能同样具有了生物体所具有的智慧承载能力,且人工智能的寿命远超人类的寿命,其生存条件比人类生存对条件的要求低得多,在智慧传承中必然会引发主体地位的思考。 人工智能知识承载能力为生物体的人类所不能比拟, 这就有可能引发人工智能对人类的反向歧视。
究竟是人工智能更符合人类现有标准才能获得道德地位,还是需要我们修改现有标准去适应人工智能。[32]这个问题的回答要对人工智能道德地位和各种道德权利进行反思,并需要在反思基础上实现制度再造。构建人工智能背景下的科技伦理规则要对智慧承载规则进行重构,需要反思在什么程度上容纳智慧承载规则制度要素。 科技立法的发展需要某种规则认知和规则体系作为制度支撑,例如,关于亲属关系的认定是基于生物规则的认知和遵从,在科技立法中的人的主体地位的维护是基于关于人作为“主体”的内在价值遵守。 传统的科技具有“技术中立性”,它可以独立地按照技术自身的发展去改造世界,但客观的事实却是“技术的目的必然为人的理性活动而服务,它不可能脱离社会而单独存在,都是人的精神活动的产物”[33]。 人工智能特别是超人工智能的发展,在面对诸如是否要赋予人工智能主体资格或者部分主体资格等问题的认知和思索中,在坚守固有的规则基础上,引入新的规则,这需要创造性的改变和对科技发展现实基础的审慎思索,需要谋求足以支撑理论成立的新的价值原则和社会基础。
科技具有影响政治行为的内在特征,但是具体何种特征在任何既定制度或者政策背景中处于主导地位是一个需要研究的问题,且不得随意假设。[34]科技法律伦理的演变具有明显的三个阶段:机器革命之前的法律伦理观、三次工业革命时期的伦理观和人工智能时代的法律伦理观。 天地之间的至善至美,莫过于人与自然之和谐融合,以法律而言,虽然中国法律和西方法律存在传统文化差异,但毕竟都是人类的法律,必然有共同的人性内涵。[26]12以未来定位的科技法律伦理的核心问题是法律伦理规则的构建,因此,在科技法律伦理的构建上,要有必要的价值基础和共识凝练,并需在此基础之上,对人工智能语境下科技法律伦理规则的现代流变进行精准定位,从物与人的界限、国家、社会和公民的关系以及法律制度构建的规则基础等方面进行理念再造,以彰显人工智能时代法律伦理规则的表征、属性和文化变迁。