“华智冰”来了,完美机器人还远吗

2021-08-06 03:11法人姚瑶
法人 2021年7期
关键词:清华大学伦理机器人

文 《法人》全媒体记者 姚瑶

近日,一名女生在清华大学校园中漫步的视频引发关注。视频中的女生叫“华智冰”,是一名人工智能虚拟学生。作为中国首个原创虚拟学生,“华智冰”将入学清华大学计算机系,师从清华大学教授唐杰,开启在清华大学的学习和研究生涯。

对于人工智能实体化问题,唐杰在“华智冰”成果发布会后对《法人》记者表示,这是一个比较有争议的话题,人们对于“实体化”究竟能为AI 带来多少智力上的改变看法不一。

AI更重视“大脑”功能

6 月15 日,记者从清华大学计算机系“华智冰”成果发布会上了解到,视频中“华智冰”为真人模拟拍摄,实际为数字虚拟人,目前没有实体。研发团队通过计算机建模并根据具体需要,对她身体各部位进行了重构、着色渲染,又通过不同算法实现不同动作。目前,“华智冰”已具备作诗、作曲、做考题的能力,但还没有达到人类的最高水平。

会后,唐杰告诉记者:“我们一直在探讨是否需要实体化,但还没有得出结论。我们尝试制作了一些实体,但很多人认为这并不代表她是一个真正意义上的实体机器人。”

“现在,实体机器人已在很多酒店、餐厅普及,我预计十几年后会在更多场景普及。当然,完全类似于人的实体机器人未来也会有很多,但人形并不是终极目标,我们更注重功能。”唐杰表示。

唐杰告诉记者,AI 主体思维强调人工智能的“大脑”。随着时间的推移,“华智冰”会在新场景学到新能力,变得越来聪明。

人工智能是研究、开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门技术科学,这一概念在1956 年被提出。中国人工智能起步较晚,萌芽于上世纪70 年代末。近年来,随着互联网蓬勃发展及技术创新和应用,中国人工智能进入快速发展期。

艾媒咨询数据显示,2020 年人工智能行业核心产业市场规模超过1500 亿元,预计在2025 年将超过4000 亿元。生产/制造是应用人工智能技术感知最强的环节,占比达57.3%。交通场景和医疗场景是受访网民最常接触的人工智能应用场景,分别占比45.2%和40.5%。

艾媒咨询分析师认为,在生产制造业中,人工智能技术极大地提高了生产效率和企业的服务水平。中国人工智能产业在各方推动下进入爆发式增长阶段,市场发展潜力巨大。未来,中国有望发展为全球最大人工智能市场,应用场景范围将持续扩大,深度渗透到各个领域。

“机器坤”和蔡徐坤

“完美机器人”或将替代人类工作

在人工智能运用更加广泛的背后,似乎也存在某种隐患。此前,记者曾采访小i 机器人创始人、董事长兼CEO 袁辉,他告诉记者,很多人工智能企业的终极目标是打造出一个“人”,它或许看上去和人类没有区别,且拥有自己的大脑和思维能力。

2020 年9 月,在一档名为《叩响明天》的节目中,EX 机器人实验室对艺人蔡徐坤进行了人脸、声音等数据采集,通过利用三维建模、3D 打印等技术手段,做出其原型和内部骨骼结构,又利用机械臂将内部骨骼与外部皮肤进行组装,成功做出仿生机器人“机器坤”。

“机器坤”不仅外形极其逼真,连说话的声音和语气同蔡徐坤极为相像,在蔡徐坤本人初次看到时也惊叹不已。而后,蔡徐坤与“机器坤”进行交流,沟通十分顺畅,这看上去似乎满足了人类打造完美机器人的梦想。但是,这是否意味着“完美机器人”将替代人类?

“反思一下,从晨起到日落,我们的生活是否每天像机器一样运行?”袁辉认为,若机器人时代来临,重复性、机械性强的工作将首先被替代。“是人类自己打开了潘多拉的盒子。”袁辉说,“人类最可怕同时也是最伟大的地方,便是想实现什么,就一定能实现什么。”

从某种角度来看,的确是这样,人类想随时与他人沟通交流,发明了手机;人类想要探索月球,多年前实现登月;人类想上火星一探究竟,又实现了火星探测……随着人类对人工智能领域的不断探索,或许比人类更聪明的机器人也会到来。人类一边期盼着有一天同机器人无障碍交流,一边又担心它将替代人类本身。兴奋、期待的同时夹杂着某种担心,人工智能便在这样复杂、矛盾的情感中不断发展。

在“华智冰”成果发布会上,记者曾向研发团队提出疑问,从社会伦理角度看,“华智冰”等人工智能是否存在隐患?应如何规避?

清华大学计算机系副教授刘知远对此表示,清华大学法学院计算法学有很多相关探讨,在未来会是一个重要话题,但目前不涉及太多伦理问题,团队会严格限制“她”与公众交互内容和形式。他表示,期待“华智冰”未来达到一定的智能程度。

AI伦理和法律问题亟待破解

在不少科幻影片中,机器人产生自我意识后,不再甘心充当人类的工具,它们与人类的关系充满了“火药味”。由此,人类开始感到担心并产生疑问:人工智能探索的界限在哪里?从法律角度看,应如何监管人工智能行业?

2016 年12 月,标准制定组织IEEE 发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,旨在鼓励科技人员在AI 研发过程中,优先考虑伦理问题。报告指出,AI 发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。

2017 年7 月,中国发布《新一代人工智能发展规划》,指出人工智能发展的不确定性将带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。

南京邮电大学教授、工业和信息化部信息通信经济专家委员会委员王春晖曾在《人工智能的伦理、法律与监管》一文中分析,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。

王春晖认为,AI 在其发展进程中面临的最大问题不是技术本身,而是AI 的伦理和法律问题。我国应当建立健全公开透明的人工智能监管体系,重点应当在AI 的设计问责和应用监督并重的双层监管结构上做充分准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强AI 协同一体化的管理体系,加大对AI 领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

王春晖指出,人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注AI 模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立AI 的可追溯和问责制度,明确AI 的设计者、控制者、使用者等相关法律主体的权利、义务和责任。同时,他呼吁,AI 算法必须确立法律的可追溯性原则,AI 行为决策全程应当处于法律监管之下。

猜你喜欢
清华大学伦理机器人
《心之死》的趣味与伦理焦虑
清华大学:“如盐在水”开展课程思政
《白噪音》中后现代声景的死亡伦理思考
我的清华大学自主招生经历
伦理批评与文学伦理学
华语科幻电影中的“伦理性”想象
机器人来帮你
认识机器人
机器人来啦
一道2009年清华大学自主招生数学试题的思考