未来智能:人有人用 机有机用

2021-04-17 17:15
中国科学探险 2021年6期
关键词:人机合法性平行

迄今为止,人工智能(AI)发展的特点是基于逻辑和计算不断迭代,从逻辑智能转向计算智能。逻辑智能的核心是基于逻辑的各种推理方法,专家系统和Lisp机是其发展的高峰。如果说逻辑智能是AI 1.0,计算智能就是AI 2.0,其始于控制论和认知计算,从20世纪80年代中期开始大规模使用的多层神经元网络,一直发展到现在的深度神经元网络,是当前人工智能的主要突破。那么,AI 3.0——未来智能将走向何方?

人工智能3.0:人机与虚拟互动交互

本文认为,AI 3.0是人机与虚拟互动交融的人工智能——“人机混合虚实互动的平行智能”,即处于边缘端的机械的、生物的智能,会产生有限的数据,再通过云端的云计算产生大数据,最后云计算把大数据变成精准的深度智能,再返回边缘端的生物体、物理体或机器人,就是Small Data-Big Data-Smart Data。这是一个循环的过程,是从边缘端的涌现到云雾端的收敛,这一“涌现收敛”也是复杂性科学的核心理念。AI 3.0的普及应用能够服务社会,而不是像某些专家宣称的那样会导致失业。它会让人类生活得更好,让人与机器各司其职——“人有人用,机有机用”,从专业分工,到人机分工,进而虚实分工,从而创造一个更加和谐的社会。

例如,AI 3.0在无人驾驶中的体现就是“平行驾驶”——把有人车、遥控车、网联车、无人车等,用“平行车”统一起来。即各种实体车辆在路上行驶的同时,在平行的云端世界中,同样的虚拟车也在行驶,并通过云计算生成最优的行驶策略,从而控制实体车辆的运行。尽管有人车在速度、效率、安全性以及环境污染方面存在缺陷,注定它最终会被无人车取代,但我们不能急功近利,盲目普及无人车而付出惨痛的代价。个人认为应该用二三十年的时间,从AI 2.0发展到AI 3.0,平稳过渡到无人车时代,这是普及无人车的唯一途径。

解决两个问题:可靠性和合法性

未来智能的发展及真正推广应用还要解决两个问题。第一个问题是AI的可靠性,包括它的可解释性。AI的可解释性归根结底就是人工智能的可靠性。第二个问题是AI的合法性,尤其是在对个人隐私的保护方面,这已经引起了许多国家的反思和重视。当AI结合了区块链等技术,可以从技术层面解决这些问题。然而,用法律体系来规范AI系统的构建和应用才是關键,必不可少。

AI正在改变人类的未来。我们需要改变教育模式,培养面向未来的AI人才。就像传授“四书五经”的私塾教育无法培养现代工业所需要的新型人才,目前全世界的教育体制都落后于智能技术发展。

对于未来的AI人才,本文认为应着重培养3种思维:首先是复杂性思维,因为AI本身就属于复杂性科学的范畴,要用整体的视角去看AI技术,这非常重要。其次是跨学科思维,因为AI要普及应用,就一定会涉及多学科、交叉学科和跨学科的知识。最后是系统化思维,AI真正要普及应用,取得可接受的可靠性、可接受的合法性,就一定要有系统思维,就像我们有“系统工程”一样,我们也要有“系统智能”。

猜你喜欢
人机合法性平行
探求线面平行中平行关系的寻找方法
向量的平行与垂直
平行
从内到外,看懂无人机
Westward Movement
国办:确保所有行政规范性文件均经过合法性审核
平行板电容器的两类动态分析
人机对视
水下无人机:解锁钓鱼新姿势
关于政治合法性研究的文献综述