郭毅可
人们对人工智能的发展抱有很大期望,实际上人工智能的发展才刚刚开始,有许多重要的问题需要研究。从这个意义上来说,更需要用冷静的头脑思考它的发展方向,来考虑一些根本性的问题。
人工智能的发展必须有三个方向的合力支撑,一是高质量的数据资源,即通常所说的大数据为基础;二是处理数据非常好的学习算法;三是支撑算法的强大算力。
那么,怎么获得所需大数据,就需要有一个很好的基础架构,也就是需要有一个很好的数据生态环境,数据资产化技术,以及飞速发展的区块链技术。
如何把人工智能运用到实际过程中去,用到生活中去?中间则需要一个非常重要的能力——交互能力。在人和机器交互的时候,不同于人与人的交流,需要有新的形式,这也是支撑人工智能发展的一个重要因素。如果不重视这个因素,那么人工智能的发展就不可能健康,也很难取得进步。
从认知学角度看机器学习
所谓的机器学习就是机器获得知识的能力,谈到机器学习的进步与演变,前面说了三个方向,数据量、算法越来越丰富,还有就是算力越来越强大。这三个方向同时作用,导致了今天获取知识的方式,从手工获取不需要数据量,到可以向机器描述一些逻辑规则,把知识直接告诉它们。还有一方面是中数据量,来进行机器学习,建立一些中等数据量的模型。最后是数据挖掘,一直到深度学习,主要是靠大数据量、一个比较复杂的算法、超强的计算能力来支撑的。其中很重要的一点,就是知识获取的自动化程度越来越高。
对于机器学习有很多说法,也有很多数学模型,但是说到底,机器学习和人脑学习的基本逻辑和基本过程是类似的。首先通过观察来获得信息,也就是观察结果数据,知识是通过模型来表达的。人脑里的知识也是一种模型,对世界的看法,通过观察获得抽象看法。在这样的模型中,做什么事情呢?对这个世界要做学习判断。如果说我们观察到的和大脑得出的判断或者说某种预测相一致的话,这个时候就认为模型是正确的,不需要做太多的动作,只是得到一些验证。但是如果说这个模型和观察不准确,就会出现所谓的预测误差,这个预测误差会导致人做出几件事情。第一件事情要改变模型:相信观察是正确的,于是就要对模型做一些变化。还有一种可能,就是认为模型是怎么样的,要做什么改变,这个不一致就导致了我们对这个世界要做一些改变,改变认知是学习,改变世界是行动,这就是认知学对机器学习的理解。
机器学习的表达形式找到效用函数
我们在大脑当中有表达形式,在现在的机器学习上,表达模型的形式基本上就是一个函数,也就是说学习的目的是找到这样一种函数。这个函数使得结果和观察比较一致,这就表达为一个公式,误差最小化。学习的目的一个是找到函数的形式,一个是找到函数的参数。不管学习是什么样的,工作的目标都是一致的,就是找到这样一个模型。所以说,学习是一种过程。
现在,我们就要问几个问题,在这样的学习框架下,如何向机器表达,反过来讲就是刚才所说的一个很重要的前提,要用机器表达学习的目的,可以用一个效用函数来表达,要么最大化要么最小化。一个函数A可能是一个参数,或者说是一种行为,或者说是强化学习,如果是一般性就是一个参数。在已获取这个参数的情况下,确定一个X概率,要求平均的损失是最大或最小。如果收益最大,首先要去确定一些参数,目标参数体现平均损失和平均收益是最大还是最小。如果损失最小,则收益最大。这个时候要求函数和观察之间的误差最小,强化学习就要求最大,强度最高,对于不同的行为要求平均的奖励是最高的。这就是效率。
人如果要求机器做得更多的话,不仅要达到最好的结果,同时要满足一定的伦理要求,这样的话用这样的效率函数来表达是非常不容易的。
效用函数求优
找到最大或者最小的参数,先不讲求优的过程,未必能找到最优的结果,可以用算法来保证。第二个问题在于这样的模型,因为数据观察的弊端改变,实际上这种模型需要迁移,也就是说模型本身需要不断变化,这个时候就有一个很大的問题,就是模型的进化,数据变化之后能不能优化。还有一个很大的问题,求优的过程是学习的过程,这样的过程往往是很难理解的,求优时候的含义我们并不清晰,所以怎么办,为了求优,必须调整参数。这些调参,怎么样改变,有点像炼金术,我们并不知道,这些都是会导致很大的问题,首先第一个模型是不是可以进化,第二个这个学习过程是不是能够被解释,这些都是很重要的问题。
机器行为
这个行为是指人对机器的感知,这时就有很多问题,比如说机器和人一起诊断看病,这是对行为的一个很大的要求,要行为能够解释,我们能够验证正确性。行为与决断是不是正确,为什么我要相信你,还有一个很重要又特殊的军事应用,怎么样保证整个操作,什么时候可以开枪,什么时候必须考虑到平民伤亡等,这些都是非常重要的行为准则。
讲到机器行为,我们可以稍微做一个抽象的解释,即行为四要素。
一是行为的目的。是不是能够按照人的意图去改变周围的环境,这个非常重要。也就是说你的目的是好的还是坏的,是合理的还是不合理的。
二是行为的原则。做事情的基本原则,你知道什么是错的,什么是不能做的,是不能违背人类伦理和规范的。
三是行为的结果。结果是不是你应该做的事情。
四是行为的依据。你得出来的结果是为什么得出这样的结果,根据是什么。
机器学习应用的伦理思考
政治。撰写一个新闻,原则是不是可以被理解,这个原则是不是合理的,怎么对新闻的生成算法有可靠性。还有就是法律,如果机器人对一些案例做一些机器判断,有没有偏见,是否有不可预测的后果,也就是说实际上这样的投放会导致什么问题,原来犯罪率很低的问题犯罪率高起来怎么办?
营销。推荐系统要考虑对消费者的损害。有一个说法是过于泡沫。一直向我推荐我喜欢的,于是乎就形成了一个泡沫,我只喜欢原来喜欢的东西,我自己给自己构造了一个局限,这种事情是不是合理。
金融。算法定价的原则是什么,是价格公平吗?还是说竞争,是否会造成恶性竞争或者价格战?我们都知道买飞机票都有一个算法定价问题,因为算法定价常常会造成一个很大的矛盾,看到下雨了需要打车,某种程度上来讲,是商业利益最大化,伦理上是不是正确?这些都是很重要的必须考虑的问题。
智能汽车。真正要投入使用,倒不是技术难点,加上自动驾驶最大的问题是路权选择,谁有权用这个道路。如果两辆车一起开,必须保证对人的伤害最小,如果说人和机器在同一个路上的话,人知道有一个基本原理,可以恶性和机器进行较量,这样的话车永远开不了。这种情况下怎么解决路权选择的问题,人开的车和机器开的车怎么做路权选择。城市管理不可能缺少道路交通管理,这些方面的平衡,人工智能怎么来做,也是一个非常重要的话题。
机器诊断。诊断是否可以验证,健康监护,各种错误的代价,对于紧急情况如何做应对,这些都是很大的问题。
社会信用体系与社会交流。信用低的人被剥夺权利,是不是在管理中是真正合法的?如果说真的做交流的话,未必改变社会关系的组成架构。聊天及其对聊天者的心理影响、机器人是否会改变人类的自然感情,这些问题都是我们理解机器行为的非常重要的一些例子。
机器学习的对与错
这可以从两个方面来看。一是如何向机器表达对的目的,也是未来的重要问题。未来的人工智能,我们不求让机器做得多,而是要求机器做得对。做得多应该是相对容易的,但是要机器做得对,就不那么容易了。什么是要遵守的行为原则,如何向机器表达对的目的,告诉他怎么去做事情,怎么准确有效告诉,怎么清晰告诉,也就是如何传达真实意图,这是一个方面的问题。二是如何判断机器做得对不对。假定说已经做到清楚表达,以前的结果和现在的结果会有一个验证。理解机器做得对的缘由,机器行为的解释和验证,都需要论证。
那么,如何从两个方面去理解呢?这需要做以下判断。
什么是对
这是最困难的,它涉及人工智能的伦理问题,或者说是一个哲学问题。这其中有很多的原则,因为对于什么是对的,在不同的社会环境和价值体系中是不一样的。但原则上,首先是要有利他主义,什么意思呢?不是利己,是帮助人类,而不是有益于自己;第二是谦逊法则,这需要把人类价值最大化,人类价值到底是什么可以有不同理解,但底线是不能够凌驾于人类之上;第三是学习能力,不仅是自身学习,也可以观察人类来进行学习,或者说用机器语言来间接学习知识和数据。
如何表达对
什么样的效用函数可以表达我们的目的,这是指模型形态,而不是指控制行为方式。效用函数是合理的或者说有效的方式吗?用一个效用函数来做人工智能,怎么衡量一个行为,怎么定义这个行为,人工智能是怎样理解的?通常所说的最大自由化是好现象吗?每个个体的最大自由化就是无政府主义了。验证相关函数的证据是什么?机器行为可以用效用函数来完全确定吗?经济学有两个重要研究:一个是代理人原则。机器人代理了我们的事情,找任何代理人的时候都碰到一个矛盾,要确定这个代理人是以你的利益最大化为原则,还是以自己的利益最大化为原则。比如说我们找律师,这个律师到底是为我打官司,还是想把问题搞的更复杂一点。另有一个是不可预知原则,你表达的事情是好事情,但是往往得到不想要的结果。这两个原则都使得我们要认真思考,如何向机器表达我们的真实意图。
如何判断机器的正确度
第一个验证方法就是看目标是否一致,另一个是求得最优。
这其中存在两个场景,如果以两条曲线来表达,一个是更精确,另一个是敏感度更高。这两个并不是一个事情,有一個是假定模型。这个模型很有意思,有哮喘的肺炎患者,死于肺炎的可能性较小,这合理吗?不合理。如果有哮喘应该死亡率高,为什么反而低了。因为有哮喘很快就会受到正常的照顾,这样的话反而容易生存,所以说数据不足。这就可以解释,为什么90%的AI结构都是没有经过验证的。
现有的深度学习模型不能向用户解释其行为,设计者也无法理解其行为过程。其中有很多研究,有一些早期的工作,比如说现在要应用一个深度神经网络,去判断这是什么动物。但是有一个很大问题,在学习一个模型之后,给出斑马图形,可能就判断出行分布。这个时候怎么来学习,把一些图片特征编码,明确每一段编码或者数字代表了什么含义,这样就可以通过一个学习方法,把人的特征一起进行学习。这就有一个很大的好处,等于做了人的标注。如果说这些过程最重要的原则是用空间来解释,我们正在做的工作就是把这样的概念再扩大一些。
在人机共生的社会中,人和机器的互相交流是最重要的,人要理解机器的行为,机器要理解人的意图。对机器行为的解释、理解和验证,以及机器行为的伦理性是人工智能研究的核心课题。学习的可解释性是一个方向,还有一个方向就是向机器表达,对机器行为的解释和验证,以及机器行为的伦理性是核心问题。在没有解决这些问题之前,或者说这些问题没有被深入理解之前,奢谈人工智能将会怎样,人工智能会不会导致机器统治人类,目前来讨论尚为时过早。
我们不要神话人工智能,它是实实在在的算法;不要害怕人工智能,它是不可避免的未来;不要轻视人工智能,它会改变我们的社会;不要忽悠人工智能,它不是靠钱可以堆出来的。
我们要以东方文明特有的包容来研究和应用它,把它作为社会新的存在,想清楚如何和它共处。
(根据作者在第三届上海人工智能大会上的主旨演讲整理)