李彦宏双创周释疑“新动能”

2017-11-18 20:11
科技创新与品牌 2017年10期
关键词:新动能李彦宏层数

2017全国双创活动周在上海拉开帷幕,百度创始人李彦宏作为“双创”领袖代表在启动仪式上致辞。在发言中,“人工智能忠实粉丝”的他除了介绍了AI技术对于创新创业的推动作用外,还提到了一些神秘字符——

9月15日,2017年全国大众创业万众创新活动周在上海举行,百度创始人李彦宏作为企业家代表进行发言。

今年活动周的主题是“双创促升级,壮大新动能”,在描绘“双创”升级之路时,李彦宏表示,近年来互联网的人口红利已经逐渐释放殆尽,但一个比互联网规模和影响都更大的新浪潮,正在扑面而来,就是人工智能。

李彦宏在发言中提到:技术在人工智能时代起到的作用非常大,而且技术进步的速度也很快……过去几年,深度学习从DNN,到RNN,到CNN,再到GAN,不停地在升级换代,触发新的创新。

掐指一算,这段话里一共出现了7个N。人工智能技术虽然现在已经不是新概念,但这些N究竟是什么意思?DNN(深度神经网络)、RNN(循环神经网络)、CNN(卷积神经网络)、GAN(生成式对抗网络)究竟代表了什么技术,为何最近人工智能技术会飞速发展,结合到人工智能的未来又将会如何呢?

李彦宏说道DNN、RNN、CNN、GAN其实都是深度学习的内容。这些名词听上去高深莫测。其实道理并不复杂——

DNN是啥?

所谓神经网络其实这个词是后来的,最早这个东西叫感知机,就是有一个输入层,一个隐含层,一个输出层。通过算法迭代完成一个解。

但是只有一层是处理不了复杂函数的,于是后来就发明了多层感知机,有多个隐含层,然后有算法让各个层的各个节点互相联通。

这种联通很像人体中的神经,于是这种多层的感知机就有了名字,叫神经网络。

理论上,隐含层当然是越多越好,但是科学家在使用中发现层数多了往往是局部最优。

就好比你下象棋,多层数的神经网络,算了很多步,计算怎么把对方的马吃了,然后选了最佳一步棋。但是下棋是杀死对方的帅啊,吃掉马能占据子力优势,但是并不一定赢啊。

为了吃掉对方马的最优步,不一定是赢棋的最优步,这个问题不解决,层数多了反而不好用。

同时层数多了,训练数据的有效性就弱了,整体学习的效率也就不行了。

这个难题一直到2006年才解决,然后DNN(深度神经网络)就流行了。

DNN引出的CNN

DNN已经可以实用,但是DNN的问题是参数太多,每个点连接产生的数据量太大,虽然有算法改良还是容易陷入局部最优,而现实中有些东西是固定,不需要一层层地去学习计算。

于是,科学家就提出一个叫“卷积核”的东西,用这个东西来降低参数量,参数量少了,计算效率就提升了,而且陷入局部最优解的概率也就下来了,深度计算就好用了。

时间问题引出的RNN

全部连接的DNN存在一个问题,就是没法按照时间序列的变化建立模型。但是人工智能深度学习的东西可不是静态的。

语音识别是动态的,手写也是动态的,需要解决时间序列的问题,于是就有了RNN(循环神经网络)。在DNN的基础上发展出时间戳,发展出长短时记忆单元,可以有解决时间序列的应用,这就是RNN。

以假乱真的GAN

GAN(生成式对抗网络)是给生成模型用的,机器出来的语言,图像能够以假乱真,需要一个标准,需要一个判定模型。譬如要模拟生成一张画,就有一个生成画的模型,有一张事实存在的画,有一个判定生成的画,与事实存在的画差异的模型。

首先固定生成模型,反复训练判断模型,让判断模型学会判断,判断模型学习好了,就可以训练生成模型,最终让生成模型生成的东西能以假乱真。

我们听到百度度秘能模仿人说话,就是这种技术在起作用。

在李彦宏看来,随着人工智能技术的进一步开放共享,它也将更好地賦能产业、完善生态、助力创新创业。在人工智能实际应用中,李彦宏说的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,识别你的面孔需要CNN,听取你的语音需要RNN,回答你生成语言需要GAN。

而在包括人工智能技术这些新动能发展起来之后,现代社会中简单的劳动都可以被取而代之了。endprint

猜你喜欢
新动能李彦宏层数
填筑层数对土石坝应力变形的影响研究
上海发布药品包装物减量指南
李彦宏的调侃
MoS2薄膜电子性质随层数变化的理论研究
李彦宏的AI观
加快传统产业技术改造,积极培育和壮大新动能
鲁企“新动能”
培育县域经济增长新动能
住在哪一层
李彦宏冒险之前先算一算