人工智能技术安全与伦理的思考

2018-02-19 07:36:48峰桥集团
信息安全与通信保密 2018年10期
关键词:机器人工智能人类

( 峰桥集团)

近十多年来,云计算范式的成熟带来了算力的提升,与此同时全球范围的数字化,使得汇聚和共享的数据量呈指数式增长,再加上算法与机器学习通过融合当今物理学、生物学、神经科学和心理学等学科的知识后取得了重大进展。在算力、数据及算法三者的强力支撑下,人工智能技术(AI)异军突起,目前已经广泛的应用于社会、经济和政治生活的各个领域,创造了极高的价值。

具体而言,如AI技术应用于制造业,提高了生产效率;在医疗领域中应用AI技术,促进了医学专家系统,能够为复杂病例提供辅助诊断;投资领域应用AI技术则可以提供复杂的投资决策;数字营销中应用AI技术能够为用户提供定制化的信息;而个性化的数字媒体能够高效地提供信息。总而言之,人工智能在诸多领域表现地比人类更优秀,将引领新一轮数字革命。

当今人工智能技术虽然发展态势良好,也已取得了相当大的成就,但尚未完全成熟,并未出现出类人智能的迹象。从技术发展来看,目前人工智能技术主要局限于使用数据驱动方法来解决特定问题,即其应用类型为面向特定任务而非通用问题。传统的人工智能技术主要基于优化理论及数学建模,优化方法服务于高效解决特定问题这一目标,而数学建模则通过映射来处理输入输出,从而实现模式识别、学习和预测。虽然可以看到AI在棋类游戏击败了人类选手,但应当明了棋类游戏所需智能仅属于人类智力活动的一种,另外棋类游戏具有规则固定、输赢目标也很明确的特点,但在现实世界中,规则首先是模糊、不明确的,而目标则可能是动态变化的。因此当前人工智能技术的发展,距离人们所期望的拥有真实智慧或者实现真正的人工智能这一目标仍然很遥远。人类擅长举一反三,即抽象学习某领域的知识之后,将学习成果拓展到其他领域,就像一个人类棋手会下好多种棋、一个运动健将精于多项运动一样,可以明确的是目前机器远远不能实现此类功能,这是因为机器通常是根据特定的任务目标而设计的,即便某些相似任务之间差异非常细小,但仍然需要对机器重新编程来适应新任务。对于当前人工智能技术的发展状态,我有两个基本判断:

● AI固然能在国际象棋和围棋中击败人类棋手,但它们还无法创造新游戏;

● AI或许能通过大学入学考试,但它们不会问不出什么好的问题;

因此我相信,真实的机器智慧应当像人类一样能通过学习、总结和运用所学的成果来解决跨领域的问题,这才是人工智能技术发展的未来,也是前所未有的挑战,尤其在安全方面还存在算法偏见和算法黑箱的情况下。

当前的机器学习效果易被训练数据的质量和算法中的预设前提两个因素所左右,而更让人担忧的是大多数机器学习并无自主校正机制。算法偏见和数据偏差带来的最终结果是决策偏差、模型不稳定性及结果易被操纵,只要提供不完整的数据集就很容易来操纵训练成果,该问题的教训也很多:如人类采纳由AI推荐的投资建议但实际造成了经济损失、由AI作出的信用评价使得贷款被拒绝、听从AI的医疗诊断但最终导致医疗事故等,当然还有一些在数字营销及选举中都出现过极其恶劣的现实操纵事例,这些现象很难不让人对于人工智能应用的安全性和伦理性进行探讨和反思。数据永远不会尽善尽美,人们也无法穷尽所有自然现象背后的规律来设定一个完美的算法模型,那么我们应当如何让人工智能具备足够的鲁棒性来容忍数据错误和不妥假设呢?首先这是技术问题的本质,也就是统计分析中常见的过度拟合和过度泛化问题。1994年笔者在IEEE神经网络通讯中发表的“一种鲁棒的反向传播神经网络学习算法” 研究成果,即提出针对训练数据不完全的情形来实现鲁棒机器学习方法。

与人们所熟知的决策理论略有不同,使用神经网络学习解决问题的逻辑并不透明,外人通常无从知晓结果从何而来、又为何如此,也就是常说的人工智能黑箱问题,这让人工智能技术发展面临透明度的挑战。

当然更复杂的问题还在于道德、伦理层面,例如在生产中应用人工智能技术能够提高效率和生产力,减少或替代人类劳动力,但这项成果可能最终只会让少数人受益,有违普惠原则。人工智能技术还能被用于操纵人类的行为,常见的事例如游戏成瘾、投票成见、优先行为(preferential behavior)等,在优先行为中,人们将再也不能通过自主选择来阅读或看到自己希望读或看的东西,而只能被动接受算法强推的结果。在前面已经讨论过当前AI的训练过度依赖数据质量,而且不良数据必然导致有偏见的学习成果。退一步说,数据对于训练人工智能如此重要,但在训练和使用过程中应当如何保护个人隐私和数据安全?另外开发人员可能会将自身的思维方式、道德信仰等融入算法中,最终这些算法未必具备可被社会认可的完备道德。更让人担忧的是,如果未来有一天机器人如同人类开始具备感知能力并产生情感意识,那是否应当赋予它们一些人类的基本权利?

对于以上这些问题,我们目前非但没有答案,甚至也没有达成共识。虽然现在已有部分积极开发人工智能技术的企业,也意识到了人工智能技术潜在的安全和伦理问题,基于企业或企业家的价值观提出了各自的原则。如美国微软公司希望确保应用人工智能技术合乎伦理,提出人工智能的六项基本准则:公平、可靠与安全、隐私与保密、包容、透明、负责。谷歌公司首席执行官桑达尔·皮查伊(Sundar Pichai)则通过其个人博客发表了“谷歌七原则”,分别是:对社会有益、避免制造或加剧不公平的偏见、建立并测试安全性、对人负责、保证隐私、坚持科学的高标准、从用途和技术独特性及规模等方面来权衡应用。这些准则既为各自企业开发人工智能类应用提供了原则性思维方法,同时也或多或少存在对超人工智能这类新生物种的敬畏。

本人从事人工智能理论研究工作多年,同时也积极投身技术应用开发的产业界,参与过运用机器学习来分析日志实现数字内容安全保障的志翔科技(Zshield),提供高级驾驶员辅助系统(ADAS)和无人驾驶解决方案的芯仑光电(CelePixel),将AI技术用于风力涡轮机叶片的三维检测的扩博智能(Clobotics)等相关企业的技术应用开发。总结多年的相关理论研究和应用实践的经验,关于人工智能安全提出数点个人思考,我认为人工智能应具备如下基本特征:

● 善为先: 人工智能必须是公正、无偏和普惠的;

● 有担当:人类开发者要承担人工智能所作所为带来的责任;

● 透明化:人们能清楚人工智能作出任何决定是事先已知并可知;

● 可追问:人工智能技术的应用结果应该能够被验证;

● 能预测:人们可以像对待人一样能够预测人工智能的行为;

● 免操控:人工智能解决方案应当完备,使其不容易被操控;

人工智能技术应用日见普遍,保障其安全性并疏解道德伦理风险注定道堵且长,我们现在就开始研讨这些问题尤时未晚,因此抛砖引玉提出个人见解和观点与各位同仁交流,期待相互认同,携手共同促成人工智能技术的安全发展。

猜你喜欢
机器人工智能人类
机器狗
环球时报(2022-07-13)2022-07-13 17:18:39
机器狗
环球时报(2022-03-14)2022-03-14 18:19:44
人类能否一觉到未来?
人类第一杀手
好孩子画报(2020年5期)2020-06-27 14:08:05
1100亿个人类的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
未来机器城
电影(2018年8期)2018-09-21 08:00:06
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29