浅析人工智能安全问题及其解决进路的探究

2018-10-21 21:38张程奕
科学导报·学术 2018年11期
关键词:分类器样本模型

张程奕

摘 要: 适应陌生的环境总是喜欢以记录的方式,虽然已经忘记大学开学时是如何适应交大环境的,但这种记录行为总是被镌刻在脑海中…或许这是某些人群应对新环境所表现出来的独特适应表现吧,或者叫适应性行为。今天一天的工作是以早起开始的,还是不太习惯早起的生活,早上总让人感到有些困倦和不自在…想必是交大大四的生活带给自己的被动性吧…倘若自己的心中怀揣着梦想,自己一定是很早很早到企业去完成自己任务的。查理就是那样的人吧,总归还是要一直不断地努力下去的,不努力的话,会被市场中均值回归的规律回归到基本状态的。

【中图分类号】 TP18 【文献标识码】 A 【文章编号】 2236-1879(2018)11-0152-01

引言:

人工智能的问题开始逐渐地引发了自己产生了一些对薪酬的理解有了一些稍微独特的认识,薪酬的规则设定仿佛也被规律化了,用规律来精准地调控个人的薪水。也开始对真实的工作有个更加深入的认识,但这种认识是之前从未有过的,一种仿佛置身事外以旁观者视角观察整个体系的运转,能非常直观地看到一些问题,隐约地感觉闭环和一些工作流程的欠缺,但尚未想到较好的解决方案,或许时间能让自己逐渐升级成“发现问题”到“解决问题”——很多东西真的是没发展到特定阶段,能看出很多端倪,比如教育的问题,但总是觉得彻底改革教育的势头还未到来,往往最表象的道理,最贴近简单生活实际的调整越需要更深层次的逻辑,必须要对复杂系统有更加深入的了解才有可能深入认识。

一.人工智能安全问题简述

人工智能给我提了一个全局性的方案,是以注塑工艺为核心,原材料,模具,干燥机/控温机/机械手/注塑机的工艺的汇总才能更好地产出汽车/医疗/CE等产品。工业互联网的发展情况,在目前看来,这些都需要进一步的深入学习吧。第一天摄入的信息量还是蛮大的,当然也不指望自己能够迅速通盘地接受这一切,还是需要深入慢慢地理解这一切的缘由。

校园生活的逻辑和职场生活的逻辑是完全不同的了,研究生和博士生已经工作很大程度上是个非常相似的事情,都是为了自己的一个预期或者梦想,不断实现自己的梦想吧。和我同窗的伙伴——查理,工作了三年逐渐明白了这些事情的道理,开始心有梦想地不断努力着,朝着梦想奋斗着…大家都是创一代,在城市化之前,自己的父母没有把握住浪潮,而城市化之后,之前追求KPI的游戏规则也以发生了改变变成了市场规律这个更加强大的武器…我们必须适应这个过程。感觉自己仿佛是突然才明白这个道理的,亦或者是看了《一人之下》后才逐渐才家庭教育和童年教育中对城市化的无感,从小没有生活在大城市怕是限制了自己的想象力和可能性。

二.人工智能安全问题的发展

人工智能的制备方法繁杂,有些方法可以得到高质量的人工智能,但却非常不适合大规模化生产。而且得到的人工智能中会存在各种各样的缺陷,这种缺陷是由制备方法导致的,是不可避免的。缺陷的存在会很大程度上影响产品的化学性质、物理性质。而人工智能中最主要的缺陷包括空位缺陷、表面吸附杂质原子及拓扑缺陷等。人工智能的改良及其改进方向

为了改善人工智能在未来的电子、光子和存储应用中的性能,他们探索出了新方法,并将研究成果发表在最近一期的《科学报告》杂志上。此外,宾夕法尼亚州立大学研究人员带领的研究小组还进行了另外一项相关研究,他们使用掺杂工艺,将外来的原子掺杂到薄膜的晶格中,从而改变或者提升材料的特性。他们将这项研究成果发表在这周的《高级功能材料》杂志上。不仅如此,宾夕法尼亚州立大学研究人员还大大改善了人工智能的掺杂浓度,掺杂解决了两个问题:对于晶体管和传感器等应用来说,它使得材料更加导电;同时,它通过改善所谓的“硫空位”缺陷,提高了材料的质量。团队预测,更高的铼掺杂将完全消除“硫空位”带来的影响。

三.人工智能安全问题的解决方式

(1)安全性和鲁棒性;

安全性和鲁棒性 (security and robustness):在不同环境下可靠的性能,目前的模型既不安全也不鲁棒的一个有趣的原因是它们对「对抗样本」的敏感性。最常见的对抗样本类型是图像像素无法检测到的扰动导致模型进行错误的判断。即使对熊猫形象的微小改变也能欺骗学习模型,让模型认为有 99.3% 的可能是长臂猿。但對抗样本不限于这种图像处理诡计。一些研究人员提出了更广泛的定义:「对抗样本是攻击者故意引入机器学习模型,旨在导致模型出错。」按照这个定义,对抗样本不仅可以用来攻击视觉系统,而且可以用来攻击任何类型的模型。

(2)可理解性和可解释性:

这篇论文来自于 NIPS 2017 大会上由 Google Brain 团队举办的 NIPS 2017 对抗攻击防御比赛。比赛包括非目标攻击 (non-targeted attack)、有针对性的攻击 (targeted attack) 和防御 (defense)。每个类别都使用黑盒图像分类器和类似 ImageNet 的图像数据集作为基础,这里的「黑盒」表示攻击者无法知道目标模型的权重。「非目标攻击」的方法需要对给定的图片进行处理,使得某个机器学习分类器识别其为任意类别,而「有针对性的攻击」的方法需要让某个机器学习分类器能成功将图像识别为属于特定的错误类别。

(3)奖励学习:

对于非目标 (non-targeted) 和有针对性 (targeted) 的攻击类型,清华团队采用已经建立的基于迭代的技术来生成对抗性攻击(「iterative fast gradient sign method」,I-FGSM)并增加了动量项,从而减少这种算法经常遇到的过拟合问题。为了增加这些对抗性攻击在不同模型之间可以迁移的程度,他们针对使用分类器的集成来实现他们的方法。为了防御,清华团队提出了「高阶表征引导去噪器」(HGD)方法。为了消除对抗扰动,该方法改进了现有的与去噪有关的防御机制。HGD 基于这样的见解:在防御对抗样本的过程中,专注于像素级的准确性实际上可能增加而不是减少失真。HGD 使用高级特征指导去噪器防御对抗性攻击。

结语:

在近代一直到现代的人工智能工程的研究和探索,无论是人工智能还是新型合金都具有重大突破,由此可见新材料于我们的日常生活息息相关,与我们的科技发展紧密相连,对未来的电池行业发展、半导体技术革新带来深远影响。但是新材料仍然具有很大的探索价值,对于每位科学家来说都有很长的路去探索。

参考文献

[1] 杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(09):99-104.

[2] 石霖,曹峰.人工智能发展带来的安全问题与策略研究[J].电信网技术,2018(04):15-17.

猜你喜欢
分类器样本模型
自制空间站模型
学贯中西(6):阐述ML分类器的工作流程
模型小览(二)
基于AdaBoost算法的在线连续极限学习机集成算法
一种统计分类方法的学习
直击高考中的用样本估计总体
随机微分方程的样本Lyapunov二次型估计
圆周运动与解题模型
离散型随机变量分布列的两法则和三模型
基于支持向量机的测厚仪CS值电压漂移故障判定及处理