姜 涛
(海南政法职业学院,海南 海口 571100)
在线内容安全、组织管理安全、系统安全都是网络安全领域中易发生的安全问题。人工智能也属于网络安全领域,其安全风险也在逐渐凸显,如:在线内容安全相关的一些数据问题,这一安全问题直接影响了人工智能的可靠性和后期的使用效率,尤其是我国在进入人工智能时期后,加大对人工智能数据安全风险的治理至关重要。
企业利用人工智能做出各项决策时,会受到训练数据污染问题的影响做出错误的决策。数据投毒主要是对数据的完整性进行破坏,通过在训练数据中加入恶意的样本和伪装数据样本,使得训练的算法模型在做出各项决策时出现偏差。目前,很多人借助人工智能与实体经济融合的机会,纷纷在金融行业或者交通行业等行业中注入一些利于自己的伪造数据,这一行为属于恶意注入的行为,通过在训练样本环节中加入一些假的信息,造成安全问题的发生[1]。例如:机器人中投入训练数据的“剧毒”,导致机器人极易发表不当的言论或者攻击性较强的言论;智能汽车领域中投入训练数据剧毒,很容易造成严重的交通事故或者使得一些车辆出现违法的行为。主要是因为一旦智能系统发生紊乱或者运行出现错误时,将会使运行阶段的数据发生异常,导致系统做出错误的决策结果。例如:生物特征识别面对不同的场景时,对抗样本攻击就会发出欺骗的信号,对人工智能技术身份鉴别产生诸多的影响。在2019年,比利时鲁汶大学为了躲避人工智能视频监控的系统的监控,使用一张打印图案就完成了操作;高清3D面具能够进行人脸的识别,给网络支付带来了不良的影响。另外,人工标记数据的覆盖面积不足、训练数据或者测试的数据发生同质化的现象,将都会影响到人工智能的算法能力,智能系统也无法在这种情况下做出正确的决策。例如:某汽车在驾驶时会受到无法识别白色货车的影响,容易发生交通事故。
开源学习框架主要集成了大量软件包或者资源库等,这些组件并没有取得安全认证或者接受测试的管理,其安全漏洞依然存在。例如:攻击者就可以借助这些漏洞(Torch、Caffe)对人工智能系统数据中有价值信息进行窃取和随意的篡改。
第一,恶意使用人脸识别技术。人工智能系统在应用时会对个人数据进行过度的开采,进而产生过度采集的风险。尤其是智能设备的出现,智能手环、智能音箱、智能医疗系统、识别系统等在逐步使用和普及下,人工智能系统会对个人的数据采集产生不利的影响,如:人脸、指纹或者基因、声纹等都属于个人的生物特征信息,这些都是永久不变的,当出现这些信息发生泄露的情况时,公民的权益也会受到不良的影响[2]。例如:某人脸识别公司就曝出数据泄露的情况,该公司在2018—2019年,一年的时间里就泄露了250万条个人的数据信息,这些数据信息中主要包括人脸识别的图像或者身份证的信息等。
第二,数据深度伪造技术的发展也带来了不良的影响,严重威胁着社会治安和国家安全。因此,深度伪造数据内容如果大量的传播和生成,其很容易造成生物特征识别技术可信度下降,这也属于网络攻击的范畴。尤其是换脸换声技术在不断地进步和发展后,很多伪造的图片或者音频等不断出现,有不法分子将这些伪造的信息用于勒索或者伪造证件等[3]。例如:2019年首例出现的电信诈骗案,其主要是基于变声技术,威胁了被害人的财产安全。
第三,语音识别技术也存在着诸多的安全问题。之前所发生的诈骗案,很多犯罪的分子都是运用一些假冒的身份以博取受害者的信任,这一手段相对落后,对于一些警惕性较高的人员而言,不会发生受骗的情况。现阶段,犯罪分子们借助智能语音技术,通过运用语音合成的系统,对特定对象的声音进行模仿,这样做的目的就是能够达到难以辨认真假,进而让受害者陷入谜团。
为了能够解决数据偏见或数据权属的问题,我国需要不断丰富人工智能数据资源的建设,在发展中对安全问题提出解决对策。在构建适合我国国情的数据流通共享机制后,能够对数据交易市场进行培训和不断规范,在积极地对数据进行交换后,能够提供更多有价值的数据资源。同时,加大对人工智能数据的安全治理力度。首先深度对人工智能应用场景下的一些技术进行研究,提升安全防护技术的有效性,从而使得人工智能技术能够更好地应用到数据安全治理和网络攻防的对抗之中,帮助个人能够及时和提前对数据安全风险进行感知和预防,降低数据智能窃取行为的出现。
人工智能领域中所出现的安全风险问题需要引起人们的关注,在制定相关立法进行监督后,国家方面需要明确好不同主体在使用人工智能阶段所享受到权利或者最终所要承担的责任,例如:数据安全问责制,救济的制度等。并且针对一些出现数据过度采集或者数据发生偏见、资源恶意使用、深度伪造信息等情况,如何运用法律法规等进行治理,例如:针对一些恶意使用数据、盗取数据的人员给予严厉的惩罚[4]。另外,针对安全问题建立部门规章制度。不同领域所出现的安全风险问题较为突出,通过采用不同领域的不同人工智能算法,以对出现的安全风险问题进行解决。
首先,针对人工智能数据的安全问题需要加大监督的力度和做出合理的惩罚。依据国家法律法规等,对于数据过度采集或者数据资源的滥用等行为开展有效的监督和检查,采用线上和线下共同监督的方式;采用社会公众监督或者技术手段监督的方式及早发现这些不良的行为(网络攻击或者数据深度仿造),以加大惩罚力度。其次,对人工智能数据安全检测行为进行有效评估。针对一些人工智能产品,需要依托第三方的机构和信息安全检测评估的平台,制定数据安全检测评估方法,在测试和验证后使人工智能产品的安全性更高,并具有较高的成熟度,进而使得人工智能数据安全风险得到有效低。最后,建立人工智能数据安全监管的工作体系,及时对出现的人工智能安全风险问题进行监控,在进行全过程扫描后能够有效识别出其风险、威胁和脆弱点,通过构建风险数据库,对人工智能技术的应用和发展给予高度的重视,使得国家安全得到有效维护。
想要建立起人工智能数据安全保护的核心技术,首先就要开展理论学习和技术的研究工作,例如:在国家专项资金的支持下能够在研究活动中掌握人工智能数据安全风险机理和防御理论。同时,对自身存在技术,如:智能开源学习框架进行不断完善,在建立研发平台后,能够让企业人员学习更多人工智能开源学习框架,并给予技术上的支撑。并且,还可以根据市场的优势,形成人工智能开源的产业链,建立以该平台为主的生态圈。另外,我国还需要培养一批专业的数据安全技术研发人员和安全风险防控人员,在加大引进和培养的力度下能够为解决安全风险问题提供人力上的支撑。
人工智能在高速发展的同时也带来了一些安全风险,及时对存在的安全问题进行识别和解决,才能够凸显出人工智能在各领域应用中的价值。由于人工智能数据风险存在复杂性和社会性等特征,我们在进行有效治理时可以通过法律手段、政府支持、建立制度、创新技术、加大行业规范和监督力度等,建立有效治理体系,为人工智能的创新发展提供良好环境。