2020年全球人工智能发展相关风险分析

2021-11-25 20:43张弛
科学与生活 2021年16期
关键词:个人信息领域人工智能

人工智能是一种理论、方法、技术和应用系统,它使用数字计算机或由数字计算机控制的机器来模拟和扩展人类智能,从而感知环境,获取知识并利用知识获得最佳结果。 随着人工智能技术现在正得到越来越多的应用,其风险也越来越受到人们的关注。

一、人工智能发展相关风险分析

(一)警惕人工智能等新兴技术带来的系统性安全风险。世界经济论坛官方网站曾发布《未来系列:网络安全、新兴技术和系统风险》报告,称第一代基于人工智能(AI)的网络攻击工具已经出现,并且越来越多的证据表明攻击者正在使用AI。深度伪造已被用来制造新的网络攻击载体,语音模拟软件已经被用于大型网络盗窃中。

(三)警惕西方国家主导人工智能相关国际规范制定中的话语权。美国政府在制定人工智能发展战略时,一直把中国当作首要的比较和防范对象,把中国在人工智能领域里的竞争视为争夺世界领导权的战略竞争,严密关注中国在发展人工智能方面的动向,竭力防止中国获得人工智能领域的领先地位。欧盟委员会近期也宣布启动人工智能道德准则的试行阶段,尽管欧盟在人工智能投资和尖端研究上无法与中美比肩,但希望借助其在AI道德准则上的优势,构建AI全球监管框架。

(四)警惕我国人工智能产业应用和技术突破可能受阻。全球高校人工智能學术联盟秘书处上海盖亚人工智能中心理事长王延峰认为,无论应用层,还是在核心技术层,中国人工智能发展都处于国际第一梯队。但我们的基础研究确实较弱,主要是“一软一硬”两个方面。硬件在通用GPU方面,有很大的短板,特别是现在华为海思被美国打压。软件方面主要是开源开放平台。目前,中国尚未形成自主可控、具有国际影响力的人工智能开源开放平台。

(五)警惕人工智能的军事化和实战化应用。近年来,伴随着人工智能第三次发展浪潮的来临,军事领域的人工智能应用也迎来了大发展阶段,而这又尤其体现在人工智能武器的研制与应用方面。《电子政务》称,就目前的发展现状而言,人工智能在海军、陆军、空军以及网络攻击等相关军事领域都已经有所应用。在新形势新背景下,各国围绕人工智能的激烈竞争已然开始。具体到人工智能武器而言,以此为核心的新一轮军备竞赛同样正在悄然发生。

(六)人工智能的发展将进一步加剧个人隐私泄露的风险。中科院院士、清华大学人工智能研究院院长张钹表示,目前大数据等领域还欠缺一定安全性,而人工智能理应更好的保护用户隐私。但是随着技术的发展应用,由此引起的数据伪造、算法瓶颈、隐私安全、伦理困境等问题也日益凸显,人工智能亟需发展出安全、可信、可靠与可扩展的第三代人工智能技术。

二、相关建议

(一)加快数据的开放和大力整合,实现数据准确与有效联通,防范安全风险。中国机器人网称,在规范数据使用、保护隐私等前提下,借助区块链等技术,建设数据中台,汇聚多种来源数据,形成统一标准和体系。在此基础上,根据用户的各种需求, 快速响应,及时提供可视化、智能化、便捷化的数据服务方案。一是完善细化法律法规,保护数据安全。二是使用“联邦学习”策略,保护数据安全。三是借助大数据和人工智能等技术,保障网络安全。此外,加强政府、科研院所、企业和行业等各方紧密合作,共建有利于网络安全的大生态。

(二)构建人工智能治理的全球协调机制。腾讯网称,在自我保护与相互协作之间寻求平衡的“数字主权”需求可能会破坏多边主义并转变为技术民族主义,进而可能导致国际治理机制复合体功能失调,破坏地方和区域治理,削弱其作用或有效性。因此,只有在全球范围内进行全面协调,才能有效应对、化解未来的威胁与失衡状态。需要建立正式的磋商机制,将利益攸关方入其中,推动官方政策的讨论。公共磋商机制应当推动实现包容性协调进程、促进自组织和治理网络发展、并帮助适应治理的多层次、多学科和多中心环境。

(三)我国要在人工智能领域取得应有的话语权,就必须在人工智能基础理论和前沿技术方面加强引领性原创科学研究并率先取得重大突破。中国电子网称,相对于欧美国家,我国人工智能研究起步晚,又长期处于低门槛,具有国际影响力的人才稀缺,掌握“撒手锏”技术的高水平人才更十分匮乏,尚需建设完备的人工智能人才体系。高端技术必须与产业对接,形成庞大的应用市场,人工智能必须与产业紧密融合。这意味着需要抓紧助推人工智能应用场景的落地,争取基础数据和平台技术的突破,搭建好与传统行业生态有效衔接的桥梁。

(四)要在基础研究的“一软一硬”两方面要加大力度发展。全球高校人工智能学术联盟秘书处上海盖亚人工智能中心理事长王延峰认为,只有形成生态,我们自己生产的东西才能运用到整个产业链。所以,基础研究的“一软一硬”两方面要加大力度发展。美国断供其实也在倒逼我们发展。还是要把自己生产的产品用起来,形成生态后迭代升级。

(五)积极配置资源参与人工智能军事化发展,推动武器领域具有约束性的国际法律条约。就人工智能武器风险规制而言,中国尚未出台专门的相关政策,而是表现在《新一代人工智能发展规划》中,针对一般性人工智能的发展,提出了建设伦理规范和政策法规的总要求。因此建议:第一,应积极配置资源参与人工智能武器的全球治理工作,推动国际安全治理体系的进一步完善。第二,应积极推进政府间合作协议的签订,以推动建立人工智能武器领域具有约束性的、多种形式的法律条约。第三,恰当、适时地推进致命性人工智能武器的军备控制。

(六)我国需要建立系统的个人信息数据保护机制,整合民法、刑法等规范,为个人信息安全保驾护航。百家号“眷诚法务”称,首先,需要明确个人信息权。应该区分个人信息被使用的知情权、更改权、删除权等,明确人工智能收集个人信息的界限,让个人信息成为一个有价值、受保护的权利。其次,要为人工智能领域收集个人数据建立科学的原则。科学的原则主要体现在收集个人信息的合法、必要、正当性上。最后,对于人工智能的领域内的个人信息安全,应该制定专门的法律,明确侵权的救济方式。

作者简介:

张弛,女,汉族,江苏江阴,1979年10月出生,硕士学位,工程师。。研究方向:网络舆情传播规律;网络空间治理;互联网领域前沿科技研究。

猜你喜欢
个人信息领域人工智能
保护死者个人信息 维权要不留死角
敏感个人信息保护:我国《个人信息保护法》的重要内容
浅论非法使用个人信息的刑法规制
2020 IT领域大事记
主题语境九:个人信息(1)
领域·对峙
2019:人工智能
人工智能与就业
2018年热门领域趋势展望
数读人工智能