人工智能应用的安全与伦理挑战研究

2024-06-08 02:09许劭华
大科技 2024年20期
关键词:伦理人工智能算法

许劭华

(上海人工智能实验室,上海 200030)

0 引言

人工智能通过自我学习、深度训练可逐渐掌握人类的思维模式,代替人类完成部分工作,部分情况下工作质量、效率、数据处理能力甚至大幅度超越人类。人工智能的创造解放了人类生产力,使人类从枯燥乏味的机械化工作中得以解放,同时也推动社会进入了第4次工业革命中。当前人工智能模型日益完善,在不同领域均有所应用,例如,在医疗领域可辅助医生完成疾病诊疗活动,在教育领域可自动评价教学质量,在人力资源管理领域可深度挖掘人力资源的内在优势和价值。然而智能并不等于万能,在实际使用中存在着难以预估的风险隐患,在智能化社会到来前要规范人工智能使用方式,提升人工智能应用的可靠性、可信性和可控制性。

1 人工智能应用的安全与伦理挑战内容

1.1 思维对齐暗含意识形态立场

数据是促进人工智能发展的关键,要求提升智能化水平必须要收集大量的数据信息,针对数据信息进行反复训练、学习才能促使人工智能逐步掌握人类的思维模式[1]。人工智能在与人类思维模式对齐时也会对数据中所包含的敏感信息进行学习,这使得人工智能的应用也有着一定的意识形态立场。例如,在对传统文化、国家历史发展等信息进行解读和学习时其中有较多和意识形态相关的内容,若未选取高质量信息和语言材料,人工智能便会接触歪曲历史的信息。当人类和人工智能进行对话和互动时有可能受到这一类不实信息的干扰和影响,导致部分意识形态不正确的信息和文化得以传播。人工智能在推荐信息时存在引导性,会有某种价值观念的倾向,导致社会主义道德根基被动摇,所传递的价值导向和主流价值观念存在偏差,这也使得人工智能目前成为新时代下意识形态建设所关注的重要阵地。

1.2 算法“黑箱”安全隐患问题突出

人工智能应用时算法技术中立性有待提升,原因在于算法构建时存在着“黑箱”问题,所使用的参数、权重以及算法数据来源均处于“黑箱”状态[2]。当前各类中小型科技公司缺少构建底层算法模型的意识,会从其他大型公司购买访问权限,或者直接按照大型人工智能算法中获取开源数据,根据自身的应用需求调整数据内容。人们普遍认为算法会对用户行为活动所产生的数据进行挖掘、分析,以此来评估用户对某种内容、信息的偏好。然而因“黑箱”问题在算法代码编写前便已经融入了价值观,算法偏见问题明显。例如,企业招聘算法中有性别歧视的思想,会使部分求职者的求职信息被低估,或者直接被淘汰、忽视。在技术设计层面算法获得的数据集存在不均衡的问题,特征选取有所偏差,影响了机器的学习质量。例如,在医疗诊疗活动中由于算法数据收集不全面和偏差问题容易出现漏诊、误诊的现象。原因在于算法缺少大体量训练数据,科技公司通常只是以本公司所收集的有限数据作为测试内容,导致人工智能产品难以及时发现潜在的安全漏洞,如果将这一类产品大范围应用在各个领域容易出现错误决策,带来较为明显的安全隐患。

1.3 跨模态生成应用具有主观性

生成式人工智能在目前日常生活中应用广泛,其中ChatGPT 属于代表性人工智能应用。这一类人工智能产品只需要在其中输入文本数据便可自动生成不同类型的信息内容,如图片、文字、视频等,生成内容包括可读可视、静态动态多种类型信息,展现了人工智能的多模态生成能力。除此之外,红外辐射分析温度、运动轨迹等智能生成模型也开始逐渐应用于日常实践中,能够尽可能还原人类在观察和理解世界时所使用的能力。跨模态生成重视将各类感官系统进行连接,除去按照人类思维进行分析外,会融入触觉、嗅觉以及语音等各种内容,虽然丰富了人工智能模型,但是所生成的具体内容缺少公认的评价标准。这一类人工智能应用在创作层面存在着明显的主观性特点,多重解释性特征突出,增加了对人工智能监管的难度[3]。同时生成式人工智能会广泛获取网络上的各种数据和信息,人们在使用过程中会将生成的结果应用在不同领域,这也导致原创者的合法权益受到损害,引发了人们对生成式智能的质疑和广泛讨论。

1.4 个人数据隐私安全难以保障

人工智能以数据为基础进行驱动,在开发人工智能应用时要汇聚海量规模的数据信息,为了保证人工智能应用的有效性,在采集时会收集大量涉及个人隐私的数据,容易导致个人隐私被外泄。人工智能所收集的信息与网络上的虚拟信息不同,必须要保证信息可以代表个人身份,如指纹、面部、虹膜等,是与自然个体不可分割的重要生物数据。例如,当前在各个软件中均开始使用人脸识别技术,以此来认定使用者和软件登录者的信息一致,但是在识别过程中会获取面部信息,若在未经过本人认可下滥用面部信息会给个人隐私带来安全隐患。同时,人工智能还会收集消费信息、生活行为、未知数据等敏感内容,未来人们的各种信息都将被人工智能收集起来,且向着主动采集、识别的趋势发展。如果人工智能模型应用在重要领域,在外界攻击、网络安全漏洞的影响下会导致数据被盗取,给经济、个人生活带来明显的安全隐患。目前人们的数据安全意识持续提升,在存储数据时会使用加密存储技术,但仍然有黑客会解密上述数据,解密后有可能将数据销售给特定群体用于商业领域,例如,经常接收到的针对性广告或者精准营销等便是数据盗用、滥用的表现。

1.5 不合理应用造成人身经济损失

电信诈骗是网络时代下所出现的一种新型的诈骗方式,通过拨打电话、网上聊天、信息伪造等多种方式进行诈骗。随着诈骗套路被人们所熟知,诈骗方式也开始不断更新,其中通过人工智能伪造人脸、伪造声音是难以防范的诈骗手段[4]。利用人工智能收集个人面貌、声音信息能够智能生成相同的面貌、声音,且人工智能会捕捉人表情的变化,这使得所伪造出的面目难以分辨。利用AI 生成的伪造面貌、声音进行诈骗时,被诈骗对象无法及时分辨,容易导致人身经济损失的问题。除此之外,部分人群在日常生产生活中对于人工智能的依赖性过强,从而导致个人生存能力持续下降,思维能力弱化。然而随着人工智能应用便利性的不断提高,越来越多的人将会利用人工智能工具,这也使得人们面临着系统性退化的风险隐患。人工智能滥用和造假问题已经成为威胁社会安全发展的主要因素之一,如何应对这一伦理安全问题成为社会治理体系建设所关注的重点。

2 人工智能应用的安全与伦理挑战应对策略

2.1 加快立法速度,约束人工智能应用

人工智能引领社会进入了新的时代,但是同时也要重视人工智能应用是否合理。要想规范人工智能的应用必须要以法律为基础,通过合适的法律法规对人工智能应用进行监管,避免出现人工智能滥用、错用的现象。虽然目前已经提出《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律规定,能够在一定程度上对人工智能领域进行约束和监管,但是缺少以人工智能为核心的统一法律标准,存在法律空白和监管漏洞问题[5]。政府部门要加快立法速度,以统筹思想推进横纵向立法进程,做好新法和已有法律法规的衔接工作。2023 年立法规划中已经提出了有关人工智能法的草案,为了弥补法律空白,要对人工智能应用中存在的共性伦理安全问题进行探讨,以提炼出的共性问题作为一般性法律法规的制定基础,确保法律法规可以为实践应用问题的解决提供参考。在技术治理方面要形成利用技术管理技术的模式,在法律中明确规定如何做好人工智能鉴别工作,针对人脸、声音、场景等伪造行为进行鉴别和处罚,防止相关人员利用伪造技术获取非法利益。

2.2 重视人才培养,完善人工智能专业

人工智能应用范围的不断扩大,也增加了市场上对于优质人工智能人才的需求。在智能汽车、机械设备开发研究时需要充分掌握深度学习算法应用和训练的专业人才;在教育领域中需要可开发人工智能教学管理软件的人才;在医疗领域需要可熟练开发智能医疗设备、使用智能诊疗技术的人才;在社会治理领域需要具有人工智能防伪鉴别、数据筛查能力的人才。培养专业人才能够为各个领域人工智能应用创新提供源源不断的人力资源支持,推进人工智能发展战略的有效落实,强化国家在人工智能产业方面的国际竞争力。为了保证人工智能得以合理应用,各个国家要对人工智能专业人才培养体系进行细化和完善,将人工智能和其他领域进行紧密融合,调整专业教学内容,根据社会不同领域对人工智能人才的需求制定针对性教学目标和计划。在专业教育中也应重视人文素养教育渗透,加强新时期人才对人工智能应用的认知,为伦理安全风险和挑战的应对夯实人力基础。

2.3 促进全球合作,合理管控人工智能

在全球化时代下,国家与国家之间的信息传播渠道有所增加,通过网络即可让人们第一时间获取各种各样的信息,这也使得人工智能应用的安全伦理挑战成为全世界所面临的难题。为了合理应对挑战,要重视并积极与国际进行合作,通过全球合作的方式提高人工智能治理质量,对人工智能的应用进行管控。各国政府要形成统一的治理标准和规则体系,坚持协同共治的原则和主张,通过不断协调完成国家之间的对话,共同处理有关人工智能的安全伦理问题[6]。但是不同国家在地域条件、文化背景、经济实力等方面存在差异,人工智能应用的认知也有所不同。这要求国家能够从全人类角度出发构建相同的理念认知体系,在共同价值观的基础上设计符合智能时代发展趋势的人工智能治理规则和秩序,促使全球各个国家形成相同的社会共识,推动人工智能应用向着可控的方向持续发展。在全球合作时要对与人工智能有关的国际法规进行细化,为跨国人工智能不合理应用问题的处理提供参考标准,例如,对新型人工智能应用类跨国电信诈骗案件的处理方式进行细化,合理应对人工智能诈骗带来的经济安全隐患。

2.4 持续监测风险,解决技术影响问题

人工智能应用迭代速度较快,在不断迭代过程中也会产生新的风险,无论最终人工智能是否可以变为一种生命体,其均在不断进行自我训练和学习,对外在世界的影响已经超过最初算法模型的设计目标。因此,要重视风险监测,评估人工智能应用所带来的新问题,并采取合适的策略对问题进行处理,避免人工智能的不合理应用造成不良影响。监管沙盒是一种在金融领域对新型产品进行风险评估的实验模式,能够对金融产品进入市场前的风险因素进行管理和控制。人工智能是风险预估难度大的一种产品,在人工智能应用中,也应当引入监管沙盒机制,并且目前在《AI 法案》中也提出了要建立人工智能监管沙盒的要求,人工智能产品在进入市场前或者使用前要先根据法案内容对其进行验证。人工智能大模型目前正处于高速发展阶段,将监管沙盒制度引入能够做到在模型预训练时期便控制风险因素,提升风险评估质量,避免人工智能应用投入使用后给社会秩序造成过大冲击,解决人工智能的伦理隐患[7]。

2.5 建立伦理框架,确保道德标准一致

人工智能应用要确保其价值观体系与人类的道德要求保持一致,构建具有高可信度和高度道德意识的人工智能模型。因此,要重视构建伦理框架,为人工智能应用提供道德约束标准。公平性是伦理框架的核心要素之一,在开发和设计人工智能系统时要避免有歧视和偏见思想的植入,严格把控数据来源,在确保数据具有多样性和代表性的同时删除其中潜在的偏见信息。检查人工智能模型的决策流程,要求其对每个群体均平等对待。重视提升人工智能应用的透明性,要求决策流程是可解释、可审查的,强化用户对人工智能系统的信任。保证人工智能系统的安全性,积极研发对抗性攻击防御技术,有效面对外来的恶意攻击。

3 结语

人工智能的迅速发展给人类原有价值体系带来了重要的挑战,对人和人、人和技术的关系进行了再次定义。人工智能可大量收集数据信息,存在侵犯个人隐私、盗取数据的安全隐患,越过了伦理道德界限,导致人们开始对人工智能的高速发展出现抵触情绪。新时期下要正确对待人工智能应用所引起的安全问题和伦理问题,通过推动立法、培养人才、国际合作、风险监测以及伦理框架建立等方式评估人工智能应用是否合理,优化应用方式方法,坚持公平透明、包容、保障隐私原则,将新技术应用在合适的领域,规避伦理道德和安全隐患的出现。

猜你喜欢
伦理人工智能算法
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能
下一幕,人工智能!
一种改进的整周模糊度去相关算法