刘胡君 薛宇
网络空间安全是指网络世界中的信息安全和网络安全,是一种保护网络系统、网络数据和网络信息安全的综合性概念。随着互联网普及程度的提高,网络空间已然成为继陆海空天之后的第五疆域,对于维护国家安全以及推动经济发展都具有非常重要的战略意义。网络技术的快速发展使得网络空间安全面临着越来越多的挑战,如黑客攻击、病毒侵入、网络钓鱼等恶意行为,这些对个人、企业和国家的安全都造成了威胁。
ChatGPT使用自然语言处理、机器学习、深度学习等目前主流的人工智能算法,能够学习并理解人类语言,几乎像人类一样进行互动交流,生成的内容流畅自然且具有一定的逻辑性。自2022年11月发布以来,ChatGPT火速风靡全球,在教育、医疗、金融、计算机等领域掀起轩然大波。比尔·盖茨多次在采访中表示,类似于ChatGPT的人工智能技术出现的重要意义不亚于互联网和电脑的诞生。但也有人对ChatGPT的出现表示了担忧,埃隆·马斯克认为“ChatGPT非常好用,我们离危险的强人工智能已经不远了”。那么ChatGPT的出现,对于网络空间安全意味着什么呢?
ChatGPT是网络空间安全的一把“双刃剑”。实践证明,ChatGPT会给网络安全带来一些风险与不利影响。由于ChatGPT可以模拟真人对话,所以它能够非常便捷地被用来进行“钓鱼”等非法活动,导致网络安全形势出现了极大的复杂性与不确定性。另外,ChatGPT可能会在自我学习过程中汲取不当的信息,带来一定的安全威胁,出现网络安全漏洞。具体而言,ChatGPT存在着以下几种网络安全隐患。
已有多个公司禁止员工向ChatGPT分享敏感数据
造成数据泄露。ChatGPT依托海量的数据库存在,其隐私政策中提到会将收集到的各种用户信息(包括用户的账户信息、对话的相关内容)共享给供应商、服务提供商以及相关人员,在数据共享过程中可能会被未经授权的实体攻击,从而造成数据以及隐私泄露。由于ChatGPT无法对数据来源进行核查,可能将用户发送的个人信息或者商业机密用于未来的模型训练,导致个人隐私泄露以及商业机密泄露两大风险。泄露的个人数据可能会被未经授权的第三方利用,用于制造垃圾邮件、诈骗或其他恶意行为。商业机密的泄露则会给企业带来重大损失。2023年3月,韩国三星就发生了员工在ChatGPT上输入半导体设备信息以及重要内部会议资料而导致商业机密泄露的事件。为了规避数据泄露风险,已有微软、亚马逊等企业明确禁止员工向ChatGPT分享敏感数据。
恶意用户行为。ChatGPT所提供的API接口可以让开发者基于其模型开发自己的应用,如语音识别、语音合成等,而这些应用又可以被恶意行为者攻击计算机系统提供了更多的工具和数据开发方向。ChatGPT在受到攻击后可能滥用收集到的用户信息,在网络上肆意传播用户的隐私,或利用用户的个人资料进行恶意诈骗。
遭受网络攻击。ChatGPT可能存在技术失灵导致的网络安全问题。ChatGPT往往使用软件程序来完成指令,这种程序可能存在安全漏洞,一旦被恶意行为者利用,就可以在系统中收集数据、窃取隐私,甚至在系统中实施恶意攻击,造成巨大的损失。2023年3月,OpenAI发布临时中断服务的调查报告,称由于其开源库中存在的漏洞,可能导致1.2%的用户数据被泄露。
降低黑客门槛。ChatGPT能够自主编写程序代码,这极大地降低了进行网络黑客活动的准入门槛并扩大了恶意黑客的群体规模。ChatGPT采用的是自监管训练方式,它会自动地学习与处理输入和输出的文本,以此帮助用户提供预测和解决问题的能力。ChatGPT在处理文本相关问题上的能力几近人类水平,黑客可以使用其强大的文本处理能力执行复杂攻击。这些入门级网络犯罪分子通过应用ChatGPT能够更加便捷、高效地编写针对性代码进行社会工程诈骗或者网络钓鱼活动,使得网络安全形势面临严峻考验。
传播虚假信息。恶意行为者也可以使用ChatGPT的自然语言编写程序批量生成具有规模化、低成本、智能化的虚假观点。以往大规模传播虚假信息都是由简单机器人创建新账号,然后不停重复发送虚假信息、进行点赞评论。这种可疑的发布模式以及大量重复的内容相对较容易被社交媒体识别并封禁,ChatGPT则可以依据特定的主题,模仿人类发表虚假观点,甚至进行互动留言,十分难以察觉。再则,ChatGPT并不像人类一样具有判断力和价值观,因此可能会回答错误或产生具有误导性的信息,但ChatGPT看似“博学”“中立”的特征,会导致这些虚假、甚至有误导性的信息被传播。
当然,作为一款强大的人工智能工具,ChatGPT也可以成为网络空间安全治理的强大赋能器,业界一些学者正在探索ChatGPT与网络空间安全领域结合的可能性与应用场景。它可以提升聊天机器人的语义理解能力,增加用户的使用体验,ChatGPT也可以通过自然语言处理技术来解决网络安全问题,让用户更便捷地了解网络安全的相关知识,从而有效提升网络空间的安全性。具体来说,ChatGPT也可以从以下几个方面提升网络空间安全。
提升网络安全数据分析能力。从网络安全角度来看,ChatGPT 可以帮助企业实现更高效的网络安全管理,更好地防止攻击者进行非法入侵。ChatGPT可以通过自然语言处理技术来分析用户的语言行为,分析网络流量,帮助发现网络内可能的攻击行为,建立更安全的网络环境。此外,ChatGPT 还可以利用机器学习技术来快速识别可疑的攻击者行为,从而做出更早的反应,有效地阻止攻击者渗透网络系统。
提高网络空间智能化水平。ChatGPT的出现,为网络安全领域提供了一种新的方法,它可以促进网络空间智能化,检测和阻止恶意软件、网络攻击和网络钓鱼等网络安全威胁来提高网络安全防护的效率和效果。ChatGPT可以通过智能分析网络数据,识别网络攻击的特征,从而帮助网络安全人员及时发现网络安全威胁。ChatGPT可以帮助企业更好地理解和预测用户的行为,从而更好地检测可疑的攻击行为,及时采取相应的防范措施。
增强网络空间个人信息安全。ChatGPT可以帮助用户识别潜在的安全问题,并自动对数据、网络和系统进行安全加固,以预防攻击或者窃取数据的情况发生。还可以利用ChatGPT来组织可以使用的语言模型对恶意软件进行分析,通过识别出恶意软件中常用的语言模型来及时检测恶意软件的各种变体。例如,Uber已经使用ChatGPT来自动修补潜在的安全漏洞,保护用户的个人隐私。
2023年3月,泄露事件后,OpenAI公司紧急关停了ChatGPT
近年来,自然语言处理技术的飞速发展引起了社会和行业的广泛关注。其中,ChatGPT作为一个基于自然语言处理的人机对话系统,被广泛应用于各个领域,包括教育、医疗、金融、客服等。然而,随着ChatGPT的广泛应用,也面临着越来越多的安全问题。为了规避ChatGPT的危险并提升其安全性,研发人员、技术实施者、监管者以及用户都应当采取适当的措施,下面从四个方面来进行分析。
研发人员提供安全可靠的产品。研发人员是ChatGPT技术的开发者,由于开发ChatGPT对于算法、数据、服务器都有较高的需求,因此具备开发能力的往往是一些头部科技企业或者技术公司。ChatGPT的研发人员可以采取以下措施来提升产品的安全性。第一,加强对ChatGPT的安全性测试,尽可能识别潜在安全问题,定期检查ChatGPT的更新,及时对漏洞进行修复。第二,尽可能使数据库的来源多样化,对数据进行清洗以及脱敏,从而保护用户隐私提升数据质量。第三,增加防护措施,需要加强系统的密码学机制,加强对安全漏洞的检测和修补,提高系统安全性能。相较于对用户行为进行监督,让研发人员从源头对技术进行安全规范成果可能更加显著。
技术实施者确保技术合法安全使用。技术实施者是实际操作ChatGPT系统的人员,可以通过以下几个方面来提升ChatGPT的安全性。第一,加强系统的访问控制。在使用ChatGPT系统时必须对系统和数据的访问进行控制,只有经过授权的使用者才能访问,防止未经授权使用者进行信息泄露、窃取或非法使用。第二,在ChatGPT和用户之间搭建安全防火墙,对内部用户和外部攻击做出预警并及时采取措施,在实施ChatGPT的同时可以采取应急避险措施,确保ChatGPT的安全可靠。第三,还应当设置一套有效的用户信息安全保护体系,例如采用SSL加密技术加密数据传输,以防止网络攻击和身份伪造。第四,对不同的数据信息进行分级管理,对垃圾信息、违法信息进行过滤,设立检查流程来确保生成内容的准确性。
用户提升安全使用意识。安全防护并不能仅仅依靠安全产品,提升用户对Chat GP T的安全使用意识也至关重要。用户在使用ChatGPT系统时也需要注意以下方面,以更好地保证其安全性。第一,用户需要着重保护自身隐私,在使用ChatGPT的过程中,自觉保护个人隐私和数据信息的安全,特别是在一些开放网络上的使用,需要设定更高的隐私保护级别。第二,提高个人安全意识,使用ChatGPT的过程中,用户必须格外警惕网络上的钓鱼邮件、虚假网页等安全威胁,并严格遵守相关使用规定和程序,严格保守账号密码和使用者身份信息。第三,用户在工作生活中还可以通过参与网络空间安全相关宣传、培训活动,了解ChatGPT的正确使用方法,提升安全素养。
监管者建立严格安全审查机制。ChatGPT在广泛应用的过程中,需要实施良好的监管制度,监管者需要对ChatGP T进行以下方面的管控和监督。第一,加强对ChatGPT的审批和监管,因为ChatGPT涉及到大量的基础性和敏感性数据,可以建立严格的安全审查机制,在研发企业的相关产品投入市场之前,利用算法备案机制,对产品进行安全审查,杜绝恶意的信息泄露和网络攻击。第二,在教育、劳动力、医疗等领域设置适当的使用规范,加强用户教育,确保ChatGPT能够稳定、安全而可靠的运行,从而更好地维护网络空间的安全。
使用ChatGPT时需提高安全使用意识
网络空间安全的发展对于不同的国家和地区来说具有非常大的差异,全球范围内的互联网安全治理仍处于不断探索和摸索的阶段,各国都在积极寻求建立适合自己国情的网络安全法规体系。ChatGPT可能被用于制造虚假的新闻、个人信息泄露等,这些都是极大的安全风险,对于网络空间安全的保护提出了更高的要求,需要通过强有力的技术手段和规范管理来遏制这种风险。
面对ChatGPT的强大功能以及带来的种种网络空间安全隐患,一些国家以及非国家行为体也采取了相应的措施。2023年4月,意大利政府宣布封禁ChatGPT,并限制OpenAI处理本国信息,成为世界上第一个封禁ChatGPT的国家。不久后,德国、西班牙、法国也开始采取措施,加强对于ChatGPT的监管。2023年3月,未来生命研究所向全世界发布了一封公开信,呼吁全世界所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,这封公开信获得了埃隆·马斯克、约书亚·本希奥、史蒂夫·沃兹尼亚克等1127名科技领袖人物的签名。这些事情表明,随着技术进步,如何平衡好科技创新所带来的重大机遇与潜在风险之间的关系,是各个主体都需要考虑的问题。ChatGPT的发展也给人工智能和自然语言处理领域带来了新的机遇,未来它可能会成为解决一些复杂问题的利器,需要人们持续关注其发展。