2022年OpenAI发布了ChatGPT-3,使得机器学习在复杂文本理解和推理能力等方面产生了突破性进展,对AI技术领域产生了深远影响,也引发了全球人工智能领域的发展热潮。在此背景之下,中国的大模型产业也卷入了一场“百模大战”,腾讯、百度、阿里、华为、科大讯飞、三六零、大汉软件、昆仑万维、澜舟科技等纷纷推出相关产品,截至2024年2月,国内已有超过140个大模型公开发布,与此同时大模型领域的研究和行业应用均取得了重要突破。2023年7月,国家网信办联合六部委发文发布《生成式人工智能服务管理暂行办法》,在数字政府领域,大模型人工智能与行业的结合备受关注,在优化公共服务,提升政务效能,辅助数据决策以及推动现代治理体系等方面发挥了重要作用。它不仅是技术层面的革新,更是对传统政府管理理念的深刻变革。
人工智能大模型作为当前科技领域的前沿技术,正以其强大的数据处理能力、逻辑推理能力和精准的分析预测能力,将对数字政府未来发展产生深远影响,深刻改变政府的运作方式和服务模式,为公众提供更加优质、便捷的政务服务,推动数字政府向更高水平发展。人工智能大模型给数字政府未来发展带来众多改变:
决策支持模式的改变。人工智能大模型可以通过对海量数据的深度学习和分析,为政府决策提供更加精准的数据支持和预测。这意味着政府决策将更加科学、合理,减少人为因素和主观判断的影响。同时,大模型还可以实现决策的自动化,提高决策效率,使政府能够迅速应对各种复杂情况。
公共服务的智能化。在数字政府建设中,人工智能大模型将推动公共服务的智能化升级。通过大模型的分析预测,政府可以更加准确地了解公众需求,提供更加个性化、精准化的公共服务。例如,通过大模型对交通数据的分析,政府可以优化交通布局,缓解交通拥堵问题;通过对医疗数据的分析,政府可以提高医疗资源配置效率,改善医疗服务质量。
政策制定更加精准。人工智能大模型的应用将使政策制定更加精准。政府可以通过大模型对经济社会发展的深度分析,预测未来趋势,为政策制定提供科学依据。这将有助于政府制定更加符合实际、具有前瞻性的政策,提高政策的有效性和可执行性。
提升政府透明度与公信力。大模型的决策透明性将提高政府的透明度,使公众更加了解政府决策的依据和过程。这有助于增强公众对政府的信任和支持,提升政府的公信力。同时,大模型的应用还可以促进政府与公众之间的互动和沟通,使政府更加贴近民众需求,提高政府的治理能力和水平。
推动数字政府创新发展。人工智能大模型的应用将推动数字政府创新发展。随着技术的不断进步和应用场景的不断拓展,大模型将在数字政府领域发挥更加重要的作用。政府可以通过大模型的应用,探索新的治理模式和服务方式,推动数字政府向更高水平发展。
应对复杂挑战的能力增强。面对复杂多变的社会环境和经济形势,人工智能大模型为数字政府提供了强大的应对能力。大模型可以通过对海量数据的实时分析和预测,帮助政府及时发现问题、预测风险,为政府应对突发事件和复杂挑战提供有力支持。
大模型作为一种基于神经网络架构和语言预训练技术为支撑的人工智能,与政府数据和行业的深度结合后,将大大提升政府决策的科学性、助力服务效能的优化、智能化进行数据治理,它将渗透到政府管理的方方面面,可以说未来政府工作中基于大模型的人工智能技术无处不在。
在政务服务方面,大模型将帮助政务服务提升事务处理、决策服务的智能化,同时可以通过对服务流程的智能分析,提升办事效率、优化流程,实现智能化办事,提升服务品质和用户体验。另外大模型可以通过对公民和企业的个性化需求进行分析和预测,提供更加个性化的政务服务。通过对政务服务的数据进行实时监测和分析,辅助对政务服务的监管和评估,发现和处理政务服务中的问题和不足,提高政务服务的质量和水平。如,江西省赣服通“小赣事”的智能帮办、边问边办,12345服务热线的智能问答机器人等,都是通过大模型的自然语言、逻辑推理和多轮对话能力,与公众进行交互、传递服务价值,提升服务的体验与温度。
政府网站与信息公开方面,政府官方网站作为信息公开的重要渠道,随着大模型的应用将带来全面性升级。信息公开在内容的撰写发布、合规检查、勘误校正、规范审核等方面依托大模型技术将得到显著提升。另外在依申请公开方面,依申请的内容可以通过大模型进行自动分类、自动分发和自动审核处理,降低大量的人工工作。大模型有很好的推理能力、理解能力,能帮助传统的政务网站在搜索功能、智能问答、服务推荐等方面提升用户交互感受。同时大模型能力将通过交流对话、智能分析和智能推荐改变政府网站与信息公开的触达方式使得信息的获取更加扁平化。
在智慧办公方面,大模型将在内部文件的处理、数据收集和报告生成等方面提升政府内部工作效率,减缓日益增长的工作压力,不仅可以减少内部的人力成本,同时可以创新工作方式和提升决策效率。另外政府有大量的内部跨部门的数据和互联网反馈的数据,这些数据维度多且比较分散,大模型可以帮助政府更好地挖掘利用这些数据,对数据中潜在的动向和趋势进行分析,洞察和发现问题的本质,协助进行更精准、更科学的决策。
在政府决策方面,过去的数据辅助政府决策主要通过一些固化的数据算法和统计学模型,大模型可以用类似人的研判分析能力进行政策模拟和预测,辅助进行政策制定与优化;通过推演能力分析公共服务的堵点与卡点,协助进行效率提升和流程改进;通过逻辑推理和数据比对能力分析判断公共安全与应急响应事件,在公共安全预警和应急决策中发挥作用;再如通过对非结构化数据的学习分析,大模型可以挖掘和梳理更有价值的数据和建议,为评估政策效果、辅助决策提供建议和帮助。
大模型作为一种新技术、新事物还有待于逐步完善和发展,特别是在数字政府领域的应用。由于行业的特殊性,大模型技术在数据“幻觉”、数据隐私保护、数据安全、以及社会公共价值认知等方面还存在诸多缺陷。
(一)大模型应用的“数据幻觉”问题
在数字政府领域的应用中,首先需要关注和解决好“数据幻觉”这一挑战。这是因为,第一,大模型在训练过程中,会受到所使用的数据的影响。如果这些数据存在偏见或误导,那么模型在预测和分析时也可能产生偏差。例如,如果训练数据主要来源于某一特定群体或地区,那么模型可能无法准确代表其他群体或地区的情况,从而导致决策的不公平或错误。第二,大模型的训练需要大量的数据,但这些数据的质量和完整性往往难以保证。如果数据存在错误、缺失或不一致的情况,那么模型的预测和分析结果也可能受到影响。如果数据被篡改或操纵,那么模型可能会产生错误的结果,导致决策的失误。第三,大模型通常具有复杂的结构和大量的参数,这使得对模型结果的解释变得困难。在数字政府领域,决策者需要理解模型结果的依据和逻辑,以便做出合理的决策。然而,由于大模型的复杂性,决策者可能难以控制模型的结果,从而无法充分依赖大模型进行可靠性决策。
(二) 大模型应用的数据隐私保护问题
数字政府领域使用大模型时常常要面对数据隐私保护问题,主要是因为大模型需要处理大量的个人隐私数据,跨部门协作数据调用带来的隐私数据管理和监督挑战。
首先,大模型本身需要大量的数据来进行训练和优化,这意味着政府需要收集和使用大量的政府内部数据和公众数据。这些数据可能包含个人隐私信息,如身份信息、健康状况、消费习惯等,如果处理不当,就可能导致数据泄露或被滥用。其次,大模型的训练过程通常需要借助云计算等分布式计算资源,这增加了数据在传输和存储过程中的风险。在数据传输过程中,如果加密措施不到位,数据就可能被截获;在数据存储过程中,如果安全措施不严密,数据就可能被非法访问。此外,数字政府领域使用大模型时,往往涉及到多个部门和机构的协作,这增加了数据管理和监督的难度。如果没有建立有效的数据共享和管理机制,就可能出现数据混乱、重复或矛盾的情况,进而影响数据的安全性和隐私保护。
当然,我们面对问题的同时也应该看到,大模型也将帮助政府在安全和隐私保护方面做更多工作。因为大模型有比较强的理解能力,可以在个人隐私和数据不滥用方面发挥作用。只要在推进过程中,加强数据治理、控制算法偏见、提升大模型本身的透明度等,在政府侧加强监管,并制定相应的法律法规和管理规范,一定能更好发挥大模型对公民的信息安全和隐私权益的保护作用。
(三)大模型应用的数据安全问题
在数字政府领域使用大模型时,要注意数据涉密和安全问题,如果数据保护措施不到位,就可能导致数据被非法获取、篡改或滥用,进而对国家安全、社会稳定造成严重威胁。
大模型的训练和优化可能涉及国家机密或敏感信息,如政府决策、军事部署、社会统计等。这些数据的泄露将直接威胁到国家的安全和稳定。因此在数据存储、共享传输的过程中,要有严格的措施防止黑客或恶意用户针对和利用大模型的漏洞或弱点,进行攻击和窃取数据。此外,数字政府领域使用大模型时,要建立严格的数据访问和授权机制,防范数据非法访问或滥用的情况发生。
在政府建立大模型应用体系时,应当倡导和鼓励政府自建算力和政务专有模型,要重点解决“数据不出域”的问题,即在政府内部建立私有大模型算法平台。当前很多政府机构忽略了这一问题,在将大模型能力引进到政务应用时,很多是通过互联网云端提供大模型服务,这将面临极大的数据隐私泄露的风险。
另外,在互联网上进行咨询问答的开放式服务,往往会消耗非常高的算力,这将会造成政府在购买GPU算力上的开支不堪重负,由于算力有限,如何尽可能降低对GPU的依赖,这在未来大模型领域是必须要攻克的一个难点。
(四)大模型应用的伦理安全、算法偏见和公共价值观问题
在数字政府领域应用大模型时,伦理安全、算法偏见和价值观校准的问题不容忽视。政府需要建立严格的伦理审查和监管机制,确保数据的合规使用,防止算法偏见,并通过技术手段定期对模型进行价值观校准,确保大模型的应用与社会伦理和价值观保持一致。
伦理安全方面,大模型训练时无意中可能涉及个人隐私数据的收集和使用,有时会直接触及到伦理道德的底线。如果数据未经用户同意就被滥用,或者用于不正当目的,将严重侵犯个人权益,违背伦理原则。此外,大模型决策的不透明性也可能导致公众对其公正性和合理性的质疑,从而引发信任危机。
算法偏见方面,由于训练数据可能存在偏见或不均衡,大模型在决策时可能无意识地放大这些偏见,导致不公平的结果。例如,如果招聘模型基于历史数据进行训练,可能会歧视某些群体,造成就业机会的不平等。另外,大模型的决策过程往往是一个“黑箱”,其内部逻辑和依据往往不公开。造成的偏见可能导致公众对模型决策的质疑,还可能滋生不信任和恐慌情绪。
价值观校准方面,大模型的应用需与社会的核心价值观保持一致。然而,由于算法的固有观点或数据的不均衡,大模型的决策可能偏离公平、正义等核心价值。例如,如果模型在训练过程中过度依赖历史数据,可能导致歧视性决策,与社会的平等、公正价值观相悖。
随着技术的不断进步和应用需求的日益增长,大模型技术在数字政府领域的应用日益广泛。随着技术的完善和发展,要逐步健全和配套相关法规和政策来规范大模型在数字政府领域的应用,也需要政府、企业和社会的共同努力,如何有效应用大模型技术,推动大模型技术的健康发展,是一个值得深入探讨的问题。以下是对数字政府领域大模型技术应用的一些建议与思考:
(一)建立大模型数据规范、管理监管和评估机制
制定政务大模型的数据利用与训练的标准规范,并注重数据管理的隐私保护和安全,对数据共享、开发过程和应用管理进行监管。建立和完善对政务大模型的研发备案机制,同时建立评估机制,加强对大模型的数据、算法和应用的监督和审查。
(二)加强数据治理,确保数据质量
大模型技术的核心在于数据,因此,确保数据质量至关重要。政府应持续推动数据治理的法治化、规范化和标准化,完善数据治理政策和法规,制定完善的数据采集、存储、处理和使用规范,确保数据的准确性、完整性和时效性。为政务大模型的构建提供坚实的数据基础。同时,还应加强对数据安全的保护,防止数据泄露和滥用。
(三)加强政务数据和特定场景的训练
政务大模型对政府领域数据的权威性、场景的针对性和领域知识的专业性要求更高,要贴近政府特定需求进行模型训练和数据优化,避免产生偏差或歧义。同时模型训练还要引入对抗性样本或对抗性训练的方法,让模型在训练过程中面对具有挑战性的样本,以提高模型的鲁棒性和泛化能力,对模型的过度拟合和幻觉进行控制。
(四)推动与业务深度融合并构建开放技术生态
大模型技术的应用需要与政府的业务需求紧密结合,才能真正发挥其价值。政府应积极推动大模型技术与业务深度融合,将大模型技术应用于政策制定、公共服务、城市管理等领域,提升政府行政效能和服务水平。
大模型技术的推广应用需要依托开放共享的技术生态,政府应积极推动构建开放共享的技术生态。通过与众多企业和科研机构的合作,共同研发和推广大模型技术,形成技术合力,推动数字政府领域的创新发展。
(五)关注伦理安全与隐私保护
要建立比较完善的数据管理机制,坚持数据不出域,确保对含有隐私或者涉及用户安全的数据不被滥用。同时政府还应当加强对模型开发利用和训练过程当中的审查监督报备机制,强调模型生成的可追溯和可解释性,同时,应高度关注伦理安全与隐私保护问题。政府应制定完善的伦理规范和隐私保护政策,确保大模型技术的应用符合伦理原则,保护个人隐私不被侵犯。
综上所述,数字政府领域大模型技术的应用需要政府和应用开发商从多个方面入手,推进规范建设、加强数据治理、推动技术与业务融合、加强技术研发与创新、构建开放共享的技术生态以及关注伦理安全与隐私保护等。只有这样,才能充分发挥大模型技术在数字政府领域的优势,推动数字政府的高效运作与持续创新。
作者单位:大汉软件股份有限公司