李菁
[摘 要]大数据时代,高校工会引入ChatGPT技术协助其开展体育工作是时代所需。而这一技术的应用,不但响应了体育强国的重要战略,还提升了高校工会的数字化服务能力,进而满足了教职工的个性健康需求。通过文献分析与软件测评等研究方法,发现人工智能体育应用在嫁接ChatGPT技术时,存在三个阶段的科技风险,即初步架构阶段的接口过量与体育公平风险、数据训练阶段的数源偏见与隐私泄漏风险以及平台运行阶段的信息茧房与算法伦理风险。因此,在现有问题下,高校工会应从规范层面预先出台合规指引、技术层面增进风险防控能力、监管层面适时加强人工介入,以期实现新型科技与工会开展教职工体育工作的良性共生。
[关键词]ChatGPT;高校工会;体育活动;体育科技风险;防控回应
[中图分类号]D412.6 [文献标识码]A
[文章编号]2095-7416(2024)01-0033-11
近几年,国内高等教育迅猛发展,为更好实现“双一流”建设,部分院校不断扩充教师队伍并提高对教师晋升的考核要求。在背负较重科研任务的情况下,许多教师忽略了体育锻炼,从而影响了自身健康。2022年11月30日,以“生成式人工智能”(Generative AI)为核心技术的聊天机器人ChatGPT正式发布。其以对话的方式进行交互,能够回答后续问题,承认错误,质疑不正确的前提,并拒绝不适当的请求。为更好地利用这项技术,国内多家大型企事业单位纷纷开始研究ChatGPT在本开发领域内的功能特性。南京大学工会紧跟时代发展,响应习近平总书记关于“新时代体育强国建设”[1]的战略方针,拟探索ChatGPT对高校工会开展体育工作中的应用可能。为此,本研究先明确体育工作在高校工会中的职能地位,并阐释引入ChatGPT技术开展体育工作的动因;然后结合人工智能体育应用的现有缺陷,分析嫁接ChatGPT技术后的“可能性”风险;最终针对风险现状提出合理化建议,以引导ChatGPT技术“合规”使用,实现新型科技与工会开展教职工体育工作的良性共生。
一、体育工作在高校工会职能中的定位及价值
ChatGPT助推高校工会开展体育工作是时代所需。展开这一讨论有两个重要前提:一个是开展体育工作属于高校工会的职能范围,为组织主体提供赋权依据;另一个是揭示ChatGPT在高校工会开展体育工作中的动因,以征表科技创新技术引入的价值所在。
(一)高校工會开展体育工作的职能阐释
2022年1月1日,最新修订的《中华人民共和国工会法》(以下简称《工会法》)正式实施。《工会法》第32条明确规定,开展“文化体育活动”是工会职能的重要组成部分。也就是说,从法定授权的视角来看,工会具有组织开展体育活动的职能与责任。高校工会在开展体育工作方面拥有多项职能,如策划与组织校园运动会、健身比赛、团体体育活动等;通过推动各种体育活动,鼓励教职工培养健康的生活方式,提高身体素质,预防疾病,增进身心健康;负责管理和维护教工之家的体育设施,为教职工提供良好的锻炼场所和资源;传承和推广体育文化,举办体育赛事、讲座、展览等活动,引导教职工了解体育历史、规则、精神等;通过组织体育团队和比赛,促进教职工之间的团队合作和交流,增强校园凝聚力和友谊;为教职工提供关于体育法律、权益保护等方面的咨询和支持,确保他们在体育活动中的权益;通过举办慈善体育活动,参与社区体育活动等,履行社会责任,促进公益事业的发展。综上所述,高校工会开展体育工作的职能涵盖了活动策划、健康促进、文化传承、团队合作等多个方面,旨在创造一个积极、健康、充满活力的校园体育环境,为教职工提供丰富的体育体验和发展机会。
(二)引入ChatGPT开展体育工作的动因
ChatGPT在高校工会体育工作中的运用:职能定位、风险表征及解决路径
大数据时代,体育运动的进行已离不开人工智能技术的应用。在高校工会开展体育工作领域中引入ChatGPT技术,既是体育活动自身价值与工会职能的有效实现,又是顺应科技发展的必由之路。
1.国家层面:切实响应体育强国战略
党的十八大以来,习近平总书记提出了一系列关于体育强国的重要论述,并将体育运动作为“健康中国”国家战略的重要组成部分[2]。2023年1月1日起施行的《中华人民共和国体育法》(以下简称《体育法》)的重要亮点之一,便是明确了“保证公民体育权利”这项要求[3]。参加体育活动不仅是对国家政策的响应,更是教职工自身享有的体育权利。在高等院校,面向教职工开展体育活动,无疑成为响应这一战略并体现体育价值的重要一环,因为高校教职工是国家发展科研的重要群体,维护其身体健康是保护科研生产力的要件之一,从间接上保障了我国科技的“长线”发展。而且体育的价值不仅在于提升体质,还能有效增强科研工作者的精神及心理健康[4],进而改善情绪,降低心理上不良症状的发生概率,使其长期保持良好的工作状态。此外,高校还可投资体育科研,推动体育科技创新,提高体育训练和器材的科学性和效能,增强体育软实力。
2.组织层面:提升工会数字服务能力
2016年中共中央、国务院印发了《“健康中国2030”规划纲要》(以下简称《纲要》),《纲要》将体育运动作为健康中国的重要组成部分,并明确提出要建设健康信息化服务体系。智能服务型工会,即智慧工会的建设也是新时代高校工会的重要任务。智慧工会将现代信息技术与工会组织管理相结合,通过数字化、网络化、智能化的手段,提升工会服务和管理水平,更好地满足工会会员的需求,为工会会员提供更加便利、高效、个性化的服务,同时提升工会组织的效率和影响力[5]。随着高校建设与人工智能时代的同步发展,传统工会主要依靠人力的方式,无法应对服务面向广与服务时间不特定的现状。加之人工智能体育应用日益普及,教职工已普遍适应采取新型方式回应体育需求。如今,教职工使用移动互联网端口选择期待项目,已逐渐成为高校工会开展体育工作的重要方式之一。人工智能体育应用通过平台算法,可以对教职工的使用数据进行分析,并得出用户有关体育运动的特殊喜好,进而实现体育需求的“主动”预测[6]。因此,在大环境与内在需求的双重引领下,引入ChatGPT技术以提升工会的数字服务能力是时代所趋。
3.个人层面:满足职工个性健康需求
正如上文所述,教职工参与体育活动的形式逐渐发生转变,对工会个性化、信息化、智能化服务的需求日益增长。通过个人采访与问卷调查发现,当前教职工多面临“个性”健康目标无法实现的问题。而ChatGPT技术的引入,可以提供更加贴近个体、便捷的健康服务。第一,拓展信息问询方式。部分教师比较注重隐私,或不善于与体育活动组织方——学校工会或二级分工会进行交流,导致了体育信息沟通不畅,进而影响教职工对体育项目的选择。而ChatGPT可以实现无人问答,很好地避免了上述问题。第二,探寻个人健康需求。利用ChatGPT技术创建健康咨询机器人,根据教职工的身体状况、健康目标和时间安排,提供个性化的健康建议、饮食指导、锻炼计划等,跟踪教职工的健康进展,生成个人健康报告,鼓励持续参与健康活动。第三,实现间接沟通互动。ChatGPT的智能终端,可以读取、汇总并分析平台用户的数据,通过算法指令预设,将体育兴趣相同的用户进行推荐创建在线健康社交平台,教职工可以互相分享健康经验、参与合作活动。
二、ChatGPT智能应用下暗含的体育科技风险[HT]
ChatGPT智能应用在助推工会开展体育工作的过程中,往往会衍生出一系列技术风险,给相关使用主体带来一定的科技隐忧。为更好地解决这一困境,本部分以ChatGPT运行的三个阶段为框架,分析体育人工智能应用下暗含的科技风险。
(一)ChatGPT的初步架构阶段
初步架构阶段是ChatGPT技术引入人工智能体育应用的基础,因为它决定了这项技术在工会开展体育工作领域的应用范围,以及ChatGPT将以何种形式预设问题的回答、活动的推荐等。
1.应用范围:接口过量风险
现今,随着大数据、5G、区块链、NFT等人工智能体育技术[7]的发展,高校工会开展体育工作逐渐走向智能化、多样化以及信息化。在ChatGPT技术诞生以后,其独特的功能受到了体育行业的青睐,引发了学术领域的探讨与应用领域的探索。如有学者认为,ChatGPT的到来是对人类身体的第二次解放,可以使人们能够真正从体育中获得游戏的乐趣[8]。也有俱乐部将ChatGPT用于职业联盟和球队提高球迷参与度策略的重要工具[9]。但科技便利与技术风险往往同在,能否将ChatGPT技术融入体育活动的全部领域或对应范围该如何划定,就成为了当下急需解决的问题。应用程序编程接口(Application Programming Interface,简称API)是调用ChatGPT相关功能到人工智能体育应用程序或服务的主流方式,一般只需支付一定的订阅费用,便可享受智能服务。但问题在于,为了使教职工可以在多个平台上同时使用ChatGPT技术增加API接口,则会导致接口过量的风险,使教职工在不同平台上获取的体育推荐信息不一致,甚至可能出现相互矛盾的情况。一些教职工因为信息不统一而感到困惑,不知道应该如何进行体育锻炼。这种风险可能影响到工会的声誉,降低用户的体验和满意度。在当下ChatGPT的使用潮流之中,体育行业能否准确把握应用的范围?目前来看,由于ChatGPT技术诞生时间较短,国内人工智能行业组织对这项技术的分析尚处于起步阶段,并未制定相关的行业准入标准。此时,容易在大环境引导下出现过量嫁接ChatGPT技术的可能性风险。
2.算法歧视:体育公平风险
算法歧视具有多种表现形式,如影响自主选择权的价格歧视[10],导致学习结果单一的教育歧视[11],甚至是干预犯罪风险评估的量刑歧视[12]。而在人工智能体育应用领域,则表现为一种影响参与公平的体育歧视。究其原因,主要是ChatGPT程序在融入高校人工智能体育平台的过程中,必定要预先设置功能场景以及出现冲突时的选择程式。而在这一“预设”之中,则很难避免程序架构者的个人喜好以及非公平性考量。具体而言,高校教师对ChatGPT的需求因人而异,在不同的声音之下,当资源出现稀缺时,ChatGPT的选择可能是出于身份、学院、性别、年龄等因素做出的结果。如某一教师通过ChatGPT询问适合自己的运动,则很有可能由于特殊人群的选择而给出并非最优解的推荐项目。可以说,ChatGPT与人工智能体育应用的融合,也是算法歧视风险与传统体育参与公平问题的叠加。在新修订的《体育法》条文之中,共体现出三种体育公平,分别是第49条的选拔公平、第51条和53条的竞争公平以及第95条的解决公平。从形式上来看,似乎我国《体育法》中并未直接提及体育的参与性公平问题。但实质上,体育参与是体育权利的一种,《体育法》总则第5条中对平等参与体育活动权利的概述便是最好的体现。因此,关于体育参与公平的风险,既有ChatGPT技术引入下的现实来源,又有源于规范层面的法律规定。
(二)ChatGPT的数据训练阶段
数据训练是ChatGPT生成的基础,从产生的时间来看,可分为采集型训练与使用型训练。前者主要是用于ChatGPT大型语言模型的初始构建,后者则用于对ChatGPT大型语言模型的后续完善。
1.数据采集:数源偏见风险
克斯·奥·尼尔(Cathy O Neil)曾指出:数据偏见是历史数据本身不可避免的产物[13]。而ChatGPT功能的强大便得益于其运用大型语言模型(LLM,Large Language Model)对既往数据进行演算,并创建出“类人”的回答功能。就其运行过程而言,ChatGPT的生成主要分为预训练语言(LM)、收集数据并打分(RM)、强化学习微调(RL)三个阶段[14]。而在以上过程中,人类意识的植入则不可避免。首先,在预训练语言阶段,数据库的创建内涵着设计者挑选的偏好行为。人工智能语境下的数据,常常被冠以“标签数据”之称。这主要是由于在创建初始语言模型时,往往需要大量人工标注数据的训练,而标注行为本身即是人的一种选择。所以,在生成ChatGPT的数据源头之上,自始带有类人的偏见。其次,在对反馈数据打分阶段,答案的标准程度实际是打分人选择的镜像。ChatGPT回答的类人性并非仅通过初始语言的训练便可达成,而是在标注人员的打分并对回答进行排序下完善而成,如答案是否与问题相关、回答是否符合人类的语言方式以及语言是否有悖伦理等。也就是说,ChatGPT回答的标准并非是一种基于数据分析下的纯客观判断,而是在打分者凭借直观人类喜好下的训练所得。最后,在强化学习微调阶段,暗含着对特定类别功能的总体性价值设定。在ChatGPT语言初步成型之后,往往被要求通过循环学习不断加强输出答案的智能化程度。这一过程往往涉及基本答案标准的总体微调,即通过对答案的评分排序或其他要求,从整体上对答案质量进行迭代。而迭代的实质性依据——回答更似人类,便是一种加入人類喜好与价值观念的最好证明。利用ChatGPT技术为教职工提供个性化的体育推荐过程中,一些特定类型的体育项目更容易被推荐,而其他类型的项目却很少被提及。这由于初始数据集中包含特定类型的偏好信息,导致ChatGPT更倾向于推荐那些曾经出现频率较高的体育项目,导致忽视推荐可能适合教职工的体育活动。
2.数据使用:隐私泄漏风险
数字时代,人工智能体育应用数据兼具人格权与财产权属性。对于前者,旨在保护个人数据的隐私属性,即数据主体有权基于自己的意思决定个人数据能否被他人收集、存储以及利用;对于后者,则主要是指体育数据具有经济价值,是信息社会的一种财产[15]。数据财产属性是数据人格权益受到侵犯的动因。换句话说,体育数据具有潜在的商业价值,在一定动因的驱使下,人工智能体育应用平台的控制者可能将用户数据进行交易,进而产生个人隐私的泄漏风险。相较而言,传统体育数据中的隐私泄漏风险并不如此明显,因为较早体育数据的生成模式是“人工+信息整合”的方式,即利用人工先收集相关体育统计数据,再通过录入计算机的方式进行整合[16]。这种模式下的个人信息泄漏程度较低且方式单一。反观ChatGPT嫁接后的人工智能體育应用,其独特的交互性与智能性,让用户的个人隐私泄漏(身体状况、锻炼习惯等)、数据滥用(用于商业营销、个人追踪等)以及不当决策风险急剧提升。一方面,ChatGPT成功突破了语言壁垒,使得人机交互变得更为自然。而在交互过程之中,人工智能体育应用无时不刻不在收集着用户的个人信息,使应用后台形成了范围较广的数据源库。另一方面,ChatGPT升级到GPT-4版本以后,其强大的智能性也令人惊叹,如作曲、写剧本或学习用户的写作风格等。而这强大的算力和智能,都可能侵犯到程序预设之外的隐私信息。
(三)ChatGPT的平台运行阶段
ChatGPT的运行阶段是人机交互的最好体现,即使用者通过文字或图片等输入的方式,获取ChatGPT运行后的结果。而在这一过程之中,ChatGPT输出的结果可能存在一定基于算法定式或答案本身的推荐与伦理风险。
1.项目推荐:信息茧房风险
信息茧房(Information Cocoon)用来比喻信息传播中受众用户在海量信息中只选择感兴趣和悦己的主题,排斥或无视其他观点与内容,如同“作茧自缚的蚕”[17]。随着ChatGPT的更新迭代,其预测与分析能力不断提高,甚至可以捕捉到使用者所想的答案。久而久之,用户所要获得的体育活动信息逐渐向单一化转变。而这一现象的发生由多种因素导致,以产生主体为标准,可分为“平台利益驱动”与“用户需求决定”两种。前一种观点认为,平台需要通过向用户推荐其内心偏爱的答案,以获取肯定,进而提升平台的关注程度。如通过与某一教师的沟通,发现其深爱乒乓球项目,那么在后续健康相关的问答过程中,可能平台会积极推荐乒乓球这一用户偏好性运动。后一种观点认为,用户只想看到其感兴趣的内容,将注意力放在自己想要了解、具有兴趣的领域,屏蔽掉自己不喜欢或认为不重要的信息,最大限度满足自身期望,在志趣相同的圈子内展开讨论[18]。通过以上可知,尽管信息茧房现象的产生原因不同,但可以证明的是这种风险确实存在,且可能对使用者产生一定不良影响。
2.结果输出:算法伦理风险
2022年3月22日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,该文件提出:“科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。”[19]而ChatGPT在助推工会发展人工智能体育应用时,同样面临着算法解析后的答案是否符合科技伦理的问题。具体而言,当在ChatGPT界面中输入一些敏感性话题时,其答案内容可能存在不当甚至违法,如一些歧视性言论或引诱犯罪性言论。从算法本体的审视向度来看,人工智能研发者和应用者应当使人工智能的设计合乎道德[20]。但在实际的结果输出上,部分回答并不尽如人意。一方面,这种回答上的伦理风险可能出自算法设计者本身的偏见,导致使用者接受了错误的价值观念;另一方面,ChatGPT的智能程度毕竟有限,对于一些诱导性、危险性、敏感性话题的解读能力存在不足之处。例如,在教职工向ChatGPT提问、获取健康建议的结果输出中,偶尔会出现一些错误的饮食建议或对某些敏感话题的不当回答,可能会给用户带来不良影响。
三、高校工会引入ChatGPT开展体育工作的回应路径
高校工会引入ChatGPT技术是时代所需,但接踵而来的科技风险也值得嫁接者仔细思量。结合文献梳理以及在ChatGPT应用过程中的现有问题,可从规范层面、技术层面以及监管层面予以协同回应。
(一)规范层面:预先出台合规指引
预先制定规范具有规制与引导的双重作用。对于前者,主要是指通过预先制定的规范对高校工会嫁接ChatGPT技术具有较好的规制机能。即预先制定相关条款,对这项技术的算法架构、数据使用以及平台运行进行顶层设计,使其在接入人工智能体育应用的过程之中合规合法。对于后者,主要是指规范具有示范与引导作用,通过相关条款的约束与惩罚,让程序开发者认识到算法合规的重要性。具体而言,合规指引的出台需包括以下三个方面。
1.明确ChatGPT的接口范围
接口范围的大小决定了对教职工个人信息的处理范围,旨在从源头遏制信息数据在传输过程中的泄漏风险。我国《个人信息保护法》第6条规定,收集个人信息应当限于实现处理目的的最小范围,即数据最小化原则。这意味着,ChatGPT对数据处理的每个阶段,都应有所限定。一方面,在收集存储阶段,应以服务于用户的实际需要为基础,采集教职工的体育活动信息。如部分教师只是想通过ChatGPT询问有哪些体育事项,但并未提及是否符合自己身体状况为要求时,只需通过后台调取高校的具体体育项目即可,因为单纯的询问无需以个人信息数据的调取为前提。另一方面,在传输提供阶段,应以用户的指令需求为前提,不应过多公开涉及他人的信息。这是因为,高校教职工的生活圈相对较小,即使ChatGPT的回答内容并未直接提及其他用户,但依据“熟人社会”的猜测,很容易推导出关系人群的体育活动信息,有用户个人信息的间接泄漏之风险。
2.明确ChatGPT的伦理架构
ChatGPT的伦理风险涉及体育科技领域的多个方面,对其进行规范层面的最好解决方法是设置相应的算法伦理条款。首先,在体育项目推荐领域,应设置“非类似选项”以阻止信息茧房风险的现实化。在ChatGPT技术的操控下,算法过滤器以迎合受众的方式推送特定内容,并根據细节和语境需求为每个人量身定做特定信息环境[21]。在这种情状下,教职工用户失去了接触其他体育项目的可能,逐渐倾向于单一的活动。因此,需要设置“非类似选项”以突破信息茧房营造的的桎梏,给人工智能体育应用的回答创造非固化的空间,即规定不允许考虑个人特征的因素来进行推荐体育项目,同时增加用户反馈机制,鼓励教职工提供对推荐结果的评价和意见,以便及时调整算法。其次,在结果输出领域,应设置“敏感问题预警识别机制”以阻止答案有违伦理道德。例如,上文提到的利用ChatGPT技术为教职工提供健康咨询服务而产生的算法伦理风险。工会应采取多重措施来减轻风险,通过与技术团队合作,加强算法的伦理审核,规定在健康咨询中不能涉及的话题,以及必须遵循的科学指导原则,并设置“敏感问题预警识别机制”,当用户提出可能涉及伦理风险的问题时,ChatGPT会提醒用户注意风险,并可能不提供具体答案。
3.明确ChatGPT的使用授权
算法黑箱是人工智能体育应用的常见问题,在嫁接ChatGPT服务后,涉及的法律问题可能是多层次的,但核心的解决途径依旧是提高算法的透明度。首先,在ChatGPT的使用过程中,要贯穿个人信息保护领域的“知情—同意”原则。“知情—同意”是否成立是一个事实判断问题,这不光是对个人自决的尊重,也是对个人信息进行保护的法律要求[22]。作为数据信息的所有权主体,有权知道自身信息用往何处并将进行怎样的处理,即在信息使用“前”可做出知情预判,信息使用“时”可选择拒绝。其次,要将“知情—同意”原则予以具像化,即形成用户数据使用协议与设置相应断开界面。“知情—同意”原则的具像化有两种方式,一种是通过签订用户数据使用协议,从事前告知数据的使用规则、方式以及将承担的风险;另一种是设置相应的断开界面,从事中赋予教职工用户阻断数据传输以及使用的权利。同时,前一种方式的最大特点在于让使用者获得最全面的“知情权”,后一种方式则重在使用户拥有随时控制个人数据信息的“同意权”。
(二)技术层面:增进风险防控能力
以技术治理技术,是人工智能时代的再一次创新,因为技术不仅制造风险,也可以用于防控风险。从规范的角度来看,我们可以设定ChatGPT的算法标准,如提高算法透明度、建立算法公平基准等,但我们始终无法通过人工的方式去检验标准是否得到有效实现。而“技术治理”的方式可以很好地解决这一困境,因为其存在与运行的方式与所要解决的对象同源。因此,我们可以在应用技术之外创造新的技术,用以检验原有技术在运行过程中可能发生的各种风险。以防控技术存在的不同平台为依据,大体可分为ChatGPT内设的自主风险防控与ChatGPT外接的人工智能体育平台风险防控两种。
1.ChatGPT内设的自主风险防控
2023年3月22日,ChatGPT的创始人Sam Altman在推特上发文,表明由于系统故障等原因,让一些用户能够看到其他用户对话历史记录的标题。一时间,有关ChatGPT用户信息的隐私泄露问题再度引人热议。但Sam Altman称,目前该故障已经被修复,只不过用户无法访问部分时间的聊天记录。这一事件充分说明,数据的隐私问题不可避免,ChatGPT的自主防控能力还需进一步增强。具体而言:一方面,我们可以开发监测程序,用于循环检查ChatGPT中的系统问题;另一方面,可以将人工测试与技术测试进行结合,通过使用方式,不断寻找系统的漏洞。
2.ChatGPT外接的人工智能体育平台风险防控
ChatGPT内设的自主风险防控固然重要,但其实质上是人工智能体育应用调用的功能板块之一。所以,风险控制的前端节点,还是在于人工智能体育应用本身。目前,国内高校工会开展体育工作多借助于学校自主研发或商业购买的人工智能体育应用平台。对于前者,由于研发能力尚缺、多存在系统漏洞等,导致信息数据的安全性不足。对于后者,商业性开发的核心目的在于营利,所以存在泄漏教职工信息用于换取不正当利益的情形,对使用者的隐私造成了一定隐忧。因此,在借助人工智能开展体育工作时,应当采用数据加密技术,确保教职工个人信息在传输和存储过程中的安全性。同时,提供用户个人信息的查看和管理功能,使教职工可以随时了解自己的数据被如何使用,进而增进体育应用平台的风险防控能力和教职工对平台的信任。
(三)监管层面:适时加强人工介入
单纯依靠技术对科技风险进行治理,具有一定的局限性,因为人工智能并不能完全代替人类完成所有任务。所谓ChatGPT内涵的算法伦理与歧视问题,也只不过是人类社会问题的缩影。因此,基于人工智能体育应用的风险特性,在嫁接ChatGPT技术时应充分发挥人的主体能动性,将科技风险降到最低。
1.设置数据保护管理人
通过设置数据保护管理人,从而完善数据信息的预审机制,实际上是对数据风险的预警审查。首先,在人工智能体育应用平台中应预先设置数据的审查人员,目的在于为后期出现的数据问题寻找对应的复查管理人。即明确责任的划分,进而达到“谁管理—谁改正”与“谁保护—谁负责”的效果。其次,人工智能体育应用平台中应有统一的反馈模块,用以在线提交使用ChatGPT后的反馈意见。同时,经反馈的问题要让反馈者知悉办理的进度,避免出现同一问题的多部门受理情形,以至于增加工会处理ChatGPT相关问题的成本。
2.建立个人信息预审机制
个人信息的预审机制,实际上是围绕着数据保护管理人的设置而展开,即工会出于保护个人信息的目的,在教职工信息上传前对数据本身进行合规预审,用以测评数据中的个人信息是否存有潜在的侵犯风险。一般而言,个人信息的预审机制应主要包括两方面:首先,应明确预审的内容范围。既然预审的目的是排除存在侵犯个人信息的潜在风险,那么预审的首要内容便是界定数据中是否包含侵犯个人信息的可能性风险。其次,预审的管理人员。预审管理人员的设置,可具体到某一部门或个人,也可部门与个人并行。这种人员明确的方式,一方面是为了个人信息的有效预审,另一方面也是为了与信息反馈程序的有效衔接以及后续追责。
3.加强内外追责保护
内部追责与外部追责的核心目的并不在于惩罚,而是通过追责的方式增加违法成本,从而提高数据平台以及工会管理人员对信息的保护性意识。首先,尽管内部追责多面临内部执行难的问题,却是进行责令改正与惩罚主要责任人员最直接的方式。在具体的惩罚过程中,对于负责进行追责的部门,应确保惩罚的实际执行,不能因同一部门碍于情面或具有其他利害原因而简单了事。其次,明确教职工个人信息保护的法律责任和法律救济途径,外部追责借助于司法权力对教职工的信息进行保护,可以有效回避内部追责的弊端,从而以外部权力制约的方式促使责任部门进行改正。即当教职工用户无法从工会内部部门获得满意答复时,便可以寻求司法救济,以维护自身的信息权益。
四、结语
2022年10月16日,习近平总书记在中国共产党第二十次全国代表大会上的报告中提出了“加快建设体育强国”的重要战略[23]。与此同时,我们身处大数据时代,从教职工的体验需求到工会体育工作的开展,都渐渐离不开人工智能体育应用的帮助。高校工会运用ChatGPT技术在体育工作中开展创新性和智能化活动的前景广阔,如活动宣传创意生成、智能咨询与答疑、个性化活动推荐、体育知识普及、在线体育课程、报名流程简化、虚拟赛事与训练、体育成绩查询、体育互动社交、意见收集与反馈等。ChatGPT技术可以在高校工会体育工作中发挥重要作用,提升活动策划、管理和服务水平,增加教职工参与体育活动的积极性和乐趣。但科技福利与科技弊端往往同在,在嫁接ChatGPT技术时我们无法避免要面临其带来的技术风险。因此,我们要预先分析ChatGPT嫁接人工智能体育应用过程中的可能性风险,然后从预防的角度提前设定解决路径,以期实现新型科技与工会开展教职工体育工作的良性共生。
参考文献
[1]丁永亮,史国生,孙国友.习近平总书记关于体育工作重要论述的丰富内涵、逻辑体系和本质特征研究[J].体育学研究,2022(6):98-99.
[2]柳鸣毅,丁煌,闫亚茹,等.“体育强、中国强”的学理阐述——习近平总书记体育思想初探[J].武汉体育学院学报,2018(1):52-53.
[3]江小涓.贯彻落实新版《中华人民共和国体育法》,加快建设现代体育强国——修法过程、增改重点和学习体会[J].体育科学,2022(10):8.
[4]万炳军,史岩,曾肖肖.“健康中国”视域下体育的价值定位、历史使命及其实现路径——基于习近平治国理政的思想与战略[J].北京体育大学学报,2017(11):3.
[5]罗乐,刘潇,唐灿.基于新时代背景构建高校“智慧工会”的思考——以对外经济贸易大学为例[J].山东工会论坛,2020(6):71-78.
[6]张丽军,孙有平.走向主动健康:后疫情时代运动健康教育与大数据融合发展研究[J].成都体育学院学报,2022(3):47-48.
[7]张惠彬,张麒.NFT融入体育产业:应用场景、风险评估及规范路径[J].西安体育学院学报,2022(5):542-543.
[8]吴驷.人工智能时代:体育才是未来[C]∥“GPT时代的体育学术:身体作为方法”线上工作坊,南京,2023-02-18.
[9]清华大学体育产业发展研究中心.ChatGPT火到体育圈[EB/OL].(2023-02-24)[2023-06-01].https://mp.weixin.qq.com/s/tef8o8FnQOKDd1WsyCDTJQ.
[10]韩世鹏.算法价格歧视的规制困境與治理新解——基于算法解释权的视角[J].科技与法律(中英文),2022(6):90-91.
[11]倪琴,刘志,郝煜佳,等.智能教育场景下的算法歧视:潜在风险、成因剖析与治理策略[J].中国电化教育,2022(12):93-94.
[12]马皑,宋业臻.人工智能犯罪风险评估“算法歧视”现象及其规制路径[J].江淮论坛,2022(2):120.
[13]杨庆峰.数据偏见是否可以消除?[J].自然辩证法研究,2019(8):112.
[14]朱光辉,王喜文.ChatGPT 的运行模式、关键技术及未来图景[J].新疆师范大学学报(哲学社会科学版),2023(4):113-122.
[15]徐伟康,徐艳杰,郑芳.大数据时代运动员数据的法律保护[J].天津体育学院学报,2019(5):457-458.
[16]徐伟康,林朝晖.人工智能体育应用的风险与法律规制——兼论我国《体育法》修改相关条款的补足[J].体育学研究,2021(4):31.
[17]张省,蔡永涛.算法时代“信息茧房”生成机制研究[J].情报理论与实践,2023(4):67-73.
[18]王妍.警惕网络“信息茧房”效应[J].人民论坛,2020(11):126-127.
[19]新华社.中共中央办公厅 国务院办公厅印发《关于加强科技伦理治理的意见》[EB/OL].(2022-03-20)[2023-06-01].http://www.gov.cn/zhengce/2022-03/20/content_5680105.htm.
[20]张旺.算法伦理审查的逻辑认知及实践路径[J].海南大学学报(人文社会科学版),2023(1):119.
[21]张春美.“聪明技术”如何“更聪明”——算法推荐的伦理与治理[J].探索与争鸣,2022(12):176.
[22]陈佳举.法律行为理论下个人信息保护的知情同意研究[J].中国政法大学学报.2023(2):200-202.
[23]王健,崔耀民,刘玉财.加快建设体育强国的战略选择:优先发展学校体育[J].天津体育学院学报,2023(1):1.
The Application of ChatGPT in the Sports Work of University Trade Unions: Functional Positioning,Risk Characterization and Solution Path
Abstract:In the era of big data,it is the need of the times for college unions to introduce ChatGPT technology to assist them in carrying out sports work. The application of this technology not only responds to the important strategy of a strong sports nation,but also enhances the digital service capability of college unions,which in turn meets the individual health needs of the staff. Through research methods such as literature analysis and software evaluation,it is found that there are three stages of scientific and technological risks in the grafting of AI sports applications to ChatGPT technology,namely,the risk of interface overload and sports fairness in the preliminary architecture stage,the risk of bias in number sources and privacy leakage in the data training stage,and the risk of information cocoon and algorithmic ethics in the platform operation stage. Therefore,under the existing problems,university trade unions should pre-emptively introduce compliance guidelines at the normative level,enhance risk prevention and control capabilities at the technical level,and strengthen manual intervention at the regulatory level,in order to realise the benign symbiosis between the new technology and trade unionswork on staff sports.
Key words:ChatGPT; university trade unions; sports activities; sports technology risks; prevention and control responses