◎陈雄涛
随着芯片工艺和计算机软件的发展,计算作为一种工具增强了我们处理数据的能力。当我们在处理大量文档时,标准的新闻处理方式已经发生了很多变化。 通过机器学习,我们可以以一种机械的方式阅读成千上万的文档。几十年前,如果没有很多人的努力,如此大规模的“阅读”是不可能的。 现在,机器学习,或更确切地说是自然语言处理,不再需要将数据逐行逐字地输入文本,而是帮助我们创建文本摘要或将它们分为具有共同特征的若干类。通过计算技术,我们增强了“读取”成千上万个文档的能力。 但是,这些新功能必然会改变我们对文档集合以及从文档中获取知识的看法。也就是说,我们的能力得到增强,但我们对同一事物的观点也会改变。与文本源一样,数字图像,音频和视频也都可以以数字的方式进行计算了。 同样,这些计算能力也改变了我们的观点。 然而,我们需要注意的是某些现象会因为我们的技术改进而被忽略。
从目前的发展形势来看,每个新闻编辑室都有一套独立的AI工具使用方式。一个明显的问题是我们应该如何更好地将这些工具带入新闻编辑室。有学者指出,在新闻编辑室中,AI技术可以在以下三类活动中提供一些帮助:
1.在大规模数据中找出关键信息:在那些由于数据的规模或高复杂性而可能使人类无法胜任的特殊工作条件下,AI技术可以成为突破性的工具。 这个角色非常适合标准的新闻编辑室流程,因为即使AI技术发现了人眼看不到的情况,也可以通过标准的人类调查技术对这种发现进行核查。
2.识别趋势:AI技术的强大计算能力可以帮助描述数据集合的特征,这些特征可以按时间,地理位置或人口统计学进行分组。 与此同时,它也可以快速识别异常数据。
3.将AI技术或计算的应用作为故事本身的课题进行研究:由于它们是人为构建的,因此算法存在人为偏差。通过研究它们,我们可以发现以前看不见的偏差。 因此,我们可以利用AI工具找到一件复杂事件的真相,并让我们更好的去了解我们的社区,城市或国家。
将AI技术整合到新闻编辑中,使得记者有可能成为业余数据科学家。AI技术可以通过以下三种方式来增强记者的能力:(1)帮助对文档进行分类和分类;(2)识别值得仔细检查的数据;(3)在大量数据中寻找关键信息。有研究人员指出,AI技术存在两种工作模式:一方面是完全的自治,完全没有人类的参与;另一方面,AI技术可以与人类协同一起工作。
尽管有很多AI工具用来撰写新闻报道的案例,例如体育赛事总结,企业收益发布,甚至是地震等等,但是很少有人会认为新闻工作者的工作有可能被某种AI工具或者算法所完全取代。一些新闻工作者可以花时间来学习他们想要使用的AI工具。 比如可以从网络上获取示例代码并将其应用于事件的报道,这也会大大提高记者的工作效率。但是,除非记者对这类工具或技术相关的警告有深刻的了解,否则确实存在新闻不当行为的风险。 有时,记者发现标准的新闻方法可以有效地审核各种AI操作,但有时却不行。为了避免其中的某些问题,我们建议记者应该与熟悉该工具的研究人员联系,虽然行业专家与实地记者和编辑之间仍然存在沟通鸿沟。
说起AI技术,就必须谈到数据。当前社会,数据的可获得性不断提高。大量的数据,无论是从社交媒体还是政府网站,都会有办法查询到,这使以前一些不可能的报道成为可能。但这些大量的数据会存在很多陷阱,记者必须谨慎评估这种新型消息来源的可信度,尤其是在涉及AI技术的地方。 目前许多学者都强调了对数据的批判性思考。 比如,使用新浪微博作为其首选社交媒体平台的记者必须谨慎地依靠它来分析社会的行为,思想和感受。 尽管新浪微博的开发人员的工具和数据非常易于使用,但记者们不应该只关注它,因为该平台在从事政治和媒体工作的人们中受欢迎的程度过高。另一方面,现在的记者可以更方便的去使用现有的公共数据。 但是,有时最好的新闻报道是用尚不存在的数据完成的,记者可能必须去制作自己的数据。为了提高效率,记者应该花多长时间来仅利用手上的有限资源来完成一个新闻报道,这是一个值得思考的问题。
对于AI这种新工具,有研究人员认为必须对记者和新闻编辑室开发人员进行培训,告诉他们如何负责任地使用它们。 这项工作可能需要花费很多钱。 对于像《湖北日报》这样的大型新闻机构来说,这种投资可能不是问题,但对于资源较少的小型新闻编辑室而言,这将是一个挑战。新闻编辑室负责人可能面临的一个选择是建立,购买还是与他人合作的方式来使用AI工具。 需要指出的是,使用复杂的数据集和自定义算法进行调查分析可能需要花费数月的时间才能建立大型团队。 因此,并非所有新闻机构都能够自己编写这些工具。
与学术机构和研究人员合作可能是新闻机构开始在其新闻编辑室中使用AI的好方法。 但是新闻编辑室和学术实验室的文化截然不同。 一般来说,学术研究人员可能很难很好地理解许多公认的新闻道德规范,对于不了解同行评审研究的道德规范的新闻工作者也是如此。 这也就需要花费时间来发展伙伴关系,以及了解这种伙伴关系将如何运作。
由于AI技术可以在新闻业中扮演许多重要的角色,因此需要关注的是AI技术在什么时候、什么地点以及如何使用。一般来说AI技术的实现过程对读者可能不清楚,但是记者应该去了解该技术的实现过程。以聊天机器人为例,如果它是被AI技术所控制,那么它所描绘的故事是否是由一个算法所编写出来的?读者是否需要知道这些故事是如何编写出来的?当涉及到AI技术时,谁将最终对故事的真实性或者其引起的错误负责?如何解释错误的性质是由人类创造的算法造成的?最终该追责的是人类还是算法?
在学术文献中,作者需要清楚的描述所使用的AI工具是如何去进行分析和模式识别的。但是在新闻业中,这种描述必须翻译成非技术术语,并以简明的方式告诉读者,让读者了解人工智能是如何使用的,以及如何做出选择。一项调查指出,读者更希望记者使用清晰、可描述性的术语,而不是学术界的术语,如“机器学习”或“计算机视觉”。
因此,AI技术的透明度应该不仅仅是分享数据,也需要对算法的透明度提出一定的要求。一般来说,算法对于读者来说是以黑盒子的形式存在的,无法进行简单的解释。记者应该尽一切努力去描述在算法构建时所做的选择,并突出显示可能发生的任何偏差。事实上,人类有他们自己的偏好,因此算法在构建的过程中也需要对读者显示出一定的透明性。有学者有给出一种解决的方案,即读者通过调整AI算法的参数并观察这些给结果所带来的变化,从而判断算法对结果的影响。
新闻学是一门需要对所有事实都进行核实的一门学科,因此,新闻工作者有两项主要责任:(1)核实并以清晰易懂的方式向读者呈现信息,(2)解释其有效性。这也就引申出了一个问题:关于AI工具的使用是否应该有一个披露标准?比如,在学术界,研究论文中有一个方法论部分,其中有详细的研究人员遵循的方案的描述。需要指出的是,AI算法在保险和医疗服务行业中的应用中,很少进行独立的测试。那么在新闻行业中,是否需要进行这类的测试呢?目前的实践证明,AI算法在保险和医疗服务行业中会不可避免的存在数学偏差。那么即有没有可能让新闻界致力于让这些算法负责,并开发出一种系统,在算法开发流程中建立问责制?
考虑到正在使用的工具,记者需要首先在内部积累专业知识,以便让人们知道外界有什么,减少对领域专家的依赖,同时需要知道应该向他们提出什么要求。有学者指出,透明度和可解释性是有区别的。透明度将涉及到使基础数据可用,让人们能够与之交互,而解释性不需要透明。
我们对AI工具在新闻工作室中的使用可以得出以下的一些结论:
1.人工智能工具可以帮助记者完成以前很难在技术上实现的新闻报道。 虽然AI技术可能会改变新闻业,但它依然难以取代新闻工作者的工作。
2.设计AI的技术人员与使用AI的记者之间既存在知识鸿沟又存在沟通鸿沟,这可能会导致新闻不端行为。
3.读者应该被告知如何使用AI工具来执行事件分析和模式识别。
4.数据的规范化使用和披露(如何收集,存储,使用,分析和共享来自用户的信息)是记者需要面对的基本问题。
5.AI技术可以帮助记者获得更多的数据,这是好的一面,但是如何保证数据的真实性仍然是一个挑战。
基于于上述结论,我们给出以下建议:
1.对编辑和记者的培训至关重要。 随着AI工具进入新闻编辑室,记者需要了解如何使用新资源进行新闻报道。
2.关于数据的规范使用和AI算法的公开披露,新闻工作者和技术人员之间必须制定一定的准则并严格的遵守。
3.对于定制的AI技术,新闻编辑室应考虑与学术机构建立伙伴关系。