文/戴文雄
针对于传统媒体,如果想要实现真正的“媒体融合”,首先需要将传统媒体与互联网、手机等智能新媒体结合在一起,将不同的信息产品通过不同平台传递给读者。另外,应该对互联网、手机等新兴媒体中的信息优势进行充分利用,将大数据的作用充分发挥出来,通过对数据的采集、分析等过程,为传统媒体提供更好的服务工作,最终实现传统媒体的流程再造。
想要实现大数据平台的建设和发展,相关部门首先要做的就是数据采集。如果对数据的来源进行分类,可分为集团内数据和集团外数据;如果从数据格式上划分,包括结构化数据和半结构数据。在平台建设初期,相关工作人员需要根据平台的最终建设目标,对需要采集的数据进行合理规划,并根据数据的具体类型,选择数据的采集方法。针对集团内数据,可以通过接口或文件畸形数据导入,并通过数据库等装置实现数据之间的对接。由于集团外部的网络数据量较大,在大数据采集过程中,可对网络爬虫或公开的API进行合理利用,从而将网站中的相关文本、音频等信息成功采集。
当数据采集工作完成之后,由于数据的来源和格式等存在不同性,再加上数量众多,导致数据结构十分复杂。因此,在大数据实际应用之前,需要对其开展预处理工作,按照最终数据的使用要求,建设出一套或者多套数据选择标准,并按照相应标准对数据进行处理,之后在输送到读者面前。在大数据预处理过程中,主要包括的步骤有数据抽取、数据清洗等。在数据采集过程中所获取的大数据可能具备结构多样化等特点经过数据抽取过程,可能会帮助人们将原本复杂的数据转变成单一或者容易处理的结构类型,以此来达到对数据快速处理目的。在大数据使用之中,并不是所有数据均对人们有利用价值,有些数据信息更是读者所不关心的,还有的数据存在明显错误。因此,在数据预处理过程中,工作人员需要对数据进行仔细过滤,将无用或错误的信息驱除出去,从而实现数据预处理效果的有效提升[1]。
在数据预处理工作完成之后,工作人员需要将采集到的数据进行存储,以此来实现数据的统一管理。一般来说,人们常用Hadoop主体架构来解决大规模的数据存储问题。该架构由Apache基金会研究开发出来,属于分布式系统的基础架构。在使用过程中,用户即使对分布式底层细节了解不够详细,也可以实现分布式程序的深层次开发,通过对集群的威力应用,最终实现数据的高效存储。Hadoop还可以在分布式系统中建立文件库,该软件被称为HDFS。HDFS在使用过程中具有较高的容错率,可以将其利用在价格低廉的硬件装置上,以此来实现数据传输效率的有效提升,适合在大数据环境下进行应用。利用该种架构对大数据平台进行搭建,可实现对周期成本的有效降低。而在大数据存储管理平台建立的同时,还需要对同步平台安全体系的建设进行充分考虑。工作人员可通过对数据的销毁、加密等,促使大数据在存储过程中保持完整,将整个存储平台的安全性有效提升。
在大数据分析过程中,可将其分成两部分进行探讨。其中,底层为基础分析层,在这之上是业务分析层。基础分析层的重要作用是为业务分析层提供分析基础和服务,而业务分析层在工作过程中主要是根据用户的不同需求,对分析对象进行准确定立,并在后续整合基础分析服务,为用户提供更为专业的分析结果。在实际分析工作进行时,工作人员可以根据已经建立好的多维语义,为每个标签建立一个关键词云库,并根据以往使用的特定算法,对每篇新闻报道进行深层分析,并自动做好分类工作,将其输送到固定的标签之下。在自动分类过程中,分类结果可能在一开始可能存在问题,需要经过长时间的学习和训练才能渐渐适应。除此之外,相关工作人员还要做好分类和纠错工作,对分类算法和关键词云库进行适时更新,最终实现自动分类结果的合理优化[2]。
为了更好的促使媒体融合,各个媒体单位和部门做了大量的研究和实践工作。以成都地区为例,当地媒体以成都地区300万户家庭的全量当做数据基础,利用IPTV大数据分析系统,对收视率、收视份额等进行了全面统计和分析,时间甚至精确到秒,为各级广播电视的节目优化和媒体融合发展提供了有利条件。与此同时,由于对观众需求有了一个大致的了解,为广告主的精准营销提供了数据支持,通过IPTV大数据分析系统,以及传统媒体的权威性,再加上新媒体的传播速度,广告的影响力大大提升,为提升各个企业在市场中的知名度奠定了基础。
智能选稿系统在业内被称为智能“爬虫”,可对互联网中的新闻进行有效抓取,并通过大数据模型对热点新闻事件进行深入分析,为新闻内容的产生和传递提供了有利条件。一般来说,新闻稿初选几乎全部由机器来完成,并进行一键转载,相关记者等人员可以根据关键词的搜索,对热点人物、专题等综合信息进行获取,从而为素材编辑提供数据支撑,还可以为新闻宣传和媒体报道提供网络传播分析。这种选稿系统的出现,不但体现出了大数据的强大作用,还能在一定程度上提升媒体融合之下的新闻内容产生效率,促使新闻更加符合人们的关注点,最终实现新闻行业的全面发展。
大数据平台在媒体融合之中的应用,主要体现在融媒体的数据分析过程之中。在日常媒体工作过程中,工作人员会在融媒体之中植入统一的数据“探针”,建立一个稳定有序的数据分析和采集系统,该系统的工作流程主要包括内容采集、生产、审核、发布。全过程都涉及到了大数据的分析,还涉及到很多政治服务、行业应用等全产品大数据分析体系。通过这种大数据平台的应用,在促使媒体融合之外,还能实现各种产品之间的用户互通,并实现用户共享和内容共享,增加新媒体产品矩阵的创新性和共享性,还可以将大数据平台的应用作用有效发挥出来[3]。
根据媒体融合过程中的内容产生机制和原理。首先,工作人员需要将全平台与新媒体网络之间的通路进行打通,在保证数据安全的前提下实现融合与共享。其次,需要按照内容汇集、资源共享等具体流程,对大数据平台的应用进行全面指挥,以此来实现对热点事件的全面融合性报道。在融合大数据使用过程中,需要对融合状态下的全流程、全环节提供有效支撑。例如,在新闻内容的汇聚端口,人们需要根据智能选稿系统,对网络中的热点数据进行抓取,再通过融合编辑和资源共享,将记者的工作情况、稿件来源等进行掌握,而在此过程中,大数据平台的可视化将会发挥出重要作用,对实时信息进行全面掌握。最后,在全媒体大数据演播室建造过程中,需要实现大数据平台和虚拟前景系统的有效对接,促使各类演播室均具备可视化功能,以此来增加媒体融合之下用户的体验感。
综上所述,在大数据时代下,人们应该对传统媒体与新媒体之间的融合进行重视,并以互联网技术为依托,慢慢顺应大数据为整个新闻行业带来的改变,努力克服各种困难。除此之外,传统媒体还要对各方优势进行借助,对大数据运营平台进行建立,为时代的进步以及信息传递提供基础,并在实现发展目标的同时,维持大数据的平稳与健康。
[1]梅剑平.大数据助力媒体融合——央视大数据平台技术与实践[J].现代电视技术,2017(05):100-104.
[2]李川.打造广电融媒大数据中心助推城市台媒体融合转型升级[J].现代电视技术,2017(05):105-109.
[3]殷俊,柳青.论大数据模式对媒体融合的推进作用[J].西南民族大学学报(人文社科版),2017,38(05):161-165.