京公网安备 11010802034615号
经营许可证编号:京B2-20210330
2014年我国“两会”期间,央视加大了大数据分析在新闻报道中的应用力度,在每天的《新闻联播》中专门安排4分钟的专题栏目《两会解码——两会大数据》,由主持人从数据分析的角度着手,向人民群众详细解读当天的热门话题,在社会上引起广泛好评。亿赞普公司作为央视此次“两会”报道中最大的大数据提供商,携手百度、腾讯,利用其拥有的大数据平台网络,每天为该栏目提供全球范围的实时数据挖掘、多维度的数据对比、深度的大众思想分析以及直观易懂的可视化服务。在11天的《两会解码——两会大数据》播报中,主持人在演播室中使用全新的立体成像技术和人机互动技术,每天都生动、直观地向观众播报大数据对“两会”热点问题的分析,其内容涵盖收入分配、医患关系、交通拥堵、百姓心愿、单独两孩、大学生就业、中国“两会”全球热搜、政府新政等众多热点问题。延续这股热潮,五一小长假期间,央视再度与亿赞普公司合作,4月30日起,在中央电视台《新闻联播》和《新闻直播间》栏目中推出《五一去哪里 数说“五一”》专题栏目,从大数据中看生活中的新趋势。
如此大规模地使用大数据进行专题报道,一方面说明央视对网民行为的关注度正逐渐提升,另一方面也展现了亿赞普、百度、腾讯作为中国巨型互联网公司的大数据实力。中国人民大学新闻学院副院长喻国明对此表示:“上世纪60年代的精确新闻报道是经过结构化调查、民意测验等调查得到的,它的及时性和数据的全面性是不够的,而大数据本身就有及时性和全面性等特点,所以与传统的精确新闻报道相比,上了一个新台阶。央视多次选择结合大数据作新闻报道或将成为未来媒体特别是电视媒体报道传播的一大方向。”
一、大数据时代的来临
最早提出“大数据时代”这一概念的是世界知名咨询公司麦肯锡(MGI)。关于“大数据(BigData)”,麦肯锡全球研究所在《大数据:创新、竞争和生产力的下一个前沿》的报告中明确定义:大数据即指大小超出了传统数据库软件工具的抓取、存储、管理和分析能力的数据群。百度百科对大数据的描述是:大数据,或称巨量资料,指的是所涉及的资料量规模巨大到无法通过目前主流的软件工具,在合理时间内达到撷取、管理、处理并整理成为更积极地帮助企业进行经营决策的资讯。
我们正处在一个数据呈爆发式增长的时代,移动互联网、移动终端和数据感应器的出现,使数据以超出人们想象的速度快速增长[1]。互联网、物联网每天都在产生大量的数据,这些庞大的数据资源,为人们依据数据更全面地了解世界提供了可能。在这种形势下,大数据已经被视为一种资产、一种财富、一种可以被衡量和计算的价值,成为不可或缺的战略资源。大数据具有4V的特点[2],即Volume(大量)、Velocity(高速)、Variety(多样)、 Value(价值)。而它的这些特点,正是我们创新新闻报道内容的方向所在。
央视通过同百度、亿赞普和腾讯三家大数据公司进行深度合作,使得“两会”新闻报道既拥有了广度,又兼顾了深度,这充分体现出了大数据的4V特性。这三家公司在数据分析方面各有所长。其中,“百度迁徙图”对于春运回家的流入和流出实时的呈现,让不少观众大开眼界。“丈母娘的礼物”等热搜词,让观众看到了很多传统报道角度所报道不出来的新闻热点内容;腾讯微博的“话题活跃度”板块,为广大人民群众提供了对网民话题的深度了解;亿赞普科技公司作为连续两年承担国家863大数据课题、数据挖掘覆盖全球89个国家、在国内的覆盖人数超4亿的巨型全流量数据分析公司,更是通过构建不同的抓取和分析维度,使得“两会”新闻报道更有深度、有细节。
二、大数据分析在新闻报道中的应用
1.找准切入角度
"数据分析师"在新闻报道中使用大数据分析,可以使新闻报道有更准确的切入点。新闻界是数据的重要应用者,通过数据挖掘的方式进行的新闻报道,可以在繁杂琐碎的非结构化数据背后,发现常规新闻中所不能体现的逻辑,找准切入点,进而对新闻热点进行深度解读。比如3月4日的《搜寻两会最热话题:百姓心中的难和易》报道中,就使用了大数据来解读老百姓关心的热点问题,准确的切入点引起了群众的共鸣,引起的巨大影响更是受到了李克强总理的肯定。
往年的“两会”报道也聚焦民众关注,不少媒体也试图将民意传递给政府,比如《热点问题调查》《我有问题问总理》等,虽然在一定程度上反映了民意,但是对于民意收集的手段有限,参与人数更为有限,最终呈现的民意未必能真正反映民意。而今年的“两会”却运用大数据分析,使得相对真实的民意呈现出来,比如百姓心中的“难”和“易”,如果靠我们的主观判断,百姓心中最难解决的会是什么呢?房价?教育?雾霾?交通?大家会各执己见。对此,大数据为我们抓取数据进行分析,得到了最难解决的问题是收入分配的问题的结论,这个话题不仅在两年中话题量稳居第一,而且关注度又上升了好几个百分点。通过大数据,更是分析出了百姓认为这个问题最难解决,不是认为政府办事不力,而是认为涉及体制改革,非一朝一夕之功的结论。百姓的理性和对改革的乐观性,没有大数据的分析,在传统报道途径中很难真实地体现出来。
2.加强报道深度
"数据分析师"在新闻报道中使用大数据分析,可以使新闻报道对事物做出更深入的剖析。10年前,记者如想获知国家的关键经济数据,只能通过打电话到相关统计部门,经过繁琐的程序后才能拿到未必真实的数据。而如今,网络的存在使得世界各国的数据触手可及。2012年10月,有一则科技新闻《联想超越惠普,成为全球第一大个人电脑厂商》发布,读者对此颇有微词:在移动设备风生水起、个人电脑销量下滑的今天,联想成为第一有多大意义?彭博新闻社为了解答这一问题,利用数据对这则报道进行了深度解析[3],以2004年底联想和IBM签订合同为起点,对比了当时世界五大个人电脑生产商的股价变化,发现联想股价在8年中上涨 130%之多,IBM的股价也提升了超过100%,而其他几家电脑厂商却有不同程度的下跌。这有力地说明了8年前联想并购Thinkpad的决定,至少从资本市场来说,对双方是一个双赢。这样的数字很说明问题,对质疑者也给出了有力的解答。这个例子充分说明了大数据使得新闻报道更具有深度。
3.创新报道视角
使用大数据分析,可以为新闻报道提供不一样的视角。在《两会大数据》节目中曾提出过一个问题:中国召开“两会”,哪个国家最关注?这个问题过去完全无法解答,只能在类似《全球高度关注中国两会》这样的文字报道中找到一个模糊的描述。而今年的央视则信手拈来,借助数据分析在《两会大数据》栏目中,给最关心中国“两会”的国家排出了名次。结果有点出人意料:印度尼西亚高居榜首,而美国位列第四。在排行榜上的国家多数位于亚太地区,与中国有着密切的经贸关系和地缘交集。国人并不熟悉的秘鲁位列第七,是因为中国每年从秘鲁进口大量牛油果,使得当地人关注中国“两会”,关心中国的发展趋势。大数据的分析结果虽然出乎意料,但却在情理之中:中国的发展方向越是攸关谁的利益,谁就会越关心中国“两会”。这则报道挖取了全球89个国家的网民对中国“两会”浏览、评价的数据,通过数据分析,客观地比对出全球最关注中国“两会”的区域,进而到最关注中国“两会”的前十个国家,使国人对外国如何看中国“两会”的问题的答案从模糊变成明确。而这一切,如果没有巨量数据的挖掘和分析,是根本无法实现的。
4.缩短报道响应时间
大数据平台和技术使记者们以及相关的数据分析者得以更多地对数据进行快速、及时、准确地选取,以此更好地为受众提供最为及时的新闻资讯报道。无论是通过卫星传感器传递的数据进行分析预测,做出近期的天气预报,还是通过遍布全球的信息网络在第一时间了解热点问题,并对热点问题加以解读分析,使观众足不出户即可瞬时掌握千里之外的资讯,大数据为新闻报道响应时间的缩短立下了汗马功劳。新闻界使用大数据技术缩短事件响应周期,采用新的技术和方法来加速响应时间,显而易见地能够使掌握大数据分析报道方法的机构掌握报道先机,节约报道成本,获得最大关注量。
对于一个综合网站的编辑来说,基于访问量的考核是其每天都要面对的事情;对于一个记者来说,基于自己提供的报道的真实性、先机性、阅读量的综合考评是评价其是否优秀的关键;而对于一档新闻节目来说,基于收视率、影响深度和广度的考评至关重要。近期许多编辑、记者、节目工作人员都把热点新闻作为报道的重点,他们选择热点新闻的方法很简单,仅仅是通过百度搜索风云榜和搜狗热搜榜进行选材。看似毫无科技含量的举动的背后蕴藏着大数据的影响,原来搜狗和百度都拥有独有的输入法和搜索引擎,通过它们各自的搜索引擎,能够在最短的时间内将网民点击、关注的热词进行编辑整理,并每天连续对热搜榜进行更新,确保信息的新颖程度,这为许多编辑、记者、节目工作人员提供了方便,网络上的热点问题关注、记者对热点问题的深入报道、节目工作人员对于热点问题的分析都在大数据的支持下快速地响应。
如前所述,大数据正在加速新闻界快速处理和分析信息、加速响应时间的能力,大数据的数量和速度特性,使得新闻报道的时效性更强,掌握大数据的分析方法,将会使新闻业获得更好的发展。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09