京公网安备 11010802034615号
经营许可证编号:京B2-20210330
反思大数据新闻的思维逻辑(2)
(三)重信号而轻噪声。
大数据新闻重要的功能之一就是减少或消除不确定性,以预测未来事态。信息的指数型增长有时被人们视为万灵药,以至于人们根本分辨不清大数据中的信号和噪声。纳特·西尔弗在《信号与噪声》一书中指出,在任何一个数据丰富的领域,寻找预测模式都很容易。关键是要分辨出这些模式到底是噪声还是信号。他举了天气预报、政治选举预测、地震预测、棋牌游戏、股市、恐怖袭击等多个领域的例子,认为我们对未来的预测,应该基于可能性,以概率的方法思考问题,在不断试错中进步。从某种意义上说,大数据新闻传播也必然在预测和证实(证伪)之间有其独特的实践逻辑设计。但该认知逻辑必由两个组合的构成因素所支配:一个是新闻实践成功的程度所必须的认知资源,如信息、时间和计算能力。另一个是新闻实践推理主体所瞄准的认知目标的高度。由于这两个因素有程度之别,因此,某一具体的新闻实践行为是一个相对的、可比较的概念,而不是一个绝对的、没有参照物的死物。按此观点,只有当大数据新闻推理者心中拥有的认知任务和其可利用的认知资源相匹配时,推理才是正确的。对于传统新闻主体而言,认知的信息、时间和计算能力资源与作为高层次的大数据新闻推理者相比较而言,相对不丰富,因而,传统新闻主体的认知目标相对适中。尽管如此,我们可能还会以对自己有利的方式对这些数据进行分析和解释,而这些方式很可能与这些数据(所代表)的客观现实不相吻合。数据驱动预测机制可能会成功,也可能会失败。一旦我们否认数据处理过程中存在着主观因素,失败的概率就会增加。因此,在1970年出版的《未来的冲击》一书中,阿尔文·托夫勒对他所说的“信息超负荷”的一些后果进行了预测。他认为,尽管世界本身正走向分化,变得更加复杂,但人类仍会以坚持自身看法的方式使这个世界变得简单,这便是我们的防御机制。
(四)用事实说话和用数据说话。
大数据时代既要用事实说话,也要用数据说话,这句话是没错,但关键在于应该说清楚用事实说话是用具体的、抽样的个体性事实说话,而用数据说话是用抽象的、普遍性规律说话。前者是必然的理由,后者具有或然性。因为大数据样本不仅需要更多的时间去分析,它们往往还包含被抽样的所有个体的许多不同信息,从统计学的角度讲,这意味着这些样本是“高维的”。更多的维度增加了发现欺骗性关联的风险。比如,在医学研究中,可能会将某种药物的疗效与病人的身高联系在一起。但是这可能仅仅是因为大数据包含方方面面的信息,从身高、体重到眼睛的颜色等等。需要考虑的维度如此之多,有些维度显得重要似乎只是出于偶然。因此,用数据说话是媒体在大数据时代展现共识性、公信力的重要手段,但不是必不可少的手段。
(五)重传者分析而轻受众理解。
时下西方媒体惯常于通过对数据挖掘的方式进行新闻报道,通过仔细分析大量数据来揭示有意义的新的关系、趋势和模式,笔者试问:这些发现的所谓常规新闻中不能体现的逻辑,真的能帮助读者对新闻事件进行深度解读吗?当然,无可厚非的是计算机领域的科学家通过开发出卓越的计算能力和信息存储技术,让大数据的积累成为可能。但是收集数据及存储信息与理解这些内容并不是一回事。了解大数据的真正意义并不等同于对小数据进行解读。对于广大非专业的受众而言,对大数据分析结果的理解绝不应是简单回忆,而是具有历史的连续性和非连续性特点,即尽管过去了的东西其本身不可能原样再现和重演,这是讲的非连续性。但历史事件一旦过去,它总会给后人留下对它的某种理解,这理解就是给出历史事件的意义,正是这理解才使得一去不复返的历史事件持存着、继续着,而这也就是历史连续性的具体内涵。而大数据新闻因为过多的强调非结构化序列的连续性而割裂新闻事件历史意义的非连续性传承,从而使得新闻历史意义空洞化,从而加大其随机性定义生成的可能性,使得新闻总体上缺乏历史必然性的观照。
综上,(自然)科学视域下的大数据新闻以探索统一性的、普遍的本质为己任,其新闻客观性逻辑就是最大普遍性,最大的同一性就是最大的客观性。而人文科学视域下的传统新闻在于追求个体性的人生意义,其客观性诉求在于将普遍意义与丰富的个体性的人文意义统一起来。具言之,大数据新闻客观性来源于对一个个具体的个体所持有的丰富意义域向普遍性方向进行抽象的结果,其特征是一步一步地撇开个体身上道德的、功用的、审美的和哲学的意义等,以至最终达到最为抽象的同一性。反其道而行之,传统新闻客观性则在于首先以抽象的同一性意义为逻辑起点,超越但不抛弃抽象走向具体,通过把功用的、审美的和道德的意义与普遍意义融贯在一起,构建一个包括所有这些意义在内的有机统一体。这就是大数据新闻实践更大的理性——人文法则所必须遵循的根本逻辑和基本途径。这无疑也应该是当下大数据新闻研究的基本方向和进路。那些一味坚持大数据新闻普遍本质的自然科学研究范式,既不能深刻反映社会意义的原型结构与超自然的高位阶的社会信息需求,也不是大数据理性的完满表现。因为,对于人类社会而言,超越大数据理性的更大的理性原则是人文法则,是人生的根本意义。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25