京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据时代的小数据营销过时了吗_数据分析师考试
在大数据大行其道之时,我们积累了几十年、上百年的小数据处理方法是否就意味着过时了呢?
要回答这个问题,我们还是要先从小数据的定义入手。
目前网络和行业都缺乏对小数据的标准定义,在美国、乃至台湾有一种关于小数据的定义,认为相对于服务趋势和战略的大数据而言,那些服务于个体而形成的数据指标,应该称之为小数据。举例来说,谷歌根据人们在搜索引擎使用的关键词的相关性,判断H1N1流感趋势,为卫生防疫部门提供预防决策属于大数据的典型应用;而耐克和苹果合作开发的“Nike+”软件,为个人的健康和锻炼提供的数据指标和参考,就属于小数据的典型范畴。
我想说的是,如果从维克托的大数据使用的三个原则和标准,我们可以清楚的看到,他所意指的小数据更多的是我们沿用传统方法收集和整理的数据。而这本书的序作者之一的谢文也明确表示,在互联网技术席卷的今天,整个世界会明显地划分为大数据时代、小数据时代、无数据时代,小数据的时代指向更加明显。
所以,我们定义的小数据,应该是在信息和数据不完整的情况下,通过科学抽样和技术调整,为个体或某类具体问题提供数据参考的数据包。
弄清楚了小数据的定义,我们来看看小数据相对于大数据,是不是真的已经out了?
一、整体数据是不是一定优于抽样数据?
互联网技术的发展,为收集整体数据而产生的成本下降直至忽略不计提供了可能,而传统数据的收集方法是在平衡成本和精确之下,选择规范的抽样方法,两者在数量级的比较上就不在一个体量级。从统计的精确度上来说,数据越大,精确度越高,结果也会更加逼近于真相。当年传统的数据处理,正是受制于数据越多成本越大,或者某些现实条件,无法穷尽数据,才不得已采取了抽样分析的折中办法。从数量的角度讲,大数据确实要优于小数据。
但是,小数据分析方法,比如样本方差,尽可能用各类参数将样本与整体之间的差异缩小,让结果无限逼近真实,在趋势和策略判断上,抽样判断和整体判断,其实很多时候都是五十步和一百步的区别;另一方面,小数据时代积累的各类数据处理方法,也仍然是大数据时代数据处理的基础和原则,抛弃小数据来谈大数据,大数据也将是无源之水、无本之木。
二、小数据处理数据的原则是效率优先、精确为辅。
大数据使用的第二个原则追求效率而不是绝对精确,需要重点提到的是,小数据处理体系的存在,正是建立在追求效率而不是绝对精确之上。小数据营销FromEMKT.com.cn一般是针对某类具体问题,在特定的时间段里,需要开展数据的收集、整理和分析,并得出结论以做行动参考。小数据营销更符合实战营销中,不可能在信息完整情况下再进行判断的现实。今天乃至以后很长一段时间的营销现实是:我们必须在竞争对手信息不完整、消费者信息不完整、市场信息不完整等诸多现实情况下,在指定的时间前,做出判断和决策,并付诸于行动。时机就是战机,等到所有信息都完整了,黄花菜也凉了。所以,小数据才会有用抽样代替整体的选择。
另一个现实情况是,在现阶段甚至很长的一段时间里,靠互联网自动采集所有数据还不现实,技术的发展和普及需要时间,很多数据还无法实现网络化,比如因为现实的财务、税务问题,采集经销商的数据就一直是个难点,ERP喊了多少年,进销存喊了多少年,在上了系统的企业里面,经销商的相关数据有多少水分,每个企业都心知肚明。
三、小数据具体问题的个性化处理,更偏重于因果关系而不是相关关系。
维克托提到大数据的第三个原则,就是大数据更注重相关关系而不是因果关系,即两组数据的相关性是数据处理的第一要务,至于为什么相关,这个问题交给计算机自己处理。相关性和因果性,孰轻孰重,《大数据时代》的译者周涛也曾表达了不同观点。我们常说某人读书不求甚解,通常是指其知其然,而不知其所以然。今天大数据将“所以然”的东西交给计算机,使用者只对“然”负责,我和朋友调侃说,这也许是机器统治人类的第一步。
在高度繁荣的信息社会,你要确保计算机“所以然”是可控的,得有两个前提:一个是计算编程的逻辑在开始设定时就是正确的;一个是机器进行海量数据处理时,自身不会因为“疲劳”等因素造成计算错误,而这正是大数据面临的问题。
小数据由于是针对特定问题开展的数据收集、处理和分析,人的因素比较大,大数据的短处正好成为了TA的长处,在数据的处理过程当中,目的的指向性和人与数据的互动会更加有效。
关于大数据相关性的问题,我曾看到一个网上的段子,问影响人寿命长短的因素有哪些,有人通过相关分析得出,一个人庆祝生日的次数与寿命的长短成正比,换句话说,一个人要长寿就要多庆祝生日。稍有常识的人,都知道这是一个逗比的笑话,但是当计算机给出其他的错误相关结果时,我们有多少人能够用常识判断出,这是否是又一个逗比的结果?
用小数据抵制甚至漠视大数据时代的到来,是逆潮流而动的掩耳盗铃;但用大数据时代来否认小数据的价值,是将大数据的历史和未来进行割裂,依然停留在伪数据时代。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01