京公网安备 11010802034615号
经营许可证编号:京B2-20210330
经典的大数据问题
随着信息的高速发展,越来越多的数据信息等待处理,如何快速的从这些海量数据中找到你所需要的数据呢?这就是大数据的处理问题,下面我对几个经典的大数据问题进行分析~~~~
一. 设计算法找到每日访问百度出现次数最多的IP地址?
分析:将所有的IP逐个写入到一个大文件中,因为当IP地址采用点分十进制的方式表示的时候是32位的,所以最多存在2^32个IP。可以采用映射的方式,比如模1000,将这个较大的文件映射为1000个小文件,再将每个小文件加载到内存中找到每个小文件中出现频率最大的IP(可以使用hash_map的思想进行频率统计);然后在这1000个最大的IP中找出那个出现频率最大的IP,就是出现次数最多的IP了。
算法思想如下:(分而治之+hash)
1).IP地址最多有2^32=4G个,所以不能直接将所有的IP地址加载到内存中
2).可以考虑采用”分而治之”的思想,就是将IP地址Hash(IP)%1024值,将海量IP分别存储到1024个小文件中,这样每个小文件最多包含(2^32)/(2^10)=4M个IP地址
3).对于每一个小文件,可以构建一个IP值为key,出现次数为vaue的hash_map,通过value的比较找到每个文件中出现次数最多的那个IP地址
4).经过上述步骤已经得到1024个出现次数最多的IP地址,再选择一定的排序算法找出这1024个IP中出现次数最多的那个IP地址
二.给两个文件,分别有100亿个整数,我们只有1G内存,如何找到两个文件的交集?
分析:我们知道对于整形数据来说,不管是有符号的还是无符号的,总共有2^32=4G个数据(100亿个数据中肯定存在重复的数据),我们可以采用位图的方式来解决,假如我们用一个位来代表一个整形数据,那仫4G个数共占512M内存。我们的做法是将第一个文件里的数据映射到位图中,再拿第二个文件中的数据和第一个文件中的数据做对比,有相同的数据就是存在交集(重复的数据,交集中只会出现一次).
三.假定一个文件有100亿个整形数据,1G内存,如何找到出现次数不超过两次的数字?
分析:要解决这个问题同样需要用到位图的思想,在问题二中已经了解到采用位图的一个位可以判断数据是否存在,那仫找到出现次数不超过两次的数字使用一个位是无法解决的,在这里可以考虑采用两个位的位图来解决.
根据上述分析我们可以借助两个位,来表示数字的存在状态和存在次数,比如:00表示不存在,01表示存在一次,10表示存在两次,11表示存在超过两次;类似问题二的计算过程:如果一个数字占一位,需要512M内存即可,但是如果一个数字占两位,则需要(2^32)/(2^2)=2^30=1G内存;将所有数据映射到位图中查找不是11的所对应的数字就解决上述问题了。
题目扩展:其他条件不变,假如只给定512M内存该如何找到出现次数不超过两次的数字?
分析:将数据分批处理,假若给定的是有符号数,则先解决正数,再解决负数,此时512M正好解决上述问题.
四.给两个文件,分别有100亿个query,我们只有1G内存,如何找到两文件交集?分别给出精确算法和近似算法!
分析:看到字符串首先应该反应过来的就是布隆过滤器,而问题四的近似算法就是采用布隆过滤器的方法,之所以说布隆过滤器是近似的算法,因为它存在一定 的误判(不存在是肯定的,存在是不肯定的);而要想精确判断字符串文件的交集,我们可以采用分而治之的方法:将大文件切分为一个一个的小文件,将一个又一个的小文件拿到内存中做对比,找到对应的交集。
1.布隆过滤器的近似解决办法:
根据不同的字符串哈希算法,可以计算出不同的key值,然后进行映射,此时可以映射到不同的位置,只有当这几个位全部为1的时候这个字符串才有可能存在(因为当字符串过多的时候可能映射出相同的位),只有一个位为0,那仫该串一定是不存在的,所以说布隆过滤器是一种近似的解决办法。将第一个文件映射到布隆过滤器中,然后拿第二个文件中的每个串进行对比(计算出特定串的key,通过不同的哈希算法映射出不同的位,如果全为1则认为该串是两个文件的交集;如果有一位为0那仫该串一定不是交集).
既然叫做切分,顾名思义就是将大文件切分为小文件,那仫如何切分?切分的依据是什仫呢?如果我们在切分的时候可以将相似或者相同的文件切分到同一个文件中那仫是不是就加快了查找交集的速度呢?答案是肯定的。
知道了哈希切分的依据我们应该如何处理呢?我们可以根据字符串的某个哈希算法得到该字符串的key,然后将key模要分割的文件数(假设为1000个文件,文件编号为0~999),我们将结果相同的字符串放到同一个文件中(两个文件中的字符串通过相同的哈希算法就会被分到下标相同的文件中),此时我们只需要将下标相同的文件进行比对就可以了。。。
哈希切分明显比布隆过滤器的方法效率要高,时间复杂度为O(N).
具有删除功能的BloomFilter:
在上面实现的布隆过滤器中引用了不同的哈希算法,有想研究哈希算法的的童鞋可参考各种字符串Hash函数>>>
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Python文件操作场景中,批量处理文件、遍历目录树是高频需求——无论是统计某文件夹下的文件数量、筛选特定类型文件,还是批量 ...
2026-01-05在神经网络模型训练过程中,开发者最担心的问题之一,莫过于“训练误差突然增大”——前几轮还平稳下降的损失值(Loss),突然在 ...
2026-01-05在数据驱动的业务场景中,“垃圾数据进,垃圾结果出”是永恒的警示。企业收集的数据往往存在缺失、异常、重复、格式混乱等问题, ...
2026-01-05在数字化时代,用户行为数据已成为企业的核心资产之一。从用户打开APP的首次点击,到浏览页面的停留时长,再到最终的购买决策、 ...
2026-01-04在数据分析领域,数据稳定性是衡量数据质量的核心维度之一,直接决定了分析结果的可靠性与决策价值。稳定的数据能反映事物的固有 ...
2026-01-04在CDA(Certified Data Analyst)数据分析师的工作链路中,数据读取是连接原始数据与后续分析的关键桥梁。如果说数据采集是“获 ...
2026-01-04尊敬的考生: 您好! 我们诚挚通知您,CDA Level III 考试大纲将于 2025 年 12 月 31 日实施重大更新,并正式启用,2026年3月考 ...
2025-12-31“字如其人”的传统认知,让不少“手残党”在需要签名的场景中倍感尴尬——商务签约时的签名歪歪扭扭,朋友聚会的签名墙不敢落笔 ...
2025-12-31在多元统计分析的因子分析中,“得分系数”是连接原始观测指标与潜在因子的关键纽带,其核心作用是将多个相关性较高的原始指标, ...
2025-12-31对CDA(Certified Data Analyst)数据分析师而言,高质量的数据是开展后续分析、挖掘业务价值的基础,而数据采集作为数据链路的 ...
2025-12-31在中介效应分析(或路径分析)中,间接效应是衡量“自变量通过中介变量影响因变量”这一间接路径强度与方向的核心指标。不同于直 ...
2025-12-30数据透视表是数据分析中高效汇总、多维度分析数据的核心工具,能快速将杂乱数据转化为结构化的汇总报表。在实际分析场景中,我们 ...
2025-12-30在金融投资、商业运营、用户增长等数据密集型领域,量化策略凭借“数据驱动、逻辑可验证、执行标准化”的优势,成为企业提升决策 ...
2025-12-30CDA(Certified Data Analyst),是在数字经济大背景和人工智能时代趋势下,源自中国,走向世界,面向全行业的专业技能认证,旨 ...
2025-12-29在数据分析领域,周期性是时间序列数据的重要特征之一——它指数据在一定时间间隔内重复出现的规律,广泛存在于经济、金融、气象 ...
2025-12-29数据分析师的核心价值在于将海量数据转化为可落地的商业洞察,而高效的工具则是实现这一价值的关键载体。从数据采集、清洗整理, ...
2025-12-29在金融、零售、互联网等数据密集型行业,量化策略已成为企业提升决策效率、挖掘商业价值的核心工具。CDA(Certified Data Analys ...
2025-12-29CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-26在数字化转型浪潮下,审计行业正经历从“传统手工审计”向“大数据智能审计”的深刻变革。教育部发布的《大数据与审计专业教学标 ...
2025-12-26统计学作为数学的重要分支,是连接数据与决策的桥梁。随着数据规模的爆炸式增长和复杂问题的涌现,传统统计方法已难以应对高维、 ...
2025-12-26