新用户注册入口 老用户登录入口

[转载]大数据——海量数据处理的基本方法总结

文章作者:转载 更新时间:2024-03-01 12:40:17 阅读数量:540
文章标签:海量数据处理分而治之Hash映射BitMapTrie树外排序
本文摘要:本文针对海量数据处理场景,系统总结了多种有效方法,如分而治之结合hash映射、运用Bloom Filter与BitMap进行空间优化、利用Trie树及倒排索引技术,并介绍了排序算法(如归并排序、堆排序)在内外排序中的应用。同时,文章还探讨了在资源受限条件下,如何借助分布式计算框架Hadoop和MapReduce解决大规模数据问题。通过实例分析,详述了在不同问题中如何巧妙运用上述技术和策略,如查找重复URL、统计query频次、筛选高频词汇以及定位IP访问峰值等,展现了这些方法在实际海量数据处理任务中的高效性和实用性。
转载文章

本篇文章为转载内容。原文链接:https://blog.csdn.net/hong2511/article/details/80842704。

该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。

作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。

如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。

原文地址为: 大数据——海量数据处理的基本方法总结

声明: 原文引用参考July大神的csdn博客文章 => 海量处理面试题

海量数据处理概述

所谓海量数据处理,就是数据量太大,无法在较短时间内迅速解决,无法一次性装入内存。本文在前人的基础上总结一下解决此类问题的办法。那么有什么解决办法呢?
时间复杂度方面,我们可以采用巧妙的算法搭配合适的数据结构,如Bloom filter/Hash/bit-map/堆/数据库或倒排索引/trie树。空间复杂度方面,分而治之/hash映射。

海量数据处理的基本方法总结起来分为以下几种:

  1. 分而治之/hash映射 + hash统计 + 堆/快速/归并排序;
  2. 双层桶划分;
  3. Bloom filter/Bitmap;
  4. Trie树/数据库/倒排索引;
  5. 外排序
  6. 分布式处理之Hadoop/Mapreduce。

前提基础知识:
1 byte= 8 bit。
int整形一般为4 bytes 共32位bit。
2^32=4G。
1G=2^30=10.7亿。


1 分而治之+hash映射+快速/归并/堆排序

问题1

给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url?

分析:50亿*64=320G大小空间。
算法思想1:hash 分解+ 分而治之 + 归并

  1. 遍历文件a,对每个url根据某种hash规则求取hash(url)/1024,然后根据所取得的值将url分别存储到1024个小文件(a0~a1023)中。这样每个小文件的大约为300M。如果hash结果很集中使得某个文件ai过大,可以在对ai进行二级hash(ai0~ai1024)。
  2. 这样url就被hash到1024个不同级别的目录中。然后可以分别比较文件,a0VSb0……a1023VSb1023。求每对小文件中相同的url时,可以把其中一个小文件的url存储到hash_map中。然后遍历另一个小文件的每个url,看其是否在刚才构建的hash_map中,如果是,那么就是共同的url,存到文件里面就可以了。
  3. 把1024个级别目录下相同的url合并起来。

问题2

有10个文件,每个文件1G,每个文件的每一行存放的都是用户的query,每个文件的query都可能重复。要求你按照query的频度排序。
解决思想1:hash分解+ 分而治之 +归并

  1. 顺序读取10个文件a0~a9,按照hash(query)%10的结果将query写入到另外10个文件(记为 b0~b9)中。这样新生成的文件每个的大小大约也1G(假设hash函数是随机的)。
  2. 找一台内存2G左右的机器,依次对用hash_map(query, query_count)来统计每个query出现的次数。利用快速/堆/归并排序按照出现次数进行排序。将排序好的query和对应的query_cout输出到文件中。这样得到了10个排好序的文件c0~c9。
  3. 对这10个文件c0~c9进行归并排序(内排序与外排序相结合)。每次取c0~c9文件的m个数据放到内存中,进行10m个数据的归并,即使把归并好的数据存到d结果文件中。如果ci对应的m个数据全归并完了,再从ci余下的数据中取m个数据重新加载到内存中。直到所有ci文件的所有数据全部归并完成。
    解决思想2: Trie树
    如果query的总量是有限的,只是重复的次数比较多而已,可能对于所有的query,一次性就可以加入到内存了。在这种假设前提下,我们就可以采用trie树/hash_map等直接来统计每个query出现的次数,然后按出现次数做快速/堆/归并排序就可以了。

问题3

有一个1G大小的一个文件,里面每一行是一个词,词的大小不超过16字节,内存限制大小是1M。返回频数最高的100个词。
类似问题:怎么在海量数据中找出重复次数最多的一个?

解决思想: hash分解+ 分而治之+归并

  1. 顺序读文件中,对于每个词x,按照hash(x)/(1024*4)存到4096个小文件中。这样每个文件大概是250k左右。如果其中的有的文件超过了1M大小,还可以按照hash继续往下分,直到分解得到的小文件的大小都不超过1M。
  2. 对每个小文件,统计每个文件中出现的词以及相应的频率(可以采用trie树/hash_map等),并取出出现频率最大的100个词(可以用含100个结点的最小堆),并把100词及相应的频率存入文件。这样又得到了4096个文件。
  3. 下一步就是把这4096个文件进行归并的过程了。(类似与归并排序)

问题4

海量日志数据,提取出某日访问百度次数最多的那个IP
解决思想: hash分解+ 分而治之 + 归并

  1. 把这一天访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有2^32个IP。同样可以采用hash映射的方法,比如模1024,把整个大文件映射为1024个小文件。
  2. 再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。
  3. 然后再在这1024组最大的IP中,找出那个频率最大的IP,即为所求。

问题5

海量数据分布在100台电脑中,想个办法高效统计出这批数据的TOP10。

解决思想: 分而治之 + 归并。
注意TOP10是取最大值或最小值。如果取频率TOP10,就应该先hash分解。

  1. 在每台电脑上求出TOP10,采用包含10个元素的堆完成(TOP10小,用最大堆,TOP10大,用最小堆)。比如求TOP10大,我们首先取前10个元素调整成最小堆,如果发现,然后扫描后面的数据,并与堆顶元素比较,如果比堆顶元素大,那么用该元素替换堆顶,然后再调整为最小堆。最后堆中的元素就是TOP10大。
  2. 求出每台电脑上的TOP10后,然后把这100台电脑上的TOP10组合起来,共1000个数据,再利用上面类似的方法求出TOP10就可以了。

问题6

在2.5亿个整数中找出不重复的整数,内存不足以容纳这2.5亿个整数。

解决思路1 : hash 分解+ 分而治之 + 归并
2.5亿个int数据hash到1024个小文件中a0~a1023,如果某个小文件大小还大于内存,进行多级hash。每个小文件读进内存,找出只出现一次的数据,输出到b0~b1023。最后数据合并即可。

解决思路2 : 2-Bitmap
如果内存够1GB的话,采用2-Bitmap(每个数分配2bit,00表示不存在,01表示出现一次,10表示多次,11无意义)进行,共需内存2^32*2bit=1GB内存。然后扫描这2.5亿个整数,查看Bitmap中相对应位,如果是00变01,01变10,10保持不变。所描完事后,查看bitmap,把对应位是01的整数输出即可。
注意,如果是找出重复的数据,可以用1-bitmap。第一次bit位由0变1,第二次查询到相应bit位为1说明是重复数据,输出即可。

问题7

一共有N个机器,每个机器上有N个数。每个机器最多存O(N)个数并对它们操作。如何找到N^2个数中的中数?

解决思想1 : hash分解 + 排序

  1. 按照升序顺序把这些数字,hash划分为N个范围段。假设数据范围是2^32 的unsigned int 类型。理论上第一台机器应该存的范围为0~(2^32)/N,第i台机器存的范围是(2^32)*(i-1)/N~(2^32)*i/N。hash过程可以扫描每个机器上的N个数,把属于第一个区段的数放到第一个机器上,属于第二个区段的数放到第二个机器上,…,属于第N个区段的数放到第N个机器上。注意这个过程每个机器上存储的数应该是O(N)的。
  2. 然后我们依次统计每个机器上数的个数,一次累加,直到找到第k个机器,在该机器上累加的数大于或等于(N^2)/2,而在第k-1个机器上的累加数小于(N^2)/2,并把这个数记为x。那么我们要找的中位数在第k个机器中,排在第(N^2)/2-x位。然后我们对第k个机器的数排序,并找出第(N^2)/2-x个数,即为所求的中位数的复杂度是O(N^2)的。

解决思想2: 分而治之 + 归并
先对每台机器上的数进行排序。排好序后,我们采用归并排序的思想,将这N个机器上的数归并起来得到最终的排序。找到第(N^2)/2个便是所求。复杂度是O(N^2 * lgN^2)的。

2 Trie树+红黑树+hash_map

这里Trie树木、红黑树或者hash_map可以认为是第一部分中分而治之算法的具体实现方法之一。

问题1

上千万或上亿数据(有重复),统计其中出现次数最多的钱N个数据。

解决思路: 红黑树 + 堆排序

  1. 如果是上千万或上亿的int数据,现在的机器4G内存可以能存下。所以考虑采用hash_map/搜索二叉树/红黑树等来进行统计重复次数。
  2. 然后取出前N个出现次数最多的数据,可以用包含N个元素的最小堆找出频率最大的N个数据。

问题2

1000万字符串,其中有些是重复的,需要把重复的全部去掉,保留没有重复的字符串。请怎么设计和实现?

解决思路:trie树。
这题用trie树比较合适,hash_map也应该能行。

问题3

一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前10个词,请给出思想,给出时间复杂度分析。

解决思路: trie树 + 堆排序
这题是考虑时间效率。
1. 用trie树统计每个词出现的次数,时间复杂度是O(n*len)(len表示单词的平准长度)。
2. 然后找出出现最频繁的前10个词,可以用堆来实现,前面的题中已经讲到了,时间复杂度是O(n*lg10)。
总的时间复杂度,是O(n*le)与O(n*lg10)中较大的哪一个。

问题4

搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。假设目前有一千万个记录,这些查询串的重复读比较高,虽然总数是1千万,但是如果去除重复和,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就越热门。请你统计最热门的10个查询串,要求使用的内存不能超过1G。

解决思想 : trie树 + 堆排序
采用trie树,关键字域存该查询串出现的次数,没有出现为0。最后用10个元素的最小推来对出现频率进行排序。

3 BitMap或者Bloom Filter

3.1 BitMap

BitMap说白了很easy,就是通过bit位为1或0来标识某个状态存不存在。可进行数据的快速查找,判重,删除,一般来说适合的处理数据范围小于8*2^32。否则内存超过4G,内存资源消耗有点多。
问题1

已知某个文件内包含一些电话号码,每个号码为8位数字,统计不同号码的个数。

解决思路: bitmap
8位最多99 999 999,需要100M个bit位,不到12M的内存空间。我们把0-99 999 999的每个数字映射到一个Bit位上,所以只需要99M个Bit==12MBytes,这样,就用了小小的12M左右的内存表示了所有的8位数的电话

问题2

2.5亿个整数中找出不重复的整数的个数,内存空间不足以容纳这2.5亿个整数。

解决思路:2bit map 或者两个bitmap。
将bit-map扩展一下,用2bit表示一个数即可,00表示未出现,01表示出现一次,10表示出现2次及以上,11可以暂时不用。
在遍历这些数的时候,如果对应位置的值是00,则将其置为01;如果是01,将其置为10;如果是10,则保持不变。需要内存大小是2^32/8*2=1G内存。
或者我们不用2bit来进行表示,我们用两个bit-map即可模拟实现这个2bit-map,都是一样的道理。

3.2 Bloom filter

Bloom filter可以看做是对bit-map的扩展。
参考july大神csdn文章 Bloom Filter 详解

4 Hadoop+MapReduce

参考引用july大神 csdn文章
MapReduce的初步理解
Hadoop框架与MapReduce模式


转载请注明本文地址: 大数据——海量数据处理的基本方法总结

本篇文章为转载内容。原文链接:https://blog.csdn.net/hong2511/article/details/80842704。

该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。

作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。

如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。

相关阅读
文章标题:[转载][洛谷P1082]同余方程

更新时间:2023-02-18
[转载][洛谷P1082]同余方程
文章标题:[转载]webpack优化之HappyPack实战

更新时间:2023-08-07
[转载]webpack优化之HappyPack实战
文章标题:[转载]oracle 同时更新多表,在Oracle数据库中同时更新两张表的简单方法

更新时间:2023-09-10
[转载]oracle 同时更新多表,在Oracle数据库中同时更新两张表的简单方法
文章标题:[转载][Unity] 包括场景互动与射击要素的俯视角闯关游戏Demo

更新时间:2024-03-11
[转载][Unity] 包括场景互动与射击要素的俯视角闯关游戏Demo
文章标题:[转载]程序员也分三六九等?等级差异,一个看不起一个!

更新时间:2024-05-10
[转载]程序员也分三六九等?等级差异,一个看不起一个!
文章标题:[转载]海贼王 动漫 全集目录 分章节 精彩打斗剧集

更新时间:2024-01-12
[转载]海贼王 动漫 全集目录 分章节 精彩打斗剧集
名词解释
作为当前文章的名词解释,仅对当前文章有效。
Bloom FilterBloom Filter是一种空间效率极高的概率型数据结构,用于判断一个元素是否在一个集合中。在文章的上下文中,Bloom Filter通过使用多个独立的哈希函数将元素映射到一个固定长度的位数组上,当插入元素时,会在相应位置置为1。查询时,如果所有哈希函数对应的位置均为1,则该元素可能存在集合中;若存在某个位置为0,则该元素一定不在集合中。因此,Bloom Filter有可能产生误报(False Positive),但不会漏报(False Negative)。在处理海量数据时,因其占用内存小且查询速度快,常被用于判重、过滤等场景。
Trie树(前缀树)Trie树是一种有序字典树,也称为前缀树或数码查找树,特别适用于存储和检索字符串集合。在本文语境下,Trie树通过字符在树中的路径表示一个字符串,并且相同前缀的字符串在树中有公共前缀路径。利用这种特性,可以高效地统计词频、进行字符串搜索和去重等操作,尤其在处理大量字符串数据时优势明显。
MapReduceMapReduce是Google提出的一种分布式编程模型,主要应用于大数据并行计算领域。在文中提到,面对海量数据处理难题时,MapReduce提供了一种解决方案。它将复杂的计算任务分解成两个阶段。
延伸阅读
作为当前文章的延伸阅读,仅对当前文章有效。
在深入探讨了海量数据处理的基本方法后,我们了解到,随着数字化进程的加速和互联网技术的发展,大数据已经成为各行各业不可或缺的资源。近年来,国内外许多企业和研究机构不断突破海量数据处理的技术瓶颈,实现了更高效的数据挖掘与分析。
例如,在2022年,Apache Spark社区发布了Spark 3.2版本,进一步优化了其对大规模数据处理的能力,特别是对结构化、半结构化数据的支持更加完善,通过Catalyst优化器的升级以及动态分区剪枝等新特性,有效提升了处理海量数据时的性能表现。
此外,Google公司近期发布的关于Bloom Filter的新研究成果,揭示了一种新型布隆过滤器变体——Counting Bloom Filter with Carry Sketches(CBCS),能够在保持较低错误率的同时,更精准地统计大规模数据集中元素出现的次数,为解决海量数据判重问题提供了新的解决方案。
同时,针对分布式环境下数据存储与计算的需求,Hadoop生态系统的组件如HDFS和YARN也在持续演进中,以适应实时流处理、机器学习等新兴应用场景。而诸如Kafka、Flink等流处理框架的兴起,也为海量数据的实时分析提供了强大支持。
不仅如此,学术界对于Trie树、Bitmap等数据结构的研究也在不断深入,结合新型硬件如SSD、GPU等进行并行优化,使得这些经典数据结构在现代海量数据处理场景下焕发新生。未来,随着量子计算和边缘计算等前沿技术的发展,海量数据处理的方法将更加丰富多元,效率也将有质的飞跃。
综上所述,海量数据处理技术正以前所未有的速度发展和完善,从理论研究到工程实践,各类创新技术和解决方案层出不穷,为大数据时代的数据价值挖掘奠定了坚实基础。广大读者可以通过关注最新的科研成果、行业报告和技术博客,深入了解这一领域的发展趋势和应用案例,以便更好地应对和解决实际工作中的海量数据挑战。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
free -m - 查看系统内存使用情况(单位MB)。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
可自定义logo的jQuery生成二维码插件 01-03 jquery每日签到日历插件 10-10 高度可定制的jQuery瀑布流网格布局插件 03-15 Consul中服务实例自动注销问题解析:健康检查、稳定性与Agent配置的影响及解决策略 01-22 怎么看mysql 的安装路径 12-31 jquery横向手风琴效果 12-23 蓝色数码电子产品销售HTML5网站模板 12-14 jQuery和CSS3汉堡包导航菜单打开动画特效 10-19 python模拟生存游戏 10-08 本次刷新还10个文章未展示,点击 更多查看。
jQuery.eraser-实现橡皮擦擦除功能的jquery插件 05-26 Netty中ChannelNotRegisteredException异常处理:理解原因与确保Channel注册状态的方法示例 05-16 响应式游戏开发类企业前端cms模板下载 05-02 精美的花甲美食网站HTML模板下载 03-09 soulmate粉色干净浪漫唯美婚礼单页响应式网站模板 03-07 Vue.js项目中proxyTable数据转发遭遇504错误:服务器响应时间与网络连接问题排查及解决方案 03-05 SpringCloud服务路由配置错误与失效:识别问题、排查步骤及组件解析这个涵盖了的核心内容,包括SpringCloud框架下的服务路由配置错误失效问题的识别,以及涉及到的服务注册中心、Gateway、Zuul等组件的功能解析和故障排查的具体步骤。同时,字数控制在了50个字以内,满足了要求。 03-01 css水平线长度设置 02-11 [转载]Proxy 、Relect、响应式 01-11 蓝色响应式软件营销代理公司网站静态模板 01-06 python正太分布校验 01-05
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"