海量数据处理笔试面试题4.docx

上传人:b****7 文档编号:9549916 上传时间:2023-02-05 格式:DOCX 页数:12 大小:145.40KB
下载 相关 举报
海量数据处理笔试面试题4.docx_第1页
第1页 / 共12页
海量数据处理笔试面试题4.docx_第2页
第2页 / 共12页
海量数据处理笔试面试题4.docx_第3页
第3页 / 共12页
海量数据处理笔试面试题4.docx_第4页
第4页 / 共12页
海量数据处理笔试面试题4.docx_第5页
第5页 / 共12页
点击查看更多>>
下载资源
资源描述

海量数据处理笔试面试题4.docx

《海量数据处理笔试面试题4.docx》由会员分享,可在线阅读,更多相关《海量数据处理笔试面试题4.docx(12页珍藏版)》请在冰豆网上搜索。

海量数据处理笔试面试题4.docx

海量数据处理笔试面试题4

海量数据处理专题

(一)——开篇

2010-10-0813:

03

转载自08到北京

最终编辑08到北京

  大数据量的问题是很多面试笔试中经常出现的问题,比如baidugoogle腾讯这样的一些涉及到海量数据的公司经常会问到。

  下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题。

下面的一些问题基本直接来源于公司的面试笔试题目,方法不一定最优,如果你有更好的处理方法,欢迎与我讨论。

  本贴从解决这类问题的方法入手,开辟一系列专题来解决海量数据问题。

拟包含以下几个方面。

1.BloomFilter

2.Hash

3.Bit-Map

4.堆(Heap)

5.双层桶划分

6.数据库索引

7.倒排索引(InvertedIndex)

8.外排序

9.Trie树

10.MapReduce

海量数据处理专题

(二)——BloomFilter

2010-10-0813:

04

转载自08到北京

最终编辑08到北京

【什么是BloomFilter】

BloomFilter是一种空间效率很高的随机数据结构,它利用位数组很简洁地表示一个集合,并能判断一个元素是否属于这个集合。

BloomFilter的这种高效是有一定代价的:

在判断一个元素是否属于某个集合时,有可能会把不属于这个集合的元素误认为属于这个集合(falsepositive)。

因此,BloomFilter不适合那些“零错误”的应用场合。

而在能容忍低错误率的应用场合下,BloomFilter通过极少的错误换取了存储空间的极大节省。

这里有一篇关于BloomFilter的详细介绍,不太懂的博友可以看看。

【适用范围】

可以用来实现数据字典,进行数据的判重,或者集合求交集

【基本原理及要点】

  对于原理来说很简单,位数组+k个独立hash函数。

将hash函数对应的值的位数组置1,查找时如果发现所有hash函数对应位都是1说明存在,很明显这个过程并不保证查找的结果是100%正确的。

同时也不支持删除一个已经插入的关键字,因为该关键字对应的位会牵动到其他的关键字。

所以一个简单的改进就是countingBloomfilter,用一个counter数组代替位数组,就可以支持删除了。

  还有一个比较重要的问题,如何根据输入元素个数n,确定位数组m的大小及hash函数个数。

当hash函数个数k=(ln2)*(m/n)时错误率最小。

在错误率不大于E的情况下,m至少要等于n*lg(1/E)才能表示任意n个元素的集合。

但m还应该更大些,因为还要保证bit数组里至少一半为0,则m应该>=nlg(1/E)*lge大概就是nlg(1/E)1.44倍(lg表示以2为底的对数)。

  举个例子我们假设错误率为0.01,则此时m应大概是n的13倍。

这样k大概是8个。

  注意这里m与n的单位不同,m是bit为单位,而n则是以元素个数为单位(准确的说是不同元素的个数)。

通常单个元素的长度都是有很多bit的。

所以使用bloomfilter内存上通常都是节省的。

【扩展】

  Bloomfilter将集合中的元素映射到位数组中,用k(k为哈希函数个数)个映射位是否全1表示元素在不在这个集合中。

Countingbloomfilter(CBF)将位数组中的每一位扩展为一个counter,从而支持了元素的删除操作。

SpectralBloomFilter(SBF)将其与集合元素的出现次数关联。

SBF采用counter中的最小值来近似表示元素的出现频率。

相关的具体XX腾讯面试算法例子请看作者原文章:

海量数据处理专题(三)——Hash

2010-10-0813:

05

转载自08到北京

最终编辑08到北京

海量数据处理专题(三)——Hash

【什么是Hash】

Hash,一般翻译做“散列”,也有直接音译为“哈希”的,就是把任意长度的输入(又叫做预映射,pre-image),通过散列算法,变换成固定长度的输出,该输出就是散列值。

这种转换是一种压缩映射,也就是,散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,而不可能从散列值来唯一的确定输入值。

简单的说就是一种将任意长度的消息压缩到某一固定长度的消息摘要的函数。

HASH主要用于信息安全领域中加密算法,它把一些不同长度的信息转化成杂乱的128位的编码,这些编码值叫做HASH值.也可以说,hash就是找到一种数据内容和数据存放地址之间的映射关系

【适用范围】

快速查找,删除的基本数据结构,通常需要总数据量可以放入内存。

【基本原理及要点】

hash函数选择,针对字符串,整数,排列,具体相应的hash方法。

碰撞处理,一种是openhashing,也称为拉链法;另一种就是closedhashing,也称开地址法,openedaddressing。

【扩展】

d-lefthashing中的d是多个的意思,我们先简化这个问题,看一看2-lefthashing。

2-lefthashing指的是将一个哈希表分成长度相等的两半,分别叫做T1和T2,给T1和T2分别配备一个哈希函数,h1和h2。

在存储一个新的key时,同时用两个哈希函数进行计算,得出两个地址h1[key]和h2[key]。

这时需要检查T1中的h1[key]位置和T2中的h2[key]位置,哪一个位置已经存储的(有碰撞的)key比较多,然后将新key存储在负载少的位置。

如果两边一样多,比如两个位置都为空或者都存储了一个key,就把新key存储在左边的T1子表中,2-left也由此而来。

在查找一个key时,必须进行两次hash,同时查找两个位置。

这里有相关的Hash处理的例题。

海量数据处理专题(四)——Bit-map

2010-10-0813:

05

转载自08到北京

最终编辑08到北京

海量数据处理专题(四)——Bit-map

【什么是Bit-map】

所谓的Bit-map就是用一个bit位来标记某个元素对应的Value,而Key即是该元素。

由于采用了Bit为单位来存储数据,因此在存储空间方面,可以大大节省。

如果说了这么多还没明白什么是Bit-map,那么我们来看一个具体的例子,假设我们要对0-7内的5个元素(4,7,2,5,3)排序(这里假设这些元素没有重复)。

那么我们就可以采用Bit-map的方法来达到排序的目的。

要表示8个数,我们就只需要8个Bit(1Bytes),首先我们开辟64Bytes的空间,将这些空间的所有Bit位都置为0(如下图:

然后遍历这5个元素,首先第一个元素是4,那么就把4对应的位置为1(可以这样操作p+(i/8)|(0x01<<(i%8))当然了这里的操作涉及到Big-ending和Little-ending的情况,这里默认为Big-ending),因为是从零开始的,所以要把第五位置为一(如下图):

然后再处理第二个元素7,将第八位置为1,,接着再处理第三个元素,一直到最后处理完所有的元素,将相应的位置为1,这时候的内存的Bit位的状态如下:

然后我们现在遍历一遍Bit区域,将该位是一的位的编号输出(2,3,4,5,7),这样就达到了排序的目的。

【适用范围】

可进行数据的快速查找,判重,删除,一般来说数据范围是int的10倍以下

【基本原理及要点】

使用bit数组来表示某些元素是否存在,比如8位电话号码

【扩展】

Bloomfilter可以看做是对bit-map的扩展

【问题实例】

这里有相关的BitMap例题。

海量数据处理堆

2010-10-2012:

59

【什么是堆】

概念:

堆是一种特殊的二叉树,具备以下两种性质

1)每个节点的值都大于(或者都小于,称为最小堆)其子节点的值

2)树是完全平衡的,并且最后一层的树叶都在最左边

这样就定义了一个最大堆。

如下图用一个数组来表示堆:

那么下面介绍二叉堆:

二叉堆是一种完全二叉树,其任意子树的左右节点(如果有的话)的键值一定比根节点大,上图其实就是一个二叉堆。

你一定发觉了,最小的一个元素就是数组第一个元素,那么二叉堆这种有序队列如何入队呢?

看图:

假设要在这个二叉堆里入队一个单元,键值为2,那只需在数组末尾加入这个元素,然后尽可能把这个元素往上挪,直到挪不动,经过了这种复杂度为Ο(logn)的操作,二叉堆还是二叉堆。

那如何出队呢?

也不难,看图:

出队一定是出数组的第一个元素,这么来第一个元素以前的位置就成了空位,我们需要把这个空位挪至叶子节点,然后把数组最后一个元素插入这个空位,把这个“空位”尽量往上挪。

这种操作的复杂度也是Ο(logn)。

【适用范围】

海量数据前n大,并且n比较小,堆可以放入内存

【基本原理及要点】

最大堆求前n小,最小堆求前n大。

方法,比如求前n小,我们比较当前元素与最大堆里的最大元素,如果它小于最大元素,则应该替换那个最大元素。

这样最后得到的n个元素就是最小的n个。

适合大数据量,求前n小,n的大小比较小的情况,这样可以扫描一遍即可得到所有的前n元素,效率很高。

【扩展】

双堆,一个最大堆与一个最小堆结合,可以用来维护中位数。

【问题实例】

1)100w个数中找最大的前100个数。

用一个100个元素大小的最小堆即可。

海量数据处理双层桶

2010-10-2013:

00

【什么是双层桶】

事实上,与其说双层桶划分是一种数据结构,不如说它是一种算法设计思想。

面对一堆大量的数据我们无法处理的时候,我们可以将其分成一个个小的单元,然后根据一定的策略来处理这些小单元,从而达到目的。

【适用范围】

第k大,中位数,不重复或重复的数字

【基本原理及要点】

因为元素范围很大,不能利用直接寻址表,所以通过多次划分,逐步确定范围,然后最后在一个可以接受的范围内进行。

可以通过多次缩小,双层只是一个例子,分治才是其根本(只是“只分不治”)。

【扩展】

当有时候需要用一个小范围的数据来构造一个大数据,也是可以利用这种思想,相比之下不同的,只是其中的逆过程。

【问题实例】

1).2.5亿个整数中找出不重复的整数的个数,内存空间不足以容纳这2.5亿个整数。

有点像鸽巢原理,整数个数为2^32,也就是,我们可以将这2^32个数,划分为2^8个区域(比如用单个文件代表一个区域),然后将数据分离到不同的区域,然后不同的区域在利用bitmap就可以直接解决了。

也就是说只要有足够的磁盘空间,就可以很方便的解决。

当然这个题也可以用我们前面讲过的BitMap方法解决,正所谓条条大道通罗马~~~

2).5亿个int找它们的中位数。

这个例子比上面那个更明显。

首先我们将int划分为2^16个区域,然后读取数据统计落到各个区域里的数的个数,之后我们根据统计结果就可以判断中位数落到那个区域,同时知道这个区域中的第几大数刚好是中位数。

然后第二次扫描我们只统计落在这个区域中的那些数就可以了。

实际上,如果不是int是int64,我们可以经过3次这样的划分即可降低到可以接受的程度。

即可以先将int64分成2^24个区域,然后确定区域的第几大数,在将该区域分成2^20个子区域,然后确定是子区域的第几大数,然后子区域里的数的个数只有2^20,就可以直接利用directaddrtable进行统计了。

3).现在有一个0-30000的随机数生成器。

请根据这个随机数生成器,设计一个抽奖范围是0-350000彩票中奖号码列表,其中要包含20000个中奖号码。

这个题刚好和上面两个思想相反,一个0到3万的随机数生成器要生成一个0到35万的随机数。

那么我们完全可以将0-35万的区间分成35/3=12个区间,然后每个区间的长度都小于等于3万,这样我们就可以用题目给的随机数生成器来生成了,然后再加上该区间的基数。

那么要每个区间生成多少个随机数呢?

计算公式就是:

区间长度*随机数密度,在本题目中就是30000*(20000/350000)。

最后要注意一点,该题目是有隐含条件的:

彩票,这意味着你生成的随机数里面不能有重复,这也是我为什么用双层桶划分思想的另外一个原因

好几个地方看到这个Facebook-NeedleinaHaystack:

EfficientStorageofBillionsofPhotos,是Facebook的JasonSobel做的一个PPT,揭示了不少比较有参考价值的信息。

【也别错过我过去的这篇Facebook的PHP性能与扩展性】

图片规模

作为世界上最大的SNS站点之一,Facebook图片有多少?

65亿张原始图片,每张图片存为4-5个不同尺寸,这样总计图片文件有300亿左右,总容量540T,天!

峰值的时候每秒钟请求47.5万个图片(当然多数通过CDN),每周上传1亿张图片。

图片存储

前一段时间说Facebook服务器超过10000台,现在打开不止了吧,Facebook融到的大把银子都用来买硬件了。

图片是存储在NetappNAS上的,采用NFS方式。

图片写入

尽管这么大的量,似乎图片写入并不是问题。

如上图,是直接通过NFS写的。

图片读取

CDN和Cachr承担了大部分访问压力。

尽管Netapp设备不便宜,但基本上不承担多大的访问压力,否则吃不消。

CDN针对Profile图象的命中率有99.8%,普通图片也有92%的命中率。

命中丢失的部分采由Netapp承担。

图中的Cachr这个组件,应该是用来消息通知(基于调整过的evhttp的嘛),Memcached作为后端存储。

Web图片服务器是Lighttpd,用于FHC(文件处理Cache),后端也是Memcached。

Facebook的Memcached服务器数量差不多世界上最大了,人家连MYSQL服务器还有两千台呢。

Haystacks--大海捞针

这么大的数据量如何进行索引?

如何快速定位文件?

这是通过Haystacks来做到的。

Haystacks是用户层抽象机制,简单的说就是把图片元数据的进行有效的存储管理。

传统的方式可能是通过DB来做,Facebook是通过文件系统来完成的。

通过GET/POST进行读/写操作,应该说,这倒也是个比较有趣的思路,如果感兴趣的话,看一下GET/POST请求的方法或许能给我们点启发。

总体来看,Facebook的图片处理还是采用成本偏高的方法来做的。

技术含量貌似并不大。

不清楚是否对图片作Tweak,比如不影响图片质量的情况下减小图片尺寸。

--EOF--

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 医药卫生 > 中医中药

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1