期刊文献+

Hadoop中大量小文件性能优化方法研究 被引量:3

下载PDF
导出
摘要 随着开源云计算平台Hadoop的广泛应用,由于其HDFS是针对大文件读写而设计的,因此,大量小文件处理会给Hadoop的扩展性和性能带来瓶颈。本文针对大量小文件处理提出了改进方法,对小文件进行合并、建立索引、并对块进行压缩,减轻元数据占用主节点内存的压力,以此提高小文件读写速度,读速度提升50%左右,写速度达到原来的3-4倍,对MapReduce计算性能也有一定的提升。这样,Hadoop处理对小文件处理也具有更好的通用性。
作者 刘晓霞
出处 《计算机光盘软件与应用》 2013年第18期78-80,共3页 Computer CD Software and Application
  • 相关文献

参考文献3

  • 1Jeffrey Dean,Sanjay Ghemawat. MapReduce Simplified Data Processing on large clusters[A].New York,USA,2008.107-113.
  • 2Tom White.Hadoop权威指南[M]北京:清华大学出版社,2011.
  • 3Sanjay Ghemawat,Howard Gobioff. The Google file system[A].New York,USA,2003.29-34.

同被引文献18

引证文献3

二级引证文献2

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部