本月博客排行
-
第1名
宏天软件 -
第2名
wallimn -
第3名
kaizi1992 - zhanjia
- daizj
- sunnylocus
- zhangjijun
- chenqisdfx
年度博客排行
-
第1名
青否云后端云 -
第2名
宏天软件 -
第3名
wy_19921005 - gashero
- gengyun12
- vipbooks
- robotmen
- wallimn
- e_e
- hbxflihua
- qepwqnp
- ranbuijj
- 解宜然
- javashop
- 大家都说我很棒
- fantaxy025025
- zw7534313
- jickcai
- benladeng5225
- ssydxa219
- sam123456gz
- sichunli_030
- zysnba
- gdpglc
- tanling8334
- gaojingsong
- appalese
- wiseboyloves
- zhangyi0618
- xpenxpen
- arpenker
- jh108020
- kaizi1992
- xyuma
- luxurioust
- 龙哥IT
- nychen2000
- wangchen.ily
- wjianwei666
- xiangjie88
- Jameslyy
- jbosscn
- lzyfn123
- mengjichen
- zxq_2017
- 狂盗一枝梅
- hanbaohong
- ganxueyun
- java-007
- lemonhandsome
最新文章列表
使用Hadoop har归档历史文件(小文件)
应用场景
我们的hdfs中保存大量小文件(当然不产生小文件是最佳实践),这样会把namenode的namespace搞的很大。namespace保存着hdfs文件的inode信息,文件越多需要的namenode内存越大,但内存毕竟是有限的(这个是目前hadoop的硬伤)。
下面图片展示了,har文档的结构。har文件是通过mapreduce生成的,job结束后源文件不会删除。
...