本月博客排行
-
第1名
宏天软件 -
第2名
kaizi1992 -
第3名
vipbooks - wallimn
- ganxueyun
- arpenker
- daizj
- xpenxpen
- yeluowuhen
- zhangjijun
- sunnylocus
年度博客排行
-
第1名
青否云后端云 -
第2名
宏天软件 -
第3名
wy_19921005 - gashero
- gengyun12
- robotmen
- vipbooks
- 大家都说我很棒
- fantaxy025025
- wallimn
- hbxflihua
- qepwqnp
- e_e
- 解宜然
- ranbuijj
- javashop
- zw7534313
- ssydxa219
- jickcai
- sam123456gz
- gdpglc
- zysnba
- sichunli_030
- tanling8334
- appalese
- benladeng5225
- gaojingsong
- wiseboyloves
- zhangyi0618
- xpenxpen
- jh108020
- luxurioust
- xyuma
- nychen2000
- 龙哥IT
- arpenker
- wjianwei666
- wangchen.ily
- jbosscn
- lzyfn123
- 狂盗一枝梅
- Jameslyy
- hanbaohong
- java-007
- kaizi1992
- xiangjie88
- mengjichen
- silverend
- ajinn
- zxq_2017
最新文章列表
redis高级(分布式缓存实现,spring integration)
Distributed Cache:
http://www.linuxidc.com/Linux/2012-11/74363.htm
http://www.chepoo.com/distributed-cache-implementation-based-on-redis.html
Spring Integeration:
http://blog.csdn.net/java2 ...
Hadoop 中使用DistributedCache遇到的问题
自己在写MAR/REDUCE代码时,遇到了一个问题,一个大数据文件和一个小数据文件匹配计算,但是小数据文件太小,所以想采用HIVE的MAP JOIN的方式,把小数据文件放到直接大数据文件map的datanode的内存中,这样少了MR代码的1对N的数据文件关联。
实现这个的最佳方案就是利用distributed cache。HIVE的MAP JOIN也是利用这个技术。
首先简要介 ...