- 浏览: 41874 次
- 性别:
- 来自: 上海
最新评论
-
576017120:
thanks ,提醒我了,发现自己ip写错了,诶。。。
hive安装完成后遇到的问题 -
akingde:
单节点本地模式好像不需要运行start-all.sh就能工作的 ...
求助:hadoop 启动时namenode启动不成功。报错日志见文章 -
fengyunshuozhe:
您好这个例子对我很有用,请问你PushDao类,PushDev ...
iphone手机push小应用 -
511930751:
高手呢。。怎么没人啊。。
求助:lucene和socket
文章列表
本人已将博客搬到csdn
http://blog.csdn.net/li511930751
欢迎大家来探讨技术问题
- 2014-07-02 17:11
- 浏览 423
- 评论(0)
需求:
时间范围2012/02/01-2012/02/05
时间范围2012/02/01-2012/02/05
期初表(截止到2012/01/31的库存)
goods_sn before_amt
a1 100
a2 50
详细表(2012/02/01-2012/02/05的进出库详细)
goods_sn type goods_amt
a1 采购 10
a1 订单 -5
a1 退货 3
a3 采购 100
最后要的结果:
goods_sn 期初 采购 订单 退货 期末
a1 100 10 -5 3 108
a2 50 0 0 ...
需求秒数:做一个给安装公司客户端的iphone用户推送广告的功能。
直接上代码。
使用jar包:JavaPNS_2.2.jar
/**
* push
* @author penghui.li
*
*/
public class ApplePushInfo {
private Log logger = LogFactory.getLog(this.getClass());
private PushDao pushDao;
//证书
private String keystore = ApplicationConfig.getApplicat ...
安装好hive后,使用mysql存储元数据。
在启动hive是没有问题。
使用hive命令:show tables;是会出现以下错误。
hive> show tables
> ;
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Communications link failure
The last packet sent successfully to the server was 0 milliseconds ago. The driver has not received ...
A、集群搭建:
机器:(两台机器,后续会加数据节点,以及次节点和主节点分离)
192.168.9.193 master
192.168.10.29 slave
1、下载hadoop-1.0.3、jdk1.7.0_04(略过)
2、安装hadoop和jdk
(hadoop目录为:/opt/789/hadoop-1.0.3,jdk安装目录为:/opt/789/jdk1.7.0_04)
3、用户设置以及无密钥通信
...
hbase启动报错。。。
2012-06-27 10:58:13,398 INFO org.apache.hadoop.http.HttpServer: Jetty bound to port 60010
2012-06-27 10:58:13,398 INFO org.mortbay.log: jetty-6.1.26
2012-06-27 10:58:13,650 INFO org.mortbay.log: Started SelectChannelConnector@0.0.0.0:60010
2012-06-27 10:58:13,650 DEBUG org.apache. ...
iteye发布东西真扯淡
发表于n次都么成功。。要么是传附件的时候直接卡死。
要么是草稿箱里面的东西直接丢了一半的数据。
闲话不说,直接上。(对于xfire的介绍等的东西,见百度或谷歌)
1、下载xfire。地址:
http://xfire.codehaus.org/Download
xfire-distribution-1.2.6.zip
xfire-all-1.2.6.jar
2、新建j2ee项目。导入jar包
2012-05-22 11:20:16,703 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: file:/// at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:162) at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress ...
javaagile 01:http://d.1tpan.com/tp0054759186 agile 02:http://d.1tpan.com/tp2068715694 agile 03:http://d.1tpan.com/tp1228985539 agile 04:http://d.1tpan.com/tp1083971026Java线程:http://d.1tpan.com/tp0538488451java core 1:http://d.1tpan.com/tp0563831312 java core 2:http://d.1tpan.com/tp1102482433java面向对象编 ...
临近年关,不是太忙。就在闲暇时间看了下hadoop..欢迎各位大牛拍砖.
单机模式
1、 jdk安装(jdk6.0)
a) 下载地址:http://www.oracle.com/technetwork/java/javase/dwnloads/jdk-6u30-download-1377139.html
b) jdk安装目录/opt/jdk1.6.0_30
2、 hadoop安装(hadoop1.0.0)
a) 下载地址:http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.0.0/
b) hadoop安装目录/opt/hadoop-1. ...
现在项目现状:
使用查询和展示分离,应用在查询时,通过客户端请求服务端的servlet查询数据。
数据存储使用lucene和mongodb。
现在遇到的问题:
1、lucene查询时速度不够快,100W数据量需要5000ms左右。
解决方案一:将要索引的字段进行合并成一个大字段,在查询时只查询大字段。
解决方案二:做lucene时,生成一个sessionid,只存储该sessionid,对其他数据只索引不存储,将sessionid和其他数据存入oracle数据库。查询时,在lucene中只查询出sessionid,根据sessionid在oracle中查询详细数据。
这两种方案做下来效果都不是特 ...