- 浏览: 253118 次
- 性别:
- 来自: 北京
最新评论
-
cys1314:
太给力了,多谢
Excel下拉列表多选框实现 -
兜兜没有糖:
你好 我想请问一下,进入新浪微博授权页面, 新浪微博会以地址形 ...
利用java如何授权并发送新浪微博 -
ganliang13:
是啊,呵呵
java 利用jdbc连接hive查询示例 -
JustDone:
你是咸宁人?
java 利用jdbc连接hive查询示例 -
Ivy_upup:
不错!!!
学习了,多谢!
Excel下拉列表多选框实现
文章列表
linux ISO本地源
- 博客分类:
- linux
在这里用iso或者光盘做本地yum源的方法是差不多的,只是用光盘的话Linux系统会自动挂载,用iso镜像的或需要手动挂载,这里就说挂载iso的方法吧。
【一】用本地文件创建本地yum源
1. 创建iso存放目录和挂载目录
package com.ganglia.kafka;
import java.util.Date;
import java.util.Properties;
import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
public class ProducerTest2 {
public static void main(String[] args) {
...
为了搞清楚Spark Streaming处理数据流,改造了以有的例子来进行测试数据在Spark内部的流向。
package org.apache.spark.examples.streaming;
import java.util.LinkedList;
import java.util.List;
import java.util.Queue;
import scala.Tuple2;
import com.google.common.collect.Lists;
import org.apache.spark.SparkConf;
import or ...
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.Iterator;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.KeyValue;
impor ...
package cn.luxh.app;
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.ha ...
package com.bfd.util;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.had ...
package com.gan.hbase;
import java.io.IOException;
import java.math.BigInteger;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HC ...
/*上次我介绍了分类器的使用方法,这次我来介绍一下聚类算法。聚类算法在数据挖掘里面被称之为无监督学习(unsupervised learning),这是与分类算法(supervised learning)相对的。在它们两者之间还一种叫做半监督学习(semi-supervised learning)这个我会在后面的文章中重点介绍。所谓无监督学习就是在预先不知道样本类别的情况下,由聚类算法来判别样本的类别的一种学习方法。
聚类算法的一般过程分为:
1. 读入需预测样本
2. 初始化聚类算法(并设置参数)
3. 使用聚类算法对样本进行聚类
4. ...
import java.io.File;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
impo ...
-------------
select concat(account,'\t',bfdutmb,'\t',page_url) from (
select account,bfdutmb,actionPath(page_url,'->') page_url from (
select create_time,account,bfdutmb,page_url page_url from ods_action_event
order by account,bfdutmb,create_time)c
group by account,bfdutmb)b
import or ...
1. 安装增强功能包(Guest Additions)
安装好Ubuntu 9.10后,运行Ubuntu并登录。然后在VirtualBox的菜单里选择"设备(Devices)" -> "安装增强功能包(Install Guest Additions)"。
你会发现在Ubuntu桌面上多出一个光盘图标,这张光盘默认被自动加载到了文件夹/media/cdom0。进入命令行终端,输入:
cd /media/cdrom0
sudo ./VboxLinuxAdditions.run
开始安装工具包。安装完毕后会提示要重启Ubuntu。
2 ...
import java.io.File;
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
im ...
1.Hbase shell中创建表create 'tab1','f','i'/*表名,行名,列族*/2.导出mysql数据到文本select gid,a,b,c,d,e,f,gfrom itemprofile where a='1234' into outfile '/tmp/data' FIELDS TERMINATED BY '\t';2.1.将导出的文件放入hdfs的/user/aaa/3.转存文件为Hfile格式hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=HBASE_ROW_KEY,i:a ...
package foo.bar.MR;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.Delete;
import ...
hbase(main):002:0> describe 'tab1'
DESCRIPTION ENABLED
{NAME => 'tab1', FAMILIES => [{NAME => 'f1', DATA_BLOCK_ENCODING => 'NONE', BL ...