- 浏览: 1793438 次
- 性别:
- 来自: 北京
-
最新评论
-
奔跑的小牛:
例子都打不开
如何使用JVisualVM进行性能分析 -
蜗牛coder:
好东西[color=blue][/color]
Lucene学习:全文检索的基本原理 -
lovesunweina:
不在haoop中是在linux系统中,映射IP的时候,不能使用 ...
java.io.IOException: Incomplete HDFS URI, no host -
evening_xxxy:
挺好的, 谢谢分享
如何利用 JConsole观察分析Java程序的运行,进行排错调优 -
di1984HIT:
学习了~~~
ant使用ssh和linux交互 如:上传文件
文章列表
安装spawn-fcgi
# emerge spawn-fcgi
安装nginx
# USE="pcre perl ssl zlib -addition -debug fastcgi -flv -imap -pop -random-index -realip -smtp static-gzip status -sub -webdav" emerge nginx
启动端口
# /usr/bin/spawn-fcgi -a 127.0.0.1 -p 9000 -u uu -f /usr/bin/php-cgi
修改配置
# nano ...
// 查看默认USE变量
emerge --pretend --verbose php
[ebuild R ] dev-lang/php-5.2.13 USE="berkdb bzip2 cli crypt gdbm iconv ipv6 ncurses nls pcre readline reflection session spl ssl unicode zlib -adabas -apache2 -bcmath -birdstep -calendar -cdb -cgi -cjk -concurrentmodphp -ctype -curl -curlwra ...
装好一台机器后,Ghost操作系统,可惜没成功,之后采用折中方案,dd分区数据,具体过程如下:
概况-三个分区,大小如下,耗时如下,盘对盘速度如下
115M 3 s 37M/s
2.2G 279 s 7.7M/s
21G 1705s 12.6M/s
第一步:分区格式化
fdisk -l 看哪个是新盘
fdisk /dev/新盘 分区
# 进行格式化
mkfs.ext3 /dev/新盘分区1
mkswap /dev/新盘分区2
mkfs.ext3 /dev/新盘分区3
第二步:拷贝分区数据(swap分区不用拷贝)
dd if=/ ...
#emerge安装使用分支官方文档:http://www.gentoo.org/doc/zh_cn/handbook/handbook-x86.xml?
part=3&chap=3#doc_chap2
#比如下面一个:
#看是否能安装以及安装版本
emerge --pretend --verbose tokyotyrant
{
These are the packages that would be merged, in order:
Calculating dependencies... done!
!!! All ebuilds that could satisf ...
由于修改网关总是忘记在哪个地方,Google出来一堆垃圾文章,今天发现这篇不错,备份一下:
原文地址:http://www.21andy.com/blog/20100227/1717.html
一、CentOS 修改IP地址
修改对应网卡的IP地址的配置文件
# vi /etc/sysconfig/network-scripts/ifcfg-eth0
修改以下内容
DEVICE=eth0 #描述网卡对应的设备别名,例如ifcfg-eth0的文件中它为eth0
BOOTPROTO=static #设置网卡获得ip地址的方式,可能的选项为static,dhcp或bootp ...
这里是最直接的安装方法,官方文档:
http://www.gentoo.org/doc/zh_cn/handbook/handbook-x86.xml
可能你会遇到个不爽的问题:
grub-install --no-floppy /dev/sda 时候
end_request: I/O error, dev fd0, sector 0
end_request: I/O error, dev fd0, sector 0
Buffer I/O error on device fd0,logical block 0
可能你等了很久会有反应,但是那样很不爽,这样吧,Ctr ...
http://hi.baidu.com/skychen1900/blog/item/980a62f049818eaca40f52c4.html
上面博客中说了:
cygwin的安全管理,根据windows的特点有很大的改 变,可以使用mkpasswd -l >
/etc/passwd把windows的用户导入到cygwin下。在安装cygwin的过程中,安装程序会自动执行这个命令的。由于windows下
没有root用户,所以cygwin一般把system和admin的用户,作为root来用,cygwin对于win98和2000的用户处理也不太一
样。由 ...
附件里面有word文档,请下载查看。
Hadoop 其实并非一个单纯用于存储的分布式文件系统,而是一个被设计用来在由普通硬件设备组成的大型集群上执行分布式应用的框架。 Hadoop 包含两个部分:一个分布式文件系统 HDFS (Hadoop Distributed File System),和一个Map-Reduce实现。
研究hadoop,从nutch入手是比较好的选择,分布式文件系统就不说了,下面说说MapReduce产生Job中设置的输入输出,一般new一个Job会这样设置 输入输出路径:
FileInputFormat.addInputPath(job, in);
FileOutputF ...
如何在eclipse中跑nutch
:http://jiajun.iteye.com/blog/612023 这里没有翻译,不过应该能看懂
那么如何分布式搭建nutch1.0
呢?
如果进行到这篇文章,就很容易了:hadoop搭建进阶,多台机器分布式搭建
:http://jiajun.iteye.com/blog/624559
具体如何做呢,参看:How to Setup Nutch and Hadoop
:http://wiki.apache.org/nutch/NutchHadoopTutorial
可惜的是现在的nutch-1.0使用的hadoop架 ...
今天看到一篇好文,觉得还不错,褪去的记忆被唤醒:http://www.alisdn.com/wordpress/?p=1135
继承
指的是一个类(称为子类、子接口)继承另外的一个类(称为父类、父接口)的功能,并可以增加它自己的新功能的能力,继承是类与类或者接口与接口之间
最常见的关系;在Java中此类关系通过关键字extends明确标识,在设计时一般没有争议性;
实现
指的是一个class类实现interface接口(可以是多个)的功能;实现是类与接口之间最常见的关系;在Java中此类关系通过关键字
implements明确标识,在设计时一般没有争议性;
依赖
可 ...
我在build hadoop的时候 发现ant有不支持的标签
Class org.apache.tools.ant.taskdefs.ConditionTask doesn't support the nested "typefound" element.
在这里得到解决:
http://getsatisfaction.com/cloudera/topics/make_sure_srpms_can_be_rebuilt_on_rhel
Download the Apache Ant 1.8.0 tarball
Extract it
...
nutch系统架构的一个亮点就是插件,借鉴这个架构我们可以设计出自己的灵活的系统架构,下面就来解析Nutch
的插件系统是怎么回事。
关于nutch,在这里了解:http://lucene.apache.org/nutch/,目前最新版本是1.0:
23 March 2009 - Apache Nutch 1.0 Released
Nutch is open source web-search software. It builds on Lucene Java, adding web-specifics, such as a
crawler, a l ...
阅读此篇文章之前,请阅读上一篇:http://jiajun.iteye.com/blog/622475
Hadoop 是一个实现了 MapReduce 计算模型的开源分布式并行编程框架,借助于 Hadoop, 程序员可以轻松地编写
分布式并行程序,将其运行于计算机集群上, ...
$ bin/hadoop fs -put /home/lighttpd/hadoop-0.20.2/hadoop-0.20.2-tools.jar e.jar
WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/lighttpd/f.jar could only be replicated to 0 nodes, instead of 1
at org.apache.hadoop.hd ...