- 浏览: 385944 次
- 性别:
- 来自: 上海
最新评论
-
tonyyan:
谢谢分享!
mapreudce 通过读取hbase表删除hbase 数据 -
maicose:
学习了,谢谢
使用spring @Scheduled注解执行定时任务 -
shuaianwen:
若果使用这种注解方式,多个定时任务设置成相同时间貌似不能并行; ...
使用spring @Scheduled注解执行定时任务 -
hanmiao:
故事不错,感觉那小男孩是個营销人才,哈哈...
前期是老板给你发工资,中期是能力给你发工资,后期是品德给你发工资!
文章列表
从前,有一个卖水果的摊子,老板因为年岁大了,无法久站招呼客人,于是就贴条子征店员。 过了几天,来了一个年轻男子,问老板一个月要用多少钱请他来帮忙,老板笑着说:“我们这小摊子生意,哪里付得出月薪,当然是看 ...
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:sec="http://www.springframework.org/schema/security" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation= ...
vi操作
1.跳到文本的最后一行:按“G”,即“shift+g”
2.跳到最后一行的最后一个字符 : 先重复1的操作即按“G”,之后按“$”键,即“shift+4”。
3.跳到第一行的第一个字符:先按两次“g”,
4.跳转到当前行的第一个字符:在当前行按“0”。
5.vi加密。进入vi,输入":" + "X" 之后就提示你输入两次密码。
6.文件重新载入 :e!
7.单行复制 将光标移到复制行 按 'yy'进行复制
8.多行复制 将光标移到复制首行 按 'nyy'进行复制 n=1.2.3.4。。。。。
java socket服务端
package cn.outofmemory.socket.server;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.io.OutputStream;
import java.io.PrintWriter;
import java.net.*;
import java.util.concurrent.*;
publi ...
在生产环境中碰到一种怪异的问题,在停止tomcat时,运行shutdown.sh,看起来好像停掉了,但是后面还有程序在运行,网上查了下资料‘shutdown.sh后存在tomcat僵尸进程的原因是shutdown.sh后web应用没有去关闭其启用的后台线程,所以处理的办法是监听到tomcat关闭事件时,关闭掉其启用的后台线程。’
这时刚好想起在我们应用中使用了定时任务等功能,但是在shutdown时并没有关闭该任务;
因为项目使用spring,它已经提供了destroy-method=“”的功能,于是我们在spring配置文件中在需要的bean中加上了该功能,在web.xml中定义: ...
HashSet里面通过add增加对象。通过判定对象的hashcode和equal是否相同来决定是否是同一对象。如果是同一对象不添加进去。
Set<SystemUser> set = new HashSet<SystemUser>();
SystemUser user1 = new SystemUser();
user1.setName("admin");
user1.setSex("bb");
set.add(user1);
set.add(user1);
SystemUser user2 ...
public class GcTest{
public void finalize(){
System.out.println("GcTest is going ...");
}
public static void main(String[] args){
new GcTest();
new GcTest();
new GcTest();
System.gc(); //没有gc调用,析构函数finalize()不会被调用
System.out.println("GcTest is ending ..." ...
Runtime.getRuntime().addShutdownHook(shutdownHook);
这个方法的含义说明:
这个方法的意思就是在jvm中增加一个关闭的钩子,当jvm关闭的时候,会执行系统中已经设置的所有通过方法addShutdownHook添加的钩子,当系统执行完这些钩子后,jvm才会关闭。所以这些钩子可以在jvm关闭的时候进行内存清理、对象销毁等操作。
package com.zhichenhaixin.test;
public class RunShutThread {
public static void main(Strin ...
Java 常见面试题
- 博客分类:
- Java
1.是否可以从一个static方法内部发出对非static方法的调用
不可以调用,因为非static方法是要与对象关联在一起的,必须创建一个对象后,才可以在该对象上进行方法调用.而static方法调用时不需要创建对象,可以直接调用。也就是说,当一个static方法被调用时,可能还没有创建任何实例对象,如果从一个static方法中发出对非static方法的调用,那个非static方法是关联到哪个对象上的呢?这个逻辑无法成立,所以,一个static方法内部可以发出对非static方法的调用。
2.使用final关键字修饰一个变量时,是引用变量不能变,还是引用的对象的内容不能变?
写道
...
定义回调接口
package com.callback;
/**
* @since 2012-02-02
* @desc 定义回调接口
*/
public interface CallBackInterface {
public void doSome();
public void exectueMethod();
}
第二步:李四编写的程序
package com.callback;
/**
* @since 2012-02-02
* @desc 李四
*/
public class MethodB {
...
修改Hadoop集群的备份数
- 博客分类:
- hadoop
之前dfs.replication值为3,运行一段时间之后我使用完了磁盘空间,
所以呢,现在我想通过降低备份的个数来释放空间。
那么对于之前存储的文件会自动把备份数改为1吗?
还是需要手动执行命令来执行呢?
dfs.replication这个参数其实只在文件被写入dfs时起作用,虽然更改了配置文件,但是不会改变之前写入的文件的备份数。
但是可以通过如下命令更改备份数:
bin/hadoop fs -setrep -R 1 /
package foo.bar.MR;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.Delete;
import ...
reduce的运行是分成三个阶段的。分别为copy->sort->reduce。
由于job的每一个map都会根据reduce(n)数将数据分成map 输出结果分成n个partition,
所以map的中间结果中是有可能包含每一个reduce需要处理的部分数据的。
所以,为了优化reduce的执行时间,hadoop中是等job的第一个map结束后,
所有的reduce就开始尝试从完成的map中下载该reduce对应的partition部分数据。
这个过程就是通常所说的shuffle,也就是copy过程。
参数:mapred.reduce.parallel.copi ...
hadoop集群跑了很多的任务后
在hadoop.log.dir目录下会产生大量的日志文件。
可以通过配置core-site.xml文件让集群自动清除日志文件:
<property>
<name>hadoop.logfile.size</name>
<value>10000000</value>
<description>The max size of each log file</description>
</property>
<property&g ...
Hadoop命令大全
- 博客分类:
- hadoop
1、列出所有Hadoop Shell支持的命令 $ bin/hadoop fs -help2、显示关于某个命令的详细信息 $ bin/hadoop fs -help command-name3、用户可使用以下命令在指定路径下查看历史日志汇总 $ bin/hadoop job -history output-dir这条命令会显示作业的细节信息,失败和终止的任务细节。4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 $ bin/hadoop job -history all output-dir5、 格式化一个新的分布式文件系统: