- 浏览: 11149 次
最新评论
文章列表
linux 文本处理命令
- 博客分类:
- linux
linux文本处理命令主要有3个,cut, sed, awk, 我们工作中用得最多的是awk. 这里简单介绍一下这三个命令的使用
1. cut命令
cut是一个选取命令,就是将一段数据经过分析,取出我们想要的。一般来说,选取信息通常是针对“行”来进行分析的,并不是整篇信息分析的。
(1)其语法格式为:cut [-bn] [file] 或 cut [-c] [file] 或 cut [-df] [file]
使用说明cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段写至标准输出。如果不指定 File 参数,cut 命令将读取标准输入。必须指定 -b、-c ...
转载: http://www.tuicool.com/articles/jUZVbm6
public String longestPalindrome(String s)
{
if(s==null||s.length() ==0)
return s;
if(s.length()==1)
return s;
boolean[][] table = new boolean[s.length()][s.length()];
for(int i = 0;i<table.length;i++)
{
for(int j = 0;j< ...
统计含有Amie字样的程序,打印出ps id, 倒数第二列 (此处为端口), 最后一列:
ps aux | grep Amie | grep -v grep | awk '{print $2" " $(NF-1)" " $NF}'
统计一共有多少个用户 (count 为自定义变量, 会被默认初始化为0. 不过最好 ...
查看当前服务器中的所有topicbin/kafka-topics.sh --list --zookeeper amie01:2181
创建topicbin/kafka-topics.sh --create --zookeeper amie01:2181 --replication-factor 3 --partitions 3 --topic myTopic
删除topicsh bin/kafka-topics.sh --delete --zookeeper amie01:2181 --topic myTopic需要server.properties中设置delete.topic.ena ...
感觉它比flume要稍微强大一点. 最近研究了一下, 将一些小心得记录在这里.
话说最好的教程还是官网: https://www.elastic.co/guide/index.html
关于安装
logstash是用JRuby语言开发的. 解压安装包即可(前提是已装有jdk)
logstash基本上由三部分组成,input、output以及用户需要才添加的filter,因此标准的配置文件格式如下:
input {...}
filter {...}
output {...}
因为每次数据库连接的创建和销毁都比较耗时耗力。因此基本策略时候使用JDBC连接池来管理所有的连接。
一般connection pool 只是一个 LinkedList 即可。
比如我们自己写一个javax.sql.DataSource的实现类,类中有一个private变量: LinkedList<Connection> pool = new LinkedList<Connection>();
可以写一个静态代码快来初始化pool变量: 如新建10个Conncetion。
Java代码
private static LinkedList< ...
JVM 有三种Mode:
1. interpreted mode (指将源代码编译成字节码, 运行时不包含热点编译。此模式强制JVM执行所有的字节码。这会降低运行速度,通常低10倍或更多。)
2. compiled mode (将全部字节码编译成机器语言)
3. mix mode (包含两部分: a. 将源代码编译成字节码, b. 在运行阶段 视情况进行热点编译)
热点编译的基本单位是方法。是否发生热点编译的条件有两个:
1. 方法的执行次数超过一定阈值(由参数CompileThreshold来设定)时,将此方法进行热点编译
2. 某个循环的次数超过一定阈值时,此循环所在的方 ...
hashMap 笔记笔记笔记
- 博客分类:
- java
HashMap:Map基于散列表的实现(它取代了Hashtable)。插入和查询键值对的开销是固定的。可以通过构造器设置容量和负载因子,以调整容器的性能。
LinkedHashMap:类似于HashMap,但是迭代遍历它时,取得“键值对”的顺序是其插入次序,或者是最近最少使用(LRU)的次序。只比HashMap慢一点;而在迭代访问时反而更快,因为它使用链表维护内部次序。
TreeMap:基于红黑树的实现。查看“键”或“键值树”时,它们会被排序(次序由Comparable或Comparator决定)。
object AmieKafkaProducer extends App{
val producerProperties = new Properties()
producerProperties.put("serializer.class", "kafka.serializer.StringEncoder")
producerProperties.put("metadata.broker.list", "hdp01:9092")
producerProperties.put("r ...
转载 关于maven
- 博客分类:
- jee
原文地址 : http://tianya23.blog.51cto.com/1081650/292315
1、创建maven工程
mvn archetype:create -DgroupId=com.yourcompany -DartifactId=myproject -DarchetypeArtifactId=maven-archetype-quickstart
demo
mvn archetype:create -DgroupId=com.alibaba -DartifactId=seleniumdemo02 -Darchetyp ...
HttpServletRequest相关
- 博客分类:
- jee
新建项目amie-servlet
写一个HTML用来发请求:
<!DOCTYPE html>
<html>
<head>
<meta charset="UTF-8">
<title>Hi</title>
</head>
<body>
<!-- 提交请求的方式1-->
<a href="/amie-servlet/Demo1?username=xxx">click!</a>
<!-- 提 ...
原理
ACK 是storm一大亮点. 主要由ack bolt 完成.
每个spout/bolt emit一个tuple (包含此消息的rootId, tupleId, 用户发送的消息内容)出去下游bolt 的同时,也会发一个ack tuple(只包含此消息的rootId, tupleId) 给ack bolt .
a) spout将<rootId, tuple1Id> 发送到ackBolt, 也将<rootId, tuple1Id, tuple1>发到bolt1.
b) bolt1 收到了spout 发过来的tuple1, 在execute方法处理完 ...
用eclipse 集成tomcat时,注意配置output的folder:
在传统java类中,一般使用FileInputStream读取.properties 文件
FileInputStream in = new FileInputStream("/db.properties");
Properties prop = new Properties();
prop.load(in);
System.out.println(prop.getProper ...
public static boolean exportCsv(File file, List<String> dataList){
boolean isSucess=false;
FileOutputStream out=null;
OutputStreamWriter osw=null;
BufferedWriter bw=null;
try {
out = new FileOutputStream(file);
...
与servlet生命周期相关的三个方法 :
只要servlet以创建,就调用其init方法。
只要客户端有请求过来,就调用其service方法。
只要servlet被移除,destroy方法,garbage clooected 和finalized方法都将被调用。
与servlet生命周期无关的两个方法:
getServletConfig 返回一个servletConfig object, 包含所有配置信息。
getServletInfo 返回servlet的基本信息(作者,version等)
编译:
javac -d ./WEB-INF/classes ./WEB ...