- 浏览: 458301 次
- 性别:
- 来自: 北京
-
最新评论
-
csc673450017:
能把你写的这个jar包发给我一份吗?谢谢 84883446@Q ...
RedisCluster读写分离改造 -
ccor:
linux下清空正在使用的文件命令::> xxx.log ...
解决jenkins产生的日志过大以及一些衍生问题 -
taoshi:
很棒! 谢谢分享
Apache common exec包的相应使用总结 -
ruize:
首先,谢谢分享其次,给博主一个建议,希望博主将以上程序测试运行 ...
Java数据结构和算法 -
491857321:
能把你写的这个jar包发给我一下吗?谢谢 491857321@ ...
RedisCluster读写分离改造
文章列表
最近需要向组内其他成员普及一下关于Java测试用例的相关知识,特在此进行一下简单的学习和总结。
JUnit简介
JUnit是一个开源的Java单元测试框架,JUnit4对原有的JUnit框架进行了大幅度的改进,主要目标便是利用了Java中的A ...
Hive简介
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
建立Hive表
hive中创建表时,默认情况下hive负责管理数据,这就是所谓的“托管表”。建立托管表的语法比较简单,和写SQL建表也比较类似:
DROP TABLE example_table;
CREATE TABLE if not e ...
在shell工具中,有专门的getopt函数,使用方法如下所示:
while getopts "d:t:vh" opt; do
case "${opt}" in
"d")
DATE="${OPTARG}"
;;
"t")
ID="${OPTARG}"
ID2=`echo $ID | awk -F "_" '{print $2}'`
...
今天需要将分析后的日志结果发布到网站上供其他人浏览,虽然用户可以通过直接使用url链接可以访问到对应的文件,但是毕竟还是不方便,没有一个类似文件浏览器的东西,可以直接查看文件夹和文件列表。
其实这样的工具在tomcat中本身就已经实现了,只不过以前没有使用。对于任何想要发布成文件服务的项目,在tomcat的webapps中有一个已经存在文件夹,都会作为一个Context来解析,在该Context中我们可以将其中的所有文件以及文件夹进行目录浏览的展示。
在Context中类似Web项目,需要建立一个WEB-INF的文件夹,其中新建web.xml,内容如下:
<?x ...
在Hadoop中一个作业被提交后,其后具体的执行流程要经历Map任务的提交中间结果处理,Reduce任务的分配和执行直至完成这些过程,下面就是MapReduce中作业详细的执行流程图(摘自《Hadoop实战》)。
在整个过程中, ...
OS and File System
根据Dell(因为我们的硬件采用dell的方案)关于hadoop调优的相关说明,改变几个Linux的默认设置,Hadoop的性能能够增长大概15%。
open file descriptors and files
文件描述符是一个索引值,指向内核为每一个进程所维 ...
cron是一个Linux下的定时执行工具,无需人工干预,与quartz上的cron表达式稍有不同。由于cron是Linux上的内置基础服务,并不是所有服务器都是默认启动该服务的,如果没有启动可以使用下面的命令:
sudo service cron restart/star ...
今天试图在服务器上搭建一个web服务器,顺便回顾了java web项目的入门,使用Servlet处理HTTP请求,并记录日志等操作。当很久没有做过web项目时,有些东西还是很容易忘记的。
Maven配置
使用maven进行整个项目的构建,使用intellij idea IDE,填写完groupId和artifactId之后,声明packaging元素为war包,在build中注意需要设置war-plugin的webResources:
<plugins>
<plugin>
< ...
1. Ubuntu环境安装和基本配置
本例程中在MAC上安装使用的虚拟机Ubuntu系统(64位,desktop);
基本配置
考虑到以后涉及到hadoop的应用便于权限的管理,特别地创建一个hadoop用户,user和group名称均为hadoop。首先创建hadoop用户组:
sudo addgroup hadoop
在刚才创建的分组中创建hadoop
今天编写了一个运行在服务端的java工具类,才发现自己以前很少关注运营方面的内容,导致在服务端部署一个java的工具变得异常困难,其实这也是自己对java的了解不够造成的。
首先,当代码编写完成之后,在主类中必须要有main函数,其中的参数非常重要。根据一位同事的说法,除正常的执行程序之外,其中至少要包含两种参数:-v(软件版本,以及作者等介绍信息),-h(软件的帮助信息,良好的帮助文档能够帮助使用本软件的人能够很容易地学会其基本用法)。
main函数编写完成后,需要在build的时候,指定对应的jar包中的主类型,本部分是用maven构建的,因此需要在pom文件中加入 ...
本文是osgi实战一书的前几章读书总结
1. OSGi简介
Java缺少对高级模块化的支持,为了弥补Java在模块化方面的不足,大多数管理得当的项目都会要求建立一整套技术,包括:
适应逻辑结构的编程实践;
多个类加载器的 ...
除了提供抽象以外,操作系统还需要控制计算机的所有I/O设备,操作系统必须向设备发送命令,捕捉中断,处理设备的各种错误,I/O部分的代码是整个操作系统中的重要组成部分。
1. I/O硬件原理
对于程序员来说,I/O硬件是提供给软件的接口,我们的讨论仅限于如何对硬件编程,而不是其内部工作原理。
1.1 I/O设备
I/O设备可以分成两类:块设备和字符设备。
块设备把信息存储在固定大小的块中,每个块有自己的地址,所有的传输以一个或多个完整的块为单位。块设备的基本特征就是每个块都能独立于其他块而读写。硬盘,CD-ROM和USB盘都是块设备。
另一类I/O设 ...
前言
Apache CXF是一个开源的服务框架项目,而Distributed OSGi子项目提供了基于OSGi远程服务规范的分布式组件实现。它使用Web Services,HTTP上的SOAP手段实现了远程服务的功能,对外暴露了WSDL规约。本篇就是介绍使用dosgi在OSGi环境下将OSGi的服务暴露成Web Services的过程。
DOSGi的项目主页:http://cxf.apache.org/dosgi-single-bundle-distribution.html
环境搭建
DOSGi本身提供了三种实现:Apache Karaf Feature,Multi Bund ...
我们在进行eclipse插件开发时,通常通过分发jar包的方式将插件文件包发送给使用的人安装。通常的安装eclipse插件方式是直接copy到对应的eclipse/plugins目录下(或dropins, link方式),这种方式虽然简单,但是在插件文件更新(版本升级)时通常还需要再次分发插件文件包,进行本地安装,非常不方便。
经过严格设计(这考虑到OSGi组件、服务的松耦合)的eclipse bundle可能是非常多的,这也意味着最终发布的插件产品可能是一堆eclipse
1.问题提出
在插件开发代码中,大量使用了图片作为图标,在相应的view,editor中展示,初始时测试还OK,但是经过长时间的使用后,经常报出SWT:No More Handlers的错误,异常如下所示:
!ENTRY org.eclipse.osgi 4 0 2013-07-30 15:49:55.671
!MESSAGE Application error
!STACK 1
org.eclipse.swt.SWTError: No more handles
at org.eclipse.swt.SWT.error(SWT.java:3803)
at org. ...