- 浏览: 55726 次
- 性别:
- 来自: 广州
最新评论
-
p_3er:
blucedong 写道你好我在做struts1.3+spri ...
基于annotation的struts1.3+hibernate3.3+spring2.5 -
blucedong:
你好我在做struts1.3+spring3.0+hibern ...
基于annotation的struts1.3+hibernate3.3+spring2.5
文章列表
在前面使用增强的时候,我们发现增强会被织入到目标类的所有的方法中。我们如果把增强织入到目标类的特定的方法中,需要使用切点进行目标连接点的定位。然后我们可以通过切点及增强生成一个切面了。
3.4.1切点类型
静态方法切点:org.springframework.aop.support.StaticMethodMatcherPointcut
动态方法切点:org.springframework.aop.support.DynamicMethodMatcherPointcut
注解切点:org.springframework.aop.support.annotatio ...
- 2013-07-05 11:34
- 浏览 358
- 评论(0)
3.3.1增强类型
前置增强:org.springframework.aop.MethodBeforeAdvice
后置增强:org.springframework.aop.AfterReturningAdvice
环绕增强:org.aopalliance.intercept.MethodInterceptor
异常抛出增强:org.springframework.aop.ThrowsAdvice
引介增强:org.springframework.aop. ...
- 2013-07-04 10:21
- 浏览 262
- 评论(0)
3.1概念
AspectOriented Programing,面向切面编程。
利用AOP可以对业务逻辑的各个部分进行隔离,从而使得业务逻辑各部分之间的耦合度降低,提高程序的可重用性,同时提高了开发的效率。
AOP主要用于日志记录,性能统计,安全控制(权限控制),事务处理,异常处理等。将日志记录,性能统计,安全控制,事务处理,异常处理等代码从业务逻辑代码中划分出来,通过对这些行为的分离,我们希望可以将它们独立到非指导业务逻辑的方法中,进而改变这些行为的时候不影响业务逻辑的代码。
如:AOP做权限控制的时候。首先拦截所有业务Bean时面的所有方法,判断用户 ...
- 2013-07-04 09:43
- 浏览 295
- 评论(0)
通过Spring容器自动扫描和管理Bean,我们不再需要在配置文件中使用<bean>标签管理Bean。
2.9.1引入context命名空间
如何引入命名空间及命名空间的写法已经在之前的章节中详细说过。具体可参考以下:
http://blog.csdn.net/p_3er/article/details/9231307
2.9.2打开扫描功能
<context:component-scan base-package="cn.framelife.spring"/>
在打开扫描功能后,注解功能也打开了,所以不再需要再打 ...
- 2013-07-04 09:36
- 浏览 315
- 评论(0)
FAILED: Hive Internal Error: java.lang.RuntimeException(Error while making MR scratch directory异常的解决
hive> select * from dummy;
FAILED: Hive Internal Error: java.lang.RuntimeException(Error while making MR scratch directory - check filesystem config (null))
java.lang.RuntimeException: Error while making MR scratch directory - check filesystem config (null)
<wbr><wbr><wbr ...
- 2013-07-03 16:16
- 浏览 954
- 评论(0)
使用hive load从hdfs中load data的时候,hiveql如下:
load data inpath 'hdfs://192.168.0.131:9000/hive/test.log'
overwrite into table test_log
partition(dt="20130703");
出错:
FAILED: SemanticException [Error 10028]: Line 1:17 Path is not legal ''hdfs://192.168.0.131:9000/hive/test.log'': Move from: h ...
- 2013-07-03 16:03
- 浏览 483
- 评论(0)
1、命名空间
使用Annotation的方式,需要在spring的配置文件中配置命名空间。命名空间中,隐式地注册了多个对注解进行解析处理的处理器。
a、引入context命名空间
<beans
xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xmlns:p="http://www.springframework.org/schema/p"
xm ...
- 2013-07-03 10:53
- 浏览 350
- 评论(0)
UserDao与UserDaoImpl:
public interface UserDao {
public void save();
}
public class UserDaoImpl implements UserDao {
public void save() {
System.out.println("保存用户...");
}
}
UserService接口及其实现类UserServiceImpl:
public interface UserService { ...
- 2013-07-03 10:32
- 浏览 346
- 评论(0)
在使用HBase Shell的时候出现错误:
ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times
查看一下logs:
FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol ver ...
- 2013-07-03 10:20
- 浏览 481
- 评论(0)
Eclipse:Run on Hadoop 没有反应原因:
hadoop-0.20.2下自带的eclise插件已过时。
解决方案:
1、下载正确的插件:https://issues.apache.org/jira/secure/attachment/12460491/hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar
2、重命名:将下载的插件重命名为"hadoop-0.20.2-eclipse-plugin.jar"
3、替换原来的插件。4、重启eclipse
转:http://www.linuxidc.com/Linux/20 ...
- 2013-07-03 10:13
- 浏览 376
- 评论(0)
配置完Hbase后,启动,JPS发现少了HMaster这个进程。查看了一下日志如下:java.lang.IllegalArgumentException: Wrong FS: hdfs://192.168.0.131:9000/hbase, expected: hdfs://icache-9200.site:9000
at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:310)
at org.apache.hadoop.hdfs.DistributedFileSystem.checkPath(DistributedFile ...
- 2013-06-28 20:39
- 浏览 1197
- 评论(0)
package cn.framelife.hadoop;
import java.io.IOException;
import java.io.InputStream;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
/**
* 使用FileSystem API读取数据
* @author 潘广伟
*
*/
public ...
- 2013-06-27 09:34
- 浏览 402
- 评论(0)
package cn.framelife.hadoop;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
/**
* 上传本地文件到HDFS
* @author 潘广伟
*
*/
public class CopyFile {
public static vo ...
- 2013-06-25 11:09
- 浏览 402
- 评论(0)
解决方案:关闭hadoop NameNode的安全模式就行了。
bin/hadoop dfsadmin -safemode leave
- 2013-06-20 20:39
- 浏览 340
- 评论(0)
1、系统或hdfs是否有空间
2、datanode数是否正常
3、是否在safemode
4、防火墙关闭
5、配置方面
6、把NameNode的tmp文件清空,然后重新格式化NameNode
- 2013-06-20 15:03
- 浏览 525
- 评论(0)