`
kewen342757003
  • 浏览: 145030 次
社区版块
存档分类
最新评论
文章列表
把两个拼装好的JSON串合并成一个新的JSON,两个JSON相同的key值情况下只保存一个,后放入的JSON串对应key的Value值会覆盖先放入的。 同理可以实现多个JSON串合并。 import net.sf.json.JSONObject; public class JSONCombine { public static void main(String[] args) { JSONObject jsonOne = new JSONObject(); JSONObject jsonTwo = new JSONObject(); ...
Exception in thread "main" java.lang.AbstractMethodError: oracle.jdbc.driver.OracleDatabaseMetaData.supportsGetGeneratedKeys()Z at org.hibernate.engine.jdbc.internal.JdbcServicesImpl.configure(JdbcServicesImpl.java:142) 今天重新写了一个Hibernate的东西,用的是classes12的jar包,运行之后报这个错。 这个感觉就是驱动的jar包不对,换成o ...
最近由于业务需要,要将一个老版本的系统升级到新版本。 两个版本之间表结构存在一些差异,为了原来系统运行的数据不丢失,需要做一个跨实例跨表的数据转移。(即升级) 这里记录一些用到的sql: 1.DBLink -- Create database link create database link DBLinkxxx connect to userName identified by password using '(DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = 11.12.13.14)(PORT = 1521))(CONNEC ...
遇到个小问题,double类型转成String的时候,数字一大就会变成科学计数法,写了个小工具,记录一下 import java.text.DecimalFormat; public class BigDoubleToString { public String doubleToString(double d) { String i = DecimalFormat.getInstance().format(d); String result = i.replaceAll(",", ""); ...
前面有一遍博客写了利用监听实现 在Spring加载后,获取到Spring管理的 applicationContext对象。 http://kewen1989.iteye.com/blog/1891124 当初也是常事了Spring提供的接口,但是最后没有实现,没办法的情况下才用了自己写一个监听的方法,后来求助kyfxby大神,明白了当初是哪里出了问题: 这个java类是没有任何问题的 public class ApplicationContextHelper implements ApplicationContextAware { private static Applicati ...
public static String getProperty() { InputStream in = kewen.class.getResourceAsStream("./IOTest.properties"); Properties p = new Properties(); String s = ""; try { p.load(in); s = p.getProperty(&quo ...
最近遇到的是这样一个问题: 需要在Spring完成加载之后,获取到Spring管理的 ApplicationContext。 上网查了几个方法,大家都说实现接口ApplicationContextAware 实现该接口的setApplicationContext(ApplicationContext context)方法,并保存ApplicationContext 对象。Spring初始化时,会通过该方法将ApplicationContext 对象注入。 但是实际操作中遇到了问题,配置了这个类,也加了SpringBean的配置,但是启动的时候,Spring没有帮我注入这个对象,我也不太明白为 ...
首先我们在xwork.xml中定义了一堆action,制作了一个框架给别人使用。 这个时候,如果有人希望自己写一个xml配置文件,该文件中新增一部分原来没有的action实现功能的扩展。 那么我们就新增一个叫做kewen.xml的配置文件,里面写上新增的一部分action 原有的xwork.xml中只需要这样实现 <include file="workflow-default.xml" /> <include file="kewen.xml" /> <package name="default" ...
最近项目需要使用一套工作流管理的框架,研究决议使用xwork框架做基础,实现工作流 修改框架需要干几件事情,首先配置文件要改,不然与标准框架的配置文件产生冲突: 1.修改xml配置文件名称 这个文件名称必须改,不然你叫xwork.xml 标准xwork的框架也叫这个,容易产生混乱。 xwork中读取这个配置文件的是 ConfigurationManager类的getContainerProviders()方法。 public List<ContainerProvider> getContainerProviders() { providerLock.l ...
public class ParseXML { public static void main(String args[]) { try { //获取到配置文件 String configFileName = "src/example.xml"; File f = new File(configFileName); DocumentBuilderFactory factory = DocumentBuil ...
首先建立一个老鼠实体,有重量和颜色的属性: public class Mouse implements Comparable<Mouse> { public int weight; public MOUSE_COLOR color; public Mouse(int weight, MOUSE_COLOR color) { this.weight = weight; this.color = color; ...
public static void main(String[] args) { [color=red] ScriptEngine se = new ScriptEngineManager().getEngineByName("JavaScript");[/color] String str = "2*3-45/5+9+9%5"; try { Double d = (Double)se.eval(str); System. ...
5 常见问题 5.1 ERROR: mmap failed with out of memory.  (32位和64位此问题不同) 这个错误分为32位和64位系统两种,32位系统是固有问题,单数据集大小超过2G之后就会出现这个问题,并且目前不知道怎么解决。。。。。 如果是64位操作系统,那么就是你的虚拟内存设计了上限,导致虚拟内存不足引起的这个问题,这里有一个MongoDB论坛上的帖子,上面记录了解决方法: 按照他说的,在命令行中输入  : ulimit -a # check limits ulimit -v 0 # remove address space limit 这样就可以解除这个限 ...
1.2 Linux环境下的安装(和Windows的安装基本上差不多,区别不是很大) 1.将压缩文件传至Linux环境中,使用命令tar -zxvf mongodb-linux-x86_64-1.8.1.tar解压压缩包 2.在解压出来的mongodb_1.8.1文件夹中 创建Data文件夹,然后在该目录下分别创建db,log两个文件夹,至此mongodb_1.8.1文件目录下有两个文件夹(bin,data),data中包含db和log两个文件夹。 3.在bin目录下执行   ./mongod --dbpath=../data/db/ --logpath=../data/log/mong.log  ...
Windows环境下的安装(32位Windows环境存在单集合数据大小不能超过2GB的严重缺陷,选择时请慎重,暂时没有找到解决方法) 1.将mongodb-win32-i386-1.8.1.zip解压到目录D:\Program Files\mongodb_1.8.1,也就是把Bin目录放在该文件夹下。 2.在D:\Program Files\mongodb_1.8.1创建Data文件夹,然后在该目录下分别创建db,log两个文件夹,至此D:\Program Files\mongodb_1.8.1文件目录下有两个文件夹(bin,data),data中包含db和log两个文件夹。 3.在log文件夹 ...
Global site tag (gtag.js) - Google Analytics