在研究Pentaho BI集成的时候不看看它的源码是搞不定的,但从svn上把源码下载到本地后,如何把源码编译成功并在本地运行debug调试还是比较棘手的,通过收集了一些资料并且亲自实践,终于算是跑起来了,特分享出来给同样需要研究源码的coder!下面就开始吧:
一、需要准备的环境
1、eclipse(java-indigo)
2、svn(eclipse 插件)
3、ivy(eclipse 插件)
4、ant(1.8.x)
5、tomcat(6.x)
(PS:以上我自己的环境为例,可以是其他版本,但ant和tomcat最好不要用最新的)
二、下载源码
1、svn 地址:svn://source.pentaho.org/svnroot
2、源码目录:bi-platform-v2/tags/x.x.x-stable
说明:stable是比较稳定的版本,目前最新的稳定版是4.8.0-stable,公司当前项目中使用4.5.0-stable,所以建议也是用4.5.0-stable的。把该目录下的所有工程都下载到本地,然后导入eclipse中,如下图所示:
三、本地编译
1、pentaho bi的是用ivy来管理jar包,所以在开始编译之前,确认ivy插件已经安装
2、打开mantle/build.properties文件,修改12行:dependency.pentaho-gwt-widgets.revision=3.1.3
把3.1.3改为3.2-SNAPSHOT,因为3.1.3版本不支持一些类方法,在编译到最后的时候会报错,修改后可
以编译成功。
3、在工程bi-platform-build下新建文件dev_override.properties,并新加一条记录:
tomcat.dir=D:/Development/Server/apache-tomcat-6.0.18
在最后打包时会从本地的tomcat目录拷贝文件,所以这里的路径就是本地的tomcat路径,一定要注意斜杠
的方向。
4、选择文件bi-platform-build/build.xml,右键>Debug as>Ant Build!到了这里就慢慢等着把,可以打开这个
文件看看,48行,从bi-platform-api开始直到mantel工程,会一个一个的编译的,如果你的网络正常的话
估计在40分钟左右会编译完成,在console最后如果看到build success,说明你本地已经build成功了,非
常之不容易。这个过程不排除会有异常导致build失败,可以根据日志信息找到原因,调整,继续ant build
5、即便build成功了,会发现很多项目的红叉叉还是不消失,其实是没关系的,对于有强迫症的童鞋来说可
以按下面的方法最终消灭这些红叉叉:选择工程>alt+enter>Java Build Path>libraries>ivy.xml>Edit
在弹出的框中选到setting,在property files右边有个add,点击后选择改工程下面的build.properties文件
确认后就会自动把ivy.xml依赖的jar包关联进来,下图详细的描述如何操作:
相关推荐
赠送jar包:pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar; 赠送原API文档:pentaho-aggdesigner-algorithm-5.1.5-jhyde-javadoc.jar; 赠送源代码:pentaho-aggdesigner-algorithm-5.1.5-jhyde-sources.jar; ...
maven编译pentaho-big-data-plugin遇到的所有问题解决,pentaho6.0
解决 Cannot resolve org.pentaho:pentaho-aggdesigner-algorithm:5.1.5-jhyde jar放入D根目录执行: 以下命令加入本地maven库 mvn install:install-file -DgroupId=org.pentaho -DartifactId=pentaho-aggdesigner-...
解决maven引入hive的jar包时依赖报错Could not find artifact org.pentaho:pentaho-aggdesigner-algorithm:pom:5.1.5-jhyde in xxx的问题,maven路径org/pentaho/pentaho-aggdesigner-algorithm/5.1.5-jhyde/pentaho...
org / pentaho / pentaho-aggdesigner-algorithm / 5.1.5-jhyde / pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar,解决maven引入hive的jar包时依赖报错Could not find artifact org.pentaho:pentaho-aggdesigner-...
在本例中,pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar包含了所有必要的类和元数据,使得开发者能在他们的Java应用程序或服务器中使用AggDesigner的算法功能。 ._pentaho-aggdesigner-algorithm-5.1.5-jhyde....
(Hive输出)ETLDesigner\common\system\karaf\system\pentaho\pentaho-big-data-kettle-plugins-hive\6.1.0.1-196\下的文件。 (Hive输出)pentaho-big-data-kettle-plugins-hive-6.1.0.1-196。
java maven 仓库包 pentaho-aggdesigner-algorithm-5.1.3-jhyde.jar
总的来说,"pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar"是解决DataX编译时依赖问题的关键文件,它关联了Pentaho ETL工具中的聚合设计算法,并且对于处理大数据场景下的高效数据处理至关重要。正确管理和使用...
Pentaho是开源商务智能软件,它是一个基于java平台的商业智能(Business Intelligence,BI)套件,此处为3.8稳定版的源代码,把jar文件解压即可,另附--源代码阅读报告,方便理解整个体系架构
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
kettle 9.1 连接hadoop clusters (CDH 6.2) 驱动
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
### Pentaho Data Integration (Kettle) 完全自学手册知识点概览 #### 一、Kettle基础介绍 - **Kettle概述**:Pentaho Data Integration(简称PDI),也称为Kettle,是一款开源的数据集成工具,主要用于企业级的...
8.3.0.0-371 pentaho-kettle kettle-core