这两天的根据 kettle 5.0.1 源码改进成,web端可控的项目。本来项目进展顺利,接近收尾工作,不成想尽然一个系统bug,阻挡了我前进的道路。花了一个上午的时间,各种找资料,后来发现用一个jar包替换后,问题解决。没有办法的办法了。这里记录下,以防后期出现不可预知的问题。
Running an exported Job fails intermittently on carte (most likely a VFS issue)
该问题,官方关闭bug,提示修复在 5.1.0版本,结果下载测试,仍然存在致命的问题。
写道
Unexpected error during transformation metadata load
Error reading information from file
Could not read from "zip:file:///C:/Users/USER~1.OFF/AppData/Local/Temp/export_2018d2a1-674b-11df-832c-05c9548ce924.zip!/trans_003.ktr" because it is a not a file.
at org.pentaho.di.job.entries.trans.JobEntryTrans.getTransMeta(JobEntryTrans.java:1035)
at org.pentaho.di.job.entries.trans.JobEntryTrans.execute(JobEntryTrans.java:541)
Error reading information from file
Could not read from "zip:file:///C:/Users/USER~1.OFF/AppData/Local/Temp/export_2018d2a1-674b-11df-832c-05c9548ce924.zip!/trans_003.ktr" because it is a not a file.
at org.pentaho.di.job.entries.trans.JobEntryTrans.getTransMeta(JobEntryTrans.java:1035)
at org.pentaho.di.job.entries.trans.JobEntryTrans.execute(JobEntryTrans.java:541)
就像里面的哥们一样郁闷,不知道kettle团队作何感想。
写道
well, I've just tested PDI 5.1.0-GA and the problem still exists today. Indeed, the jar commons-vfs-20100924-pentaho.jar is not up to date and I still get the error described above. Check for yourself on: pdi-5.1.0-GA/design-tools/data-integration/lib.
why this issue is closed?
why this issue is closed?
最后解决的办法,也是看到讨论里有人提出用最新的common-vfs.jar 包替换原来的
commons-vfs-20100924-pentaho.jar 包,问题可以解决。至少一个下午,我这里都是相安无事的。这里简单记录一下。
知识点: 1.apache common-vfs 操作
附 :
https://github.com/pentaho/pentaho-kettle kettle github地址
http://jira.pentaho.com/browse/ kettle jira地址
相关推荐
Java调用Kettle中的Job与转换是数据集成过程中的常见需求,Kettle(Pentaho Data Integration,简称PDI)是一种强大的ETL工具,而Java则作为通用编程语言,能够灵活地与各种系统进行交互。在Java中调用Kettle的Job和...
2. **Transformation转换**:Transformation描述了数据流,从各种源读取数据,如Excel、多种数据库、文本格式和Ldap,经过转换后加载到目标位置,是ETL的核心部分。 【Spoon工具】 Spoon是PDI的集成开发环境,提供...
3. **监控阶段**:Kettle提供了Carte服务器,用于远程监控和管理Job和Transformation的执行情况。 ### 3. 数据源与目标支持 Kettle支持多种数据源,包括关系型数据库(如MySQL、Oracle、SQL Server等)、文件系统...
### Kettle 常见问题解析 #### 一、使用Kettle从MySQL向Oracle中抽取数据的例子 在Kettle中实现从MySQL到Oracle的数据抽取,首先确保安装的是Kettle 4.1.0版本,并通过Spoon.bat启动Spoon客户端。 1. **创建转换*...
开发者可以利用这个API在Java应用中无缝集成ETL流程,实现复杂的数据处理任务,无论是简单的数据导入导出,还是大规模的数据清洗和转换,Kettle都能提供高效、易用的解决方案。同时,Kettle的插件系统也极大地扩展了...
通过Java API,开发者可以程序化地访问和运行存储在资源库中的转换和作业,将Kettle集成到更复杂的系统中,例如企业级应用或自定义的数据处理解决方案。 总结,Kettle是一个功能全面、灵活且强大的ETL工具,它提供...
Kettle的Kitchen和Pan命令行工具可用于调度和执行Job和Transformation,同时可以通过Carte服务器实现远程监控和管理。 8. **扩展性** 通过编写Java插件或者使用JavaScript,用户可以自定义数据处理步骤,满足特定...
2. 作业(Job):负责管理多个转换的执行顺序和逻辑,比如基于特定条件启动转换或执行定时任务。 3. 步骤(Step):每个步骤都有特定功能,如读取数据库、写入文件、过滤数据等。 四、Kettle实际应用 1. 数据抽取...
- Kitchen:Kitchen是Kettle的命令行接口,用于执行Job,即一系列按特定顺序运行的转换和操作。 - Pan:与Kitchen类似,Pan也是通过命令行执行,但它是用于运行转换而不是Job。 - Carte:Carte是Kettle的一个轻量级...
- Kettle的整体结构包括多个组件,如Repository(资源库)、Spoon(图形化设计工具)、Pan/Pentaho Data Extractor(用于数据抽取)、Kitchen(用于启动转换和作业)、Carte(服务器端的执行引擎)等。 ##### 2. ...
Pan也是一个命令行工具,用于运行Carte服务器。 在Carte部分,手册描述了Carte的配置和管理,包括slaveserver(子服务器)、masters(主服务器)以及与主服务器通信的相关配置如report_to_masters、max_log_lines、...