Kettle好的论坛:
http://www.flybi.net/category/31
BI教程学习地址:
http://www.hellobi.com/course/37
Kettle 命令行使用说明
1.Kitchen——作业执行器
是一个
作业执行引擎,用来
执行作业。这是一个命令行执行工具, 参数说明如下
1) -rep:Repositoryname 任务包所在存储名
2) -user:Repositoryusername 执行人
3) -pass:Repositorypassword 执行人密码
4) -job:Thenameofthejobtolaunch 任务包名称
5) -dir:Thedirectory(don'tforgettheleading/or\)
6) -file:Thefilename(JobXML)tolaunch
7) -level:Thelogginglevel(Basic,Detailed,Debug,Rowlevel,Error,Nothing)指定日志级别
8) -log:Theloggingfiletowriteto 指定日志文件
9) -listdir:Listthedirectoriesintherepository 列出指定存储中的目录结构。
10) -listjobs:Listthejobsinthespecifieddirectory 列出指定目录下的所有任务
11) -listrep:Listthedefinedrepositories 列出所有的存储
12) -norep:Don'tlogintotherepository 不写日志
示例: 1. Windows 中多个参数以 / 分隔,key 和 value 之间以:分隔
作业存储在文件
Kitchen /level:Basic>D:\etl.log /file:F:\Kettledemo\email.kjb
作业存储在数据库
Kitchen /rep kettle /user admin /pass admin /job F_DEP_COMP
( Rep 的值为数据库资源库 ID)
2. Linux 中参数以 –分隔
作业存储在文件
kitchen.sh-file=/home/job/huimin.kjb >> /home/ log/kettle.log
作业存储在数据库
./kitchen.sh -rep=kettle1 -user=admin -pass=admin -level=Basic -job=job
2.Pan——转换执行器
是一个
转换执行引擎,用来
执行转换。 参数与 Kitchen 类似, 如下。
1- -version 显示版本信息
2- -file=filename 运行 xml 文件
3- -param:key=value 指定命名参数
4- -log=logging filename 设置日志文件
5- -level=logging level 设置日志级别
Error:只显示错误
Nothing:不显示任何输出
Minimal:只使用最少的记录
Basic:这是默认的基本日志记录级别
Detailed:详细的日志输出
Debug:以调试为目的,非常详细的输出
Rowlevel:使用行级记录,会产生大量的数据
命令如下:
pan /level:Basic>D:\etl.log /file:F:\Kettledemo\email.ktr
返回状态:
Pan 会基于执行状况返回一个错误码。
• 0:转换执行成功
• 1:处理过程中发生错误
• 2:在装载或者运行时发生意外的错误
• 3:不能初始化转换
• 7:转换不能从资源库或 xml 中装载
• 8:装载步骤或插件错误(通常是装载其中一个插件错误)
• 9:命令行用法错误
分享到:
相关推荐
### 关于Kettle转换、作业日志自动配置的解决方案 #### 概述 在实际的项目开发过程中,Kettle作为一种广泛使用的数据集成工具,在数据处理和ETL(Extract, Transform, Load)流程中发挥着重要作用。然而,在使用...
Kettle 转换、作业日志自动添加进资源库配置解决方案 Kettle 是一个功能强大的数据集成工具,提供了许多有用的功能,例如数据转换、数据集成、数据报表等。但是在使用 Kettle 的过程中,发现每次新配置一个转换或...
在本压缩包“kettle作业及转换脚本.zip”中,包含的是kjb作业文件和ktr转换文件,这些都是Kettle操作的核心元素。 1. **Kettle作业(Job)**: Kettle作业是Kettle工作流的高层次视图,它由一系列的步骤组成,这些...
在"Java2Kettle"这个示例中,可能包含了一个完整的Java应用示例,展示了如何从Java代码中调用Kettle的Job和转换,以及如何传递参数和处理结果。如果你遇到任何问题,可以参考这个示例,或者查看Kettle官方文档和社区...
同时,Kettle支持自定义转换逻辑,可以应对各种复杂的数据清洗和转换需求,比如数据类型转换、缺失值处理、数据验证等。这种灵活性和强大的功能使得Kettle成为数据工程师在数据集成项目中的首选工具之一。
学习这个例子,你需要了解Kettle的基本操作,如创建转换、配置步骤、连接数据源、运行和调试转换。通过解压"KETTLEDEMO"并导入到Kettle环境中,你可以一步步跟随示例来加深对Kettle的理解。 7. **最佳实践**: 在...
Kettle 是一款强大的数据集成工具,它提供了两种主要的命令行执行工具:Kitchen 和 Pan。这些工具允许用户在没有图形界面的情况下执行作业(Jobs)和转换(Transformations),这对于自动化数据处理流程特别有用。 ...
kettle集群(cluster)在多个服务器上并发执行是指通过将kettle部署在多个服务器上,实现分布式数据处理和排序的目的。这种方法可以大大提高数据处理的效率和速度,特别是在大数据量的情况下。 以下是kettle集群在...
1. Kettle 是纯 Java 编写的 ETL 工具,可以在 Window、Linux、Unix 上运行。 2. 在部署前,需要配置 java 环境。 3. 路径、文件名称仅供参考,可以根据实际情况或个人习惯安排。 4. 在执行定时作业时,不要设置定时...
- 作业(Job)则更高层次,它可以调度和协调多个转换,以及进行错误处理和工作流控制。 2. 新建远程服务器配置: - 在Kettle的Job编辑器中,可以通过右键点击“Sub-transformation”或“Sub-Job”,选择“New ...
本压缩包“kettle增量更新作业.rar”很可能包含了一系列的Kettle作业和转换文件,用于实现数据库的增量更新。 在Kettle中,增量更新通常通过两种方式实现:时间戳比较和唯一标识符比较。时间戳比较适用于记录有修改...
Kettle是一款强大的ETL(Extract, Transform, Load)工具,它允许用户通过图形化界面创建作业(Job)和转换(Transformation),然后在生产环境中通过API或者命令行来执行。 1. **Kettle简介** Kettle是Pentaho...
总结起来,这个压缩包提供的Java代码示例展示了如何使用Kettle的Java API来创建和运行作业。通过这种方式,开发者可以更灵活地控制数据处理流程,特别是在复杂的企业级数据集成项目中。理解和掌握这些技术对于提高...
本文介绍了Kettle这一开源ETL工具的基本概念、安装启动方法以及如何创建一个简单的数据转换过程。通过上述步骤,我们可以实现不同数据源之间的数据抽取、转换和加载,从而满足企业级数据处理的需求。Kettle的强大之...
Kettle,又称Pentaho Data Integration(PDI),是一款强大的ETL(Extract, Transform, Load)工具,专门用于数据抽取、转换和加载。本示例将深入探讨如何使用Kettle进行简单数据转换。 在Kettle中,数据转换是通过...
Kitchen和Pan则分别用于在命令行模式下执行作业和转换。在"预处理大作业"中,可能包含了这些组件的使用示例。 数据预处理主要包括以下几个环节: 1. 数据清洗:去除重复值、处理缺失值(如填充、删除或插补)、...
1. **安装与配置**: 首先,需要在服务器上安装Kettle的Server版,这通常包括Spoon(设计工具)、Kitchen(命令行作业执行)和Pan(命令行转换执行)等组件。配置Kettle Server,确保其可以正常运行作业和转换。 2. ...