linux 7.6 redhat ,Kettle8.3调Shell报Error=7, Argument list too long.此问题耗时我两天,灵机一动才解决
即使调简单的shell只输入字符依然报这个问题。
分析步骤:
1、调整只输入简单字符,依然报此问题
2、查看env,和其他系统比较都正常,其实和这个无关,getconf ARG_MAX显示是2097152和其他系统一样
3、最终原因是data-integration/lib中的hadoop*,hbase*,hive*,spark*的jia包过多造成的
解决方案可以将hadoop-* hbase-*的jar迁移到
data-integration/plugins/pentahoo-big-data-plugin/hadoop-configurations/cdh61/lib下面即可
相关推荐
shell命令调用kettle,将生成的日志按月打包,并运行前一天的数据,并且参数传递冲抵kettle中的变量
我自己编写的KETTLE6.1与KETTLE7.1版本之间的差距比较
在本案例中,我们将探讨如何在Kettle 7中配置连接到Oracle和Microsoft SQL Server数据库的Java驱动。 首先,我们需要了解Oracle和MSSQL的Java驱动。`ojdbc6.jar`是Oracle数据库使用的JDBC驱动,它允许Java应用程序...
Java集成Kettle是一个常见的数据处理任务,Kettle是一款强大的ETL(Extract, Transform, Load)工具,也称为Pentaho Data Integration(PDI)。在Java项目中使用Kettle时,通常需要将Kettle的相关库(jar包)引入到...
《详解kettle之User Defined Java Class步骤》示例代码,是最详细的udjc步骤说明文档,有示例理解更容易,更全面。
【Kettle优化】知识点详解 Kettle,全称Pentaho Data Integration,是一款强大的ETL(提取、转换、加载)工具,用于数据整合和数据清洗。优化Kettle的使用能够提高数据处理效率,减少资源消耗,以下是根据标题和...
Java调用Kettle代码主要涉及两个关键点:Java编程与Kettle(Pentaho Data Integration,简称PDI)工具的集成。Kettle是一款强大的ETL(Extract, Transform, Load)工具,用于数据抽取、转换和加载。Java作为广泛应用...
kettle 解析xml数据,xml多层分组嵌套,xml stax方法,完整解析案例使用(包含xml文件以及ktr文件)。ETL大数据迁移,数据清洗。XML Input Stream (StAX) 方法
本资源包含两个版本的Kettle JAR包,分别对应于Java Development Kit(JDK)的7和8版本。 JDK7版的Kettle JAR包: 在JDK7时代,Kettle已经是一个成熟的数据集成平台,具备丰富的数据转换和ETL作业组件。JDK7版本的...
【Kettle7常用Jar包详解】 Kettle,也被称为Pentaho Data Integration(PDI),是一种强大的ETL(Extract, Transform, Load)工具,用于数据整合和数据迁移。这个16MB的“kettle7常用jar包”是针对Kettle 7的一个...
本资源主要内容包括(资源有保证,都是干货...1.KETTLE远程服务配置及启动说明。 2.JAVA传参调用KETTLE远程服务执行任务实现过程及注意事项说明。 3.附件包括:配套说明文档、代码包、KETLLE任务测试文件及数据库脚本。
Linux Centos 环境 Kettle 部署与定时作业执行 Linux Centos 环境 Kettle 部署与定时作业执行是指在 Linux Centos 环境中部署 Kettle 工具,并配置定时作业执行。下面将详细介绍 Kettle 部署和定时作业执行的步骤...
7. **连接(Connectors)**:Kettle提供了丰富的数据库连接器,支持多种关系型数据库、NoSQL数据库、文件系统和其他数据源,确保了数据提取的广泛性。 8. **数据转换**:Kettle提供了各种数据清洗和转换功能,如...
8.3.0.0-371 pentaho-kettle kettle-core
【Kettle 7.0.0】是一款强大的数据集成工具,也称为Pentaho Data Integration(PDI)。这款开源软件提供了全面的数据转换和ETL(提取、转换、加载)功能,帮助企业从各种数据源整合数据并进行清洗、转换,以满足数据...
《Kettle 7.1:数据仓库与ETL的强大工具》 Kettle 7.1 是一款强大的数据集成工具,其全称为Pentaho Data Integration(PDI),由社区驱动的开源项目提供支持,主要用于数据仓库建设和ETL(Extract, Transform, Load...
通过对Kettle中的变量(Variable)、位置参数(Argument)和命名参数(Parameter)的介绍,我们可以看出Kettle提供了丰富的参数管理功能。这些功能使得Kettle不仅能够满足基本的数据处理需求,还能应对更为复杂的...
【Kettle连接SAP插件ITN ERP Connector详解】 在数据集成和转换领域,Kettle(也称为Pentaho Data Integration或PDI)是一个强大的工具,它提供了丰富的数据处理功能,能够连接各种数据库、文件系统以及企业应用。...
本教程将详细介绍如何在Kettle中进行简单的参数化配置来连接数据库,以及如何通过Shell脚本来传递参数并调度Kettle作业。 首先,我们来看“Kettle简单参数化配置连接数据库”。在Kettle中,数据库连接通常需要提供...
在 Java 程序中调用 Kettle 7.0 SAP 输入组件需要进行相应的配置和 jar 包引入,包括 kettle-core-7.0.0.0-25.jar、kettle-dbdialog-7.0.0.0-25.jar、kettle-engine-7.0.0.0-25.jar、kettle-ui-swt-7.0.0.0-25.jar、...