`
zhzhiqun2005
  • 浏览: 227241 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

kettle中做查询时,遇到大数据时怎么办?

 
阅读更多
在kettle常常有处理从一个源数据中做转换.做转换的时候, 需要去查另一个数据库.

这种问题遇到数据小时候还好办. 但是数据魇 时候就麻烦来了.

下面针对三种情况做具体情况的选择办法

先上一个图

[img]

[/img]

1. 当需要转换的数据特别大的时候, 例如: 10W条以上.或者100W条以上时.

   上图中,hadoop数据导入,导入的数据如果够多,例如100W条以上,其中一个字段需要查询数据库中查询,而这个字段的类型并不多,例如只有10个类型或者数据库中就只有这10个类型.那么,可以走线路2, 并且线路2中的 "使用缓存" 可以打勾,也可以不打.当然你这个源里的数据太多,打上当然最好了.因为省得再去你的数据库里再查.
   
    但是当源里的数据类型还是只有10个类型,但是你的数据库里面存了有10000条记录时,怎么办?
  有两种解决办法:
       1).线路2:并且查询节点中的 "使用缓存" 不能打勾.
       2).线路1,并在"带条件的结果查询供流查询使用" 这个结点中,用一个SQL,过滤一下数据,然后尽可能地把那里包括的这些记录查出来.这样在流里的比对时.也很快很多.必竟是在内存里做运算了

2. 查另一个数据库的数据量大时,而你的源数据不大.

    最好的选择是
     线路1,并在"带条件的结果查询供流查询使用" 这个结点中,用一个SQL,过滤一下数据,然后尽可能地把那里包括的这些记录查出来.这样在流里的比对时.也很快很多.必竟是在内存里做运算了


3. 当两个数据源都非常大时(最不想遇到的)
   这种情况是最不想遇到的办法
    一种选择:
     1).线路2中的 "使用缓存" 打勾.

当然还有别的更复杂但是会更快的办法.适用场景比较少,不再详细写了.
  • 大小: 30.3 KB
分享到:
评论

相关推荐

    kettle 从oracle数据库导数据到hive 表

    - **日志记录**:开启详细日志记录,便于后期分析数据迁移过程中可能遇到的问题及其原因。 通过上述步骤,可以顺利完成从 Oracle 数据库到 Hive 表的数据迁移工作。此过程不仅涉及技术细节的调整,还需要对数据类型...

    kettle7.1大数据插件源码依赖全解决 另附插件源码配置文档

    标题中的“kettle7.1大数据插件源码依赖全解决”指的是在Pentaho Kettle(也称为Spoon)7.1版本中处理大数据插件的源代码依赖问题。Kettle是一个开源的数据集成工具,它允许用户通过图形化界面进行ETL(Extract, ...

    kettle8.1Hive连接包

    8. **错误处理和日志记录**:Kettle 提供详细的日志记录和错误处理机制,帮助用户跟踪和解决在处理 Hive 数据时遇到的问题。 9. **与 SQL Server 和 Oracle 数据库的连接**:除了 Hive,这个连接包还包含了连接 SQL...

    kettle连接ClickHouse驱动包

    总结起来,连接Kettle到ClickHouse需要一些额外的配置工作,但一旦设置好,就可以充分利用Kettle的ETL能力来管理和操作ClickHouse中的大数据。这个过程涉及到下载和配置ClickHouse JDBC驱动,以及在Kettle中创建和...

    kettle内存溢出(Java heap space)以及解决方法.docx

    然而,在处理大量数据时,Kettle可能会遇到内存管理问题,导致Java堆空间溢出错误。这种错误通常表现为"Java heap space",意味着Java虚拟机(JVM)分配的内存不足以执行任务。 **Java堆空间的原理** Java堆是Java...

    预处理实验报告-ETL工具Kettle的安装和使用

    Kettle,也称为Pentaho Data Integration(PDI),是一种强大的ETL(提取、转换、加载)工具,用于处理大数据集成任务。本实验报告主要关注Kettle的安装与基础使用,特别是数据流处理过程。 **一、实验目的** 1. ...

    kettle运行最小jar包.rar

    - 检查JVM内存设置,因为Kettle处理大数据时可能会需要较多内存。 - 如果遇到权限问题,确保运行Java应用的用户有读取和执行Kettle转换文件的权限。 - 遵循Kettle的最佳实践,例如,合理划分转换和作业,避免单个...

    使用kettle转换oracle与 mysql的表数据

    在IT行业中,数据转换是一项关键任务,特别是在大数据和企业级数据管理中。Kettle,又称为Pentaho Data Integration(PDI),是一个强大的ETL(提取、转换、加载)工具,能够有效地处理不同数据源之间的数据迁移和...

    2.使用kettle抽取mysql数据到hadoop

    Kettle支持多种数据源,包括关系型数据库、NoSQL数据库以及Hadoop等大数据平台。 **安装步骤**: 1. **下载**:从官方网站下载Kettle最新版本7.1的安装包。 2. **安装**:解压安装包到指定目录。 3. **启动**:在...

    ETL工具Kettle用户手册5.0,开源etl工具kettle,Java源码.zip

    4. **问题排查**:当遇到Kettle运行异常时,源码可以帮助定位问题,理解问题发生的原因并找到解决方案。 总结起来,这个压缩包为Kettle的学习者提供了一套完整的资源,包括理论指导和实践素材。无论是初学者还是...

    kettle-manager.rar

    6. **社区支持**:Kettle有强大的社区支持,遇到问题时,可以查阅官方文档,参与社区讨论,获取解决方案。 7. **版本兼容性**:注意Kettle的版本与依赖库之间的兼容性,升级或降级时可能会带来问题,所以理解版本间...

    kettle连接hadoop.pdf

    标题“kettle连接hadoop.pdf”意味着文档是关于如何使用Kettle(Pentaho数据集成工具的别称)来连接和操作Hadoop大数据存储系统。文档描述中反复提到的“kettle连接hadoop.pdf”强调了文档内容的专注点。标签...

    kettle5.3连接hdfs、hbase、kettle5.2源码编译

    4. 编译过程中可能会遇到依赖问题,根据错误信息解决缺失的依赖。 5. 编译完成后,生成的可执行文件通常位于 `target` 目录下。 通过以上步骤,你可以成功地将 Kettle 5.2 源码编译成可运行的版本,从而进行自定义...

    kettle增量更新作业.rar

    Kettle作业设计时,可以利用“作业跳过”和“错误跳过”功能,确保即使在处理过程中遇到问题,也能继续执行其他部分。同时,为了保证数据一致性,可能还需要添加“数据库元数据同步”步骤来处理表结构的变更。 在...

    kettle.zip

    用户可以通过阅读这份文档,了解如何安装Kettle,如何在Spoon中创建和运行转换,以及如何解决可能遇到的问题。 使用Kettle进行数据ETL时,通常涉及以下步骤: 1. **设计数据流**:在Spoon工作台上,通过拖拽和配置...

    大数据ETL技术方案

    - **Kettle错误处理**:当Kettle遇到错误时,如何调整设置以避免整个作业中断。 - **数据格式问题**:如何处理不同数据库之间的数据类型差异,尤其是在导出和导入过程中遇到的问题。 - **性能优化**:对于大型数据集...

    基于Kettle工具的企业级数据同步方案

    基于Kettle工具的企业级数据同步方案是用于处理分布式企业环境中数据流动的重要技术。Kettle,也称为Pentaho Data Integration (PDI),是一款强大的ETL(Extract, Transform, Load)工具,广泛应用于数据仓库和...

    kettle使用问题处理汇总整理.rar

    《Kettle使用问题处理汇总整理》 Kettle,又称Pentaho Data Integration(PDI),是一款...在实际操作中,遇到具体问题应结合Kettle的官方文档、社区资源和实践经验,不断学习和探索,才能充分发挥Kettle的强大功能。

    Kettle学习资料大全.rar

    学习Kettle时,你需要熟悉它的工作台(Spoon)环境,这是一个图形化的界面,用于设计、测试和运行作业与转换。此外,还需要了解如何使用调度器(Pan)和执行器(Kitchen)来运行批处理任务。调度器用于执行单个转换...

Global site tag (gtag.js) - Google Analytics