一、背景
从2014年完成了基于Delaunay中间件的项目,可以实现对插花站点分析,CSFB的边界一致性核查,以及边界漫游数据的核查。 前期实现的功能点,主要是以小工具形式来提供的,日常的使用比较麻烦,在2015年1季度,又进一步实现了基于ETL中间件的网优多维数据中心,实现了每天自动备份网优平台的关键数据,并以此为基础实现图论相关应用的服务器版本的开发工作。
由于前期的图论中间件是基于SWING+JAVA开发的桌面程序,输入输出数据是通过EXCEL进行操作,而本方案中则改造为数据库方式处理,并通过KETTLE程序来启动JAVA程序。
二、总体思路
修改思路是:把有界面的类废弃不用,涉及到DelaunayAp和DelaunayPanel。
1. 新增入口类
原来的入口类为DelaunayAp,启动时带有GUI界面,因无法集成到Kettle中,故废弃不用。
新增入口类为App,启动时接受参数文件,以前需由人工选择的文件路径,均配置在此参数文件中。此类的内容基本来自DelaunayAp。函数drawAllVoronoi()的内容来自DelaunayPanel.java中的同名函数。
2. 新增参数文件读取工具类IniFileUtil,被入口类App调用,解析参数文件。
3. 修改ResultOut
以下3个方法,都增加了参数outputfile,用于传递保存的文件名。
creatPolygon(String outputfile),
creatTriangle(String outputfile)
creatOutbs(String outputfile,List lstBasestates)
三、集成效果
四、利用JAVA代码生成的图论中间件
- 大小: 48.7 KB
分享到:
相关推荐
然而,在Java应用程序中集成Kettle,需要将相关的Jar包添加到项目的类路径中,以便能够调用其API来执行工作流或转换。 首先,要理解Java与Kettle的集成,我们需要知道Kettle的主要组件。Kettle由以下几部分组成: ...
Java集成Kettle执行作业文件是将Java程序与Pentaho Data Integration(Kettle)工具结合,以实现数据处理和转换的自动化。Kettle是一款强大的ETL(Extract, Transform, Load)工具,它允许用户通过图形化界面创建...
在java应用程序中集成kettle,需要在项目中引入执行kettle所需要的jar包,包括kettle对应的目录下找到的外部jar包。另外,将kettle目录下plugins目录拷贝到应用程序根目录下,这一点很重要,否则在用transformation...
项目概述:KettleWeb数据集成平台是一款基于Java与Web技术的开源数据集成工具。此平台源码基于Kettle原生版本6.1.0.1开发,扩展了Web端操作功能,便于用户进行数据集成工作。 技术栈:项目主要采用Java语言进行开发...
- "4连接资源库的包"可能指的是Kettle中用于连接不同数据库的JDBC驱动,这些驱动是Kettle连接到各种数据库系统所必需的。Kettle支持多种数据库,如MySQL、Oracle、SQL Server等,因此,确保正确的JDBC驱动被添加到...
`KettleCreateJob.java` 文件很可能是用来创建Kettle作业的Java程序。在Kettle中,我们可以使用Java API来动态生成作业定义。这涉及到对`JobMeta`对象的实例化,设置作业属性,如名称、描述,然后添加作业步骤。每个...
Java程序生成Kettle转换(KTR)文件是一个技术性较强的话题,主要涉及到Java编程语言、Kettle(也称为Pentaho Data Integration,PDI)工具以及可能的资源文件管理。Kettle是一种开源的数据集成工具,它允许用户通过...
Java调用Kettle是将Java程序与Pentaho Kettle(也称为Spoon)集成的过程,Kettle是一款强大的数据转换和ETL(提取、转换、加载)工具。在Java环境中,我们可以通过API来启动和控制Kettle的工作流或转换。这个压缩包...
标题 "springboot整合kettle项目源码" 描述了一个基于Spring Boot框架的集成Kettle(Pentaho Data Integration,简称KDI)的工程实例。Kettle是一款强大的ETL(提取、转换、加载)工具,它允许开发者通过编写Java...
Java调用Kettle是将Java程序与Pentaho Kettle(也称为Spoon)集成,以便利用Kettle的强大ETL(提取、转换、加载)能力。Kettle是一款开源的数据集成工具,它允许开发者通过编写XML脚本来执行数据处理任务。在Java...
Java调用Kettle是一种常见的数据集成方案,Kettle(也称为Pentaho Data Integration或PDI)是一款强大的ETL(Extract, Transform, Load)工具,它允许用户通过图形化界面设计数据转换流程,并能被其他应用程序如Java...
它提供了一套全面的Java API,允许开发人员在Java应用程序中直接集成和操作Kettle的功能。这篇详细的知识点解释将深入探讨Kettle Java API的核心概念、使用场景和主要功能。 1. **Kettle Engine API**: Kettle...
- 集成前确保已将Kettle的相关jar包添加到Java项目的类路径中。 - 由于Kettle依赖于特定版本的JDBC驱动,因此在运行时需要确保所有必需的驱动都在类路径中。 - 调整代码以适应实际的文件路径和日志需求。 - 错误...
在Java环境中,我们可以利用Kettle的API来编写自定义程序,实现数据抽取、清洗、转换和加载到目标系统。 首先,了解Kettle API的基础知识至关重要。Kettle API是Kettle的核心组件之一,它提供了一系列接口和类,...
在Java开发环境中,引入这些JAR包后,开发者可以编写自定义的Java程序来操作Kettle。例如,你可以创建一个Java应用来动态生成Kettle的作业或转换,或者通过API来控制现有作业的执行状态。这为自动化数据处理流程提供...
Java调用Kettle 5.3任务是一种在Java应用程序中集成Kettle(Pentaho Data Integration,也称为ETL工具)的方式,以便利用其强大的数据转换和加载功能。以下是对这个主题的详细解释: 1. **Kettle简介**:Kettle是一...
Java调用Kettle是将Java程序与Pentaho Kettle(也称为Spoon)集成的过程,Kettle是一款强大的数据转换和ETL(提取、转换、加载)工具。在这个过程中,Java代码通过调用Kettle的相关API来执行转换或作业,实现数据...
在实际业务场景中,我们常常需要通过编程的方式调用Kettle的转换(Transformation)或作业(Job),以便更好地集成到现有的应用程序或工作流程中。本文将详细介绍如何使用Java代码来调用Kettle的转换。 #### 二、...
总结一下,本示例中的"用java调用kettle的jar包.zip"是一个关于如何在Java环境中集成Kettle的实践案例。通过这个压缩包,我们可以学习到如何初始化Kettle环境、加载作业文件、执行任务以及处理任务结果。这些技能...