1. Kettle简介
Kettle(现已更名为Pentaho Data Integration,简称PDI)是一个开源的ETL工具,能够进行数据的抽取(Extract)、转换(Transform)和加载(Load)。它是由图形化界面支持的,能够从不同的数据源中获取数据,进行清洗和转换,最后将数据加载到目标系统中。
- ETL:数据抽取(Extract),转换(Transform),加载(Load)过程。
- Kettle作用:将不同来源的数据按照统一格式处理并输出。
- Kettle特点:支持图形化操作、无需编写复杂代码、高效且稳定的数据处理。
2. Kettle安装
2.1 安装JDK
Kettle是基于Java的,因此需要安装Java环境。
- 安装JDK:确保Java版本是1.8或更高。
- 设置环境变量:
- 设置
JAVA_HOME
,指向Java安装路径。 - 修改
Path
变量,包含Java的bin目录。
- 设置
2.2 安装Kettle
- 下载并解压:Kettle是绿色软件,下载并解压至任意目录。
- 启动Kettle:
- Windows:双击
spoon.bat
启动图形化界面。 - Linux/MacOS:运行
spoon.sh
。
- Windows:双击
3. Kettle使用入门
3.1 文本文件到Excel转换
-
构建数据流图:
- 输入:使用文本文件输入控件。
- 输出:使用Excel输出控件。
-
连接组件:按住
Shift
键,拖动鼠标连接步骤。 -
配置步骤:
- 文本文件输入:指定文件路径,加载字段。
- Excel输出:指定输出路径,设置字段。
-
执行转换:点击运行按钮,查看转换后的文件。
4. Kettle实现Excel到MySQL表转换
- 创建MySQL数据库:如创建
kettle_demo
。 - 配置输入组件:配置Excel文件输入。
- 配置输出组件:配置MySQL表输出。
- 执行:确保连接正确后,保存并运行转换。
5. Kettle实现MySQL表到另一个MySQL表的转换
- 共享数据库连接:配置好一个数据库连接,可以在多个转换中共享。
- 表输入与输出组件配置:配置表输入和表输出组件。
- 执行转换:保存并执行数据转换。
6. Kettle的插入更新组件
- 全量装载与增量装载:
- 全量装载:将所有数据加载到目标表。
- 增量装载:只加载变化的数据。
- 插入更新操作:
- 在转换过程中,可以选择插入新的记录或更新已有记录。
- 配置插入更新步骤,并设置表输入与插入更新组件。
7. Kettle的Switch/Case组件
- 使用Switch/Case组件:用于在转换过程中实现条件判断。
- 配置步骤:设置输入组件、Switch组件和输出组件。
8. Kettle的SQL脚本
- SQL组件:执行SQL脚本,进行数据转换或更新。
- 配置SQL脚本:在SQL组件中编写SQL语句,执行转换。
9. 设置转换命名参数
- 配置转换参数:可以使用
${参数名}
来引用参数。 - 运行时设置参数:执行时传递参数值,确保转换按预期执行。
10. Kettle的作业
- Job:在Kettle中,Job用于定义ETL任务的工作流。Job包含一系列步骤,每个步骤代表一个任务。通过Job控制整个ETL过程的执行顺序。
11. Kettle的核心组件
- Spoon:图形化界面工具,开发转换和作业。
- Pan:命令行工具,用于执行转换。
- Kitchen:命令行工具,用于执行作业。
- Carte:轻量级Web容器,用于远程运行ETL任务。
12. Kettle的两种设计
- Transformation(转换):负责数据的抽取、转换、输出等操作。
- Job(作业):控制整个ETL流程,包括多个转换和执行步骤。
13. Kettle的常用输入组件
- CSV文件输入:读取CSV文件的数据。
- 文本文件输入:读取文本格式的数据,常用于日志数据处理。
- Excel文件输入:读取Excel格式的数据。
- XML输入:读取XML格式的数据,通过XPath提取数据。
- JSON输入:读取JSON格式的数据,通过JSONPath提取数据。
- 表输入:从数据库中读取数据。
14. Kettle的常用输出组件
- Excel输出:将数据写入Excel文件。
- 文本文件输出:将数据输出为文本文件。
- SQL文件输出:将数据导出为SQL语句。
15. Kettle转换的并行执行
- 在Kettle中,转换步骤默认是并行执行的,这能够提高处理效率。每个步骤独立运行,通过行集(RowSet)共享数据。