🎉🎉欢迎光临,终于等到你啦🎉🎉
🏅我是苏泽,一位对技术充满热情的探索者和分享者。🚀🚀
🌟持续更新的专栏《Spring 狂野之旅:从入门到入魔》 🚀
本专栏带你从Spring入门到入魔
这是苏泽的个人主页可以看到我其他的内容哦👇👇
努力的苏泽http://suzee.blog.csdn.net/
Spring Batch的应用场景和作用
批处理是企业级业务系统不可或缺的一部分,spring batch是一个轻量级的综合性批处理框架,可用于开发企业信息系统中那些至关重要的数据批量处理业务.SpringBatch基于POJO和Spring框架,相当容易上手使用,让开发者很容易地访问和利用企业级服务.spring batch具有高可扩展性的框架,简单的批处理,复杂的大数据批处理作业都可以通过SpringBatch框架来实现。
先来个例子
假设一家电商公司,每天从不同渠道收集大量的销售数据。这些数据包含了各种商品的销售记录,但是格式和质量可能不一致。您希望将这些销售数据进行清洗和转换,以便进行后续的分析和报告生成。
使用Spring Batch,可以创建一个批处理作业来处理销售数据。作业的步骤可以包括从不同渠道读取销售数据,对数据进行清洗和转换,例如去除无效数据、修复格式错误、计算额外的指标等。然后,将清洗和转换后的数据写入数据库,以备后续的分析和报告生成使用。
先来介绍其架构
Application
应用层:包含了所有任务batch jobs
和开发人员自定义的代码,主要是根据项目需要开发的业务流程等。Batch Core
核心层:包含启动和管理任务的运行环境类,如JobLauncher
等。Batch Infrastructure
基础层:上面两层是建立在基础层之上的,包含基础的读入reader
和写出writer
、重试框架等。
为什么它能够如此优秀?
Chunk 的中文意思是:大块、厚块;大部分,大量。Chunk 在Spring Batch 中就是“批量操作”的概念的抽象。它本身是一个类,这个类就是用来将原本的单条操作改成批量进行。
在Spring Batch 中就提出了chunk 的概念。首先我们设定一个chunk 的size,随后Spring Batch 一条条地区处理数据,但是到ItemWriter 阶段,Spirng Batch 不会选择立刻将数据提交到数据库,只有在处理的数据累积数量达到了之前设置的chunk 的size 之后,才会进行提交操作。
实战详细操作
引入 依赖
首先,引Spring Batch的依赖项。在Maven项目中,在pom.xml文件中添加以下依赖项:
<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-batch</artifactId></dependency>
</dependencies>
创建一个Spring配置文件(例如batch-config.xml
),并配置Spring Batch的相关组件和属性。
<beans xmlns="http://www.springframework.org/schema/beans"xmlns:batch="http://www.springframework.org/schema/batch"xmlns:task="http://www.springframework.org/schema/task"xmlns:util="http://www.springframework.org/schema/util"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsdhttp://www.springframework.org/schema/batch http://www.springframework.org/schema/batch/spring-batch.xsdhttp://www.springframework.org/schema/task http://www.springframework.org/schema/task/spring-task.xsdhttp://www.springframework.org/schema/util http://www.springframework.org/schema/util/spring-util.xsd"><!-- 数据源配置 --><bean id="dataSource" class="org.springframework.jdbc.datasource.DriverManagerDataSource"><property name="driverClassName" value="com.mysql.jdbc.Driver" /><property name="url" value="jdbc:mysql://localhost:3306/mydb" /><property name="username" value="root" /><property name="password" value="password" /></bean><!-- JobRepository配置 --><bean id="jobRepository" class="org.springframework.batch.core.repository.support.JobRepositoryFactoryBean"><property name="dataSource" ref="dataSource" /><property name="transactionManager" ref="transactionManager" /><property name="databaseType" value="mysql" /></bean><!-- 并发任务执行器配置 --><task:executor id="taskExecutor" pool-size="10" /><!-- 事务管理器配置 --><bean id="transactionManager" class="org.springframework.batch.support.transaction.ResourcelessTransactionManager" /><!-- JobLauncher配置 --><bean id="jobLauncher" class="org.springframework.batch.core.launch.support.SimpleJobLauncher"><property name="jobRepository" ref="jobRepository" /><property name="taskExecutor" ref="taskExecutor" /></bean></beans>
定义数据模型:
根据需求,定义需要清洗和转换的数据模型。例如,假设数据模型是一个简单的用户对象,包含id、姓名和年龄字段。创建一个名为User
的Java类,如下所示:
public class User {private Long id;private String name;private Integer age;// 省略构造函数、getter和setter方法
}
创建ItemReader:
创建一个实现ItemReader
接口的自定义类,用于从数据源中读取数据。以下是一个读取数据库中用户数据的示例:
public class UserItemReader implements ItemReader<User> {private JdbcTemplate jdbcTemplate;private int rowCount = 0;private int currentRow = 0;public UserItemReader(DataSource dataSource) {this.jdbcTemplate = new JdbcTemplate(dataSource);}@Overridepublic User read() throws Exception {if (currentRow < rowCount) {String sql = "SELECT id, name, age FROM users LIMIT ?, 1";User user = jdbcTemplate.queryForObject(sql, new Object[]{currentRow}, (rs, rowNum) -> {User u = new User();u.setId(rs.getLong("id"));u.setName(rs.getString("name"));u.setAge(rs.getInt("age"));return u;});currentRow++;return user;} else {return null;}}public void setRowCount(int rowCount) {this.rowCount = rowCount;}
}
在此示例中,我们使用JdbcTemplate
来执行数据库查询,并在read
方法中逐行读取用户数据。
这里就可以根据你的业务需求设置各种各样的任务
创建ItemProcessor:
创建一个实现ItemProcessor
接口的自定义类,用于对读取的数据进行清洗和转换。
temProcessor的作用是在Spring Batch的批处理作业中对读取的数据进行处理、清洗和转换。它是Spring Batch框架中的一个关键接口,用于执行中间处理逻辑,并将处理后的数据传递给ItemWriter进行写入操作。
以下是一个对用户数据进行简单处理的示例:
public class UserProcessor implements ItemProcessor<UserData, ProcessedUserData> {@Overridepublic ProcessedUserData process(UserData userData) throws Exception {// 获取用户数据String input = userData.getData();// 去除首尾空格String trimmedInput = input.trim();// 过滤敏感信息String filteredInput = filterSensitiveData(trimmedInput);// 转换为大写String upperCaseInput = filteredInput.toUpperCase();// 创建处理后的用户数据对象ProcessedUserData processedUserData = new ProcessedUserData();processedUserData.setProcessedData(upperCaseInput);return processedUserData;}private String filterSensitiveData(String input) {// 在这里可以根据实际需求实现敏感信息过滤逻辑// 使用正则表达式、敏感词库或其他方法进行过滤// 这里是过滤手机号码和邮箱地址String filteredInput = input.replaceAll("\\b\\d{11}\\b", "[PHONE_NUMBER]").replaceAll("\\b[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\\.[A-Za-z]{2,}\\b", "[EMAIL]");return filteredInput;}
}
我们做了以下处理和转换:
- 使用
trim
方法去除用户数据字符串首尾的空格。- 使用
filterSensitiveData
方法过滤敏感信息,例如手机号码和邮箱地址。在示例中,我们使用了简单的正则表达式来过滤手机号码和邮箱地址,并将其替换为占位符。- 使用
toUpperCase
方法将字符串转换为大写形式。- 创建一个
ProcessedUserData
对象,将处理后的数据设置到输出对象中。
创建ItemWriter:
创建一个实现ItemWriter
接口的自定义类,用于将处理后的数据写入目标位置。以下是一个将用户数据写入数据库的示例:
public class UserItemWriter implements ItemWriter<User> {private JdbcTemplate jdbcTemplate;public UserItemWriter(DataSource dataSource) {this.jdbcTemplate = new JdbcTemplate(dataSource);}@Overridepublic void write(List<? extends User> users) throws Exception {for (User user : users) {String sql = "INSERT INTO processed_users (id, name, age) VALUES (?, ?, ?)";jdbcTemplate.update(sql, user.getId(), user.getName(), user.getAge());}}
}
在此示例中,我们使用JdbcTemplate
将处理后的用户数据插入到名为processed_users
的数据库表中。
创建作业配置:
创建一个包含作业配置的类,用于将ItemReader、ItemProcessor和ItemWriter组合在一起,定义一个批处理作业。以下是一个示例的作业配置类:
@Configuration
@EnableBatchProcessing
public class BatchConfiguration {@Autowiredprivate JobBuilderFactory jobBuilderFactory;@Autowiredprivate StepBuilderFactory stepBuilderFactory;@Autowiredprivate DataSource dataSource;@Beanpublic ItemReader<User> userItemReader() {return new UserItemReader(dataSource);}@Beanpublic ItemProcessor<User, User> userItemProcessor() {return new UserItemProcessor();}@Beanpublic ItemWriter<User> userItemWriter() {return new UserItemWriter(dataSource);}@Beanpublic Step step1(ItemReader<User> reader, ItemProcessor<User, User> processor, ItemWriter<User> writer) {return stepBuilderFactory.get("step1").<User, User>chunk(10).reader(reader).processor(processor).writer(writer).build();}@Beanpublic Job dataCleanupJob(Step step1) {return jobBuilderFactory.get("dataCleanupJob").incrementer(new RunIdIncrementer()).flow(step1).end().build();}
}
在此示例中,我们通过Spring Batch的注解@EnableBatchProcessing
启用批处理功能,并定义了一个名为dataCleanupJob
的作业,其中包含一个名为step1
的步骤。
运行作业:
创建Job和Step配置:使用Spring Batch的配置文件,配置Job和Step。使用JobParametersBuilder
创建一个包含当前时间戳的Job参数,然后通过jobLauncher.run()
方法启动作业。
import org.springframework.batch.core.Job;
import org.springframework.batch.core.JobParameters;
import org.springframework.batch.core.JobParametersBuilder;
import org.springframework.batch.core.launch.JobLauncher;
import org.springframework.context.ApplicationContext;
import org.springframework.context.annotation.AnnotationConfigApplicationContext;public class BatchApplication {public static void main(String[] args) {// 创建Spring应用上下文ApplicationContext context = new AnnotationConfigApplicationContext(BatchConfiguration.class);// 获取JobLauncher和Job实例JobLauncher jobLauncher = context.getBean(JobLauncher.class);Job job = context.getBean("dataCleanupJob", Job.class);try {// 创建Job参数JobParameters jobParameters = new JobParametersBuilder().addLong("time", System.currentTimeMillis()).toJobParameters();// 启动作业jobLauncher.run(job, jobParameters);} catch (Exception e) {e.printStackTrace();}}
}
监听Listener
可以通过Listener
接口对特定事件进行监听,以实现更多业务功能。比如如果处理失败,就记录一条失败日志;处理完成,就通知下游拿数据等。
import org.springframework.batch.core.*;
import org.springframework.batch.core.listener.JobExecutionListenerSupport;public class MyJobListener extends JobExecutionListenerSupport {@Overridepublic void beforeJob(JobExecution jobExecution) {// 在作业执行之前执行的逻辑System.out.println("作业开始执行");}@Overridepublic void afterJob(JobExecution jobExecution) {// 在作业执行之后执行的逻辑if (jobExecution.getStatus() == BatchStatus.COMPLETED) {System.out.println("作业执行成功");} else if (jobExecution.getStatus() == BatchStatus.FAILED) {System.out.println("作业执行失败");}}@Overridepublic void onSkipInRead(Throwable t) {// 在读取过程中发生跳过记录的逻辑System.out.println("跳过读取记录");}@Overridepublic void onSkipInProcess(Object item, Throwable t) {// 在处理过程中发生跳过记录的逻辑System.out.println("跳过处理记录");}@Overridepublic void onSkipInWrite(Object item, Throwable t) {// 在写入过程中发生跳过记录的逻辑System.out.println("跳过写入记录");}
}
将这个自定义的监听器添加到作业配置中:
@Configuration
@EnableBatchProcessing
public class BatchConfiguration {@Autowiredprivate JobBuilderFactory jobBuilderFactory;@Autowiredprivate StepBuilderFactory stepBuilderFactory;// 省略其他配置@Beanpublic Job dataCleanupJob(Step step1, JobExecutionListener jobListener) {return jobBuilderFactory.get("dataCleanupJob").incrementer(new RunIdIncrementer()).listener(jobListener) // 添加自定义的监听器.flow(step1).end().build();}@Beanpublic JobExecutionListener jobListener() {return new MyJobListener();}// 省略其他配置
}
这样 我们就能很清晰的看到 任务运行的情况啦
Spring Batch 使用内存缓冲机制,将读取的数据记录暂存于内存中,然后批量处理这些数据。通过减少对磁盘或数据库的频繁访问,内存缓冲可以提高读取和处理的效率,而且Spring Batch 提供了批量读取的机制,允许一次性读取和处理多个数据记录,这两点都减轻 I/O 压力。