【Java】读取超大文件的时候,如何避免出现OOM

读取超大文件的时候,如何避免出现OOM

需求背景如下:
从文件中读取数据并经过业务处理后存储到数据库中,同时避免出现OOM(Out of Memory)

1、使用分批处理文件数据

  • 将文件数据分批读取,每次只处理一部分数据,避免一次性将整个文件加载到内存中。
  • 可以使用Java的BufferedReader和InputStreamReader类来实现分批读取文件数据。
import java.io.*;
import java.util.*;
import java.nio.file.*;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.jdbc.core.JdbcTemplate;
import org.springframework.stereotype.Service;@Service
public class FileDataProcessor {@Autowiredprivate JdbcTemplate jdbcTemplate;private static final int BATCH_SIZE = 1000; // 每次处理的记录数public void processFile(String filePath) {try (BufferedReader reader = Files.newBufferedReader(Paths.get(filePath))) {String line;List<String> batch = new ArrayList<>();while ((line = reader.readLine()) != null) {batch.add(line);if (batch.size() >= BATCH_SIZE) {processBatch(batch);batch.clear();}}// 处理最后一批数据if (!batch.isEmpty()) {processBatch(batch);}} catch (IOException e) {e.printStackTrace();}}private void processBatch(List<String> batch) {List<ProcessedData> processedDataList = new ArrayList<>();for (String line : batch) {// 业务处理逻辑ProcessedData processedData = processLine(line);processedDataList.add(processedData);}saveToDatabase(processedDataList);}private ProcessedData processLine(String line) {// 示例业务处理逻辑ProcessedData processedData = new ProcessedData();processedData.setField(line);return processedData;}private void saveToDatabase(List<ProcessedData> processedDataList) {String sql = "INSERT INTO processed_data (field) VALUES (?)";List<Object[]> batchArgs = new ArrayList<>();for (ProcessedData data : processedDataList) {batchArgs.add(new Object[] { data.getField() });}jdbcTemplate.batchUpdate(sql, batchArgs);}public static class ProcessedData {private String field;public String getField() {return field;}public void setField(String field) {this.field = field;}}
}

2、使用流式处理文件数据

  • 使用流式处理文件数据,可以避免将整个文件加载到内存中。
  • 可以使用Java的InputStream和BufferedInputStream类来实现流式处理文件数据。
import java.io.*;
import java.nio.file.Files;
import java.nio.file.Paths;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.jdbc.core.JdbcTemplate;
import org.springframework.stereotype.Service;
import java.util.stream.Stream;@Service
public class FileDataProcessor {@Autowiredprivate JdbcTemplate jdbcTemplate;public void processFile(String filePath) {try (Stream<String> lines = Files.lines(Paths.get(filePath))) {lines.forEach(line -> {// 业务处理逻辑ProcessedData processedData = processLine(line);saveToDatabase(processedData);});} catch (IOException e) {e.printStackTrace();}}private ProcessedData processLine(String line) {// 示例业务处理逻辑ProcessedData processedData = new ProcessedData();processedData.setField(line);return processedData;}private void saveToDatabase(ProcessedData processedData) {String sql = "INSERT INTO processed_data (field) VALUES (?)";jdbcTemplate.update(sql, processedData.getField());}public static class ProcessedData {private String field;public String getField() {return field;}public void setField(String field) {this.field = field;}}
}

3、使用Spring Batch进行批处理

  • Spring Batch是一个用于批处理任务的框架,可以用于处理大量数据。
  • 可以使用Spring Batch的ItemReader、ItemProcessor和ItemWriter来实现批处理。

3.1、配置Spring Batch
首先添加依赖

<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-batch</artifactId>
</dependency>
<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-jdbc</artifactId>
</dependency>
<dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId>
</dependency>

3.2、创建Batch配置类

import org.springframework.batch.core.Job;
import org.springframework.batch.core.Step;
import org.springframework.batch.core.configuration.annotation.EnableBatchProcessing;
import org.springframework.batch.core.configuration.annotation.JobBuilderFactory;
import org.springframework.batch.core.configuration.annotation.StepBuilderFactory;
import org.springframework.batch.core.launch.support.RunIdIncrementer;
import org.springframework.batch.core.repository.JobRepository;
import org.springframework.batch.item.ItemProcessor;
import org.springframework.batch.item.ItemReader;
import org.springframework.batch.item.ItemWriter;
import org.springframework.batch.item.file.FlatFileItemReader;
import org.springframework.batch.item.file.mapping.BeanWrapperFieldSetMapper;
import org.springframework.batch.item.file.mapping.DefaultLineMapper;
import org.springframework.batch.item.file.transform.DelimitedLineTokenizer;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.core.io.FileSystemResource;
import org.springframework.transaction.PlatformTransactionManager;import javax.sql.DataSource;@Configuration
@EnableBatchProcessing
public class BatchConfig {@Autowiredpublic JobBuilderFactory jobBuilderFactory;@Autowiredpublic StepBuilderFactory stepBuilderFactory;@Autowiredprivate DataSource dataSource;@Beanpublic FlatFileItemReader<InputData> reader() {FlatFileItemReader<InputData> reader = new FlatFileItemReader<>();reader.setResource(new FileSystemResource("path/to/your/input/file.csv"));reader.setLineMapper(new DefaultLineMapper<InputData>() {{setLineTokenizer(new DelimitedLineTokenizer() {{setNames("field1", "field2"); // 设置CSV文件的列名}});setFieldSetMapper(new BeanWrapperFieldSetMapper<InputData>() {{setTargetType(InputData.class);}});}});return reader;}@Beanpublic ItemProcessor<InputData, ProcessedData> processor() {return inputData -> {ProcessedData processedData = new ProcessedData();processedData.setField(inputData.getField1() + "-" + inputData.getField2());return processedData;};}@Beanpublic ItemWriter<ProcessedData> writer() {JdbcBatchItemWriter<ProcessedData> writer = new JdbcBatchItemWriter<>();writer.setItemSqlParameterSourceProvider(new BeanPropertyItemSqlParameterSourceProvider<>());writer.setSql("INSERT INTO processed_data (field) VALUES (:field)");writer.setDataSource(dataSource);return writer;}@Beanpublic Job importUserJob(JobRepository jobRepository, Step step1) {return jobBuilderFactory.get("importUserJob").incrementer(new RunIdIncrementer()).flow(step1).end().build();}@Beanpublic Step step1(JobRepository jobRepository, PlatformTransactionManager transactionManager, ItemReader<InputData> reader, ItemProcessor<InputData, ProcessedData> processor, ItemWriter<ProcessedData> writer) {return stepBuilderFactory.get("step1").<InputData, ProcessedData>chunk(1000).reader(reader).processor(processor).writer(writer).build();}
}

在上面的代码中,我们定义了一个名为BatchConfig的配置类,其中包含了读取CSV文件、处理数据和写入数据库的配置。

请注意,你需要将path/to/your/input/file.csv替换为你的实际CSV文件路径。

另外,你还需要根据你的数据库表结构修改writer方法中的SQL语句。

3.3、定义数据模型

  • 创建两个简单的Java类来表示输入数据和处理后的数据。
public class InputData {private String field1;private String field2;// Getters and setterspublic String getField1() {return field1;}public void setField1(String field1) {this.field1 = field1;}public String getField2() {return field2;}public void setField2(String field2) {this.field2 = field2;}
}public class ProcessedData {private String field;// Getters and setterspublic String getField() {return field;}public void setField(String field) {this.field = field;}
}

3.4、配置数据源

  • application.properties文件中配置你的数据库连接信息。
spring.datasource.url=jdbc:mysql://localhost:3306/your_database
spring.datasource.username=your_username
spring.datasource.password=your_password
spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver# Spring Batch specific properties
spring.batch.jdbc.initialize-schema=always

请注意,你需要将your_databaseyour_usernameyour_password替换为你的实际数据库信息。

3.5、运行批处理任务

  • 创建一个简单的控制器或命令行运行器来启动批处理任务。

通过CommandLineRunner启动批处理任务

import org.springframework.batch.core.Job;
import org.springframework.batch.core.launch.JobLauncher;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.CommandLineRunner;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;@SpringBootApplication
public class BatchApplication implements CommandLineRunner {@Autowiredprivate JobLauncher jobLauncher;@Autowiredprivate Job job;public static void main(String[] args) {SpringApplication.run(BatchApplication.class, args);}@Overridepublic void run(String... args) throws Exception {jobLauncher.run(job, new JobParameters());}
}

通过运行Spring Boot应用程序,上述配置将启动Spring Batch批处理任务,从文件中读取数据,处理数据,并将其存储到数据库中。

4、 使用Apache Commons IO

  • Apache Commons IO是一个用于处理文件和流的Java库。
  • Common-IO里面有一个方法FileUtils#lineIterator可以实现逐行读取文件。
import org.apache.commons.io.FileUtils;
import org.apache.commons.io.LineIterator;
import java.io.File;
import java.io.IOException;
import java.util.List;
import java.util.stream.Collectors;
import java.util.stream.StreamSupport;
import org.springframework.batch.item.ItemReader;
import org.springframework.stereotype.Component;
@Component
public class CsvReader implements ItemReader<InputData> {private final File file;private LineIterator iterator;public CsvReader(File file) {this.file = file;}@Overridepublic InputData read() throws Exception {if (iterator == null || !iterator.hasNext()) {return null;}String line = iterator.nextLine();// 解析CSV行并创建InputData对象// ...return inputData;}
}

在上面的代码中,我们创建了一个名为CsvReader的类,它实现了ItemReader接口,用于从CSV文件中读取数据。

请注意,你需要根据你的CSV文件格式和InputData类来解析CSV行并创建InputData对象。

5、使用Java8 Stream

Java 8引入了Stream API,它提供了一种简洁的方式来处理集合数据。
你可以使用Stream API来处理文件中的每一行数据。

import java.nio.file.Files;
import java.nio.file.Paths;
import java.util.stream.Stream;
import org.springframework.batch.item.ItemReader;
import org.springframework.stereotype.Component;
@Component
public class LineReader implements ItemReader<String> {private final String filePath;private Stream<String> lines;public LineReader(String filePath) {this.filePath = filePath;}@Overridepublic String read() throws Exception {if (lines == null) {lines = Files.lines(Paths.get(filePath));}return lines.findFirst().orElse(null);}
}

在上面的代码中,我们创建了一个名为LineReader的类,它实现了ItemReader接口,用于从文件中逐行读取数据。

请注意,你需要根据你的文件路径来创建LineReader对象。

6、并发读取

  • 逐行的读取方式,在解决OOM的问题时,只有一个线程在处理数据,接下来我们可以采用几个线程一起处理数据,增加并行度。
  • 先逐行读取数据,加载到内存中,等到累计一定数据后,再交给线程池异步处理。
import org.apache.commons.io.FileUtils;
import org.apache.commons.io.LineIterator;import java.io.File;
import java.nio.charset.StandardCharsets;
import java.util.List;
import java.util.concurrent.*;public class FileProcessor {@SneakyThrowspublic static void readInApacheIOWithThreadPool() {// 创建一个最大线程数为10,队列最大数为100的线程池ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(10, 10, 60L, TimeUnit.SECONDS, new LinkedBlockingDeque<>(100));// 使用 Apache 的方式逐行读取数据try (LineIterator fileContents = FileUtils.lineIterator(new File("temp/test.txt"), StandardCharsets.UTF_8.name())) {List<String> lines = new ArrayList<>();while (fileContents.hasNext()) {String nextLine = fileContents.nextLine();lines.add(nextLine);// 读取到十万行时,拆分成两个50000行的列表,交给异步线程处理if (lines.size() == 100000) {processLinesInBatches(lines, threadPoolExecutor);lines.clear(); // 清除已处理的内容}}// 处理剩余的行if (!lines.isEmpty()) {processTask(lines);}} finally {threadPoolExecutor.shutdown();}}private static void processLinesInBatches(List<String> lines, ThreadPoolExecutor threadPoolExecutor) throws InterruptedException, ExecutionException {List<List<String>> partitions = Lists.partition(lines, 50000);List<Future<?>> futureList = new ArrayList<>();for (List<String> partition : partitions) {Future<?> future = threadPoolExecutor.submit(() -> processTask(partition));futureList.add(future);}// 等待所有任务执行结束,防止OOMfor (Future<?> future : futureList) {future.get();}}private static void processTask(List<String> lines) {for (String line : lines) {// 模拟业务执行try {TimeUnit.MILLISECONDS.sleep(10L);} catch (InterruptedException e) {Thread.currentThread().interrupt();e.printStackTrace();}}}
}

上述代码,当内存达的数据量达到10000的时候,拆封两个任务交给异步线程执行,每个任务分别处理5000行数据。

后续使用future#get(),等待异步线程执行完成之后,主线程才能继续读取数据。

注意:上述代码中,BATCH_SIZELINES_PER_FILE需要根据实际情况进行调整。

另外,如果需要处理的数据量非常大,可以考虑将文件拆分为更小的部分,然后使用多线程并行处理每个部分。

7、大文件拆分成小文件

  • 将大文件拆分成多个小文件,每个小文件包含固定数量的行。
  • 使用多个异步线程分别逐行处理数据
import java.io.*;
import java.nio.charset.StandardCharsets;
import java.nio.file.Files;
import java.nio.file.Path;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.*;
import org.apache.commons.io.FileUtils;
import org.apache.commons.io.LineIterator;
import org.apache.logging.log4j.LogManager;
import org.apache.logging.log4j.Logger;public class LargeFileProcessor {private static final Logger logger = LogManager.getLogger(LargeFileProcessor.class);private static final int LINES_PER_FILE = 100000;private static final int BATCH_SIZE = 1000;public static void main(String[] args) {try {splitFileAndRead("temp/test.txt");} catch (Exception e) {logger.error("Failed to process large file", e);}}public static void splitFileAndRead(String largeFileName) throws Exception {// 先将大文件拆分成小文件List<File> fileList = splitLargeFile(largeFileName);// 创建一个最大线程数为10,队列最大数为100的线程池ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(10, 10, 60L, TimeUnit.SECONDS, new LinkedBlockingQueue<>(100));List<Future<?>> futureList = new ArrayList<>();for (File file : fileList) {Future<?> future = threadPoolExecutor.submit(() -> {try (Stream<String> inputStream = Files.lines(file.toPath(), StandardCharsets.UTF_8);Connection conn = getConnection()) {List<String> batch = new ArrayList<>();inputStream.forEach(line -> {batch.add(line);if (batch.size() == BATCH_SIZE) {insertBatch(conn, batch);batch.clear();}});if (!batch.isEmpty()) {insertBatch(conn, batch);}} catch (IOException | SQLException e) {logger.error("Error processing file: " + file.getName(), e);}});futureList.add(future);}for (Future<?> future : futureList) {future.get(); // 等待所有任务执行结束}threadPoolExecutor.shutdown();}private static List<File> splitLargeFile(String largeFileName) throws IOException {LineIterator fileContents = FileUtils.lineIterator(new File(largeFileName), StandardCharsets.UTF_8.name());List<String> lines = new ArrayList<>();int num = 1;List<File> files = new ArrayList<>();while (fileContents.hasNext()) {String nextLine = fileContents.nextLine();lines.add(nextLine);if (lines.size() == LINES_PER_FILE) {createSmallFile(lines, num++, files);}}if (!lines.isEmpty()) {createSmallFile(lines, num, files);}return files;}private static void createSmallFile(List<String> lines, int num, List<File> files) throws IOException {Path filePath = Files.createTempFile("smallfile_" + num, ".txt");Files.write(filePath, lines, StandardCharsets.UTF_8);files.add(filePath.toFile());lines.clear(); // 清空lines列表以便重新使用}private static void insertBatch(Connection conn, List<String> batch) {String insertSQL = "INSERT INTO my_table (column1, column2) VALUES (?, ?)";try (PreparedStatement pstmt = conn.prepareStatement(insertSQL)) {for (String line : batch) {String[] parts = line.split(",");pstmt.setString(1, parts[0]);pstmt.setString(2, parts[1]);pstmt.addBatch();}pstmt.executeBatch();conn.commit();} catch (SQLException e) {logger.error("Error inserting batch into database", e);}}private static Connection getConnection() throws SQLException {String jdbcUrl = "jdbc:mysql://localhost:3306/mydatabase";String username = "username";String password = "password";Connection conn = DriverManager.getConnection(jdbcUrl, username, password);conn.setAutoCommit(false); // 手动提交事务return conn;}
}

上述代码,首先将大文件分割成多个小文件,然后使用线程池并行处理这些小文件,每个线程处理一个小文件,并将数据批量插入数据库。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/47093.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入理解 React 的 useSyncExternalStore Hook

深入理解 React 的 useSyncExternalStore Hook 大家好&#xff0c;今天我们来聊聊 React 18 引入的一个新 Hook&#xff1a;useSyncExternalStore。这个 Hook 主要用于与外部存储同步状态&#xff0c;特别是在需要确保状态一致性的场景下非常有用。本文将深入探讨这个 Hook 的…

GB和GiB的区别

GB&#xff08;Gigabyte&#xff0c;十亿字节&#xff09;和GiB&#xff08;Gibibyte&#xff0c;吉比字节&#xff09;都是数据存储单位&#xff0c;但它们有不同的定义和使用场景。 GB&#xff08;Gigabyte&#xff09; 定义&#xff1a; GB使用十进制系统&#xff0c;1 GB …

Linux系统中通过Wine运行软件实现关机功能

概述 在Linux系统中&#xff0c;我们开发的软件通过Wine进行适配。软件中包含一个需要执行关机操作的功能。然而&#xff0c;发现Windows的关机指令在Linux环境中无效&#xff0c;需要单独设置Linux的关机命令。 一、调用关机脚本文件执行关机 在Linux系统中&#xff0c;可以…

redis存入hash,key=>value和key=>(key=>value)使用Python举例

在 Redis 中&#xff0c;HASH 数据结构&#xff08;也称为 HMAP 或 Hash Map&#xff09;允许你存储键值对集合&#xff0c;其中每个键值对都是字段&#xff08;field&#xff09;和值&#xff08;value&#xff09;的映射。在 Python 中&#xff0c;你可以使用 redis-py 库来与…

Netty Bootstrap/ServerBootstrap

Netty中的Bootstrap和ServerBootstrap是Netty框架中的两个核心引导类&#xff0c;它们分别用于客户端和服务端的启动配置。以下是关于这两个类的详细解析&#xff1a; 一、基本概念 Bootstrap&#xff1a;客户端程序的启动引导类。主要用于配置Netty客户端的各种参数&#xf…

使用phpMyAdmin操作MYSQL(四)

一. 学会phpMyAdmin&#xff1f; phpMyAdminhttp://water.ve-techsz.cn/phpmyadmin/ 虽然我我们可以用命令行操作数据库&#xff0c;但这样难免没有那么直观&#xff0c;方便。所以接下来我们使用phpMyAdmin来操作MySQL&#xff0c;phpMyAdmin是众多MySQL图形化管理工具中使用…

编程从零基础到进阶(更新中)

题目描述 依旧是输入三个整数&#xff0c;要求按照占8个字符的宽度&#xff0c;并且靠左对齐输出 输入格式 一行三个整数&#xff0c;空格分开 输出格式 输出它们按格式输出的效果&#xff0c;占一行 样例输入 123456789 -1 10 样例输出 123456789-1 10 #include "stdio.…

2024年7月20日(星期六)骑行支里山

2024年7月20日 (星期六&#xff09;骑行支里山&#xff0c;早8:00到8:30&#xff0c;大观公园门口集合&#xff0c;9:00准时出发【因迟到者&#xff0c;骑行速度快者&#xff0c;可自行追赶偶遇。】 偶遇地点:大观公园门口集合 &#xff0c;家住东&#xff0c;南&#xff0c;北…

【数据结构】树和二叉树及堆的深入理解

【数据结构】树和二叉树及堆的深入理解 &#x1f525;个人主页&#xff1a;大白的编程日记 &#x1f525;专栏&#xff1a;数据结构 文章目录 【数据结构】树和二叉树及堆的深入理解前言一.树1.1 树的概念1.2 树的相关概念1.3 树的表示1.4 树的应用 二.二叉树2.1 二叉树概念及…

38 IRF+链路聚合+ACL+NAT组网架构

38 IRF+链路聚合+ACL+NAT组网架构 参考文献 34 IRF的实例-CSDN博客 35 解决单条链路故障问题-华三链路聚合-CSDN博客 36 最经典的ACL控制-CSDN博客 37 公私网转换技术-NAT基础-CSDN博客 32 华三vlan案例+STP-CSDN博客 一 网络架构

智慧煤矿:AI视频智能监管解决方案引领行业新变革

随着科技的飞速发展&#xff0c;人工智能&#xff08;AI&#xff09;技术已经渗透到各个行业&#xff0c;为传统产业的转型升级提供了强大的动力。在煤矿行业中&#xff0c;安全监管一直是一个重要的议题。为了提高煤矿的安全生产水平&#xff0c;降低事故发生率&#xff0c;智…

ubuntu 虚拟机扩容

在使用vmware创建的ubuntu虚拟机进行linux开发时&#xff0c;安装了docker容器&#xff0c;编译会占用很大的磁盘空间&#xff0c;不想创建新的更大空间的虚拟机linux系统&#xff0c;可以通过gparted图形化工具进行扩容&#xff0c;以下是操作方法 虚拟机设置&#xff0c;扩展…

【C语言】详解结构体(上)

文章目录 前言1. 结构体类型的含义2.结构体的声明2.1 结构体声明的语法2.2 结构体变量的创建和初始化 3.结构体的特殊声明4. 结构体的自引用5.小结 前言 C语言的数据类型分为内置数据类型和自定义的数据类型。所谓的内置的数据类型可以认为是C语言自带的数据类型&#xff08;c…

Java案例遍历集合中的自定义对象

目录 一&#xff1a;案例要求&#xff1a; 二案例分析&#xff1a; ​编辑三&#xff1a;具体代码&#xff1a; 四&#xff1a;运行结果&#xff1a; 一&#xff1a;案例要求&#xff1a; 二案例分析&#xff1a; 三&#xff1a;具体代码&#xff1a; Ⅰ&#xff1a; pack…

Windows系统中MySQL的安装和卸载(详细包含msi和zip下载方式,以及完全卸载方法,易出现问题及解决方案等)

MySQL的安装&#xff1a; 第一种&#xff1a;msi安装&#xff08;交简单&#xff0c;但是不能自定义安装路径&#xff09; 下载地址&#xff1a;https://dev.mysql.com/downloads/installer/ 选择历史版本 选择安装版本&#xff0c;这里我选择的是8.0.37的版本&#xff0c;然…

【HarmonyOS】HarmonyOS NEXT学习日记:二、ArkTs语法

【HarmonyOS】HarmonyOS NEXT学习日记&#xff1a;二、ArkTs语法 众所周知TS是JS的超集,而ArkTs则可以理解为是Ts的超集。他们的基础都基于JS&#xff0c;所以学习之前最好就JS基础。我的学习重点也是放在ArkTs和JS的不同点上。 文章主要跟着官方文档学习&#xff0c;跳过了一…

框架设计MVC

重点&#xff1a; 1.用户通过界面操作&#xff0c;传输到control&#xff0c;control可以直接去处理View&#xff0c;或者通过模型处理业务逻辑&#xff0c;然后将数据传输给view。 2.control包含了model和view成员。 链接&#xff1a; MVC框架详解_mvc架构-CSDN博客 MVC架…

Spring Boot 学习总结(34)—— spring-boot-starter-xxx 和 xxx-spring-boot-starter 区别?

一、Spring Starter 简介 Spring Starter 是 Spring Boot 提供的一种便捷方式,帮助开发者快速集成和配置 Spring 应用中所需的依赖。每个 Starter 都是一个预配置的依赖集,可以自动配置应用的一部分或特定功能。这些 Starter 旨在消除手动编写大量样板代码和配置的需求。 1…

小程序中用于跳转页面的5个api是什么和区别

在微信小程序中&#xff0c;用于页面跳转的API主要有以下几个&#xff0c;但通常不需要5个那么多&#xff0c;因为它们的功能各有侧重&#xff0c;用于不同的跳转场景。以下是这些API及其详细代码和区别&#xff1a; wx.navigateTo(OBJECT) 用于保留当前页面&#xff0c;跳转到…

cn.hutool.core.util.IdUtil.getSnowflake

Hutool 是一个非常实用的 Java 工具库&#xff0c;其中包含了许多便捷的工具类和方法。IdUtil 是 Hutool 提供的一个用于生成唯一 ID 的工具类&#xff0c;而 getSnowflake 方法则是用于生成基于 Twitter 的 Snowflake 算法的分布式唯一 ID。 Snowflake 算法简介 Snowflake 算…