Springboot2.x +JPA 集成 Apache ShardingSphere 分库分表

分库分表背景:
数据库性能瓶颈:主要分为按照业务来划分或者按照数据量来划分
拆分方式:
水平拆分(每个表的结构都一样):订单表数据量大,我们可以水平拆分 ,分成order表1、order表2、order表3 。。。
垂直拆分:一个多字段的表拆分成多个表
例如:order订单表和oderItem订单详情表
一个订单会购买多件商品,因此,订单order表中会只有一条数据,orderItem订单项表会对应这个订单购买的多件商品

文章目录

            • 技术选型
            • 1. 引入 Maven 依赖
            • 2. 规则配置
            • 3. 实体
            • 4. 接口
            • 5. 表结构
            • 6. 测试类
            • 7. 完整pom

技术选型
组件/框架版本
spring-boot2.4.3
jpa2.4.3
shardingsphere5.0.0-alpha
mysql5.7.3
hikari3.4.5

分库分表

官网文档:
https://shardingsphere.apache.org/document/current/cn/user-manual/shardingsphere-jdbc/usage/sharding/spring-boot-starter/

1. 引入 Maven 依赖
      <dependency><groupId>org.apache.shardingsphere</groupId><artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId><version>5.0.0-alpha</version></dependency>
2. 规则配置
#分库分表 场景:一个客户多个订单 按照user_id分库 按照order_id 分表# 配置真实数据源
spring.shardingsphere.datasource.names=ds0,ds1##############################################################################
# 1.连接池  2.驱动  3.用户名  4.密码  5.连接url  SpringBoot2.x写法
#############################################################################
spring.shardingsphere.datasource.common.type=com.zaxxer.hikari.HikariDataSource
spring.shardingsphere.datasource.common.driver-class-name=com.mysql.jdbc.Driver
spring.shardingsphere.datasource.common.username=root
spring.shardingsphere.datasource.common.password=root
spring.shardingsphere.datasource.ds_0.jdbc-url=jdbc:mysql://localhost:3306/ds0?serverTimezone=UTC&useSSL=false
spring.shardingsphere.datasource.ds_1.jdbc-url=jdbc:mysql://localhost:3306/ds1?serverTimezone=UTC&useSSL=false# 配置 t_order 表规则
#ds$->{0..1} 指的是ds0 ds1 2个数据库
#t_order_$->{0..1} 指的是 t_order_0 t_order_1 2个表
#ds$->{0..1}.t_order_$->{0..1} 指的是ds0 ds1 2个数据库下面的t_order_0和t_order_1 2个表
spring.shardingsphere.rules.sharding.tables.t_order.actual-data-nodes=ds$->{0..1}.t_order_$->{0..1}# 配置分库策略
# user_id 指的是按照user_id进行分库
# database-inline 自定义策略名称 下面会用到
spring.shardingsphere.rules.sharding.tables.t_order.database-strategy.standard.sharding-column=user_id
spring.shardingsphere.rules.sharding.tables.t_order.database-strategy.standard.sharding-algorithm-name=database-inline# 配置分表策略
#order_id 指的是按照user_id进行分表
#table-inline 自定义策略名称 下面会用到
spring.shardingsphere.rules.sharding.tables.t_order.table-strategy.standard.sharding-column=order_id
spring.shardingsphere.rules.sharding.tables.t_order.table-strategy.standard.sharding-algorithm-name=table-inline# 配置 分片算法
#分库分片算法 取模算法
#ds$->{user_id % 2} 指的是user_id与2取模
spring.shardingsphere.rules.sharding.sharding-algorithms.database-inline.type=INLINE
spring.shardingsphere.rules.sharding.sharding-algorithms.database-inline.props.algorithm-expression=ds$->{user_id % 2}#分表分片算法 取模算法
#ds$->{order_id % 2} 指的是order_id与2取模
spring.shardingsphere.rules.sharding.sharding-algorithms.table-inline.type=INLINE
spring.shardingsphere.rules.sharding.sharding-algorithms.table-inline.props.algorithm-expression=t_order_$->{order_id % 2}# 分片算法配置
#order_id 生成规则
#snowflake 雪花算法
spring.shardingsphere.rules.sharding.tables.t_order.key-generate-strategy.column=order_id
spring.shardingsphere.rules.sharding.tables.t_order.key-generate-strategy.key-generator-name=snowflake# 分布式序列算法配置
spring.shardingsphere.rules.sharding.key-generators.snowflake.type=SNOWFLAKE
spring.shardingsphere.rules.sharding.key-generators.snowflake.props.worker-id=123# 具体的属性配置
spring.shardingsphere.props.sql-show=true
3. 实体
package com.gblfy.distributedsharding.entity;import lombok.Data;import javax.persistence.*;@Data
@Entity
@Table(name = "t_order")
public class OrderEntity {@Id@GeneratedValue(strategy = GenerationType.IDENTITY)private Long orderId;private Integer userId;
}
4. 接口
package com.gblfy.distributedsharding.mapper;import com.gblfy.distributedsharding.entity.OrderEntity;
import org.springframework.data.jpa.repository.JpaRepository;import java.util.List;public interface OrderMapper extends JpaRepository<OrderEntity, Long> {OrderEntity findByOrderId(Long orderId);List<OrderEntity> findByUserId(Integer userId);
}
5. 表结构
CREATE DATABASE ds0;
use ds0;
CREATE TABLE `t_order_0` (`order_id` bigint(20) unsigned NOT NULL,`user_id` int(11) DEFAULT NULL,PRIMARY KEY (`order_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;CREATE TABLE `t_order_1` (`order_id` bigint(20) unsigned NOT NULL,`user_id` int(11) DEFAULT NULL,PRIMARY KEY (`order_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;CREATE DATABASE ds1;
use ds1;
CREATE TABLE `t_order_0` (`order_id` bigint(20) unsigned NOT NULL,`user_id` int(11) DEFAULT NULL,PRIMARY KEY (`order_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;CREATE TABLE `t_order_1` (`order_id` bigint(20) unsigned NOT NULL,`user_id` int(11) DEFAULT NULL,PRIMARY KEY (`order_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
6. 测试类
package com.gblfy.distributedsharding;import com.gblfy.distributedsharding.entity.OrderEntity;
import com.gblfy.distributedsharding.mapper.OrderMapper;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;import java.util.Random;@SpringBootTest
class DistributedShardingApplicationTests {@Autowiredprivate OrderMapper orderMapper;@Testvoid insert() {OrderEntity entity = new OrderEntity();entity.setUserId(new Random().nextInt(999));orderMapper.save(entity);}@Testvoid findByOrderId() {//按照order_id分表 ,会查询2次,通过order_id分表,但是不知道哪个库orderMapper.findByOrderId(570271967295811584L);}@Testvoid findByUserId() {//按照user_id分库 ,会查询2次,通过user_id分库,但是不知道哪个表orderMapper.findByUserId(556);}@Testvoid updateByOrderId() {OrderEntity byOrderId = orderMapper.findByOrderId(570279923689172992L);byOrderId.setUserId(1000);orderMapper.save(byOrderId);}
}
7. 完整pom
<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-jpa</artifactId></dependency><dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId><scope>runtime</scope></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><optional>true</optional></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>org.apache.shardingsphere</groupId><artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId><version>5.0.0-alpha</version></dependency>

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/518696.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

@开发者,微软 CEO 萨提亚带领 60 位大咖的集结令,你敢接吗?

2020年初&#xff0c;一场突如其来的疫情打乱了所有人的脚步&#xff0c;给人们的生活、工作、学习带来诸多不便&#xff0c;与此同时&#xff0c;我们看到一些企业迅速响应&#xff1a;各式买菜小程序、远程工具、在线教育的火爆……这背后&#xff0c;是企业的数字化转型步伐…

支付宝技术风险负责人陈亮:把事情做到极致,技术的差异性才会体现出来

“很多事情&#xff0c;说出来很多人都在做&#xff0c;但是只有真正做到极致&#xff0c;技术的差异性才会体现出来”&#xff0c;蚂蚁金服技术风险部研究员陈亮&#xff08;花名&#xff1a;俊义&#xff09;在接受 InfoQ 采访时如是说道。在此前的支付宝技术嘉年华&#xff…

Java-break-continue

https://www.bilibili.com/video/BV12J41137hu?p43&spm_id_frompageDriver

Springboot2.x +JPA 集成 Apache ShardingSphere 同库分表

分库分表背景: 数据库性能瓶颈&#xff1a;主要分为按照业务来划分或者按照数据量来划分。 拆分方式&#xff1a; 水平拆分(每个表的结构都一样)&#xff1a;订单表数据量大&#xff0c;我们可以水平拆分 &#xff0c;分成order表1、order表2、order表3 。。。 垂直拆分&#x…

2020 年,为什么非要采用 DevOps 文化不可?

来源 | DevOps Zone 译者 | 苏本如&#xff0c;责编 | 夕颜头图 | CSDN 下载自视觉中国出品 | CSDN&#xff08;ID:CSDNnews&#xff09;2020年已经到来&#xff0c;它的到来带来了信息和技术&#xff08;IT&#xff09;领域的诸多创新和变革&#xff0c;特别是对DevOps技术的创…

走进KeyDB

KeyDB项目是从redis fork出来的分支。众所周知redis是一个单线程的kv内存存储系统&#xff0c;而KeyDB在100%兼容redis API的情况下将redis改造成多线程。 网上公开的技术细节比较少&#xff0c;本文基本是通过阅读源码总结出来的&#xff0c;如有错漏之处欢迎指正。 多线程架…

Java-打印三角形

public class TestDemo01 {public static void main(String[] args) {// 打印三角形 5 行for (int i 1; i < 5; i) {// 先打印出左边的 直角三角形for (int j 5; j > i; j--) {System.out.print(" ");}for (int j 1; j<i; j) {System.out.print("*…

Springboot2.x +JPA 集成 Apache ShardingSphere 读写分离

分库分表背景: 数据库性能瓶颈&#xff1a;主要分为按照业务来划分或者按照数据量来划分。 拆分方式&#xff1a; 水平拆分(每个表的结构都一样)&#xff1a;订单表数据量大&#xff0c;我们可以水平拆分 &#xff0c;分成order表1、order表2、order表3 。。。 垂直拆分&#x…

基于External-DNS的多集群Service DNS实践

概述 External-DNS提供了编程方式管理Kubernetes Service资源的DNS的功能&#xff0c;类似于容器服务kubernetes federation v2实践一&#xff1a;基于External-DNS的多集群Ingress DNS实践&#xff0c;External-DNS会监听LoadBalancer类型的Service&#xff0c;然后与云厂商打…

只要 8 个步骤,学会这个 Docker 命令终极教程!

作者 | Timothy Mugayi译者 | 弯月 责编 | 徐威龙封图| CSDN 下载于视觉中国Docker容器已经从一种锦上添花的技术转变成了部署环境的必需品。有时&#xff0c;作为开发人员&#xff0c;我们需要花费大量时间调试或研究Docker工具来帮助我们提高生产力。每一次新技术浪潮来临之际…

ubuntu20 安装eclipse

使用eclipse确保已经安装了jdk 1.下载安装eclipse snap软件包 sudo snap install --classic eclipse 2.通过 Snapcrafters 安装了 Eclipse 2019-03 eclipse 2019-03 from Snapcrafters installed 3.启动eclipse 在桌面目录&#xff0c;点击eclipse图标即可

优秀工程师必备的一项技能,你解锁了吗?

阿里妹导读&#xff1a;很多程序员在工作一段时间后会遇到迷茫期&#xff0c;虽有技术傍身&#xff0c;也难免会产生焦虑&#xff0c;反复思考怎样才能快速成长。关于如何提高自己的思考力&#xff0c;运用思考的力量推动能力提升&#xff0c;以此实现技术成长&#xff0c;阿里…

Springboot2.x +JPA 集成 Apache ShardingSphere 分表+读写分离

分库分表背景: 数据库性能瓶颈&#xff1a;主要分为按照业务来划分或者按照数据量来划分。 拆分方式&#xff1a; 水平拆分(每个表的结构都一样)&#xff1a;订单表数据量大&#xff0c;我们可以水平拆分 &#xff0c;分成order表1、order表2、order表3 。。。 垂直拆分&#x…

Java-方法重载

https://www.bilibili.com/video/BV12J41137hu?p47&spm_id_frompageDriver

Blink 有何特别之处?菜鸟供应链场景最佳实践

作者&#xff1a;晨笙、缘桥 菜鸟供应链业务链路长、节点多、实体多&#xff0c;使得技术团队在建设供应链实时数仓的过程中&#xff0c;面临着诸多挑战&#xff0c;如&#xff1a;如何实现实时变Key统计&#xff1f;如何实现实时超时统计&#xff1f;如何进行有效地资源优化&a…

mysql添加联合主键

文章目录1.创建表的同时创建联合主键2.针对已经存在表&#xff0c;添加联合主键3.删除主键约束格式&#xff1a;首先解释一下什么是联合主键 联合主键&#xff0c;指的是把两个列看成是一个整体&#xff0c;这个整体是不为空&#xff0c;唯一&#xff0c;不重复 1.创建表的同时…

为什么要在油气行业中应用 IoT?这 8 个应用场景告诉你 IoT 在油气行业中可以做什么...

作者 | Vova Shevchyk译者 | 风车云马 责编 | 徐威龙封图| CSDN 下载于视觉中国如今&#xff0c;物联网已经进入了各行各业&#xff1a;汽车、农业、绿色能源。物联网还将征服的领域之一是石油和天然气领域。在这些特殊的行业环境中&#xff0c;公司雇佣专业人员来预测机器何时…

Java-命令行传递参数

package method;public class Demo01 {public static void main(String[] args) {// args.length 数组长度for (int i 0; i < args.length; i) {System.out.println("args["i"]: "args[i]);}} }https://www.bilibili.com/video/BV12J41137hu?p48&…

Spark内置图像数据源初探

概述 在Apache Spark 2.4中引入了一个新的内置数据源, 图像数据源.用户可以通过DataFrame API加载指定目录的中图像文件,生成一个DataFrame对象.通过该DataFrame对象,用户可以对图像数据进行简单的处理,然后使用MLlib进行特定的训练和分类计算. 本文将介绍图像数据源的实现…

基于Knative开发应用

title: &#xff08;三&#xff09;基于Knative开发应用 目录 安装 Istio安装 Knative玩转 helloworld-goWordPress 实战 创建 Kubernetes 集群 确保 Kubernetes 集群创建的时候已经选择了启用日志服务确保 Kubernetes 集群和 OSS 在一个 regionKubernetes 集群创建的时候需…