之前写过——Google Guava Cache简介
本文系统学习一下多级缓存
目录
- 0.什么是多级缓存
- 商品查询业务案例导入
- 1.JVM进程缓存
- 初识Caffeine
- 实现JVM进程缓存
- 2.Lua语法入门
- HelloWorld
- 数据类型、变量和循环
- 函数、条件控制
- 3.Nginx业务编码实现多级缓存
- 安装OpenResty
- OpenResty快速入门
- 请求参数处理
- ☆实现OpenResty查询Tomcat
- Redis缓存预热
- ☆实现OpenResty查询Redis缓存
- ☆实现Nginx本地(OpenResty)缓存
- 4.☆缓存同步
- 缓存同步策略
- Canal初识与配置
- 监听Canal实现缓存同步
0.什么是多级缓存
传统的缓存策略一般是请求到达Tomcat后,先查询Redis,如果未命中则查询数据库,如图:
存在下面的问题:
-
请求要经过Tomcat处理,Tomcat的性能成为整个系统的瓶颈
-
Redis缓存失效时,会对数据库产生冲击
多级缓存就是充分利用请求处理的每个环节,分别添加缓存,减轻Tomcat压力,提升服务性能:
- 浏览器访问静态资源时,优先读取浏览器本地缓存
- 访问非静态资源(ajax查询数据)时,访问服务端
- 请求到达Nginx后,优先读取Nginx本地缓存
- 如果Nginx本地缓存未命中,则去直接查询Redis(不经过Tomcat)
- 如果Redis查询未命中,则查询Tomcat
- 请求进入Tomcat后,优先查询JVM进程缓存
- 如果JVM进程缓存未命中,则查询数据库
在多级缓存架构中,Nginx内部需要编写本地缓存查询、Redis查询、Tomcat查询的业务逻辑,因此这样的nginx服务不再是一个反向代理服务器,而是一个编写业务的Web服务器了。
因此这样的业务Nginx服务也需要搭建集群来提高并发,再有专门的nginx服务来做反向代理,如图:
另外,我们的Tomcat服务将来也会部署为集群模式:
可见,多级缓存的关键有两个:
-
一个是在nginx中编写业务,实现nginx本地缓存、Redis、Tomcat的查询
-
另一个就是在Tomcat中实现JVM进程缓存
其中Nginx编程则会用到OpenResty框架结合Lua这样的语言。
这也是今天学习的难点和重点。
商品查询业务案例导入
为了演示多级缓存,我们先导入一个商品管理的案例,其中包含商品的CRUD功能。我们将来会给查询商品添加多级缓存。
1.安装MySQL
后期做数据同步需要用到MySQL的主从功能,所以需要大家在虚拟机中,利用Docker来运行一个MySQL容器。
1.1.准备目录
为了方便后期配置MySQL,我们先准备两个目录,用于挂载容器的数据和配置文件目录:
# 进入/tmp目录
cd /tmp
# 创建文件夹
mkdir mysql
# 进入mysql目录
cd mysql
1.2.运行命令
进入mysql目录后,执行下面的Docker命令:
docker run \-p 3306:3306 \--name mysql \-v $PWD/conf:/etc/mysql/conf.d \ # 挂载mysql配置文件目录-v $PWD/logs:/logs \ # 挂载mysql日志文件目录-v $PWD/data:/var/lib/mysql \ # 挂载mysql数据文件目录-e MYSQL_ROOT_PASSWORD=123 \ # 指定root账号和密码--privileged \-d \mysql:5.7.25
1.3.修改配置
在/tmp/mysql/conf目录添加一个my.cnf文件,作为mysql的配置文件:
# 创建文件
touch /tmp/mysql/conf/my.cnf
文件的内容如下,都是mysql的默认配置,主要配的就是字符的编码改成utf-8
[mysqld]
# 跳过域名解析,速度加载可以更快
skip-name-resolve
# 字符编码
character_set_server=utf8
# 指定数据库的目录 与我们挂载的目录保持一致
datadir=/var/lib/mysql
# 服务id
server-id=1000
1.4.重启
配置修改后,必须重启容器:
docker restart mysql
2.导入SQL
接下来,利用Navicat客户端连接MySQL,创建新的数据库,然后导入课前资料提供的sql文件:
/*Navicat Premium Data TransferSource Server : 192.168.150.101Source Server Type : MySQLSource Server Version : 50725Source Host : 192.168.150.101:3306Source Schema : heimaTarget Server Type : MySQLTarget Server Version : 50725File Encoding : 65001Date: 16/08/2021 14:45:07
*/SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;-- ----------------------------
-- Table structure for tb_item
-- ----------------------------
DROP TABLE IF EXISTS `tb_item`;
CREATE TABLE `tb_item` (`id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '商品id',`title` varchar(264) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL COMMENT '商品标题',`name` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL DEFAULT '' COMMENT '商品名称',`price` bigint(20) NOT NULL COMMENT '价格(分)',`image` varchar(200) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '商品图片',`category` varchar(200) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '类目名称',`brand` varchar(100) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '品牌名称',`spec` varchar(200) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '规格',`status` int(1) NULL DEFAULT 1 COMMENT '商品状态 1-正常,2-下架,3-删除',`create_time` datetime NULL DEFAULT NULL COMMENT '创建时间',`update_time` datetime NULL DEFAULT NULL COMMENT '更新时间',PRIMARY KEY (`id`) USING BTREE,INDEX `status`(`status`) USING BTREE,INDEX `updated`(`update_time`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 50002 CHARACTER SET = utf8 COLLATE = utf8_general_ci COMMENT = '商品表' ROW_FORMAT = COMPACT;-- ----------------------------
-- Records of tb_item
-- ----------------------------
INSERT INTO `tb_item` VALUES (10001, 'RIMOWA 21寸托运箱拉杆箱 SALSA AIR系列果绿色 820.70.36.4', 'SALSA AIR', 16900, 'https://m.360buyimg.com/mobilecms/s720x720_jfs/t6934/364/1195375010/84676/e9f2c55f/597ece38N0ddcbc77.jpg!q70.jpg.webp', '拉杆箱', 'RIMOWA', '{\"颜色\": \"红色\", \"尺码\": \"26寸\"}', 1, '2019-05-01 00:00:00', '2019-05-01 00:00:00');
INSERT INTO `tb_item` VALUES (10002, '安佳脱脂牛奶 新西兰进口轻欣脱脂250ml*24整箱装*2', '脱脂牛奶', 68600, 'https://m.360buyimg.com/mobilecms/s720x720_jfs/t25552/261/1180671662/383855/33da8faa/5b8cf792Neda8550c.jpg!q70.jpg.webp', '牛奶', '安佳', '{\"数量\": 24}', 1, '2019-05-01 00:00:00', '2019-05-01 00:00:00');
INSERT INTO `tb_item` VALUES (10003, '唐狮新品牛仔裤女学生韩版宽松裤子 A款/中牛仔蓝(无绒款) 26', '韩版牛仔裤', 84600, 'https://m.360buyimg.com/mobilecms/s720x720_jfs/t26989/116/124520860/644643/173643ea/5b860864N6bfd95db.jpg!q70.jpg.webp', '牛仔裤', '唐狮', '{\"颜色\": \"蓝色\", \"尺码\": \"26\"}', 1, '2019-05-01 00:00:00', '2019-05-01 00:00:00');
INSERT INTO `tb_item` VALUES (10004, '森马(senma)休闲鞋女2019春季新款韩版系带板鞋学生百搭平底女鞋 黄色 36', '休闲板鞋', 10400, 'https://m.360buyimg.com/mobilecms/s720x720_jfs/t1/29976/8/2947/65074/5c22dad6Ef54f0505/0b5fe8c5d9bf6c47.jpg!q70.jpg.webp', '休闲鞋', '森马', '{\"颜色\": \"白色\", \"尺码\": \"36\"}', 1, '2019-05-01 00:00:00', '2019-05-01 00:00:00');
INSERT INTO `tb_item` VALUES (10005, '花王(Merries)拉拉裤 M58片 中号尿不湿(6-11kg)(日本原装进口)', '拉拉裤', 38900, 'https://m.360buyimg.com/mobilecms/s720x720_jfs/t24370/119/1282321183/267273/b4be9a80/5b595759N7d92f931.jpg!q70.jpg.webp', '拉拉裤', '花王', '{\"型号\": \"XL\"}', 1, '2019-05-01 00:00:00', '2019-05-01 00:00:00');-- ----------------------------
-- Table structure for tb_item_stock
-- ----------------------------
DROP TABLE IF EXISTS `tb_item_stock`;
CREATE TABLE `tb_item_stock` (`item_id` bigint(20) NOT NULL COMMENT '商品id,关联tb_item表',`stock` int(10) NOT NULL DEFAULT 9999 COMMENT '商品库存',`sold` int(10) NOT NULL DEFAULT 0 COMMENT '商品销量',PRIMARY KEY (`item_id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = COMPACT;-- ----------------------------
-- Records of tb_item_stock
-- ----------------------------
INSERT INTO `tb_item_stock` VALUES (10001, 99996, 3219);
INSERT INTO `tb_item_stock` VALUES (10002, 99999, 54981);
INSERT INTO `tb_item_stock` VALUES (10003, 99999, 189);
INSERT INTO `tb_item_stock` VALUES (10004, 99999, 974);
INSERT INTO `tb_item_stock` VALUES (10005, 99999, 18649);SET FOREIGN_KEY_CHECKS = 1;
其中包含两张表:
- tb_item:商品表,包含商品的基本信息
- tb_item_stock:商品库存表,包含商品的库存信息
之所以将库存分离出来,是因为库存是更新比较频繁的信息,写操作较多。而其他信息修改的频率非常低,如果放在一起,每次修改整条数据作废,那么缓存失效的频率就太高了,所以需要做数据分离,真实的商品数据可能要有好几张表,将来有好几个不同的缓存。
3.导入Demo工程
下面导入课前资料提供的工程,项目结构如图所示:
其中的业务包括:
- 分页查询商品
- 新增商品
- 修改商品
- 修改库存
- 删除商品
- 根据id查询商品
- 根据id查询库存
业务全部使用mybatis-plus来实现
3.1.分页查询商品
在com.heima.item.web
包的ItemController
中可以看到接口定义:
3.2.新增商品
在com.heima.item.web
包的ItemController
中可以看到接口定义:
3.3.修改商品
在com.heima.item.web
包的ItemController
中可以看到接口定义:
3.4.修改库存
在com.heima.item.web
包的ItemController
中可以看到接口定义:
3.5.删除商品
在com.heima.item.web
包的ItemController
中可以看到接口定义,这里是采用了逻辑删除,将商品状态修改为3。
3.6.根据id查询商品
在com.heima.item.web
包的ItemController
中可以看到接口定义,这里只返回了商品信息,不包含库存
3.7.根据id查询库存
在com.heima.item.web
包的ItemController
中可以看到接口定义
3.8.启动
注意修改application.yml文件中配置的mysql地址信息,需要修改为自己的虚拟机地址信息、还有账号和密码。
修改后,启动服务,访问:http://localhost:8081/item/10001即可查询商品数据,访问http://localhost:8081/item/stock/10001即可查询商品对应库存。
4.导入商品查询页面
商品查询是购物页面,与商品管理的页面是分离的。部署方式如图:
我们需要准备一个反向代理的nginx服务器,如上图红框所示,将静态的商品页面放到nginx目录中。
页面需要的数据通过ajax向服务端(nginx业务集群)查询。
4.1.运行nginx服务
这里我已经给大家准备好了nginx反向代理服务器和静态资源。
我们找到课前资料的nginx目录:
将其拷贝到一个非中文目录下,其中html目录存放着页面资源:
运行这个nginx服务。运行命令:
start nginx.exe
然后访问 http://localhost/item.html?id=10001即可访问商品:
4.2.反向代理
但是现在,页面是假数据展示的(前端写死)。我们需要向服务器发送ajax请求,查询商品数据。
打开控制台,可以看到页面有发起ajax查询数据:
而这个请求地址同样是80端口(没加端口默认html是80,也是Nginx 默认监听端口),所以被当前的nginx反向代理了,所以我们需要在当前的nginx做反向代理的配置。
查看nginx的conf目录下的nginx.conf文件:
其中的关键配置如下:
其中的192.168.150.101是我的虚拟机IP,也就是我的Nginx业务集群要部署的地方:
完整内容如下:
#user nobody;
worker_processes 1;events {worker_connections 1024;
}http {include mime.types;default_type application/octet-stream;sendfile on;#tcp_nopush on;keepalive_timeout 65;# nginx的业务集群(在这里做nginx本地缓存、redis缓存、tomcat查询等)upstream nginx-cluster{# 还没做集群 先配一个 这里ip是我的虚拟机ipserver 192.168.150.101:8081;}server {listen 80;server_name localhost;# /api接口反向代理到/nginx-cluster(nginx里的负载均衡的配置,在上面定义了)location /api {proxy_pass http://nginx-cluster;}location / {root html;index index.html index.htm;}error_page 500 502 503 504 /50x.html;location = /50x.html {root html;}}
}
以上就是整个商品查询案例的导入了,我们把架子搭好了。tomcat有了,数据有了,反向代理服务器也准备好了,浏览器也有了,现在差的是下面框内的部分,下面我们去实现。
1.JVM进程缓存
初识Caffeine
缓存在日常开发中启动至关重要的作用,由于是存储在内存中,数据的读取速度是非常快的,能大量减少对数据库的访问,减少数据库的压力。我们把缓存分为两类:
- 分布式缓存,例如Redis:
- 优点:存储容量更大(Redis本身可以搭建集群)、可靠性更好(哨兵、主从)、可以在集群间共享(多台tomcat都可以访问同一个Redis缓存)
- 缺点:访问缓存有网络开销(独立于tomcat之外)
- 场景:缓存数据量较大、可靠性要求较高、需要在集群间共享
- 进程本地缓存,例如HashMap、GuavaCache:
- 优点:读取本地内存,没有网络开销,速度更快
- 缺点:存储容量有限(上限就是这台tomcat服务器的JVM堆内存上限,而且不能独占,否则程序运行有问题)、可靠性较低(tomcat重启、宕机则数据丢失)、无法共享(tomcat与tomcat之间)
- 场景:性能要求较高,缓存数据量较小
我们今天会利用Caffeine框架来实现JVM进程缓存。Caffeine是一个基于Java8开发的,提供了近乎最佳命中率的高性能的本地缓存库。目前Spring内部的缓存使用的就是Caffeine。GitHub地址
Caffeine的性能非常好,下图是官方给出的性能对比,可以看到Caffeine的性能遥遥领先
缓存使用的基本API:
@Test
void testBasicOps() {// 构建cache对象Cache<String, String> cache = Caffeine.newBuilder().build();// 存数据cache.put("gf", "迪丽热巴");// 取数据,不存在则返回nullString gf = cache.getIfPresent("gf");System.out.println("gf = " + gf);// 上面的取法不是用的最多的,因为一般缓存没命中要去查数据库,查完后再写到缓存里,把结果返回给用户// 去Caffeine也提供了这样的一个api取数据,包含两个参数:// 参数一:缓存的key// 参数二:Lambda表达式,表达式的参数就是缓存的key,方法体是自定义的后续逻辑(例如查询数据库),查询到的结果会被存入缓存,并且返回给调用者。// 优先根据key查询JVM缓存,如果未命中,则执行参数二的Lambda表达式,并将查询到的结果存入缓存中String defaultGF = cache.get("defaultGF", key -> {// 根据key去数据库查询数据return "柳岩";});System.out.println("defaultGF = " + defaultGF);
}