redis的分布式解决方式--codis

codis是豌豆荚开源的分布式server。眼下处于稳定阶段。

原文地址:https://github.com/wandoulabs/codis/blob/master/doc/tutorial_zh.md

Codis 是一个分布式 Redis 解决方式, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有明显的差别 (不支持的命令列表), 上层应用能够像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 全部后边的一切事情, 对于前面的client来说是透明的, 能够简单的觉得后边连接的是一个内存无限大的 Redis 服务.

基本框架例如以下:

Codis 由四部分组成:

Codis Proxy (codis-proxy)
Codis Manager (codis-config)
Codis Redis (codis-server)
ZooKeeper

codis-proxy 是client连接的 Redis 代理服务, codis-proxy 本身实现了 Redis 协议, 表现得和一个原生的 Redis 没什么差别 (就像 Twemproxy), 对于一个业务来说, 能够部署多个 codis-proxy, codis-proxy 本身是无状态的.

codis-config 是 Codis 的管理工具, 支持包含, 加入/删除 Redis 节点, 加入/删除 Proxy 节点, 发起数据迁移等操作. codis-config 本身还自带了一个 http server, 会启动一个 dashboard, 用户能够直接在浏览器上观察 Codis 集群的执行状态.

codis-server 是 Codis 项目维护的一个 Redis 分支, 基于 2.8.13 开发, 增加了 slot 的支持和原子的数据迁移指令. Codis 上层的 codis-proxy 和 codis-config 仅仅能和这个版本号的 Redis 交互才干正常执行.

ZooKeeper(下面简称ZK)是一个分布式协调服务框架。能够做到各节点之间的数据强一致性。简单的理解就是在一个节点改动某个变量的值后。在其它节点能够最新的变化。这样的变化是事务性的。

通过在ZK节点上注冊监听器,就能够获得数据的变化。

Codis 依赖 ZooKeeper 来存放数据路由表和 codis-proxy 节点的元信息, codis-config 发起的命令都会通过 ZooKeeper 同步到各个存活的 codis-proxy.

注:1.codis新版本号支持redis到2.8.21

2.codis-group实现redis的水平扩展

以下我们来部署环境:

10.80.80.124       zookeeper_1 codis-configcodis-server-master,slave codis_proxy_1

10.80.80.126       zookeeper_2 codis-server-master,slavecodis _proxy_2

10.80.80.123       zookeeper_3 codis-serve-master,slavecodis _proxy_3

说明:

1.为了确保zookeeper的稳定性与可靠性。我们在124、126、123上搭建zookeeper集群来对外提供服务;

2.codis-cofig作为分布式redis的管理工具。在整个分布式server中仅仅须要一个就能够完毕管理任务。

3.codis-server和codis-proxy在3台服务器提供redis和代理服务。


一.部署zookeeper集群

1.配置hosts(在3台server上)

10.80.80.124 codis1
10.80.80.126 codis2
10.80.80.123 codis3

2.配置java环境(在3台server上)

vim /etc/profile
##JAVA###
export JAVA_HOME=/usr/local/jdk1.7.0_71
export JRE_HOME=/usr/local/jdk1.7.0_71/jre
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarsource /etc/profile
3.安装zookeeper(在3台server上)

cd /usr/local/src
wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
tar -zxvf zookeeper-3.4.6.tar.gz -C /usr/local
4.配置环境变量(在3台server上)

vim /etc/profile
#zookeeper
ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6
export PATH=$PATH:$ZOOKEEPER_HOME/binsource /etc/profile
5.改动zookeeper配置文件(在3台server上)

#创建zookeeper的数据文件夹和日志文件夹
mkdir -p /data/zookeeper/zk1/{data,log}
cd /usr/local/zookeeper-3.4.6/conf
cp zoo_sample.cfg zoo.cfg
vim /etc/zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/zookeeper/zk1/data
dataLogDir=/data/zookeeper/zk1/log
clientPort=2181
server.1=codis1:2888:3888
server.2=codis2:2888:3888
server.3=codis3:2888:3888
6.在dataDir下创建myid文件。相应节点id(在3台服务器上)

#在124上 
cd /data/zookeeper/zk1/data
echo 1 > myid
#在126上 
cd /data/zookeeper/zk1/data
echo 2 > myid
#在123上 
cd /data/zookeeper/zk1/data
echo 3 > myid
7.启动zookeeper服务(在3台server上)

/usr/local/zookeeper-3.4.6/bin/zkServer.sh start
注:在你所在的当前文件夹下会生成一个zookeeper.out的日志文件,里面记录了启动过程中的具体信息;因为集群没有所有信息,会报“myid 2或myid 3 未启动”的信息,当集群所有启动后就会正常,我们能够忽略。

8.查看zookeeper全部节点的状态(在3台server上)

#124
/usr/local/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: leader
#126
/usr/local/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
#123
/usr/local/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower


二.部署codis集群

1.安装go语言(在3台server上)

tar -zxvf go1.4.2.linux-amd64.tar.gz -C /usr/local/
2.加入go环境变量(在3台server上)

vim /etc/profile
#go
export PATH=$PATH:/usr/local/go/bin
export GOPATH=/usr/local/codissource /etc/profile
3.安装codis(在3台server上)

go get github.com/wandoulabs/codis
cd $GOPATH/src/github.com/wandoulabs/codis
#运行编译測试脚本,编译go和reids。

./bootstrap.sh make gotest #将编译好后,把bin文件夹和一些脚本复制过去/usr/local/codis文件夹下 mkdir -p /usr/local/codis/{conf,redis_conf,scripts} cp -rf bin /usr/local/codis/ cp sample/config.ini /usr/local/codis/conf/ cp -rf sample/redis_conf /usr/local/codis cp -rf sample/* /usr/local/codis/scripts

4.配置codis-proxy(在3台server上。在此以124为例)

#124
cd /usr/local/codis/conf
vim config.ini
zk=codis1:2181,codis2:2181,codis3:2181
product=codis
#此处配置图形化界面的dashboard。注意codis集群仅仅要一个就可以,因此所有指向10.80.80.124:18087
dashboard_addr=192.168.3.124:18087
coordinator=zookeeper
backend_ping_period=5
session_max_timeout=1800
session_max_bufsize=131072
session_max_pipeline=128
proxy_id=codis_proxy_1
#126
cd /usr/local/codis/conf
vim config.ini
zk=codis1:2181,codis2:2181,codis3:2181
product=codis
#此处配置图形化界面的dashboard,注意codis集群仅仅要一个就可以,因此所有指向10.80.80.124:18087
dashboard_addr=192.168.3.124:18087
coordinator=zookeeper
backend_ping_period=5
session_max_timeout=1800
session_max_bufsize=131072
session_max_pipeline=128
proxy_id=codis_proxy_2
#123
cd /usr/local/codis/conf
vim config.ini
zk=codis1:2181,codis2:2181,codis3:2181
product=codis
#此处配置图形化界面的dashboard,注意codis集群仅仅要一个就可以,因此所有指向10.80.80.124:18087
dashboard_addr=192.168.3.124:18087
coordinator=zookeeper
backend_ping_period=5
session_max_timeout=1800
session_max_bufsize=131072
session_max_pipeline=128
proxy_id=codis_proxy_3
5.改动codis-server的配置文件(在3台服务器上)

#创建codis-server的数据文件夹和日志文件夹
mkdir -p /data/codis/codis-server/{data,logs}
cd /usr/local/codis/redis_conf
#主库
vim 6380.conf
daemonize yes
pidfile /var/run/redis_6380.pid
port 6379
logfile "/data/codis_server/logs/codis_6380.log"
save 900 1
save 300 10
save 60 10000
dbfilename 6380.rdb
dir /data/codis_server/data
#从库
cp 6380.conf 6381.conf
sed -i 's/6380/6381/g' 6381.conf
6.加入内核參数

echo "vm.overcommit_memory = 1" >>  /etc/sysctl.conf
sysctl -p
7.依照启动流程启动

cat /usr/loca/codis/scripts/usage.md
0. start zookeeper 
1. change config items in config.ini 
2. ./start_dashboard.sh 
3. ./start_redis.sh 
4. ./add_group.sh 
5. ./initslot.sh 
6. ./start_proxy.sh 
7. ./set_proxy_online.sh 
8. open browser to http://localhost:18087/admin
尽管scripts文件夹以下有对应启动脚本,也能够用startall.sh所有启动。但刚開始建议手动启动,以熟悉codis启动过程。

因为之前zookeeper已经启动,以下我们来启动其它项目。

注:1.在启动过程中须要指定相关日志文件夹或配置文件文件夹,为便于统一管理。我们都放在/data/codis下;

2.dashboard在codis集群中仅仅须要在一台server上启动就可以,此处在124上启动;凡是用codis_config的命令都是在124上操作,其它启动项须要在3台server上操作。

相关命令例如以下:

/usr/local/codis/bin/codis-config -h
usage: codis-config  [-c <config_file>] [-L <log_file>] [--log-level=<loglevel>]<command> [<args>...]
options:-c	set config file-L	set output log file, default is stdout--log-level=<loglevel>	set log level: info, warn, error, debug [default: info]commands:serverslotdashboardactionproxy


(1)启动dashboard(在124上启动)

#dashboard的日志文件夹和訪问文件夹
mkdir -p /data/codis/codis_dashboard/logs
codis_home=/usr/local/codis
log_path=/data/codis/codis_dashboard/logs
nohup $codis_home/bin/codis-config -c $codis_home/conf/config.ini -L $log_path/dashboard.log dashboard --addr=:18087 --http-log=$log_path/requests.log &>/dev/null &

通过10.80.80.124:18087就可以訪问图形管理界面


(2)启动codis-server(在3台服务器上)

/usr/local/codis/bin/codis-server /data/codis_server/conf/6380.conf
/usr/local/codis/bin/codis-server /data/codis_server/conf/6381.conf
(3)加入 Redis Server Group(124上)

注意:每个 Server Group 作为一个 Redis server组存在, 仅仅同意有一个 master, 能够有多个 slave, group id 仅支持大于等于1的整数

眼下我们在3台server上分了3组,因此我们须要加入3组。每组由一主一从构成

#相关命令	
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server
usage:codis-config server listcodis-config server add <group_id> <redis_addr> <role>codis-config server remove <group_id> <redis_addr>codis-config server promote <group_id> <redis_addr>codis-config server add-group <group_id>codis-config server remove-group <group_id>
#group 1
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 1 10.80.80.124:6380 master
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 1 10.80.80.124:6381 slave
#group 2
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 2 10.80.80.126:6380 master
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 2 10.80.80.126:6381 slave
#group 3
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 3 10.80.80.123:6380 master
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 3 10.80.80.123:6381 slave

注意:1.点击“Promote to Master”就会将slave的redis提升为master,而原来的master会自己主动下线。

    2./usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini server add 能够加入机器到对应组中。也能够更新redis的主/从角色。

    3.若为新机器,此处的keys应该为空

(4) 设置 server group 服务的 slot 范围(124上)

#相关命令
/usr/local/codis/bin/codis-config -c /usr/local/codis/conf/config.ini slot
usage:codis-config slot init [-f]codis-config slot info <slot_id>codis-config slot set <slot_id> <group_id> <status>codis-config slot range-set <slot_from> <slot_to> <group_id> <status>codis-config slot migrate <slot_from> <slot_to> <group_id> [--delay=<delay_time_in_ms>]codis-config slot rebalance [--delay=<delay_time_in_ms>]#Codis 採用 Pre-sharding 的技术来实现数据的分片, 默认分成 1024 个 slots (0-1023), 对于每个key来说, 通过下面公式确定所属的 Slot Id : SlotId = crc32(key) % 1024 每个 slot 都会有一个特定的 server group id 来表示这个 slot 的数据由哪个 server group 来提供。

我们在此将1024个slot分为三段,分配例如以下: /usr/local/codis/bin/codis-config -c conf/config.ini slot range-set 0 340 1 online /usr/local/codis/bin/codis-config -c conf/config.ini slot range-set 341 681 2 online /usr/local/codis/bin/codis-config -c conf/config.ini slot range-set 682 1023 3 online

(5)启动codis-proxy(在3台服务器上)

#codis_proxy的日志文件夹
mkdir -p /data/codis/codis_proxy/logs
codis_home=/usr/local/codis
log_path=/data/codis/codis_proxy/logs
nohup $codis_home/bin/codis-proxy --log-level warn -c $codis_home/conf/config.ini -L $log_path/codis_proxy_1.log  --cpu=8 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 > $log_path/nohup.out 2>&1 &

黑线处:codis读取server的主机名。

注意:若client相关訪问proxy,须要在client加入hosts

(6)上线codis-proxy

codis_home=/usr/local/codis
log_path=/data/codis/codis_proxy/logs
nohup $codis_home/bin/codis-proxy --log-level warn -c $codis_home/conf/config.ini -L $log_path/codis_proxy_1.log  --cpu=8 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 > $log_path/nohup.out 2>&1 &

注:启动codis_proxy后。proxy此时处于offline状态。无法对外提供服务,必须将其上线后才干对外提供服务。


ok,至此codis已经能够对外提供服务了。


三.HA

codis的ha分为前端proxy的ha以及后端codis-server的ha,在此简单说下proxy的ha。

对于上层proxy来说,尤其是javaclient来,codis提供jodis(改动过的jedis)来实现proxy的ha。

它会通过监控zk上的注冊信息来实时获得当前可用的proxy列表,既能够保证高可用性。也能够通过轮流请求全部的proxy实现负载均衡;支持proxy的自己主动上线和下线。



转载于:https://www.cnblogs.com/yxwkf/p/5199019.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/272348.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

STM32F103ZET6 蜂鸣器、按键

蜂鸣器的硬件电路&#xff1a; 蜂鸣器实验步骤&#xff1a; 实验步骤基本和跑马灯一样&#xff0c;代码和跑马灯也基本一样&#xff0c;只是用的GPIO不同。 几种输入输出模式&#xff1a; beep.c部分代码&#xff1a; #include "beep.h" #include "stm32f1…

MDK寄存器地址映射分析

在51单片机中&#xff1a; 首先我们看看 51 中是怎么做的。51 单片机开发中经常会引用一个 reg51.h 的头文件&#xff0c;下面我们看看他是怎么把名字和寄存器联系起来的&#xff1a; sfr P0 0x80;sfr 也是一种扩充数据类型&#xff0c;点用一个内存单元&#xff0c;值域为 0&…

Mysql多表查询(两张独立表,一张关系表)

一、数据库设计1、三个数据表长这样其中user表记录用户信息&#xff0c;cat主要记录男女性别&#xff0c;mete表是用户id和性别id的对应关系2、具体数据如下二、查询目标查询出所有性别为“男”的用户的“姓名”&#xff0c;如下记录两种不同形式的查询1、单纯的条件查询SQL&am…

STM32 时钟系统

STM32时钟系统的基本概念 概念及意义 &#xff08;1&#xff09;概念&#xff1a;时钟系统是由振荡器&#xff08;信号源&#xff09;、定时唤醒器、分频器等组成的电路。常用的信号源有晶体振荡器和RC振荡器。 &#xff08;2&#xff09;意义&#xff1a;时钟对数字电路而言非…

【转载】性能测试浅谈

本文主要针对WEB系统的性能测试。不涉及具体的执行操作&#xff0c;只是本人对性能测试的一点理解和认识。 性能测试的目的&#xff0c;简单说其实就是为了获取待测系统的响应时间、吞吐量、稳定性、容量等信息。而发现一些具体的性能相关的缺陷&#xff08;如内存溢出、并发处…

docker ps命令详解 列出运行中的容器

docker ps命令详解 列出运行中的容器 使用docker ps命令即可列出运行中的容器&#xff0c;执行该命令后&#xff0c;会出现如下7列表格 CONTAINER_ID 表示容器ID IMAGE 表示镜像名称 COMMAND 表示启动容器时运行的命令 CREATED …

Lattice 的 Framebuffer IP核使用调试笔记之datasheet笔记

本文由远航路上ing 原创&#xff0c;转载请标明出处。 学习使用以及调试Framebuffer IP 核已经有一段时间了&#xff0c;调试的时候总想记录些东西&#xff0c;可是忙的时候就没有时间来写&#xff0c;只有先找个地方记录下&#xff0c;以后再总结。所以找这个时间好好的记录学…

Systick滴答定时器寄存器、delay()延时函数、SysTick_Config函数

SysTick定时器 SysTick定时器&#xff0c;是一个简单的定时器&#xff0c;对于CM3、CM4内核的芯片都有SysTick定时器。SysTick 是一个 24 位的倒计数定时器&#xff0c;当计数到 0 时&#xff0c;将从RELOAD 寄存器中自动重装载定时初值&#xff0c;开始新一轮计数。只要不把它…

查看docker容器日志

1&#xff1a;实时查看docker容器id为 02c5ac132ee5 的最后10行日志 docker logs -f -t --tail 10 02c5ac132ee5 2:查看指定时间后的日志&#xff0c;只显示最后100行&#xff1a; docker logs -f -t --since"2020-02-14" --tail100 d7db22166a0a 3:查看最近20分钟的…

Web UI 自动化测试环境搭建 (转载自51测试天地第三十九期上)

1. 安装 Python 2.7 并设置系统环境变量 2. 下载并安装 python setuptools Easily download, build, install, upgrade, and uninstall Python packages https://pypi.python.org/pypi/setuptools#installation-instructions 2.1 找到ez_setup.py&#xff0c;点击右键--目标另存…

STM32F1 端口复用、端口(部分和完全)重映射

端口复用功能 STM32 有很多的内置外设&#xff08;比如&#xff1a;串口、ADC、DAC等是独立的模块和内核连接在一起&#xff09;&#xff0c;这些外设的外部引脚都是与 GPIO 复用的。也就是说&#xff0c;一个 GPIO如果可以复用为内置外设的功能引脚&#xff0c;那么当…

docker启动容器后容器状态为Exited (137) 5 seconds ago

1&#xff1a;因为容器里的运行的代码报错了&#xff0c;然后容器 Exited (1) 3 seconds ago 了&#xff0c;通过 docker logs -f container_id 能看到哪里错了 容器桩体为exited&#xff0c;说明容器已经退出停止 先查看查看镜像id ps images 在后台运行一个容器 为了保证提…

STM32中断优先级的管理(NVIC)

STM32 NVIC 中断优先级管理 CM3 内核支持 256 个中断&#xff0c;其中包含了 16 个内核中断和 240 个外部中断&#xff0c;并且具有 256级的可编程中断设置。STM32 并没有使用 CM3 内核的全部东西&#xff0c;而是只用了它的一部分。STM32 有 84 个中断&#xff0c;包括 16 个…

docker修改容器名字

查看一下容器的名字 这个laughing_elion是下载es时候默认的名字 修改容器名字 docker rename 容器原来名 要改为的名字 最后可以看到容器名已经修改成功

STM32 串行通信原理

处理器与外部设备通信的两种方式&#xff1a; 并行通信 传输原理&#xff1a;数据各个位同时传输。优点&#xff1a;速度快缺点&#xff1a;占用引脚资源多 串行通信 传输原理&#xff1a;数据按位顺序传输。优点&#xff1a;占用引脚资源少缺点&#xff1a;速度相对较慢 …

linus下centos7防火墙设置

CentOS7 默认使用firewalld防火墙&#xff0c;如果想换回iptables防火墙&#xff0c;可关闭firewalld并安装iptables。 1:安装firewalld服务 yum install firewalld 2、firewalld的基本使用 启动&#xff1a; systemctl start firewalld &#xff08;关闭后显示notrunning&a…

串口通信寄存器/库函数配置、实例编写

常用的串口相关寄存器 USART_SR状态寄存器USART_DR数据寄存器USART_BRR波特率寄存器 串口操作相关库函数&#xff08;省略入口参数&#xff09;&#xff1a; void USART_Init(); //串口初始化&#xff1a;波特率&#xff0c;数据字长&#xff0c;奇偶校验&#xff0c;硬件流…

使用docker安装Mongodb

下载mongo3.2的docker镜像&#xff1a; docker pull mongo:3.2 使用docker命令启动&#xff1a; docker run -p 27017:27017 --name mongo \ -v /mydata/mongo/db:/data/db \ -d mongo:3.2 查看已经成功启动

什么是真正的程序员?

什么是真正的程序员 这篇文章的原文来自&#xff1a;A Little Printf Story作者仿照《小王子》中的情节&#xff0c;通过小printf遇见的不同类型的程序员&#xff0c;最后悟出什么才是真正的程序员&#xff01;第一次翻译有很多不妥&#xff0c;欢迎留言指正。 文章略长&#x…

为什么会出现docker

docker镜像&#xff0c;一次构建&#xff0c;到处运行