文章目录
- 一、概述
- 二、Nginx 的安装
- 三、常用命令
- 四、Nginx 配置
- 4.1 反向代理配置
- (1)反向代理实例1
- (2)反向代理实例2
- 4.2 负载均衡配置
- 4.3 动静分离
- 4.4 集群配置
- 五、nginx 原理与优化参数配置
一、概述
本次为简易版,后续会在该版本上更新为详细版。
Nginx 是高性能的 HTTP 和反向代理的服务器,处理高并发能力是十分强大的,能经受高负载的考验,有报告表明能支持高达 50,000 个并发连接数。
代理
-
正向代理:需要在客户端配置代理服务器进行指定网站访问
-
反向代理:暴露的是代理服务器地址,隐藏了真实服务器 IP 地址
负载均衡
增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡
比如有15个请求同时过来,通过 nginx 服务器分别将各 5 个请求分发给不同服务器处理
动静分离
将动态资源和静态资源分离
高可用性
nginx 可搭建集群设置主备份,故可防止单点故障,具备高可用性
二、Nginx 的安装
官网下载:https://nginx.org/en/download.html
安装 nginx 前需安装, pcre及openssl 、zlib 、 gcc等依赖,下面将按步骤讲解安装步骤,可先从官方先下载好 nginx 安装包,也可参照下面方式安装。
(1)安装 pcre 依赖
# 1. 联网下载压缩包
wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz
# 2. 解压
tar -zxvf pcre-8.37.tar.gz
# 3. 进入安装目录(务必进入)
cd pcre-8.37/
# 4. 配置
./configure
# 5. 编译且安装
make && make install
# 6. 测试是否安装成功
pcre-config --version
(2)安装 openssl 、zlib 、 gcc 依赖
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
(3)安装 nginx
# 1. 联网下载压缩包
wget https://nginx.org/download/nginx-1.24.0.tar.gz
# 2. 解压
tar -zxvf nginx-1.24.0.tar.gz
# 3. 进入安装目录(务必进入)
cd nginx-1.24.0/
# 4. 配置
./configure
# 5. 编译且安装
make && make install
# 6. 启动 nginx
/usr/local/nginx/sbin/nginx
# 7. 测试:网页登陆 localhost 即可看到 nginx 页面;停止命令:nginx -s stop
三、常用命令
进入目录: cd /usr/local/nginx/sbin
# 1. 查看 nginx 版本号
./nginx -v
# 2. 启动 nginx
./nginx
# 3. 停止 nginx
./nginx -s stop
# 4. 重新加载 nginx
./nginx -s reload
四、Nginx 配置
nginx 配置文件位置:/usr/local/nginx/conf/nginx.conf
配置内容介绍:
(1)全局块:配置服务器整体运行的配置指令
比如 worker_processes 1;处理并发数的配置
(2)events 块:影响 Nginx 服务器与用户的网络连接
比如 worker_connections 1024; 支持的最大连接数为 1024
(3)http 块:还包含两部分:
- http 全局块
- server 块
4.1 反向代理配置
(1)反向代理实例1
目标:搭建一个环境,从 window 本机访问 www.testnginx.com 能通过 192.168.115.131 上的 nginx 反向代理访问到 192.168.115.129 上的 tomcat 首页
声明:两台虚拟机上的防火墙已经关闭
- 配置本机 windows 上的
C:\Windows\System32\drivers\etc\hosts
,添加如下配置
192.168.115.131 www.testnginx.com
- 修改 192.168.115.131 上的 nginx 配置:
vim /usr/local/nginx/conf/nginx.conf
- 192.168.115.129 上使用 docker 启动 tomcat8.0:
docker run -it -p 8080:8080 tomcat:8.0
- 本机windows 上访问:<www.testnginx.com> ,将可看到 192.168.115.129 上的 tomcat 首页
(2)反向代理实例2
目标:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中,其中:http://192.168.115.129:9001/edu 跳转到192.168.115.129的8080端口,http://192.168.115.129:9001/vod 跳转到192.168.115.129的8081端口
其他准备:在192.168.115.129上,使用8080端口启动 tomcat8.0,使用8081端口启动 tomcat8.5。
192.168.115.131上 nginx 配置文件中改为如下配置:可根据 another virtual host using mix of IP-, name-, and port-based configuration
检索
# another virtual host using mix of IP-, name-, and port-based configuration#server {listen 9001;server_name 192.168.115.129;location ~ /edu/ {proxy_pass http://192.168.115.129:8080;}# ~ 后接的是正则表达式,这里含义是路径中包含 vod 则转发给192.168.115.129:8081location ~ /vod/ {proxy_pass http://192.168.115.129:8081;}}
测试:访问 http://192.168.115.131:9001/edu/index.html 和 http://192.168.115.131:9001/vod/index.html 将看到不同 tomcat 报的 404 页面
4.2 负载均衡配置
负载均衡有多种分配方式,各项配置如下:
第一种:轮询:每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除
第二种:权重(weight)weight代表权重,默认为1,权重越高被分配的客户端越多;以下配置会按最小比例的方式进行权重即 1:2,即访问一次8080后就会访问两次8081。
upstream myserver{server 192.168.115.129:8080 weight=5;server 192.168.115.129:8081 weight=10;
}
第三种:ip_hash,每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器
upstream myserver{iphash;server 192.168.115.129:8080;server 192.168.115.129:8081;
}
第四种:fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream myserver{server 192.168.115.129:8080;server 192.168.115.129:8081;fair;
}
4.3 动静分离
Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种,一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),设置 3d,表示在这 3 天之内访问这个 URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码 200。
准备:在 nginx 的 html 目录创建 test 文件夹,并创建 test.html 文件,并在配置文件中加入以下配置,尝试进行静态资源访问
ps:autoindex on;
即让客户端可以以访问文件夹的方式访问 /test/
目录
访问:http://192.168.115.131/test/test.html 即可看到静态资源页面 test.html
4.4 集群配置
集群配置前,需在各个机器上安装 keepalived
:yum install keepalived –y
,安装后配置文件路径为 /etc/keepalived/keepalived.conf
同时为 192.168.115.129 和 192.168.115.131 都安装上 nginx
和 keepalived
后即可开始搭建集群。
修改 192.168.115.131 主机配置文件:vim /etc/keepalived/keepalived.conf
,备机需修改 state
和 priority
global_defs {notification_email {acassen@firewall.locfailover@firewall.locsysadmin@firewall.loc}notification_email_from Alexandre.Cassen@firewall.locsmtp_server 192.168.115.131smtp_connect_timeout 30router_id linux2 # 能访问到主机的名字,看 /etc/hosts
}vrrp_script chk_http_port {script "/root/myopt/nginx/nginx_check.sh"interval 2 #(检测脚本执行的间隔)weight 2
}
vrrp_instance VI_1 {state MASTER # 备份服务器上将 MASTER 改为 BACKUP interface ens33 //网卡virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同priority 100 # 主、备机取不同的优先级,主机值较大(一般填100),备份机值小于主机值advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.115.50 // VRRP H 虚拟地址}
}
上面配置文件中 nginx_check.sh
脚本文件内容:
#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then/usr/local/nginx/sbin/nginxsleep 2if [ `ps -C nginx --no-header |wc -l` -eq 0 ];thenkillall keepalivedfi
fi
之后,启动 keepalived
:systemctl start keepalived
。
测试:访问 http://192.168.115.50 即可看到效果。通过关闭主机或备机可看到不同效果。
关闭主机:访问的将是备机,使用的配置也是备机的配置
再开启主机:访问的将是主机,使用的配置是主机的配置
五、nginx 原理与优化参数配置
一个 master 和多个 woker 好处:
首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多;其次,采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险
需要设置多少个 worker:
Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗
#设置 worker 数量。
worker_processes 4
#work 绑定 cpu(4 work 绑定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000
连接数 worker_connection
这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接数,应该是 worker_connections * worker_processes
。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes
,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker_connections * worker_processes /2
,而如果是 HTTP 作 为反向代
理来说,最大并发数量应该是 worker_connections * worker_processes/4
。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。