文章目录
- nginx 负载均衡
- 负载均衡策略(方法、算法)
- nginx配置
- round-robin
- 加权轮询
- least-connected
- ip-hasp
- 使用Https
- realip
- 后端real server不使用realip模块
- 后端
- real server使用realip模块
- ab压力测试
- 不同负载
- 四层负载
- 7层负载
- 4层和7层
nginx 负载均衡
负载均衡(Load Balancing)是一种将工作负载(如网络请求、数据流量等)分配到多个服务器或计算资源上的技术。它的主要目的是确保资源的合理利用,提高系统的性能、可靠性和可扩展性。
在负载均衡中,有一个负载均衡器(Load Balancer)作为中间层,它接收来自客户端的请求,并将这些请求分发给后端的多个服务器,使每个服务器都能够处理一部分工作负载。负载均衡器通常基于一些算法和策略来决定如何分配请求,以实现负载均衡。
以下是负载均衡的一些关键特点和优势:
-
分布负载:负载均衡器可以将工作负载平均地分发到多个服务器上,以避免某个服务器过载而导致性能下降或服务不可用。
-
提高性能:通过将工作负载分散到多个服务器上,负载均衡器可以提高整体系统的处理能力和响应速度,提供更好的用户体验。
-
高可用性:当某个服务器发生故障或不可用时,负载均衡器可以自动将请求转发到其他正常的服务器上,保证服务的连续性和可靠性。
-
扩展性:通过添加更多的服务器来增加系统的处理能力,负载均衡器可以实现系统的水平扩展,适应不断增长的工作负载和用户需求。
-
健康检查:负载均衡器可以定期检查后端服务器的健康状态,如响应时间、负载情况等,以便动态地调整负载分配策略,避免将请求发送到不可用或故障的服务器上。
-
透明性:对于客户端来说,负载均衡器是一个单一的入口点,它隐藏了后端服务器的细节,使客户端无需知道实际处理请求的服务器是哪台。
负载均衡在许多场景中都有广泛应用,特别是在高流量的网络服务、Web应用程序、数据库集群、虚拟化环境等领域。通过合理配置和使用负载均衡技术,可以提高系统的可靠性、性能和可扩展性,实现更好的资源利用和服务质量。
负载均衡策略(方法、算法)
Nginx的负载均衡模块提供了多种策略来分发请求到后端服务器。以下是一些常见的负载均衡策略:
-
轮询(Round Robin):
这是最常用的负载均衡策略。Nginx按照事先定义的顺序依次将请求分发给后端服务器。每个请求依次轮询到不同的服务器,实现负载均衡。 -
IP Hash:
根据客户端的IP地址,将同一个客户端的请求始终分发给同一个后端服务器。这种方式可以保持会话的一致性,因为同一个客户端的请求总是被发送到同一个服务器上。 -
最少连接(Least Connections):
Nginx将请求发送到当前连接数最少的后端服务器上。这样可以确保将负载均衡到连接数较少的服务器上,从而实现动态负载均衡。 -
加权轮询(Weighted Round Robin):
对每个后端服务器分配一个权重,根据权重的比例将请求分发给后端服务器。具有较高权重的服务器将处理更多的请求。 -
加权最少连接(Weighted Least Connections):
类似于最少连接策略,但每个后端服务器的连接数还会乘以一个权重值。连接数较少且权重较高的服务器将优先处理请求。 -
URI哈希(URI Hash):
根据请求的URI对后端服务器进行哈希,将同一个URI的请求始终发送到同一个服务器上。这种方式可以保持特定URI的请求在同一个服务器上处理,适用于一些需要保持一致性的应用场景。
以上是一些常见的负载均衡策略,Nginx提供了灵活的配置选项,使得管理员可以根据具体需求选择合适的策略。可以通过Nginx的配置文件进行相应的调整和定制。
nginx配置
实验前提:
需要准备多台虚拟机:
其中一台作为负载均衡器。
其他的作为service服务器。
需要在/usr/loacl/ydhnginx/conf
的http中添加。
round-robin
#定义一个负载均衡器upstream myweb{server 192.168.2.25;server 192.168.2.26;} server {listen 80;#charset koi8-r;#access_log logs/host.access.log main;location / {proxy_pass http://myweb;}
加权轮询
#定义一个负载均衡器upstream myweb{server 192.168.2.25 weight=3;server 192.168.2.26;} server {listen 80;#charset koi8-r;#access_log logs/host.access.log main;location / {proxy_pass http://myweb;}
least-connected
#定义上游服务器集群,定义一个负载均衡器upstream myweb1 {least_conn;server 192.168.2.25;server 192.168.2.26;server 192.168.2.27;}server {listen 80;location / {proxy_pass http://myweb;}}
ip-hasp
#定义上游服务器集群,定义一个负载均衡器upstream myweb1 {ip_hash;server 192.168.2.25;server 192.168.2.26;server 192.168.2.27;}server {listen 80;location / {proxy_pass http://myweb;}}
使用Https
在/usr/local/ydhnginx/conf/ngixn.conf
的http中加上下面代码,同时nginx需要开通https的服务。
server {listen 443 ssl;server_name localhost;ssl_certificate **.pem;ssl_certificate_key **.key;ssl_session_cache shared:SSL:1m;ssl_session_timeout 5m;ssl_ciphers HIGH:!aNULL:!MD5;ssl_prefer_server_ciphers on;location / {proxy_pass http://myweb;# root html;# index index.html index.htm;}}
realip
问题:
后端的real server不知道前端真正访问的ip地址,只是知道负载均衡的ip地址,如何让后端的real server知道前端真正的用户的ip地址?
后端real server不使用realip模块
- 在负载均衡器上修改http请求报文头部字段,添加一个X-Real-IP字段
在cong/nginx.conf
的http里面加
server {listen 80;server_name www.sc.com;location / {proxy_pass http://myweb1;proxy_set_header X-Real-IP $remote_addr;}}
将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写
- 在后端real server上使用这个x_real_ip这个字段
在主配置文件nginx.conf里的日志部分调用这个变量,获取x_real_ip的值
http {include mime.types;default_type application/octet-stream;log_format main '$remote_addr - $http_x_real_i - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent" "$http_x_forwarded_for"';
后端
可以看到通过访问负载均衡器访问的,也可以通过查看日志知晓源ip地址了。
注意:
需要server机器的配置干净,无其他代理,否则可能会失败。
real server使用realip模块
提前条件需要在后端的backend服务器上在编译安装nginx的时候,需要接 --with-http_realip_module 开启这个功能
- 在负载均衡器上修改http请求报文头部字段,添加一个X_REAL_IP字段
server {listen 80;server_name www.yan.com;location / {proxy_pass http://myweb;proxy_set_header X-Real-IP $remote_addr;}}
将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写
- 在后端real server上使用set_real_ip_from 192.168.2.24
server{listen 80;set_real_ip_from 192.168.2.24;
set_real_ip_from 192.168.2.24 告诉本机的nginx 192.168.2.24 是负载均衡器,不是真正的client
ab压力测试
需要先准备一台机器,用来测试的。不能用负载均衡器或者server服务器
负载均衡器的作用是在多台服务器之间平衡负载,将请求分配给可用的服务器。它可以帮助提高系统的可靠性和性能。如果你不能使用负载均衡器,可能意味着你需要测试的系统没有多台服务器,或者你不希望在测试期间使用负载均衡功能。
服务器通常用于托管和处理应用程序或服务。它们提供计算资源和网络连接,使应用程序能够在网络上访问。如果你不能使用服务器,可能是因为你无法获得或设置一台服务器,或者你的测试并不依赖于服务器特定的功能。
ab(ApacheBench)是一个常用的性能测试工具,用于对网站或 Web 服务器进行压力测试。在CentOS 7上安装ab工具非常简单。以下是在CentOS 7上安装和使用ab工具的详细步骤:
-
安装Apache的HTTP服务器软件包:
sudo yum install httpd
-
安装ab工具:
sudo yum install httpd-tools
这将安装包含ab工具的httpd-tools软件包。
-
验证ab工具是否成功安装:
ab -V
运行该命令后,你应该能够看到ab工具的版本信息。
-
使用ab工具进行压力测试:
ab -n <请求数量> -c <并发数> <URL>
-n
:指定要发送的请求数量。-c
:指定并发请求数量。<URL>
:要测试的网址或服务器的URL。
例如,要发送100个请求并发测试一个网址,可以使用以下命令:
ab -n 100 -c 10 http://example.com/
运行测试后,ab工具将输出关于测试结果的统计信息,包括请求数、失败数、传输速度、请求延迟等。
请注意,压力测试可能会对服务器和网络造成负载,因此在进行测试时应谨慎操作,并确保不会对生产环境造成过大的影响。
ab工具的结果分析主要关注以下几个关键指标:
请求数(Requests):总共发送的请求数量。
失败数(Failed requests):请求失败的数量,包括请求超时、连接重置等错误。
平均请求响应时间(Time per request):每个请求的平均响应时间,以毫秒为单位。
平均并发请求响应时间(Time per request: across all concurrent requests):所有并发请求的平均响应时间。
请求吞吐量(Requests per second):每秒处理的请求数量。较高的吞吐量表示服务器处理能力较强。
传输速度(Transfer rate):服务器响应的数据传输速率,通常以每秒传输的字节数来衡量。
请求延迟百分比(Percentage of the requests served within a certain time):表示在指定时间内处理的请求占总请求数的百分比。常见的百分比包括50%,90%,95%,99%等。
这些指标可以帮助你评估服务器的性能和稳定性。通常情况下,你希望请求数越高、失败数越低、平均响应时间和并发请求响应时间越短、吞吐量和传输速度越高,以及高百分比的请求在较短的时间内得到处理。
不同负载
四层负载
https://docs.nginx.com/nginx/admin-guide/load-balancer/tcp-udp-load-balancer/
官方配置
前提:编译安装的时候需要接--with-stream
是在nginx的ngx_stream_core_module
模块中。
#user nobody;
worker_processes 1;#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;#pid logs/nginx.pid;events {worker_connections 1024;
}
#4层的负载均衡
stream {#负载均衡器的定义webupstream scweb {server 192.168.2.25:80;server 192.168.2.26:80;}#负载均衡器的定义dnsupstream dns_servers {hash $remote_addr consistent;server 192.168.2.130:80;server 192.168.2.131:80;}
server {listen 80;proxy_pass scweb;}
}
注意:
网页在nginx不停止重启的时候,画面不会发生变化,我们可以通过查看server服务器的日志知道确实放生了访问。
7层负载
nginx默认使用7层负载
这是7层的nginx.conf
配置文件。
[root@ydh conf]# cat nginx_bak.conf
user **;
worker_processes 2;#error_log logs/error.log;
error_log logs/error.log notice;
#error_log logs/error.log info;pid logs/nginx.pid;events {worker_connections 2048;
}
http {include mime.types;default_type application/octet-stream;log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent" "$http_x_forwarded_for"';access_log logs/access.log main;sendfile on;#tcp_nopush on;#keepalive_timeout 0;keepalive_timeout 65;autoindex on;server_tokens off;#gzip on;limit_conn_zone $binary_remote_addr zone=addr:10m;limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;server {listen 80;server_name www.yan.com;access_log logs/yan.com.access.log main;limit_rate 10k; #限制每秒10k的速度limit_rate_after 100k; #下载速度达到100k每秒的时候,进行限制location / {root html/yan;index shouye.html index.html index.htm;limit_req zone=one burst=5;}location /download/ {limit_conn addr 1;autoindex on;root html/yan;}error_page 404 /404.html;error_page 500 502 503 504 /50x.html;location = /50x.html {root html;}location = /info{stub_status; #返回nginx的状态的统计信息access_log off;auth_basic "ydh website";auth_basic_user_file htpasswd;allow 192.168.1.126;deny all;
}
}server {listen 80; server_name www.d.com;access_log logs/d.com.access.log main;location / { root html/d;index shouye.html index.html index.htm;} error_page 404 /404.html;error_page 500 502 503 504 /50x.html;location = /50x.html {root html;}
}server {listen 80; server_name www.hao.com;access_log logs/hao.com.access.log main;location / { root html/hao;index shouye.html index.html index.htm;} error_page 404 /404.html;error_page 500 502 503 504 /50x.html;location = /50x.html {root html;} location /download/ { root html/hao;} location ~/download/sc { root html/hao;} location ~* /DOWNLOAD/ { root html/hao;} location ^~/image//a.txt{root html/hao;}location /user/ {proxy_pass http://www.jd.com;}location = /user {proxy_pass http://www.taobao.com;
}
}# HTTPS serverserver {listen 443 ssl;server_name www.**.online;ssl_certificate **e.pem;ssl_certificate_key **.key;ssl_session_cache shared:SSL:1m;ssl_session_timeout 5m;ssl_ciphers HIGH:!aNULL:!MD5;ssl_prefer_server_ciphers on;location / {root html;index index.html index.htm;}}}
4层和7层
在NGINX中,4层负载均衡和7层负载均衡是两种不同的负载均衡方式,它们在处理网络流量和请求分发方面有一些关键的区别。
- 4层负载均衡(Transport Layer Load Balancing):
4层负载均衡是在传输层(Transport Layer)操作,主要基于IP地址和端口号来进行负载均衡。它在收到请求后,将请求转发到后端服务器,但并不理解或修改传输的数据。这种方式适用于处理传输层协议,如TCP和UDP。4层负载均衡不关心请求的内容,只关注网络连接的基本信息。
支持的服务:4层负载均衡适用于基于网络连接的服务,如数据库服务器、SMTP服务器、DNS服务器等。它可以根据IP地址和端口号将请求转发到后端服务器。
- 7层负载均衡(Application Layer Load Balancing):
7层负载均衡是在应用层(Application Layer)操作,对请求进行深入解析和处理。它不仅考虑了IP地址和端口号,还能理解请求的内容,例如HTTP请求头和报文体。通过分析请求的内容,7层负载均衡可以根据更多的信息来进行负载均衡决策,例如根据URL、请求头、会话信息等。
支持的服务:7层负载均衡适用于基于应用层协议的服务,如Web服务器(HTTP/HTTPS)、应用服务器(如Java应用服务器)、消息队列(如MQTT、AMQP)等。它可以根据请求的内容来智能地将请求分发给后端服务器。
总结:
4层负载均衡主要关注网络连接的基本信息,而7层负载均衡则对请求的内容进行深入解析和处理。4层负载均衡适用于基于网络连接的服务,而7层负载均衡适用于基于应用层协议的服务。选择使用哪种负载均衡方式取决于具体的应用场景和需求。