HAproxy做七层代理+keepalived高可用,实现动静分离,由nginx处理静态页面,tomcat处理动态页面

目录

一、三种软负载均衡器的区别

关于三种负载均衡器的性能对比:

关于三种负载均衡器的代理类型对比:

关于三种负载均衡器的健康检查对比:

二、haproxy的8中负载均衡调度算法

haproxy的会话保持的方式

haproxy的配置文件学习

三、实操

前言

1、准备nginx和tomcat的访问页面

2、安装haproxy,修改haproxy的配置文件

步骤一:安装haproxy,编译,安装并完成systemd管理

步骤二:完成haproxy的配置文件修改

步骤三:测试是否可以完成访问

3、另外一台复制一样的haproxy配置(一模一样的配置)

4、安装keepalived,编写haproxy的健康检查脚本,然后修改keepalived的配置文件

5、复制到另一台,一模一样的keepalived服务

6、测试

7、修改haproxy的配置文件,设置基于cookie的会话保持

​编辑

四、完成haproxy的日志分割

五、关于haproxy的内核参数优化


一、三种软负载均衡器的区别

  • 关于三种负载均衡器的性能对比:

LVS是基于内核实现的,他的性能最好;

其次是haproxy,最后是nginx

  • 关于三种负载均衡器的代理类型对比:

LVS只支持基于ip的四层代理转发,也不支持正则匹配;

haproxy和nginx都可以作为四层代理和七层代理,同时都支持正则匹配。

  • 关于三种负载均衡器的健康检查对比:

对于lvs,本身是没有对节点服务器做健康检查的机制,是通过keepalived软件实现的,有三种方式:

  • 发送心跳消息(ping);
  • tcp端口检查(给节点服务器的ip:端口发送tcp连接请求,三次握手成功表明检测健康);
  • http url检测,通过给节点服务器发送http get请求,查看相应的响应状态码,如果是2和3开头,表示健康,如果是4和5开头,表示不健康;

对于nginx,对节点服务器分为被动健康检查和主动健康检查;

  • 被动检查:需要在upstream配置的时候,添加max_fails 允许失败的最大次数和fail_timeout达到失败以后,暂停服务到恢复服务的时间
  • 主动检查:需要借助第三方upstream_check模块,可以动态的去对节点服务器进行健康检查;

对于haproxy来说,它本身支持tcp端口检查,以及http url检查,以及脚本检测

二、haproxy的8中负载均衡调度算法

  • roundrobin 轮询
  • static-rr 加权轮询
  • leastconn 最小连接数
  • source 源地址哈希
  • uri 对于url访问路径哈希缓存
  • url_param         根据请求的URL参数哈希
  • hdr(NAME)  对于请求头做哈希缓存
  • rdp-cookie(NAME)  根据cookie的key哈希
  • rdp-cookie(NAME)  根据cookie的key哈希

haproxy的会话保持的方式

HAProxy 提供了3种实现会话保持的方式
1)source(源地址hash)
2)设置cookie
3)会话粘性表stick-table

haproxy的配置文件学习

global		#全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关#将info(及以上)的日志发送到rsyslog的local0接口,将warning(及以上)的日志发送到rsyslog的local1接口log 127.0.0.1 local0 infolog 127.0.0.1 local1 warning	maxconn 30000			            #最大连接数,HAProxy 要求系统的 ulimit -n 参数大于 maxconn*2+18#chroot /var/lib/haproxy            #修改haproxy工作目录至指定目录,一般需将此行注释掉pidfile     /var/run/haproxy.pid    #指定保存HAProxy进程号的文件user haproxy            #以指定的用户名身份运行haproxy进程group haproxy           #以指定的组名运行haproxy,以免因权限问题带来风险daemon					#让haproxy以守护进程的方式工作于后台#nbproc 1				#指定启动的haproxy进程个数,只能用于守护进程模式的haproxy,默认只启动一个进程。haproxy是单进程、事件驱动模型的软件,单进程下工作效率已经非常好,不建议开启多进程spread-checks 2         #在haproxy后端有着众多服务器的场景中,在精确的时间间隔后统一对众服务器进行健康状况检查可能会带来意外问题;此选项用于将其检查的时间间隔长度上增加或减小一定的随机时长;默认为0,官方建议设置为2到5之间。defaults   	#配置默认参数,这些参数可以被用到listen,frontend,backend组件     log     global			#所有前端都默认使用global中的日志配置mode    http			#模式为http(7层代理http,4层代理tcp)option  http-keep-alive #使用keepAlive连接,后端为静态建议使用http-keep-alive,后端为动态应用程序建议使用http-server-closeoption  forwardfor      #记录客户端IP在X-Forwarded-For头域中,haproxy将在发往后端的请求中加上"X-Forwarded-For"首部字段option  httplog			#开启httplog,在日志中记录http请求、session信息等。http模式时开启httplog,tcp模式时开启tcplogoption  dontlognull		#不在日志中记录空连接option  redispatch		#当某后端down掉使得haproxy无法转发携带cookie的请求到该后端时,将其转发到别的后端上option  abortonclose    #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接maxconn 20000			#最大连接数,“defaults”中的值不能超过“global”段中的定义retries 3               #定义连接后端服务器的失败重连次数,连接失败次数超过此值后会将对应后端服务器标记为不可用#contimeout 5000        #设置连接超时时间,默认单位是毫秒#clitimeout 50000       #设置客户端超时时间,默认单位是毫秒#srvtimeout 50000       #设置服务器超时时间,默认单位是毫秒timeout http-request 2s 	#默认http请求超时时间,此为等待客户端发送完整请求的最大时长,用于避免类DoS攻击。haproxy总是要求一次请求或响应全部发送完成后才会处理、转发timeout queue 3s   	    #默认客户端请求在队列中的最大时长timeout connect 1s		#默认haproxy和服务端建立连接的最大时长,新版本中替代contimeout,该参数向后兼容timeout client 10s		#默认和客户端保持空闲连接的超时时长,在高并发下可稍微短一点,可设置为10秒以尽快释放连接,新版本中替代clitimeouttimeout server 2s		#默认和服务端保持空闲连接的超时时长,局域网内建立连接很快,所以尽量设置短一些,特别是高并发时,新版本中替代srvtimeouttimeout http-keep-alive 10s		#默认和客户端保持长连接的最大时长。优先级高于timeout http-request 也高于timeout clienttimeout check 2s		#和后端服务器成功建立连接后到最终完成检查的最大时长(不包括建立连接的时间,只是读取到检查结果的时长)frontend http-in    #定义前端域bind *:80                        #设置监听地址和端口,指定为*或0.0.0.0时,将监听当前系统的所有IPv4地址maxconn 18000                    #定义此端口上的maxconnacl url_static1   path_beg  -i /static /images                          #定义ACL,当uri以定义的路径开头时,ACL[url_static1]为trueacl url_static2   path_end  -i .jpg .jpeg .gif .png .html .htm .txt     #定义ACL,当uri以定义的路径结尾时,ACL[url_static2]为trueuse_backend ms1 if url_static1       #当[url_static1]为true时,定向到后端域ms1中use_backend ms2 if url_static2       #当[url_static2]为true时,定向到后端域ms2中default_backend dynamic_group        #其他情况时,定向到后端域dynamic_group中backend ms1    #定义后端域ms1balance            roundrobin        #使用轮询算法option httpchk     GET /test.html   #表示基于http协议来做健康状况检查,只有返回状态码为2xx或3xx的才认为是健康的,其余所有状态码都认为不健康。不设置该选项时,默认采用tcp做健康检查,只要能建立tcp就表示健康。server ms1.inst1 192.168.80.100:80 maxconn 5000 check inter 2000 rise 2 fall 3server ms1.inst2 192.168.80.100:81 maxconn 5000 check        #同上,inter 2000 rise 2 fall 3是默认值,可以省略backend ms2    #定义后端域ms2balance roundrobinoption httpchk     GET /test.htmlserver ms2.inst1 192.168.80.101:80 maxconn 5000 checkserver ms2.inst2 192.168.80.101:81 maxconn 5000 checkbackend dynamic_group    #定义后端域dynamic_groupbalance roundrobinoption http-server-closecookie HA_STICKY_dy insert indirect nocache    server appsrv1 192.168.80.100:8080 cookie appsrv1 maxconn 5000 checkserver appsrv2 192.168.80.101:8080 cookie appsrv2 maxconn 5000 checklisten stats    #定义监控页面bind *:1080                   #绑定端口1080stats enable                  #启用统计报告监控stats refresh 30s             #每30秒更新监控数据stats uri /stats              #访问监控页面的uristats realm HAProxy\ Stats    #监控页面的认证提示stats auth admin:admin        #监控页面的用户名和密码----------------------------------------------------------------------------------------------------------
●balance roundrobin		#负载均衡调度算法
roundrobin:轮询算法;leastconn:最小连接数算法;source:来源访问调度算法,类似于nginx的ip_hash●check 指定此参数时,HAProxy 将会对此 server 执行健康检查,检查方法在 option httpchk 中配置。同时还可以在 check 后指定 inter, rise, fall 三个参数, 分别代表健康检查的周期、连续几次成功认为 server UP、连续几次失败认为 server DOWN,默认值是 inter 2000 rise 2 fall 3inter 2000		#表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
rise 2			#设定server从离线状态重新上线需要成功检查的次数;不指定默认为2
fall 3			#表示连续三次检测不到心跳频率则认为该节点失效●cookie:在 backend server 间启用基于 cookie 的会话保持策略,最常用的是 insert 方式。
cookie HA_STICKY_dy insert indirect nocache,指 HAProxy 将在响应中插入名为 HA_STICKY_dy 的 cookie,其值为对应的 server 定义中指定的值,并根据请求中此 cookie 的值决定转发至哪个 server。indirect    #代表如果请求中已经带有合法的 HA_STICK_dy cookie,则 HAProxy 不会在响应中再次插入此 cookie
nocache     #代表禁止链路上的所有网关和缓存服务器缓存带有 Set-Cookie 头的响应●若节点配置后带有“backup”表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”,表示为在线节点,和其它在线节点共同提供服务。
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
#frontend域和backend域中所有的配置都可以配置在listen域下
listen  webclusterbind *:80option httpchk GET /test.htmlbalance roundrobinserver inst1 192.168.80.100:80 check inter 2000 rise 2 fall 3server inst2 192.168.80.101:80 check inter 2000 rise 2 fall 3
----------------------------------------------------------------------------------------------------------

三、实操

前言

架构图

能实现haproxy的七层负载,同时通过keepalived实现高可用,访问192.168.20.200可以将动态转发给tomcat处理,静态页面交给nginx处理

1、准备nginx和tomcat的访问页面

首先nginx都是访问http://ip/static/index.html

首先tomcat都是访问http://ip/test/123.jsp 

2、安装haproxy,修改haproxy的配置文件

步骤一:安装haproxy,编译,安装并完成systemd管理

#安装haproxy
yum install -y zlib-devel openssl-devel pcre-devel systemd-devel
useradd -M -s /sbin/nologin haproxycd /opt
tar xf haproxy-2.8.3.tar.gz
cd /opt/haproxy-2.8.3/make ARCH=x86_64 TARGET=linux-glibc USE_PCRE=1 USE_OPENSSL=1 USE_ZLIB=1 USE_SYSTEMD=1 
make install PREFIX=/usr/local/haproxymkdir /etc/haproxy
cp /opt/haproxy-2.8.3/examples/quick-test.cfg /etc/haproxy/haproxy.cfgcp /opt/haproxy-2.8.3/examples/haproxy.init /etc/init.d/haproxy
vim /etc/init.d/haproxy26 [ "${NETWORKING}" = "no" ] && exit 0
##修改第26行,允许识别字符串变量的值ln -s /usr/local/haproxy/sbin/haproxy /usr/sbin/
haproxy -vchmod +x /etc/init.d/haproxy
chkconfig --add /etc/init.d/haproxy
chkconfig --level 35 haproxy on
chkconfig --list haproxyservice haproxy start
netstat -lntp | grep haproxy

步骤二:完成haproxy的配置文件修改

frontend http-inbind 0.0.0.0:80#maxconn 18000acl url_static   path_beg  -i /staticacl url_dynamic   path_end  -i .jspuse_backend static if url_staticuse_backend dynamic if url_dynamicdefault_backend staticbackend staticbalance            roundrobinoption httpchk     GET /test.htmlserver static.inst1 192.168.20.10:80 maxconn 5000 check inter 2000 rise 2 fall 3server static.inst2 192.168.20.30:80 maxconn 5000 checkbackend dynamicbalance roundrobinserver dynamic.inst1 192.168.20.8:8080 maxconn 5000 checkserver dynamic.inst2 192.168.20.8:8081 maxconn 5000 checkserver dynamic.inst3 192.168.20.18:8080 maxconn 5000 checklisten statsbind *:1080stats enablestats refresh 30sstats uri /statsstats realm HAProxy\ Stats

步骤三:测试是否可以完成访问

测试完成

3、另外一台复制一样的haproxy配置(一模一样的配置)

4、安装keepalived,编写haproxy的健康检查脚本,然后修改keepalived的配置文件

[root@localhost keepalived]#ls
check_haproxy.sh  keepalived.conf  keepalived.conf.bak
[root@localhost keepalived]#cat check_haproxy.sh 
#!/bin/bashnetstat -natp|grep haproxy &>/dev/null
if [ $? -ne 0 ];thensystemctl stop keepalived
fi

 

global_defs {notification_email {acassen@firewall.locfailover@firewall.locsysadmin@firewall.loc}notification_email_from Alexandre.Cassen@firewall.locsmtp_server 127.0.0.1smtp_connect_timeout 30router_id HAPROXY_01
}vrrp_script check_ha {script "/etc/keepalived/check_haproxy.sh"interval 2weight 1
}vrrp_instance VI_1 {state MASTERinterface ens33virtual_router_id 51priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}track_script {check_ha
}virtual_ipaddress {192.168.20.200}
}

5、复制到另一台,一模一样的keepalived服务

6、测试

测试VIP可以正常使用

此时是可以在两个nginx的静态页面上去相互跳转的 

 

测试健康检查

关闭到/test.html文件,(因为是通过http来对节点服务器做健康检查的)

 此时访问这个页面 将不会再跳转到accp web 同时做了日志分割,这个日志是显示因为健康检查,/test.html文件无法访问,所以该节点服务器不再服务了

当恢复/test.html页面访问服务以后 

通过日志可以看到该节点服务器恢复服务了 

测试高可用 关闭haproxy服务,然后看一下VIP是否会漂移到备上

master服务器

backup服务器 

7、修改haproxy的配置文件,设置基于cookie的会话保持

backend dynamicbalance roundrobincookie HA_STICKY_dy insert indirect nocacheserver dynamic.inst1 192.168.20.8:8080 cookie app01 maxconn 5000 checkserver dynamic.inst2 192.168.20.8:8081 cookie app02 maxconn 5000 checkserver dynamic.inst3 192.168.20.18:8080 cookie app03 maxconn 5000 check

 

 

 日志分析  都是分配给同一个节点服务器

 

四、完成haproxy的日志分割

方法一:

----------------------日志定义--------------------------------
#默认 haproxy 的日志是输出到系统的 syslog 中,查看起来不是非常方便,为了更好的管理 haproxy 的日志,我们在生产环境中一般单独定义出来。需要将 haproxy 的 info 及 notice 日志分别记录到不同的日志文件中。//方法一
vim /etc/haproxy/haproxy.cfg
globallog /dev/log local0 infolog /dev/log local0 notice......defaults......log global......#需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。service rsyslog restart
service haproxy restarttail -f /var/log/haproxy/haproxy-info.log		#查看haproxy的访问请求日志信息

方法二:

//方法二
#修改haproxy.cfg,将info及以上级别的日志发送到rsyslog的local0接口,将warning及以上级别的日志发送到rsyslog的local1接口
vim /etc/haproxy/haproxy.cfg
global......log 127.0.0.1 local0 infolog 127.0.0.1 local1 warning......defaults......log global......#注:信息级日志会打印HAProxy 的每一条请求处理,会占用大量的磁盘空间,在生产环境中,将日志级别调整为notice#为 rsyslog 添加 haproxy 日志的配置
mkdir /var/log/haproxyvim /etc/rsyslog.d/haproxy.conf
$ModLoad imudp
$UDPServerRun 514
$FileCreateMode 0644                               #日志文件的权限
$FileOwner haproxy                                 #日志文件的owner
local0.*     /var/log/haproxy/haproxy.log          #local0接口对应的日志输出文件
local1.*     /var/log/haproxy/haproxy_warn.log     #local1接口对应的日志输出文件#修改 rsyslog 的启动参数
vim /etc/sysconfig/rsyslog
......
SYSLOGD_OPTIONS="-c 2 -r -m 0"#重启 rsyslog 和 HAProxy
service rsyslog restart
service haproxy restarttail -f /var/log/haproxy/haproxy.log

五、关于haproxy的内核参数优化

vim /etc/sysctl.conf
#开启重用。允许将TIME-WAITsockets重用于新的TCP连接,默认0,表示关闭;
net.ipv4.tcp_tw_reuse = 1
#用于向外连接的端口范围。缺省情况下很小
net.ipv4.ip_local_port_range = 1024 65535
#SYN队列长度,记录尚未收到客户端确认信息的连接请求的最大值。默认为1024,加大队列长度可容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 10240
#表示系统同时保持TIME_WAIT最大数量,如果超过,TIME_WAIT将立刻被清除并打印警告信息。默认180000,此项参数可控制TIME_WAIT 最大数量
net.ipv4.tcp_max_tw_buckets = 5000
#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上,如超过,连接将即刻被复位并打印警告信息,这个限制仅是为防止简单的DoS攻击,不能过分依靠它或人为减小这个值,更应该增加这个值(如果增加内存后)
net.ipv4.tcp_max_orphans = 3276800
#为打开对端的连接,内核需发送个SYN并附带个回应前一个SYN的ACK。即三次握手中的第二次握手。该设置决定内核放弃连接前发SYN+ACK包的数量。
net.ipv4.tcp_synack_retries = 3
#如web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而 nginx 定义的 NGX_LISTEN_BACKLOG 默认511,所以有必要调整这个值。
net.core.somaxconn = 32768sysctl -p

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/234367.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

(详解版)创建线程的四种方式

文章目录 Java中创建线程的四种方式1. 继承Thread类并重写 run 方法来创建线程2. 实现Runnable接口并实现 run 方法来创建线程。3. 使用Callable接口创建线程4. 使用Executor框架创建线程 Java中创建线程的四种方式 接下来我会详细解释这四种方式创建线程如何实现. 我们如果要…

【HarmonyOS开发】ArkTs关系型和非关系型数据库的存储封装

前面使用了首选项的存储方式,因此将其他的两种存储方式(键值型数据库和关系型数据库)也学习一下,简单记录一下,并进行封装,方便后续使用。 1、效果预览 2、使用条件 2.1 键值型数据库 键值型数据库实现数据…

RabbitMQ入门指南(三):Java入门示例

专栏导航 RabbitMQ入门指南 从零开始了解大数据 目录 专栏导航 前言 一、AMQP协议 1.AMQP 2.Spring AMQP 二、使用Spring AMQP实现对RabbitMQ的消息收发 1.案例准备阶段 2.入门案例(无交换机) 3.任务模型案例(Work Queues&#xff0…

九.数据处理之增删改

数据处理之增删改 1.插入数据1.1实际问题1.2方式1:VALUES的方式添加1.3方式2:将查询结果插入到表中 2.更新数据3.删除数据4.MySQL8新特性:计算列5.综合案例 1.插入数据 1.1实际问题 解决方式:使用INSERT语句向表中插入数据 1.2方…

文献速递:生成对抗网络医学影像中的应用——用于生成前列腺MR-only影像治疗剂量规划的合成CT的深度学习模型:多中心研究

文献速递:生成对抗网络医学影像中的应用——用于生成前列腺MR-only影像治疗剂量规划的合成CT的深度学习模型:多中心研究 本周给大家分享文献的主题是生成对抗网络(Generative adversarial networks, GANs)在医学影像中的应用。文…

电源模块测试方法 | 怎么测试电源负载瞬态响应?

负载瞬态响应测试是检测电源稳定性和质量的重要方法之一,而电源稳定性是设备正常运行的基础。通过负载瞬态响应测试来检测电源的响应速度和稳定性,从而优化电源设计,提升性能,确保电子设备可以稳定工作。 什么是负载瞬态响应测试?…

js知识点1:防抖节流

js知识点1:防抖节流 防抖节流 防抖节流,本质上是优化高频率执行代码的一种手段 定义: 防抖: n 秒后再执行该事件,若在 n 秒内被重复触发,则重新计时 节流: n 秒内只运行一次,若在 n 秒内重复触发&#xff0…

【C语言】SCU安全项目2-BufBomb

目录 关键代码解读: getxs() getbuf() test() 核心思路 具体操作1 具体操作2 前段时间忙于强网杯、英语4级和一些其他支线,有点摸不清头绪了,特别是qwb只有一个输出,太过坐牢,决定这个安全项目做完后就继续投身…

Spring MVC框架支持RESTful,设计URL时可以使用{自定义名称}的占位符@Get(“/{id:[0-9]+}/delete“)

背景:在开发实践中,如果没有明确的规定URL,可以参考: 传统接口 获取数据列表,固定接口路径:/数据类型的复数 例如:/albums/select RESTful接口 - 根据ID获取某条数据:/数据类型的复数/{id} - 例…

在Linux安装的Docker中开启IPv6

先在Linux中安装docker,然后在docker中开启IPv6。 安装docker 第一步,卸载旧版本docker。 若系统中已安装旧版本docker,则需要卸载旧版本docker以及与旧版本docker相关的依赖项。 命令:yum -y remove docker docker-client do…

CountDownLatch和Semaphore的区别?

CountDownLatch和Semaphore都是在Java中用于多线程协同的工具,但它们有一些重要的区别。 CountDownLatch: 用途: 主要用于等待一个或多个线程完成操作,它的计数器只能被减少,不能被增加。计数: 初始化时需…

栈-二叉树的中序遍历/easy

二叉树的中序遍历 1、题目2、解题思路3、复杂度最优解示例4、抽象与扩展 1、题目 给定一个二叉树的根节点 root ,返回 它的 中序 遍历 。 示例 1: 输入:root [1,null,2,3] 输出:[1,3,2]示例 2: 输入:roo…

科聪控制系统典型应用车型 —— 料箱机器人

料箱机器人即料箱AGV是一种智能化物流搬运设备,它可以代替人力完成出库入库和搬运工作,可根据出入库生产出货需求,将货物从起点运送到终点,自动柔性完成货到人货到点的操作。 提升仓储和物流效率的自动化利器 料箱机器人的投用能…

STM32_通过Ymodem协议进行蓝牙OTA升级固件教程

目录标题 前言1、OTA升级的重要性和应用场景2、理论基础2.1、单片机的启动流程2.2、什么是IAP?2.3、什么是OTA?2.4、什么是BootLoader?2.5、Ymodem协议是什么?2.6、IAP是如何实现的? 3、具体操作3.1、软硬件工具准备3.…

数据可视化---直方图

内容导航 类别内容导航机器学习机器学习算法应用场景与评价指标机器学习算法—分类机器学习算法—回归机器学习算法—聚类机器学习算法—异常检测机器学习算法—时间序列数据可视化数据可视化—折线图数据可视化—箱线图数据可视化—柱状图数据可视化—饼图、环形图、雷达图统…

短剧分销平台搭建,助力普通人进入短剧市场

当下短剧抢占了各大用户的碎片化时间,成为了当代年轻人的“电子榨菜”,目前我国的短剧用户已达到了10.12亿人,拥有庞大的用户体量。 以小程序为主的付费短剧,今年充值流水达到了180多亿元。以当前短剧市场规模计算,今年…

Kafka为什么能高效读写数据

1)Kafka 本身是分布式集群,可以采用分区技术,并行度高(生产消费方并行度高); 2)读数据采用稀疏索引,可以快速定位要消费的数据; 3)顺序写磁盘; …

航空港务数据大屏为航空港的可持续发展提供有力支撑!

随着经济的发展,不断加建与扩建民用机场,空港行业规模不断扩大。在不断引进和消化发达国家先进技术的同时,中国深入开展了对新技术和新材料的研究,极大地丰富和发展了中国的机场建设技术。且各项机场建设计划均已落实推进&#xf…

TCAX特效字幕保姆入门教程+效果演示+软件源码自取

目录 介绍 下载链接 初步使用 软件使用 tcc文件介绍 tcc文件版本 模式设置 ​编辑 k值提供方式举例 特效脚本设置 主要设置 ass全局风格设置 额外设置 常见问题 编码使用 使用其他tcax博主的进行编码测试 介绍 TCAX是一款专门用于制作特效字幕的软件。通过TCAX…

Potplayer播放器远程访问群晖WebDav本地资源【内网穿透】

文章目录 本教程解决的问题是:按照本教程方法操作后,达到的效果是:1 使用环境要求:2 配置webdav3 测试局域网使用potplayer访问webdav3 内网穿透,映射至公网4 使用固定地址在potplayer访问webdav 国内流媒体平台的内容…