虚拟网络排查问题困难,传统的traceroute等工具很难起到太大作用,大部分情况下都需要到宿主机、混合云网关上抓包来troubleshooting,耗时又费力。有些场景中包的传送路径比较长(如跨域、混合云等),可能丢包的地方比较多,更增加了故障排查的难度。
为此,我们设计了一款支持全链路大规模的网络连通性内部检测系统BigBrother。基于TCP报文的染色可将检测报文和用户流量区分开,能支持物理云和跨地域的复杂场景,还打造了完整的检测框架,帮助运维同事直接定位故障点,或一键判断虚拟网络是否存在问题。BigBrother上线后即用于云主机迁移前后的连通性验证,保证出现异常后可以及时告警回滚。从8月初至今历时两个月,共迁移2000多台主机,及时发现迁移异常近10起。一、第一代网络连通性工具的不足在设计BigBrother这前,我们也有第一代的网络连通性检查工具,原理就是通过SSH跳转到目标宿主机上,利用ovs的packet out命令将构造的报文发出去,最后在对端的宿主机上tcpdump该报文,从而验证两端的连通性。但是从它的原理就不难看出,这种检测方式有着很大的缺点:检测效率低下,无论是ssh、packet out,还是tcpdump都无法支持大规模的快速检查;
适应的场景有限,对于部分dpdk、p4网关类产品,无法通过tcpdump进行抓包判断。
Entrypoint和Endpoint
在具体介绍BB的原理前,我们先来看两个概念。在我们的虚拟网络中,每个实例(uhost、umem、udb等)都是通过接入点来接入虚拟网络,接入点由两部分组成:Entrypoint: inbound/outbound报文都是经由Entrypoint进行接受和发送的。
Endpoint:连接实例的端点,Endpoint为最接近实例的网元。
场景 | Entrypoint | Endpoint |
公有云 | ovs | ovs |
物理云 | vpcgw、hybridgw | ToR |
托管云 | hcgw、cloudgw | PE |
跨域网关 | sdngw | ovs |
公共服务 | ovs | ovs |
CNAT | ovs | ovs |
托管云(UXR) | UXR | PE |
跨域网关(UXR) | UXR | ovs |
CNAT(UXR) | UXR | ovs |
以上就是各种场景中的接入点说明,之所以要明确这两个概念,是因为在BB系统中,我们将Entrypoint作为注包点,向其发送GRE探测报文,同时将Endpoint作为采样点,Endpoint会识别并镜像特殊的探测报文至BB。
2检测流程检测方案如图所示,可分为两部分组成,在图中的流向分为橙色和紫色。以橙色流向部分为例(SRC->DST):1)BigBrother模拟DST向Endpoint发送探测报文;2)SRC端Entrypoint收到该探测报文后转发给Endpoint;3)Endpoint将该报文镜像至BigBrother;4)Endpoint将报文正常转发至实例;5)实例回复报文给Endpoint;6)Endpoint收到该回复报文后进行GRE封装,然后镜像至BigBrother;7)Endpoint将报文正常转发至Entrypoint;8)SRC Entrypoint将回复报文发送至DST Entrypoint;9)DST Entrypoint收到回复报文后发送给Endpoint;10)DST Endpoint将回复报文镜像至Bigbrother。至此,单边的检测结束。在检测过程中,BigBrother发送了1个探测报文,共收到了3个采样报文,通过分析这3个采样点可以确认SRC->DST方向是否通信正常。反之亦然,紫色部分原理相同。全部检测结束后,BigBrother共可以收到6个探测报文,如果6个报文均收到则表示连通性正常。3探测报文设计 上文中介绍了BB的检测流程,下面我们再来看下探测报文及转发面的设计实现。公有云和混合云的设计存在很多不同。公有云转发面需要在全局hook点(table_1),分别hook探测报文的request和response,然后进行染色、镜像至BB等步骤。而混合云转发面则需要ToR、PE交换机开启ERSPAN功能,将染色的报文镜像至BB即可。整体数据包交互如下图所示:而一个合格的探测报文首先应该具备以下特征:染色信息与主机、OS无关;
ovs2.3、ovs2.6版本(现网主要版本)可以识别并处理此种染色信息。
cookie=0x20008,table=1,priority=40000,metadata=0x1,icmp,icmp_type=8,icmp_code=0,nw_tos=0x40 actions=Send_BB(),Learn(),Back_0()
对于hook icmp_request的flow可以简化为如下逻辑:action部分主要由三部分组成:Send_BB() 将报文镜像给BB;
Learn() 通过icmp_request报文学习到一条用于匹配icmp_reply报文的flow,该条flow的主要动作包括:染色、镜像至BB;
# 1. ??REG3 ?64200# (global hook) reg3 load:64200->NXM_NX_REG3[], # 2. learn action learn(table=31,idle_timeout=2,hard_timeout=4,priority=30000,dl_type=0x0800,ip_proto=1,icmp_type=0,icmp_code=0,NXM_OF_IP_SRC[]=NXM_OF_IP_DST[],NXM_OF_IP_DST[ ]=NXM_OF_IP_SRC[],Stain(),Send_BB()),# 3. REG3 0load:0->NXM_NX_REG3[]
Back_0() 将该报文送回table_0,进行常规的转发操作。
cookie=0x20008,table=1,priority=40000,metadata=0x1,icmp,icmp_type=0,icmp_code=0,nw_tos=0x40
action部分主要由四部分组成:•Save(in_port, tun_src) 将报文中的in_port和tun_src保存下来;•Resubmit(table=31) 跳转至table31,匹配icmp_request learn生成的flow;•Restore(in_port, tun_src) 恢复in_port和tun_src;•Back_0() 将该报文送回table_0,进行常规的转发操作。以上讨论的是公有云侧ovs的染色及镜像方法,而混合云侧就需要交换机ERSPAN来进行支持,为了使ERSPAN规则可以镜像tos染色报文,需要GRE外层Ip Header中的tos继承overlay Ip Header中标记的tos,所以需要全网对GRE隧道设置继承内层tos的隧道属性,执行命令如下:ovs-vsctl set in options:tos=inherit
此种方案虽然可以实现染色及镜像的功能,但是hook点预埋的flow过于复杂,不容易维护,最关键的一点在于,混合云网络中,该方案无法支持 learn flow,所以无法对反向的流量进行染色。2)tcp方案第二种方案以tcp报文为载体,使用特定的端口作为染色条件,采集时将此源目端口的tcp报文镜像至BB即可。cookie=0x20008,table=1,priority=40000,tcp,metadata=0x1,tp_src=[port],tp_dst=[port] actions=Send_BB(),Back_0()
对于hook tcp_request的flow可以简化为如下逻辑:action部分主要由两部分组成:•Send_BB() 将报文镜像给BB;•Back_0() 将该报文送回table_0,进行常规的转发操作。以上两种方案进行对比不难看出,第一种方案依赖较多并且适用场景受限,所以BB采用的是第二种方案。但是tcp方案也有一定的缺陷,如何选择染色的port并且要与用户的流量区分开来,这是一个难点。经过我们几次踩坑后分析,最后决定使用tcp源目port=11来进行染色(目前已告知用户会使用TCP 端口11进行扫描,详见文档),报文如下图所示。
4各场景下探测报文的生命周期BB被设计为支持多种网络场景,能应对物理云和跨域互通的网络复杂性。这章节我们以探测物理云和跨域为例,详细分析下BB探测报文的生命周期。物理云
公有云—> 物理云
1)BigBrother向公有云宿主机发送探测报文
2)ovs收到报文后镜像至BigBrother3)ovs将报文送至实例4)实例回应报文5)ovs将回应报文镜像至BigBrother6)物理云核心交换机收到报文,并发送给汇聚交换机7)8)9)10)物理云汇聚交换机发送报文给vpcgw,vpcgw处理报文后回送至汇聚交换机11)在物理云汇聚交换机配置ERSPAN,将报文镜像至BigBrother。物理云—> 公有云1)BigBrother向vpcgw发送探测报文2)3)vpcgw处理报文后回送至汇聚交换机4)在物理云汇聚交换机配置ERSPAN,将报文镜像至BigBrother5)汇聚交换机将报文送至phost的上联Tor6)Tor将报文送至phost7)phost回应报文8)在phost的上联Tor配置ERSPAN,将报文镜像至BigBrother9)报文送至公有云宿主机ovs10)ovs收到报文后镜像至BigBrother跨域网关
本地域—> 地域B
1)BigBrother 向本域主机发送探测报文
2)ovs收到报文后镜像至BigBrother3)ovs将报文送至实例4)实例回应报文5)ovs将回应报文镜像至BigBrother6)ovs将报文送至sdngw7)sdngw将报文镜像至BigBrother地域B—> 本地域1)BigBrother 向本域sdngw发送探测报文2)sdngw收到报文后镜像至BigBrother3)sdngw将报文送至对端sdngw进行转发4)本域sdngw收到对端回应报文5)sdngw将回应报文镜像至BigBrother6)sdngw将报文送至本地域宿主机7)ovs将报文镜像至BigBrother三、Bigbrother服务框架整个BB检测系统由若干个组件配合完成,minitrue用于将用户传入的参数转化为注包的范围,telescreen用于构造报文及收发报文。1服务框架图API:FE服务对外提供的HTTP接口,用于创建任务和查询任务进度;Logic:业务处理层,⽤于分析⼊参并将其转换为若干源⽬主机对放入Disruptor中;Disruptor:此组件为开源高性能队列;Sender:将Disruptor中pop的数据组装成GRE packet,并发送给EntryPoint;Receiver:接收从EndPoint上报的GRE packet;Analysis:将接收的报⽂存入内存中,同时对报文进⾏分析。2Task的执行及结果分析 1)task上文中我们详细介绍了BB探测报文的设计和生命周期,但是我们还有一个问题需要解决:提高BB的并发能力。按照上文的介绍,每次BB只能执行一次探测,顺序执行才能保证检测结果的准确性,所以我们设计利用TCP报头中的序列号来提高并发。以下是一个TCP报文的首部结构:其中32位的Seq序列号就是我们要利用的,在BB探测过程中每个Seq序列号都唯⼀标识⼀个pair对,然后我们将Seq序列号分成了两部分:
Task_id:⽤于标识一个Task,由于仅有5位,所以每次同时进⾏的Task不能超过32个 ;
Pair_id:用于标识在一个Task内,待检测的一个pair对。
(1)
nw_dst=10.8.17.169>
(2)
nw_dst=10.9.88.160>
(3)
nw_dst=10.9.88.160>
上图bitmap后三位的结果为111,表示这3个报文都收到了,即10.8.17.169 —>10.9.88.160 单向的连通性正常。
反之亦然,前三位则表示10.9.88.160 —> 10.8.17.169单向的连通性情况,结果为100,(2)(3)报文没有收到,即表示 10.9.88.160 —> 10.8.17.169单向的连通性异常,虚机10.9.88.160没有回复报文,可以断定虚机内部异常或虚机内部存在iptables规则将探测报文过滤。3基于活跃flow的连通性检查上文我们提到,运维同学可以在mafia上创建BB task来进行连通性的检查,通过传入mac、子网id、VPC id来确定检测的范围,进而进行全量验证。但是大多数场景中,我们不需要进行全互联检查,这样不仅浪费时间而且还会对控制面造成一定的压力。我们仅需要针对指定范围内的活跃flow验证连通性即可,所以我们又引入了活跃flow检测的服务——river。river是虚拟网络亿级别活跃流的分析系统,借助这个系统BB可以拿到用户的活跃通信源目,类似于缓存里的热点数据,这样可以让BB快速精准验证变更。与上文全量BB探测的区别在于,minitrue无须自己计算源、目节点列表,只需指定范围后向river获取活跃列表,然后通过常规的检测流程将列表传送给telescreen进行发包即可。四、投入使用和未来计划BigBrother上线后就参与到了资源整合项目中,用于云主机迁移前后的连通性验证,保证出现异常后可以及时告警回滚。从8月初至今历时两个月,共迁移2000多台主机,及时发现迁移异常近10起。同时,我们对BigBrother后续版本也有着一定的规划,例如:除了对连通性的检测外,还需要有平均时延,最大时延对、丢包率的检测;
- 打算基于BigBrother构建针对指定用户的内网全天候监控。
来源:本文转自公众号 Ucloud 技术。
更多云实践和技术干货,欢迎关注“UCloud技术”!