传输层协议
- 再谈端口号
- 端口号范围划分
- 认识知名端口号
- 两个问题
- netstat
- pidof
- UDP协议
- UDP协议端格式
- UDP的特点
- 面向数据报
- UDP的缓冲区
- UDP使用注意事项
- 基于UDP的应用层协议
- TCP协议
- TCP协议段格式
- 确认应答(ACK)机制
- 超时重传机制
- 连接管理机制
- 理解 CLOSE_WAIT 状态
- 理解TIME_WAIT状态
- 解决TIME_WAIT状态引起的bind失败的方法
- 滑动窗口
- 流量控制
- 拥塞控制
- 延迟应答
- 捎带应答
- 面向字节流
- 粘包问题
- TCP异常情况
- TCP小结
- TCP/UDP对比
- TCP 相关实验
- 理解 listen 的第二个参数
负责数据能够从发送端传输接收端
再谈端口号
端口号(Port)标识了一个主机上进行通信的不同的应用程序
在TCP/IP协议中, 用 “源IP”, “源端口号”, “目的IP”, “目的端口号”, “协议号” 这样一个五元组来标识一个通信(可以通过netstat -n查看)
端口号范围划分
- 0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的
- 1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的
认识知名端口号
有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:
- ssh服务器, 使用22端口
- http服务器, 使用80端口
- https服务器, 使用443
- telnet服务器, 使用23端口
- ftp服务器, 使用21端口
两个问题
一个进程是否可以bind多个端口号?
可以
一个端口号是否可以被多个进程bind?
端口号->进程需要确保唯一关系,所以不可以
netstat
用来查看网络状态
常用选项:
- n 拒绝显示别名,能显示数字的全部转化成数字
- l 仅列出有在 Listen (监听) 的服務状态
- p 显示建立相关链接的程序名
- t(tcp)仅显示tcp相关选项
- u (udp)仅显示udp相关选项
- a (all)显示所有选项,默认不显示LISTEN相关
pidof
用来查看服务器的进程id
UDP协议
所有协议都包括包括和有效载荷,学习协议的目的就是学习如何解包和分用
UDP协议端格式
- 16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度;
- 如果校验和出错, 就会直接丢弃
所谓的协议报头其本质就是一种结构化数据对象
UDP的特点
UDP传输的过程类似于寄信:
- 无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接
- 不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息
- 面向数据报: 不能够灵活的控制读写数据的次数和数量
面向数据报
应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并
例如,发送端发送100次,接收端也必须接收100次
UDP的缓冲区
在网络通信中,发送端应用层其实并不是直接将数据发送至网络中,而是将数据层层向下传递;通信所使用的IO接口,其实也不是发送接收接口,而是拷贝接口
- UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作
- UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃
UDP的socket既能读, 也能写, 这个概念叫做 全双工
UDP使用注意事项
我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
然而64K在当今的互联网环境下, 是一个非常小的数字.
如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装
基于UDP的应用层协议
- NFS: 网络文件系统
- TFTP: 简单文件传输协议
- DHCP: 动态主机配置协议
- BOOTP: 启动协议(用于无盘设备启动)
- DNS: 域名解析协议
TCP协议
TCP全称为 “传输控制协议(Transmission Control Protocol”). 人如其名, 要对数据的传输进行一个详细的控制
TCP协议段格式
- 源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去
- 32位序号/32位确认号: 后面详细讲
- 4位首部长度: 表示该TCP报头有多少个32位bit(有多少个4字节); 所以TCP报头最大长度是15 * 4 = 60
- 6位标志位:标识报文的类型,接收方根据不同类型的报文,采取对应的动作
URG: 紧急指针是否有效
ACK: 确认序号是否有效
PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段 - 16位窗口大小: 后面再说
- 16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也包含TCP数据部分
- 16位紧急指针: 标识哪部分数据是紧急数据
- 40字节头部选项: 暂时忽略
如何解包?
- TCP协议是定长报头:20字节;先读取前20字节
- 因为协议报头是结构化数据,所以提取报头中的4位首部长度
- 计算后续报头的大小:选项=4位首部长度-20
- 报头处理完毕,剩余的便是有效载荷
如何分用?
协议报头中包含目的端口号,找到应用层对应的进程,将数据交付给进程
接收端收到一报文后,如何找到曾经绑定的特定端口的进程?网络协议栈和文件又是什么关系?
系统中有很多场景需要快速定位一个进程,所采取的方式就是将进程和端口放入哈希表中,如此一来通过解包报文便可得到端口,再到表中快速定位进程;找到进程之后,每个进程都有PCB进程管理。通过读取到的socket(文件描述符),PCB指向文件描述符数据,便可找到对应的文件结构体,网络协议栈中传输层将数据拷贝到文件结构体的读写缓存区,依次向上交付,最终到达应用层
确认应答(ACK)机制
为什么网络传输中,会存在不可靠问题?
理解起来很简单,举个栗子:如果两个人面对面交谈,没有什么问题,但是如果两个人相隔很远,进行交谈,对方说话的内容都很难听到何谈交流呢?网络也是如此
不可靠的场景如:丢包,乱序,重复,校验错误等
如何保证报文的可靠性呢?
我们认为一个报文只要收到了应答就能保证此报文的可靠性
例如:
收到了应答,只能确保历史消息对方已经收到;由于是双方通信,一定存在最新的消息,没有被应答
TCP收发消息的工作模式
真实的工作模式
双方在通信的过程中,每一方都需要应答;除了正常的数据报,也包括确认数据报
TCP将每个字节的数据都进行了编号. 即为序列号
双方通信过程:
因为数据(报文)到达接收方时,顺序不一定和发送时一致,如果采取任何措施,便会造成数据乱序的结果
TCP数据段采取序列号来标识数据段,因此应答报文中,对应的报头中确认报头;所以确认应答和确认序号确保了接收方已经收到ack序号之前的所有报文(必须是连续的);同时也解释了为什么报头中会存在两组序号(序号,确认序号)
每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发
至此TCP报头中还剩余16位窗口大小没有介绍,在这之前先引入一个新的问题:TCP通信时,数据不能发送太快但也不能太慢,必须有合适的速度;但是作为发送方又该如何得知,发送的数据是适合的呢?只能通过对方的反馈从而得知对方的接收缓冲区的剩余大小,不过双方都还没通信,怎么会知道对方缓冲区大小呢?这不就变成了先有鸡还是先有蛋的问题了吗?
因此,在第一次请求时,发送方就会将自己的接收缓冲区大小存放在16位窗口大小中发送给对方,对方亦是如此;并且发送的数据并不会立刻被移除,而是必须在发送缓冲区维持一段时间;由此双方便交换了接收能力,也能达到流量控制
超时重传机制
- client发送数据给server之后, 可能因为网络拥堵等原因, 数据无法到达server;
- 如果client在一个特定时间间隔内没有收到server发来的确认应答, 就会进行重发;
不过, client未收到server发来的确认应答, 也可能是因为ACK丢失
因此server会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.
这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果
发送方是如何判定丢包的呢?
其实真正有没有丢包,发送方也不清楚,只是如果超时了,就会被判定丢包
发送端发送出去的数据,并不会立刻被移除。而是会在发送缓冲区中保存一段时间,以防丢包,再次发送
那么, 如果超时的时间如何确定?
- 最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”
- 但是这个时间的长短, 随着网络环境的不同, 是有差异的
- 如果超时时间设的太长, 会影响整体的重传效率
- 如果超时时间设的太短, 有可能会频繁发送重复的包
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间
- Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍
- 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传
- 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增
- 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接
连接管理机制
在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接
三次握手
客户端状态转化:
- [CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段
- [SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据
服务端状态转化:
- [CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接
- [LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送SYN确认报文
- [SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据
为什么要三次握手呢?既然是三次握手就表示一次,两次都不可以,为什么呢?
一次握手:sever需要维护好已经建立好的链接,如果只握手一次,可能会遭到SYN洪水;两次握手也是如此
四次握手其实也可以,但是没有必要
三次握手是用最小成本验证全双工通信是否通畅,也可以有效防止单机对服务器进行攻击
三次握手不一定会成功,最担心的是最后一个ACK丢失,不过存在对应的解决措施;链接也是要被管理的(OS),先描述,再组织
四次挥手
客户端状态转化:
- [ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1
- [FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段
- [FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK
- [TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态
服务端状态转化:
- [ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT
- [CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
- [LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接
客户端在FIN_WAIT_2状态时,所谓的不发数据(用户),指的是不发送用户数据,并不代表底层没有管理报文的交互;断开是双方的事情,需要征得双方同意
主动断开链接的一方,最终状态是TIME_WAIT状态
被动断开链接的一方,两次挥手完成,会进入CLOSED_WAIT状态
理解 CLOSE_WAIT 状态
如果在服务器中将关闭文件描述符的代码注释掉,观察运行结果
客服端断开之前
客户端断开之后
此时服务器进入了 CLOSE_WAIT 状态, 结合我们四次挥手的流程图, 可以认为四次挥手没有正确完成,因为关闭文件描述符的操作没有实现
对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题
理解TIME_WAIT状态
首先启动server,然后启动client,然后用Ctrl-C使server终止,这时马上再运行server, 结果是
这是因为,虽然server的应用程序终止了,但TCP协议层的连接并没有完全断开,因此不能再次监 听同样的server端口
- TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态
- 我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口
- MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s
为什么是TIME_WAIT的时间是2MSL?
- MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话
- 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的)
- 同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK)
四次挥手的动作已经完成,但是主动断开链接的一方要维持一段时间的TIME_WAIT,为什么呢?
需要保证最后一个ACK尽可能地被对方收到;双方在断开链接时,网络中可能还有滞留的报文,保证滞留报文进行消散
服务器有时可以立即重启,但是上面这种情况无法进行立即重启,如果在服务器运行繁忙时,此时会非常棘手
解决TIME_WAIT状态引起的bind失败的方法
在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的
- 服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求)
- 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接
- 由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip, 源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了就会出现问题
使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符
int setsockopt(int sockfd, int level, int optname,
const void *optval, socklen_t optlen);
再次运行服务器
滑动窗口
刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段;这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候;并且如果我们发送数据,没有收到应答之前,必须将已发送的数据暂时保存起来,为了支持超时重传,所保存的地方其实就是发送缓冲区,发送缓冲区和滑动窗口紧密关系
不严格的情况下,发送缓冲区可以分为三部分:
其中已发送&&!收到应答的部分称作滑动窗口
如何看待滑动窗口呢?
可以将其理解为一个字符数组
窗口移动,其本质就是下标在进行更新
目前的理解是滑动窗口的大小和对方的接收能力有关,无论未来怎么滑动,都要保证对方能够进行正常的接收
win_start=ack_seq;win_end=win_start+tcp_win
ack_seq
报文的确认序号 tcp_win
对方的接收缓冲区剩余空间
窗口一定会向右滑动吗?会向左滑动吗?
可能向右滑动,取决于右边界的变化;一定不会向左滑动,因为收到应答的数据不可能变成没有收到应答
窗口一定会一直不变吗?会变大吗?会变小吗?为什么?
窗口一定会变化的;当发送的数据越来越多,对方一次将大量的数据从接收缓冲区中取走,此时窗口就会变大;当对方一直不取走接收缓冲区中数据,窗口便会变小
收到应答的时候,如果不是最左侧发送的报文的确认,而是中间的,或者最右侧的怎么办?需要滑动吗?
两种可能
- 数据并没有丢,而是应答丢了,根据确认序号的定义,最左侧的下标会向右移动;同时也说明了确认序号也是为了支持滑动窗口的规则而设定的
- 数据真的丢了,接收方接收的ACK序号会重复,且是该丢失的报文的确认序号;当连续接收三次时,会触发重传机制
滑动窗口必须要滑动吗?会不会不动?或者变为0?
不一定滑动,可能不动,也可能变为零
只取决于 win_start=ack_seq;win_end=win_start+tcp_win
两者的差值
如果一直向后滑动,空间不够怎么办?
发送缓冲区是环状结构的,所以空间不存在不够
流量控制
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端
- 窗口大小字段越大, 说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端
- 发送端接受到这个窗口之后, 就会减慢自己的发送速度
- 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端
接收端如何把窗口大小告诉发送端呢?
在三次握手时就已经交换了窗口大小
拥塞控制
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题
在之前我们考虑的只是通信双方,并没有考虑到两者之间的网络
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据
- 此处引入一个概念程为拥塞窗口
- 发送开始的时候, 定义拥塞窗口大小为1
- 每次收到一个ACK应答, 拥塞窗口加1
- 每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口:滑动窗口=min(拥塞窗口,自己的接收能力)
像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初使时慢, 但是增长速度非常快
- 为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍
- 此处引入一个叫做慢启动的阈值
- 当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
- 当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
- 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案
延迟应答
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小
- 假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K
- 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了
- 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来
- 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率
那么所有的包都可以延迟应答么? 肯定也不是
- 数量限制: 每隔N个包就应答一次
- 时间限制: 超过最大延迟时间就应答一次
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”; 那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端
简单理解就是在确认应答时也发送数据
面向字节流
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区
- 调用write时, 数据会先写入发送缓冲区中
- 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出
- 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去
- 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区
- 然后应用程序可以调用read从接收缓冲区拿数据
- 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工
由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:
- 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节
- 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次
粘包问题
- 首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包
- 在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段
- 站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中
- 站在应用层的角度, 看到的只是一串连续的字节数据
- 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界
- 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可
- 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置
- 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可)
对于UDP协议来说, 是否也存在 “粘包问题” 呢?
- 对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界
- 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况
TCP异常情况
进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别
机器重启: 和进程终止的情况相同
机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接
TCP小结
为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.
可靠性:
- 校验和
- 序列号(按序到达)
- 确认应答
- 超时重发
- 连接管理
- 流量控制
- 拥塞控制
提高性能:
- 滑动窗口
- 快速重传
- 延迟应答
- 捎带应答
TCP/UDP对比
我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较
- TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景
- UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定
TCP 相关实验
理解 listen 的第二个参数
举个栗子
在大型商场中,每个饭馆外面都有闲置的座椅,每当到饭点时,都会有顾客在外面排队,仔细观察会发现,这些座椅并不会很多,因为没有必要;让顾客排队的目的就是在里面有资源空闲时,立刻投入使用,提高入座率;在TCP协议中同样如此
TCP协议,要为上层维护一个链接队列,当服务器有空闲的资源时,队列中的客户端立刻进行连接;队列的长度受listen的第二个参数影响
对于服务器, listen 的第二个参数设置为 2, 并且不调用 accept
当对服务器进行三次连接之后,查询结果如下
当进行第四次连接时,查询结果
当第四次连接时,客户端认为自己已经完成握手,但是服务端并没有完成握手,并没有最后一次确认,这种情况也称半连接
Linux内核协议栈为一个tcp连接管理使用两个队列:
- 半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)
- 全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)
全连接队列的长度会受到 listen 第二个参数的影响;全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态
;这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1;同时也说明了accpet与三次握手没有关系