传输控制协议(TCP,Transmission Control Protocol)是一种面向连接的、可靠的、基于字节流的传输层通信协议
基于TCP应用层协议
UGR(URGent,紧急)紧急指针是否有效
ACK(ACKnowlegment,确认) 确认序号是否有效
PSH(PuSH,推送) 提示接收端应用程序立刻把数据从接收缓冲区里读走
RST(ReSeT,复位) 对方要求重新建立连接,我们称携带RST标识的为复位报文段
SYN(SYNchronization,同步)请求建立连接,我们称携带SYN标识的为同步报文段
FIN(FINish,终止)通知对方,本端要关闭了,我们称携带FIN标识的为结束报文段
TCP如何将报头与有效载荷进行分离?
在UDP中,使用的是8个字节的定长报头,在读取完报头的8个字节后,剩下的就是有效载荷。而在TCP中,由于多加了“选项”这个字段,并不能像UDP那样直接读取。
在“选项”这个字段之前的报头是固定20字节,利用其中的4位首部长度,就可以求出报头的总大小 size,再拿size - 20 就能得到选项字段的大小。再读取这部分大小的内容后,剩下的就是有效载荷。
TCP报头中,4位首部长度描述的基本单位是4个字节,4位首部不带单位时的取值范围是 0000 ~ 1111 (二进制),转化为十进制后是0 ~ 15
由于基本单位是4个字节,所以取值范围是0 ~ 60。因为TCP报头的最大长度为60 字节,而“选项”之前的报头占了20字节,所以报头中“选项”字段的长度最多为40字节
假如现在“选项”大小为0字节,那么4位首部长度的值就应该为 20 / 4 = 5,也就说0101(二进制)
TCP如何决定将有效载荷交付给上层的哪一个协议?
这里与UDP的决策一样:因为应用层的每个网络进程都必须绑定端口号,服务端进程显示绑定端口号,客户端进程由系统动态绑定端口号,TCP报文中包含了目的端口号,就可以找出对应的应用层进程(端口号和进程ID采用哈希映射的方法),进而把有效载荷交给应用层进行处理。
我们经常说UDP协议是一种不可靠的传输协议,而TCP协议是可靠的传输协议。
所谓的不可靠指的是,由于传输距离的问题,双方在传输数据时,数据包可能出现丢包、乱序、重复、校验失败、发送太快/太慢,网络出现异常造成的一系列情况等问题。这也是UDP协议在拥有简单、快速这些特点的同时,对应的不足的地方。
而TCP协议就是为了解决传输不可靠的问题,因此TCP一定会比UDP复杂。
TCP虽然复杂,但是效率不一定比UDP低,TCP当中不仅有保证可靠性的机制,还有保证传输性能的各种机制。
UDP之间的优点和缺点, 不能简单, 绝对的进行比较
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定。
什么是真正的可靠?
在进行网络通信时,一方发出数据后,它不能保证另一方一定能成功接收到数据,数据在传输过程中可能会出现各种错误,只有对方发来响应,该主机才能保证上次发出的消息被对方成功接收到了,这是可靠性的体现。
图中的实线代表该数据能被对方可靠地接收到,虚线代表对方不一定能接收到。
但是TCP要保证的是通信双方的可靠性,此时主机A发给主机B的消息要得到响应(表示主机A发的消息被主机B成功接收了),假设主机A也确实收到了主机B的响应,保证了主机A的发消息的可靠性。但是为了保证双方的可靠性,主机B给主机A发的消息,主机B也要收到对应的响应,表示主机B发送的消息成功被主机A收到了。主机A给主机B响应后,主机A也要知道上一条发的消息是否被接收了,于是就陷入了死循环…
因为只有当一端收到对方的响应消息后,才能保证自己上一次发送的数据被可靠地接收到了,但通信双方总有一条消息是最新的消息,因此无法保证百分百的可靠性。
所以从严格意义上来讲,网络上的通信是做不到百分百的可靠性的,总有一条最新的消息得不到响应,但是实际上就没有必要保证所有消息的可靠性,我们只要保证通信双方通信时发送的每一个核心数据都有对应的响应就可以了。而对于一些无关紧要的数据(如响应数据),我们没有必要保证它的可靠性。因为对端如果没有收到这个响应数据,会判定上一次发送的报文丢失了,此时对端可以将上一次发送的数据进行重传。
这种策略在TCP当中叫做确认应答机制。需要注意的是,确认应答机制不是保证双方通信全部消息的可靠性,而是只要一方收到了另一方的应答消息,就说明它上一次发送的数据被另一方可靠的接收到了。
32位序号
双方在进行通信时,只有发送的数据被响应了,才能发下一条数据,这种串行的通信效率是不够高的。
实际上双方在进行网络通信时,允许一方向另一方发送多条数据,主要保证发送的每个报文都能得到对应的响应就可以了,此时也就能保证这些报文被对方收到了。
但是在连续发送报文时,可能传输原因,主机B收到的报文的先后顺序和主机A发送报文的先后顺序可能不一致。但是保证报文有序也是可靠性的一种,因此TCP报头中的32位序号的作用就是用来保证报文的有序性的。
TCP是面向字节流传输的协议,它将发送出去的每个字节数据都进行了编号,即为序号。
比如现在发送端要发送3000字节的数据,每次发送1000字节,那么就需要三个TCP报头来发送这3000字节数据。
接收端收到了这三个TCP报头后,就可以根据TCP报头当中的32位序号对这三个报文进行顺序重排,重排后将其放在TCP缓冲区当中,此时接收到的报文就跟发送的报文顺序是一致的了。
32位确认序号
TCP报头中的32位确认序号,是由接收方告诉发送方,我当前已经收到了那些数据,你下一次该从哪里开始发
比如,当主机B收到主机A发送过来的报文时,从中解析出32位序号的值为1。由于该报文中含有1000个字节的数据,因此主机B已经收到1-1000字节的数据,于是主机B发给主机A的响应数据的报头中32位确认序号的的值就是1001
以此类推,主机A再次发送1001-2000字节的数据时,主机B的响应数据报文里的确认序号值为2001
注意:发送的都是完整的TCP报文,双方会从报文中解析出相应的数据。
报文丢失的情况
如果这三个报文在网络传输的过程中出现了丢包的情况,比如只有序号为1和2001的报文被主机B接收到了,那么当主机B对报文进行顺序重排时,就会发现只收到了1-1000字节和2001-3000字节的数据,1001-2000字节的数据丢失了,此时主机B在给主机A进行响应时,其响应数据的TCP报文中的确认序号填的值为1001,告诉主机A下次向我发送时发送的数据应该从序号1001的字节数据开始发送。
因此发送端可以根据对端发来的确认序号,来判断自己发送的某个报文在传输过程是否丢失。
为什么TCP要使用两套序号机制
如果通信双方只是一端发送数据,一端接收数据,那么只需要一套序号就好了。
但是由于TCP是全双工的,双方是可以同时发送消息和接收消息的。
因此在进行TCP通信时,双方都需要有确认应答机制,此时一套序号就无法满足要求了,因此TCP报头中出现了两套序号。
总结:
TCP的接收缓冲区和发送缓冲区
TCP本身是具有接收缓冲区和发送缓冲区的:
发送缓冲区用来暂时保存还未发送的数据。
这两个缓冲区都是在TCP传输层内部实现的
TCP发送缓冲区当中的数据由上层应用应用层进行写入。当上层调用write/send这样的系统调用接口时,实际不是将数据直接发送到了网络当中,而是将数据从应用层拷贝到了TCP的发送缓冲区当中。
TCP接收缓冲区当中的数据最终也是由应用层来读取的。当上层调用read/recv这样的系统调用接口时,实际也不是直接从网络当中读取数据,而是将数据从TCP的接收缓冲区拷贝到了应用层而已。
当数据写入到TCP的发送缓冲区后,对应的write/send函数就可以返回了,至于发送缓冲区当中的数据具体什么时候发,怎么发等问题实际都是由TCP决定的
我们之所以称TCP为传输层控制协议,就是因为最终数据的发送和接收方式,以及传输数据时遇到的各种问题应该如何解决,都是由TCP自己决定的,用户只需要将数据拷贝到TCP的发送缓冲区,以及从TCP的接收缓冲区当中读取数据即可。
需要注意的是,通信双方的TCP层都是一样的,因此通信双方的TCP层都是既有发送缓冲区又有接收缓冲区。
TCP的发送缓冲区和接收缓冲区存在的意义
发送缓冲区和接收缓冲区的作用:
窗口大小
当发送端要将数据发送给对端时,本质是把自己发送缓冲区当中的数据发送到对端的接收缓冲区当中。但缓冲区是有大小的,如果接收端处理数据的速度小于发送端发送数据的速度,那么总有一个时刻接收端的接收缓冲区会被打满,这时发送端再发送数据过来就会造成数据丢包,进而引起丢包重传等一系列的连锁反应。
因此TCP报头当中就有了16位的窗口大小,这个16位窗口大小当中填的是自身接收缓冲区中剩余空间的大小,也就是当前主机接收数据的能力。
接收端在对发送端发来的数据进行响应时,就可以通过16位窗口大小告知发送端自己当前接收缓冲区剩余空间的大小,此时发送端就可以根据这个窗口大小字段来调整自己发送数据的速度。
为什么会存在标志位?
SYN
报文当中的SYN被设置为1,表明该报文是一个连接建立的请求报文。
只有在连接建立阶段,SYN才被设置,正常通信时SYN不会被设置。
ACK
报文当中的ACK被设置为1,表明该报文可以对收到的报文进行确认。
一般除了第一个请求报文没有设置ACK以外,其余报文基本都会设置ACK,因为发送出去的数据本身就对对方发送过来的数据具有一定的确认能力,因此双方在进行数据通信时,可以顺便对对方上一次发送的数据进行响应。
FIN
报文当中的FIN被设置为1,表明该报文是一个连接断开的请求报文。
只有在断开连接阶段,FIN才被设置,正常通信时FIN不会被设置
URG
双方在进行网络通信的时候,由于TCP是保证数据按序到达的,即便发送端将要发送的数据分成了若干个TCP报文进行发送,最终到达接收端时这些数据也都是有序的,因为TCP可以通过序号来对这些TCP报文进行顺序重排,最终就能保证数据到达对端接收缓冲区中时是有序的。
TCP按序到达本身也是我们的目的,此时对端上层在从接收缓冲区读取数据时也必须是按顺序读取的。但是有时候发送端可能发送了一些“紧急数据”,这些数据需要让对方上层提取进行读取,此时应该怎么办呢?
此时就需要用到URG标志位,以及TCP报头当中的16位紧急指针。
当URG标志位被设置为1时,需要通过TCP报头当中的16位紧急指针来找到紧急数据,否则一般情况下不需要关注TCP报头当中的16位紧急指针。
16位紧急指针代表的就是紧急数据在报文中的偏移量。
因为紧急指针只有一个,它只能标识数据段中的一个位置,因此紧急数据只能发送一个字节,而至于这一个字节的具体含义这里就不展开讨论了。
PSH
报文当中的PSH被设置为1,是在告诉对方尽快将你的接收缓冲区当中的数据交付给上层。
RST
报文当中的RST被设置为1,表示需要让对方重新建立连接。
在通信双方在连接未建立好的情况下,一方向另一方发数据,此时另一方发送的响应报文当中的RST标志位就会被置1,表示要求对方重新建立连接。
在双方建立好连接进行正常通信时,如果通信中途发现之前建立好的连接出现了异常也会要求重新建立连接。
TCP保证可靠性的机制之一就是确认应答机制。
确认应答机制就是由TCP报头当中的,32位序号和32位确认序号来保证的。需要再次强调的是,确认应答机制不是保证双方通信的全部消息的可靠性,而是通过收到对方的应答消息,来保证自己曾经发送给对方的某一条消息被对方可靠的收到了。
TCP将每个字节的数据都进行了编号. 即为序列号
每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发.
主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;
但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;
因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.
这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
那么, 如果超时的时间如何确定?
最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”.
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间
Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时
时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接
TCP是面向连接的
TCP的各种可靠性机制实际都不是从主机到主机的,而是基于连接的,与连接是强相关的。比如一台服务器启动后可能有多个客户端前来访问,如果TCP不是基于连接的,也就意味着服务器端只有一个接收缓冲区,此时各个客户端发来的数据都会拷贝到这个接收缓冲区当中,此时这些数据就可能会互相干扰。
而我们在进行TCP通信之前需要先建立连接,就是因为TCP的各种可靠性保证都是基于连接的,要保证传输数据的可靠性的前提就是先建立好连接。
操作系统对连接的管理
面向连接是TCP可靠性的一种,只有在通信建立好连接才会有各种可靠性的保证,而一台机器上可能会存在大量的连接,此时操作系统就不得不对这些连接进行管理。
三次握手的过程
双方在进行TCP通信之前需要先建立连接,建立连接的这个过程我们称之为三次握手。
这里以服务器和客户端为例,当客户端想要与服务器进行通信时,需要先于服务器建立连接,此时客户端会主动向服务器发送连接建立请求,然后双方TCP在底层会自动进行三次握手
需要注意的是,客户端向服务器发起的连接建立请求,是请求建立从客户端到服务器方向的通信连接,而TCP是全双工通信,因此服务器在收到客户端发来的连接建立请求后,服务器也需要向客户端发起连接建立请求,请求建立从服务器到客户端方法的通信连接。
为什么是三次握手?两次可以吗?四次以上可以吗?
首先我们需要知道,连接建立不是百分之百能成功的,通信双方在进行三次握手时,其中前两次握手能够保证被对方收到,因为前两次握手都有对应的下一次握手对其进行响应,但第三次握手是没有对应的响应报文的,如果第三次握手时客户端发送的ACK报文丢失了,那么连接建立就会失败。
虽然客户端发起第三次握手后就完成了三次握手,但服务器却没有收到客户端发来的第三次握手,此时服务器端就不会建立对应的连接。所以建立连接时不管采用几次握手,最后一次握手的可靠性都是不能保证的。
既然连接的建立都不是百分之百成功的,因此建立连接时具体采用几次握手的依据,实际是看几次握手时的优点更多。
三次握手是验证双方通信信道的最小次数:
三次握手能够保证连接建立时的异常连接挂在客户端:
TCP三次握手的漏洞
在TCP的三次握手过程中,当服务端收到客户端的SYN连接请求后,会返回一个SYN-ACK确认,并且分配一定的资源等待客户端的ACK确认以完成握手。这个等待ACK的连接会在一定时间内(通常60-75秒)保持在半开放(half-open)状态。洪水攻击就是利用这个机制,攻击者发送大量伪造的SYN请求,迫使服务器分配大量的资源去处理这些不存在的客户端确认,从而耗尽服务器的资源,使得正常的连接请求无法得到响应。因为这些SYN请求通常伪造了源IP地址,所以服务器发出的SYN-ACK并不能得到正确的ACK确认,服务器就会在一段时间后关闭这个半开放的连接并释放资源,但在此期间,正常的服务请求可能因为资源不足而得不到处理。
解决方案:延缓TCB分配方法,无效链接监视释放,防火墙。
因此,这里给出两个建立连接时采用三次握手的理由:
三次握手时的状态变化
套接字和三次握手之间的关系
四次挥手的过程
由于双方维护连接都是需要成本的,因此当双方TCP通信结束之后就需要断开连接,断开连接的这个过程我们称之为四次挥手。
还是以服务器和客户端为例,当客户端与服务器通信结束后,需要与服务器断开连接,此时就需要进行四次挥手。
四次挥手结束后双方的连接才算真正断开。
为什么是四次挥手?
由于TCP是全双工的,建立连接的时候需要建立双方的连接,断开连接时也同样如此。在断开连接时不仅要断开从客户端到服务器方向的通信信道,也要断开从服务器到客户端的通信信道,其中每两次挥手对应就是关闭一个方向的通信信道,因此断开连接时需要进行四次挥手。
需要注意的是,四次挥手当中的第二次和第三次挥手不能合并在一起,因为第三次握手是服务器端想要与客户端断开连接时发给客户端的请求,而当服务器收到客户端断开连接的请求并响应后,服务器不一定会马上发起第三次挥手,因为服务器可能还有某些数据要发送给客户端,只有当服务器端将这些数据发送完后才会向客户端发起第三次挥手。
在用某些抓包工具时,四次挥手可能会合并成三次挥手,因为在发送ACK之前可以检查有没有数据要发送,如果没有数据要发送,服务器端要直接关闭连接的话,可以把ACK和FIN合并到一个包发送。
四次挥手时的状态变化
至此四次挥手结束,通信双方成功断开连接。
套接字和四次挥手之间的关系
CLOSE_WAIT
TIME_WAIT
四次挥手中前三次挥手丢包时的解决方法:
如果客户端在发出第四次挥手后立即进入CLOSED状态,此时服务器虽然进行了超时重传,但已经得不到客户端的响应了,因为客户端已经将连接关闭了。
服务器在经过若干次超时重发后得不到响应,最终也一定会将对应的连接关闭,但在服务器不断进行超时重传期间还需要维护这条废弃的连接,这样对服务器是非常不友好的。
为了避免这种情况,因此客户端在四次挥手后没有立即进入CLOSED状态,而是进入到了TIME_WAIT状态进行等待,此时要是第四次挥手的报文丢包了,客户端也能收到服务器重发的报文然后进行响应。
TIME_WAIT状态存在的必要性:
实际第四次挥手丢包后,可能双方网络状态出现了问题,尽管客户端还没有关闭连接,也收不到服务器重发的连接断开请求,此时客户端TIME_WAIT等若干时间最终会关闭连接,而服务器经过多次超时重传后也会关闭连接。这种情况虽然也让服务器维持了闲置的连接,但毕竟是少数,引入TIME_WAIT状态就是争取让主动发起四次挥手的客户端维护这个成本。
因此TCP并不能完全保证建立连接和断开连接的可靠性,TCP保证的是建立连接之后,以及断开连接之前双方通信数据的可靠性。
TIME_WAIT的等待时长是多少?
TIME_WAIT的等待时长既不能太长也不能太短。
TCP协议规定,主动关闭连接的一方在四次挥手后要处于TIME_WAIT状态,等待两个MSL(Maximum Segment Lifetime,报文最大生存时间)的时间才能进入CLOSED状态。
MSL在RFC1122中规定为两分钟,但是各个操作系统的实现不同,比如在Centos7上默认配置的值是60s。我们可以通过cat /proc/sys/net/ipv4/tcp_fin_timeout命令来查看MSL的值。
TIME_WAIT的等待时长设置为两个MSL的原因:
刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.
这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.
既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了).
情况一: 数据包已经抵达, ACK被丢了
这种情况下, 部分ACK丢了并不要紧,因为可以通过后续的ACK进行确认
情况二: 数据包就直接丢了.
当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 “我想要的是 1001” 一样;
如果发送端主机连续三次收到了同样一个 “1001” 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中
这种机制被称为 “高速重发控制”(也叫 “快重传”)
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是窗口字段的值左移 M 位;
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
此处引入一个概念程为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初使时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小
假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率
那么所有的包都可以延迟应答么? 肯定也不是;
数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”;
那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
调用write时, 数据会先写入发送缓冲区中;
如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
然后应用程序可以调用read从接收缓冲区拿数据;
另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工
由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:
写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包.
在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段.
站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
站在应用层的角度, 看到的只是一串连续的字节数据.
那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
对于定长的包, 保证每次都按固定大小读取即可;
对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序员自己来定的, 只要保证分隔符不和正文冲突即可)
对于UDP协议来说, 是否也存在 “粘包问题” 呢?
对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况
进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同.
机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接.
什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.
可靠性:
- 校验和
- 序号/确认序号
- 确认应答
- 超时重发
- 连接管理
- 流量控制
- 拥塞控制
提高性能:
- 滑动窗口
- 快速重传
- 延迟应答
- 捎带应答
其他:
定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)