UDP传输的过程类似于寄信
无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
面向数据报: 不能够灵活的控制读写数据的次数和数量,所谓的面向数据报就是UDP的数据都是打包在一起的,要么一起发,要么都不发。而TCP是面向数据流的,就像水流一样,可以一部分一部分的发;应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;用UDP传输100个字节的数据:如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;
UDP没有真正意义上的发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃;
UDP的socket既能读, 也能写, 这个概念叫做 全双工
我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部). 然而64K在当今的互联网环境下, 是一个非常小的数字. 如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装;
NFS: 网络文件系统
TFTP: 简单文件传输协议
DHCP: 动态主机配置协议
BOOTP: 启动协议(用于无盘设备启动)
DNS: 域名解析协议
当然, 也包括你自己写UDP程序时自定义的应用层协议
TCP全称为 “传输控制协议(Transmission Control Protocol”). 人如其名, 要对数据的传输进行一个详细的控制。
16位源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去。
32位序号:保证按序到达,client->server ,保证serverserver->client ,保证client端收到数据的顺序问题,按序到达。
TCP将每个字节的数据都进行了编号,即为序列号。这样可以保证哪怕收到的数据是乱序的,也可以按序列号重新排序。
确认序号:
server->client 发送ack,原始信号+1(seq+1),表示seq之前的数据已经收到了,client需要向server再发seq之后的内容。
例如:客户端给服务器发送 1.在干嘛 2.吃了吗 3.约会吗? 三条内容,序号分别为1、2、3;当服务器收到3条信息后,会给客户端一个应答,应答里有一个确认序号,这个确认序号为4,意味着客户端发送的前3条数据我已经收到了,你需要从第4条数据开始发。如果确认序号为2,说明客户端发送的数据,服务器只收到第1条数据,2,3两条数据丢失。客户端需要从第2条数据开始发。
4位TCP首部长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60,最小首部长度为20字节。
6位标志位:
**URG:**有些数据需要优先处理,即插队,哪些数据呢,16位紧急指针对应的偏置量的一些数据,URG大部分情况下被设置位为0,只有有紧急指针才被设置为1,为1意味着有带外数据要插队,而带外数据在哪,由16位紧急指针确定,一次只能插入一个字节,紧急指针是一个偏置量。
ACK: 确认号是否有效
PSH:让接收缓冲区尽快把数据向上交付,让TCP中的数据尽快交给应用层
RST(链接重查):server给client发RST,代表三次握手失败,并没有建立链接,原因可能是最后一次握手时,失败,server没有收到client的应答,但是client认为已经建立好链接。
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段
16位窗口大小:指的是接收缓冲区剩余空间的容量(填发送放的接收缓冲区)想让对方不要发太快,就要让对方知道我的接收能力,16位窗口大小填的是自己的,即发送方的。谁发填谁的,目的是让对方知道我的窗口大小,用于流量控制。
先读取20个字节,拿到4位首部长度,看4位首部长度是多少。4位首部长度4 -20,就是还要读取的TCP首部。
假设4位首部长度为1001==9;94-20=16;意味着TCP的首部长度36个字节,已经读取20个字节,还要读取16个字节。首部读完之后,剩余的数据就是报文了。
16位窗口大小完成的,我们作为发送方,要给对方发数据,就要把我的窗口大小填上,tcp报头中,填的是我自己的接收缓冲区的大小,当我们在进行数据通信时,我们收到了对方的接收窗口,知道了对方的接收窗口,发多少数据我们心里是有数的,就可以流量控制了。
主机A给主机B发送数据,在一定的时间之内没有收到主机B的应答,主机A就认为自己给主机 B发的数据丢失了,需要重新发送。
主机B可能会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉. 这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
那么, 如果超时的时间如何确定?
最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”.
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.
Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2500ms 后再进行重传.
如果仍然得不到应答, 等待 4500ms 进行重传. 依次类推, 以指数形式递增.累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接。
在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接
服务端状态转化:
[CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;
[LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送SYN确认报文.
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了.
[ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
[CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
[LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接。
客户端状态转化:
[CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
[SYN_SENT -> ESTABLISHED] connect调用成功, 则进ESTABLISHED状态, 开始读写数据;
[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段;
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态.
TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态.
我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口;MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s
为什么是TIME_WAIT的时间是2MSL?
MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK)
解决TIME_WAIT状态引起的bind失败的方法
在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的。
服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求). 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产
生大量TIME_WAIT连接.由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip, 源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了, 就会出现问题. 使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符。
TIME_WAIT:要求主动断开链接的一方,要进行的等待,意义是什么:
在等待区间,没有收到FIN重传,就认为我发送的ACK对方收到了,表示链接关闭。
1、尽量保证最后一个ACK被对方收到,尽快释放服务器的资源。
2、等待曾经历史数据在网络上进行消散。例如客户端给服务器发送 在吗、吃了吗、再见。而因为网络阻塞原因,服务器只收到了再见。在吗和吃了吗在网络中阻塞着。当在吗吃了吗到达服务器时,发现 链接已经关闭了。所以要等一会,等待曾经历史数据在网络上进行消散。
TIME_WAIT:一般为2MSL,MSL为最大传送时间(即我给你发数据所用的时间,单向发送事件) 2MSL即一个来回的时间。
CLOSE_WAIT:上层没有把使用完的套接字关掉,导致服务器挂满了大量的CLOSE_WAIT状态的链接,消耗大量服务器资源。对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题。
客户端主动发起链接时,一旦客户端发送SYN,客服端立马进入SYN_SEND状态(同步发送状态),当服务端收到了SYN之后,且对其响应之后,服务端的状态就会变为SYN_RCVD状态(同步接收状态),紧接着客户端发送最后一个ACK时,客户端立马进入一个状态ESTABLISHED,代表链接建立成功,当服务端收到ACK时,此时服务 端也进入了ESTABLISHED状态,链接建立成功。
1次和udp有什么区别,如果发送一次就建立链接,那我可以给你发送大量的链接请求。服务器维护链接是有成本的,一瞬间发送大量链接就会把服务器的资源占完,导致服务器无法工作。
1次2次握手,容易受到攻击:SYN洪水攻击。客户端无条件的给服务器发SYN,服务器立马和客户端建立链接,链接建立成功,服务器就认为有链接了,一旦服务器认为有链接,就占用了服务器的资源,洪水意味着有大量的SYN,只要给服务器不断扔SYN,服务器一会就会挂掉。
3次为什么行:
(1)用最小成本验证全双工(即双方都能收和发)
tcp本质是全双工的,我能发给你消息,你也能发给我消息,双方都可以收和发,在双方通信之前,要把双方的通信信道验证一下,3次握手就可以最小成本验证通信信道。
(2)让服务器不要出现链接误判的情况,减少服务器资源的浪费。
第3次ACK丢失,客户端会认为链接已经建立好了,服务器认为3次握手没完成,服务器就不会为了维护这个链接开辟太多的成本。
4次:前3次丢包我们不会关心,只关心最后一个包,假设最后一个包丢失,最后一个包由服务器发出,服务端会认为链接已经建立好了,会为了维护这个链接开辟资源。我们只关心最后一个包是否丢失,只要丢失了,一定要有人背锅,因为一定有人发最后一次,一定要客户端背锅,因为服务器是一对多的,丢失最后一个报文的概率大大增加,如果让服务器背锅,会让服务器上挂接大量的废弃链接,所以我们要保护服务器。让服务器不要出现链接建立的误判情况,减少服务器的资源浪费。
5,7,9…次:3次行了,更多奇次一定行,但是3次握手已经验证了全双工,且是减少浪费服务器资源的最小代价了,每一次握手都要增加一次数据通信,网络本身就要在效率和成本之间考量,所以要最小成本做这件事,所以选择3次握手。
4次挥手:
当客户端向server发送FIN时,客户端的状态由ESTABLISHD变为FIN_WAIT_1,当server收到该FIN,且对该FIN,FIN应答发出ACK,随即服务端的状态由ESTABLISHD变为CLOSE_WAIT(关闭等待状态)。即client向server的信道关闭了。client不再给server发数据了(注意这里:client不给server发数据了,指的是在应用层上不再发数据, 毕竟后面还要发ACK的),client收到server的ACK后,状态由FIN_WAIT_1变为,FIN_WAIT_2,2次握手完毕。服务器向客户端发送FIN,一旦发送FIN后,服务器的状态立马由CLOSE_WAIT变为LAST_ACK状态,客户端收到FIN后,状态变为TIME_WAIT,发送ACK给server,server收到ACK后,状态变为close,立马把链接close掉,服务器断开链接。
确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候。
窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个段).发送前四个段的时候, 不需要等待任何ACK, 直接发送;
收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
窗口越大, 则网络的吞吐率就越高
那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.
情况一: 数据包已经抵达, ACK被丢了.
这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认。
情况二: 数据包就直接丢了.
当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 “我想要的是 1001” 一样;
如果发送端主机连续三次收到了同样一个 “1001” 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 “高速重发控制”(也叫 “快重传”)
有了快重传为什么还要传超时重传:
因为快重传要满足3个同样的ACK才行,如果滑动窗口太小,发不了3次ACK,快重传就失效。还有可能ACK丢失,收不到3次ACK,快重传也失效。
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应. 因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control)。
1、接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端;
2、窗口大小字段越大, 说明网络的吞吐量越高;
3、接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
4、发送端接收到这个窗口之后, 就会减慢自己的发送速度;
5、如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端。
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题. 因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
TCP引入 慢启动机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据。
此处引入一个概念为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口。
像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初使时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值,当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长。
1、当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
2、在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时将拥塞窗口置回1。
小结:
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞; 当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降; 拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案。
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.
1、假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
2、但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
3、在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
4、如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M。
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
1、数量限制: 每隔N个包就应答一次;
2、时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms。
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”; 那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端。
创建一个TCP的socket, 同时在内核中创建一个 =发送缓冲区 和一个 接收缓冲区;
1、调用write时, 数据会先写入发送缓冲区中;
2、如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
3、如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
4、接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
5、然后应用程序可以调用read从接收缓冲区拿数据;
6、另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工。
由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:
写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次。
什么是面向字节流:
TCP不关心接收/发送缓冲区中数据的内容是什么,tcp不关心上层给我的是什么东西,作为发送方不关心上层给我的是什么东西,我直接放到我的发送缓冲区里,结合拥塞控制+流量控制,适时的数据发送给对方就可以了,具体数据的格式或边界都不关心。这就是面向字节流。作为接收方,当收到一批数据后,这一批数据是没有边界的,所以在上一层一定要对收到的数据做某种格式化的处理,能够按照特定的协议分成有效的信息,进而进行处理,http是基于tcp的,tcp的接收/发送缓冲区里放的都是http的请求和响应。当一次面向对方发起大量的请求/响应时,对方拿到的基本都是数据流这样的东西,我们需要在应用层结合http协议来进行对字节流的信息进行协议处理。
1、首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包.
2、在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段.
3、站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
4、站在应用层的角度, 看到的只是一串连续的字节数据.
5、那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包。
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
http可以解决粘包问题:空行+content-length可以读取完整的报文。
思考: 对于UDP协议来说, 是否也存在 “粘包问题” 呢?
对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况,所以UDP不存在粘包问题。
TCP链接的3中情况:
1、链接刚建立好,客服端程序崩溃了,刚建立后的链接怎么办,会正常释放,所谓的链接在建立之前,必须先创建套接字来建立链接,所谓的链接在程序上本质就是一个文件描述符,LINUX下一切皆文件,链接可以当文件看待,打开的文件的生命周期随进程,只要进程退出了,文件一定会被OS自动回收。如果是一个程序崩溃了,曾经打开的文件在系统层面上会自动释放,链接也是文件,程序崩溃了,OS会自动将它干掉,OS会帮你关掉对应的文件,就是OS会帮你进行4次挥手。也就是调用两次close,调用一次close完成2次挥手。
2、笔记本直接关机,曾经的链接怎么处理:正常关闭,例如:当我们关机时,windows会提示我们,当前还有一些进程尚未关闭,某某程序正在运行,是否确认关机,OS会自动帮我们释放文件。
3、将网线直接拔了,双方链接会怎样:不会正常释放,软件上建立的链接,如果要关闭链接的话,要通过软件的方式,至少要双方发起4次挥手,当网线拔了之后,客服端会检测出网络发生变化,网络已经断开,4次挥 手报文发送不出去,服务器还不知道链接已经关了,要主动去侦测,发现对方已经关闭链接了,服务器再关闭链接。
为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能
可靠性:
1、校验和
2、序列号(按序到达)
3、确认应答
4、超时重发
5、连接管理
6、流量控制
7、拥塞控制
提高性能:
1、滑动窗口
2、快速重传
3、延迟应答
4、捎带应答
基于TCP应用层协议
HTTP
HTTPS
SSH
Telnet
FTP
SMTP
当然, 也包括你自己写TCP程序时自定义的应用层协议
我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进比较。
TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定
Linux内核协议栈为一个tcp连接管理使用两个队列:
半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)
全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)而全连接队列的长度会受到 listen 第二个参数的影响.
全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了.这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1。
为什么要有排队队列?
排队的目的是为了保证服务器资源被百分比使用
队列必须有但不能太长,为什么?
当服务器满载时,突然空出来时,立马能够从底层拿上来连接,立马进行处理。为什么不能太长:队列长,不如多创建一些线程,或任务多搞几个,同时可以吞吐更多的服务。
全链接队列的长度,是listen第2个参数+1,为什么是+1,因为内核中比较你的链接数是否已经达到上限,用的是大于符合,即当前链接队列大于最大链接队列。如果第2个参数是2,那么全链接队列的大小为3.
半连接:允许客户丢失。