gRPC 支持四种通信模式,分别是简单 RPC、服务端流式 RPC、客户端流式 RPC 和双向流式 RPC。
在gRPC中,一个简单的RPC调用遵循请求-响应模型,通常涉及以下几个关键步骤和组件:
从 client 端的角度来看,简单 RPC 和服务端流式 RPC 具有相同的请求消息流。在这两种情况下,我们都会发送一条请求消息。主要区别在于 server 端。server 端会发送多条消息,而不是向 client 端发送一条响应消息。server 端一直等待,直到收到完整的请求消息,之后发送响应头和多个带长度前缀的消息。一旦 server 端发送带有状态详细信息的 Trailers 标头,通信就会结束。
在客户端流式 RPC 中,client 端向 server 端发送多条消息,server 端发送一条响应消息作为回复。client 端首先通过发送请求头帧建立与 server 端的连接。建立连接后,client 端会向 server 端发送多个长度前缀消息作为数据帧。最后,client 端通过在最后一个数据帧中发送一个 EOS 标志来半关闭连接。同时,server 端读取从 client 端接收到的消息。一旦接收到所有消息,server 端就会发送响应消息以及 Trailers 标头并关闭连接。
在此模式中,client 端通过发送请求头帧来建立连接。一旦建立连接,client 端和 server 端都可以直接发送多个长度前缀消息,而无需等待对方完成。双方都可以自主结束连接,这意味着他们不能再发送任何消息。
如下图所示,gRPC 采用分层架构实现。
通过这种层次结构,gRPC实现了从底层网络操作到高级应用逻辑的完全抽象,允许开发人员集中精力在RPC逻辑的实现上,而无需担心底层的网络细节。这种架构不仅使得代码更易于管理和扩展,还支持跨语言和跨平台的通信,大大提高了开发效率。
在gRPC中,Metadata是通过HTTP/2 headers和trailers来传输的。Metadata是键值对的集合,用于传递与请求或响应相关的附加信息。这些信息可能包括诸如认证令牌、自定义消息头、请求ID等。
在一个典型的gRPC调用中,客户端会首先发送包含Metadata的HTTP/2 headers,然后发送编码后的RPC message。服务端在接收到这些信息后,会解析Metadata和RPC message,并根据这些执行相应的操作,然后返回响应和响应的Metadata。
会,但是是异步连接的,连接状态为正在连接。但如果你设置了 grpc.WithBlock 选项,就会阻塞等待(等待握手成功)。另外你需要注意,当未设置 grpc.WithBlock 时,ctx 超时控制对其无任何效果。
会,除非你的客户端不是常驻进程,那么在应用结束时会被动地回收资源。但如果是常驻进程,你又真的忘记执行 Close 语句,会造成的泄露。如下图:
短时间内不会出现问题,但是会不断积蓄泄露,积蓄到最后当然就是服务无法提供响应了。如下图:
func chainUnaryClientInterceptors(cc *ClientConn) {
interceptors := cc.dopts.chainUnaryInts
if cc.dopts.unaryInt != nil {
interceptors = append([]UnaryClientInterceptor{cc.dopts.unaryInt}, interceptors...)
}
var chainedInt UnaryClientInterceptor
if len(interceptors) == 0 {
chainedInt = nil
} else if len(interceptors) == 1 {
chainedInt = interceptors[0]
} else {
chainedInt = func(ctx context.Context, method string, req, reply interface{}, cc *ClientConn, invoker UnaryInvoker, opts ...CallOption) error {
return interceptors[0](ctx, method, req, reply, cc, getChainUnaryInvoker(interceptors, 0, invoker), opts...)
}
}
cc.dopts.unaryInt = chainedInt
}
当存在多个拦截器时,取的就是第一个拦截器。因此结论是允许传多个,但并没有用。
可以使用 go-grpc-middleware 提供的 grpc.UnaryInterceptor 和 grpc.StreamInterceptor 链式方法,方便快捷省心。
这个问题我们可以反向验证一下,假设不共用 ClientConn 看看会怎么样?如下:
func BenchmarkSearch(b *testing.B) {
for i := 0; i < b.N; i++ {
conn, err := GetClientConn()
if err != nil {
b.Errorf("GetClientConn err: %v", err)
}
_, err = Search(context.Background(), conn)
if err != nil {
b.Errorf("Search err: %v", err)
}
}
}
输出结果
... connection error: desc = "transport: Error while dialing dial tcp :10001: socket: too many open files"
... connection error: desc = "transport: Error while dialing dial tcp :10001: socket: too many open files"
... connection error: desc = "transport: Error while dialing dial tcp :10001: socket: too many open files"
... connection error: desc = "transport: Error while dialing dial tcp :10001: socket: too many open files"
FAIL
exit status 1
当你的应用场景是存在高频次同时生成/调用 ClientConn 时,可能会导致系统的文件句柄占用过多。这种情况下你可以变更应用程序生成/调用 ClientConn 的模式,又或是池化它,这块可以参考 grpc-go-pool 项目。
会不断地进行重试,直到上下文取消。而重试时间方面采用 backoff 算法作为的重连机制,默认的最大重试时间间隔是 120s。
许多客户端要通过 HTTP 代理来访问网络,gRPC 全部用 HTTP/2 实现,等到代理开始支持 HTTP/2 就能透明转发 gRPC 的数据。不光如此,负责负载均衡、访问控制等等的反向代理都能无缝兼容 gRPC,比起自己设计 wire protocol 的 Thrift,这样做科学不少。
gRPC 是一个高性能的远程过程调用(RPC)框架,它主要依赖于两个关键技术:Protocol Buffers和HTTP/2。
结合这两个高效的协议,gRPC能够提供低延迟、高吞吐量和高可扩展性,使其成为一个理想的选择用于构建分布式系统和微服务架构。同时,多路复用和高效的数据序列化也使得gRPC非常适用于移动应用、IoT设备以及其他网络受限的场景。
https://segmentfault.com/a/1190000019608421
https://learnku.com/articles/72847