fabric源码解析6——GRPC服务

fabric源码解析6–GRPC服务

GRPC简介

GRPC是由自谷歌开发的一项多语言开源的RPC技术,在fabric用于实现客户端与服务器端的远程调用。比如chaincode,客户定义了一项rpc服务并相应生成了客户端代码和服务端代码,在此基础上进行业务逻辑上的开发后,分别运行服务端代码和客户端代码,实现客户端调用服务器端服务的目的。由于gprc相对来说还是很复杂的,所有还请自行学习。在gprc官网非常详细的资料和例子。

极其粗线条的写一下grpc的用法,为后文伏笔:

1. XXX.proto文件中定义一个rpc服务

service Events {
    rpc Chat(stream SignedEvent) returns (stream Event) {}
}

2. 命令行使用protoc生成对应的XXX.pb.go源码

在XXX.pb.go中,Client API for Events service处为供客户端使用的接口定义、接口实例、接口实例的初始化函数Server API for Events service处为供服务端使用的接口定义注册函数

如果其中某一端或同时两端为流式RPC,在有流的一端,会专门为其流生成接口定义、接口实例。可以直接使用生成的实例,也可以自己实现接口,自定义实例。接口定义的主要方法就是SendRecv

protoc --go_out=plugins=grpc:. XXX.proto

3. 编写客户端代码

//注意,由于目前我们关注的是peer node start,而其启动的基本都是后台服务端的服务,
//因此本文中不涉及客户端的代码。

    //填充grpc网络链接连接选项
    var opts []grpc.DialOption
    opts = append(opts, grpc.WithInsecure())
    //创建连接服务器端的grpc连接对象
    conn, err := grpc.Dial("0.0.0.0:7051", opts...)
    defer conn.Close()
    //使用连接对象做参数,利用XXX.pb.go中的初始化函数创建grpc客户端对象
    client := NewEventsClient(conn)
    //调用服务
    client.Chat(...)

4. 编写服务端代码

    //定义一个监听对象,即服务器监听的地址
    lis,err := net.Listen("tcp",":7051")
    //创建grpc服务器选项并填充
    var serverOpts []grpc.ServerOption
    //创建标准的grpc服务器对象
    server = grpc.NewServer(serverOpts...)
    //创建服务端对象,根据XXX.pb.go中生成的接口定义,自己实现服务端接口
    type eventSever{...}
    func (e *eventSever)Chat(...){...}
    es := new(eventServer)
    //使用XXX.pb.go中的注册函数注册服务,注册到grpc服务器对象
    RegisterEventsServer(server,es)
    //根据监听对象启动grpc服务器对象
    server.Serve(lis)

fabric中的grpc服务接口和实例

/fabric/core/comm/server.go中,定义了安全配置项,GPRCServer的接口、实现和初始化函数。默认情况下fabric中是不使用tls的。

TLS安全配置项

type SecureServerConfig struct {
    //Whether or not to use TLS for communication
    UseTLS bool
    //PEM-encoded X509 public key to be used by the server for TLS communication
    //在core.yaml中指定,读取的tls目录下server.cert文件数据存储于此
    ServerCertificate []byte
    //PEM-encoded private key to be used by the server for TLS communication
    //在core.yaml中指定,读取的tls目录下server.key文件数据存储于此
    ServerKey []byte
    //Set of PEM-encoded X509 certificate authorities to optionally send
    //as part of the server handshake
    //在core.yaml中指定,读取的tls目录下ca.crt文件数据存储于此
    ServerRootCAs [][]byte
    //Whether or not TLS client must present certificates for authentication
    RequireClientCert bool
    //Set of PEM-encoded X509 certificate authorities to use when verifying
    //client certificates
    ClientRootCAs [][]byte
}

GRPCServer接口

type GRPCServer interface {
    //返回GRPCServer监听的地址
    Address() string
    //启动下层的grpc.Server
    Start() error
    //停止下层的grpc.Server
    Stop()
    //返回GRPCServer实例对象
    Server() *grpc.Server
    //返回GRPCServer使用的网络监听实例对象
    Listener() net.Listener
    //返回grpc.Server使用的Certificate
    ServerCertificate() tls.Certificate
    //标识GRPCServer实例是否使用TLS
    TLSEnabled() bool
    //增加PEM-encoded X509 certificate authorities到
    //用于验证客户端certificatesauthorities列表
    AppendClientRootCAs(clientRoots [][]byte) error
    //用于验证客户端certificatesauthorities列表中
    //删除PEM-encoded X509 certificate authorities
    RemoveClientRootCAs(clientRoots [][]byte) error
    //基于一个PEM-encoded X509 certificate authorities列表
    //设置用于验证客户端certificatesauthorities列表
    SetClientRootCAs(clientRoots [][]byte) error
}

GRPCServer实现实例

type grpcServerImpl struct {
    //server指定的监听地址,地址格式:hostname:port
    address string
    //监听address的监听对象,用于处理网络请求
    listener net.Listener
    //标准的grpc服务器,通过此对象进行各种grpc服务操作
    server *grpc.Server
    //Certificate presented by the server for TLS communication
    serverCertificate tls.Certificate
    //Key used by the server for TLS communication
    serverKeyPEM []byte
    //List of certificate authorities to optionally pass to the client during
    //the TLS handshake
    serverRootCAs []tls.Certificate
    //lock to protect concurrent access to append / remove
    lock *sync.Mutex
    //Set of PEM-encoded X509 certificate authorities used to populate
    //the tlsConfig.ClientCAs indexed by subject
    clientRootCAs map[string]*x509.Certificate
    //TLS configuration used by the grpc server
    tlsConfig *tls.Config
    //Is TLS enabled?
    tlsEnabled bool
}
同文件中的NewGRPCServerFromListener函数是grpcServerImpl的初始化函数,其中tls相关代码使用到了crypto下的tls、x509工具库。

peer node start启动的grpc服务

start.goserve函数中,创建的GRPCServer服务对象有两个:

  • peerServer
  • globalEventsServer

peer服务器peerServer,在/fabric/core/peer/peer.go中定义。事件服务器globalEventsServer,是一个全局单例,在/fabric/events/producer/producer.go中定义。

peerServer

创建peerServer

追溯serve函数中peerServer对象的创建,代码最终都使用了/fabric/core/comm/server.go中的NewGRPCServerFromListener函数创建了一个grpcServerImpl实例对象,对象中的。

//在serve函数中
peerServer, err := peer.CreatePeerServer(listenAddr, secureConfig)

//在CreatePeerServer函数中
peerServer, err = comm.NewGRPCServer(listenAddress, secureConfig)

//在NewGRPCServer函数中
lis, err := net.Listen("tcp", address)
NewGRPCServerFromListener(lis, secureConfig)

//在NewGRPCServerFromListener函数中,最终建立grpc标准服务器并返回grpcServerImpl
grpcServer.server = grpc.NewServer(serverOpts...)
return grpcServer

注册服务

注册ChaincodeSupport服务

这是我们第一次遇到ChaincodeSupport这个对象,分为ChaincodeSupport服务原型和对应定义的ChaincodeSupport对象。从名称上就可以看出,是对fabric的chaincode提供一系列。自然,peer的grpc服务中关于chaincode的操作需要这种支持服务。而ChaincodeSupport对象本身比较复杂,在/fabric/core/chaincode/chaincode_support.go中定义,提供了一干配置值成员和chaincode的运行环境,也实现了很多接口,如该处提到的服务所需的Register函数。因在此侧重与grpc服务,因此不展开详述。

服务原型定义:

ChaincodeSupport服务原型在/fabric/protos/peer/chaincode_shim.proto中定义,相应生成chaincode_shim.pb.go源码,在此只展示其中生成的服务端定义。

//服务原型
service ChaincodeSupport {
rpc Register(stream ChaincodeMessage) returns (stream ChaincodeMessage) {}
}
//生成服务端的接口和注册函数
type ChaincodeSupportServer interface {
Register(ChaincodeSupport_RegisterServer) error
}
func RegisterChaincodeSupportServer(s *grpc.Server, srv ChaincodeSupportServer){
s.RegisterService(&_ChaincodeSupport_serviceDesc, srv)
}
//生成的服务端流的接口定义、接口实例
type ChaincodeSupport_RegisterServer interface {
Send(*ChaincodeMessage) error
Recv() (*ChaincodeMessage, error)
grpc.ServerStream
}//接口
type chaincodeSupportRegisterServer struct {
grpc.ServerStream
}//接口实口

注册服务:

在serve函数中使用registerChaincodeSupport(peerServer.Server())完成注册。在该函数中:

//创建了一个ChaincodeSupport对象,基本都是读取配置值填充成员
//ChaincodeSupport对象实现了生成的服务端接口ChaincodeSupportServer中的Register方法
ccSrv := chaincode.NewChaincodeSupport(...)
//利用生成的注册函数,完成注册
pb.RegisterChaincodeSupportServer(grpcServer, ccSrv)

在registerChaincodeSupport中还有一句scc.RegisterSysCCs()实现了系统链的注册,将在系统链主题文章中进行详述。

Register实现:

将在ChaincodeSupport主题文章中详述。

注册的其他服务

关于peerServer所注册的服务,还有AdminServerEndorserServerGossipService,注册的方式和注册ChaincodeSupport服务一样,毕竟都是用的gprc,还是万变不离其宗的。各个服务到底负责什么,会做什么,将会在相应主题文章中详述。

globalEventsServer

//在/fabric/events/producer/producer.go中定义
//全局单例
var globalEventsServer *EventsServer
//定义和Chat实现
type EventsServer struct {
}
func (p *EventsServer) Chat(stream pb.Events_ChatServer) error {...}
//初始化函数
func NewEventsServer(bufferSize uint, timeout int) *EventsServer {...}

事件服务器这个全局单例没有任何成员,只有一个专用初始化函数NewEventsServer,一个Chat实现。这一切看上去非常简单,只是在专用初始化函数中的一句initializeEvents(bufferSize, timeout)又牵扯出了一段文字。原来globalEventsServer自己只是一个事件服务器的代表,实际做事情的是initializeEvents(bufferSize, timeout)初始化并运行的eventProcessor对象,下文细说。

在serve函数中,使用ehubGrpcServer, err := createEventHubServer(secureConfig)完成了对事件服务器的创建和注册,ehubGrpcServer承接的就是globalEventsServer这个全局单例。

创建globalEventsServer

//在createEventHubServer中
//创建grpcServerImpl对象,其中包含了grpc标准服务器
lis, err = net.Listen("tcp", viper.GetString("peer.events.address"))
grpcServer, err := comm.NewGRPCServerFromListener(lis, secureConfig)

//创建事件服务器,NewEventsServer返回的就是globalEventsServer
ehServer := producer.NewEventsServer(
        uint(viper.GetInt("peer.events.buffersize")),
        viper.GetInt("peer.events.timeout"))

注册事件服务

事件服务原型定义:

事件服务原型在/fabric/protos/peer/events.proto中定义,相应生成events.pb.go源码,在此只展示其中生成的服务端定义。

//服务原型
service Events {
rpc Chat(stream SignedEvent) returns (stream Event) {}
}
//生成服务端的接口和注册函数
type EventsServer interface {
Chat(Events_ChatServer) error
}
func RegisterEventsServer(s *grpc.Server, srv EventsServer) {
s.RegisterService(&_Events_serviceDesc, srv)
}
//生成的服务端流的接口定义、接口实例
type Events_ChatServer interface {
Send(*Event) error
Recv() (*SignedEvent, error)
grpc.ServerStream
}//接口
type eventsChatServer struct {
grpc.ServerStream
}//接口实例

注册服务:

//还是在createEventHubServer中
//ehServer对象实现了生成的服务端接口EventsServer的Chat方法
//利用生成的注册函数,完成注册
pb.RegisterEventsServer(grpcServer.Server(), ehServer)

Chat实现:

Chat的操作很清晰,循环的接收数据然后处理数据,即处理客户端的Chat调用,这也自然而然的是grpc服务端所要做的。

  • handler, err := newEventHandler(stream),根据服务端流接口stream创建一个handler,用于处理接收的客户端发送的SignedEvent类型数据。handler于后文详述。
  • in, err := stream.Recv(),接收SignedEvent类型的数据,这也是gprc双向流的标准用法。
  • err = handler.HandleMessage(in),使用handler处理数据,HandleMessage是实际的数据处理函数。

在HandleMessage函数中,客户端发送签名过的SignedEvent类型数据,检查有效性后,若是注册或注销事件,则注册或注销,并返回Event类型数据;若是其他类型的事件,则打印一条错误消息后返回。

  • evt, err := validateEventMessage(msg),利用local MSP验证数据的有效性。关于local MSP将在对应主题文章中详述。
  • switch evt.Event.(type) {...},判断事件类型,并对注册事件或注销事件进行注册或注销。
  • if err := d.ChatStream.Send(evt);err != nil{...},若是注册事件或注销事件,执行相应操作之后返回Event数据给客户端,该数据是在验证函数validateEventMessage中获取的。

启动事件服务

在serve函数中靠后的地方,if ehubGrpcServer != nil {go ehubGrpcServer.Start()}将该服务的gprc服务端启动起来了。Start内部调用了grpc服务器启动的标准函数server.Serve(lis)

事件实际处理者eventProcessor

事件处理者也是一个全局单例,接收不同类型的事件进行处理。在/fabric/events/events.go中定义,结构如下:

fabric源码解析6——GRPC服务_第1张图片

在eventProcessor的成员中:

eventConsumers

按照事件类型分类的事件处理链条,处理链handlerList接口有两种具体实现:一般处理链genericHandlerList和chaincode专用处理链chaincodeHandlerList。在此以一般处理链为例,其实现了对handlers三个操作:add,del,foreach。其中遍历操作foreach则对handlers中的每个handler执行了由参数指定的动作。这里的handlers映射了handler与bool值,bool值应该是起到类似于开关的作用。

handler/fabric/events/handle.go中定义,其成员ChatStream是一个events.pb.go中生成的Events_ChatServer类型的gprc流接口,用于发送流数据。handler挂载了一系列操作函数,如registerHandleMessageSendMessageStop

eventChannel

带缓存且专门处理Event类型数据的事件频道,所有的事件都是通过此频道分发出去的。缓存大小由core.yaml定义为100,由initializeEvents的参数带进来并设置。Event类型在由events.proto中定义并对应生成events.pb.go中定义。

timeout

频道eventChannel若满时等待的时间,在core.yaml中设置并有释义。

我们将从其初始化函数,也就是上文提到的initializeEvents入手,分析事件处理者eventProcessor。

事件类型

initializeEvents的前两句很容易理解,if gEventProcessor != nil{...}只为保证gEventProcessor的单例性质,gEventProcessor = &eventProcessor{...}则为gEventProcessor创建了对象实例,分配了内存空间。而addInternalEventTypes(),实质4次调用了AddEventType,则为添加内部事件类型并相应的分配了这些类型各自的处理链handlerList。

添加的已知的事件类型由/fabric/protos/peer/events.proto中定义,对应生成的events.pb.go中的四种:

  • EventType_BLOCK - 块事件,对应genericHandlerList
  • EventType_CHAINCODE - chaincode事件,对应chaincodeHandlerList
  • EventType_REGISTER - addInternalEventTypes中有但是AddEventType未做处理
  • EventType_REJECTION - 拒绝事件,对应genericHandlerList

start函数

initializeEvents最后一句就是go gEventProcessor.start(),就是另起一个goroutine运行全局单例gEventProcessor的start函数。start函数是一个死循环,不断从eventChannel中接收数据Event类型数据并处理。过程如下:

  • e := <-ep.eventChannel,获取一个事件e
  • eType := getMessageType(e),获取事件e的类型eType
  • if hl, _ = ep.eventConsumers[eType]; hl == nil {...},根据eType获取该事件类型的处理链hl,同时判断该类型是否存在,若不存在则会被忽略本次事件而continue继续处理下一个事件。
  • hl.foreach(...),调用hl的foreach函数,foreach遍历了hl.handlers中的每个handler,并对每个handler执行第二个参数指定的动作。该动作为func(h *handler){if e.Event != nil{h.SendMessage(e)}},即调用每个handler的SendMessage发送事件e。SendMessage则是使用handler中自有的ChatStream这个生成的grpc流服务接口去发送事件e:err := d.ChatStream.Send(msg)

流程图如下:

fabric源码解析6——GRPC服务_第2张图片

你可能感兴趣的:(Fabric)