基于c++的分布式网络框架,项目基于muduo高性能网络库+Protobuf开发,实现的主要功能了是通过zookeeper实现服务注册以及发现,muduo网络库以及Protobuf实现远程RPC调用,异步日志。
分布式网络通信整个流程框架如下:
集群和分布式概念以及原理
RPC远程过程调用原理以及实现
Protobuf数据序列化和反序列化协议
ZooKeeper分布式一致性协调服务应用以及编程
muduo网络库编程
conf配置文件读取
异步日志
CMake构建项目集成编译环境
集群:每一台服务器独立运行一个工程的所有模块。缺点是:虽然用户的并发量得到了增加但是,有一个api,函数的修改整个项目代码都需要进行重新的编译并且需要进行多次部署。
分布式:一个工程拆分了很多模块,每一个模块独立部署运行在一个服务器主机上,所有服务器协同工作共同提供服务,每一台服务器称作分布式的一个节点,根据节点的并发要求,对一个节点可以再做节点模块集群部署。比如说一些模块使用量少,并发量少,只需要部署到一台服务器就行了。
RPC是Remote Procedure Call(远程过程调用)的缩写,该技术可以让一台服务器上的服务通过网络调用另一台服务器上的服务,简单来说就是让不同网络节点上的服务相互调用。.因此 RPC框架会封装网络调用的细节,让调用远程服务看起来像调用本地服务一样简单。由于微服务架构的兴起,RPC的概念得到广泛应用,在消息队列、分布式缓存、分布式数据库等多个领域都有用到。可以将RPC理解为连接两个城市的高速公路,让车辆能够在城市之间自由通行。由于 RPC屏蔽了远程调用和本地调用的区别,因此程序开发者无须过多关注网络通信,可以把更多精力放到业务逻辑的开发上。
rpc工作原理如下:
1、客户端调用本地代理:客户端通过调用本地代理来访问服务器上的方法。这个代理通常是在客户端和服务器之间建立起来的一个桥梁,可以将远程方法调用转化成本地方法调用。
2、代理封装请求:本地代理把对远程对象的调用封装成一种标准格式的消息,然后将消息发送给服务端。
3、消息传输到服务端:消息通过网络传输到服务端。
4、服务端解析请求:服务端接收到消息后,需要进行解析,找到对应的远程方法,并处理请求得到结果。
5、服务端封装响应:服务端将处理的结果打包成一个返回消息,同样按照标准格式发送到客户端。
6、消息传回客户端:消息通过网络返回给本地代理。
7、代理解析响应:本地代理接收响应消息后解析,返回给调用者。
总结:rpc的工作逻辑就是客户端调用代理时,代理封装请求并发送给服务端,服务端处理完成后将结果发送给代理,代理解析响应后返回给调用者,让调用者看上去好像是直接调用了本地方法一样
rpc 协议栈
rpc 协议需要使用以下协议层:
应用层:由 rpc 库或框架提供,支持编程语言各自的数据类型和序列化、反序列化实现
传输层:通常基于 tcp 或 udp 实现,以提供可靠的数据传输
网络层:负责在不同的网络之间传输数据,通常使用 ip 协议
数据链路层和物理层:实现寻址、帧传输和物理接口等功能
工作原理图:
黄色部分:设计rpc方法参数的打包和解析,也就是数据的序列化和反序列化,使用Protobuf。
绿色部分:网络部分,包括寻找rpc服务主机,发起rpc调用请求和响应rpc调用结果。
rpc的主要优势:它可以让不同编程语言的应用程序之间进行通信,只需要客户端和服务器都支持相同的协议即可。另外,无论使用哪种语言,开发人员都可以将远程方法调用看
protobuf(protocol buffer)是google 的一种数据交换的格式,它独立于平台语言。
google 提供了protobuf多种语言的实现:java、c#、c++、go 和 python,每一种实现都包含了相应语
言的编译器以及库文件。
由于它是一种二进制的格式,比使用 xml(20倍) 、json(10倍)进行数据交换快许多。可以把它用
于分布式应用之间的数据通信或者异构环境下的数据交换。作为一种效率和兼容性都很优秀的二进制数
据传输格式,可以用于诸如网络传输、配置文件、数据存储等诸多领域。
首先是声明protobuf的版本,以及代码所在的包(对于C++来说是namespace),如果需要生成服务类以及rpc方法描述就需要配置cc_generic_services。
syntax = "proto3"; // 声明了protobuf的版本
package fixbug; // 声明了代码所在的包(对于C++来说是namespace)
// 定义下面的选项,表示生成service服务类和rpc方法描述,
option cc_generic_services = true;
定义数据,可以定义嵌套类型,枚举以及数组等等类型
message ResultCode
{
int32 errcode = 1;
bytes errmsg = 2;
}
// 数据 列表 映射表
// 定义登录请求消息类型 name pwd
message LoginRequest
{
bytes name = 1;
bytes pwd = 2;
}
// 定义登录响应消息类型
message LoginResponse
{
ResultCode result = 1;
bool success = 2;
}
message GetFriendListsRequest
{
uint32 userid = 1;
}
message User
{
bytes name = 1;
uint32 age = 2;
// 枚举
enum Sex
{
MAN = 0;
WOMAN = 1;
}
Sex sex = 3;
}
message GetFriendListsResponse
{
ResultCode result = 1;
repeated User friend_list = 2; // 定义了一个列表类型
}
定义描述rpc方法的类型 :
service UserServiceRpc
{
rpc Login(LoginRequest) returns(LoginResponse);
rpc GetFriendLists(GetFriendListsRequest) returns(GetFriendListsResponse);
}
生成对应的c++文件命令
protoc test.proto --cpp_out=.
首先要导入生成的头文件以及使用他的作用域
#include "test.pb.h"
using namespace fixbug;
序列化的时候对于嵌套类型 应该先要获取其对象的常量引用 :
GetFriendListsResponse rsp;
ResultCode* rc = rsp.mutable_result();
rc->set_errcode(1);
rc->set_errmsg("asdasdasd");
User* user1 = rsp.add_friend_list();
user1->set_name("zhang san");
user1->set_age(20);
user1->set_sex(User::MAN);
User* user2 = rsp.add_friend_list();
user2->set_name("li si");
user2->set_age(22);
user2->set_sex(User::MAN);
// 序列化
string send_str;
if (rsp.SerializeToString(&send_str)) {
cout << send_str << endl;
}
反序列化
GetFriendListsResponse rsp2;
// 获取反序列化的
if (rsp2.ParseFromString(send_str)) {
const ResultCode& result = rsp2.result(); // 获取 ResultCode 对象
int32_t errcode = result.errcode(); // 获取 errcode 字段值
string errmsg = result.errmsg(); // 获取 errmsg 字段值
cout << errmsg << endl;
}
for (int i = 0; i < rsp2.friend_list_size(); ++i) {
const User& user = rsp2.friend_list(i);
std::string name = user.name();
uint32_t age = user.age();
User_Sex sex = user.sex();
cout << name << ":" << age << endl;
}
因为调用者与被调用者都需要知道服务名以及方法名字。所以用一个protobuf作为字节流传输的头部信息。这其中包含了服务名字,方法名字以及参数长度,三个数据。
message RpcHeader{
bytes service_name =1;
bytes method_name =2;
uint32 args_size=3;
}
框架主要功能读取config配置文件数据。数据敦促在m_config这个类中。
MprpcConfig MprpcApplication::m_config;
void MprpcApplication::init(int argc, char** argv) {
if (argc < 2) {
cout << "format command -i " << endl;
exit(EXIT_FAILURE);
}
// 检查格式对不对
int c = 0;
string config_file;
while ((c = getopt(argc, argv, "i:")) != -1) {
switch (c) {
case 'i':
config_file = optarg;
cout << "///get config file:" << config_file << endl;
break;
case '?':
cout << "format command -i " << endl;
exit(EXIT_FAILURE);
case ':':
cout << "format command -i " << endl;
exit(EXIT_FAILURE);
default:
break;
}
}
// 读取配置文件信息 ip port zookeeper——ip zookeeper——port
// 存储在这个m_config成员变量中
m_config.LoadConfigFile(config_file.c_str());
}
MprpcApplication& MprpcApplication::GetInstance() {
static MprpcApplication app;
return app;
}
MprpcConfig& MprpcApplication::GetConfig() {
return m_config;
}
首先检测配置文件是否存在,然后逐行读取,最后存储在一个k-v字典中。该类提供读取key以及加载配置文件的功能。Trim是一个去掉字符串前后的空格的函数。
class MprpcConfig {
private:
unordered_map<string, string> m_configMap;
public:
void LoadConfigFile(const char* confi_file);
string Load(const string& key);
void Trim(string& src_buf);
};
void MprpcConfig::LoadConfigFile(const char* config_file) {
LOG_INFO("=====================Load Config File !!=====================");
FILE* pf = fopen(config_file, "r");
if (!pf) {
LOG_ERR("%s is not exist!!", config_file);
LOG_ERR("%s:%s:%d", __FILE__, __FUNCTION__, __LINE__);
cout << config_file << "is not exist!!" << endl;
}
// 每一行进行 读取
// 1.注释 2.正确的配置项 = 3.去掉开头的多余的空格
while (!feof(pf)) {
char buf[512] = {0};
fgets(buf, 512, pf);
// 去掉字符串前面多余的空格
std::string read_buf(buf);
Trim(read_buf);
// 判断#的注释
if (read_buf[0] == '#' || read_buf.empty()) {
continue;
}
// 解析配置项
int idx = read_buf.find('=');
if (idx == -1) {
// 配置项不合法
continue;
}
std::string key;
std::string value;
key = read_buf.substr(0, idx);
Trim(key);
// rpcserverip=127.0.0.1\n
int endidx = read_buf.find('\n', idx);
value = read_buf.substr(idx + 1, endidx - idx - 1);
Trim(value);
cout << "get kv==> " << key << ":" << value << endl;
LOG_INFO("get kv==> %s:%s", key.c_str(), value.c_str());
m_configMap.insert({key, value});
}
fclose(pf);
}
// 查询配置项信息
std::string MprpcConfig::Load(const std::string& key) {
auto it = m_configMap.find(key);
if (it == m_configMap.end()) {
return "";
}
return it->second;
}
zookeeper 是一个开源的分布式协调服务框架,由雅虎公司开发并贡献给 apache 基金会,它为分布式应用程序提供了高可用、高性能且一致的工作空间。
zookeeper 可以处理众多的分布式系统问题,例如:
充当命名服务:通过在zookeeper中注册一个节点并将它命名,其他进程就可以使用该名称来找到该节点。
分布式配置管理:应用程序可以使用 zookeeper 来管理其配置信息。因此,在更改配置时,无需重新启动整个应用程序。
处理分布式锁:在分布式环境中,许多进程需要对相同资源进行更新操作。使用 zookeeper,可以实现分布式锁定功能,确保这些更新互斥执行。
分布式队列:zookeeper 还支持分布式队列,并提供了一种轻量级的方法来实现“先进先出”和“后进先出”(lifo)队列等各种队列类型。
目的就是由服务名以及方法名组成的节点中存储ip以及端口,并且是临时性节点pc节点超时未发送心跳消息Zk会自动删除临时性节点,服务发布者根绝服务名以及方法名形成节点存储开启该服务的ip以及端口,服务调用者就根据这个这个节点找到对饮的ip地址以及端口调用对应的服务以及方法。所以这个类必须包含有启动函数,构造函数,以及创建节点和返回节点数据函数。
class ZkClient {
public:
ZkClient();
~ZkClient();
void Start();
void Create(const char* path, const char* data, int datalen, int state = 0);
std ::string GetData(const char* path);
private:
// zk的客户端句柄
zhandle_t* m_zhandle;
};
1、启动函数
首先根据应用程序的配置文件中的“zookeeperip”和“zookeeperport”加载zookeeper服务器的ip地址和端口号,然后将它们组合成zookeeper连接字符串。
接下来,代码调用zookeeper_init函数来初始化zookeeper客户端。
初始化一个名为sem的信号量,并通过zoo_set_context函数将它与m_zhandle关联起来。然后,代码调用sem_wait函数等待zk server的响应。在等待期间,当前线程会被挂起,当zk client连接到zk server并建立成功时,会触发global_watcher回调函数,在回调函数中会调用sem_post函数,使代码继续执行。
void global_watcher(zhandle_t* zh,
int type,
int state,
const char* path,
void* watcherCtx) {
if (type == ZOO_SESSION_EVENT) // 回调的消息类型是和会话相关的消息类型
{
if (state == ZOO_CONNECTED_STATE) // zkclient和zkserver连接成功
{
sem_t* sem = (sem_t*)zoo_get_context(zh);
sem_post(sem);
}
}
}
// 连接zkserver
void ZkClient::Start() {
std::string host =
MprpcApplication::GetInstance().GetConfig().Load("zookeeperip");
std::string port =
MprpcApplication::GetInstance().GetConfig().Load("zookeeperport");
std::string connstr = host + ":" + port;
/*
zookeeper_mt:多线程版本
zookeeper的API客户端程序提供了三个线程
API调用线程
网络I/O线程 pthread_create poll
watcher回调线程 pthread_create
*/
m_zhandle = zookeeper_init(connstr.c_str(), global_watcher, 30000, nullptr,
nullptr, 0);
if (nullptr == m_zhandle) {
std::cout << "zookeeper_init error!" << std::endl;
LOG_ERR("zookeeper_init error! ");
exit(EXIT_FAILURE);
}
sem_t sem;
sem_init(&sem, 0, 0);
zoo_set_context(m_zhandle, &sem);
sem_wait(&sem);
// 等 zk server响应的时候 结束等待
std::cout << "zookeeper_init success!" << std::endl;
LOG_INFO("zookeeper_init success!");
}
其中global_watcher函数:全局的观察器回调函数,
用于处理zkserver给zkclient的通知。
当收到与会话相关的消息(即ZOO_SESSION_EVENT)时,
如果状态变为连接状态(ZOO_CONNECTED_STATE),
则解除对初始化信号量(semaphore)的等待,完成初始化。
2、创建节点
创建一个指定路径的节点,如果该节点已经存在则不创建。代码首先使用zoo_exists函数判断指定路径对应的节点是否存在(如果不存在会返回znonode错误码),如果不存在则调用zoo_create函数创建一个新的节点。
void ZkClient::Create(const char* path,
const char* data,
int datalen,
int state) {
char path_buffer[128];
int bufferlen = sizeof(path_buffer);
int flag;
// 先判断path表示的znode节点是否存在,如果存在,就不再重复创建了
flag = zoo_exists(m_zhandle, path, 0, nullptr);
if (ZNONODE == flag) // 表示path的znode节点不存在
{
// 创建指定path的znode节点了
flag = zoo_create(m_zhandle, path, data, datalen, &ZOO_OPEN_ACL_UNSAFE,
state, path_buffer, bufferlen);
if (flag == ZOK) {
std::cout << "znode create success... path:" << path << std::endl;
LOG_INFO("znode create success... path:%s", path);
} else {
std::cout << "flag:" << flag << std::endl;
std::cout << "znode create error... path:" << path << std::endl;
LOG_ERR("znode create error .. path:%s", path);
exit(EXIT_FAILURE);
}
}
}
3、返回数据
函数用于获取指定路径对应节点的值。代码通过调用zoo_get函数来实现此功能,并返回节点的值作为字符串。如果获取数据失败(例如节点不存在),则输出错误消息并返回一个空字符串。
std::string ZkClient::GetData(const char* path) {
char buffer[64];
int bufferlen = sizeof(buffer);
int flag = zoo_get(m_zhandle, path, 0, buffer, &bufferlen, nullptr);
if (flag != ZOK) {
std::cout << "get znode error... path:" << path << std::endl;
LOG_ERR("get znode error .. path:%s", path);
return "";
} else {
return buffer;
}
}
在服务注册的时候,首先定义zookeeper工具类,启动zookeeper服务,然后循环遍历所有的服务以及服务下面的方法,将他们的名字构造层节点路劲,然后这个节点存储的是由ip以及port组成的字符串,这样调用方就可以从zookeeper中根据服务名以及节点名获取到提供该服务的ip以及端口号。
注意:节点必须是临时性的,因为服务挂掉的时候节点会自动去掉 ,为了把当前rpc节点上要发布的服务全部注册到zk上面,并且zkclient 会保留与zkserver的api连接通过zkclient 网络I/O线程 以1/3 * timeout 时间发送心跳ping消息给zkserver以保持维护节点的存在
ZkClient zkCli;
zkCli.Start();
// service_name为永久性节点 method_name为临时性节点
for (auto& sp : m_serviceMap) {
// /service_name /UserServiceRpc 只能一层一层节点创建
std::string service_path = "/" + sp.first;
zkCli.Create(service_path.c_str(), nullptr, 0);
for (auto& mp : sp.second.m_methodMap) {
// /service_name/method_name /UserServiceRpc/Login
// 存储当前这个rpc服务节点主机的ip和port
std::string method_path = service_path + "/" + mp.first;
char method_path_data[128] = {0};
sprintf(method_path_data, "%s:%d", ip.c_str(), port);
// ZOO_EPHEMERAL表示znode是一个临时性节点
zkCli.Create(method_path.c_str(), method_path_data,
strlen(method_path_data), ZOO_EPHEMERAL);
}
}
调用方需要寻找某项服务的ip以及端口,首先构造路劲,然后调用获取数据犯法获取该节点的ip以及端口字符串,最后解析获取该字符串。
// 从zookeeper 获取ip
ZkClient zkCli;
zkCli.Start();
// /UserServiceRpc/Login
std::string method_path = "/" + service_name + "/" + method_name;
// 127.0.0.1:8000
std::string host_data = zkCli.GetData(method_path.c_str());
if (host_data == "") {
controller->SetFailed(method_path + " is not exist!");
return;
}
int idx = host_data.find(":");
if (idx == -1) {
controller->SetFailed(method_path + " address is invalid!");
return;
}
std::string ip = host_data.substr(0, idx);
uint16_t port =
atoi(host_data.substr(idx + 1, host_data.size() - idx).c_str());
因为基于muduo网络库进行网络通讯的,muduo通过多线程来处理并发连接,要添加日志模块那么就会有多个线程写日志信息的情况。这样的话就必须要实现一个保证线程安全的日志队列。时需要启动一个日志线程,专门对日志队列写日志。
模板类 lockqueue,它用于实现异步写日志的日志队列,主要包含 push 和 pop 两个方法。其中,push 方法可以被多个 worker 线程调用以将数据添加到日志队列中,而 pop 方法则只能由一个线程读取队列并将其内容写入日志文件。
具体来说,push 方法首先加锁(使用了 std::lock_guardstd::mutex),然后将数据添加到队列中,最后通过条件变量(std::condition_variable)唤醒 pop 方法所在的线程。pop 方法首先也需要加锁(使用了 std::unique_lockstd::mutex),然后进入一个 while 循环,在循环中检查队列是否为空,如果为空,则调用条件变量的 wait 方法使当前线程阻塞等待。当队列不为空时,将队头元素取出,并从队列中删除。最后释放锁并返回取出的队头元素。
通过这种方式实现日志队列的异步操作,可以让写日志的线程和写文件的线程分别跑在不同的线程中,避免了日志写操作对主程序的性能影响。
template <typename T>
class LockQueue {
public:
// 多个worker线程都会写日志queue
void Push(const T& data) {
std::lock_guard<std::mutex> lock(m_mutex);
m_queue.push(data);
m_condvariable.notify_one();
}
// 一个线程读日志queue,写日志文件
T Pop() {
std::unique_lock<std::mutex> lock(m_mutex);
while (m_queue.empty()) {
// 日志队列为空,线程进入wait状态
m_condvariable.wait(lock);
}
T data = m_queue.front();
m_queue.pop();
return data;
}
private:
std::queue<T> m_queue;
std::mutex m_mutex;
std::condition_variable m_condvariable;
};
首先日志类属于是单例模式,确保了整个应用程序中只有一个logger实例。
多线程写日志:在logger的构造函数中,启动了一个带lambda表达式的线程writelogtask,在该线程的主体循环中执行以下操作:
1、获取当前时间,尝试打开当日的日志文件
2、从lockqueue中获取缓存的日志信息
3、根据日志级别,添加前缀(“info"或"error”),并将该条日志写入日志文件中
该线程会一直运行,为整个应用程序提供日志服务
同时除了在构造函数中设置日志级别和启动写日志线程之外,logger还提供了以下两个操作接口:
setloglevel(loglevel level): 设置日志级别
log(std::string msg): 将msg作为一条日志信息写入lockqueue缓冲区。
// 获取日志的单例
Logger& Logger::GetInstance() {
static Logger logger;
return logger;
}
Logger::Logger() {
// 启动专门的写日志线程
std::thread writeLogTask([&]() {
for (;;) {
// 获取当前的日期,然后取日志信息,写入相应的日志文件当中 a+
time_t now = time(nullptr);
tm* nowtm = localtime(&now);
char file_name[128];
sprintf(file_name, "%d-%d-%d-log.txt", nowtm->tm_year + 1900,
nowtm->tm_mon + 1, nowtm->tm_mday);
FILE* pf = fopen(file_name, "a+");
if (pf == nullptr) {
std::cout << "logger file : " << file_name << " open error!"
<< std::endl;
exit(EXIT_FAILURE);
}
std::string msg = m_lckQue.Pop();
char time_buf[128] = {0};
// std::cout << (m_loglevel == INFO) << std::endl;
sprintf(time_buf, "%d:%d:%d =>[%s] ", nowtm->tm_hour, nowtm->tm_min,
nowtm->tm_sec, (m_loglevel == INFO ? "info" : "error"));
msg.insert(0, time_buf);
msg.append("\n");
fputs(msg.c_str(), pf);
fclose(pf);
}
});
// 设置分离线程,守护线程
writeLogTask.detach();
}
// 设置日志级别
void Logger::SetLogLevel(LogLevel level) {
m_loglevel = level;
}
// 写日志, 把日志信息写入lockqueue缓冲区当中
void Logger::Log(std::string msg) {
m_lckQue.Push(msg);
}
宏log_info,它接受一个格式化的日志消息和可变数量的参数。在宏内部,获取logger的实例,然后设置日志级别为info。接下来,它创建一个长度为1024的char数组c,使用snprintf函数将格式化字符串(logmsgformat) 和可变参数(va_args)写入这个数组中。最后,它调用logger的log函数将日志消息写入日志文件中。
do-while(0)语法是为了防止宏展开时出现错误。在实际使用过程中,log_info(“xxx %d %s”, 20, “xxxx”) 可以被展开为如下代码:
logger& logger = logger::getinstance();
logger.setloglevel(info);
char c[1024] = {0};
snprintf(c, 1024, "xxx %d %s", 20, "xxxx");
logger.log(c);
因此正常信息宏以及错误信息宏的定义如下:
// 定义宏 LOG_INFO("xxx %d %s", 20, "xxxx")
#define LOG_INFO(logmsgformat, ...) \
do { \
Logger& logger = Logger::GetInstance(); \
logger.SetLogLevel(INFO); \
char c[1024] = {0}; \
snprintf(c, 1024, logmsgformat, ##__VA_ARGS__); \
logger.Log(c); \
} while (0)
#define LOG_ERR(logmsgformat, ...) \
do { \
Logger& logger = Logger::GetInstance(); \
logger.SetLogLevel(ERROR); \
char c[1024] = {0}; \
snprintf(c, 1024, logmsgformat, ##__VA_ARGS__); \
logger.Log(c); \
} while (0)
作为服务提供者,必须进行服务注册,并且将注册好的服务名以及方法名字存储起来,用一个字典存储所有的服务,一个服务包含多个方法。所以用一个结构体存储服务,里面包含有服务以及映射方法的字典。其中由于我们使用了protobuf作为rpc通信协议,所以服务以及方法都必须是**google::protobuf:*这个作用域里面的
// 保存服务信息的结构体
struct ServiceInfo {
google::protobuf::Service* m_service;
// 字典保存映射方法
std::unordered_map<std::string, const google::protobuf::MethodDescriptor*>
m_methodMap;
};
// service map 存储注册成功的服务对象体积犯法的所有信息
std::unordered_map<std::string, ServiceInfo> m_serviceMap;
然后使用muduo库进行网络通信,所以要定义链接回调函数以及消息读写回调函数,最后定义一个rpc方法执行完之后的回调函数,这里一般是放送响应回去。
// 专门处理用户的连接与断开的回调函数
void onConnection(const muduo::net::TcpConnectionPtr& conn);
// 专门处理用户读写事件回调函数 函数必须是有三个参数
// 一个是tcp链接一个是buf缓冲区 一个是时间
void onMessage(const muduo::net::TcpConnectionPtr& conn,
muduo::net::Buffer* buffer,
muduo::Timestamp time);
// closure的回调操作 用于序列化rpc的响应和网络发送 需要传进去网络以及
// 发送的消息
void SendRpcResponse(const muduo::net::TcpConnectionPtr& conn,
google::protobuf::Message*);
最后暴露连个函数提供给业务调用,一个是服务注册函数,一个是rpc服务启动函数。
public:
// 接受任意的 继承了基类goole service的类
void NotifyServie(google::protobuf::Service* service);
// 启动rpc服务
void Run();
服务注册传进来的参数 必须是google::protobuf::Service*类型的。这个类型的对象是该类继承了proto文件生成的类产生的。
首先获取服务的描述,这个描述可以得到服务的名字以及该服务的方法名。
遍历所有的方法,并且放入该服务的方法字典中。
最后把这个服务放入到服务字典中。
std::cout << "///service regist!!/" << std::endl;
LOG_INFO("=====================service regist!!======================");
ServiceInfo service_info;
// 获取服务的 描述 service 继承了基类 所以有这些犯法
const google::protobuf::ServiceDescriptor* pserviceDesc =
service->GetDescriptor();
// 获取服务名字 以及服务方法数量
std::string service_name = pserviceDesc->name();
int methodncnt = pserviceDesc->method_count();
// 获取每个方法的描述 并且加入服务方法字典
// std::cout << "service name:" << service_name << std::endl;
LOG_INFO("service name:%s", service_name.c_str());
for (int i = 0; i < methodncnt; i++) {
const google::protobuf::MethodDescriptor* pmethodDesc =
pserviceDesc->method(i);
std::string method_name = pmethodDesc->name();
service_info.m_methodMap.insert({method_name, pmethodDesc});
// std::cout << "method" << i << " " << method_name << std::endl;
LOG_INFO("method%d name:%s", i, method_name.c_str());
}
// 加入服务字典
service_info.m_service = service;
m_serviceMap.insert({service_name, service_info});
客户端连接断开的回调函数
// 专门处理用户的连接与断开的回调函数
void RpcProvider::onConnection(const muduo::net::TcpConnectionPtr& conn) {
// 客户端 断开连接
// 断开连接了
if (!conn->connected()) {
conn->shutdown();
}
}
专门处理用户读写事件回调函数,该函数传入一个TCP连接,以及一个读写缓冲区。
处理过程如下:
1、从缓冲区中读出数据。
由于调用者发来的字节流中前四个字节是包含着头部信息的长度,所以先取出长度然后根据这个长度再把头部信息取出来。并且把剩下的所有字节流取出来作为rpc方法的参数。
std::string recv_buf = buffer->retrieveAllAsString();
// 从字符流中读取前4个字节的内容 这前4个字节的内容包含了头部信息的长度
uint32_t header_size = 0;
recv_buf.copy((char*)&header_size, 4, 0);
// 根据头文件的大小,获取原始字符流,反序列化数据,得到rpc请求的详细信息
std::string rpc_header_str = recv_buf.substr(4, header_size);
// proto rpcheader.pb.h 已经给我们生成了
mprpc::RpcHeader rpcHeader;
std::string service_name;
std::string method_name;
uint32_t args_size;
if (rpcHeader.ParseFromString(rpc_header_str)) {
// 数据头反序列化成功
service_name = rpcHeader.service_name();
method_name = rpcHeader.method_name();
args_size = rpcHeader.args_size();
} else {
// 数据头反序列化失败
LOG_ERR("rpc_header_str:%s parse error!", rpc_header_str.c_str());
LOG_ERR("%s:%s:%d", __FILE__, __FUNCTION__, __LINE__);
std::cout << "rpc_header_str:" << rpc_header_str << " parse error!"
<< std::endl;
return;
}
// 获取rpc方法参数的字符流数据
std::string args_str = recv_buf.substr(4 + header_size, args_size);
2、找到对应的服务以及对应的方法
通过解析出来的服务名字以及方法名字找到对从字典中找到对应的方法。
// 得到服务 以及方法名 以及 参数了
auto it = m_serviceMap.find(service_name);
if (it == m_serviceMap.end()) {
std::cout << service_name << " is not exist!!" << std::endl;
LOG_ERR("service_name:%s is not exist!!", service_name.c_str());
LOG_ERR("%s:%s:%d", __FILE__, __FUNCTION__, __LINE__);
}
auto mit = it->second.m_methodMap.find(method_name);
if (mit == it->second.m_methodMap.end()) {
std::cout << method_name << " is not exist!!" << std::endl;
LOG_ERR("method_name:%s is not exist!!", method_name.c_str());
LOG_ERR("%s:%s:%d", __FILE__, __FUNCTION__, __LINE__);
}
// 获取到 服务 以及犯法
google::protobuf::Service* service = it->second.m_service;
const google::protobuf::MethodDescriptor* method = mit->second;
3、解析请求并且绑定rpc方法回调函数最后执行该rpc方法
// 生成 请求request 以及响应reply 通过
google::protobuf::Message* request =
service->GetRequestPrototype(method).New();
if (!request->ParseFromString(args_str)) {
// 从调用者args_str得到request
std::cout << " request error!!" << args_str << std::endl;
LOG_ERR("request error :%s", args_str.c_str());
LOG_ERR("%s:%s:%d", __FILE__, __FUNCTION__, __LINE__);
return;
}
google::protobuf::Message* response =
service->GetResponsePrototype(method).New();
// 绑定Closure 的回调函数 这是在login方法 中最后的done 调用的方法
google::protobuf::Closure* done =
google::protobuf::NewCallback<RpcProvider,
const muduo::net::TcpConnectionPtr&,
google::protobuf::Message*>(
this, &RpcProvider::SendRpcResponse, conn, response);
service->CallMethod(method, nullptr, request, response, done);
首先从读取配置文件信息
string ip = MprpcApplication::GetInstance().GetConfig().Load("rpcserverip");
uint16_t port = atoi(MprpcApplication::GetInstance()
.GetConfig()
.Load("rpcserverport")
.c_str());
然后创建muduo库对象,绑定两个事件回调函数。
muduo::net::EventLoop m_eventLoop;
muduo::net::InetAddress address(ip, port);
muduo::net::TcpServer server(&m_eventLoop, address, "RpcProvider");
// 绑定连接回调和消息读写回调方法 分离了网络代码和业务代码
server.setConnectionCallback(
std::bind(&RpcProvider::onConnection, this, std::placeholders::_1));
server.setMessageCallback(
std::bind(&RpcProvider::onMessage, this, std::placeholders::_1,
std::placeholders::_2, std::placeholders::_3));
// 设 // 设置moduo库的数量
server.setThreadNum(4);
LOG_INFO("RpcProvider start service at ip:%s port:%d", ip.c_str(), port);
然后从zookeeper上发布服务 把当前rpc节点上要发布的服务全部注册到zk上面,让rpc client可以从zk上发现服务。最后启动网络服务。
ZkClient zkCli;
zkCli.Start();
// service_name为永久性节点 method_name为临时性节点
for (auto& sp : m_serviceMap) {
// /service_name /UserServiceRpc 只能一层一层节点创建
std::string service_path = "/" + sp.first;
zkCli.Create(service_path.c_str(), nullptr, 0);
for (auto& mp : sp.second.m_methodMap) {
// /service_name/method_name /UserServiceRpc/Login
// 存储当前这个rpc服务节点主机的ip和port
std::string method_path = service_path + "/" + mp.first;
char method_path_data[128] = {0};
sprintf(method_path_data, "%s:%d", ip.c_str(), port);
// ZOO_EPHEMERAL表示znode是一个临时性节点
zkCli.Create(method_path.c_str(), method_path_data,
strlen(method_path_data), ZOO_EPHEMERAL);
}
}
// 启动网络服务
server.start();
m_eventLoop.loop();
编写服务方法
首先一个服务类要使用protobuf的服务必须继承proto文件生成的服务类。上面我们定义的是UserServiceRpc。
class UserService : public fixbug::UserServiceRpc {
类内除了业务方法,还重写基类的虚函数也就是UserServiceRpc服务的犯法函数,首先获取到输入参数,然后传给业务函数获取业务结果,之后把业务结果包装成respone,最后执行回调函done(之前在处理消息的时候已经绑定过了)。
void Login(::google::protobuf::RpcController* controller,
const ::fixbug::LoginRequest* request,
::fixbug::LoginResponse* response,
::google::protobuf::Closure* done) {
string name = request->name();
string pwd = request->pwd();
// 本地业务
bool login_result = Login(name, pwd);
// 把相应写入 reply
fixbug::ResultCode* rc = response->mutable_result();
if (login_result) {
rc->set_errcode(0);
} else {
rc->set_errcode(1);
rc->set_errmsg("login err! ");
}
response->set_success(login_result);
// 执行回调操作 由框架执行序列化 与发送
done->Run();
}
启动服务
int main(int argc, char** argv) {
LOG_INFO(
"###########################server start!!###########################");
// LOG_ERR("%s:%s:%d", __FILE__,__FUNCTION__,__LINE__);
// 初始化
MprpcApplication::init(argc, argv);
// 发不到rpc节点上
RpcProvider provider;
// 服务发现
provider.NotifyServie(new UserService());
// 启动一个rpc节点
provider.Run();
return 0;
}
首先通过初始化得到配置文件信息,根据想要调用的服务,创建了一个名为 stub 的 rpc 存根(rpc stub),用于向服务端发起远程调用。接着new mprpcchannel() 则创建了一个 mprpcchannel 对象作为通信渠道,该对象封装了网络通信细节。这里使用 mprpcchannel 作为通信渠道。
然后构造请求提,最后通过存根调用想要调用的服务方法以及处理响应结果。
整体流程如下:
整体代码如下:
// 先要初始化框架
MprpcApplication::init(argc, argv);
// 调用rpc 利用userserver_stub进行
// 需要利用到 继承了基类的google::protobuf::RpcChannel 的类
// mprpcchannel继承了 进行操作
// 演示调用远程发布的rpc方法Login
fixbug::UserServiceRpc_Stub stub(new MprpcChannel());
// 构造请求与响应
fixbug::LoginRequest request;
request.set_name("hzl");
request.set_pwd("123");
fixbug::LoginResponse response;
// controller 能知道 调用过程中的状态信息
MprpcController controller;
stub.Login(&controller, &request, &response, nullptr);
if (controller.Failed()) {
// 如果rpc失败
std::cout << controller.ErrorText() << std::endl;
} else {
// 读取结果
if (!response.result().errcode()) {
std::cout << "rpc login response success: " << response.success()
<< std::endl;
} else {
std::cout << "rpc login response error: " << response.result().errmsg()
<< std::endl;
}
}
return 0;
这个类必须继承google::protobuf::RpcChannel基类并且需要重写对应的虚构函数。,
// 继承基类 rpcchannel 重写虚函数
class MprpcChannel : public google::protobuf::RpcChannel {
private:
// 在这重写虚函数中 进行序列化以及网络的发送
void CallMethod(const google::protobuf::MethodDescriptor* mothod,
google::protobuf::RpcController* controller,
const google::protobuf::Message* request,
google::protobuf::Message* response,
google::protobuf::Closure* done);
public:
};
这个函数是用来进行序列化以及网络的发送的,每次调用stub服务存根的方法时就会调用该函数,该函数传入的是方法名字,控制器(用来记录日志可以为空),请求以及响应,还有回调(可以省略),序列化格式定义如下:
header_size+service_name method_name args_size+args
按照以下步骤实现:
1、构造请求字符串
首先从方法中获取服务名以及方法名,以及从请求中获取参数长度,将他们包装成头部信息,其中字节六前4个之间存储的是头部信息的大小。然后一次把头部信息字符串以及参数字符串加上去。
const google::protobuf::ServiceDescriptor* sd = mathod->service();
std::string service_name = sd->name();
std::string method_name = mathod->name();
// 获取参数序列化之后的字符串长度
uint32_t args_size = 0;
std::string args_str;
if (request->SerializeToString(&args_str)) {
args_size = args_str.size();
} else {
// std::cout << "request SerializeToString error!!" << std::endl;
controller->SetFailed("request SerializeToString error!!");
return;
}
// 定义rpc的请求header
mprpc::RpcHeader rpcheader;
rpcheader.set_service_name(service_name);
rpcheader.set_method_name(method_name);
rpcheader.set_args_size(args_size);
uint32_t header_size = 0;
std::string rpc_header_str;
if (rpcheader.SerializeToString(&rpc_header_str)) {
header_size = rpc_header_str.size();
} else {
controller->SetFailed("rpcheader SerializeToString error!!");
// std::cout << "rpcheader SerializeToString error!!" << std::endl;
return;
}
// 组织待发送的rpc请求的字符串
std::string send_rpc_str;
send_rpc_str.insert(0, std::string((char*)&header_size, 4)); // header_size
send_rpc_str += rpc_header_str; // rpcheader
send_rpc_str += args_str; // args
2、创建网络套接字
// 使用tcp变成 完成roc方法的远程调用
int clientfd = socket(AF_INET, SOCK_STREAM, 0);
if (-1 == clientfd) {
controller->SetFailed("socket create error!!");
exit(-1);
}
3、从zookeeper中获取服务的ip以及端口号进行连接
// 从zookeeper 获取ip
ZkClient zkCli;
zkCli.Start();
// /UserServiceRpc/Login
std::string method_path = "/" + service_name + "/" + method_name;
// 127.0.0.1:8000
std::string host_data = zkCli.GetData(method_path.c_str());
if (host_data == "") {
controller->SetFailed(method_path + " is not exist!");
return;
}
int idx = host_data.find(":");
if (idx == -1) {
controller->SetFailed(method_path + " address is invalid!");
return;
}
std::string ip = host_data.substr(0, idx);
uint16_t port =
atoi(host_data.substr(idx + 1, host_data.size() - idx).c_str());
3、连接以及发送
// 填写client需要连接的server信息ip+port
sockaddr_in server;
memset(&server, 0, sizeof(sockaddr_in));
server.sin_family = AF_INET;
server.sin_port = htons(port);
server.sin_addr.s_addr = inet_addr(ip.c_str());
// client和server进行连接
if (-1 == connect(clientfd, (sockaddr*)&server, sizeof(sockaddr_in))) {
close(clientfd);
controller->SetFailed("connect server errorr!");
return;
}
// 发送rpc
// 发送rpc请求
if (-1 == send(clientfd, send_rpc_str.c_str(), send_rpc_str.size(), 0)) {
close(clientfd);
controller->SetFailed("send errorr");
return;
}
5、处理返回并且关闭套接字
// 接收rpc请求的响应值
char recv_buf[1024] = {0};
int recv_size = 0;
if (-1 == (recv_size = recv(clientfd, recv_buf, 1024, 0))) {
close(clientfd);
controller->SetFailed("crecv error! !");
return;
}
// 反序列化rpc调用的响应数据
// std::string response_str(recv_buf, 0, recv_size); //
if (!response->ParseFromArray(recv_buf, recv_size)) {
close(clientfd);
controller->SetFailed("parse error!!");
return;
}
close(clientfd);