在前面的篇章Android以太网框架情景分析之启动简介和Android以太网框架情景分析之NetworkFactory与NetworkAgent深入分析我们介绍了以太网的启动,NetworkFactory与NetworkAgent的注网以及关联。还记得我们最开始的关于以太网相关的时序图吗!其中涉及到了监听以太网状态变化的譬如网线的插拔,以太网络状态的变化等,这个就涉及到NetworkManagementService和netd和交互的过程了(当然关于两者之间的交互并不仅仅只有上述两点)。这个篇章就会带领大伙来理解NetworkManagementService和netd的交互,从而理解以太网框架怎么通过NetworkManagementService来设置IP,路由配置以及监听网络状态变化等。同时NetworkManagementService和netd交互不仅单单是为了以太网而设计的,WIFI,移动网络等网络环境也是借助上述两者来完成各种网络环境变化监控以及网络控制的。
本篇会从三个维度来讲解这个篇章,分别是:
本篇章演示的源码是在Android 7.1 msm8953平台上,其中涉及的源码路径如下所示:
system/netd/server/
---CommandListener.cpp
---CommandListener.h
---main.cpp
---NetlinkHandler.cpp
---netd.rc
---NetlinkManager.cpp
---DnsProxyListener.cpp
---MDnsSdListener.cpp
---FwmarkServer.cpp
...NetdNativeService.cpp
...
system/core/libsysutils/src/
---FrameworkListener.cpp
---NetlinkListener.cpp
---FrameworkCommand.cpp
---NetlinkEvent.cpp
---SocketListener.cpp
...
frameworks/base/services/java/com/android/server/SystemServer.java
frameworks/base/services/core/java/com/android/server/NetworkManagementService.java
frameworks/opt/net/ethernet/java/com/android/server/ethernet/EthernetNetworkFactory.java
frameworks/opt/net/ethernet/java/com/android/server/ethernet/EthernetService.java
frameworks/opt/net/ethernet/java/com/android/server/ethernet/EthernetServiceImpl.java
frameworks/opt/net/ethernet/java/com/android/server/ethernet/EthernetConfigStore.java
frameworks/base/services//core/java/com/android/server/ConnectivityService.java
Netd (Network Daemon)是用于管理和控制Android平台网络的后台进程,如下所示:
XXX:/ # ps -t | grep netd
root 785 1 29192 3468 binder_thr 7f951c39e0 S /system/bin/netd
root 868 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1727 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1728 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1729 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1730 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1731 785 29192 3468 poll_sched 7f951c3a10 S netd
root 1732 785 29192 3468 poll_sched 7f951c3a28 S netd
root 1733 785 29192 3468 poll_sched 7f951c3a28 S netd
其按照工作逻辑可分为如下两部分:
通过上述简单的描述,我们应该知道了Netd位于Framework层和Kernel层之间,它是Android系统中网络相关消息和命令转发及处理的中枢模块起到了承上启下的作用。我们先来看看Netd的整体框架图,如下所示:
好了,经过上述的描述我想小伙伴们对Netd应该已经有了一个概述了,下面章节我们将开始真正的分析。
通过前面的章节我们知道Netd进程是一个可执行的bin文件程序,而通常它的启动方式一般都是init.xxx.rc进行启动的,但是在Android 5以及之后Android已经将rc权力下放到各个子模块中然后通过import导入了,Netd的启动也不例外下放到了netd.rc中,其配置如下所示:
//netd.rc
service netd /system/bin/netd
class main
socket netd stream 0660 root system
socket dnsproxyd stream 0660 root inet
socket mdns stream 0660 root system
socket fwmarkd stream 0660 root inet
从上面的配置文件可以看出,Netd进程启动之后将会创建四个TCP的LocalSocket(至于什么是LocalSocket可以参见篇章 Android Framework层和Native层通过LocalSocket实现通信,总之LocalSocket可以用一句话来概括就是Android定制版本的精简Socket),这四个socket如下所示:
而Netd正是通过这四个创建的socket完成了承上启下的作用。通过后面的章节分析我们会看到:
对于native进程我们通常从main函数开始入手,对于Netd进程也不例外,其源码路径为system/netd/server/main.c,其代码逻辑如:
int main() {
using android::net::gCtls;
...
//为Netd进程屏蔽SIGPIPE信号
blockSigpipe();
NetlinkManager *nm = NetlinkManager::Instance();//创建NetlinkManager,详见章节1.4
if (nm == nullptr) {
ALOGE("Unable to create NetlinkManager");
exit(1);
};
gCtls = new android::net::Controllers();//初始化相关Controll
CommandListener cl;//初始化Command,它将创建名为"netd"的监听socket。注意c++中的初始化和Java中的区别,不一定要new才能初始化,这个会在章节1.7重点介绍
//设置NetlinkManager的消息发送者(Broadcaster)为CommandListener。
nm->setBroadcaster((SocketListener *) &cl);
//启动NetlinkManager ,详见章节1.4
if (nm->start()) {
...
}
//它为本Netd设置环境变量ANDROID_DNS_MODE为"local"
setenv("ANDROID_DNS_MODE", "local", 1);
//创建DnsProxyListener,它将创建名为"dnsproxyd"的监听socket,这个不是本文关注的重点
DnsProxyListener dpl(&gCtls->netCtrl);
if (dpl.startListener()) {
...
}
//创建MDnsSdListener并启动监听,它将创建名为"mdns"的监听socket,这个不是本文关注的重点
MDnsSdListener mdnsl;
if (mdnsl.startListener()) {
...
}
//创建FwmarkServer并启动监听,它将创建“fwmarkd”的监听socket,这个不是本文关注重点
FwmarkServer fwmarkServer(&gCtls->netCtrl);
if (fwmarkServer.startListener()) {
...
}
status_t ret;
//启动Netd的Natvive Binder Service
if ((ret = NetdNativeService::start()) != android::OK) {
...
}
//CommandListener 开始监听
if (cl.startListener()) {//详见章节1.7.2
...
}
...
//开启Binder线程
IPCThreadState::self()->joinThreadPool();
exit(0);
}
可以看到Netd进程的main函数非常精简,主要就是创建初始化关键的成员并启动相关的工作,其中涉及的重要成员如下:
通过前面的章节我们可知,NetlinkManager主要用于接收并处理来自Kernel的UEvent消息,在NetlinkManager将会启动3个socket,用于监听3种不同的event:Uevent,RouteEvent,QuotaEvent。而对这种监听是通过SocketListener实现监听的,最终通过/dev/socket/netd送到NetworkManagementService(java代码),分配到注册到它里面的各个观察者实例(Ethernet,WIFI等)。感觉用文字描述还是太抽象了,我们可以通过下面的NetlinkManager的架构图来概括上述之间的关系,如下所示:
下面老规矩分析源码:
//NetlinkManager.cpp
int NetlinkManager::start() {
//创建接收NETLINK_KOBJECT_UEVENT消息的socket,其值保存在mUeventSock中
//其中,NETLINK_FORMAT_ASCII代表UEvent消息的内容为ASCII字符串
if ((mUeventHandler = setupSocket(&mUeventSock, NETLINK_KOBJECT_UEVENT,
0xffffffff, NetlinkListener::NETLINK_FORMAT_ASCII, false)) == NULL) {
return -1;
}
// //创建接收RTMGPR_LINK消息的socket,其值保存在mRouteSock中
//其中,NETLINK_FORMAT_BINARY代表UEvent消息的类型为结构体,故需要进行二进制解析
if ((mRouteHandler = setupSocket(&mRouteSock, NETLINK_ROUTE,
RTMGRP_LINK |
RTMGRP_IPV4_IFADDR |
RTMGRP_IPV6_IFADDR |
RTMGRP_IPV6_ROUTE |
(1 << (RTNLGRP_ND_USEROPT - 1)),
NetlinkListener::NETLINK_FORMAT_BINARY, false)) == NULL) {
return -1;
}
//创建接收NETLINK_NFLOG消息的socket,其值保存在mQuotaSock中
if ((mQuotaHandler = setupSocket(&mQuotaSock, NETLINK_NFLOG,
NFLOG_QUOTA_GROUP, NetlinkListener::NETLINK_FORMAT_BINARY, false)) == NULL) {
ALOGW("Unable to open qlog quota socket, check if xt_quota2 can send via UeventHandler");
// TODO: return -1 once the emulator gets a new kernel.
}
//创建接收NETLINK_NFLOG消息的socket,其值保存在mStrictHandler 中
if ((mStrictHandler = setupSocket(&mStrictSock, NETLINK_NETFILTER,
0, NetlinkListener::NETLINK_FORMAT_BINARY_UNICAST, true)) == NULL) {
ALOGE("Unable to open strict socket");
// TODO: return -1 once the emulator gets a new kernel.
}
return 0;
}
通过源码我们看到NetlinkManager的start函数主要向内核注册了4个接收UEvent事件的socket,这4个socket分别对应于:
其中的重要的函数setupSocket我们还没有分析,让我们接着对该函数进行分析,其业务逻辑是什么:
//NetlinkManager.cpp
NetlinkHandler *NetlinkManager::setupSocket(int *sock, int netlinkFamily,
int groups, int format, bool configNflog) {
struct sockaddr_nl nladdr;
int sz = 64 * 1024;
int on = 1;
memset(&nladdr, 0, sizeof(nladdr));
nladdr.nl_family = AF_NETLINK;
nladdr.nl_pid = getpid();
nladdr.nl_groups = groups;
//设置socket通信类型
if ((*sock = socket(PF_NETLINK, SOCK_DGRAM | SOCK_CLOEXEC, netlinkFamily)) < 0) {
ALOGE("Unable to create netlink socket: %s", strerror(errno));
return NULL;
}
//设置socket接收缓冲区大小
if (setsockopt(*sock, SOL_SOCKET, SO_RCVBUFFORCE, &sz, sizeof(sz)) < 0) {
ALOGE("Unable to set uevent socket SO_RCVBUFFORCE option: %s", strerror(errno));
close(*sock);
return NULL;
}
//设置socket认证
if (setsockopt(*sock, SOL_SOCKET, SO_PASSCRED, &on, sizeof(on)) < 0) {
SLOGE("Unable to set uevent socket SO_PASSCRED option: %s", strerror(errno));
close(*sock);
return NULL;
}
//对socket执行bind操作
if (bind(*sock, (struct sockaddr *) &nladdr, sizeof(nladdr)) < 0) {
ALOGE("Unable to bind netlink socket: %s", strerror(errno));
close(*sock);
return NULL;
}
...
//将前面已经创建并设置好相关配置的socket参数形式传入创建NetlinkHandler,然后调用其start方法
NetlinkHandler *handler = new NetlinkHandler(this, *sock, format);//详见章节1.5
if (handler->start()) {
ALOGE("Unable to start NetlinkHandler: %s", strerror(errno));
close(*sock);
return NULL;
}
return handler;
}
这里我们可以看到setupSocket函数的逻辑处理比较简单,就是进行一些基本的socket配置操作,然后将配置好的socket作为参数创建用于接收UEvent消息的NetlinkHandler对象。
在正式开始NetlinkHandler这个类的分析前,我们还是先缓一缓,为了读者能更好的进行下面的代码阅读理解,还是先理理其类图关系,不然后续的分析中会被其中的继承关系绕晕的(虽然说这也是面向对象语言的优点,但是有时候也会搞得人稀里糊涂的)。NetlinkManager的类图关系如下所示,可以看出这里的SocketListener在该关系类图中的重要性,它几乎是该类图关系中最原始的起点。
下面我们从整体上来分析分析该类图中牵涉到的各种关系如下所示:
好了,其中涉及的类图关系也分析清楚了,前进路上的路障也清除了,直接干代码了!我们从NetlinkHandler的start函数开始,代码如下:
//NetlinkHandler.cpp
int NetlinkHandler::start() {
return this->startListener();
}
这里的start函数,最终调用的是NetlinkHandler的超类SocketListener中的startListener函数,还能干啥呢,接着继续干呗!SocketListener类在源码中的路径为system/core/libsysutils/src/SocketListener.cpp。
//SocketListener.cpp
int SocketListener::startListener() {
return startListener(4);
}
int SocketListener::startListener(int backlog) {
if (!mSocketName && mSock == -1) {
SLOGE("Failed to start unbound listener");
errno = EINVAL;
return -1;
} else if (mSocketName) {//忽略
if ((mSock = android_get_control_socket(mSocketName)) < 0) {
SLOGE("Obtaining file descriptor socket '%s' failed: %s",
mSocketName, strerror(errno));
return -1;
}
SLOGV("got mSock = %d for %s", mSock, mSocketName);
fcntl(mSock, F_SETFD, FD_CLOEXEC);
}
//如果设置了mListen则监听socket,如果没有设置则新建一个socketClient放入客户端集合,很显然mListen的值为false(通过NetlinkListener.cpp的构造函数传入)
if (mListen && listen(mSock, backlog) < 0) {
SLOGE("Unable to listen on socket (%s)", strerror(errno));
return -1;
} else if (!mListen)//以mSock作为参数构建SocketClient对象,并将创建的对象push_back到SocketClientCollection列表中
mClients->push_back(new SocketClient(mSock, false, mUseCmdNum));
//调用pipe创建一个匿名管道,mCtrlPipe[0]和mCtrlPipe[1]分别代表管道的读写端,
if (pipe(mCtrlPipe)) {
SLOGE("pipe failed (%s)", strerror(errno));
return -1;
}
//创建线程threadStart监听socket,这里其实并没有所谓的“监听socket”,因为是NETLINK型的socket,从这里可以看出每个SocketListener都会开辟一个新的线程
if (pthread_create(&mThread, NULL, SocketListener::threadStart, this)) {//详见章节1.5.2
SLOGE("pthread_create (%s)", strerror(errno));
return -1;
}
return 0;
}
//SocketListener.cpp
void *SocketListener::threadStart(void *obj) {
//这里的obj是创建线程时候传递过来的参数,可以看到它是SocketListener
SocketListener *me = reinterpret_cast<SocketListener *>(obj);
me->runListener();//调用runListener,这个是关键
pthread_exit(NULL);
return NULL;
}
void SocketListener::runListener() {
//创建SocketClientCollection列表pendingList
SocketClientCollection pendingList;
while(1) {
SocketClientCollection::iterator it;
fd_set read_fds;//看到这个是不是很熟悉的感觉,肯定和多路复用有关系了
int rc = 0;
int max = -1;
FD_ZERO(&read_fds);//将指定的文件描述符集read_fds清空
if (mListen) {//通过前面的分析我们知道mListen为false,所以不会走这个分支
...
}
FD_SET(mCtrlPipe[0], &read_fds);//将前面创建的管道读通道,增加到文件描述符集合read_fds中
if (mCtrlPipe[0] > max)
max = mCtrlPipe[0];
pthread_mutex_lock(&mClientsLock);
//遍历mClients,还记得我们每次startListener都会创建一个SocketClient然后放入列表mClients中吗
for (it = mClients->begin(); it != mClients->end(); ++it) {
int fd = (*it)->getSocket();//获取SocketClient通信相关的socket信息
FD_SET(fd, &read_fds);//加入到read_fds进行监听
if (fd > max) {
max = fd;
}
}
pthread_mutex_unlock(&mClientsLock);
SLOGV("mListen=%d, max=%d, mSocketName=%s", mListen, max, mSocketName);
if ((rc = select(max + 1, &read_fds, NULL, NULL, NULL)) < 0) {//重点,多路复用监听read_fds中相关的消息
if (errno == EINTR)
continue;
SLOGE("select failed (%s) mListen=%d, max=%d", strerror(errno), mListen, max);
sleep(1);
continue;
} else if (!rc)
continue;
if (FD_ISSET(mCtrlPipe[0], &read_fds)) {//判断mCtrlPipe[0]文件描述符是否可以读写
char c = CtrlPipe_Shutdown;
TEMP_FAILURE_RETRY(read(mCtrlPipe[0], &c, 1));//读取管道
if (c == CtrlPipe_Shutdown) {
break;
}
continue;
}
//我们知道在该分支中mListen 为false,所以不会走入到这个里面
if (mListen && FD_ISSET(mSock, &read_fds)) {
...
}
pendingList.clear();
pthread_mutex_lock(&mClientsLock);
//遍历mClients,将所有活动的fd都放入pendingList
for (it = mClients->begin(); it != mClients->end(); ++it) {
SocketClient* c = *it;
int fd = c->getSocket();
if (FD_ISSET(fd, &read_fds)) {//判断是否可以读写
pendingList.push_back(c);//放入到pendingList中
c->incRef();
}
}
pthread_mutex_unlock(&mClientsLock);
//处理pendingList,次是此处表示内核有事件了比如网线的插拔,网络状态的变化等,需要上层处理
while (!pendingList.empty()) {
it = pendingList.begin();
SocketClient* c = *it;
pendingList.erase(it);
if (!onDataAvailable(c)) {//这个在其子类中被实现,即在NetlinkHandler中,详见章节1.5.3
release(c, false);
}
c->decRef();
}
}
}
通过代码分析我们看到runListener函数里面主要通过多路复用对三个类型的fd进行了相关的监听,这三个类型的fd分别是:
而我们这里重点关注的是第二个类型SocketClient的socket,从前面分析可知在NetlinkManager.start()中已经启动了四个这样的SocketClient结构,这些socket都是PF_NETLINK类型的socket,并不是监听socket,具体一点就是他们对应的mListen均为false。最终这四个socket被当做SocketClient添加进了mClients中。
接着将上述的socket对应的fd句柄添加到多路复用监听文件描述符集合中,当检测到上述socket有可读事件发生时,也就是内核有上层感兴趣的事件发生时,对应SocketListen的onDataAvailable()被调用,可是很遗憾,该函数是一个纯虚函数,那么只能从其子类中寻找了,通过查找我们看到在其子类NetlinkListener中实现了onDataAvailable函数(注意SocketListen还有一个子类onDataAvailable也实现了onDataAvailable不要搞错了,至于为什么这里调用的是NetlinkListener大伙可以回忆一下this指针的传递是从NetlinkHandler传递过来的,然后再NetlinkHandler的构造过程中初始化了NetlinkListener),我们接着继续分析。
//NetlinkListener.cpp
bool NetlinkListener::onDataAvailable(SocketClient *cli)
{
int socket = cli->getSocket();
ssize_t count;
uid_t uid = -1;
bool require_group = true;
if (mFormat == NETLINK_FORMAT_BINARY_UNICAST) {
require_group = false;
}
//调用uevent_kernel_recv接收内核发送过来的消息,并将消息存放在mBuffer中
count = TEMP_FAILURE_RETRY(uevent_kernel_recv(socket,
mBuffer, sizeof(mBuffer), require_group, &uid));
if (count < 0) {
if (uid > 0)
LOG_EVENT_INT(65537, uid);
SLOGE("recvmsg failed (%s)", strerror(errno));
return false;
}
NetlinkEvent *evt = new NetlinkEvent();//构建一个NetlinkEvent对象
if (evt->decode(mBuffer, count, mFormat)) {//调用NetlinkEvent对象evt的decode函数解析mBuffer
onEvent(evt);//调用onEvent函数,详见章节1.5.4
} else if (mFormat != NETLINK_FORMAT_BINARY) {
// Don't complain if parseBinaryNetlinkMessage returns false. That can
// just mean that the buffer contained no messages we're interested in.
SLOGE("Error decoding NetlinkEvent");
}
delete evt;
return true;
}
这个函数真懒,通过调用uevent_kernel_recv接收内核发送来的消息并将消息封装在mBuffer中,然后构建一个NetlinkEvent对象evt 调用其函数decode解析相关数据,解析完成之后调用onEvent函数,一看又是一个纯虚函数,继续追查最后在其子类NetlinkHandler被实现。
//NetlinkHandler.cpp
void NetlinkHandler::onEvent(NetlinkEvent *evt) {
const char *subsys = evt->getSubsystem();
if (!subsys) {
ALOGW("No subsystem found in netlink event");
return;
}
//处理对应NETLINK_KOBJECT_UEVENT和NETLINK_ROUTE的信息
if (!strcmp(subsys, "net")) {
NetlinkEvent::Action action = evt->getAction();
const char *iface = evt->findParam("INTERFACE");//查找消息中携带的网络设备名
if (action == NetlinkEvent::Action::kAdd) {
notifyInterfaceAdded(iface);//我们关心的以太网络的添加
} else if (action == NetlinkEvent::Action::kRemove) {
notifyInterfaceRemoved(iface);//移除
} else if (action == NetlinkEvent::Action::kChange) {
evt->dump();
notifyInterfaceChanged("nana", true);//状态变化
} else if (action == NetlinkEvent::Action::kLinkUp) {//下面两个消息来自NETLINK_ROUTE
notifyInterfaceLinkChanged(iface, true);////链路启用(类似插网线)
} else if (action == NetlinkEvent::Action::kLinkDown) {
notifyInterfaceLinkChanged(iface, false);////链路断开(类似拔网线)
} else if (action == NetlinkEvent::Action::kAddressUpdated ||
action == NetlinkEvent::Action::kAddressRemoved) {
const char *address = evt->findParam("ADDRESS");
const char *flags = evt->findParam("FLAGS");
const char *scope = evt->findParam("SCOPE");
if (action == NetlinkEvent::Action::kAddressRemoved && iface && address) {
// Note: if this interface was deleted, iface is "" and we don't notify.
SockDiag sd;
if (sd.open()) {
char addrstr[INET6_ADDRSTRLEN];
strncpy(addrstr, address, sizeof(addrstr));
char *slash = strchr(addrstr, '/');
if (slash) {
*slash = '\0';
}
int ret = sd.destroySockets(addrstr);
if (ret < 0) {
ALOGE("Error destroying sockets: %s", strerror(ret));
}
} else {
ALOGE("Error opening NETLINK_SOCK_DIAG socket: %s", strerror(errno));
}
}
if (iface && iface[0] && address && flags && scope) {
notifyAddressChanged(action, address, iface, flags, scope);
}
} else if (action == NetlinkEvent::Action::kRdnss) {
const char *lifetime = evt->findParam("LIFETIME");
const char *servers = evt->findParam("SERVERS");
if (lifetime && servers) {
notifyInterfaceDnsServers(iface, lifetime, servers);
}
} else if (action == NetlinkEvent::Action::kRouteUpdated ||
action == NetlinkEvent::Action::kRouteRemoved) {
const char *route = evt->findParam("ROUTE");
const char *gateway = evt->findParam("GATEWAY");
const char *iface = evt->findParam("INTERFACE");
if (route && (gateway || iface)) {
notifyRouteChange(action, route, gateway, iface);
}
}
} else if (!strcmp(subsys, "qlog") || !strcmp(subsys, "xt_quota2")) {//对应NETLINK_NFLOG
const char *alertName = evt->findParam("ALERT_NAME");
const char *iface = evt->findParam("INTERFACE");
notifyQuotaLimitReached(alertName, iface);
} else if (!strcmp(subsys, "strict")) {//不关心
const char *uid = evt->findParam("UID");
const char *hex = evt->findParam("HEX");
notifyStrictCleartext(uid, hex);
} else if (!strcmp(subsys, "xt_idletimer")) {//不关心
const char *label = evt->findParam("INTERFACE");
const char *state = evt->findParam("STATE");
const char *timestamp = evt->findParam("TIME_NS");
const char *uid = evt->findParam("UID");
if (state)
notifyInterfaceClassActivity(label, !strcmp("active", state),
timestamp, uid);
#if !LOG_NDEBUG
} else if (strcmp(subsys, "platform") && strcmp(subsys, "backlight")) {
/* It is not a VSYNC or a backlight event */
ALOGV("unexpected event from subsystem %s", subsys);
#endif
}
}
该函数有点多啊,我们得好好理一理其逻辑:
首先调用NetlinkEvent的getSubsystem函数对内核上报的消息进行一次大的划分,这个划分也是有依据的,还记得我们大明湖畔的夏雨荷吗!错了,是在NetlinkManager中创建的四个NetlinkHandler,而这里的就是依据这个进行相关分支进行的。
大类划分完成以后,接着调用NetlinkEvent的getAction函数接收上述四个大类socket类型的具体数据,然后根据Action的不同调用不同的notifyxxx进行对应的处理。
//NetlinkHandler.cpp
void NetlinkHandler::notifyInterfaceAdded(const char *name) {
notify(ResponseCode::InterfaceChange, "Iface added %s", name);
}
void NetlinkHandler::notify(int code, const char *format, ...) {
char *msg;
va_list args;
va_start(args, format);
if (vasprintf(&msg, format, args) >= 0) {
mNm->getBroadcaster()->sendBroadcast(code, msg, false);//最终调用CommandListener的sendBroadcast发送,详见章节1.7.4
free(msg);
} else {
SLOGE("Failed to send notification: vasprintf: %s", strerror(errno));
}
va_end(args);
}
可以看到最后都是统一调用了NetlinkHandler的nofity将内核上报的消息,发送给上层。这里的mNm显而易见是NetlinkManager,而getBroadcaster获取的是CommandListener!什么,这里通过getBroadcaster获取到的是CommandListener,这个是什么逻辑,还记的Netd的main函数里面的nm->setBroadcaster吗,关键就在此处。至于CommandListener我们会在后续章节中继续分析!
这里可以看出最后Netd是借助CommandListener向NetworkManagementService发送消息的。当然这里的消息可能有两种:一种是底层主动上报的消息(即我们这里的这种),另一种是上层请求的response(这个会在后续分析)。
NetlinkManager和NetlinkHandler通过前面的章节已经分析完毕,是不是感觉内容有点多啊。这里谈谈我的心得,一定抓住其中各种类的继承关系已经函数调用逻辑不然真的很容易搞糊涂。在开启CommandListener之前我们还是对前面的NetlinkManager和NetlinkHandler小结一下:
NetlinkManager新建了四个个PF_NETLINK类型的socket,然后根据前面创建的socket作为参数创建对应的NetlinkHandler,并且调用start函数启动它
这里的NetlinkHandler继承 NetlinkListener 继承 SocketListener,最后start调用的是SocketListener的startListener
startListener将会启动一个单独线程,通过多路复用监听内核的消息,当内核有消息上报时调用onDataAvailable来处理, onDataAvailable方法在NetlinkListener实现
NetlinkListener的onDataAvailable将内核的uEvent消息转化为NetlinkEvent调用onEvent来处理消息,onEvent方法在NetlinkHandler实现
NetlinkHandler的onEvent方法中根据前面NetlinkManager创建的四个socket来进行大类划分,然后再小类划分,最后调用notify函数。而notify函数最终调用NetlinkManager的Broadcaster也就是CommandListener的sendBroadcast方法,发送消息给发送给Framework层的NetworkManagermentService。
好吗!NetlinkManager和NetlinkHandler到这里已经撸完了,如果还有不明白的,可以跟着下面的时序图再撸一把!
前面章节1.5后面还留了一个大尾巴就是关于CommandListener的,即Netd借助CommandListener向NetworkManagementService发送消息的。一种是前面分析的通过NetlinkManager接受底层驱动主动上报的消息(即我们这里的这种),另一种是上层请求的respons消息,这个章节统统给你分析清楚!
对于CommandListener我们还是从其构造函数开始来分析(面相对象语言吗,通常是这个套路!),在章节1.3中我们知道CommandListener是在Netd的main中被创建的,看招!
//CommandListener.cpp
void CommandListener::registerLockingCmd(FrameworkCommand *cmd, android::RWLock& lock) {
registerCmd(new LockingFrameworkCommand(cmd, lock));
}
CommandListener::CommandListener() :
FrameworkListener("netd", true) {
registerLockingCmd(new InterfaceCmd());//创建了14个命令类对象
registerLockingCmd(new IpFwdCmd());
registerLockingCmd(new TetherCmd());
registerLockingCmd(new NatCmd());
registerLockingCmd(new ListTtysCmd());
registerLockingCmd(new PppdCmd());
registerLockingCmd(new SoftapCmd());
registerLockingCmd(new BandwidthControlCmd(), gCtls->bandwidthCtrl.lock);
registerLockingCmd(new IdletimerControlCmd());
registerLockingCmd(new ResolverCmd());
registerLockingCmd(new FirewallCmd(), gCtls->firewallCtrl.lock);
registerLockingCmd(new ClatdCmd());
registerLockingCmd(new NetworkCommand());
registerLockingCmd(new StrictCmd());
registerLockingCmd(getQtiConnectivityCmd(this));
...
//初始化对应的控制类对象,控制类对象的创建,其初始化是在Netd的main函数中
gCtls->firewallCtrl.setupIptablesHooks();
gCtls->natCtrl.setupIptablesHooks();
gCtls->bandwidthCtrl.setupIptablesHooks();
gCtls->idletimerCtrl.setupIptablesHooks();
gCtls->bandwidthCtrl.enableBandwidthControl(false);
...
}
通过源码我们看到CommandListener构造函数的逻辑可以分为如下两个部分:
CommandListener.h
class CommandListener : public FrameworkListener {
public:
CommandListener();
virtual ~CommandListener() {}
private:
void registerLockingCmd(FrameworkCommand *cmd, android::RWLock& lock);
void registerLockingCmd(FrameworkCommand *cmd) {
registerLockingCmd(cmd, android::net::gBigNetdLock);
}
class SoftapCmd : public NetdCommand {
public:
SoftapCmd();
virtual ~SoftapCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class InterfaceCmd : public NetdCommand {
public:
InterfaceCmd();
virtual ~InterfaceCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class IpFwdCmd : public NetdCommand {
public:
IpFwdCmd();
virtual ~IpFwdCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class TetherCmd : public NetdCommand {
public:
TetherCmd();
virtual ~TetherCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class NatCmd : public NetdCommand {
public:
NatCmd();
virtual ~NatCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class ListTtysCmd : public NetdCommand {
public:
ListTtysCmd();
virtual ~ListTtysCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class PppdCmd : public NetdCommand {
public:
PppdCmd();
virtual ~PppdCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class BandwidthControlCmd : public NetdCommand {
public:
BandwidthControlCmd();
virtual ~BandwidthControlCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
protected:
void sendGenericOkFail(SocketClient *cli, int cond);
void sendGenericOpFailed(SocketClient *cli, const char *errMsg);
void sendGenericSyntaxError(SocketClient *cli, const char *usageMsg);
};
class IdletimerControlCmd : public NetdCommand {
public:
IdletimerControlCmd();
virtual ~IdletimerControlCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class ResolverCmd : public NetdCommand {
public:
ResolverCmd();
virtual ~ResolverCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
private:
bool parseAndExecuteSetNetDns(int netId, int argc, const char** argv);
};
class FirewallCmd: public NetdCommand {
public:
FirewallCmd();
virtual ~FirewallCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
protected:
int sendGenericOkFail(SocketClient *cli, int cond);
static FirewallRule parseRule(const char* arg);
static FirewallType parseFirewallType(const char* arg);
static ChildChain parseChildChain(const char* arg);
};
class ClatdCmd : public NetdCommand {
public:
ClatdCmd();
virtual ~ClatdCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
};
class StrictCmd : public NetdCommand {
public:
StrictCmd();
virtual ~StrictCmd() {}
int runCommand(SocketClient *c, int argc, char ** argv);
protected:
int sendGenericOkFail(SocketClient *cli, int cond);
static StrictPenalty parsePenalty(const char* arg);
};
class NetworkCommand : public NetdCommand {
public:
NetworkCommand();
virtual ~NetworkCommand() {}
int runCommand(SocketClient* client, int argc, char** argv);
private:
int syntaxError(SocketClient* cli, const char* message);
int operationError(SocketClient* cli, const char* message, int ret);
int success(SocketClient* cli);
};
};
//FrameworkListener.cpp
typedef android::sysutils::List<FrameworkCommand *> FrameworkCommandCollection;
FrameworkCommandCollection *mCommands;
void FrameworkListener::registerCmd(FrameworkCommand *cmd) {
mCommands->push_back(cmd);
}
在Netd中的main函数最后,CommandListener调用startListener启动监听流程, 它的启动逻辑和NetlinkHandler基本一样。这是因为CommandListener继承于FrameworkListener,FrameworkListener继承于SocketListene,从而和NetlinkHandler有相同的超类,。通过前面分析NetlinkHandler可知,在调用startListener最后会在SocketListener启动一个线程。执行runListener方法来处理接收到的消息。但是其和NetlinkHandler处理的逻辑有两个不同点:
CommandListener的构造函数中传入的参数有两个分别是”netd“和true,这样就使得SocketListener中的mListen的值被赋值为true,进而runListener函数中监听的是真正的socket(其节点路径为/dev/socket/netd)而不是PF_NETLINK类型的socket。
CommandListener最后的onDataAvailable方法是在FrameworkListener实现的,最后调用dispatchCommand处理命令,最后调用runCommand来处理,最后消息通过前面创建的不同类型的命令处理里执行对应的runCommand方法。
//FrameworkListener.cpp
bool FrameworkListener::onDataAvailable(SocketClient *c) {
char buffer[CMD_BUF_SIZE];
int len;
//读取远程客户端发送过来的消息
len = TEMP_FAILURE_RETRY(read(c->getSocket(), buffer, sizeof(buffer)));
if (len < 0) {
SLOGE("read() failed (%s)", strerror(errno));
return false;
} else if (!len) {
return false;
} else if (buffer[len-1] != '\0') {
SLOGW("String is not zero-terminated");
android_errorWriteLog(0x534e4554, "29831647");
c->sendMsg(500, "Command too large for buffer", false);
mSkipToNextNullByte = true;
return false;
}
int offset = 0;
int i;
for (i = 0; i < len; i++) {
if (buffer[i] == '\0') {
/* IMPORTANT: dispatchCommand() expects a zero-terminated string */
if (mSkipToNextNullByte) {
mSkipToNextNullByte = false;
} else {
dispatchCommand(c, buffer + offset);//调用dispatchCommand
}
offset = i + 1;
}
}
mSkipToNextNullByte = false;
return true;
}
void FrameworkListener::dispatchCommand(SocketClient *cli, char *data) {
FrameworkCommandCollection::iterator i;
int argc = 0;
char *argv[FrameworkListener::CMD_ARGS_MAX];
char tmp[CMD_BUF_SIZE];
char *p = data;
char *q = tmp;
char *qlimit = tmp + sizeof(tmp) - 1;
bool esc = false;
bool quote = false;
bool haveCmdNum = !mWithSeq;
memset(argv, 0, sizeof(argv));
memset(tmp, 0, sizeof(tmp));
while(*p) {
if (*p == '\\') {
if (esc) {
if (q >= qlimit)
goto overflow;
*q++ = '\\';
esc = false;
} else
esc = true;
p++;
continue;
} else if (esc) {
if (*p == '"') {
if (q >= qlimit)
goto overflow;
*q++ = '"';
} else if (*p == '\\') {
if (q >= qlimit)
goto overflow;
*q++ = '\\';
} else {
cli->sendMsg(500, "Unsupported escape sequence", false);
goto out;
}
p++;
esc = false;
continue;
}
if (*p == '"') {
if (quote)
quote = false;
else
quote = true;
p++;
continue;
}
if (q >= qlimit)
goto overflow;
*q = *p++;
if (!quote && *q == ' ') {
*q = '\0';
if (!haveCmdNum) {
char *endptr;
int cmdNum = (int)strtol(tmp, &endptr, 0);
if (endptr == NULL || *endptr != '\0') {
cli->sendMsg(500, "Invalid sequence number", false);
goto out;
}
cli->setCmdNum(cmdNum);
haveCmdNum = true;
} else {
if (argc >= CMD_ARGS_MAX)
goto overflow;
argv[argc++] = strdup(tmp);
}
memset(tmp, 0, sizeof(tmp));
q = tmp;
continue;
}
q++;
}
*q = '\0';
if (argc >= CMD_ARGS_MAX)
goto overflow;
argv[argc++] = strdup(tmp);
#if 0
for (int k = 0; k < argc; k++) {
SLOGD("arg[%d] = '%s'", k, argv[k]);
}
#endif
if (quote) {
cli->sendMsg(500, "Unclosed quotes error", false);
goto out;
}
if (errorRate && (++mCommandCount % errorRate == 0)) {
/* ignore this command - let the timeout handler handle it */
SLOGE("Faking a timeout");
goto out;
}
for (i = mCommands->begin(); i != mCommands->end(); ++i) {
FrameworkCommand *c = *i;
//查找到匹配合适的命令类
if (!strcmp(argv[0], c->getCommand())) {
if (c->runCommand(cli, argc, argv)) {//通过命令类来处理,而runCommand的具体实现在CommandListener.cpp中
SLOGW("Handler '%s' error (%s)", c->getCommand(), strerror(errno));
}
goto out;
}
}
cli->sendMsg(500, "Command not recognized", false);
out:
int j;
for (j = 0; j < argc; j++)
free(argv[j]);
return;
overflow:
LOG_EVENT_INT(78001, cli->getUid());
cli->sendMsg(500, "Command too long", false);
goto out;
}
通过前面的源码我们可以看到在onDataAvailable函数中通过read读取远端socket客户端发送过来的消息,然后调用dispatchCommand函数匹配前面创建的合适命令类,然后调用命令类的runCommand函数处理客户端发送过来的请求。
还记得前面章节中NetlinkHandler::notify最后调用mNm->getBroadcaster()->sendBroadcast将内核消息发送给客户端吗!通过前面的分析我们可知这里getBroadcaster获取的就是CommandListener,然后调用其sendBroadcast函数发送消息。个人觉得这个BroadCaster名字也容易让人产生误解,以为是通过Android中类似的广播或者UDP中的广播。而实际上这个socket是netd.rc中配置的名字为“netd”的socke所accept出来的SocketClient,是一个TCP socket。而我们知道TCP socket是无法广播的。这里其实最后sendBroadCast最后调用的sendMsg通过socket将消息传递到了客户端,这样就解释就比较好理解了。唠了这么多,还是来分析分析下源码逻辑!
//SocketListener.cpp
void SocketListener::sendBroadcast(int code, const char *msg, bool addErrno) {
SocketClientCollection safeList;
/* Add all active clients to the safe list first */
safeList.clear();
pthread_mutex_lock(&mClientsLock);
SocketClientCollection::iterator i;
for (i = mClients->begin(); i != mClients->end(); ++i) {
SocketClient* c = *i;
c->incRef();
safeList.push_back(c);
}
pthread_mutex_unlock(&mClientsLock);
while (!safeList.empty()) {
/* Pop the first item from the list */
i = safeList.begin();
SocketClient* c = *i;
safeList.erase(i);
// broadcasts are unsolicited and should not include a cmd number
if (c->sendMsg(code, msg, addErrno, false)) {
SLOGW("Error sending broadcast (%s)", strerror(errno));
}
c->decRef();
}
}
不难看出就是遍历已经和CommandListener建立连接的SocketClient,然后通过基本的socket通信操作将消息发送给socket客户端。
CommandListener也分析完了,趁热打铁对其小结一把:
CommandListener同样继承自SocketListener,与之前创建的四个个NetlinkManager socket所不同的是此类的mListen被设置为true,也就是“netd”为监听socket。
接着CommandListener在Netd中的main函数中调用startListener开启线程用来监听来自java层的连接。当上层有连接时,select返回,accpet得到一个SocketClient,之后将其封装成SocketClient添加到list列表中,并添加进select的监听队列。当java层下发命令,SocketClient的可读事件被检测到,然后调用onDataAvailable来处理,。
和NetlinkHandler不同的是其onDataAvailable方法在FrameworkListener实现的,FrameworkListener的onDataAvailable会调用dispatchCommand来处理消息,而该函数中会匹配前面创建的命令类,然后调用匹配到的命令类的runCommand函数处理
最后将底层处理结果response返回回上层
而内核主动上报的消息也是通过CommandListener中已经连接的SocketClient上发到上层的
好吗!CommandListener到这里已经撸完了,如果还有不明白的,可以跟着下面的时序图再撸一把!
本来是想通过一个篇章将该篇章搞定over,然后打卡走人的!但是一看整的有点多啊,这还是在很多内容没有讲述的基础之上,看来还是得另外开垦篇章才行不然就会是老太太的裹脚布又臭又长了!那就先将该篇章的Netd部分讲述完毕,接着后面的篇章接着讲述NetworkManagementService怎么和Netd交互以及以太网络怎么和二者交互的了。万分不舍,也只能是下期见了!希望各位能多多点赞,或者评论,拍砖亦可!关于NetworkManagementService怎么和Netd交互详见篇章Android以太网框架情景分析之NetworkManagementService和netd交互深入分析二。
最后特别鸣谢如下博哥:
https://www.kancloud.cn/alex_wsc/android-wifi-nfc-gps/414021
https://blog.csdn.net/yemin6666/article/details/82318441#Netd%E5%90%AF%E5%8A%A8
https://blog.csdn.net/a34140974/article/details/50717629