数据包接收系列 — 下半部实现(软中断)

本文主要内容:下半部的实现,分析数据包从上半部结束后到L3的处理过程。

内核版本:2.6.37

Author:zhangskd @ csdn blog

 

下半部的实现

 

接收数据包的下半部处理流程为:

net_rx_action // 软中断

    |--> process_backlog() // 默认poll

               |--> __netif_receive_skb() // L2处理函数

                            |--> ip_rcv() // L3入口

 

net_rx_action

 

软中断(NET_RX_SOFTIRQ)的处理函数net_rx_action()主要做了:

遍历sd->poll_list,对于每个处于轮询状态的设备,调用它的poll()函数来处理数据包。

如果设备NAPI被禁止了,则把设备从sd->poll_list上删除,否则把设备移动到sd->poll_list的队尾。

每次软中断最多允许处理netdev_budget(300)个数据包,最长运行时间为2jiffies(2ms)。

每个设备一次最多允许处理weight_p(64)个数据包(非NAPI)。

如果在这次软中断中没处理玩,则再次设置NET_RX_SOFTIRQ标志触发软中断。

static void net_rx_action(struct softirq_action *h)
{
    struct softnet_data *sd = &__get_cpu_var(softnet_data); /* 当前CPU的softnet_data实例 */
    unsigned long time_limit = jiffies + 2; /* 一次软中断的最长处理时间(2ms) */
    int budget = netdev_budget; /* 一次软中断最多能够处理的skb个数(300) */
    void *have;

    local_irq_disable(); /* 禁止本地中断 */

    /* 如果有处于轮询状态的设备 */
    while(! list_empty(&sd->poll_list)) {

        struct napi_struct *n;
        int work, weight;
      
        /* If softirq window is exhuasted then punt.
         * Allow this to run for 2 jiffies since which will allow an average
         * latency of 1.5/HZ.
         * 如果处理的数据包过多了,或者处理的时间过长了,则退出。
         */
        if (unlikely(budget <= 0 || time_after(jiffies, time_limit)))
            goto softnet_break;

        local_irq_enable(); /* 开启本地中断 */

        /* Even though interrupts have been re-enabled, this access is safe because
         * interrupts can only add new entries to the tail of this list, and only ->poll()
         * calls can remove this head entry from the list.
         */

        /* 获取链表上的第一个napi_struct实例 */
        n = list_first_entry(&sd->poll_list, struct napi_struct, poll_list);

        have = netpoll_poll_lock(n);
        weight = n->weight; /* 这个设备每次能poll的数据包上限 */

        /* This NAPI_STATE_SCHED test is for avoiding a race with netpoll's
         * poll_napi(). Only the entity which obtains the lock and sees NAPI_STATE_SCHED
         * set will actually make the ->poll() call. Therefore we avoid accidently calling ->poll()
         * when NAPI is not scheduled.
         */
        work = 0;

        if (test_bit(NAPI_STATE_SCHED, &n->state)) {
            /* 调用napi_struct的poll方法,返回处理的数据包个数 */
            work = n->poll(n, weight); /* 默认为process_backlog() */

            trace_napi_poll(n);
        }
        WARN_ON_ONCE(work > weight);

        budget -= work; /* 总预算减去本次处理的数据包数 */

        local_irq_disable(); /* 禁止本地中断 */

        if (unlikely(work == weight)) {
            /* 如果NAPI被禁止了,则把当前napi_struct从poll_list中删除 */
            if (unlikely(napi_disable_pending(n))) {
                local_irq_enable();
                napi_complete(n);
                local_irq_disable();

            } else
                /* 把当前napi_struct移动到poll_list的队尾 */
                list_move_tail(&n->poll_list, &sd->poll_list);
        }
        netpoll_poll_unlock(have);
    }

out:
    net_rps_action_and_irq_enable(sd); /* 开启本地中断 */

#ifdef CONFIG_NET_DMA
    ...
#endif

    return;

softnet_break:
    sd->time_squeeze++; /* 跑满2ms,或处理了300个包 */
    __raise_softirq_irqoff(NET_RX_SOFTIRQ); /* 因为没处理完,再次触发软中断 */
    goto out;
}

当调用napi_struct的poll()来处理数据包时,本地中断是开启的,这意味着新的数据包可以继续添加到

输入队列中。

 

process_backlog

 

如果网卡驱动不支持NAPI,则默认的napi_struct->poll()函数为process_backlog()。

process_backlog()的主要工作:

1. 处理sd->process_queue中的数据包

    分别取出每个skb,从队列中删除。

    开本地中断,调用__netif_rx_skb()把skb从L2传递到L3,然后关本地中断。

    这说明在处理skb时,是允许网卡中断把数据包添加到接收队列(sd->input_pkt_queue)中的。

2. 如果处理完sd->process_queue中的数据包了,quota还没用完

     把接收队列添加到sd->process_queue处理队列的尾部后,初始化接收队列。

     接下来会继续处理sd->process_queue中的数据包。

3. 如果本次能处理完sd->process_queue和sd->input_pkt_queue中的所有数据包

    把napi_struct从sd->poll_list队列中删除掉,清除NAPI_STATE_SCHED标志。

static int process_backlog(struct napi_struct *napi, int quota)
{
    int work = 0;
    struct softnet_data *sd = container_of(napi, struct softnet_data, backlog);

#ifdef CONFIG_RPS
    ...
#endif

    napi->weight = weight_p; /* 每次处理的最大数据包数,默认为64 */
    local_irq_disable(); /* 禁止本地中断 */
    
    while(work < quota) { /* 配额允许时 */
        struct sk_buff *skb;
        unsigned int qlen;

        /* 从sd->process_queue队列取出第一个skb,并把它从队列中删除。
         * sd->process_queue用于存储即将处理的数据包。
         */
        while((skb = __skb_dequeue(&sd->process_queue))) {
            local_irq_enable(); /* 开启本地中断 */

            __netif_receive_skb(skb); /* 进行二层处理后转发给网络层 */

            local_irq_disable();
            input_queue_head_incr(sd);

            if (++work >= quota) { /* 处理的数据包个数超过上限了,返回 */
                local_irq_enable();
                return work;
            }
        }

        rps_lock(sd);
        qlen = skb_queue_len(&sd->input_pkt_queue); /* 接收队列的长度 */
        /* 把接收队列添加到sd->process_queue的尾部,然后初始化接收队列 */
        if (qlen)
            skb_queue_splice_tail_init(&sd->input_pkt_queue, &sd->process_queue);

        /* 如果能在本次处理完接收队列的数据包 */
        if (qlen < quota - work) {
            /* 把napi_struct从sd->poll_list队列中删除,因为马上要全部处理完了 */
            list_del(&napi->poll_list);

            napi->state = 0; /* 清除掉NAPI_STATE_SCHED标志 */
            quota = work + qlen; /* 减小quota,使接下来处理完process_queue的qlen个包即退出 */
        }
        rps_unlock(sd);
    }    
 
    local_irq_enable();
    return work;
}

从sk_buff_head队列中取出第一个skb,并把它从队列中删除。

/**
 * __skb_dequeue - remove from the head of the queue
 * @list: list to dequeue from
 * Remove the head of the list. 
 * The head item is returned or %NULL if the list is empty.
 */
static inline struct sk_buff *__skb_dequeue(struct sk_buff_head *list)
{
    struct sk_buff *skb = skb_peek(list); /* 取出队列的第一个元素 */
    if (skb)
        __skb_unlink(skb, list); /* 把skb从sk_buff_head队列中删除 */
    return skb;
}

把list添加到head的队尾,然后把list重新初始化。

/**
 * skb_queue_splice_tail - join two skb lists and reinitialise the emptied list
 * @list: the new list to add
 * @head: the place to add it in the first list
 * Each of the lists is a queue.
 * The list at @list is reinitialised
 */
static inline void skb_queue_splice_tail_init(struct sk_buff_head *list, struct sk_buff_head *head)
{
    if (! skb_queue_empty(list)) {
        __skb_queue_splice(list, head->prev, (struct sk_buff *)head);
        head->qlen += list->qlen;
        __skb_queue_head_init(list);
    }
}

 

__netif_receive_skb

 

__netif_receive_skb()的主要工作为:

处理NETPOLL、网卡绑定、入口流量控制、桥接、VLAN。

遍历嗅探器(ETH_P_ALL)链表ptype_all。对于每个注册的sniffer,调用它的处理函数

packet_type->func(),例如tcpdump。

赋值skb->network_header,根据skb->protocol从三层协议哈希表ptype_base中找到对应的

三层协议。如果三层协议是ETH_P_IP,相应的packet_type为ip_packet_type, 协议处理函数为ip_rcv()。

static int __netif_receive_skb(struct sk_buff *skb)
{
    struct packet_type *ptype, *pt_prev;
    rx_handler_func_t *rx_handler;
    struct net_device *orig_dev;
    struct net_device *master;
    struct net_device *null_or_orig;
    struct net_device *orig_or_bond;
    int ret = NET_RX_DROP;
    __be16 type;

    if (! netdev_tstamp_prequeue)
        net_timestamp_check(skb); /* 记录接收时间到skb->tstamp */
    trace_netif_receive_skb(skb);

    /* If we've gotten here through NAPI, check netpoll */
    if (netpoll_receive_skb(skb))
        return NET_RX_DROP;
 
    if (! skb->skb_iif)
        skb->skb_iif = skb->dev->ifinex; /* 记录设备编号 */

    /* 处理网卡绑定(bonding) */
    null_or_orig = NULL;
    orig_dev = skb->dev;
    master = ACCESS_ONCE(orig_dev->master);

    if (skb->deliver_no_wcard)
        null_or_orig = orig_dev;
    else if (master) {
        if (skb_bond_should_drop(skb, master)) {
            skb->deliver_no_wcard = 1;
            null_or_orig = orig_dev; /* deliver only exact match */
        } else
            skb->dev = master;
    }

    __this_cpu_inc(softnet_data.processed); /* 增加本cpu处理过的数据包个数 */
    skb_reset_network_header(skb); /* 赋值skb->network_header */
    skb_reset_network_header(skb); /* 赋值skb->transport_header */
    skb->mac_len = skb->network_header - skb->mac_header; /* MAC头的长度,一般为14 */
    pt_prev = NULL;

    rcu_read_lock();

/* 入口流量控制 */
#ifdef CONFIG_NET_CLS_ACT 
    if (skb->tc_verd & TC_NCLS) {
        skb->tc_verd = CLR_TC_NCLS(skb->tc_verd);
        goto ncls;
    }
#endif

    /* 遍历嗅探器(ETH_P_ALL)链表ptype_all。对于每个注册的sniffer,
     * 调用它的处理函数packet_type->func(),例如tcpdump。
     */
    list_for_each_entry_rcu(ptype, &ptype_all, list) {
        if (ptype->dev == null_or_orig || ptype->dev == skb->dev ||
            ptype->dev == orig_dev) {
            if (pt_prev)
                ret = deliver_skb(skb, pt_prev, orig_dev); /* 嗅探器的处理函数 */
                pt_prev = ptype;
        }
    }

#ifdef CONFIG_NET_CLS_ACT
    skb = handle_ing(skb, &pt_prev, &ret, orig_dev);
    if (! skb)
        goto out;
ncls:
#endif

    /* Handle special case of bridge or macvlan,接收的特殊过程 */
    rx_handler = rcu_dereference(skb->dev->rx_handler);
    if (rx_handler) {
        if (pt_prev) {
            ret = deliver_skb(skb, pt_prev, orig_dev);
            pt_prev = NULL;
        }
        skb = rx_handler(skb);
        if (! skb)
            goto out;
    }

    /* VLAN虚拟局域网 */
    if (vlan_tx_tag_present(skb)) {
        if (pt_prev) {
            ret = deliver_skb(skb, pt_prev, orig_dev);
            pt_prev = NULL;
        }

        if (vlan_hwaccel_do_receive(&skb)) {
            ret = __netif_receive_skb(skb);
            goto out;
        } else if (unlikely(! skb))
            goto out;
    }

    /* Make sure frames received on VLAN interfaces stacked on bonding
     * interfaces still make their way to any base bonding device that may
     * have registered for a specific ptype. The handler may have to adjust
     * skb->dev and orig_dev.
     */
    orig_or_bond = orig_dev;
    if ((skb->dev->priv_flags & IFF_802_1Q_VLAN) &&
        (vlan_dev_real_dev(skb->dev)->priv_flags & IFF_BONDING)) {
        orig_or_bond = vlan_dev_real_dev(skb->dev);
    }

    type = skb->protocol; /* 三层协议类型 */

    list_for_each_entry_rcu(ptype, &ptype_base[ntohs(type) & PTYPE_HASH_MASK], list) {
        if (ptype->type == type && (ptype->dev == null_or_orig || ptype->dev == skb->dev
            || ptype->dev == orig_dev || ptype->dev == orig_or_bond)) {

            /* 如果三层协议是ETH_P_IP,相应的packet_type为ip_packet_type,
             * 协议处理函数为ip_rcv()。
             */
            if (pt_prev)
                ret = deliver_skb(skb, pt_prev, orig_dev);
            pt_prev = ptype;
        }
    }

    if (pt_prev) {
        ret = pt_prev->func(skb, skb->dev, pt_prev, orig_dev);
    } else { /* 说明没找到对应的三层协议 */
        atomic_long_inc(&skb->dev->rx_dropped);
        kfree_skb(skb);
        ret = NET_RX_DROP;
    }

out:
    rcu_read_unlock();
    return ret;
}
 

 

L3协议处理函数

 

#define PTYPE_HASH_SIZE (16)
#define PTYPE_HASH_MASK (PTYPE_HASH_SIZE - 1)
static DEFINE_SPINLOCK(ptype_lock);

static struct list_head ptype_base[PTYPE_HASH_SIZE]; /* 协议哈希表 */
static struct list_head ptype_all; /* 嗅探器(ETH_P_ALL)的链表 */

packet_type用于描述一个协议:

struct packet_type {
    __be16 type; /* This is really htons(ether_type). 协议代码 */
    struct net_device *dev; /* NULL is wildcarded here */

    /* 协议处理函数,如ip_rcv() */
    int (*func) (struct sk_buff *, struct net_device *, struct packet_type *, struct net_device *);
    ...
    struct list_head list;
}

IP协议:

/* IP protocol layer initialiser */
static struct packet_type ip_packet_type = {
    .type = cpu_to_be16(ETH_P_IP),
    .func = ip_rcv,
    ...
};
#define ETH_P_IP 0x0800 /* Internet Protocol packet */


  

你可能感兴趣的:(软中断,数据包接收,下半部)