ImageVerifierCode 换一换
格式:DOCX , 页数:15 ,大小:327.44KB ,
资源ID:11703728      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/11703728.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Linux内核网络协议栈笔记.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

Linux内核网络协议栈笔记.docx

1、Linux内核网络协议栈笔记Linux内核网络协议栈笔记2011-08-11 15:54:-微型葡萄-点击数:1641Linux内核网络协议栈笔记0:序言(附参考书籍)自己是研究网络的,但实际上对Linux中网络协议栈的实现知之甚少。最近看完深入理解Linux内核前几章之后(特别是与网络子系统密切相关的软中断),觉得可以而且应该看一下网络协议栈了。这部分网上的文章大部分都没有什么结构和思路,很少有能够条分缕析的把协议栈讲述明白的。当然,个人水平有限,还是希望朋友们能够批评指正。参考书籍Understanding Linux Network Internals以及The Linux Networ

2、king Architecture Design and Implementation of Network Protocols in the Linux Kernel,在我的Skydrive里(点这里)可以下到英文chm版。先大体说说这两本巨著吧。前者确实是一本关于internals的书,前三个part:General Background/System Initialization/Transmission and Reception以及第5个part:IPv4比较有用,而且思路也与本文所采用的吻合:从系统初始化到数据包的发送与接收。而后者也确实是一本architecture的书,采用了与

3、TCP/IP协议栈(不是OSI 7层)一样的5层架构自底向上讲述了Linux内核的相关内容。全系列文章都基于Linux内核2.6.11版本,如果最新版本(当前是2.6.30)有较大变化,也会给与标出。Linux内核网络协议栈笔记1:协议栈分层/层次结构大家都知道TCP/IP协议栈现在是世界上最流行的网络协议栈,恐怕它的普及的最重要的原因就是其清晰的层次结构以及清晰定义的原语和接口。不仅使得上层应用开发者可以无需关心下层架构或者内部机制,从而相对透明的操作网络。这个明显的层次结构也可以在Linux内核的网络协议栈中观察到。主要的参考文献是:Linux网络栈剖析(中文版)/Anatomy of L

4、inux networking stack(英文原版)by Tim Jones.以及:Linux内核2.4.x的网络接口结构另外一些参考资料可以从这个页面找到:http:/www.ecsl.cs.sunysb.edu/elibrary/linux/network/(纽约州立大学石溪分校的页面)Linux内核网络协议栈采用了如下的层次结构:内核中的五层分别是(从上到下):系统调用接口(详见Jones的另一篇文章:使用Linux系统调用的内核命令)协议无关接口(BSD socket层)网络协议(或者简称网络层。这是一个协议的集合,从链路层到传输层的协议都包括在内。不同的协议在/net文件夹下除co

5、re以外的子目录下,例如基于IP的协议簇都在/net/ipv4目录下,以太网协议在/net/ethernet目录下)驱动无关接口(又称通用设备层-generic device layer/驱动接口层/设备操作层-device handling layer。属于网络协议栈最核心的部分,文件位于内核/net/core文件夹下,所以又叫网络核心层。其中包括了核心的数据结构skbuff文件中的sk_buff/dev.c文件中net_device,这些数据结构将在下篇文章中介绍)设备驱动程序(在/driver/net文件夹内)不像OSI或者TCP/IP协议栈,事实上并没有一个命名标准,因此在这里,这些层

6、次的名称并不是通用的,但是其语义是清晰的,而且在大多数其他的文章里只是个别字上的差别。分层详细介绍可以参考Jones的文章。Linux内核网络协议栈笔记2:初始化参考文献Understanding Linux Network Internals中用了整整一章(part II)来介绍system initialization。本文只提供一个简单的概述,如果需要详细信息,还请看参考文献。我们这里所说的初始化过程指的是从硬件加电启动,到可以从网络接收或发送数据包之前的过程。在Linux系统中,网卡拥有双重身份:structpci_dev和structnet_device。pci_dev对象代表通用硬

7、件的性质,是作为一个标准的PCI的设备插入了PCI的卡槽,由驱动程序进行管理;另一方面,net_device对象代表网络传输的性质,与内核的网络协议栈交互,进行数据传输。因此我们也必须通过两个方面来进行初始化,但是后者是我们的重点。而且我们并不关心内核与硬件的交互细节,例如寄存器读写与I/O映射等。内核在初始化时,也会初始化一些与网络相关的数据结构;而且对应我们前面的日志所提及的内核网络协议栈层次结构(点这里),内核也需要一定的初始化工作来建立这种层次结构。笔者认为初始化最重要的就是重要数据结构(通常用粗体标注)。因此也希望读者能够记住重要的数据结构的作用。下面我们将分层,自底向上的分析整个初

8、始化过程:(一)驱动程序层本文中以一个realtek 8139系列网卡作为例子,因为其驱动只有一个c文件(/drivers/net/8139too.c),比较容易分析。读者也可以参考e1000网卡的另一篇文章(点这里)。内核版本基于2.6.11。驱动程序加载/注册主要包括以下的步骤:(a)将设备驱动程序(pci_driver)添加到内核驱动程序链表中;(b)调用每个驱动中的probe函数(其中重要一步就是初始化net_device对象)。下面进行详细分解。通常,在Linux中使用insmod命令加载一个驱动程序模块,例如8139too.o目标文件。加载之后,Linux会默认执行模块中的modu

9、le_init(rtl8139_init_module)宏函数,其中的参数rtl8139_init_module是一个函数指针,指向在具体的驱动程序8139too.o中声明的rtl8139_init_module函数。这个函数定义如下:staticint_init rtl8139_init_module (void)returnpci_module_init (&rtl8139_pci_driver); pci_module_init是一个宏定义,实际上就等于pci_register_driver函数。(在2.6.30内核版本中,直接变成了return pci_register_driver(

10、&rtl8139_pci_driver) )。pci_register_driver函数的注释说明了它的作用:register a new pcidriver.Adds the driver structure to the list of registered drivers。也就是把如下的这样一个驱动程序(pci_driver类型)挂到系统的驱动程序链表中:staticstructpci_driver rtl8139_pci_driver=.name=DRV_NAME,.id_table=rtl8139_pci_tbl,.probe=rtl8139_init_one,.remove=_de

11、vexit_p(rtl8139_remove_one),#ifdef CONFIG_PM.suspend=rtl8139_suspend,.resume=rtl8139_resume,#endif;这一步我们应该这样理解(熟悉面向对象编程的读者):所有的pci_driver应该提供一致的接口(比如remove卸载/suspend挂起);但是这些接口的每个具体实现是不同的(pci声卡和pci显卡的挂起应该是不同的),所以采用了这样的函数指针结构。这个pci_driver结构其中最重要的就是probe函数指针,指向rtl8139_init_one,具体后面会解释。但是pci_register_dr

12、iver并不仅仅完成了注册驱动这个任务,它内部调用了driver_register函数(/drivers/base/driver.c中):intdriver_register(structdevice_driver*drv)INIT_LIST_HEAD(&drv-devices);init_MUTEX_LOCKED(&drv-unload_sem);returnbus_add_driver(drv);前两个就是实现了添加到链表的功能,bus_add_driver才是主要的函数(/drivers/base/bus.c中),内部又调用了driver_attach函数,这个函数的主体是一个list_

13、for_each循环,对链表中的每一个成员调用driver_probe_device函数(哈哈,出现了probe!),这个函数就调用了drv-probe(dev)(drv就是pci_driver类型的对象)!这样也就调用了驱动程序中的probe函数指针,也就是调用了rtl8139_init_one函数。函数rtl8139_init_one的主要作用就是给net_device对象分配空间(分配空间由函数rtl8139_init_board完成)并初始化。分配空间主要是内存空间。分配的资源包括I/O端口,内存映射(操作系统基本概念,请自行google)的地址范围以及IRQ中断号等。而初始化主要是设

14、置net_device对象中的各个成员变量及成员函数,其中比较重要的是hard_start_xmit(通过硬件发送数据)/poll(轮训)/open(启动)等函数(粗体标注),代码如下:staticint_devinit rtl8139_init_one (structpci_dev*pdev,conststructpci_device_id*ent)structnet_device*dev=NULL;rtl8139_init_board (pdev,&dev);dev-open=rtl8139_open;dev-hard_start_xmit=rtl8139_start_xmit;dev-p

15、oll=rtl8139_poll;dev-stop=rtl8139_close;dev-do_ioctl=netdev_ioctl;整个的调用链如下:pci_register_driver =driver_register =bus_add_driver =driver_attach =driver_probe_device =drv-probe = rtl8139_init_one(生成net_device)。一个简单的net_device生命周期示意图如下(左边为初始化,右边为卸载):这个net_device数据结构的生成,标志着网络硬件和驱动程序层初始化完毕。也意味着,网络协议栈与硬件之

16、间的纽带已经建立起来。(二)设备无关层/网络协议层/协议无关接口socket层Linux内核在启动后所执行的一些内核函数如下图所示:系统初始化的过程中会调用do_basic_setup函数进行一些初始化操作。其中2.6.11内核中就直接包括了driver_init()驱动程序初始化,以及sock_init函数初始化socket层。然后do_initcalls()函数调用一组前缀为_init类型(这个宏就表示为需要在系统初始化时执行)的函数。与网络相关的以_init宏标记的函数有:net_dev_init初始化设备无关层;inet_init初始化网络协议层。(fs_initcall和module

17、_init这两个宏也具有类似的作用。由于这一阶段处于系统初始化,宏定义比较多,欲详细了解各种宏的使用的读者请参阅参考文献Understanding Linux Network InternalsPart II Chapter 7)我们下面详细介绍一下这三个初始化函数都进行了哪些工作。(a)net_dev_init(在文件/net/core/dev.c中):设备操作层staticint_initnet_dev_init(void)if(dev_proc_init()if(netdev_sysfs_init()INIT_LIST_HEAD(&ptype_all);for(i=0; i16; i+)

18、INIT_LIST_HEAD(&ptype_basei);for(i=0; iARRAY_SIZE(dev_name_head); i+)INIT_HLIST_HEAD(&dev_name_headi);for(i=0; iARRAY_SIZE(dev_index_head); i+)INIT_HLIST_HEAD(&dev_index_headi);/Initialise the packet receive queues.for(i=0; iNR_CPUS; i+) structsoftnet_data*queue;queue=&per_cpu(softnet_data, i);skb_q

19、ueue_head_init(&queue-input_pkt_queue);queue-throttle=0;queue-cng_level=0;queue-avg_blog=10;queue-completion_queue=NULL;INIT_LIST_HEAD(&queue-poll_list);set_bit(_LINK_STATE_START,&queue-backlog_dev.state);queue-backlog_dev.weight=weight_p;queue-backlog_dev.poll=process_backlog;atomic_set(&queue-back

20、log_dev.refcnt,1);open_softirq(NET_TX_SOFTIRQ, net_tx_action, NULL);open_softirq(NET_RX_SOFTIRQ, net_rx_action, NULL);这个函数所做的具体工作主要包括:初始化softnet_data这个数据结构(每个CPU都有一个这样的队列,表示要交给此CPU处理的数据包);注册网络相关软中断(参见我关于软中断的文章,点这里)。(b)inet_init(在文件/net/ipv4/af_inet.c中):网络层由于各种网络协议是按照协议族(protocol family,PF或者address f

21、amily,AF)为单位组织起来的。我们在这里仅以Internet协议族(AF_INET或者PF_INET,在内核中这二者是等价的)为例。有时候这一层又被称为INET socket层(对应的数据结构为struct sock),请注意与BSD socket层区别(对应数据结构为struct socket):BSD socket层提供一组统一的接口,与协议无关;但具体到网络层就必须与协议相关了,因此操作也会有一些不同。代码如下(有删节):staticint_initinet_init(void)structsk_buff*dummy_skb;structinet_protosw*q;structl

22、ist_head*r;rc=sk_alloc_slab(&tcp_prot,tcp_sock);rc=sk_alloc_slab(&udp_prot,udp_sock);rc=sk_alloc_slab(&raw_prot,raw_sock);/Tell SOCKET that we are alive(void)sock_register(&inet_family_ops);/Add all the base protocols.if(inet_add_protocol(&udp_protocol, IPPROTO_UDP)0);if(inet_add_protocol(&tcp_proto

23、col, IPPROTO_TCP)0);for(r=&inetsw0; r&inetswSOCK_MAX;+r)INIT_LIST_HEAD(r);for(q=inetsw_array; q&inetsw_arrayINETSW_ARRAY_LEN;+q)inet_register_protosw(q);/Set the ARP module uparp_init();/Set the IP module upip_init();tcp_v4_init(&inet_family_ops);tcp_init();/dev_add_pack(&ip_packet_type);module_init

24、(inet_init);这个函数中包括的主要函数包括:sock_register:在以前的文章中说过,Linux内核网络协议栈采用了分层结构,所以层与层之间肯定是松耦合的。上层的socket层并不知道下面的网络协议层都具体包括哪些协议。因此本函数有两个作用:(a)周知INET协议族;(b)注册到socket模块上。inet_add_protocol:在协议族中添加具体的协议。inet_register_protosw:各种inet协议族中的协议在内核中是保存在inetsw_array数组,其中元素为inet_protosw类型(/include/net/protocol.h文件中),每一个元素

25、对应一个协议。每一个协议又有两个数据结构:struct proto/structproto_ops。这两个结构中都是一些函数操作,但proto表示每个协议独特的操作,而proto_ops是通用的socket操作(包含在struct socket中);这种区别就类似于INET socket和BSD socket的区别。(c)sock_init(在文件/net/socket.c中):BSD socket层定义如下(代码有删节):void_initsock_init(void)/Initialize sock SLAB cache.sk_init();/Initialize skbuff SLAB

26、cacheskb_init();/Initialize the protocols module.init_inodecache();register_filesystem(&sock_fs_type);sock_mnt=kern_mount(&sock_fs_type);/The real protocol initialization is performed when do_initcalls is filter_init();此函数主要执行的工作是:初始化sock和sk_buff数据结构(这些重要的数据结构在后面的文章中还会涉及);由于sock属于linux文件系统的一部分,因此要注册

27、成为文件系统;以及如果使用netfilter,也要进行初始化。Linux内核网络协议栈笔记3:重要数据结构sk_buffsk_buff,全称socket buffers,简称skb,中文名字叫套接字缓存。它可以称得上是Linux内核网络协议栈中最重要的数据结构,没有之一。它作为网络数据包的存放地点,使得协议栈中每个层都可以对数据进行操作,从而实现了数据包自底向上的传递。主要参考资料是Understanding Linux Network InternalsPart I-Chapter 2.1中关于sk_buff的介绍。由于这个结构比较庞大,笔者主要选择比较重要的部分进行介绍,其余的还请看参考资

28、料。(1)一些重要字段struct sock *sk;指向拥有这个缓存的那个sock(注意,这里是sock,不是socket,缓存是由具体协议拥有的)。structnet_device *dev;接收或者发送这个数据包队列的网络设备。参见笔者前面所写的文章(点这里)。(2)sk_buff的创建和销毁dev_alloc_skb/dev_kfree_skb函数负责sk_buff的创建和销毁,其内部分别调用了alloc_skb/kfree_skb。其内部实现就不再介绍了,但关于销毁和资源释放有一点需要注意:由于同一个sk_buff有可能被很多对象使用,所以使用了引用计数(reference coun

29、t),当没有人使用之后,才能释放其资源。(3)布局(Layout)sk_buff的实现方式是双向链表。不仅每个节点有next指针指向下一元素,prev指针指向前一元素,又包含一个指向头结点的指针;同时链表的头结点比较特殊,包括了链表长度和一个自旋锁用于同步,因此形成了如下的结构:关于布局,sk_buff实现的另一个重要功能就是:当数据包从最底层的数据链路层向上传递到传输层时,进行一些处理。例如,IP层把数据包交给传输层时,就需要把IP头去掉。下面的图演示了一个UDP的数据包在发送时添加UDP报头和IP报头的过程:这个功能还需要另外三个成员变量,分别指向了传输层的头部(h),网络层的头部(nh=network header),数据链路层的头部(mac):union . hunion . nhunion . mac在2.6.30内核中这三个字段改为了:sk_buff_data_ttransport_header;sk_buff_d

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1