dpdk协议.docx

上传人:b****3 文档编号:2041507 上传时间:2022-10-26 格式:DOCX 页数:5 大小:20.30KB
下载 相关 举报
dpdk协议.docx_第1页
第1页 / 共5页
dpdk协议.docx_第2页
第2页 / 共5页
dpdk协议.docx_第3页
第3页 / 共5页
dpdk协议.docx_第4页
第4页 / 共5页
dpdk协议.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

dpdk协议.docx

《dpdk协议.docx》由会员分享,可在线阅读,更多相关《dpdk协议.docx(5页珍藏版)》请在冰豆网上搜索。

dpdk协议.docx

dpdk协议

竭诚为您提供优质文档/双击可除

dpdk协议

  篇一:

软件定义数据中心网络解决方案

  软件定义数据中心网络解决方案

  伴随着互联网的高速发展,互联网数据中心也迅速发展。

尤其是云计算的发展,使得更多的应用处理集中到云端,促使云计算数据中心的规模急剧增长。

未来的互联网流量将以云计算数据中心为核心,而未来的互联网将是以云计算数据中心为核心的网络。

  数据中心网络面临的主要问题

  随着数据中心规模的快速增长以及云计算的部署,在网络的管理、业务的支撑、绿色节能等方面对数据中心网络提出了更多和更高的要求,具体表现如下:

  集中高效的网络管理要求

  大型云计算数据中心普遍具有上万台物理服务器、数十万台虚拟机。

如此大规模的服务器群需要数千台的物理网络设备、数万台的vswitch进行连接和承载。

这样大规模的数据中心网络需要统一集中管理,以提高维护效率;需要快速的故障定位和故障排除,以提高网络的可用性。

  高效灵活的组网需求

  云计算数据中心网络规模大、组网复杂,在网络设计时,为了保障网络的可靠性和灵活性,需要设计冗余链路、保护链路,部署相应的保护机制。

在现有数据中心组网中大量采用的VRRp、双链路上联、stp等技术,存在着网络利用率低,容易出现故障,且仅能实现局部保护等问题。

  虚拟机的自动化部署和迁移需求

  云计算数据中心部署了大量的虚拟机,并且虚拟机需要根据业务的需要进行迁移。

这就需要数据中心网络能够感知虚拟机,能够根据虚拟机的部署和迁移,灵活配合部署相应的网络策略。

  虚拟多租户业务支撑要求

  云计算数据中心需要为用户提供虚拟私有云租用服务,租户可以配置自己的子网、虚拟机ip地址和acl,管理自己的网络资源。

需要数据中心网络支持虚拟多租户能力,支持大量的租户部署,实现租户的隔离和安全保障。

  全面的数据中心iaas要求

  在云计算数据中心中,云计算技术的引入,实现了计算资源和存储资源的虚拟化,为用户提供了计算资源和存储资源的iaas服务,但常规的网络资源还无法按需提供虚拟化,难以提供计算资源+存储资源+网络资源的全面iaas服务。

  基于sdn的数据中心网络方案

  sdn(softwaredefinednetworking,软件定义网络)技术能很好地契合数据中心网络在集中网络管理、灵活组网多路径转发、虚拟机部署和智能迁移、虚拟多租户、iaas等方面的需求,非常适合在数据中心网络中应用。

因此,基于sdn的云计算数据中心网络是未来数据中心网络的发展趋势。

  中兴通讯的软件定义数据中心网络解决方案如下图所示:

  图1软件定义数据中心网络解决方案

  软件定义数据中心网络主要分为三大部分:

承载转发功能的网络硬件设备和虚拟化转发设备,实现网络虚拟化的sdn控制器,以及统一网管。

推荐采用基于Vxlan技术的大二层组网,同时也支持sdn控制下的Vlan大二层组网。

其中,sdn控制器用于实现对网络设备(物理交换机和虚拟交换机)的集中管理和控制,还负责与云平台的协同,实现网络的自动化部署、虚拟机迁移策略跟随、对外dc互联等功能。

  在软件定义数据中心网络解决方案中,中兴通讯拥有完整的产品家族,对于不同规模的网络可以选择不同的产品组合:

  sdn控制器,自主研发的zenicsdn分布式集群控制器,支持小规模网络到大型dc网络的平滑扩容;

  Vtep设备,根据组网需求可以选择zx-dVs虚拟化交换机或者zxR105960系列toR交换机;

  Vxlangw,根据组网需求可以选择zx-Vsg虚拟化路由器、zxR109900系列交换机或者zxR10m6000-s系列路由器;

  提供l4-l7service设备,包括虚拟负载均衡器、虚拟防火墙以及虚拟ipsecVpn等软件设备。

  主要产品的关键功能有:

  zenicsdn分布式集群控制器

  

(1)支持openFlow1.0/1.3/1.5

  

(2)分布式集群,支持1-128节点

  (3)丰富的南北向接口,包括Rest/Restconf、neutronapi、oVsdb、oF-config

  1.1/1.2、netconf、snmp、bgp-ls、pcep等

  (4)支持Vxlan二层互通/三层互通/多分段拼接、service-chain、分布式路由等dc网络应用功能

  (5)内置集中aRp代理、dhcp、bgp、ospF等协议功能

  zxR10m6000-s系列路由器

  

(1)多业务路由器平台,可充当公有云的Vxlangw和nat,支持ipsecVpn

  

(2)支持openFlow1.3和多级流表

  (3)支持3/5/8/18槽位配置,100g/40g/10ge/ge灵活配置

  (4)支持路由器虚拟集群技术VRc(VirtualRoutercluster)

  zxR109900系列交换机

  

(1)核心交换机,可充当私有云网络的Vxlangw

  

(2)支持openFlow1.0/1.3,基于oFdpattp流表模型

  (3)支持4/8/12/16槽位配置,100g/40g/10ge/ge灵活配置

  (4)增强的虚拟交换集群Vsc2.0技术

  zxR105960系列交换机

  

(1)toR交换机,支持openFlow1.0/1.3,基于oFdpattp流表模型

  

(2)支持VxlanRouter功能,支持分布式路由组网的Vtep

  (3)最大48*10ge+4*40ge端口配置

  (4)基于ieee802.1qbg、802.1qbh、802.1bR的网络虚拟化

  zxdVs虚拟交换机

  

(1)采用dpdk加速,万兆线速转发

  

(2)支持openFlow1.3,支持VxlanVtep

  方案特点

  中兴通讯的软件定义数据中心网络解决方案,主要有以下特点和优势:

  集中高效的网络管理和运维

  sdn采用转发与控制分离、控制逻辑集中的方式,由中兴通讯的zenicsdn控制器实现网络的集中全面控制。

zenicsdn控制器拥有全网的静态拓扑及动态转发信息,可实施全网的高效管理和优化,更有利于网络故障的快速定位和排除。

如:

在具有全网静态拓扑和动态转发信息的基础上,支持端到端的故障诊断和流镜像功能,使得流量可视化,实现故障的快速定位和处理,提高运维的效率。

用户配置和部署逻辑/虚拟网络,系统自动化完成虚拟网络到物理网络的映射。

  灵活组网与多路径转发

  软件定义数据中心网络采用统一的zenicsdn控制器实施控制,网络的转发规则和动作由控制器统一控制和下发,能有效避免环路,能根据业务的需求通过转发流表的控制,实现多路径转发和负载均衡,大幅提高网络的可靠性和利用率。

  智能的虚拟机部署和迁移

  虚拟机的部署和迁移需要网络的配合。

在软件定义数据中心网络的方案中,通过idc管理平台、Vm服务管理器以及sdn控制器协同实现虚拟机的智能化部署和迁移。

当某台虚拟机需要迁移时,首先是Vm服务管理器感知到,并向idc管理平台发出请求,提出网

  篇二:

负载均衡的原理说明

  大家都知道一台服务器的处理能力,主要受限于服务器自身的可扩展硬件能力。

所以,在需要处理大量用户请求的时候,通常都会引入负载均衡器,将多台普通服务器组成一个系统,来完成高并发的请求处理任务。

  之前负载均衡只能通过dns来实现,1996年之后,出现了新的网络负载均衡技术。

通过设置虚拟服务地址(ip),将位于同一地域(Region)的多台服务器虚拟成一个高性能、高可用的应用服务池;再根据应用指定的方式,将来自客户端的网络请求分发到

  服务器池中。

网络负载均衡会检查服务器池中后端服务器的健康状态,自动隔离异常状态的后端服务器,从而解决了单台后端服务器的单点问题,同时提高了应用的整体服务能力。

  网络负载均衡主要有硬件与软件两种实现方式,主流负载均衡解决方案中,硬件厂商以F5为代表目前市场占有率超过50%,软件主要为nginx与lVs。

但是,无论硬件或软件实现,都逃不出基于四层交互技术的“转发”或基于七层协议的“代理”这两种方式。

四层的转发模式通常性能会更好,但七层的代理模式可以根据更多的信息做到更智能地分发流量。

一般大规模应用中,这两种方式会同时存在。

  20xx年F5提出了adc(applicationdeliverycontroller)的概念为传统的负载均衡器增加了大量的功能,常用的有:

ssl卸载、压缩优化和tcp连接优化。

nginx也支持很多adc的特性,但F5的中高端型号会通过硬件加速卡来实现ssl卸载、压缩优化这一类cpu密集型的操作,从而可以提供更好的性能。

  F5推出adc以后,各种各样的功能有很多,但其实我们最常用的也就几种。

这里我也简单的总结了一下,并和lVs、nginx对比了一下。

  ssl卸载和压缩优化,主要是将cpu密集型的加解密和压缩操作移到负载均衡器上进行;tcp连接优化主要指的是用户和负载均衡器短连接的同时,负载均衡器和后端服务器建立长连接。

  不过我们本次主要介绍四层负载均衡,所以这些高级adc  

功能不会涉及到。

  F5的硬件负载均衡产品又分单机bigip系列和集群VisRion系列,都是x86架构,配合自研的tmos(trafficmanagementoperatingsystem),再加上硬件加速卡(cavium提供)处理ssl和压缩等cpu密集型操作。

  l4cps:

四层每秒新建连接数。

测试的时候一般采用tcp短连接,每次请求128字节。

体现cpu性能,最重要的性能指标,没有之一。

  l4最大并发连接数:

体现内存大小

  l7Rps:

七层每秒请求数。

测试时每连接10个128字节http请求。

主要体现http协议栈性能

  这些性能指标实际上就是一个负载均衡器最关键的指标了。

大家如有采购硬件负载均衡器一定要看这个。

  有很多小牌子的硬件负载均衡器经常不标注l4cps,只是笼统地说10g负载均衡,其实差别很大的。

  硬件负载均衡在功能、易用性和可扩展性上都做得不错,但是也有不少缺点。

从商业角度来说,硬件负载均衡产品过于昂贵,高端产品动辄五十万甚至数百万的价格对于用户是几乎不可承受的负担。

  从使用角度来说,硬件负载均衡是黑盒,有bug需要联系厂商等待解决,时间不可控、新特性迭代缓慢且需资深人员维护升级,也是变相增加昂贵的人力成本。

  相信除了很多不差钱的公司,大家还是用软件负载均衡比较多。

  软件四层负载均衡最常见的就是lVs了。

  lVs最常用的有nat、dR以及新的Fullnat模式。

上图比较了几种常见转发模式的优缺点。

  我们认为lVs的每种转发模式都有其优点和缺点,但最大的问题还是其复杂性。

  我第一次看到这三种转发方式、还有F5的单臂模式、双臂模式都会有云里雾里的感觉。

雪上加霜的是咱们还需要考虑lVs的性能扩展和容灾方法,这使得整个方案更加的复杂。

  常见的有基于keepalived的主备方式和ecmp两种。

keepalived主备模式设备利用率低;不能横向扩展;VRRp协议,有脑裂的风险。

  篇三:

基于32位系统的dpdpkni功能修改方案

  问题:

  在32位系统中,kni程序在启动的过程中会导致内核挂死,无法操作;而64位系统可以正常运行。

  排查过程:

  从系统挂死时打印出的信息是系统处理非法指针时出错,从栈信息看,系统是运行到了kni_net_rx函数中挂死的,进而走读该函数,走读时特别关注指针相关操作代码的严谨性,在可凝处加打印来跟踪代码行为。

  在kni_net_rx_normal中,在每一处使用指针的地方都加上打印后,重新编译并执行程序,发现kni_net_rx_normal函数在处理到num_rq=kni_fifo_count(kni->r

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 求职职场 > 简历

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1