SDN 概述和发展趋势
ICT启示
支撑PC生态系统快速革新的三个因素是:Hardware Substrate,硬件底层化(x86指令集);Software Definition;Open Source。
SDN => 把中间承载网络分层、虚拟化,更加简单
支撑SDN的关键是找到一个合适的Hardware Substrate => OpenFlow,描述对网络底层硬件的抽象,基本编程载体是Flow,即网络世界的Flow指令集,从而作为硬件架构和软件定义的一个桥梁 => 下层硬件不断演进,上层的网络软件可以保持兼容,SDN生态圈良好发展。
核心思想:控制和转发分离,软件应用灵活,可编程。
未来思考 电信网络架构如何变革?
唯一路径:网络利用率低
协议复杂:维护故障定位困难
缺少全局视图:不能全局最优
IP城域网采用分布式架构,导致管理运维复杂,缺乏管理运维方面的设计,网络在部署一个全局业务策略的时候,需要逐一配置每台设备。随着网络规模和业务的扩大,难以实现对业务的高效管理和故障的快速排除;网络创新困难,IP网络采用了垂直集成,控制平面和数据平面深度耦合,在分布式网络控制机制下,新技术的引入严重依赖于现网设备,并且需要多个设备同步更新,使得新技术的部署周期较长,严重制约着网络的演进发展;设备日益臃肿,由于IP分组技术采用打补丁的演进策略,随着设备支持的功能和业务越来越多,其实现的复杂度也显著增加。
如何解决上述问题?
需要对现有网络进行变革,通过转发和控制分离,建立一个统一的控制器,类似于大脑负责计算全网的拓扑和路由信息,实现全局流量的整体优化与调整,区别以往逐一配置每台设备,只要在一台设备上完成更新后即可完成新业务的部署,对故障快速定位与排除。
技术驱动:网络架构的变革
网络:构建一个集中的大脑,实现全局流量和整体最优
关键价值:简化运维,自动化调度,提高网络利用率、网络开放。
SDN:电信网络软件化
SDN(Software Defined Network),软件定义网络,是美国斯坦福大学Clean Slate研究组提出的一种新型网络创新架构。
其核心技术是通过将网络设备控制面和数据面分离开,从而实现了网络流量的灵活控制,为核心网络及应用的创新提供了良好的平台。
SDN作为网络新型技术,从网络架构和设备架构方面进行创新。
转发设备不再是专用设备,抽象出功能至控制层面,易于全局调度及管理,降低运维难度。
思考题:SDN网络和传统IP网络的区别?
SDN利用控制转发相互分离从架构上解决根本问题:让网络敏捷起来,更快的部署新业务与快速定位故障点。采用资源集中和统一调度、能力开放的策略;让软件来干硬件的活
SDN解决方案介绍:
1.描述RR+方案的应用场景和价值
2.掌握PCE+方案的部署实现
3.理解基于SDN技术的DCI网络
a.DCI:数据中心互联网络
背景:云数据中心需要基于用户体验进行层次化布局,网络需要以数据中心为中心组网进行重构。
DCI:数据中心互联网络
为什么需要新建DCI网络?
1.云数据中心建设位置要求:高拓展性、低成本;资源丰富;温度适宜。
2.新建大型云数据中心与传统骨干网核心位置不重合。
3.云业务对网络要求:云计算对时延有非常严格的要求,如跨DC同步计算、虚拟机热迁移等业务需要在10ms以下;DC间流量具有突发性和不均衡性,需要采用SDN技术进行实时智能调优,而现有网络复杂,新技术部署难。 => 很难重用现有骨干网,需要新建DCI网络
基于SDN的DCI方案总览
多地域 多运营商部署多个数据中心的方式 => 解决用户覆盖、提高用户业务体验的方案。
DCI方案问题:网络不灵活难以跟住业务快速迭代的步伐,链路利用率较低,居高不下的OPEX压力等。
华为SDN DCI整体经济方案:顶层端到端协同,实现包含DC云与DC承载网的云网资源的一站式提供和端到端业务自动化协同发放。
可以支撑云数据中心业务的端到端运营,整体架构包括承载层和控制层,需要在网络基础承载层上引入部署SDN的控制层。
控制层是网络的业务发放管理平台和网络智能控制中心,该层主要功能部件为: a.业务发放平台,提供业务自动化入口实现租户业务自助发放,以及网络资源状态的可视化和运维管理入口; b.业务协同平台,DCI业务需求分解和DC和IDC的协同,实现端到端的跨控制器资源的协同和分解;c.云平台,接收业务发放平台的业务分解,进行DC云业务分解和协同,实现DC的内存储,计算和网络的协同;d.DC控制器,接受OpenStack业务分解,统一控制DC的NVE和VxLAN GW,实现DC内网络自动部署和控制;e.DCI控制器,接受业务协同平台资源的分解,实现Underlay网络部署的自动化和网络流量的智能优化;f.流量采集工具,调优策略的输入;g.流量采集组件,可以基于端口,TE隧道进行流量采集和分析,并提供网络流量可视化的界面。
DCI骨干网解决方案承载层是租户业务的承载实体,负责跨DC网络的连接,以及业务宽带和SLA保证,骨干网支持VxLAN技术,提供了大二层组网的能力,能够跨越广域网和多个物理DC构建vDC网络,实现了跨区域的资源节点的互备和虚拟机动态迁移,有效提升了DC云资源的利用效率。
骨干网部署业界广泛使用的MPLS TE流量工程技术,为租户业务提供端到端的宽带保证,提升了网络资源的利用效率,特别是提供了基于租户和业务的差异化的服务能力。
网络承载支持采用Overlay技术,Overlay业务网络基于云业务驱动,支持快速的业务开通。Underlay物理网络按需提供网络资源,实现端到端的SLA保障和智能流量的优化。
b.智能流量调优方案:RR+方案
目前的IP Core网络存在以下流量调整需求:实现IGW出口/DC出口的流量均衡,均衡链路向流量的分布;降低不同ISP网间费用的结算,将流量更多的分布于费用较低的链路上;提升VIP用户的体验,将VIP用户的流量调整到SLA服务更好的链路上。
当前解决方案依赖于手工调整BGP路由策略:监控链路带宽利用率;识别出需要调整的流;基于流制作BGP策略,下发给设备;循环操作,直到流量符合期望目标要求。手工调整方法不能实时调整,也存在耗时长,配置和维护复杂问题。
RR+方案在IP Core现网中加入SDN Controller,通过Controller实现集中控制,智能化流量调优。
RR+:a.最大化带宽利用率均衡链路间流量的分布,降低网间结算费用,不同客户提供不同SLA服务;b.自动调整流量,取代复杂的手工操作;c.基于标准BGP通讯,可以和现网设备平滑兼容。
c.SDN PCE+方案
什么是PCE+方案:
IP网络对流量的转发依赖于路由转发,路由协议主要使用最短路径优先算法,选择Cost值最小的路径进行转发,不会考虑链路带宽的因素,存在宽带利用率低的问题。
PCE+通过在网络中部署PCE server(SDN Controller),使用StatefulPCE技术,为MPLS TE LSP集中算路。使网络带宽资源使用尽量达到最优。
需要新部署的设备:PCE Server,收集全网拓扑信息和托管业务,全局管理网络宽带资源,统一分配全网带宽资源,集中计算LSP业务路径;转发设备均称为PCE Client。
当网络中的PCE Client需要计算LSP时,会向PCE Server发起路径计算请求,由Server进行计算后再把结果反馈给Client,Client收到结果之后再进行LSP隧道建立。
思考题:什么是DCI?
DCI,即Data Center Interconnect,指的是用于数据中心之间互联的网络,DCI网络正是实现“以数据中心为中心组网”的基础承载网络。
NFV技术概述与发展趋势
ICT当前面临的结构性挑战
A.增收面临结构性挑战:电信业用户数饱和,传统业务下滑。
B.节流面临结构性挑战:在CT行业投入成本下降的情况下,IT部分的投入持续增长。
C.创新面临结构性挑战:CT业一年有5个业务创新,IT业的业务创新一年能达到16w个。商用速度上,CT业每月6个上市,IT业每小时12个上市。
万物互联,IT与CT融合,诞生了NFV。
什么是NFV
NFV,Network Functions Virtualization 网络功能虚拟化,是在ETSI组织下组建的产业标准组织,希望通过采用通用服务器、交换机和存储设备到达实现传统电信网络的功能。通过借助IT的虚拟化技术,许多类型的网络设备可以合并到工业标准中,如servers、switches和storage,可以部署在数据中心、网络节点或者是用户家里,这需要网络功能以软件方式实现,并能在一系列的工业标准服务器硬件上运行,可以根据需要进行迁移、实例化,部署在网络的不同位置,无需安装新设备。
关键诉求包括基于标准的大容量Server,存储和大容量以太网,不同Vendor提供的应用以软件的形式远程自动部署在统一的基础设施上。
NFV的三个关键点是:软硬件解耦、开放、自动化。
NFV将IT基因融入电信网络
传统电信网络由于软件硬件绑定,更新困难,多厂家异构的专有硬件以及烟囱式的网络造成了管理维护的困难,采用虚拟化技术和云计算的目标网络,硬件采用标准的服务器、存储和交换机,通过虚拟化之后,上层的业务通过软件形式,运行在统一的标准的硬件基础上,从而带来很多好处。
由于软硬件解耦,网络功能虚拟化易于更新,硬件通用化,支持异构,资源归一,简化管理和运维。
NFV正在走向成熟
NFV发展曲线说明NFV正在趋于成熟,伴随着一系列的架构标准的建立及稳定。
NFV 网络架构
NFV生态系统
相关标准组织:
1.ETSI在2012年成立了NFV ISG来研究网络功能虚拟化。
2.OpenSource组织:OPNFV、OpenStack等。
NFV产业联盟秉承开发、创新、协同、落地的宗旨,集多厂商和合作伙伴进行联合创新,成为开放联盟的引领者。
业界和领先运营商对NFV的认可,积极拥抱NFV,如:Current Analysis;华为的Telifonica;Vodafone;德国电信;Orange等。
Vodafone业界首个NFV商用节点,基础设施、操作系统和应用软件分别使用惠普、VMware和华为多厂商环境,通过华为进行系统集成,构造电信级别的SLA保障和NFV网络。
NFV框架
NFV框架包括三大组件:NFVI、VNF和MANO。
1.NFVI:
硬件和云操作系统。
框架中最底层的是硬件,包括计算、存储和网络资源;往上是云操作系统,完成虚拟化和云化的相关功能。
I意指设施,这些设施均有VIM进行管理。
2.虚拟网络功能
如vIMS提供IMS的语言服务,vEPC提供4G的数据网络功能。
虚拟网络功能由VNFM来管理,提供VNF的生命周期管理。
3.网络管理层和网管
网管可以配套NFVO进行网络业务生命周期的管理。
NFV三大组件关键要求
1.组件MANO(NFVO+VNFM+VIM)
a.VNFM适配不同厂商NFVO和VIM
b.MANO系统应该尽量减小对现有OSS/BSS冲击
如要求MANO支持和现有传统平台的对接。
2.组件VNF 虚拟化网络功能
a.可以运行在不同厂商的NFVI
b.对应传统电信业务网络,每个物理网元映射为一个虚拟网元VNF
3.组件NFVI 云操作系统
a.优选基于OpenStack的云操作系统
b.将物理计算/存储/交换资源通过虚拟化转换为虚拟的计算/存储/交换资源池
4.组件NFVI硬件
a.优选使用具有虚拟化辅助功能的芯片的COTS
b.同时具备高IOPS与高可靠性的磁阵
c.低RAID等级的磁阵建议冗余组网
NFV关键能力
解决业务网络的自动部署问题,是一个巨型的ICT系统集成工程。
开放
开放的能力是指虚拟化网络功能运行在多厂商云平台,表现在广泛兼容、性能稳定和支持异构三方面。
NFV网络在商用之前通过测试多种硬件而稳定运行。
另外NFV支持异构,比如在硬件基础上,我们可以支持厂商B的VNFM和厂商A的NFVO,并且可以和现网的传统平台进行异构系统集成。
NFV平台必须是一个开放共享的环境,能够运行来自不同厂商的应用,广泛兼容不同厂商的硬件以及云化的操作系统。
云化架构(虚拟化!=云化)
云化架构是弹性和可靠性的基础。传统平台软件硬件绑定;在虚拟化阶段,软件硬件进行解耦,软件可以运行在标准的硬件基础上,但是业务逻辑和业务数据仍然还是绑定的。
NFV应用平台必须为开发者提供网络功能和子功能部署的精细化控制能力,基于运营商策略和资源的可用性,自动发现工作负载所应在的最佳位置,还需要将分布式数据中心和网络作为一个单一的虚拟云来管理,这使得运维人员可以管理来自各种输入源的事件,以便实时的对整个云平台进行分析和监控,进而提升决策效率。
在云化架构阶段,软件硬件继续解耦,同时业务逻辑和业务数据进行了解耦,会话转发层和业务逻辑进行了解耦。
eg.CSCF
会话转发层有CSDPU虚拟机负责收发报文,业务逻辑层有CSSCU虚拟机负责处理业务逻辑,业务数据层有CSRDB虚拟机负责保存用户业务的数据,如稳态呼叫会话数据。
用户的业务数据保存在不同的主RDB上,主RDB同步给备RDB,做到分布式的数据库弹性部署,同时支持主备冗余备份可靠性。
弹性
分钟级的弹性扩容和秒级弹性缩容。
当业务量需要增加的时候,由主RDB生成新的虚拟机来支持更多的业务处理,RDB中就保留了动态数据,如用户签约数据等。用动态数据可以生成新的VM来支持业务需要。
当业务量下降的时候,如夜晚,用户呼叫量下降,可以将业务迁移到其他虚拟机,并对相应虚拟机设备下电,减少虚拟机设备的运行,而稳态话务可以立即在其他模块中重建。
高可靠性
不论应用层、云操作系统层还是硬件层,都有相应的冗余机制。
应用层高可靠性可以通过主备和LB方式实现主备VM之间的冗余,主备方式冗余机制就是当主虚拟机故障了,备用虚拟机自动接管业务;另一种就是无状态的N+M冗余机制,当负荷分担的N个虚拟机中有谁故障了,其他M各虚拟机自动接管。
云操作系统可靠性可以通过虚拟机快速重建冗余机制来实现,虚拟机故障之后通过新生成的虚拟机接管故障虚拟机的业务。
硬件层高可靠性主要通过簇化以及物料冗余机制实现计算、存储、网络等硬件设备的冗余。当某一网元,如服务器故障之后,其他冗余资源将自动接管。
硬件层、VM层、业务层各层的可靠性各自独立,确保应用层会话零中断及资源永远可用,实现电信级五个9的可用性和可靠性。
高性能
NFV业界权威评估公司SPECvirt评估,华为的FusionSphere性能得分为4.6分,排名第一。在呼叫处理能力方面,华为FusionSphere比第二名VMware高出17%。
高性能优化会用到很多关键技术,比如NUMA亲和性、CPU绑定、DPDK、透明巨页、虚拟中断优化等等。
NFV存在的问题
1.NFV标准不成熟
2.多供应商,集成复杂
3.部件兼容性风险大
NFV只定义架构层次,各个层次接口的标准是由其他开源或者技术组织来实现,多厂家设备不兼容性的风险大。
4.NFV工程难度大
5.网络虚拟化技术滞后
6.虚拟化可靠性不够
目前达不到5个9的电信级可靠性。
- 本文链接:https://zeozzz.github.com/2019/05/24/49/
- 版权声明:本博客所有文章除特别声明外,均默认采用 许可协议。