为解决传统城域网架构在5G大带宽、云化和云网融合等需求场景下存在的建网成本高、业务编排复杂等问题,中国联通提出了面向5G时代的固移融合、云网一体的智能城域网架构,是对已有综合承载传送网(UTN)的技术升级。中国联通智能城域网端到端支持并部署SR/EVPN协议,承载5G业务、政企大客户业务和家宽业务等,其中5G业务等三层业务采用SR-BE+L3VPN方案实现,二层业务采用SR-TE+EVPN方案实现。

目前智能城域网络已经完成了初期建设,但随着以SRv6和网络切片为代表的IPv6+技术的持续研究与陆续成熟,承载网络也将处于持续演进的过程。

SRv6技术与应用研究

SRv6作为IPv6+的核心代表技术,虽然在2013年与SR-MPLS技术一起提出,但是在2020年3月第一个核心RFC 8754(IPv6 Segment Routing Header,简称SRH)才正式定稿。从主流设备厂商支持的完备程度上看,SRv6技术的成熟与国内5G承载第一阶段的研究/建设窗口期之间存在一定的错位时间窗,由此导致SRv6技术尤其是体现SRv6可编程核心价值的SRv6 Policy技术未能在5G承载网络建设的第一时间部署应用。而SRv6技术相比于SR-MPLS技术,是当前阶段达成了一定共识的下一代演进的更优技术。因此5G承载网络向SRv6技术演进是目前研究的主要方向之一。

目前,国际、国内标准组织均在积极推进SRv6技术的相关标准化。现阶段已经形成了RFC 8754、RFC 8986等多篇RFC标准文稿,支持SRv6的ISIS/OSPF扩展等标准草案也在快速成熟,在国内CCSA也已经完成了《基于SRv6的IP承载网络总体技术要求》《基于SRv6的网络编程技术要求》和《基于SRv6的VPN网络技术要求》等系列标准。

从SRv6的应用部署来看,受管控面的成熟度、设备的支持能力和SRH头压缩标准进展等因素的综合影响,在2021年之前业界SRv6的大部分部署案例主要是基于SRv6-BE技术实现,虽然SRv6-BE技术基于Native IPv6的可达性在集客专线等场景可以发挥出快速开通的优势,但是从SRv6可编程特性的应用来看,SRv6-Policy才是SRv6技术成熟落地的标志。

同时,依托于SRv6-Policy技术,业界也在积极开展基于SRv6的SFC技术研究。如图1所示,借助SRv6 SFC技术,可以更加灵活地为传统的运营商专线提供增值服务能力,尤其在安全增值服务场景,SRv6 SFC技术可以充分发挥Native IPv6可达性、可编程性的优势,实现云侧服务与网络侧承载的融合统一,在一定程度上实现云网融合。

图1  基于SRv6的SFC增值服务专线场景

基于SRv6的SFC技术与PBR和NSH等技术相比有明显的优势,其可以与其它SID type无缝集成统一编排,简化网络层次,也可以充分利用SRv6的网络编程能力,易于扩展。在SRv6网络中,利用SRv6 SID的业务语义实现SFC,是相对更优的选择。

目前基于SRv6的SFC技术相关IETF标准主要有转发面标准draft-ietf-spring-sr-service-programming、控制面标准draft-lz-lsr-igp-sr-service-segments和draft-dawra-idr-bgp-ls-sr-service-segments等,其中转发面标准已经相对稳定,控制面标准尚处于个人草案状态,稳定性相对不足。但在明确需求场景的基础上,可以按需采用静态方式部署SRv6 SFC业务。

基于SRv6的SFC技术对承载网络设备提出了要求,目前虽然转发面标准相对稳定,但仅有部分厂家设备层支持该能力,后续尚需要进一步推动。SFC技术虽然需要调度云侧服务,但并不强制要求云内交换网络/VNF支持SRv6。如图2所示,如果云内VNF支持SRv6,可采用SRv6 aware方式,VNF直接参与业务链的调度。如果云内VNF不支持SRv6,则可采用SRv6 unaware方式部署,将承载网PE配置为SRv6 Proxy,作为云网业务调度点,从而降低对云内服务的要求。

图2  基于SRv6的SFC两种实现方式

SRv6 aware/unaware方式各有优劣,在目前大部分云侧服务不支持SRv6的情况下,可优先采用SRv6 unaware方式开展业务,后续根据网络/业务的具体要求,按需逐步推进SRv6入云。

网络切片

承载网络切片在行业标准中的定义是,IP承载网络为给特定的用户或业务提供专用或共享的网络资源,以满足不同的用户业务差异化连接需求和质量保证的虚拟网络。在IETF中的标准定义可以参考draft-ietf-teas-ietf-network-slice-definition。在实际落地应用中,承载网络切片应用主要的关注点为隔离和差异化的调度服务,目前主要有软切片VPN+QoS与硬切片FlexE+VPN+QoS两种落地部署方式。

通过对流量的采集与分析,可以明确流量的微突发是导致拥塞的核心因素,而实际上管道越小,受到微突发的影响就越大。如图3所示,通过对流量拥塞的模拟仿真可以发现,相同利用率条件下,硬切片管道带宽的降低将使得保障时延上升,相比于50G的硬切片粒度,1G带宽的硬管道会引起保障时延的急剧升高。因此,为更好地向高价值业务提供更大的微突发“偏振区”,一方面,在没有特殊隔离需求的前提下,笔者建议采用粒度更大的硬通道承载多个同类业务,而不建议为每个业务均单独切出小粒度的硬通道;另一方面,笔者建议对业务进行分类,区分高/低突发和高/低价值业务,不同类业务采用不同硬通道承载,以避免高突发业务影响到低突发业务。

图3  硬切片粒度与时延保障仿真结果

同时从管控角度看,目前旨在为解决切片控制面复杂问题的VPN+等技术标准尚在制定中,不论是相对广泛采用多IGP进程的切片控制面解决方案,或者是采用SR policy的控制面解决方案,部署的切片数量太多均不利于承载网络的运维。

针对不同业务的SLA差异化需求及发展节奏,在采用硬切片部署的前提下,笔者建议预部署两种默认切片:基础切片和增值优享切片,同时按需提供业务级独享切片能力,适当收敛硬切片数量。

•基础切片用于承载无特殊SLA要求的业务,如to C移动语音业务和物联网业务等;

•增值优享切片用于承载高价值和高SLA要求的业务,如游戏加速业务和高清转播业务等;

•独享切片用于承载to B业务中对SLA要求极高的业务,以实现和其他任何业务的完全硬隔离,如电网差动保护业务和工业控制类业务等。

基础切片与增值优享切片通过配置不同的带宽扩容门限保证不同的带宽利用率,从而保证差异化的SLA服务质量。原则上无特殊需求的业务均应尽量导入这两种默认切片,保证大多数业务的承载需求。对有特殊需求且高价值的客户,可按需配置灵活硬切片。

承载网络硬切片的部署应根据网络、业务与市场需求决定,但从切片部署复杂度的角度看,由不支持硬切片的承载网络向支持硬切片的承载网络升级,对现网业务的影响相对较大,目前的技术均会造成现网业务的中断,同时大规模的升级会增加运维割接规划的复杂度,因此建议如有硬切片部署的计划,应在开局阶段部署。

APN6/BIERv6/DIP/随流检测等其他IPv6+技术

目前中国联通也正在积极开展APN6/BIERv6/DIP/随流检测等新技术的研究与试点工作。由于部分技术需求场景有待进一步明确,以及标准化尚在进行等不同因素,大多技术尚在研究过程中。值得关注的是,北京联通已率先完成了BIERv6和APN6新技术的实验室测试与现网试点等工作。

总结

随着5G承载技术与设备支持能力的进一步成熟,特别是5G to B业务需求场景的进一步明确,IPv6+系列的相关技术将会逐步应用于5G承载网络,以实现向云边协同和云网融合的智能化网络演进。在当前5G承载网络规模建设的背景下,如何解决网络建设与技术演进之间的关系、减少工程实施的复杂度和对业务的影响度,是运营商迫切需要解决的问题。