城市智能交通

算网融合技术对网络架构影响研究

概述:

  • 英特尔协助合作伙伴,在构建 IT 和云基础设施、实现电信网络转型等领域进行了持续探索,积累了丰富的技术成果和实践经验。针对算力网络和云网融合技术的驱动本源和目标构想,英特尔也进行了深入研究,在云网架构演进和软硬件实现等方面总结思考并提出建议。

author-image

作者

自 2019 年起,中国运营商陆续提出云网融合、算力网络、算网融合等技术方向,并在应用探索、技术创新、标准化等方面积极推进。作为重要合作伙伴,英特尔也积极参与其中,推动相关技术走向成熟与落地。

在过去二十年里,英特尔协助合作伙伴,在构建 IT 和云基础设施、实现电信网络转型等领域进行了持续探索,积累了丰富的技术成果和实践经验。针对算力网络和云网融合技术的驱动本源和目标构想123,英特尔也进行了深入研究,在云网架构演进和软硬件实现等方面总结我们的思考并提出建议,谨供合作伙伴参考和深入探讨。

算网融合驱动网络转型

 

网络提供多样的服务接入(固网接入、移动网络接入、专线接入),以及 IP 数据的承载和互联。计算位于云数据中心、区域数据中心及边缘节点。在云内,计算、存储、网络是有机组成部分,计算和网络已经实现有效的协同,如配合虚拟主机的网络接口虚拟化、VXLAN 等技术。即便如此,计算和网络在构建、运行和评测方面仍按各自相对独立的体系进行。如计算在配置层面关注 CPU 的核数与主频、内存大小、计算节点的网络带宽,在运行层面关注 CPU 利用率、内存访问时延等;网络配置关注带宽、端口数、链路捆绑能力等,在运行时关注时延、丢包率、抖动等指标。

网络和计算要实现深度融合,提供算力灵活调度和编排能力,需要完成三种转变。

1.  网络感知计算

网络在计算端点(如主机或者数据中心网关)可以获取计算状态信息,在协议交互中进行传递,并基于计算状态进行多样化的策略控制,如基于算力承载能力的动态内容分发。

运营商已在 IETF 发起成立 cats 项目(Computing-Aware Traffic Steering)4,进行这方面研究。SRv6 协议是一种具备可扩展和可编程能力的隧道协议,成为在未来算网融合的应用场景下实现算力感知和路由的潜在方案。

 

2.  网络融合计算

从网络拓扑角度看,在临近网络节点的位置部署算力,对最终用户访问而言时延最优。AWS 推出的 Wavelength 云服务就是将内容分发网络(Content Delivery Network, CDN)、云游戏等业务与 5G 网络紧密耦合,以实现时延优化5。美国固网运营商 Lumen 利用其网络在边缘广泛分布的优势,提供低时延的内容和应用分发服务6。运营商主导的多接入边缘计算(Multi-access Edge Computing,MEC)也是类似目的。

更进一步,网络实体可扩展成为计算平台,使网络设备同时具备计算能力,对于时延敏感以及与网络耦合度较高的应用实现本地分流,并完成计算任务。Bell Canada 就通过引入算网融合路由器,在路由节点同时实现防火墙和 NAT(Network Address Translation)功能7。中兴通讯(ZTE)则研制了算网一体的 OLT(Optical Line Terminal)设备,通过在 OLT 中部署刀片服务器,支持 CDN 业务及增强运维能力8

上述这两种方式都极大拓展了计算的类型和部署范围,依此趋势,分布式边缘计算节点和分布式网络最终会实现一体化。

 

3.  计算重塑网络

近年来,网络发展思路逐渐从业务依托网络向网络服务业务转变,网络结构和组织也因计算需求的变化而不断演变和重塑。

在云数据中心内部,虚拟化技术催生若干 L2 over L3 的大二层网络协议,如 VXLAN、TRILL 等,也逐渐形成云数据中心 Leaf-Span 网络交换架构。数据中心间的流量也因为云业务的蓬勃发展而逐年陡增,促使中国运营商构建了数据中心互联(Data center Interconnect,DCI)专用承载网络。

这种算网融合及重塑的趋势正不断外延和扩展,数据中心和边缘节点入口处的网络组织以及运营商的接入网络(见图1)已悄然发生改变,本文将从这两个方面入手探讨计算和网络的融合以及对网络架构产生的影响。

图1. 网络基础架构

云数据中心的算网组织

■   算网网关是算网融合的枢纽节点

 

  • 云网关广泛部署

云网关在公有云数据中心广泛部署,如图2所示,它是客户访问云的入口,具备路由器功能,用以实现从客户外部访问到云内主机或虚机的路由映射和寻址。云外与云内互通的流量也被称为南北向流量。在云内,不同的 VPN 之间的虚机也有广泛的互访需求,这类流量称为东西向流量,需要配置 VPN 网关(或者 VPC 网关),实现不同 VXLAN 间的地址映射。

图2. 云网关拓扑示意图

目前,云网关的实现方式包括:

  1. 物理路由器,企业云或中小型云;
  2. 虚拟化路由器,云服务提供商,如 AWS Transit Gateway9  ;
  3. Server Switch10,云服务提供商,如 Azure11、 阿里云12 

方式1和2一般只实现云网关,承载南北向流量,VPN 网关由汇聚交换机实现;方式3因为引入交换机,增加端口密度和交换带宽,可以同时实现云网关和 VPN 网关,承载南北向和东西向流量。

云网关除了实现路由转发功能外,也可融合负载均衡、防火墙等4层以上的网络业务131415 ,方式2和方式3易于根据业务负载量弹性扩展算力。

  • 算网融合网关构建

 

运营商具备多种承载网络,入云流量路径有多种选择。比如,专线接入方式是通过运营商自有专用 IP 承载网实现,软件定义广域网络(SD-WAN)是通过第三方网络接入,互联网流量则通过单独的承载网络访问云服务。相较于互联网云厂商,这种多样性造成运营商访问云服务入口不唯一、设备形态各异、不同接入独立管理,既不利于保障云服务网络质量,也不利于实现算网融合下的调度和编排。

借鉴云网关的实现构建算网融合网关,既可汇聚不同承载网络的流量,形成统一的出入口,便于实现云流量的统一调度,又易于叠加算力网络功能,增强服务能力,具体优势如下:

  1. 所有共享型的云、边缘节点或资源池都需要部署云网关或类似设备,云网关是流量的必经关卡,是对内感知算力和对外传递算力状态信息的最佳节点;
  2. 云网关在 IP 承载网内是一个边缘侧的路由节点,相当于PE(Provider Edge)的角色。基于此,算网网关可原生接入 IP 承载网,并与其它算力节点的算网网关构成 Underlay 网络的一部分,在保证基本路由转发功能前提下,还可对算网路由、算网策略进行叠加处理,并结合北向控制器,实现算力资源全局控制和调度。
  3. 基于服务器的虚拟化网关或者 Server Switch 架构具有良好的平台扩展性、网络可编程能力,有利于未来拓展算网特性。

图3. 算网融合网关拓扑示意图

在实现过程中,初期可将部分承载流量导入到算网融合网关,部署融合增强的网络能力;待业务成熟后,再逐渐使用算网融合网关替代部分原有传统承载设备,以节省投资;后期可使用统一的算网融合网关来简化网络架构,汇聚流量,实现算力感知、通告、路由等高阶功能。

■   引入智能网卡,构建算力资源高效代理

在当前云数据中心内,如图4所示,网卡是数据中心 Underlay 网络末端的物理组件,交换机和网卡通过分层汇聚的交换架构,形成树状交换网络,实现算力节点间的访问和通信。基础设施处理单元(Infrastructure Processing Unit, IPU)除了承担网卡基本功能外,一方面可卸载网络管理、存储管理等 CPU 负载,另一方面还具备数据转发加速、安全加速等能力。英特尔认为,IPU 集硬件、软件、安全和管理于一身,是数据中心异构体系的核心。

图4. 数据中心基础架构

IPU 兼顾数据加速和算网管理能力,可实现面向算力网络场景下的状态遥测、链路保障、流量工程等增强功能;并且其不占用 CPU 资源,具备可编程可扩展能力,可作为算力网络系统在末端算力节点的高效代理。

■   算网组织架构

如图5所示,算网网关位于数据中心或边缘节点的入口位置,而IPU是计算资源个体——服务器的入口组件,算网网关与 IPU 搭配构成了云数据中心算网组织基础架构。算网网关将云数据中心外的访问映射到 VPN 内,并转发流量至算力节点(服务器、虚机、容器)。所有访问特定算力节点的流量都汇聚到 IPU,经过 IPU 加速或处理后进入业务侧。反向流出云数据中心的流量也采用类似方式,在 IPU 和算网网关进行流量处理和地址翻译。

图5. 云数据中心的算网组织

对于 IP 骨干承载网络,算网网关是边缘路由器,转接用户入云访问;对于云或边缘,算网网关是汇聚节点,可以融合承载 NAT、负载分担、防火墙或 VPN Gateway 等功能。在云或边缘内,IPU/算网代理是边缘交换节点,算网网关通过数据中心交换网络将流量转发至 IPU/算网代理上;对于虚机或容器,IPU/算网代理进行隧道解封、路径选择及流量加速等,最终将 IP 流量转发至应用。

算网网关和 IPU/算网代理所处位置不同,但业务逻辑相似,都是网络汇聚和分发节点,同时具备流量计算处理能力。在此位置,如果叠加算力感知、通告、路由等功能,会更为有效地覆盖整个算力资源池。在未来算力网络构建中,二者将是构建组织架构的最基础要素。

■   算网网关的硬件实现

 

  • CPU 实现

 

采用 CPU 平台实现的网关具有良好的通用性、扩展性和灵活性,可以在物理机、虚机及云原生环境下按需部署。根据核数、内存以及网络带宽等资源分配,网关可以提供百万至千万级 IOPS。

利用 CPU 平台完善的软件生态以及丰富的开源社区项目,可以相对轻松地构建出从网络 I/O、包处理到控制面的完整可用软件栈。

另外,基于常见业务场景,英特尔还提供了一系列参考设计,比如与网关相关的四层流量均衡器14下一代融合防火墙15、VPN 网关以及算网网关等。其中,主要使用数据平面开发套件(Data Plane Development Kit ,DPDK)作为系统底层提供高速 I/O,在 VPP(Vector Packet Processing)丰富包处理库之上通过其外部插件构建具体数据面延展功能,并配合外部控制面软件实现路由同步、入侵保护、密钥交换等业务特性。

基于通用 CPU 的网关平台,随着 CPU 持续迭代,在具备灵活的可扩展性基础上,性能也获得了可预期的持续增长。依托第四代英特尔® 至强® 可扩展处理器,各种主流的网络应用,无论在吞吐还是时延性能上,都能够得到更进一步提升。同时,向量指令集及新引入的片上加速器在测试调研的各类应用中也都有优异表现。

其中,英特尔® 高级矢量扩展 512(Intel® Advanced Vector Extensions 512,英特尔® AVX-512)在各种包处理中(如vSwitch16、IPsec17、WireGuard18等)都有显著性能提升,英特尔® 数据流加速器(Intel® Data Streaming Accelerator, 英特尔® DSA)在数据搬移占比较重的应用(如vSwitch16、19、Host Stack20等)中表现突出,英特尔® 动态负载均衡器(Intel® Dynamic Load Balancer, 英特尔® DLB)在解决竞争中的流量均衡及保序分发场景(如大象流21、高精度速率控制22、IPsec23)效果显著,英特尔® 数据保护与压缩加速技术(英特尔® QAT)在加解密类网络应用(如TLS24、IPsec17、WireGuard18等)中性能优异。这些基础组件中观察到的收益,在各种集成参考方案(如NGFW15、SASE25 )中也得以体现。

图6. 基于英特尔 CPU 的网关架构

  • CPU + IPU 实现

 

对于中小型云数据中心,可以采用 CPU + IPU 的硬件架构来实现算网网关。采用该架构的网关,在延续 CPU 平台良好的通用性、扩展性和灵活性的同时,还能提供更高的性能、更低的时延和更好的服务质量(Quality of Service,QoS)保障。CPU 和 IPU 之间通过 PCIe 连接,IPU 支持多种虚拟化技术,如单根 I/O 虚拟化(SR-IOV)、可扩展 I/O 虚拟化(S-IOV)等,以满足不同的业务部署需求;同时,IPU 支持 Multi-Host 技术,可连接多路 CPU,在提供高带宽的同时,还可满足低时延的需求。

如图7所示,在该场景下,算网网关部署在云入口处,负责处理南北流量。算网网关的各种核心应用运行在 CPU 上,但支持控制面和数据面分离、慢速路径和快速路径的分离;快速路径处理部分,甚至整个数据面,都可以卸载到 IPU 上来实现;同时,利用 IPU 丰富的硬件加速单元,还可以为卸载下来的业务提供硬件加速。

图7. 基于英特尔 CPU 和 IPU 的网关架构

IPU 提供基础设施的卸载与加速,包括网络、存储与安全,同时也能为上层应用提供加速和卸载。对于 IPU 的更详细介绍,可参考英特尔® IPU ASIC E200026基于IPU的云基础设施27

 

  • CPU + Switch + IPU 实现

 

对于中大型云数据中心,可以采用 CPU + Switch + IPU 的硬件架构来实现。在云网关的演进与实现中,server switch 正是基于此硬件架构。在同一个平台内部,CPU + Switch + IPU/FPGA 协同工作,为应用提供一个异构、高效、可扩展的数据面。随着 IPU 的兴起,其 P4 可编程能力简化并加速了应用开发,而其高性能、高可靠的硬件处理流水线又带来了性能、时延等方面的优势,使其应用也越来越广。在该硬件架构下,CPU 和 Switch、IPU 之间通过 PCIe 连接,Switch 和 IPU 之间通过 25G/50G/100G 以太链路互联。

如图8所示,在该场景下,算网网关不仅可以处理进、出云的南北流量,也可以支持网络内部东西流量的处理。在该架构下,数据面处理被分成了两部分,Switch 模块负责主数据面处理,如对 Underlay 网络的处理;IPU 负责从数据面的处理,如 Overlay 网络处理。Switch 模块和 IPU 模块共同作用,实现基础设置及上层应用的卸载与加速。

图8. 基于英特尔 CPU 和 IPU 的网关架构

  • 远端边缘节点的算网网关实现

 

远端边缘节点的服务器数量通常小于十台,部署在用户侧。虽然远端边缘节点规模小,但为了保证网络设施的完备性,通常需要配置交换机和防火墙(路由功能可配置在三层交换机上),导致计算外网络设备成本占比较大。引入算网网关后,会继续放大这部分占比。

对于远端边缘节点,因为入口总吞吐较小,部署环境相对简单,可以使用单一的网关设备融合交换机和防火墙功能。

针对远端边缘计算市场需求,英特尔于 2022 年在 ODCC 牵头发起成立 OTII-E(Open Telecom IT Infrastructure - Extension)模块化边缘服务器项目28。这一项目基于模块化的边缘服务器,同时使用集成网络加速器的英特尔® 至强® D 处理器,可以实现融合边缘网关。

如图9所示,OTII-E 可由 4 个半宽 1U 节点(Sled)组成 2U4 节点服务器,由于至强® D 处理器内置网络加速器,配合扩展网卡,服务器可以支持下行 16x25G或32x10G 以及上行 800G 的网络吞吐。同时,至强® D 多核处理器可运行路由器、NAT 和防火墙等功能。

图9. OTII-E 网关实现

■   算网网关的软件实现

 

  • 网关流量模型

 

网关的不同硬件平台结合网络流量可以得到如图10所示的四种基本流量模型,其中用缩写 AP、CP 和 DP 分别代表应用服务、控制面和数据面。数据面又可以进一拆分成无状态的,可以被硬件加速的快速数据面(FDP),以及有状态的数据面 (DP)。

图10. 网关流量模型

在至强® 可扩展处理器/至强® D  处理器+ 网卡的平台上,这几个部分都运行在 CPU 上,无论是业务流量还是透传的流量,都通过软件进行转发。

在至强® 可扩展处理器/至强® D 处理器携带IPU的平台上,整体网络部分(包括控制面和数据面)的软件可以选择性地前置到 IPU 以充分利用 IPU 上的计算能力;业务流量和透传转发流量,都由 IPU 上的硬件进行转发。

在至强® 可扩展处理器/至强® D 处理器、IPU 及 Tofino™️ 一体的平台上,下沉到硬件上的快速转发部分又可以进一步拆解成高密度的 Primary FDP 和更大表项的若干 Secondary FDP。

在至强® D 内置的交换加速平台上,各部分依旧运行在 CPU 上,但二层透传的流量能够下沉到至强® D 携带的嵌入式加速器,来进一步提升东西向的互通能力。

 

  • 软件架构概要

 

在网关软件的设计上,如图11所示,重点关注并充分考虑多功能网元融合的灵活可组合能力以及异构平台的统一编程能力。

图11. 网关软件架构

网关核心软件的底层由一组异构流水线控制软件构成,并面向网元业务功能做统一接口(Table Driven Interface)适配。对于异构流水线的无状态转发业务描述,无论其运行在 CPU、IPU还是Tofino™️,都可以使用统一的 P4 进行异构流水线的定制化。在 CPU 上借助由 DPDK 社区支持的 P4DPDK 执行器构建数据面流水线,在 IPU 上通过 IPU SDK 适配由 IPU 构建的数据面流水线,在可编程交换芯片 Tofino™️ 上通过 Tofino™️ SDK 适配 Tofino™️ 的数据面流水线。

网关核心软件的上层包括网络数据面软件和控制面软件。对于有状态的数据面软件,比如会话新建、流量均衡策略、连接跟踪等,提供模块化的网络功能参考设计,允许定制化模块的替换和重新组合;控制面支持诸如 FRR、StrongSwan、Tailscale 等被广泛使用的第三方软件。

 

  • 云网关

 

将不同流量模型的特点统一纳入到一个融合网关软件,可以得到图12云网关软件架构。

图12. 云网关软件架构

最顶部对外提供密钥管理、网络恶意检测、分布式路由等控制面功能。其通过操作系统标准接口向数据面具体网络功能实施各种规则表项的同步。

中间部分是由一系列模块化数据面网络功能融合而成的核心业务块。其通过接收来自控制面的表项更新处理各种网关业务,并适时地对后端加速数据面流水线进行必要的加速卸载。功能模块统一面向 CPU 编程,保持其通用性和灵活扩展性。另外,通过对一些统一通用后端接口的定义,其可以在不同的目标平台间自由选择切换。

底部由可供选择的若干后端实现构成,其根据不同的硬件平台特性提供对加速流水线的控制访问(包括异常处理、同步/老化流水线表项等)。加速数据面流水线的描述采用统一的 P4 语言,便于中间层网络功能业务流水线加速意图的描述。

以 4 层流量均衡(L4LB)为例,其快速匹配转发表可以由 P4 进行描述,然后把编译器生成的资源文件加载到后端流水线。L4LB 网络功能模块对新会话、均衡算法及服务器选择等进行常规处理,并将结果同步下沉到加速流水线上的快速匹配转发表,而后序的相同会话将由加速流水线进行高效转发。

图12中标注星号部分,为算力网络网关接入服务,是新型对接算网的一种融合网关业务能力增强。

 

  • 算网融合网关

 

面向算力网络的网关接入服务能力可以被看做是云融合网关上的一个扩展网元功能。

根据算网融合网关具体的业务功能,可以对应得到图13的分布式算网融合网关模块示意图,其中黄色星号标注了与算网相关的核心模块,主要包括算力感知、链路延迟感知、算力路由信息(包括计算负载和路径延迟)通告、算力路由上报、算力获取(通过跟资源池交互)以及路径建立等。

图13. 分布式算网融合网关模块示意图

在算网融合网关应用服务(Gateway Service)部分,算网业务相关的应用主要由对外服务构成,其包括了与算力资源池对接的算力感知服务、与算网云管平台对接的算力路由上告服务,以及网关配套的系统管理服务。此外,还有融合网关弹性扩展计算应用服务,在此不累述。

在算网融合网关控制面(Routing)部分,主要利用路由协议扩展承载并完成向其他算力网关节点的算力通告,并通过通告信息,更新本地算力路由表。

在算网融合网关数据面(Converged Data-plane)部分,提供网关基础业务转发能力,支持 IPv4、IPv6、 SRv6 等各种主流协议封装。除此之外,融合网关还提供常用的业务加持能力,例如防火墙、流量均衡、网络地址转换、弹性 IP 地址分配等。

整体网关软件既可以部署在物理机也可以部署在虚机环境,操作系统可以是各种 Linux 发行版,也可以是 SONIC 这种网络操作系统。

接入网络的算网重塑

■   从面向连接转变为面向连接 + 计算

运营商拥有多种接入网络,比如移动接入、固网接入、专线接入,以及近几年出现的 SD-WAN 接入。按照传统方式,用户访问云或业务侧要经过完整的接入网络和IP承载网络。随着边缘计算的兴起,越来越多的业务和计算资源从中心云推向区域边缘或用户侧边缘,以获取更优的业务时延和用户体验。但受限于接入网络的部署位置和拓扑,边缘计算节点并不能实现按业务需求来进行最优化构建。为化解这一问题,移动接入网络和固定接入网络都在不断尝试本地分流方式,探索实现网络和计算更紧密的耦合部署方式,而这为算网融合打下了基础。

另一方面,用户侧或客户端拥有形式多样的应用,给业务运营方带来运维成本高、业务拓展周期长等挑战,随着虚拟化和云化技术的兴起,端侧业务也逐渐迁移到云侧或边缘侧,如云桌面、云游戏、云安全等业务,但面临业务时延带来的体验问题。时延敏感类业务的体验高度依赖于网络拓扑,网络架构的优化会大大促进边缘计算的发展。当同一业务在不同场景下使用不同接入网络时,多种接入网络架构需要协同融合以实现多接入下最优业务体验。

此外,每一种接入网络都有自己特定的连接属性和标准定义,但面对计算架构的变化和业务的迁移,网络在设计和规划过程中需要同时考虑计算属性,这构成未来网络发展演进的重要方向29

■   算网融合的接入网络

当前,固定接入网、移动接入网和企业 SD-WAN 接入是分别规划和建设,由不同的网络设备组网,具备各自特点,满足相应的要求。如图14所示,固定接入网络由用户家庭 ONU(Optical Network Unit)通过光纤连接 OLT 设备,并在 BNG(Broadband Network Gateway )完成用户鉴权认证和带宽控制。移动网由无线接入网(RAN)提供空口信号并与移动终端进行无线连接,由无线控制面实现用户接入认证控制,用户面功能(User Plane Function,UPF)实现用户数据面承载和 QoS 保障。企业 SD-WAN 接入场景是在 SD-WAN 控制器的管理下,由企业用户端设备(Customer \ premises equipment,CPE)先接入PoP(Point-of-Presence)点,再接入云上的VPC,或接入互联网。

图14. 传统三种接入网络拓扑

边缘计算的兴起以及支持新业务的需要,对接入网络提出新的演进要求,需要其在网络垂直方向进行架构优化,以便计算可从端侧或核心侧向边缘迁移;在网络水平方向需其支持算力扩展或云原生,使得网络用户面的每一个节点都可演进为计算平台。这两种途径都是通过算网融合的模式实现网络的重塑和优化,以便计算可以在网络身边发生,省去跋山涉水通过 IP 承载进入数据中心或者区域边缘节点的消耗,提升网络运营的效率和效益。

 

  • 固定接入网的重塑

 

传统家庭网关受限于成本和灵活性因素,较难扩展以支持增值服务。替代方式是将其功能进行分解,在用户家庭侧保留一个简单接入盒子,支持二层基本功能,提供光纤到户以及为家庭内设备接入的接口,承载以太网业务、IPTV 业务和固话业务。而功能较为复杂的模块如三层路由、防火墙等可抽取组成虚拟客户端设备(Virtual Customer Premises Equipment,vCPE)单元,部署在运营商网络侧的云基础设施上。此架构下,家庭用户侧瘦终端与运营商侧 vCPE 共同实现传统家庭网关功能,业务从瘦终端发起,以 Overlay 的方式通过 BNG 到 vCPE30

图15. 固定接入网架构演进

vCPE + 瘦终端的方案可有效解决传统家庭网关功能扩展难、新业务部署难、海量设备更换带来巨额的设备采购成本和上门维护成本高等问题;同时通过 vCPE 与边缘云的耦合,还可拓展面向家庭的云电脑、云游戏和云存储等云服务。

为了提供低时延的业务体验,BNG 和 OLT 可扩展支持计算能力。一种方式是在 BNG 或 OLT 原有机框上,扩展增加 CPU加固态硬盘(SSD)的板卡8;另一种方式是可以额外部署算力资源,支持业务分流,保障用户体验。在扩展的算力资源上还可以部署 vCPE、NAT、防火墙、CDN 等业务,也可以部署工业控制、园区办公等企业业务。

 

  • 移动接入网的重塑

 

如图16所示(以 5G 为例),从移动接入网网络架构层面看,一方面 UPF 支持分级部署,轻量化 dUPF 可实现分布式部署或者用户侧下沉部署,支持企业用户的差异化需求;而汇聚型 UPF 用以支持个人用户共性需求。另一方面,相对于传统设备形态的移动网络,以软件或云原生方式实现的 UPF、RAN 均可按需提供任意规格的服务能力,且便于灵活部署,节省投资和运维开支。

从算力扩展层面看,为了优化业务体验,算力资源可以部署在无线网络数据面各级设备旁边,与集中单元(Central Unit, CU)、dUPF 和 UPF 相结合,将用户流量就近分流到算力资源。边缘算力平台上可部署 CDN、云游戏、虚拟现实/增强现实(Virtual Reality /Augmented Reality,VR/AR)、车联网等业务,以及园区、医疗、工业、港口和矿山等企业应用,满足 5G 网络三大业务类型——增强移动宽带(eMBB)、海量机器类通信(mMTC)和高可靠低时延连接(uRLLC)对大带宽、低时延的需求。

图16. 移动接入网架构演进

  • SD-WAN 企业接入的重塑

 

如图17所示,企业专线是常规的企业入网方案,但是企业专线的费用较高、灵活性不足。而 SD-WAN 的 Overlay 方案提供了低成本、灵活的链路选择,可助力企业分支机构快速与总部互联和接入云服务。

在 SD-WAN 方案中,企业侧需部署 SD-WAN 网关。对网关部署,企业用户通常会仔细权衡考虑该网关的成本、扩容升级能力以及维护难度等,即便如此,仍会出现初期所选的网关配置和能力无法满足业务发展的问题。更灵活的解决方案是将 SD-WAN 中的功能进行分解,使企业侧保留一个简化的网关,仅提供二层基本功能,而复杂的功能将被抽取成 vCPE,部署到运营商侧云平台。云平台除了部署网关、安全服务等 SASE(Secure Access Service Edge)31类应用,也可部署企业云化服务,如办公云桌面、文件共享系统、财务系统等。SD-WAN vCPE 方案具备适于新业务快速部署、与原业务衔接平滑等特点,既可为企业提供快捷的网络通道,又可将企业的计算资源与网络资源整合,满足业务的灵活变更之需。

图17. 企业 SD-WAN 接入架构演进

■   融合的多接入边缘

无论 5G 网络从核心向边缘推进并演进出分级解耦的 UPF,还是固网接入或 SD-WAN 接入从终端侧向边缘推进并演进出 vCPE,其最终目的都是使能边缘计算,以提升业务体验和构建灵活的水平扩展能力。

基于上述目标,三种接入网络在边缘计算的实际部署过程中,会出现多种“雷同”。

1.  位置相同

UPF 部署在地市或下沉到园区;BNG 一般是在地市、县或位置更低的接入区域,固网 vCPE 部署位置与 BNG 相同或在更高位置;SD-WAN 的 vCPE 通常会靠近边缘云,如果没有边缘云,也可和 PoP 点共同部署。在实际部署过程中,三种接入网络的功能实体很可能出现在同一地点或者同一边缘机房。

2.  用户相同

无论个人用户,还是企业用户,都存在使用不同接入方式来访问相同业务的场景。

3.  业务能力相同

无论哪种接入网络扩展出的边缘计算,都是针对时延敏感类的业务场景,都可能存在相似的业务内容和能力。如 CDN 和云游戏会同时服务移动接入和固网接入客户,而云桌面、AR/VR 会同时服务家庭固网接入客户和 SD-WAN 企业接入客户。

运营商的多种接入网络天然形成多级的分布式边缘体系,而以此体系扩展出的各类边缘计算或近网计算可能位于相同位置、服务相同客户、装载相同能力,存在进一步融合和优化的空间。一方面,通过融合、优化可避免重复投资,支持应用快速推广,提升边缘业务的竞争力;另一方面,通过业务融合也可驱动网络融合,优化网络架构,促进算网融合体系建设。图18对多接入融合进行了示意性展示。

在融合过程中,vCPE 除了原有固网或 SD-WAN 等接入功能外,可扩展成为边缘资源池的入口网关——边缘网关,承担与前述云网关类似的功能。同时,在算网融合体系里可成为算网融合网关在边缘的实现形式,共用相同的软件框架,构建云边一体的算力网络。

图18. 融合的多接入边缘网络架构

总结

网络的使命正在从获取内容向服务计算转变。使命的演进驱动其承载的功能不再仅仅是一条条丛横交错的 IP 链路,而是如何更有效地通向资源,进而提供有保障的计算服务。这需要通过云网关或算网融合网关的选路和调度,完成进入数据中心或边缘节点的最后一跳,同时通过融合网关与智能网卡组成的内部网络,实现算力细粒度的调度和编排。对于时延敏感类业务,可依托运营商多种分布式的接入网络,扩展融合的边缘计算能力,提供效率更高、体验更好的计算服务。但无论在数据中心还是边缘,网络与计算的深度融合都是实现网络演进、转型的基本途径,也成为全行业研究探讨的重要风向标。