- 边缘计算2.0:网络架构与技术体系
- 雷波等
- 2576字
- 2021-03-04 19:47:38
2.3 ECI
边缘计算的分布性,决定了网络中存在众多的边缘计算系统。其业务对边边协同及边云的协同需求,决定了边缘计算系统与边缘计算系统、边缘计算系统与云计算系统之间需要优质的网络连接,它们之间的网络被定义为ECI(边缘计算互联网络)。
2.3.1 ECI的定义
ECI是一种网络基础设施,如图2-5所示。
图2-5 ECI示意图
下面简要介绍。
2.3.2 DCI网络
大型的互联网公司或运营商,为了提升位于不同区域客户的用户体验,都会在不同的地区建立数据中心,来更好地为该区域的客户提供服务。因此,虽然云服务是集中式服务,但是云数据中心并不是只有一个。当数据中心之间需要进行信息传递和交互时就需要在其间建立相应的通信网络,也就是DCI网络。
DCI网络是数据中心之间的桥梁,数据中心之间的互联主要有三种方式。
• 网络三层互联,也称为数据中心前端网络互联。所谓“前端网络”,是指数据中心面向企业园区或企业广域网的出口,不同数据中心的前端网络通过IP技术实现互联,园区或分支客户端通过前端网络访问各个数据中心,当主用数据中心发生灾难时,前端网络将实现快速收敛,使客户端访问备用的数据中心,以保障业务的连续性。
• 网络二层互联,也称为数据中心服务器网络互联,即在不同的数据中心服务器网络接入层,构建一个数据中心间的大二层网络,以满足服务器集群或虚拟机动态迁移等场景对二层网络接入的需求。
• SAN互联,也称为后端存储网络互联,即借助DWDH、SDH等传输技术实现数据中心之间磁盘阵列的数据复制。
云计算对DCI网络有大带宽、低延迟、高密度、快速部署、易运维和高可靠性等需求。
2.3.3 ECI的典型特征
与DCI网络相比,ECI具有如下典型特征。
1. 连接多样化
边缘计算系统涉及与多种类型的系统连接,包括云计算系统、其他边缘计算系统、用户自建的系统等,因此ECI连接的对象变多,且属于不同运营方(如云服务运营商、其他边缘计算运营商、用户本身等),因此ECI比DCI更复杂多变,难以使用单一技术或者网络完成相应的互联工作。
2. 跨域低时延
用户对低时延的要求,也会从ECA中延伸到ECI中,例如在车联网业务场景中,还需要在边边协同的基础上继续保持用户业务的低时延特性。但目前这方面的研究还处于起步阶段,后续根据业务需求有待进一步探讨。
2.3.4 ECI的典型解决方案
ECI是在现有DCI的基础上进一步扩展的,因此理想的解决方案是将现有的云网一体化布局思路拓展为云、网、边的一体化布局思路,从基础设施布局、管控架构及业务产品等层面上呈现边、网、云的高度协同,这主要覆盖以下三方面的内容。
• 一体化布局:实现边缘计算节点、云数据节点与网络节点在物理位置布局上的协同,形成以边、云为核心的一体化基础设施布局。
• 管控协同:ECI需要实现网络资源与计算资源、存储资源的协同控制。通过SDN、NFV等多种技术手段,建立网络、云和边的统一或协同的控制体系,从而使三者的协同管理更加顺畅和灵活。
• 业务协同:ECI将具备对业务、用户和自身状况等多维度的感知能力,通过业务协同将其对网络服务的要求和使用状况动态实时传递给网络。另外网络侧针对体验感知会进行网络资源的优化调整,同时通过其网络能力开放相应的接口,以便能够随时随地按需定制管道,满足用户端到端的最佳业务体验。
下面简单说一说相应的解决方案。
1. 智能城域网
ECI建设的一种典型方案是建设智能城域网,即采用以DC为中心、云网一体的思想,利用SR+EVPN等新型路由协议技术,重构城域网络。面向云化网元和用户的综合承载,采用“核心+边缘”转发架构与融合的核心设备实现架构的统一,并采用多种边缘设备实现5G、家庭宽带、大客户、通信云网元的业务承载。构建智能城域网的目标是建设一张以通信云DC为中心的扁平化、统一承载的网络,使家庭宽带用户、大客户、移动用户等业务终端分别经由基站、综合接入点、住宅、办公楼等各种局址接入不同类型的边缘设备,进而进入统一的通信云或边缘云获取服务资源,这就要求跨本地网的业务流量可以通过通信云DC的核心设备接入跨省的广域网。
按照运营商本地网络的规模大小,智能城域网可以划分为三类。
• 小型智能城域网:通信云DC双局址设置,DC局房距离一般小于50千米。智能城域网一对核心设备分局址设置,通信云DC内边缘网络设备下挂多个服务器,可以有效节省局间光纤资源,核心设备兼做边界出口网络设备。
• 中型智能城域网:通信云“”DC双局址设置,实现分区域覆盖+负载分担;每局址设置成对智能城域网核心设备,核心设备兼做边界出口网络设备,即每个通信云DC扩展了一对核心设备。
• 大型智能城域网:如图2-6所示,通信云DC多局址规划,并设置两级核心设备,即每局址设置单台智能城域网核心设备,同时设置一对一级核心设备用于转发通信云DC间的流量。每局址普通核心设备兼做边界出口网络设备。为减少局间传输资源需求以及规避DC局单点故障,DC外边缘设备要就近双归至两个通信云DC的核心设备上。
图2-6 大型智能城域网的扩展架构图
2. 分层隧道方案
另一种典型方案是以跨网络隧道技术为出发点构建ECI,如以SD-WAN等方案为代表的Overlay(一种基于物理网络之上构思的逻辑网络)方案,如图2-7上层所示;以SRv6隧道方案为代表的Underlay(基础层,现实中的物理基础层网络设备)方案等,如图2-7中间层所示。
图2-7 云、网、边一体化布局示意图
针对业务承载依赖大二层网络的问题,目前通用的做法是采用基于MP-BGP的EVPN承载的VxLAN网络。硬件VTEP节点包括Internet网关、VPN网关、专线接入网关、DCI接入网关的VTEP TOR、网络服务区TOR等。各VTEP节点通过网络设备间的eBGP发布并学习EVPN VxLAN所需的Loopback IP知识。VTEP使用BGP的多实例功能组建Overlay网络,并在管理服务区汇聚作为EVPN BGP RR,与所有VTEP节点建立iBGP邻居。VTEP节点创建二层BD域,不同的VTEP节点属于相同VNI的BD域,自动创建VxLAN隧道,实现业务流量的转发。
以入云专线承载为例,当客户使用云专线产品接入云内VPC网络时,流量从专线接入网关进入,通过VTEP TOR和VxLAN到网络服务区TOR,然后进入vrouter。在vrouter封装成VxLAN后,将报文路由到POD(Point of Departure,支付单元)内,通过多段VxLAN拼接和计算节点的虚拟交换机建立连接,VxLAN报文在虚拟交换机上解除封装进入VPC中。
VxLAN/EVPN技术是目前大规模云数据中心网络业务承载方案使用的技术,通用且高效,该技术能够实现云内业务快速发送和自动化配置。随着SRv6技术标准的不断成熟,SRv6/EVPN的统一承载方案会逐渐向数据中心内部网络方案演进。目前,Linux操作系统已经支持大部分的SRv6功能,Linux SRv6提供一种整合Overlay和Underlay的承载方案,保证了Underlay网络和主机叠加网络(host Overlay)SLA的一致性,但如果想在数据中心引入SRv6承载方案,还需要进行大量的研究和实践。