>>返回主页
中国移动研究院网络与IT技术研究所ODCC项目经理/研究员 高从文:拥抱5G,助力边缘

2018-10-17 14:00

高从文1.jpg

  高从文:大家下午好,我的演讲题目是“拥抱5G,助力边缘——OTII项目进展及未来展望”。

  下面很多应该都是老朋友,对这个材料或者OTII项目已经非常了解了,分成三部分,首先做一下简单介绍,然后跟大家汇报一下子项目进展,最后跟大家探讨一下未来的规划。

  OTII顾名思义,Open Telecom IT Infrastructure,开放电信IT基础设施,首要目标是支撑未来5GNFV和边缘计算的发展,需要强调的是,它是一个开放标准、统一规范的服务器的技术方案。它也是目前业界第一个由运营商发起的并且得到产业联盟关注的深度定制化服务器的项目。在项目立项时对这个项目做了一些分工,分成了四个子项目,一个是服务器配置规格和关键组件,另外一个是物理形态、供电及环境适应性,边缘数据中心可能跟核心的数据中心会有很大的区别,导致服务器也需要做出一些改变,这是最核心的一部分。另外是BIOSBMC及硬件管理,还有一些关于测试方面,包括服务器本身的测试,也包括业务测试。

  这是一个项目的推进情况,这个项目去年1121号立项,在这一年中也多谢厂商和业界合作伙伴的支持和帮助,能够让我们的项目一步一步推进。628号,我们在MWC上海站发布了一款原型设计,影响还是比较大的。在OTII每一步成长都在ODCC留下了美好的瞬间,包括522号西安的会议,包括95号乌鲁木齐会议,还有今天这个ODCC全会,感谢ODCC给我们提供了这么好的平台,大家能够一起做点事情。

  这个是产业链的支持伙伴,有联合发起单位也有参与单位,参与单位包括一些ODMOEM、部件厂商等,希望大家能在接下来的时间里把这个事情做好。

  接下来是第二部分,各子项目进展,就像刚刚展示的,我们分成了四个子项目,我们的工作也是基于这四个子项目开展的。还是刚刚说的第二个子项目,对于数据中心来说,可能大家关注最多的是最上层的核心数据中心,一些大机房,有完备的空调、散热系统,什么设备都很齐备。但对运营商来说,机房的层次远比那个多,核心数据中心还有地市级的数据中心,就像核心机房一样,把通用服务器放进去完全没有问题。再往下走,到了区县、汇聚机房、接入机房,条件参差不齐,各种问题,到了汇聚机房、偏边缘的地方,可能就是一个住宅楼,放几个机架,就是几个普通的空调,断电了就断电了,那里现在还没有服务器,主要是一些通信设备。以前的设备包括云计算都是在核心机房,最多是在地市级的数据中心,随着NFVMEC发展,服务器往下沉,以地市级机房作为分界线,在上面的好一点,下面的条件开始变得越来越差,这些变化就决定了服务器的形态、温度、抗震、承重等各方面都会有所不同,这其实也是OTII边缘服务器的一个核心的关注点。

  再看底下这个服务器的配置,机房的分布决定了服务器的物理形态和抗震还是散热等,然后横向,NFVMEC这些业务决定了这个服务器应该是双路的还是单路的,CPU配多少,内存配多少,是不是需要加速设备等等。接下来从两个维度讲这个问题。刚刚也跟大家聊了边缘机房条件很不一样,上面的图,就是两个立式空调,可能墙上也挂着设备,地上也放着设备。下面这个图更直观,白色的就是边缘数据中心的机架,深度60cm,也有80cm的,80的比较少,我们现在考虑主要是针对60。通用服务器放进去一半都露出来了,从安全性、运维等各个方面都是不可接受的,这也是我们做OTII的初衷,或者OTII一个非常大的价值所在。另外不可能每个地方都去找一个人值守,上面的图就是两个空调,可能这个居民楼断电了就断电了,温度就往上升,我们现在要求在540度之间。对于震动也是有要求的,电信设备或者服务对抗震有更高的要求。

  OTII项目不单单包括边缘服务器,也包括核心服务器,分成两类,这个表是从形态上来说,对应用来说,它们可能都是无差别的,无论把这个应用,比如有一天我可能VR/AR应用要放到边缘去,其实它对性能的要求可能是有共同点的,对于它的形态来说其实不一样,这张表是从形态的角度去分析一下这两种设备到底有什么区别。首先是部署位置,边缘机房的设备就是下沉,会更靠近用户侧,条件也会更差。另外,因为机房的限制,服务器的深度是有要求的,温度也是有要求的。另外是风扇,传统服务器风扇一般是在中间的,当然天蝎服务器是在后面的,边缘机房空气质量没那么好,希望风扇能够热插拔清理,而不需要停服或者把上盖掀开。对于核心网来说,这两方面都不用考虑。另外是配置要求,包括刚刚提到的6月底发布的至强-D,对于核心网的设备,4G已经开始NFV化了,这些NFV的设备现在都是用两路的,这两个也是他们之间的区别。另外是主板设计,我们希望边缘设备或者核心设备的主板能够共享,这样无从成本来讲是最优的。另外一个是NUMA-Balance,希望把负载能够平均分到两个CPU上。另外是管理接口,如果这个管理接口可能不统一,可能每个PIM要做对接。总体来说,这些都是我们现在针对形态的思考或者方案,包括也有一些样机,配置还需要网元或者通过应用去确定。

  这是刚刚提到的我们在6月底发布的那款参考设计,深度450mm,当时这个设计是Skylake-D的平台,风扇是支持热插拔的,这个设计支持8×2.53PCIe插槽。我们也在基于新一代平台做主板的设计,现在这个工作正在进行中。

  接下来是管理方面的工作,我们希望能够把管理接口都统一化,针对不同的服务器,这样PIM的适配量就会减少。但是我们现在采用的方式是只去定义接口,在整个NFV发展过程中有很多厂商包括OEM厂商也在跟随NFV的发展,对于管理接口他们已经投入了很多的开发力量,包括各家的IPMI具体的实现也是不同的,我们现在的方式是只去定义接口,至于里面是如何实现、如何解决,这个都不再做具体的要求。另外我们也在考虑引入Redfish。我们接下来会发布OTII服务器管理接口要求。这里面既包含IPMI的内容,也会包含Redfish的内容。另外我们对这个还有一些其他的增强管理的要求,会有一些对内存、网卡、硬盘的一些增强的管理要求。另外一个是可能比较火的硬件加速和卸载,在电信行业也有很多需求。运营商的网络加速可能会稍微复杂一点,对运营商来说有一些其他网元的功能需要卸载。我们现在正在考虑的方案,包括FPGANPSOC,还有GPU的各种方案,方案各有优劣,目前我们更倾向于FPGA。当然这部分工作也在不断推进中。NFVi底层的一些功能卸载,包括虚拟网元的功能卸载,另外转发面的网元,还有未来MEC可能也会有一些功能需要卸载。现在初步方案,目前在网元加速方式架构方面,我们希望在软件层面定义标准API,上层VNF直接去调用这个API就好,这样对于上层来说,底层的硬件是无差别的。另外运维会考虑采用Cybong

  接下来是对未来的探讨,简单列了一下未来的路线图,现在正在基于新一代主板做一些设计,计划年底会有一些方案出来,另外是明年Q1的时候,会在OTII服务器上实现统一的管理接口。然后在Q2我们希望能够有一些试点。在2020年,随着5GMEC全面铺开OTII服务器。

  最后OTII项目也希望能跟业界的伙伴有一些合作的机会。

  这就是我报告的全部内容,谢谢大家!

0