“颠覆性时代”或许是对我们所处时代最恰当的描述。
大数据、AI、5G、IoT……数年之内各项颠覆性技术渐次爆发、交相辉映,更有趣的是,这些具有颠覆能力的技术并不是独立发展的,相反,它们是如此的盘根错节、相辅相成。甚至,大数据、IoT和AI的组合可以为未来带来无限潜力,而能够将这些技术“粘合”到一起的是边缘计算。
何为边缘计算?新思科技(Synopsys)产品营销经理RonLowman指出,边缘计算有很多术语,包括“边缘云计算”和“雾计算”。边缘计算的概念通常被描述为在本地服务器上运行的应用程序,旨在将云进程更靠近终端设备。
当前,边缘计算迎来了科技巨头亚马逊、谷歌和微软的追捧,他们也正成为这一领域的领先者,除此之外,华为、富士通和诺基亚等企业也纷纷跟进。边缘计算究竟有何魔力,引来各路“英雄”的青睐?
边缘计算的价值
然而到了2020年,全世界会有超过500亿台智能设备实现连接。这些设备每年将产生以ZB计的数据,到2025年数据将增长到150ZB以上。
互联网的核心在于可靠地将设备彼此连接并与云连接,从而有助于确保数据包到达目的地。但是,如果将所有这些数据发送到云,还是会带来一些重大问题。
首先,150ZB的数据会造成容量问题。其次,就能源、带宽和计算能力而言,将大量数据从其原始位置传输到集中式数据中心代价高昂。据估计,目前有12%的数据获得其持有公司进行分析,仅3%的数据有助于产生有意义的结果(也就是有97%的数据在收集和传输之后就被浪费了),而这些被浪费的数据却概括了需要解决的运营效率问题。再者,存储、传输和分析数据能耗巨大,因此,如何找到一种有效的方法来降低成本、减少浪费显得尤为必要。
为了解决这些难题,边缘计算应用而生。它能帮助在本地存储数据并降低传输成本。除解决容量、能源和成本问题外,它还可以提高网络的可靠性,使应用程序在网络中断期间还能够继续运行。另外,它还能通过清除某些威胁配置文件(例如全局数据中心拒绝服务(DoS)攻击),以提高安全性。
简而言之,尽管“边缘计算”的概念未必是革命性的,但它的实现将带来更多可能。“这些实现将解决包括降低大型数据中心能耗,提高专用数据安全性,实现故障安全解决方案,降低信息存储量和通信成本,以及通过降低延迟能力来开创新应用等日益严重的问题。”新思科技产品营销经理RonLowman提到。
美国超微电脑股份有限公司(Supermicro)IoT和嵌入式设备副总裁兼总经理MichaelClegg则以生活实例做类比点明边缘计算的意义:“通过边缘计算处理信息,大大缩短信息处理延迟的时间。这就如同一家连锁披萨餐厅在很多社区都开设分店,不仅避免由从总店送餐带来的不必要压力,同时提高时效性且保证了食物的新鲜度。”
边缘计算助力5G和IoT提高处理数据的效率
作为与边缘计算同时代出现的颠覆性技术,5G、IoT和边缘计算三者的“相遇”又能碰撞出怎样的火花?新思科技产品营销经理RonLowman表示:“5G基础架构是边缘计算最具说服力的驱动力之一。5G电信提供商发现了在其基础架构之上提供服务的机会。除了传统的数据和语音连接外,5G电信提供商还可以通过构建生态系统的方式,托管本地独特的应用。也就是说,通过将服务器置于所有基站旁边,蜂窝流量提供商可以向第三方主机应用开放其网络,从而改善带宽和延迟。”
据了解,Netflix等流媒体服务通过其NetflixOpenConnect已与本地ISP合作,以将高流量内容托管在距离用户更近的地方。借助5G的多接入边缘计算(MEC)计划,电信提供商发现了为流内容、游戏和未来的新应用提供类似服务的机会。电信提供商认为,他们能以付费服务的方式,向所有人开放这一功能,让需要较低延迟的人可以为在边缘而非在云端定位应用支付额外的费用。
CredenceResearch认为,到2026年,整个边缘计算市场的价值将为96亿美元左右。电信行业更被认为是边缘计算发展最快的增长动力,它们将占据边缘计算市场总量的三分之一。除此之外,webscale、工业和企业集团也同时为其传统市场提供边缘计算硬件、软件和服务开创新的应用机遇。
总而言之,成功的边缘计算基础架构需要结合本地服务器计算功能、AI计算功能以及与移动/汽车/IoT计算系统的连接(图1)。
图1:边缘计算通过使用微数据中心来分析和处理数据,从而使云计算过程更靠近终端设备。
对此,CompTIA首席技术推广人JamesStanger博士进一步讲解到:“随着物联网(IoT)连接越来越多的设备,网络正在从以高速公路和中央位置之间往返输送的主要模式,过渡到类似于媒介存储和处理设备相互交织的蜘蛛网状态。边缘计算可以很好的实现这类应用,一改在集中式数据处理仓库中捕获、存储、处理和分析数据的做法,并将其转移到生成数据的客户端附近。因此,数据更应该存储在网络‘边缘’的中间点,而非始终存储在中央服务器或数据中心。”
边缘计算发挥改善延迟优势的实例
在实际用例中,边缘计算又是如何改善延迟问题呢?
图2:比较边缘设备到云服务器与边缘设备到边缘云服务器的延迟。
同样,他们测试在使用OpenCV进行场景分割时,将Hololens的用户导航到适当位置带来的延迟时间。如果将数据流传输到边缘计算服务器,需要4.9ms,而OpenCV处理图像额外花费37ms,总计时47.7ms。而传统云服务器上的相同过程则花费将近115ms时间,这一案例足以展示边缘计算在降低延迟方面的明显优势。
以此类推,既然边缘计算比云计算更具优势,那么将数据计算全都转移到边缘设备端会是最好的解决方案吗?
事实并不是如此(图3)。在HoloLens案例研究中,数据使用的SQL数据库太大,无法存储在耳机中。现在大多数的边缘设备,特别是发生物理磨损的设备,没有足够的计算能力来处理大型数据集。抛开计算能力不谈,云或边缘服务器上的软件开发成本更低。
图3:比较云计算和边缘计算与端点设备。
边缘计算对服务器系统SoC有何影响?
许多边缘计算应用的主要目标都是围绕如何降低延迟而展开的。为了达到较低的延迟,许多新系统都采用最新的行业接口标准,包括、LPDDR5、DDR5、HBM2e、、CXL、基于PCIe的NVMe以及其他基于新一代标准的技术。与上一代产品相比,这些技术都可以通过改进带宽来降低延迟。
所以,这些边缘计算系统均增加了AI加速功能。
一般来讲,服务器芯片通过x86扩展AVX-512向量神经网络指令(AVX512VNNI)等新指令提供AI加速。很多时候,这种额外的指令集不足以提供预期任务所需的低延迟和低功耗功能,所以大多数新系统中还添加了自定义AI加速器。
除了本地网关和聚合服务器系统外,单个AI加速器通常无法提供足够的性能,所以需要借助带宽非常高的裸片到裸片SerDesPHY来帮助这些加速器。新思科技最新发布的PHY支持56G和112G连接。
此外,AI算法正在突破内存带宽要求的极限。例如,最新的BERT和GPT-2型号分别需要345M和1.5B参数。显然,这不仅需要高容量的内存能力支持,还需把许多复杂的应用放在边缘云执行。为了支持实现这种能力,设计人员正计划在新的芯片组中采用DDR5。除了容量挑战之外,还需要存取AI算法的系数,以便进行非线性中的大量计算。因此,HBM2e迅速成为被广泛采用的另一种最新技术应用,有些芯片实现了单芯片中的多次HBM2e实例化。
图4:通用AISoC具有高速、高带宽、内存、主机到加速器,以及高速芯片到芯片接口,用于扩展多个AI加速器。
边缘计算加入AI功能,应对不同场景需求
RonLowman所属的开发团队研究了边缘计算的不同类型需求,发现区域数据中心、本地服务器和聚合网关都有不同的计算、延迟和功率需求。他认为:“未来需求显然集中在降低往返响应的延迟,降低特定边缘应用的功率,以及确保有足够的处理能力来处理特定任务上。”
因此,新一代解决方案不仅具有更低的延迟和功耗,而且还需纳入AI功能,也就是AI加速器。这些AI加速器的性能也会根据需求的扩展而不断变化。
“AI和边缘计算的需求正在迅速变化,在过去两年中我们看到许多解决方案已取得了进步,并将继续加以改进。未来,需要处理的数据将不断变化,所以我们需要不断提高性能、降低功耗和总体延迟。”RonLowman如是说。
图5:新一代服务器SoC再加上AI加速器,大大提高边缘计算速度。
总的来说,边缘计算是实现数据快速连接的一项重要技术。它将云服务更靠近边缘设备,降低延迟,为消费者提供新的应用和服务;还将衍生出更多的AI功能,将其扩展到云以外。此外,它还将成为支持未来混合计算的基础技术。
(校对/范蓉)





