边缘与边缘之间的权衡——云

作者:admin  来源:本站  发布时间:2022-02-15  访问量:1603

越来越多的处理在边缘完成,但云计算与边缘计算之间的平衡将如何变化仍不清楚。答案可能取决于数据的价值和其他商业原因以及技术限制。

钟摆一直在在云中进行所有处理与在边缘进行越来越多的处理之间摇摆不定。这有充分的理由。本地处理可减少延迟、提高可靠性和安全性,并有助于解决数据隐私问题。随着越来越强大的边缘处理器架构,以及许多应用所需的分辨率的降低,更多的边缘计算正在迅速获得吸引力。

但这种转变能走多远?我们真的不再需要云吗,还是会跟随其他几项技术的引领而成为分布式功能?

截至今天,边缘计算正在兴起。Imperas Software首席执行官 Simon Davidmann 表示:“算法开发的方式以及计算机架构的方向,意味着从架构的角度来看,越来越多的计算可能会越来越接近边缘。” “如果您的设备使用电池供电,那将限制您可以进行的计算量,这可能是限制因素之一,但电池性能越来越好。如果您不在边缘进行,则必须与基地进行通信,这也需要大量电力。”

边缘计算本身也在变得越来越快。“因为工艺技术,因为人工智能硬件设计的创新,因为我们是在定点处理,比如 8 位,你可以把很多处理能力放在像移动平台这样的设备上,”普林德赛说,Cadence产品营销、管理和业务发展的集团总监。“很明显,有一定的限度,但你不能认为你只有很少的处理量。这些设备具有强大的处理能力。”

但边缘计算也有局限性。Cadence 的 Tensilica AI 产品产品营销总监 Suhas Mitra 说:“当你不能在边缘做某事时,因为设备不够强大,你必须在云端做。” “今天,我们看到越来越多的人进入边缘,但有些人仍留在云端。基本上就是这样——一些在边缘,一些在云中。问题是,平衡点在哪里?这取决于我们谈论的网络类型和用例。”

这也取决于工作量。Rambus 的IP 核产品管理高级总监 Frank Ferro 表示:“事情正在向边缘迁移的原因是,每次通过网络移动数据时,都非常昂贵。” “它需要电力。这是关于效率的。客户不想再等了。因此,如果您有尝试快速运行的应用程序,您希望将它们尽可能靠近边缘。您在本地可以做的越多,通过网络移动数据的次数就越少。或者使用 AI,您可以在云中训练这些大型模型,然后将它们推送到端点进行推理。”

对于任务关键型应用程序,别无选择,只能将计算移至更靠近数据源的位置。Rambus 的产品营销经理 Joe Rodriguez 说:“您不想依赖互连来处理关键任务。” “将它们推向边缘只是一种自然的进化。它们很可能会共存。云将用于您在后台处理大型数据集的地方,较小的事物可以发展并处于边缘。平衡将根据问题和技术可用性进行调整。”

限制因素

虽然边缘计算量不断增加,但它也有局限性。其中之一是存储。

Lynx Software Technologies 的董事会技术顾问 Flavio Bonomi 表示:“我很欣赏云的大数据存储能力,以及它如何从多个分布式部署中实现管理和可见性。“但是,在本地存储数据更加私密。人们和组织不相信大型云公司会以善意的方式使用他们的数据。在边缘存储数据将支持更安全的环境。云无法有效地用于控制实时决策所需的移动数据。云计算非常适合预测数据分析,但超快速决策需要在本地处理丰富的数据。因此,如果我们要看到从数据驱动到人工智能驱动的工作流的演变,未来在于将大量计算能力转移到边缘。”

这在使用蜂窝技术移动数据时尤为明显。5G将在一定程度上有所帮助,尤其是对于毫米波,但它仍然不是最有效的方法。“无线链路始终是网络中最昂贵的链路,” Flex Logix人工智能推理营销高级总监 Sam Fuller 说. “您将始终考虑在我在哪里进行处理和我需要沟通的内容之间进行权衡,以最大限度地降低该链接的成本。在视觉或视频处理等高带宽应用中,尝试通过 5G 链路处理数据是很疯狂的。如果你在谈论一条短信,或者你在谈论诸如音频数据之类的东西,那么这样做可能是有意义的。但你总是要考虑带宽价格的权衡。”

数据作为新的石油

一种这样的权衡涉及缩小靠近源的数据量。届时,它既可以在本地进行处理和存储,也可以发送到云端进行进一步处理。“向云端传输数据需要大量能源,” Fraunhofer IIS自适应系统工程部高级系统集成组组长兼高效电子部门负责人 Andy Heinig 说。“边缘预处理很有意义,因为数据在 AI 上下文中通常包含很少的有价值的信息。在许多情况下,几个小时内不会发生任何异常事件,然后应该检测到一个小事件。”

在这种情况下,云的真正价值是对时间敏感度较低的已处理数据进行更广泛的分析。“边缘系统可能需要为其主要任务进行自己的分析,”Mythic 产品和业务开发高级副总裁 Tim Vehling 说。“一个例子是正在检查电塔的无人机。它可能会检测到一些东西,并且必须立即采取行动以找出问题所在。当它返回其大本营时,它可能会传输更多您想要在云中分析的数据。可以进行不同层次的处理。”

预处理后的数据可以进一步细化。“你不需要所有的字节,”Imperas 的 Davdimann 说。“你需要高质量的数据,而不是盲目的数据。许多与 AI 相关的计算是无意识的。你正在做很多处理来决定我面前的是什么。您不需要传输所有像素。对于诊断,这是一个不同的问题。您可能想知道为什么某些事情做出了错误的决定。当您收集质量数据时,您经常会发现可以通过多种方式使用这些数据。这是一种抽象信息的方式。”

平衡这些截然不同的数据用例对于日益智能的汽车至关重要。“这是一个边缘正在做两件事的例子,”Cadence 的 Mitra 说。“一个是做推理。这就是获取网络并运行它的能力。它时不时地维护有关正在运行的内容和用例的本地数据和统计信息。这是元数据。然后,每晚或每周,它都会向上游发送该信息。考虑到随着时间的推移,数以百万计的人发送此信息时,网络变得更加有用。他们将看到仿真甚至路测无法涵盖的情况。他们需要合作,但他们如何做到这一点取决于用例。”

数据传输还会引发隐私和安全问题,这是处理数据的位置以及从那里将哪些数据发送到云的另一个考虑因素。Mythic 的 Vehling 说:“你可能不被允许或可能不想在私人或公共场合传输诸如面部识别或人物图像之类的东西。” “这可能会迫使您在本地进行分析并仅传输元数据结果。您可能会根据需要获取原始数据。这是另一种情况,您仍然需要高速连接以连接到云,但由于这些隐私问题,您可能希望在本地进行模型处理。”

架构迁移

AI 向边缘的迁移引发了计算机架构的深刻变化。“过去,人们试图构建具有大量并行进程的硬件,但他们并没有关注如何对其进行编程,”Davidmann 说。“我们有太多的芯片,以至于每个人都试图构建并行流程,但没有应用程序。如果你快进到今天,我们有用于机器学习和人工智能的大型软件套件和框架,如 Tensor 和 Caffe。人们现在正在构建硬件来尝试加速该软件。这推动了对更好的硬件架构的需求,以满足这些软件算法的需求。AI 在并行处理器上运行得非常好。所以现在我们已经推出了所有这些硬件并行架构,以满足对更快的 AI 算法执行的需求。”

这也导致了对数据格式的态度转变。“几年前,肯定存在关于是否可以真正量化模型并获得必要精度的问题,”Vehling 说。“这似乎不再是一个问题,而且这种争论几乎已经消失了。您不会听到很多人声称他们需要浮点数或 16 位以确保准确性。对于大多数应用程序,尤其是在边缘侧的分析中,从准确性的角度来看,8 位,甚至 4 位都可以。”

精度必须与其他因素相平衡。“人们花更多的时间研究精度要求,以及满足该要求的条件,”Cadence 的 Desai 说。“在某些工作负载或某些用例中,人们可能会接受 4 位。这使他们能够获得更高的性能、更高的吞吐量、更低的能量或减少内存需求。这与我们从浮点到 8 位时的论点相同。有时人们需要混合模式。以 8 位运行网络部分可能是可以接受的,但其他部分需要 16 位,而其他部分只需要 4 位。”

这带来了另一个架构变化。“在 RISC-V 世界中,新的矢量引擎刚刚获得批准,”大卫曼说。“您可以将引擎配置为 32 位浮点、bfloat16 或定点。他们构建了矢量引擎,所以如果你有一个 32 位的字但正在处理 8 位,你可以并行进行计算。它是单指令多数据 (SIMD) 引擎。您获得更好的吞吐量,因为您使用更少的周期来完成更多的操作。这意味着架构稍微复杂一些,但这意味着您每个周期可以获得更多计算,而不会增加太多芯片。”

边缘二分法

这种灵活性创造了机会。“随着边缘硬件的性能水平不断提高,他们实际上正在考虑部署可以利用该性能来获得更高吞吐量和更高准确性的模型,”推理销售、营销和应用副总裁 Dana McCarty 说在 Flex Logix。“他们正在精简模型以在边缘工作,但一些客户现在正在摆脱这种模式,更多地转向更丰富的框架,因为他们看到他们可以在他们想要的功率范围内从中获得更好的性能。 ”

这对硬件产生了新的需求。“通常,当您构建边缘系统时,您只需要一点 DDR 内存,”Rambus 的 Ferro 说。“但现在他们正尝试进行越来越多的在线处理,他们的 DDR 需求激增到无法管理处理量的地步。所以 HBM 已经开始填补边缘的空白。”

这反过来又在边缘处理器中造成了分歧。“我们看到了TinyML 计划,它在微型微控制器上运行人工智能,”Vehling 说。“另一方面,您可以在云中训练和部署这些庞大的模型。我想问题是,“边缘设备会是什么样子?” 会不会有更像超小型模型,或者他们会越来越想要运行更大、更复杂的模型?”

软件驱动硬件。“研究算法的人们对硬件和软件在他们的路线图中可以推进多远有些不可知,”Mitra 说。“他们的工作是让人们相信需要新的设计和新技术来改进解决方案。有一个缺口。主要不是因为先天的能力不能足够快地向前移动,而是因为云中的自由度数稍大。他们可以移动得更快。”

用例限制

硬件有限制。其中一些限制是由技术状态造成的,其他限制是由功率、成本或外形因素造成的。“尽管如此,他们正在寻找相对高性能的分析模型,而这很难做到,”Vehling 说。“这就是我们所说的高性能优势。你如何有效地解决所有这些参数?如何满足高性能、大模型、低延迟、低功耗、低成本和小尺寸的要求?这就是神奇的组合,如果一家公司能够解决这些项目的交集问题,那它就可以是一款本土产品。”

完成这可能需要新的设计工具。“随着人们构建更好的架构,我们必须构建更好的工具,”大卫曼说。“大型架构中的许多智能在于片上网络以及事物的通信方式。我们可以在低层次上对其中的一些进行建模,或者我们可以将其抽象出来。从软件开发的角度来看,您并不真正关心数据如何流动。您只是假设您可以访问所需的数据。所以有两种类型的问题。一是功能准确性,这也是行业关注的重点。但我们看到的最大挑战是性能分析——您如何对移动数据的成本进行建模?那是一套极具挑战性的工具。公司需要做架构性能分析。

在边缘学习

虽然某些计算肯定会转移到边缘,但其他计算操作似乎牢牢地隐藏在云中。对于 AI/ML/DL 算法的训练尤其如此。“培训,尤其是初始培训,需要很长时间,”Flex Logix 的富勒说。“它的计算量非常大。我们谈论的是训练模型的强度是推理的一百万到十亿倍。当人们谈论边缘学习时,他们并不是在谈论那种水平的培训。他们谈论的本质上是修改、调整或调整现有的训练模型以适应特定用例。”

维林同意。“可能会有一些再培训或小型培训,这可能会转移到边缘。在您可能想要引入稍微不同的数据集的情况下尤其如此。我认为您不会看到全新的、从头开始的模型训练。这将更像是一个云或基于服务器的应用程序。但是你可以在边缘设备中看到你的模型的一些调整或重新训练。”

培训可能是本地的。“如果有语音激活工作负载在您的手机上运行,网络将针对每个人的语音进行训练,”Mitra 说。“我们说话的方式或语调存在细微的差异,这些模型将随着我们的进行而完善。这是微调,从长远来看对每个人都有帮助。”

这取决于用例。Lynx 的 Bonomi 说:“人工智能培训产生了大量数据,这些数据几乎完全在云中实施和存储。” “随着我们在边缘看到更多的计算,组织能够改变流程,而不是在本地寻找模式。当您在边缘并行运行数字孪生时,您可以让一个模型从另一个模型中实时学习和应用某些东西,从而改善对现实世界系统的控制。”

它可能需要拆分功能。“大多数机器学习模型都有一个特征提取组件,称为主干,”富勒说。“然后是决策部分,它利用这些特征并处理它们以提供可以采取行动的东西。这通常被称为头部。你可能有一个大的特征提取组件(主干),然后有多个头,每个头都以不同的方式查看数据。领导者更有可能在边缘接受培训或再培训。”

有一个迁移学习的概念,一旦系统在现场部署,就可以根据他们所看到的和正在学习的内容进行更新。这使它们能够更好地适应特定用例。“边缘需要具有适应性,你需要能够随着时间的推移调整模型,使它们更适合应用程序,”富勒补充道。“它将成为此类工作的关键组成部分。它将是集中开发、培训、然后部署和现场更新服务的组合。”

情况是不稳定的。“曲线将继续向一个方向或另一个方向弯曲,”米特拉说。“现实是他们会合作,这是他们今天很少做的事情。这将使他们能够使网络运行得更好或更快,使网络个性化。”

曲线会向云方向弯曲吗?“'系统中的系统'的架构已经从集中处理转变为分布式处理,”博诺米说。“云的显着优势包括大量的开发人员和易于开发。这意味着很可能将权力转移回云端。”