用新型芯片,颠覆人工智能

作者:admin  来源:半导体行业观察  发布时间:2023-11-22  访问量:8093

新的芯片设计可能很快就会通过使用创新方法更有效地处理生成工作负载来彻底改变人工智能。


Quantiphi Nvidia 业务全球负责人 Siddharth Kotwal 在接受采访时表示:“在机器学习方面,无论是在硬件还是软件方面,满足 AI/ML 工作负载的要求至关重要。” “潜在的硬件机会围绕着开发特定工作负载的人工智能加速器/GPU,以满足企业的特殊需求。”


宾夕法尼亚大学宾夕法尼亚大学工程学院教授 Ben Lee 在接受采访时指出,英特尔和 AMD 等通用微处理器为广泛的应用提供了高性能。不过,他表示,针对人工智能等特定应用领域定制的芯片可以提供更高的性能和能效。


“首先,它们优化了处理器内的数据移动,减少了 能源密集型数据传输的数量,”他补充道。“其次,他们创建大型自定义指令,每次调用执行更多工作,这使得芯片能够分摊为这些指令提供数据的能源成本。计算机工程师经常使用一条经验法则:针对应用领域量身定制的定制芯片可以将性能和能源效率提高两个数量级,即 100 倍。”


Lee 说,一个有前途的研究领域是 内存处理(PIM),它将新兴的内存技术与模拟计算结合起来。存储器技术包括一个可编程电阻器,可用于表示机器学习模型的参数或权重。


“当电流流过这些编程电阻时,存储器可以实现乘法和加法,这构成了许多机器学习计算的基础,”他补充道。“PIM 提供了更高的效率,因为计算嵌入在数据中,无需将大量数据长距离移动到处理器。”


Kotwal 表示,对边缘 GPU 的需求可能会不断增长,尤其是 边缘推理,因此需要 Nvidia、Arm、高通等公司以及 SoC 或移动领域的其他公司提供 GPU。


最大限度地减少干扰


南加州大学的研究人员 最近开发了一种方法,可以让设备最大限度地减少对人工智能任务的干扰。据推测,这项创新拥有前所未有的信息密度,每个组件可存储 11 位,使其成为迄今为止最紧凑的存储技术。这些微小而强大的芯片可能会改变游戏规则,适合我们的移动设备并显着增强其功能。


联想全球人工智能总监 Robert Daigle 在接受采访时表示,专为人工智能工作负载设计的新型 NPU、 ASIC和 FPGA可以更加高效且更具成本效益。他预测人工智能加速器将变得更加专门针对特定用例——例如,新的加速器是专门为计算机视觉推理、生成式人工智能推理和训练而设计的。


戴格尔表示,最新的芯片设计正在集成在液冷环境中运行的功能,这标志着向更可持续的能源实践的转变。一个关键的设计优先事项是最大限度地减少能源消耗并增强散热。


Daigle 指出,人工智能加速器的发展正分为两个不同的轨迹:离散的专用加速器和集成到多用途类硅 CPU 中的人工智能核心。先进、高效的芯片、创新的液体冷却技术和精简的人工智能代码在强大的框架内的融合,有望放大新人工智能模型和解决方案的潜力。


他补充道:“很快,芯片将有助于引领可持续发展努力,推动人工智能性能达到峰值,同时减少和重新利用能源消耗。” “人工智能将继续发展并变得更加复杂;先进的芯片设计将有助于引领这一进化过程。我们预计功耗将显着降低,声学效果将得到改善,并且成本将得到节省。”


计算机视觉中的人工智能


最近的一项创新来自中国清华大学的研究人员。他们表示,他们已经创建了 一种完全模拟的光电芯片,该芯片集成了光学和电子计算,可实现快速且节能的计算机视觉处理。


模拟信号和数字信号是传输信息的两种方式。模拟信号(如形成图像的光)连续变化,而数字信号(如二进制数)则不连续。


在计算机视觉中的图像识别和物体检测等任务中,通常从环境中的模拟信号开始。为了使用经过训练以查找数据模式的人工智能神经网络来处理它们,必须将模拟信号转换为数字信号。这种转换需要时间和能量,这会减慢神经网络的速度。使用光信号的光子计算是一种有前途的解决方案。


在 《自然》杂志上发表的论文中,研究人员创建了一种集成处理器,以全模拟方式结合了光和电的优点。他们称之为 ACCEL,是“all-analog chip combining electronic and light computing”的缩写。


清华团队研究员方璐在新闻中表示:“我们在全模拟信号下最大限度地发挥了光和电的优势,避免了模数转换的弊端,突破了功耗和速度的瓶颈。”