AI加速器
编辑AI加速器是一类专门的硬件加速器或计算机系统旨在加速人工智能的应用,尤其是人工神经网络、机器视觉和机器学习。典型应用包括机器人技术,物联网和其他数据密集型或传感器驱动任务的算法。他们往往多核设计和一般集中于低精度算术,新颖的数据流的体系结构或内存中的计算能力。截至2018年,典型的AI 集成电路芯片包含数十亿个MOSFET晶体管。
此类别的设备存在许多特定于供应商的术语,并且这是一种新兴的技术,没有占主导地位的设计。
AI加速的历史
编辑计算机系统经常通过专用于专用任务的加速器对CPU进行补充。特定于应用程序的著名硬件单元包括用于图形的视频卡、声卡、图形处理单元和数字信号处理器。随着2010年代深度学习和人工智能工作负荷的日益增加,专门的硬件单元已经开发或从现有产品中进行了改编,以加速这些任务。
早期尝试
早在1993年,数字信号处理器就被用作神经网络加速器,例如,以加速光学字符识别软件。在1990年代,还尝试为针对各种应用(包括神经网络仿真)的工作站创建并行的高吞吐量系统。在1990年代还首次探索了基于FPGA的加速器,用于推理和训练。ANNA是Yann LeCun开发的神经网络CMOS加速器。
异构计算
异构计算是指将多个专用处理器并入单个系统甚至单个芯片中,每个专用处理器针对特定类型的任务进行了优化。诸如单元微处理器之类的架构具有与AI加速器明显重叠的功能,包括:支持压缩的低精度算术,数据流架构,以及优先考虑“吞吐量”而不是延迟。Cell微处理器随后被应用于包括AI在内的许多任务。
在2000年代,在视频和游戏工作量的推动下,CPU的SIMD单元也越来越多。以及对压缩的低精度数据类型的支持。
使用GPU
图形处理单元或GPU是用于处理图像和计算局部图像属性的专用硬件。神经网络和图像处理的数学基础是相似的,涉及矩阵的令人尴尬的并行任务,导致GPU越来越多地用于机器学习任务。截至2016年,GPU在AI工作中非常流行,并且在向深度学习(用于训练和自动驾驶汽车等设备的推论)发展的方向上不断发展。GPU开发人员,例如Nvidia NVLink正在为AI受益的那种数据流工作负载开发附加的连接功能。随着GPU已越来越多地应用于AI加速、GPU制造商已将神经网络 特定的硬件并入以进一步加速这些任务。Tensor 核心旨在加速神经网络的训练。
FPGA的使用
深度学习框架仍在发展,这使得设计定制硬件变得困难。诸如现场可编程门阵列(FPGA)之类的可重新配置的设备使硬件、框架和软件的相互开发变得更加容易。
微软已经使用FPGA芯片来加速推理。FPGA在AI加速中的应用促使Intel收购Altera,目的是将FPGA集成到服务器CPU中,这将能够加速AI和通用任务。
专用AI加速器ASIC的出现
尽管GPU和FPGA中表现得更好在效率比CPU为AI相关任务,向上的一个因子10可以用更具体的设计来获得,通过应用专用集成电路(ASIC) 。这些促进剂使用的策略,如优化存储器使用和使用较低精度运算来加速计算和增加吞吐量的计算。一些采用了低精度浮点格式使用的AI加速为半精度和bfloat16浮点格式。
内存计算架构
2017年6月,IBM研究人员宣布了一种与冯·诺依曼(Von Neumann)体系结构相反的体系结构,该体系结构基于应用于时间相关性检测的内存计算和相变存储阵列,旨在推广异构计算和大规模并行系统的方法。2018年10月,IBM研究人员宣布了一种基于内存处理并以人脑的突触网络为模型的架构,以加速深度神经网络。该系统基于相变存储阵列。
截至2016年,该领域仍在不断变化,供应商正在推销自己的市场术语,即“ AI加速器”,以期他们的设计和API将成为主导设计。对于这些设备之间的边界,以及它们将采用的确切形式,尚无共识。但是,显然有几个示例旨在在功能上有相当多的重叠来填补这一新空间。
过去,消费类图形加速器应运而生,业界最终采用了Nvidia的自定义术语“ GPU”作为“图形加速器”的统称名词,在决定实施实现Direct3D提出的模型。
潜在的应用
编辑- 自动驾驶汽车:Nvidia已将Drive PX系列板瞄准了这一领域。
- 农业机器人,例如无农药除草。
- 语音控制(例如手机中的语音控制)是Qualcomm Zeroth的目标。
- 机器翻译
- 无人驾驶飞行器,例如导航系统,例如Movidius Myriad 2,已被成功引导无人驾驶飞机。
- 工业机器人,通过增加对各种情况的适应性,扩大了可以自动化的任务范围。
- 卫生保健,以协助诊断
- 搜索引擎,提高了数据中心的能源效率,并具有使用日益高级的查询的能力。
- 自然语言处理
内容由匿名用户提供,本内容不代表vibaike.com立场,内容投诉举报请联系vibaike.com客服。如若转载,请注明出处:https://vibaike.com/111082/