AI人工智能军备竞赛产生了新的硬件架构
随着社会转向人工智能来解决更多领域的问题,我们看到一场军备竞赛,以创建可以以更高的速度和更低的功耗运行深度学习模型的专用硬件。
该竞赛中最近的一些突破包括新的芯片体系结构,这些体系结构以与我们之前所见的根本不同的方式执行计算。通过查看它们的功能,我们可以了解在未来几年内将出现的各种AI应用程序。
神经网络由成千上万的小程序组成,这些程序执行简单的计算以执行复杂的任务,例如检测图像中的对象或将语音转换为文本,这是深度学习的关键。
但是传统计算机并未针对神经网络操作进行优化。相反,它们由一个或几个强大的中央处理器(CPU)组成。神经形态计算机使用替代芯片架构来物理表示神经网络。神经形态芯片由许多物理人工神经元组成,这些神经元直接与其软件对应物相对应。这使得它们在训练和运行神经网络时特别快。
自从1980年代以来,神经形态计算的概念就已经存在,但是由于神经网络效率低下而被大多数人忽视,因此它并没有引起人们的广泛关注。近年来,随着对深度学习和神经网络的新兴趣,神经形态芯片的研究也受到了新的关注。
7月,一组中国研究人员介绍了Tianjic,这是一种神经形态芯片,可以解决许多问题,包括目标检测,导航和语音识别。研究人员通过将其整合到自动驾驶自行车中以显示该功能,该自行车可以响应语音指令。研究人员在《自然》杂志上发表的一篇文章中观察到:“我们的研究有望通过为更通用的硬件平台铺平道路来刺激AGI(人工智能)的发展。
虽然没有直接证据表明神经形态芯片是创建人工智能的正确途径,但它们肯定会帮助创建更高效的AI硬件。
神经形态计算也引起了大型科技公司的关注。今年早些时候,英特尔推出了Pohoiki Beach,这是一台装有64个Intel Loihi神经形态芯片的计算机,能够模拟总共800万个人工神经元。据英特尔称,Loihi的信息处理速度比传统处理器快1000倍,效率最高10,000倍。
光学计算
神经网络和深度学习计算需要大量的计算资源和电力。AI的碳足迹已经成为环境问题。神经网络的能耗也限制了它们在电力有限的环境中的部署,例如电池供电的设备。
而且随着摩尔定律的持续放慢,传统的电子芯片正努力跟上AI行业不断增长的需求。
多家公司和研究实验室已转向光学计算,以寻找解决AI行业速度和电力挑战的解决方案。光学计算用光子代替电子,并使用光学信号代替数字电子设备进行计算。
光学计算设备不会像铜缆那样产生热量,从而大大降低了能耗。光学计算机也特别适用于快速矩阵乘法,这是神经网络中的关键操作之一。
在过去的几个月中,出现了一些光学AI芯片的工作原型。总部位于波士顿的Lightelligence开发了一种光学AI加速器,该光学加速器与当前的电子硬件兼容,并且可以通过优化一些重型神经网络计算来将AI模型的性能提高一两个数量级。Lightelligence的工程师表示,光学计算的进步还将降低制造AI芯片的成本。
最近,香港科技大学的一组研究人员开发了全光学神经网络。目前,研究人员已经开发了一种概念验证模型,可以模拟具有16个输入和两个输出的完全连接的两层神经网络。大规模的光学神经网络可以以光速和低能耗运行从图像识别到科学研究的计算密集型应用。
巨大的筹码
有时,解决方案是扩大规模。硅谷的一家初创公司Cerebras Systems在5月脱颖而出,在8月份推出了封装 1.2万亿个晶体管的大型AI芯片。Cerebras芯片的面积为42,225平方毫米,比最大的Nvidia图形处理器大50倍以上,并包含50倍以上的晶体管。
大型芯片可以加快数据处理速度,并可以更快的速度训练AI模型。与GPU和传统CPU相比,Cerebras的独特架构还降低了能耗。
当然,芯片的尺寸将限制其在空间受限的环境中的使用,尽管制造商大多将其设计用于研究和房地产不成问题的其他领域。
Cerebras最近获得了与美国能源部的第一份合同。美国能源部将使用该芯片来加速科学,工程和健康领域的深度学习研究。
鉴于正在寻找深度学习应用的行业和领域多种多样,因此单一架构几乎不可能主导市场。但是可以肯定的是,未来的AI芯片可能与数十年来一直存在于我们的计算机和服务器中的经典CPU完全不同。