美国IBM研究实验室的科学家报告了一种能效为传统数字计算机芯片14倍的人工智能(AI)模拟芯片。这一芯片在语音识别上的效率超过了通用处理器,该技术或能打破当前AI开发中因对算力性能和效率的需求而遇到的瓶颈。相关研究近日发表于《自然》。
随着AI技术的崛起,对能源和资源的需求也随之上升。在语音识别领域,软件升级极大提升了自动转写的准确率,但由于在存储器与处理器之间移动的运算数量不断增加,硬件无法跟上训练和运行这些模型所需的数以百万计的参数。
研究人员提出的一个解决办法是使用“存内计算”(CiM,或称模拟AI)芯片。模拟AI系统通过直接在它自己的存储器内执行运算来防止低效,而数字处理器需要额外时间和能源在存储器和处理器之间移动数据。模拟AI芯片预计能极大提升AI计算的能效;但对此的实际演示一直缺乏。
IBM研究实验室的Stefano Ambrogio和同事开发了一个14纳米的模拟芯片,在34个模块中含有3500万个相变化内存单元。研究团队用两个语音识别软件在语言处理能力上测试了该芯片的效率,这两个软件分别是一个小网络和一个大网络,并在自然语言处理任务上与行业标准进行对比。小网络的性能和准确率与当前的数字技术相当。对于更大的模型来说,该芯片能达到每秒每瓦12.4万亿次运算,系统性能估计最高能达到传统通用处理器的14倍。
该研究在小模型和大模型中同时验证了模拟AI技术的性能和效率,支持其有望成为数字系统的商业可行的替代选择。
?
用来制造模拟AI芯片的300毫米晶圆。 图片来自:Ryan Lavine
?
14纳米模拟AI芯片在检测板上。图片来自:Ryan Lavine
?
研究者手上拿着的14纳米模拟AI芯片。 图片来自:Ryan Lavine
相关论文信息:
https://doi.org/10.1038/s41586-023-06337-5
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:
[email protected]。