0 1分钟 1月

近日,北京大学人工智能研究院孙中研究员团队与集成电路系研究团队成功研制出基于阻变存储器的高精度、可扩展的模拟矩阵计算芯片,首次实现了精度可与数字计算相媲美的模拟计算系统。通过解决大规模 MIMO 信号检测等重要科学问题,该芯片的计算性能和功效比当今领先的数字处理器 (GPU) 高出数百或数千倍。相关文章于10月13日发表在《自然电子》杂志上。对于大多数习惯数字计算机(0和1)的人来说,“模拟计算”是一个既老又新的概念。什么是模拟计算?孙仲用一个生动的比喻进行了初步的解释。 “现在的芯片都是数字计算,数据首先要转换成一串0和1s。例如,数字10必须转换为1和0,即为1010。如果用二进制表示“1+1=2”,则记录为“1+1=10”。孙忠说:“模拟计算不需要这种程度的‘转换’。它是一种“模拟计算”,可以直接使用连续的物理量(例如电压和电流)来模拟数学数字。例如,数学中的‘10’可以直接用10伏或10毫伏的电压来表示。”模拟计算机在计算机发展的早期(20世纪30年代至1960年代)被广泛使用,但随着计算任务变得越来越复杂,准确性的瓶颈变得明显,并逐渐被数字计算所取代。孙忠指出,这项研究的核心是解决模拟计算中“计算不准确”的问题。研究团队认为,目前市场上主要的CPU和GPU都是数字芯片,将计算和GPU分开。开启和存储功能,并通过01数字流编辑+计算+解码计算信息。这张照片显示,冯诺依曼结构是用来实现这种传输的。基于阻变存储器的模拟计算的优点之一是省去了将数据转换为二进制数字流的过程,并实现了程序化数据存储,允许数据计算和数据存储过程融合,释放计算能力。孙忠指出,与其他“计算存储一体化”解决方案相比,国内外许多团队专注于研究矩阵乘法(AI推理的核心),而他的团队则专注于解决更困难的矩阵方程(二次AI训练的核心)。矩阵求逆运算需要非常高的计算精度,时间复杂度达到三阶级别。仿真计算是基于物理量的直接计算具有低功耗、低延迟、高能效、高并行性等明显优势。计算误差的持续减少和计算精度的不断提高将导致传统GPU计算能力的爆发性进步。高精度全模拟矩阵计算,求解矩阵方程。在计算精度方面,团队成功在16×16矩阵上进行了24位点求逆实验。求解矩阵方程10次迭代后,相对误差低至10-7。计算性能方面,在解决32×32矩阵求逆问题时具有优异的计算能力。超越高端 GPU 的单核性能。当问题规模增加到128×128时,计算性能达到最好数字处理器的1000倍以上。这款芯片可以在一分钟内完成传统GPU一天的工作。对于孙忠的应用前景,孙忠认为,模拟计算在未来AI领域的地位是强有力的补充。最有可能快速实施的场景是计算智能领域,例如训练机器人和人工智能模型。对于与现有计算机架构的关系,孙忠强调,未来它们会以互补的方式并存。 “CPU作为整体‘指挥者’因其成熟度和经济性而难以被淘汰。GPU专注于加速矩阵乘法计算。我们的模拟计算芯片旨在更高效地处理AI等领域最耗电的矩阵求逆运算,使其成为现有算力系统的有力补充。”

发表评论

邮箱地址不会被公开。 必填项已用*标注