突破瓶颈!我国成功研制新型芯片
对于大多数习惯了数字计算机(0和1)的公众而言,“模拟计算”是一个既古老又新奇的概念,什么是模拟计算呢?
孙仲首先用生动的比喻对其进行解释:“现在的所有芯片都是数字计算,数据都需要先转换成0和1的符号串。比如数字‘十’,需要转译成‘1’和‘0’,计为‘1010’。”如果用二进制来表示“1+1=2”,则应该记作“1+1=10”。
课题组合影
孙仲指出,与其他“存算一体”方案对比,国内外许多团队集中于研究矩阵乘法(AI推理的核心),而他的团队特色在于专注于更具挑战性的矩阵方程求解(AI二阶训练的核心)。矩阵求逆操作要求的计算精度极高,时间复杂度达到了立方级。而模拟计算凭借物理规律直接运算的方式,具有低功耗、低延迟、高能效、高并行的天然优势,只要能够不断降低计算误差,不断提升计算精度,将为传统GPU的算力解放带来爆炸性突破。

高精度全模拟矩阵计算求解矩阵方程
在计算精度方面,团队在实验上成功实现16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级。在计算性能方面,在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量更达到顶级数字处理器的1000倍以上,传统GPU干一天的活,这款芯片一分钟就能搞定。
关于应用前景,孙仲认为,模拟计算在未来AI领域的定位是强大的补充,最有可能快速落地的场景是计算智能领域,如机器人和人工智能模型的训练。
谈及与现有计算架构的关系,孙仲强调未来将是互补共存:“CPU作为通用‘总指挥’因其成熟与经济性而难以被淘汰。GPU则专注于加速矩阵乘法计算。我们的模拟计算芯片,旨在更高效地处理AI等领域最耗能的矩阵逆运算,是对现有算力体系的有力补充。”
来源:北京大学、科技日报(记者:张盖伦)
版权声明:
作者:tby
链接:http://cqqsxx.com/2025/10/24/%e7%aa%81%e7%a0%b4%e7%93%b6%e9%a2%88%ef%bc%81%e6%88%91%e5%9b%bd%e6%88%90%e5%8a%9f%e7%a0%94%e5%88%b6%e6%96%b0%e5%9e%8b%e8%8a%af%e7%89%87/
来源:千首每日资讯
文章版权归作者所有,未经允许请勿转载。
