据 北京大学人工智能研究院消息,一支由研究员 孙中及其合作者领导的科研团队,在国际期刊 Nature Electronics上发表重要论文,报道了一项计算架构领域的突破性进展。该团队成功研发出一款基于电阻式随机存取存储器(RRAM)技术的高精度、可扩展模拟矩阵计算芯片。值得注意的是,这是首次有模拟计算芯片的精度达到了可与数字系统匹敌的水平——将传统模拟计算的精度提升了惊人的 五个数量级。
在性能测试方面,该芯片在解决大规模 MIMO(多输入多输出)信号检测及其他关键科学计算任务时,展现出其计算吞吐量与能效比目前顶级数字处理器(GPU)高出数百至数千倍。
这一成果不仅标志着中国科学家在克服模拟计算这一被困扰逾百年的难题上迈出关键一步,也代表了在“后摩尔时代”(Post-Moore Era)中,计算范式转变的重大突破。此项创新为应对人工智能、大规模模型训练及未来 6G 通信系统不断增长的计算需求,开辟了全新路径。
研究负责人孙中指出,此项研究具有广泛的应用潜力,可为多种计算场景提供支撑,并可能从根本上重塑未来的计算格局。在下一代 6G 通信系统中,该芯片有望使通信基站实时处理大量天线信号、功耗极低,从而显著提升网络容量与能效。在迅速发展的人工智能领域,该技术预计可加速大型模型训练中的二阶优化算法,显著提升训练效率。他补充道:“更重要的是,其低功耗特性将使复杂信号处理与端上 AI 训练-推理能够直接运行,极大减少对云端的依赖,推动边缘计算踏入新阶段。”
从技术层面来看,这款芯片基于 RRAM 的模拟矩阵运算架构打破了长期以来模拟计算因噪声、漂移、器件不一致性而难以实现高精度的瓶颈。类似架构通过电流、电阻等模拟物理量直接实现矩阵运算(例如乘法、加法、求解线性方程组),而无需完全依赖数字逻辑。此前,模拟系统在精度与稳定性方面难以与数字系统抗衡。此次研究表明,通过材料、器件、算法和系统协同优化,模拟计算的精度门槛已被大幅突破。
此外,从产业化视角来看,虽然目前这款芯片仍处于科研阶段,但其突破意义显著。未来若能实现大规模制造、商业化部署,可能带来以下几方面影响:
大幅提升边缘设备与通信基站的能效与处理能力,加速 AI 与 6G 场景落地;
改变传统依赖大型数字处理器的数据中心计算模式,推动“小体量、高效率” AI 硬件趋势;
在全球计算产业格局中增强中国在先进计算架构领域的话语权与自主创新能力。
不过,该研究也并非无挑战可言。产业化仍需解决的关键工程问题包括:器件一致性、规模制造良率、噪声与温度稳定性、软件与硬件生态适配、系统可靠性与寿命等。专家指出,从实验室突破到大规模商用,还需要一段时间。
总的来看,这项突破式研究不仅在技术上代表一次“跨越”,更在战略层面具有里程碑意义。它预示着,在计算架构瓶颈愈发显著的时代,模拟计算可能重新成为推动性能与效率跃升的重要路径。未来的计算可能不仅仅是数字逻辑的演进,而且是物理量、材料、器件与系统协同创新的综合体现。
-pa集团官网入口