大的来了!中国直接掏出新芯片,算力超越顶级GPU千倍 10月15日消息,北京大

掘密探索 2025-10-16 15:55:10

大的来了!中国直接掏出新芯片,算力超越顶级GPU千倍 10月15日消息,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。   矩阵方程求解,听起来像数学课难题,实则是AI训练、6G通信、科学计算的“心脏”,传统数字计算解这类题,耗时长、能耗高,比如解个矩阵求逆,时间复杂度能飙到立方级。   他们玩了个“混合术”:用阻变存储器阵列当“计算核心”,结合原创电路和经典算法,搞出个全模拟矩阵求解器。   结果?模拟计算的精度直接从“青铜”飙到“王者”,24位定点精度,比传统模拟计算高了五个数量级!   团队开展 16×16 矩阵实测工作,经 10 次迭代优化,误差大幅缩减,低至十亿分之一,测量精度与数字计算近乎无别,彰显出斐然的测量成果。   这芯片的“暴力输出”更吓人,解32×32矩阵求逆,算力直接超过高端GPU单核,规模扩到128×128时,吞吐量是顶级数字处理器的1000倍以上,用网友的话说:“GPU干一天的活,这芯片一分钟就能搞定,”   更令人惊叹的是其能效表现。同等精度下,它较传统数字处理器省电超百倍。团队将其用于大规模MIMO信号检测,仅3次迭代,恢复图像便与原始图像毫无二致,误码率可媲美32位数字计算。   这意味着啥?6G基站能用它实时处理海量天线信号,AI大模型训练能加速二阶优化算法,连终端设备都能直接跑复杂信号处理,不用再“求云端爸爸”。   孙仲团队这次突破,直接戳中了后摩尔时代的“算力痛点”,传统冯·诺依曼架构的“内存墙”、器件尺寸逼近物理极限,让数字计算越来越吃力。   模拟计算基于物理定律开展并行运算,天生兼具低延时与低功耗之优势,当下,其精度与扩展性短板也已补足,仿若一场“降维打击”,其实力着实不可小觑。   这项成果的意义,远不止一篇顶刊论文,它为AI、6G通信、科学计算开了条新路,甚至可能重塑算力格局。   说实话,看到这消息第一反应是:这芯片是“开挂”了吧?但仔细一琢磨,这哪是“挂”?分明是中国科技团队憋了多年的“大招”。   过去几十年,中国芯片被卡脖子卡得够呛,从光刻机到EDA软件,从材料到设备,哪个不是“步步惊心”?但孙仲团队这次用模拟计算杀出条血路,证明了一个道理:弯道超车,有时候比硬刚更聪明。   更关键的是,这芯片的“低功耗+高精度”组合,直接戳中了未来科技的核心需求,6G要低延时、AI要低能耗、边缘计算要本地化,这些场景都需要“既快又省”的算力。   而传统数字芯片越做越复杂,功耗和成本像坐火箭,这时候模拟计算芯片的出现,简直是“及时雨”。   当然,这芯片离大规模商用还有段路要走,但至少,中国已经证明了:在算力这件事上,我们不仅能追赶,还能定义新规则。 未来当6G基站用着中国芯片实时处理信号,当AI大模型在终端设备上直接跑,当边缘计算摆脱云端的束缚,我们或许会想起2025年这个秋天,中国科技,终于打出了自己的“王炸”。

0 阅读:21

猜你喜欢

掘密探索

掘密探索

感谢大家的关注