中国芯炸了!北大团队搞出“算力黑科技”,能效甩GPU千倍,AI训练要提速了? AI 大模型训练总卡脖子?算力不够、电费烧钱的日子,可能要被中国团队终结了! 就在最近,北大人工智能研究院孙仲团队联手集成电路学院,直接交出了 “破局神器”—— 一款基于阻变存储器的模拟矩阵计算芯片。 最牛的是什么?它居然第一次做到了 “模拟计算精度追平数字计算”!要知道以前模拟芯片总因精度差被诟病,这次直接打破了行业天花板。 更夸张的是性能:测试时求解大规模 MIMO 信号检测这类硬核难题,它的计算速度和能效,比现在最顶级的 GPU 还强 100 倍到 1000 倍!相当于别人算 1 天的活,它 1 小时不到就搞定,电费还省一大半。 这成果可不是自吹自擂,10 月 13 号已经登上了《自然・电子学》—— 电子领域的顶刊,能上这杂志,含金量不用多说了吧? 很多人好奇这芯片能干嘛?孙仲研究员直接划重点:最快落地的就是机器人控制、AI 大模型训练这些 “吃算力” 的场景。以后训练个 ChatGPT 级别的模型,说不定能耗砍半,速度还能翻番,AI 行业要变天了! 还有人问会不会取代 CPU、GPU?孙仲明确说了:未来是 “互补组队”!CPU 还是 “总指挥” 管通用计算,GPU 专心加速矩阵乘法,而这款模拟芯片,专门啃 “矩阵逆运算” 这块最耗能的硬骨头 —— 正好补上现有算力的短板,形成 “三驾马车” 格局。 不得不说,中国在芯片领域的突破越来越实在了!你觉得这芯片能给 AI、机器人行业带来啥大变化?评论区聊聊~
大家发现没有,中美关税战打到现在,什么台积电!什么英伟达!什么苹果!什么特斯拉!
【2评论】【5点赞】