2026年初,量子计算领域正经历着一场微妙的分裂。一边是科技巨头们争相发布里程碑式的进展,另一边却有越来越多的物理学家开始公开质疑这项技术的根本可行性。这种撕裂不仅仅是技术路线的分歧,更触及了量子力学本身未被验证的边界。
BMO资本市场最近组织的专家讨论透露出一个尴尬的现实:尽管各大科技公司都在量子计算上投入巨资,但它们采取的技术路径却南辕北辙。IBM和谷歌押注超导量子比特,IonQ主攻离子阱技术,微软干脆放弃了自研硬件转向云平台整合,亚马逊则在观望中小步试探。这种混乱的局面,恰恰说明没有人真正知道哪条路能走通。
更值得警惕的是,这些分歧背后隐藏着一个更深层的问题:我们甚至不确定大规模量子计算在物理上是否可能。

德国理论物理学家Sabine Hossenfelder在2025年末发布的视频引发了轩然大波。这位拥有170万订阅者、在Nature等顶级期刊发表过多篇论文的科学传播者,直言不讳地指出量子计算可能永远无法成功。她的依据并非空穴来风,而是基于一个被产业界刻意回避的事实:量子力学在大尺度、高度纠缠系统中的行为从未被充分验证。
我们都知道量子效应会随着物体变大而消失,但没人真正理解为什么会这样。量子计算恰恰需要在这个未知区域建造庞大的纠缠系统,这就像在没测过地质的地方盖摩天大楼。数学家Gil Kalai长期论证,量子系统中不可避免的噪声将彻底阻止它们获得真正优势。物理学教授Robert Alicki更直接:如果现实地建模噪声,纠错根本不可能实现。
数学家Leonid Levin的观点更加激进,宇宙中无处不在的中微子和引力波会产生无法屏蔽的噪声,这不是工程问题,而是物理定律的限制。这三位都不是外行,他们的质疑理应得到严肃对待,但在资本狂热的氛围下,这些声音几乎被完全淹没了。
技术路线的困局与商业化的遥远即便抛开物理学的根本性疑问,量子计算在工程层面也面临重重障碍。BMO专家会议指出,纠错是当前最大的瓶颈。量子态极其脆弱,温度的微小波动都能摧毁信息。没有稳定的逻辑量子比特,量子算法根本无法长时间运行,目前一些厂商仅展示了有限数量的逻辑量子比特,许多其他厂商连经过验证的结果都拿不出来。
超导量子比特虽然运算速度快,但需要接近绝对零度的极寒环境,而且量子比特之间的连接性很差。IonQ的离子阱技术连接性好,但运算速度慢,物理扩展困难。光子量子比特理论上很优雅,但构建大型纠错系统面临巨大挑战,专家预测未来五年可能会出现主导模式,但如果最后胜出的是离子阱技术,那些在超导系统上投入数十亿美元的公司该怎么办?
更现实的问题是应用场景的缺失。目前量子计算主要用于科研和学术研究,政府是少数几个愿意买单的客户。专家估算,有商业价值的应用需要数百至数万个逻辑量子比特,但物理学家Tim Palmer通过计算得出,我们可能永远无法超过500到1000个逻辑量子比特。如果这个估算接近真实,那么量子计算的应用窗口将极其狭窄,甚至无法收回已经投入的巨额资金。
科技巨头们的策略差异也反映出这种不确定性。IBM坚守超导路线多年,但其扩展路线图能否克服物理限制仍是未知数。微软已经事实上承认了自研硬件的失败,转向做云平台的中间商。亚马逊更像是在观望,硬件研发不温不火。谷歌虽然比微软和亚马逊更投入,但更侧重学术研究而非商业应用,这种定位本身就说明问题——连谷歌都不确定能不能真正商业化。
理性审慎还是继续狂奔历史上不乏被主流嘲笑、最后却被证明正确的理论。板块构造学说和细菌致病学说都曾被认为是疯狂的想法。Hossenfelder等人的质疑是否会成为下一个被验证的"疯狂观点"?这个问题目前没有答案,但它提醒我们,对科学保持怀疑态度本身就是科学精神的一部分。
当然,大多数物理学家目前仍然相信量子计算在原理上是可行的。但问题的关键不在于谁的观点占多数,而在于我们是否愿意正视那些不确定性。量子计算所需的大规模深度纠缠系统,确实处在量子力学尚未被充分验证的边界区域。一些理论物理学家甚至提出,波函数坍缩可能不是观测的结果,而是真实的物理过程,会随系统规模增长而自发发生。如果这类自发局域化模型是正确的,那么拥有百万量子比特的量子计算机,其退相干时间可能只有毫秒级,根本无法运行有意义的算法。
这不是说我们应该放弃量子计算研究,而是说在大规模商业化之前,我们需要更多的基础验证。当前的资本狂热和舆论炒作,正在制造一种虚假的确定性,仿佛量子计算的成功只是时间问题。但科学史一再证明,违背物理定律的技术承诺最终都会破灭,永动机如此,常温超导也是如此。
量子计算究竟是下一次工业革命的起点,还是又一个被过度炒作的技术泡沫?答案可能要等到我们真正理解量子力学在大尺度上的行为之后才能揭晓。在那之前,保持理性的審慎,可能比盲目的乐观更符合科学精神,也更能对公共资源的投入负责。