金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是

地球仪暗战 2025-08-13 15:33:41

金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作‘颠覆战局’的核心技术,人工智能若进入战场,将带来毁灭性打击……”振聋发聩! 这并不是杞人忧天,人工智能带来的冲击,早就不只是在电影文学文化里,它已经跑进了我们的日常生活,而且一旦出现漏洞,后果可能非常严重。 不久前,一段利用AI技术伪造的外国领导人讲话视频在网络疯传,内容极具煽动性,差点引发严重的政治混乱。 而在金融市场上,由AI控制的自动交易系统,因为一次错误的判断,在数小时内引发全球大规模抛售,导致市值蒸发了上万亿美元。 这些事告诉我们,AI出事不是假设,而是现实中随时可能发生的危机。 问题是,这不是一两个人的问题,而是一个结构性风险。以往最尖端的技术掌握在少数国家手里,可现在,推动人工智能发展的,是谷歌、微软这样的大型科技公司。 它们研发新技术的速度非常快,可能几天就能推出一项新功能,但全球监管体系的反应却慢得多,有的法律从讨论到出台要几年。 在这样的时间差下,政府监管几乎总是落在技术后面。更糟的是,一份调查显示,三分之二的AI研究人员都承认,他们的成果可能被用在坏的地方,可真正设立了道德审查制度的公司,不到百分之十,这迟早会出事。 如果AI技术只是影响生活和经济,已经够让人头疼了,但真正可怕的是,它正在快速进入军事领域,一场围绕AI的全球军备竞赛已经展开。 比如,美国的“Project Maven”项目,就是用AI替代分析员,帮军方自动识别卫星和无人机拍到的目标。以色列的防空系统在接入AI后,拦截速度比人快了很多倍。 俄罗斯也在研发能独立作战的机器人坦克。这些装备一旦投入实战,会让战争的节奏快到人类反应不过来。 据统计,全世界至少有80多个国家在搞军事AI,去年相关投入就超过180亿美元,并且还在继续增加。 赋予AI独立作战能力意味着什么?最直接的,就是人类很可能来不及阻止它已经做出的攻击决定。 更严重的,一旦系统遇到自己没学过的复杂情况,可能误判甚至完全失控。还有就是判断错误,比如把举着白旗投降的人识别成威胁目标,那就是一场无法挽回的悲剧。 更糟的是,这种技术门槛正在降低。现在,一个有技术的组织,甚至是恐怖分子,都能用公开的AI程序配合不到五万美元的硬件,就能做出具备自主攻击能力的无人机,这让危险不再局限在大国之间,而是可以出现在全球任何角落。 这种情况已经逼得人们必须考虑怎么给AI“套上缰绳”。归根到底,人工智能是一把能造福人类的好刀,但也可能成为伤人的利器。 因为真正危险的,可能不是机器越来越像人,而是人渐渐在人性上变得越来越像机器。

0 阅读:1
地球仪暗战

地球仪暗战

用地图解析大国角力,谁在改写世界规则?