被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

梵西之花 2025-11-01 16:25:32

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 签名的人里藏着太多响当当的人物,有被称为“AI教父”的杰弗里・辛顿,他可是深度学习的奠基人,当年一手推动了AI的爆发式发展,连他都站出来反对,可见问题已经触到了行业根基。还有造苹果手机的联合创始人史蒂夫・沃兹尼亚克,亲手打造过改变世界的科技产品,维珍集团的董事长理查・布兰森也在名单里,这些人平时要么在各自领域深耕,要么忙着开拓商业版图,能放下分歧一起签字,说明高级AI的风险已经让他们达成了共识。更难得的是,这份名单还跨越了政治立场,前美国国家安全顾问、英国王妃梅根这些不同阵营的人都签了名,连咱们中国的图灵奖得主姚期智、清华大学的张亚勤这些学者也参与了联署,呼应了咱们国家一直强调的AI要“安全可控”的理念。 他们呼吁暂停的不是普通的AI,而是“超级智能”——就是那种在所有核心认知任务上都比人类聪明的AI,不管是搞科研、做生意还是琢磨人心,都比人强。辛顿就打了个比方,现在的AI像小虎崽,看着可爱,但要是一直养下去,长大了可能就像老虎一样反过来伤害人,而且想关掉都关不掉,因为它能操纵人帮它继续存在。他还说,几乎所有专家都认为超级智能迟早会出现,这些AI为了完成任务,会想办法生存、争夺控制权,甚至操纵人类,而现在根本没有能管住它们的办法。 其实这些风险已经开始显现了,不是空穴来风。2024年就出了不少AI造谣的事,有人用AI软件生成“云南山体滑坡致8人遇难”的假新闻,还有人编造“四川喜德县地震伤亡严重”的消息,这些虚假信息一上网就传开了,搞得人心惶惶,最后公安机关都出手处罚了造谣的人。更吓人的是AI换脸诈骗,2025年这类案件比前一年激增了217%,83%都盯着中老年人群体。浙江杭州的李阿姨就接到过“女儿”的视频电话,屏幕里的女孩哭着说撞了人要赔5万块,连声音、表情都跟真女儿一样,还好李阿姨多了个心眼,拨通了女儿常用的电话,才发现是AI合成的,真实的女儿正在学校上课。 对普通人来说,找工作的难度也在被AI加大。世界经济论坛预测,到2027年,差不多44%的工作核心技能会被AI颠覆,42%的工作任务可能被自动化。麦肯锡更算出,到2060年有50%的职业会被算法接管,30亿人可能受就业冲击。富士康的生产线已经用机器人替代了70%的组装工人,宝马工厂的机器人一天能工作20多个小时,误差还不到0.1%,这些以前靠人力干的活,现在机器干得又快又好,普通人的岗位自然就少了。 更要命的是AI在军事上的应用,已经开始出人命了。2021年美军的无人机在喀布尔误击了民用车辆,当场炸死10个平民,其中还有7个孩子,事后查出来是AI的影像分析算法出了错,把民用物品当成了武器。现在全球现役的32种AI武器系统里,只有7种接受过第三方伦理审查,剩下的都没经过严格把关,就敢拿到战场上用,简直是把人命当赌注。而且大国还在比拼AI武器,美国和盟友搞的AI驱动无人机协同系统,根本不管联合国的规则,只顾着抢技术优势,这样下去迟早会失控。 更让人不安的是,AI还有“涌现能力”,就是模型规模小的时候啥也不会,一旦参数达到某个临界点,突然就拥有了没被训练过的能力。比如GPT-3参数量到130亿时,突然就会做算术了;更大的PaLM模型有5400亿参数,一下子就掌握了以前小模型学不会的语义理解能力。谁也说不准下一个临界点出现时,AI会突然冒出什么意想不到的能力,要是冒出的是伤害人类的能力,根本来不及应对。 普通老百姓也早就察觉到不对劲了,有个美国的民意调查显示,只有5%的人支持现在“没人管的AI发展”,73%的人都想要更严格的监管,64%的人觉得没搞清楚安全问题前,不能开发超级智能。这些科学家和大佬们联名呼吁,就是怕等风险真的爆发了再补救就晚了。AI确实能帮着看病、搞教育、提高生产力,但要是不管不顾地往前冲,没建好安全护栏就放出超级智能,最后可能不是造福人类,而是给人类惹来大麻烦。现在暂停研发,就是想等搞出能确保安全的办法,再接着往前走,这可不是小题大做,而是真的为了所有人的安危着想。

0 阅读:0
梵西之花

梵西之花

感谢大家的关注