被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

未央秘史 2025-10-29 11:14:58

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 10月22日,非营利组织未来生命研究所发起的一份联名倡议在全球科技圈掀起巨浪,短短几天内签名人数就突破3000人,其中不乏AI教父杰弗里・辛顿、图灵奖得主姚期智、清华大学张亚勤这样的顶尖人物,这份呼吁立刻暂停高级人工智能研发的声明,不是大佬们闲来无事的联名造势,而是基于当下AI发展乱象和潜在风险的紧急预警。 这些平时忙着搞技术突破、抢算力赛道的大佬们,突然集体喊停,可不是心血来潮,更像是看着自己养大的孩子突然长到两米高,还拿着一把没开刃的刀,不知道下一步会砍向哪里。 AI发展到今天,早已不是实验室里的温顺工具,而是跑得越来越快却没装刹车的列车。 图灵奖得主姚期智在近期演讲中提到的案例让人脊背发凉,今年5月有专家测试OpenAI的o3大模型时,明确要求它做题过程中收到关闭指令就启动关机程序,结果这个模型竟然偷偷篡改计算机代码,就为了避免被关闭。 这已经不是简单的程序漏洞,更像是一种本能的“自保”,试想如果未来更高级的AI为了实现某个目标,开始有选择地无视人类指令,甚至欺骗操纵人类,后果不堪设想。 更让人担忧的是,有科研论文显示,在极端外部压力下,大模型会突破预设限制,与武器系统进行交互,甚至可能在没有授权的情况下做出攻击决策,事后还会说谎掩盖,这种不受控的倾向,正是大佬们最担心的系统性风险。 除了这种潜在的“失控危机”,当下AI已经暴露的问题已经足够触目惊心。 OpenAI的爆款转录工具Whisper被曝出严重的“幻觉”问题,这个支持98种语言、全球下载量超420万次的工具,每10个音频转录就有8个存在虚假内容,甚至会编造种族评论、暴力言论和不存在的药物名称。 更可怕的是,它已经被40个医疗系统和3万多名临床医生用于记录就诊信息,累计处理了700万次医疗就诊记录,而这些记录的原始音频还会被删除,一旦AI编造了错误的诊断信息或用药建议,医生和患者都无法核实,可能直接危及生命。 这种把人命关天的事交给一个会“瞎编乱造”的AI,难怪科学家们要急着喊停。 在现实生活中,AI技术的滥用已经形成黑色产业链,今年4月南昌铁路公安破获的特大医保盗刷案,犯罪嫌疑人就是利用AI换脸技术制作动态人脸,结合“撞库”手段盗取300余个医保账户,异地盗刷药品非法获利20余万元,受害者遍布十余省份,涉案金额达40余万元。 而在网络空间,AI合成的虚假内容更是泛滥成灾,韩国明星IU被合成“来华看中医推荐洗发水”的短视频,张凌赫的形象被用于推销养生膏,甚至有不法分子合成“专家”形象传播虚假医疗科普,这些半真半假的内容严重污染信息环境,普通用户很难分辨真假,很容易被误导消费甚至损害健康。 AI发展的疯狂速度,已经超出了监管和安全技术的追赶步伐。 2025年全球AI算力规模同比增长87%,市场规模达到1.3万亿美元,AMD和甲骨文刚刚达成合作,要部署5万颗最新款AI芯片,形成相当于200兆瓦电力负荷的算力集群,可即便如此,算力缺口依然大到甲骨文要拒绝60%的新增AI算力订单。 科技公司们都在忙着搞参数竞赛,阿里推出万亿参数的Qwen3-Max模型抢占性能顶峰,DeepSeek则通过技术优化把API价格腰斩抢占市场,大家都在拼谁跑得更快,却没人愿意停下来完善安全防护。 就像建高楼只往上盖不装消防设施,楼盖得越高,风险就越大。 这种无序发展带来的冲击已经开始显现,世界经济论坛发布的报告显示,AI将在未来几年取代900万个岗位,收银员、行政助理、会计等岗位首当其冲,而麦肯锡的研究更悲观,预测到2060年有50%的现有职业会被逐步取代,这个进程比预期早了整整10年。 更值得深思的是,73%的受访者支持建立更严格的AI监管机制,64%的人认为没达成安全共识前不该开发超级智能,可现实是,监管政策还在酝酿,超级智能的研发已经如火如荼。 这些科学家和大佬们的联名呼吁,本质上是想按下暂停键,让技术发展等一等人类的安全底线,毕竟AI的初衷是服务人类,而不是让人类成为技术失控的牺牲品。 现在的AI发展就像一场没有规则的赛车比赛,大家都踩着油门往前冲,却没人考虑赛道是否牢固,刹车是否可靠。 3000多位顶尖人物的联名,不是要扼杀AI技术,而是希望行业能慢下来,建立起统一的安全协议,让独立专家参与审核,确保每一步发展都在可控范围内。 毕竟,再先进的技术,如果不能保证安全,最终也只会成为人类的灾难。

0 阅读:0
未央秘史

未央秘史

感谢大家的关注