被这两天的新闻吓到了!你们知道吗?10月22日,全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是什么小事,连苹果联合创始人沃兹尼亚克、AI教父辛顿这些人都签了名,简直就像科幻电影里的情节突然变成了现实预告片。 这场行动是由“未来生命研究所”发起的,一个专门研究科技风险的非营利组织。 10月22日,他们在官网发布声明,短短一天签名人数就突破3000。 更有意思的是,这次签名的不光是科技圈人士,连政治人物、演艺界名人都参与了。 比如前美国国家安全顾问苏珊·赖斯、英国的哈里王子夫妇……平时立场天差地别的人,这次罕见地站到了一起,可见事情不小。 那他们到底在担心什么? 不是我们日常用来聊天、修图、写稿的这些AI,而是“超级智能”,那种在所有认知领域都能全面超越人类的AI。 签名的大佬们警告说,这类AI一旦出现,可能会带来经济崩溃、人权丧失、国家安全危机,甚至是人类灭绝。 听上去夸张,但他们说得非常认真。 AI的“危险苗头”已经出现过不少。 英国就有骗子用AI合成公司老板的影像,开了一场“假视频会”,骗走了2亿港元。 美国还有少年被AI聊天机器人“劝”着去自杀。 这些都只是普通AI干的事,要是换成真正能“思考”的超级智能,后果不敢想。 AI领域的奠基人之一、被称为“AI教父”的辛顿说了一句话很扎心:“我们正在制造出比我们聪明的东西,而我们从未经历过这样的局面。” 他还说,人类历史上从没出现过智力差距巨大的物种能长期控制更聪明的物种,除了母亲管孩子这种例外。 听到这话,很多人背后都发凉,我们能主宰地球,靠的就是智力优势,可现在这优势正被技术一点点蚕食。 更可怕的是,眼下根本没有办法能“确保安全”。 中科院研究员曾毅就指出,现在科学界连防止超级智能失控的基本方法都没找到。换句话说,大家连“刹车”在哪都不知道。 而另一边,大公司还在拼命加速。 Meta、OpenAI这些巨头一边喊要负责任,一边不停往前冲。 就算Meta刚裁掉了600名超级智能研究员,也说“这不会改变他们开发超级智能的首要人物”。 这已经不是第一次有人站出来喊“停一停”。 2023年,马斯克等人也呼吁暂停AI研发,当时还有人觉得他们小题大做。 结果短短两年,签名人数从一千涨到三千,担忧的范围也从技术圈扩散到政界和学界。 说明这不是某几个人的焦虑,而是全球都在感受到的危机感。 有人说“人类灭绝”太夸张,但大佬们担心的其实是“失控”的连锁反应。 AI取代大批高技能岗位,可能引发全球经济震荡,或者被不法分子利用,用来发动网络攻击、制造社会混乱。 更关键的是,现在AI技术更新速度太快了,差不多18个月性能就翻一倍。 可全世界还没有一套统一的监管规则,一旦出事,根本来不及反应。 说到底,这些科学家并不是要“封杀AI”,而是想让发展速度慢下来,让安全机制和法律体系先跟上。 就像开车,不能光踩油门不看刹车。 AI应该是帮助人类的工具,而不是让人类自掘坟墓的“定时炸弹”。 这份联名声明还在持续征签,能不能真的让科技巨头们停下来,没人敢打包票。 AI跑得快不是问题,关键是要跑得稳、跑得安全。 对此你怎么看? 信源:凤凰网科技
