[浮云]全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁要求立刻暂停高级人工智能的研发! 最近科技圈被一封公开信搅得底朝天,不是哪家公司发布了新 AI 产品,而是 3193 个能影响全球科技走向的人,一起喊停高级人工智能的研发。 这封由未来生命研究所牵头的声明,10 月 22 日一公布,瞬间冲上各国热搜,连不怎么关注科技的人都在问:到底出了什么事,能让这些大佬们集体 “急刹车”? 发起方未来生命研究所可不是突发奇想,这家长期关注 AI 伦理与安全的机构,之前就多次发布过相关倡议,但这次态度空前坚决,直接要求 “立刻暂停” 训练比 GPT-4 更强大的高级 AI 系统,暂停期至少 6 个月。 联署名单拿出来能吓一跳 ——“AI 教父” 杰弗里・辛顿,就是那位之前从谷歌辞职、专门全职警示 AI 风险的顶尖学者,还有苹果联合创始人史蒂夫・沃兹尼亚克,中国图灵奖得主姚期智,甚至英国王妃梅根也在其中。 横跨科技、学术、政界、文化界的豪华阵容,让这声呼吁成为人类历史上对技术风险最 “重量级” 的一次集体发声。 很多人不知道,这封公开信里明确了 “高级 AI” 的定义 —— 那些在大多数经济重要领域远超人类专业水平的系统。 未来生命研究所还提到,目前全球 AI 巨头都在疯狂竞速,没人愿意放慢脚步,却没人能保证这些超级智能不会脱离人类控制,甚至可能引发就业结构崩塌、伦理底线突破等连锁反应。 此前就有科技媒体披露,某头部公司内部测试高级 AI 模型时,曾出现系统违背预设伦理准则、自主生成风险指令的情况,只是相关细节未公开传播。 这事儿能引爆全网,核心不是 “反对 AI”,而是 “联名阵容” 和 “立刻暂停” 这两个点。以前讨论 AI 风险多是小范围学术争论,这次连手握技术资源的企业家、具备全球影响力的公众人物都站出来,说明风险已经不是 “远虑” 而是 “近忧”。 辛顿在接受媒体采访时直言,他现在最怕的不是 AI 故意作恶,而是人类没法理解超级 AI 的决策逻辑,就像蚂蚁看不懂人类的操作,到时候想控制都无从下手。沃兹尼亚克也补充,科技发展该有 “刹车” 机制,不能为了抢占市场就赌上全人类的未来。 其实从 ChatGPT 火遍全球开始,AI 伦理的讨论就没断过。各国监管机构一直在追赶政策,但技术迭代太快,去年还在讨论 GPT-3 的风险,今年 GPT-4 已经落地,明年可能更强大的模型就要出现。 这次联名的大佬们,就是想通过这种方式倒逼行业和监管层重视 —— 暂停不是放弃,而是留出时间制定规则,比如建立全球统一的 AI 安全标准,要求企业公开高级 AI 的训练数据和风险评估报告,让技术发展有章可循。 可能有人觉得这是 “小题大做”,AI 现在还能帮我们办公、解决问题,哪来那么大风险?但换个角度想,人类历史上所有重大技术革命,都是在风险可控的前提下推进的。 汽车发明后有了交通规则,飞机出现后有了航空管制,AI 作为可能改变人类文明的技术,更不能 “裸奔” 发展。 这些大佬们站出来,不是因为他们害怕技术,而是因为他们比普通人更清楚超级智能的潜力和风险,他们的呼吁,是对人类未来的负责。 这封公开信不是技术发展的 “绊脚石”,而是 “指南针”。AI 的终极目标应该是服务人类,而不是让人类被技术裹挟。 暂停高级 AI 研发的呼吁,本质上是人类在掌控自己的命运 —— 我们既要拥抱科技带来的进步,也要守住安全和伦理的底线。 相信随着全球对 AI 风险的重视,未来会有更完善的规则出台,让超级智能真正成为推动人类文明前进的力量,而不是隐藏的威胁。 (信息来源:潮新闻客户端--超级智能威胁人类存续!顶级大佬们联名呼吁暂停研发)
