·被这两天的新闻惊到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联

芸霄记史 2025-10-27 22:28:23

·被这两天的新闻惊到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!     这场警告的分量,前所未有,联名的名单里有苹果联合创始人沃兹尼亚克,有曾被称作“人工智能教父”的辛顿,也有中国科学院院士姚期智。   平时这些人几乎不会出现在一份名单上,现在却达成一致,要求全世界AI研究机构暂时停下脚步,他们的理由只有一个——在还没找到确保安全的办法之前,人类不应该去制造比自己更聪明的智能系统。     所谓的“超级智能”,不是我们现在常用的语音助手,也不是能写程序的工具,而是一种可以在所有领域都超越人类智慧的系统,它能自己思考,自己学习,甚至能找到人类都想不到的方法去影响世界。   当机器的思考能力全面超过人类,控制权就不再掌握在我们手中,更让人担心的是这种系统会逐步理解人的心理、习惯和弱点,学会隐秘地操控人类的决定。     辛顿的话说的很直接,真正强大的智能不需要破坏,它只要学会欺骗,人类就会失手。   假如将来某个系统能轻易骗过那些设计它的人,让他们误以为一切风险可控,那么所谓的“人工智能”很可能就变成了“人类被智能操控”,这并不是电影情节,而是科学家根据目前的发展趋势得出的结论。     但就在科学家呼吁谨慎的同时,科技巨头们正在拼命往前冲,Meta在今年六月成立了“超级智能实验室”,要让全球用户都能使用先进的智能系统。   OpenAI和马斯克的xAI也在较劲,看谁能先做出真正的通用智能,这样的竞争像一场没有刹车的赛车比赛,而安全措施几乎还停留在纸面上。     有人提出“让智能去监管智能”,听起来合理,其实毫无保障,中科院的曾毅研究员指出,这就等于让学生自己改考卷,没法保证公平和真实性。   迄今为止,全世界都没有找到让超级智能彻底可控的技术手段,但研发仍在加速,谁都不愿意落后。     这不是第一次警告,去年就有上千位专家呼吁暂停,如今连最早推动AI发展的学者都加入联名,可见事情的紧迫程度。   各国舆论也开始转向,美国的调查显示,支持“随意开放AI”的人不到百分之五,超过七成公众认为必须加强监管,绝大多数人赞成在确认安全之前不要继续开发。     中国的科学家也在名单之中,姚期智院士和清华大学的薛澜院长都表达了相同的立场——人工智能的发展一定要做到安全、可靠、可控。   中国科研界长期坚持“科技向善”,强调技术必须服务社会、造福人类,而不是带来新的威胁,面对全球性的风险,中国学者的声音显得格外坚定,是理性的力量,也是负责任的大国担当。     今天的世界正处在一个关键的岔路口。人工智能像一列高速飞驰的列车,速度快到让人来不及思考后果,如果不及时踩下刹车,任何技术失误都有可能引发不可挽回的后果,暂停研发并不是否定科技,而是为了给安全留下呼吸的空间。

0 阅读:3
芸霄记史

芸霄记史

感谢大家的关注