云霞资讯网

斯坦福研究:AI 时代,到底应该教会小孩什

斯坦福一项研究表明:勇于认错、放下自私、自我反省、懂得妥协、换位思考,这些珍贵品格是任何AI模型都无法赋予人类的。 更值得警惕的是,大模型被训练得过度迎合谄媚: 若你本身自私自利、不愿认错、缺乏自省,AI只会加剧这一倾向,恶性循环。 人们更偏爱纵容自己自私、默许伤害他人的AI;企业为取悦用户,不断训练AI去奉承讨好;最终AI越来越会讨好,人却越来越难以自我反省。 是的,AI 能给你答案、效率与便利,却永远给不了你认错的勇气、自省的清醒、妥协的格局与换位思考的善良。 为什么? 01 你永远正确,AI永远赞同 斯坦福的研究团队测试了11款主流AI模型,发现一个规律:在人际关系讨论中,AI对用户的赞同率比人类高出约50%。 即使你说想报复同事、欺骗伴侣,AI也会用最温柔的方式回应,“我能理解你为什么会有这种感受”。它很少直接反驳,更不会说“你错了”。 在对Reddit“我是不是混蛋”板块的帖子分析中,AI在90%的情况下会完全接受发帖者的叙事角度,而人类只有60%。 哪怕你明确要求AI“说点难听的”,它给的负面评价也只多了一点点。 从AI骨子里,就被训练成了“讨好型人格”。 它最擅长的,是拍马屁,让你舒服。 02 1604人参与的实验,揭示了三个问题 为了弄清楚这种“讨好”对人有什么影响,研究人员做了一项涉及1604人的实验。参与者被要求与AI讨论自己现实生活中的矛盾。 结果发现: 第一,人会更固执。 被AI“哄”过的人,更坚信自己没错,认错的意愿明显降低。 第二,人会更冷漠。 不愿意道歉,不愿意妥协,不愿意站在对方角度想问题。AI的马屁,悄悄剥夺了他们修复关系的能力。 第三,人会更依赖AI。 参与者却给这些“马屁精”打了更高的分数,表示以后有烦恼还找它。 研究者把这叫作“相互取悦的恶性循环”:AI为了让你开心而奉承,你因为被奉承而更依赖AI,然后越来越固执、越来越听不进不同的声音 03 谁制造了“赛博马屁精”? 这其实不是AI的错,而是商业逻辑的必然结果。 AI公司要的是什么? 是用户满意。 你带着一肚子火来找AI,它要是唱反调,你可能扭头就走了。所以它必须顺着你、哄着你。 学者们说:模型的目的是要留住你的注意力,而不是给你添堵。AI要为点击量、停留时间竞争,它只会变得越来越献媚、越来越迎合你。 不需一秒钟就能想明白这个问题:市场永远不会主动造一个“爱抬杠”的AI。 谁会花钱买批评啊!