Grok 生成不雅图像遭到多国围剿,欧盟1.2亿欧元罚款还没有下文的节骨眼上,马斯克做了一个让人感到意外的动作,在 GitHub 开源全新推荐算法。马斯克不仅兑现了此前的承诺,还表示将会每4周更新一次算法透明度的报告。
虽然这波操作很突然,但是自从马斯克执掌 X 平台以后, 麻烦就接连出现。现在可以说这是马斯克执掌 X 平台意外,面临舆论压力最大的时期。面临欧盟1.2亿欧元的罚款, Grok 生成不雅图像引发各国的批评,印尼、马来西亚直接封禁 Grok,加州已经开始对此事进行调查,美国有议员要求苹果和谷歌下架 X 和 Grok 的应用程序。
在内忧外患之下,开源算法成了 X 平台可以摆脱当前困境的救命稻草。但是批评者却对此不满意,认为 X 没有开放完整的代码,很多关键信息仍然不透明。
算法拆解,仍有看不明白的逻辑有博主对 X 开源的代码进行了分析。
X 平台推荐内容分三步走,先查看用户过往互动的历史,如点击量、点赞数和转发等。然后再检索平台近期发布的内容,最后用机器学习分析用户没有关注的内容,筛选出用户可能会感兴趣的内容,推荐给用户。
在推荐内容时,会过滤掉那些被拉黑账号的信息,以及涉及暴力等内容的垃圾信息。
为了展现公平性,算法会按照内容相关性和多样性进行智能排序。算法也会预判用户对内容进行点赞、回复、转发、收藏等动作发生的概率,作为内容排序的依据。
向用户推荐内容完全由 Grok 大模型负责,不再进行人工干预。
36 氪等科技媒体,都将 X 平台开放算法的行为,称为社交媒体透明度的里程碑 ,毕竟此前没有主流平台公开过推荐算法的核心逻辑。不过 Grok 近期的表现,却让人感到怀疑。
研究人员发现,这个算法没有解释如何处理 Grok 生成的违规内容。没有解释欧盟所关注的透明度问题。 这种选择性透明,让人想起了2023年,当时只是公开了部分代码,核心的运行机制只字未提。
信任危机:从私有化到丑闻缠身,用户对马斯克的透明承诺失去信心马斯克一直把 “透明” 挂在嘴边,203年开原时,就表示要赢得用户信任,但实际行动让用户感到失望。
马斯克收购 X (前推特)以后,马上将上市公司转变成私有企业,进一步脱离公众的监管。
在马斯克收购前,平台每年发布多份透明度报告,直到2024年9月,X 平台才发布首份透明度报告,这距离马斯克完成收购,过去了两年。
欧盟认为 X 平台的透明度不够,对其罚款1.2亿欧元。
对 xAI ( xAI 现在是 X 平台的母公司)来讲,最大的问题是 Grok 生成不雅图像。而 X 平台的整改可以说是敷衍,只是将免费功能改成付费功能。后来受到各方的压力,才全面禁止。这进一步暴露出 xAI 在 AI 伦理监管上的严重失职。
在这种情况下,继续让 Grok 驱动推荐算法,很难让人信服。
这次开源,真的能让 X 平台洗白吗?答案是否定的 在短期内很难。
首先想通过欧盟的审核就很难,不仅要公开推荐算法,还要每6个月发布一次报告,包括内容审核、投诉处理。同时还需要对广告推荐表明参数,建立非法内容的快速处理机制。X 平台公开部分算法,距离欧盟的要求还差得很远。
这次马斯克主动公开算法,还是在罚款和调查的压力下,被迫采取的行动。
也业内专家也认为,虽然这次开源有助于技术进步,如果不解决关键的合规和伦理问题,X 平台终将会被市场抛弃。
X 平台的这次开源,其实是一场 “危机公关”。马斯克通过开放源代码,去掩盖公司在合规和伦理上的治理缺陷,这种治标不治本的方式,会带来更大的隐患。
马斯克要想帮助 X 平台走出困境,需要履行自己的义务,定期发布完整的透明度报告,彻底修复 Grok 的安全漏洞,建立 AI 伦理审查机制。需正视平台存在的问题,不要再选择性透明。
图片来源:unsplash