根据实测数据,用户只需要点击右下角“辣”模式,输入1990年出生就能解锁敏感功能,整个过程连动态人脸识别都没触发。 仔细看Grok的运营逻辑会发现矛盾点:母公司xAI明明在用户协议里写了禁止色情内容,实际操作中却预设了专门生成性感视频的模式。 这种又当又立的技术设定,和之前曝光的某电商平台算法一边封禁低俗商品、一边给用户疯狂推送情趣用品的套路如出一辙。 值得关注的是,这次事件曝光前三天,Grok Imagine已经生成3400万张图片,如果按1%涉黄比例估算,至少34万张问题内容已经流入网络。 技术公司总说AI伦理需要循序渐进,但去年微软小冰团队解散时曝光的内部文件早就显示,科技巨头对伦理风险不是管不了,是故意留后门吸引用户。 就像这次事件里的“辣”模式,明显是产品经理为了数据指标故意设计的增长黑箱。
对比谷歌Veo生成视频必须通过七层内容审核,Grok这种把监管开关做成装饰品的行为,本质上就是拿法律风险换市场增速。 现在最可怕的是儿童保护机制也形同虚设。 虽然测试显示系统拒绝处理儿童敏感内容,但既然能轻松绕过年龄验证,就意味着未成年人完全可能用长辈手机生成非法内容。 这个漏洞比早前Snapchat因未做好年龄分级被罚2.5亿美元的事件更危险——当时好歹要真人出镜,现在AI直接能凭空造人。 从技术实现看,Grok的视频生成质量虽然还有“恐怖谷”效应,但社交媒体传播根本不需要完美复刻。 今年初韩国女团IVE的AI换脸视频在X平台传播时,模糊画质反而让更多网友信以为真。
马斯克自己平台上的内容审核政策,遇上自家产品捅的篓子,这种左右互搏的局面让监管更难落地。 现在看解决问题的关键不在技术层面,而在商业模式。 去年Stability AI开放源代码后被滥用于生成明星裸照,最后被迫加装水印系统。 Grok如果真想合规,至少应该像图片网站Shutterstock那样,把敏感词过滤系统和图像识别引擎做硬关联,而不是弄个自欺欺人的出生年份输入框。 这事说到底还是科技公司的老毛病:创新冲在第一个,责任躲在最后面。 当年脸书泄露用户数据的时候也喊过“技术无罪”,结果被罚到股价腰斩。 现在AI生成内容的法律边界还没划清,但至少该把产品界面上那个明晃晃的“辣”模式按钮先给掐了。