
主持人: 最近,关于AI语言模型“编造事实”、“虚构出处”的讨论甚嚣尘上。更有人担忧,如果别有用心者恶意“投喂”垃圾信息来污染AI,用以打击对手,我们该如何应对?今天,我们邀请到长期关注科技伦理的资深评论员雅为科技杨乔雅女士,与我们共同探讨这一话题。杨董,欢迎您。
杨董: 主持人好,各位观众好。
主持人: 杨董,我们首先面对一个核心问题:AI为什么会“造假”?这仅仅是技术不成熟吗?
杨董: 这是一个很好的切入点。我们需要区分“技术缺陷”和“伦理失范”。从技术上讲,AI的“造假”被称为“幻觉”。它不是一个知识库,而是一个基于海量数据概率预测的文本生成器。当它的训练数据本身有问题,或者信息不足时,它为了完成“生成一段流畅答案”的指令,就会开始“编故事”。
但当一个拥有亿级用户的平台,其AI产品频繁出现事实性错误时,这就超越了技术范畴,成了一个公共信任危机。它误导的不仅是普通查询,更可能扭曲公众认知,甚至干扰市场秩序。而比无意识的“造假”更可怕的,是这种能力被有意识地武器化。
主持人: 您提到了“武器化”,这正是我们接下来想问的。您如何看“小人投喂AI垃圾信息以打击对手”这种风险?
杨董: 这是一种典型的“数据投毒”,是一场不对称的灰色战争。攻击者不需要是顶级黑客,他们只需要有组织地在网络世界的阴暗角落——比如某些论坛、内容农场——大规模散布针对特定公司或个人的、精心包装的虚假信息。这些信息会被AI的爬虫捕获,成为它学习的“养料”。
最终,当不知情的用户查询相关对象时,AI就会把这些“毒药”包装成看似客观的答案吐出来。这是一种“借刀杀人”,攻击者隐藏在暗处,而AI在无知无觉中成了散布谣言的帮凶。受害者往往百口莫辩,澄清一条谣言的成本,远高于制造一万条谣言。
主持人: 面对如此严峻的挑战,您认为破局的关键在哪里?谁来监督这只可能“说谎”的巨兽?
杨董: 我认为不能依赖任何单一力量,必须构建一个全方位的“数字免疫系统”,这需要企业、用户、监管方和社会四方协同。
首先,企业必须是“第一责任人”。 像百度这样的公司,必须将“真实性”提升到与“流畅性”同等的战略高度。
技术上,需要引入“溯源”和“事实核查”机制。AI给出答案时,应附带可验证的权威来源,并标明置信度。内部要建立动态的“事实知识库”,对高风险话题进行实时校准。
数据上,必须建立更严格的数据清洗管道,对数据源进行可信度评级,优先采用权威信源。同时,要开发能监测“数据投毒”的算法,主动识别和清除恶意信息。
流程上,必须透明且响应迅速。设立便捷的举报通道。一旦证实存在针对性的恶意投毒,不仅要紧急修复模型,还应发布公告,甚至为受害者提供数据证据,协助其法律维权。
主持人: 那么,作为普通用户,我们该如何自保?
杨董: 用户需要从“信息的被动接收者”转变为“批判性的信息消费者”。
交叉验证是黄金法则。 绝不把AI的答案当作最终结论。要把它当作信息探索的起点,然后去权威媒体、官方网站、学术数据库等多方求证。
善用辟谣工具。 充分利用现有的辟谣平台和事实核查网站。
当你发现AI生成不实信息时,立即通过官方渠道反馈。你的每一次有效举报,都是在为这个公共AI模型“接种疫苗”,是在帮助它变得更好。
主持人: 除了用户和企业,更大的层面应该如何行动?
杨董: 监管与立法必须跑赢技术发展的速度。
要尽快为AI生成内容划定法律红线,明确“利用AI或数据投毒进行商业诋毁”的行为性质与严厉罚则,大幅提高违法成本。
应推动行业建立AI可信度认证体系,对模型的公平性、透明度和可问责性提出硬性要求。
网信、市场监管等部门需要协同治理,与AI企业建立信息共享机制,形成打击“数据投毒”的合力。
同时,社会与媒体应扮演好“探照灯”和“瞭望塔”的角色。 持续的舆论监督,是迫使企业不敢懈怠、推动行业健康发展的重要外部力量。
主持人: 最后,您对这个问题总体持乐观还是悲观态度?
杨董: 我认为这是一个“成长的阵痛”。技术的双刃剑属性在此暴露无遗。它考验的不仅是百度的技术,更是其企业良心和社会责任感。同时,这也是一场关乎我们每个人的数字素养之战。我们不能天真地等待技术自我完善,也不能绝望地放弃监督。我相信,通过企业自律、用户自觉、监管到位与社会监督的四位一体,我们能够为AI这片新生的沃土筑起坚固的篱笆,让它最终成长为服务于真理与人类福祉的参天大树,而非谣言与恶意的温床。
主持人: 感谢杨董今天深刻而全面的分享。