“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案
“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案
“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案一条关于辟谣和道歉的新闻,最终(zuìzhōng)却是AI幻觉带来的谣言,这是(zhèshì)AI时代的荒诞现实。
7月3日,一则《演员王一博案,判了》的(de)新闻发酵,文章内容提及,人工智能(réngōngzhìnéng)公司DeepSeek因内容审核疏漏,就关联(guānlián)不实信息向演员王一博道歉,还援引了刑事(xíngshì)判决书。随后,#DeepSeek向王一博道歉#一度冲上热搜。
目前这一新闻已被删除,但仍然引发大量(dàliàng)转载。
上述文章提到“人工智能公司DeepSeek发布正式道歉”,并提及“声明”一词。但第一财经(cáijīng)查阅了目前DeepSeek所有官方渠道的(de)账号,包括(bāokuò)官网、公众(gōngzhòng)号、知乎、小红书、海外的X等,都未发现有新的动态。
第一财经也向公司进行了求证,但截至发稿(fāgǎo),未收到任何回复。
仅从新闻事实来看,网络流传演员王一博的消息,已(yǐ)被经纪公司澄清(chéngqīng),法院判定系谣言,而声称DeepSeek为传谣道歉,则有诸多的不合理之处。此次假新闻的信息(xìnxī)中没有任何一句明确指出DeepSeek的道歉渠道,声明中所提及的法律判决书(pànjuéshū),在中国(zhōngguó)裁判文书网上检索显示无数据。
追溯“道歉”新闻源头,或许来自于一则社交媒体中的(de)帖子,但看图片内容可知,道歉的主体(zhǔtǐ)是“AI聊天助手DeepSeek”。
值得一提的是,就在这些内容的下方,就有(yǒu)显著提示“本回答由AI生成,内容仅供参考,请仔细(zǐxì)甄别。”的字眼,但最后(zuìhòu),这一由AI生成的道歉声明(shēngmíng),在传播时逐渐演变成DeepSeek这家公司的道歉声明,并被多家媒体传播。
AI生成的幻觉问题并非新鲜事,但(dàn)最后演变成被广泛传播的新闻,值得引起重视(zhòngshì)和思考。
幻觉一直是大模型的(de)难题,AI会编造看起来合理或可信的信息,但实际上是在“胡说八道”,这种缺陷的根源来自技术局限和训练机制,大模型本质是基于统计概率(gàilǜ)的文本生成器(shēngchéngqì),通过海量数据学习词语(cíyǔ)间的关联规律,而非真正理解事实。
此外,若训练数据(shùjù)或(huò)网络充斥错误信息,模型(móxíng)也更有可能输出错误答案。导致典型的“Rubbish in, Rubbish out”(垃圾进,垃圾出)效应。
在第一财经询问DeepSeek关于AI的幻觉时,它给了一个有趣的比喻(bǐyù):大模型(móxíng)像戴着碎镜片的先知,镜子(训练数据(shùjù))里有什么它就反射什么,但镜片破损处(数据缺失)就会自己(zìjǐ)用彩色玻璃填补(生成幻觉)。
实际上,这一年(yīnián)随着大模型能力的提高,幻觉问题有所缓解。此前5月底,DeepSeek发布了新版DeepSeek R1,官方提到专门针对“幻觉”问题进行(jìnxíng)了优化,更新后(hòu)的模型在改写(gǎixiě)润色、总结摘要、阅读理解等场景中,与旧版相比幻觉率(lǜ)降低了 45%-50% 左右。
此前DeepSeek的幻觉率并不低,也被(bèi)不少用户和开发者所讨论。5月15日,SuperCLUE曾发布(fābù)最新一轮中文大模型忠实性幻觉测评(cèpíng)结果,显示此前的DeepSeek-R1模型幻觉率在21%左右,在测评的国内模型中排名(páimíng)第五。
目前看来AI幻觉仍然很难(hěnnán)避免。AI往往会捏造人物、事件,或者伪造法律条文,需要用户甄别。而对媒体机构来说,当AI的“碎镜片”越来越(yuèláiyuè)难被一眼识破(shípò),作为信息(xìnxī)“把关人”的严谨性与责任感,在AI时代就变得(biàndé)更为重要。这起乌龙事件,是一面映照信息生态脆弱性的镜子。
最后,第一财经也询问了(le)DeepSeek,是否就不实信息向王一博道歉了,它目前(mùqián)给出的回复是否认道歉,但(dàn)生成的内容里仍有很多幻觉。
例如称“针对谣言(yáoyán)DeepSeek法务团队已启动取证”,并提到可以通过邮箱“official@deepseek.com”进行(jìnxíng)谣言举报,但第一财经查询官网发现(fāxiàn)DeepSeek官方并没有这一(zhèyī)邮箱,官方邮箱前缀是“service”。
(本文来自(láizì)第一财经)
一条关于辟谣和道歉的新闻,最终(zuìzhōng)却是AI幻觉带来的谣言,这是(zhèshì)AI时代的荒诞现实。
7月3日,一则《演员王一博案,判了》的(de)新闻发酵,文章内容提及,人工智能(réngōngzhìnéng)公司DeepSeek因内容审核疏漏,就关联(guānlián)不实信息向演员王一博道歉,还援引了刑事(xíngshì)判决书。随后,#DeepSeek向王一博道歉#一度冲上热搜。
目前这一新闻已被删除,但仍然引发大量(dàliàng)转载。
上述文章提到“人工智能公司DeepSeek发布正式道歉”,并提及“声明”一词。但第一财经(cáijīng)查阅了目前DeepSeek所有官方渠道的(de)账号,包括(bāokuò)官网、公众(gōngzhòng)号、知乎、小红书、海外的X等,都未发现有新的动态。
第一财经也向公司进行了求证,但截至发稿(fāgǎo),未收到任何回复。
仅从新闻事实来看,网络流传演员王一博的消息,已(yǐ)被经纪公司澄清(chéngqīng),法院判定系谣言,而声称DeepSeek为传谣道歉,则有诸多的不合理之处。此次假新闻的信息(xìnxī)中没有任何一句明确指出DeepSeek的道歉渠道,声明中所提及的法律判决书(pànjuéshū),在中国(zhōngguó)裁判文书网上检索显示无数据。
追溯“道歉”新闻源头,或许来自于一则社交媒体中的(de)帖子,但看图片内容可知,道歉的主体(zhǔtǐ)是“AI聊天助手DeepSeek”。
值得一提的是,就在这些内容的下方,就有(yǒu)显著提示“本回答由AI生成,内容仅供参考,请仔细(zǐxì)甄别。”的字眼,但最后(zuìhòu),这一由AI生成的道歉声明(shēngmíng),在传播时逐渐演变成DeepSeek这家公司的道歉声明,并被多家媒体传播。
AI生成的幻觉问题并非新鲜事,但(dàn)最后演变成被广泛传播的新闻,值得引起重视(zhòngshì)和思考。
幻觉一直是大模型的(de)难题,AI会编造看起来合理或可信的信息,但实际上是在“胡说八道”,这种缺陷的根源来自技术局限和训练机制,大模型本质是基于统计概率(gàilǜ)的文本生成器(shēngchéngqì),通过海量数据学习词语(cíyǔ)间的关联规律,而非真正理解事实。
此外,若训练数据(shùjù)或(huò)网络充斥错误信息,模型(móxíng)也更有可能输出错误答案。导致典型的“Rubbish in, Rubbish out”(垃圾进,垃圾出)效应。
在第一财经询问DeepSeek关于AI的幻觉时,它给了一个有趣的比喻(bǐyù):大模型(móxíng)像戴着碎镜片的先知,镜子(训练数据(shùjù))里有什么它就反射什么,但镜片破损处(数据缺失)就会自己(zìjǐ)用彩色玻璃填补(生成幻觉)。
实际上,这一年(yīnián)随着大模型能力的提高,幻觉问题有所缓解。此前5月底,DeepSeek发布了新版DeepSeek R1,官方提到专门针对“幻觉”问题进行(jìnxíng)了优化,更新后(hòu)的模型在改写(gǎixiě)润色、总结摘要、阅读理解等场景中,与旧版相比幻觉率(lǜ)降低了 45%-50% 左右。
此前DeepSeek的幻觉率并不低,也被(bèi)不少用户和开发者所讨论。5月15日,SuperCLUE曾发布(fābù)最新一轮中文大模型忠实性幻觉测评(cèpíng)结果,显示此前的DeepSeek-R1模型幻觉率在21%左右,在测评的国内模型中排名(páimíng)第五。
目前看来AI幻觉仍然很难(hěnnán)避免。AI往往会捏造人物、事件,或者伪造法律条文,需要用户甄别。而对媒体机构来说,当AI的“碎镜片”越来越(yuèláiyuè)难被一眼识破(shípò),作为信息(xìnxī)“把关人”的严谨性与责任感,在AI时代就变得(biàndé)更为重要。这起乌龙事件,是一面映照信息生态脆弱性的镜子。
最后,第一财经也询问了(le)DeepSeek,是否就不实信息向王一博道歉了,它目前(mùqián)给出的回复是否认道歉,但(dàn)生成的内容里仍有很多幻觉。
例如称“针对谣言(yáoyán)DeepSeek法务团队已启动取证”,并提到可以通过邮箱“official@deepseek.com”进行(jìnxíng)谣言举报,但第一财经查询官网发现(fāxiàn)DeepSeek官方并没有这一(zhèyī)邮箱,官方邮箱前缀是“service”。
(本文来自(láizì)第一财经)



相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎