“DeepSeek對王一博道歉”竟是AI編的?大模型幻覺引發(fā)熱搜假案
一條關于辟謠和道歉的新聞,最終卻是AI幻覺帶來的謠言,這是AI時代的荒誕現(xiàn)實。
7月3日,一則《演員王一博案,判了》的新聞發(fā)酵,文章內(nèi)容提及,人工智能公司DeepSeek因內(nèi)容審核疏漏,就關聯(lián)不實信息向演員王一博道歉,還援引了刑事判決書。隨后,#DeepSeek向王一博道歉#一度沖上熱搜。
目前這一新聞已被刪除,但仍然引發(fā)大量轉載。
上述文章提到“人工智能公司DeepSeek發(fā)布正式道歉”,并提及“聲明”一詞。但第一財經(jīng)查閱了目前DeepSeek所有官方渠道的賬號,包括官網(wǎng)、公眾號、知乎、小紅書、海外的X等,都未發(fā)現(xiàn)有新的動態(tài)。
第一財經(jīng)也向公司進行了求證,但截至發(fā)稿,未收到任何回復。
僅從新聞事實來看,網(wǎng)絡流傳演員王一博的消息,已被經(jīng)紀公司澄清,法院判定系謠言,而聲稱DeepSeek為傳謠道歉,則有諸多的不合理之處。此次假新聞的信息中沒有任何一句明確指出DeepSeek的道歉渠道,聲明中所提及的法律判決書,在中國裁判文書網(wǎng)上檢索顯示無數(shù)據(jù)。
追溯“道歉”新聞源頭,或許來自于一則社交媒體中的帖子,但看圖片內(nèi)容可知,道歉的主體是“AI聊天助手DeepSeek”。
值得一提的是,就在這些內(nèi)容的下方,就有顯著提示“本回答由AI生成,內(nèi)容僅供參考,請仔細甄別?!钡淖盅?,但最后,這一由AI生成的道歉聲明,在傳播時逐漸演變成DeepSeek這家公司的道歉聲明,并被多家媒體傳播。
AI生成的幻覺問題并非新鮮事,但最后演變成被廣泛傳播的新聞,值得引起重視和思考。
幻覺一直是大模型的難題,AI會編造看起來合理或可信的信息,但實際上是在“胡說八道”,這種缺陷的根源來自技術局限和訓練機制,大模型本質(zhì)是基于統(tǒng)計概率的文本生成器,通過海量數(shù)據(jù)學習詞語間的關聯(lián)規(guī)律,而非真正理解事實。
此外,若訓練數(shù)據(jù)或網(wǎng)絡充斥錯誤信息,模型也更有可能輸出錯誤答案。導致典型的“Rubbish in, Rubbish out”(垃圾進,垃圾出)效應。
在第一財經(jīng)詢問DeepSeek關于AI的幻覺時,它給了一個有趣的比喻:大模型像戴著碎鏡片的先知,鏡子(訓練數(shù)據(jù))里有什么它就反射什么,但鏡片破損處(數(shù)據(jù)缺失)就會自己用彩色玻璃填補(生成幻覺)。
實際上,這一年隨著大模型能力的提高,幻覺問題有所緩解。此前5月底,DeepSeek發(fā)布了新版DeepSeek R1,官方提到專門針對“幻覺”問題進行了優(yōu)化,更新后的模型在改寫潤色、總結摘要、閱讀理解等場景中,與舊版相比幻覺率降低了 45%-50% 左右。
此前DeepSeek的幻覺率并不低,也被不少用戶和開發(fā)者所討論。5月15日,SuperCLUE曾發(fā)布最新一輪中文大模型忠實性幻覺測評結果,顯示此前的DeepSeek-R1模型幻覺率在21%左右,在測評的國內(nèi)模型中排名第五。
目前看來AI幻覺仍然很難避免。AI往往會捏造人物、事件,或者偽造法律條文,需要用戶甄別。而對媒體機構來說,當AI的“碎鏡片”越來越難被一眼識破,作為信息“把關人”的嚴謹性與責任感,在AI時代就變得更為重要。這起烏龍事件,是一面映照信息生態(tài)脆弱性的鏡子。
最后,第一財經(jīng)也詢問了DeepSeek,是否就不實信息向王一博道歉了,它目前給出的回復是否認道歉,但生成的內(nèi)容里仍有很多幻覺。
例如稱“針對謠言DeepSeek法務團隊已啟動取證”,并提到可以通過郵箱“official@deepseek.com”進行謠言舉報,但第一財經(jīng)查詢官網(wǎng)發(fā)現(xiàn)DeepSeek官方并沒有這一郵箱,官方郵箱前綴是“service”。
本文鏈接:http://jphkf.cn/news-4-10352-0.html“DeepSeek對王一博道歉”竟是AI編的?大模型幻覺引發(fā)熱搜假案
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕