發(fā)布時間:2026年04月01日 10:26 來源:中國新聞網(wǎng)

從搜索引擎到AI大模型,我們獲取信息的入口正在發(fā)生變化。近期媒體曝光,不法機構利用GEO(生成式引擎優(yōu)化)技術批量生產虛假信息,對大模型“投毒”,讓其錯把“電子垃圾”當成“干貨”輸出給用戶。專家提醒,這導致AI語料庫面臨“近親繁殖”風險,大量平庸、重復的內容被模型吸收,加劇其“邏輯退化”與“幻覺”。
對抗“投毒”,技術防線正在構筑。研發(fā)人員正訓練大模型“自我甄別”真?zhèn)蔚哪芰Γ诵氖墙⑿旁丛u分體系與第三方交叉校驗機制。同時,用戶也需保持警惕,對AI提供的消費建議應自行交叉驗證。 凈化AI空間需企業(yè)、監(jiān)管與平臺全鏈路聯(lián)動:企業(yè)需建立語料庫動態(tài)防火墻,識別并清洗AI生成的劣質數(shù)據(jù);監(jiān)管方需推動數(shù)據(jù)確權與安全評估;平臺則需強化AI內容的水印標識。(記者 盧曉娜 北京報道)
責任編輯:【羅攀】
京公網(wǎng)安備 11010202009201號] [京ICP備2021034286號-7] [互聯(lián)網(wǎng)宗教信息服務許可證:京(2022)0000118;京(2022)0000119]