發布時間: 2025-08-15 09:35 來源:中國新聞網
“用魔法打敗魔法 ” 南開大學最新研究成果讓AI“識破”AI
中新網天津8月14日電(記者 孫玲玲)記者13日從南開大學獲悉,近日,南開大學計算機學院媒體計算實驗室取得最新研究成果,不僅從評估的角度揭示了現有AI檢測方法的性能不足,并創新性地提出了“直接差異學習”(Direct Discrepancy Learning,DDL)優化策略,教會AI用“火眼金睛”辨別人機不同,實現AI檢測性能的巨大突破。相關成果論文已被計算機多媒體領域國際頂級會議ACM MM2025(ACM International Conference on Multimedia)接收。
近日,OpenAI發布新一代人工智能模型GPT-5,再次引發全球關注。隨著DeepSeek、ChatGPT、通義千問、豆包等AIGC大模型逐漸從“新奇玩具”變成學習、工作中不可或缺的“生產力工具”,其伴生問題也日益凸顯:AI經常會“一本正經地胡說八道”,生成看似合理的虛假信息,造成“AI幻覺”;依賴AI工具代寫作業甚至畢業論文,極大沖擊著學術誠信和規范;論文AI率檢測系統有待完善,論文被誤判的問題時有發生……如何精準識別AI生成內容,成為亟待解決的熱點問題。
據了解,目前AI生成內容檢測主要有兩種路線,一種是“基于訓練的檢測方法”,使用特定數據訓練一個專用的分類模型;另一種是“零樣本檢測方法”,直接使用一個預訓練的語言模型并設計某種分類標準進行分類。

圖為AI生成內容檢測示意圖。(南開大學 供圖)
多項研究表明,現有檢測方法在應對復雜的現實場景時常顯不足。此前也曾有權威媒體報道,《荷塘月色》《流浪地球》等經典作品被某常用論文AI率檢測系統檢出高AI率。
為何現有的AI檢測工具會“誤判”?論文第一作者、南開大學計算機學院計算機科學卓越班2023級本科生付嘉晨解釋道:“如果把AI文本檢測比作一場考試,檢測器的訓練數據等同于日常練習題,現有檢測方法是機械刷題、死記硬背答題的固定套路,難以學會答題邏輯,一旦遇到全新難題,準確率就會顯著下降。”
“要想實現通用檢測,理論上需收集所有大模型的數據進行訓練,但在大模型迭代飛速的今天幾乎不可能。”付嘉晨說,讓檢測器真正學會舉一反三,即提升檢測器的泛化性能,是提升AI文本檢測性能的關鍵。
為此,研究團隊提出了DDL方法另辟蹊徑,通過直接優化模型預測的文本條件概率差異與人為設定的目標值之間的差距,幫助模型學習AI文本檢測的內在知識,可以精準捕捉人機文本間的深層語義差異,從而大幅提升檢測器的泛化能力與魯棒性。
“使用DDL訓練得到的檢測器如同有了‘火眼金睛’,即便只‘學習’過DeepSeek-R1的文本,也能精準識別像GPT-5這樣最新大模型生成的內容。”付嘉晨說。
團隊還提出了一個全面的測試基準數據集MIRAGE,使用13種主流的商用大模型(如豆包、DeepSeek、Kimi等)以及4種先進的開源大模型(如Qwen等),從AI生成、潤色、重寫三個角度構造了接近十萬條人類-AI文本對。
“MIRAGE是目前唯一聚焦于對商用大語言模型檢測的基準數據集。直觀地說,之前的基準數據集是由少而且能力簡單的大模型命題出卷,而MIRAGE是17個能力強大的大模型聯合命題,形成一套高難度、又有代表性的檢測試卷。”論文通訊作者、南開大學計算機學院副教授郭春樂說。
在MIRAGE的測試結果顯示,現有檢測器的準確率從在簡單數據集上的90%驟降至約60%;而使用DDL訓練的檢測器仍保持85%以上的準確率。與斯坦福大學提出的DetectGPT相比,性能相對提升71.62%;與馬里蘭大學、卡內基梅隆大學等共同提出的Binoculars方法相比,性能相對提升68.03%。
“AIGC發展日新月異,我們將持續迭代升級評估基準和技術,致力于實現更快、更準、更低成本的AI生成文本檢測,以AI之力,讓每一篇成果更出彩。”研究團隊負責人、南開大學計算機學院教授李重儀說。(完)
責任編輯:王忠巖
審 核:劉海龍
統 籌: 張宇
監 制: 曲立偉
圖片版權歸原作者所有,如有侵權請聯系我們,我們立刻刪除。