評審用不用AI,作者說了算?ICML 2026全新評審政策出爐

評審用不用AI,作者說了算?ICML 2026全新評審政策出爐

文章圖片

評審用不用AI,作者說了算?ICML 2026全新評審政策出爐

文章圖片

評審用不用AI,作者說了算?ICML 2026全新評審政策出爐

文章圖片


機器之心編輯部
開始前 , 溫馨提醒一下各位投稿 ICML 2026 的小伙伴們 , 投稿已于 1 月 8 日開放 , 也請大家注意投稿截止時間:
摘要提交截止日期:2026 年 1 月 23 日 。 全文提交截止日期:2026 年 1 月 28 日 。兩個月前 , ICML 2026發布了征稿新規 , 我們也詳細做了報道 。
【評審用不用AI,作者說了算?ICML 2026全新評審政策出爐】當時 , 為了應對大量的 , 超負荷的預期論文投稿量 , 以及其他頂會超負荷運行的前車之鑒 , ICML 提出了互審數量限制和人工智能使用規定 。
征稿要求中提到:評審過程中可能會使用 AI 工具輔助 , 但不會允許完全由 AI 執行評審 。
已經投稿了論文的小伙伴或許已經發現了 , 這次 ICML 似乎有了一些新變化 , 并且是在征稿要求中沒有詳細說明的 。

我們簡單概括一下 , ICML 2026 引入了評審類型選擇機制 , 論文作者可以決定在其論文評審過程中是否允許使用大語言模型 。
具體包括兩種政策:
政策 A 是保守型 , 簡單直白好理解:嚴格禁止在論文評審過程中使用任何大語言模型 。
政策 B 是寬松型 , 允許使用大模型評審 , 但會議對使用大模型評審的方式做出了限制:
允許的行為:
使用大語言模型輔助理解論文內容及相關工作; 使用大語言模型對評審意見進行語言潤色; 可將投稿論文提交給符合隱私合規要求的大語言模型 。不允許的行為:
向大語言模型詢問論文的優點或缺點; 要求大語言模型總結或建議評審應關注的關鍵點; 要求大語言模型提供評審意見的結構或提綱; 要求大語言模型撰寫完整的評審意見 。隱私合規大語言模型 , 是指不會使用日志數據進行訓練、且對數據保留期限作出限制的模型工具 。
這個小變化是比較新穎的 。
過去 , 評審是否使用大模型 , 更多取決于評審人 , 或者處在一種默認被接受的灰色狀態 。 這一次 , ICML 明確把選擇權交給了作者本身 。 在論文投稿量持續攀升、評審負擔越來越重的現實下 , ICML 既沒有徹底禁止 AI , 也沒有完全放開 AI 評審 , 卻給出了一個相對折中的方案 。
問題在于 , 關于大模型使用的規定 , 執行起來一般都很困難 。
就像我們之前報道的 , 第三方機構對 ICLR 2026 的審稿意見進行系統性統計 , 其中就發現了大量 AI 審稿的現象 。
在對 75800 篇論文的審稿意見統計中 , 竟然有 21% 完全由 AI 生成、4% 重度由 AI 編輯、9% 中度由 AI 編輯、22% 輕度由 AI 編輯 , 完全由人類(審稿人)撰寫的僅占 43% 。

網友們也表達了類似的意見 。 AI 審稿已經達到了泛濫的程度 , 這也并不是 ICML 2026 這次的政策 B 能夠完全限制的 。

雖然說 ICML 明確規定了使用大模型審稿中不允許存在的行為 , 但誰又能保證審稿人一定遵從了這些限制呢?我們猜測 , 用大模型審稿的時候 , 提問大模型的第一句話就很可能是「給出這篇論文的優缺點」 , 但這明顯是違反規定的 。

因此 , 這套規則或許更像是一種明確態度和方向的約定 , 而不是一套可以嚴格執行的機制 。

不過 , 在大家如此擔心大模型引發各種信任危機的情況下 , ICML 還可以讓作者選擇拒絕大模型審稿 。
有個「一刀切」的選項交到論文作者手中 , 也是當下一個不錯的選擇 , 不是嗎?

    推薦閱讀