拒稿警告,靠大模型「偷摸水論文」被堵死,ICLR最嚴新規來了

【拒稿警告,靠大模型「偷摸水論文」被堵死,ICLR最嚴新規來了】拒稿警告,靠大模型「偷摸水論文」被堵死,ICLR最嚴新規來了

文章圖片

拒稿警告,靠大模型「偷摸水論文」被堵死,ICLR最嚴新規來了

文章圖片

拒稿警告,靠大模型「偷摸水論文」被堵死,ICLR最嚴新規來了

文章圖片


機器之心報道
編輯:杜偉、+0

剛剛 , 又一個人工智能國際頂會為大模型「上了枷鎖」 。

ICLR 2025 已于今年 4 月落下了帷幕 , 最終接收了 11565 份投稿 , 錄用率為 32.08% 。

就在今天 , ICLR 2026 出臺了大語言模型(LLM)使用政策 , 以明確規范論文作者與審稿人在研究過程和審稿過程中使用 LLM 的做法 。

這屆會議將于明年 4 月 23 日至 27 日在巴西里約熱內盧舉辦 。



此次發布的所有政策均以 ICLR《道德準則》為基礎 , 旨在確保學術誠信 , 同時規避 LLM 可能帶來的風險 , 如事實幻覺、剽竊或數據失實 。



以下是兩項核心政策:

政策1:任何對 LLM 的使用都必須如實披露 , 這遵循了《道德準則》中「所有對研究的貢獻都必須得到承認」以及「貢獻者應期望……為其工作獲得認可」的政策 。

政策2:ICLR 的論文作者和審稿人最終要為自己的貢獻負責 , 這遵循了《道德準-則》中「研究人員不得故意做出虛假或誤導性的聲明 , 不得捏造或偽造數據 , 也不得歪曲結果」的政策 。

違反上述政策的投稿將面臨具體處罰 , 其中最嚴重的后果之一是直接拒稿 (desk rejection) 。

具體應用場景說明

為闡明政策的實際應用 , ICLR 官方列舉了幾個關鍵場景:

輔助論文寫作
作者在使用 LLM 輔助潤色語法、調整措辭甚至草擬章節后 , 必須明確披露其使用情況 。 作者對論文的全部內容 , 包括 LLM 生成的任何錯誤或不當內容 , 承擔全部責任 。

輔助研究
當 LLM 被用于提出研究思路、生成實驗代碼或分析結果時 , 同樣需要披露 。 人類作者必須對 LLM 貢獻的有效性和準確性進行驗證 。 ICLR 強調 , 即使研究工作由 LLM 大量完成 , 也必須有一名人類作者來承擔最終責任 。

輔助撰寫審稿或元審稿意見
審稿人或領域主席 (Area Chair) 在撰寫審稿或元審稿意見時使用 LLM 必須披露 。 審稿人不僅要對審稿意見的質量和準確性負責 , 還必須確保使用 LLM 的過程不會泄露投稿論文的機密信息 。 違反保密規定可能會導致該審稿人自己提交的所有論文被直接拒稿 。

禁止「提示詞注入」
嚴禁作者在論文中插入旨在操縱審稿流程的隱藏「提示詞注入」(例如 , 用白色字體誘導 LLM 給出好評) 。 詳見機器之心報道:真有論文這么干?多所全球頂尖大學論文 , 竟暗藏 AI 好評指令

這種行為被視為串通 (collusion) , 是一種嚴重的學術不端行為 。 論文作者和審稿人都將為此負責 。

ICLR 不是孤例 , 其他頂會也有相關規定

隨著大語言模型能力的持續增強 , 應用范圍不斷拓展 , 其觸手也伸向了論文寫作 。 從論文撰寫到審稿反饋 , LLM 的使用能夠顯著提升效率 。

與此同時 , 過度依賴或不當使用 LLM 也引發了擔憂 , 并導致一些學術不端現象的出現 , 包括虛假引用、抄襲拼接或責任模糊 , 這些都對科研誠信以及學術評價的公正性構成了挑戰 。

而作為人工智能領域最具影響力的科研平臺 , 各大頂會投稿數量正以每年數以千計的規模遞增 , 不可避免地面臨著 LLM 所帶來的種種壓力 。

為了確保研究成果得到公平的評判并對審稿過程進行有效監督 , 近年來 , 包括 NeurIPS、ICML 以及如今的 ICLR 等國際頂會都相繼制定 LLM 使用細則 , 以約束論文作者和審稿人的行為 。

其中 , NeurIPS 2025 規定了:

「允許 LLM 作為工具 , 但論文作者若將其作為核心方法則必須詳細描述;審稿人則嚴禁將任何機密信息(如稿件內容)輸入 LLM , 僅可在不泄密的前提下用于輔助理解或檢查語法 。 」



網站地址:https://neurips.cc/Conferences/2025/LLM?utm_source=chatgpt.com

更早時候的 ICML 2023 規定:

「禁止提交完全由大語言模型(如 ChatGPT)生成的論文文本 , 但允許使用其編輯和潤色作者自己撰寫的文本 , 以防范剽竊等潛在風險 。 」



網站地址:https://icml.cc/Conferences/2023/llm-policy?utm_source=chatgpt.com

其他如 IEEE 相關會議也規定了:

「需要負責任地使用生成式 AI 作為輔助研究的工具 , 但強調人類作者和審稿人必須對工作的科學誠信與保密性負全部責任 。 對于作者 , 必須在致謝部分明確聲明所用 AI 工具及具體用途 , 并對所有內容的準確性和原創性負責 , 同時嚴禁利用 AI 偽造數據 。 對于審稿人 , 則出于嚴格的保密原則 , 絕對禁止將所審稿件的任何信息輸入到任何 AI 系統中 。 」



網站地址:https://www.ieee-ras.org/publications/guidelines-for-generative-ai-usage?utm_source=chatgpt.com

ACM 相關會議同樣有類似規定:

「如果使用 LLM(如 ChatGPT)生成文本、表格、代碼等 , 必須在致謝或正文中明確披露對應工具和使用方式;僅用于語言潤色的小規模修改可以不用披露 。 」



網站地址:https://www.acm.org/publications/policies/frequently-asked-questions?utm_source=chatgpt.com

可以預見 , 越來越清晰的 LLM 使用細則 , 可以進一步促進 AI 工具的透明、合理使用 , 并形成更系統的學術規范 。

    推薦閱讀