亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

ICLR最嚴(yán)新規(guī)堵死大模型“水論文”之路,拒稿警告來(lái)了

08-28 06:57

ICLR官方表明:大模型亂用的情況該結(jié)束了。

剛剛,又一個(gè)人工智能國(guó)際頂級(jí)會(huì)議對(duì)大模型加以限制。

ICLR 2025已于今年4月結(jié)束,最終接收了11565份投稿,錄用率為32.08%。

就在今天,ICLR 2026出臺(tái)了大語(yǔ)言模型(LLM)使用政策,旨在明確規(guī)范論文作者與審稿人在研究過(guò)程和審稿過(guò)程中使用LLM的行為。

這屆會(huì)議將于明年4月23日至27日在巴西里約熱內(nèi)盧舉辦。

此次發(fā)布的所有政策均以ICLR《道德準(zhǔn)則》為依據(jù),目的是確保學(xué)術(shù)誠(chéng)信,同時(shí)避免LLM可能帶來(lái)的風(fēng)險(xiǎn),比如事實(shí)幻覺(jué)、剽竊或數(shù)據(jù)失實(shí)等問(wèn)題。

以下是兩項(xiàng)核心政策:

政策1:任何對(duì)LLM的使用都必須如實(shí)披露,這遵循了《道德準(zhǔn)則》中“所有對(duì)研究的貢獻(xiàn)都必須得到承認(rèn)”以及“貢獻(xiàn)者應(yīng)期望……為其工作獲得認(rèn)可”的政策。

政策2:ICLR的論文作者和審稿人最終要為自己的貢獻(xiàn)負(fù)責(zé),這遵循了《道德準(zhǔn)則》中“研究人員不得故意做出虛假或誤導(dǎo)性的聲明,不得捏造或偽造數(shù)據(jù),也不得歪曲結(jié)果”的政策。

違反上述政策的投稿將面臨具體處罰,其中最嚴(yán)重的后果之一是直接拒稿 (desk rejection)。

具體應(yīng)用場(chǎng)景說(shuō)明

為了說(shuō)明政策的實(shí)際應(yīng)用,ICLR官方列舉了幾個(gè)關(guān)鍵場(chǎng)景:

  • 輔助論文寫作

作者在使用LLM輔助潤(rùn)色語(yǔ)法、調(diào)整措辭甚至草擬章節(jié)后,必須明確披露其使用情況。作者對(duì)論文的全部?jī)?nèi)容,包括LLM生成的任何錯(cuò)誤或不當(dāng)內(nèi)容,承擔(dān)全部責(zé)任。

  • 輔助研究

當(dāng)LLM被用于提出研究思路、生成實(shí)驗(yàn)代碼或分析結(jié)果時(shí),同樣需要披露。人類作者必須對(duì)LLM貢獻(xiàn)的有效性和準(zhǔn)確性進(jìn)行驗(yàn)證。ICLR強(qiáng)調(diào),即使研究工作由LLM大量完成,也必須有一名人類作者來(lái)承擔(dān)最終責(zé)任。

  • 輔助撰寫審稿或元審稿意見

審稿人或領(lǐng)域主席 (Area Chair) 在撰寫審稿或元審稿意見時(shí)使用LLM必須披露。審稿人不僅要對(duì)審稿意見的質(zhì)量和準(zhǔn)確性負(fù)責(zé),還必須確保使用LLM的過(guò)程不會(huì)泄露投稿論文的機(jī)密信息。違反保密規(guī)定可能會(huì)導(dǎo)致該審稿人自己提交的所有論文被直接拒稿。

  • 禁止「提示詞注入」

嚴(yán)禁作者在論文中插入旨在操縱審稿流程的隱藏「提示詞注入」(例如,用白色字體誘導(dǎo)LLM給出好評(píng))。詳見機(jī)器之心報(bào)道:真有論文這么干?多所全球頂尖大學(xué)論文,竟暗藏AI好評(píng)指令

這種行為被視為串通 (collusion),是一種嚴(yán)重的學(xué)術(shù)不端行為。論文作者和審稿人都將為此負(fù)責(zé)。

ICLR不是孤例,其他頂會(huì)也有相關(guān)規(guī)定

隨著大語(yǔ)言模型能力不斷增強(qiáng),應(yīng)用范圍持續(xù)擴(kuò)大,其也開始應(yīng)用于論文寫作。從論文撰寫到審稿反饋,LLM的使用能顯著提高效率。

與此同時(shí),過(guò)度依賴或不當(dāng)使用LLM也引發(fā)了擔(dān)憂,導(dǎo)致一些學(xué)術(shù)不端現(xiàn)象出現(xiàn),包括虛假引用、抄襲拼接或責(zé)任模糊,這些都對(duì)科研誠(chéng)信以及學(xué)術(shù)評(píng)價(jià)的公正性構(gòu)成了挑戰(zhàn)。

而作為人工智能領(lǐng)域最具影響力的科研平臺(tái),各大頂級(jí)會(huì)議投稿數(shù)量每年以數(shù)千份的規(guī)模增加,不可避免地面臨著LLM帶來(lái)的各種壓力。

為了確保研究成果得到公平評(píng)判并有效監(jiān)督審稿過(guò)程,近年來(lái),包括NeurIPS、ICML以及如今的ICLR等國(guó)際頂級(jí)會(huì)議都相繼制定了LLM使用細(xì)則,以規(guī)范論文作者和審稿人的行為。

其中,NeurIPS 2025規(guī)定:

“允許LLM作為工具,但論文作者若將其作為核心方法則必須詳細(xì)描述;審稿人則嚴(yán)禁將任何機(jī)密信息(如稿件內(nèi)容)輸入LLM,僅可在不泄密的前提下用于輔助理解或檢查語(yǔ)法?!?/p>

網(wǎng)站地址: https://neurips.cc/Conferences/2025/LLM?utm_source=chatgpt.com

更早的ICML 2023規(guī)定:

“禁止提交完全由大語(yǔ)言模型(如ChatGPT)生成的論文文本,但允許使用其編輯和潤(rùn)色作者自己撰寫的文本,以防范剽竊等潛在風(fēng)險(xiǎn)。”

網(wǎng)站地址: https://icml.cc/Conferences/2023/llm-policy?utm_source=chatgpt.com

其他如IEEE相關(guān)會(huì)議規(guī)定:

“需要負(fù)責(zé)任地使用生成式AI作為輔助研究的工具,但強(qiáng)調(diào)人類作者和審稿人必須對(duì)工作的科學(xué)誠(chéng)信與保密性負(fù)全部責(zé)任。對(duì)于作者,必須在致謝部分明確聲明所用AI工具及具體用途,并對(duì)所有內(nèi)容的準(zhǔn)確性和原創(chuàng)性負(fù)責(zé),同時(shí)嚴(yán)禁利用AI偽造數(shù)據(jù)。對(duì)于審稿人,則出于嚴(yán)格的保密原則,絕對(duì)禁止將所審稿件的任何信息輸入到任何AI系統(tǒng)中。”

網(wǎng)站地址: https://www.ieee-ras.org/publications/guidelines-for-generative-ai-usage?utm_source=chatgpt.com

ACM相關(guān)會(huì)議同樣有類似規(guī)定:

“如果使用LLM(如ChatGPT)生成文本、表格、代碼等,必須在致謝或正文中明確披露對(duì)應(yīng)工具和使用方式;僅用于語(yǔ)言潤(rùn)色的小規(guī)模修改可以不用披露?!?/p>

網(wǎng)站地址: https://www.acm.org/publications/policies/frequently-asked-questions?utm_source=chatgpt.com

可以預(yù)見,越來(lái)越明確的LLM使用細(xì)則,能夠進(jìn)一步促進(jìn)AI工具的透明、合理使用,并形成更系統(tǒng)的學(xué)術(shù)規(guī)范。

本文來(lái)自微信公眾號(hào) “機(jī)器之心”(ID:almosthuman2014),編輯:杜偉、+0,36氪經(jīng)授權(quán)發(fā)布。

本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com