日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

ICML 征稿禁止使用大型语言模型,LeCun 转发:中小型模型可以用吗

發布時間:2023/12/15 综合教程 39 生活家
生活随笔 收集整理的這篇文章主要介紹了 ICML 征稿禁止使用大型语言模型,LeCun 转发:中小型模型可以用吗 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

AI 頂會 ICML 征稿日在即,關于道德準則的新政策卻引來網友不滿!規則要求作者不能使用大型語言模型,網友評論區刷屏詢問:為什么?

昨天,國際機器學習會議(ICML)發布了 2023 論文征稿公告。

論文提交日期為 1 月 9 日至 1 月 26 日。

然而,本次會議中關于「道德準則」的要求卻引來了眾多不滿。

LLM 不可控,還是 ban 掉吧

根據大會的政策,所有作者和程序委員會成員,包括審稿人,應遵循標準的道德準則。

嚴禁任何形式的抄襲,以及審稿人、領域主席(AC)和高級領域主席(SAC)對特權信息的不道德使用,例如共享此信息,或將其用于評審過程以外的任何其他目的。

禁止包含從大規模語言模型(LLM)(如 ChatGPT)生成的文本的論文,除非這些生成的文本作為論文實驗分析的一部分呈現。

所有可疑的不道德行為都將由道德委員會進行調查,被發現違反規則的個人可能會面臨制裁。今年,我們將收集被發現違反這些標準的個人姓名;如果代表會議、期刊或其他組織的個人出于決策目的要求提供此列表,我們可能會向他們提供此信息。

其中,「禁止使用大型語言模型寫論文」一條要求被網友熱議。

此消息已發布,網友紛紛在 ICML 推特下評論:「為啥不能用大型語言模型?」

AI 論文不能用 AI,合理嗎

Yann LeCun 轉發并評價:「大型語言模型不能用,意思是中型和小型語言模型還可以用。」

他解釋說:「因為拼寫檢查應用和文本預測也是語言模型。」

最后,LeCun 陰陽道:「明年的 ICML 道德準則應該變成:研究人員必須徒手完成各種計算,不能借助計算機;各類圖形必須用筆和紙手繪;從今天起,ICML 的官方語言變為瑞典語(瑞典:?)。」

最后,還不忘轉發一部電影《瘋了》,總結自己對 ICML 政策的評價。

在 LeCun 的帖子下,網友們各顯神通,紛紛整活。

一位網友給 ICML 提供了新的思路:「另一種表述此策略的方式是‘提交中的所有文本都應由參數小于 100B 或超過 1 萬億的神經網絡生成’。」

還有人假裝是 ICML 的評審,給 ChatGPT 打廣告:「作為 ICML 和其他會議的評審 ,我很欣賞作者們使用 ChatGP 等工具潤色文章。這會讓他們的論文更加清晰易讀。(該帖已經過 ChatGPT 的修改)」

對于該規則,MIT 教授 Erik Brynjolfsson 簡單概括:「這是場必敗之仗。」

除了整活玩梗,也有人認真表達了自己對 ICML 規定的想法。

AAAI 前主席 Thomas Dietterich 說:「這個規定很怪,對于一個人工智能會議來說更是如此。我們應該歡迎所有為科學技術做出貢獻的文章,不論作者是否接受了 AI 的輔助。」

也有人給 ICML 改進建議:

使用大型語言模型來進行審校對于改善拼寫和語法很有裨益。Grammarly,Notion,Google Docs 甚至 Word 都會用到大型語言模型。

看起來,解決方法是解釋清楚使用大型語言模型的原因和用途,而非一味禁止。

原來不止我用 Grammarly 檢查拼寫和語法(doge)。

當然,也有網友對此表示了理解,認為此舉是為了保護評審的權威。

網友 Anurag Ghosh 評論道:「我認為 ICML 的要求是為了防止那些看似正確的論文發表。例如機器學習領域發表的 5 篇編造 / AI 生成的論文。這會暴露同行評審的缺陷。」

也有人認為,「大型語言模型只是工具,如果它們就可以生成質量更高的論文,那又如何?這些研究的主要貢獻不來自于大型語言模型,而來自那些研究人員。難道我們要禁止研究人員接受任何形式的幫助,比如谷歌搜索,或是不能和沒有利害關系的人談論此事嗎?」

由于最近幾年大語言模型的熱度始終不減,這次 ICML 提出的禁令引發的學者和網友熱烈討論,想必還會持續一段時間。

不過目前看下來,有一個問題似乎還沒人討論,如何判斷一篇文章的片段是不是大語言模型生成的?如何驗證,靠查重嗎?畢竟真要是機器模型生成的文章,誰也不會特意標注一個「本文是大語言模型自動生成的」,對吧?

更何況,研究論文這種邏輯清晰、結構明確、語言風格高度模式化的文章,簡直就是大語言模型發揮的最佳場所,即使是生成的原文略顯生硬,但如果是當個輔助工具來用,怕是很難辨別,也就難有明確的標準來實施這個禁令。

這樣看來,這次 ICML 的審稿人肩上的擔子,怕是又要重了不少了。

參考資料:

  • https://icml.cc/Conferences/2023/CallForPapers

  • https://twitter.com/ylecun/status/1610367976016064513

本文來自微信公眾號:新智元 (ID:AI_era),編輯:昕朋 David

總結

以上是生活随笔為你收集整理的ICML 征稿禁止使用大型语言模型,LeCun 转发:中小型模型可以用吗的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。