大模型圈再曝抄襲大瓜,這回,“被告”還是大名鼎鼎的谷歌DeepMind。
“原告”直接怒噴:他們就是把我們的技術(shù)報(bào)告洗了一遍!
具體是這么個(gè)事兒:
谷歌DeepMind一篇中了頂流新生代會(huì)議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項(xiàng)研究。開(kāi)源的那種。
兩篇論文探討的都是一種規(guī)范模型文本生成結(jié)構(gòu)的方法。
抓馬的是,谷歌DeepMind這篇論文中確實(shí)明晃晃寫(xiě)著引用了“原告”的論文。
然鵝,即便是標(biāo)明了引用,“原告”的兩位論文作者Brandon T. Willard(布蘭登)和R´emi Louf(雷米)還是堅(jiān)稱谷歌抄襲,并認(rèn)為:
谷歌對(duì)兩者差異性的表述“簡(jiǎn)直荒謬”。
而不少網(wǎng)友看過(guò)論文后也緩緩打出一個(gè)問(wèn)號(hào):CoLM是怎么審的稿?
唯一區(qū)別是換了概念?
趕緊瞅一眼論文對(duì)比……
兩篇論文的比較
先淺看一眼兩篇論文的摘要對(duì)比。
谷歌DeepMind的論文說(shuō)的是,tokenization給約束語(yǔ)言模型輸出帶來(lái)了麻煩,他們引入自動(dòng)機(jī)理論來(lái)解決這些問(wèn)題,核心是避免在每個(gè)解碼步驟遍歷所有邏輯值(logits)。
該方法只需要訪問(wèn)每個(gè)token的解碼邏輯值,計(jì)算與語(yǔ)言模型的大小無(wú)關(guān),高效且易用于幾乎所有語(yǔ)言模型架構(gòu)。
而“原告”的說(shuō)法大致是:
提出了一個(gè)高效框架,通過(guò)在語(yǔ)言模型的詞匯表上構(gòu)建索引,來(lái)大幅提升約束文本生成的效率。簡(jiǎn)單來(lái)說(shuō),就是通過(guò)索引避免對(duì)全部邏輯值的遍歷。
同樣“不依賴于具體模型”。
方向上確實(shí)大差不差,我們還是接著來(lái)看看更多詳細(xì)內(nèi)容。
我們用谷歌Gemini 1.5 Pro分別總結(jié)了兩篇論文的主要內(nèi)容,并接著讓Gemini來(lái)比較兩者的異同。
對(duì)于“被告”谷歌這篇論文,Gemini總結(jié)其方法是將detokenization重新定義為有限狀態(tài)轉(zhuǎn)換器(FST)操作。
將此FST與表示目標(biāo)形式語(yǔ)言的自動(dòng)機(jī)組合,這種自動(dòng)機(jī)可以用正則表達(dá)式或語(yǔ)法來(lái)表示。
通過(guò)以上結(jié)合,生成一個(gè)基于token的自動(dòng)機(jī),用于在解碼過(guò)程中約束語(yǔ)言模型,確保其輸出的文本符合預(yù)設(shè)的形式語(yǔ)言規(guī)范。
此外,谷歌論文中還進(jìn)行了一系列正則表達(dá)式擴(kuò)展,這些擴(kuò)展通過(guò)使用特別命名的捕獲組來(lái)編寫(xiě),顯著提升了系統(tǒng)處理文本時(shí)的效率和表達(dá)能力。
而對(duì)于“原告”論文,Gemini總結(jié)其方法的核心是將文本生成問(wèn)題重新定義為有限狀態(tài)機(jī)(FSM)之間的轉(zhuǎn)換。
“原告”的具體方法是:
利用正則表達(dá)式或上下文無(wú)關(guān)文法構(gòu)建FSM,并將其用于指導(dǎo)文本生成過(guò)程。
通過(guò)構(gòu)建詞匯表索引,高效地確定每個(gè)步驟中的有效詞,避免遍歷整個(gè)詞匯表。
Gemini列出了兩篇論文的共同點(diǎn)。
至于兩者的區(qū)別,有點(diǎn)像前頭那位網(wǎng)友說(shuō)的,簡(jiǎn)單總結(jié)就是:谷歌將詞匯表定義為了一個(gè)FST。
前面也說(shuō)到了,谷歌在“Related work”中將原告論文列為“最相關(guān)”的一項(xiàng)工作:
最相關(guān)的研究是Outlines(Willard&Louf, 2023),該研究同樣采用有限狀態(tài)自動(dòng)機(jī)(FSA)和下推自動(dòng)機(jī)(PDA)作為約束手段——我們的方法是在2023年初獨(dú)立開(kāi)發(fā)的。
谷歌認(rèn)為兩者的差異在于,Outlines的方法基于一種特制的“索引”操作,需要手動(dòng)擴(kuò)展到新的應(yīng)用場(chǎng)景。相比之下,谷歌使用自動(dòng)機(jī)理論徹底重新定義了整個(gè)過(guò)程,使得應(yīng)用FSA和泛化到PDA變得更加容易。
另一個(gè)區(qū)別是,谷歌定義了擴(kuò)展以支持通配符匹配,并提高了可用性。
谷歌緊接著在介紹下面的兩項(xiàng)相關(guān)工作中,也都提到了Outlines。
一項(xiàng)是Yin等人(2024年)通過(guò)增加“壓縮”文本段到預(yù)填充的功能,擴(kuò)展了Outlines。
另一項(xiàng)是Ugare等人(2024年)近期提出的一個(gè)系統(tǒng),名為SynCode。它也利用FSA,但采用LALR和LR解析器而非PDA處理語(yǔ)法。
與Outlines類似,該方法依賴于定制算法。
但吃瓜群眾們顯然不是很買賬:
CoLM的評(píng)審們應(yīng)該注意。我不認(rèn)為這看上去是各自獨(dú)立的“同期工作”。
網(wǎng)友:這事兒不罕見(jiàn)…
這件事一發(fā)酵,不少網(wǎng)友都怒了,抄襲可恥,更何況“科技巨頭剽竊小團(tuán)隊(duì)的工作成果不是第一次了”。
順便一提,布蘭登和雷米發(fā)布原告論文的時(shí)候都在給Normal Computing遠(yuǎn)程工作,這家AI Infra公司成立于2022年。
哦對(duì)了,Normal Computing的創(chuàng)始團(tuán)隊(duì)有一部分就來(lái)自Google Brain……
另外,布蘭登和雷米現(xiàn)在合伙出來(lái)創(chuàng)業(yè)了,新公司名叫.txt,官網(wǎng)信息顯示,其目標(biāo)是提供快速可靠的信息提取模型。并且官網(wǎng)掛出的GitHub主頁(yè),就是Outlines倉(cāng)庫(kù)。
說(shuō)回到網(wǎng)友這邊,更讓大家伙兒生氣的是,“這種情況已經(jīng)變得普遍”。
一位來(lái)自荷蘭代爾夫特理工大學(xué)的博士后分享了自己的遭遇:
去年10月我們完成了一項(xiàng)工作,最近有篇已被接收的論文采用了相同的思路和概念,但甚至沒(méi)有引用我們的論文。
還有一位美國(guó)東北大學(xué)的老哥更慘,這種情況他遭遇過(guò)兩次,下手的還都是同一個(gè)組。并且對(duì)面那位第一作者還給他的GitHub加過(guò)星標(biāo)……
不過(guò),也有網(wǎng)友表達(dá)了不同的意見(jiàn):
如果說(shuō)發(fā)個(gè)博客文章或未經(jīng)評(píng)估的預(yù)印本論文就算占坑了,那人人都會(huì)占坑,不是嗎?
對(duì)此,雷米怒懟:
好家伙,發(fā)布預(yù)印本論文并開(kāi)源代碼 = 占坑;
寫(xiě)篇數(shù)學(xué)論文,甚至不需要任何偽代碼 = 好工作???
布蘭登老哥也表示yue了:
開(kāi)源代碼并撰寫(xiě)相關(guān)論文是“占坑”,復(fù)制別人的工作卻說(shuō)“我更早有了這個(gè)想法”且投稿了會(huì)議反而不是啦?真惡心。
發(fā)表評(píng)論