【新澳澳門免費資料網(wǎng)址是什么2024年新澳門資料】
【澳門六下彩49圖庫資料免費大全資料澳門】
【新澳門免費資料大全2024】
【澳門掛牌資料】
【2024新澳管家婆免費開獎結(jié)果】
【管家婆2024年正版資料】
【澳門碼家肖野肖哪里看】
【特區(qū)總站正版資料大全】
【二四六天天彩246cn開獎結(jié)果查詢】
【劉伯溫一肖一碼免費大公開】
【123澳門正版免費資料揭秘】
【香港精準免費資料】
【老澳開獎結(jié)果2024開獎記錄查詢】
【4887鐵算王中王最新版下載】
【四九資料共享大全】
【管家婆一肖一碼100準資料】
【2024年新澳門今晚免費資料】
【香港和澳門開獎歷史記錄查詢】
【2024新澳最新開獎結(jié)果查詢】
【噢門資料大全免費】
【澳門六和開獎號碼】
【澳門六開獎香港獎結(jié)果查詢】
【管家婆免費期期精準大全澳門】
【澳門心水免費推薦資料】
【4887管家婆正版資料】



??新智元報道??

編輯:alan
【新智元導(dǎo)讀】在GPT-4發(fā)布后14.5個月里,LLM領(lǐng)域似乎已經(jīng)沒什么進步了?近日,馬庫斯的一句話引發(fā)了全網(wǎng)論戰(zhàn)。大模型燒錢卻不賺錢,搞AI的公司表示:難辦!

Scaling law走到盡頭了嗎?

近日,馬庫斯的一句「Is scaling all you need?」引發(fā)了正反兩方的論戰(zhàn)。

馬庫斯表示,距離GPT-4發(fā)布已經(jīng)過去了14.5個月,在那之后,又有大約有500億美元投資在芯片上,但仍然沒有模型能夠真正打敗GPT-4。

It's now 14.5 months post GPT-4, and roughly $50B in chipspost GPT-4, and still nobody has decisively beat it.

Many have converged in roughly the same place.

That's *evidence*. Each day that passes without a further breakthrough is more evidence that it is time to consider alternatives.

業(yè)界和學(xué)界砸了這么多資源在LLM上,但證據(jù)似乎表明,我們已經(jīng)很長時間停滯不前了。

展望未來,模型性能提升所需的算力已經(jīng)很難滿足(遠超摩爾定律),

而又有研究表明LLM性能的線性增長,很可能需要指數(shù)級的數(shù)據(jù),

——「也許,是時候考慮替代方案了。」

德克薩斯大學(xué)心理學(xué)教授Art Markman表示,「我們已經(jīng)把所有數(shù)據(jù)都榨干了」。

歸根結(jié)底,這與模型的大小無關(guān),而是與語言統(tǒng)計結(jié)構(gòu)中的信息量有關(guān)。我認為我們已經(jīng)從這些數(shù)據(jù)中榨取了所有可能的東西。除非我們開發(fā)出強大的方法,把LLM鏈接到基于符號知識的模型,否則我們就觸及天花板了。

另有專業(yè)人士認為,問題出在數(shù)學(xué)層面,「我們現(xiàn)在處于一個平臺期,因為大部分數(shù)據(jù)已經(jīng)被消耗掉了,而使用模型自己生成的數(shù)據(jù)會破壞系統(tǒng)」。

「除非再次改變整個結(jié)構(gòu),否則大多數(shù)人工智能將逐漸消失」。

Scaling is all you need.

對此反方表示,你們太消極了,咱們這不是天天都有進步嗎?

模型越來越小,速度越來越快,并且能保持接近SOTA的性能,——還要啥自行車?

「Llama 3 70B比GPT-4(1.8T參數(shù))小約25倍,性能相似。GPT-4o的大小可能是GPT-4的一半,但性能優(yōu)于GPT-4,并且包括音頻和圖像生成?!?/span>

還有網(wǎng)友說,你又沒看到在10倍算力和10倍數(shù)據(jù)上訓(xùn)練的模型,怎么能說撞墻了?

我們已從數(shù)據(jù)中榨取一切

許多跡象表明,我們已經(jīng)進入了回報遞減的時期。

我們都知道GPT-3比GPT-2好得多,而GPT-4比GPT-3好得多,——但之后呢?

OpenAI曾用這張圖表來吹捧GPT-4 Turbo在過去一段時間的改進:

確實看上去有一些提升,但問題是,從長期的歷史數(shù)據(jù)來看,進步的比例有多少。

馬庫斯在自己的博客中給出了下面這張圖:

能作為對比的基準測試只找到了MMLU,里面也沒有GPT 3.5,算是管中窺豹吧。

當(dāng)然了,沒有再進步的一個原因可能是觸及基準測試的上限了,畢竟100分很可能只是代表著過擬合。

所以,讓我們來看另一項有趣的測試:來自《紐約時報》的Connections游戲。

聰明的人類可以在任何給定數(shù)據(jù)上獲得90以上的分數(shù),但目前的模型得分還比較保守,完全不存在摸到天花板的問題。

我們可以看到,在性能獲得巨大飛躍之后,GPT-4系列好像就熄火了。

那堵墻要來了

從另一個角度看,模型的性能似乎也正在收斂。

下圖給出了開源和閉源兩個陣營的戰(zhàn)況:

紅點代表的閉源模型領(lǐng)先于同時期的開源模型,但通過擬合紅綠雙方的數(shù)據(jù),我們可以發(fā)現(xiàn),開源和閉源的性能差距在逐漸縮小。

另外,從2022年大模型爆火到今天,LLM仍然會時不時犯一些愚蠢的錯誤,幻覺問題也依然沒有得到解決。

比如已經(jīng)學(xué)會畫圖的ChatGPT,仍然可能不會數(shù)數(shù):

如果LLM無法解決自身的問題,如果人們對于GenAI的熱情開始減弱,這個領(lǐng)域的市場估值將會暴跌。

當(dāng)然,AI不會消失,LLM也不會消失,而是會成為一種近似的工具占有一席之地,但那個黃金時代再也不會到來了。

AI 小廠苦苦掙扎

在Sequoia Capital的一項統(tǒng)計中,初創(chuàng)公司大概花了500億美元購買NVIDIA的芯片來訓(xùn)練大模型,

但結(jié)果是,他們總共只賺了30億美元,——這樣的買賣顯然做不成。

大多數(shù)公司都在苦苦掙扎,尋找能賺錢的路子,另一方面,迫于經(jīng)濟壓力,很多公司也在裁員或者轉(zhuǎn)型。

最近幾周,Inflection AI基本上關(guān)閉了商店,首席執(zhí)行官和大部分員工已經(jīng)離職加入了微軟;

Character.ai的產(chǎn)品很受歡迎,但報告的年收入僅有不到2000萬美元;

基于LLM的自動駕駛公司Ghost關(guān)閉了商店;

「差點取代了程序員」的AI編碼系統(tǒng)Devin受到嚴重質(zhì)疑;

還有早已不再「stable」的Stability AI,風(fēng)雨中飄搖但身殘志堅,發(fā)不起工資也不耽誤開源,如今四處找錢尋求「賣身」。

除了頭部的OpenAI和Anthropic,大部分AI小廠的日子都不好過,哪怕是曾風(fēng)光一時的獨角獸,沒有靠譜的商業(yè)模式,錢燒完也就完了。

一位AI領(lǐng)域的CEO表示,風(fēng)險投資者也開始變得謹慎了,希望控制成本,希望看到收益。

生成式AI的初創(chuàng)公司目前也傾向于選擇計算需求較小的道路,省錢、省電、省人,趕緊想辦法搞錢,而不是先給英偉達爸爸上貢。

同時,我們也看到了開源模型的崛起,Meta和Mistral等公司為世界提供了更低成本的解決方案,小廠可以在此基礎(chǔ)上前進。

AI產(chǎn)業(yè)的整條鏈路上,最不擔(dān)心的就是老黃了。

老黃表示,聊天機器人正在向多模態(tài)邁進,對于圖片和聲音的處理會消耗掉所有的GPU。

而且有很多GenAI初創(chuàng)公司還拿不到所需的GPU,老黃估計有15,000到20,000個不同領(lǐng)域的公司都需要訓(xùn)練端到端模型。

然而,這些模型的大小以及他們需要的計算能力如何,還是一個問題。

我們通常認為英偉達的最大客戶是那些大型云服務(wù)提供商,但自動駕駛、邊緣計算、機器人等,已經(jīng)成長為一個巨大且重要的市場。

特斯拉有幾百萬輛汽車行駛在世界各地,終端和云端都需要處理大量的數(shù)據(jù)。

馬老板買了35000個GPU,這還只是個開始,未來這個領(lǐng)域的變化會非???,會有更多的新動態(tài),和層出不窮的新技術(shù)。

在這方面,很多公司應(yīng)該向馬老板學(xué)習(xí),先賺到錢才是王道。

參考資料:
https://x.com/GaryMarcus/status/1794867195446808779