【導(dǎo)讀】進(jìn)入8月,國際金融市場大新聞?lì)l頻出現(xiàn),巴菲特減持蘋果等公司股票套現(xiàn)上千億美元,以日、韓為代表的全球股市大幅下跌而后反彈,前景并不明朗。投資領(lǐng)域變動(dòng)的同時(shí),對一些特殊企業(yè)的質(zhì)疑聲也不斷出現(xiàn),例如有評論認(rèn)為英偉達(dá)當(dāng)前市值遠(yuǎn)超其實(shí)際價(jià)值,也有聲音表示,美國股市虛假繁榮,全部估值集中在蘋果、特斯拉、Alphabet(Google母公司)、英偉達(dá)四家公司,是非常不健康的信號。這些質(zhì)疑背后的實(shí)質(zhì)問題在于,大量國際資本重倉押注“人工智能”,而人工智能本身究竟是下一代科技爆炸、經(jīng)濟(jì)顛覆的關(guān)鍵,還是又一場概念炒作下的科技泡沫?
本文作者通過梳理人工智能發(fā)展歷史,和當(dāng)下各界學(xué)者對人工智能的思考,嘗試突破社會(huì)輿論層面關(guān)于人工智能的討論,對人工智能給出一個(gè)定義。作者指出:當(dāng)下對人工智能的討論,受到諸多因素的影響:對經(jīng)濟(jì)問題、社會(huì)問題、個(gè)人前景的希望和擔(dān)憂,從業(yè)者對自己理想的堅(jiān)信和對自身成果的宣傳,都在其中。如果嘗試回歸到問題的本質(zhì),那么最核心的問題在于,我們?nèi)绾味x“智能”,以及對“智能”的判斷究竟是具備表象即可,還是必須完成理解、推理等過程?更進(jìn)一步,其運(yùn)行邏輯、推理過程,要在什么程度上與人類一致?對人工智能的研究涉及到生物學(xué)、神經(jīng)科學(xué)、統(tǒng)計(jì)學(xué)等諸多學(xué)科,每個(gè)學(xué)科對上述基本概念的理解也存在著差別。在對人工智能究竟是什么,能夠做到什么的判斷存在爭議,正是因?yàn)樾麄魅斯ぶ悄艿囊环經(jīng)]有堅(jiān)實(shí)的證據(jù),證明人工智能已經(jīng)做到的事情,超越了統(tǒng)計(jì)和概率的范疇,各種大模型的“黑匣”狀態(tài)則讓提供證據(jù)更加困難。而人類對自身“智能”的理解也還十分粗淺,只能確定許多幼兒能夠?qū)W習(xí)的內(nèi)容,當(dāng)下最前沿的深度神經(jīng)網(wǎng)絡(luò)也并不能做到。
人類似乎非常慣于對“智能”著迷,也常常在其他物種身上看到“智能”。綜合當(dāng)下人工智能展示出的一些特性,作者認(rèn)為:我們或許可以認(rèn)為人工智能是一種新的機(jī)械物種,但很難認(rèn)可它在智能上是“類人”的。從更好地發(fā)展、研究和認(rèn)識(shí)人工智能,并用它為人類造福的角度出發(fā),我們越早做出讓步,看到不同觀點(diǎn)的價(jià)值,越有益。
本文原載“MIT科技評論”,原題為《人工智能是什么?》,僅代表作者觀點(diǎn),供讀者參考。
什么是人工智能?
▍ 互聯(lián)網(wǎng)上的惡意、謾罵以及其它足以改變世界的意見不合...
人工智能既性感又酷炫。它在加深不平等、顛覆就業(yè)市場并破壞教育體系。人工智能像是主題公園的游樂設(shè)施,又好像是魔術(shù)戲法。它是我們的終極發(fā)明,也是道德責(zé)任的體現(xiàn)。人工智能是這十年的流行語,也是源自 1955 年的營銷術(shù)語。 人工智能類人,又似異星來客;它超級智能卻也愚不可及。人工智能熱潮將推動(dòng)經(jīng)濟(jì)發(fā)展,而其泡沫似乎也將一觸即發(fā)。 人工智能將增加富足,賦能人類在宇宙中最大限度地繁榮發(fā)展,卻又預(yù)示著我們的末日。
大家都在談?wù)撔┦裁茨兀?/p>
人工智能是我們時(shí)代最炙手可熱的技術(shù)。但它究竟是什么?這聽起來像是一個(gè)愚蠢的問題,但從未像現(xiàn)在這樣緊迫。簡而言之,人工智能是一系列技術(shù)的總稱,這些技術(shù)使計(jì)算機(jī)能夠完成那些當(dāng)人類執(zhí)行時(shí)被認(rèn)為需要智慧的任務(wù)。想想面部識(shí)別、語音理解、駕駛汽車、寫作句子、回答問題、創(chuàng)作圖像等。但即便這樣的定義也包含多重含義。
而這正是問題所在。讓機(jī)器“理解”語音或“書寫”句子意味著什么?我們能要求這類機(jī)器完成哪些任務(wù)?我們又該對它們的執(zhí)行能力給予多大信任?
隨著這項(xiàng)技術(shù)從原型快速轉(zhuǎn)化為產(chǎn)品,這些問題已成為我們所有人的議題。但(劇透警告?。┪也]有答案。甚至無法確切告訴你人工智能是什么。制造它的人也不真正知道。Anthropic 人工智能實(shí)驗(yàn)室位于舊金山的首席科學(xué)家 Chris Olah 表示:“這些都是重要的問題,以至于每個(gè)人都覺得自己可以有意見。同時(shí),我認(rèn)為你可以對此爭論不休,而目前沒有任何證據(jù)會(huì)反駁你?!?/p>
但如果你愿意坐穩(wěn)并加入這場探索之旅,我可以告訴你為何無人真正知曉,為何大家看似各執(zhí)一詞,以及你為何應(yīng)當(dāng)關(guān)注這一切。
讓我們從一個(gè)隨口的玩笑開始...
回溯至 2022 年,在《神秘 AI 炒作劇場 3000》這一檔略顯掃興的播客首集的中途——該播客由易怒的聯(lián)合主持人 Alex Hanna 和 Emily Bender 主持,他們樂此不疲地用“最鋒利的針”刺向硅谷一些最被吹捧的神圣不可侵犯的事物中——他們提出了一個(gè)荒謬的建議。當(dāng)時(shí),他們正在大聲朗讀 Google 工程副總裁 Blaise Agüera y Arcas 在 Medium 上發(fā)表的一篇長達(dá) 12,500 字的文章,題為《機(jī)器能學(xué)會(huì)如何表現(xiàn)嗎?》。Agüera y Arcas 認(rèn)為,人工智能能夠以某種與人類相似的方式理解概念——比如道德價(jià)值觀這樣的概念,從而暗示機(jī)器或許能夠被教導(dǎo)如何表現(xiàn)。
然而,Hanna 和 Bender 并不買賬。他們決定將“AI”一詞替換為“數(shù)學(xué)魔法”——就是大量且復(fù)雜的數(shù)學(xué)運(yùn)算。
這個(gè)不敬的表達(dá)旨在戳破他們認(rèn)為存在于引述句中的夸張和擬人化描述。很快,身為分布式人工智能研究機(jī)構(gòu)的研究主任及社會(huì)學(xué)家的 Hanna,以及華盛頓大學(xué)計(jì)算語言學(xué)家、因批評科技行業(yè)夸大其詞而在網(wǎng)絡(luò)上聲名鵲起的 Bender,就在 Agüera y Arcas 想要傳達(dá)的信息與其選擇聽取的內(nèi)容之間劃開了一道鴻溝。
Agüera y Arcas 問道:“AI、其創(chuàng)造者及使用者應(yīng)如何在道德上承擔(dān)責(zé)任?”
Bender 則反問:“數(shù)學(xué)魔法應(yīng)如何在道德上承擔(dān)責(zé)任?”
她指出:“這里存在分類錯(cuò)誤?!盚anna 和 Bender 不只是反對 Agüera y Arcas 的觀點(diǎn),他們認(rèn)為這種說法毫無意義?!拔覀兡芊裢V故褂谩粋€(gè)人工智能’或‘人工智能們’這樣的表述,好像它們是世界上的個(gè)體一樣?”Bender 說。
這聽起來仿佛他們在討論完全不同的事物,但實(shí)際上并非如此。雙方討論的都是當(dāng)前人工智能熱潮背后的技術(shù)——大型語言模型。只是關(guān)于人工智能的討論方式比以往任何時(shí)候都更加兩極分化。同年 5 月,OpenAI 的 CEO Sam Altman 在預(yù)告其公司旗艦?zāi)P?GPT-4 的最新更新時(shí),在推特上寫道:“對我來說,這感覺就像魔法?!?/p>
從數(shù)學(xué)到魔法之間,存在著一條漫長的道路。
人工智能擁有信徒,他們對技術(shù)當(dāng)前的力量和不可避免的未來進(jìn)步抱有信仰般的信念。他們宣稱,通用人工智能已近在眼前,超級智能緊隨其后。同時(shí),也有異見者對此嗤之以鼻,認(rèn)為這些都是神秘主義的胡言亂語。
流行的、充滿話題性的敘述受到一系列大人物的影響,從 Sundar Pichai 和 Satya Nadella 這樣的大型科技公司首席營銷官,到 Elon Musk 和 Altman 這樣的行業(yè)邊緣玩家,再到 Geoffrey Hinton 這樣的明星計(jì)算機(jī)科學(xué)家。有時(shí),這些鼓吹者和悲觀論者是同一批人,告訴我們這項(xiàng)技術(shù)好到令人擔(dān)憂的地步。
隨著人工智能的炒作不斷膨脹,一個(gè)直言不諱的反炒作陣營也應(yīng)運(yùn)而生,時(shí)刻準(zhǔn)備著擊破那些雄心勃勃、往往過于離譜的聲明。在這個(gè)方向上努力的,包括 Hanna 和 Bender 在內(nèi)的一大群研究者,還有諸如前谷歌員工、有影響力的計(jì)算機(jī)科學(xué)家 Timnit Gebru 和紐約大學(xué)認(rèn)知科學(xué)家 Gary Marcus 這樣的行業(yè)批評者。他們每個(gè)人都有眾多追隨者,在評論中爭吵不休。
簡而言之,人工智能已經(jīng)成為所有人眼中無所不能的存在,將領(lǐng)域分割成一個(gè)個(gè)粉絲群體。不同陣營之間的交流似乎常常驢唇不對馬嘴,而且并不總是出于善意。
也許你覺得這一切都很愚蠢或煩人。但鑒于這些技術(shù)的力量和復(fù)雜性——它們已被用于決定我們的保險(xiǎn)費(fèi)用、信息檢索方式、工作方式等等——至少就我們正在討論的內(nèi)容達(dá)成共識(shí)已經(jīng)刻不容緩。
然而,在我與處于這項(xiàng)技術(shù)前沿的人們的諸多對話中,沒有人直接回答他們究竟在構(gòu)建什么。(注:本文主要聚焦于美國和歐洲的人工智能辯論,很大程度上是因?yàn)樵S多資金最充裕、最先進(jìn)的 AI 實(shí)驗(yàn)室都位于這些地區(qū)。當(dāng)然,其他國家也在進(jìn)行重要的研究,尤其是中國,他們對人工智能有著各自不同的看法。)部分原因在于技術(shù)發(fā)展的速度,但科學(xué)本身也非常開放。如今的大型語言模型能夠完成令人驚嘆的事情,從解決高中數(shù)學(xué)問題到編寫計(jì)算機(jī)代碼,再到通過法律考試乃至創(chuàng)作詩歌。當(dāng)人做這些事情時(shí),我們認(rèn)為這是智慧的標(biāo)志。那么,當(dāng)計(jì)算機(jī)做到這些時(shí)呢?表象上的智慧是否足夠?
這些問題觸及了我們所說的“人工智能”這一概念的核心,人們實(shí)際上已經(jīng)為此爭論了幾十年。但隨著能夠以或令人驚悚,或令人著迷的真實(shí)模仿我們說話和寫作方式的大型語言模型的興起,圍繞 AI 的討論變得更加尖酸刻薄。
我們已經(jīng)制造出了具有類人行為的機(jī)器,卻沒有擺脫想象機(jī)器背后存在類人思維的習(xí)慣。這導(dǎo)致對人工智能能力的過高評價(jià);它將直覺反應(yīng)固化為教條式的立場,并且加劇了技術(shù)樂觀主義者與懷疑主義者之間更廣泛的文化戰(zhàn)爭。
在這團(tuán)不確定性的燉菜中,再加上大量的文化負(fù)擔(dān),從我敢打賭許多行業(yè)內(nèi)人士成長過程中接觸到的科幻小說,到更惡劣地影響我們思考未來的意識(shí)形態(tài)。鑒于這種令人陶醉的混合體,關(guān)于人工智能的爭論不再僅僅是學(xué)術(shù)性的(或許從來都不是)。人工智能點(diǎn)燃了人們的激情,使得成年人互相指責(zé)。
“目前這場辯論的智力基礎(chǔ)不夠健康,”Marcus 這樣評價(jià)道。多年來,Marcus 一直在指出深度學(xué)習(xí)的缺陷和局限性,正是這項(xiàng)技術(shù)將人工智能推向主流,支撐著從大型語言模型到圖像識(shí)別,再到自動(dòng)駕駛汽車的一切應(yīng)用。他在 2001 年出版的《代數(shù)思維》一書中提出,作為深度學(xué)習(xí)基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)本身無法獨(dú)立進(jìn)行推理。(我們暫時(shí)略過這一點(diǎn),但稍后我會(huì)回來探討像“推理”這樣的詞匯在一個(gè)句子中的重要性。)
Marcus 表示,他曾試圖與 Hinton 就大型語言模型的實(shí)際能力展開一場恰當(dāng)?shù)霓q論,而 Hinton 去年公開表達(dá)了對自己參與發(fā)明的這項(xiàng)技術(shù)的生存恐懼。“他就是不愿意這么做,”Marcus 說,“他叫我傻瓜?!保ㄟ^去在與 Hinton 談及 Marcus 時(shí),我可以證實(shí)這一點(diǎn)。Hinton 去年曾告訴我:“ChatGPT 顯然比他更了解神經(jīng)網(wǎng)絡(luò)?!保㎝arcus 在他撰寫的一篇名為《深度學(xué)習(xí)正遭遇瓶頸》的文章后也招致了不滿。Altman 在推特上回應(yīng)稱:“給我一個(gè)平庸深度學(xué)習(xí)懷疑論者的自信吧?!?/p>
與此同時(shí),敲響警鐘也讓 Marcus 成為了一個(gè)個(gè)人品牌,并獲得了與 Altman 并肩坐在美國參議院人工智能監(jiān)督委員會(huì)面前作證的邀請。
而這正是所有這些爭論比普通網(wǎng)絡(luò)惡意更重要的原因。當(dāng)然,它涉及到巨大的個(gè)人自我意識(shí)和巨額的資金。但更重要的是,當(dāng)行業(yè)領(lǐng)袖和有觀點(diǎn)的科學(xué)家被國家元首和立法者召集,來解釋這項(xiàng)技術(shù)是什么以及它能做什么(以及我們應(yīng)該有多害怕)時(shí),這些爭議就顯得尤為重要。當(dāng)這項(xiàng)技術(shù)被嵌入到我們?nèi)粘J褂玫能浖?,從搜索引擎到文字處理?yīng)用程序,再到手機(jī)上的助手,人工智能不會(huì)消失。但如果我們不知道自己購買的是什么,誰又是那個(gè)受騙者呢?
Stephen Cave 和 Kanta Dihal 在 2023 年出版的論文集《構(gòu)想 AI》中寫道:“很難想象歷史上還有其他技術(shù)能引起這樣的辯論——一場關(guān)于它是否無處不在,或者根本不存在的辯論。對人工智能能有這樣的辯論,證明了它的神話特質(zhì)?!?/p>
最重要的是,人工智能是一種觀念、一種理想,它受到世界觀和科幻元素的塑造,就如同數(shù)學(xué)和計(jì)算機(jī)科學(xué)的塑造一樣。當(dāng)我們談?wù)撊斯ぶ悄軙r(shí),弄清楚我們在談?wù)撌裁磳⒊吻逶S多事情。我們可能在這些事情上無法達(dá)成一致,但就人工智能的本質(zhì)達(dá)成共識(shí)可以為討論人工智能應(yīng)該成為什么樣子至少提供一個(gè)良好的開端。
▍ 那么,大家到底在爭什么呢?
2022 年末,就在 OpenAI 發(fā)布 ChatGPT 之后不久,一個(gè)新的梗開始在網(wǎng)上流傳,這個(gè)梗比任何其他方式都更能捕捉到這項(xiàng)技術(shù)的奇異之處。在多數(shù)版本中,一個(gè)名為“修格斯”的洛夫克拉夫特式怪物——全身觸須和眼球——舉起一個(gè)平淡無奇的笑臉表情符號,仿佛要掩飾其真實(shí)的本質(zhì)。ChatGPT 在對話中的措辭表現(xiàn)出類似人類的親和力,但在那友好的表面之下隱藏著難以理解的復(fù)雜性乃至恐怖之處。(正如 H.P. 洛夫克拉夫特在他的 1936 年中篇小說《瘋狂山脈》中所寫:“那是一個(gè)可怕得無法形容的東西,比任何地鐵列車都要龐大——一團(tuán)無定形的原生質(zhì)泡狀聚合物?!保?/p>
這些爭論核心在于,人工智能不僅是一個(gè)技術(shù)問題,它觸及了我們對自身認(rèn)知、創(chuàng)造力、道德責(zé)任,乃至我們對未來的希望和恐懼的根本理解。 一方看到的是人工智能帶來的無限潛能,是人類智慧的延伸,是解決復(fù)雜問題、提高生活質(zhì)量的工具;另一方則擔(dān)憂它可能帶來的失業(yè)、隱私侵犯、社會(huì)不公,甚至是人類自主性和生存的威脅。 ChatGPT 的出現(xiàn),如同那個(gè)舉起笑臉表情的修格斯,象征著人工智能技術(shù)在提供友好交互界面的同時(shí),也隱藏著深刻的社會(huì)、倫理和哲學(xué)挑戰(zhàn)。這場辯論,實(shí)質(zhì)上是關(guān)于我們?nèi)绾谓缍ㄖ悄堋⒑螢槿诵?,以及我們愿意讓技術(shù)在我們的生活中扮演何種角色的深刻反思。
多年來,流行文化中人工智能最著名的參照物之一是《終結(jié)者》,Dihal 提到。但 OpenAI 通過免費(fèi)上線 ChatGPT,讓數(shù)百萬人親身經(jīng)歷了一種截然不同的東西?!叭斯ぶ悄芤恢笔且粋€(gè)非常模糊的概念,可以無限擴(kuò)展以包含各種想法,”她說。但 ChatGPT 讓這些想法變得具體起來:“突然間,每個(gè)人都有了一個(gè)具體的參照物?!睂τ跀?shù)百萬人來說,人工智能的答案現(xiàn)在變成了:ChatGPT。
人工智能產(chǎn)業(yè)正大力推銷這個(gè)微笑的面孔。想想《每日秀》最近如何通過行業(yè)領(lǐng)袖的言論來諷刺這種炒作。硅谷風(fēng)投大佬 Marc Andreessen 說:“這有可能讓生活變得更好……我覺得這簡直就是個(gè)輕松得分的機(jī)會(huì)?!盇ltman 說:“我不想在這里聽起來像個(gè)烏托邦式的技術(shù)狂人,但人工智能能帶來的生活質(zhì)量提升是非凡的?!盤ichai 說:“人工智能是人類正在研究的最深遠(yuǎn)的技術(shù)。比火還要深遠(yuǎn)?!?/p>
Jon Stewart 諷刺道:“是啊,火,你吃癟吧!”
但正如這個(gè)梗所示,ChatGPT 是一個(gè)友好的面具。在其背后,是一個(gè)名為 GPT-4 的怪物,這是一個(gè)基于龐大神經(jīng)網(wǎng)絡(luò)的大型語言模型,其攝入的文字量超過我們大多數(shù)人千輩子閱讀的總量。在持續(xù)數(shù)月、耗資數(shù)千萬美元的訓(xùn)練過程中,這類模型被賦予了填充來自數(shù)百萬本書籍和互聯(lián)網(wǎng)相當(dāng)大部分內(nèi)容中句子空白的任務(wù)。它們一遍又一遍地執(zhí)行這個(gè)任務(wù)。從某種意義上說,它們被訓(xùn)練成超級自動(dòng)補(bǔ)全機(jī)器。結(jié)果是生成了一個(gè)模型,它將世界上大部分書面信息轉(zhuǎn)換成了一個(gè)統(tǒng)計(jì)表示,即哪些詞最有可能跟隨其他詞出現(xiàn),這一過程跨越了數(shù)十億計(jì)的數(shù)值。
這確實(shí)是數(shù)學(xué)——大量的數(shù)學(xué)。沒有人對此有異議。但問題在于,這只是數(shù)學(xué)嗎,還是這種復(fù)雜的數(shù)學(xué)編碼了能夠類似人類推理或概念形成的算法?
許多對這個(gè)問題持肯定態(tài)度的人相信,我們即將解鎖所謂的通用人工智能 (AGI) ,這是一種假設(shè)中的未來技術(shù),能在多種任務(wù)上達(dá)到人類水平。他們中的一些人甚至將目標(biāo)瞄準(zhǔn)了所謂的超級智能,即科幻小說中那種能遠(yuǎn)超人類表現(xiàn)的技術(shù)。這一群體認(rèn)為 AGI 將極大地改變世界——但目的是什么?這是另一個(gè)緊張點(diǎn)。它可能解決世界上所有問題,也可能帶來世界的末日。
如今,AGI 出現(xiàn)在全球頂級 AI 實(shí)驗(yàn)室的使命宣言中。但這個(gè)詞是在 2007 年作為一個(gè)小眾嘗試而創(chuàng)造出來的,旨在為當(dāng)時(shí)以讀取銀行存款單上的手寫內(nèi)容或推薦下一本購書為主的領(lǐng)域注入一些活力。其初衷是重拾最初設(shè)想的人工智能,即能做類人事務(wù)的人工智能。
Google DeepMind 聯(lián)合創(chuàng)始人 Shane Legg,也就是創(chuàng)造了這個(gè)術(shù)語的人,在去年告訴我,這其實(shí)更多是一種愿望:“我沒有特別清晰的定義?!?/p>
AGI 成為了人工智能領(lǐng)域最具爭議的想法。一些人將其炒作為下一個(gè)重大事件:AGI 就是人工智能,但要好得多。其他人則聲稱這個(gè)術(shù)語太過模糊,以至于毫無意義。
“AGI 曾經(jīng)是個(gè)忌諱的詞,”O(jiān)penAI 前首席科學(xué)家 Ilya Sutskever 在辭職前告訴過我。 但大型語言模型,特別是 ChatGPT,改變了一切。AGI 從忌諱之詞變成了營銷夢想。 這就引出了我認(rèn)為目前最具說明性的爭議之一——這場爭議設(shè)定了辯論雙方以及其中的利害關(guān)系。
(一)在機(jī)器中看見魔法
在 OpenAI 的大型語言模型 GPT-4 于 2023 年 3 月公開發(fā)布前幾個(gè)月,公司與微軟分享了一個(gè)預(yù)發(fā)布版本,微軟希望利用這個(gè)新模型來改造其搜索引擎 Bing。
那時(shí),Sebastian Bubeck 正在研究 LLMs(大型語言模型)的局限性,并對它們的能力持一定程度的懷疑態(tài)度。尤其是身為華盛頓州雷德蒙德微軟研究院生成 AI 研究副總裁的 Bubeck,一直在嘗試并未能成功讓這項(xiàng)技術(shù)解決中學(xué)數(shù)學(xué)問題。比如:x - y = 0;x 和 y 各是多少?“我認(rèn)為推理是一個(gè)瓶頸,一個(gè)障礙,”他說,“我原以為你必須做一些根本性不同的事情才能克服這個(gè)障礙?!?/p>
然后他接觸到了 GPT-4。他做的第一件事就是嘗試那些數(shù)學(xué)問題?!斑@個(gè)模型完美解決了問題,”他說,“坐在 2024 年的現(xiàn)在,當(dāng)然 GPT-4 能解線性方程。但在當(dāng)時(shí),這太瘋狂了。GPT-3 做不到這一點(diǎn)?!?/p>
但 Bubeck 真正的頓悟時(shí)刻來自于他推動(dòng) GPT-4 去做一些全新的事情。
關(guān)于中學(xué)數(shù)學(xué)問題,它們遍布互聯(lián)網(wǎng),GPT-4 可能只是記住了它們?!澳闳绾窝芯恳粋€(gè)可能已經(jīng)看過人類所寫一切的模型?”Bubeck 問道。他的答案是測試 GPT-4 解決一系列他和他的同事們認(rèn)為是新穎的問題。
在與微軟研究院的數(shù)學(xué)家 Ronen Eldan 一起嘗試時(shí),Bubeck 要求 GPT-4 以詩歌的形式給出證明存在無限多質(zhì)數(shù)的數(shù)學(xué)證明。
以下是 GPT-4 回應(yīng)的一段:“如果我們?nèi)?S 中未在 P 中的最小數(shù)/并稱之為 p,我們可以將它加入我們的集合,你看不見嗎?/但是這個(gè)過程可以無限重復(fù)。/因此,我們的集合 P 也必定是無限的,你會(huì)同意?!?/p>
很有趣,對吧?但 Bubeck 和 Eldan 認(rèn)為這遠(yuǎn)遠(yuǎn)不止于此?!拔覀冊谀莻€(gè)辦公室,”Bubeck 通過 Zoom 指著身后的房間說,“我們兩個(gè)都從椅子上摔了下來。我們無法相信自己所看到的。這太有創(chuàng)意了,如此與眾不同?!?/p>
微軟團(tuán)隊(duì)還讓 GPT-4 生成代碼,在用 Latex(一種文字處理程序)繪制的獨(dú)角獸卡通圖片上添加一只角。Bubeck 認(rèn)為這表明模型能夠閱讀現(xiàn)有的 Latex 代碼,理解其描繪的內(nèi)容,并識(shí)別角應(yīng)該加在哪里。
“有很多例子,但其中一些是推理能力的鐵證,”他說——推理能力是人類智能的關(guān)鍵構(gòu)建塊。
Bubeck、Eldan 及微軟的其他研究團(tuán)隊(duì)成員在一篇名為《人工通用智能的火花》的論文中闡述了他們的發(fā)現(xiàn),文中提到:“我們相信,GPT-4 所展示的智能標(biāo)志著計(jì)算機(jī)科學(xué)領(lǐng)域及之外的一次真正范式轉(zhuǎn)變。”Bubeck 在網(wǎng)上分享該論文時(shí),在推特上寫道:“是時(shí)候面對現(xiàn)實(shí)了,#AGI 的火花已被點(diǎn)燃。”
這篇《火花》論文迅速變得臭名昭著,同時(shí)也成為 AI 支持者的試金石。Agüera y Arcas 與 Google 前研究總監(jiān)、《人工智能:現(xiàn)代方法》一書的合著者 Peter Norvig 共同撰寫了一篇文章,題為《人工通用智能已經(jīng)到來》。該文章發(fā)表在洛杉磯智庫 Berggruen 研究所支持的雜志 Noema 上,其中援引《火花》論文作為出發(fā)點(diǎn),指出:“人工通用智能 (AGI) 對不同的人來說意味著許多不同的事物,但它的最重要部分已經(jīng)被當(dāng)前一代的先進(jìn)大型語言模型實(shí)現(xiàn)。幾十年后,它們會(huì)被公認(rèn)為第一批真正的 AGI 實(shí)例?!?/p>
此后,圍繞這一議題的炒作持續(xù)膨脹。當(dāng)時(shí)在 OpenAI 專注于超級智能研究的 Leopold Aschenbrenner 去年告訴我:“過去幾年里,AI 的發(fā)展速度異常迅速。我們不斷打破各種基準(zhǔn)測試記錄,而且這種進(jìn)步勢頭不減。但這只是個(gè)開始,我們將擁有超越人類的模型,比我們更聰明得多的模型?!保ㄋ暦Q因提出構(gòu)建技術(shù)的安全性問題并“觸怒了一些人”,于今年 4 月被 OpenAI 解雇,并隨后在硅谷成立了投資基金。)
今年 6 月,Aschenbrenner 發(fā)布了一份長達(dá) 165 頁的宣言,稱 AI 將在“2025/2026 年”超過大學(xué)畢業(yè)生,并在本十年末實(shí)現(xiàn)真正意義上的超智能。然而,業(yè)內(nèi)其他人對此嗤之以鼻。當(dāng) Aschenbrenner 在推特上發(fā)布圖表,展示他預(yù)計(jì) AI 在未來幾年內(nèi)如何繼續(xù)保持近年來的快速進(jìn)步速度時(shí),科技投資者 Christian Keil 反駁道,按照同樣的邏輯,他剛出生的兒子如果體重翻倍的速度保持不變,到 10 歲時(shí)將重達(dá) 7.5 萬億噸。
因此,“AGI 的火花”也成為了過度炒作的代名詞,不足為奇?!拔艺J(rèn)為他們有點(diǎn)得意忘形了,”Marcus 在談到微軟團(tuán)隊(duì)時(shí)說,“他們像發(fā)現(xiàn)新大陸一樣興奮,‘嘿,我們發(fā)現(xiàn)了東西!這太神奇了!’但他們沒有讓科學(xué)界進(jìn)行驗(yàn)證?!盉ender 則將《火花》論文比喻為一部“粉絲小說”。
宣稱 GPT-4 的行為顯示出 AGI 跡象不僅具有挑釁性,而且作為在其產(chǎn)品中使用 GPT-4 的微軟,顯然有動(dòng)機(jī)夸大這項(xiàng)技術(shù)的能力?!斑@份文件是偽裝成研究的營銷噱頭,”一位科技公司的首席運(yùn)營官在領(lǐng)英上如此評論。
一些人還批評該論文的方法論存在缺陷。其證據(jù)難以驗(yàn)證,因?yàn)檫@些證據(jù)源自與未向 OpenAI 和微軟以外公開的 GPT-4 版本的互動(dòng)。Bubeck 承認(rèn),公眾版 GPT-4 設(shè)有限制模型能力的護(hù)欄,這使得其他研究人員無法重現(xiàn)他的實(shí)驗(yàn)。
一個(gè)團(tuán)隊(duì)嘗試使用一種名為 Processing 的編程語言重新創(chuàng)建獨(dú)角獸示例,GPT-4 同樣能用此語言生成圖像。他們發(fā)現(xiàn),公眾版 GPT-4 雖能生成一個(gè)過得去的獨(dú)角獸圖像,卻不能將該圖像旋轉(zhuǎn) 90 度。這看似微小的區(qū)別,但在聲稱繪制獨(dú)角獸的能力是 AGI 標(biāo)志時(shí),就顯得至關(guān)重要。
《火花》論文中的關(guān)鍵點(diǎn),包括獨(dú)角獸的例子,是 Bubeck 及其同事認(rèn)為這些都是創(chuàng)造性推理的真實(shí)案例。這意味著團(tuán)隊(duì)必須確保這些任務(wù)或非常類似的任務(wù)未包含在 OpenAI 用于訓(xùn)練其模型的龐大數(shù)據(jù)集中。否則,結(jié)果可能被解釋為 GPT-4 重復(fù)其已見過的模式,而非創(chuàng)新性的表現(xiàn)。
Bubeck 堅(jiān)持表示,他們只給模型設(shè)置那些在網(wǎng)上找不到的任務(wù)。用 Latex 繪制卡通獨(dú)角獸無疑就是這樣的一個(gè)任務(wù)。但互聯(lián)網(wǎng)浩瀚無邊,很快就有其他研究者指出,實(shí)際上確實(shí)存在專門討論如何用 Latex 繪制動(dòng)物的在線論壇?!皟H供參考,我們當(dāng)時(shí)知道這件事,”Bubeck 在 X 平臺(tái)上回復(fù)道,“《火花》論文中的每一個(gè)查詢都在互聯(lián)網(wǎng)上進(jìn)行了徹底的搜索?!?/p>
但這并未阻止外界的指責(zé):“我要求你停止做江湖騙子,”加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)家 Ben Recht 在推特上回?fù)?,并指?Bubeck“被當(dāng)場抓包撒謊”。
Bubeck 堅(jiān)稱這項(xiàng)工作是出于好意進(jìn)行的,但他和他的合著者在論文中承認(rèn),他們的方法并不嚴(yán)格,只是基于筆記本觀察而非無懈可擊的實(shí)驗(yàn)。
即便如此,他并不后悔:“論文已經(jīng)發(fā)表一年多,我還沒有看到有人給我一個(gè)令人信服的論證,比如說,為何獨(dú)角獸不是一個(gè)真實(shí)推理的例子?!?/p>
這并不是說他對這個(gè)重大問題能給出直接答案——盡管他的回答揭示了他希望給出的那種答案類型?!笆裁词?AI?”Bubeck 反問我,“我想跟你說明白,問題可以簡單,但答案可能很復(fù)雜。”
“有很多簡單的問題,我們至今仍不知道答案。而其中一些簡單的問題,卻是最深刻的,”他接著說,“我把這個(gè)問題放在同等重要的地位上,就像,生命起源于何?宇宙的起源是什么?我們從何而來?這類大大的問題?!?/p>
(二)在機(jī)器中只見數(shù)學(xué)
Bender 成為 AI 推動(dòng)者的首席對手之前,她曾作為兩篇有影響力的論文的合著者在 AI 領(lǐng)域留下了自己的印記。(她喜歡指出,這兩篇論文都經(jīng)過了同行評審,與《火花》論文及許多備受關(guān)注的其他論文不同。)第一篇論文是與德國薩爾蘭大學(xué)的計(jì)算語言學(xué)家 Alexander Koller 共同撰寫,于 2020 年發(fā)表,名為“邁向自然語言理解 (NLU) ”。
“這一切對我來說開始于與計(jì)算語言學(xué)界的其他人爭論,語言模型是否真正理解任何東西,”她說。(理解,如同推理一樣,通常被認(rèn)為是人類智能的基本組成部分。)
Bender 和 Koller 認(rèn)為,僅在文本上訓(xùn)練的模型只會(huì)學(xué)習(xí)語言的形式,而不是其意義。他們認(rèn)為,意義由兩部分組成:詞匯(可能是符號或聲音)加上使用這些詞匯的原因。人們出于多種原因使用語言,比如分享信息、講笑話、調(diào)情、警告他人退后等。剝離了這一語境后,用于訓(xùn)練如 GPT-4 這樣的大型語言模型 (LLMs) 的文本足以讓它們模仿語言的模式,使得許多由 LLM 生成的句子看起來與人類寫的句子一模一樣。然而,它們背后沒有真正的意義,沒有靈光一閃。這是一種顯著的統(tǒng)計(jì)學(xué)技巧,但卻完全無意識(shí)。
他們通過一個(gè)思維實(shí)驗(yàn)來闡述自己的觀點(diǎn)。想象兩個(gè)說英語的人被困在相鄰的荒島上,有一條水下電纜讓他們能夠互相發(fā)送文字信息?,F(xiàn)在設(shè)想一只對英語一無所知但擅長統(tǒng)計(jì)模式匹配的章魚纏繞上了電纜,開始監(jiān)聽這些信息。章魚變得非常擅長猜測哪些詞會(huì)跟隨其他詞出現(xiàn)。它變得如此之好,以至于當(dāng)它打斷電纜并開始回應(yīng)其中一個(gè)島民的信息時(shí),她相信自己仍在與鄰居聊天。(如果你沒注意到,這個(gè)故事中的章魚就是一個(gè)聊天機(jī)器人。)
與章魚交談的人會(huì)在一段時(shí)間內(nèi)被騙,但這能持續(xù)嗎?章魚能理解通過電纜傳來的內(nèi)容嗎?
想象一下,現(xiàn)在島民說她建造了一個(gè)椰子彈射器,并請章魚也建造一個(gè)并告訴她它的想法。章魚無法做到這一點(diǎn)。由于不了解消息中的詞匯在現(xiàn)實(shí)世界中的指代,它無法遵循島民的指示。也許它會(huì)猜測回復(fù):“好的,酷主意!”島民可能會(huì)認(rèn)為這意味著與她對話的人理解了她的信息。但如果真是這樣,她就是在沒有意義的地方看到了意義。最后,想象島民遭到熊的襲擊,通過電纜發(fā)出求救信號。章魚該如何處理這些詞語呢?
Bender 和 Koller 認(rèn)為,這就是大型語言模型如何學(xué)習(xí)以及為什么它們受限的原因?!斑@個(gè)思維實(shí)驗(yàn)表明,這條路不會(huì)引領(lǐng)我們走向一臺(tái)能理解任何事物的機(jī)器,”Bender 說?!芭c章魚的交易在于,我們給它提供了訓(xùn)練數(shù)據(jù),即那兩個(gè)人之間的對話,僅此而已。但是,當(dāng)出現(xiàn)了出乎意料的情況時(shí),它就無法應(yīng)對,因?yàn)樗鼪]有理解?!?/p>
Bender 另一篇知名的論文《隨機(jī)鸚鵡的危險(xiǎn)》強(qiáng)調(diào)了一系列她和她的合著者認(rèn)為制作大型語言模型的公司正在忽視的危害。這些危害包括制造模型的巨大計(jì)算成本及其對環(huán)境的影響;模型固化的種族主義、性別歧視和其他辱罵性語言;以及構(gòu)建一個(gè)系統(tǒng)所帶來的危險(xiǎn),該系統(tǒng)可能通過“隨意拼接語言形式的序列……根據(jù)它們?nèi)绾谓Y(jié)合的概率信息,而不參考任何意義:一個(gè)隨機(jī)鸚鵡”,從而欺騙人們。
谷歌高級管理層對該論文不滿,由此引發(fā)的沖突導(dǎo)致 Bender 的兩位合著者 Timnit Gebru 和 Margaret Mitchell 被迫離開公司,她們在那里領(lǐng)導(dǎo)著 AI 倫理團(tuán)隊(duì)。這也使得“隨機(jī)鸚鵡”成為了大型語言模型的一個(gè)流行貶義詞,并將 Bender 直接卷入了這場互罵的漩渦中。
對于 Bender 和許多志同道合的研究人員來說,底線是該領(lǐng)域已被煙霧和鏡子所迷惑:“我認(rèn)為他們被引導(dǎo)去想象能夠自主思考的實(shí)體,這些實(shí)體可以為自己做出決定,并最終成為那種能夠?qū)ζ錄Q定負(fù)責(zé)的東西?!?/p>
作為始終如一的語言學(xué)家,Bender 現(xiàn)在甚至不愿在不加引號的情況下使用“人工智能”這個(gè)詞。“我認(rèn)為它是一種讓人產(chǎn)生幻想的概念,讓人想象出能夠自我決策并最終為這些決策承擔(dān)責(zé)任的自主思考實(shí)體,”她告訴我。歸根結(jié)底,對她而言,這是大型科技公司的一個(gè)流行語,分散了人們對諸多相關(guān)危害的注意力?!拔椰F(xiàn)在置身事中,”她說。“我關(guān)心這些問題,而過度炒作正在妨礙進(jìn)展?!?/p>
(三)非凡的證據(jù)?
Agüera y Arcas 將像 Bender 這樣的人稱為“AI 否定者”,暗示他們永遠(yuǎn)不會(huì)接受他視為理所當(dāng)然的觀點(diǎn)。Bender 的立場是,非凡的主張需要非凡的證據(jù),而我們目前還沒有這樣的證據(jù)。
但有人正在尋找這些證據(jù),在他們找到明確無疑的證據(jù)——無論是思維的火花、隨機(jī)鸚鵡還是介于兩者之間的東西——之前,他們寧愿置身事外。這可以被稱為觀望陣營。
正如在布朗大學(xué)研究神經(jīng)網(wǎng)絡(luò)的 Ellie Pavlick 對我所說:“向某些人暗示人類智能可以通過這類機(jī)制重現(xiàn),對他們來說是冒犯?!?/strong>
她補(bǔ)充道,“人們對這個(gè)問題有著根深蒂固的信念——這幾乎感覺像是宗教信仰。另一方面,有些人則有點(diǎn)上帝情結(jié)。因此,對他們來說,暗示他們就是做不到也是無禮的?!?/p>
Pavlick 最終持不可知論態(tài)度。她堅(jiān)持自己是一名科學(xué)家,會(huì)遵循科學(xué)的任何導(dǎo)向。她對那些夸張的主張翻白眼,但她相信有一些令人興奮的事情正在發(fā)生?!斑@就是我和 Bender 及 Koller 意見不同的地方,”她告訴我,“我認(rèn)為實(shí)際上有一些火花——也許不是 AGI 級別的,但就像,里面有些東西是我們未曾預(yù)料到會(huì)發(fā)現(xiàn)的?!?/p>
問題在于,要找到對這些令人興奮的事物及其為何令人興奮的共識(shí)。在如此多的炒作之下,很容易變得憤世嫉俗。
當(dāng)你聽取像 Bubeck 這樣的研究人員的意見時(shí),你會(huì)發(fā)現(xiàn)他們似乎更為冷靜。他認(rèn)為內(nèi)部爭執(zhí)忽視了他工作的細(xì)微差別。 “同時(shí)持有不同的觀點(diǎn)對我來說沒有任何問題,”他說,“存在隨機(jī)鸚鵡現(xiàn)象,也存在推理——這是一個(gè)范圍,非常復(fù)雜。我們并沒有所有的答案。”
“我們需要一套全新的詞匯來描述正在發(fā)生的事情,”他說,“當(dāng)我談?wù)摯笮驼Z言模型中的推理時(shí),人們會(huì)反駁,原因之一是它與人類的推理方式不同。但我認(rèn)為我們無法不稱之為推理,它確實(shí)是一種推理?!?/p>
盡管他的公司 Anthropic 是目前全球最炙手可熱的 AI 實(shí)驗(yàn)室之一,且今年早些時(shí)候發(fā)布的 Claude 3——與 GPT-4 一樣(甚至更多)獲得了大量夸張贊譽(yù)的大型語言模型,但 Olah 在被問及如何看待 LLMs 時(shí)仍表現(xiàn)得相當(dāng)謹(jǐn)慎。
“我覺得關(guān)于這些模型能力的很多討論都非常部落化,”他說,“人們有先入為主的觀念,而且任何一方的論證都沒有充分的證據(jù)支撐。然后這就變成了基于氛圍的討論,我認(rèn)為互聯(lián)網(wǎng)上的這種基于氛圍的爭論往往會(huì)走向糟糕的方向?!?/p>
Olah 告訴我他有自己的直覺?!拔业闹饔^印象是,這些東西在追蹤相當(dāng)復(fù)雜的思想,”他說,“我們沒有一個(gè)全面的故事來解釋非常大的模型是如何工作的,但我認(rèn)為我們所看到的很難與極端的‘隨機(jī)鸚鵡’形象相調(diào)和。”
這就是他的極限:“我不想超越我們現(xiàn)有證據(jù)所能強(qiáng)烈推斷出的內(nèi)容。”
上個(gè)月,Anthropic 發(fā)布了一項(xiàng)研究的結(jié)果,研究人員給 Claude 3 做了相當(dāng)于神經(jīng)網(wǎng)絡(luò)的 MRI。通過監(jiān)測模型運(yùn)行時(shí)哪些部分開啟和關(guān)閉,他們識(shí)別出了在模型展示特定輸入時(shí)激活的特定神經(jīng)元模式。
例如,當(dāng)模型接收到金門大橋的圖像或與之相關(guān)的詞匯時(shí),似乎就會(huì)出現(xiàn)一種特定的模式。研究人員發(fā)現(xiàn),如果他們增強(qiáng)模型中這一部分的作用,Claude 就會(huì)完全沉迷于這座著名的建筑。無論你問它什么問題,它的回答都會(huì)涉及這座橋——甚至在被要求描述自己時(shí),它也會(huì)將自己與橋聯(lián)系起來。有時(shí)它會(huì)注意到提及橋梁是不恰當(dāng)?shù)?,但又忍不住?huì)這樣做。
Anthropic 還報(bào)告了與嘗試描述或展示抽象概念的輸入相關(guān)的模式?!拔覀兛吹搅伺c欺騙和誠實(shí)、諂媚、安全漏洞、偏見相關(guān)的特征,”O(jiān)lah 說,“我們發(fā)現(xiàn)了與尋求權(quán)力、操縱和背叛相關(guān)的特征?!?/p>
這些結(jié)果讓我們迄今為止最清晰地看到了大型語言模型的內(nèi)部情況。這是對看似難以捉摸的人類特質(zhì)的一種誘人一瞥。但它真正告訴我們什么呢?正如 Olah 所承認(rèn)的,他們不知道模型如何處理這些模式?!斑@是一個(gè)相對有限的畫面,分析起來相當(dāng)困難,”他說。
即使 Olah 不愿意具體說明他認(rèn)為像 Claude 3 這樣的大型語言模型內(nèi)部究竟發(fā)生了什么,顯而易見的是,這個(gè)問題對他來說為什么重要。Anthropic 以其在 AI 安全方面的工作而聞名——確保未來強(qiáng)大的模型會(huì)按照我們希望的方式行動(dòng),而不是以我們不希望的方式(在行業(yè)術(shù)語中稱為“對齊”)。弄清楚當(dāng)今模型的工作原理,不僅是如果你想控制未來模型所必需的第一步;它也告訴你,首先你需要對末日情景擔(dān)心多少?!叭绻阏J(rèn)為模型不會(huì)有很強(qiáng)的能力,”O(jiān)lah 說,“那么它們可能也不會(huì)很危險(xiǎn)?!?/p>
▍ 為何我們難以達(dá)成一致
在 2014 年 BBC 對她職業(yè)生涯回顧的一次采訪中,現(xiàn)年 87 歲的有影響力的認(rèn)知科學(xué)家 Margaret Boden 被問及她是否認(rèn)為有任何限制會(huì)阻止計(jì)算機(jī)(或者她所謂的“錫罐子”)去做人類能做的事情。
“我當(dāng)然不認(rèn)為原則上存在這樣的限制,”她說,“因?yàn)榉裾J(rèn)這一點(diǎn)就意味著人類的思維是靠魔法發(fā)生的,而我不相信它是靠魔法發(fā)生的?!?/strong>
但她警告說,強(qiáng)大的計(jì)算機(jī)本身并不足以使我們達(dá)到這一目標(biāo):AI 領(lǐng)域還需要“有力的想法”——關(guān)于思維如何發(fā)生的全新理論,以及可能復(fù)制這一過程的新算法?!暗@些東西非常、非常困難,我沒有理由假設(shè)有一天我們能夠回答所有這些問題。或許我們能;或許我們不能?!?/p>
博登回顧了當(dāng)前繁榮期的早期階段,但這種我們能否成功的搖擺不定反映了數(shù)十年來她和她的同僚們努力解決的難題,這些難題正是今天研究人員也在努力克服的。AI 作為一個(gè)雄心勃勃的目標(biāo)始于大約 70 年前,而我們至今仍在爭論哪些是可實(shí)現(xiàn)的,哪些不是,以及我們?nèi)绾沃雷约菏欠褚呀?jīng)實(shí)現(xiàn)了目標(biāo)。大部分——如果不是全部的話—— 這些爭議歸結(jié)為一點(diǎn):我們尚未很好地理解什么是智能,或者如何識(shí)別它。這個(gè)領(lǐng)域充滿了直覺,但沒有人能確切地說出答案。
自從人們開始認(rèn)真對待 AI 這一理念以來,我們就一直卡在這個(gè)問題上。甚至在此之前,當(dāng)我們消費(fèi)的故事開始在集體想象中深深植入類人機(jī)器的概念時(shí),也是如此。這些爭論的悠久歷史意味著,今天的爭論往往強(qiáng)化了自一開始就存在的分歧,使得人們更加難以找到共同點(diǎn)。
為了理解我們是如何走到這一步的,我們需要了解我們曾經(jīng)走過的路。因此,讓我們深入探究AI的起源故事——這也是一個(gè)為了資金而大肆宣傳的故事。
(一)人工智能宣傳簡史
一般認(rèn)為,計(jì)算機(jī)科學(xué)家約翰·麥卡錫 (John McCarthy) 在 1955 年為新罕布什爾州達(dá)特茅斯學(xué)院 (Dartmouth College) 的一個(gè)暑期研究項(xiàng)目撰寫資助申請時(shí)提出了“人工智能”這一術(shù)語。
計(jì)劃是讓McCarthy和他的幾個(gè)研究員同伴——戰(zhàn)后美國數(shù)學(xué)家和計(jì)算機(jī)科學(xué)家的精英群體,或如劍橋大學(xué)研究 AI 歷史以及谷歌 DeepMind 倫理與政策的研究員 Harry Law 所稱的“John McCarthy 和他的小伙伴們”——聚在一起兩個(gè)月(沒錯(cuò),是兩個(gè)月),在這個(gè)他們?yōu)樽约涸O(shè)定的新研究挑戰(zhàn)上取得重大進(jìn)展。
McCarthy 和他的合著者寫道:“該研究基于這樣一個(gè)假設(shè)進(jìn)行:學(xué)習(xí)的每一個(gè)方面或智力的任何其他特征原則都可以被如此精確地描述,以至于可以制造一臺(tái)機(jī)器來模擬它。我們將嘗試找出如何讓機(jī)器使用語言、形成抽象概念、解決目前僅限于人類的問題,并自我改進(jìn)?!?/p>
他們想讓機(jī)器做到的這些事情——Bender 稱之為“充滿憧憬的夢想”——并沒有太大改變。使用語言、形成概念和解決問題仍然是當(dāng)今 AI 的定義性目標(biāo)。傲慢也并未減少多少:“我們認(rèn)為,如果精心挑選的一組科學(xué)家一起工作一個(gè)夏天,就能在這些問題中的一個(gè)或多個(gè)方面取得顯著進(jìn)展?!彼麄儗懙馈.?dāng)然,那個(gè)夏天已經(jīng)延長到了七十年。至于這些問題實(shí)際上現(xiàn)在解決了多少,仍然是人們在網(wǎng)絡(luò)上爭論的話題。
然而,這段經(jīng)典歷史中常被忽略的是,人工智能差點(diǎn)就沒有被稱為“人工智能”。 不止一位 McCarthy 的同事討厭他提出的這個(gè)術(shù)語。據(jù)歷史學(xué)家帕梅拉·麥考達(dá)克 (Pamela McCorduck) 2004 年的書《思考的機(jī)器》引用,達(dá)特茅斯會(huì)議參與者及首臺(tái)跳棋電腦創(chuàng)造者亞瑟·塞繆爾 (Arthur Samuel) 說:“'人工'這個(gè)詞讓你覺得這里面有些虛假的東西。”數(shù)學(xué)家克勞德·香農(nóng) (Claude Shannon) ,達(dá)特茅斯提案的合著者,有時(shí)被譽(yù)為“信息時(shí)代之父”,更喜歡“自動(dòng)機(jī)研究”這個(gè)術(shù)語。赫伯特·西蒙 (Herbert Simon) 和艾倫·紐厄爾 (Allen Newell) ,另外兩位 AI 先驅(qū),在之后的多年里仍稱自己的工作為“復(fù)雜信息處理”。
事實(shí)上,“人工智能”只是可能概括達(dá)特茅斯小組汲取的雜亂思想的幾個(gè)標(biāo)簽之一。歷史學(xué)家 Jonnie Penn 當(dāng)時(shí)已確認(rèn)了一些可能的替代選項(xiàng),包括“工程心理學(xué)”、“應(yīng)用認(rèn)識(shí)論”、“神經(jīng)控制論”、“非數(shù)值計(jì)算”、“神經(jīng)動(dòng)力學(xué)”、“高級自動(dòng)編程”和“假設(shè)性自動(dòng)機(jī)”。 這一系列名稱揭示了他們新領(lǐng)域靈感來源的多樣性,涵蓋了生物學(xué)、神經(jīng)科學(xué)、統(tǒng)計(jì)學(xué)等多個(gè)領(lǐng)域。 另一位達(dá)特茅斯會(huì)議參與者 Marvin Minsky 曾將 AI 描述為一個(gè)“手提箱詞”,因?yàn)樗艹休d許多不同的解釋。
但 McCarthy 想要一個(gè)能捕捉到他愿景雄心壯志的名稱。將這個(gè)新領(lǐng)域稱為“人工智能”吸引了人們的注意——以及資金。別忘了:AI 既性感又酷。
除了術(shù)語,達(dá)特茅斯提案還確定了人工智能相互競爭的方法之間的分裂,這種分裂自此以后一直困擾著該領(lǐng)域——Law 稱之為“AI 的核心緊張關(guān)系”。
McCarthy 和他的同事們想用計(jì)算機(jī)代碼描述“學(xué)習(xí)的每一個(gè)方面或其他任何智力特征”,以便機(jī)器模仿。換句話說,如果他們能弄清楚思維是如何工作的——推理的規(guī)則——并寫下來,他們就可以編程讓計(jì)算機(jī)遵循。這奠定了后來被稱為基于規(guī)則或符號 AI(現(xiàn)在有時(shí)被稱為 GOFAI,即“好老式的人工智能”)的基礎(chǔ)。但提出硬編碼規(guī)則來捕獲實(shí)際、非瑣碎問題的解決過程證明太難了。
另一條路徑則偏愛神經(jīng)網(wǎng)絡(luò),即試圖以統(tǒng)計(jì)模式自行學(xué)習(xí)這些規(guī)則的計(jì)算機(jī)程序。達(dá)特茅斯提案幾乎是以附帶的方式提到它(分別提到“神經(jīng)網(wǎng)絡(luò)”和“神經(jīng)網(wǎng)”)。盡管這個(gè)想法起初似乎不太有希望,但一些研究人員還是繼續(xù)在符號 AI 的同時(shí)開發(fā)神經(jīng)網(wǎng)絡(luò)的版本。但它們真正起飛要等到幾十年后——加上大量的計(jì)算能力和互聯(lián)網(wǎng)上的大量數(shù)據(jù)。快進(jìn)到今天,這種方法支撐了整個(gè) AI 的繁榮。
這里的主要收獲是,就像今天的研究人員一樣,AI 的創(chuàng)新者們在基礎(chǔ)概念上爭執(zhí)不休,并陷入了自我宣傳的旋渦。 就連 GOFAI 團(tuán)隊(duì)也飽受爭吵之苦。年近九旬的哲學(xué)家及 AI 先驅(qū) Aaron Sloman 回憶起他在 70 年代認(rèn)識(shí)的“老朋友”明斯基和麥卡錫時(shí),兩人“強(qiáng)烈意見不合”:“Minsky 認(rèn)為 McCarthy 關(guān)于邏輯的主張行不通,而 McCarthy 認(rèn)為 Minsky 的機(jī)制無法做到邏輯所能做的。我和他們都相處得很好,但我當(dāng)時(shí)在說,‘你們倆都沒搞對?!保ㄋ孤迓匀徽J(rèn)為,沒有人能解釋人類推理中直覺與邏輯的運(yùn)用,但這又是另一個(gè)話題?。?/p>
隨著技術(shù)命運(yùn)的起伏,“AI”一詞也隨之時(shí)興和過時(shí)。在 70 年代初,英國政府發(fā)布了一份報(bào)告,認(rèn)為 AI 夢想毫無進(jìn)展,不值得資助,導(dǎo)致這兩條研究路徑實(shí)際上都被擱置了。所有那些炒作,實(shí)質(zhì)上都未帶來任何成果。研究項(xiàng)目被關(guān)閉,計(jì)算機(jī)科學(xué)家從他們的資助申請中抹去了“人工智能”一詞。
當(dāng)我在 2008 年完成計(jì)算機(jī)科學(xué)博士學(xué)位時(shí),系里只有一個(gè)人在研究神經(jīng)網(wǎng)絡(luò)。Bender 也有類似的記憶:“在我上大學(xué)時(shí),一個(gè)流傳的笑話是,AI 是我們還沒有弄清楚如何用計(jì)算機(jī)做的任何事。就像是,一旦你弄明白怎么做了,它就不再神奇,所以它就不再是 AI 了。”
但那種魔法——達(dá)特茅斯提案中概述的宏偉愿景——仍然生機(jī)勃勃,正如我們現(xiàn)在所見,它為 AGI 夢想奠定了基礎(chǔ)。
(二)好行為與壞行為
1950 年,也就是 McCarthy 開始談?wù)撊斯ぶ悄艿奈迥昵?,Alan Turing(艾倫·圖靈) 發(fā)表了一篇論文,提出了一個(gè)問題:機(jī)器能思考嗎?為了探討這個(gè)問題,這位著名的數(shù)學(xué)家提出了一個(gè)假設(shè)測試,即后來聞名的圖靈測試。測試設(shè)想了一個(gè)場景,其中一個(gè)人類和一臺(tái)計(jì)算機(jī)位于屏幕后,而第二個(gè)人類通過打字向他們雙方提問。如果提問者無法分辨哪些回答來自人類,哪些來自計(jì)算機(jī),Turing 認(rèn)為,可以說計(jì)算機(jī)也可以算是思考的。
與 McCarthy 團(tuán)隊(duì)不同,Turing 意識(shí)到思考是一個(gè)很難描述的事情。圖靈測試是一種繞開這個(gè)問題的方法?!八旧鲜窃谡f:與其關(guān)注智能的本質(zhì),不如尋找它在世界中的表現(xiàn)形式。我要尋找它的影子,”Law 說。
1952 年,英國廣播公司電臺(tái)組織了一個(gè)專家小組進(jìn)一步探討 Turing 的觀點(diǎn)。圖靈在演播室里與他的兩位曼徹斯特大學(xué)同事——數(shù)學(xué)教授麥克斯韋爾·紐曼 (Maxwell Newman) 和神經(jīng)外科教授杰弗里·杰斐遜 (Geoffrey Jefferson) ,以及劍橋大學(xué)的科學(xué)、倫理與宗教哲學(xué)家理查德·布雷斯韋特 (Richard Braithwaite) 一同出席。
Braithwaite 開場說道:“思考通常被認(rèn)為是人類,也許還包括其他高等動(dòng)物的專長,這個(gè)問題可能看起來太荒謬了,不值得討論。但當(dāng)然,這完全取決于‘思考’中包含了什么?!?/p>
小組成員圍繞 Turing 的問題展開討論,但始終未能給出確切的定義。
當(dāng)他們試圖定義思考包含什么,其機(jī)制是什么時(shí),標(biāo)準(zhǔn)一直在變動(dòng)?!耙坏┪覀兡茉诖竽X中看到因果關(guān)系的運(yùn)作,我們就會(huì)認(rèn)為那不是思考,而是一種缺乏想象力的苦力工作,”圖靈說道。
問題在于:當(dāng)一位小組成員提出某種可能被視為思考證據(jù)的行為——比如對新想法表示憤怒——另一位成員就會(huì)指出,計(jì)算機(jī)也可以被編程來做到這一點(diǎn)。
正如 Newman 所說,編程讓計(jì)算機(jī)打印出“我不喜歡這個(gè)新程序”是輕而易舉的。但他承認(rèn),這不過是個(gè)把戲。
Jefferson 對此表示贊同:他想要的是一臺(tái)因?yàn)椴幌矚g新程序而打印出“我不喜歡這個(gè)新程序”的計(jì)算機(jī)。換言之,對于 Jefferson 來說,行為本身是不夠的,引發(fā)行為的過程才是關(guān)鍵。
但 Turing 并不同意。正如他所指出的,揭示特定過程——他所說的苦力工作——并不能確切指出思考是什么。那么剩下的還有什么?
“從這個(gè)角度來看,人們可能會(huì)受到誘惑,將思考定義為我們還不理解的那些心理過程,”Turing 說,“如果這是正確的,那么制造一臺(tái)思考機(jī)器就是制造一臺(tái)能做出有趣事情的機(jī)器,而我們其實(shí)并不完全理解它是如何做到的?!?/p>
聽到人們首次探討這些想法感覺有些奇怪?!斑@場辯論具有預(yù)見性,”哈佛大學(xué)的認(rèn)知科學(xué)家 Tomer Ullman 說,“其中的一些觀點(diǎn)至今仍然存在——甚至更為突出。他們似乎在反復(fù)討論的是,圖靈測試首先并且主要是一個(gè)行為主義測試?!?/p>
對 Turing 而言,智能難以定義但容易識(shí)別。他提議,智能的表現(xiàn)就足夠了,而沒有提及這種行為應(yīng)當(dāng)如何產(chǎn)生。
然而,大多數(shù)人被逼問時(shí),都會(huì)憑直覺判斷何為智能,何為非智能。表現(xiàn)出智能有愚蠢和聰明的方式。1981 年,紐約大學(xué)的哲學(xué)家 Ned Block 表明,Turing 的提議沒有滿足這些直覺。由于它沒有說明行為的原因,圖靈測試可以通過欺騙手段(正如紐曼在 BBC 廣播中所指出的)來通過。
“一臺(tái)機(jī)器是否真的在思考或是否智能的問題,難道取決于人類審問者的易騙程度嗎?”布洛克問道。(正如計(jì)算機(jī)科學(xué)家 Mark Reidl 所評論的那樣:“圖靈測試不是為了讓 AI 通過,而是為了讓人類失敗?!保?/p>
Block 設(shè)想了一個(gè)龐大的查找表,其中人類程序員錄入了對所有可能問題的所有可能答案。向這臺(tái)機(jī)器輸入問題,它會(huì)在數(shù)據(jù)庫中查找匹配的答案并發(fā)送回來。Block 認(rèn)為,任何人使用這臺(tái)機(jī)器都會(huì)認(rèn)為其行為是智能的:“但實(shí)際上,這臺(tái)機(jī)器的智能水平就像一個(gè)烤面包機(jī),”他寫道,“它展現(xiàn)的所有智能都是其程序員的智能?!?/strong>
Block 總結(jié)道,行為是否為智能行為,取決于它是如何產(chǎn)生的,而非它看起來如何。Block 的“烤面包機(jī)”(后來被稱為 Blockhead)是對 Turing 提議背后假設(shè)最強(qiáng)有力的反例之一。
(三)探索內(nèi)在機(jī)制
圖靈測試本意并非實(shí)際衡量標(biāo)準(zhǔn),但它對我們今天思考人工智能的方式有著深遠(yuǎn)的影響。這一點(diǎn)隨著近年來大型語言模型的爆炸性發(fā)展變得尤為相關(guān)。這些模型以外在行為作為評判標(biāo)準(zhǔn),具體表現(xiàn)為它們在一系列測試中的表現(xiàn)。當(dāng) OpenAI 宣布 GPT-4 時(shí),發(fā)布了一份令人印象深刻的得分卡,詳細(xì)列出了該模型在多個(gè)高中及專業(yè)考試中的表現(xiàn)。幾乎沒有人討論這些模型是如何取得這些成績的。
這是因?yàn)槲覀儾恢馈H缃竦拇笮驼Z言模型太過復(fù)雜,以至于任何人都無法確切說明其行為是如何產(chǎn)生的。除少數(shù)幾家開發(fā)這些模型的公司外,外部研究人員不了解其訓(xùn)練數(shù)據(jù)包含什么;模型制造商也沒有分享任何細(xì)節(jié)。這使得區(qū)分什么是記憶(隨機(jī)模仿)什么是真正的智能變得困難。即便是在內(nèi)部工作的研究人員,如 Olah,面對一個(gè)癡迷于橋梁的機(jī)器人時(shí),也不知道真正發(fā)生了什么。
這就留下了一個(gè)懸而未決的問題:是的,大型語言模型建立在數(shù)學(xué)之上,但它們是否在用智能的方式運(yùn)用這些數(shù)學(xué)知識(shí)呢?
(四)爭論再次開始。
布朗大學(xué)的 Pavlick 說:“大多數(shù)人試圖從理論上推測 (armchair through it) ,”這意味著他們在沒有觀察實(shí)際情況的情況下爭論理論?!坝行┤藭?huì)說,‘我認(rèn)為情況是這樣的,’另一些人則會(huì)說,‘嗯,我不這么認(rèn)為?!覀冇悬c(diǎn)陷入僵局,每個(gè)人都不滿意?!?/p>
Bender 認(rèn)為這種神秘感加劇了神話的構(gòu)建。(“魔術(shù)師不會(huì)解釋他們的把戲,”她說。)沒有恰當(dāng)理解 LLM 語言輸出的來源,我們便傾向于依賴對人類的熟悉假設(shè),因?yàn)檫@是我們唯一的真正參照點(diǎn)。當(dāng)我們與他人交談時(shí),我們試圖理解對方想告訴我們什么?!斑@個(gè)過程必然涉及想象言語背后的那個(gè)生命,”Bender 說。這就是語言的工作方式。
“ChatGPT 的小把戲如此令人印象深刻,以至于當(dāng)我們看到這些詞從它那里冒出來時(shí),我們會(huì)本能地做同樣的事,”她說?!八浅I瞄L模仿語言的形式。問題是,我們根本不擅長遇到語言的形式而不去想象它的其余部分?!?/p>
對于一些研究者來說,我們是否能理解其運(yùn)作方式并不重要。Bubeck 過去研究大型語言模型是為了嘗試弄清楚它們是如何工作的,但 GPT-4 改變了他的看法。“這些問題似乎不再那么相關(guān)了,”他說?!澳P吞?,太復(fù)雜,以至于我們不能指望打開它并理解里面真正發(fā)生的事情?!?/strong>
但 Pavlick 像 Olah 一樣,正努力做這件事。她的團(tuán)隊(duì)發(fā)現(xiàn),模型似乎編碼了物體之間的抽象關(guān)系,比如國家和首都之間的關(guān)系。通過研究一個(gè)大型語言模型,Pavlick 和她的同事們發(fā)現(xiàn),它使用相同的編碼映射法國到巴黎,波蘭到華沙。我告訴她,這聽起來幾乎很聰明?!安唬鼘?shí)際上就是一個(gè)查找表,”她說。
但讓 Pavlick 感到震驚的是,與 Blockhead 不同,模型自己學(xué)會(huì)了這個(gè)查找表。 換句話說,LLM 自己發(fā)現(xiàn)巴黎對于法國就如同華沙對于波蘭一樣。但這展示了什么?自編碼查找表而不是使用硬編碼的查找表是智能的標(biāo)志嗎?我們該在哪里劃清界限?
“基本上,問題在于行為是我們唯一知道如何可靠測量的東西,” Pavlick 說?!捌渌魏螙|西都需要理論上的承諾,而人們不喜歡不得不做出理論上的承諾,因?yàn)樗休d了太多含義?!?/p>
并非所有人都這樣。許多有影響力的科學(xué)家樂于做出理論上的承諾。例如,Hinton 堅(jiān)持認(rèn)為神經(jīng)網(wǎng)絡(luò)是你需要的一切來重現(xiàn)類似人類的智能?!吧疃葘W(xué)習(xí)將能夠做一切,”他在 2020 年接受《麻省理工科技評論》采訪時(shí)說。
這是一個(gè) Hinton 似乎從一開始就堅(jiān)持的信念。Sloman 記得當(dāng) Hinton 是他實(shí)驗(yàn)室的研究生時(shí),兩人曾發(fā)生過爭執(zhí),他回憶說自己無法說服 Hinton 相信神經(jīng)網(wǎng)絡(luò)無法學(xué)習(xí)某些人類和其他某些動(dòng)物似乎直觀掌握的關(guān)鍵抽象概念,比如某事是否不可能。Sloman 說,我們可以直接看出什么時(shí)候某事被排除了。“盡管 Hinton 擁有杰出的智慧,但他似乎從未理解這一點(diǎn)。我不知道為什么,但有大量的神經(jīng)網(wǎng)絡(luò)研究者都有這個(gè)盲點(diǎn)?!?/p>
然后是 Marcus,他對神經(jīng)網(wǎng)絡(luò)的看法與 Hinton 截然相反。他的觀點(diǎn)基于他所說的科學(xué)家對大腦的發(fā)現(xiàn)。
Marcus 指出,大腦并不是從零開始學(xué)習(xí)的白板——它們天生帶有指導(dǎo)學(xué)習(xí)的固有結(jié)構(gòu)和過程。他認(rèn)為,這就是嬰兒能學(xué)會(huì)目前最好的神經(jīng)網(wǎng)絡(luò)仍不能掌握的東西的原因。
“神經(jīng)網(wǎng)絡(luò)研究者手頭有這個(gè)錘子,現(xiàn)在一切都變成了釘子,”Marcus 說。“他們想用學(xué)習(xí)來做所有的事,許多認(rèn)知科學(xué)家會(huì)認(rèn)為這不切實(shí)際且愚蠢。你不可能從零開始學(xué)習(xí)一切。”
不過,作為一名認(rèn)知科學(xué)家,Marcus 對自己的觀點(diǎn)同樣確信?!叭绻嬗腥藴?zhǔn)確預(yù)測了當(dāng)前的情況,我想我必須排在任何人名單的最前面,”他在前往歐洲演講的 Uber 后座上告訴我?!拔抑肋@聽起來不太謙虛,但我確實(shí)有這樣一個(gè)視角,如果你試圖研究的是人工智能,這個(gè)視角就顯得非常重要?!?/p>
鑒于他對該領(lǐng)域公開的批評,你或許會(huì)驚訝于 Marcus 仍然相信通用人工智能即將來臨。只是他認(rèn)為當(dāng)今對神經(jīng)網(wǎng)絡(luò)的執(zhí)著是個(gè)錯(cuò)誤?!拔覀兛赡苓€需要一兩個(gè)或四個(gè)突破,”他說。“你和我可能活不到那么久,很抱歉這么說。但我認(rèn)為這將在本世紀(jì)發(fā)生。也許我們有機(jī)會(huì)見證?!?/p>
(五)炫彩之夢的力量
在以色列拉馬特甘家中通過 Zoom 通話時(shí),Dor Skuler 背后的某個(gè)類似小臺(tái)燈的機(jī)器人隨著我們的談話時(shí)亮?xí)r滅。“你可以在我身后看到 ElliQ,”他說。Skuler 的公司 Intuition Robotics 為老年人設(shè)計(jì)這些設(shè)備,而 ElliQ 的設(shè)計(jì)——結(jié)合了亞馬遜 Alexa 的部分特征和 R2-D2 的風(fēng)格——明確表明它是一臺(tái)計(jì)算機(jī)。Skuler 表示,如果有任何客戶表現(xiàn)出對此有所混淆的跡象,公司就會(huì)收回這款設(shè)備。
ElliQ 沒有臉,沒有任何人類的形狀。如果你問它關(guān)于體育的問題,它會(huì)開玩笑說自己沒有手眼協(xié)調(diào)能力,因?yàn)樗葲]有手也沒有眼睛。“我實(shí)在不明白,為什么行業(yè)里都在努力滿足圖靈測試,” Skuler 說,“為什么為了全人類的利益,我們要研發(fā)旨在欺騙我們的技術(shù)呢?”
相反,Skuler 的公司賭注于人們可以與明確呈現(xiàn)為機(jī)器的機(jī)器建立關(guān)系?!熬拖裎覀冇心芰εc狗建立真實(shí)的關(guān)系一樣,”他說,“狗給人們帶來了很多快樂,提供了陪伴。人們愛他們的狗,但他們從不把它混淆成人?!?/p>
ElliQ 的用戶,很多都是八九十歲的老人,稱這個(gè)機(jī)器人為一個(gè)實(shí)體或一種存在——有時(shí)甚至是一個(gè)室友?!八麄兡軌?yàn)檫@種介于設(shè)備或電腦與有生命之物之間的關(guān)系創(chuàng)造一個(gè)空間,” Skuler 說。
然而,不管 ElliQ 的設(shè)計(jì)者多么努力地控制人們對這款設(shè)備的看法,他們都在與塑造了我們期望幾十年的流行文化競爭。為什么我們?nèi)绱藞?zhí)著于類人的人工智能?“因?yàn)槲覀兒茈y想象其他的可能性,” Skuler 說(在我們的對話中,他確實(shí)一直用“她”來指代 ElliQ),“而且科技行業(yè)的許多人都是科幻迷。他們試圖讓自己的夢想成真?!?/p>
有多少開發(fā)者在成長過程中認(rèn)為,構(gòu)建一臺(tái)智能機(jī)器是他們可能做的最酷的事情——如果不是最重要的事情?
不久之前,OpenAI 推出了新的語音控制版 ChatGPT,其聲音聽起來像斯嘉麗·約翰遜 (Scarlett Johansson) ,之后包括 Altman 在內(nèi)的許多人都指出了它與 斯派克·瓊斯 (Spike Jonze) 2013 年的電影《她》之間的聯(lián)系。
科幻小說共同創(chuàng)造了對人工智能的理解。正如 Cave 和 Dihal 在《想象人工智能》一書中所寫:“人工智能在成為技術(shù)現(xiàn)象很久以前就已經(jīng)是一種文化現(xiàn)象了。”
關(guān)于將人類重塑為機(jī)器的故事和神話已有數(shù)百年歷史。Dihal 指出,人們對于人造人的夢想可能與他們對于飛行的夢想一樣長久。她提到,希臘神話中的著名人物戴達(dá)羅斯,除了為自己和兒子伊卡洛斯建造了一對翅膀外,還建造了一個(gè)實(shí)質(zhì)上是巨型青銅機(jī)器人的塔洛斯,它會(huì)向過往的海盜投擲石頭。
“機(jī)器人”這個(gè)詞來自 robota,這是捷克劇作家 Karel ?apek 在他的 1920 年戲劇《羅素姆的萬能機(jī)器人》中創(chuàng)造的一個(gè)術(shù)語,意為“強(qiáng)制勞動(dòng)”。艾薩克·阿西莫夫 (Isaac Asimov) 在其科幻作品中概述的“機(jī)器人學(xué)三大法則”,禁止機(jī)器傷害人類,而在像《終結(jié)者》這樣的電影中,這些法則被反轉(zhuǎn),成為了對現(xiàn)實(shí)世界技術(shù)的普遍恐懼的經(jīng)典參考點(diǎn)。2014 年的電影《機(jī)械姬》是對圖靈測試的戲劇性演繹。去年的大片《造物主》設(shè)想了一個(gè)未來世界,在這個(gè)世界里,人工智能因引發(fā)核彈爆炸而被取締,這一事件被某些末日論者至少視為一個(gè)可能的外部風(fēng)險(xiǎn)。
Cave 和 Dihal 講述了另一部電影《超驗(yàn)駭客》,在這部電影中,由約翰尼·德普 (Johnny Depp) 飾演的一位人工智能專家將自己的意識(shí)上傳到了電腦中,這一情節(jié)推動(dòng)了元末日論者斯蒂芬·霍金 (Stephen Hawking) 、物理學(xué)家馬克斯·泰格馬克 (Max Tegmark) 以及人工智能研究員斯圖爾特·拉塞爾 (Stuart Russell) 提出的敘事。在電影首映周末發(fā)表在《赫芬頓郵報(bào)》上的一篇文章中,三人寫道:“隨著好萊塢大片《超驗(yàn)駭客》的上映……它帶來了關(guān)于人類未來的沖突愿景,很容易將高度智能機(jī)器的概念視為純粹的科幻小說。但這將是一個(gè)錯(cuò)誤,可能是我們有史以來最大的錯(cuò)誤?!?/p>
大約在同一時(shí)期,Tegmark 創(chuàng)立了未來生命研究所,其使命是研究和促進(jìn)人工智能安全。電影中德普的搭檔摩根·弗里曼 (Morgan Freeman) 是該研究所董事會(huì)成員,而曾在電影中有客串的 Elon Musk 在第一年捐贈(zèng)了1000萬美元。對于 Cave 和 Dihal 來說,《超驗(yàn)駭客》是流行文化、學(xué)術(shù)研究、工業(yè)生產(chǎn)和“億萬富翁資助的未來塑造之戰(zhàn)”之間多重糾葛的完美例證。
去年在 Altman 的世界巡回倫敦站,當(dāng)被問及他在推特上所說“人工智能是世界一直想要的技術(shù)”是什么意思時(shí),站在房間后面,面對著數(shù)百名聽眾,我聽到他給出了自己的起源故事:“我小時(shí)候非常緊張,讀了很多科幻小說,很多周五晚上都待在家里玩電腦。但我一直對人工智能很感興趣,我覺得那會(huì)非????!彼狭舜髮W(xué),變得富有,并見證了神經(jīng)網(wǎng)絡(luò)變得越來越好?!斑@可能非常好,但也可能真的很糟糕。我們要怎么應(yīng)對?”他回憶起 2015 年時(shí)的想法,“我最終創(chuàng)立了 OpenAI?!?/p>
▍ 為何你應(yīng)該關(guān)心一群書呆子對 AI 的爭論
好的,你已經(jīng)明白了:沒人能就人工智能是什么達(dá)成一致。但似乎每個(gè)人都同意的是,當(dāng)前圍繞 AI 的爭論已遠(yuǎn)遠(yuǎn)超出了學(xué)術(shù)和科學(xué)范疇。政治和道德因素正在發(fā)揮作用,而這并沒有幫助大家將強(qiáng)對彼此的理解。
解開這個(gè)謎團(tuán)很難。當(dāng)某些道德觀點(diǎn)涵蓋了整個(gè)人類的未來,并將其錨定在一個(gè)無人能確切定義的技術(shù)上時(shí),要想看清正在發(fā)生什么變得尤為困難。
但我們不能就此放棄。因?yàn)闊o論這項(xiàng)技術(shù)是什么,它即將到來,除非你與世隔絕,否則你將以這樣或那樣的形式使用它。而技術(shù)的形態(tài),以及它解決和產(chǎn)生的問題,都將受到你剛剛讀到的這類人的思想和動(dòng)機(jī)的影響,尤其是那些擁有最大權(quán)力、最多資金和最響亮聲音的人。
這讓我想到了 TESCREALists。等等,別走!我知道,在這里引入另一個(gè)新概念似乎不公平。但要理解掌權(quán)者如何塑造他們構(gòu)建的技術(shù),以及他們?nèi)绾蜗蛉虮O(jiān)管機(jī)構(gòu)和立法者解釋這些技術(shù),你必須真正了解他們的思維方式。
Gebru 在離開谷歌后創(chuàng)建了分布式人工智能研究所,以及凱斯西儲(chǔ)大學(xué)的哲學(xué)家和歷史學(xué)家埃米爾·托雷斯(Émile Torres),他們追蹤了幾個(gè)技術(shù)烏托邦信仰體系對硅谷的影響。二人認(rèn)為,要理解 AI 當(dāng)前的狀況——為什么像谷歌 DeepMind 和 OpenAI 這樣的公司正在競相構(gòu)建通用人工智能,以及為什么像 Tegmark 和 Hinton 這樣的末日預(yù)言者警告即將到來的災(zāi)難——必須通過托雷斯所稱的 TESCREAL 框架來審視這個(gè)領(lǐng)域。
這個(gè)笨拙的縮寫詞取代了一個(gè)更笨拙的標(biāo)簽列表:超人類主義、外展主義、奇點(diǎn)主義、宇宙主義、理性主義、有效利他主義和長期主義。關(guān)于這些世界觀的許多內(nèi)容(以及將會(huì)有的更多內(nèi)容)已經(jīng)被撰寫,所以我在這里就不贅述了。(對于任何想要深入探索的人來說,這里充滿了層層遞進(jìn)的兔子洞。選擇你的領(lǐng)域,帶上你的探險(xiǎn)裝備吧。)
這一系列相互重疊的思想觀念對西方科技界中某種類型的天才思維極具吸引力。一些人預(yù)見到人類的永生,其他人則預(yù)測人類將殖民星辰。共同的信條是,一種全能的技術(shù)——無論是通用人工智能還是超級智能,選邊站隊(duì)吧——不僅觸手可及,而且不可避免。你可以在諸如 OpenAI 這樣的前沿實(shí)驗(yàn)室里無處不在的拼命態(tài)度中看到這一點(diǎn):如果我們不制造出 AGI,別人也會(huì)。
更重要的是,TESCREA 主義者認(rèn)為 AGI 不僅能解決世界的問題,還能提升人類層次。“人工智能的發(fā)展和普及——遠(yuǎn)非我們應(yīng)該害怕的風(fēng)險(xiǎn)——是我們對自己、對子女和對未來的一種道德義務(wù),” Andreessen 去年在一篇備受剖析的宣言中寫道。我多次被告知,AGI 是讓世界變得更美好的途徑——這是 DeepMind 的首席執(zhí)行官和聯(lián)合創(chuàng)始人戴米斯·哈薩比斯 (Demis Hassabis) 、新成立的微軟 AI 的首席執(zhí)行官及 DeepMind 的另一位聯(lián)合創(chuàng)始人Mustafa Suleyman、Sutskever、Altman 等人告訴我的。
但正如 Andreessen 所指出的,事情是一體兩面的。技術(shù)烏托邦的反面就是技術(shù)地獄。如果你相信自己正在建設(shè)一種強(qiáng)大到足以解決世界上所有問題的技術(shù),你很可能也相信它有可能完全出錯(cuò)的風(fēng)險(xiǎn)。當(dāng)二月份在世界政府峰會(huì)上被問及什么讓他夜不能寐時(shí),Altman 回答說:“都是科幻小說里的東西。”
這種緊張局勢是 Hinton 在過去一年里不斷強(qiáng)調(diào)的。這也是 Anthropic 等公司聲稱要解決的問題,是 Sutskever 在他的新實(shí)驗(yàn)室關(guān)注的焦點(diǎn),也是他去年希望 OpenAI 內(nèi)部特別團(tuán)隊(duì)專注的,直到在公司如何平衡風(fēng)險(xiǎn)與回報(bào)上的分歧導(dǎo)致該團(tuán)隊(duì)大多數(shù)成員離職。
當(dāng)然,末日論也是宣傳的一部分。(“聲稱你創(chuàng)造了某種超級智能的東西有利于銷售數(shù)字,”迪哈爾說,“就像是,‘請有人阻止我這么好,這么強(qiáng)大吧?!保┑徽摲睒s還是毀滅,這些人號稱要解決的到底是什么問題?誰的問題?我們真的應(yīng)該信任他們建造的東西以及他們向我們的領(lǐng)導(dǎo)人講述的內(nèi)容嗎?
Gebru 和 Torres(以及其他一些人)堅(jiān)決反對:不,我們不應(yīng)該。他們對這些意識(shí)形態(tài)及其可能如何影響未來技術(shù),特別是 AI 的發(fā)展持高度批評態(tài)度。從根本上講,他們將這些世界觀中幾個(gè)以“改善”人類為共同焦點(diǎn)的觀念與 20 世紀(jì)的種族優(yōu)生運(yùn)動(dòng)聯(lián)系起來。
他們認(rèn)為,一個(gè)危險(xiǎn)是,資源向這些意識(shí)形態(tài)要求的科技創(chuàng)新轉(zhuǎn)移,從構(gòu)建 AGI 到延長壽命再到殖民其他星球,最終將以數(shù)十億非西方和非白人群體的利益為代價(jià),使西方和白人受益。如果你的目光鎖定在幻想的未來上,很容易忽視創(chuàng)新的當(dāng)下成本,比如勞工剝削、種族和性別偏見的根深蒂固以及環(huán)境破壞。
Bender 反思這場通往 AGI 競賽的犧牲時(shí)問道:“我們是否在試圖建造某種對我們有用工具?”如果是這樣,那是為誰建造的,我們?nèi)绾螠y試它,它工作得有多好?“但如果我們要建造它的目的僅僅是為了能夠說我們做到了,這不是我能支持的目標(biāo)。這不是值得數(shù)十億美元的目標(biāo)。”
Bender 說,認(rèn)識(shí)到 TESCREAL 意識(shí)形態(tài)之間的聯(lián)系讓她意識(shí)到這些辯論背后還有更多的東西?!芭c那些人的糾纏是——”她停頓了一下,“好吧,這里不僅僅只有學(xué)術(shù)思想。其中還捆綁著一種道德準(zhǔn)則?!?/p>
當(dāng)然,如果這樣缺乏細(xì)微差別地闡述,聽起來好像我們——作為社會(huì),作為個(gè)人——并沒有得到最好的交易。這一切聽起來也很愚蠢。當(dāng) Gebru 去年在一次演講中描述了 TESCREAL 組合的部分內(nèi)容時(shí),她的聽眾笑了。也的確很少有人會(huì)認(rèn)同自己是這些思想流派的忠實(shí)信徒,至少在極端意義上不會(huì)。
但如果我們不了解那些構(gòu)建這項(xiàng)技術(shù)的人是如何看待它的,我們又怎么能決定我們要達(dá)成什么樣的協(xié)議呢?我們決定使用哪些應(yīng)用程序,我們想向哪個(gè)聊天機(jī)器人提供個(gè)人信息,我們在社區(qū)支持哪些數(shù)據(jù)中心,我們想投票給哪些政治家?
過去常常是這樣:世界上有一個(gè)問題,我們就建造一些東西來解決它。而現(xiàn)在,一切都顛倒了:目標(biāo)似乎是建造一臺(tái)能做所有事情的機(jī)器,跳過在找到解決方案前緩慢而艱難地識(shí)別問題的工作。
正如 Gebru 在那次演講中所說,“一臺(tái)能解決所有問題的機(jī)器:如果這都不是魔法,那它是什么呢?”
當(dāng)直截了當(dāng)?shù)貑柤笆裁词侨斯ぶ悄軙r(shí),很多人會(huì)回避這個(gè)問題。Suleyman 不是這樣。四月份,微軟 AI 的首席執(zhí)行官站在 TED 的舞臺(tái)上,告訴觀眾他對六歲侄子提出同樣問題時(shí)的回答。Suleyman 解釋說,他能給出的最佳答案是,人工智能是“一種新型的數(shù)字物種”——一種如此普遍、如此強(qiáng)大的技術(shù),以至于稱其為工具已不再能概括它能為我們做什么。
“按照目前的發(fā)展軌跡,我們正走向某種我們都難以描述的出現(xiàn),而我們無法控制我們不理解的事物,”他說,“因此,比喻、心智模型、名稱——這些都至關(guān)重要,只有這樣我們才能在最大限度利用人工智能的同時(shí)限制其潛在的負(fù)面影響。”
語言很重要!我希望從我們經(jīng)歷過的曲折、轉(zhuǎn)折和情緒爆發(fā)中,這一點(diǎn)已經(jīng)很清楚了。但我也希望你在問:是誰的語言?又是誰的負(fù)面影響?Suleyman 是一家科技巨頭的行業(yè)領(lǐng)導(dǎo)者,該公司有望從其 AI 產(chǎn)品中賺取數(shù)十億美元。將這些產(chǎn)品的背后技術(shù)描述為一種新型物種,暗示著某種前所未有的東西,它具有我們從未見過的自主性和能力。這讓我感到不安,你呢?
我無法告訴你這里是否有魔法(諷刺與否)。我也無法告訴你數(shù)學(xué)是如何實(shí)現(xiàn) Bubeck 和其他許多人在這項(xiàng)技術(shù)中看到的(目前還沒有人能做到)。你必須自己下結(jié)論。但我可以揭示我自己的觀點(diǎn)。
在 2020 年寫到 GPT-3 時(shí),我說人工智能最偉大的把戲就是說服世界它存在。我仍然這么認(rèn)為:我們天生就會(huì)在表現(xiàn)出特定行為的事物中看到智慧,不管它是否存在。在過去幾年里,科技行業(yè)本身也找到了理由來說服我們相信人工智能的存在。這使我對接收到的許多關(guān)于這項(xiàng)技術(shù)的聲明持懷疑態(tài)度。
與此同時(shí),大型語言模型讓我感到驚奇。它們究竟可以做什么以及如何做到,是我們這個(gè)時(shí)代最令人興奮的問題之一。
也許人類一直對智慧著迷——它是什么,還有什么擁有它。Pavlick 告訴我,哲學(xué)家長期以來一直在構(gòu)想假設(shè)場景,來想象遇到非人類來源的智能行為意味著什么——比如說,如果一波浪沖刷海灘,當(dāng)它退去時(shí)在沙灘上留下了一行字,拼湊成一首詩?
通過大型語言模型——通過它們的微笑面具——我們面臨著前所未有的思考對象?!八鼘⑦@個(gè)假設(shè)的東西變得非常具體,”Pavlick 說,“我從未想過一段語言的生成是否需要智慧,因?yàn)槲覐奈刺幚磉^來自非人類的言語?!?/p>
人工智能包含很多東西。但我不認(rèn)為它是類人的。我不認(rèn)為它是解決我們所有(甚至大部分)問題的答案。它不是 ChatGPT、Gemini 或 Copilot,也不是神經(jīng)網(wǎng)絡(luò)。它是一種理念、一種愿景,一種愿望的實(shí)現(xiàn)。理念受到其他理念、道德、準(zhǔn)宗教信念、世界觀、政治和直覺的影響。“人工智能”是描述一系列不同技術(shù)的有用簡略說法。但人工智能并不是單一事物;從來都不是,不管品牌標(biāo)識(shí)多么頻繁地烙印在外包裝上。
“事實(shí)是,這些詞匯——智力、推理、理解等——在需要精確界定之前就已經(jīng)被定義了,”Pavlick 說,“當(dāng)問題變成‘模型是否理解——是或否?’時(shí),我并不喜歡,因?yàn)?,嗯,我不知道。詞語會(huì)被重新定義,概念會(huì)不斷進(jìn)化?!?/p>
我認(rèn)為這是對的。我們越早能后退一步,就我們不知道的事達(dá)成共識(shí),并接受這一切尚未塵埃落定,我們就能越快地——我不知道,或許不是手牽手唱起 Kumbaya(《歡聚一堂》),但我們可以停止互相指責(zé)。
本文原載“MIT科技評論”,原題為《人工智能是什么?》。文章僅代表作者觀點(diǎn),供讀者參考。
發(fā)表評論
2024-08-11 11:38:17
2024-08-11 11:38:17
2024-08-11 11:38:17