構建智能機器有助于我們了解大腦的工作原理
他對人工智能的夢想從來都不僅僅是制作一個擊敗特級大師的國際象棋引擎或一個試圖破壞婚姻的聊天機器人。它一直是我們自己的智慧的一面鏡子,這樣我們就可以更好地了解自己。研究人員不僅尋求人工智能,還尋求通用人工智能 (AGI),即具有類似人類適應性和創(chuàng)造力的系統。
本文引用地址:http://www.antipu.com.cn/article/202505/470589.htm大型語言模型獲得的問題解決能力比大多數研究人員預期的要強。但他們仍然會犯愚蠢的錯誤,缺乏開放式學習的能力:一旦他們接受了書籍、博客和其他材料的培訓,他們的知識儲備就會被凍結。他們沒有通過人工智能公司 SingularityNET 的 Ben Goertzel 所說的“機器人大學生測試”:你不能讓他們讀完大學(甚至不能讀托兒所)。
這些系統明確解決了 AGI 的一個部分是語言。他們擁有專家所說的正式能力:他們可以解析你給他們的任何句子,即使是零散的或俚語的,并用可能被稱為維基百科標準英語的東西回答。但他們在思維的其他維度上失敗了——一切有助于我們處理日常生活的東西?!拔覀儾粦撝竿麄兡軌蛩伎迹甭槭±砉W院的神經科學家南?!た簿S舍 (Nancy Kanwisher) 說。“他們是語言處理器。”他們巧妙地縱文字,但除了通過他們吸收的文本之外,無法進入現實。
在某種程度上,大型語言模型只模仿大腦的語言能力,而沒有感知、記憶、導航、社會判斷等能力。如果像 Kanwisher 所說的那樣,我們的大腦是具有多種功能的瑞士軍刀,那么大型語言模型就是一個非常棒的開瓶器。她和其他神經科學家爭論這些功能是局限于特定位置還是分布在我們的灰質中,但大多數人都同意至少有一些專業(yè)化。AI 開發(fā)人員正在將這種模塊化整合到他們的系統中,希望使它們更智能。
沒有人確定大腦區(qū)域如何協同工作以創(chuàng)造一個連貫的自我,更不用說機器如何模仿它了。一種假設是意識是共同點。
OpenAI 是生成式預訓練轉換器 (GPT) 的創(chuàng)建者,它允許付費用戶選擇附加工具(最初稱為“插件”)來處理數學、Internet 搜索和其他類型的查詢。每個工具都調用了一些與其專業(yè)相關的外部知識庫。此外,對于用戶來說,核心語言系統本身在某種意義上可能是模塊化的。OpenAI 對規(guī)范保密,但許多 AI 研究人員推測,GPT 由多達 16 個獨立的神經網絡或“專家”組成,這些網絡將他們對查詢的答案匯集在一起——盡管他們如何分工尚不清楚。2023 年 12 月,法國人工智能公司 Mistral 和不久之后的中國公司 DeepSeek 發(fā)布了這種“專家混合”架構的開源版本,引起了轟動。這種簡單的模塊化形式的主要優(yōu)點是其計算效率:訓練和運行 16 個較小的網絡比單個大型網絡更容易?!白屛覀儍扇涿?,”愛丁堡大學 AI 研究員 Edoardo Ponti 說?!白屛覀兊玫揭粋€具有大量參數的系統,同時保持更小模型的效率?!?/p>
但模塊化需要權衡取舍。沒有人確定大腦區(qū)域如何協同工作以創(chuàng)造一個連貫的自我,更不用說機器如何模仿它了。佐治亞理工學院(Georgia Institute of Technology)的神經科學家安娜·伊萬諾娃(Anna Ivanova)想知道:“信息是如何從語言系統進入邏輯推理系統或社會推理系統的?“這仍然是一個懸而未決的問題。”
一個具有挑釁性的假設是意識是共同點。根據這個被稱為全局工作空間理論 (GWT) 的思想,意識之于大腦就像員工會議之于公司:一個模塊可以共享信息和尋求幫助的地方。GWT 遠非唯一的意識理論,但它引起了 AI 研究人員的特別興趣,因為它猜想意識是高級智能不可或缺的一部分。要完成簡單或經過演練的任務,大腦可以在自動駕駛儀上運行,但新穎或復雜的任務(超出單個模塊范圍的任務)需要我們了解自己在做什么。
Goertzel 和其他人已將工作區(qū)整合到他們的 AI 系統中?!拔艺J為全球工作空間模型的核心思想將以許多不同的形式出現,”他說。在設計這個模型的電子表示時,研究人員并不尋求制造有意識的機器;相反,他們只是在復制特定意識理論的硬件,以試圖實現類似人類的智能。
他們會不會無意中創(chuàng)造了一個有感情和動機的有知覺的生物?這是可以想象的,盡管即使是 GWT 的發(fā)明者、加利福尼亞州拉霍亞神經科學研究所的伯納德·巴爾斯 (Bernard Baars) 也認為這是不可能的?!坝幸庾R計算是一個沒有絲毫證據的假設,”他說。但是,如果開發(fā)人員真的成功構建了 AGI,他們就可以提供對智能本身的結構和過程的重要見解。
長期以來,GWT 一直是神經科學和 AI 研究如何相互影響的案例研究。這個想法可以追溯到“Pandemonium”,這是計算機科學家奧利弗·塞爾弗里奇 (Oliver Selfridge) 在 1950 年代提出的一種圖像識別系統。他將系統的模塊描繪成在彌爾頓式的地獄愿景中尖叫著尋求關注的惡魔。與他同時代的艾倫·紐維爾(Allen Newell)更喜歡數學家圍坐在黑板旁一起解決問題的更穩(wěn)重的比喻。這些想法被認知心理學家采納了。在 1980 年代,Baars 提出了 GWT 作為人類意識的理論?!霸谡麄€職業(yè)生涯中,我從 AI 中學到了很多東西,主要是因為它是我們唯一可行的理論平臺,”他說。
Baars 啟發(fā)了孟菲斯大學的計算機科學家 Stanley Franklin 嘗試構建一臺有意識的計算機。無論富蘭克林的機器是否真的有意識——巴爾斯和富蘭克林自己都持懷疑態(tài)度——它至少再現了人類心理學的各種怪癖。例如,當它的注意力從一件事轉移到另一件事時,它會錯過信息,因此它和人一樣不擅長多任務處理。從 1990 年代開始,巴黎法蘭西學院的神經科學家 Stanislas Dehaene 和 Jean-Pierre Changeux 研究了哪種類型的神經元布線可以實現該工作空間。
在這個方案中,大腦模塊大多獨立運行,但每隔十分之一秒左右,它們就會召開一次員工會議。這是一場結構化的吶喊比賽。每個模塊都有一些信息可以提供,它對這些信息越有信心——例如,刺激措施越符合預期——它喊得就越響亮。一旦一個模塊獲勝,其他模塊就會安靜片刻,獲勝者將其信息放入一組公共變量中:工作區(qū)。其他模塊可能會也可能不會發(fā)現這些信息有用;每個人都必須自己判斷?!澳銜玫竭@個有趣的子代理之間的合作和競爭過程,每個子代理都有一小部分解決方案,”Baars 說。
工作區(qū)不僅允許模塊相互通信,而且還提供了一個論壇,即使信息不再呈現在感官上,它們也可以在這里集體思考信息。“你可以有一些現實的元素——也許是轉瞬即逝的感覺,它已經消失了,但在你的工作空間中,它會繼續(xù)回蕩,”Dehaene 說。這種深思熟慮的能力對于解決涉及多個步驟或隨著時間的推移而延伸的問題至關重要。Dehaene 進行了心理學實驗,在他的實驗室里向人們提出了這些問題,他發(fā)現他們必須有意識地思考這些問題。
對人工智能的追求告訴我們,我們認為簡單的任務對計算要求很高,而我們認為困難的事情,例如國際象棋,實際上是簡單的。
如果這個系統聽起來是無政府主義的,那就是重點。它消除了在模塊之間委派任務的 Boss,因為委派很難正確。在數學中,授權(或在不同的參與者之間分配責任以實現最佳性能)屬于所謂的 NP 困難問題,解決這些問題可能非常耗時。在許多方法中,例如被認為由 OpenAI 使用的專家混合架構,“門控”網絡會分發(fā)任務,但它必須與各個模塊一起進行訓練,并且訓練過程可能會崩潰。首先,它遭受了 Ponti 所說的“先有雞還是先有蛋的問題”:因為模塊依賴于路由,而路由又依賴于模塊,所以訓練可能會兜圈子。即使訓練成功,路由機制也是一個黑匣子,其工作原理是不透明的。
2021 年,卡內基梅隆大學 (Carnegie Mellon University) 的數學家兼名譽教授 Manuel Blum 和 Lenore Blum 制定了全球工作空間中爭奪注意力之戰(zhàn)的細節(jié)。它們包括一個機制,用于確保模塊不會夸大他們對所帶來信息的信心,從而防止一些吹牛接管。已婚的 Blum 夫婦還建議模塊可以開發(fā)直接互連,以完全繞過工作區(qū)。例如,這些側面鏈接可以解釋當我們學習騎自行車或演奏樂器時會發(fā)生什么。一旦模塊共同確定哪些模塊需要做什么,它們就會將任務脫機?!八鼘⑼ㄟ^短期記憶的處理轉變?yōu)闊o意識的處理,”Lenore Blum 說。
有意識的關注是一種稀缺資源。工作區(qū)中沒有太多的信息空間,因此獲勝的模塊在傳達給其他模塊的內容時必須非常有選擇性。這聽起來像是一個設計缺陷?!盀槭裁创竽X對你可以同時思考的事情數量有如此限制?”但他認為這種約束是一件好事:它強制執(zhí)行認知紀律。由于無法追蹤世界的所有復雜性,我們的大腦必須識別其背后的簡單規(guī)則?!斑@個瓶頸迫使我們想出一個關于世界是如何運作的,”他說。
對 Bengio 來說,這是 GWT 為 AI 上的重要一課:今天的人工神經網絡對自身來說太強大了。他們有數十億或數萬億個參數,足以吸收互聯網的大量內容,但往往會陷入雜草叢中,無法從他們所接觸到的東西中提取更大的教訓。如果他們大量的知識儲備必須通過一個狹窄的漏斗,就像我們的意識思維是如何運作的,他們可能會做得更好。
Bengio 在 AI 系統開始考慮 GWT 之前就開始努力將意識瓶頸納入 AI 系統。在 2010 年代初期,Bengio 和他的同事對我們的大腦如何選擇性地專注于一條信息并暫時屏蔽其他所有信息印象深刻,他們在神經網絡中構建了一個類似的過濾器。例如,當 GPT 等語言模型遇到代詞時,它需要找到先行詞。它通過突出顯示附近的名詞并使其他詞性變灰來實現此目的。實際上,它 “關注” 理解文本所需的關鍵詞。代詞也可能與形容詞、動詞等相關聯。網絡的不同部分可以同時關注不同的單詞關系。
但 Bengio 發(fā)現這種注意力機制帶來了一個微妙的問題。假設網絡完全忽略了一些單詞,它將通過為對應于這些單詞的計算變量分配零值來實現。如此突然的變化將對訓練網絡的標準程序造成影響。該過程稱為反向傳播,涉及將網絡的輸出追溯到產生它的計算,這樣如果輸出錯誤,您可以找出原因。但是你不能通過突然的變化來追溯。
因此,Bengio 和其他人設計了一種“軟關注機制”,使網絡具有選擇性,但并不過分。它為各種選項分配數字權重,例如代詞可能與哪些單詞相關。盡管有些單詞的權重比其他單詞高,但所有單詞都仍在發(fā)揮作用;網絡從不做出艱難的選擇?!澳愕玫狡渲械?80%,其中 20%,而且因為這些注意力權重是連續(xù)的,所以你實際上可以做 [微積分] 并應用反向傳播,”Bengio 說。這種軟注意力機制是 “transformer” 架構的關鍵創(chuàng)新,即 GPT 中的 “T”。
近年來,Bengio 重新審視了這種方法,以創(chuàng)造更嚴格的瓶頸,他認為如果網絡要實現接近真正理解的東西,這一點很重要。真正的全局工作空間必須做出艱難的選擇 — 它沒有空間來跟蹤所有選項。2021 年,Bengio 和他的同事設計了一個 “生成流 ”網絡,該網絡會定期選擇一個可用選項,其概率由注意力權重決定。他不僅僅依賴反向傳播,而是訓練網絡在正向或反向工作。這樣,即使發(fā)生突然的變化,它也可以返回以修復任何錯誤。在各種實驗中,Bengio 已經表明,該系統開發(fā)了更高級別的輸入數據表示,與我們自己的大腦獲取的數據平行。
實施全局工作空間的另一個挑戰(zhàn)是高度專業(yè)化。就像不同大學系的教授一樣,大腦的各種模塊創(chuàng)造了相互無法理解的行話。視覺區(qū)域提出了抽象,讓它能夠處理來自眼睛的輸入。聽覺模塊開發(fā)適合內耳振動的表現。那么他們是如何溝通的呢?他們必須找到某種通用語或亞里士多德所說的常識——該術語的原意。這種需求在科技公司一直在引入的“多模式”網絡中尤為緊迫,這些網絡將文本與圖像和其他形式的數據相結合。
在 Dehaene 和 Changeux 的 GWT 版本中,這些模塊由神經元連接,這些神經元調整它們的突觸,將傳入的數據翻譯成本地白話。“他們將 [輸入] 轉換為自己的代碼,”Dehaene 說。但細節(jié)并不模糊。事實上,他希望試圖解決人工神經網絡類似問題的 AI 研究人員能夠提供一些線索?!肮ぷ骺臻g更像是一個想法;這幾乎不是一個理論。我們正在努力使其成為一個理論,但它仍然很模糊——工程師們有這種非凡的才能,可以把它變成一個工作系統,“他說。
2021 年,總部位于東京的人工智能公司 Araya 的神經科學家兼創(chuàng)始人金井涼太和另一位跨界進入人工智能的神經科學家、法國圖盧茲大學的 Rufin VanRullen 提出了一種人工神經網絡執(zhí)行翻譯的方法。他們從 Google 翻譯等語言翻譯系統中獲得靈感。這些系統是迄今為止人工智能最令人印象深刻的成就之一。他們可以在不被告知的情況下完成自己的工作,例如,英語中的“l(fā)ove”與法語中的“amour”的含義相同。相反,他們孤立地學習每種語言,然后通過他們的掌握推斷出哪個詞在法語中扮演著與英語中“愛”相同的角色。
假設您用英語和法語訓練兩個神經網絡。每個語言都收集了各自語言的結構,發(fā)展出一種稱為潛在空間的內部表示。從本質上講,它是一個詞云:一張地圖,展示了該語言中單詞的所有關聯,通過將相似的單詞彼此靠近,將不相關的單詞相距較遠的位置來構建。云的形狀很獨特。事實上,這兩種語言的形狀是相同的,因為盡管它們的所有差異,但它們最終指的是同一個世界。您需要做的就是旋轉英語和法語詞云,直到它們對齊。你會發(fā)現 “愛” 與 “amour” 是一致的。“沒有字典,通過查看每種語言的潛在空間中嵌入的所有單詞的星座,你只需要找到正確的旋轉來對齊所有點,”Kanai 說。
因為該程序可以應用于整個段落以及單個單詞,所以它可以處理微妙的含義陰影和在其他語言中沒有直接對應物的單詞。此方法的一個版本可以在不相關的語言(如英語和中文)之間進行翻譯。它甚至可能對動物交流有效。
VanRullen 和 Kanai 認為,該程序不僅可以在語言之間翻譯,還可以在不同的含義和描述模式之間翻譯?!澳憧梢酝ㄟ^獨立訓練圖像處理系統和語言處理系統來創(chuàng)建這樣一個系統,然后實際上你可以通過對齊它們的潛在空間將它們組合在一起,”Kanai 說。與語言一樣,翻譯是可能的,因為系統基本上指的是同一個世界。這種洞察力正是 Dehaene 所希望的:AI 研究如何提供對大腦運作的洞察力的一個例子?!吧窠浛茖W家從未考慮過這種對齊潛在空間的可能性,”Kanai 說。
為了了解這些原則是如何付諸實踐的,Kanai 與現在在高級意識研究所工作的 Arthur Juliani 和 Araya 的 Shuntaro Sasai 合作,研究了 Google DeepMind 在 2021 年發(fā)布的 Perceiver 模型。它旨在將文本、圖像、音頻和其他數據融合到一個公共的潛在空間中;2022 年,谷歌將其整合到一個自動為 YouTube Shorts 編寫描述的系統中。Araya 團隊運行了一系列實驗來探索 Perceiver 的工作原理,發(fā)現雖然它不是故意設計為全局工作區(qū),但它具有一個特征:獨立模塊、在模塊中進行選擇的過程和工作內存 - 工作區(qū)本身。
類似工作空間的想法的一個特別有趣的實現是 AI People,這是一款由布拉格的 AI 公司 GoodAI 創(chuàng)建的類似模擬人生的游戲。我在 2023 年夏天看到的版本設置在一個監(jiān)獄院子里,里面擠滿了罪犯、腐敗的警衛(wèi)和認真的精神科醫(yī)生,但去年發(fā)布的 alpha 版本包括更多和平的場景。游戲使用 GPT 作為角色的大腦。它不僅控制他們的對話,還控制他們的行為和情緒,使他們有一定的心理深度;系統會跟蹤角色是生氣、悲傷還是焦慮,并相應地選擇其行為。開發(fā)人員添加了其他模塊(包括短期記憶形式的全局工作區(qū)),為角色提供一致的心理,并讓他們在游戲環(huán)境中采取行動?!拔覀兊哪繕耸鞘褂么笮驼Z言模型作為引擎,因為它非常好,然后圍繞它構建長期記憶和某種認知架構,”GoodAI 創(chuàng)始人 Marek Rosa 說。
AI 的一項潛在突破性進展來自 Meta 的研究員 Yann LeCun。雖然他沒有直接引用全球工作空間作為靈感,但他在挑戰(zhàn)當前生成模型的霸權——GPT 中的“G”時,走了自己的路,實現了許多相同的想法?!拔艺诔珜Х磳σ恍┎恍业氖悄壳霸?AI/機器學習社區(qū)中非常流行的東西,”LeCun 說?!拔腋嬖V人們:放棄生成模型?!?/p>
生成神經網絡之所以如此命名,是因為它們根據所接觸的內容生成新的文本和圖像。要做到這一點,他們必須對細節(jié)一絲不茍:他們必須知道如何拼寫句子中的每個單詞,以及如何將每個像素放在圖像中。但是,如果說情報有什么不同的話,那就是對細節(jié)的選擇性忽視。因此,LeCun 主張研究人員回到現在不合時宜的“判別性”神經網絡技術,例如用于圖像識別的神經網絡,之所以這樣稱呼,是因為它們可以感知輸入之間的差異——例如,狗與貓的圖片。這樣的網絡不會構建自己的圖像,而只是處理現有圖像以分配標簽。
LeCun 開發(fā)了一種特殊的訓練方案,使判別網絡提取文本、圖像和其他數據的基本特征。它可能無法自動完成一個句子,但它創(chuàng)造了抽象的表示,LeCun 希望這些表示類似于我們自己腦海中的那些。例如,如果你提供一輛汽車在路上行駛的視頻,表示應該捕捉它的品牌、型號、顏色、位置和速度,同時省略瀝青路面的顛簸、水坑上的波紋、路邊草葉上的閃光——除非我們特別注意它,否則我們的大腦會忽略它?!八羞@些不相關的細節(jié)都被消除了,”他說。
這些簡化的表示本身沒有用,但它們實現了一系列對 AGI 至關重要的認知功能。LeCun 將判別網絡嵌入到一個更大的系統中,使其成為一個類腦架構的一個模塊,該架構包括 GWT 的關鍵功能,例如短期記憶和用于協調模塊和確定工作流程的“配置器”。例如,系統可以進行規(guī)劃?!拔疑钍苄睦韺W基礎知識的啟發(fā),”LeCun 說。就像人腦可以運行思想實驗,想象某人在不同情況下的感受一樣,配置器將多次運行判別網絡,列出一系列假設作以找到能夠實現預期結果的作。
LeCun 說,他通常更喜歡避免對意識得出結論,但他提出了一種他所謂的“民間理論”,即意識是配置器的工作,這在他的模型中扮演的角色大致類似于 Baars 理論中工作區(qū)的作用。
如果研究人員成功地在 AI 系統中構建了一個真正的全球工作空間,這會讓他們有意識嗎?Dehaene 認為它會,至少如果與自我監(jiān)控的能力相結合。但巴爾斯對此持懷疑態(tài)度,部分原因是他仍然不完全相信自己的理論?!拔乙恢痹趹岩?GWT 是否真的那么好,”他說。在他看來,意識是一種生物功能,是我們作為生物所特有的。幾年前我采訪富蘭克林時也表達了類似的懷疑。(他于 2023 年去世。他認為,全球工作空間是進化對身體需求的回應。通過意識,大腦從經驗中學習并快速解決復雜的生存問題。他認為,這些能力與 AI 通常應用于的問題類型無關。“你必須有一個具有真實思想的自主代理,并有一個控制結構,”他告訴我?!澳莻€代理必須有某種生活——這并不意味著它不能是一個機器人,但它必須有某種發(fā)展。它不會全面地進入世界。
英國薩塞克斯大學的神經科學家阿尼爾·塞斯 (Anil Seth) 同意這些觀點?!耙庾R不是聰明的問題,”他說?!斑@同樣是活著的問題。無論它們多么聰明,通用的 AI 如果不是活著的,就不太可能有意識。
賽斯并不贊同 GWT,而是贊同一種被稱為預測過程的意識理論,通過這種理論,有意識的存在試圖預測會發(fā)生什么,以便做好準備。“理解有意識的自我始于理解身體控制的預測模型,”他說。Seth 還研究了集成信息理論,該理論將意識與其復雜的網絡結構無關,而不是與大腦的功能相關聯。根據這一理論,意識不是智力的組成部分,但可能是由于生物效率的原因而出現的。
目前,AI 是一個思想豐富的領域,工程師已經有大量潛在客戶需要跟進,而無需從神經科學中導入更多潛在客戶?!八麄冋跉⑺浪备鐐惐葋喆髮W的神經科學家 Nikolaus Kriegeskorte 指出。但大腦仍然是廣義智能的存在證明,并且目前是 AI 研究人員擁有的最佳模型。“人腦有一些工程學尚未征服的技巧,”Kriegeskorte 說。
過去幾十年來對 AGI 的追求讓我們對自己的智能有了很大的了解。我們現在意識到,我們認為簡單的任務(例如視覺識別)對計算要求很高,而我們認為困難的任務(例如數學和國際象棋)實際上是簡單的。我們還意識到,大腦幾乎不需要先天知識;他們通過經驗學習幾乎所有他們需要知道的東西?,F在,通過模塊化的重要性,我們證實了古老的智慧,即沒有一種叫做智能的東西。它是一個能力工具箱——從處理抽象到駕馭社會復雜性,再到適應視覺和聲音。正如 Goertzel 所指出的,通過混合和匹配這些不同的技能,我們的大腦可以在我們以前從未遇到過的領域中取得勝利。我們創(chuàng)造新穎的音樂流派,解決前幾代人甚至無法制定的科學難題。我們踏入未知領域——有一天,我們的人造表親可能會與我們一起邁出那一步。
評論