人類大腦是如何學習的?想要全面地回答這個問題並不容易。
人腦是目前已知最複雜的神經網路,也是唯一能夠實現複雜認知功能的器官,它的神經元多達數百億個,並且每個神經元都與數千乃至上萬個其他神經元形成連線網路。
儘管科學家們一直在努力探索,但迄今為止人們對大腦的功能和訊號傳遞機制尚未完全明晰。
美國著名物理學家理查德·費曼(Richard Feynman)曾說過,“如果我不能創造它,我就不能理解它(If I cannot create,I do not understand)。”
為進一步理解大腦的工作原理,復旦大學馮建峰教授團隊構建了一個全人腦尺度大腦模擬平臺數字孿生腦(DTB,Digital Twin Brain),首次在世界上實現了對 860 億神經元和百萬億突觸的具有生物已知結構的模擬。
數字孿生腦是透過計算機或晶片來實現的虛擬大腦,它能夠幫助研究人員理解資訊如何在大腦中傳播和處理的過程。
大腦在臨界點附近的動態行為,被認為是其認知功能的關鍵時空特性,這與大模型中經常提到的 Scaling Law(縮放定律)有“異曲同工之妙”。
研究人員發現,DTB 在規模與結構方面越接近人類大腦時,其在功能上表現出的現象也更接近真實人腦的認知功能。
當神經元數量達到 50 億以上規模時,會在數字孿生腦中觀察到人腦智慧的湧現特徵。
該研究有望為腦疾病的診療提供更好的策略,為生物實驗提供平臺,以及為發展類腦 AI 提供新的工具和理念。
ARM 處理器硬體微型體系架構原創者、英國曼徹斯特大學斯蒂芬·B·弗伯(Stephen B. Furber)教授對該研究評價稱:“我已經深入瞭解了 DTB 團隊的工作,他們有著很大的目標,透過基於生物資料的全腦計算模型的模擬和整合來探索類腦智慧。”
在英國倫敦大學學院卡爾·J·弗里斯頓(Karl J. Friston)教授看來,DTB 是“全球計算神經科學和生物資訊學領域最全面、技術原則最嚴謹和最重要的工作之一”。
日前,相關論文以《透過模仿大腦休息和執行任務狀態的類腦計算:擴充套件和架構》(Imitating and exploring human brains resting and task-performing states via resembling brain computing: scaling and architecture)為題,以期刊封面形式發表在National Science Review[1]。
復旦大學盧文聯教授是第一作者,馮建峰教授擔任通訊作者。
解決 243 萬 Gbit 每秒海量資訊傳遞擁堵問題
據悉,該研究由 20 多名成員組成的交叉團隊共同完成,包括數學、神經科學、計算機科學等。自 2018 年底,他們開始對數字孿生腦進行探索,整個研究經歷了近 6 年時間。
歐盟“未來新型旗艦技術專案人類腦計劃”首席科學家、法國艾克斯-馬賽大學維克托·吉爾薩(Viktor Jirsa)教授指出,模擬具有 860 億個神經元的人腦,並處理與動力學和引數空間相關的複雜性,是數學和計算機科學本身所面臨的一個挑戰。
在計算科學方面,想實現模擬如此大規模的神經元,首先需要解決神經元之間通訊量的挑戰。據課題組估算,860 億個神經元之間的通訊量相當於中國所有無線通訊總量的 30 倍。
為了解決該問題,研究人員使用了 14012 張圖形處理器(GPU,Graphics Processing Unit),最大程度為計算的可靠性和準確性提供保障。
透過使用高效能計算系統和設計最佳化路由,改進了神經元組的分佈,從而解決了 243 萬 Gbit 每秒海量資訊傳遞的擁堵問題。
在數學方面,如何準確地估計神經元之間的連線權重,使得數字孿生腦的訊號與人腦的訊號儘可能相似,是研究中的關鍵難題之一。
英國皇家學會院士、2024 年諾貝爾物理學獎得主傑弗裡·辛頓(Geoffrey Hinton)此前在接受《麻省理工科技評論》採訪時曾指出,人腦的突觸引數高達 100 萬億,比 GPT-3 的引數量(1750 億個)還高出 1000 倍 [2]。
研究人員使用資料同化方法,從有限的資料中估計出神經元之間的連線權重。“這種方法使我們能夠將數字孿生腦的訊號與人腦靜息態訊號之間的相似度提高到 93% 以上。”馮建峰說。
除了數學和計算科學上的挑戰,該研究在生物學方面也經歷了技術攻關。在靜息狀態下,數字孿生腦與大腦活動的高相似度是在大腦處於完全放鬆、不做任何事情的狀態下實現的。
當要求大腦執行具體任務,例如對某個影象進行評分或表達喜好時,情況會變得更復雜。
這時,大腦需要與外界環境進行互動,接收輸入資訊(如視覺影象)。因此生物學方面的挑戰在於,如何將這些環境輸入有效地傳遞給數字孿生腦,使其能夠模擬人腦與環境的互動。
馮建峰表示,這不僅要模擬大腦在靜息狀態下的活動,還要模擬大腦在執行具體任務時的活動。
其涉及到大腦如何利用環境資訊來執行任務,即從“不做任何事情”到“做某件事情”的轉變,還涉及到對大腦功能更深層次的理解。
研究人員不僅整合了豐富的生物學知識,還利用課題組透過掃描技術獲得的大腦內部連線情況的實驗資料,以及神經元數量等詳細資訊。
他們運用逆向工程計算方法,以確保模擬出的神經元活動模式能夠反映真實的大腦訊號。
為發展類腦 AI 提供新工具
在全球範圍內,虛擬腦孿生專案 EBRAINS 與該課題組構建的數字孿生腦平臺類似,但前者只在宏觀的腦區水平實現了全腦模擬。
馮建峰表示:“我們的模型跨越了宏觀、介觀和微觀世界,實現了模擬包括神經元之間的精細連線在內的大腦複雜結構,並達到了神經元水平。”
數字孿生腦平臺有望在以下三個領域發揮重要作用,具體來說:
第一,作為醫學平臺用於模擬各種複雜的腦疾病,如腦腫瘤、腦卒中、抑鬱症、精神分裂症、老年痴呆症等,從而幫助研究人員深入理解相關疾病的發病機制,併為治療方法的開發提供新思路。
馮建峰指出,透過數字孿生腦模擬患者的大腦活動,來預測腦腫瘤的生長速度,可為手術或干預的最佳時機的選擇提供依據。
據悉,目前研究人員基於數字孿生腦技術,已在 6 名抑鬱症患者的腦組織上進行試驗。透過對比模擬結果與實際大腦中的訊號,在抑鬱症患者的腦組織中模擬訊號的準確性能達到 90% 以上。
第二,作為生物平臺,對斑馬魚(約 10 萬個神經元)、小鼠(約 7000 萬個神經元)、猴子(超過 60 億個神經元)的大腦進行模擬,從而替代部分真實的生物實驗,減少對動物的傷害,有望用於藥物研發等生物科學領域。
例如,在研究中為模擬大腦的內感受迴路,驗證靜息狀態活動反映內部身體狀態的假設。研究人員發現,去除從初級視覺皮層到下游視覺通路的連線會顯著降低模型與生物大腦在海馬體的相似性,而對整個大腦的影響較小。
第三,作為通用人工智慧平臺,為開發類腦 AI 系統提供重要參考。
AI 的發展在很大程度上受人腦結構和功能研究的啟發。透過模仿大腦的工作原理,AI 技術在許多方面取得了顯著的進步,例如神經網路的設計、深度學習演算法的開發以及等領域。
實現通用人工智慧是人類未來的目標之一,如果能夠精確地模擬人腦處理資訊的方式,有望透過揭示其背後的機制,指導人們加速發展通用人工智慧。
馮建峰指出,隨著技術的發展,未來人們或許會擁有三種類型的計算機。
一種是傳統計算機,用於日常計算任務和資料處理;另一種是量子計算機,用來幫助加速計算;還有一種是類腦計算機,能夠幫助人類做出更加智慧的決策。
終極科學夢想:真正地理解人腦
馮建峰教授本科畢業於北京大學數學系,並在該校機率統計係獲得碩士和博士學位。“我是學數學出身的,後來對生物產生了興趣,三十多年來,我一直用數學方法研究神經科學。”馮建峰表示。
他是在全球頂級 AI 會議神經資訊處理系統大會(NeurIPS,Conference on Neural Information Processing Systems)上發表論文的首位中國學者。
1994 年,馮建峰在 NeurIPS 發表重要論文,對無監督學習規則 Hebbian 學習進行分析,為理解神經網路中的學習規則提供了重要的理論基礎。
此前,他曾在英國華威大學計算機科學系擔任講席教授。2015 年起,馮建峰擔任復旦大學類腦智慧科學與技術研究院院長,目前,他還擔任上海數學中心首席教授兼任復旦大學大資料學院院長。
數字孿生腦平臺的開發是向理解人腦邁出重要的一步,但馮建峰也指出,“我們的模擬速度比人腦正常執行速度慢 70 倍,因此我們在計算模擬方面還有很大的提升空間。”
未來,該課題組希望透過擴大模擬規模和提高模擬精度,模擬超過人腦神經元數量(例如 1000 億神經元),探索超腦中可能出現的各種新現象,以增進對大腦功能和智慧行為的理解。
目前,研究人員也在探索利用數字孿生腦平臺對人腦過去狀態和未來可能出現的變化進行模擬,從而幫助理解大腦的工作原理和發育過程。
“現在我們也在探索將數字孿生腦安裝在機器人上,真正地與環境發生作用的效果,以確定在自動駕駛等工業界應用的可能性。”馮建峰表示。
在該研究中另一個不可忽視的問題是,需要龐大計算資源的支援。因此,他們計劃在下個研究階段與斯蒂芬·B·弗伯(Stephen B. Furber)教授共同探索在神經形態超級計算機 SpiNNaker2 實現人腦模擬的可能性,硬體晶片的使用有望降低計算資源。
展望未來,該團隊希望將數字孿生腦開放為公共平臺,讓全球的科學家都可以用起來。“腦科學是科學領域中最後的堡壘,而真正地理解人腦是我們的終極目標。”馮建峰說。
參考資料:
1.Lu,W. et al. Imitating and exploring human brains resting and task-performing states via resembling brain computing: scaling and architecture.National Science Review11: 080(2024). https://doi.org/10.1093/nsr/nwae080
2.https://www.technologyreview.com/2020/11/03/1011616/ai-godfather-geoffrey-hinton-deep-learning-will-do-everything/
排版:劉雅坤、何晨龍