重磅!我國科學家成功研製全球神經元規模最大的類腦計算機

ai科技評論 發佈 2020-09-03T11:22:09+00:00

這台類腦計算機包含792顆浙江大學研製的達爾文2代類腦晶片,支持1.2億脈衝神經元、近千億神經突觸,與小鼠大腦神經元數量規模相當,典型運行功耗只需要350-500瓦,同時它也是目前國際上神經元規模最大的類腦計算機。

來源 | 浙江大學公眾號

編輯 | 陳彩嫻

近日,浙江大學聯合之江實驗室共同研製成功了我國首台基於自主智慧財產權類腦晶片的類腦計算機(Darwin Mouse)。

這台類腦計算機包含792顆浙江大學研製的達爾文2代類腦晶片,支持1.2億脈衝神經元、近千億神經突觸,與小鼠大腦神經元數量規模相當,典型運行功耗只需要350-500瓦,同時它也是目前國際上神經元規模最大的類腦計算機。

與此同時,團隊還研製了專門面向類腦計算機的作業系統——達爾文類腦作業系統(DarwinOS),實現對類腦計算機硬體資源的有效管理與調度,支撐類腦計算機的運行與應用。

圖註:類腦計算機。1.6米高的三個標準機櫃並排而立,黑色的外殼給人酷酷的感覺,紅色的信號燈不停地閃爍,靠得近些似乎能聽到裡面脈衝信號飛速奔跑的聲音。

1 顛覆傳統的計算模式

對於如今在工作生活各個領域中早已司空見慣的計算機,或許大家已經忘了:最初科學家是想通過機器模擬出一個人類大腦。

然而計算機的發展,在當時選擇了以數值計算見長的馮·諾依曼架構,也就是以數字加減乘除的方式來進行信息架構。隨著摩爾定理逐漸失效,馮·諾依曼架構帶來的局限日益明顯,存儲牆、功耗牆、智能提升等問題,讓當前計算機發展面臨重大挑戰。

比如,存儲牆問題是由於現有的馮·諾依曼架構中數據儲存和計算的分離產生的。「這就好比信息存儲在甲地,要計算的時候就把信息搬到乙地去,計算好了再搬回甲地去。但搬運的速度要遠遠低於計算的速度,反而讓搬運本身成為關鍵瓶頸。」研究團隊負責人、浙江大學計算機科學與技術學院教授潘綱說,這種計算模式制約了以大數據為代表的計算性能提升。

而由此帶來的數據「跑動」,以及人工智慧等高耗能計算又讓功耗牆問題冒了出來。同時,數據驅動的智能算法、訓練需要海量樣本與密集計算,但舉一反三、自我學習等高級能力比較差,「現在的機器智能離人的智能差得還很遠。」

(研究人員在討論)

如何突破現有計算運行方式導致的計算機瓶頸?

全球科學家們再次將目光瞄準到模仿生物大腦這個最初的夢想,通過模擬人腦結構與運算機制來發展新的計算技術,以期實現高能效與高智能水平的計算。

生物大腦在與環境相互作用過程中能夠自然產生不同的智能行為,包括語音理解、視覺識別、決策任務、操作控制等,而且消耗的能量非常低。自然界中,很多神經元遠低於100萬的昆蟲就能做到實時目標跟蹤、路徑規劃、導航和障礙物躲避。

(類腦計算機應用演示:嗅覺識別)

潘綱介紹說,用硬體及軟體模擬大腦神經網絡的結構與運行機制,構造一種全新的人工智慧系統,這種顛覆傳統計算架構的新型計算模式,就是類腦計算。其特點在於存算一體、事件驅動、高度並行等,是國際學術界與工業界的研究焦點,更是重要的科技戰略,「類腦計算已被看作是解決人工智慧等計算難題的重要路徑之一。」

近年來,浙江大學聚焦人類智能與機器智能等核心領域,實施了簡稱為「雙腦計劃」的腦科學與人工智慧會聚研究計劃,希望借鑑腦的結構模型和功能機制,將腦科學的前沿成果應用到人工智慧等研究領域,建立引領未來的新型計算機體系結構。

2015年和2019年,浙江大學分別研製成功達爾文1代和達爾文2代類腦計算晶片,用晶片去模擬大腦神經網絡的結構與功能機制,在圖像、視頻、自然語言的模糊處理中具有優勢。而這次的成果是將792顆我國自主產權的達爾文2代類腦計算晶片集成在3台1.6米高的標準伺服器機箱中,形成了一台強大的機架式類腦計算機。

那麼,這種高效能低功耗是如何實現的呢?項目研究骨幹馬德副教授說,大腦神經元的工作機理是鉀離子鈉離子的流入流出導致細胞膜電壓變化,從而傳遞信息,「可以簡單理解為,一個神經元接受輸入脈衝,導致細胞體的膜電壓升高,當膜電壓達到特定閾值時,會發出一個輸出脈衝到軸突,並通過突觸傳遞到後續神經元從而改變其膜電壓,實現信息的傳遞。」

這裡很重要的一點是異步運行,也就是信號來的時候啟動,沒有信號就不運行。類腦晶片的工作原理就類似於生物的神經元行為,通過脈衝傳遞信號,這樣就能實現高度並行,效率提升。

(腦機交互演示)

2 讓機器像人腦一樣「思考」

有了硬體,還得有軟體。

項目研究骨幹金孝飛介紹,每顆晶片上有15萬個神經元,每4顆晶片做成一塊板子,若干塊板子再連接起來成為一個模塊。這台類腦計算機就是這樣像搭積木一樣搭起來。

說起來容易,可要讓這麼多神經元能夠互聯並且可拓展從而實現高效的聯動組合,同時要把雜亂無章的信息流有序分配到對應的功能腦區,可不那麼簡單。

為此,科研人員專門研發了一個面向類腦計算機的類腦作業系統——DarwinOS。

這款達爾文類腦作業系統面向馮·諾依曼架構與神經擬態架構的混合計算架構,實現了對異構計算資源的統一調度和管理,為大規模脈衝神經網絡計算任務提供運行和服務平台。項目研究骨幹呂攀介紹說:「目前達爾文類腦作業系統的功能任務切換時間達微秒級,可支持億級類腦硬體資源管理。」

由此,類腦計算機研究的價值真正得以實現——既可以應用於生活中的智能任務處理,也可以應用於神經科學研究,為神經科學家提供更快更大規模的仿真工具,提供探索大腦工作機理的新實驗手段。

(類腦計算機應用演示:意念打字)

目前,浙江大學與之江實驗室的科研人員基於Darwin Mouse類腦計算機已經實現了多種智能任務。研究者將類腦計算機作為智能中樞,實現抗洪搶險場景下多個機器人的協同工作,涉及到語音識別、目標檢測、路徑規劃等多項智能任務的同時處理,以及機器人間的協同。

同時,還用類腦計算機模擬了多個不同腦區,建立了丘腦外側膝狀核的神經網絡模型,仿真了不同頻率閃動的視覺刺激時該腦區神經元的周期性反應;借鑑海馬體神經環路結構和神經機制構建了學習-記憶融合模型,實現音樂、詩詞、謎語等的時序記憶功能;實現了腦電信號的穩態視覺誘發電位實時解碼,可「意念」打字輸入。

(類腦計算機應用演示:多機器人協同抗洪搶險)

記者在實驗現場看到,3台外形相似的機器人,在經過簡單的訓練後,合作開展抗洪救險任務。只見1號機器人憑藉自帶攝像頭開始在場地巡邏,當發現堤壩缺口後,就呼叫負責工程的3號機器人前來修壩,同時搜尋受傷人員,當發現倒在地上的人體模型後,又呼叫負責救援的2號機器人。3號機器人和2號機器人趕來執行任務,1號機器人又去別的地方巡邏了。

(類腦計算機應用演示:多機器人協同抗洪搶險)

這一幕似乎並不新鮮,現有的機器人也能做到。但最大的不同在於這幾個機器人是在類腦計算機的控制下通過語音開展移動指令,並接受任務分配。「不同機器人的任務可以通過指令切換,也就是說它們的功能並不是固定的,而是通過不同腦區來操控的,1號機器人現在干巡邏的活,過會又可以變成負責救援或者工程。」項目研究骨幹李瑩副教授說。

在另一個實驗場景中,課題組成員給計算機演唱一首歌其中的兩句,然後,計算機就能通過回想把後續的歌曲內容「唱」出來。

「這是類腦計算機通過模擬海馬體記憶機制,實現對大腦內部記憶信息的存取,與我們常用的檢索功能不同。」項目研究骨幹唐華錦教授說,Darwin Mouse類腦計算機通過借鑑海馬體網絡結構以及神經機制建立記憶模型架構,可以模擬海馬體的記憶-學習功能,通過記憶的脈衝編碼,同一模型就可以學習與記憶語音、歌曲、文本等不同類型數據。

(類腦計算機應用演示:模擬海馬體的記憶回想)

3 類腦計算機將如何「進化」

1946年誕生的世界第一台計算機重達28噸,運算速度為每秒5000次的加法運算,然而在以後的70多年裡,計算機技術飛速發展。類腦計算機的發展速度很有可能也會令人驚訝。

別看現在的類腦計算機是個「大塊頭」,科學家們表示,隨著達爾文晶片及其他硬體的不斷疊代升級,體積縮小將指日可待。未來類腦計算機或將植入手機、機器人,產生新的智能服務體驗。

與硬體上的更新相比,如何讓類腦計算機變得更聰明是科學家們下一步研究的重點。

目前,市面上的傳感器輸入的信號還是以數字為主,在應用到Darwin Mouse類腦計算機上,要加一個編碼層,將信號轉換為脈衝式的,而在這個過程中,信息有丟失和損傷,會在一定程度上降低計算機的功效。如果能解決這個問題,類腦計算機就能變得更加智能。

當前,類腦計算研究還處於初級階段,Darwin Mouse類腦計算機,無論從規模還是智能化程度上都與真正的人類大腦還有很大的差距,但其意義在於能夠為這種技術路徑提供一個重要的實踐樣例,為研究人員提供一個工具和平台,驗證類腦算法,以更強的魯棒性、實時性和智能化去解決實際的任務。

浙江大學和之江實驗室研究員的目標是,希望隨著神經科學發展和類腦計算機的系統軟體、工具鏈及算法的成熟,有朝一日能夠讓類腦計算機像馮·諾依曼架構計算機一樣通用化,真正像大腦一樣高效工作,與馮·諾依曼架構並存與互補去解決不同的問題。

一位業內人士表示,從加減乘除這樣的數值計算方式,到模擬大腦的脈衝計算方式,這是一次重要的計算模式的變革。潘綱說:「我們希望能夠像生物進化一樣,不斷地讓達爾文系列類腦計算機朝著人類智能的方向發展,以超低功耗提供更強的人工智慧。」

關鍵字: