3月28日,日本理化學研究所日前宣布,他們的一個國際聯合研究小組成功開發出模擬人腦整體神經電路的算法,可在下一代超級計算機上應用。新算法不僅節省內存,也能大幅提高現有超級計算機上的腦模擬速度。
神經細胞是可發出電信號進行信息交換的特殊細胞,人類大腦中約為160億個,小腦中約為690億個,整個人腦約有860億個神經細胞。神經細胞通過突觸連接形成復雜的網絡,但目前,即使利用最先進的超級計算機也無法模擬人腦整體規模的神經細胞電信號交換。
為了模擬大腦,需要預先創建神經細胞和突觸虛擬內存。在模擬中,所有神經細胞的電信號被發送到每個計算節點,并判斷哪個電信號應該被遞送到哪個神經細胞。在可模擬的大腦范圍,這種方法利用目前的超級計算機效率較高。
下一代超級計算機模擬的大腦范圍非常巨大,當每個計算節點接收到所有神經細胞的電信號時,無用的電信號比例大且效率低,因此對整個大腦神經電路的模擬變得非常困難。此外,下一代超級計算機使用目前的方法,也會造成內存消耗大等問題。
研究小組此次開發的新算法,在模擬開始時即交換信息,來判斷在計算節點之間是否需要預先發送電信號,因而可以只發送和接收每個計算節點所需的電信號,避免了發送和接收無用信號,同時也避免了讓內存判斷是否發送電信號給神經細胞。通過這些手段,即使神經電路的規模增加,每個計算節點的內存量也不會增加,由此節省了內存。
迄今為止,超級計算機“京”已被用于帕金森氏病的腦病理學模擬。今后將通過下一代超級計算機“后京”模擬整個人腦神經電路,以期闡明運動控制及思維的信息處理機制。
-
算法
+關注
關注
23文章
4624瀏覽量
93119 -
超級計算機
+關注
關注
2文章
464瀏覽量
41973
原文標題:新算法可模擬人腦整體神經電路
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
丹麥推出首臺AI超級計算機Gefion
NVIDIA助力丹麥發布首臺AI超級計算機
借助NVIDIA超級計算機加速量子計算發展
計算機視覺技術的AI算法模型
人腦芯片是什么?植入人腦神經元的芯片能做什么?
計算機視覺的工作原理和應用
計算機視覺屬于人工智能嗎
神經網絡芯片和普通芯片區別
神經網絡反向傳播算法的優缺點有哪些
富士通使用富岳超級計算機訓練LLM
計算機視覺的十大算法
![<b class='flag-5'>計算機</b>視覺的十大<b class='flag-5'>算法</b>](https://file.elecfans.com/web2/M00/4E/DC/poYBAGLCjeiALm_WAAAYmfR7Qec474.png)
評論