2024-03-29T06:27:36Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:001470322023-04-27T10:00:04Z01164:02036:08446:08447
大脳皮質モデルBESOMのGPGPUによる並列化GPGPU parallelization of a cerebral cortex model BESOMjpnGPU http://id.nii.ac.jp/1001/00146999/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=147032&item_no=1&attribute_id=1&file_no=1Copyright (c) 2016 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.産業技術総合研究所産業技術総合研究所/株式会社創夢産業技術総合研究所中田, 秀基井上, 辰彦一杉, 裕志大脳皮質モデル BESOM は,最新の神経科学的な知見に基づき,大脳皮質をベイジアンネットによってモデル化したものである.BESOM における学習,認識には確率伝搬法の反復計算が必要なため計算量が大きく,並列化による実行速度向上が必須である.一般に機械学習機の並列化手法としてはモデル間並列とモデル内並列が考えられるが,本稿ではモデル内並列化を GPGPU で実現した技法について報告する.データ構造の見直しによる GPGPU によるモデル内並列化と,ミニパッチ学習化による並列化を併用することで約 50 倍の速度向上を得た.We have been proposing a computational model of the cerebral cortex called BESOM, that models the cerebral cortex as Bayesian network based on recent findings in the neuroscience area. BESOM requires a compute intensive process called belief propagation for recognition and learning. Hence, parallelization is mandatory for practical application of BESOM. In general, there are two ways to parallelize machine learning system; i.e. intermodel parallelization and intra-model parallelization. We already implemented and reported the former. This paper addresses the latter; intra-model parallelization of BESOM. Using GPGPU and mini-batch method, we could achieve around 50 times speed-up compared with single thread CPU implementation.AA11451459研究報告システムとLSIの設計技術(SLDM)2016-SLDM-1746162016-01-122188-86392015-12-28