@techreport{oai:ipsj.ixsq.nii.ac.jp:00203871, author = {渡辺, 紘生 and 大上, 雅史 and 秋山, 泰 and Hiroki, Watanabe and Masahito, Ohue and Yutaka, Akiyama}, issue = {3}, month = {Mar}, note = {生命現象の解明や医薬品設計の高速化へ貢献するため,我々は網羅的なタンパク質間相互作用予測ソフトウェア MEGADOCK を開発している.本研究では MEGADOCK を対象として,マルチノード・マルチ GPU 上での効率的な予測計算実行を可能とするための,効率的なノード間タンパク質ペア分配スケジューリング手法を提案し実装した.提案スケジューリング手法を導入した MEGADOCK を用いて,東工大 TSUBAME 3.0 128 ノードでの 211,600 件の大規模なタンパク質間相互作用予測計算を行った結果,4ノードを基準として強スケーリング 98.5% を達成した.また,産総研 AI 橋渡しクラウド (ABCI) 512 ノードでの 1,322,500 件の超大規模なタンパク質間相互作用予測計算の結果,16 ノードを基準として強スケーリング 96.7% を達成した., In order to contribute to accelerating elucidation of biological phenomena and drug discovery, we are developing MEGADOCK, a software for exhaustive protein-protein interaction (PPI) prediction. In this study, for the sake of efficient use of large-scale HPC enviroments that has a large number of computation nodes and GPUs, we proposed and implemented new scheduling methods of target protein pairs, which we newly introduced to MEGADOCK. For evaluating parallel performance of MEGADOCK with proposed scheduling methods, We conducted a large-scale PPI prediction calculations in which we use 211,600 target protein pairs on TSUBAME 3.0 and 98.5% parallel efficiency of strong scaling (vs. 4 nodes) was achieved at 128 nodes. We also conducted an ultra-large-scale PPI prediction calculations in which we use 1,322,500 target protein pairs on AI Bridging Cloud Infrastructure (ABCI) and 96.7% parallel efficiency of strong scaling (vs. 16 nodes) was achieved at 512 nodes.}, title = {マルチノード・マルチGPU上での網羅的なタンパク質間相互作用予測の高速化}, year = {2020} }