@techreport{oai:ipsj.ixsq.nii.ac.jp:00079271, author = {松本, 幸 and 安達, 知也 and 田中, 稔 and 住元, 真司 and 曽我, 武史 and 南里, 豪志 and 宇野, 篤也 and 黒川, 原佳 and 庄司, 文由 and 横川, 三津夫 and Yuki, Matsumoto and Tomoya, Adachi and Minoru, Tanaka and Shinji, Sumimoto and Takeshi, Soga and Takeshi, Nanri and Atsuya, Uno and Motoyoshi, Kurokawa and Fumiyoshi, Shoji and Mitsuo, Yokokawa}, issue = {6}, month = {Nov}, note = {本報告では,8 万台以上のノードを直接網で結合した 「京」 における MPI 集団通信の高速化について述べる.従来の MPI 集団通信アルゴリズムは,間接網向けのアルゴリズムが主体であり,これを直接網に適用してもメッセージの衝突のため効率的な通信ができない.このため,高い通信性能を得るためには直接網を意識した集団通信アルゴリズムが必須となる.そこで我々は,トーラス向け Allreduce アルゴリズム Trinaryx3 Allreduce を設計し,「京」 向けの MPI ライブラリに実装した.Trinaryx3 Allreduce は,「京」 の特長である複数 RDMA エンジンを同時に活用することができる.実装を評価した結果,既存の間接網向けアルゴリズムと比較して,5 倍程度バンド幅が向上することを確認した., This paper reports a method of speeding up MPI collective communication on the K computer, that consists of more than 80 thousand computing nodes connected by direct network. Almost all existing MPI libraries only implement algorithms optimized for indirect network. However, such algorithms perform poor on direct network because of collisions of the messages. Thus, in order to achieve high performance on direct network, it is necessary to implement collective algorithms optimized for the network topology. In this paper, Trinaryx3 Allreduce algorithm is designed and implemented in the MPI library for the K computer. The algorithm is optimized for torus network and enables utilizing multiple RDMA engines, one of the strengths of the K computer. The evaluation result shows that the new implementation achieves five times higher bandwidth than existing one, optimized for indirect network.}, title = {MPI_Allreduceの「京」上での実装と評価}, year = {2011} }