@article{oai:ipsj.ixsq.nii.ac.jp:00142339,
 author = {島田, 明男 and 堀, 敦史 and 石川, 裕 and Akio, Shimada and Atsushi, Hori and Yutaka, Ishikawa},
 issue = {2},
 journal = {情報処理学会論文誌コンピューティングシステム(ACS)},
 month = {Jun},
 note = {近年,HPCシステムを構成するノード1台あたりのコア数は飛躍的に増加してきている.一方で,1コアあたりのメモリ量は減少する傾向にある.Partitioned Virtual Address Space(PVAS)は,このようなメニーコア環境において,効率的に並列処理を行うための新たなタスクモデルである.PVASタスクモデルを用いると,並列処理を行うノード内のプロセス群を同一アドレス空間で動作させることが可能になるため,アドレス空間越しにデータを送受信するためのコストを払うことなく,プロセス間でノード内通信を実行することができる.本研究では,PVASタスクモデルをMessage Passing Interface(MPI)に適用することで,高速かつメモリ消費量の少ない,よりメニーコア環境に適したMPIノード内通信を実現できることを示す.PVASタスクモデルを利用したMPIノード内通信を実装し,NAS Parallel Benchmarksにより評価したところ,既存のMPIノード内通信の実装と比べて最大で約18%,実行性能が改善された.また,Intel MPI Benchmarksによって,MPIノード内通信のメモリ消費量を測定したところ,最大で約264MB,メモリ消費量を削減することができた., Recently, number of cores in an HPC system node grows rapidly. Meanwhile, the amount of per-core memory resources seems to be limited. Partitioned Virtual Address Space (PVAS) is a new task model, which enables efficient parallel processing in such many-core environments. The PVAS task model allows multiple processes to run in the same address space, which means that processes running on the PVAS task model can conduct intra-node communication without incurring extra costs when crossing address space boundaries. In this paper, the PVAS task models is applied to Message Passing Interface (MPI), and many-core friendly MPI intra-node communication, which can conduct fast communication with small memory footprint, is proposed. The benchmark results show that the MPI intra-node communication proposed in this paper improves MPI application performance by up to 18%. Moreover, the memory footprint for MPI intra-node communication is decreased by up to 264MB.},
 pages = {36--54},
 title = {新しいタスクモデルによるメニーコア環境に適したMPIノード内通信の実装},
 volume = {8},
 year = {2015}
}