WEKO3
アイテム
MPC++ Multi - Thread Template LibraryのMPIによる実装と性能評価
https://ipsj.ixsq.nii.ac.jp/records/29543
https://ipsj.ixsq.nii.ac.jp/records/29543474ca074-6c73-4a42-88b1-936165d65c1c
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 1999 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 1999-08-02 | |||||||
タイトル | ||||||||
タイトル | MPC++ Multi - Thread Template LibraryのMPIによる実装と性能評価 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Implementing and Evaluating the MPC++ Multi - Thread Template Library on Multiple MPI Platforms. | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
東京工業大学情報理工学研究科数理・計算科学専攻 | ||||||||
著者所属 | ||||||||
新情報処理開発機構 | ||||||||
著者所属 | ||||||||
東京工業大学情報理工学研究科数理・計算科学専攻 | ||||||||
著者所属 | ||||||||
東京工業大学情報理工学研究科数理・計算科学専攻 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Real World Computing Partnership | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者名 |
栄, 純明
× 栄, 純明
|
|||||||
著者名(英) |
Yoshiaki, Sakae
× Yoshiaki, Sakae
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 並列言語MPC++は新情報処理開発機構で開発されたクラスタシステムソフトウェアであるSCore以外の環境では利用できなかった.我々はプラットホームポータビリティのために,通信レイヤにMPIを用いてMPC++を実装したが,MPIの特性はプラットホーム毎に異なるため,性能の可搬性が問題となる.測定の結果データサイズが8Kbytes以上の時には通信のオーバヘッドは無視できることが分かった.さらにNas Parallel BenchmarksのCGカーネルベンチマークでは,ノード数が少ないときにはMPC++on MPIで書かれたものがMPIで書かれたものに性能面で迫る.しかしノード数が増加すると,ネットワーク性能の低いコモディティプラットホームでは性能が著しく低下するのに対し,高速なネットワークを持つMPP上と,高性能なネットワークを持ったコモディティプラットホーム上ではスケールした.この結果MPC++on MPIは高性能なネットワークを持ったプラットホーム上ではその有効性が確認できたが,コモディティネットワークに対しては更なる最適化が必要であることが分かった. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Our parallel programming language MPC++ has been only available on the SCore cluster system software developed at the Real World Computing Partnership. In order to achieve better portability amongst multiple platforms, the scope or MPC++ is being widened via implementation using MPI as the underlying communication layer. This brings up the question of applicability, since MPI performance varies considerably on different platforms. Our evaluation results show that the communication overhead is negligible when the data size is larger than 8 Kbytes. Furthermore, the CG kernel benchmark of Nas Parallel Benchmarks written in MPC++ using MPI achieves a comparable speed to one written in MPI when the number of nodes are small. However, increase in the number of nodes causes severe loss of performance for commodity platforms with low network performance, while it continues to scale well on those with high-performance networks, as well as MPIs on MPPs with fast communication infrastructure. These results suggest that, although MPC++ on MPI is viable on high-performance platforms, we need further research on optimizing for commodity networks. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10463942 | |||||||
書誌情報 |
情報処理学会研究報告ハイパフォーマンスコンピューティング(HPC) 巻 1999, 号 66(1999-HPC-077), p. 41-46, 発行日 1999-08-02 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |