ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. 先進的計算基盤システムシンポジウム(SACSIS)
  4. 2012

「京」のためのMPI通信機構の設計

https://ipsj.ixsq.nii.ac.jp/records/82203
https://ipsj.ixsq.nii.ac.jp/records/82203
e606adbe-8624-41b8-bf4a-b2d9d2a33100
名前 / ファイル ライセンス アクション
IPSJ-SACSIS2012062.pdf IPSJ-SACSIS2012062.pdf (1.2 MB)
Copyright (c) 2012 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2012-05-09
タイトル
タイトル 「京」のためのMPI通信機構の設計
タイトル
言語 en
タイトル The Design of MPI Communication Facility for K computer
言語
言語 jpn
キーワード
主題Scheme Other
主題 HPCシステム
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
富士通
著者所属
富士通
著者所属
富士通
著者所属
富士通
著者所属
富士通
著者所属
理化学研究所
著者所属
理化学研究所
著者所属
理化学研究所
著者所属
理化学研究所
著者所属(英)
en
FUJITSU
著者所属(英)
en
FUJITSU
著者所属(英)
en
FUJITSU
著者所属(英)
en
FUJITSU
著者所属(英)
en
FUJITSU
著者所属(英)
en
RIKEN
著者所属(英)
en
RIKEN
著者所属(英)
en
RIKEN
著者所属(英)
en
RIKEN
著者名 住元, 真司 川島, 崇裕 志田, 直之 岡本, 高幸 三浦, 健一 宇野, 篤也 黒川, 原佳 庄司, 文由 横川, 三津夫

× 住元, 真司 川島, 崇裕 志田, 直之 岡本, 高幸 三浦, 健一 宇野, 篤也 黒川, 原佳 庄司, 文由 横川, 三津夫

住元, 真司
川島, 崇裕
志田, 直之
岡本, 高幸
三浦, 健一
宇野, 篤也
黒川, 原佳
庄司, 文由
横川, 三津夫

Search repository
著者名(英) Shinji, Sumimoto Takahiro, Kawashima Naoyuki, Shida Takayuki, Okamoto Kenichi, Miura Atsuya, Uno Motoyoshi, Kurokawa Fumiyoshi, Shouji Mitsuo, Yokokawa

× Shinji, Sumimoto Takahiro, Kawashima Naoyuki, Shida Takayuki, Okamoto Kenichi, Miura Atsuya, Uno Motoyoshi, Kurokawa Fumiyoshi, Shouji Mitsuo, Yokokawa

en Shinji, Sumimoto
Takahiro, Kawashima
Naoyuki, Shida
Takayuki, Okamoto
Kenichi, Miura
Atsuya, Uno
Motoyoshi, Kurokawa
Fumiyoshi, Shouji
Mitsuo, Yokokawa

Search repository
論文抄録
内容記述タイプ Other
内容記述 本論文では82,944ノードの「京」上で使用メモリ量を極小化しながらMPI通信性能を高める通信機構の設計について述べる。「京」が採用したTofuインタコネクトは数十万ノードクラスのシステムで高い性能と耐故障性を実現するため直接網である6次元トーラス・メッシュ網を採用している。しかし、超大規模の直接網システムでは、通信ホップ数増加とネットワーク網でのメッセージ衝突による通信遅延の増加による通信性能の低下、ならびに、ノード数に比例して必要な使用メモリ量の増加が課題となる。この課題を解決するため、RDMA通信を主体とし、通信バッファが必要な通信は隣接通信などよく利用される通信経路に絞る、遅延が大きな場合は省メモリ性を重視する通信方式やアルゴリズムを採用している。これらの設計により、「京」のMPIライブラリにおいては、使用メモリを抑制しながら、MPI通信遅延1.27us,MPIバンド幅4.7GB/sを達成している。集団通信においても9,216ノードのMPI Bcastで10.6GB/sと高い通信性能を実現している。
論文抄録(英)
内容記述タイプ Other
内容記述 This paper describes the design of high performance MPI communication which enables high performance communication with minimized memory usage on the 82,944 node K computer. The Tofu interconnect of K computer uses six dimension torus/mesh direct topology for realizing higher performance and availability on hundreds thousand node system. However, in such a ultra scale system, communication performance degradation by increasing hops and network congestion and much memory consumption with increasing number of nodes are still problems to solve. To solve the problems, MPI communication facility of the K computer uses RDMA based communication and buffer allocation policy that limits buffer based communication to neighbor communication and the other uses less-memory usage communication method. As a result of these designs, MPI communication facility of the K computer realizes 1.27us MPI communication latency and 4.7GB/s MPI communication bandwidth with less memory usage, and a collective communication of MPI Bcast achieves 10.6GB/s on 9,216 node K computer.
書誌情報 先進的計算基盤システムシンポジウム論文集

巻 2012, p. 237-244, 発行日 2012-05-09
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-21 19:07:22.024897
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3