Item type |
Trans(1) |
公開日 |
2022-05-20 |
タイトル |
|
|
タイトル |
NUMAアーキテクチャに適した軽量スレッド向け動的負荷分散方式 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Dynamic Load Balancing for Lightweight Multi-threading Programs for NUMA Archtectures |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[発表概要, Unrefereed Presentatin Abstract] |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
著者所属 |
|
|
|
富士通株式会社 |
著者所属 |
|
|
|
富士通株式会社 |
著者所属 |
|
|
|
富士通株式会社 |
著者所属 |
|
|
|
富士通株式会社 |
著者所属(英) |
|
|
|
en |
|
|
FUJITSU LIMITED |
著者所属(英) |
|
|
|
en |
|
|
FUJITSU LIMITED |
著者所属(英) |
|
|
|
en |
|
|
FUJITSU LIMITED |
著者所属(英) |
|
|
|
en |
|
|
FUJITSU LIMITED |
著者名 |
前田, 宗則
小林, 伸治
加藤, 純
佐藤, 充
|
著者名(英) |
Munenori, Maeda
Shinji, Kobayashi
Jun, Kato
Mitsuru, Sato
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
我々が開発したRMIスレッド基盤は,ユーザレベルスレッドを用いてNUMA型マルチプロセッサ計算機上で細粒度な並列処理を実現するマルチスレッドフレームワークである.RMIスレッド基盤は,データセンタでのSDx応用をターゲットとしており,応答性能やスループット性能に加えて,より平易にマルチスレッドプログラミングが行えることを要件としており,スレッドプールと動的負荷分散を備えたアーキテクチャを採用している.動作環境となるNUMAアーキテクチャは,メモリアクセスのコストがNUMAノードを跨ぐか否かで不均等であり,ノード間で共有したデータ構造に対してアクセス競合が発生するとレイテンシが著しく増加する特徴を持つ.そのため,動的負荷分散の定番であるワークスチーリングアルゴリズムでは,OS介在を排除したノンブロッキングアルゴリズムを用いても,プロセッサ数に対してスケーラブルな性能を実現することは困難である.RMIスレッド基盤の動的負荷分散方式は(1) SPSC(Single-producer Single-consumer)キューでコア間を全体全で接続し,(2) NUMAノード内外でタスクの分散確率を動的に変更する負荷分散戦略を適用することにより,CPU使用率の向上を得た.本論文では,まずNUMAアーキテクチャでの複数の共有キュー方式の性能比較を行った後,負荷分散戦略の方式とその評価を示す. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
RMI threading environment, we have developed, supports fine-grained parallel processing for NUMA multiprocessor systems over 16k user-level lightweight threads. This aims at a framework of SDx, software-defined-everything, and appeals not only short latency and high-throughput for such applications, but also better programmability without thread affinity awareness upon creation by using both thread pool and dynamic load balancing. NUMA architectures are characterized to have different memory access costs among nodes, and its performance sometimes remarkably degrades while access conflicts are occurred for shared data. Existing work-stealing algorithm for dynamic load balancing is difficult to scale performance on NUMA because it shares a single task queue among processors even non blocking algorithms with fully OS-bypassed. RMI threading environment adopts (1) SPSC, Single-producer Single-consumer, queues to connect processors all-to-all, and (2) load balancing strategy which adjust task distribution probability depending on local/remote NUMA nodes. This paper shows performance comparison among shared queue algorithms, then presents our load balancing strategy and its evaluation. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11464814 |
書誌情報 |
情報処理学会論文誌プログラミング(PRO)
巻 15,
号 2,
p. 5-5,
発行日 2022-05-20
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7802 |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |