@techreport{oai:ipsj.ixsq.nii.ac.jp:00210514,
author = {松下, 哲也 and 三輪, 忍 and 八巻, 隼人 and 本多, 弘樹},
issue = {16},
month = {Mar},
note = {GPU サーバによる深層学習では GPU への訓練データ転送を効率よく行うことが学習時間を短縮する上で鍵となる.深層学習フレームワーク TensorFlow には,訓練データ転送と GPU による学習を並列に実行する入力パイプラインがあり,これを利用して高速な学習を行う.入力パイプラインが機能するケースでは,GPU を搭載するホストマシンの処理性能が多少低下したとしても学習時間に与える影響はほとんどない.一方,最近は NVDIMM のような次世代メモリが登場し始めているが,こうした次世代メモリは DRAM よりも大容量で待機電力が少ないもののアクセスレイテンシが大きいことから,その用途はまだ限られている.そこで本研究では,入力パイプラインが機能するための境界条件式を導出し,入力パイプラインが機能するために必要なメモリ性能を明らかにすることによって,TensorFlow アプリケーション用 GPU サーバにおける NVDIMM の利用可能性の検討を行う.評価の結果,2 つのネットワークモデルにおいて,メモリバンド幅 19GB/s,レイテンシ 240ns までのメモリ性能の低下を許容できることがわかった.},
title = {TensorFlowアプリケーション用GPUサーバにおけるNVDIMMの利用可能性の検討},
year = {2021}
}