@techreport{oai:ipsj.ixsq.nii.ac.jp:00225455, author = {松下, 哲也 and 三輪, 忍 and 八巻, 隼人 and 本多, 弘樹 and Tetsuya, Matsushita and Shinobu, Miwa and Hayato, Yamaki and Hiroki, Honda}, issue = {8}, month = {Mar}, note = {深層学習は膨大な計算資源を必要とすることから,GPU を搭載したサーバ上で実行されることが多い.現在の多くの深層学習フレームワークには,主に CPU で実行される訓練データの準備処理 (データ転送を含む) と GPU で実行される学習処理をオーバーラップさせる入力パイプラインが備わっている.入力パイプライン用いた際のアプリケーションの性能は,この二つの処理のうち時間の長い処理に律速される.したがって,一定のコスト制限のもとにおいて,入力パイプラインによる性能向上をできるだけ高くするためには,この二つの処理の時間ができるだけ同じになるよう,GPU サーバを構成する各ハードウェアのそれぞれの要求性能を明らかにする必要がある.そこで本研究では,各ハードウェアの要求性能を明らかにするため,GPU サーバ上で実行される深層学習を用いた画像認識アプリケーションの実行時間を種々のアーキテクチャパラメータを用いてモデル化を目指した.2 種類の GPU サーバ上で ResNet50 を用いて ImageNet の学習を行った結果,導出したモデルは同アプリケーションの性能を平均絶対パーセント誤差 10.8% で予測できた., Deep learning frameworks have an input pipeline that executes data transfer and processes on CPU and GPU in a pipeline manner. When using the input pipeline, the required performance of each hardware in a GPU server differs depending on the combination of hardware. In this research, we model the execution time of an image recognition application based on deep learning by using various architectural parameters on the GPU server, in order to clarify the required performance of each hardware. As a result of training ResNet50 with ImageNet on two types of GPU servers, our model can predict the execution time with a mean absolute percentage error of 10.8%.}, title = {GPU サーバにおける画像認識を行う深層学習の性能モデリング}, year = {2023} }