@techreport{oai:ipsj.ixsq.nii.ac.jp:00218947,
 author = {大友, 広幸 and 横田, 理央},
 issue = {9},
 month = {Jul},
 note = {混合精度行列積和演算回路である NVIDIA Tensor コアは FP16 や TF32 といった低精度変数を入力とし,行列積和計算内部の各要素の乗算及び加算を単精度等の高精度で行う.Tensor コアを用いて単精度行列積を行う場合,入力行列を低精度へ変換する必要があり,最終的な計算精度が劣化する.この計算精度の劣化を Tensor コアの特長を利用し補正し,単精度行列積を高速にエミュレートする手法が考案されている.指数部長が FP32 と同じ 8bit である TF32 を入力とする Tensor コアを用いた場合,計算精度及び入力行列の指数部範囲のともに単精度行列積をエミュレートすることが可能である一方,指数部長の小さい FP16 を入力とする Tensor コアを用いた単精度行列積エミュレーションでは対応可能な指数部範囲が限定される.一方で FP16 Tensor コアは TF32 Tensor コアより高い計算性能を持ち,精度補正計算において計算可能な指数部範囲と計算性能の間にトレードオフが存在する.本研究では cuBLAS の単精度行列積関数の関数呼び出しを乗っ取り,代わりに Tensor コアを用いた単精度積エミュレーションを実行するライブラリを開発し,精度補正の有無や内部で使用する Tensor コアの入力の型を変えた場合の計算精度の評価を行った.このライブラリを用いて PyTorch 及び CuPy の単精度行列積を乗っ取り,深層学習及び量子計算機シミュレーションを評価対象とした.},
 title = {Tensorコアを用いた単精度行列積エミュレーションのアプリケーションでの評価},
 year = {2022}
}