@techreport{oai:ipsj.ixsq.nii.ac.jp:00183868, author = {大内, 真一 and 更田, 裕司 and 高野, 了成 and Shin-ichi, O'uchi and Hiroshi, Fuketa and Ryousei, Takano}, issue = {2}, month = {Oct}, note = {16 ビットよりも更に短いビット長のフォーマットによる深層畳み込みニューラルネットワークのトレーニングを実現するために,本論文では計算における情報落ちに関して検討する.検討の結果として,8 ビットフォーマットによるトレーニング方法を提案する.提案方式は,16 ビット積和算ユニットに対して,約 1/2 のハードウェア削減効果を持ちつつも,AlexNet のトレーニングにおいて 16 ビット浮動小数点フォーマットを上回る推論精度改善が期待される., Loss of trailing digits in training deep convolutional neural network (DCNN) is considered to implement training with a format shorter than 16-bit floating format. As a result, we propose an 8-bit training method. The method improves inference accuracy compared to 16-bit floating format in training AlexNet. Simultaneously, the hardware size is reduced by half compared to the 16-bit hardware.}, title = {情報落ちを考盧した短ピット長フォーマットによるDCNNトレーニングの検討\n\n}, year = {2017} }