@techreport{oai:ipsj.ixsq.nii.ac.jp:00186407, author = {飯塚, 健介 and 武者, 千嵯 and 天野, 英晴 and Kensuke, Iizuka and Kazusa, Musha and hideharu, Amano}, issue = {33}, month = {Feb}, note = {高精度な画像認識や,物体検出を実現する畳み込みニューラルネットワーク (CNN : Convolutional Neural Network) は一躍注目されている.CNN は認識精度向上を目指し様々なモデルが提案されているが,計算量が増加する傾向にあり,より効率的な演算処理が求められている.しかし,汎用プロセッサではその要求を満たすことが困難なため,専用のアクセラレータの需要が高まっている.日本でも国立研究開発法人新エネルギー ・ 産業技術開発機構 (NEDO) が複数の FPGA,GPU,メモリなどの異種ノードを接続した大規模人工知能計算基盤 Flow-in-Clowd (FiC) を開発している.FPGA ノードは多数の高速リンクが接続され,FiC の高速通信のスイッチングを担う.FiC システムにおいて主演算を行うのは GPU ノードであるが,FPGA ノードもスイッチを実装した上で余った計算資源を利用して AI エンジンとしての役割を担うことができる.本研究ではマルチ FPGA システムに CNN モデルの 1 つであるGoogLeNet を実装し,評価することで GoogLeNet の高速化を図るとともに,マルチ FPGA システムの深層学習アクセラレータとしての活用ができるかを検討する.GoogLeNet が持つネットワークモデル特有の計算並列性,畳込み演算の計算並列性を利用したマルチFPGAシステムへの実装を行った結果,シミュレーション上で CPU の約 9.1 倍の高速化を達成した.}, title = {マルチFPGA上でのGoogLeNet実装}, year = {2018} }