@techreport{oai:ipsj.ixsq.nii.ac.jp:00228913, author = {齋藤, 大成 and 安藤, 洸太 and 浅井, 哲也 and Taisei, Saito and Kota, Ando and Tetsuya, Asai}, issue = {46}, month = {Nov}, note = {本研究はベイズ深層学習のアルゴリズムを効率的に軽量化し,それを FPGA へ実装する手法に焦点を当てている.変分推論法と量子化技術の二値化を組み合わせ,モデルの計算量及びメモリ量を削減し FPGA 上で低リソースでの実装を可能とした.本研究の実験結果は,モデルの量子化が性能と FPGA のリソースへどのように貢献するかを示し,計算資源が限られた環境でのベイズ深層学習の実用性を検証する., This study focuses on efficiently lightweighting Bayesian deep learning algorithms and implementing them on FPGA. It combines variational inference techniques with one of the quantization techniques: binarization, reducing both computational and memory requirements to enable implementation on FPGA with limited resources. The experimental results of this research demonstrate the contribution of model quantization to performance and FPGA resource usage, verifying the practicality of Bayesian deep learning in resource-constrained environments.}, title = {ベイジアンニューラルネットワークのベルヌーイ近似を適用したハードウェア軽量化手法}, year = {2023} }