<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-04-18T10:34:31Z</responseDate>
  <request verb="GetRecord" metadataPrefix="jpcoar_1.0" identifier="oai:ipsj.ixsq.nii.ac.jp:00214014">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00214014</identifier>
        <datestamp>2025-01-19T16:56:06Z</datestamp>
        <setSpec>1164:2036:10484:10753</setSpec>
      </header>
      <metadata>
        <jpcoar:jpcoar xmlns:datacite="https://schema.datacite.org/meta/kernel-4/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcndl="http://ndl.go.jp/dcndl/terms/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:jpcoar="https://github.com/JPCOAR/schema/blob/master/1.0/" xmlns:oaire="http://namespace.openaire.eu/schema/oaire/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rioxxterms="http://www.rioxx.net/schema/v2.0/rioxxterms/" xmlns:xs="http://www.w3.org/2001/XMLSchema" xmlns="https://github.com/JPCOAR/schema/blob/master/1.0/" xsi:schemaLocation="https://github.com/JPCOAR/schema/blob/master/1.0/jpcoar_scm.xsd">
          <dc:title>gMLPを用いた画像認識向けDNNアクセラレータのFPGA実装</dc:title>
          <jpcoar:creator>
            <jpcoar:creatorName>神宮司, 明良</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>中原, 啓貴</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:subject subjectScheme="Other">機械学習</jpcoar:subject>
          <datacite:description descriptionType="Other">Convolution を用いない画像認識の深層学習モデルである Vision Transformer が登場してから，CNN の代替として MLP ベースのモデルに大きな注目が集まっている．MLP ベースのモデルは，Convolution を持たないにもかかわらず，画像認識において高い認識精度を達成する．MLP-Mixer や gMLP などの MLP ベースモデルの研究では，よりシンプルな構造で高い認識精度を達成する．低レイテンシな推論は，処理単位あたりの計算データが小さいため GPU では計算効率が低下し，FPGA などの専用回路による設計が向いていると考えられる．本稿では，我々は MLP ベースモデルのための推論アクセラレータの FPGA 回路を提案する．MLP ベースのモデルでは MLP レイヤーにおける単純な行列積が計算の大部分を占めるため，提案回路において我々は行列積を高い並列度で効率的に計算することに注力する．我々はビット幅の広い GEMM と専用命令セットを設計し，2 つの大きな行列の積を 1 サイクルで計算する回路を設計した．本稿では，提案回路を Xilinx 社 ZCU102 FPGA ボード上に実装し，gMLP-S モデルの推論を実行した．ImageNet データセットを用いたクラス分類の実験結果によると，我々の実装は 74.5% の認識精度であり，159.0FPS と 6.3ms の推論速度であり，24.9W の消費電力だった．モバイル GPU と比較して，提案する実装は 4.4 倍高速であり，6.1 倍良い電力効率であった．CNN モデルを実装した既存 FPGA 実装と比較して，我々の実装は同等の推論速度でありながら，3% 以上高い認識精度であった．</datacite:description>
          <dc:publisher xml:lang="ja">情報処理学会</dc:publisher>
          <datacite:date dateType="Issued">2021-11-24</datacite:date>
          <dc:language>jpn</dc:language>
          <dc:type rdf:resource="http://purl.org/coar/resource_type/c_18gh">technical report</dc:type>
          <jpcoar:identifier identifierType="URI">https://ipsj.ixsq.nii.ac.jp/records/214014</jpcoar:identifier>
          <jpcoar:sourceIdentifier identifierType="ISSN">2188-8639</jpcoar:sourceIdentifier>
          <jpcoar:sourceIdentifier identifierType="NCID">AA11451459</jpcoar:sourceIdentifier>
          <jpcoar:sourceTitle>研究報告システムとLSIの設計技術（SLDM）</jpcoar:sourceTitle>
          <jpcoar:volume>2021-SLDM-196</jpcoar:volume>
          <jpcoar:issue>5</jpcoar:issue>
          <jpcoar:pageStart>1</jpcoar:pageStart>
          <jpcoar:pageEnd>6</jpcoar:pageEnd>
          <jpcoar:file>
            <jpcoar:URI label="IPSJ-SLDM21196005.pdf">https://ipsj.ixsq.nii.ac.jp/record/214014/files/IPSJ-SLDM21196005.pdf</jpcoar:URI>
            <jpcoar:mimeType>application/pdf</jpcoar:mimeType>
            <jpcoar:extent>2.3 MB</jpcoar:extent>
          </jpcoar:file>
        </jpcoar:jpcoar>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
