<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-04-12T04:08:05Z</responseDate>
  <request identifier="oai:ipsj.ixsq.nii.ac.jp:00218473" metadataPrefix="oai_dc" verb="GetRecord">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00218473</identifier>
        <datestamp>2025-01-19T15:09:01Z</datestamp>
        <setSpec>1164:5159:10869:10940</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>ゼロ資源言語の認識に向けたMAMLに基づくend-to-end音声認識の検討</dc:title>
          <dc:title>MAML-based End-to-End Speech Recognition for Zero-Resource Language Recognition</dc:title>
          <dc:creator>周, 鋭</dc:creator>
          <dc:creator>伊藤, 彰則</dc:creator>
          <dc:creator>能勢, 隆</dc:creator>
          <dc:creator>Rui, Zhou</dc:creator>
          <dc:creator>Akinori, Ito</dc:creator>
          <dc:creator>Takashi, Nose</dc:creator>
          <dc:subject>ポスターセッション1</dc:subject>
          <dc:description>高い精度の音声認識システムを開発するためには，大量のラベル付け音声データが必要である．しかし，世界中にある言語の大部分については，そのように多くの学習データを用意することはできない．このような言語の音声認識システムを開発するため，学習時に目標言語のデータを使用しない，または非常に少ないデータのみを使って開発する音声認識システムがゼロリソース音声認識システムである．本稿では，メタラーニングの学習方法である MAML とハイリソース言語データを用いて，モデルを事前学習する．そして，少数の目標言語のデータを使って，モデルを微調整する．20 分程度の目標言語データを使用して，MAML による学習を行ったところ 40％ 程度の CER が得られた．</dc:description>
          <dc:description>High-precision speech recognition systems require large amounts of labeled speech data. However, most of the languages in the world do not have that much training data. A speech recognition system that uses no speech data, or uses very little data from such training target languages, is called a zero resource speech recognition system. In this paper, we pre-train a model using a training method called MAML and high-resource language data. Then we use a data of a minority language to fine-tune the model. When we use 20 minutes of the target language data, we obtained a character error rate of about 40%.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2022-06-10</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告音声言語情報処理（SLP）</dc:identifier>
          <dc:identifier>14</dc:identifier>
          <dc:identifier>2022-SLP-142</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>6</dc:identifier>
          <dc:identifier>2188-8663</dc:identifier>
          <dc:identifier>AN10442647</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/218473/files/IPSJ-SLP22142014.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
