<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-15T11:23:49Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00176389">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00176389</identifier>
        <datestamp>2025-01-20T05:52:33Z</datestamp>
        <setSpec>1164:5159:8497:9012</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>感情的独話・対話を用いた日本語マルチモーダルコーパスの構築</dc:title>
          <dc:title>Constructing a Japanese Multimodal Corpus Prom Emotional Monologues and Dialogues</dc:title>
          <dc:creator>ヌルル, ルーピス</dc:creator>
          <dc:creator>ランデイ, ゴメス</dc:creator>
          <dc:creator>サクリアニ, サクティ</dc:creator>
          <dc:creator>中村, 圭佑</dc:creator>
          <dc:creator>吉野, 幸一郎</dc:creator>
          <dc:creator>中村, 哲</dc:creator>
          <dc:creator>中臺, 一博</dc:creator>
          <dc:creator>Nurul, Lubis</dc:creator>
          <dc:creator>Randy, Gomez</dc:creator>
          <dc:creator>Sakriani, Sakti</dc:creator>
          <dc:creator>Keisuke, Nakamura</dc:creator>
          <dc:creator>Koichiro, Yoshino</dc:creator>
          <dc:creator>Satoshi, Nakamura</dc:creator>
          <dc:creator>Kazuhiro, Nakadai</dc:creator>
          <dc:subject>対話，パラ言語，感情</dc:subject>
          <dc:description>ヒューマンコンピュータインタラクションにおいて感情を用いるため，様々な種類のモダリテイにおけるラベルを付与したデータが必要となる．しかし日本語における感情コーパスでは，多くのコーパスが 1 種類または 2 種類のモダリテイに限られている．そこで本研究では，感情の生起を様々な側面から観測するため，音声および映像からなる日本語感情コーパスを作成した．本コーパスは 14 人の日本語母語話者を対象に収録した．また，収録したコーパスに対して音声のモダリテイを用いた感情認識タスクを行い，5 感情の分類において 61.42% の精度を実現した．</dc:description>
          <dc:description>To fully incorporate emotion into human-computer interaction, rich sets of labeled emotional data is prerequisite. However, in Japanese, the majority of the existing emotion database is still limited to unimodal and bimodal corpora. To allow more complete observation of emotion occurrences, we construct the first audio-visual emotion corpora in Japanese, collected from 14 native speakers. Preliminary speech emotion recognition experiments on the corpus and achieved an accuracy of 61.42% for five classes of emotion.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2016-12-13</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告音声言語情報処理（SLP）</dc:identifier>
          <dc:identifier>3</dc:identifier>
          <dc:identifier>2016-SLP-114</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>2</dc:identifier>
          <dc:identifier>2188-8663</dc:identifier>
          <dc:identifier>AN10442647</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/176389/files/IPSJ-SLP16114003.pdf</dc:identifier>
          <dc:language>eng</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
