WEKO3
アイテム
能楽ビデオデータに対するタグ付けの自動化
https://ipsj.ixsq.nii.ac.jp/records/100579
https://ipsj.ixsq.nii.ac.jp/records/10057900f102f5-c83c-42a0-b4a4-89e62ac335e6
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2006 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Symposium(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2014-04-01 | |||||||
タイトル | ||||||||
タイトル | 能楽ビデオデータに対するタグ付けの自動化 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | A Study of Automatic Annotation for Noh Performance Video | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_5794 | |||||||
資源タイプ | conference paper | |||||||
著者所属 | ||||||||
立命館大学大学院理工学研究科 | ||||||||
著者所属 | ||||||||
立命館大学理工学部 | ||||||||
著者所属 | ||||||||
立命館大学情報理工学部 | ||||||||
著者所属 | ||||||||
立命館大学21世紀COE推進機構 | ||||||||
著者所属 | ||||||||
立命館大学先端総合学術研究科/アートリサーチセンター | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Science and Engineering, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Science and Engineering, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Information Science and Engineering, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Research Center of 21th COE, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Core Ethics and Frontier Sciences, Ritsumeikan University | ||||||||
著者名 |
岡田, 一貴
× 岡田, 一貴
|
|||||||
著者名(英) |
Kazuki, Okada
× Kazuki, Okada
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | マルチメディアデータのアーカイブでは,単にデータを蓄積するだけでなく,適切なタグ情報(メタデータ)を付与することによって,検索や閲覧での利便性を高めることが重要である。本報告では,能楽のビデオコンテンツを対象としたタグ情報の自動生成について述べる。能ビデオの音声データをもとに演者の発話区間を自動検出し,あらかじめ作成されている台詞との対応付けを自動化することによって,能楽の台本である詞章に時間情報を付与する.発話区間の自動検出では音声の帯域分割とクラスタリングに基づいた手法を,台詞との対応付けでは発声速度で正規化された発声時間長と台詞長に基づいた手法を提案する。 | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Annotating with useful tag information (met-data) is very important to facilitate accessing and browsing multimedia data as well as collecting data. This paper describes a method of automatic generation of tag information annotating "Noh" performance video. It provides "shisho", which is a script for Noh performance, with time information using two-stage processing. In the first stage, a clustering technique automatically extracts spoken documents from the audio track data using feature parameters of the filter bank. The second stage aligns word sequences in the script with the extracted spoken segments based on matching the word length in the script with the length of spoken segments that is normalized by the speaking rate. | |||||||
書誌情報 |
じんもんこん2006論文集 巻 2006, p. 327-334, 発行日 2006-12-14 |
|||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |