WEKO3
アイテム
能楽ビデオデータに対するタグ付け支援環境の開発
https://ipsj.ixsq.nii.ac.jp/records/100519
https://ipsj.ixsq.nii.ac.jp/records/10051927e5e60a-0224-44bb-80b3-40d51ad8b077
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2005 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Symposium(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2014-04-01 | |||||||
タイトル | ||||||||
タイトル | 能楽ビデオデータに対するタグ付け支援環境の開発 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Development of a support system for annoteting noh performance video | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_5794 | |||||||
資源タイプ | conference paper | |||||||
著者所属 | ||||||||
立命館大学大学院理工学研究科 | ||||||||
著者所属 | ||||||||
立命館大学大学院理工学研究科 | ||||||||
著者所属 | ||||||||
立命館大学情報理工学部 | ||||||||
著者所属 | ||||||||
立命館大学21世紀COE推進機構 | ||||||||
著者所属 | ||||||||
立命館大学先端総合学術研究科/アートリサーチセンター | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Science and Technology, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Science and Technology, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Department of Computer Science, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Research Center of 2lth COE, Ritsumeikan University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Core Ethics and Frontier Sciences, Ritsumeikan University | ||||||||
著者名 |
中川, 隆広
× 中川, 隆広
|
|||||||
著者名(英) |
Takahiro, Nakagawa
× Takahiro, Nakagawa
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本稿では、能楽ビデオデータに対するタグ付け支援について述べる。実装したタグ付け支援システムを利用することによって,能楽の台本である詞章に時間情報や役名を付与し,ビデオデータをタグ付けすることが容易に行える。タグ付けされたビデオデータを資料として活用する為のブラウズ機能も持つ。また、タグ付け作業の負担を軽減することを目的として、演者が台詞を発声している発話区間とそれ以外の非発話区間を自動的に分類する手法について検討した。クラスタリングに基づいた手法によって,音データを二種類の区間へ自動分類し,約65%の精度を得た。 | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | ;;This paper describes a support system for annotating events in the "noh" performance. The user can easily annotate the noh video data by describing "shisho" data, that is a scenario of the noh performance, with time information and the name of roles. The system works as a browser of annotated video data. We also propose a method for automatically extracting speech segments, in which a player utters, in order to facilitate the annotation of the noh video. The method based on a clustering technique successfully classifies about 65% of data. | |||||||
書誌情報 |
じんもんこん2005論文集 巻 2005, p. 143-149, 発行日 2005-12-16 |
|||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |