WEKO3
アイテム
音声と手書き文字の同時入力インターフェース
https://ipsj.ixsq.nii.ac.jp/records/57001
https://ipsj.ixsq.nii.ac.jp/records/57001d984d2e1-cbad-4f0c-b9b0-8b7d51618393
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2005 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2005-05-26 | |||||||
タイトル | ||||||||
タイトル | 音声と手書き文字の同時入力インターフェース | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Simultaneous Input Interface of Speech and Handwritten Characters | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
東京工業大学 | ||||||||
著者所属 | ||||||||
東京工業大学 | ||||||||
著者所属 | ||||||||
東京工業大学 | ||||||||
著者所属 | ||||||||
東京工業大学 | ||||||||
著者所属 | ||||||||
東京工業大学 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Tokyo Institute of Technology | ||||||||
著者名 |
中川, 竜太
× 中川, 竜太
|
|||||||
著者名(英) |
Ryuta, Nakagawa
× Ryuta, Nakagawa
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 「書きながら話す」「話しながら書く」という音声と手書き文字の同時入力インタフェースをマルチモーダル認識により実現する.音声のみの入力に比べ耐雑音性に優れ,手書き文字のみの入力に比べ入力速度が大きいという特色をもつ.複数モードの統合方法として,従来マルチモーダル認識に用いられてきた事前統合や事後統合ではなく,オンラインで統合を行いながらサーチを行う中間的な統合方式を採用する.これにより,文・文章など比較的長い入力への対応が可能となり,音声と手書き文字の同期のずれに対し頑健性が高くなることが期待される.本稿では,音声認識の結果として出力された単語グラフにおける尤度に手書き文字認識の尤度を反映させる2 パス処理を用いてその可能性を検証した.被験者ごとに同期のずれの補正を行うことにより,音声のみの認識性能から単語正解精度で2.6 ポイント改善した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | We propose an interface using simultaneous inputs of speech and handwriten characters. This interface is more robust against noise than the speech interface, and its input speed is faster than the inteface with handwritten characters. For integrating the two modes, we employ a method which fusions the tentative recognition results from them on-line during the recognition process, which is different from the convensional integration methods performed in feature level or in semantic level. The proposed method is applicable to long inputs such as sentences and expected to be robust against the large asynchronousity of the two inputs. In this paper, the proposed method was preliminarily evaluated by using a two-pass process in which a word graph generated by speech recognition in the first pass is utilized for the integration process of the two modes in the second pass. The proposed method improved the recognition accuracy by 2.6 point over the method only with speech recognition. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10442647 | |||||||
書誌情報 |
情報処理学会研究報告音声言語情報処理(SLP) 巻 2005, 号 50(2005-SLP-056), p. 29-34, 発行日 2005-05-26 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |