WEKO3
アイテム
対話音声認識のための事前タスク適応の検討
https://ipsj.ixsq.nii.ac.jp/records/57816
https://ipsj.ixsq.nii.ac.jp/records/5781698d48967-571c-4ad0-a1ce-bacc1899138e
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 1996 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 1996-12-12 | |||||||
タイトル | ||||||||
タイトル | 対話音声認識のための事前タスク適応の検討 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Task adaptation of a stochastic language model for dialogue speech recognition | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
山形大学工学部電子情報工学科 | ||||||||
著者所属 | ||||||||
山形大学工学部電子情報工学科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Faculty of Engineering, Yamagata University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Faculty of Engineering, Yamagata University | ||||||||
著者名 |
伊藤, 彰則
× 伊藤, 彰則
|
|||||||
著者名(英) |
Akinori, It?
× Akinori, It?
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 連続音声認識のための統計的言語モデルを構築するためには,大量の言語データが必要となる.しかし,特定のタスクの言語データを大量に集めるには大きな人手と時間がかかる.そこで本稿では,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N?gram言語モデルの性能の改善を試みる.ここでは特定タスクとして観光案内対話タスクを想定し,さまざまな大量データと混合したときの性能を調査した.その結果,ある程度タスクドメインに共通性があるデータの場合に性能が改善できることがわかった.また,形態素単位のN?gramを構築する場合,大量データと小量データの形態素解析の一貫性が重要であることが明らかになった. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | A stochastic language model (SLM) is indispensable for continuous speech recognition. Generally, large corpus of the task domain is required to make a good SLM. When making a SLM for a specific task domain, it is ideal to obtain large number of sentences of the domain. But it takes large time and effort to collect linguistic data of a specific domain, especially of a spoken dialog domain. In this paper, we investigated possibility of making a good N-gram SLM using small corpus of a specific domain with task independent large corpus. Sightseeing information dialog task was chosen for the specific task, and we examined several kinds of corpora for task independent corpus. We carried out experiments to measure perplexity of the adapted N-gram model. From the experiments, it is found that the adaptation improved perplexity of the model when the task domain of the small and large corpora are similar. The results also showed that the coherence of morphemic analysisof the small and large corpora greatly affects the perplexity of the adapted model. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10442647 | |||||||
書誌情報 |
情報処理学会研究報告音声言語情報処理(SLP) 巻 1996, 号 123(1996-SLP-014), p. 91-98, 発行日 1996-12-12 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |