@techreport{oai:ipsj.ixsq.nii.ac.jp:00232526, author = {高橋, 快斗 and 木内, 貴浩 and 若林, 佑幸 and 太田, 健吾 and 小林, 彰夫 and 北岡, 教英 and Kaito, Takahashi and Takahiro, Kinouchi and Yukoh, Wakabayashi and Kengo, Ohta and Akio, Kobayashi and Norihide, Kitaoka}, issue = {56}, month = {Feb}, note = {健聴者と聴覚障害者とのコミュニケーションには,一般に手話,筆談,音声認識などが用いられる.聴覚障害者の半数以上が音声を用いて意思疎通を行っていると報告されている.従って,聴覚障害者音声に対して高精度の音声認識を行うことが求められている.しかしながら,健聴者音声で学習された音声認識モデルは,聴覚障害者音声に対して,高い認識精度を得ることができない.そこで,本研究では,聴覚障害者音声に対して,高精度の音声認識を行うために,データ拡張によって自己教師あり学習モデルの高精度化を行った.さらに,各話者の音声をファインチューニングすることによる話者適応の評価実験を行った.その結果,多言語の音声で自己教師あり学習された XLS-R を日本語健聴者音声で追加事前学習し,健聴者音声,聴覚障害者音声と合成音声を続けて二段階ファインチューニングしたモデルが聴覚障害者音声において最も精度が高かった.そして,このモデルを話者適応をすることで,それによる認識精度の向上率や,精度向上限界を明らかにした., Communication between normal-hearing people and the deaf is generally used sign language, written communication, and speech recognition. More than half of the deaf are reported to use speech to communicate. Therefore, high-accuracy speech recognition is required for deaf speech. However, speech recognition models trained with normal-hearing speech cannot achieve high accuracy for deaf speech. In addition, we conducted an evaluation experiment of speech recognition by speaker adaptation by fine-tuning with each speaker’s speech. As a result, the model that was pre-trained with Japanese normal-hearing speech by self-supervised learning of multilingual speech, fine-tuned with normal-hearing speech, deaf speech, and synthesized speech in succession was the most accurate for deaf speech. Then, by adapting this model to each speaker, we clarified the improvement rate of recognition accuracy and the limit of accuracy improvement.}, title = {話者適応による聴覚障害者音声認識の評価}, year = {2024} }