@techreport{oai:ipsj.ixsq.nii.ac.jp:00206109, author = {新, 隼人 and 坂田, 亘 and 田中, リベカ and 黒橋, 禎夫}, issue = {1}, month = {Jun}, note = {タスク志向の自動対話システムであってもユーザが雑談のような発話を入力することは少なくない.特に自治体などが運営する公的な対話システムにおいては,それに対して不適切な応答を行わないようにすることは重要である.本研究では,実サービスのクエリログおよびクラウドソーシングで集めたデータを利用して,対話システムの不適切発話の調査を行った.調査を基に不適切発話を「品行方正でない発話」,「システムの設定を逸脱した内容の発話」の 2 つに分類し,それらに対するフィルタリング手法を提案した.さらに,Twitter から収集したデータにフィルタリングを適用し,得られたデータで対話システムを学習した.その結果,ベースラインに比べて品行方正でない発話が減少し,システムの設定の逸脱も見られなくなった., Task-oriented dialogue systems sometimes receive chit-chats. It is essential to avoid inappropriate responses to those chit-chats especially for official dialogue systems used in governments. In this work, we analyze the inappropriate utterances of dialogue systems using query logs of real services and data collected by crowdsourcing. Based on the analysis, we categorize inappropriate utterances into two groups, “impolite utterances” and “utterances that deviate from the system settings”, and we design filtering methods to remove these inappropriate utterances. We apply the methods to the Twitter data and train the dialogue system with the cleaned data. Our experiment shows that both impolite utterances and deviated utterances are significantly reduced compared to the baseline.}, title = {自動対話システムの不適切発話の分析とその回避}, year = {2020} }