@techreport{oai:ipsj.ixsq.nii.ac.jp:00232884,
 author = {小方, 雅子 and 藤後, 英哲 and 中下, 咲帆 and 菊池, 英明 and 藤倉, 将平},
 issue = {21},
 month = {Mar},
 note = {大規模言語モデル(LLM)の著しい発展が続く中で,様々な観点から LLM の性能を評価することが求められている.人間の言語に見られる現象の一つに会話の含みがある.会話の含みとは発話によって暗に伝えられる文脈依存的な言外の発話意図である.会話の含みには,ある発話で生じる会話の含みは別のある文脈を想定することによって取り消すことが可能であるという特徴がある.この特徴により,同じ文であっても文脈に応じて異なる会話の含みが生じ得る.本研究ではこの会話の含みの取り消し可能性に着目し,LLM が人間と同じように文脈に応じて会話の含みを読み取ることができるのかを検証した.その結果,LLM は人間と比べ,文脈に応じて会話の含みを読み取ることが十分にできていないことが判明した., As the development of Large Language Models (LLMs) continues, evaluation methods from various perspectives are needed. Human language has a conversational implicature which refers to the unspoken intent conveyed implicitly through utterances, depending on the context. It is known that conversational implicature is cancellable: the implicature can be canceled by context even if it has the same utterances. This study focuses on the cancellability of conversational implicature and investigates whether LLMs can interpret conversational implicatures as humans do. The results show that, compared to humans, LLMs are not as capable of interpreting conversational implicatures depending on the context.},
 title = {会話の含みの取り消し可能性に着目した大規模言語モデルの評価},
 year = {2024}
}