@techreport{oai:ipsj.ixsq.nii.ac.jp:00242201,
 author = {小林, 篤弥 and 山口, 実靖 and Atsuya, Kobayashi and Saneyasu, Yamaguchi},
 issue = {42},
 month = {Jan},
 note = {近年,OpenAI や Microsoft が大規模言語モデル (LLM) を発表し,特に ChatGPT は自然言語処理 (NLP) の研究を行っていない一般の人々にも利用されている.NLP の分野では,GPT シリーズや Bard のような LLM が多数の成果を挙げている.それに伴い,LLM モデルが内包している知識や生成したテキストを用いた「知識推定」の研究も日々行われてきた.しかし,これら知識推定の研究は主に客観的な知識の調査に焦点をあてており,主観的な知識やその偏りに関する分野の調査は不十分である.本研究では,ローカル環境で動かすことのできるパラメータサイズの大規模言語モデルに新聞記事のデータセットを学習させ,主観情報に関する考察を行う., Recently, OpenAI and Microsoft have released large-scale language models (LLMs), especially ChatGPT, which has been used by the general public not involved in natural language processing (NLP) research. In line with this, research on “knowledge estimation” using the knowledge contained in LLM models and generated text has been conducted on a daily basis. However, these knowledge estimation studies have mainly focused on the investigation of objective knowledge, and there has been insufficient research in the area of subjective knowledge and its biases. In this study, we examine subjective information by training a dataset of newspaper articles on a large-scale language model with a parameter size that can be run in a local environment.},
 title = {大規模言語モデルを用いたデータセット内の主観情報の評価},
 year = {2025}
}