@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00241525, author = {井下, 敬翔 and Keito, Inoshita}, book = {じんもんこん2024論文集}, month = {Nov}, note = {本研究では、国際的対立構造における大規模言語モデル(LLM)のバイアス問題を検討し,能動的プロンプトエンジニアリング(FDMA)と受動的プロンプトエンジニアリングを比較した. 国際関係における感情バイアスに焦点を当てたデータセットを使用した実験により,明確な指示を与える受動的プロンプトが,能動的アプローチよりもバイアス軽減に効果的であることが確認された.LLMに「公平に振る舞う」よう指示することで,より中立的な出力が得られた.しかし,データセットやモデルの選定に限界があり,結果は異なる文脈やモデルによって変わる可能性がある.今後の研究では,より多様なデータセットを使用し,LLMの公平性を向上させるために高度なプロンプト技術を開発する必要がある., This study explores bias in Large Language Models (LLMs) regarding international conflict structures, comparing Active Prompt Engineering (FDMA) with Passive Prompt Engineering. The experiments, using a dataset focused on emotional biases in international relations, showed that passive prompts, which give explicit instructions, were more effective in mitigating bias than active approaches. Instructing LLMs to "act fairly" produced more neutral outputs. However, limitations in dataset and model selection suggest that results may vary across different contexts and models. Future research should explore more diverse datasets and develop advanced prompt engineering methods to enhance fairness and neutrality in LLMs.}, pages = {167--174}, publisher = {情報処理学会}, title = {大規模言語モデルにおける国際的対立構造のバイアス検証と能動的および受動的アプローチに基づくバイアス軽減手法}, volume = {2024}, year = {2024} }