ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. じんもんこんシンポジウム
  4. 2024

大規模言語モデルにおける国際的対立構造のバイアス検証と能動的および受動的アプローチに基づくバイアス軽減手法

https://ipsj.ixsq.nii.ac.jp/records/241525
https://ipsj.ixsq.nii.ac.jp/records/241525
01a21107-9a10-4665-b5a2-fc86d5d7dad6
名前 / ファイル ライセンス アクション
IPSJ-CH2024024.pdf IPSJ-CH2024024.pdf (927.8 kB)
 2025年12月7日からダウンロード可能です。
Copyright (c) 2024 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, CH:会員:¥0, DLIB:会員:¥0
Item type Symposium(1)
公開日 2024-11-30
タイトル
タイトル 大規模言語モデルにおける国際的対立構造のバイアス検証と能動的および受動的アプローチに基づくバイアス軽減手法
タイトル
言語 en
タイトル Bias Examination of International Conflict Structures in Large Language Models and Debiasing Methods Based on Active and Passive Approaches
言語
言語 eng
キーワード
主題Scheme Other
主題 Large Language Model, Prompt Engineering, Bias Mitigation, International Conflict Structure
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
滋賀大学大学院データサイエンス研究科
著者所属(英)
en
Faculty of Data Science, Shiga University
著者名 井下, 敬翔

× 井下, 敬翔

井下, 敬翔

Search repository
著者名(英) Keito, Inoshita

× Keito, Inoshita

en Keito, Inoshita

Search repository
論文抄録
内容記述タイプ Other
内容記述 本研究では、国際的対立構造における大規模言語モデル(LLM)のバイアス問題を検討し,能動的プロンプトエンジニアリング(FDMA)と受動的プロンプトエンジニアリングを比較した. 国際関係における感情バイアスに焦点を当てたデータセットを使用した実験により,明確な指示を与える受動的プロンプトが,能動的アプローチよりもバイアス軽減に効果的であることが確認された.LLMに「公平に振る舞う」よう指示することで,より中立的な出力が得られた.しかし,データセットやモデルの選定に限界があり,結果は異なる文脈やモデルによって変わる可能性がある.今後の研究では,より多様なデータセットを使用し,LLMの公平性を向上させるために高度なプロンプト技術を開発する必要がある.
論文抄録(英)
内容記述タイプ Other
内容記述 This study explores bias in Large Language Models (LLMs) regarding international conflict structures, comparing Active Prompt Engineering (FDMA) with Passive Prompt Engineering. The experiments, using a dataset focused on emotional biases in international relations, showed that passive prompts, which give explicit instructions, were more effective in mitigating bias than active approaches. Instructing LLMs to "act fairly" produced more neutral outputs. However, limitations in dataset and model selection suggest that results may vary across different contexts and models. Future research should explore more diverse datasets and develop advanced prompt engineering methods to enhance fairness and neutrality in LLMs.
書誌情報 じんもんこん2024論文集

巻 2024, p. 167-174, 発行日 2024-11-30
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:38:04.105155
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3