ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2024

大規模言語モデルに対するコンセプト忘却

https://ipsj.ixsq.nii.ac.jp/records/240787
https://ipsj.ixsq.nii.ac.jp/records/240787
c9e13428-ac87-4e4e-8bff-280f22c00622
名前 / ファイル ライセンス アクション
IPSJ-CSS2024041.pdf IPSJ-CSS2024041.pdf (572.3 kB)
 2026年10月15日からダウンロード可能です。
Copyright (c) 2024 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, CSEC:会員:¥0, SPT:会員:¥0, DLIB:会員:¥0
Item type Symposium(1)
公開日 2024-10-15
タイトル
言語 ja
タイトル 大規模言語モデルに対するコンセプト忘却
タイトル
言語 en
タイトル Concept Unlearning for Large Language Models
言語
言語 jpn
キーワード
主題Scheme Other
主題 大規模言語モデル,AI モデル忘却,知識グラフ
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者名 山下, 智也

× 山下, 智也

山下, 智也

Search repository
三浦, 尭之

× 三浦, 尭之

三浦, 尭之

Search repository
山中, 友貴

× 山中, 友貴

山中, 友貴

Search repository
芝原, 俊樹

× 芝原, 俊樹

芝原, 俊樹

Search repository
山田, 真徳

× 山田, 真徳

山田, 真徳

Search repository
著者名(英) Tomoya, Yamashita

× Tomoya, Yamashita

en Tomoya, Yamashita

Search repository
Takayuki, Miura

× Takayuki, Miura

en Takayuki, Miura

Search repository
Yuuki, Yamanaka

× Yuuki, Yamanaka

en Yuuki, Yamanaka

Search repository
Toshiki, Shibahara

× Toshiki, Shibahara

en Toshiki, Shibahara

Search repository
Masanori, Yamada

× Masanori, Yamada

en Masanori, Yamada

Search repository
論文抄録
内容記述タイプ Other
内容記述 大規模言語モデル(LLM) の学習に用いられるWeb 上のコーパスには,Personal Identifiable Information (PII) などLLM の知識としては望ましくない情報が含まれる場合があり,LLM を運用する際のプライバシーリスクになりうることが既存研究によって報告されている.また,個人データの取り扱いについて規定したGDPR の要請によって,LLM の提供者はデータ提供者からのデータ削除要求に対して迅速に応じることが求められる.これらの課題を解決するアプローチの1 つとして,AI モデルから所望の情報の忘却を実現することを目指すMachine Unlearning (MU) という研究分野が注目されている.しかし,既存のMU の問題設定では訓練データの中から忘却対象のデータを定義する必要があり,特定の概念(人名など) を削除対象とするようなLLM への削除要求に応えることは困難である.そこで私たちはKnowledge Graph をベースにLLM から所望の概念を忘却するConcept Unlearning (CU) というMUの新たな要件を提唱する.CU の導入により,人間にとってより直感的な“知識” という単位での忘却を定義することができ,効果的にLLM 上の望ましくない知識の忘却を考えることが可能となる.さらに,私たちはLLM を用いて適切な忘却対象のトークン列を生成し,生成したトークン列に対してGradient Ascent を実施することでCU を実現する手法を提案する.データセットを用いた評価とGPT-4o を用いたLLM-as-a-Judge による評価によって,提案手法がモデルの精度を維持しつつ,CU の達成に有効であることを確認する.
論文抄録(英)
内容記述タイプ Other
内容記述 Existing studies have reported that corpora on the Web for training large language models (LLM) may contain undesirable information such as Personal Identifiable Information (PII), leading to privacy violations when operating LLMs. In addition, the GDPR, which regulates the handling of personal data, requires LLM providers to respond promptly to data deletion requests from data providers.Machine Unlearning (MU) has attracted attention as an approach to solving the above problem. This research field aims to forget information about undesirable training data from AI models. However, the existing MU problem setting is for image classification models, and it isn't easy to apply it directly to forgetting for LLMs. This paper proposes a new MU requirement called Concept Unlearning (CU) to forget undesirable concepts from LLMs based on Knowledge Graph. This will allow us to define forgetting in terms of "knowledge", which is more intuitive to humans, and effectively consider the forgetting of undesired information on LLMs. urthermore, we propose a method to realize CU by generating appropriate sequences of tokens using LLM and performing gradient ascent on the generated sequences of tokens. The effectiveness of the proposed method in achieving CU while maintaining the accuracy of the model was confirmed by evaluation using the dataset and LLM-as-a-Judge evaluation using GPT-4o.
書誌情報 コンピュータセキュリティシンポジウム2024論文集

p. 295-302, 発行日 2024-10-15
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:51:44.910747
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3