| Item type |
Symposium(1) |
| 公開日 |
2024-10-15 |
| タイトル |
|
|
言語 |
ja |
|
タイトル |
大規模言語モデルに対するコンセプト忘却 |
| タイトル |
|
|
言語 |
en |
|
タイトル |
Concept Unlearning for Large Language Models |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
大規模言語モデル,AI モデル忘却,知識グラフ |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者名 |
山下, 智也
三浦, 尭之
山中, 友貴
芝原, 俊樹
山田, 真徳
|
| 著者名(英) |
Tomoya, Yamashita
Takayuki, Miura
Yuuki, Yamanaka
Toshiki, Shibahara
Masanori, Yamada
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
大規模言語モデル(LLM) の学習に用いられるWeb 上のコーパスには,Personal Identifiable Information (PII) などLLM の知識としては望ましくない情報が含まれる場合があり,LLM を運用する際のプライバシーリスクになりうることが既存研究によって報告されている.また,個人データの取り扱いについて規定したGDPR の要請によって,LLM の提供者はデータ提供者からのデータ削除要求に対して迅速に応じることが求められる.これらの課題を解決するアプローチの1 つとして,AI モデルから所望の情報の忘却を実現することを目指すMachine Unlearning (MU) という研究分野が注目されている.しかし,既存のMU の問題設定では訓練データの中から忘却対象のデータを定義する必要があり,特定の概念(人名など) を削除対象とするようなLLM への削除要求に応えることは困難である.そこで私たちはKnowledge Graph をベースにLLM から所望の概念を忘却するConcept Unlearning (CU) というMUの新たな要件を提唱する.CU の導入により,人間にとってより直感的な“知識” という単位での忘却を定義することができ,効果的にLLM 上の望ましくない知識の忘却を考えることが可能となる.さらに,私たちはLLM を用いて適切な忘却対象のトークン列を生成し,生成したトークン列に対してGradient Ascent を実施することでCU を実現する手法を提案する.データセットを用いた評価とGPT-4o を用いたLLM-as-a-Judge による評価によって,提案手法がモデルの精度を維持しつつ,CU の達成に有効であることを確認する. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Existing studies have reported that corpora on the Web for training large language models (LLM) may contain undesirable information such as Personal Identifiable Information (PII), leading to privacy violations when operating LLMs. In addition, the GDPR, which regulates the handling of personal data, requires LLM providers to respond promptly to data deletion requests from data providers.Machine Unlearning (MU) has attracted attention as an approach to solving the above problem. This research field aims to forget information about undesirable training data from AI models. However, the existing MU problem setting is for image classification models, and it isn't easy to apply it directly to forgetting for LLMs. This paper proposes a new MU requirement called Concept Unlearning (CU) to forget undesirable concepts from LLMs based on Knowledge Graph. This will allow us to define forgetting in terms of "knowledge", which is more intuitive to humans, and effectively consider the forgetting of undesired information on LLMs. urthermore, we propose a method to realize CU by generating appropriate sequences of tokens using LLM and performing gradient ascent on the generated sequences of tokens. The effectiveness of the proposed method in achieving CU while maintaining the accuracy of the model was confirmed by evaluation using the dataset and LLM-as-a-Judge evaluation using GPT-4o. |
| 書誌情報 |
コンピュータセキュリティシンポジウム2024論文集
p. 295-302,
発行日 2024-10-15
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |