ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2023

プロンプト・チューニングは大規模言語モデルの安全性を高めるか?

https://ipsj.ixsq.nii.ac.jp/records/228826
https://ipsj.ixsq.nii.ac.jp/records/228826
0b3fd015-c3dd-45e1-b106-14dae37944bb
名前 / ファイル ライセンス アクション
IPSJ-CSS2023213.pdf IPSJ-CSS2023213.pdf (1.7 MB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2023-10-23
タイトル
タイトル プロンプト・チューニングは大規模言語モデルの安全性を高めるか?
タイトル
言語 en
タイトル Does Prompt-Tuning Make Large Language Models More Secure?
言語
言語 jpn
キーワード
主題Scheme Other
主題 大規模言語モデル,プロンプト・チューニング,メンバーシップ推論,学習データ抽出
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
三菱電機株式会社
著者所属
三菱電機株式会社
著者所属(英)
en
Mitsubishi Electric Corporation
著者所属(英)
en
Mitsubishi Electric Corporation
著者名 中井, 綱人

× 中井, 綱人

中井, 綱人

Search repository
大西, 健斗

× 大西, 健斗

大西, 健斗

Search repository
著者名(英) Tsunato, Nakai

× Tsunato, Nakai

en Tsunato, Nakai

Search repository
Kento, Oonishi

× Kento, Oonishi

en Kento, Oonishi

Search repository
論文抄録
内容記述タイプ Other
内容記述 大規模言語モデルを特定のタスクや事業ドメインに適用する場合,モデル構造や学習データセットの規模を考慮すると,パラメータ効率のよいファイン・チューニング(PEFT)が有用である.最新の研究では,大規模言語モデルは,学習データを記憶する能力が高いことが明らかになっており,メンバーシップ推論攻撃やデータ抽出攻撃に脆弱であることが指摘されている.しかしながら,先行研究では,大規模言語モデルにおけるPEFT手法として注目されるLoRAやPrompt-tuning(プロンプト・チューニング)に対する攻撃評価はほとんど行われていない.本稿では,LoRAやPrompt-tuningに対するメンバーシップ推論攻撃とデータ抽出攻撃を用いた学習データ漏えいリスクについて報告する.特に,チューニングするパラメータ数が小さく,モデル内部のパラメータをチューニングしないPrompt-tuningは,学習データ漏えいリスクが低いのかを検証する.代表的な大規模言語モデルであるGPT-2とファイン・チューニングの研究によく利用される3つのデータセットを用いた実験により,PEFT,特にPrompt-tuningは,学習データ漏えいリスクが比較的低いことを明らかにした.ただし,チューニングするパラメータ数に応じて学習データ漏えいリスクが増加する傾向にあるため,Prompt-tuningは安全性を高めるとは言い切れない.
論文抄録(英)
内容記述タイプ Other
内容記述 When applying large language models (LLMs) to a specific task or business domain, parameter efficient fine-tuning (PEFT) is useful, considering the scale of the model architecture and the training dataset. Recent studies have revealed that LLMs are vulnerable to membership inference attacks and data extraction attacks because of the high capacity to memorize the training data. However, previous work has rarely evaluated these attacks on LoRA and Prompt-tuning, which have attracted attention as PEFT methods for LLMs. In this paper, we report the risk of training data leakage using membership inference attacks and data extraction attacks on LoRA and Prompt-tuning, which have not been revealed at the moment. In particular, we verify whether Prompt-tuning, which has fewer tuning parameters and does not tune parameters inside the model, has a low risk of training data leakage. Experiments using GPT-2 as a typical LLM and three datasets commonly used in fine-tuning studies show that PEFT, especially Prompt-tuning, tends to have a relatively low risk of training data leakage. However, the risk tends to increase with the number of parameters to be tuned, therefore it cannot be said Prompt-tuning makes LLMs more secure.
書誌情報 コンピュータセキュリティシンポジウム2023論文集

p. 1566-1573, 発行日 2023-10-23
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 11:42:16.727287
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3