<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-15T21:27:43Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00240771">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00240771</identifier>
        <datestamp>2025-03-06T05:10:07Z</datestamp>
        <setSpec>6164:6165:6462:11854</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>大規模言語モデルの利活用におけるインジェクション攻撃に関する脅威の体系化</dc:title>
          <dc:title>Systematizing Threats of Injection Attacks on Applications of Large Language Models</dc:title>
          <dc:creator>青島, 達大</dc:creator>
          <dc:creator>秋山, 満昭</dc:creator>
          <dc:creator>Tatsuhiro, Aoshima</dc:creator>
          <dc:creator>Mitsuaki, Akiyama</dc:creator>
          <dc:subject>大規模言語モデル，インジェクション攻撃，脅威の体系化</dc:subject>
          <dc:description>ChatGPTの登場により，大規模言語モデル(LLM)を活用したアプリケーション開発が広がりつつある．LLMは，与えられた文字列に続く文字を予測する機械学習モデルである．そのため，LLMへ指示を与えるには，アプリとしての仕事に関する指示とユーザーからのクエリをひとつの文字列として結合する必要がある．このとき，攻撃者による指示がLLMへ入力される可能性があり，LLMが悪意のある行為を実行してしまうインジェクション攻撃が成立する危険性がある．本研究では，LLMの安全な利活用の実現へ向けて，インジェクション攻撃対策に注力した脅威の体系化を行い，攻撃手法から対策の優先付けが可能となるフレームワークを与える．この観点で，60個以上の攻撃事例を収集し，9個の攻撃手法へ体系的に整理した．また，攻撃手法から攻撃者の意図を推定し，9個の緩和策から優先すべき対策を検討できる構成とした．本論文では，サイバーセキュリティ分野における専門家らによる評価を実施した結果も報告し，今後の課題も整理する．</dc:description>
          <dc:description>After the advent of ChatGPT, more applications are developed using Large Language Models (LLM). An LLM is a machine-learning model that predicts a character after a given string. An LLM application takes one input string, concatenating the description of the task and a user query. In this case, an attacker can inject its instructions into LLMs. Hence, LLM would execute malicious tasks, which leads to injection attacks. In this research, we systematize threats focusing on injection attacks to realize LLM safety and provide a framework supporting the prioritization of possible countermeasures from the attack techniques used. It consists of more than 60 attack examples, then categorized into nine techniques. Then, users can infer the attacker's tactics from the techniques taken and consider which countermeasure should be employed from the nine mitigations. In this paper, we show the results of evaluations by experts in cyber security and discuss future works.</dc:description>
          <dc:description>conference paper</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2024-10-15</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>コンピュータセキュリティシンポジウム2024論文集</dc:identifier>
          <dc:identifier>185</dc:identifier>
          <dc:identifier>192</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/240771/files/IPSJ-CSS2024025.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
