{"updated":"2025-01-19T10:17:19.620711+00:00","metadata":{"_oai":{"id":"oai:ipsj.ixsq.nii.ac.jp:00232886","sets":["1164:4179:11560:11561"]},"path":["11561"],"owner":"44499","recid":"232886","title":["大規模言語モデルにおけるタスク特有の表層表現に起因する脆弱性の調査"],"pubdate":{"attribute_name":"公開日","attribute_value":"2024-03-03"},"_buckets":{"deposit":"6debe033-67b3-4898-9f5f-ce7debdf794e"},"_deposit":{"id":"232886","pid":{"type":"depid","value":"232886","revision_id":0},"owners":[44499],"status":"published","created_by":44499},"item_title":"大規模言語モデルにおけるタスク特有の表層表現に起因する脆弱性の調査","author_link":["631427","631428","631425","631426"],"item_titles":{"attribute_name":"タイトル","attribute_value_mlt":[{"subitem_title":"大規模言語モデルにおけるタスク特有の表層表現に起因する脆弱性の調査"}]},"item_keyword":{"attribute_name":"キーワード","attribute_value_mlt":[{"subitem_subject":"言語モデル","subitem_subject_scheme":"Other"}]},"item_type_id":"4","publish_date":"2024-03-03","item_4_text_3":{"attribute_name":"著者所属","attribute_value_mlt":[{"subitem_text_value":"奈良先端科学技術大学院大学"},{"subitem_text_value":"奈良先端科学技術大学院大学"},{"subitem_text_value":"奈良先端科学技術大学院大学"},{"subitem_text_value":"奈良先端科学技術大学院大学"}]},"item_4_text_4":{"attribute_name":"著者所属(英)","attribute_value_mlt":[{"subitem_text_value":"Nara Institute of Science and Technology","subitem_text_language":"en"},{"subitem_text_value":"Nara Institute of Science and Technology","subitem_text_language":"en"},{"subitem_text_value":"Nara Institute of Science and Technology","subitem_text_language":"en"},{"subitem_text_value":"Nara Institute of Science and Technology","subitem_text_language":"en"}]},"item_language":{"attribute_name":"言語","attribute_value_mlt":[{"subitem_language":"jpn"}]},"item_publisher":{"attribute_name":"出版者","attribute_value_mlt":[{"subitem_publisher":"情報処理学会","subitem_publisher_language":"ja"}]},"publish_status":"0","weko_shared_id":-1,"item_file_price":{"attribute_name":"Billing file","attribute_type":"file","attribute_value_mlt":[{"url":{"url":"https://ipsj.ixsq.nii.ac.jp/record/232886/files/IPSJ-NL24259023.pdf","label":"IPSJ-NL24259023.pdf"},"date":[{"dateType":"Available","dateValue":"2026-03-03"}],"format":"application/pdf","billing":["billing_file"],"filename":"IPSJ-NL24259023.pdf","filesize":[{"value":"4.6 MB"}],"mimetype":"application/pdf","priceinfo":[{"tax":["include_tax"],"price":"660","billingrole":"5"},{"tax":["include_tax"],"price":"330","billingrole":"6"},{"tax":["include_tax"],"price":"0","billingrole":"23"},{"tax":["include_tax"],"price":"0","billingrole":"44"}],"accessrole":"open_date","version_id":"581c2ef2-e163-46ae-8524-0184b49248c0","displaytype":"detail","licensetype":"license_note","license_note":"Copyright (c) 2024 by the Information Processing Society of Japan"}]},"item_4_creator_5":{"attribute_name":"著者名","attribute_type":"creator","attribute_value_mlt":[{"creatorNames":[{"creatorName":"鈴木, 刀磨"}],"nameIdentifiers":[{}]},{"creatorNames":[{"creatorName":"坂井, 優介"}],"nameIdentifiers":[{}]},{"creatorNames":[{"creatorName":"上垣外, 英剛"}],"nameIdentifiers":[{}]},{"creatorNames":[{"creatorName":"渡辺, 太郎"}],"nameIdentifiers":[{}]}]},"item_4_source_id_9":{"attribute_name":"書誌レコードID","attribute_value_mlt":[{"subitem_source_identifier":"AN10115061","subitem_source_identifier_type":"NCID"}]},"item_4_textarea_12":{"attribute_name":"Notice","attribute_value_mlt":[{"subitem_textarea_value":"SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc."}]},"item_resource_type":{"attribute_name":"資源タイプ","attribute_value_mlt":[{"resourceuri":"http://purl.org/coar/resource_type/c_18gh","resourcetype":"technical report"}]},"item_4_source_id_11":{"attribute_name":"ISSN","attribute_value_mlt":[{"subitem_source_identifier":"2188-8779","subitem_source_identifier_type":"ISSN"}]},"item_4_description_7":{"attribute_name":"論文抄録","attribute_value_mlt":[{"subitem_description":"大規模言語モデル(LLM)はラベルなしデータを用いた事前学習により高いタスク汎化性能を達成しているが,指示テンプレートを用いて様々なタスクを学習する Instruction-tuning を適用することで,さらにその能力を高めることが可能である.Instruction-tuning では過学習を回避するため,学習に使用する指示テンプレートの多様性を確保しなければならない.この点を踏まえ,FLAN データセットに代表されるような既存の指示データセットではタスクごとに複数のテンプレートを提供している.その一方で,これらのテンプレートには対象とするタスクと密接に関連する単語といったタスク特有の表層表現が含まれている.このような指示テンプレートに含まれる偏りは学習を通じて LLM に反映される可能性があり,その場合に特定の表層表現に対して性能低下を引き起こす原因となり得る.本研究ではこのような指示テンプレートに含まれるタスク特有の表層表現に起因する LLM の脆弱性の調査を行う.我々はこの調査のために,指示文に対してタスクの観点から内容を維持しつつ対象とする単語を挿入する手法を提案した.提案手法を用いて FLAN データセットから作成した指示テンプレートを用いてベンチマークデータセットである MMLU と BBH を対象とした検証の結果,各タスクに強く関連する単語が指示文に含まれることで,文意と無関係に出力結果が大きく変化し得ることを明らかにした.この結果は指示テンプレートに含まれる表層的な表現が LLM の脆弱性を引き起こす可能性を示唆するものであり,Instruction-tuning をより頑健なものとする上で重要な知見である.","subitem_description_type":"Other"}]},"item_4_biblio_info_10":{"attribute_name":"書誌情報","attribute_value_mlt":[{"bibliographicPageEnd":"17","bibliographic_titles":[{"bibliographic_title":"研究報告自然言語処理(NL)"}],"bibliographicPageStart":"1","bibliographicIssueDates":{"bibliographicIssueDate":"2024-03-03","bibliographicIssueDateType":"Issued"},"bibliographicIssueNumber":"23","bibliographicVolumeNumber":"2024-NL-259"}]},"relation_version_is_last":true,"weko_creator_id":"44499"},"created":"2025-01-19T01:34:00.865423+00:00","id":232886,"links":{}}