Item type |
Symposium(1) |
公開日 |
2024-10-15 |
タイトル |
|
|
言語 |
ja |
|
タイトル |
悪意のある切り貼り操作により作成されるダイジェスト動画の判定手法 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Proposal for Detecting Digest Videos Created by Malicious Cut-and-Paste Manipulation |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
チープフェイク,切り貼り操作,自然言語処理,文章類似度,LLM |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
岡山大学 大学院環境生命自然科学研究科 |
著者所属 |
|
|
|
広島市立大学 情報科学研究科 |
著者所属 |
|
|
|
広島市立大学 情報科学研究科 |
著者所属 |
|
|
|
東北大学 データ駆動科学・AI教育研究センター |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Science and Technology, Okayama University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Sciences, Hiroshima City University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Sciences, Hiroshima City University |
著者所属(英) |
|
|
|
en |
|
|
Center for Data-driven Science and Artificial Intelligence, Tohoku University |
著者名 |
笠井, 健太郎
梅田, 創
稲村, 勝樹
栗林, 稔
|
著者名(英) |
Kentaro, Kasai
Hajime, Umeda
Masaki, Inamura
Minoru, Kuribayashi
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
AI技術によって加工・編集および生成されたフェイクコンテンツに対して,フォレンジクス技術によって真偽判定する手法が研究されている.一方,ダイジェスト版の作成に代表される正常な範囲内で動画を切り貼りするような編集においては,コンテンツ中に加工・編集・創造の形跡が全く含まれないことから,従来のフォレンジクス技術では対応が困難である.そこで,我々はSCIS2024にて,本来の発言内容から異なるように悪意を持って動画を切り貼りする操作に対する防御手段の検討を行った.公式な動画発信の際に特定の範囲内であれば切り取り操作を許可するような前処理を施すことで,動画の編集権は確保するが,悪意のある切り貼り操作を困難にすることを想定している.本研究では,日本語を対象とした自然言語処理モデルを使用して,編集前の動画と編集後の動画の発言内容の文脈や意味関係を判定するための文章類似度を求める手法を検討した.公的な発言を想定した架空の文章を検証データとし,文章類似度において,正常な動画と悪意のある動画で優位な違いが確認できるよう精度向上を図った. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Multimedia forensics techniques have been studied to detect fake content which are manipulated, edited, and generated by using AI-based methods. On the other hand, when videos are edited by cut-and-paste operation, such as in the creation of a digest version, it is difficult for conventional forensics techniques to handle such editing because there are no traces of manipulation, editing, or creation in the content. In SCIS2024, we presented a study on defensive method against malicious cut-and-paste editing that alters the original content of videos. We proposed a preprocessing method that allows for a certain degree of permissible editing during official video releases while making malicious editing difficult. In this study, we employ natural language processing models focusing on Japanese language to measure the textual similarity in terms of context and semantic relationships between the content of videos before and after editing. Using fictional statements designed to mimic public speeches as test data, we enhance the accuracy of detecting significant differences in textual similarity between legitimate and maliciously edited videos. |
書誌情報 |
コンピュータセキュリティシンポジウム2024論文集
p. 1266-1272,
発行日 2024-10-15
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |