@techreport{oai:ipsj.ixsq.nii.ac.jp:00142476, author = {南, 賢太郎 and 荒井, ひろみ and 佐藤, 一誠 and 中川, 裕志 and Kentaro, Minami and Hiromi, Arai and Issei, Sato and Hiroshi, Nakagawa}, issue = {7}, month = {Jun}, note = {差分プライバシは,個人情報を含むデータから構成した推定量や学習器を外部に公開する場合のプライバシ保護基準として代表的なものである.近年,様々な学習タスクにおいて,差分プライバシを満たすように学習結果を公開する手法が提案されてきた.最近,事後分布からのサンプリングが自動的に差分プライバシを満たすことが Wang らによって示された.Wang らの結果は,モデルの対数尤度の有界性という極めて限定的な状況でのみ成立するものであった.本論文では,より広い統計モデルおよび学習タスクまで結果を拡張し,擬ベイズ事後分布と呼ばれる分布からのサンプリングが適当な条件のもとで (ε,δ)‐ 近似差分プライバシを満たすことを示す.特に,サンプルサイズや事前分布の縮小の強さの寄与が定量的に評価できる.また,本論文の結果によって,密度推定や非有界な損失をもつ問題に対して,差分プライバシを満たす新しい学習アルゴリズムが得られる., We investigate relationship between differential privacy and pseudo-Bayesian posterior distributions. Recently, Wang, et al. proved that a parameter drawn from Bayesian posterior distribution automatically satisfies differential privacy. In this paper, we show that samples from pseudo-Bayesian posterior distributions satisfy (ε,δ) -differential privacy. Our result can be applied to various problems in which loss functions are possibly unbounded.}, title = {差分プライバシと擬ベイズ事後分布}, year = {2015} }