Item type |
SIG Technical Reports(1) |
公開日 |
2016-08-29 |
タイトル |
|
|
タイトル |
視線変化に基づく特徴抽出を用いた人物画像の性別推定 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Gender classification of images of people using Gaze-based Feature Extraction |
言語 |
|
|
言語 |
jpn |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
鳥取大学大学院工学研究科情報エレクトロニクス専攻 |
著者所属 |
|
|
|
鳥取大学大学院工学研究科情報エレクトロニクス専攻 |
著者所属 |
|
|
|
鳥取大学大学院工学研究科情報エレクトロニクス専攻 |
著者所属 |
|
|
|
鳥取大学大学院工学研究科情報エレクトロニクス専攻 |
著者所属(英) |
|
|
|
en |
|
|
Department of Information and Electronics, Graduate School of Engineering, Tottori University |
著者所属(英) |
|
|
|
en |
|
|
Department of Information and Electronics, Graduate School of Engineering, Tottori University |
著者所属(英) |
|
|
|
en |
|
|
Department of Information and Electronics, Graduate School of Engineering, Tottori University |
著者所属(英) |
|
|
|
en |
|
|
Department of Information and Electronics, Graduate School of Engineering, Tottori University |
著者名 |
松本, 陸
吉村, 宏紀
西山, 正志
岩井, 儀雄
|
著者名(英) |
Riku, Matsumoto
Hiroki, Yoshimura
Masashi, Nishiyama
Yoshio, Iwai
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本稿では,人物画像からの性別推定の精度を高めるために,人間から計測した視線位置の頻度分布を用いて特徴を抽出する手法を提案する.視線位置はいくつかの認識タスクにおいて性能向上に寄与することが知られているが,新たに性別推定においてその活用手法を議論する.人間が人物画像の男女を見分ける際,画像中のどの領域に視線位置が集まるかを実際に計測した結果,頭部付近に視線位置が特に集中することが明らかになった.そこで提案手法は,計測された視線位置の頻度分布から視線マップを生成し,性別を推定する際の特徴抽出の重みとしてそのマップを利用する.性別推定の性能を評価した結果,人物画像の頭部付近を強調することで精度が大きく向上することを確認した.また提案手法は,深層学習や計量学習を用いた既存手法と比べて,特に訓練サンプルが少ない時に高い精度になることを確認した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
We propose a method for extracting features by using gaze positions acquired from people to classify gender of images of people. It has been well known that gaze improves performance of classification for various tasks. We newly tackle to develop a method of utilizing gaze for gender classification. Our method acquires changes of gaze positions looked by subjects when classifying gender of images of people. We integrate changes of gaze positions between subjects and generate a gaze map for giving weights when extracting features. We observed that subjects look at head regions when classifying gender. Our experiments show that our method improves performance of gender classification by using a gaze map for feature extraction. We also demonstrated that our method is superior to metric learning or deep learning techniques when the number of training samples is small. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2016-CVIM-203,
号 39,
p. 1-6,
発行日 2016-08-29
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |