<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-04-17T13:22:26Z</responseDate>
  <request verb="GetRecord" metadataPrefix="oai_dc" identifier="oai:ipsj.ixsq.nii.ac.jp:00214518">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00214518</identifier>
        <datestamp>2025-01-19T16:35:46Z</datestamp>
        <setSpec>6164:6165:6462:10749</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>顔認証における公平性評価の一検討</dc:title>
          <dc:title>A Study on Fairness Evaluation for Face Recognition Systems</dc:title>
          <dc:creator>大木, 哲史</dc:creator>
          <dc:creator>荒井, ひろみ</dc:creator>
          <dc:creator>Tetsushi, Ohki</dc:creator>
          <dc:creator>Hiromi, Arai</dc:creator>
          <dc:subject>顔認証，公平性，生体認証</dc:subject>
          <dc:description>顔認証技術は，特に欧米において犯罪捜査を目的とした利用が進んでいるが，一方で近年，学習データの偏りによって，有色人種や性別などのセンシティブ情報に依存して顔認証技術の精度が大きく変動することが社会問題となりつつある．本研究では，顔認証における公平性について取り上げる．例えば犯罪者リストとの照合など人生に重大な影響を与える用途において．ある特定のセンシティブ情報をもつグループが犯罪者に誤認識されやすいような状況は不公平であると言える．本研究ではこのような不公平さについて，特に表現学習に基づく汎用的な顔認証システムを取り上げ，その公平性評価方法について検討，評価を行った．MORPH データセットを用いた実験により，デモグラフィックに偏りのある学習セットにより作成された顔特徴抽出器を用いた場合に，認証精度の偏りが生じることや，偏りのあるテストセットを用いることで意図的に高い公平性評価値を算出可能である，属性ごとのしきい値を設定することで認証精度への影響を軽減できることなどが示された．</dc:description>
          <dc:description>Face recognition technology is increasingly being used for criminal investigations, especially in Europe and the United States. However, it has become a social problem that the accuracy of face recognition technology varies greatly depending on sensitive information such as race and gender due to training data bias. For example, in a life-critical application such as matching with a criminal list, it is unfair that criminals easily misrecognize a group with certain sensitive information. This paper discusses and evaluates the fairness evaluation method of a general-purpose face recognition system based on representation learning. The MORPH dataset experiments showed that authentication accuracy bias occurs when using a face feature extractor created with a demographically biased training set. Furthermore, we showed that it is possible to intentionally calculate a high fairness evaluation value using a biased test set. The effect on authentication accuracy can be reduced by setting a threshold value for each attribute.</dc:description>
          <dc:description>conference paper</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2021-10-19</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>コンピュータセキュリティシンポジウム2021論文集</dc:identifier>
          <dc:identifier>879</dc:identifier>
          <dc:identifier>886</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/214518/files/IPSJCSS2021118.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
