<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-11T04:01:28Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00242139">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00242139</identifier>
        <datestamp>2025-01-19T07:25:49Z</datestamp>
        <setSpec>1164:11259:11885:11886</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>大規模言語モデルを用いたデータセット内の主観情報の評価</dc:title>
          <dc:title>Evaluation of Subjective Information in a Dataset Using a Large- Scale Linguistic Model</dc:title>
          <dc:creator>小林, 篤弥</dc:creator>
          <dc:creator>山口, 実靖</dc:creator>
          <dc:creator>Atsuya, Kobayashi</dc:creator>
          <dc:creator>Saneyasu, Yamaguchi</dc:creator>
          <dc:subject>自律移動技術とAI応用</dc:subject>
          <dc:description>近年，OpenAI や Microsoft が大規模言語モデル (LLM) を発表し，特に ChatGPT は自然言語処理 (NLP) の研究を行っていない一般の人々にも利用されている．NLP の分野では，GPT シリーズや Bard のような LLM が多数の成果を挙げている．それに伴い，LLM モデルが内包している知識や生成したテキストを用いた「知識推定」の研究も日々行われてきた．しかし，これら知識推定の研究は主に客観的な知識の調査に焦点をあてており，主観的な知識やその偏りに関する分野の調査は不十分である．本研究では，ローカル環境で動かすことのできるパラメータサイズの大規模言語モデルに新聞記事のデータセットを学習させ，主観情報に関する考察を行う．</dc:description>
          <dc:description>Recently, OpenAI and Microsoft have released large-scale language models (LLMs), especially ChatGPT, which has been used by the general public not involved in natural language processing (NLP) research. In line with this, research on “knowledge estimation” using the knowledge contained in LLM models and generated text has been conducted on a daily basis. However, these knowledge estimation studies have mainly focused on the investigation of objective knowledge, and there has been insufficient research in the area of subjective knowledge and its biases. In this study, we examine subjective information by training a dataset of newspaper articles on a large-scale language model with a parameter size that can be run in a local environment.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2025-01-16</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告コラボレーションとネットワークサービス（CN）</dc:identifier>
          <dc:identifier>42</dc:identifier>
          <dc:identifier>2025-CN-124</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>6</dc:identifier>
          <dc:identifier>2758-8262</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/242139/files/IPSJ-CN25124042.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
          <dc:relation>AB00006906</dc:relation>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
