@article{oai:ipsj.ixsq.nii.ac.jp:00079560, author = {呉鍾勲 and 山田, 一郎 and 鳥澤健太郎 and デ・サーガステイン and 橋本, 力 and Jong-Hoon, Oh and Ichiro, Yamada and Kentaro, Torisawa and Stijn, DeSaeger and Chikara, Hashimoto}, issue = {12}, journal = {情報処理学会論文誌}, month = {Dec}, note = {本論文では,構造化されたテキストと構造化されていないテキストを情報源として,単語間の上位下位関係を高精度に獲得する共訓練アルゴリズムCo-STAR(Co-training Style Algorithm for hyponymy Relation acquisition)を提案する.Co-STARにおける2つの独立な上位下位関係の獲得処理は各々のテキストから抽出した異なる手がかりを利用し,得られた知識を交換することにより共訓練を行う.従来の共訓練とは異なり,Co-STARは2つの異なる情報源の共通するインスタンスから効果的な学習データを獲得することで,精度の向上を実現する.実験では,構造化テキストとして日本語のWikipediaを,非構造化テキストとして5,000万のWebページを対象とし,大規模な上位下位関係獲得の処理を行い,Co-STARの有効性を示した.また,Co-STARはノイズの含まれる学習データを利用した場合でも頑健に動作することを確認した., This paper proposes a co-training style algorithm called Co-STAR that acquires hyponymy relations simultaneously from structured and unstructured text. In Co-STAR, two independent processes for hyponymy relation acquisition - one handling structured text and the other handling unstructured text - collaborate by repeatedly exchanging the knowledge they acquired about hyponymy relations. Unlike conventional co-training, the two processes in Co-STAR are applied to different source texts and training data. We show the effectiveness of this algorithm through experiments on large-scale hyponymy-relation acquisition from Japanese Wikipedia and Web texts. We also show that Co-STAR is robust against noisy training data.}, pages = {3574--3587}, title = {Co-STAR:上位下位関係獲得のための共訓練アルゴリズム}, volume = {52}, year = {2011} }