@article{oai:ipsj.ixsq.nii.ac.jp:00079559, author = {呉鍾勲 and 山田, 一郎 and 内元, 清貴 and 鳥澤健太郎 and 橋本, 力 and Jong-Hoon, Oh and Ichiro, Yamada and Kiyotaka, Uchimoto and Kentaro, Torisawa and Chikara, Hashimoto}, issue = {12}, journal = {情報処理学会論文誌}, month = {Dec}, note = {本論文では大規模かつ高精度な知識獲得のため,言語横断共訓練(bilingual co-training)という新たな枠組みを提案する.言語横断共訓練における各言語の知識獲得プロセスは,対訳辞書などの対訳資源によってつながれ,各プロセスが協調して処理を行い,両言語の知識獲得の性能を向上させる.実験では,知識獲得のタスクの1つであるWikipediaからの上位下位関係獲得を日本語と英語を対象として行い,言語横断共訓練を適用することにより,F1値が約3.6~10.3%改善できることを示した.さらに,2言語で用意した学習データは,その総量が同じ単言語における学習データと比較して,上位下位関係獲得処理においてより効果的であることを示した., This paper proposes a novel framework called bilingual co-training for a large-scale, accurate acquisition method for monolingual semantic knowledge. In this framework, we combine the independent processes of monolingual semantic-knowledge acquisition for two languages using bilingual resources to boost performance. We apply this framework to large-scale hyponymy-relation acquisition from Wikipedia. Experimental results show that our approach improved the F-measure by 3.6-10.3%. We also show that bilingual co-training enables us to build classifiers for two languages in tandem with the same combined amount of data as required for training a single classifier in isolation while achieving superior performance.}, pages = {3558--3573}, title = {言語横断共訓練による単語間の上位下位関係の獲得}, volume = {52}, year = {2011} }