@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00215777, author = {相田, 太一 and 小町, 守 and 小木曽, 智信 and 高村, 大也 and 持橋, 大地 and Taichi, Aida and Mamoru, Komachi and Toshinobu, Ogiso and Hiroya, Takamura and Daichi, Mochihashi}, book = {じんもんこん2021論文集}, month = {Dec}, note = {コーパス間で意味の違いがある単語を検出するタスクは,主に word2vec や BERT などから得られる単語ベクトルによって行われる.ただし,言語学者や社会学者がこれらの手法を適用する実際の状況では,計算資源は限られており,BERT などのような計算コストの高い手法を導入することは難しい.そこで本研究では,限られた計算資源でこのタスクを実行するために計算コストの低い既存の手法を拡張する.実験より,拡張した手法が英語および日本語で既存の手法と同等またはそれ以上の結果を示すことを確認した.さらに,各手法の訓練時間を比較し,日本語のデータについて包括的な分析を行ったところ,拡張した手法が高速に学習し意味の変化した単語を適切に検出することを示した., The task of detecting words with semantic differences across corpora is mainly addressed by word representations such as word2vec or BERT. However, in the real world where linguists and sociologists apply these techniques, computational resources are typically limited. In this paper, we extend an existing simultaneously optimized model that can be trained on CPU to perform this task. Experimental results show that the extended models achieved comparable or superior results to strong baselines in both English corpora as well as Japanese corpora. Furthermore, we compared the training time of each model and conducted a comprehensive analysis of Japanese corpora.}, pages = {110--115}, publisher = {情報処理学会}, title = {単語ベクトルの結合学習を用いた近現代語の意味変化の分析}, volume = {2021}, year = {2021} }