@techreport{oai:ipsj.ixsq.nii.ac.jp:02000216, author = {安岡,孝一}, issue = {10}, month = {Feb}, note = {2024年12月に発表されたModernBERTは,入出力幅8192トークンを,1.5億パラメータのモデルで実現している.これまでBERTやDeBERTaの1.5億パラメータ・モデルは,入出力幅が512トークン程度だったことに較べれば,格段の進歩である.係り受け解析での隣接確率行列を考えると,8192トークンもあれば90×90の正方行列がそのままモデルに乗ってしまう.三角行列に圧縮できれば,126×126までは乗りそうである.つまり,隣接確率行列をモデルに乗せてしまった形での解析アルゴリズムを,開発可能だということである.そのようなアルゴリズムを乗せた日本語ModernBERTは,本当に実現可能なのか.本稿では,その可能性を探る.}, title = {青空文庫ModernBERTモデルによる国語研長単位係り受け解析}, year = {2025} }