@techreport{oai:ipsj.ixsq.nii.ac.jp:02004363, author = {今城,健太郎 and 平野,正徳 and 野沢,健人 and 中鉢,魁三郎}, issue = {10}, month = {Sep}, note = {大規模言語モデル(LLM)の発展により、自然言語処理タスクの性能は飛躍的に向上したが、翻訳タスクに特化したモデルの最適化は依然として課題である。本研究では、日本語と英語の翻訳に特化した大規模言語モデル「plamo-2-translate」を提案する。提案モデルは、専用のフォーマットを活用した入出力制御、対訳コーパスと合成データを用いたファインチューニング、Iterative DPOによる最適化を組み合わせ、流暢で文脈に即した翻訳を実現する。評価実験では、BLEU、chrF、BERTScore、COMET、GEMBA-MQMなどの複数の指標において、ベースモデルや他のLLMと比較して同等以上の性能を達成し、特に人間の評価に近いGEMBA-MQMで顕著な改善を確認した。さらに、文体指定やコンテキスト保持などの機能を備え、多様な翻訳ニーズに対応する。本研究で構築したモデルは、Huggingfaceを通じて公開しており、そのほかも様々な形態での公開を進めている。}, title = {PLaMo Translate: 翻訳特化大規模言語モデルの開発}, year = {2025} }