ポスト

対訳データを用いた継続事前訓練による翻訳精度評価(筑波大、NTT) ・提案手法 1)原言語文と目的文のデータを交互に継続事前学習 2)少量の高品質な対訳データでSupervised fine-tuning ・ベースライン ①対訳データで訓練されたvanilla transformer

メニューを開く

村山 理@sam_murayama

みんなのコメント

メニューを開く

②LLMをそのまま少量の高品質な対訳データでSupervised fine-tuning ・結果 - LLMをそのままsupervised fine-tuningしても、Vanilla Transformerより精度が悪い - 提案手法の原言語文と目的文の順番と同じ翻訳方向のみ、Vanilla Transformerに比べて翻訳精度が上回る youtube.com/watch?v=xAv_Js…

村山 理@sam_murayama

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ