ポスト
対訳データを用いた継続事前訓練による翻訳精度評価(筑波大、NTT) ・提案手法 1)原言語文と目的文のデータを交互に継続事前学習 2)少量の高品質な対訳データでSupervised fine-tuning ・ベースライン ①対訳データで訓練されたvanilla transformer
メニューを開くみんなのコメント
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OL3sgmuhpRupgFy-y24I8jZy3dtdjUhs7RVBlF1pRrm9YvvjQNhugsYzcwr9CfKXyJwkRvyapCoHx6SZkNRuR_sw6Z7t_nipzgWqNoHkux9Yk1H5IV2iVhiHIhh1QQclRFPDJyjSwm7sYWYq0d5PMzlYcMw0Oecxv1YwsdESaXSP0=)
②LLMをそのまま少量の高品質な対訳データでSupervised fine-tuning ・結果 - LLMをそのままsupervised fine-tuningしても、Vanilla Transformerより精度が悪い - 提案手法の原言語文と目的文の順番と同じ翻訳方向のみ、Vanilla Transformerに比べて翻訳精度が上回る youtube.com/watch?v=xAv_Js…