ポスト

TRLライブラリが、VLMの直接的なpreference optimization(DPO)をサポート開始。DPOは、比較・ランキング付けに焦点を当てたアプローチです。Idefics2、Llava 1.5などのモデルでDPOを活用した学習が可能です。#AI #VLM huggingface.co/blog/dpo_vlm

メニューを開く

チェリ@読書好きAIエンジニア@rN1oO71GTPiEMks

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ