ポスト

#LLM で長い複雑な命令を行動Stepに変換する高層方策 (Move, Grasp, Putなど可能行動の組み合わせ)の後に この #VLA で 各行動Step(Grasp the bagなど) を行うときの低層方策に使えそう 事前学習済みモデルの繋ぎのfine-tuneは, #Llava みたいやな #robot を自然言語で動かしてぇ

メニューを開く
Karl Pertsch@KarlPertsch

Very excited to release OpenVLA today, a 7B parameter open-source vision-language-action model (VLA). 🦾 SoTA generalist policy (better than Octo & RT-2-X) ⚡️ Easy to run & fine-tune on 1 GPU with quantization and LoRA 💻 Open-source PyTorch codebase 🤗 Models on HuggingFace 1/

void FkSg16KN(str Letter, img picture){投稿する函数}@FkSg16KN

Yahoo!リアルタイム検索アプリ