- すべて
- 画像・動画
自動更新
並べ替え:新着順
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OL2N45sc0Xs9fgQdujIwx1udER_MZFOlBhhf4GWFJ6n16vao374Z3lqhK1P1Djz4xeLQWTU-8XHxaCekRsXtFrsr0EvsirlOTN13MWGiKKKUoHkNSm8xTPTbZ_tfX8dXokJfLlvZ4gL22QsYT9LrvJhkz2XI0QzWkAk-dCbol7EPc=)
![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i4Yw44CJh6tnWWF09gmkYXjO7ofaczghQCaNT0Ns1zIv5A5BjuESOHrRKhLhXJOSWzzutPbsnnBWIks1JFExPfQGFNmpB5Li2mc_r6nk-9kxQwUdD2v5kBldN2Z-bIKaOQeiv1kOXzNwPF4v1euN4OZEdh7Y_0TCswhD_UYqQHhbI521u_RXE7MAKrNeMyrD9MRk5uV284YuczKp2Ufk7tq)
#LLM で長い複雑な命令を行動Stepに変換する高層方策 (Move, Grasp, Putなど可能行動の組み合わせ)の後に この #VLA で 各行動Step(Grasp the bagなど) を行うときの低層方策に使えそう 事前学習済みモデルの繋ぎのfine-tuneは, #Llava みたいやな #robot を自然言語で動かしてぇ
Very excited to release OpenVLA today, a 7B parameter open-source vision-language-action model (VLA). 🦾 SoTA generalist policy (better than Octo & RT-2-X) ⚡️ Easy to run & fine-tune on 1 GPU with quantization and LoRA 💻 Open-source PyTorch codebase 🤗 Models on HuggingFace 1/
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OLCByH0aQxP5GMRoGoIbEJ0wc-Ja_KT43xCmf02EwSUsInJRxBZ210O8blkIxmydAlZLTMWJ2VPfMeHrHbFaRE9VwieRT3UHtzpn0hGhIuuOOsSAXAJ4JHu5yW6JR8DW-pfmo0mNM3a99fvb2tLGZ_OA_KRXTUymORghd2RJy-1zI=)
【オープンソースの視覚言語モデル】 OpenVLAは、7Bのパラメーターを持つ視覚言語アクションモデル(VLA)。 量子化とLoRAにより、1GPUで簡単に実行&微調整が可能。 続く>> #AI #VLA pic.twitter.com/Gh70jixWef