ポスト

なんと、MediaPipe LLM Inference APIを使って、MediaPipe形式に変換するとGemma 2Bや とGemma 7B、Phi-2、Falcon-RW-1B、StableLM-3BなどをブラウザやAndroids、iphoneなどで動かす事ができるようになるとの事 LoRAも対応しているようですがLoRAの場合はGPU必須っぽいです。

メニューを開く
Google for Developers@googledevs

🌟 You can now run the 7B parameter version of Gemma, entirely locally in the browser, using MediaPipe LLM Inference API. Simply download the model from @Kaggle and try it on → goo.gle/4ajmrYh Learn more → goo.gle/3UKhwcX

webbigdata@webbigdata

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ