ポスト

Llamaの13Bモデル(7.3GByte)ならメモリ16GBのM1 Proで楽に動く……か。 3060 12GBが4万5千円ぐらいだから先の情報の通り2枚にすりゃいけるんだろうけど、 複数GPUはWSL Dockerで実行できたって情報がないから、Linux専用機は必要だよね。 うーん、スペース的なこと考えてもM1 Mac miniのが安そう。

メニューを開く

Daichi Ando@daichi_a

みんなのコメント

メニューを開く

いや違うな。 13Bモデル(7.3GByte)なら、4060のVRAM8GBだと無理だろうけど、3060のVRAM12GBなら1枚で行けるのか。 となると特殊な事情でない限りWSL Dockerで出来るじゃないか。

Daichi Ando@daichi_a

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ