ポスト
Windows の WSL2 で入れた Ubuntu で Docker + Ollama + llama3 を動かしたメモをまとめました。 #LLM #WSL 1ft-seabass.jp/memo/2024/05/2…
メニューを開くみんなのコメント
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OL5LUCL2N-OItT77Z77dNVkwgxmaIGdoEiiq8ttI8VoWaRX2UCWa10MWTWds3u71K8yK7eip5ndJeqAlyMOMWvX-aNx0wYNagD1dE-uTGFtNcMW28F2wPXXfjF-EnBIQ5beRDAZcXHdevZHnk7QYK0Rg7F0WQPGrksPWxmzq2DJGE=)
@karaage0703 さんの Raspberry 5 での Ollama 記事をヒントにして Windows で動かせました!ありがとうございます~。 zenn.dev/karaage0703/ar…
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OLKVIVshpCjO4bL_c2WeVNorIVztphDwQX2PaK353BXPBNfW3dWjQ2-fy3JXEMYWzsffV4Yyv5R98M0cexcGIsWX0bw0-LyIhwmIDrJ8VeDcSl155YOGYQTTC5gEP96fdPuJWknDUf4GY1F_E9CiICOLdovhxCfJ384gb7zjWVcpmb06ArTfFUYsfAHjHIZVwQ)
/root/.ollamaをホスト(WSL2のUbuntu)のどこか(`ollama`って場所)にマッピングしてますので、これをちゃんと存在するディレクトリに指定しておけば、モデルデータがホスト側にキャッシュされるはずです。コンテナを立ち上げ直すたびにモデルが空になる、なんてことが防げます。 pic.twitter.com/gb8lRi3LHR