- すべて
- 画像・動画
自動更新
並べ替え:新着順
メニューを開く
ローカルでLLMを動かせるオプション追加。これで、API使わず、ローカルのGPUでLLM動かさずに、アプリ動きます。現在のデフォルトはgemma3-4b itなので少しおそいです。llama-cpp-pythonでQwn3.5が使えるようになれば、Qwen3.5-2B-ggufを指定しましょう。 github.com/animede/simple…
メニューを開く
ComfyUI環境を、Blackwell(sm_120)フル対応のPython 3.13 + CUDA 13.0 + PyTorch 2.10.0+cu130 + xformers + triton-windows + sage-attention + flash-attention + llama-cpp-python(vision対応)+ onnx + onnxruntime-gpuに移行できた。 全部コンフリクトなく無事動いている。 その前のPython pic.x.com/1uknZXUPRl
メニューを開く
ComfyUI環境を、Blackwell(sm_120)フル対応のPython 3.13 + CUDA 13.0 + PyTorch 2.10.0+cu130 + xformers + triton-windows + sage-attention + flash-attention + llama-cpp-python(vision対応)+ onnx + onnxruntime-gpuに移行できた。 全部コンフリクトなく無事動いている。 その前のPython pic.x.com/lg8Zq2k5i1




