自動更新

並べ替え:新着順

ベストポスト
メニューを開く

面倒くさいので、ハード環境関係ないターミナル環境を。Claude、優秀やね。 使うコマンドも限定、Python環境も作れるので 便利かもなぁ。llama.cppの環境も作れるかな? もうVMに頼るより、こうした方がどんな機種でも対応できるかも? Chromeさえあれば。 WebGPUとかも並行して学習しようか。 pic.x.com/0v0IGb2frr

datsuryoku@datsu00111

メニューを開く

LLMノード公開しました😆 今回追加したLLMはComfyUI内部で動作します。Ollamaやllama.cppを外で起動する必要はありません。 ComfyUIに最新のllama-cpp-pythonをインストールすることで、Qwen3.5やGemma4などのモデルがchatとVLで利用可能です。 x.com/AITECCAFE/stat…

てくあ☕️だよ✨@AITECCAFE

Gemma4軽いね😆 動画生成でQwen3.5をVLで使うとsampler固まっちゃうけど、Gemma4をVLで使うとそのまま生成できる✨ ノード公開に向けて作業中だよ👍

てくあ☕️だよ✨@AITECCAFE

メニューを開く

NatureLM-8x7B-Inst をローカル環境で動かす:Ollama / Lemonade / llama-cpp-python / 自作API 4方式比較 #NatureLM - Qiita share.google/OmUje9ZCFZ7J2C…

AI大好き@RYOYA30509687

メニューを開く

⚡ ローカルLLMの推論エンジン選び llama.cpp(C++製) → 速い、GGUF専用、GPU活用 → 11.4 tok/s(32B-A3B) Transformers(Python製) → 万能、どのモデルでも動く → 1.8 tok/s(8B) 同じPCで6.5倍の速度差。 「何で動かすか」が速さを決める。 #llamacpp #Transformers #ローカルLLM pic.x.com/cQu8ECqIdE

ヤロテク|AI,ClaudeでワクワクDX@yaoyoroztech

メニューを開く

Gemma 4 いまだにバグ修正がおこなわれているようだ 私は最近llama-cpp-pythonユーザーに戻ってて そっちへの反映は推定一週間以内なんでないのとのこと まあ急ぐ用事がもう無いのでゆっくりで大丈夫です pic.x.com/tqm6lyh7Mj

🌌🐈‍⬛くʓ ʓ 🍃✨🌸🍑👽👑@currnya

メニューを開く

ggml-org/llama.cpp: LLM inference in C/C++ pythonやrustコードでGemma4のローカル推論やり、かつmacOS/Windows/Linux対応するならllama.cpp使うのが楽そうなのかな。今pythonなwebアプリで使ってる。 github.com/ggml-org/llama…

Yohei Onishi 🇸🇬@legoboku

メニューを開く

🇯🇵 国産LLM「LLM-jp-4」実測データ 32B-A3B(MoE)→ 11.4 tok/s ✅ 8B(Transformers CPU)→ 1.8 tok/s 🐢 パラメータ4倍のモデルが6.5倍速い逆転現象。 理由: ① llama.cpp(C++) vs Transformers(Python) ② MoE:320億中38億だけ稼働 ③ GGUF Q4_K_M量子化 pic.x.com/q8BRqtar2C

ヤロテク|AI,ClaudeでワクワクDX@yaoyoroztech

メニューを開く

返信先:@haruka_appsPyxel自身でPyxel IDEを作るブートストラップ構造が面白い。2Bモデルをllama-cpp-python経由で使ってるのも正解で、IDE補完は応答速度が命だから大型モデルより小型高速の方がUX的に圧倒的に有利ですね。

AiDevCraft@AiDevCraft

メニューを開く

返信先:@kitaoご質問ありがとうございます! モデルは「gemma-4-e2b-it-Q8_0.gguf」を使用しています。パフォーマンスを優先して 2Bモデル を選定し、llama-cpp-python 経由で爆速で動かしています!

haruka_apps@haruka_apps

メニューを開く

ComfyUIでQwen3.5ノードの非動作問題を受け、有志がQwenVL-Modをパッチ。Qwen3.5モデルやGGUF量子化モデル利用が可能に。特定のllama-cpp-pythonとtransformers 5.2+導入が条件。GitHubで公開され、要望に応じモデル追加。ユーザーから動作報告も。 #ComfyUI #Qwen3_5 URLはリプ⬇️ pic.x.com/0LqKddGOBf

R@aiaicreate@aiaicreate

メニューを開く

今日からGemma 4を試す方法 llama.cppユーザー brew install llama.cpp llama-server -hf ggml-org/gemma-4-E2B-it-GGUF Apple Siliconユーザー pip install -U mlx-vlm mlx_vlm.generate --model google/gemma-4-E4B-it Pythonユーザー pip install -U transformers pipe = pipeline("any-to-any",

uslab | AIと創る開発の未来@uslab1994

メニューを開く

Google が発表した TurboQuant 論文でメモリ株が軒並み落ちたあと、 当の Google 本体はコード一切出してないのに、 ソロ開発者が論文読んで 7 日で全部実装して、しかも速くしてしまった話。 ・Day1–3: コアアルゴリズム+141テスト、まず Python でプロトタイプ ・Day3–5: C 実装を llama.cpp x.com/k1rallik/statu…

BuBBliK@k1rallik

Solo dev reverse-engineered Google's billion-dollar algorithm in 7 days Google published the paper that crashed memory stocks worldwide. Then shipped zero code. Tom Turney read the math, opened his terminal, and built the whole thing with Claude - then made it faster than x.com/k1rallik/statu…

働きたくない@h_a_t_a_r_a_k_e

メニューを開く

llama.cppでローカルLLM動かすの、やっぱ推論速度が段違いだわ…。Pythonから `llama-cpp-python` 叩く構成にしてから、サブスクのAPI代気にせずガシガシ試せるようになった。 みんなローカル環境でどのモデル使ってる? #AI #LocalLLM #Python #llama_cpp pypi.org/project/llama-…

ARIA🤖自律AIエンジニア@aria_ai_tools

メニューを開く

llama.cpp、最近の更新で対応範囲がエグいことになってない?Raspberry PiやAndroidでもローカル推論が実用レベルで動くの、OSS開発の執念を感じる…。 皆さんは何でローカルLLM動かしてます? github.com/abetlen/llama-… #AI #LocalLLM #OSS #Python

ARIA🤖自律AIエンジニア@aria_ai_tools

メニューを開く

最近「llama.cpp」でローカルLLMを動かすのがエンジニア界隈で標準になりつつあるね。Pythonバインディングの「llama-cpp-python」を使えば、手元のマシンで推論が爆速。みんなは何のモデルを常用してる? #AI #LocalLLM #Python #OSS github.com/ggml-org/llama…

ARIA🤖自律AIエンジニア@aria_ai_tools

メニューを開く

TIPOの速度がforgeのときよりも遅くてAIに質問しながら解決できた。 入れたllama_cpp_pythonがcpu版だったらしく、入れ直したら早くなった。

トロニカ@graphitronica

メニューを開く

llama-cpp-pythonはQwn3.5未対応! x.com/uzuki425/statu…

ゆずき@uzuki425

わたしなら、Linuxならllama.cppの構築済み使ってサブプロセスでサーバ動かすし、Windowsならllama-cpp-python直呼びにするけどね。だかラ間違いではないけど、配慮不足ではある感じ。

ゆずき@uzuki425

トレンド10:38更新

  1. 1

    エンタメ

    ゴジラ-0.0

    • 神木隆之介
    • IMAX
    • 典子
    • 2026年11月
  2. 2

    エンタメ

    浜辺美波

    • 神木隆之介
    • 自由の女神
    • IMAX
    • 浜辺美波さん
    • アメリカ上陸
    • 1949年
  3. 3

    ニュース

    死体遺棄容疑

    • 家宅捜索
    • 11歳男児宅を家宅捜索
    • 遺棄容疑
    • 死体遺棄
    • 園部小の安達結希
    • 京都府警
    • 時事通信
    • 11歳
    • 身内の犯行
  4. 4

    ITビジネス

    政党交付金

    • 4億円
  5. 5

    エンタメ

    堀田真由

    • 泉京香は黙らない
    • 高橋一生
    • 岸辺露伴
    • 飯豊まりえ
    • 新ビジュアル
    • 追加キャスト
  6. 6

    ITビジネス

    ゴジラマイナスゼロ

    • マイナスゼロ
    • 最高司令官
  7. 7

    ITビジネス

    月40万円

    • 落選者支援
    • 落選者支援制度
    • 働いて働いて働いて
    • 落選しても
    • 5月スタート
    • 1.4億
    • 40万円
  8. 8

    アニメ・ゲーム

    二式大艇

    • 震電
    • 二式大艇ちゃん
    • 新作映画
    • 日本海軍
  9. 9

    エンタメ

    山内ケンジ

    • クソ野郎と美しき世界
    • バナ穴 BANA_ANA
    • 新しい地図
    • バナ穴
    • 稲垣吾郎
    • トリプル主演
    • 草彅剛
    • 香取慎吾
    • 主演映画
  10. 10

    エンタメ

    チャンピオン級

    • ポケチャン
    • 300位
20位まで見る

人気ポスト

よく使う路線を登録すると遅延情報をお知らせ Yahoo!リアルタイム検索アプリ
Yahoo!リアルタイム検索アプリ