自動更新

並べ替え:新着順

メニューを開く

llama.cppGPUサンプリング対応で爆速化! サンプリング工程がGPU内で完結し、データ転送の無駄を排除。推論速度が劇的に向上しました!「-bs」引数ひとつで有効化でき、ローカルLLMがさらに快適になります。🚀 #llamacpp #ローカルLLM pic.x.com/SxCG2bqcrp

ハカセ アイ(Ai-Hakase)🐾最新トレンドAIのためのX 🐾@ai_hakase_

メニューを開く

検証まとめ llama.cpp Llama-4-Scout-17B-16E-Instruct-Q6_K CPU: AMD EPYC 9175F (AVX-512) ・CPU 推論 ・eval ~11–15 tok/s ・GPU 未使用 vLLM Hermes 4.3 36B nvfp4 GPU: RTX 6000 PRO Max-Q 96GB ・GPU 推論 ・gen ~32–34 tok/s pic.x.com/CDsOR4Zdgg

ksh3@loFT LLC@nugcftcokoiko

メニューを開く

ik_llama.cppのマルチGPU高速化に関するRedditの技術議論スレッド reddit.com/r/LocalLLaMA/c…

ハカセ アイ(Ai-Hakase)🐾最新トレンドAIのためのX 🐾@ai_hakase_

メニューを開く

【マルチGPU革命!ik_llama.cppで推論が最大4倍速に 🚀】 新モードのグラフ並列で複数GPUを同時駆動!70Bモデルも爆速で動き、安価なGPUを並べるコスパ最強構成が現実的になります。眠れる力を解放しましょう! #AI #GPU pic.x.com/QKxfiU7Za6

ハカセ アイ(Ai-Hakase)🐾最新トレンドAIのためのX 🐾@ai_hakase_

メニューを開く

適当にバージョンアップして気づいたんですけど、最新のllama.cppって標準でReasoningモデルの思考部分出力しなくなりました? 少なくともgpt-oss-120bがGPUの動きからReasoningはしているはずですが出力しなくなっています。

ゆー(パソコンとローカルLLM)@@YoutechA320U

メニューを開く

【旧型GPU3枚で最新AIを動かす!神コスパ活用術】 中古GTX 1070を3枚使いVRAM 24GBを確保!最新のllama.cpp設定で処理速度が大幅向上します。大型モデルも個人環境でサクサク。型落ちハードを技術で使い倒しましょう!🚀 #生成AI #自作PC pic.x.com/DCYPo2qEky

ハカセ アイ(Ai-Hakase)🐾最新トレンドAIのためのX 🐾@ai_hakase_

メニューを開く

今見たら「FastFlowLM NPU」にgpt-oss 20Bがない Llama.cpp GPUの方に移されたぽい😗 x.com/itm_aiplus/sta…

ITmedia AI+@itm_aiplus

NPUだけでOpenAIのLLM「gpt-oss」が動く! 速度や消費電力を計測してみた itmedia.co.jp/aiplus/article…

千葉県の特定行政書士・特定社労士🏀AI活用業務効率化推進派@CHIBA_YOURSIDE

メニューを開く

MoEモデルで毎回呼ばれる重要部分だけをGPUに載せるllama.cppのオプション「-cmoe」「-ncmoe」を使うとGPUを1枚しか使ってくれないのは何なんですかね…?

ぐれーぷ@最新テクノロジーまとめ垢@2022_technology

メニューを開く

Vulkan llama.cpp v1.66.0にするとGPU2枚にした時にロードできなくなるな

ょーじょ🎤👑@Yui_Utaai

メニューを開く

llama.cppがbackwell GPUのMXFP4演算器の使用をサポートgithub.com/ggml-org/llama…

ぐれーぷ@最新テクノロジーまとめ垢@2022_technology

メニューを開く

llama.cppのダウンロード先 macOS/iOS、macOS Apple Silicon、macOS Intel、Linux:、Windows、GPUはあってもなくてもOK github.com/ggml-org/llama…

webbigdata@webbigdata

メニューを開く

返信先:@rin_tkswもしよかったらRamaLama使ってみてください。ざっくり言うとollamaをコンテナで実行する、的なツールです。実行環境のGPUに調べて、必要なライブラリ(CUDAとかROCmとか)をリンクしたllama.cppが入ったコンテナイメージをダウンロードして実行します ramalama.ai

Manabu Ori@orimanabu

メニューを開く

AMD GPUで爆速ローカルAI!ROCm最適バージョン判明🚀 llama.cppとMI50 GPUで、ROCm 5.7.3が最新版より高速な結果に!驚きのパフォーマンスを試してみませんか?✨ #生成AI #AMD pic.x.com/B39bXdFCmD

ハカセ アイ(Ai-Hakase)🐾最新トレンドAIのためのX 🐾@ai_hakase_

メニューを開く

寒い冬にGPUを回して暖を取るための知見を書いた。ご活用ください。 > Claude CodeをMac Book ProのローカルLLMで動かすためのllama.cppパフォーマンスチューニング qiita.com/minamijoyo/ite…

城陽人@minamijoyo

メニューを開く

llama.cpp使ってみたけど全然速くならんな。GPUが無いとほぼ変わらんみたい。

とうふ@bokoprin

メニューを開く

返信先:@2022_technologyllama.cppの対応も時間がかかっていましたし、難しいのですかね。 GPUに重みを置いています。 ryzen ai max+395勢としては、かなり強力なローカルモデルです。ベストフィットなサイズ感であり、50tpsくらいででも良いのでは、と期待しています。

posi_posi@posi_posi8

メニューを開く

llama.cppのQwen3-NextはCUDA対応が不完全で、あまり速度が上がらないのは仕様です ただし、GPUメモリに重みを置くことはできますし、全く速度が上がらないわけでもないらしいです(私も詳細までは理解しきれてません) x.com/posi_posi8/sta…

posi_posi@posi_posi8

OpenwebUI/LM StudioでQwen3-Next-80b-a3b-instructを動かした様子。 23token/sec程度。 gpt-oss-120bより遅いのは、最適化されていないから? 今後、速くなる可能性はある? x.com/posi_posi8/sta…

ぐれーぷ@最新テクノロジーまとめ垢@2022_technology

メニューを開く

返信先:@mojinllama.cppでニューラル言語モデルを回しているので、それなりにGPU性能は必要ですね。私はM2 MacBook pic.x.com/BYX3ZZs3Qi

flowksms@flowksms

トレンド8:27更新

  1. 1

    エンタメ

    鬼の花嫁

    • 田辺桃子
    • 尾野真千子
    • 伊藤健太郎
    • ムビチケ
    • 永瀬廉
    • 公式TikTok
  2. 2

    エンタメ

    エルヴィス・プレスリー

    • 1947年
    • イヤホン
  3. 3

    スポーツ

    三笘

    • 三笘薫
    • ブライトン
    • ゴラッソ
    • マンC
    • マンチェスターシティ
  4. 4

    スポーツ

    レイシー

    • シェシュコ
    • カゼミロ
    • ウガルテ
    • フォーデン
    • クーニャ
    • フレッチャー
  5. 5

    ITビジネス

    記念銀貨

    • 記念硬貨
    • 中国籍の男
    • 昭和天皇
  6. 6

    ニュース

    まだ木曜日

    • 失いたくない
  7. 7

    グルメ

    眞栄田

    • コラボCM
    • 眞栄田郷敦
    • マクドナルドコラボ
  8. 8

    スポーツ

    三笘さん

  9. 9

    大隅海峡

    • 中国軍艦
    • 過去最多
    • 鹿児島県
  10. 10

    スポーツ

    プレミアリーグ

    • 三笘薫
    • ブライトン
    • マンC
    • 値千金
20位まで見る

人気ポスト

よく使う路線を登録すると遅延情報をお知らせ Yahoo!リアルタイム検索アプリ
Yahoo!リアルタイム検索アプリ