自動更新

並べ替え:新着順

ベストポスト
メニューを開く

🇯🇵 国産LLM「LLM-jp-4」実測データ 32B-A3B(MoE)→ 11.4 tok/s ✅ 8B(Transformers CPU)→ 1.8 tok/s 🐢 パラメータ4倍のモデルが6.5倍速い逆転現象。 理由: ① llama.cpp(C++) vs TransformersPython) ② MoE:320億中38億だけ稼働 ③ GGUF Q4_K_M量子化 pic.x.com/q8BRqtar2C

ヤロテク|AI,ClaudeでワクワクDX@yaoyoroztech

メニューを開く

ComfyUIでQwen3.5ノードの非動作問題を受け、有志がQwenVL-Modをパッチ。Qwen3.5モデルやGGUF量子化モデル利用が可能に。特定のllama-cpp-pythontransformers 5.2+導入が条件。GitHubで公開され、要望に応じモデル追加。ユーザーから動作報告も。 #ComfyUI #Qwen3_5 URLはリプ⬇️ pic.x.com/0LqKddGOBf

R@aiaicreate@aiaicreate

メニューを開く

【書籍】Python Transformers実装ハンズオン101本ノック: huggingface transformersでALBERT/ViT/BigBird他最新モデルを高速実装 Kindle版 amzn.to/379BiX7 780円で101本もノックできるのは非常にお得なので文句なく買い。一か月集中ならKindle Unlimited加入でさらにお得。

山本 和英@y8o

メニューを開く

今日からGemma 4を試す方法 llama.cppユーザー brew install llama.cpp llama-server -hf ggml-org/gemma-4-E2B-it-GGUF Apple Siliconユーザー pip install -U mlx-vlm mlx_vlm.generate --model google/gemma-4-E4B-it Pythonユーザー pip install -U transformers pipe = pipeline("any-to-any",

uslab | AIと創る開発の未来@uslab1994

メニューを開く

【5/15】主なパッケージ ・flask(UI) ・google-generativeai(Gemini) ・groq(バックアップ) ・sentence-transformers(ベクトル) ・pymupdf4llm & python-docx(ドキュメント解析) これでほぼ完結。

エジマヒロシ@hirejima

メニューを開く

アレからちょっとずつやっていっても難しいわ。 ・python ・venv ・依存関係 ・faster-whisper ・av ・transformers ・requirements ・pyopenjtalk ・BERT チャッピーなどいろんなAIに質問してるけどSBV2の話したらいろんな情報量でてきて頭痛い

だいじ💣@yuuca_anim

トレンド3:49更新

  1. 1

    ITビジネス

    非常事態宣言

    • イスラエル
    • ネタニヤフ
  2. 2

    悪魔城ドラキュラ

    • 最新映像
  3. 3

    エンタメ

    涙なめなめソング

    • 霧尾ファンクラブ
    • 霧尾
  4. 4

    エンタメ

    年齢非公表

    • 買い物かご
  5. 5

    寂しくなんかなかったよ

  6. 6

    ひーたん

    • るいさん
    • くるみさん
  7. 7

    もう寝ない

    • 二度寝する
  8. 8

    ニュース

    過労死

  9. 9

    エンタメ

    ナインティナインのオールナイトニッポン

    • ナインティナイン
    • ニッポン放送
  10. 10

    丸尾尋一郎

    • IRIS OUT
20位まで見る

人気ポスト

電車遅延(在来線、私鉄、地下鉄)

遅延している路線はありません

全国の運行情報(Yahoo!路線情報)
よく使う路線を登録すると遅延情報をお知らせ Yahoo!リアルタイム検索アプリ
Yahoo!リアルタイム検索アプリ