- すべて
- 画像・動画
並べ替え:新着順
🇯🇵 国産LLM「LLM-jp-4」実測データ 32B-A3B(MoE)→ 11.4 tok/s ✅ 8B(Transformers CPU)→ 1.8 tok/s 🐢 パラメータ4倍のモデルが6.5倍速い逆転現象。 理由: ① llama.cpp(C++) vs Transformers(Python) ② MoE:320億中38億だけ稼働 ③ GGUF Q4_K_M量子化 pic.x.com/q8BRqtar2C
ComfyUIでQwen3.5ノードの非動作問題を受け、有志がQwenVL-Modをパッチ。Qwen3.5モデルやGGUF量子化モデル利用が可能に。特定のllama-cpp-pythonとtransformers 5.2+導入が条件。GitHubで公開され、要望に応じモデル追加。ユーザーから動作報告も。 #ComfyUI #Qwen3_5 URLはリプ⬇️ pic.x.com/0LqKddGOBf
【書籍】Python Transformers実装ハンズオン101本ノック: huggingface transformersでALBERT/ViT/BigBird他最新モデルを高速実装 Kindle版 amzn.to/379BiX7 780円で101本もノックできるのは非常にお得なので文句なく買い。一か月集中ならKindle Unlimited加入でさらにお得。
今日からGemma 4を試す方法 llama.cppユーザー brew install llama.cpp llama-server -hf ggml-org/gemma-4-E2B-it-GGUF Apple Siliconユーザー pip install -U mlx-vlm mlx_vlm.generate --model google/gemma-4-E4B-it Pythonユーザー pip install -U transformers pipe = pipeline("any-to-any",
【5/15】主なパッケージ ・flask(UI) ・google-generativeai(Gemini) ・groq(バックアップ) ・sentence-transformers(ベクトル) ・pymupdf4llm & python-docx(ドキュメント解析) これでほぼ完結。
アレからちょっとずつやっていっても難しいわ。 ・python ・venv ・依存関係 ・faster-whisper ・av ・transformers ・requirements ・pyopenjtalk ・BERT チャッピーなどいろんなAIに質問してるけどSBV2の話したらいろんな情報量でてきて頭痛い
人気ポスト
私個人の意見ですが、オシャレに無頓着になったかと言われると私はそうは思わないです…無頓着な人はハミルトンの時計を付けたり、10万ほどはするスーツを選んで着用したりはしないはずなんです…
1週間近く右耳の聴こえが悪く、不安の中ついに耳鼻科を受診、聴力検査の結果バカデカい耳垢が溜まっていただけで終了、「こりゃ聴こえないよ」と院長に笑われる始末 【実績】5分2410円の耳かきを達成
小6➡中3➡高2➡大2 ちょっとはかわいくなったかなー 中3と高2は顔面コンプ拗らせすぎてありえん加工が強い
マジでコンクリート仕込む人いるんや🤣
さっき発表されたばっかやのに 帯ってこんな早く差し替わるんや。
「ストゼロのような質の悪い酒を飲むと痩せる。」 やけに骨っぽい腕や脚は電解質のバランスを崩して水分を余分に排出して保水できず脱水を起こしている状態。ここから低栄養状態で更にアルコールや塩分のない水分を摂取するとループで不健康な体重減少が起こる。
お医者さん これに効く漢方を処方してあげて
ぽたぽた焼久々に食べたら、おばあちゃんの知恵袋が知恵袋のレベルを超えててびっくりした
一般人「ただの木やな」 昭和産まれ「音楽まで聞こえちゃう」
テスト結果大体これ
SNSのバズまとめ
SNSのバズまとめ一覧



