- すべて
- 画像・動画
並べ替え:新着順
M1のmac買ったんだけど、普通にqwen2がollamaでサクサク動くし、4年前のPCでもこんなに凄いのか 秋とかにM4出るまでの繋ぎとして買ったけど期待以上だわ 中古なのに新品以上に綺麗だし運が良い
ollama初期ロードモデルを読み込むので時間かかります ローカルLLMは下記方法もあり speakerdeck.com/cloudevcode/el…
え、え。 すごい Zed と Ollama をつなげられるの?
Zed Preview v0.140 just arrived as well. Here's a sneak peek at what landed: - Added an Ollama Provider for the assistant. - Added support for linked editing ranges LSP request. Editing opening tags in HTML/TSX files (with vtsls) performs the same edit on the closing tag as well…
LLMのライフゲーム、ローカルで動かせるようにしたものもGitHubで公開します。 Gemini 1.5 FlashかLlama 3(Ollama)で動かせます。Llama 3はGPUないときついと思います github.com/karaage0703/la…
実は、多言語対応してあるので、一応英語、フランス語、ドイツ語、スペイン語で使えたりします。正しい文章になってるかどうか知らんけど。 #GeminiPad #Gemini #Ollama #RAG pic.twitter.com/F1VOwYYRl1
便利でありがたい話〜 Ollama uses model metadata, specifically tokenizer.chat_template, to automatically create a template appropriate for the model you're importing. github.com/ollama/ollama/…
記事を投稿しました! Open WebUI (Formerly Ollama WebUI) がすごい2(RAGもすごい) [AWS] on #Qiita qiita.com/moritalous/ite…
continueよりはなんかよりcursorのほうがAIファーストな気がするしこれやってこう Cursor EditorでOllamaを使う|ryoppippi zenn.dev/ryoppippi/arti… #zenn
Phi3ですが、こちらの方法でWSL上のollamaを使って評価しました。コンソールだけでなく、ちゃんとcurlで投げても答えるんだよな……。 qiita.com/ishidahra01/it…
Qwen2の0.5b。速いわ。 Android/Termux/ollamaでこの速度。 Q:東京の観光地を教えてください。 A:1.大阪市、2.北海道、3.江面、4.大阪市、5.滋味 ・・・江面(村)は埼玉かな?滋味はわかんにゃあ。 pic.twitter.com/Udol9bc6D0
ollamaの新しいモデルをダウンロードしてたら…ollamaのサイト落ちてたorz 仕方ないから、今日はGPT-4oのノーマルとAzure OpenAI をRAGありの状態で使うか〜。 微妙に精度落ちるんだよね〜
ContinueとDeepCoderさん(Ollama経由) 強すぎて草 英語圏の(オフラインAIの) 浸透率とDX導入が半端なさすぎる。NASDAQどころかNYダウも下がらない可能性。 アメリカが利下げしなくても、EUが利下げして、DXに拍車がかかって世界全体のGDP爆上がりする可能性はある。 pic.twitter.com/Benl6cdPWf
フル Docker で Dify + Ollama + LLama 3 7B で RAG で論文の内容について質問するところまでまとめた。N 番煎じにも程がある… zenn.dev/derwind/articl…
スクリプトの作成はMBP上でOllama+codestralをVSCode+Continueから呼び出してサポートしてもらいながら行いました。 Ollamaへのリクエスト周りはさすがに検索しましたが、分からないところをcodestralやQwen2に聞きながら実装した感じです。これが新しい開発の形になっていくのか。すごい時代だ。
ローカルでOllama上のllavaを使って画像の主題とスタイルを読み取り、再生成するためのプロンプトを出力するPythonスクリプトが作れました。Pythonが書ける人からすれば何てことないスクリプトですが、初心者が数時間で書けるんだからAIによるサポートって強い……。
Obsidian + Companion plugin で、いま書いているノートの続きをGithub Copilot的にばんばんサジェストしてもらう。ollamaとqwen2-7bの組み合わせで、つまりローカルLLMで動かしている。 pic.twitter.com/m1Q2w3EuJh
Obsidian + Companion plugin で、いま書いているノートの続きをGithub Copilot的にバンバンサジェストしてもらう。ollamaとqwen2-7bの組み合わせで、つまりローカルLLMで動かしている。 pic.twitter.com/K8bmGKnGmL
[2024/06/10 18:00] トレンド4位 Open WebUI (Formerly Ollama WebUI) がすごい by moritalous qiita.com/moritalous/ite…
“Open WebUI: オフラインで動作する、拡張可能なセルフホスト型 WebUI 。ローカルLLM実行のOllamaやOpenAI互換APIなど、さまざまなLLMランナーをサポート。” かなりChatGPTっぽ見た目。Docker使用が推奨されている。 / htn.to/2LhtJiksBo
対話型ローカル生成AIのOllamaをAndroidのTermux上で直接ビルドして高速省メモリ起動してみた。コピペでOK。簡単でモデルPhi3などなら日本語も使える。FreeBSDでも使える様になったらしい togetter.com/li/2380966.
「新しくでた中国AlibabaのローカルLLMモデルQwen2が超絶賢く日本語OK。僅か7BでChatGPT3.5を超える性能?llama.cppやOllamaで動作。驚異的な中国勢に驚きを隠せない性能」togetter.com/li/2381192 が伸びてるみたい。内容が気になるね! 作成者:@kapper1224
新しくでた中国AlibabaのローカルLLMモデルQwen2が超絶賢く日本語OK。僅か7BでChatGPT3.5を超える性能?llama.cppやOllamaで動作。驚異的な中国勢に驚きを隠せない性能 togetter.com/li/2381192
トレンド2:56更新
- 1
スケルトンダブル
- 少年ジャンプ+
- 39話
- ジャンプ
- 2
エンタメ
約束16年目の真実
- 約束 ~16年目の真実
- 16年目の真実
- 3
コーラルQ
- ガッシュ2
- ヴィノー
- ピヨ麿
- ロボルガ
- ガッシュ
- コーラル
- 4
ニュース
ファンケル
- 健康食品
- 子会社化
- TOB
- 33%
- 日本経済新聞
- 5
ITビジネス
スーパーゲームボーイ
- ゲームボーイ
- うれしかった
- 1994年
- 6
ニュース
ブバブボ
- ピーナッツくん
- not ok
- 7
エンタメ
香坂さん
- シリアルキラー
- 桃ちゃん
- 横山さん
- 横山くん
- アンちゃん
- 8
スポーツ
4年契約
- 伊藤洋輝
- バイエルン
- DF伊藤洋輝
- 30日まで
- 楽しみにしている
- 9
さくらしめじ
- 10
エンタメ
あくたの死に際
- マンガ大好き芸人
- 蛍原さん
- アメトーーク
- 光が死んだ夏
- アメトーーク!
- 野田クリスタル
- ぱーてぃーちゃん
- 野田