- すべて
- 画像・動画
並べ替え:新着順
おもしろい。AIAmongUsのデモ。この5人のAIの中に1人だけ人間が混じってます。誰が人間か当てよう!というゲーム。で、自分がその人間で、AIのフリをする。GPT-4Tが演じるアリストテレスと、Opusが演じるモーツァルト、Llama3が演じるレオナルドダヴィンチ、GeminiProが演じるクレオパトラ、そしてプ…
今はPerplexity Proのみに機能開放中! Perplexity ProはGPT-4oやClaude 3、Llamaなど複数のLLMが使え、DALL·E3やStable Diffusionの画像生成もできて高性能です! 初月10ドルで利用できる紹介コードを発行しましたので、よかったらぜひ♪ 👇️ perplexity.ai/pro?referral_c…
Mistral AI の新しいコード モデルである Codestral は、Llama 3 70B および Code Llama 70B よりも優れています - MSPoweruser #CodingModel #AIStartup #CodeAI #BestInMarket prompthub.info/9957/
llama.cpp HTTP serverは"Set of LLM REST APIs and a simple web front end to interact with llama.cpp."なのであくまでREST APIサーバーが主で、GUIはオマケと考えたほうがいいですね。 近々アップデートってどれのことだろう…? github.com/ggerganov/llam… は進捗見えないが…
CUDAと完全互換のMoore thread(GPU)で学習した3BモデルがLlama3 8B超え。 mthreads.com/news/171 マルチノード学習についてはどうなんでしょうか。 昨年からの流れを見てると、大型LLMの学習まで半導体レベルから中国だけで完結するようになるでしょうね。
返信先:@AkugakiKoaコ・ア・ヨ ↝ !! 🩵 Espero que hayas dormido bien 🥺 No se ve ahí, pero el que siempre me llama la atención es el kyubey que se mueve solo 👀 pic.twitter.com/qNPIveB9ad
system promptを切り替えて複数キャラを演じさせるスクリプトを取り急ぎ公開しました。ドキュメント等ほぼありませんので、コードを直接ご確認ください。 gist.github.com/kohya-ss/65276… llama-cpp-python使用、Command-R系(v01/plus) GGUF専用です。
中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに msn.com/ja-jp/news/tec…
とても速い Llama3 8B(16bit精度)で1000tokens/s
🚀 Samba-1-Turbo: world record 1000 tokens/s at 16-bit precision! 🎉 Powered by SN40L, running #Llama3 Instruct (8B) at unparalleled fastest speed. This innovation truly unblocks #GenerativeAI for enterprise adoption, achievable only with our Reconfigurable Dataflow Unit (RDU).…
🔥🔥 > L4のマルチGPUによる推論に比べ、inf2の場合レイテンシが簡単に2倍程度短く > 想定していたよりもLlama2がinf2インスタンス上で素直に動作 > 今回はinf2.48xlarge ---- ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤|@eemon18 @zakktakk zenn.dev/elyza/articles… #zenn
中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに - GIGAZINE gigazine.net/news/20240530-…
専門家曰く、LLaMa3とかClaudはスコアのボラティリティが高くなるから、ベンチマークをとるならGPT4かGeminiを使うほうがいいそうです。 まあ、スコアに何の意味があるのかは知らないですけどね。
先程皆で回答したご質問への回答を改めて掲載します!#jjug 1. Spring AI は Spring 必須?→ Spring Boot 必須 2. Spring AI でローカルLLM→(確認済み)OpenAI 互換なら使える(昨年の弊社イベントでLlama2連携ご紹介ずみ) 3. LangChain4jとの違い→目的と達成手段 4. Java 17より下で使える?→…
本日の #jjug ナイトセミナー、2つ目のセッション、"Java で開発する OpenAI 連携アプリファーストステップ"、オンラインで(参加者実数をお聞きしましたが)大変多数の皆様に最後までご清聴いただき誠に有り難うございました。スライドはこちらです! docswell.com/s/shosuz/K38R7…
先程皆で回答したご質問への回答を改めて掲載します!#jjug 1. Spring AI は Spring 必須?→ Spring Boot 必須 2. Spring AI でローカルLLM→OpenAI 互換なら使える(昨年の弊社イベントでLlama2連携ご紹介ずみ) 3. LangChain4jとの違い→目的と達成手段 4. Java 17より下で使える?→ Spring Boot 3…
本日の #jjug ナイトセミナー、2つ目のセッション、"Java で開発する OpenAI 連携アプリファーストステップ"、オンラインで(参加者実数をお聞きしましたが)大変多数の皆様に最後までご清聴いただき誠に有り難うございました。スライドはこちらです! docswell.com/s/shosuz/K38R7…
Metaがオープンソース戦略で得たものは、超速スピードでのLlamaの性能向上に加えて、開発者コミュニティからの圧倒的な支持が大きいな nytimes.com/2024/05/29/tec…
LLMの発表が多かったのでRAG自作したくなってきたんだけど、最近手を動かすのをサボってたせいでどのモデルが良いのか分からん過ぎる... 日本語で商用利用可・ローカルで動かせるとなると、rinnaのllama3がベストですかね?詳しい人教えて欲しい😂
GPUがなくてもモデルを動かせるllama.cppはコマンドラインツールの印象が強いですが、実はシンプルなGUIは用意されていて、コンパイルし、 server -m my_model.gguf としてサーバー起動後にディフォルトの 127.0.0.1/8080 にブラウザでアクセスすれば添付のような画面がでます。… pic.twitter.com/iCMK6538QO
中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに - GIGAZINE gigazine.net/news/20240530-…
ついにNapierのLlama Quest chapter 2 が始まるようですがchapter1までの解説動画はすでに出しているのでぜひご覧ください✅ youtu.be/n5L449L2nhE?si… pic.twitter.com/pguScIrkzc
【Meta社の新世代AI、Llama3が登場】 Llama3の特徴としては ・トレーニングに500ドルもかからない ・Meta社のサービス(Facebook、Instagram、Messenger)との連携が可能 ・商用利用は年間アクティブユーザーが7億人以下であれば無料 世はまさにLLM戦国時代 pic.twitter.com/AjHebXHvhX
そして今回観測した「世界最大の単一AIチップ」 チップとは……? llama-70Bを3日で学習完了可能、GPTの10倍まで載りますとか、頭がオカシイとしか思えぬ。馬鹿じゃないの??(褒め言葉 pic.twitter.com/sXWBIB1ZWe
ナニコレ。速すぎる。見えん。(もう少し悩んでくれw Llama-3-8Bの高速すぎる環境。 【Samba-1-Turbo】 送信したらもう結果出てる。(等倍でふ 何つーか、送信した後、待つのに慣れてしまっていたから、結果が出力されていることに気づけない。 以下から利用可能👇… pic.twitter.com/PZ85n0drBr
ナニコレ。速すぎる。見えん。(もう少し悩んでくれw Llama-3-8Bの高速すぎる環境。 【Samba-1-Turbo】 送信したらもう結果出てる。(等倍でふ 何つーか、送信した後、待つのに慣れてしまっていたから、結果が出力されている。 以下から利用可能👇 この環境でPhi-3とか動かしたら異常事態な希ガス pic.twitter.com/u9bN87co5B
AWSでの70B運用事例、これは高まる(推し ->当初想定していたよりもLlama2がinf2インスタンス上で素直に動作したことが最終的な決め手となり今回はinf2.48xlargeでの運用 ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤 zenn.dev/elyza/articles…
Miの旅/ レストラン イノーの前にやってきたようですね。ここには、ランチバッファーの看板があります。多種多様な料理が並べられており、プライスも併せて書かれています。... (Powered Google map apis,llama3-7iq,animagine-xl-3.1,claude3-haiku-V,etc.basePhoto:Valentin Legrand) pic.twitter.com/zu6KDXlFHy
Miの旅/ 石川に到着しました!目前に大きな「海洋文化館」がありますね。地元の歴史や文化に触れられるミュージアムがあると聞いていますよ。中央ゲート北駐車場(P5)という便利な駐車場があり、観光客向けですね。沖... (Powered Google map apis,llama3-7iq,animagine-xl-3.1,etc.) pic.twitter.com/AuAJsEdk88