- すべて
- 画像・動画
並べ替え:新着順
#Groq 昨日のFalcon 180Bのデモより更に速く1秒間に260トークンの文章が生成されるようになったようです🚀 173単語/秒→260単語/秒 180BのLLMでこの速度… 近い将来、電卓ぐらいの速度でLLMが使える時代になりますね😊 twitter.com/i/status/17882…
19 hours ago we shared that we're working on bigger models, with a demo using Falcon 180B. We posted the video and engineering said "wait, we can make that faster", now ~260t/s. See the new video today. This week - faster inference, more capacity, ...blast off 🚀
【AI 1分解説】 爆速でチャットに答えてくれる「Groq」(グロック)が快適すぎる #AI #Groq ▶︎TikTok tiktok.com/@thewave_tv/vi… ▶︎YouTube youtube.com/shorts/dA7AjSf… pic.twitter.com/1CXqAP5gvR
新しい記事公開しました! 「Groqの超高速環境でMetaの最新LLM「Llama 3」を試してみる」 scuti.jp/blog/try-llama… #Groq #Llama3 #GenAI
ChatGPTの10倍以上早いと言われているGroqを触ってみたけど、確かに爆速🐆 このチップが標準になったら作業ももっと早くなるにな〜 #ai #groq pic.twitter.com/w0jyP4h8hg
はてなブログに投稿しました GroqのLPUの性能を調べてみた - シンギュラリティ実験ノート singula2045.hatenablog.com/entry/2024/05/… #はてなブログ #Groq #LPU
返信先:@jrpj2010groqについてまとめてみました。投資家の目線で表面的かもしれませんが。 同感です⇒「#groq 無ければ #Llama3 意気消沈してた」 x.com/invest_us_jp/s…
【米国株 無料note】書きました! Groq半導体はエヌビディアの脅威となるのか。 結論:現時点で影響を受けるのは全体の10%程度ではないか。 但し、GPUと大きく異なる仕組みで、AI推論スピード・電力消費など優位。CUDA対応も、と、 $NVDA 投資において理解必須です! note.com/tender_deer595…
既に一部界隈で話題になっているけど、エヌビディア下落の一因として、 GPUではなく、LLMに最適化されたASICで、ここまで #Groq がスピーディーだから説
Groqがなぜこんなに速いのか?それはGPUではなくLLMに最適化されたASICを使っているからです。Groqは最近新しいデータセンターを作ったばかりで、そこで何個ASICを使っているのか直接聞いたら700個以上と答えてくれました、今後リアルタイム性需要が高まるとGroqはさらに急成長してくると思います。
こちらでLlama3+GroqをComfyUIのカスタムノードを作って組み込んでプロンプトの翻訳と調整をリアルタイムでする形を作りちょっと画像生成して見ました😊 高速なので、いろんな文字列処理も同時にさせられますね😂 #ComfyUI #CustomNode #Llama3 #Groq pic.twitter.com/HkHYE1GXJO
あきらパパさん(@akira_papa_IT)に教えてもらって早速「groq+Llama3-8b」試してみたけど、本当に出力早すぎて出力されているの気づかないぐらい早い。 もう人間ではこのスピード追えないので、生成AI同士が このスピードで会話しだすとなると、もうとんでもないですね😇 #groq #Llama3 pic.twitter.com/MKBlMhaF0H
新しいモデルで システムプロンプト 10パターンを試してみた。 #Groq 1️⃣ 親切なアシスタント ユーザーに対して親切で丁寧な応対をし、質問に誠実に答える。これ以降は日本語のみで出力してください。 2️⃣専門家アシスタント…
システムプロンプト懐かしい 今のGPTに振舞わせなくても意図したアウトプットしてくれるから基本的なこと薄れてた💦
システムプロンプトだ! #Groq pic.twitter.com/GfrnAw6hrx
返信先:@xiaoqianWX他1人@xiaoqianWX thanx ! ( ¨̮ )♪ Testing LLaMa3, we found that using system prompts to guide the model's behavior significantly improved output accuracy! Unintended and nonsensical responses decreased, while appropriate and helpful answers increased. Optimizing system prompts could…
何回も「日本語で書いて」と言ったら、「だから!」とプチ怒り💢www😂 しまいには私に質問してきた。 #Groq #Llama3 #iSOアプリ版LLaMa3 pic.twitter.com/VKfTmxUgKX
groqでLlama使うと日本語まだまだだめだなって言う評価あるけど事前に指示しておくだけでだいぶ違うね まだ使い始めて30分なのでもっと良い案があれば知りたい #groq #Llama3 pic.twitter.com/FQTYlgMltR
#groq のモバイルアプリがテストフライト始まってて 早速手元で動作確認。 ゴールシーク化まで まぁ速い速い 英語の処理だけで言えば実に正確 こりゃ400b出て 音声入力実装されて きっちり日本語制御できれば 相当頼もしい相方になりそう。 まぁ今週末も 目まぐるしいなぁ あとは… pic.twitter.com/KQRMX9gxiR
🚀 最近、Groqが驚くほどの進歩を遂げ、モデルの推論速度が劇的に向上しました。 自分でテストしてみた結果をご覧ください: 📈 Gemma 7Bの推論速度がなんと>800 T/S! 📊 Llama3 70Bは>200 T/S! 皆さんも是非試してみてください。体験URLはこちらです: groq.com #groq #LLM pic.twitter.com/vYB6MhxnlX
イーロンさんの肝いり爆速bot #groq に #Llama3-70Bが入ったってんで使ってみる。 あの爆速モデル、LLMモデルが少々行けていなくて使い物にならなかったのですが。70Bが動くなら3.5turboよりかはいい感じで動くはず。 282.13 T/s! 爆速健在w 結論:… pic.twitter.com/3LGn3i00M1
My mind is blown. @GroqInc is serving LLaMA 3 at over 800 tokens per second! 800. Tokens. Per. Second. This unlocks so many incredible use-cases. It's one thing to see my demo — it's another thing entirely to experience it for yourself. Do yourself a favor and try it asap.