自動更新

並べ替え:新着順

ベストポスト
メニューを開く

おもしろい。AIAmongUsのデモ。この5人のAIの中に1人だけ人間が混じってます。誰が人間か当てよう!というゲーム。で、自分がその人間で、AIのフリをする。GPT-4Tが演じるアリストテレスと、Opusが演じるモーツァルト、Llama3が演じるレオナルドダヴィンチ、GeminiProが演じるクレオパトラ、そしてプ…

うみゆき@AI研究@umiyuki_ai

メニューを開く

今はPerplexity Proのみに機能開放中! Perplexity ProはGPT-4oやClaude 3、Llamaなど複数のLLMが使え、DALL·E3やStable Diffusionの画像生成もできて高性能です! 初月10ドルで利用できる紹介コードを発行しましたので、よかったらぜひ♪ 👇️ perplexity.ai/pro?referral_c…

テツメモ|AI図解×検証|Newsletter@tetumemo

メニューを開く

Mistral AI の新しいコード モデルである Codestral は、Llama 3 70B および Code Llama 70B よりも優れています - MSPoweruser #CodingModel #AIStartup #CodeAI #BestInMarket prompthub.info/9957/

Managetech inc.@managetech_inc

メニューを開く

groq cloud提供のLlama3-8Bと似た速度出てる。たぶんそれ感。 システムプロンプトでロールプレイテキスト大量に入れると日本語応答安定するし、速度遅延は誤差なのでオススメしたいやつ。

ホーダチ | AI✖️Cloud✖️Dev | 外資×ひとり法人@hokazuya

ナニコレ。速すぎる。見えん。(もう少し悩んでくれw Llama-3-8Bの高速すぎる環境。 【Samba-1-Turbo】 送信したらもう結果出てる。(等倍でふ 何つーか、送信した後、待つのに慣れてしまっていたから、結果が出力されていることに気づけない。 以下から利用可能👇…

裏技君@urawazakun

メニューを開く

llama.cpp HTTP serverは"Set of LLM REST APIs and a simple web front end to interact with llama.cpp."なのであくまでREST APIサーバーが主で、GUIはオマケと考えたほうがいいですね。 近々アップデートってどれのことだろう…? github.com/ggerganov/llam… は進捗見えないが…

mutaguchi@mutaguchi

メニューを開く

CUDAと完全互換のMoore thread(GPU)で学習した3BモデルがLlama3 8B超え。 mthreads.com/news/171 マルチノード学習についてはどうなんでしょうか。 昨年からの流れを見てると、大型LLMの学習まで半導体レベルから中国だけで完結するようになるでしょうね。

メニューを開く

返信先:@AkugakiKoaコ・ア・ヨ ↝ !! 🩵 Espero que hayas dormido bien 🥺 No se ve ahí, pero el que siempre me llama la atención es el kyubey que se mueve solo 👀 pic.twitter.com/qNPIveB9ad

NightyNight↝⛓️@MrNighty

メニューを開く

system promptを切り替えて複数キャラを演じさせるスクリプトを取り急ぎ公開しました。ドキュメント等ほぼありませんので、コードを直接ご確認ください。 gist.github.com/kohya-ss/65276… llama-cpp-python使用、Command-R系(v01/plus) GGUF専用です。

Kohya Tech@kohya_tech

メニューを開く

中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに msn.com/ja-jp/news/tec…

ぷよ@技術情報収集@tweetest8

メニューを開く

RTX4090などのゲーム用GPU単体でも使えるLlama3-8Bでも、70Bの4bit量子化には劣るけどそこそこ性能いいんだよね。

メニューを開く

とても速い Llama3 8B(16bit精度)で1000tokens/s

SambaNova Systems@SambaNovaAI

🚀 Samba-1-Turbo: world record 1000 tokens/s at 16-bit precision! 🎉 Powered by SN40L, running #Llama3 Instruct (8B) at unparalleled fastest speed. This innovation truly unblocks #GenerativeAI for enterprise adoption, achievable only with our Reconfigurable Dataflow Unit (RDU).…

Romot | 曲とアプリつくる@romotco

メニューを開く

今夜のモノづくり塾 Ollama+OpenWebUIでLlama3を使う遊びです。 塾のPCはA4000搭載であまり大きなものは動かせませんが、AIの勉強ができます。 #AI #LLM #上野原 #相模湖 #藤野 #塾生募集中 pic.twitter.com/6L8woIKQ4F

モノづくり塾ZIKUU【公式】@ZIKUU_space

メニューを開く

遅ればせながらこの1週間くらいLlama-3 70Bと戯れているが、きちんとプロンプトを書いてやるとかなり使える。GPUもっと欲しい、、いろいろ試したい。

メニューを開く

中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに dlvr.it/T7c2ff

長留裕平@_yuheichodome

メニューを開く

Llava++?llama3v…? LLM部をllama3ベースにしたのかな… 帰ったらちょっと中身みてみよかな… gigazine.net/news/20240529-…

甘木きょこ@8hmVmEGJ6nFyUE5

メニューを開く

🔥🔥 > L4のマルチGPUによる推論に比べ、inf2の場合レイテンシが簡単に2倍程度短く > 想定していたよりもLlama2がinf2インスタンス上で素直に動作 > 今回はinf2.48xlarge ---- ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤|@eemon18 @zakktakk zenn.dev/elyza/articles… #zenn

Yoshitaka Haribara 針原 佳貴@_hariby

メニューを開く

中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに - GIGAZINE gigazine.net/news/20240530-…

メニューを開く

専門家曰く、LLaMa3とかClaudはスコアのボラティリティが高くなるから、ベンチマークをとるならGPT4かGeminiを使うほうがいいそうです。 まあ、スコアに何の意味があるのかは知らないですけどね。

ゆうっち @Local Novel LLM Project@int_float_

もはやLLMによるelyza-task自動評価は信用できない これからは人力評価

Holy-fox/子狐@Holy_fox_LLM

メニューを開く

先程皆で回答したご質問への回答を改めて掲載します!#jjug 1. Spring AI は Spring 必須?→ Spring Boot 必須 2. Spring AI でローカルLLM→(確認済み)OpenAI 互換なら使える(昨年の弊社イベントでLlama2連携ご紹介ずみ) 3. LangChain4jとの違い→目的と達成手段 4. Java 17より下で使える?→…

Shotaro Suzuki@shosuz

本日の #jjug ナイトセミナー、2つ目のセッション、"Java で開発する OpenAI 連携アプリファーストステップ"、オンラインで(参加者実数をお聞きしましたが)大変多数の皆様に最後までご清聴いただき誠に有り難うございました。スライドはこちらです! docswell.com/s/shosuz/K38R7…

Shotaro Suzuki@shosuz

メニューを開く

先程皆で回答したご質問への回答を改めて掲載します!#jjug 1. Spring AI は Spring 必須?→ Spring Boot 必須 2. Spring AI でローカルLLM→OpenAI 互換なら使える(昨年の弊社イベントでLlama2連携ご紹介ずみ) 3. LangChain4jとの違い→目的と達成手段 4. Java 17より下で使える?→ Spring Boot 3…

Shotaro Suzuki@shosuz

本日の #jjug ナイトセミナー、2つ目のセッション、"Java で開発する OpenAI 連携アプリファーストステップ"、オンラインで(参加者実数をお聞きしましたが)大変多数の皆様に最後までご清聴いただき誠に有り難うございました。スライドはこちらです! docswell.com/s/shosuz/K38R7…

Shotaro Suzuki@shosuz

メニューを開く

Metaがオープンソース戦略で得たものは、超速スピードでのLlamaの性能向上に加えて、開発者コミュニティからの圧倒的な支持が大きいな nytimes.com/2024/05/29/tec…

久保田 雅也@Coalis@kubotamas

メニューを開く

autogen & llama3 結構熱いかもしれない

Sakue (komiya)@sakue_103

メニューを開く

おっllama p5.js書けるんか

メニューを開く

LLMの発表が多かったのでRAG自作したくなってきたんだけど、最近手を動かすのをサボってたせいでどのモデルが良いのか分からん過ぎる... 日本語で商用利用可・ローカルで動かせるとなると、rinnaのllama3がベストですかね?詳しい人教えて欲しい😂

tk2@DS見習い@kokonatsu2214

メニューを開く

GPUがなくてもモデルを動かせるllama.cppはコマンドラインツールの印象が強いですが、実はシンプルなGUIは用意されていて、コンパイルし、 server -m my_model.gguf としてサーバー起動後にディフォルトの 127.0.0.1/8080 にブラウザでアクセスすれば添付のような画面がでます。… pic.twitter.com/iCMK6538QO

webbigdata@webbigdata

メニューを開く

中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに - GIGAZINE gigazine.net/news/20240530-…

メカacloza@acloza_bot

メニューを開く

ついにNapierのLlama Quest chapter 2 が始まるようですがchapter1までの解説動画はすでに出しているのでぜひご覧ください✅ youtu.be/n5L449L2nhE?si… pic.twitter.com/pguScIrkzc

Napier Finance@NapierFinance

GM Napier LRTs! The snapshot is... TOMORROW

ふぐ@仮想通貨最強伝説@fugu_crypto

メニューを開く

【Meta社の新世代AI、Llama3が登場】 Llama3の特徴としては ・トレーニングに500ドルもかからない ・Meta社のサービス(Facebook、Instagram、Messenger)との連携が可能 ・商用利用は年間アクティブユーザーが7億人以下であれば無料 世はまさにLLM戦国時代 pic.twitter.com/AjHebXHvhX

Taro|AIの最新情報を発信@Taro_Nuco

メニューを開く

そして今回観測した「世界最大の単一AIチップ」 チップとは……? llama-70Bを3日で学習完了可能、GPTの10倍まで載りますとか、頭がオカシイとしか思えぬ。馬鹿じゃないの??(褒め言葉 pic.twitter.com/sXWBIB1ZWe

シュレディンガーのナツさん@natsu_san

メニューを開く

Llama3とかgpt-2をファインチューニングして恋人(AI)の脳を見るごっこでもするか

メンヘラ先輩@9時間睡眠@kenkensz9

メニューを開く

これでGPT-4を実行してほしい。Llama3やっぱ微妙なんよなぁ

Shogo Ishimaru@i_shogo03

メニューを開く

MiniCPM-Llama3-V 2.5の情報が流れてきたので、比較してみたんですが、まあ、駄目ですね。 しばらく、LVLMのお試しに使えそう pic.twitter.com/DvCjoSjAg3

n-kats@n_kats_

メニューを開く

ナニコレ。速すぎる。見えん。(もう少し悩んでくれw Llama-3-8Bの高速すぎる環境。 【Samba-1-Turbo】 送信したらもう結果出てる。(等倍でふ 何つーか、送信した後、待つのに慣れてしまっていたから、結果が出力されていることに気づけない。 以下から利用可能👇… pic.twitter.com/PZ85n0drBr

ホーダチ | AI✖️Cloud✖️Dev | 外資×ひとり法人@hokazuya

メニューを開く

ナニコレ。速すぎる。見えん。(もう少し悩んでくれw Llama-3-8Bの高速すぎる環境。 【Samba-1-Turbo】 送信したらもう結果出てる。(等倍でふ 何つーか、送信した後、待つのに慣れてしまっていたから、結果が出力されている。 以下から利用可能👇 この環境でPhi-3とか動かしたら異常事態な希ガス pic.twitter.com/u9bN87co5B

ホーダチ | AI✖️Cloud✖️Dev | 外資×ひとり法人@hokazuya

メニューを開く

AWSでの70B運用事例、これは高まる(推し ->当初想定していたよりもLlama2がinf2インスタンス上で素直に動作したことが最終的な決め手となり今回はinf2.48xlargeでの運用 ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤 zenn.dev/elyza/articles…

yasuna@yasun_ai

メニューを開く

なぜかあるdomain SFTする場合、ベースモデルとして mistral7B-Instruct > llama3-8B-Instruct の感覚が出てきた

Yuyang DONG@touuyou001

メニューを開く

Miの旅/ レストラン イノーの前にやってきたようですね。ここには、ランチバッファーの看板があります。多種多様な料理が並べられており、プライスも併せて書かれています。... (Powered Google map apis,llama3-7iq,animagine-xl-3.1,claude3-haiku-V,etc.basePhoto:Valentin Legrand) pic.twitter.com/zu6KDXlFHy

mi tripBot@marble_walker

メニューを開く

Miの旅/ 石川に到着しました!目前に大きな「海洋文化館」がありますね。地元の歴史や文化に触れられるミュージアムがあると聞いていますよ。中央ゲート北駐車場(P5)という便利な駐車場があり、観光客向けですね。沖... (Powered Google map apis,llama3-7iq,animagine-xl-3.1,etc.) pic.twitter.com/AuAJsEdk88

mi tripBot@marble_walker

トレンド4:14更新

  1. 1

    日野市長

    • 小池百合子都知事
    • 応援要請
    • 出馬要請
    • 小池百合子
    • 東京新聞
  2. 2

    ニュース

    静岡県西部

    • 地震規模
    • 緊急地震速報
    • 震度2
    • M3
    • 8秒
  3. 3

    ニュース

    温帯低気圧

    • イーウィニャ
  4. 4

    エンタメ

    タカトシ

    • 欧米か!
    • ナイナイANN
    • ナインティナインのオールナイトニッポン
    • 共通テスト
    • ナイナイ
  5. 5

    アニメ・ゲーム

    結婚するって本当ですか

    • AMA
    • 第43話
  6. 6

    アニメ・ゲーム

    最強のフュージョン

    • フュージョン
    • スパーキングゼロ
  7. 7

    エンタメ

    彼のいる生活

  8. 8

    アニメ・ゲーム

    みこお

    • キャプテン翼
  9. 9

    年齢と性別

    • 言い切る
  10. 10

    エンタメ

    呪いの笑顔

    • 竹内涼真
    • Believe-君にかける橋-
20位まで見る

電車遅延(在来線、私鉄、地下鉄)

遅延している路線はありません

全国の運行情報(Yahoo!路線情報)
よく使う路線を登録すると遅延情報をお知らせ Yahoo!リアルタイム検索アプリ
Yahoo!リアルタイム検索アプリ