ポスト

オープンソースMoEモデルDeepSeek-V2 - 128kのコンテキストウィンドウ - 236BのMoEモデル、21Bのアクティブ - AlignBenchでトップ3、GPT-4を上回り、GPT-4-Turboに迫る - オープンソース/商用フリー、かつAPIが安い チャット: chat.deepseek.com API: platform.deepseek.com 詳細:… pic.twitter.com/Ukz7NP2Gr3

メニューを開く
DeepSeek@deepseek_ai

🚀 Launching DeepSeek-V2: The Cutting-Edge Open-Source MoE Model! 🌟 Highlights: > Places top 3 in AlignBench, surpassing GPT-4 and close to GPT-4-Turbo. > Ranks top-tier in MT-Bench, rivaling LLaMA3-70B and outperforming Mixtral 8x22B. > Specializes in math, code and reasoning.…

納村 聡仁 / Osamura Akinori@akinoriosamura

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ