人気ポスト

去年取組みを公表してから、やっとプレスリリースがでが出せました。 「Fugaku-LLM」は「富岳」の13,824台の計算ノードを用いて、約4,000億トークンを学習した13Bモデルです。 Japanese MT-Benchでも最高性能を達成し、研究および商業目的で可能です。 pr.fujitsu.com/jp/news/2024/0…

メニューを開く

淺間康太郎 | Asama Kotaro@AsamaKotaro

ほかの人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ