ポスト

去年取組みを公表してから、やっとプレスリリースがでが出せました。 「Fugaku-LLM」は「富岳」の13,824台の計算ノードを用いて、約4,000億トークンを学習した13Bモデルです。 Japanese MT-Benchでも最高性能を達成し、研究および商業目的で可能です。 pr.fujitsu.com/jp/news/2024/0…

メニューを開く

淺間康太郎 | Asama Kotaro@AsamaKotaro

みんなのコメント

メニューを開く

弊社のポータルサイトからもUI付きでお試しいただけます。 portal.research.global.fujitsu.com

淺間康太郎 | Asama Kotaro@AsamaKotaro

メニューを開く

もはや世界中が数百Bが当たり前、その先がもうすぐという状況ですので、ぜひそのスケールでの開発をすぐお願いしたいです🙇‍♂️

AI Network Technology@AINetworkTech

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ