ポスト

よくあるH100NVLで考えてみると、 FP16で学習すると考えた場合、 FP16 Tensor コアのピーク性能は3,958 teraFLOPs 10^26 / 3,958 × 10^12で 学習時間 = 約2.53 × 10^10 秒 = 約802年 Big TechはH100 x 1万台のスケールであることを考えると、13Bとかも対象になりうる?(2/n)

メニューを開く

Ryousuke_Wayama@wayama_ryousuke

みんなのコメント

メニューを開く

つまるところ、llama3とか大手の非公開モデルはもちろん公開モデルも対象となりえそう 影響がでかそうなんだけど、誰か法律の専門家の人の解説を待ちたい(fin) leginfo.legislature.ca.gov/faces/billText…

Ryousuke_Wayama@wayama_ryousuke

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ