ポスト

julialangjaのDiscordを見てクリックしてしまった。LLMをlocalで試すなら、NVIDIAの4090に投資するよりも、現用のM1 Max 64GBのマシンとJuliaで環境を構築する方が良さそうに思えてきた モデルベース深層学習と深層展開 amzn.asia/d/5cXUB1f #Amazon via @Amazon

メニューを開く

Hideki Kawahara: WAH (Work@Home)6x💉ppmppm@hidekikawahara

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ