ポスト

DL基礎の課題4回目溜めてたからやってるんだけど、MLPをPyTorchで作れってやつなんだけど、活性化関数ReluにしたからHeの初期値にして初期値にロバスト。過学習抑制のためにDropout、Batchnormalization、optimizerをAdamにし、手を尽くしたが、トップの人と1%もAcc違うのなぁぜなぁぜ

メニューを開く

スイミー@swimmy127

みんなのコメント

メニューを開く

使ってる人もちらほら見るから好みかもだけど、batchnormとdrop outってなんか併用しない方が良かったような気がする🥹 qiita.com/fkxyz1224/item…

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ