ポスト

2層ReLUネットの学習振る舞いの解析。y=V ReLU(Wx)として、Wを小さい値で初期化すると、最初はWの(各行ベクトルの)方向が(ノルムを維持したまま)クラス中心に向くように学習され、それが済んだら、ノルムが大きくなって各クラスに伸び始める。 pic.twitter.com/lN0cyrEO3e

メニューを開く

ヤツガニ君列伝@tackson5

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ