- すべて
- 画像・動画
並べ替え:新着順
セグメンテーションのプログラム作ってるのだけど その分野全くノータッチだったのもありFocal LossとDice lossの使い分けが全く分からん。 とりあえず予測能高い損失関数組みこんどきゃ良いのかな…?🤔
今日のぜろつくは二乗和誤差の勉強! 出力と正解データの差を二乗してその和を求めてる? 損失関数に使われ、二乗和誤差が小さいほど実際の値に近く、二乗和誤差が大きいほど実際の値からかけ離れている!!! ニューラルネットワークの制度の悪さを表す指標ですね。
返信先:@piacere_ex> Axonなら、下記の通り、ディープラーニングでの損失関数として、Axon.Loop.trainerのlossに指定すればOKです💁♂️ この点について質問です。 Axon.Loop.trainer のドキュメントを読むと、損失関数にはアリティが2であるような関数を指定するとあります。 しかし、教えていただいた loss…
返信先:@tkrd_oiaxAxonなら、下記の通り、ディープラーニングでの損失関数として、Axon.Loop.trainerのlossに指定すればOKです💁♂️ hexdocs.pm/axon/Axon.Loop… Scholarなら、SVMのような損失関数が指定可能なモデルで指定します😌 hexdocs.pm/scholar/Schola… いずれにせよ4パラメータのロジスティック回帰で実現できます😉
返信先:@tkrd_oiax下記損失関数でScholar/Axonにて学習させましょ💁♂️ defp log4pl(x, a, b, c, d) do ((a - d) / (1.0 + Nx.power(x / c, b)) + d) end defp loss(abcd, x, y) do [a, b, c, d] = Enum.map(abcd, & &1) y_pred = log4pl(x, a, b, c, d) Nx.mean(Nx.power(y_pred - y, 2)) end
機械学習の基礎から学び直してる 損失関数、クロスエントロピー、二乗損失、最尤推定、訓練誤差、目的関数、勾配降下法.. 結構大学数学の理論が出てきて、ムズいけどギリギリ理解できてる。 小手先のツールばかりではなく、学生らしく理論から学ぶ意識。 こーゆー基礎が後々効いてくる!はず!
#キャルちゃんのquantphチェック 量子ビジュアル符号化を再検討。既存の符号化手法では、符号化後の視覚的特徴の情報保存が保証されず、量子機械学習の学習を困難にしていることが判明。この問題に取り組むため、量子情報保存と呼ばれる簡潔かつ効率的な損失関数を導入した。 arxiv.org/abs/2405.19725 pic.twitter.com/TCLaz8Gxik
趣味の機械学習プロジェクトでここ数日進捗がない。pre-trained モデルの知識蒸留を試しているがうまくいかない。pre-trained モデルは画像の encoder で、それを教師として生徒モデルを学習しようとしている。埋め込み自体を MSE を損失関数として学習させるのは順当にうまくいかなかった(val loss…
#111論文等共有 1370 openreview.net/forum?id=hE7PG… [NeurIPS'23] 顔照合用損失関数 unified threshold integrated sample-to-sample (USS) loss を提案しSOTA。すべての positive sample2sampleペアをnegative sample2sampleペアから分離する閾値を設定するというアイデア。MFR, IJB-C, LFW, CFP-FP,… pic.twitter.com/2sASxf40b1
ArcFace: Additive Angular Margin Loss for Deep Face Recognition (Deng+, CVPR2019) (名工大 玉木研 CV論文読み会) ・クラス識別性の高い特徴量を得るための損失関数 - 内積 -> cos類似度 - 線形なマージンを設定し、学習 slideshare.net/slideshow/arcf…
- 色情報から短絡的に識別する問題 - 損失関数はコサイン類似度 ・様々な対照学習 - MoCo:負例数の増加 - SimSiam:負例が不要 :勾配停止処理、非対称なモデル構造 - CLIP:マルチモーダル - DINO > 負例が不要
「制約条件を考慮するためにすべての制約条件はペナルティ係数として損失関数を定義します」「ペナルティ係数はハイパラチューニングをがんばります」「非連続かつ微分不可能である場合は正則化項を導入して自動微分が機能するようにします」
機械学習勢には、思ったよりも簡単に組合せ最適化問題が解けると思われていたことが分かったのは大きな収穫だった。いや、勾配とかに沿って動くと実行可能領域を跨いで反復横跳びしちゃって、制約条件を満たす解すら求まらないんすよ。
📚第5回輪読会を実施📚 今回は、損失関数と微分によるニューラルネットワークの学習、GNNによるグラフ分類・接続予測・グラフ生成について学びました。 発表の場所を間違うなどのアクシデントがありながらも、楽しく議論が出来ました。
正解の値が正規分布をなすようなデータセットでニューラルネットワークに対して回帰を学習させていたが、平均付近に予測値が寄るという問題があった。損失関数として正解が平均から離れているほど誤差をより大きく罰する重み付き平均二乗誤差(weighted MSE…
正解の値が正規分布をなすようなデータセットでニューラルネットワークに対して回帰を学習させていたが、平均付近に予測値が寄るという問題があった。正解が平均から離れているほど誤差をより大きく罰する損失関数として重み付き平均二乗誤差(weighted MSE…
時系列データに対して使う損失関数に CTCLoss とかいうのがあるが、理屈はどんなものかとpytorch.org/docs/stable/ge… から参照されている論文を読んだら何だか難しくてよく分からなかった…。distill.pub/2017/ctc/ が分かりやすいという情報もあるので、こちらが良いか。動きは分かるが理屈がなぁ…。
以前 brain**ckか何かを学習するモデルをAI に書いてもらったら、生成したのがインタプリタで動くかどうかも損失関数に使ってた気がしたので、頑張ってモデル作って学習させれば、意外とAI プログラマー、良いところまで行くのでは
CFML本の読み進め。第0章。教師あり学習の復習の節。統計的推定との関係を強調したかたちで、教師あり機械学習をコンパクトにまとめてあって、好き。期待リスク(同時分布による損失関数の期待値)の分解式は、示唆に富んでいて勉強になった。
本当にスーパーわかりやすかった 【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- qiita.com/omiita/items/1… #Qiitaアドカレ #Qiita via @omiita_atiimo
今の機械学習モデルって予測値と正解の差を損失関数というものに落とし込んでて、精度を上げるためにこれを最小化することを目指してるのですが 将来感情を持ったAIにも損失関数が組み込まれててこれを最小化することが人間でいう快感を得ることに相当するのだとするとだいぶエッチな気がするな(?)
エコーステートネットワークのノード状態を記号として扱うために、ホップフィールドネットワークによりパタンを記憶し(何かしらの報酬、損失関数からノード状態におけるエネルギーを最小とする)、その記憶されたパタンが、ある条件下における記号創発であると言えるのか、言えないのか。
#キャルちゃんのquantphチェック 古典シャドウトモグラフィの性能向上に、自己回帰的なニューラル量子状態を用いる。また新しい損失関数を提案し、古典シャドウ測定で学習したtransformerベースのニューラルネットワークにより、GHZ状態の安定した再構成が達成できると示した arxiv.org/abs/2405.06864 pic.twitter.com/FgEBCJaTfA