動画検索
関連広告
検索結果
PartI 1確率変数に対するエントロピー
先週までの表記H(S)と今週の表記H(X)の違いは何か
確率測度 P(・)ってどんな関数?X=a_iが引数とは?
なぜ確率変数が導入されるのか?
累積分布関数
P(X=1)のX=1は、関数Pの定義域の要素ではないのでは?
E[・]やH(・)は関数?
Part II 2確率変数に対するエントロピー
同時確率、周辺確率
条件付き確率
周辺確率
ベイズの定理
エントロピー
確率変数の組(X,Y)に関する期待値
同時エントロピー
条件付きエントロピー
H(X,Y), H(X), H(Y|X)の間の関係
Information diagram
Information diagramとベン図の関係
Part III 相互情報量
独立性はどう役立つか?
独立性は、どのように評価すれば良いか?