2020-07-30から1日間の記事一覧

情報量、ゲインについてメモ

情報量はlog(1/P(E))=-logP(E) 事象Eが起こるときの確率値がP(E) 確率値が小さいほど情報量が大きくなる エントロピー(平均情報量)は情報量の期待値をとった値である https://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F 情報利得=分割前の平均情…

情報量、ゲインについてメモ

情報量はlog(1/P(E))=-logP(E) 事象Eが起こるときの確率値がP(E) 確率値が小さいほど情報量が大きくなる エントロピー(平均情報量)は情報量の期待値をとった値である https://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F 情報利得=分割前の平均情…