トップ 差分 一覧 ソース 検索 ヘルプ RSS ログイン

Coursera 機械学習 - Week9

[機械学習]

Week9

講義の見積もり時間を見ると、ここが最後の山場っぽい。修了証明書のためにやっていく!

  密度推定 (Density Estimation)

問題の動機 (Problem Motivation)

他のデータセットと比べて異常があるものを見つけ出したい

ガウス分布 (Gaussian Distribution)

要は偏差値に使われるようなグラフ、μとσによりグラフの急さと位置が決まる。

  • μ
    • 大きくなるとX軸の正の方向へ中心が移る、小さくなるとその逆
  • σ
    • 大きくなると傾きが緩やかになる、小さくなると傾きが険しくなる

アルゴリズム (Algorithm)

密度推定
データセットの中に普通ではないデータがあるかどうか計算で算出する
  1. データセットの中で異常を指し示しそうな xi という特徴値を選ぶ
  2. パラメーターに合わせる %5Cmu%5F1%2C+%5Ccdots+%2C+%5Cmu%5Fn%2C+%5Csigma%5E2%5F1%2C+%5Ccdots+%2C+%5Csigma%5E2%5Fn+
    • %5Cmu%5Fj+%3D+%5Cfrac%7B1%7D%7Bm%7D+%5Csum%5F%7Bi%3D1%7D%5Em+x%5Fj%5E%7B%28i%29%7D+
    • %5CSigma%5E2%5Fj+%3D+%5Cfrac%7B1%7D%7Bm%7D+%5Csum%5F%7Bi%3D1%7D%5Em+%28+x%5Fj%5E%7B%28i%29%7D+%2D+%5Cmu%5Fj+%29%5E2+
  3. 新しいデータセットxによりp(x)を計算する
    • p%28x%29+%3D+%5Cprod%5F%7Bj%3D1%7D%5En+p+%28x%5Fj%3B+%5Cmu%5Fj%2C+%5Csigma%5Fj%5E2%29+
    • %3D+%5Cprod%5F%7Bj%3D1%7D%5En+%5Cfrac%7B1%7D%7B+%5Csqrt%7B2%5Cpi%7D+%5Csigma%5Fj%7D+exp+%28+%2D+%5Cfrac%7B+%28x%5Fj+%2D+%5Cmu%5Fj+%29%5E2+%7D%7B2%5Csigma%5E2%5Fj%7D+%29+

もし p(x) < ε なら異常検知

  • %5CPi+ は総和ではなく総乗というものらしい

  異常検知システムを構築する (Building an Anomaly Detection System)

異常検知システムを開発・評価する (Developing and Evaluating an Anomaly Detection System)

  • 交差検証を行う場合、CVに入れるデータとTestに入れるデータの割合はよく考えなければいけない
    • Training : CV : Test = 6 : 2 : 2 の割合でデータセットを分割する
    • 異常なものはCVとTestにしか入れない

もともと不良品率のほうが少ないデータセットなので、評価は歪度の高いデータセットにするのと同じやり方になる

Coursera 機械学習 - Week6 の歪度のあるデータ (Handling Skewed Data)を振り返るべし

異常検知システム 対 教師あり学習 (Anomaly Detection vs. Supervised Learning)

異常検知システムと教師あり学習は似ている。どのような時に使い分けるべきなのか?

異常検知システム
異常な値の傾向がつかめない、未来に出てくるであろう異常のパターンが予測できない時に使える
教師あり学習
十分な正しいデータセットが存在し、未来に出てくるであろう正常なパターンは現在のデータセットと同じようなものである時に使う

どの特徴値を使うべきか選択する (Choosing What Features to Use)

ガウス分布っぽく見せるために行列Xをlogに入れたり、0.x乗したりするのがよい

  多変量のガウス分布 (Multivariate Gaussian Distribution - Optional)

多変量のガウス分布 (Multivariate Gaussian Distribution)

ガウス分布の対象を二次元に広げる。その結果グラフは立体になる。

多変量のガウス分布を使用した異常検知システム (Anomaly Detection using the Multivariate Gaussian Distribution)

多変量に対してガウス分布を適用する方法

  1. 以下のパラメーターを準備して p(x) にフィットさせる
    • %5Cmu+%3D+%5Cfrac%7B1%7D%7Bm%7D+%5Csum%5F%7Bi%3D1%7D%5Em+x%5E%7B%28i%29%7D+
    • %5Csigma+%3D+%5Cfrac%7B1%7D%7Bm%7D+%5Csum%5F%7Bi%3D1%7D%5Em+%28+x%5E%7B%28i%29%7D+%2D+%5Cmu+%29%28+x%5E%7B%28i%29%7D+%2D+%5Cmu+%29%5ET+
  2. ガウス分布を適用したいデータに対して、以下を計算する
    • p%28x%29+%3D+%5Cfrac%7B1%7D%7B+%282%5Cpi%29%5E%7B%5Cfrac+n2%7D+%7C%5CSigma%7C%5E%7B%5Cfrac+12 %5Cexp+%5Cleft%5C%28+%2D+%5Cfrac%7B1%7D%7B2%7D+%28x%2D%5Cmu%29%5ET+%5CSigma%5E%7B%2D1%7D+%28x+%2D+%5Cmu%29++%5Cright%5C%29+

もし p(x) < ε なら異常検知

  映画の評価を予測する (Predicting Movie Ratings)

問題の定式化 (Problem Formulation)

内容ベースのリコメンド (Content Based Recommendations)

  協調フィルタリング (Collaborative Filtering)

協調フィルタリング (Collaborative Filtering)

協調フィルタリング・アルゴリズム (Collaborative Filtering Algorithm)

  評価の低い行列の分解 (Low Rank Matrix Factorization)

  • 行列の分解(ぎょうれつのぶんかい,英: matrix decomposition, matrix factorization)とは,行列の行列の積への分解である.多くの異なった行列の分解があり,それぞれがある問題のために利用される.

ベクトル化 - 評価の低い行列の分解 (Vectorization: Low Rank Matrix Factorization)

実装の詳細 - 評価の低い行列の分解 (Implementational Detail: Mean Normalization)

3dimension.png Normal_Distribution_PDF.svg.png
お名前: コメント: