トップ 差分 一覧 ソース 検索 ヘルプ RSS ログイン

Coursera 機械学習 - Week5

[機械学習]

Week5

この辺の計算は本当に難しい

  コースの理解のために見た記事

行列の計算を頭でイメージするための目安

バックプロパゲーションの数式

  目的関数と誤差逆伝播法 (Cost Function and Backpropagation)

目的関数

ここからはニューラルネットワークの独自の用語そのイメージとともに覚えていく必要がある。そうしないとOctaveの計算が通らない。

以下のような変数が数式の中で定義される:

  • L = ニューラルネットワークの中にあるレイヤーの総数
  • sl = レイヤーL内に存在するユニットの数(バイアスユニットは含まない)
  • K = 出力先のユニット/クラスの数

この図を例とすると、L = 3, K = 2 という感じ。

左から順に…

  • 入力層 (Input)
  • 隠れ層 (Hidden Layer)
  • 出力層 (Output)

目的関数は以下のようになる(ごちゃごちゃしすぎだろ…)

  • J%28%5CTheta%29+%3D+%2D+%5Cfrac%7B1%7D%7Bm%7D+%5Csum%5F%7Bi%3D1%7D%5Em+%5Csum%5F%7Bk%3D1%7D%5EK+%5Cleft%5B+y%5Fk%5E%7B%28i%29%7D+log%28%28+h%5F%5Ctheta%28x%5E%7B%28i%29%7D%29+%29%5Fk%29+%2B+%281+%2D+y%5Fk%5E%7B%28i%29%7D%29+log+%281%2D+%28+h%5F%5Ctheta%28x%5E%7B%28i%29%7D%29+%29%5Fk%29+%5Cright%5D++ %2B+%5Cfrac%7B%5Clambda%7D%7B2m%7D+%5Csum%5F%7Bl%3D1%7D%5E%7BL%2D1%7D+%5Csum%5F%7Bi%3D1%7D%5E%7Bsl%7D+%5Csum%5F%7Bj%3D1%7D%5E%7Bsl%2B1%7D+%28+%5CTheta%5F%7Bj%2Ci%7D%5E%7B%28l%29%7D+%29%5E2+

式の意味をちょっとだけメモしておく

  • %5Csum%5F%7Bi%3D1%7D%5Em+
    • m は全てのデータセットの数になる
  • %5Csum%5F%7Bk%3D1%7D%5EK+
    • K は出力先のユニット/クラスの数
    • イメージがつきにくいかもしれない
    • あるデータに対して、それが0〜9の数字かどうか判定する場合;K = 10
    • あるデータに対して、それが食べ物か否か(true/false)で判別するなら;K=2
  • この2つのシグマについて、平易な日本語で説明を試みる
    • 1.行列の形でデータセットがm行与えられた時、まずは内部でK=1〜Kまでの仮説関数hθ(x)を計算する
    • 2.それをm回繰り返して出てきた行列をさらに合算する
    • 3.出てきた和を-mで割る、大きさはだいたい最初の1の和の平均値みたいになるはず
    • 4.出た和に、ラムダ式つきの「正規化パラメーター」を足す、これでオーバーフィッティングを防ぐ

誤差逆伝播法 (Backpropagation Algorithm)

何をしたいのだっけ?
さあ、Week5最大の難関がやってきました。まずこれの目的を再確認。

「誤差逆伝播法」は我々の目的関数を最小化するためのニューラルネットワークの用語です、それの対象は最急降下法を使ったロジスティクス回帰と線形回帰です。

我々の目標はただ、 minθ J(Θ) を計算することなのです。

そうそう、元々そういうことをやろうとしてたんだった。そして、目的関数を効率的に最小化するにはJ(θ)の傾き=Gradientを求めて各種アルゴリズムにぶち込んでやりたいのだった。

これでわかったと思わないでください、実際計算すると計算が合わないんすよ…

誤差逆伝播法(Backpropagation Algorithm)の疑似コード
以下はコースの中で紹介されている疑似コード
  • %5CDelta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%3D+0+%5Ctext%7B%28+for+all+l%2C+i%2C+j+%29%7D+
    • Δという名前でデータセットの数(=i)×ノード数(=j)分の2次元配列(つまりは行列)を初期化する
    • lはレイヤーの数を表す、つまりl個分の行列
  • %5Ctext%7BFor+i+%3D+1+to+m%7D+%5C%5C+
    • データセットを1〜mまでループさせて取り出す
    • %5Ctext%7BSet+%7D+a%5E%7B%281%29%7D+%3D+x%5E%7B%28i%29%7D+%5C%5C+%5Ctext%7BPerform+forward+propagation+to+compute+%7D+a%5E%7B%28l%29%7D+%5Ctext%7Bfor+l+%3D+2%2C+3%2C+%2E%2E%2E+L%7D+
      • 最初の活性ノードa(1)はデータセットの値Xそのまま、そのままの行列
      • そこからレイヤーの数Lに到達するまで、順番に活性ノードを計算する(= forward propagation)、計算方法は次の項に
    • %5Ctext%7BUsing+%7D+y%5E%7B%28i%29%7D+%5Ctext%7B+%2C+compute+%7D+%5Cdelta%5E%7B%28L%29%7D+%3D+a%5E%7B%28L%29%7D+%2D+y%5E%7B%28i%29%7D+
      • 実際のデータyと活性ノードa(L)の差分、これを小文字のデルタ(=δ)と呼ぶ
      • このδをどんどん計算していくことで各階層の傾きを求める
    • %5Ctext%7BCompute%7D+%5Cdelta%5E%7B%28L+%2D+1%29%7D%2C++%5Cdelta%5E%7B%28L+%2D+2%29%7D%2C+%5Ccdots%2C+%5Cdelta%5E%7B%282%29%7D+
      • 最初の階層以外のδは同じようにforward propagationで求められる
      • そして最後のδ(1)は存在しない、それはデータセットの値Xそのままを表すからだ
    • %5CDelta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%3A%3D+%5CDelta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%2B+a%5Fj%5E%7B%28l%29%7D+%5Ccdot+%5Cdelta%5Fi%5E%7B%28l+%2B+1%29%7D+
      • 各階層のδを合計してΔを作る
      • 計算式が =ではなく、:=になっているのはプログラミングで言うところの +=
      • どうせ最後 m で割るので、Δは大きくなっても構わない
  • D%5F%7Bi+j%7D%5E%7B%28l%29%7D+%3A%3D+%5Cfrac%7B1%7D%7Bm%7D+%5CDelta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%2B+%5Clambda+%5CTheta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%5Ctext%7B+%28+if+j+%21%3D+0+%29+%7D+%5C%5C+D%5F%7Bi+j%7D%5E%7B%28l%29%7D+%3A%3D+%5Cfrac%7B1%7D%7Bm%7D+%5CDelta%5F%7Bi+j%7D%5E%7B%28l%29%7D+%5Ctext%7B+%28+if+j+%3D%3D+0+%29+%7D+
    • ノードがバイアスユニット(=1しか入ってないやつ)のときだけ正規化パラメーターを足さない
    • D を合算してから m で割る
    • これで各θに対する Gradient が求められる!
順方向伝播法(Forwardpropagation Algorithm)
あまりこの単語の和訳がないのだが、とりあえず語感を合わせてみた

行列で出来たデータセットxに対して処理を行うものとする。

  • a%5E%7B%281%29%7D+%3D+x+
    • 1列目の活性ノードにデータセットの中身をそのまま渡す
  • z%5E%7B%282%29%7D+%3D+%5CTheta%5E%7B%281%29%7D+%5Ccdot+a%5E%7B%281%29%7D+
    • 次の2列目のノードへの計算結果をz(2)として、パラメーターθとa(1)を計算する。
    • もちろんこれは行列の積で求められる計算である
  • a%5E%7B%282%29%7D+%3D+g%28z%5E%7B%282%29%7D%29+ ( add a%5F0%5E%7B%282%29%7D+ )
    • 計算結果がそのままほしいわけではなく、2値化したいのでシグモイド関数にかける
    • その際、活性ノードの一番頭にバイアスノード(=1)を付加する

後は、ニューラルネットワークの層の数だけこれを繰り返す。一般化するとこんな感じだろうか。

  • z%5E%7B%28l%2B1%29%7D+%3D+%5CTheta%5E%7B%28l%29%7D+%5Ccdot+a%5E%7B%28l%29%7D+
  • a%5E%7B%28l%2B1%29%7D+%3D+g%28z%5E%7B%28l%2B1%29%7D%29+ ( add a%5F0%5E%7B%28l%2B1%29%7D+ )

要は、活性ノードaの計算ができればそれでいいのだ。

  まとめ

とりあえず、内容としてはほぼこれで全部だと思う。式が間違って無ければfor文でプログラミングの問題も正解できる。

neural-network.png
お名前: コメント: