前回の続きです。
①ビデオの振り返り
②問題文を読む
③プログラム全体ex3_nnを読む
④プログラム詳細predict.mを読む
の順に進むといって前回は②の途中でした。
前回は構造が↓と把握したところまできました。
もう既に出題側が計算を終えているというTheta1とTheta2を見てみます。
確かに問題文通り
Theta1は25X401、Theta2は10X26で既に計算された
何らかの値が入っています。
試しにTheta1を見てみました↓
次にTheta2です↓
通常はThetaを計算するのが予測の肝ですが、
今回の課題ではそこは全て用意されていることになります。
そういう意味ではこの課題がクリアできてもNeural Networkを
使いこなせたことにはならないなぁと思いました。
問題文を読み進めます。
(出典;『Coursera Machine Learning』 By Mr. Andrew Ng)
またFeedforward Propagationという単語が出てきましたので
イメージだけ作ってみました↓
Feedforwardは左から右へ、Input Layer --> HIdden Layer --> Output Layer
と考えるのに対し、
Backは右から左へ、Output Layer --> HIdden Layer --> Input Layer
と考えるイメージです。
これに計算式も付随するのですが、一度VIDEOだけの日記を書いたほうが
良いかなと思い始めました。
2段落目も言いたいことが正直わからないので、
問題文にあったFigure2の図で考えてみます。
文字の右上にある赤枠で囲った数字はLayerを示しています
青枠の中はWeek5のVIDEOの中にあった↓がわかりやすいと思います。
やはり一度VIDEOを振り返ってみることにします。
構造がわかっていてTheta1とTheta2がわかっているので、
解けるかと思いましたがよくわからなくなってきました。
今回はここまでです!次回頑張ります。