暇人日記

アラフォーおっさんのコーセラの機械学習の課題を解こうと頑張っています!

Coursera Machine Learning Week4 課題 2周目⑨ -苦闘記憶-  Neural Network②

前回の続きです。

 

①ビデオの振り返り

②問題文を読む

③プログラム全体ex3_nnを読む

④プログラム詳細predict.mを読む

 

の順に進むといって前回は②の途中でした。

 

前回は構造が↓と把握したところまできました。

 

 

f:id:omoshiroamericanews:20200327223747p:plain



もう既に出題側が計算を終えているというTheta1とTheta2を見てみます。

 

f:id:omoshiroamericanews:20200328173314p:plain

 

確かに問題文通り

Theta1は25X401、Theta2は10X26で既に計算された

何らかの値が入っています。

 

試しにTheta1を見てみました↓

 

f:id:omoshiroamericanews:20200328173346p:plain

 

次にTheta2です↓

f:id:omoshiroamericanews:20200328173722p:plain

 

通常はThetaを計算するのが予測の肝ですが、

今回の課題ではそこは全て用意されていることになります。

 

そういう意味ではこの課題がクリアできてもNeural Networkを

使いこなせたことにはならないなぁと思いました。

 

問題文を読み進めます。

f:id:omoshiroamericanews:20200328202947p:plain

 (出典;『Coursera Machine Learning』 By Mr. Andrew Ng)

 

またFeedforward Propagationという単語が出てきましたので

イメージだけ作ってみました↓

Feedforwardは左から右へ、Input Layer --> HIdden Layer --> Output Layer

と考えるのに対し、

Backは右から左へ、Output Layer --> HIdden Layer --> Input Layer

と考えるイメージです。

f:id:omoshiroamericanews:20200329105348p:plain

これに計算式も付随するのですが、一度VIDEOだけの日記を書いたほうが

良いかなと思い始めました。

 

 

f:id:omoshiroamericanews:20200329110900p:plain

2段落目も言いたいことが正直わからないので、

問題文にあったFigure2の図で考えてみます。

 

f:id:omoshiroamericanews:20200329111410p:plain


文字の右上にある赤枠で囲った数字はLayerを示しています

青枠の中はWeek5のVIDEOの中にあった↓がわかりやすいと思います。

f:id:omoshiroamericanews:20200329122544p:plain


やはり一度VIDEOを振り返ってみることにします。

 

構造がわかっていてTheta1とTheta2がわかっているので、

解けるかと思いましたがよくわからなくなってきました。

 

今回はここまでです!次回頑張ります。