Gradientの日記で見たように、Week3とWeek2ではJを最小とするthetaの
探し方が違いました↓
Coursera Machine Learning Week3 課題 2周目④ -苦闘記憶-Gradient - 暇人日記
Week3はcostFunction.mがJとgradでfminuncで最小値を見つけましたが、
Week2ではComputecost,alpha,num_itersなどで見つけました。
日記5でfminuncでJとthetaは以下になるとあります。
Week2の方法で↑になるかどうか検証したいと思います
Jの検算に2つ確認しておきます。
*************************************************************************************
**********************************************************************************
この2つがGradientの時に出ていた確認ポイントだったので
これを確認します。
計算したら合ったので確認できました↓
それではWeek2の方法でWeek3の課題の最小Jと最適thetaにたどり着けるかどうか
見てみます。
まずalphaを0.1です。
次にalphaを0.01です。
減らしてalphaを0.001にしました↓
さらに減らしてalphaを0.0001にしました↓
Jが0.623から0.625に増えたので間の0.0005にしてみました↓
どうやらalphaが0.001~0.0001の間でJが0.62近辺で収束しているようです。
Jが0.62から0.23に近づくのは難しいですね。
J=0.62のthetaで正解率をみると、60%ですね。
これだと使えないのでfminuncの方が優秀なのかと思いました!
今回はここまでです。また次回頑張ります!