暇人日記

アラフォーおっさんのコーセラの機械学習の課題を解こうと頑張っています!

Coursera-Machine Learning-Week2

Week2の課題でRegularizationを使用するとJは小さくなるか?

前回の日記でWeek2のMultiの課題にPolynomialを使用しても、 Jは20億から下がりませんでしたので、 Week3で予測精度を上げるテクニックの1つとして紹介されている Regularizationを使ってJが小さくなるかどうか見てみたいと思います。 Regularizationとは↑の…

Week2の課題でPolynomial=多項式化するとどうなるか?-後半-

Polynomialで予測精度が向上してJが小さくなったか、 Learning Curveの形は変わったか、を プログラミングしながら検証していきます。 まずDataをSetします。 Train setとTest Setの分け方は同じです。 プログラミングを続けます。 多項式=polynomialの部分…

Week2の課題でPolynomial=多項式化するとどうなるか?-前半-

前回の日記で行ったWeek2のMuiltiの課題がunderift=『予測当たらなさすぎ』と Learning Curveでは結果が出てきたので、 対策の1つに挙げられているAdding polynomial fearuresに取り組んでみたいと思います↓ Polynomial=多項式化することで期待しているのは…

Week2の予測結果をWeek6の仮説精度検証とLearning Curveで評価してみたらどうなるか?

Week6では↓のように仮説の精度検証の方法が説明されていたので、 この方法で前回の日記で取り組んでいたWeek2の予測結果を 評価してみたいと思います。 今回は仮説検証なのでデータを70対30に2分割します。 (余談ですが、モデル選択の場合は60対20対20の3分…

Week2の課題をPCAしてみるとどうなるか?

PCAはWeek8で紹介された内容でした。 PCAはデータが膨大で計算負荷が大きいときに 類似と判断できるデータを削減して、 計算負荷を小さくすることが目的のものでした。 具体的なPCAの計算方法は↓でした。 これ↑がn次元をk次元にする方法でした。 今回は2次…

Coursera Machine Learning Week2 課題 2周目⑩ -苦闘記憶- Normal Equation

最後のOptionでNormal Equasionです。 Videoでは (出典;『Coursera Machine Learning』 By Mr. Andrew Ng) と説明されていて、 nが大きいと時間かかるけど、nが小さかったら一発で解答にたどり着くというイメージなのでとても楽しみにしていました。 まずは…

Coursera Machine Learning Week2 課題 2周目⑨ -苦闘記憶- 最適なαを探す

もうOptionの部分に入って長いですが、引き続きOptionの部分を行います。 まずは問題文を読みます。 適切なlearning rateを選びなさいという趣旨ですね。 Iterationを50にして、learning rate=alphaを0.3/0.1/0.03/0.01というように 変化させてJの収束具合を…

Coursera Machine Learning Week2 課題 2周目⑧ -苦闘記憶- Costfunction/Gradient with multi

今回はLinear Regression with multiのCostfunction/Gradientに取り組みます。 まずは問題文を読んでみます。 なんと、Food Truckの予測と同じ式が使えると書いてあります。 ↓がFood Truckの考え方でした。 このときXを基にした予測値は X X thetaでした。 …

Coursera Machine Learning week2課題 2周目⑦ -苦闘記憶- featureNormalize-

今回はOptionalのLinear Regression with multi variableの featureNomalizeに取り組みます。 まず問題文を読んでみます。 家のサイズと寝室の数から家の値段を予想しなさいということですね。 まず基データを見てみたいと思います。 こういうふうにサイズと…

Coursera Machine Learning Week2 課題 2周目⑥ -苦闘記憶- Visualizing J(θ)

今回はVisulizing θに取り組みます。 まずは問題文を読みます。 Jの見える化について説明されています。 見える化できるのはグラフで表現することができると書いてあります。 見える化できるのは3次元までだろうと思いますが、 今回はθ0とθ1とJの3つの数量…

Coursera Machine Learning Week2 課題 2周目⑤ -苦闘記憶- Predict

今回は前回計算した結果でてきたthetaを用いての予測です。 ここが一番大事なはずなんですが、よくcostfunctionとthetaを計算したら 満足している私がいました汗 本当はJを用いて最少誤差になる予測パラメーターθを導き出しているので、 予測を表現すること…

Coursera Machine Learning Week2 課題 2周目④ -苦闘記憶- Gradient

今回はGradient Decentに取り組みます。 個人的にはGradient Decentが一番難しくてわからないです。 1周終わっても同じです。 それはさておき、まずは問題文を読んでみます。 Loop Structureは既に用意されていて、 ΘのUpdateの式にのみ注力すればいいようで…

Coursera Machine Learning Week2 課題 2周目③ -苦闘記憶- computecost

今回も引き続きComputeCost.mに取り組みます。 各ファイルの関係は前回の日記で把握したので、 課題を考えていきたいと思います。 課題はこのJが最小となるθを見つけなさいということです。 ComputeCost.mではJの計算式を出すことが求められています。 Jは各…

Coursera Machine Learning Week2 課題 2周目② -苦闘記憶-

今回はこの↓computeCost.mに取り組みます。 問題は新規出店するFood Truckの利益を 既存店の人口と利益の関係から算出しようということでした。 その時はVideoにあるようにこれ↓を実践すればいいということになります。 これはVideoで説明されていた通りで、…

Coursera Machine Learning Week2 課題 2周目① -苦闘記憶-

前回のブログに書かせて頂きました通り、 めでたくこのコースを終了させることができました! しかし、本当に理解せずに答えだけ辻褄合わせたような解答も 多かったので2周目を行っています。 2周目は1周目よりは苦闘の跡がなくなるはずだと思います。 一…