ついに最終週となりました。
Week11も課題がありません(・・;)
画像分析の課題やってみたかったです。
自分の業務に役立つ部分が簡単に想像できただけになおさらです。。。
さてVideoのサマリーですが、
既にまとめてくれていて網羅している記事をまずご紹介します。
https://qiita.com/kawasyaki/items/564d7dd6a6f85541463c
率直にこちらの方の理解度が絶対に私より上だと思うので。
私、どうせ素人なんで!
と思ってます笑
その上で各ビデオでの私の理解を書きます。
Video① Problem Description and Pipeline
ここでは画像分析を取り上げています。
画像解析のPipelineでは
・Text Detection
・Character Segmentation
・Character classification
という3段階でMachine Learning しています。
Video② Sliding Windows
ここでは
第一StepのText Detectionの行い方についての説明でした。
例は歩行者検出の説明でこのようにスライド↓を移動させていき、
(出典;『Coursera Machine Learning』 By Mr. Andrew Ng)
各スライド毎に教師あり学習で歩行者っぽいアスペクト比(縦横比)を
基に検出するということでした。
テキストはText detectionのtraining setを基に
検出するということでした。
Character segmentationもtraining setを基に検出します。
1つわからないのは何故文字が分割されているものを
「正」として検出しようとするのかでした。
しかし、上で紹介させて頂きました記事の中に
「文字の切れ目を判断するため」と書いてあり非常にクリアになりました。
切れ目が分かったらあとは文字の機械学習ですね。
文字の機械学習はWeek4でやった記憶があります。
Video③Getting Lots of Data and Artificial Data
データが無くて困る時、人工的に生成することもできるよ、
その時の注意点はこれだよ、という説明でした。
特にHigh Variansでデータはあれば精度が上がる可能性が高いという時に、
データを取得するための時間とコストを省略する手段があるかもよ、
というお話でした。
Video④Ceiling Analysis;What part of the Pipeline to work on Next
ここでは第1~3Stepが分解できるので分業できるということと、
分業できるからこそどの部分に注力するのが
改善にもっとも効果的なのかをどう判断するのか
について説明されてありました。
各ステップを順番に100%にしていき、
全体のパフォーマンスが何%ずつ上がって行くのかを見て、
もっとも増加率の多いステップを見つけそこに注力すべきという説明でした。
今回はここまでです!