はじめに
だんないよ、nikkieです。
この土日は機械学習の基礎固めに使いました。
学んだことを手短にまとめます。
経緯
- 2/17 Python mini hack-a-thon参加 (第85回)Python mini Hack-a-thon - connpass
- 『Python機械学習プログラミング』( https://www.amazon.co.jp/dp/4844380605 )
の2章(パーセプトロン)を写経しようとしていた。
python-machine-learning-book/ch02.ipynb at master · rasbt/python-machine-learning-book · GitHub
- バリバリPythonやっている方々から機械学習勉強法のおすすめを聞くうちに、
キカガクの吉崎さんの講座をやってみようという気になる。
-
2/17と2/18の午後を使ってキカガク講座を一通り修了。
学んだこと
- 重回帰分析の数学部分
重回帰分析について今日勉強したこと #pyhack pic.twitter.com/6FnwcFyo2l
— nikkie (@ftnext) 2018年2月17日
- scikit-learn使い方
(1)modelを宣言
(2)model.fitでパラメタ調整
(3)model.scoreで予測精度を確認
(4)model.predictで予測 - モデルの構築に入る前にデータを確認すべき
(i) 分布の確認:seabornでdistplot
(ii) 相関関係の確認:seabornでpairplot
モデルの予測精度がなかなか上がらないのでデータを見たら、
説明変数が使いにくい分布だった、ないしは
説明変数と目的変数の間に相関がなかったというのは冷や汗モノすぎる。。 - train_test_splitで学習用データと性能評価用データに分けるとき
random_stateパラメタを固定して、ランダムだが毎回同じように分ける。
=再現性を確保する - テストデータはテストのときにしか使わない。
学習用データのスケーリングには学習用データの平均と標準偏差を使った。
所感
udemyのキカガク脱ブラックボックス講座中級編見切ったー。
— nikkie (@ftnext) 2018年2月18日
scikit-learnの使い方もわかって、
自分で機械学習を勉強するためのスタート地点まで導いてもらえた印象。
分かりやすい講義でした!#pyhack でこの講座を教えていただけたも本当にありがたかった
@terapyonさんと@NaoY_pyさんに
キカガク講座をおすすめしていただいたのが大きかった。
本当にありがとうございました!
Python使いが集まる #pyhack の環境はすごく学びがあると実感。
継続して参加して、Pythonで食べていけるように力をつけたいです。