はじめに
だんないよ、nikkieです。
機械学習歴3ヶ月の私ですが、機械学習を始める方への提案をまとめ
3/23のMANABIYAでLTしてきました。
勉強会の概要
AI枠のトークセッションでは深層学習をバリバリやっている方が登壇されていたので、
まだ深層学習まで進めてない身でLTしていいのか?とだいぶ憂鬱でした笑
LT「機械学習をはじめたいあなたへ」
概要
「機械学習を始めたい」という気持ちの裏には機械学習で実現したいことがあると考えます。私が趣味で開発するときは、実現したいことの達成を最優先にしています。(=やりたいことファースト)
そんなスタンスの私から、機械学習で実現したいことを最優先で達成するとして
機械学習を始めるならこうしてみてはいかがでしょうと提案してみました。
やりたいこと:「画像になにが写っているか知りたい」
→提案:機械学習でモデルを作らなくてもいい。Web APIを使えば画像解析ができる
これは実体験からの提案です。Web APIを叩くのは本当に簡単でした。
Python入門者でもComputer Vision APIを叩くのは怖くない - Qiita
Web APIの裏にはベンダ(上の例ではMicrosoft)が学習させたAIがあります。
APIを叩くことで学習部分を丸々ベンダに任せて機械学習のモデルを使っているわけです。
この種のAPIはたくさんあり、私もその一部しか把握できていません。
例えば、MANABIYAでハンズオンされた来栖川電算さんも
docomo developer supportから画像認識や動作推定のAPIを提供しているそうです。
会社紹介スライド(84, 91スライド目):
MANABIYA Machine Learning Hands-On
やりたいこと:「手元のデータで機械学習をやりたい」
→提案:
- カテゴリ値の扱い:one-hotエンコーディング
- トレーニングデータとテストデータの分け方:ホールドアウト法/k分割交差検証
やりたいこと:「機械学習を勉強したい」
※私はやりたいことなしに勉強することはあまりやりません。
機械学習を勉強したいという方も一定数いらっしゃるようなので、
自分が今後勉強していきたいところを紹介しました。
→提案:探索的データ解析のやり方をkaggleのkernelから勉強しよう
他の方のLT
- React Nativeは簡単なアプリならiOSとAndroidでコードを共通化できるが、
複雑なことをやろうとすると、React NativeとiOSとAndroidの3つをいっぺんに学ぶ機会になるらしい - XR系のデバイスの被る問題、女性は髪が崩れるので嫌という意見は聞いたことあるけど、
一人がかぶってほかの人は傍観者っていうのも言われてみれば問題だなー。
みんなで同じものを見るって経験がしにくいデバイスということか。 - VRエンジニアは数が足りてないので、違う分野からでも勉強すれば転身できるとのこと。人工知能エンジニアもきっと同じ
感想
LTする前は引け目を感じてましたが、
準備からLTまででこの3ヶ月の総括ができたので、やっぱりLTしてよかったなと思います。
LTの機会をいただき、ありがとうございました!
当ブログは引き続きMANABIYA関連でアウトプットしていきます。