はじめに
だんないよ、nikkieです。
本日はCogBot勉強会に参加し、AzureのBotとAIの全体像をつかむとともに
業務で触り始めたAzure Machine LaerningについてLTもしてきました。
勉強会の概要
第11回 Cogbot勉強会! ~ 行こうぜ、Cogbot の向うへ2018 - connpass
イベント概要
2018年の最初の勉強会は、Cognitive Services のおさらいから始まり、先月GAしたばかりの自然言語処理のサービスである LUIS と Azure Bot Service、昨年末に話題となった Azure Machine Learning Workbench に関する内容をお届けします!
人工知能API Cognitive Services、 ボット開発ツールAzure Bot Service、
深層学習ツールAzure Machine Learning Workbenchと
約2時間でAzureのCognitiveまわりがつかめる濃密なラインナップでした。
業務でAzureの知識が求められているので、こういった機会はありがたいです。
では、聴講時のメモを元に振り返ります。
今年こそ始める! Cognitive Services 概要&アップデート
Cognitive Servicesは多少使ったことがあるので、
気になったこと(今後調べること)のメモが中心です。
- 人工知能とは、「人間の知的能力をコンピュータ上で実現」
囲碁のAIなどは人間と同じように考えているわけではないが、
結果を見ると、人間と同じように囲碁を打つことはできている。 - エイベックスはライブ来場者の顔の写真で年齢、性別、表情を収集
Face API、Emotion API リアルタイム分析
チケットは当人が買うとは限らない - ナビタイム 鎌倉NAVITIME TRAVEL
日本語英語の入力受付 LUISなど - Customとつくものが出てきているのが最近のCognitive Servicesの傾向
(分析モデルのカスタマイズができる) - GAか否か GAするとAzureのサポートやSLAの対象になる
- Content Moderator 画像のタグ付け?API 後で調べよう
- PostmanでAPIアクセス? 後で調べよう
- Custom Visionはエンジン部分をエクスポートできる
Swift × Core MLのサンプルあり - 言語のAPIには形態素解析のベースとなるようなAPIも提供されている どれのことだろう?調べよう
- LUISの正式名称がLanguage Understandingになった
- QnA maker FAQページからBotを作れる
FAQページ→ナレッジベース(QとAのリスト)→Qが入ってきたらAを返すAPI
Bot Serviceを作り、iframeで埋め込むところまで簡単にできる - Bing Custom Search:自分が調べたいサイトから調べてくれる
検索対象にしたいサイトを登録する - Labにはイベント収集APIもある
- オススメ https://github.com/Microsoft?q=cognitive
- オンラインコース(英語) AI School
デモ編のスライドはこちら→Azure Webinar - Cognitive Services 概要[Demo編]_20180123
Azure Bot Service で始めるチャットボット開発入門
Bot Serviceはほとんど触っていないので
ノンコーディングでここまでできるのかーと舌を巻きました。
- Bot ServiceはAzure Portalから作る(←GAしたからか!)
- ChatBotと人の間に挟むもの:チャンネル(FB MessangerやSlackなど)
- ブラウザからコーディングできる(オンラインコードエディター)
- Web App Botは固定料金。コード変更後手動デプロイが必要
- Function Botは従量課金。コード更新後自動でデプロイ
- 開発者はどうやって自然言語認識の精度を上げるかといったところに集中できる
- GitHubやVSTSと連携してCI/CDが可能
- どのチャンネルからアクセスされているかという分析機能がAzure Portalに組み込まれている
- ドキュメントは英語だが、シナリオに応じたパターンやコードもGitHubで公開されている
- ポータルで選べないチャンネルはDirect Lineを使う
デモの手順はブログにまとまっているそうです→
QnA Maker と Azure Bot Service を連携(して QnA Makerの閾値を変更)その2 - BEACHSIDE BLOG
Azure Machine Leaning Workbench の使い方
WorkbenchからもStudioにアクセスできるのかなと想像していたら
実態は深層学習のツールですごい勘違いでした。
深層学習や機械学習を受験に例えるのはうまいと思います。
深層学習の流れ
- コード書く→デバッグ が入り口 (テストしたら終わりじゃない)
=脳みそができただけ(知識がない) - ハイパーパラメータを変更しながら何度もトレーニング
脳みそに何を与えるか
例:勉強法の違い どの問題集やるか、何周するかを先に決める
ここに時間がかかる(コーディングの先に3週間)
問題集を何周もすると覚えてしまう:過学習 - 学習の単位(=ジョブ)ごとに脳みその比較
→成績が良いものをデプロイ
深層学習ツールとしてのWorkbench
- ジョブを自動で管理してくれる
2つのジョブの比較が可能(性能が高い2つを比較して、採用するジョブを決める) - ログ出力が自動で保存される
pythonのprint文やimportするloggerのログ出力
出力した変数はグラフで可視化もしてくれる - ハイパーパラメータも管理してくれる
深層学習の取り組み方
- 脳みそは0から自分で作らない。用途によってサンプルコードがある。
コピペしてきて動かす(バグがないか確認)。 - サンプルコードに問題なさそうなら、データを与える
例
MNISTのスクリプトを使ってFashion MNISTをやってみる(シャツ、スカート)
服のデータを与えると手書き数字ほどいい精度でない
→精度は出ていないが、活用できそうという手応え
LT:Azure Machine Learningでレコメンド(by nikkie)
LTをもとにQiitaに手順記事書こうかなと思っています。
レコメンドに興味ある方のお役に立てれば幸いです!
GitPitch使ってみたのですが、ブラウザの読み込みで失敗していて(?)
背景画像がなく、白いスライド連続になってしまうというハプニングがありました。
「Python入門者の集いでモザイクのLTしていた人ですよね」とお声がけいただきありがたかったです。
(インパクトのある「モザイクの人」路線いいな。実際はモザイクアートですが(笑))
LT:笑顔チェッカー
大仏にもEmotion APIが適用できるのは興味深いです。
messageでほっこりしますね。
終わりに
LTの貴重な機会をいただきありがとうございました。
AzureのAIやBotについて情報収集でき、
現在の先にある「向こう側」が見えてきたような気がします^^
今回気になったことを今後触っていきます。