必読!おすすめビジネス書のご紹介

ビジネス書、何を読むべきか悩みますよね。ランキング上位を買ってみても、案外学びにならなかったり。そんな思いから、おすすめの本の概要を書くことにしました。外資系戦略コンサルなどで勤務した私が、おすすめの本をご紹介します!参考になれば幸いです!

スマートマシンはこうして思考する(ショーン・ジェリッシュ)

Google機械学習&データサイエンスチームのマネージャーであるジェリッシュ氏が、コードや数式を使わない範囲で詳細に解説した本です。
「AIってなんだろう?」
ニューラルネットワークって聞いたことあるけど、どういう仕組みなんだろう?」
と思っているすべての人にお勧めです。
 
よくAI関連を謳う本には全然内容がない本も多いですが、この本は適度に難しく、適度にわかりやすくとても勉強になります。これからの世界で生き抜くために、ぜひ。
 

スマートマシンはこうして思考する

抜粋と考察

初期の自動運転車において、車がカメラの画像から道路を見つけるには、類似した色の画素をグループ化するクラスタリングと呼ばれる機械学習のテクニックを利用していました。現在も単純なクラスタリングではないものの、この応用が使用されています。
砂漠においては、道路は灰色と茶色の混在したものであろうため、灰色がかった画素と茶色がかった画素のクラスターを作成し、画像の画素がこれらのクラスターと一致しない部分は、道路の一部ではないと判断し除外する。これにより、この先どのぐらい道路が続いているかということを推定することができる。
砂漠で自動運転を試す、というコンテスト。初年度は誰も完走できなかったのに翌年には完走するチームが一気に増え、更に翌年には他の自動運転車とともに市街地を走る、とどんどん難易度も、テクノロジーも進歩してきました。
完全な自動運転までは、予測できない周辺環境、というファクターが入るため完全実用化はまだされていませんが、近い将来には実現されそうです。
 
 
AIが得意、と言われる個人の嗜好に合わせたレコメンド。Netflixのレコメンドエンジンを題材にしたわかりやすい事例が本書で記載されています。
 
その際、回帰分析なども同様ですが、ニューラルネットワーク過学習になりがち、という話もよく聞きます。サンプルデータに合わせこみすぎた結果、一般化できないモデルになってしまうことです。過学習についてもわかりやすい説明がされています。 
ニューラルネットワークを調整するときの最大の問題点の1つが過学習である。ネットワークの柔軟性が高すぎるとき、あるいはモデルを学習させるためのデータが十分にない時、学習で使用したサンプルに関してはうまく説明できても他の道のデータが一般化できないモデルになってしまう恐れがある。 
 
過学習を回避するための一般的な方法としては、「調整つまみの少ない単純なモデルを使う方法」、「多くのデータを使用する方法」の2つがある。

  

画像認識に話は移ります。ニューラルネットワークを使った画像認識の精度は、畳み込み層と、その後に続く全結合層を導入した事例が出た2012年に大きく向上しました。いまでも非常に一般的になっています。
畳み込み層ごとに1組ずつフィルターがあり、前の層の画像の中から判別できるパターンを探す。前の層のニューロンの格子にフィルターを当てるのだ。
 
砂浜で様々な種類の魔法の物体検知器を使って様々なものを探すところを想像してほしい。この物体検知器がフィルターに相当する。あるフィルターは砂浜できれいな貝を探し、別のフィルターは腕時計を探す。畳み込み層の出力はフィルターごとに1枚の砂浜の地図を集めたものになる。
貝のフィルターが、もし画像のどの部分でもパターンにある貝を見つけられないなら、そのフィルターの地図は全体が暗くなる。パターンに合う貝が見つかったら貝が見つかったところが明るくなる。腕時計の検知器でも同じことだ。畳み込み層の入力中にフィルターと明確に合致する部分があれば、入力層中のその位置のニューロンが明るく光ることになる。
1つ目のフィルターでは荒い画像格子の中からパターンを探し、2番目の畳み込み層は元の画像ではなく、前の層のフィルターが検知したものを使って探すべきエッジのパターンを組み立てる。その後、何層にもわたり同じように行うことで、徐々に精度が高まっていく。
 
Siriで馴染み深い、聞く、話す、覚えるに関するニューラルネットワークには、再帰ニューラルネットワーク(RNN)が使われます。
RNNは状態を追跡し更新することができ、記憶が行えるとも言えます。
 
音声認識ではRNNの仕組みを使い、聞いた情報からまずは文章を作り、最後にその文章構造をよくある形に変換し、単語のミスなどを修正し(例えば似た発音だが意味が違う単語などは、前後の単語との関連性から選択、修正し、)出力します。とても簡潔に記載した部分と、図をご紹介します。
 
再帰ユニットは現在の状態を見て、それを用いて何かを行い世界を認識した結果に基づいて必要があれば状態を変化させる。簡単に言えば、それを繰り返す状態更新機なのである。
 
 
人工知能がチェスや囲碁をプレイする際には、経路探索と評価関数を用いて行動を決めます。どの経路(取りうる手)が最もかつ確率が高いのかを評価し、スコアが高い方を選択する、という流れです。
 
評価関数とはゲームの状態に対して適用する判定の手法で、対戦している両者が合理的にゲームを進めた場合に、どちらが勝つかを予測するために使われる。
 
比較的単純なチェスの場合、「コマ自体に重要性」に重みをつけ、さらに相手の陣地に近いなどの「コマの位置情報」を重み付けし、すべての駒の合計値を評価関数とし、それが相手より高い方が勝利に近いと評価します。
そして、何手か先まで予測をした上でどの打ち手がより評価関数が高いかを計算した上で次の手を決めます。
 
 
しかし、この方法では選択肢が無限大に広がるスタークラフト(資源を作ったり、兵を育てたり、周りを探索したりしながらリアルタイムで守り、勝つゲーム)のようなゲームの場合は、有効な手法が見つかっておらず、未だ人間を上回ることができていません。ある戦略をとりがちな人やAIには勝てても、別の戦略をとりがちな人やAIには負ける、というじゃんけんみたいな状況になっているようです。
 
 
本書で述べられている通り、過去、人間は急速なスピードで人工知能を進歩させてきました。しかし筆者は最後に重要な、一般化できるコメントを記載しています。
一人きりでガレージで作業した結果から大きな進展が遂げられた理由はほとんどない。AIや機械学習の進歩も大勢の叡智が合わさった結果なのである。
 
 
日々進歩している分野なので最新情報を常にキャッチアップするのは難しいですが、概念だけはしっかり理解しておきたい分野です。仕組みがわかっていれば「AI=怖い」と思わずにすむのではないでしょうか。