昨今のAIブームについて学んだこと、思うこと
はじめに
昨今のAIブームについて、自分が昨年学んだことと思うことを書いたものです。
あくまで以下の内容は初学者の私見である点、ご了承ください。
AIブーム
ブームの発端にはいろいろなイベントがありますが、主には
- 2012年のImagenetにおけるディープラーニングの成果
- Ponanza, AlphaGo, DeepQNetworkなどのゲーム系AIの発展
あたりが強いと思います。
ディープラーニング以前のニューラルネットワークといえば、発想は面白いけど結局中で何してるかわからないブラックボックスで、あまり実用にもならないよね?みたいな温度感だった記憶があります。
当時のニューラルネットワークの主な課題は、
- 学習能力は高い(理論上どんな関数も表現可能)が、学習を収束させるマシンパワーや効率的な手法がない
- 使い物になる学習結果を出せるほどの大量のデータがない
という点でした。
これらの課題がweb社会の発展による大量データの蓄積や、マシンパワーの増大(クラウド含む)によって緩和され、今回のブームに至っています。
ディープラーニング一択?
ではこれからAIをシステム導入するなら、ディープラーニング一択なのでしょうか?というと、もちろんそれはないと思います。
過去にもAIブームはありました。直近は90年代前半の第二次ブーム。
私見ですが、AI、より正確には機械学習の技術、を使うにあたっての第二次ブームと第三次ブーム(今回)の差は図のようなポイントだと思っています。
ブームの発端はディープラーニングだったかもしれませんが、ディープラーニングは適した分野に応用しないとデメリットも目立ち、いい投資効果は得られないはずです。
ディープラーニング以前は実用レベルでは扱いにくかった画像・音声などの非構造化データはまだいいとして、構造化データに対する機械学習の適用であれば、必ずしもディープラーニングを使わなくとも過去よりよいシステムが組める可能性はあると思います。
例えば、決定木やSVMを今のインフラ技術(CPUリソースの潤沢なクラウドや、Hadoop等の分散処理基盤)の上で動かし、運用自動化技術を使って学習モデルの運用を効率よく回す。これだけでも第二次ブームの頃にはできなかったことが実現できるのではないでしょうか。
すぐAI導入しなきゃ?
ただ、今も昔も変わらないのは「データがないと始まらない」ということです。
先ほどの図で言えば、下のレイヤが不十分だと上のレイヤを用意してもシステムにはならないでしょう。
データがあってはじめて乗っかることができるブームであることは肝に銘じるべきと思います。
なければ集める仕組み作りから入る必要があります。
ブームの今後
まもなくブームは終わると思いますが、AIのシステム導入は冷静さを持って続いていくと思います。というかそう期待しています。