人工知能・機械学習の黎明期

人工知能の歴史は意外に古く、戦後1950年代あたりにさかのぼれます。世界で最初のコンピュータENIACが誕生したのが1946年ですが 、その翌年にはチューリングがはじめて人工知能の概念について述べています。それから、半世紀以上たった現在にいたるまで2回ほど大きなブームがありました。

最初は二分木に代表される、探索アプローチの時代でした。科学計算用の言語であるFORTRANが作られるとともに、探索に向いたLISPという言語も作られました。 また遺伝的アルゴリズムなども考案されましたが、探索的な発想では現実世界の問題に対処するには限界があるということが認識され、だんだん下火になってゆきました。

次に1970年以降から、知識表現についてさまざまなアイデアが出されるようになってきました。Prologなどの知識を扱うための言語なども作られ、エキスパートシステムという、専門家の知識をコンピュータに乗せて適切に判断させるような仕組みの検討が行われる時代になりました。

このエキスパートシステムも専門家のレベルにするためには相当な判断情報が必要であり、知識の構造とそのアクセス方法などでなかなかこれというものを見出せなかったと感じています。 ニューラルネットワークもこの時代には考えられましたが、数学的モデルの範疇にありました。今でこそ、数万円のパソコンでPythonでディープラーニングを動かすことができますが、当時は大型計算機でもどうかというレベルでしたから、理論先行にならざるも仕方がなかったのでしょう。

コンピューティング能力の向上

しばらくすると人工知能としての盛り上がりはなくなり、1990年代の中ごろからデータマイニングの技術が話題になってきました。データマイニングは多くのデータの中から、なんらかの傾向、法則性を発見する手法で当時マイニングツールもいろいろと出回るようになり、これはやがてDWH(データウェアハウス)とかBI(ビジネスインテリジェント)ツールなどになってゆき、各社が盛んにソリューション提案をするようになりました。

現在は3回目のブームと言われていますが、その一番大きな要因は、主に2000年代以降に生じたコンピュータ性能のコストパフォーマンス向上にありました。それまでは理論ベースだったニューラルネットワークを、実時間で計算できるようになったわけです。機械学習という言葉も使われるようになったおもこのあたりからですが、比較的低コスト、短時間で計算できるようになると、アルゴリズムの改良が急速に進むことになったわけです。

人工知能のレベル

人工知能の研究に勤しんで来られた方ではよく知られたことですが、人工知能には難問として知られている「フレーム問題」、「シンボルグラウンディング問題」というのがあります。これらは簡単にいうと、コンピュータは人間と同じような思考ができない、もっというと「概念」を持てない ということを言っているわけです。

では今はどの程度なのかと言いますと、概念は持てないが、「素性設計(Feature Engineering)」の課題はクリアできつつあるという段階にあるかと思います。素性設計というのは、「どんな特徴量に着目して最適化すればいいのか」ということで、従来は人間が着目すべき特徴量をあれこれ考えてきました。2010年代にGoogleの猫が話題になったのは、猫の特徴が何か(例えば、顔のしま模様、目の形、耳の形など)を人が指定することなく、ディープラーニングの階層モデルが自動的に抽出できたということにありました。

これ以降、ディープラーニングの階層モデルは急速に研究が進み、RNN、LSTMなどのような過去情報を記憶するモデル、GANsのような識別能力を鍛えるモデル、Q値計算にDNNを活用した強化学習であるDeep Q-learningなどが次々と考案されてきています。



機械学習手法>>