15分で分かる人工知能と計算機科学の歴史<後編>
前回は、人工知能の黎明期から、第二次人工知能ブームが収束して「冬の時代」に入ったところまで説明しました(1950~1980年代)。
今回は、機械学習が社会で頭角を現し、ディープラーニングの登場で第三次人工知能ブームが盛り上がるところ(1990~現代)まで説明します。そして、今回のブームの要因と各ブームにおける共通点などを掘り下げます。
1.空前のコンピュータ環境の出現と機械学習の発展
エキスパート・システムと第5世代コンピュータの挫折から、システムの動作をトップダウンで記述するアプローチが袋小路であることが分かると、科学者たちはデータからボトムアップでシステムを改善するアプローチに注目しました。
つまり、人間が知識を網羅的に書き出すのではなく、コンピュータにデータから「傾向」を発見させようとしたのです。「人手で知識を詰め込む」のではなく、「自律的に知識を得る方法を詰め込む」というメタなアプローチで攻めることにしたんですね。押してダメなら引いてみろの発想です。
この場合、パーセプトロンと同じ要領で何らかの数理モデルをデータから学習させます。学習が環境において妥当であれば、未知の状況においても機械は正しく動作するでしょう。
これが「機械学習」と総称される各種アプローチの基本的な考え方です。「過去問を解いて試験本番に臨もうぜ!」と言えば、その基本スタンスと難しさが理解できるのではないでしょうか。
もちろん、数理科学を基礎とする工学的なアプローチは、人工知能ブームとは関係なく昔から研究されてきました(例えば、自然現象を数理モデルで説明しようとする物理学など)。
これが「機械学習」として計算機科学に食い込み始めたのは、コンピュータの性能が上がり、ボトムアップで「試験本番」を乗り切ることが現実味を帯びてきたからです。
しかし、第二次人工知能ブームでトップダウンのアプローチが挫折した後も、次の2つの理由により、機械学習は計算機科学の分野で主流にはなれませんでした。
第一に、モデルをうまく学習させられるほど、コンピュータの性能が十分高くなかったことです。
タスクが複雑になれば、それに合わせてモデルも複雑にする必要があります。ところが、機械学習のアルゴリズムの多くはその複雑度に対して計算量が爆発的に増加するため、コンピュータの性能が伸び続けても、なお計算が難しかったのです。
そのため、扱えるタスクは限定的で実用に堪えず、基礎研究の域を出ませんでした。前編で、ザ・キング・オブ・地味と書いたのは、これが理由です。
コンピュータで実世界の課題を解決しようとする計算機科学の分野において、「で、そのアルゴリズムは何の役に立つの?」と聞かれるとぐうの音も出ないのです。
第二に、モデルを学習させるためのデータを集める方法が限られていました。
1990年代の後半にはコンピュータの能力がさらに向上し、近似計算すれば学習できる場合もあったのですが、大量のデータを効率よく収集できる環境が不十分であったため、やっぱり地味な基礎研究にしかならずに注目を集めませんでした。
いまや華々しい花形ポジションを確立した機械学習も、売れない俳優志望がコンビニのバイトで食いつなぐような厳しい下積み時代があったのです。
ところが、時代は大きく変わります。1990年代の後半から携帯電話・家庭用コンピュータが普及し始め、2000年代の前半からブロードバンドの整備が進みました。どこかの不毛がモデムをバラまいてくれたお陰です。
そして、2000年代の中盤に世界初のスマートフォンが発売されると、「ネットワーク接続されたコンピュータを一人が一台ずつ持ち歩く」という空前のコンピュータ環境が実現しました。
これにより、世界中で膨大な量のデータが流通するようになりました。まさに「データ多すぎワロタwwww」の時代が来たのです。
つまり、遅くとも2000年代の中盤には、機械学習の発展を阻むボトルネックがほとんど解消されました。ここから、凄まじい勢いで研究が進みます。
特に「大量のデータを高性能コンピュータに入力し、重いシミュレーションをクラウド上で大規模にブン回す」のように、コンピュータの計算能力で押し切る力技の研究が増えました。個人的に「脳筋研究」と呼んでいます。
そして、この力技を極限まで追求して大きな成果を上げたのが……そうです、我らが大正義「にゅーらる☆ねっとわーく」のセンターアイドル「ディープラーニング(深層モデルを用いた学習=深層学習)」です。
2.深層学習の登場
深層モデルは、多層パーセプトロンをディープに(深層化=複雑化)した数理モデルです。
従来から、ディープにしても従来のバックプロパゲーションで学習できることは理論的には明らかでした。しかし、実際にコンピュータに計算させると、数値計算上の問題からうまくいかないことが知られていました。
ヒントンは巧妙なトリックでこの問題を克服し、多層パーセプトロン(詳細は前編を参照)をディープにした状態で学習させることに成功したのです。
ニューラルネットワークでは論文が通らないとさえ囁かれるほど過酷に冷遇された極寒の時代に、その研究の火を消すことなく踏ん張った彼の執念には恐れ入るばかりです。「姉小路縛り」で天下統一を目指す根性こそが、天才の真骨頂なのかもしれません。
ディープラーニングが2010年代の前半に画像認識への応用で大成功を収め、これまで泡沫だった研究分野が産業界を巻き込んで一躍花形となりました。
第一次人工知能ブームでは探索アルゴリズムが、第二次人工知能ブームではエキスパート・システムが、それぞれ「人工知能」としてもてはやされましたが、第三次人工知能ブームではディープラーニングが大本命となりました。
2000年代前半に、自分の研究のために多層パーセプトロンを細々と自作していた私に言わせれば、微生物が進化を重ねて錦織圭になったくらいのインパクトです。ミラクルすぎるだろ。
ディープラーニングは、多層パーセプトロンが考案された時代から基本的な部分で変わっていません。両者の違いは、モデルの複雑度と、その学習に前述したトリックが組み込まれていることにあります。
前者が増すことによって爆発的に増加する計算量は、力技と近似計算の組み合わせで押し切ることができます。
例えば、囲碁の世界チャンピオンを破ったAlphaGoは、その内部でディープラーニングを使った近似計算を実行するために、1000台以上のプロセッサを束ねたクラウドサーバを稼働させたそうな。広大な砂浜に落とした一粒のダイアを探すために、大型ショベルカーを1000台動員するイメージです。
ディープラーニングは、コンピュータの計算能力とビッグデータという組み合わせが、とても効果的に作用するアプローチでした。「りんごとハチミツ恋をした」と言っていいでしょう(古い)。
後者は「データの特徴を自動で捉える」などと一般に謳われる、なんとなく胡散くさいトリックです(専門的には、特徴抽出を含むモジュールを「微分可能な世界に組み込んだ」と言えるかもしれません)。
ちなみに、深層モデルが「脳を模したモデル」と説明されることがあるのは、前編で説明したとおり、ローゼンブラッドが形式ニューロンを繋げて単純パーセプトロンを作ったことに由来するためと思われます。
しかし、これは飛行機を指して「鳥を模した乗り物」と説明することと同じです。深層モデルは、あくまでも入出力の対応関係を近似する数理モデルに過ぎず、決して脳のモデルではありません。これを誤解したまま機械学習ガチ勢周辺に向かって吠えると、いろんな意味でイタいのでやめておきましょう。
また、近年米国に迫る経済大国となった中国が、今回のビッグウェーブに乗って計算機科学の主導権を握ろうとしているように見えます。これは、かつて日本が第五世代コンピュータ(前編を参照)で米国に挑んだ構図に似ていると感じるのは、私だけでしょうか?
いまや最先端の情報処理技術で先んじることは、世界の覇権を握ることと同じなのです。第一次、第二次で勢いのあった日本は現在非常にデリケートな経済状況にあり、どこにも出る幕がありません。
嗚呼、坂の上の雲はどこに行ったのでしょうか。もう日本はアンドロメダを目指せないのでしょうか?
3.各時代で共通・類似する事実
さて、人工知能と計算機科学の研究史を俯瞰すると、各時代で共通・類似する事実が見えてきます。4つほどあげてみましょう。
第一に、「人工知能」という用語は、いつの時代もそれを使う側にとって都合よく解釈され続けたという事実です。結局は単なる情報処理でしかないのですが、いろんな大人の事情で「とにかくすごいもの」と扇情的に解釈され、一般に用いられてきました。
第二に、歴史は繰り返すという事実です。何らかのきっかけでブームが起こるたびに、社会は人工知能という未来に夢を抱き、踊らされ、期待外れに落胆してきました。その効果が誇大に解釈されかねない不正確な情報が、都合のよい用語で喧伝されるからです。
民間のポジショントークはともかく、大学の研究者などの権威ある肩書きを持つ人まで「エキスパート・システム」「ディープラーニング」「シンギュラリティ」など、マーケティング色の強いパワーワードを使ってブームを過熱させるのはお決まりのパターンですね。
第三に、人工知能は、あらゆる問題を解決できる魔法の杖ではないという事実です。あまりにも当然なのですが、これが忘れ去られてしまうことが、過熱したブームがもたらす弊害の1つと言えるでしょう。
自分たちが直面する問題の本質的な原因を追求することなく、「人工知能でなんとかしたい」という話はいつの時代にも山ほどあります。しかし、人工知能はただの情報処理であり、それはツールに過ぎません。
最近ようやく無意味な「人工知能ブーム」が沈静化し、世の中の人は気づき始めましたが、魔法の杖などこの世のどこにも存在しないのです。当たり前すぎる。
第四に、人間と同じようにコンピュータに問題を解かせようという試みは、指数関数的に伸び続けるコンピュータの計算能力を生かした力技の前に、ことごとく敗れ去ってきたという事実です。
脳とコンピュータはまったく異なります。空を飛ぶために鳥を作る必要がないのと同じように、人間にとって便利なコンピュータを実現するために脳を作る必要はありません。
将来的に「人工知能」と呼ばれるであろう新しい情報処理は、ハードウェアをどう有効に使うかという観点から切り離されることはないだろうと私は予測しています。
4.シンギュラリティの到来による「超知能」の実現可能性
技術的特異点(シンギュラリティ)は、コンピュータが人間の知能を超越し、技術による問題解決の能力が指数関数的に向上することにより、「超知能」が文明を支配し始める時点のことらしいです。この時点ですでに宗教的な胡散臭さが漂います。
数学者でSF作家のヴィンジが、1980年代に発表した小説でこの用語を初めて使いました。その後、2005年にカーツワイルがムーアの法則を根拠にしてその概念を拡張させて使い始め、第三次人工知能ブームで広まったようです。
著名人・有名科学者がディストピアな未来を懸念する声明に同意したこともあり、「2045年」という数字と大胆な予測が世界的に注目を集めました。要するに、日本で一時期流行した「ノストラダムスの大予言」の世界バージョンです。
実は、この手の未来予測はカーツワイルが初めてではありません。例えば、1962年には「最初の超知的機械に関する思索」という会議が開催され、統計学者のグッドが「知的爆発」の可能性を指摘しています。
また、1965年に計算機科学者のサイモンは「20年以内に人間ができることは何でも機械でできるようになるだろう」と述べていますし、1970年にミンスキー(「人工知能」の用語を初めて使った科学者、前編を参照)は「3年から8年の間に、平均的な人間の一般的知能を備えた機械が登場するだろう」と予想しています。
このように、歴史を振り返れば、多くの人がいろいろな角度から風呂敷を広げ、世間をセンセーショナルに驚かせ、毎回その期待を裏切ってきました。裏切ったところで責任の詰め腹を切らされるわけではありませんので、言ったもん勝ちになるからです。
そうした歴史を踏まえれば、シンギュラリティなど「またか」という乾いた感想の対象でしかありません。言ったもん勝ちはいいとして、二番煎じもいいところです。
もちろん、私は人工知能の実現を信じています。実現できない理由が現時点で見当たらないからです。「空を飛ぶ」ために、最終的に鳥ができあがるのか、飛行機ができあがるのか、もっと別の何かができあがるのか、それは分かりませんし、いつ実現できるかも予測できません。
しかし、いつか何らかの方法で空を飛べるようになると、いまのところ考えています。ただし、「超知能が実現する」とか「コンピュータが人類を支配する」とか、そういった SF のような未来予測を信じてはいません。
人間は新しい技術を社会に役立て、より良い未来を作るために、社会に技術を融合させて文化をアップデートする努力を続けてきました。だからこそ、世界は常に改善され、豊かになってきたのです。
それは今も昔も、当然これからも変わりません。人間はそんなに馬鹿ではないし、長期間かけて創り上げてきた文化は脆くもありません。そういう意味で、コンピュータが人間の知能を超越したり、人間を支配したりすることはないと思います。
このあたりの話は、日本が世界に誇るスーパー科学者の杉山将先生が明快にファイナルアンサーを叩き出しているので、これを心に刻みましょう。
5.「いつの間にか変わっていた」の衝撃
一方で、前編の冒頭で書いたとおり、計算機科学は猛烈な勢いで発展を続けています。今後も情報処理の可能性は広がり、コンピュータはより深く社会に浸透していくはずです。
これも前編で説明したように、経路探索のアルゴリズムは70年ほど前に人工知能とみなされていました。また、インターネットで買い物するときは「あなたにはこれがオススメです」と表示され、現時点ではこの仕組みが人工知能と呼ばれることがあります。
どの経路で行くか、何を買うかは、もちろん最終的に人間が判断するので、人工知能による「支配」とまでは言えません。しかし、「誘導」されているとは言えそうです。
計算機科学の研究が進むと「人間にできてコンピュータにできないこと」が、少しずつ「コンピュータでもできる」ようになっていきます。そうすると「かつて人工知能と呼ばれていたもの」を自分が使っていることすら分からなくなり、それは人工知能ではなくなります。
だから、仮に真の人工知能が実現できるとしても、「2045年」のような分かりやすいターニングポイントが意識されるとは思えません。じわりじわりと社会が変わり、いつの間にか便利に(ある人にとっては不都合に)なっているでしょう。
そして、発展を続ける計算機科学が、20年後に何を「いつの間にか当たり前」にするかは誰にも分かりません。
ただし、近年の計算機科学が、「人間が暗黙に持つ知識・技能を人工知能で置き換える」ことのできる範囲を、押し広げる方向へ進歩しており、当面の間はその進歩の方向性が変わらないことは間違いなさそうです。
データから巧妙に暗黙知(言語化できない知識)を取り出す機械学習が凄まじい勢いで発展しているため、多くの人が従来から携わってきた仕事のいくつかは大きく変化するに違いありません。
それに伴って、各人に期待される役割や社会の仕組みも、少しずつ変わることになるんでしょうね、きっと。
6.最後に
Google トレンドによる検索回数によると、最近ようやく「人工知能」のブームが沈静化してきたことが分かります。グラフの青線は「人工知能」の検索回数の推移、赤線は「機械学習」のそれです。
後者が前者を上回ってきたことから、人々がまともなデータ分析に目を向け始めたとポジティブにとらえてよいのか分かりませんが、とりあえず、人工知能の夢から覚めてきたことが客観的に分かりますね。
さて、皆で歴史を振り返り、人工知能と計算機科学の進歩に思いを馳せてきましたが、最後はなんとなくしめやかな結末になってしまいました。盛者必衰は世の理です。
ちなみに、最近プレステ4の人気タイトル「デトロイト:ビカム・ヒューマン」にハマってプレイしまくっていました。人間と変わらない見た目と超知能を持ったアンドロイドが、自由を求めるというストーリーで、手の込んだヒューマンドラマに感心した次第です。
さて、コンピュータがここまで発達するのはいつになるのでしょうか?
そもそも、人間と同じ知能など実現できるのでしょうか?
次の人工知能ブームがいつ来るかは分かりませんが、楽しみにしながら皆で正座して待ちましょう。
====
・この記事を書いた藤田の Twitter は、こちら
・本稿は、「面白い文章を書けるようにするクラブ」のレビュアの皆さまからアドバイスをいただいて執筆しました。ありがとうございます。
クラブ楽しいよ!レッツ・ジョイン!