AI と人間のちがい|ニューラルネットワークとディープラーニングから見えてくるもの
こちらの動画をご覧ください。Excelで作成した、画像を認識する人工知能( AI )です。
左上の 6 × 6 のセルに模様を描くと、その形が数字の 1 ~ 3 のどれに近いかを識別する極めて簡単な AI です。ドーナツ円グラフはアルゴリズムによる類似度の判定(橙が1、青が2、黄が3)、左下のキャラクターは気にしないで下さい。会社の先輩の似顔絵です。スペースを埋めるために挿し込んだだけで、AI とは関係ありません。(ちなみに BGM も自作です。良い曲ですね。うんうん。)
この仕組みを応用すると、写真や文字といった複雑な情報も自動識別が可能となります。Googleは犬と猫の写真を識別する AI を開発して話題になりましたが、背後で動いている技術は全く同じです。AI の正体は数式なので、この程度なら Excel で作れてしまいます。
皆さんは「AI の仕組みは人間の脳と同じ」と聞いたことがありませんか?
そのとおり、近年の AI に採用されているニューラルネットワークは、人間の脳と同じアルゴリズムで動いています。
では、そもそも僕たちは「人間の脳」についてどこまで知っているのでしょうか?
「 A = B 」だと理解してはいても、「 A = ? 」「 B = ? 」だとすれば、「何も知らない」のと一緒ですよね。AI と人間の脳がイコールで結ばれる関係性を知っているだけで、それぞれがどんな動作原理なのか分かっていない、そんな人は沢山いるでしょう。AI に限らず、こうした「理解したつもりの無知」は残念ながら僕たちの周囲に溢れかえっています。
逆に言えば、A の仕組みを知れば、B を理解できるということ。つまり、AIの仕組みを理解すれば、僕たちの脳の仕組みが分かるということなのです。 人間の脳は生物の器官なので、ちょっと取っ付きにくいですが、AIはプログラミングなので数学の世界。これなら生物学・医学に疎い僕でも何とか付いていけそうです。
人間の情報識別の仕組み|ニューラルネットワーク
冒頭の AI の仕組みは簡単に言うと、情報の伝言ゲームです。まず、それぞれのマス(セル)が黒か白かを判定する最初の人たちを用意します。6 × 6 マスでしたので、36名の人が自分の担当のマスが黒か白かの情報を持っています。
36名は伝言を待つ人々全員に「僕の担当のマスは黒だったよ」「私の担当のマスは白だったわ」と伝えて回ります。ここで、伝言を待っている人が 4名いるとしましょう。この 4名はそれぞれ性格が異なります。4名とも最初の36名から同じ情報を伝えられているはずですが、反応が異なります。最初の36名の情報をもとに「マスが連続して斜めに黒く塗られている」という情報に興味を持つ者もいれば、「上下の行に横一線に黒く塗られている」という情報に興味を持つ者もいたり、性格はバラバラです。
4名は自分の興味のある情報は強調して伝える一方で、興味のない情報はほとんど無視を決め込みます。こうして36マスの同じ情報は次の伝言相手の興味によって加工され、また次の伝言相手へと情報が渡っていきます。
伝言ゲームの最後は 3名の人が待っています。この 3名はそれぞれ 1~3 のいずれかの数字に強い興味を示します。それまでの伝言で加工された情報を元に、塗りつぶされたマスが「1」に近い形であれば、3名の中の 1人が大きな声で「やった! 僕の好きな形だ!」と叫びます。同様に、「2」「3」に近い形だと判断されれば、別の 2名がそれぞれ叫びます。こうして最後に誰が叫んだかで、数字の形が類推されるというのが AI のアルゴリズムです。
たとえば集まった情報が「模様が斜めになっている部分がある」が強調されていれば「2」の可能性が高いですし、「縦の模様」の情報が強く他の情報が弱ければ「1」の確度が高まります。こうした伝言情報の総和で最後に誰が大きく叫ぶか決まります。
実は人間の脳の仕組みも、これと全く同じなのです。人間の脳には「ニューロン」と呼ばれる複数の神経細胞があり、互いに結び付いてネットワークを形成しています。この複数のニューロンの間で伝言ゲームが行われ、情報が伝わっていきます。それぞれのニューロンは刺激を受ければ次の複数のニューロンに信号を出し、そうでなければ無視を決め込みます。次のニューロンも複数のニューロンから信号を受け、その総和が一定以上であれば、そのまた次の複数のニューロンに信号を受け渡します。
AI の仕組みと同様に、それぞれのニューロンは違うことに興味を持っています。たとえばスポーツ観戦中においては、視覚情報や聴覚情報に興味のあるニューロンが信号を出しますが、触覚情報に興味のあるニューロンは無視を決め込みます。それぞれのニューロンで興味の対象が異なる、つまり受け取った情報をフラットではなく重み付けして伝達するということです。
Google が開発した犬と猫の画像を識別できる AI は、簡単に言えば「犬に興味のある」ニューロンが信号を出し、「猫に興味のある」ニューロンが無視を決め込むという現象を再現しているのです。この伝言ゲームがネットワークで広がっていき、最後には「猫に興味のある」ニューロンの情報だけが残る、すなわち画像は猫だった、という思考構造です。
AI の仕組みであるニューラルネットワークとは、「ニューロンのネットワーク」という意味で、名称も人間の脳そのものです。AI とは、こうした情報の重み付き伝言ゲームを数式の集合体なのです。同時に、僕たちの認識のプロセスとは、脳の中でニューロンによって情報が選択・加工され、物事をあえて偏って伝達することで成り立っていることが分かるでしょう。
人間の学習の仕組み|ディープラーニング
ニューラルネットワークによる、AI と僕たちの脳が「物事をどう識別するか」が見えてきました。しかし、ここで疑問があります。そもそも、僕たちは生まれた時には犬と猫の違いなど分かるはずもありません。ニューロンが興味を持つにせよ、「犬とはどんな形か」という判断軸があっての話です。
僕たちは木を見た時、「これは木だ」と判断できます。しかし、実際には 1本 1本の木は全て異なるもので、世界中を見渡しても「全く同じ木」など存在しません。なのに僕たちがそれを「木」と認識できるのは、よく考えると不思議ではありませんか。
その不思議について、古代ギリシアの哲学者・プラトンは「イデア」という概念で説明しました。イデアというのは天上界にある「理想的な標本」のようなもの。現実世界にある木は「木のイデア」の劣化コピーなのですが、僕たちは「木のイデア」を授けられて生まれたため、木を認識できるという主張です。
プラトンの主張は証明しようがないので、その真偽は定かではありません。ただ、この「イデア」らしきものがあるとすれば、それは繰り返しの学習によって認知のパターンを作り出すというのが、AI の世界です。これを深層学習、ディープラーニングといいます。
冒頭の 1 ~ 3 の識別 AI では、動画の右半分のようないくつかのパターンを作り、繰り返し予測と結果の誤差を縮めていきます。そして、この誤差が最小となるようニューロンの興味を調整し、伝言ゲームを整えます。
数学的には「モデル式の重み係数を調整する」と表現します。この時点で、統計学に明るい方はピンと来るかもしれません。そう、ディープラーニングとは回帰分析における誤差の最小化と何ら変わりません。Excel では散布図の近似直線を描くことができますよね。ディープラーニングはこの近似直線を描くことと本質的に同じなのです。
ただ、回帰分析のようにパラメータが少なければ最小二乗法で乗り切れますが、ディープラーニングの場合はモデル式が複雑ですので、勾配降下法や誤差逆伝播法のような微分方程式を活用した方法で、精度を上げていきます。
犬と猫の画像はおろか、1 ~ 3 の識別でさえ無数のパターンがあるため、全てを AI に暗記させるのは無理です。したがって、いくつかの代表例を通し、予測と結果の誤差を埋めて、イデアのような認知パターンを作り出していくというのが AI の学習の仕組みです。
考えてみれば、僕たちも学校で繰り返し問題を解いて、問題の解き方のパターンを見出していきました。「学習」で身に付いたものは知性というより、ある問題に対する答えを導き出すパターンなのでしょう。ところが、人生ではパターンどおりにいかないことにも多く出会います。培ってきた「学習」で対処できないのは、むしろ当たり前の話かも知れません。
AI と人間の違い|知のジャンプ
ここまで AI の仕組みを概観しながら、人間の脳について振り返ってきました。僕たちの物事に対する識別はニューロンによる情報の重み付けによって成り立つこと、その重み付けの根源は繰り返し学習で誤差を縮めてきた認知パターンであること。
冒頭に、AI の仕組みは人間の脳と変わらないと申し上げました。ですが、気を付けて下さい。逆は真ではありません。人間の脳は AI とは違います。
ここまでの話をまとめると、AI を物凄く簡単に表現すれば、「過去に身に着けた認識パターンに比べて、目の前のものがどれほど似ているか判定する」ということです。ディープラーニングが「過去の認識パターン」を、ニューラルネットワークが「似ているかの判定」をそれぞれ司ります。
しかし、僕たちの脳は過去の認識パターンにないものを想像することができます。たとえば、お掃除ロボットのルンバはもともとは掃除機ではありません。開発した iRobot社の意図は世界の紛争地域において、目に見えない地中に埋まっている地雷を探査することでした。地雷探査ロボットがお掃除ロボットに…過去の認識パターンからは絶対にこんな発想は生まれません。
僕たちは意外な組み合わせによる「知のジャンプ」ができるのです。これこそ AI には真似できない、人間の特性です。一見、無関係に思える要素同士を結び付ける、過去に忘れ去られたものを違う形で蘇らせる、こんな風になったら良いなと未来を構想する…全て、人間のみに許された偉大な能力なのです。
これは、よく「直感」と表現されますが正確ではありません。直感は「閃き」のように一瞬の思考に思われがちですが、実際には過去の経験に基づいて発想に辿り着く帰納的思考ではないでしょうか。それは人間よりも大量の経験データを学習できる AI の方が有利なように思います。直感とは、すでに存在する論理・経験を前提とした計算結果なのです。
むしろ直感ではなく「論理」の方が少量の経験値から新しい答えに辿り着く演繹的な思考で、人間の得意とすべき領域です。「1 + 1 は?」と問われ、考えるまでもなく「2」と答えられるのが直感です。過去の学習によってできた認知パターンがそう識別させているのです。それに対して、論理とは「1 + 1 = 10」でも正解となるような新しい思考・秩序を生み出すことです。
もちろん、多くの方の「直感」に対するイメージはインスピレーションのような説明できない着想事象を指して使われているのでしょう。それはそれで間違いとは思っていません。要は、思考メカニズムを注意深く観察した時、既存の秩序の延長か、新たな枠組みの発見か、そこが AI と人間を分かつ境界ではないかということです。
「AI が人間の仕事を奪う」というような声も聞こえてきますが、僕はむしろ、これまで人間が「しなくても良い仕事をしていた」だけだと捉えています。「知のジャンプ」こそが人間の仕事です。過去の認識パターンと照合する作業など AI のアルゴリズムに任せておけば良い。AI を知ることは、人間を知ることでもあるのです。