AI社会に暮らすのは地獄? 『AI vs. 教科書が読めない子どもたち』
登場人物
研究者1203:このノートの管理者
美少女リン:1203のイマジナリーフレンド。資本家。
太郎:飼い犬。柴犬の雌。
要旨
前回:リンさんは昆虫食の会社をしていて、資本家の視点から資本主義の説明してくれた。
今回:リンさんは管理者にこっそりnoteの記事を増やしてくれて。
本文
今日は、研究者1203が風邪で寝てるから、勝手に記事を書いとく。起きた時に記事が増えていてびっくりするかも。楽しみ。
私は、こいつのイマジナリーフレンドだから、こいつが寝ているときにしか勝手に動けない。身体がないからね。こいつの脳みそと心に間借りしているだけ。
本当は、こいつが大人になる途中で消えるはずの私だったけど、運よく消えなかった。いいのか悪いのか。だから、自分の身体が欲しい。それで、AIとかロボットとかの記事を調べている。AIに私を乗り移らせて、ロボットがあれば、間借りの居候から抜け出せる。そしたら、イマジナリーじゃなくて、ほんとのフレンドになれるね。
それでちょっと昔に出た本を偶然読んでみたけど、AIはまだ本当の人工知能にはほど遠いようだ。新井紀子さんの『AI vs. 教科書が読めない子どもたち』(2018)。本当の人工知能っていうのは、自分より優れた人工知能を造れる人工知能のことらしい。正確には。
でも今の人工知能、AIは、いまでも「意味」が理解できないそうだ。データのパターンを見出して、パターン通りに、これだ!!っていう似たのをデータから引っ張り出してるだけだって。だから、アイフォンのSIRIに、「何でそう思うの?」て聞いても、「分かりません」て答えるだけなの納得。「あなたはリンゴが好き?」って聞いても「分かりません」。話し相手にもならない。せいぜい「おいしいイタリア料理店はどこ」とか、ネット検索の代行をしてもらうくらいだね。
こんなやつに私を乗り移らせたら、私は大馬鹿になってしまう。それこそ地獄。いまの脳みそ間借りの方がましだ。本当の知性を持った人工知能は、近い未来に実現されないのかな。
いまのAIもどきでは、太郎をなでなでする気持ちよさもわかんなくなっちゃうって、膝の上の太郎のふさふさ尻尾を引っ張る。
太郎は尻尾を引っ張ると少し耳が垂れる。ちょっと緊張するのかな。かわりに頭をなでなでしてあげる。可愛すぎ。AIに乗り移ったら、この可愛さも愛らしさも理解できなくなっちゃう。悲しすぎる。
そう、AIは実質、論理、確率、統計しかできない。パターン見つけて、起きそうなことこを予想して、データ集から検索した答えを出すだけ。なので、文字を見ても頭の中に連想もイメージも伴っていない、01001デジタルデータの羅列に過ぎないそうだ。
要するに、AIは意味を知らないから、こちらで基本になる世界設定をしてあげないといけない。アノテーションとかオントロジー設定というらしい。その世界設定の上でリンゴなりミカンなりの画像や、自動車運転、将棋なりの教師となるデータが必要だそうだ。教師データをみてAIは、自分でデータを分析し出すらしい。画像見て、これはリンゴ、ミカン、ネクタイ、カメラ画像見て次の道路は子供が飛び出す!とか。自分で教師をつくってパターンを発見するのもできるけど、何を何したらいいのという世界設定は人間頼みらしい。レントゲン写真から病気を見つけ出すのも、これまでの症例から教師データを作るって。結局、人間の赤ちゃんみたいに自分で勝手に動き出して色々考えて、怒ったり悲しんだり、話してくれないんだね。
それじゃ、太郎よりも頭が悪いんじゃないか。太郎は柴犬だけど、私のことも研究者1203のことも区別してわかってるし、私の気持ちもわかってくれる。たまに番犬もしてくれるし、ボール遊びも一緒にしてくれる。
じゃあ、私が間借り生活を終える日は、まだ先かな。すると、研究者1203の寿命と共に私も終わるのかな。それもありかな、でも長生きもしたいな。
てことは、イマジナリーフレンドを生み出せる人間の脳みそってすごいのかも。細胞が電気と化学物質で通信しているだけなのに。イマジナリーフレンドは、しかもたまに、英雄にもなれるからね。アニメの「インサイドヘッド」のヨロコビを助けたのって、ライリーのイマジナリーフレンドのピンク象だよ。泣けるね。最後、記憶の墓場からヨロコビだけを救い出して、自分は消えていくなんて。
残念ながら、私が研究者1203のために、そこまでヒーローになれるかどうか分からない。その場になってみなきゃ。
でもでも、そんな馬鹿なAIだけど、人間のいまの仕事を半分は奪ってしまうそうだ。AI世界恐慌!新井さんによれば。まさに経済地獄。だって、人間の仕事って、ほとんど、ルーティンワークだから。右の文字を左に移したり、右の文字が左と同じか確認したり。事務作業なんてそうだよね。銀行の与信判断なんて、経験頼みから、もう過去データから数字さえデジタルで揃えておけばよいって。ブロックチェーンのことだそうだ。文章も、説明文とか結構上手だよね。文章ってけっこうパターンある。
現場作業でも、繰り返しなら、AIが一気にできちゃう。電車の運転なんてだいぶ前から自動。線路の上だし、駅は決まってるもんね。ソニーの自動運転技術は、カーレースゲームで人間よりも強い。お医者さんだって、画像や検査結果の確認だけなら、繰り返し作業だからAIがお得意。コンクリートの劣化場所も、音の判断は、繰り返しだから、熟練またなくてAIで代行か。
そのうえ、人間は全然賢くないらしい。実は教科書が読めない人間だから。教科書の文章が悪いっていうより、ほとんどの人が読めないそうだ。文字は読めても意味は取れない。それがリーディングスキルテストという新井さんの開発した試験で分かってしまった。
そういえば、研究者1203が高校で教えていた時、たしかに読めてなかったかも、生徒は文章。私は間借りだから、一緒にいて、暇だから眺めてたけど、生徒はなんかテストの暗記頑張ってた。「徳川家康は江戸幕府を開いた」って文章なら、江戸幕府が空欄になったらそこを生徒は覚えるんだけど、逆に「江戸幕府を開いたのは○○〇だ」になったら、ぜんぜんわかってないんだよね。家康じゃんなのに。これって、同義が判別できない。
だから生徒は、「テスト範囲の例文と同じの出してー」て怒ってたのかな。単に記憶力の問題かと思ったけど、じつは読めてないのかも。
かくいう研究者1203も、この本に載ってた例文をいくつか間違えてた。「ありえない―」って笑ってやったら、なんか言い訳してた。でも、著者の新井さんが作ったAI東ロボくんは、偏差値57あるからMARCHや関関同立レベルは受かるそうだから、ほとんどのひとはAIに負けてるかも。だから、ほとんどの仕事がAIに置き換えられる。営業なんてもうネットが出て、だいぶ前から置き換えだよね、コロナでしづらくなってるし。
でも、研究者1203が寝てるから、文章が単調になる。どうしよ。起きたら、こいつはダメだしするかも。それも面白いけど、逆にふざけてやる。そろそろ起きてくるかな。
ということだけど、AIにできないことがある。意味や感情が分かって、自分で臨機応変に動ける。意味って言うのは、いろいろイメージを頭に持って連想することね。あと、いろんな知識総動員して推測できる。AIは、意味が分からないから、決まったデータしか使えない。人間はいろいろ自分で新しくつなげるよね。私も間借りの身とはいえ、昆虫食のビジネスして、ビリオネアだから。
それで、残る仕事って、臨機応変で、対人関係で、共感出来て、感情つかって、仕事。介護、ダンスとかインストラクター、断捨離アドバイザー、セラピスト、コメディアン。真面目な事務作業してるホワイトカラーって、今でも言われている通り、もうムリゲーね。すべてAI代行で経済効率化して、基本、大企業は消えていくという新井さんの未来予想。
じゃあ、研究者1203は、会社仕事に縁もなければ、人付き合い苦手だから、生き残れないじゃん。どうすんの。
てことは、ホリエモンがよく言ってるみたいに、遊びまくることが仕事になる!というのが正しいのかな。新井さんが例に出すのも、「ほぼ日刊イトイ新聞」。好きなシャツ作って、犬の散歩代行してあげて(太郎の散歩!)、小さい人の困った!を解決してあげて。生活を楽しく生きがいを得られるようなことをしてあげる仕事なのか。
といっても、文章読めないなら、この記事書いてもどうしようもないかも!せっかく研究者1203の代わりに書いてあげたのに。みんなでリ―ティングスキルテスト受ける?でも、研究者1203が喜んだら、それでいっか。