ChatGPT後の世界 - 何が人間に残るのか?
計算能力は必要か?
小学二年生になる娘は、”Prodigy”という学習ゲームをiPadでやっている。
ロールプレイングゲームになっており、算数の問題を解けば敵を倒すことができる。
そしてうまく倒せばキャラを仲間にできるストーリーになっている。
元々学校で紹介され、楽しく学べるので隙間時間に自分で進んでプレイしている。
ある日家で仕事をしていると、リビングからこんな声が聞こえてきた。
「Hey Siri, 12から何を引けば5になるの?」
「んっ?」と思う私。
更に続く娘の声。
「Hey Siri, 12 + 3 + 6は何?」
これは明らかに問題の答えをSiriに聞きながら敵とバトルしている。
親として初めの反応はもちろん、
「いやいや、それじゃ意味ないでしょ。」
だった。
しかし口元まで出かかった
「ちゃんと自分で計算しなさい。」
という言葉を一度飲み込み、
一歩下がって冷静に考える。
「本当にそれじゃ意味が無いのか?」
「本当に自分で計算する必要があるのか?」
「今の大人ですら、少し複雑な計算になると電卓を使うのではないか?」
「むしろこの歳でSiriの様なAIアシスタントを使いこなしていることの方が価値があるのでは?」
環境が変われば必要なスキルも変わる
自分で火を起せる人、起こした事がある人は今どれだけいるだろうか?
昔は生死を分ける様な必須スキルが今では絶滅危惧種となり、学校教育には新たに英語やプログラミングが組み込まれている。
数年前から社会人の人材市場でもリスキリングという言葉が市民権を得つつある。
「これからの時代を生き抜く上で必要なスキルは今後どの様に移り変わっていくのだろうか?」
今の現役世代、特に社会に出た当時と今で環境が大きく異なる30代以上の世代であれば、一度は考えた事があるのでは無いだろうか?
特にこの層は子育て世代でもあるため、子供への教育という文脈でも考える機会があるだろう。(私はその1人だ)
確実に言えるのは、過去の30〜40年間で培った自身の経験や常識を元に子育てをする事が危険だということだ。
更に最悪なことに、時代の過渡期にいる我々には、これから起きることに対する免疫もなければ、参考にすべき先行事例も十分にはない。
自分の頭で考え、判断し、行動に移す事が求められている。
AI時代に求められるスキル
ChatGPTに代表されるAIの進化が目まぐるしい中、人間に求められそうなスキルとして真っ先に思い浮かぶのが「創造性(クリエイティビィティ」だ。
10人に聞けばおそらく過半数がこう答えるだろう。
但し、個人的にこれにはかなり懐疑的である。
作曲活動をしていた大学時代の友人の言葉が今も忘れられない。
「作曲の起点は、これまでに聴いた膨大な曲。これは意識的、潜在的に自分の中に既に存在するもの。つまりこのメロディは新しいと思っても、実は過去に聴いた曲を起点にパターンやイメージを少し変えたり組み合わせたりしている場合が多い。つまり、100%オリジナルな曲なんてこの世に存在しない。」
これは過去の膨大な情報から学習し、それを元に新しい文脈に合った文章や画像、音楽を生み出す生成AIの処理プロセスにかなり近い。
イノベーションの文脈でも、創造とは「ゼロからイチを生み出すこと」とよく言われるが、
何もない原っぱにある日突然新種の花が咲くというよりも、
既存の品種を元に、今まで誰もやらなかった交配をしてみたらなんだか新しい花が咲いた、というプロセスの方がイメージに近い。
今まではいくつもの品種(=アイディア)の交配を繰り返し試し、価値を生み出す組み合わせを見つけるのに膨大な時間と労力が必要だったが、今はAIが勝手にやってくれる。
例えば、会社のロゴのデザイン。
コーポレートカラー、理念、イメージなどの条件を入力する事で、AIが無限にロゴを提案してくれるアプリが既にある。
しかも、無料で。
そういった意味でアートや音楽といったクリエイティブ領域を、人間だけが活躍できる領域として見るのは危険な気がしてくる。
AIは決めてくれない
娘のSiriのケースに戻ろう。
娘とSiriのやりとりをしばらく静観していたら、娘がSiriに怒り始めた。
どうやらSiriの答えが間違っていて、敵に負けてキャラが死んだらしい。
娘が伝え間違えたのか、
Siriが聞き取れなかったのか、
娘が聞き間違えたのか、
はたまた答えの入力を間違えたのかはわからないが、
一つ言えるのは娘がSiriの答えを盲目的に信じたということだ。
これはかなり危うい気がする。
これをChatGPTの文脈に置き換えると、ChatGPTの仕組みや制約を理解せずに答えを鵜呑みにする行為に近い。
例えば、ChatGPTはリアルタイムで世界中のインターネットから最適解を探している訳でなく、過去のある断面の学習データから最も確からしい答えを返しているに過ぎない。
2023年11月時点では、2022年1月までのデータが対象になっている。
つまりChatGPTに何を聞いても、それ以降の最新情報を加味した回答は得られない。
更に何かの課題に対する解決策を聞いても、オプションは提示してくれるが、「最適解は状況に応じて異なります」といった答えが返ってくる事が多い。
つまり、SiriやChatGPTの様なAIのアシストを元に、最終的な良し悪しの判断を下すのはやはり人間の仕事として残るだろう。
そういった意味で、AIと同じレベルの計算能力や情報処理能力は不要だが、AIの回答を評価し、何を採用すべきか(又はすべきでないか)の判断ができるレベルの知識や経験は必須ということになる。
つまり娘のケースだと、何らのミスコミュニケーションでSiriが意図にそぐわない解答を導き出した時に、違和感を感じ、疑い、再計算し、最悪自分で正しい答えを導き出す事ができるレベルの能力は必要になる。
結果、(少なくとも親としては)我が子に最低限の計算能力を身に付けさせる必要があるという結論に至った。
AIは責任を取ってくれない
ある日、ChatGPTのプロンプト(命令文)を調べるためにYouTubeを見ていたら、あるエンジニアが究極的に人間しかできないのは、何かあった時に謝ることと言っていた。
正確に言うと、プログラムさえすればAIは代わりに謝ってくれるだろう。
だだし、AIを使って自身のアバターがいくら土下座したところで、残念ながら誰も許してくれない。
つまり、AIは代わりに意思決定してくれないし、代わりに意思決定してくれたところで、誰も責任を取ってくれないので、何かあった時に最終的に謝らなければならないのは人間ということだ。
進化を続ければマネジメントの役割は残りそう
意思決定した上で責任を取るというのは、まさにマネジメントの仕事そのものである。
そう考えると、マネジメントという役割は残りそうな気がしてくる。
但し、意思決定のプロセスにAIがどんどん入り込んでくるため、意思決定に必要な基礎知識のレベルは格段に上がるはずだ。
このレベルアップが出来ないと、①AIを盲目的に信じるか、②AIを全く信じずに古いやり方に固執し、自身の勘と経験に依存するかのどちらになってしまう可能性が高い。
こう見ると、AIの進化はマネジメントへの挑戦であり、マネジメントの進化を促すための試金石の様にも思えてくる。