AIの時代に必要な能力について

昨今、生成AIの発展により、私たちの生活は大きく変わりつつある。ChatGPTに代表される生成AIを使っていると、本当にアウトプットが優秀なのに驚くことが多く、人間の役割はどうなるのか?と思わざるを得ないと思う。

さて、今日は、生成AI時代において、人間に特に求められる能力について、個人的な見解を述べてみたいと思う。

1. 「問いを立てる力」の重要性

人間の本質的な特徴の一つに、「問いを立てる能力」がある。私たちは、不思議な現象を目の当たりにすると、自然と疑問を持ち、それを理解しようと試みる。観察し、分析し、推論する—これらはすべて、問いから始まるのである。

過去の偉大な科学的発見も、過去の偉人がなしとげた社会的変革も、疑問を感じるところからスタートしたと思う。

あるいは、そんな大げさな話じゃなくても、人間は、子供のころは、いろいろなことに好奇心を旺盛で、「どうして?」「あれは何?」と質問をし、そして常に楽しそうである。

適切な問いを投げかけ、世界を理解しようとする、この人間特有の能力は、現代のLLM(大規模言語モデル)にはない重要な要素なのである。

したがって、「問いを立てる力」こそ、我々が、人間らしさを発揮するために最も必要な能力だと思う。

2. 真贋を見極める力

インターネットとAIの時代において、もう一つ重要なのが「真偽を見極める力」である。

ある人は、「生成AI後のインターネットは汚染されている」と表現している。また、別の人は、「(あまりにも汚染がひどいので、)人々は、生成AI前のインターネットを、「かつて存在した金塊」だと言だろう」とも言っている。生成AIは、アウトプットを異常に簡単にしているが、意図して嘘の情報を作るのも簡単だし、アウトプットしている本人が情報の嘘に気付かないということも起きる。

海にプラスチックゴミを撒き散らし、大気を二酸化炭素で充満させたのとまったく同じように、私たちはインターネットを無意味なコンテンツで埋め尽くそうとしている。

https://news.yahoo.co.jp/expert/articles/89a140ae8a7cc72fd7a68193b5afba64294be79d


ハルシネーションの問題

LLMのハルシネーションは深刻な問題である。
LLMは統計的な推論に基づくモデルである、LLMの本質的な特徴から生じており、現状では完全な防止は難しい。なぜなら、言葉は揺らぎをもって使われているし、LLMはいまだ思考とか、論理能力を獲得するに至ってないからだ。(おそらく短期的には難しいと思われる)

さらに困るのは、LLMは「真実を語っているかのように」振る舞う傾向が強いことだ。これは、ビジネスや社会に対して大きな課題を投げかけている。いわば「上手な嘘つき」とどう付き合っていくか、という問題である。

結論:求められる二つの能力

以上の考察から、AIの時代に人間に求められる基本的な能力として、以下の二点を挙げたい:

  1. 適切な問いを立てる力

  2. 真偽を見極める力

そして付け加えておきたいのは、多くの場合、真実は絶対的なものではなく、相対的なものだということである。「AはBという理由で正しいと考える」という、自分なりの見解や立場を持つことが、これまで以上に重要になってくるだろう。

これまで日本人である我々は、ある意味、積極的に意見を表明せず、穏便にすごしてきた。そして、そこでたまったストレスを匿名のSNSで吐き出すということをしてきたと思う。しかし、いまは、正々堂々、自分の違和感を周囲の人に伝える時代に来てるんじゃないだろうか?

今は、人と人がつながりやすい時代でもある。自分の違和感を発信し続けることで、理解者が現れてくる時代でもある。それが小さい一歩かもしれないけれど、世の中をよくすることにつながるんじゃないだろうか?

いいなと思ったら応援しよう!