見出し画像

学びと憂鬱(2)

改めて学びとは?

経験によって動物(人間を含め)の行動が変容すること

webilio辞書より

つまり、ただ教科書読んでいるだけ、ただyoutube観てるだけでは学びとは言わないのである。「経験すること」、「行動が変容すること」この二つの要素がないと学びとは言わない。

経験とは?


経験は過去のことしか指さない。今ここは経験と言えるのか?経験というよりは体験という言葉の方が適当な気がする。未来はどうだろう。未来に起こりうることに私たちは経験という言葉を使わない。適当な言葉はなんだろう。予定かな。

つまり私たちは過去から未来を予測するモデルで思考している。逆はあり得ない。

生成AIと学び


昨今話題の生成AI。
私が書くまでもなく昨年から爆発的な勢いで活用が進んでいる。アイデア出しからメールの添削、表や画像、動画の作成などビジネス上でもいたるところで進んでいる。

生成AI(または生成系AI)とは、「Generative AI:ジェネレーティブAI」とも呼ばれ、さまざまなコンテンツを生成できるAIのことです。従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテンツを生成することを目的としています。

https://www.nri.com/jp/knowledge/glossary/lst/sa/generative_ai

AIには、機械学習(マシンラーニング)と深層学習(ディープラーニング)という2つの学習方法があります。機械学習とは、人間から与えられた指示にしたがい法則性を理解する仕組みです。画像認識や売上予測、需要予測、不正検知、故障診断などに活用されるケースが多く見受けられます。

機械学習には、膨大なデータのインプットによって学習させる「教師あり学習」のほか、自らデータを蓄積しつつ学ぶ「教師なし学習」、活動のなかで最適解を自ら導き出す「強化学習」の3つがあります。

深層学習は、脳を構成する神経細胞ニューロンをモデルとしたAI、ニューラルネットワークを用いた学習手法です。これは機械学習における手法のひとつであり、指示を与えずとも自ら学んでいける点が大きな特徴です。

と、AIの学習方法はこんなところであるが、専門家ではないので
こんなところで。

記号接地問題

記号接地問題とは何か?

AIは一見、ことばの意味が分かり、人間が言語で言わんとすることを理解しているように見えても、実は一つ一つのことば(記号)の意味を理解しているわけではない。意味を理解しない記号を別の、やはり意味を理解しない記号で置き換えているだけで、どこまで行っても、結局、人間が言語で伝えようとする本当の「意味と意図」は理解できない、というのが「記号接地問題」です。
つまり、AIのなかでは、単語一つ一つが、経験や感覚に対応づけられていない――身体感覚に「接地していない」――状態にある。つまり、本当は単語一つ一つの「意味」を理解していない。にもかかわらず、あたかも理解しているようにふるまっている、ということです。

https://business.nikkei.com/atcl/gen/19/00554/062200004/

以前noteにも書いた、新井紀子さんの『AIvs教科書が読めない子どもたち』でもこの問題については触れている。

「おいしい」と「まずい」が分からない?

新井氏は著作の中で、Siriの音声認識システムに触れている。

「近くにあるおいしいイタリアンのお店を教えて」
「近くにあるまずいイタリアンのお店を教えて」

2つの質問をSiriに聞いても、似たようなお店がリストアップされる。と指摘していた。AIには「おいしい」「まずい」の意味が理解できず、また「まずい」を検索する人は少ないから、それ以外の情報で判断している。
つまり、Siriは論理的に文章を理解するのを諦め、統計と確率を用いている。

ChatGPTではどうか?

実際に口コミサイトの評判を確認してみよう。
(検索結果のお店のことを批評する目的ではございません)

1軒目はなんと、大阪のお店だった。福岡じゃない。
2軒目と3軒目のお店はGoogle検索しても出てこない。なんてこった。

まずい方の回答は、論点ズラし。
まずいの定義に触れず、玉虫色の回答で逃げる戦法。

私のプロンプトが良くない可能性はあるが、誰かに話しかけるイメージで気軽に質問した回答がこの程度。回答を見る限りAIは「おいしい」=「評判が良い」、「まずい」と「お店」の組み合わせは批判になるからダメだと判断しているように見える。
(AI素人の見解なので、詳しい方間違っていたら遠慮なく教えてください)

AIは意味を理解することができない

なぜ、ChatGPTは、こんな間違いをするのでしょうか。ChatGPTは、インターネット上にある情報を参照して、答えを導き出します。おそらく、参照しているデータの中に、「99、101、100」という数字の「並び(配列)」はほとんど存在しないのに対し、「99、100、101」という「並び」は非常に多く存在するのでしょう。分数の「意味」を理解していないので、数字の「並び」に注目してしまい、Cを選んでしまったと考えられます。
 このことは、ChatGPTが部分的に出した答えを論理的に統合して結論を出すことが苦手であるということも示しています。

https://business.nikkei.com/atcl/gen/19/00554/060700003/

経験を構成する要素は?

冒頭で触れた話題に戻ろう。
結局「経験」とは何なのか?

私の大好きなマラソンを例に考えてみよう。
フルマラソンを完走したことがある私は、いわゆる「30kmの壁」を経験したことがある。30kmを過ぎると体が重たくなってきて、いわゆるガス欠状態になってしまうことだ。30kmまでは理想のペースでレースを進めることができても、この30kmの壁のせいで何度もレースプランが崩れてしまった。

一方でフルマラソンを完走したことがない人は「30kmの壁」の定義や完走者の話を聞くことで、どんなものなのかイメージすることはできる。しかし、自分の身体では何もしていない。これは「経験した」とはいえない。

私たちは「経験」と「知っていること」の境界線を錯覚していないだろうか?動画で「わかりやすく」「プレイヤー主観」の映像に触れ、分からないことはChatGPTやググることですぐに答えにたどり着ける。「体験したつもり」で満足してしまっていないだろうか?何でも広く浅く知っていることで一種の全能感に酔いしれていないだろうか?その姿勢は情報を「食っている」AIと何ら変わらない。

私は、経験とは五感を伴うフィジカルなものだと考える。こんな時代だからこそ、フィジカルに「経験」し、それを自分の言葉で言語化していくプロセスが自分のアイデンティティを形成していくべきだ。

素人の駄文になってしまったが、深堀ります。
また次回。



この記事が参加している募集