見出し画像

思考のベクトル化

 「いぬ」と「ねこ」は近い。一方で「いぬ」と「ハンムラビ法典」は遠い。そんなお話。

 なぜ「いぬ」と「ねこ」は近いのだろうか。もちろん、両方とも哺乳類で毛が生えていて可愛いペットという共通点はある。そうやって近さを判別するのもよいだろう。しかし、もっと簡単な方法がある。文章中で置き換え可能か?ということである。

飼っているいぬを可愛がる

という文章を考えよう。「いぬ」を「ねこ」にしてみる。

飼っているねこを可愛がる

文章として成立する。一方で、「いぬ」を「ハンムラビ法典」にしてみる。

飼っているハンムラビ法典を可愛がる

意味不明である。

 このように、文章中で単語が置き換え可能かどうかで近さを判定することができる。これは文章解析AIなどにもよく使われる手法である。

 言葉にはベクトルがある。広辞苑には約60万語の単語があるから、それらをベクトルで表そうとすると60万次元の情報量が必要になってくる。しかし、それでは不便であるから次元削減をする。

 そのために「ねこ」と「いぬ」を似たベクトルであると近似してしまおう。

 これは、日々の思考活動でも便利な方法である。例えば政治思想。ある人に対して「この人はどういう思想の持ち主なんだろう?」と思ったとき…

 右翼か左翼かだけであれば1次元の情報量、支持政党でみれば政党数次元の情報量。

 たとえば「立憲民主党」と「日本共産党」のベクトルを足したような思想を持っている人もいる。そういうときは「ああ、このひとは立憲ベクトルと共産ベクトルを足した思想なんだな」と思っておけば正確ではないにせよ大体の雰囲気は掴むことができる。日常でもよくいう「AとBを足して2で割った感じ」みたいな言い方そのものだ。

 もっと正確に見てやりたければ個々の政策のベクトルなどを考えてやれば良い。

 といった感じで、大雑把に見ることもできるし、細かく見ることもできる。必要に応じて使い分ければいい。例えば、文章を書くときに、どれだけ詳細な情報を伝えればいいかというのはどれだけ次元削減をすればいいかということに他ならない。

 まとめとしては、とても当たり前のことを言って締めることになる。

 情報は多ければ多いほど詳細が見えてくるが、手早く理解したりほかの人に伝えたりするためには一旦情報量を削ぎ落として次元削減しなければならない。

いいなと思ったら応援しよう!