
意味空間から考える訂正可能性
概要
「意味空間」というAI的な視点をベースに、「訂正可能性」の遡行的な再解釈(訂正)について考えてみました。
箇条書きではありますが、意味空間というモデルを定義して、それをベースに解釈していくという感じです。
ちなみに、ヘッダーの画像はEmbeddingモデルを使用して、「こんにちは、文埋め込みを使って検索してみてください。」という文章をベクトルに変換して、類似するベクトルの単語を10個出力させた結果画面です。
意味空間を表現する視覚的なアプリを作ろうと思ったのですが、画像の時点で満足してやめました。
意味空間と概念の定義
・概念は意味空間内での範囲であり、位置と大きさを持つ。
・「概念=意味=範囲そのもの」である。
・概念の位置は、紐づく概念との関連度合いによって決定される。
・概念の大きさは、紐づく概念の大きさや数に左右される。
👉️紐づく概念が多くなれば範囲が狭くなる。(抽象から具体に近づく。)
・概念は新規生成と更新(移動)が可能。
・概念は自身の変化の記録を持つ。
・新規かどうかは既存の概念と既存の概念が持つ記録から判断する。
👉️セマンティック記憶とエピソード記憶をヒントにした。
ウィトゲンシュタインの言語ゲーム
・なぜ、ゲームが変わった後に、初めて遡行的に発見されるのか?
👉️意味空間に存在する概念は「現実の動き(現実世界の変化や、人間の認識する行為そのもの)」に伴って、新規生成と更新を繰り返していく。
・概念は意味空間に存在する概念によって相対的に移動・変化する。(他の概念の影響を受ける。)
👉️ものごとの解釈は意味空間に存在する概念の影響を受ける。
・現実の動きに伴って概念が変化することで、ある特定の概念への見方が変わる。これが訂正可能性の半身。
・中身が変わっても同じゲームだという遡行的な認識は、新規作成した概念に紐づいた「それ自身の変化の記録」と「それをもとにした推測からなるその軌跡」から得られる連続性によってもたらされる。
👉️つまり、ゲームが終わったという現実が先で、新たな現実によってもたらされた新たな認識から以前の状態を含めた現状のゲームを観測することでやっとこさ、ゲームへの新たな認識として追いつくので必然的に遡行することになる。
これからのAIってどうなっていくの?(予想)
・意味空間が概念で満たされるほど、解釈はより鮮明になる。(鮮明にはなるけど、その正否は意味空間が持つ概念によってその都度変わるからなんとも言えない。)
👉️したがって、思考することでどんどん新たなデータを出力し、それをもとに学習すればするほど、全体的にうっすら賢くなる。
・AIは人間にとっての現実から受ける影響よりも、AI自身の思による新たな概念の生成・更新の影響を大きく受ける。(今は、思考したデータを付加してまた一から学習させるのは人間だけど。。)
・AIが賢くなっていくと新たな概念がたくさん生成される。
・新たな概念は新たな言葉として(それよりも多く?)生成され、自然言語が拡張されてしまい、人間にはちんぷんかんぷんになる。
・このような一連の訂正は新たな概念が生成される限り無限に続く?(ただ、概念が多くなればなるほど大まかな方向性は固まっていく??)
さいごに
結局、「同じゲームである」という認識については記憶という機能を持たせるというお粗末な解釈で片付けました。遡行的な再解釈についても、解釈が既存の概念の影響を受けるという前提で、言語ゲームをそのまま表したような感じになってしまいましたが、理解するためのわかりやすいモデルを作るという目標は達成できたと思います。
当たり前だけど、これは僕が認識しやすいというだけで、実際にこのモデルのまま世界は稼働していると主張したいわけではないのであしからず。
あと、『訂正可能性の哲学』自体は結構前に読んだので、内容に関する解釈の間違いがあれば遠慮せずにご指摘いただけると嬉しいです。もちろん、今回提示したモデルの矛盾点なども大歓迎です。