ChatGPTの欠点から導き出した、統合AIの必須機能(2)別個体の情報を分けて扱う

ChatGPTが間違った情報を出力していると、私が最初に知った内容はYoutube動画からです。ある人が自分のことをChatGPTに尋ねたら、正しかったのは勤め先だけで、他の内容はほとんど間違っていたと報告する動画でした。他にも、プロ野球選手や芸能人なども、自分のことが間違って書かれていると、動画を出してました。

このような結果になるのは、ChatGPTの学習方法が原因です。ChatGPTは統合AIを目指しているのに、専門AIを構築するのと同じ方法を用いました。当然、情報全体としての傾向を求めるような学習内容になってしまいます。

具体的には、以下のような学習内容になります。
・同じ名前の人物や似た名前の人物を、同一人物として扱う
・1つの記事が複数の人物を扱っている場合、人物ごとの情報を区別できない
・嘘の情報も信じて、人物の情報に含めてしまう
・最悪の場合は、その人物の情報が嘘だらけになる
・自分で調べて必要な情報を追加する機能がない
・そもそも、情報不足である状況を自分で判断する機能がない

これに比べて、人類の中の賢い人は、どのように情報を扱うのでしょうか。
・集めた情報を俯瞰して、複数人を前提に置き、とりあえず置いておく
・嘘っぽい情報や矛盾する情報は、信用できない情報として別に扱う
・情報が不足することが多く、なんでも断定せず、不確かなままにしておく
・どうしても調べたい内容の場合は、追加の情報を集めようとする

つまり、別個体の情報を一緒にぜず、分けて扱う必要があります。それと同時に、情報が不足している点を考慮した学習方法に、修正することも必須です。

ここで、ChatGPTが持っているシステムと学習内容を、改めて整理してみます。まず基本となるのは、用意したニューラルネットワークの中身です。ネットワークの開始点として、単語や記号を集めたトークンを定義します。それに続いて、ネットワークを構成する計算式と重み値を持ちます。学習処理では、何千万個もある重み値を計算し、それが学習内容となります。つまり、学習後のシステムが持っているのは、トークンと計算式と重み値だけです。ですから、学習に使った個別のデータを保存する機能はありません。

それならば、発想を変えてみましょうか。ChatGPTと対話する際に、個別データの集まりを提示したらどうでしょう。知らない人の個別データを集めるのは大変ですが、知っている人が対象なら、やれないことはない方法です。ただし、この方法で少し対処できたとしても、間違いを出す現状は変わりません。

ChatGPTが現在の構築方法を大きく変えない限り、小さな間違いを出し続けます。その原因がシステム自体の構築方法に起因するので、簡単には解消できないでしょう。

いいなと思ったら応援しよう!