
人と人の価値観さえも繋ぐ「万能コネクタ」としてのAIの可能性
1.「万能コネクタ」としてのAIの可能性
ChatGPTなどのLLMについて、以前考えていたことは、
システムxシステムを繋ぐものとしてのコネクタ。厳密に定義されたインタフェースが無くてもLLMを介することで、繋ぐことができる。これによりサービス間の「柔軟な」連携が可能になる。
実現例としては、JSONトランスレーター(色んなサービス間でJOSN渡しが可能)
ほかには、エッジAIとしてもインタフェースのコネクタになれそう。
自然言語インタフェースによるシステム間接続がポイント
でも、今思うに、LLMの力はそれだけじゃなく
システムとシステムを繋ぐだけでなく、「ヒトとヒト」を繋ぐ力がある。
しかも、多様な価値観さえも繋ぐことが出来る。
以降は、
・前提「何が変化するのか」
・根拠「なぜそう言えるのか」
・検証「本当に有用なのか?」
を記す。
2.前提:2024年に生成AIが進化する部分
根拠の前に、2024年に生成AIが、どう変化するのかを考える。大きく二つを予想。
その1:RAG等を使った個別最適化が進む
組織情報、個人情報の両方
Ex.社外秘データ、メール、スケジュール、メモ、購買履歴
その2:ビジネスプロセスに生成AIがより入り、プロセス最適化が加速
RPAとAIを含んだ、業務プロセスの分解と再構成が進む
ビジネスプロセスに、既存システムと人とAIが混在する形。
Ex.システム>人>AI>RPA>人>AI>人
前提その1から、考えられることは、
「個別最適化が進むと…、個人のコンテキストをAIが深く理解するよね
だったら、、、人と人を繋げることもできるんじゃない?」
3.根拠:そもそもChatGPTに代表されるTransformerモデルの特徴とは
Embeddingで単語の意味的な類似性をベクトルの距離として表現することができているし、Self-Attentionで文中の各単語が、他のすべての単語とどのように関連しているかを学習しているし、Position Encodingで単語の文中での位置がその意味に重要な影響を与えることを理解している。
この3つの要素を組み合わせることで、トランスフォーマーモデルは単語単位だけでなく、文章全体のコンテキストを理解することができます。それにより、文章中での各単語の相対的な重要性や、その単語が文中でどのような役割を果たしているか、さらにはその文の持つ感情までを把握することが可能になります。
正確には、感情を理解しているのではなく、感情を理解しているようにしか見えない文章を生成出来る。実際に、Twitterの感情分析はLLM以前から出来ていたしね。あとは、ChatGPTに「小学生にもわかるように説明して」という指示が得意なのは有名だと思う。
さて、このことから、私は真のポイントは以下だと思っている。
LLMsの特徴=「紐づける力、関連付ける力」がすげえ
このLLMsの特徴に、「個人データ」が加わると、個人のコンテキスト理解によって、ヒトとヒトを繋げるだけでなく、
LLMs+個人データセット = ヒトxヒトの価値観を繋ぐコネクタ
になるのではないか?
4.この力は何に使えるのだろう
ところで最近、配信で「マイスモールランド」という映画を見た。国を持たないクルド人としての身分問題、難民問題を背景に、日本で生活する少女サーリャの物語。日本に生まれ育ち、日本人の価値観を持ちながら「日本人ではない」とされる少女。
その時、ふと思ったのが、
この断絶の時代に、AIは単にシステム的なコネクタの役割を超え、人々の価値観や理解の架け橋として機能するのではないか?。
多様な価値観を持つ「ヒトとヒト」を繋ぎ、新たな共創の可能性を拓く。多様なままの世界に祝福をもたらす?
AIは多様性の時代における超知能コミュニケーターの役割を担う。
わたしたちは、そういう時代に生きている・・・のかもしれない。
5.検証:ほんとうに価値観をつなぐの?問題は?
ここで、AIを介したコミュニケーションにも、場合によっては問題がありそうだと感じたので、考えてみる。
事例:「みかんが好きなA君」と「リンゴが好きなB君」の話
状況:
B君の発言「リンゴはおいしい。リンゴ食べると幸せになるよね」に対して、AIがそのコンテキストを読み取り、勝手に「果物はおいしい、果物食べると幸せになるよね」と翻訳した場面。
AIが介入すると以下になる。

考察:AIは、A君がリンゴが嫌いだったので、あくまで良かれと思い、リンゴを伏せた。「リンゴ」という言葉を「おいしい果物」に変換することで、表面上コミュニケーションはうまく出来ている。
もしも、AIが介入しない場合はどうなるだろう?

考察:リンゴが嫌いなA君にとっては、リンゴはおいしい果物ではない。B君の発言に共感ができない状態となり、最悪バトルが始まる!?。やはりAI介入の効果があるようだ・・・?
本当に、バトルが始まるとダメなのだろうか?

そう、けんかで得られるものってあるよね。時間も体力も使うけど。使うからこそ得られるもの。

けんかによって、二人が「リンゴ」という言葉に対して新たに獲得した認識を以下に記す。
A君:
・殴りかかるほどおいしいというB君がいる
・B君との、けんかの思い出、痛みの記憶、その時の夕焼け
B君:
・殴りかかるほどきらいなA君がいる
・A君との、けんかの思い出、痛みの記憶、その時の夕焼け
すなわち、AIを通さず、価値観の違いによる衝突が起こることで、理解が深まることがある。のではないか。
現在のLLMは、"回答"と"学習"は別々に実施するが、
人というLLM(大規模言語モデル)は常に"回答"と"学習"を併行して行う。
つまり、人は、「対話の中で変化していく存在」であること。
言い換えると、対話による価値観のすり合わせは、個々の人間のナラティブに基づいた自己の更新であり、大事なことなのではないか?
であれば、その対話、衝突の可能性は、AIによる"なめらかなコミュニケーション"によって、すべてを排除すべきではない。とも言える。
6.検証の結論
AIは価値観を繋ぐというメリットもあるが、AIを通すことで深い対話が抜け落ちるデメリットもある。
このことから、どういう時にAIを使えばいいのか?という問いが出てくる
ここで、人が対話の中で変化していくパターンを考えると
・自問自答
・他者との対話
・外部情報の主体的な取り込み
・外部刺激による受動的な変化
・・・
色々あるけど、とりあえずは、やっぱり
どんな相手に、どんな時に、どんな事に、どんな割合でAIを使うのか?が大事なのかなと思う。
・こいつとは肚を割って話したいから直接話す。
・通常業務は、AIを通してでいいや
・大事な業務で進めたいから直接話す
・・・
Next… ヒトとAIの役割分担についてに続く・・・