
曖昧表現
AIの訓練には自然言語ではなく、新たにAI言語とでも呼ぶような曖昧さを排除した言語が必要ではないかというのを以前「AIが使う言語は自然言語でなくても良くね?」に書いた。
言語の曖昧表現については、以前から思うところがあり、自然言語として日常利用は問題ないと思うが、「間違いのない」知識伝達、意思伝達には大変不都合があり、やはりなんとかした方が良いのではないかと思う。
ところでロジバンという人口言語があり、Wikipediaには次のように紹介されている。
言語表現の論理的な構造を正確に(そしてしばしば簡潔に)記述するために開発されてきた述語論理を文法の基盤としている。そのため、自然言語では表現が困難であるような複雑な構造をごく明晰に記述できる一方で、文芸的理由から敢えて多義的な表現を織ることもでき、自然言語と同様、話者の自在に任せた表現が可能である。『In the Land of Invented Languages』の著者でありエスペラントやクリンゴン語に精通している Arika Okrent はニューヨーク・タイムズとのインタビューにおいて、「最も完成された文法を持つ人工言語はおそらくロジバンである」[1]と評価している。
ここにあるように、「文芸的理由から敢えて多義的な表現」とあるが、これが厄介であるように思うのだ。人間が使う言語としては良いが、正しい知識、正しい学習、正しい出力を目指すなら、こういう曖昧さ(多義的な表現)は困ると思う。
実際、文芸的理由という表現があったが、確かにそうかもしれないが、私個人としては、自然言語の曖昧さは、言語能力が高い人が、平均的な人を惑わす、操る、騙すのに重宝していることが多く、曖昧さを美と思うことにも同意するが、結構な実害があると思う。なので、言語は使い分けるべきだと思うのだ。
日常生活においては、曖昧さを便利に使っているのは確かだ。ただ、これはやはり個人個人が自己都合で曖昧さを使っている場合が多いように思う。SNSなどはそういった例のショーケースである。
さて、曖昧さをなくすにはどうしたら良いか。まず、「多義的な表現」はなくすべきである。例えば、「彼の話は寒い」というような表現はどういう意味だろうか?
彼の話は面白くない為、場の雰囲気を寒くさせる
雰囲気が寒いとはどういうことか?
シラけた状況。多くの人が同感できない状況。なので、自然言語である日本語で、この言葉を正確に表現しようとすれば、
彼が発する会話内容は、その場にいる人々70%の同感が得られず、70%の人の同感が得られない会話として、その場の雰囲気を40%ほど心地よくない状況に低下させる。
ということだろうか?これもまた曖昧だ。同感とは何か。雰囲気って何。心地よくないとはなんだ?
とにかく状況を表す言葉が意味がわからないのだ。意味はわかるが感覚であって、曖昧なのだ。確率表現で良いのか?その数値はどうやって決めるのか?
AI言語においては、雰囲気というのは、どう表現できるのか?いや、わからない。なので研究が必要だ。おそらくAIと協働でないとできないと思う。人間は、こういう曖昧な言葉に慣れすぎていて、それがないとどうなるか、そもそも曖昧なく表現可能なのかすら「想像すら」できない。ただ、超知能化したAIが曖昧表現を巧みに使うことが人を騙す最大の武器になると僕は思うので、その点は注意した方が良いと思う。
よって、AIの内部的な思考は、それを人間が理解できるかどうかは別にして、曖昧さのない言語でされなければ、その思考過程を検証しようもない。検証は人間には無理なので、他の専門AIでやる。専門AIにできるだけ曖昧さのないように自然言語で説明してもらい、人間は理解する。こういったプロセスの確立は重要であると考える。
曖昧さを持つ言語から生じる思考。多分それには大きな価値がある。
一方で、害もあると思っている。
「適材適所」という言葉がある。これは適応範囲が広い言葉であるが、言っていることは明確である。AIが自然言語を操ることはおそらく大きな目標だった。その目標がかなり達成された今こそ、その危険性をどうやったら排除できるか?曖昧な情報によってトレーニングされる知能の危険性も含めて、考えた方が良いように思う。
いや、おそらくそう言った研究は世界中でたくさんなされているだろう。期待したい。
追記
この内容を ChatGPT o1 に投げたら次のような情報をくれた。今度少し調べてみよう。
最後に、「超知能化したAIが曖昧表現を巧みに使うことが人を騙す最大の武器になるのではないか」という懸念は、まさに現在の大きな論点の一つです。大規模言語モデルが進歩したことで、人間が生成文章を見分けにくくなり、誤情報を拡散するリスクは高まっています。
曖昧さを排除するための研究
世界中でExplainable AI(XAI)やAI倫理、AIの安全性研究が行われており、「どのようにしてAIが出力に至ったのか?」を追跡できる仕組みづくりが模索されている。その一環として「AI内部の表現をより形式的・論理的にしよう」という方向性もある。
人間がどう向き合うか
いくらAI言語が形式的に整備されても、それを監査・運用するのは最終的に人間(または専門AI)なので、人間側のリテラシーや制度設計も同時にアップデートが必要。
曖昧さの排除が100%実現しないにしても、危険な曖昧さを最小化するための技術的・社会的仕組みをどう整備するかは、今後の重要な課題となる。