見出し画像

人工知能には常識はない

常識を持つほうが難しい人工知能

LLMを活用していて、ハルシネーションをかなり体験します。
このハルシネーションはどうしてできるのだろうかと考えたことがありますか?


私の投稿で、「教師あり学習」、「教師なし学習」、そして間に「強化学習」があるとお伝えしてきました。
ナンとなく、高校の部活みたいな感じがしなくもないですが(笑)

AIは大きく分けて、教師あり学習、教師なし学習、そして強化学習の3つのタイプがあります。
教師あり学習は、事前にラベル付けされたデータや、入力と正解のペアを用いてモデルを訓練します。
一方、教師なし学習はラベルなしデータからデータの構造や隠れたパターンを発見します。
また、強化学習は環境との相互作用を通じて、報酬を得ながら学習し、最適な行動を見つける方法です。
これらのAIはさらに、特定のタスクに特化した特化型AI(Narrow AI)と、人間のように幅広いタスクに対応できる汎用型AI(General AI)に分類されます。
しかし、現時点では汎用型AI(AGI)は理論的な概念段階に留まっており、実用化には至っていません。

常識がないイコール常識が通用しないということです。
生成AIはナンでもありということです。
あとは、倫理をどこまで追求するか。

例えば、LLMでは「死」や「性」に関することはかなりタブー視されています。
私みたいに露骨に具体性を持って書く投稿内容は削除されがちです。
死別、悲しみ、追悼、葬儀の内容を具体的に書くとFacebookやLinkedInでは消されてしまいます。ゆえに私は窮屈になり、退会することにしました。

常識というメガネ

これはナンだろうと。
常識というのは、世代や時代、生まれ育った環境、つまり外部要因にて変わります。
これを外部環境と言って、自分ではどうやっても変える事ができない内容です。生まれや家族構成、時代背景、家元、住んでいる世界などです。
それが人の価値観のバイアスに繋がります。


ChatGPTとの会話の一部:

常識というのは難しい

1. 教師あり学習(Supervised Learning)

Supervised Learning でできること:

  • 例えば、SNSの投稿に「これは失礼な発言か?」を判定するAIを作る場合、大量のデータ(例:「これは失礼」「これは問題ない」というラベル付き発言)を学習することで、人間の社会的なルールをある程度理解できます。

  • GPTのようなAIも、大量のテキストデータを学習することで、一般的なマナーや文化的背景をある程度再現できます。

Supervised Learning でできないこと:

  • データにない「暗黙のルール」や「文化の違い」には対応しづらい。
    例えば、日本では「目上の人に敬語を使うのが礼儀」とされますが、英語圏ではそれほど重要ではありません。こうした「状況に応じた柔軟な判断」は難しいです。

  • 時代や状況に応じた変化に対応しにくい。
    例えば、20年前は「メールの署名に敬語を書くのが普通」だったが、今は「フランクなやりとりが増えている」といった変化を即座に察知するのは困難です。


2. 教師なし学習(Unsupervised Learning)

Unsupervised Learning でできること:

  • 例えば、SNSやニュース記事を大量に解析し、特定の国や文化に共通する「価値観のパターン」を発見することは可能です。

  • 「この言葉はどの文脈でよく使われるか?」という分析を行うことで、ある程度の「言語的な常識」を抽出できます。

Unsupervised Learning でできないこと:

  • 「なぜその常識が存在するのか?」という根本的な理解は得られません。

  • 「新しい価値観が生まれた時に、どう適応するか?」を判断するのは難しいです。


3. 強化学習(Reinforcement Learning)

Reinforcement Learning でできること:

  • 強化学習は「環境との試行錯誤を通じて学ぶ」仕組みなので、ある意味で人間の学習に近いです。

  • 例えば、ロボットが「人間と会話するとき、相手が笑顔になったら正しい受け答えをしている」と学習し、より自然なコミュニケーションをとることは可能です。

Reinforcement Learning でできないこと:

  • 明示的なルールがない「文化的な常識」や「倫理観」は学びにくい。
    例えば、「この場面で冗談を言うべきか?」というような文脈依存の判断は非常に難しいです。

  • 報酬設計が難しい。
    例えば、「人を喜ばせること」が報酬になった場合、AIは「相手の気に入ることを言い続ける」ようになり、時には事実と異なることを言う可能性があります。


総合的な結論:AIは常識を学べるが、人間のように「状況に応じて柔軟に判断する」ことは難しい

AIは大量のデータから「一般的な常識のパターン」を学ぶことはできるが、文化や時代によって変化する「暗黙のルール」を柔軟に理解するのは難しいです。

特に、「なぜそれが常識なのか?」「どんな状況では常識を破るべきか?」という高度な判断は、現在のAIでは実現が難しい領域です。

ゆえに、「常識」は人間のように理解できないと結論付けしてもいいでしょう。

「知能」と「知識」、「常識」と「データの量」、「コンテンツ」と「コンテキスト」の課題があります。
AIには人間が持つ「暗黙のルール」や「文脈の変化」を理解しづらい。
とくに日本社会みたいにルールが明確に記述されていないことに関しては非常に難しい内容である。まして「常識を超えて考える」ことはできない。
つまり、データ化されていないからである。

人間はときとして、新しい価値を生み出す能力があるが、AIには文脈が理解できない今の状況では、不可能だろう。
それをやるには、多様なデータを学習させバイアスを軽減するしかない。

しかし、常識を作るのがバイアスでもある。

そして、AIからしたら「文脈」は「関連性があるデータのつながり」だけであるから、人間が持つ言葉の意味を理解していない。
「ニュアンス」と「皮肉」もわからないのです。

以上


納棺師 丸山裕生さん

新しいお方とイベントのご紹介です。

あまねや納棺師 丸山裕生さん

納棺師のお仕事をご存じでしょうか?

映画で「おくりびと」が一時期流行りました。

もっくんこと本木雅弘氏、魔性の女こと広末涼子氏、「お葬式」にも出演されたハードボイルドの山崎努氏等が共演された2008年の映画で話題になった人への追悼を重んじる仕事の作品です。
私自身も元葬儀社の社長として現場で多くの方々の納棺をして参りました。

今週からご紹介するのは、その納棺師として現場に20年、しかも「おくった」人の数、9000千人の大ベテランで多忙な毎日を送っている丸山裕生さんです。
大切な人を当たり前のようにおくりたいのに、それが出来ていない時代になってしまいました。


丸山さんの「想い」です。

【想い】
大切な方を亡くして悲しいという気持ちは、消し去ることができません。
けれどせめてその方の記憶と共に日常を送れるよう、残された方々がいずれ前を向くためのお手伝いができれば、それが私の役目と思っております。

丸山さんより

近々オンラインでのイベントがあるので、こちらでも告知させていただきます。

オンラインイベント開催予定
(ちょっとお待ち下さいね)

本日も最後までお読みいただきありがとうございました。


あまねや 丸山さんからのイベント追加情報です

3/23
「納棺師×ケアマネサロン #3 「テーマ:認知症」

人数に制限がございますので、お早めに!

いいなと思ったら応援しよう!

死神と呼ばれた男・葬送ビジネスのYEY 和田
サポートしていと思っていただきありがとうございます! とっても感激です。