AIとハルシネーション
ChatGPTをある程度使った方なら、「ハルシネーション(hallucination)」という言葉を聞いたことがあると思います。
念のため、ChatGPTの公式サイトから引用しておきます。
ようは、生成系AIがもっともらしく間違った回答をすることを、あたかもAIが幻覚(hallucination)をみているようだ、という比喩で使われだし、意外に広まっています。
筆者の場合、自分の自己紹介を書かせると、堂々と間違えます☺
我々人類も、実体のない知覚による幻覚を見ることがあります。例えば、夢も幻覚ともいえそうです。(このあたりは言葉の解釈)
個人的には、大人になって夢を全く見なくなった(または覚えていない)のですが、子供のころはとてもリアルだった思い出があります。
えてして悪い夢のほうがよく覚えていて、落下する夢とか人に追い変えられる夢(でもうまく走れない・・・)、などは周囲に聞くと、結構あるあるのようです。
さて、夢は生理的な作用ですが、それを人工的(?)に起こす「幻覚剤」と呼ばれるものもあります。
精神活性剤ともいわれますが、その中で良くも悪くも知られるようになったのが「LSD」です。
この物質を発見したのは、化学者のアルバート・ホフマンという方です。
物質の発見は1938年でしたが、その幻覚作用を見つけたのは1943年で、ちょうど2023年で80周年です。
元々の経緯は、あるパンを食べた人たちから中毒者が出たので、その調査の過程でこのLSD(名付け親もホフマン)を見つけました。
その後しばらく放置していたのですが、本人曰く「何か予感のようなもの」を感じて研究を再開したそうです。
そしてこのLSDの実験を行っている過程で、自身の指先に吸収して幻覚作用を「自身が体験」することになります。これがLSDの幻覚効果を実証した瞬間でした。
本人の体験談ということもあり、その後は世界中に広まりましたが、日本でいう虫の知らせがあったのでしょうか?少々このストーリー気になります。
いずれにしても、該当の薬物もAIもハルシネーションにはくれぐれも気を付けましょう。
<参考リソース>
この記事が気に入ったらサポートをしてみませんか?