AIの幻想:ChatGPTが生むハルシネーションとその落とし穴
はじめに
ChatGPTを活用している方は、ハルシネーション(人工知能(AI)が事実に基づかない情報を生成する現象)をご存知でしょうか。この現象では、まるで幻覚を見ているかのようにもっともらしい嘘をつくことがあります。この場合、生成された文章を注意深く確認すれば、それが嘘であることが分かります。
しかし、不慣れな人がプログラムコードを生成した場合、そのコードを実行した際にもっともらしい結果が出力されることがあります。このとき、プログラムコード自体が間違っているか、あるいはプログラムコードが何を実行しているのかを理解できない場合、大きな問題となります。これについて話を進めていきたいと思います。
ChatGPTでコード生成する怖さ
日本経済新聞に掲載されていた以下の記事を御覧ください。
時間のない方は、この記事を要約した以下の文章を御覧ください。
「テスト駆動開発(TDD)」の参考サイト
肝に銘じるべきこと
プログラムコードを作成することに精通しているプログラマーだけでなく、プログラミング初心者もChatGPTを用いてプログラムコードを生成することが可能です。
これは素晴らしいことですが、一方で以下のような懸念があります。①バグを含む誤ったプログラムコード(アプリ)が広まる恐れ、②悪意のあるプログラムコード(アプリ)が犯罪に利用される可能性。
①については、記事にあるように、TDD(テスト駆動開発)によってある程度抑制できますが、②のような犯罪をどのように防ぐのでしょうか?プログラムコードをチェックするAIが必要になるかもしれません。恐らく、すでにそのようなAIは存在するかもしれません。
ChatGPTなどの生成AIの活用により生活が便利になり、仕事の効率が向上することは間違いありません。しかし、その一方で、新技術を活用した犯罪行為を考える人々もいることを忘れてはなりません。