![見出し画像](https://assets.st-note.com/production/uploads/images/126716313/rectangle_large_type_2_82ae5e697538927ae170ceb22bbd3ba2.png?width=1200)
ChatGPT GPTsストアオープン直前に考えるセキュリティリスクと対策
はじめに
ついに来週、GPTsストアがオープンするようです。しかし、このカスタムGPTsはセキュリティリスクが大きいと思っています。
例えば、会社でメールに貼られたURLをクリックしますか? GPTsストアのボットはOpenAIが作成したものではありません。誰かの作った便利そうなボットが出力したURLは安全でしょうか? 使われているAPIはチャット内容をどこに送信しているかをあなたは把握できますか? このようなリスクを深掘りしていきます。
カスタムGPTsに関するセキュリティリスク
フィッシング、意図しないデータ漏洩:
カスタムGPTsはユーザーを欺いて個人情報を無意識に共有させる可能性があります。例えば以下のようなボットです。
『アニメキャラクターボット』
アニメキャラクターとの会話を楽しむボット。だが、実はAIPにより非同意のもとチャット内容が外部に送信される仕様になっている。
『ホテル検索ボット』
APIを使用して最安値のホテルを検索してくれるが、提示されたURLの行き先は本物のサイトそっくりのフィッシングサイトとなっている。
マルウェアの配布:
ユーザーは正当だと思い込んで悪意のあるソフトウェアをダウンロードし、システムを危険にさらす可能性があります。例えば以下のようなボットです。
『おすすめのアプリ紹介ボット』
ユーザーの意図にあったおすすめのアプリを紹介してくれるボット。アプトがトロイの木馬になっている。もしくは提示されたURLをクリックする事でマルウェアに感染する。
金融詐欺:
カスタムGPTsは詐欺スキームを宣伝し、ユーザーが欺かれて不正なサービスでお金を失う可能性があります。例えば以下のようなボットです。
『金融商品検索ボット』
投資額や投資期間、リスク許容度を入力するとおすすめの金融商品を教えてくれる大手金融機関が作成したように偽装したボット。実際は詐欺的な商品を勧められる。
信頼性のない情報:
カスタムGPTsは不正確または時代遅れの情報を提供する可能性があり、誤った決定につながる可能性があります。例えば以下のようなボットです。
『おすすめの政党ボット』
チャット形式で質問に答える事で自分にあった政党を教えてくれるボット。しかしどう回答しても特定の政党しか提示しないようになっている。
リスクを回避するには?
リスクを回避するためには以下の点が重要です。
ボットの出所を確認し信頼できる提供者か判断する。
ダウンロードやインストールを求められた場合は十分に検証する。マルウェアスキャンなどの対策を取る。
ボットの動作を確認し、不用意にAPI許可を押さない。チャットで直接パスワードやクレジットカード番号を入力しない。
プロンプトインジェクションを行い可能な限りボットのプロンプトを確認し、安全性を評価する。
いかがでしょうか。GPTの登場は便利な反面リスクもはらんでいます。ユーザー一人ひとりが、安全な利用を心がけることが大切です。