ChatGPTとは?~セキュリティリスクを考察する~
皆さんこんにちは。シーイーシーセキュリティオペレーションセンター(CEC SOC)のセキュリティアナリストです。今回は、ちまたで話題のChatGPTについてセキュリティの観点から解説します。
「ChatGPT」といえば、すでに一度は耳にされた方も多いと思います。一言で表すと「入力した指示に対して、AIが回答を生成してくれるサービス」です。例えば、「ChatGPTの機能を簡潔に説明して」と質問すると以下のように回答が生成されます。
このように入力した内容に応じて、自然な文章で返答してくれます。文章のみでなく、プログラミングから料理のレシピまでさまざまな要望に対して回答を生成できます。こうしたAIは生成AIと呼ばれ、業務効率化のサービスとして大変注目されています。
上述したように、ChatGPTは非常に便利なサービスですが、便利な反面、セキュリティのリスクが存在します。本稿では、ChatGPTを利用する際と、攻撃者に悪用された際のリスクについて紹介します。
利用時のセキュリティリスク
データプライバシーに関するリスク
ChatGPTは、ユーザーとの会話データを人工知能モデルの改善に利用しています。そのため、会話に個人情報や機密情報を含めてしまうと、第三者の出力結果にそのデータが含まれ、情報漏えいを引き起こす可能性があります。ChatGPTでは、入力データの学習を望まないユーザーのために、以下のように、学習をオフにする(Optout)選択肢が用意されています。
設定から「Chat history & training」をオフにする
設定を変更することで、以降の会話は学習に利用されなくなりますが、履歴も使用できなくなるため、利便性が低下します。専用のGoogleフォームからOptoutを申請する
専用フォームから申請することで、学習をオフにできます。アカウント情報(メールアドレス、アカウントID、組織名※)を入力するだけで、簡単に申請できます。
※個人であれば、「Personal」と入力OpenAI APIからGPTを利用する
OpenAI社の別サービスであるOpenAI APIからGPTを利用すると、別のポリシーが適用されるため、デフォルトでは学習に使用されない状態になります。
その他にも、ChatGPTアカウントへ不正アクセスを受けた際には、会話履歴を閲覧されてしまうというリスクがありますが、その場合も上記の適用によりリスクを回避することができます。
このように、業務でのChatGPTの利用には注意が必要です。一方で、Microsoft社をはじめとした各企業より対話型AIをクローズな環境で利用できるサービスが発表されており、安全に生成AIを利用できる環境が整いつつあります。また、ChatGPTを提供しているOpenAI社からも企業向けのChatGPT Businessの提供がアナウンスされ、今後の展開にも注目が集まっています。
参考:OpenAI - Data Controls FAQ OpenAI - API data usage policies
悪用のリスク
ChatGPTは、文書作成やプログラム開発において大変有用ですが、これは攻撃者にとっても同様です。この項目では、悪用された際のリスクについて紹介します。
フィッシングメール作成
過去のフィッシングメールといえば、不自然な日本語で記載されており判別が容易でした。近年では、機械翻訳の発達により進歩していますが、まだ完璧なものとは言えない状況でした。ですが、ChatGPTを悪用するとより容易に、より自然なフィッシングメールを作成することが可能になります。
マルウェア開発の効率化
ChatGPTは行いたい処理を与えることで、プログラムのコードを作成することができます。これにより、ある程度の知識は必要となりますが、マルウェアをより効率的に作成することが可能となります。こうした悪用によりマルウェアの巧妙化は進み、出現頻度も加速することが考えられます。
まとめ
ChatGPTは大変有用なサービスですが、業務での使用には注意が必要です。組織の方針に応じて、メンバーの利用状況を管理できる体制構築が重要です。
また、ChatGPTは攻撃者に悪用されると、容易に攻撃が実行できるようになります。個別の攻撃に対して、その裏でChatGPTが悪用されているかの判別は困難ですが、フィッシングの巧妙化や、既存の攻撃手法の亜種が増加すると予想しています。そのため、これまで以上にセキュリティ対策が重要になります。
シーイーシー マネージドセキュリティサービス CEC SOC
CEC SOCは、シーイーシーのマネージドセキュリティサービスです。24時間365日でユーザーICT環境のセキュリティ運用を支援、被害の最小化やリスクの根絶を行います。