「ChatGPT」など対話型AIを組み込むサービス開発でのセキュリティリスクとは?
こんにちは、マジセミ寺田です。
いつもマジセミにご参加いただきありがとうございます!
今回は、「「ChatGPT」など対話型AIを組み込むサービス開発でのセキュリティリスクとは?」というテーマについて解説するセミナーを企画しました。
2023年6月28日(水)13:00 - 14:00
https://majisemi.com/e/c/gmo-cybersecurity-20230628/M1B
参加できなかった方にも、以下のサイト開催1ヶ月後に動画・資料を公開します!
https://majisemi.com/
「ChatGPT」が急速に普及、「大規模言語モデル(LLM)」に集まる熱視線
近年、生成AI技術の研究や活用が進む中で、米国OpenAIの「GPT」、米国Googleの「PaLM」、米国Metaの「LLaMA」など様々な「大規模言語モデル(LLM)」が登場しています。それにより、言語処理タスクを高精度に実行することが可能となりました。
特に、2023年3月に「ChatGPT」のAPIが一般公開されたことで、自社の製品やサービスにGPTを利用した対話型アプリケーションの開発が急速に増えています。リアルタイムな応答システムやビジネスプロセスの自動化による業務効率化など、様々な利用シーンや活用メリットが期待できます。
新たなリスクとして問題視される「敵対的プロンプト」とは?
対話型AI技術を組み込むサービスが急速に普及する一方で、その特性を悪用した新たなセキュリティリスクが問題視されているのはご存じでしょうか。
それが「敵対的プロンプト(Adversarial Prompting)」です。敵対的プロンプトとは、LLMの出力を意図しない内容に誘導するように設計された一連の入力文のことを指します。敵対的プロンプトを悪用したサイバー攻撃の代表例が「プロンプト・インジェクション」です。プロンプト・インジェクションは、対話を通じてサービスの設定情報や秘密情報を抜き出そうとする新たなサイバー攻撃です。
その他にも「プロンプト・リーク」による秘密情報の漏えいや、「ジェイル・ブレイク」による非倫理的なコンテンツの出力などのセキュリティリスクが考えられます。
対話型AIを組み込んだサービス開発におけるリスクの詳細、留意点を分かりやすく解説
対話型AIを組み込んだアプリケーション・サービスを開発する上では、どのようなセキュリティリスクに注意すべきなのでしょうか。
本セミナーでは、LLM(大規模言語モデル)などのAI技術を活用したアプリケーション/サービスを開発したいと考えている部門や担当者の方を対象としています。「対話型AIを組み込んだサービス開発では、どのようなセキュリティリスクがあるのか」「そうしたリスクにどのように対処すべきなのか」を分かりやすく解説いたします。
対話型AIを活用するアプリケーション特有のセキュリティリスクについて知りたい方は、ぜひご参加ください。
★ここでしか聞けない内容です!★
2023年6月28日(水)13:00 - 14:00
https://majisemi.com/e/c/gmo-cybersecurity-20230628/M1B
Youtubeで過去開催したセミナーの動画が視聴できます。チャンネル登録お願いします!
この記事が気に入ったらサポートをしてみませんか?