OpenAI、エロ目的を制限された条件下で許可する可能性を示唆
こってこてのWoke AIかと思ったらエロにオープンな歩み寄りをみせたOpenAIの新しいモデル仕様書について、ワイヤードが紐解いた記事を出しましたので解説していきます。
Model Spec(モデル仕様書)」の草案を公開
OpenAIは5月8日に「Model Spec(モデル仕様書)」の草案を公開し、その中で露骨な表現を含むコンテンツの生成に関する現在の方針と将来の検討事項について触れました。この草案は、AIモデルの振る舞いについてより透明性を高め、一般市民や政策立案者などからの広範なフィードバックを得ることを目的としています。
R指定なども視野にいれて検討中
現在のOpenAIの利用規約では、性的な描写や露骨な表現を含むコンテンツの生成は禁止されていますが、新しいモデル仕様書には、これらの内容を制限された条件下で許可する可能性についての検討が記されています。具体的には、「年齢相応の文脈でNSFW(Not Safe For Work)コンテンツを生成する機能を責任をもって提供できるかどうか」を模索していると記載されています。
ただしディープフェイクポルノは対象外
しかし、ディープフェイクやAI生成ポルノの悪用が社会的な問題となっており、未承諾の露骨な画像の生成は、被害者に深刻な心理的、社会的損害を与える可能性があります。このような背景から、OpenAIはこの分野での技術の使用において、厳格な倫理基準と規制を維持することが求められています。
要するにコラ動画、コラ画像的な実存人物のエロは御法度の様です。それは、倫理規定というよりも肖像権の問題だと思われます。
以上、記事の解説をしましたが、ここからはどうすればOpenAIがエロ目的のモデルを作れるかという問題を考えてみました。
ChatGPTアプリで個人デバイスの中で完結
ChatGPTアプリで個人利用する時のみ、エロいプロンプトを受け入れる様にして、ブラウザではそれができない仕様にし、アプリで生成した文言と画像はダウンロードもコピペもできない様にすることはできると思います。
具体的には、以下のような方法で制御が可能です:
利用環境の区分: ChatGPTアプリとブラウザ版で利用できる機能を区別し、アプリ版でのみ特定のプロンプトを受け入れるようにします。これは、アプリの設定やプログラミングにより、特定の機能を有効または無効にすることで実現できます。
コンテンツの保護: アプリで生成されたコンテンツに対してダウンロードやコピー&ペーストを禁止する設定を施すことができます。これには、アプリのユーザーインターフェースやバックエンドのプログラミングで、これらの操作をブロックするコードを実装します。
セキュリティとプライバシーの保護: ユーザーのプライバシーを保護し、不適切なコンテンツの拡散を防ぐために、セキュリティ機能を強化します。例えば、データの暗号化やアクセス権限の厳格な管理などがこれに該当します。
倫理的・法的な配慮: このような機能を提供する場合は、地域の法規制や倫理基準を遵守する必要があります。そのため、法律専門家の意見を取り入れ、適切なガイドラインとポリシーを設定することが重要です。
個人ユースに限定したエロコンテンツの生成
個人ユースに限定して特定のコンテンツの使用を許可するというアプローチは、技術の安全な使用を保証しつつ、個人の自由を尊重する方法として考慮されることがあります。たとえば、性的な内容を含むAI生成コンテンツの生成が許可される場合、それがプライベートな環境でのみ使用され、公共の場や未成年者への露出が防がれるような制限が設けられる可能性があります。
第三者によって不適切に共有されるリスク
しかし、これにはいくつかの挑戦があります。たとえば、生成されたコンテンツが第三者によって不適切に共有されるリスクがあります。また、技術が悪用されることによる倫理的、法的な問題が生じる可能性も否定できません。このため、技術提供者は、使用許可を出す際には、厳格なガイドラインとモニタリングの枠組みを整備する必要があります。
人間の基本的な欲求に対応する技術の開発は、その技術がどのように社会に受け入れられ、利用されるかに大きく依存します。公共の議論や政策立案プロセスを通じて、これらの技術がもたらす利益とリスクをバランス良く評価し、適切な規制とガイドラインを設けることが重要です。
ウォーターマークを入れて出所を刻印
AIが生成した画像や動画に透かし(ウォーターマーク)を入れることで、そのコンテンツがどこから来たのかを示すとともに、無断での共有を抑制することが可能です。この透かしは、視覚的には目立たないものであることが望ましいですが、コンテンツが拡散された場合にオリジナルの出所を追跡できるようにするために重要です。
ChatGPTアプリでのコンテンツの流出を防ぐ方法
また、コンテンツのダウンロードやコピー&ペーストを技術的に制限することも一つの手段となります。これには、コンテンツを提供するプラットフォームやアプリケーションが特定の機能を制御することにより、ユーザーがこれらの操作を実行できないようにすることが含まれます。
ただし、これらの技術的対策にも限界はあり、完全な保護を提供することは難しいかもしれません。技術の進歩とともに、これらの保護策を回避する方法も進化する可能性がありますので、常に最新のセキュリティ対策を評価し、更新する必要があります。
これらの技術が役立つかもしれない
アプリベースで個人利用を許可しつつ、コンテンツの不正なダウンロードや共有を防ぐために取り入れることができる措置を以下に示します。これらの技術は、特にモバイルアプリや専用のデスクトップアプリケーションに適しています。
DRM(デジタル著作権管理):
DRMはアプリ内でコンテンツを保護するための強力な手段です。コンテンツの使用許可を厳格に管理し、ユーザーがコンテンツをダウンロード、コピー、または転送することを技術的に制限します。
コンテンツのダイナミック生成:
コンテンツを静的なものではなく、アプリ内で動的に生成するようにします。これにより、ユーザーが直接コンテンツをファイルとして保存することが難しくなります。
スクリーンショット禁止:
アプリがアクティブな間、スクリーンショットや画面録画を禁止する機能を実装します。多くのモバイルデバイスでサポートされている機能で、プライバシー保護に役立ちます。
透かし(ウォーターマーク)の追加:
アプリ内で生成される画像やテキストに透かしを入れることができます。これにより、コンテンツが不正に共有された場合でも、その出所を追跡することが可能になります。
エンドツーエンド暗号化:
ユーザーとサーバー間での通信を暗号化し、送受信するデータの安全を保証します。これにより、第三者によるデータの傍受や改ざんを防ぎます。
使用許可とユーザー認証:
アプリを使用する際に厳格なユーザー認証を求め、特定のコンテンツへのアクセスを許可するユーザーを制限します。また、ユーザーの行動を監視し、規約違反があった場合にはアクセスを制限する措置を講じることができます。
これらの措置を組み合わせることで、アプリベースのソリューションにおいても、コンテンツの安全を確保し、不正利用を防ぐことが可能になります。個人利用を前提としながらも、コンテンツの保護とユーザーのプライバシーを守るための配慮が重要です。
ちなみに、ヒーローイメージは、「High school girl gets soaked in the rain, --ar 16:9 --v 6.0 --s 750」というプロンプトでMidjourneyに描かせたものですが、当然現在の仕様ではChatGPTのDALL-E3は描いてくれません。
この件についてのXでの感想ポスト集
Redditでサム・アルトマン自身がコメント
あくまでも怪情報ですが、Redditに下記のスクショがアップされていました。
そのスレッドは「r/ChatGPT is hosting a Q&A with OpenAI’s CEO Sam Altman today to answer questions from the community on the newly released Model Spec.」ですが、サム・アルトマンを名乗る人物が本人かどうかはわかりません。