待ち望むOpenAIの一般公開、後続が次々とリリースされる中での疑問
OpenAIユーザーは発表されたモデルが一向にユーザーの手に届く事なく、後続のモデルがそのスペックに達したり超えたりするため他の代替モデルに流れていく現象がみられます。このNoteでは下記に紹介する、OpenAIのCTOミラ・ムラティ氏が、卒業したダートマス工科大の名誉学位を授与されるタイミングで行われた対談を考察しながらこの原因に迫って行こうと思います。
Claude3.5が本日Gpt-4oのスペックを超えた!
日本時間5月14日午前2時にスプリングアップデートで発表されたGPT-4 Videoが一向に一般公開されない中、Anthropicは新たなモデルClaude 3.5をリリースしました。このモデルは多くのベンチマークでGPT-4を上回る性能を示しており、特にコード生成や多言語数学の分野で優れた結果を出しています。以下の表は、Claude 3.5が他のモデルと比較してどれだけ優れているかを示しています。
下記のポストでは、「Good afternoon, Sam」から始まる挑発的なアンソロピック社の公式動画を引用して、Claude3.5のGPT-4o越えのスペックを紹介しています。
後続が追いついてくるのを待つかの様にリリースされないSora
Soraが発表された後も一般公開されない中、中国のKLINGは既に利用可能で、Soraの公開動画を全て模倣した動画を公開しています。RunwayのGen2は動画のクオリティがSoraに迫り、Lumaはアップロードした写真から動画を生成するため、Xにはフェイク動画が溢れています。このような状況で、他の企業が技術を迅速に展開しているため、OpenAIユーザーのフラストレーションが高まっています。
下記にLumaで制作された大乱闘フェイク動画を紹介したNoteがありますので合わせてご覧ください。
Luma AIは、2021年に元Google社員のAlex Yu氏とAmit Jain氏によって設立されました。彼らは、Googleでの経験を生かして、テキストや画像から3Dモデルを自動生成するAI技術を開発しました。
この様な肖像権・著作権ガン無視のAIを強行開発したかったためGoogleを離れたのでしょう。それにしても創業間もない会社にも関わらず、NVIDIAやGeneral Catalystなどの著名な投資家から資金調達に成功しています。つまり小さなスタートアップは無法地帯だと言えます。
GPT-5は出す前に国の検閲を受けているのか?
インタビュアーが以下の質問をしています。
それに対してムラティ氏がこの様に返答しています。
つまり、OpenAIのモデルはリリース前に必ず国に提出して検閲を受けなければならないという事です。
OpenAIのモデルがホワイトハウスや国連のAI配備原則に影響を与えている
彼女の発言を動画全体から解析すると、以下のポイントが明らかになります:
既存の取り組み: オープンAIは、すでに多くの作業を行っており、これがホワイトハウスのコミットメントや国連のAI配備原則に影響を与えているということです。
実践に基づく規制: 実際の作業を通じて得られた理解に基づいて規制を作成することが重要であると述べています。これは、理論だけでなく実際の経験に基づいた規制を意味します。
フロンティアシステムの予測と科学: 新しい、より進んだシステムに対応するためには、能力予測の科学と予測を多く行う必要があるとしています。これにより、適切な規制を策定することが可能になります。
ミラ・ムラティ氏の音声技術とバイオメトリクスに関する見解
対談の後の質疑応答時間の折に下記の様な質問がありました。
これに対して、ムラティ氏はGPT-4 videoのリリースまでのワークフローを含む回答をまとめますと下記の様になります。
音声技術のリスクと公開の遅れ
ミラ・ムラティ氏によれば、音声技術は多くのリスクや問題を抱えており、これが公開の遅れの主な理由です。特に、声やビデオが非常に感情的に引き起こすモダリティであるため、これらの技術が人間とAIの相互作用にどのように影響するかを理解するために、さまざまな機関と協力して研究を進めています。Skyの声の例では、スカーレット・ヨハンソンの声ではないにも関わらず、混同されるリスクがありました。これに対処するために、レッドチームのプロセスを通じて早期に問題をキャッチし、対策を講じることが重要です。
バイオメトリクスの問題とリスク管理
バイオメトリクスの問題については、まず専門家や赤チームにアクセスを提供し、リスクと能力を非常によく理解する戦略を取っています。その後、緩和策を構築し、その緩和策に自信を持つにつれて、より多くの人々にアクセスを提供します。現時点では、自分の声を作ることは許可しておらず、リスクがまだ研究中であるため、誤用を制御できる自信がないからです。段階的な展開を通じて、ユーザーからのフィードバックを収集し、エッジケースに備えることができます。
ディープフェイクと誤情報への対策
ミラ・ムラティ氏は、ディープフェイクや誤情報の拡散を防ぐために、コンテンツの由来や真正性に関する研究も進めています。これにより、誤情報のリスクを管理し、安全で信頼性のある技術を提供することが目指されています。
リスクをとってまで製品化しないスタンス
「クリエイティブ権利、報酬、同意、制御とクレジットについて」の質問者への返答の中で彼女がSoraに対してのリリースのスタンスを下記の様に明確にした回答をしています。
クリエイティブ権利についての回答まとめ
それでは質問者の、
という質問についてまとめます:
クリエイティブ権利の重要性:
ミラ・ムラティ氏は、クリエイティブ権利が非常に重要であり、挑戦的な課題であると述べています。
パートナーシップ:
現在、OpenAIはメディア企業との多くのパートナーシップを行っています。
ユーザーのデータ制御:
ユーザーは、自分のデータが製品でどのように使用されるかを制御できる。
ユーザーがデータをモデルの改善や研究、トレーニングに使用されたくない場合、そのデータは使用されません。
クリエイターコミュニティへの早期アクセス:
クリエイターコミュニティ全体にツールを早期に提供し、彼らのフィードバックを基に製品を開発します。
研究の成果を元に、実際に役立つモダリティが見つかった場合にのみ製品化します。
データ提供者への報酬:
データの提供に対して報酬を受け取ることができるツールの作成方法を実験中。
これは技術的および製品構築の観点から非常に難しい問題。
データの価値評価の難しさ:
特定のデータがモデルにどれだけの価値をもたらすかを評価するのは難しい。
データコンソーシアムの可能性:
データのコンソーシアムやプールを作成することで、より良い結果が得られる可能性がある。
実験と進展:
過去2年間、さまざまなバージョンで実験を行ってきましたが、まだ何も展開していません。
技術的な問題を理解しようと努力しており、少し進展していますが、非常に難しい問題です。
これまで見てきたように、他のAI開発会社はレッドチーミングや著作権問題、肖像権問題、フェイク動画問題から比較的自由にモデルをリリースしています。Luma AIやRunway、KLINGといった企業は、迅速に技術を展開し、ユーザーに提供しています。その一方で、OpenAIは新しいモデルをリリースする前に、まず政府に提出し、厳格な審査を受けるプロセスを踏んでいます。
このプロセスは、技術の安全性と信頼性を確保するために重要ですが、その結果、OpenAIのモデルが市場に出るスピードが遅れる可能性があります。さらに、これらの審査の結果が他のAI開発会社への取り締まりに使われる一方で、他の企業が自由に活動できる現状に対して、規制の不均衡が存在することも問題です。
このような状況では、OpenAIユーザーのフラストレーションが高まるのも理解できます。技術の安全性と倫理性を重視するOpenAIのアプローチは尊重されるべきですが、市場競争力を維持しつつ、迅速にユーザーに新しい技術を提供するためのバランスを見直す必要があるかもしれません。今後、国際的な協力と規制の調和を進めることで、全てのAI開発者が公平かつ安全に技術を提供できる環境を構築することが求められます。