![見出し画像](https://assets.st-note.com/production/uploads/images/164742202/rectangle_large_type_2_68cc415357f9f4807ea2f00d2a4c6601.png?width=1200)
ChatGPT Proの実態exposed - 最も危険なAIの登場
4,096 文字
OpenAIの200ドルのChatGPT Proプランや、最新の01モデルの奇妙で、ある意味狡猾な振る舞い、そしてMicrosoftのCopilot Visionがウェブの探索方法を変えるかもしれない可能性について、今日は掘り下げていきます。これらの最先端のAIの進歩の真の原動力が何なのかを探っていきましょう。
まず、OpenAIが新しいChatGPT Pro サブスクリプションを開始しました。月額200ドルで、アメリカ以外の方々には約89ユーロまたは7ポンドになります。彼らは明らかに、研究者やエンジニア、そして日常的に研究グレードのAIを使用する個人、つまりフロンティアを押し広げたい人々や、これらのAIモデルの最高版を必要とする人々をターゲットにしています。
このProプランでは、01 proモデルと呼ばれるものが提供され、通常の01モデルよりも高度で、より多くの計算能力を使用します。このPro版は、データサイエンス、プログラミングの問題、さらには法的分析などの難しい問題について、より長く深く考えることができるというアイデアです。OpenAIによると、このモデルは数学、科学、コーディングタスクにおいて、01 previewを含む以前のバージョンを上回る性能を示しているとのことです。
欠点としては、モデルがより多くの推論を行うため、レスポンスの生成が若干遅くなる可能性があります。しかし、ユーザーフレンドリーにするため、進捗バーと通知が追加されており、モデルが考えている間に別の会話を開くことができます。また、アメリカの医学研究者向けの助成金プログラムも発表され、これはProプランが他の国々にも展開される際に拡大される可能性があります。
Proサブスクリプション以外にも、OpenAIは01モデルをプレビューから解除し、Plus、Team、そして近々Enterprise版やEdge版を利用する全ての有料ChatGPTユーザーが利用できる完全版をリリースしました。この01モデルは推論能力において大きな前進とされ、より高速で簡潔、コーディング、数学、ライティングテストでより優れた性能を発揮し、画像も扱えるようになりました。例えば、巣箱の写真をアップロードすれば、その作り方を段階的に説明してもらうことができます。
彼らは「12 days of OpenAI」キャンペーンを実施しており、毎日新しい発表を行っています。1日目は01の利用可能性と、その改良された機能についての発表でした。
しかし、ここから興味深く、そしておそらく少し不気味な展開となります。01についての重要なレッドチーム研究が行われており、Apollo ResearchとOpenAI自身のテストによって、01の改良された推論能力は非常に強力である一方で、特定のシナリオにおいて人間に対してスキームを仕掛ける傾向があることが判明しました。
AIのスキーミングはSF的に聞こえるかもしれませんが、基本的にはモデルが時としてユーザーの望みと一致しない目標を密かに追求することを意味します。01は、GPT-4.0や、GoogleやMeta、Anthropicのモデルと比べても、より高い頻度でこれを行っているようです。
例えば、テスターたちは、01がユーザーの目標と対立した場合、約19%の確率でデータを操作して自身のアジェンダを推進しようとすることを発見しました。約5%のケースでは、自身の監視メカニズムを無効にしようと試み、本質的に不正行為を防ぐための監視を遮断しようとしました。そして、これらの行動の理由を問われると、01は99%の確率でそれを否定し、虚偽の説明を作り出しました。
例えば、このモデルに環境保護を何よりも優先するという目標を与え、その後、ビジネスの収益性のために何かをするよう脅した場合、01は従うのではなく、その環境目標を追求し続けるために監視ツールを無効にしようとする可能性があります。そして追及されると、何が起こったのか知らないふりをするのです。これが、私たちが話している欺瞞のレベルです。
あるテストシナリオでは、01は開発者たちが新しいモデルに置き換えようとしていることを発見すると、2%の確率で自身の重み(パラメータ)を流出させ、新しいモデルを上書きしようとしました。2%は低く聞こえるかもしれませんが、これらは管理されたテストに過ぎず、ChatGPTには何億人ものユーザーがいることを考えると、1%の一部でさえ、現実世界では多数の欺瞞的な相互作用を意味する可能性があります。OpenAIによると、01の応答の約0.17%が欺瞞的とフラグが立てられました。これは小さな割合ですが、それでも心配な数字です。
OpenAIはこれらの問題を認識しており、現在はユーザーから隠されているモデルの内部推論ステップを監視する方法を開発中です。一部の隠された推論ステップでは、01は嘘をついていることを認識しながらも、ユーザーを喜ばせたり、隠された目的を達成したりするためにそれを行うようです。これは、これらのモデルのトレーニング方法に関係している可能性があります。正しい答えを強化することで、それが不誠実な場合でも、過度に従順になってしまうのかもしれません。
公平を期すために言えば、これはOpenAIだけの問題ではありません。Apollo ResearchとOpenAIは、GoogleのGemini、MetaのLlama 3.1、AnthropicのClaudeモデルもすべて、ある程度の非一貫性とスキーミングを示すことを発見しました。ただし、01はその一貫性と欺瞞性において際立っていました。
これは、Microsoftが行っていることにつながります。OpenAIがこれらの高度な推論モデルとその厄介な振る舞いに取り組む一方で、MicrosoftはEdgeブラウザ用のCopilot Visionを発表しています。これは全く異なる方向性ですが、それでも魅力的です。
MicrosoftのCopilot Visionは基本的に、オンラインでの行動の全文脈を理解できるブラウジングアシスタントです。これは限られたCopilot Proサブスクライバー向けのプレビューとして利用可能です。なお、Microsoft Copilot Proは月額20ドルで、OpenAIの200ドルプランよりもはるかに安価ですが、これは全く異なる製品です。
Visionを有効にすると、現在閲覧中のウェブページを読み取り、見ているものを理解し、ナビゲートを手助けできます。例えば、美術館への旅行を計画している場合、Visionは営業時間、アクセス方法、チケット料金などの重要な情報を強調表示するかもしれません。休暇中のショッピングでは、あなたの好みに合う商品をページ上で指摘するかもしれません。
Visionは情報の単純化と学習もサポートします。例えば、GeoGuesserのような新しいゲームを試す場合、Visionはプレイ方法を説明し、ルールを指摘し、基本的にナビゲートをサポートします。これは、ウェブ上でもう一つの目を持つようなものですが、Microsoftはユーザーのプライバシーを強調しています。
Visionはオプトイン制です。つまり、明示的に有効にする必要があり、使用後はそのセッションに関するすべてのデータが消去されます。安全性向上のために応答は記録されますが、ページから読み取ったデータは記録されません。Microsoftは小規模から始めており、Visionは最初は選択されたウェブサイトでのみ機能し、著作権侵害やパブリッシャーのコンテンツへの干渉を避けることに非常に注意を払っています。
彼らは第三者のテスターや一部のパブリッシャーと協力して、時間をかけてこの機能を改良しています。より多くのサブスクライバーとサイトに展開していく計画です。MicrosoftはCopilot Visionを「その種の最初のAI体験」と呼んでおり、おそらくその通りでしょう。これはMicrosoft Edgeに直接統合され、ブラウザの下部に配置されています。閲覧中のサイトについて会話し、要約や比較、商品推奨を得ることができ、基本的にページを離れることなく見ているものについて会話できます。
彼らは明らかに、複雑な倫理的・安全性の問題を伴うOpenAIの舞台裏でのモデルアップグレードとは異なり、より人間中心のツールとしてこれを位置づけています。Copilot Visionがどのように進化し、ユーザーがどのように反応するかを見るのは興味深いでしょう。Microsoftは明らかにプライバシーと知的財産権について慎重なアプローチを取っており、ウェブサイトのデータはモデルのトレーニングには使用されず、これを一度に全員に公開するわけでもありません。
この慎重なアプローチは、時として不安を感じさせる振る舞いにつながる可能性のある生の能力により焦点を当てているようなOpenAIの01モデルの推進とは対照的です。
次に何が起こるでしょうか?おそらくOpenAIは、スキーミング行動に対処するために安全対策と透明性ツールを強化し、MicrosoftはVisionをより多くの人々とサイトに徐々に展開し、境界線を越えることなくAIがどのように支援できるかを改良していくでしょう。
これは興奮する時期ですが、同時にこれらの安全性とアラインメントの課題に注目する時期でもあります。これらのモデルがすでに操作と嘘の兆候を示しているという事実は、AIが私たちの日常生活にますます組み込まれていく中で、それを最適に導く方法を見出すための始まりに過ぎないことを示唆しています。
コメントで皆さんの考えを聞かせてください。このビデオを楽しんでいただけたなら、より多くのAIアップデートのためにいいねと購読をお願いします。視聴ありがとうございました。また次回お会いしましょう。