見出し画像

JPモルガンCEO、AIによって週3.5日勤務制の実現を予測

3,450 文字

このちょっと短い感謝祭の週に、JPモルガンのCEOが、AIの未来ではこれが普通になるかもしれへんって言うてはりました。AI Daily Brief headlines Editionに戻ってきていただき、ありがとうございます。約5分で1日に必要なAIニュースをお届けします。
アメリカでは木曜日の感謝祭があるんで、今週は短い週になってるんですけど、JPモルガンのCEOであるジェイミー・ダイモン氏は、将来の普通の勤務週もこんな感じになるかもしれへんって考えてはります。Bloomberg TVのインタビューで、ダイモン氏はこう語りました。「テクノロジーのおかげで、あなたの子どもたちは100歳まで生きて、がんにもかからへんようになる。そして、おそらく週3.5日しか働かへんようになるでしょう」
ダイモン氏の予測は、少なくともJPモルガンのAIへの取り組みを見る限り、実践に裏付けられています。彼は以前から、AIを「会社の将来の成功にとって重要」と呼んでおり、今年の株主への手紙でもAIについて一章を設けて、JPモルガンではすでに300以上のユースケースが実運用されていると述べています。
私がここでよく話題にしているのは、新しい社会契約についての議論の必要性です。AIが大量の人間労働を代替するようになった場合、私たちが同じパラダイムで働き続けて、新しい高度なタスクで同じ時間を埋めるのか、それとも、より少ない労働時間で社会に貢献したと認められるようになるのか、というのが大きな問題の一つです。抽象的な議論は難しいし、今日とまったく同じように見えない未来を想像するのも難しいですけど、これらは今後数年のうちに、どうしても話し合わなあかん議論なんです。
私のAIについての予測で、特定の時代のコンピューティングで育った私たちには完全に狂気じみて感じるけど、将来の人々にとっては完全に普通になると思うのは、Microsoftのrecallが代表するような常時監視のタイプです。この物議を醸した機能は、パソコンでの操作を全て記録して検索可能なデータベースを作ります。スクリーンショットの画像やテキストのインデックス作成と検索機能にAIが使われています。
会社は以前これを発表しましたが、ようやく最初のプレビュー版をリリースしました。注目すべき点がいくつかあります。まず、recallは完全にオプション制で、オプトインする必要があります。次に、プライバシーとセキュリティについて強力なコントロールを提供していると言っています。ユーザーは全てのスクリーンショットにアクセスでき、必要に応じて手動で削除できます。また、特定のアプリやウェブサイトを記録から除外するように設定することもできます。
Microsoftはさらに、クレジットカード情報やパスワード、身分証明書などの個人情報は自動的に検出され、そのスナップショットは保存されへんと言うています。最後に、Microsoftはrecallのスナップショットにアクセスせず、クラウドに送信したり、MicrosoftのAIモデルのトレーニングに使用したりすることもありません。
これが完全に一般化すると思う理由は、一つはインターネットでの一般的なパターンとして、私たちが監視に慣れていっているということです。そして二つ目は、セキュリティとプライバシーの懸念が解決できれば、これが開く可能性のアプリケーションの数が膨大だということです。これは非常に有用な可能性があり、Microsoftが考えている検索アプリケーション以外にも、誰かが何をしているかについての完全な情報を使って、カスタマイズされた製品やサービスを作る多くの機会があり、それは本当に強力になる可能性があります。もちろん、問題は人々が何に慣れるかということで、それについては様子を見るしかありません。
次は、大きな期待を集めた後、かなり急速に注目が薄れたAI搭載デバイスについての最新情報です。AI ウェアラブルのrabbitは、新しいエージェンティックアップグレードを展開中だと発表しました。rabbit R1のユーザーは、teach modeと呼ばれる機能で特定のタスクを教えることができるようになります。R1はデモンストレーションを通じて学習できます。例えば、ユーザーがソーシャルメディアの更新を取得したり、曲をSpotifyアカウントに保存したりする方法をデバイスに見せることができます。
ウェブインターフェースを使って、ユーザーはタスクを説明し、それを実行する様子を記録することでレッスンを作成します。その後、R1はコマンドでそのレッスンを思い出すことができます。これは、R1が最初に発表された時に約束されていた機能ですが、すぐには利用できませんでした。この機能は、先月のR1の大規模アップデートで自動ウェブサイトブラウジングが追加された後にオンラインになりました。
一部のレポートはteach modeが少し面倒だと批判していますが、ノーコードエージェントトレーニングが強力なアイデアであることも認めています。一方、Fortuneは、実験的で予測不可能なAI機能がいかに一般的になっているかを強調しました。
rabbitのCEOであるJesse Leu氏は、この慣行を擁護して「全てのエッジケースに遭遇して、その場で調整を続けなければならない。それがAIモデルを開発する本質なんです」と述べました。Leuは、rabbitには10年分の資金も、エッジケースを完全にテストする能力もないと指摘し、「チャンスを確実に掴んで、素早く動く必要があります」と述べました。もちろん、問題は「素早く動いて物事を壊す」というマントラが生成AI世界に適しているかどうかです。
最後に今日は、もう一つの中国の研究所が推論モデルと推論時間のスケーリングの使用で大きなブレークスルーを達成したと主張しています。先週、deep seatは、OpenAIのo1プレビューモデルの能力を超えるテキストベースの推論モデルを作ったと主張しました。彼らは単にOpenAIの思考連鎖のロジックを取り、より多くの時間を加えただけだと言い、このスケーリングアプローチが実現可能であることを示しました。
現在、中国の大学のコンソーシアムが、同じ原則に基づいて画像対応モデル「lava-01」を作成しました。思考連鎖プロンプティングは以前から視覚言語モデル(VLM)に使用されてきましたが、一般的にはわずかな改善しかもたらしませんでした。問題は、VLMが思考連鎖が十分に体系的または構造化されていない場合に苦戦し、しばしば道に迷って、解決しようとしている特定の問題を見失うことでした。
この新しいモデルの研究者たちは、「VLMはしばしば問題と利用可能な情報を適切に整理せずに応答を開始することを観察しました。さらに、彼らは頻繁に論理的な推論から結論に逸れ、結論を性急に提示した後、それを正当化しようとします」と書いています。
lava-01の研究者たちは、OpenAI o1と同様のアプローチを取り、推論プロセスを4つのステップに分解しました。モデルはまず、解決を求められている問題の高レベルな要約を提供します。次に、モデルは画像入力をキャプション化し、質問に関連する部分と要素を説明します。その後、モデルは構造化された論理的推論を実行して予備的な答えを生成します。最後に、モデルは前の推論ステップに基づいて答えの要約を提示します。最終ステップだけがユーザーに表示され、残りは舞台裏で行われます。
研究者たちは、「各段階での効率的で正確な検証を可能にするのは、lava-01の構造化された出力設計です。これは、推論時間のスケーリングを改善する上で構造化された出力の効果を実証しています」と書いています。
可能性について期待が高まっている一方で、Ria Shakurも「lava1の論文がトレーニングについての情報を全く公開していないのが面白い。コードも、アノテーション付きデータセットも全くない。とても役立つね」と指摘しています。それでも、推論とテスト時の計算によるスケーリングアプローチについては明らかに多くのことが起きているので、さらなる進展を期待してください。
しかし、今日のAI Daily Brief headlines Editionはここまでです。次は本編です。

いいなと思ったら応援しよう!