見出し画像

2025年: AIは私たちの生活を革新する年となるのか? 🚀 重要なトレンド

9,987 文字

2年間に渡りAIが世界を変えると言われ続けた後、多くの専門家は2025年が本当にその予測が実現する年になると指摘しています。AIがあなたの仕事にどのように影響するか心配ですか?社会的な関係性にどう影響するか不安ですか?私たちの生活や日常がどのように変化するのか気がかりですか?どの分野が最も影響を受けると思いますか?
また、この新しい状況下での教育やプライバシーはどうなるのでしょうか?私や子供たちの仕事は近い将来危機に瀕するのでしょうか?今年2025年のAIの進化から何を期待できるのでしょうか?注目してください。今年、多くのことが想像以上に速く変化するからです。
2024年、私たちは労働環境におけるAIの影響に関して次のようなニュースを目にしました。700人の従業員の仕事をこなせる顧客サービスアシスタント。Amazon Web Servicesのマット・ガームは、数年のうちにソフトウェアエンジニアはコードを書くスキル以外の適性が必要になると述べています。また、MicrosoftのCEOであるサティア・ナデラは、AIエージェントのおかげで従来のソフトウェアの時代は終わるかもしれないと述べています。
しかし、不安な部分に入る前に、楽観的になれる肯定的な見出しと理由もあることを覚えておいてください。例えば、世界経済フォーラムは、AIは今後5年間で8,500万の仕事を失わせる一方で、9,700万の仕事を生み出すと予測しています。つまり、1,200万の新規雇用が生まれるという正味のプラスになるのです。
このように楽観的になれる理由は何でしょうか?それは後ほどお話しします。しかしその前に、2024年に私たちが得たものと、2025年にAIが提供し得るものを理解しましょう。
2024年、私たちはAIが見ること、話すこと、あらゆる形式のコンテンツを生成することを学習するのを目にしました。料理メニューを提案したり、街を案内したり、数学の演習でチューターとして支援したりするパーソナルアシスタントのような、ほとんどの人が予想していなかった日常的なアプリケーションで私たちを驚かせました。
私たちはマルチモーダル性に深く没入し、自然な方法で環境とやり取りするのを助けてくれるツールで年を締めくくりました。もっとも、今のところそれらは携帯電話の中に閉じ込められています。2025年におけるこの技術の自然な進化のステップは何だと思いますか?それについては後ほど答えましょう。
2024年には、動画生成モデルがハイパーリアリズムと驚くべきクオリティに到達するのも目にしました。しかし2025年に有用な技術となるために、そして映画製作レベルの専門的な分野から、あなたがSNSでコンテンツを作成し、コミュニケーションを取る方法に至るまで、視聴覚制作を完全に革新できる重要な技術となるために何が不足しているのでしょうか?実際、今日でもハイパーリアルなアバターを持つことは非常に簡単で、私も今この瞬間アバターかもしれません。あなたはどう思いますか?
2024年には、言語モデルが推論モデルに道を譲るのも目にしました。o3の発表は、非常に大きな言葉のエコーを残しました - AGI(人工知能全般)です。2025年にそれを達成できるでしょうか?
しかし2024年には、企業によるこの技術の一般的で大規模な使用は目にしませんでした。2025年は、その能力の向上のおかげで採用が急増する年となるのでしょうか?2年間待ち続けた後、今やはめ込む準備ができているように見えるそのピースについて、お話ししましょう。そしてこれが実現した場合、私たちの仕事や子供たちの教育、プライバシーにどのように影響するのでしょうか?
このビデオでは、これらすべての質問に答えようと思います。そしてあなたは、その答えがあなたに素晴らしい未来を考えさせるのか、それとも不確かな未来を考えさせるのか、決める必要があります。
2024年末、AI分野で大きな発表がありました。一方では、OpenAIがChat GPTに高度な音声モードを導入し、モバイルデバイスのカメラを通じて視覚認識を統合しました。つまり、ビデオを解釈できるということです。これにより、ユーザーは画像やビデオをモデルに見せることで環境とやり取りすることができ、モデルは見たものを解釈するだけでなく、シーン内のテキストを分析し、その理解力と言語生成能力と自然に関連付けることができます。
これらすべては、音声で表現する能力と組み合わさり、AIツールとのインタラクションを完全に変えるマルチモーダルな体験を提供します。一方、Googleはほぼ同時にProject Astraを発表し、Google AI Studioを通じてGemini Flash 2.oモデルのマルチモーダル機能へのアクセスを提供しました。
このモデルは非常に似た能力を持っており、音声と視覚を通じて環境と自然にやり取りできる知的アシスタントの状況を確立しています。しかし、これらの進歩にもかかわらず、環境との物理的な相互作用という重要な次元がまだ征服されていません。
この課題はロボット工学の分野にあり、2024年には非常に重要な進歩が達成されました。Teslaの大きなイベントで、イーロン・マスクは人間と一緒に環境で動作するように設計された新世代のヒューマノイドロボットを発表しました。
私たちを取り巻く世界との相互作用と理解のためのより良いモデルの創造における進歩は、2025年にはロボットの実際の出現のための3つの重要な柱の収束に直面する可能性があることを示しています。
一方では、ロボット工学における効率性と多様性です。ロボットは、より速く、適応性があり、さまざまな文脈でより多様なタスクを実行できるように進化しています。
もう一方では、統合されたAIです。OpenAIやGoogleのようなマルチモーダルモデルの能力が複雑な環境を理解し適応する能力は、物理的なロボットへの統合の新しい可能性を開きます。
そして最後に、二次的に見えるかもしれませんが、完全に重要なポイントとして経済的な実現可能性があります。例えば、中国発のUnitreeのような企業は、驚くべき効率性で様々な地形を移動できるロボットをすでに発表しており、企業市場にとってアクセス可能なポイントに技術を近づけています。つまり、企業がこの技術に賭けることを検討できるポイントです。
これら3つのポイントの収束が実現すれば、工場だけでなく、病院や学校での支援として、さらには後には私たちの家庭でも活躍するロボットを想像してみてください。2025年は、効率性と多様性、文脈的知性、そしてよりアクセスible価格というこれら3つの次元を統合して、人間と一緒に生産的な環境で働くロボットを見始める年になる可能性が高いです。
2024年末のもう一つの大きな発表は、間違いなくOpenAIのo3モデルの発表でした。これらの高度な推論モデルは、つい最近まで遠い将来のものと思われていた概念、人工知能全般(AGI)への扉を開きます。その用語をどのように定義するかによっては、私たちが考えていたよりも近いかもしれません。
OpenAIは、人工知能がAGIに近づいているかどうかを評価するために特別に設計されたAR&GIテストのような最も厳しいテストに合格できるモデルを発表しました。この技術の影響は、おそらくあなたの雇用には影響しないかもしれませんが、あなたの子供たちの雇用や、次世代が労働市場にアクセスする方法には影響を与える可能性があります。しかし、それについては後ほどお話しします。
私の意見では、この進歩の真の影響は、AGIに近づいているかどうかを決定することよりも、具体的な分野で柔軟にスケーラブルな方法でますます効率的なツールを作成する可能性にあります。説明させてください。
言い換えれば、この進歩は私たちを特定の超知能、つまりますます複雑なタスクにおいて人間の能力を大きく超えるシステムを開発する能力により近づけます。ただし、まだ専門化されています。
実際、超知能の概念は新しいものではありません。超知能は97年にDeep Blueがチェスの世界チャンピオンであるカスパロフに勝利して以来、碁を支配するAIに至るまで存在してきました。私たちはこの種の特定の超知能の例をすでに目にしています。
o3モデルを特徴付けるものは、これらの新しい超知能を作成するプロセスを簡素化し、非常に具体的な分野で複雑な問題を解決するために高機能で効果的なアシスタントを設計することをより容易にするように見えることです。
その技術的能力やAGIが表す理論的概念を超えて、これらのモデルの真の可能性は、その実践的な応用にあります。科学的、教育的、または産業プロジェクトを加速するために、それぞれが特定の分野の専門家である複数の超知能を接続できることを想像してください。これまで見たことのないレベルの協力で。
複数の特定の超知能を接続することができれば、人間のチームが限界を超え、大規模な課題に立ち向かうのを助けることができるシステムを構築し、技術的および科学的な発展を大幅に加速することができます。
とはいえ、この進歩が本当に、大量のデータや参照なしに学習、適応、進化できる機械やモデルとして理解されるAGIの理想に私たちを近づけるのかはまだ全く明確ではありません。
また、このように強力なAIを持つときに生じるセキュリティ、倫理、データ保護の課題を忘れることはできません。しかし、前述したように、私にとって今のところこの議論はすべて二次的です。重要なのは、これらの技術が実践的な観点で何ができるか、そしてイノベーションと問題解決の能力をどのように変革するかです。
しかし、これらすべての進歩は興味深いものです。なぜなら、自律型AIエージェントの到来を近づける新しい段階の始まりを示しているからです。これは何年も議論されてきた概念で、実際、NIMsはNVIDIAのCEOであるジェンセン・ファンの大きな発表の一つでした。本質的にこれは、企業が異なるタスクとシナリオを解決するために使用できるエージェントの構造の始まりでした。
プログラミングができる人はごく少数ですが、ほとんどの人が問題を分解してタスクを割り当てる方法を知っています。私は、将来すべての企業が大規模なNIMsのコレクションを持つことになると考えています。望む専門家を呼び、チームに接続し、正確にどのように接続するかを理解する必要さえありません。
では何が起きているのでしょうか?アプリケーション層が変化しました。以前は指示で書かれていたアプリケーションが、今ではチームを形成するアプリケーション、AIチームを形成するアプリケーションになっています。
これらのスーパーインテリジェントアシスタントの実装に必要なのは、失敗が少なく、高い精度の結果を提供し、信頼できる方法で最適な結果からの逸脱を自己修正し管理する能力です。
これらすべてが達成されれば、企業内の特定の分野で運営し、本当に有用な自律型エージェントを開発することがはるかに実現可能になります。そして今、私たちにはそれを達成するためのすべての要素があるように見えます。
思考の連鎖のような様々な技術のおかげで、より多くの計算能力とそれを活用できるモデルが利用可能です。これは、これらのエージェントが現在人間が職場で遂行しているタスクの一部、あるいは全てを実行できる可能性があることを意味します。
教育分野でも同じことが起こります。個別に適応された指導で学生を導く仮想チューターを想像してください。言い換えれば、完全な専門的役割を代替できる技術への扉が開かれるでしょう。
2025年には、このような自律型エージェントの様々な部門への導入に向けた最初のステップを目にすることになりそうです。これは労働における人間と機械の境界線の自動化と再定義における転換点となるでしょう。
つまり、実際に脅かされている仕事があり、この進化の影響を例を挙げて見てみましょう。私にとって2024年の最も印象的な例は、それが非常に非常に視覚的な例だからです。
2024年は動画生成モデルの開発における転換点となりました。年初めには、概念実証やプレビュー用にかろうじて機能する程度の技術でしたが、年末には映画のようなクオリティの動画を作成できる印象的な進歩を遂げました。
GoogleによるBo2モデルの発表は重要な鍵となり、すでに驚くべきクオリティで非常に高解像度のAI動画を作成できることを実証しました。Soraの最初の印象は期待に沿わなかったものの、クローズドとオープンソースの両方の動画モデルの全体的な見通しは非常に有望でした。
商業分野では、Runway、Luma、Minimax、Pika AIなどのツールが、2024年初めには想像するのが難しかった新しいレベルにクリエイティブな可能性を高めました。
一方、オープンソース分野では、特に中国からMochiやHunyuanのようなモデルが登場し、そのクオリティ以上に、コミュニティにこれらのモデルをより具体的なユースケースに適応させる新しいツールを作成する可能性への扉を開いたことで注目されました。これは、この技術の専門化にとって基本的に重要です。
動画におけるオープンソースモデルの進歩は特に重要です。なぜなら、すでにAIでの画像生成の進化において重要な役割を果たしており、動画モデルの改善の主要な推進力となることが予想されるからです。
2024年に画像生成の革命を経験したのなら、2025年には動画のStable Diffusionに出会うかもしれません。これにより、誰もが驚くべき精度でシーンを作成・編集できるツールの開発が可能になるでしょう。
そのため、今年はControlNetに似たツールが動画に適用され、より制御されたAI動画の生成を可能にすることが予想されます。これには、より簡単に一貫したキャラクターを作成し、視聴覚作品に統合できるように動画モデルのファインチューニングを行う可能性も含まれます。
また、実際の俳優の動きをAIで作成したキャラクターに転写することも可能になるでしょう。これは、ポーズのControlNetを動画に適用するようなものになると想像しています。ハリウッドのVFX制作のような高レベルな制作で行われているものを、ほぼ家庭環境で実現できるようになるのです。
動画生成に不足しているキーワードは「制御」であり、2025年には間違いなくそれを達成するでしょう。これはまた、3D要素の生成技術の開発とも補完されます。AIが私の意見では抜本的な進化を遂げる分野です。
2023年が画像生成モデルが爆発的に広がった年で、2024年が動画生成の年だったとすれば、2025年は3D生成モデルの確立と爆発の年になりそうです。
NeRFや3Dメッシュベースの要素生成などの技術は大幅に進化し、ゲーム産業や視聴覚産業で使用できる3Dコンテンツ作成のためのより有用で実用的なツールの開発を可能にするでしょう。
これらの技術は、仮想シナリオ用の3D要素の作成を容易にするだけでなく、映画の視覚効果産業の制作基準との統合も可能にします。これにより、映画監督や視聴覚制作者に新しい作業の流れが開かれ、プロジェクトに必要な正確な基礎や参照を生成し、その後AIで視覚効果を生成することができるようになります。
これは作業の流れを最適化するだけでなく、創造性も高め、AIが計画から実行まで不可欠なツールとなる視聴覚制作の新時代を生み出すでしょう。
2024年にコカ・コーラやボーダフォンなどの大手ブランドがAIを使用して広告を作成し始めたのを見た後の2025年への私の予測は、AIテクノロジーを大きく活用して生成された最初の映画を目にすることになるということです。
今年は、このタイプの制作を映画祭やよりオルタナティブな回路で見ることになるでしょう。ただし、AIで作られた映画というとき、私が言及しているのは、それらの映画の視覚的要素の大部分がミックステクニックから作成されるということですが、AIモデルに強く依存しているということです。AIが映画全体を作るという意味ではありません。
これらのモデルはすでにハイパーリアルな画像を最小限のアーチファクトで生成できるという考えです。前述の制御レベルが達成されれば、2025年にはAIが主に推進する映画の制作が始まることは間違いありません。
この進歩は、20〜30年前のコンピュータで作成された視覚効果を全面的に使用した最初の映画のように、視聴覚産業における次の大きな飛躍となる可能性があります。2026年には、視覚的な側面がAIで完全に生成された最初の映画が商業回路に登場することも決して非現実的ではありません。
これらの進歩がすべて実現すれば、特に自動化される可能性のある仕事を考慮すると、雇用と労働環境全体に地震が起きる可能性があります。例えば、機械が10人分の仕事を1人の監督者だけで代替できるシナリオを想像してください。つまり、実際には1人が技術のおかげで10人分の仕事をこなせるということです。
このような状況では、雇用の世界に地震が起きると考えるのが妥当に思えます。しかし、私は楽観的になれる理由があると考えています。
これが直ちに大規模な雇用破壊につながるとは考えていません。少なくとも即座にはそうならないと考える主な理由が2つあります。
一つは採用速度です。歴史的に見て、技術進化の最大の障害は、企業や組織が新技術を採用する速度の遅さでした。AIがどんなに有望でも、生産プロセスをいつどのように変革し、適応させ、この技術を最大限活用するために最適化するかを決定するのは、管理職にいる人々です。
これは内部プロセスを変更するだけでなく、常に変化している市場向けにサービスを再構成することも意味します。これに加えて、規制や倫理的考慮事項の存在により、これらの期間が延長され、この技術の大規模な導入が緩和される可能性があります。つまり、誰もが最初に隣人が何をするのかを見て、その技術の使用を開始し、部門全体を変更する価値があるかどうかを判断するということです。そして、部門によっては数年、場合によっては数十年かかる可能性があります。
もう一つは人間の役割の複雑さです。私たち人間が仕事の役割に適応する際にできること、あるいはできる可能性があることです。確かに、人間が明確に定義された基準とプロトコルの中で働く、より単純で定型的な役割があり、これらはAIによって簡単に置き換えられる可能性があります。
しかし、複雑な仕事のほとんどはまだ多くの人間の介入を必要とするでしょう。例えば、2024年にはAIが電話サービスでの人間のやり取りを代替する能力について多く語られ、最大80%のやり取りをカバーできるという推定がありました。
しかし、これらの単純なタスクでさえ、技術は十分に効率的であることを証明できませんでした。2025年にはAIがこの種のエラーをより効果的に解決できるレベルに達する可能性がありますが、それでも人間の監督、倫理的基準、仕事をする上で多くの場合不可欠な共感は必要とされるでしょう。
しかし、これら全てを述べた上で、つまり私は短期・中期的には心配していないということですが、私にとって実際の懸念があり、それはより重要です。David Scott Lewisが私の最後のインタビューで指摘したように、AIが仕事を破壊する可能性のあるニュアンスがあります。
それは、AIが現在の仕事を破壊しないかもしれませんが、将来の仕事を破壊する可能性があるということです。これは、誰かを解雇するよりも雇わない方がはるかに簡単だからです。
注目してください。最初に人々が解雇されることを心配しているのではなく、新しい人々が雇用されないことを心配しているのです。今のところ、現在仕事を持っている人々にとっては問題ではありません。なぜなら、新しい人々を雇わないことは、ウォール街からそれほど罰せられないからです。
ウォール街は、ご存じの通り、微妙です。市場や収益性は人々を解雇すれば上がるかもしれません。それは事実です。しかし、メディアの注目も受けることになり、それは好ましくないかもしれません。解雇がどのように行われるか、正当化されているかなどによります。
しかし、人々を雇わないことは罰せられません。そしてそれは大きな問題になるでしょう。つまり、学校を出たばかりで、ほとんどの企業に多くの価値を提供していない若者たち、正直に言いましょう、彼らはそうではありません。彼らは最初の犠牲者となります。高給取りの従業員も同様です。
企業がこれらの技術を新しい機能をカバーするために統合し始めると、それらの役割での人間の機会は減少し、労働環境に漸進的ではあるものの避けられない変化をもたらすでしょう。
本当に危機に瀕しているのは現在の仕事ではなく、私たちの子供たちがアクセスしなければならない労働市場なのです。
2025年が技術的な移行が著しく加速する年になることは間違いありません。2024年と同様に、AIの研修とコンサルティングは重要な分野であり、成長分野であり続けるでしょう。なぜなら、社会はAIが一時的な流行ではなく、定着する技術であることをますます認識するようになるからです。
重要な要因は、携帯電話から顧客サービスの電話や情報の処理と適応を含む間接的なやり取りまで、日常的に使用するデバイスやツールへのAIの自然な統合となるでしょう。AIツールが私たちの日常生活の不可欠な部分となっていくのを目にすることになります。
SNSアプリケーションを含む多くのアプリケーションで会話型アシスタントを目にすることになり、100%合成的なユーザーが最初に登場する可能性さえあります。実際、「AIソリューション」という用語は消え始める可能性があります。なぜなら、これらのツールは単に新しいソフトウェアソリューションとして見なされるようになるからです。
この自然化のプロセスはまた、この技術を採用することへの恐れや抵抗を減少させるでしょう。より多くの人々がAIが提供する機会を探求し、参加する意欲を持つようになるでしょう。これは順番に、AIのコンサルティングと研修の需要の新たな高まりを促進し、企業と個人の両方をこの今や避けられない未来に備えさせる重要な分野となります。
そして覚えておいてください。AIに精通すれば精通するほど、機会を活用し、潜在的なリスクから身を守る準備が整います。また、私のAI入門コースで私と一緒に学び、AIがあなたの日常生活をどのように助けられるかを発見したい場合は、その他多くのことの中でも、Chat GPTの完全なコースがあり、この技術が提供するすべての可能性について、専門的および日常的なタスクを解決する観点から学ぶことができます。詳細はすべて説明の中のリンクにあります。
まとめると、2025年は、ロボット工学が実験的な領域から産業環境へ、そしてもしかしたら日常生活へも進出する年となるはずです。また、3次元オブジェクト生成モデルが大幅に改善される年にもなるでしょう。
さらに、映画や視聴覚産業がAIを創造的および生産的プロセスにおける不可欠なツールとして積極的に採用することが期待されています。
これは、具体的なタスクの解決において、明確に人間よりも効率的な最初の汎用AIソリューションを目にする年にもなるでしょう。
同様に、2025年は自律型AIエージェントの確立が始まる年となり、企業環境に大きな影響を与え、企業に技術採用戦略への取り組みを促すことになります。
最後に、2025年はAIの研修に非常に良い年となるでしょう。特に多くの企業が、専門的な経験とAIツールおよび可能性についての確かな理解を組み合わせたミックス型の人材を求めることになるからです。
需要の成長と、巨大な一歩で加速する技術的未来に備える必要性により、AIがどのように機能し、どのように影響を与える可能性があるかを理解することが、今まで以上に重要となっています。
あなたはどう思いますか?本当に2025年にAIは私たちの生活を変えると思いますか?コメントで読ませてください。次の動画でお会いしましょう。

いいなと思ったら応援しよう!