見出し画像

AIの大ニュース: GoogleのGemini-2、Claude 3.5 Opus、GPT-4.5が間もなく登場、Appleの驚くべき研究

11,357 文字

今日の動画では、今週は実際にニュースが多すぎて、ほとんど取り上げられへんかったんや。せやから、みんなの時間を無駄にせんようにするわ。これは間違いなく、AIにとって最もドラマチックな週の1つやと言えるやろな。みんなもすぐにわかるはずや。いろんなとんでもないストーリーが10億個もあったんや。せやから、最初のストーリーから見ていこか。
まあ、これは厳密に言うとAIニュースちゃうかもしれへんけど、AIドラマの枠に入るんやろな。ジェフリー・ヒントンが言うてはんねん。彼の学生の1人がサムを解雇したことを誇りに思うてるって。なんでかって? サムはAIの安全性よりも利益のほうを気にしとるからやって。
これはもう絶対にとんでもないことやと思うわ。まず、ジェフリー・ヒントンがこんなこと言うてるってのが信じられへんのや。この人はまさにAIの生みの親やからな。ほとんどの人はこの発言の重要性がわかってへんかもしれへんけど、これはまるで...うーん、どう例えたらええんやろ。この人の名前がAIの世界でどれだけ重みを持ってるか、わかってもらえへんかもしれへんけど、まあ、AIの生みの親がこんなこと言うてるんやで。
彼が「学生」って言うてるのは、実はイリヤ・サツコフのことやねん。OpenAIのドラマを知ってる人はわかると思うけど。サム・アルトマンがAIの安全性よりも利益を重視してるから、って言うてはるんや。つまり、「ほら見い、サムを解雇してよかったんや。サムは本当にヤバいことしてたんやから」って言うてるようなもんやで。
これがめちゃくちゃやと思うのは、AIの業界の中で、ほとんどの人がこういうことについて話さへんかったからなんや。せやから、まさにAIの生みの親がこんなこと言うてるのは本当にクレイジーなことやねん。
彼は今週、もっと大きなニュースもあったんやけど、それはもっとええニュースやったな。彼が言うたことをちょっと見せたるわ。めちゃくちゃクレイジーなことやで。だってこの1週間、本当にクレイジーやったからな。
「私の学生たちにも感謝したいと思います。私は特に多くの非常に賢い学生に恵まれました。私よりもずっと賢い学生たちが、実際に物事を機能させたんです。彼らは素晴らしいことを成し遂げました。特に、私の学生の1人がサム・アルトマンを解雇したことを誇りに思っています。まあ、ここで止めておいて、質問に移りましょうか」
「OpenAIは安全性に重点を置いて設立されました。その主な目的は、汎用人工知能を開発し、それが安全であることを確認することでした。私の元学生のイリヤが主任科学者でした。しかし、時間が経つにつれて、サム・アルトマンは安全性よりも利益のほうを気にするようになったことがわかりました。それは残念なことだと思います」
今週、ジェフリー・E・ヒントンにとってさらにクレイジーやったのは、彼がノーベル科学賞を受賞したことやねん。コミュニティの中には、なんで科学でこれを受賞したんやって戸惑いもあったみたいやけど、これは人工知能が他の分野を侵食し始める広範なトレンドの一部やと言う人もおるんや。
これは、AIを使った科学がクロスプラットフォームやからなんや。つまり、AIでのブレークスルーが複数の分野に応用できるってことやねん。AlphaFoldとかタンパク質の構造予測とかは、科学に大きく応用できるもんやし、将来的には、AIが科学のブレークスルーを可能にするにつれて、こういうことがどんどん起こるようになるやろな。
デミス・ハサビスもノーベル化学賞を受賞したんやけど、彼もこのことについて話してはるで。
「スウェーデンから電話がかかってきたんです。ほとんどの科学者は、それが何を意味するかわかっています。実際、私の場合は妻のコンピューターを通じて連絡が来ました。私たちの番号が分からなかったみたいで、どちらの番号も持ってなかったんです。私が彼らにあなたの番号を教えなきゃいけなかったんですよ。かなり面白かったし、慌ただしくもありました。もちろん、超現実的でした。実際、私の頭は真っ白になってしまいました」
「ノーベルが100年以上前に賞を設立した当時は、もちろんコンピューターサイエンスはなかったですからね。でも、AIが他の科学分野にツールとして与える影響を見るのは本当に驚くべきことだと思います。これからもっとそういうのを見ることになるでしょうね」
「多くの人が20年以上、あるいはジェフ・ヒントンやジョン・ホップフィールドの場合はもっと長く、この分野で働いてきました。ようやく、これらの種類のテクノロジーやアルゴリズムが実際の世界に与える影響が認められたんだと思います」
これは間違いなく、今週起こったことの中で私のお気に入りの1つやな。20年以上も頑張ってきた人たちが、ようやく彼らの仕事に対する認識を得たってのは、本当に気分のええ話やからな。
前の動画で取り上げたけど、これは全てのAIニュースについて話す動画やから、次の2分間でもう一度簡単に触れとくわ。これは基本的に、ダリオ・アモデイの「愛の機械 - AIが世界をより良くする方法」っていう話や。
これは基本的に、AIが良い可能性の面で世界をどう変えるかについて話してるんや。ほとんどの人はAIの安全性とか、何が起こるかとかを考えがちやけど、彼は実際にAIが劇的な効果を与える良い分野について考えてて、正直、私も考えたこともないような分野やった。本当に考えさせられるものやったわ。
1時間の動画でこれを詳しく解説したから、全部見たい人はそのリンクを貼っとくわ。でも、多くの人にとって大きな発見やったのは、彼が「強力なAI」について語ってる部分やと思うわ。これは彼の「強力なAI」の定義やねん。
彼は「AGI」って言葉が嫌いで、私もそれに同意し始めてるんやけど、「強力なAI」は2026年くらいには来るかもしれへんって言うてはんねん。もちろん、もっと時間がかかる可能性もあるけどな。
2026年に来るとしたら、今2024年やから、今年の終わりまであと2ヶ月半しかないってことやで。つまり、これが起こるまでに実質1年しかないってことやねん。まあ、「2026年の早い時期」って言うてるから、1年3ヶ月くらいかな。技術開発の観点から見たら、1年3ヶ月なんてほんまに何もないようなもんや。
今、推論モデルはあるけど、まだ信頼性のあるスケーラブルなエージェントすらないのに、1年3ヶ月で強力なAIができるかもしれへんってことやで。これは時間枠を設定する上で重要やと思うわ。だって、この記事はAIのハイプについてあんまり語ってへんからな。「今年中に強力なAIができて、こんなことができるようになる」みたいなことは言うてへんのや。
これはダリオ・アモデイの会社の話や。彼らはAIのハイプにあんまり焦点を当ててへん。Claude 3.5 Sonetを作ったけど、最近の研究によると、まだ最高のモデルの1つやねんて。リーダーボードでは他のモデルのELOがどうのこうのって言われてるけどな。
でも、これらのモデルが比較的早く登場するってことは、多くの人にとってかなりショックやと思うわ。だからこそ、私はいつも「ほとんどの人は将来何が起こるかを正確に理解してへん」って言うてるんや。
もちろん、彼は「強力なAI」について、今日のLLMに似たAIモデルを想像してるって言うてはるわ。ただ、異なるアーキテクチャに基づいてるかもしれへんし、複数の相互作用するモデルを含むかもしれへんし、トレーニング方法も異なるかもしれへん。でも、次のような特性を持つってことやな。
これが彼の言う、AGIや強力なAIがどうなるかってことやねん。
純粋な知性に関しては、生物学、プログラミング、数学など、最も関連のある分野でノーベル賞受賞者よりも賢いってことやな。つまり、未解決の数学の定理を証明したり、めちゃくちゃ良い小説を書いたり、難しいコードベースをゼロから書いたりできるってことやで。
数学の定理を証明できるかどうかはわからへんけど、テレンス・タオが、こういうことが起こりうるって言うてはったんが面白いわ。彼は文字通り、これまでに存在した中で最も才能のある数学者の1人やからな。
「私たちは一度に1つ、あるいは効率的なら2つか3つの定理を証明します。でも、将来のAIでは、1万個の似たような問題を取り上げて、『OK、AIよ、この1000個の問題をこの技術で解いてみて』って言えるようになるかもしれません。そしたらAIが『この技術で35%の問題が解けました。この技術ではどうでしょう?』って返してくるんです。『この技術ならこの割合の問題が解けます。あるいは、これらを組み合わせるとこうなります』って。問題の空間を探索し始められるんです。各問題を個別に扱うんじゃなくてね」
「これは今すぐにはできないか、あるいは何十年もかけて、何十もの論文を重ねてゆっくりと様々な技術で何ができて何ができないかを理解していく過程なんです。でも、これらのツールを使えば、本当に前例のないスケールで数学ができるようになるんです」
「つまり、将来はすごくワクワクするものになると思います。もちろん、私たちは昔ながらの方法でも定理を証明し続けるでしょう。実際、そうしなければなりません。だって、自分たちでもこれらのことができなければ、AIを導くことはできないからです。でも、今はできないことがたくさんできるようになるでしょうね」
彼はここで、これらがモダリティになるって言うてはんねん。テキスト、音声、ビデオ、マウスとキーボードの制御、インターネットアクセスなど、バーチャルで働く人間が利用できるすべてのインターフェースを持つって。もちろん、強力なAIがインターネットにアクセスできるなら、ちょっと注意せなあかんかもしれへんけどな。でもAIの安全性の話はここではせんとこ。
インターネット上でのアクション、人間への指示、材料の注文、実験の指示、ビデオの視聴や作成など、このインターフェースで可能なあらゆるアクション、コミュニケーション、リモート操作を行えるって。そして、これらのタスク、つまりコンピューター上でのこれらのアクションを、世界で最も有能な人間を超える能力で行うんや。
1年3ヶ月で、人間がコンピューター上でできることのほとんどを大幅に上回る能力を持つAIができるってことやで。これは、ほとんどの人がコンピューターの使い方を劇的に変える方法になると思うわ。確かに、コンピューターの使い方には大きな変化があるやろうし、もちろん、人々がコンピューターをツールとして使い続けるかもしれへんけど、そこから得られる効果はずっと大きくなるやろな。
ここで彼が言うてはんのは、「ただ受動的に質問に答えるんじゃなくて、何時間も何日も何週間もかかるようなタスクを与えられて、それを自律的にこなすことができる」ってことやねん。これがAIのエージェント的な性質のことを指してるんや。つまり、2025年がエージェントの年やとしたら、2026年はそれがめちゃくちゃ優秀になる年やろうってことやな。
また、「コンピューター画面以外の物理的な具現化はないけど、ロボットや実験機器などの既存の物理的ツールをコンピューターを通じて制御できる。理論的には、自分で使用するロボットを設計することさえできる」とも言うてはんねん。
2026年にこんなことができるって考えたら、物事の進み方がめちゃくちゃ早いってことやと思うわ。だからこそ、私はAIにこんなに集中してるんや。ほとんどの人が、AIの数ヶ月の進歩がどれだけ凄いかを理解してへんと思うからな。
時々、ニュースがあんまりないように見えることもあるけど、前にも言うたように、多くの企業が今まで取り組んできたものをリリースする時期があるんや。これらの企業は、最も速く進化してる技術で互いに競争してるからな。だから、このような技術は、ほとんどの人が考えてるよりも速く、そしてすでに速く動いてるんや。
だからこそ、私はAIができることについて、自分の期待値を常にリセットしてるんやけど、それでもまだ驚かされ続けてるんや。今年の初めにSoraを見たときのことを覚えてるわ。「ああ、まいど、AIがこんなことできるなんて信じられへん」って思ったもんや。
もちろん、2026年に強力なAIが登場するかもしれへんって言うてる一方で、これについてかなり懐疑的な人もおるんやけどな。最近、私が動画で取り上げてかなり話題になった論文があって、それはこれとは逆のことを言うてるんや。AGIからはまだちょっと遠いかもしれへんし、思ってたよりも遠いかもしれへんって。その動画を見た人は、私が何について話してるかわかると思うわ。
AppleのAI研究チームがこの論文を発表したんや。この論文はAIコミュニティを二分してしもうた。25分の詳細な解説をすでにやったけど、みんなのために要約するわ。
彼らはこの論文で「大規模言語モデルは本当に推論できるのか、それとも単に洗練された
パターンマッチングをしてるだけなのか」って問うてるんや。この質問をする理由は、これらの大規模言語モデルが問題を段階的に解決する方法を本当に理解して、本物の賢さと推論能力を持ってるかどうかを知りたいからなんや。
せやから、彼らは研究を行ったんや。その研究では、非常に有名なベンチマークであるGSM 8Kを使ったんや。これはほとんどのモデルがめちゃくちゃよく解けるベンチマークで、8,000個の小学校レベルの数学の問題が含まれてて、難易度はいろいろやねん。
彼らがやったことは、信じられへんくらい単純なことやった。最初これ読んだとき、「まさか、こんなことが本当なんか?」って思ったわ。彼らがやったのは、ただ値を変えただけなんや。例えば、「ソフィーは甥を見てる」って問題があったら、それを「マークは弟を見てる」に変えたり、「31個のクッキーを積み重ねる」を「24個のオレンジを積み重ねる」に変えたりしたんや。ただそれだけやねん。
値を変えただけやねん。そして、その実験の結果はこうやった。「もしこれらのモデルが本当に推論能力を持ってて、テストの結果を丸暗記してるんじゃないなら、これらの問題を解けるはずやろ?」ってな。
そしたら、結果がめちゃくちゃ驚くべきものやったんや。様々な異なるモデルで10%から20%の精度低下が見られたんや。つまり、これらのモデルが本当に推論能力を理解してるなら、値や名前を入れ替えても同じ結果が得られるはずやのに、そうじゃなかったってことやねん。
さらにクレイジーなのは、「変えた数字が難しくなりすぎたんかもしれへん。名前だけ変えたらどうなるやろ?」って考えて、テストの名前だけを変えてみたんや。そしたら、モデルの精度が10%も下がったんや。これはあかんで。数学の問題で、質的なデータを変えただけで精度が10%以上下がるってどういうことやねん? みんなにとって、これ意味わかるか?
10%の低下は、正直、他に何を意味するかわからへんけど、これらのモデルがテストを丸暗記してるか、何らかのデータ汚染があるってことやと思うわ。つまり、「これらのモデルは、私たちが思ってるほど賢くないかもしれへん」ってことを示唆してるんやな。
これは何かランダムな研究会社の話じゃないで。後でスレッドを見ると、「全体的に見て、これはかなりクレイジーやな。LlamaやGemma、Mistralなどのオープンソースモデル、さらにはGPT-4 0.1や0.1シリーズなどのクローズドソースモデルでも、大規模言語モデルに形式的な推論の証拠は見つからなかった」って書いてあんねん。
そして、「この振る舞いは、洗練されたパターンマッチングによってよりよく説明できる。そのパターンマッチングは非常に脆弱で、実際、名前を変えるだけで結果が10%も変わってしまう」って言うてるんや。
これが、おそらく新しいパラダイムを示すことになるんちゃうかな。これらの問題を解決しようとしてる人たちにとってはな。彼らが言うてるのは、「データを増やしたり、パラメーターや計算能力を増やしたり、あるいはもっと良いトレーニングデータを使ったりしても、結局はより良いパターンマッチングができるだけやろ」ってことなんや。
これは、新しいアーキテクチャの開発が始まるかもしれへんってことを意味してるんやないかな。これはかなり驚くべきことやし、おそらくこれらのアイデアを大きく確立するか、あるいは大きく否定するようなフォローアップ論文が出てくると思うわ。なぜなら、もしテストの名前を変えるだけで大規模言語モデルの全体的な精度が10%も下がるなら、業界に深刻な影響を与えるからな。
例えば、誰かがあんたに質問して、ただ名前を変えただけやのに、あんたがそれに答えられへんってことはないやろ?
さて、AIのニュースと推測の話やけど、AIのリークで常に正確やった有名なジミー・アップルズが、新しいモデルについて話してはんねん。彼は多くのAIリークで正確やったんやけど、今回は10月、つまり今日か木曜日くらいに4.5モデルが出るかもしれへんって言うてはんねん。
今週から次の数週間にかけて、OpenAIのリリースに注目してや。4.5レベルのモデルになるかもしれへんで。
このモデルが今週リリースされるかもしれへん理由は、アンスロピックが3.5 Opusモデルをリリースするんちゃうかって推測してる人がおるからなんや。このモデルが何かわからん人のために説明すると、これは3.5 Sonetシリーズの後継やねん。
3.5 Sonetが多くの人の期待を大きく超えた後やから、このモデルにはかなり高い期待がかかってるんや。ほとんどの人は3.5 Sonetがそんなにすごいとは思ってへんかったけど、めちゃくちゃよく機能したみたいやからな。
もしアンスロピックがClaude 3.5 Sonicでやったことを再びスケールアップして、3.5 Opusに組み込めたら、それはめっちゃすごいことになるやろな。3.5 Opusは彼らの最も知的なモデルやからな。最も知的なモデルって言うたけど、ただ単にファミリーの中で最大のモデルってことやで。小さいバージョンのモデルをトレーニングするのに使った方法を、大きいバージョンのトレーニングにも使うはずやからな。
ここでジミー・アップルズがツイートしてるのが見えるやろ? 「アンスロピックが自信を持って発表します」って。これ、10月10日にツイートされたんや。つまり、今日かもしれへんし、今週の木曜日かもしれへんってことやな。
これはほぼ間違いなく起こると思うわ。AIコミュニティでいくつかの噂を聞いたからな。さらに言うと、もしアンスロピックがこういうものをリリースしたら、ChatGPT GPT-4を完全に凌駕してしまうかもしれへんのや。
ChatGPTのadvanced modeとか、ChatGPTがやってるすごいことについて言うてるんじゃないで。アンスロピックはモデルの生の知性にだけ集中してるみたいやからな。だからこそ、Claude 3.5 Sonicのコーディング能力がめちゃくちゃ優れてて、人々が信じられないようなプログラムを作れるようになって、ノーコード開発者の生態系全体を可能にしたんやと思うわ。
せやから、もしアンスロピックがOpus 3.5をリリースしたら、OpenAIはそれに対抗してGPT-4.5を出す可能性が高いと思うわ。OpenAIはいつも市場シェアと認知度を巡って他の研究所と戦ってるからな。
それから、サンフランシスコでのGoogleディープマインドのイベントで、公式のLogan Kがスクリーンショットで次のGeminiをちらっと見せてくれたんや。「我々はどこに向かっているのか」っていうプレゼンテーションが見えるやろ? Gemini 2.0がはっきり見えるで。
これで、Googleの未来がどうなるかが具体的にわかるな。もちろん、未来がどこに向かってるかは大体わかってるけど、これで確実になったわけや。Gemini 2.0、次世代フロンティアモデル(これはまだ決定中やけどな)、全てをチューニング、より大きなモデル、マルチターンビジョン、音声、埋め込みなどが見えるやろ。
そして、新しいモデルもあるな。前に言うたように、Gemini 2.0、Googleの驚異的なビデオモデルであるVoiceや、ImagenNの第3バージョンなんかやな。
ほんま、Googleに失礼にならんように言うけど、ImagenNは多分最高の画像モデルやと思うわ。それはいろんなタスクで使ってみたからわかるんや。テキストもええし、特定のグラフィックスの3Dレンダリングもすごいし、ゲームもめちゃくちゃうまく作れるんや。なんでゲームがこんなにうまく作れるのかわからへんけど、文字通りどんなゲームのスクリーンショットでも作れて、めちゃリアルに見えるんやで。
スマホで撮ったような写真も作れるし、ほんまにすごいんや。ImagenNを友達のSNS投稿用の画像作りとかに使ってるけど、めちゃくちゃクレイジーやで。Googleがこのモデルで何を作ったのかわからへんけど、ほんまにすごいわ。
それから、NotebookLMについても話してるな。
Googleのニュースについてもっと言うと、ImagenNが全てのGeminiユーザーに提供されるようになったんや。これは今のところ最高品質の画像生成モデルやと言われてる。前にも言うたけど、Googleがこのモデルで何を作ったのかわからへんけど、個人的にこのモデルをいろんな場面で使ってるわ。GoogleがYouTubeやGoogleフォトでより良いデータを持ってるから、より良いモデルを作れたんやと思うわ。
Geminiにアクセスできる人は、ぜひ試してみてや。日々AIの画像を使ってる人なら、使ってみて自分に合うかどうか確かめてみ。これらのモデルは全て異なるデータセットでトレーニングされてるから、どこが優れてるかを見ることができるし、他のモデルではできへん特定の用途に使えることもあるんや。
先週のTeslaのイベントを見逃した人もおるかもしれへんけど、めっちゃ面白かったで。ロボタクシーを見ることができたし、もちろん、私たちの友達のOptimusがいろんな場所で展開されてるのも見られたわ。
正直言うて、多くの人がTeslaのOptimusロボットについて混乱してたみたいやな。例えば、ここでこれらのロボットは明らかに歩行が完全に自律的やろ。AIに注目してる人間として、このステージは完全に自律的やってことはわかるんやけど、ロボットが遠隔操作されてるステージもあったんや。
これが、イーロン・マスクに騙されたって主張する人たちからの反発を招いてしもうたんや。以前のイベントと同じように、派手なデモで投資家を驚かせようとしたんやないかって。でも、私はそうは思わへんな。ただデータを集めたかっただけやと思うし、完全に自律的やったら、そう言うはずやと思うわ。
私が思うに、これからロボティクスのデモや他のデモを見るときは、特に断りがない限り、常に遠隔操作されてると思っといた方がええと思うわ。例えば、これらの動画で完全に自律的やったら、画面の右側に「完全自律、等倍速」とか書いてあるはずやろ。
もちろん、一般の人はそこまで理解してへんから、騙されたって思ってしまうんやろうな。でも、私はそうは思わへんわ。マーケティングでは、完全に遠隔操作されてるって言う必要はなかったんやと思うわ。
まあ、これは未来の一端を見せてくれたんやと思うわ。面白いことに、これが未来の姿かもしれへんな。
それから、Dream V2っていう強力なオールインワンのビデオジェネレーターについても触れとかなあかんな。基本的に、TikTokの親会社であるByteDanceが、バージョン2.0のベータテスト中のAIを持ってて、これがさまざまなAIビデオ機能を提供してるんや。
前にも言うたけど、AIビデオはほんまにすごいことになってきてるわ。正直、今後2年以内に、1つのプロンプトで完全な映画を作れるようになると思うわ。キャラクターの一貫性や、AIから見る内容のコントロールがもっと良くなると思うわ。
つまり、2年以内に、1つのプロンプトで自分たちのショーを作れるようになるんちゃうかな。でも、これが実現するのを妨げる最大の要因は、おそらくコンピューティングコストやと思うわ。これらの会社が、これを本当に安く作る方法を見つけられへかったらな。
メタのMovieGenがめちゃくちゃ高品質でリリースされたけど、それを作るのにめっちゃお金がかかったんや。これはOpenAIのSoraのリリースでも見られた問題やったな。
これをもっと効率的にできる方法を見つけられるかどうかが興味深いところやな。そうなれば、本当にクリエイティブな映画が作れるようになるし、ほとんどの人が理解してへんのは、実際のTVの制作にどれだけ多くのチームが関わってるかってことやねん。
エグゼクティブプロデューサー、プロデューサー、脚本家、スクリプトエディターとか、ほんまに数え切れへんくらいのことがあるんや。人々が自分たちのTVショーを作るようになったら、面白くなるやろな。将来的には消費するコンテンツがめっちゃ増えると思うわ。この分野がどう発展していくか、見守るのが楽しみやな。
生成ビデオは他の分野でも進展があったで。例えば、AIビデオが好きな人たちにとっては、AdobeもFireflyビデオモデルを発表したんや。これはかなり驚きやったな。このモデルはめっちゃ優秀で、一番驚いたのは、彼らが自分たちのデータじゃないけど、商業利用の権利を持ってるデータでこのモデルをトレーニングできたってことやねん。そして、品質がめちゃくちゃ良くなったんや。
これがここまで来たのが信じられへんわ。これで、AIフィルムを作りたい個人のクリエイターのスペースが完全に広がるってことやからな。Adobe Fireflyのこのテキストからビデオのベータがあるだけじゃなくて、将来的にはPremiere Proの新バージョンにネイティブで組み込まれるんや。
つまり、もっと多くの人がAIビデオやAI画像を作ったり、今までの知識を広げたりするようになるってことやな。もっとクリエイティブなコンテンツを見ることになるし、見るコンテンツの中でも、キャラクターの一貫性、ショットの一貫性、シーンの構成がめちゃくちゃ効果的なものが増えるやろうな。
これはもちろん、ビデオ会社じゃなくて、これらのツールを最初に扱う会社からのものやねん。これを見るのはかなり驚きやし、ユーザー体験の面では彼らが一番上手くやれると思うわ。他の会社は基礎技術を作るのはうまいけど、Adobe
のような会社は、ユーザーが実際に技術を使うエンドプロダクトを作ってるからな。
Premiere Pro、Adobe Photoshop、Adobe Illustratorとか、そういうところで人々が実際に技術を使うんや。そこにAIをネイティブに組み込めたら、オンラインの従来のAIツールよりもずっと速く採用されるんちゃうかな。
これは本当に面白いことになりそうや。私のお気に入りの機能の1つは、例えば、スイッチを上げる人がいるシーンがあるとして、それをプラグを抜くシーンに変えたいってなったら、Adobe Fireplyを使ってすぐにその最後のショットを作り直せるってことやな。これはめっちゃクールやと思うわ。
今日の動画を楽しんでくれたなら、いいねを押してくれたり、チャンネル登録してくれたりしたら嬉しいな。それじゃ、また次の動画で会おうな。

いいなと思ったら応援しよう!