![見出し画像](https://assets.st-note.com/production/uploads/images/174902807/rectangle_large_type_2_1511698e57d49757880543ccd0e60c49.png?width=1200)
【マット・ウルフのAIニュース:OpenAIロードマップ発表【2025年2月15日|@Matt Wolfe】
イーロン・マスク率いる投資家グループがOpenAIの買収を試み、約97.6Bドルの全額現金オファーとともに2025年5月10日を期限とする提案を行いました。イーロン・マスクはOpenAIが当初の安全性やオープンソースを重視したミッションから逸脱していると主張し訴訟を起こす一方、サム・アルトマンはOpenAIは売却対象ではなく、引き続きそのミッションを最優先する考えであると述べ、今回の動きは単なる競合戦略に過ぎないとの見解を示されました。また、OpenAIは複雑化したモデル選択の問題を解消するため、利用者の入力に応じて最適なモデルを自動で選定する仕組みを目指す新たなロードマップを公開し、ChatGPTにおける多様なモデルの統合や、GPT-4.5(内部名称Orion)からGPT-5への進化、従来のo3モデルの一体化を図るとともに、モバイル向けの深層リサーチ機能の展開、ファイル及び画像アップロード対応の強化、そしてプラスプラン向けの利用制限緩和といったサービス改善策も実施され、ユーザー体験の向上に努められています。さらに、Anthropicは、シンプルなタスクには高速に、複雑な問題には深い推論を行うハイブリッド型のAIモデルを開発中であり、特にコーディング用途での性能向上が期待されるほか、PerplexityはLlama系の大規模モデルをベースに新たな言語モデルとCerebrisインフラによる高速推論を実現し、ファイル・画像アップロード機能も提供するなど、製品面での進化を遂げております。加えて、GoogleはGeminiのチャット記憶機能や画像複合機能を持つWhiskをグローバル展開し、YouTubeはVeo 2モデルを活用したショート動画生成や多言語自動吹き替え機能を導入するなど、各社が革新的な技術開発と市場競争を繰り広げています。また、Adobeはクリエイター向けに商用利用が可能な生成動画ツールAdobe Fireflyをリリースし、テキストや画像から高品質な動画を生成できる機能を多数搭載しました。さらに、LumaによるRay 2画像から動画への変換モデル、Bolt.newによるノーコードでのモバイルアプリ開発、Winsurfの最新バージョンWave 3によるターミナルコマンド実行や画像ドラッグ&ドロップでのエラー解析機能など、さまざまな新ツールも次々と登場しています。また、米国のJDバンスが登壇したAIアクションサミットでは、米国がAI技術の金字塔であり続けるとともに、過度な規制が技術革新を阻害するとの見解が示され、Christie’s社が開催するAI生成アートのオークションに対しては、著作権侵害の懸念から批判の声も上がっています。最後に、Apple社のエンジニアが開発した、AIによって感情表現が可能なピクサー風のテーブルランプが発表され、ハードウェア分野におけるAIの新たな活用例として注目されています。
※動画を再生してから読むのがオススメです。
Well, it's been another intense week in the world of AI with lots of drama and a bunch of cool product and feature updates.
さて、AIの世界では今週も、多くのドラマチックな出来事や、クールな製品、機能のアップデートがあり、激動の1週間でした。
And it's my job to sift through all the noise and try to help you uncover just the important stuff that might actually impact you.
そして、私の仕事は、そういった雑多な情報の中から、実際にあなたに影響を与えるかもしれない重要な情報だけを見つけ出すお手伝いをすることです。
So without wasting any more time, let's get into this week's AI news breakdown.
それでは、時間を無駄にせずに、今週のAIニュースの要点を見ていきましょう。
Starting with what's probably the most talked about news story of the week, in that Elon Musk attempted to purchase OpenAI for $97.4B.
今週おそらく最も話題となったニュースから始めましょう。それは、イーロン・マスクがOpenAIを974億ドルで買収しようとしたことです。
A team of investors led by Elon Musk submitted the $97.6B bid to purchase OpenAI on Monday.
イーロン・マスク率いる投資家チームが月曜日にOpenAIに対して976億ドルの買収提案を提出しました。
Now, if you're not already aware, Elon Musk is already suing OpenAI because they've been straying away from the mission in which he originally invested.
ご存知ない方のために説明すると、イーロン・マスクは既にOpenAIを訴えています。その理由は、彼が当初投資した際のミッションから逸脱しているためです。
Elon said it's time for OpenAI to return to the open source safety focused force for good it once was.
イーロンは、OpenAIが以前のようなオープンソースで安全性重視の善なる力に戻る時が来たと述べました。
We will make sure that happens.
私たちはそれが実現することを確実にします。
Sam Altman's already replied to the bid on X by saying, no, thank you, but we will buy Twitter for 9.74B if you want, which was a little jab at Elon because, well, Elon initially bought Twitter for $44B.
サム・アルトマンは既にXで入札に対して返答しており、「いいえ、結構です。でも、もしよければTwitterを97.4億ドルで買い取りましょう」と述べました。これは、イーロンが当初Twitterを440億ドルで買収したことを皮肉った発言でした。
Elon came back calling him a swindler and I really like Kevin Rose's take here where he says I'm hoping you both go on a spiritual journey and heal all the things you'd be unstoppable together.
イーロンは彼を詐欺師と呼んで反論し、ケビン・ローズの「二人が精神的な旅に出て、すべてを癒せば、共に止められない存在になれると願っています」という意見が私は本当に気に入っています。
I agree I would love to see a Sam Altman, Elon Musk combo project because I do think whatever version of AI they combine on would just be insane, but I have a hard time actually seeing that play out.
サム・アルトマンとイーロン・マスクのコンボプロジェクトを見てみたいと私も同意します。なぜなら、彼らが共同で開発するAIはどんなバージョンであれ、とてつもないものになると思うからです。しかし、それが実際に実現するとは想像しづらいです。
A lot of people are speculating that Elon Musk doesn't actually want to buy OpenAI.
多くの人々が、イーロン・マスクは実際にはOpenAIを買収する意図がないのではないかと推測しています。
He just wants to sort of muddy the waters and make it more complicated for OpenAI to transition to that for-profit that they've been trying to do.
彼はただ状況を混乱させ、OpenAIが目指している営利企業への移行をより複雑にしたいだけなのです。
The thinking behind it being that if OpenAI was to transition to a for-profit company it essentially needs to buy out the non-profit and the valuation that the non-profit was going to be bought for is much lower than what Elon offered therefore requiring the nonprofit to sort of take his bid seriously.
その背景にある考えは、OpenAIが営利企業に移行する場合、本質的に非営利部門を買収する必要があり、非営利部門の買収予定価格がイーロンの提示額よりもはるかに低いため、非営利部門は彼の入札を真剣に検討せざるを得ないということです。
But because it's a nonprofit, they don't necessarily have a fiduciary responsibility to shareholders.
しかし、非営利組織であるため、必ずしも株主に対する受託者責任を負う必要はありません。
So it's real sort of muddy and confusing.
そのため、状況は本当に不明瞭で混乱しています。
But here's what we do know about the offer from Elon.
しかし、イーロンからの提案について、私たちが知っていることは以下の通りです。
There's a deadline of May 10th, 2025.
期限は2025年5月10日です。
The deal is an all cash deal.
この取引は全額現金での取引です。
100% of the purchase price would be paid in cash.
購入価格の100%が現金で支払われる予定です。
Elon and the buyers would want full access to the books and personnel to do their due diligence, which is another potential reason Elon is doing this just to sort of uncover information.
イーロンと買収側は、デューデリジェンスを行うために帳簿と人事に関する完全なアクセスを求めており、これはイーロンがただ情報を明らかにするためにこれを行っているもう一つの潜在的な理由かもしれません。
And then say, based on our due diligence, we're not going to purchase it.
そして、デューデリジェンスの結果に基づいて、「買収しない」と言うのです。
According to the letter of intent, they'd need to see assets, facilities, equipment, books, and records.
意向書によると、彼らは資産、施設、設備、帳簿、記録を確認する必要があります。
While this is a normal part of due diligence, this could give xAI, which is an OpenAI competitor, access to sensitive internal information.
これはデューデリジェンスの通常の一部ですが、OpenAIの競合であるxAIに機密性の高い内部情報へのアクセスを与える可能性があります。
And once they've seen it all, their diligence could also provide them with a reason to withdraw their offer and musk claims that he'll withdraw his offer if open ai decides to stay a non-profit in an interview by the pulse here sam altman was asked basically what he thought about the elon offer.
そして、すべてを確認した後、彼らのデューデリジェンスは提案を取り下げる理由を提供する可能性があり、マスクはOpenAIが非営利を維持することを決めた場合、提案を取り下げると主張しています。ここでパルスのインタビューで、サム・オルトマンはイーロンの提案についての考えを基本的に尋ねられました。
Here's what he had to say about it.
彼はそれについて以下のように述べました。
Elon Musk making a bid for OpenAI.
イーロン・マスクがOpenAIに対して買収提案をしています。
Your response, you're turning him down for 97B.
あなたの返答は、970億ドルでの提案を断るということですね。
I mean, look, OpenAI is not for sale.
つまり、OpenAIは売却の対象ではありません。
The OpenAI mission is not for sale.
OpenAIのミッションは売却の対象ではありません。
Elon tries all sorts of things for a long time.
イーロンは長い間、様々なことを試みてきました。
This is this week's episode.
これは今週のエピソードです。
Do you take it seriously at all?
あなたはこれを少しでも真剣に受け止めていますか?
What do you think he's trying to drive at with this?
彼が何を目指してこれを行っていると思いますか?
I think he's probably just trying to slow us down.
彼はおそらく、ただ私たちの足を引っ張ろうとしているのだと思います。
He obviously is a competitor.
彼は明らかに競合相手です。
He's working hard and he's raised a lot of money for xAI and they're trying to compete with us from a technological perspective, from getting the product into the market.
彼は懸命に働き、xAIのために多額の資金を調達し、技術的な観点から、そして製品を市場に投入する面で私たちと競争しようとしています。
I wish he would just compete by building a better product, but I think there's been a lot of tactics, many, many lawsuits, all sorts of other crazy stuff.
より良い製品を作ることで競争してくれればいいのですが、多くの戦術や数多くの訴訟、その他様々な奇妙なことがあったと思います。
Now this, we'll try to just put our head down and keep working.
今回のことについても、私たちは黙々と仕事を続けるようにします。
Does it make it more difficult to move from that nonprofit model to that for-profit model for OpenAI?
これによって、OpenAIが非営利モデルから営利モデルに移行することがより困難になりますか?
We're not moving to a for-profit model.
私たちは営利モデルへの移行はしていません。
We're not sure we're going to do it all, but no matter what, the nonprofit will continue to be extremely important.
私たちはそれをすべて行うかどうかわかりませんが、いずれにせよ、非営利組織は引き続き非常に重要であり続けます。
It will drive the mission.
それがミッションを推進します。
It will continue to exist.
それは存続し続けます。
The board is looking at lots of options about how to best structure for this next phase.
取締役会は、次のフェーズに向けて最適な構造をどのようにするかについて、多くの選択肢を検討しています。
But the nonprofit is not changing anything or going anywhere okay so essentially he doesn't seem to be taking Elon too seriously he sees it as Elon just trying to slow things down trying to compete a little bit dirty instead of competing by creating the best product.
しかし、非営利組織は何も変更せず、どこにも行きません。本質的に、彼はイーロンをあまり真剣に受け止めていないようです。最高の製品を作って競争する代わりに、少し汚い手を使って物事を遅らせようとしているイーロンの試みとして見ているのです。
Now, moving away from the Elon Musk, Sam Altman drama, OpenAI actually did make some announcements this week.
イーロン・マスクとサム・オルトマンのドラマから離れて、OpenAIは今週実際にいくつかの発表を行いました。
They shared their roadmap of what they're planning on doing.
彼らは今後の計画のロードマップを共有しました。
Plus, they actually rolled out some useful new features.
さらに、実際にいくつかの便利な新機能をリリースしました。
So let's start with the roadmap here.
それでは、ここでロードマップから始めましょう。
One of the things Sam Altman is commenting on is he says, We want AI to just work for you.
サム・オルトマンが言及していることの1つは、「私たちはAIがあなたのために単純に機能することを望んでいます」ということです。
We realize how complicated our model and product offerings have gotten.
私たちは、モデルと製品の提供がいかに複雑になってしまったかを認識しています。
He's referring to the fact that when you use ChatGPT, especially if you're on the pro plan you've got one two three four five six seven eight model choices plus with these choices you've got additional options within the model to turn on things like search and deep research and image and canvas.
彼が言及しているのは、ChatGPTを使用する際、特にプロプランでは8つのモデルの選択肢があり、さらにそれらの選択肢の中で検索やディープリサーチ、画像、キャンバスなどの機能をオンにできる追加オプションがあるという事実です。
And it's just too complicated for people.
そしてこれは人々にとって複雑すぎるのです。
He says we hate the model picker as much as you do and want to return to magic unified intelligence.
彼は「私たちも皆様と同じようにモデル選択機能を嫌っており、魔法のような統合された知能に戻りたいと考えています」と述べています。
He says a top goal for us is to unify O series models and GPT series models by creating systems that can use all our tools, know when to think for a long time or not, and generally be useful for a very wide range of tasks.
彼は「私たちの最優先目標は、すべてのツールを使用でき、長時間考える必要があるかどうかを判断でき、一般的に非常に幅広いタスクに役立つシステムを作成することで、OシリーズモデルとGPTシリーズモデルを統合することです」と述べています。
So what he's saying is you shouldn't have to pick GPT-4o or ChatGPT 03, or ChatGPT o1 with Pro Mode, or Reasoning Model, or Deep Research.
つまり彼が言っているのは、GPT-4oやChatGPT 03、プロモード付きのChatGPT o1、推論モデル、ディープリサーチなどを選択する必要がないということです。
You shouldn't have to pick all these things.
これらすべてを選択する必要はないはずです。
You should just be able to enter your prompt
プロンプトを入力するだけでよいはずです。
And then the chatbot that you're using when you're using Chat, you're using ChatGPT, it decides which model to use based on the question.
そして、チャットを使用している時のチャットボット、つまりChatGPTが、質問に基づいて使用するモデルを決定します。
Okay, this one requires some more deep thinking.
はい、これにはもう少し深い思考が必要です。
Let's go ahead and use one of the o1 models.
o1モデルの1つを使用しましょう。
Okay, they're clearly asking for some deep research on this.
はい、これは明らかにディープリサーチが必要な質問です。
Let's go ahead and turn on the deep research feature.
ディープリサーチ機能をオンにしましょう。
Oh, this is a really quick, easy one to answer.
あぁ、これは本当に素早く簡単に答えられる質問です。
Let's go ahead and use our GPT-4o mini model that is the lowest compute model.
最も計算量の少ないGPT-4o miniモデルを使用しましょう。
The ChatGPT tool should pick for you which model to use.
ChatGPTツールが使用するモデルを選択するべきです。
In the same post here he also talked about how the models are going to be released in the future.
同じ投稿で、彼は将来モデルがどのようにリリースされるかについても話しました。
He did say we have GPT-4.5 that's the model they called orion internally and that's their last non-chain of thought model.
彼は、社内でオリオンと呼ばれているGPT-4.5を持っており、これが最後の非思考連鎖モデルだと述べました。
So that's the last model that we're going to release that doesn't actually show it sort of thinking through things.
つまり、これが物事を考え抜く過程を実際に表示しない最後のモデルとなります。
All of the rest of their models after that are going to be built around test time compute, or when you enter a prompt, it actually does a lot of processing at that point to think through the response and give you an answer.
それ以降のすべてのモデルは、テストタイム計算を中心に構築され、プロンプトを入力すると、その時点で応答を考え抜いて答えを出すために多くの処理を行います。
In both ChatGPT and our API, we will release GPT-5 as a system that integrates a lot of our technology, including o3.
ChatGPTとAPIの両方で、o3を含む多くの技術を統合したシステムとしてGPT-5をリリースする予定です。
We will no longer ship o3 as a standalone model.
o3を単独のモデルとしてはリリースしなくなります。
So up until last week, the roadmap was they shipped o3-mini, o3-mini high, and they were gonna ship o3, the non-mini model.
つまり先週まで、ロードマップではo3-mini、o3-mini highをリリースし、非ミニモデルのo3もリリースする予定でした。
But now it looks like they're not going to do that.
しかし今では、そうしないようです。
It's just going to be like part of GPT-5.
それはGPT-5の一部となるようです。
He also says the free tier of ChatGPT will get unlimited chat access to GPT-5 at the standard intelligence setting.
彼はまた、ChatGPTの無料プランではGPT-5に標準の知能設定で無制限にチャットアクセスできるようになると述べています。
Plus subscribers will be able to run GPT-5 at higher level of intelligence and pro subscribers will be able to run GPT-5 at even higher levels of intelligence and then chubby here says any eta for GPT-4.5 GPT-5 weeks months and sam basically said weeks/months which is pretty much a non-answer.
Plusプランの利用者はGPT-5をより高い知能レベルで実行でき、プロプランの利用者はさらに高い知能レベルで実行できるようになり、そしてここでチャビーがGPT-4.5とGPT-5の登場時期について尋ねると、サムは「数週間から数ヶ月」という実質的に何も答えていない返答をしました。
Weeks/months could be any time within the next year, really.
「数週間から数ヶ月」というのは、実際には来年中のいつでもあり得ます。
But theoretically, we'll have GPT-4.5 fairly soon.
しかし理論的には、GPT-4.5はかなり近い将来に登場するでしょう。
I would imagine within the next several weeks, that's going to be the replacement to the GPT-4o that you're using now that doesn't have the sort of chain of thought thinking.
数週間以内に、現在使用している思考の連鎖機能を持たないGPT-4oの代替として登場すると予想します。
And then when GPT-5 comes out, from then on out, I think every model is just going to have test time compute.
そしてGPT-5が登場すると、それ以降はすべてのモデルがテスト時の計算機能を持つようになると思います。
It's going to have that thinking ability at the time you enter the prompt, if it needs to do it, because it's going to start to learn, should I really think this one through or is this an easy one for me to answer?
プロンプトを入力した時点で、必要であればその思考能力を持つことになります。なぜなら、これは深く考える必要があるのか、それとも簡単に答えられる質問なのかを学習し始めるからです。
OpenAI did also release a few other small updates this week.
OpenAIは今週、他にもいくつかの小さなアップデートをリリースしました。
If you're a pro user and you want to use deep research on mobile, it's now available on all of the platforms.
プロユーザーの場合、モバイルでディープリサーチを使用したい場合、現在すべてのプラットフォームで利用可能です。
So you can use it on iOS, Android, and even on the desktop platforms, Mac OS and Windows.
そのため、iOS、Android、さらにはMac OSやWindowsなどのデスクトッププラットフォームでも使用できます。
And they also announced that OpenAI o1 and o3-mini now support both file and image uploads in ChatGPT.
また、OpenAI o1とo3-miniが現在、ChatGPTでファイルと画像の両方のアップロードに対応していることも発表されました。
Before you couldn't actually add things like PDFs and ask questions about the PDF with o1 or o3-mini.
以前はo1やo3-miniでPDFなどを追加してPDFについて質問することはできませんでした。
Apparently you still can't with o1 Pro.
どうやらo1 Proではまだできないようです。
I tried it earlier today.
今日早くに試してみました。
It didn't work.
機能しませんでした。
They also raised the o3-mini high limits by seven times for plus users to up to 50 per day.
また、plusユーザー向けにo3-mini highの制限を7倍に引き上げ、1日最大50回まで利用可能になりました。
So if you're on the plus plan, the $20 a month plan, you now have seven times more usage limit on o3-mini high.
つまり、月額20ドルのplusプランを利用している場合、o3-mini highの使用制限が7倍になりました。
And finally, in the last bit of OpenAI news that I'm gonna share, I know there's been a ton this week, Sam Altman and Kevin Wheel spoke at the University of Tokyo Center for Global Education.
そして最後に、今週は多くのニュースがありましたが、共有する最後のOpenAIニュースとして、サム・アルトマンとケビン・ウィールが東京大学グローバル教育センターで講演を行いました。
And most of what they talked about is the same kind of talking points we always hear Sam Altman talk about.
そして彼らが話した内容のほとんどは、いつもサム・アルトマンが話すような要点と同じでした。
But I thought the most interesting part of this was when he was asked about open source.
しかし、私が最も興味深いと思ったのは、オープンソースについて質問された時の部分でした。
Earlier, you mentioned making intelligence accessible to everybody.
先ほど、知能をすべての人がアクセスできるようにすることについて言及されました。
And with the recent release of China's DeepSeq AI, along with the open publication of their weights and architecture, the validity of OpenAI's shift away from open source has been called into question.
中国のDeepSeq AIの最近のリリースと、そのウェイトとアーキテクチャのオープンな公開により、OpenAIのオープンソースからの転換の妥当性が問われています。
Are there any plans to reconsider that stance and what would be the justification?
その立場を再考する計画はありますか?また、その正当性は何でしょうか?
Yeah, we're going to do it.
はい、私たちはそれを行う予定です。
I don't know exactly what we're going to open source or exactly when.
具体的に何をいつオープンソース化するかはまだ分かりません。
It does seem to us like the direction of travel is towards more open models available, and that society is willing to take the trade-offs, at least for now, that come with that.
私たちには、より多くのオープンモデルが利用可能になる方向に進んでいるように見えますし、少なくとも現時点では、社会はそれに伴うトレードオフを受け入れる意思があるようです。
And I think we've made good progress on getting these models to be generally safe and robust.
そして、これらのモデルを一般的に安全で堅牢なものにすることについて、良い進展があったと思います。
In open source uses, they won't all be used that way, but they will be most of the time.
オープンソースでの使用では、すべてがそのように使用されるわけではありませんが、ほとんどの場合はそうなるでしょう。
Yeah, I'd expect us to move in that direction.
はい、私たちはその方向に進むと予想しています。
So very interesting, because I started this video today talking about how Elon Musk wants to buy OpenAI so that he can take it open source and get back to the true original goal of what OpenAI was.
とても興味深いですね。なぜなら、私は今日このビデオを、イーロン・マスクがOpenAIを買収してオープンソース化し、OpenAIの本来の目標に戻したいと考えているという話から始めたからです。
And now Sam Altman is going around saying, we need to do more open source stuff.
そして今、サム・アルトマンは「もっとオープンソースに取り組む必要がある」と言って回っています。
He said it in an AMA last week, and this week he's saying it at the University of Tokyo.
彼は先週のAMAでそう言い、今週は東京大学でそう言っています。
So it does sound like they are going to make some sort of pivot into open source, whether they're going to open source their biggest models.
そのため、彼らは最大規模のモデルをオープンソース化するかどうかは別として、何らかの形でオープンソースへの転換を図るように思われます。
I find it kind of unlikely, but I can almost see them open sourcing like two generations ago models.
私はそれはあまりありそうにないと思いますが、2世代前のモデルのようなものをオープンソース化するのは想像できます。
I don't know.
分かりません。
We'll see.
様子を見てみましょう。
You know that feeling when you're working on a creative project and you can picture exactly what you want in your head, but bringing that vision to life feels like trying to teach a cat to swim.
クリエイティブなプロジェクトに取り組んでいるとき、頭の中で望むものを正確に思い描けているのに、それを実現させるのが猫に水泳を教えるようなものだと感じる、あの気持ちわかりますよね。
Maybe you need some B-roll footage for your video, or you're trying to create the perfect background for your thumbnail, or you're working on motion graphics, but just can't get them quite right.
動画用のB-rollフッテージが必要だったり、サムネイルの完璧な背景を作ろうとしていたり、モーショングラフィックスに取り組んでいたりするけど、なかなか思い通りにならないことがありますよね。
And let's be real.
正直に言いましょう。
Sometimes you end up spending hours searching through stock footage sites or trying to create something from scratch only to end up with something that's well, not quite what you imagined.
ストックフッテージサイトを何時間も探し回ったり、一から何かを作ろうとしたりしても、結局思い描いていたものとは少し違うものになってしまうことがあります。
And that's why for this video, I partnered with Adobe to tell you about what's new in Firefly, like generate video powered by the new Firefly video model.
そこで今回の動画では、新しいFireflyビデオモデルを搭載した動画生成機能など、Fireflyの新機能についてお伝えするためにAdobeとパートナーシップを組みました。
This is seriously game-changing stuff for creators like us.
これは私たちのようなクリエイターにとって、本当にゲームチェンジングな機能です。
Adobe Firefly is the first generative AI for video that's actually designed to be commercially safe, meaning everything it creates is trained on licensed content and public domain work.
Adobe Fireflyは、商業利用を前提に設計された初めての動画生成AIで、ライセンスされたコンテンツとパブリックドメインの作品だけを学習データとして使用しています。
No more wondering if that AI generated asset might get you into trouble down the line.
もうAIが生成したアセットが後で問題を引き起こすかもしれないと心配する必要はありません。
Now, let me show you what makes this so exciting.
では、なぜこれがそんなにエキサイティングなのか、お見せしましょう。
The Generate Video modules let you create completely original video clips just by describing what you want.
動画生成モジュールを使えば、欲しいものを説明するだけで完全にオリジナルの動画クリップを作成できます。
Need a cinematic drone shot of a mountain landscape?
山々の風景を映した映画のようなドローンショットが必要ですか?
Done.
はい、できます。
Wanna add some cool atmospheric effects to your existing footage?
既存の映像にクールな雰囲気のエフェクトを追加したいですか?
You got it.
それもできます。
The best part is you have full control over the camera angles, motion, and visual style.
最高なのは、カメラアングル、動き、ビジュアルスタイルを完全にコントロールできることです。
It's like having a professional VFX team right in your browser.
ブラウザ上でプロのVFXチームを持っているようなものです。
But it's not just about video.
しかし、これは動画だけの話ではありません。
Adobe Firefly is basically your creative Swiss army knife.
Adobe Fireflyは基本的にあなたのクリエイティブなスイスアーミーナイフのようなものです。
You can generate custom images, create animations, design backgrounds, and even translate your content into over 20 languages automatically.
カスタム画像の生成、アニメーションの作成、背景のデザイン、さらには20以上の言語への自動翻訳まで可能です。
Everything on the web app integrates seamlessly with the Adobe Creative Cloud apps that you already use.
ウェブアプリ上のすべての機能は、既に使用しているAdobe Creative Cloudアプリとシームレスに統合されています。
So you can take your Firefly generated content straight into Premiere Pro, After Effects, or Photoshop for final touches.
そのため、Fireflyで生成したコンテンツを直接Premiere Pro、After Effects、Photoshopに持ち込んで最終調整ができます。
And what I particularly love about Adobe Firefly is how it respects creators.
そして私がAdobe Fireflyについて特に気に入っているのは、クリエイターを尊重している点です。
This isn't about replacing human creativity.
これは人間の創造性を置き換えるものではありません。
It's about enhancing it.
それを高めるためのものです。
It's about taking those tedious, time-consuming tasks off your plate so you can focus on the creative decisions that really matter.
面倒で時間のかかるタスクから解放されることで、本当に重要なクリエイティブな決定に集中できるようになります。
And unlike other AI tools, you know you can actually use what you create commercially without worrying about any of the licensing issues.
そして他のAIツールとは異なり、作成したものをライセンスの問題を心配することなく商業利用できることがわかっています。
Right now you can try Adobe Firefly for yourself by heading over to firefly.adobe.com.
今すぐfirefly.adobe.comにアクセスして、Adobe Fireflyを試すことができます。
Trust me, once you start playing with these tools, you'll wonder how you ever manage without them.
信じてください、これらのツールを使い始めると、これまでどうやって仕事をこなしていたのか不思議に思うはずです。
Whether you're a professional creator or just getting started, Adobe Firefly gives you the power to bring your creative vision to life in ways that just weren't possible before.
プロのクリエイターであれ、始めたばかりの人であれ、Adobe Fireflyは、これまでにない方法であなたのクリエイティブなビジョンを実現する力を与えてくれます。
So check out firefly.adobe.com to learn more and start creating with Adobe Firefly.
詳しい情報を得て、Adobe Fireflyでの制作を始めるために、firefly.adobe.comをチェックしてください。
Now we're gonna dive in and talk even more about Adobe Firefly in just a couple minutes here, but there's a few other things that I wanna talk to you about first in the world of Large Language Models.
ここからすぐにAdobe Fireflyについてより詳しく話していきますが、その前に大規模言語モデルの世界について話しておきたいことがいくつかあります。
Starting with Anthropic here, we've been getting a lot of news lately out of OpenAI, out of Google, out of Mistral, out of DeepSeek, out of Alibaba.
まずAnthropicについてですが、最近OpenAI、Google、Mistral、DeepSeek、Alibabaから多くのニュースが出ています。
All of these companies are making big splashes and Anthropic's been kind of quiet.
これらの企業は大きな話題を呼んでいる一方で、Anthropicはどちらかというと静かでした。
Well, Dario, the CEO of Anthropic has been speaking up more and more lately.
しかし、AnthropicのCEOであるDarioが最近ますます発言を増やしています。
Apparently they're taking a different approach.
どうやら彼らは異なるアプローチを取っているようです。
They've developed a hybrid AI model that includes reasoning capabilities, but the model can also handle simpler tasks quickly without the extra work by acting like a traditional Large Language Model.
彼らは推論能力を備えたハイブリッドAIモデルを開発しましたが、このモデルは従来の大規模言語モデルのように振る舞うことで、余分な処理なしに単純なタスクを素早く処理することもできます。
So basically they've been working on what I just mentioned.
つまり、彼らは私が今言及したことに取り組んでいたのです。
Sam Altman wants to do next, a model where you give it a prompt and it decides whether it should use deeper reasoning with the model or to just give you back a quick answer.
Sam Altmanが次にやりたいと考えているのは、プロンプトを与えると、より深い推論を使うべきか、それとも素早い回答を返すべきかを判断するモデルです。
Anthropic's new hybrid model gives customers the ability to control how much computational resources it spends on a query.
Anthropicの新しいハイブリッドモデルは、クエリにどれだけの計算リソースを使うかをユーザーが制御できるようにしています。
In other words, how long it will reason about that problem.
つまり、その問題についてどれだけの時間推論するかということです。
Now, one thing that really excites me about this new Anthropic model is specifically for coding, because to this day, most people that I know that use AI for coding are still using Claude 3.5 Sonnet.
この新しいAnthropicモデルで私が特に興奮していることの1つはコーディングに関してです。なぜなら、今日に至るまで、私の知る限りコーディングにAIを使用している人のほとんどが、依然としてClaude 3.5 Sonnetを使用しているからです。
And when I mess around with code and AI myself, I'm still using Claude 3.5 Sonnet even more so than things like o1 pro mostly because o1 pro doesn't have API yet, so it doesn't connect up with tools like cursor and windsurf and some of the other tools that I use, but Claude still seems to be the best fit for those tools.
そして私自身もコードとAIを扱う際、o1 proのようなものよりもClaude 3.5 Sonnetを使用しています。主にo1 proにはまだAPIがないため、cursorやwindsurfなど私が使用する他のツールと連携できないからですが、Claudeは依然としてそれらのツールに最適なようです。
And we can see here Anthropics upcoming model has also made especially strong strides in coding, which has emerged as one of the strongest applications of generative AI in business.
ここで分かるように、Anthropicの新しいモデルはコーディングにおいて特に大きな進歩を遂げており、これはビジネスにおける生成AIの最も強力な応用の1つとして浮上しています。
While OpenAI's reasoning models are better at more academic problems, like competitive programming questions, Anthropik's model is more adept at the sort of coding tasks engineers working in business might do.
OpenAIの推論モデルは競技プログラミングの問題のようなよりアカデミックな問題に優れている一方で、Anthropicのモデルはビジネスで働くエンジニアが行うような種類のコーディングタスクにより適しています。
We don't know exactly when this model's coming out from Anthropic, but they did say in this article, the company plans to release it in the coming weeks.
このモデルがAnthropicからいつ正確にリリースされるかは分かりませんが、この記事では数週間以内にリリースする予定だと述べています。
So maybe sometime February or March, we'll see, but I'm really excited about this one, specifically for the coding implications.
おそらく2月か3月のどこかでしょう。特にコーディングへの影響について、私は本当に楽しみにしています。
We got some updates out of Perplexity this week as well.
今週はPerplexityからも更新情報がありました。
Perplexity now offers file and image uploads with an expanded context window of a million tokens, and it's free for all signed in users.
Perplexityは現在、100万トークンの拡張されたコンテキストウィンドウでファイルと画像のアップロードを提供しており、サインインしたユーザーは全て無料で利用できます。
You just got to make sure you're set on the auto mode in order to use it.
使用するにはオートモードに設定されていることを確認するだけです。
Perplexity also rolled out a new Large Language Model that they're using which is actually based on Llama's 3.370b model and it 70 B model.
Perplexityはまた、Llamaの3.370bモデルと70Bモデルに基づいた新しい大規模言語モデルも展開しました。
And it uses the new cerebris inference infrastructure, which means it loads really, really fast.
そして新しいcebris推論インフラストラクチャを使用しており、これは非常に高速に読み込めることを意味します。
It actually loads at 1200 tokens per second.
実際に1秒あたり1200トークンで読み込みます。
We can see in this little comparison video here that Gemini flash runs at about 140 tokens per second, and Claude 3.5 Sonnet is about 75 tokens per second.
この比較動画で見ると、Gemini flashは1秒あたり約140トークン、Claude 3.5 Sonnetは1秒あたり約75トークンで動作しています。
So 1,200 tokens per second is really freaking fast.
つまり、1秒あたり1,200トークンというのは本当に驚くべき速さです。
And some other interesting kind of weird news about Perplexity, They actually put on a blog post on February 13th, the day that I'm recording this video called introducing Perplexity, deep research.
そしてPerplexityについての他の興味深い少し変わったニュースですが、彼らは実際にこのビデオを録画している2月13日に「Perplexity Deep Researchの紹介」というブログ投稿を公開しました。
You can even see it's still indexed on Google right here.
ここでGoogleにまだインデックスされているのを見ることができます。
And in the little description, it says today we're launching deep research to save you hours of time by conducting in-depth research and analysis on your behalf.
その短い説明には、「本日、詳細な研究と分析を代行することで何時間もの時間を節約できるDeep Researchを開始します」と書かれています。
However, if you click into the article, it gives us a 404 page.
しかし、記事をクリックすると404ページが表示されます。
Like they took the whole thing down for some reason.
何らかの理由で記事全体を取り下げたようです。
So I don't know if they prematurely posted about Perplexity, deep research, or if they're going to rebrand it as something else since both Google and OpenAI use the branding of deep research.
Perplexityのディープリサーチについて早まって投稿したのか、それともGoogleとOpenAIの両方がディープリサーチというブランディングを使用しているため、別の名前にリブランドするのか、私にはわかりません。
Here's one of the screenshots that shows the simple QA benchmark, which basically asks it a whole bunch of questions and figures out how factual and accurate a model is essentially.
これは単純なQ&Aベンチマークを示すスクリーンショットの1つで、基本的に大量の質問を投げかけ、モデルがどれだけ事実に基づいており、正確であるかを本質的に判断するものです。
And you can see that it scored like 95% this Perplexity deep research where the next best model was the OpenAI.
このPerplexityディープリサーチは95%というスコアを記録し、次に良かったモデルはOpenAIだったことがわかります。
Oh one scoring under 50%.
ああ、50%以下のスコアを取ったものが1つありました。
Now this image here also doesn't include a one pro oh three deep seek.
なお、この画像にはone pro oh three deep seekも含まれていません。
R one, a whole bunch of the new models that people are talking about right now isn't included on this, but this was the screenshot they were showing on their original blog posts.
R oneや、現在話題になっている新しいモデルの多くはこれに含まれていませんが、これは彼らが元のブログ投稿で示していたスクリーンショットです。
Here's another one showing how fast deep research was.
こちらはディープリサーチがどれだけ速かったかを示す別のスクリーンショットです。
This was a screenshot from that same blog showing that it took about three minutes to do some research, used 25 steps, used 42 different sources.
これは同じブログからのスクリーンショットで、研究に約3分かかり、25のステップを使用し、42の異なるソースを使用したことを示しています。
And then I believe the output that it gave back was 1,321 words.
そして、出力された結果は1,321単語だったと思います。
So it was a pretty like in-depth write-up.
かなり詳細な記述だったということですね。
And then finally, there was also this screenshot that showed Perplexity side by side with perplexities deep research, showing that a typical query on Perplexity looks like this on the left here, and one that used deep research just shows off a lot more information.
そして最後に、PerplexityとPerplexityのディープリサーチを並べて表示したスクリーンショットもありました。左側が通常のPerplexityでの典型的なクエリの表示で、ディープリサーチを使用したものはより多くの情報を表示していることがわかります。
If I go to my Perplexity account, There is no deep research option.
私のPerplexityアカウントを確認しても、ディープリサーチのオプションはありません。
So my guess is they might have released the blog post before the feature was rolled out, but it looks like Perplexity is about to have its own deep research feature.
私の推測では、機能の展開前にブログ投稿を公開してしまったのかもしれませんが、Perplexityは間もなく独自のディープリサーチ機能を持つことになりそうです。
If you're a Gemini advanced user, they just rolled out the ability to have memory from past chats.
Gemini Advancedユーザーの場合、過去のチャットの記憶を持つ機能が just 展開されました。
So when you talk to Gemini, it can actually look in previous conversations that you've had with Gemini and use information from those previous conversations in response to your new conversation.
そのため、Geminiと会話する際、Geminiとの過去の会話を参照し、新しい会話への応答にそれらの過去の会話からの情報を使用することができます。
And it does say you are in control over what information is stored.
そして、保存される情報は自分でコントロールできると述べています。
You can easily review, delete, or decide how long to keep your chat history.
チャット履歴の確認、削除、保持期間の決定が簡単にできます。
You can also turn off Gemini apps activity altogether.
Geminiアプリのアクティビティを完全にオフにすることもできます。
So if you don't want it to remember stuff from past conversations.
つまり、過去の会話の内容を記憶させたくない場合は。
You don't have to leave that turned on.
その機能をオンにしておく必要はありません。
If you don't want a few weeks ago, we talked about a cool new feature inside of Google labs called whisk.
数週間前、私たちはGoogle Labsの中のwhiskという新しいクールな機能について話しました。
It's a feature where you can blend multiple images together, multiple styles together, and it will give you an output based on all of the inputs that you gave it.
これは複数の画像や複数のスタイルを組み合わせることができる機能で、提供したすべての入力に基づいて出力を生成します。
And well, this week it's gone global.
そして今週、これはグローバルに展開されました。
So now it's available in over a hundred different countries.
現在、100カ国以上で利用可能になっています。
YouTube teased out some new AI features that they're working on.
YouTubeは、開発中の新しいAI機能についてティーザーを公開しました。
The CEO Neil Mohan wrote up a blog post about his four big bets for YouTube in 2025.
CEOのニール・モハンは、2025年のYouTubeに関する4つの大きな賭けについてブログ投稿を書きました。
And number four on his big bets is AI will make it easier to create and enhance the YouTube experience for everyone.
そして4番目の大きな賭けは、AIが誰にとってもYouTubeの体験をより作りやすく、より良いものにするというものです。
They say that they're investing in tools to help creators in everyday work of creation.
彼らは、クリエイターの日々の制作作業を支援するツールに投資していると述べています。
Things like coming up with new video ideas, titles, and thumbnails.
新しい動画のアイデア、タイトル、サムネイルの考案などです。
They're also using AI to help creators find new audiences.
また、クリエイターが新しい視聴者を見つけるのを支援するためにAIを使用しています。
Basically, they're going to do that by rolling out dubbing so that if a video is recorded in English, I can put in automatically AI generated Spanish version up and an automatically AI generated German version up.
基本的に、吹き替えを展開することでそれを実現します。英語で録画された動画に対して、自動的にAIで生成されたスペイン語版やドイツ語版を公開できるようになります。
And that'll make it easier for these videos to be consumed in those countries, helping the videos find more audiences.
そうすることで、それらの国々で動画がより簡単に視聴できるようになり、より多くの視聴者を見つけることができます。
And since we're talking about YouTube, they're actually rolling out their VO2 model inside of YouTube Shorts.
そして、YouTubeと言えば、彼らは実際にYouTube Shorts内でVO2モデルを展開しています。
The article here says, today, DreamScreen is getting another major upgrade with the integration of Google DeepMind's newest video generation model VO2.
この記事によると、今日、DreamScreenはGoogle DeepMindの最新の動画生成モデルであるVO2の統合により、もう一つの大きなアップグレードを受けているとのことです。
And we're also now launching a new capability powered by VO2, generating standalone video clips that you can add to any of your shorts.
そして今、VO2を活用した新機能も立ち上げており、ショートに追加できるスタンドアロンの動画クリップを生成することができます。
Here's an example short they shared of what that could look like.
これが、その機能がどのようなものになるかを示す彼らが共有したショートの例です。
Yeah, sure.
ええ、もちろん。
No, no, no, I'm just getting home now.
いやいやいや、今帰ってきたところです。
Yeah, yeah, no, that's crazy.
ええ、ええ、いや、それはすごいですね。
No, no, absolutely not.
いいえ、いいえ、絶対にありません。
Yeah.
はい。
Yeah, oh, I have to take my dog.
ええ、ああ、犬の散歩に行かないと。
Ah!
あっ!
You want a treat?
おやつが欲しい?
Good girl.
いい子だね。
Good girl.
いい子だね。
So I haven't played with that yet, but apparently you can do that straight from within the YouTube app while creating shorts now.
私はまだ試していませんが、どうやらYouTubeアプリ内でショートを作成中に直接それができるようになったようです。
And as I mentioned earlier, Adobe released Firefly video model this week.
先ほど申し上げた通り、AdobeはFireflyビデオモデルを今週リリースしました。
And it's actually quite impressive with a lot of control that you can do inside of the video.
実際、ビデオ内で多くのコントロールができる点で、かなり印象的です。
We can see some examples of like aerial footage of a majestic snow-capped mountain reflected in a calm lake, a flickering flame on a black background only, camera is steady and there are no objects in the video other than the flame.
雄大な雪をかぶった山々が静かな湖面に映る空撮映像や、黒い背景に揺らめく炎だけを映した安定したカメラワークの映像など、いくつかの例を見ることができます。
Cloudy mist on a green screen background only.
グリーンスクリーンの背景に映る雲がかかった霧のみの映像。
Camera is steady and there are no objects in the video other than the mist.
カメラは安定しており、霧以外の物体は映像に映っていません。
I think it's really cool that you can create really good green screen and like black background video with this.
これを使って高品質なグリーンスクリーンや黒背景の映像を作れるのは、本当にすごいと思います。
We've got a lion here.
ここにライオンがいます。
We've got like a giant whale, really, really cool videos.
巨大なクジラなど、本当にクールな映像があります。
In fact, let's jump in and play with it for a second.
実際に、少しの間試してみましょう。
If we go to firefly.adobe.com, we can see we have an option for video at the top and we've got text to video, image to video, translate video.
firefly.adobe.comにアクセスすると、上部にビデオのオプションがあり、テキストからビデオ、画像からビデオ、ビデオの変換などの機能があります。
and then coming soon, speech enhancer and text to avatar.
そして近日公開予定の音声エンハンサーとテキストからアバターの機能があります。
But let's go ahead and do text to video here.
それでは、ここでテキストからビデオを試してみましょう。
We can play with the aspect ratio, widescreen or portrait, shot size.
アスペクト比(ワイドスクリーンまたはポートレート)やショットサイズを調整できます。
We can do extreme close-up, close-up shot, medium shot, long shot, extreme long shot, camera angle.
超クローズアップ、クローズアップショット、ミディアムショット、ロングショット、超ロングショット、カメラアングルなどを設定できます。
We've got aerial shot, eye level, high angle, low angle, top down.
空撮、アイレベル、ハイアングル、ローアングル、真上からの撮影などのオプションがあります。
We've got options for the motion, like zoom in, zoom out, move left, move right, tilt up, tilt down static handheld.
ズームイン、ズームアウト、左移動、右移動、上向きチルト、下向きチルト、手持ち撮影など、動きのオプションもあります。
Let's do our typical wolf howling at the moon and then I'll do a high angle shot for no.
いつものように月に向かって吠える狼を作成し、ハイアングルショットは使いません。
Let's do a low angle shot on this one, maybe with a slight zoom out.
この映像ではローアングルショットを使い、少しズームアウトさせてみましょう。
Let's generate it all right and here's what we get with our wolf howling at the moon.
それでは生成してみましょう。月に向かって吠える狼の映像がこちらです。
Low angle shot, zoom out.
ローアングルショット、ズームアウトです。
We see the moon and it zooms out with past the wolf right under the wolf.
月が見え、狼の真下から狼を通り過ぎてズームアウトしていきます。
I actually think it's a really cool shot because it kind of comes in under the wolf's chin a little bit.
狼の顎の下からカメラが入っていくような感じで、とてもクールなショットだと思います。
Definitely an angle you don't really see often when you want to get a wolf out at the moon never really get the camera coming from underneath like that.
月に向かって吠える狼を撮影する時に、下からカメラを入れるような珍しいアングルです。
Now let's try something totally different.
では、まったく違うものを試してみましょう。
Let's try drone footage flying over an African desert landscape with elephants.
アフリカの砂漠の風景を象と共にドローンで空撮してみましょう。
I'm going to switch this to an aerial shot and then I'm just going to remove the motion here.
これを空撮に切り替えて、動きは削除します。
Let's generate that and that first generation took maybe about a minute and a half to two minutes somewhere between 90 seconds and two minutes and here's what we get from that.
生成してみましょう。最初の生成には1分半から2分ほどかかりましたが、結果はこちらです。
Definitely looks like a drone flying over an African desert.
まさにアフリカの砂漠上を飛ぶドローンからの映像のようです。
Even the camera movements, how the camera's sort of like jerky at the end there, really reminds me of like a real sort of drone shot.
最後の部分でカメラが少し揺れる動きまで、本物のドローン撮影を思わせます。
See how it kind of like pivots a little bit, like they're adjusting the camera.
カメラを調整するように少し回転する様子を見てください。
All right, I'm actually gonna try to modify one of the prompts that they showed off in their page right here.
では、彼らのページで紹介されているプロンプトの1つを修正してみます。
I'm gonna try a truck on a windy road that is driving towards the sunset made of clay claymation on the horizon, you can see a rocket taking off leaving a trail of rainbow smoke.
クレイメーションで作られた夕日に向かって曲がりくねった道を走るトラックを試してみます。地平線には虹色の煙の軌跡を残してロケットが打ち上がっているのが見えます。
Let's see if we can do it.
やってみましょう。
All right, here's what we got from that.
はい、これが結果です。
We see the truck driving down the road, claymation.
クレイメーションで道を走るトラックが見えます。
There's our rocket with the rainbow smoke.
虹色の煙を出すロケットもあります。
I mean, it kind of nailed it.
まさに狙い通りの結果が出ました。
Let's test another one here where we give it a ton of detail.
では、さらに詳細な指示を与えて別のものを試してみましょう。
They have this prompt where they're doing a lion, but I wanna change it to a different animal and see how it comes out.
ライオンを使ったプロンプトがありますが、別の動物に変えてみて、どうなるか見てみましょう。
I'm gonna change it from a lion to a wolf.
ライオンから狼に変更します。
So a majestic male wolf yawns while surveying his domain from a rocky outcrop at sunrise, golden light ilLumminating his, I mean, I guess main kind of works there as well.
「雄大な雄狼が日の出時に岩の突出部から自分の縄張りを見渡しながらあくびをし、金色の光が彼のたてがみを照らしている」というプロンプトです。たてがみという表現はここでも使えそうですね。
I'll just leave it shot with a Nikon D850, 600 millimeter, et cetera, et cetera.
Nikon D850、600ミリメートルレンズでの撮影など、その他の設定はそのままにしておきます。
Let's go ahead and leave all the rest of the prompt that it had before and see how it does when we swap it to a wolf.
残りのプロンプトはそのままにして、ライオンを狼に変えた場合どうなるか見てみましょう。
And here's what we got out of that one.
これが結果です。
We got a wolf
狼が映っています。
And then it looks at the camera.
そして、カメラの方を見ています。
The way it gets up and turns, I don't know, something a little funky there, but this is the worst it's gonna get.
立ち上がって回転する様子が何だか、ちょっと変な感じですが、これが最悪の状態です。
And for our last little test here, let's try the image to video module inside of Adobe Firefly.
最後のテストとして、Adobe Fireflyの画像から動画への変換モジュールを試してみましょう。
Here, I want to try giving it this image of like a firefighter spraying water on a fire.
ここでは、消防士が火に水を放射している画像を使って試してみたいと思います。
Although this is an AI generated image, you can tell cause it looks like the guy's wearing a bucket on his head.
これはAIが生成した画像ですが、その人が頭にバケツをかぶっているように見えることでわかります。
But I want to see how it performs with this image here and see if it can animate the fire and the water and that sort of stuff.
しかし、この画像でどのように動作するか、火や水などをアニメーション化できるかを見てみたいと思います。
So we'll go ahead and add a first frame here.
では、最初のフレームを追加していきましょう。
We're pulling this image, a man spraying a water hose on a fire.
消火ホースで火に水を放射している男性の画像を取り込んでいます。
Let's just see what it does.
どうなるか見てみましょう。
And here's what we get from that.
そしてこれが結果です。
I mean, actually fairly realistic looking water, especially right in the beginning here.
実際かなりリアルな見た目の水が出来上がりました。特に始めの部分がそうです。
And the fire, I mean, kind of looks like an explosion from a volcano or something, but it's still a pretty cool looking visual.
そして火については、火山からの爆発のように見えますが、それでもかなりクールな見た目になっています。
And one thing that I do really appreciate about Adobe Firefly is that it is designed to be commercially safe.
Adobe Fireflyについて私が本当に評価しているのは、商用利用に適するように設計されているということです。
So when they trained it, they trained it only on videos that they had licenses to and public domain video so that if you're someone that is concerned with the ethics of how some of these video models were trained, or maybe some of the copyright implications of how some of these video models were trained, well, Adobe Firefly is probably the one you're gonna wanna use because you know the origin of the training material.
彼らがトレーニングを行う際、ライセンスを持っている動画とパブリックドメインの動画のみを使用したので、これらの動画モデルのトレーニング方法の倫理性や著作権の影響を懸念している人にとって、Adobe Fireflyは最適な選択肢でしょう。なぜなら、トレーニング材料の出所が明確だからです。
So thank you so much again to Adobe for sponsoring this video.
このビデオのスポンサーとなってくれたAdobeに、改めて感謝します。
And I'm going to move along to some other video news.
では、他の動画関連のニュースに移りましょう。
This week, Luma rolled out their new Ray 2 image to video model.
今週、LumaがRay 2という新しい画像から動画へのモデルをリリースしました。
They already rolled out Ray to text a video where you can enter a prompt and get a video.
彼らはすでに、プロンプトを入力して動画を生成できるRayをリリースしています。
Now you can start with an image and turn that image into a video as well.
今度は画像から始めて、その画像を動画に変換することもできるようになりました。
And from the examples I've seen, it looks pretty impressive.
私が見た例からすると、かなり印象的な結果のようです。
I haven't had a ton of time to play with this one yet, but I'm sure we'll explore it in a future video.
まだこれを十分に試す時間がありませんが、将来のビデオで詳しく探っていくことは間違いありません。
If you're somebody that likes to use Bolt.new to develop apps, well, now you can develop native mobile apps.
Bolt.newを使ってアプリ開発をしている人は、今度はネイティブモバイルアプリを開発することができます。
They say you can now go from idea to app store just by prompting bolt, no coding necessary.
boltにプロンプトを入力するだけで、コーディング不要でアイデアからアプリストアまで行けると彼らは言っています。
Definitely something I'll want to play with in the future.
将来的に絶対に試してみたいものです。
I've built various AI tools using AI before, but they've all been desktop or web-based tools.
以前AIを使って様々なAIツールを作りましたが、それらはすべてデスクトップかウェブベースのツールでした。
I haven't tried to build any mobile apps yet.
まだモバイルアプリの開発は試していません。
So this should be a fun RABBIT hole to go down in the future as well.
これも将来的に面白い探求の旅になりそうです。
While we're on the topic of AI coding, Winsurf this week released Winsurf Wave 3, their newest version of Winsurf.
AIコーディングの話題といえば、Winsurfが今週、最新バージョンのWinsurf Wave 3をリリースしました。
It now leverages model context protocol.
これは現在、モデルコンテキストプロトコルを活用しています。
So you can bring in more tools and it can find context from more things around the web.
そのため、より多くのツールを取り入れることができ、ウェブ上のより多くのものからコンテキストを見つけることができます。
They added tab to jump a turbo mode to run terminal commands for you, which is really, really helpful.
ターミナルコマンドを実行するためのタブジャンプターボモードが追加されました。これは本当に便利です。
Lately, I've mostly been using cursor.
最近は主にcursorを使っています。
And one of the reasons I really like cursor was that it would just run terminal commands for me.
私がcursorを本当に気に入っている理由の1つは、ターミナルコマンドを自動実行してくれることでした。
Well, now it looks like you could do that in windsurf as well.
そして今や、winsurfでもそれができるようになったようです。
Drag and drop images.
画像のドラッグアンドドロップ。
This is another really cool one because if you're getting an error on whatever you're trying to build, you can literally just screenshot the screen and drag and drop the screenshot in and say, this is what I'm running into.
これも本当にクールな機能です。なぜなら、何かを作ろうとしてエラーが出た場合、画面をスクリーンショットして、それをドラッグアンドドロップし、「これが問題です」と言えばいいからです。
Help me solve it.
これを解決してください。
So that makes things a lot easier as well.
そのため、これもまた物事をずっと簡単にしてくれます。
So some pretty cool new quality of life updates to windsurf this week.
というわけで、今週はwinsurfにかなりクールな使い勝手の向上アップデートがありました。
There was also the AI action summit out in France and the U.S.
Vice President JD Vance was there to talk about how basically the U.S.
was going to stay dominant in AI and that he urged other countries to not be so restrictive with AI because it's really going to slow down progress.
フランスでAIアクション・サミットが開催され、米国副大統領のJDヴァンスが出席し、基本的に米国がAIで支配的地位を維持していくこと、そしてAIに対して制限的になりすぎると進歩が本当に遅くなってしまうため、他国に対してそうならないよう促したことについて話をしました。
I'm not going to play the whole thing, but here's a couple little sound bites.
全部は再生しませんが、いくつかの音声クリップをご紹介します。
I'd like to make four main points today.
本日は4つの主要なポイントをお話ししたいと思います。
Number one, this administration will ensure that American AI technology continues to be the gold standard worldwide and we are the partner of choice for others, foreign countries, and certainly businesses as they expand their own use of AI.
第一に、この政権は米国のAI技術が世界的な金字塔であり続けることを確実にし、他国や企業が自身のAI利用を拡大する際の選ばれるパートナーであり続けることを保証します。
Number two, we believe that excessive regulation of the AI sector could kill a transformative industry just as it's taking off.
第二に、私たちはAI分野の過度な規制が、まさに離陸しようとしている革新的な産業を潰してしまう可能性があると考えています。
And we'll make every effort to encourage pro-growth AI policies.
そして、私たちは成長促進型のAIポリシーを奨励するためにあらゆる努力を行います。
And I like to see that deregulatory flavor making its way into a lot of the conversations this conference.
そして、この会議での多くの会話に規制緩和の風味が入り込んでいるのを見るのは好ましいことです。
Number three, we feel very strongly that AI must remain free from ideological bias and that American AI will not be co-opted into a tool for authoritarian censorship.
第三に、私たちはAIがイデオロギー的偏見から自由でなければならず、米国のAIが権威主義的な検閲の道具に転用されてはならないと強く感じています。
And finally, number four, the Trump administration will maintain a pro-worker growth path for AI, so it can be a potent tool for job creation in the United States.
そして最後に、第四として、トランプ政権は労働者寄りの成長路線をAIについて維持し、米国での雇用創出の強力なツールとなるようにします。
And I appreciate Prime Minister Modi's point.
そして、モディ首相のポイントに感謝しています。
AI, I really believe, will facilitate and make people more productive.
AIは本当に人々の生産性を促進し、向上させると私は信じています。
It is not going to replace human beings.
AIは人間に取って代わることはありません。
It will never replace human beings.
AIは決して人間に取って代わることはないでしょう。
And I think too many of the leaders in the AI industry, when they talk about this fear of replacing workers, I think they really missed the point.
そして、AI業界の多くのリーダーたちが労働者の代替への恐れについて語る時、彼らは本当に要点を見失っていると思います。
AI, we believe, is going to make us more productive, more prosperous, and more free.
AIは私たちをより生産的に、より豊かに、そしてより自由にすると私たちは信じています。
And for the most part, he goes on to elaborate on those four main points that he just made.
そして、大部分において、彼は先ほど述べた4つの主要なポイントについて詳しく説明を続けています。
The auction house Christie's announced that they're going to do an AI art auction.
オークションハウスのクリスティーズがAIアートのオークションを開催すると発表しました。
We can see in their X announcement here, enter the world of augmented intelligence.
彼らのX(旧Twitter)での発表で「拡張知能の世界へようこそ」と述べています。
Christie's first auction solely offering artworks created with AI, featuring works from Rafiq Anadol, Claire Silver, Hendar Van Arman, Holly Herndon, and Matt Dryhurst.
クリスティーズ初のAIで制作されたアートワークのみを扱うオークションで、ラフィック・アナドル、クレア・シルバー、ヘンダー・ヴァン・アーマン、ホリー・ハーンドン、マット・ドライハーストの作品が出品されます。
And there's a list of a whole bunch of other artists here that are participating, and they're actually going to auction off these AI works of art.
そして、参加する他の多くのアーティストのリストがあり、これらのAIアート作品が実際にオークションにかけられます。
Now, most of these artists, I don't know all of their backstories, but I do know Rafika Anadol and I do know Claire Silver.
さて、これらのアーティストの大部分について、私は彼らの背景をすべては知りませんが、ラフィカ・アナドルとクレア・シルバーについては知っています。
They are not just going and prompting something and taking that prompt and submitting it to auction to make money.
彼らは単にプロンプトを入力して、そのプロンプトの結果を取ってお金を稼ぐためにオークションに出品しているわけではありません。
No, these people are using AI as a creative tool and doing tons and tons and tons of work with AI to get the exact output they were looking for.
いいえ、これらの人々はAIを創造的なツールとして使用し、求めていた正確なアウトプットを得るために膨大な量の作業をAIで行っています。
So it's not just like, Hey, prompt in image out, submit it for auction.
つまり、これは単に「プロンプトを入れて画像を出して、オークションに出す」というようなものではありません。
And because people know my name, it's going to go for a lot.
そして、人々が私の名前を知っているから高値がつくだろう、というものでもありません。
No, these are actually works that they put a ton of effort into.
いいえ、これらは実際に彼らが多大な努力を注ぎ込んだ作品なのです。
And AI was used as a tool, as a piece of the puzzle to create that art.
そして、AIはそのアートを創造するためのパズルの一片として、ツールとして使用されました。
Yet people aren't very happy with the fact that Christie's is doing this auction and a petition has been started where almost 6,000 people have signed it as of the recording of this, calling to cancel the Christie's AI art auction.
しかし、クリスティーズがこのオークションを行うという事実に対して人々は非常に不満を持っており、この録音時点で約6,000人が署名した請願が始まり、クリスティーズのAIアートオークションの中止を求めています。
Their argument here is many of the artworks you plan to auction were created using AI models that are known to be trained on copyrighted work without a license.
彼らの主張は、オークションに出品予定の多くのアート作品が、ライセンスなしで著作権のある作品を使って訓練されたことで知られるAIモデルを使用して作成されたということです。
These models and the companies behind them exploit human artists using their work without permission or payment to build commercial AI products that compete with them.
これらのモデルとその背後にある企業は、人間のアーティストの作品を許可や支払いなしで使用して、彼らと競合する商業的なAI製品を構築することで、人間のアーティストを搾取しています。
Your support of these models and the people who use them rewards and further incentivizes AI companies' mass theft of human artists' work.
これらのモデルとそれを使用する人々への支援は、AI企業による人間のアーティストの作品の大規模な盗用を報奨し、さらに助長することになります。
Again, like I just mentioned, a handful of the artists that I am familiar with aren't thieves, aren't trying to steal other artists' work, aren't out there trying to get rich off the back of other people's hard work.
繰り返しになりますが、先ほど述べたように、私が知っているアーティストの一部は泥棒ではなく、他のアーティストの作品を盗もうとしているわけでもなく、他人の努力の上に立って金持ちになろうとしているわけでもありません。
Maybe some of the artists in the auction are, I don't know for sure, but the ones that I'm familiar with definitely put a lot of time and are just as much of artists as anybody who didn't use AI to create this stuff.
オークションに参加するアーティストの中にはそういう人もいるかもしれません、確かなことは分かりませんが、私が知っているアーティストたちは間違いなく多くの時間を費やしており、AIを使用しなかった他のアーティストと同じくらいアーティストなのです。
And finally, to wrap this up, let's wrap it up with a fun one.
そして最後に、これを締めくくるために、楽しい話題で締めくくりましょう。
Apple engineers created an expressive Pixar-like table lamp with AI capabilities.
アップルのエンジニアたちがAI機能を備えた表現力豊かなピクサーのようなテーブルランプを作成しました。
So check this out.
では、これをご覧ください。
They built this lamp that actually can convey emotion just with its movements and it's all using AI to do it.
彼らは動きだけで感情を伝えることができるランプを作りました。それはすべてAIを使用して実現しています。
So you can kind of infer an emotion from it.
そのため、ランプから感情を推測することができます。
It also seems like this lamp could be used.
このランプは実用的にも使えそうです。
So if you're like reading a book and you need to move the book around or move the lamp closer, it'll just automatically do that for you.
例えば、本を読んでいて本を動かしたりランプを近づけたりする必要がある場合、それを自動的にしてくれます。
Or if you want the lamp to point a different way and light up something else, it can do that.
また、ランプを別の方向に向けて他のものを照らしたい場合も、それができます。
So it looks pretty interesting, clearly inspired by that Pixar lamp.
とても興味深く、明らかにピクサーのランプからインスピレーションを得ているようです。
It says here the purpose, like any ordinary lamp, is to provide light via a bulb, but it does so as if it is aware of the needs of its owner.
ここには、通常のランプと同様に電球で光を提供することが目的だと書かれていますが、所有者のニーズを理解しているかのように機能します。
It can move its face closer, for example, or move further away via pushing gesture or even by responding to oral requests.
例えば、顔を近づけたり、ジェスチャーで遠ざけたり、音声リクエストに応じて動いたりすることができます。
I just thought that was a fun thing to end with.
これは締めくくりに良い話題だと思いました。
I always like to end with robot type stuff or just cool gadgets, and I thought that one fit the bill for this week.
私はいつもロボット系の話題やクールなガジェットで締めくくるのが好きで、今週はこれがぴったりだと思いました。
But that's what I got for you, a lot of interesting stuff still happening in the AI world, some drama, some new updates, some new cool tools rolling out.
これが今回お伝えしたいことですが、AI業界ではまだまだ興味深いことが起きていて、ドラマもあれば、新しいアップデートや新しいクールなツールのリリースもあります。
It's never a dull moment in AI, and I do my best to stay in the loop with it all, keep up with the news on a daily basis, play with all of the different tools, and see what they're capable of.
AIには退屈な瞬間がなく、私はすべての情報を把握し、日々ニュースをチェックし、さまざまなツールを試して、それらの可能性を確認するよう努めています。
And then turn around and make videos to try to keep you looped in so that you never feel left out on what's going on in the AI world.
そして、皆さんがAI業界の動向から取り残されないように、情報を共有する動画を作っています。
That's exactly what I have this channel for.
それがまさに、このチャンネルを運営している目的です。
And if you like stuff like that, make sure you like this video and you subscribe to this channel to make sure more videos like it show up in your feed.
このような内容が好きな方は、このような動画がフィードに表示されるように、この動画にいいねを押してチャンネル登録をしてください。
Also be sure to check out Future Tools.io where I curate all the cool AI tools I come across.
また、私が出会った素晴らしいAIツールをまとめているFuture Tools.ioもぜひチェックしてください。
I've got over 3,200 in there right now.
現在、3,200以上のツールを掲載しています。
They're easy to sort for the exact tool you're looking for by using these little toggles here or by searching exactly the type of tool you need.
ここにある小さなトグルを使用するか、必要なツールのタイプを検索することで、探しているツールを簡単に見つけることができます。
The AI news page is updated daily.
AIニュースページは毎日更新されています。
So even news that doesn't make these videos is updated on this list.
そのため、これらの動画で取り上げていないニュースもこのリストで更新されています。
And I've got a free newsletter.
また、無料のニュースレターも提供しています。
If you join the free newsletter, I'll email you twice a week with all the most important news in the AI world and just the coolest tools I come across.
無料ニュースレターに登録すると、AI業界の最も重要なニュースと私が見つけた最もクールなツールについて、週2回メールでお知らせします。
And if you sign up, you'll get free access to the AI income database, a database of various cool ways to make money using some of the AI tools that are available on Future Tools.
また、登録すると、Future Toolsで利用可能なAIツールを使用してお金を稼ぐさまざまなクールな方法をまとめたAI収入データベースに無料でアクセスできます。
It's all totally free to sign up for over at futuretools.io.
futuretools.ioでの登録は完全に無料です。
And one last really cool thing I'm going to be doing, I'm going to be giving away an NVIDIA RTX 5090, their most top of the line, highest end GPU.
そして最後に本当にクールなことをお知らせします。NVIDIA RTX 5090、彼らの最上位の最高級GPUをプレゼントする予定です。
And I want to be sharing more details about how you can win that GPU starting in videos next week.
そして、来週の動画からこのGPUを獲得する方法の詳細をお伝えしていく予定です。
So make sure you tune into this channel to learn more about how you can win that.
そのため、獲得方法の詳細を知るために、このチャンネルをチェックしてください。
It's a $2,000 GPU.
これは2,000ドルのGPUです。
If you can even find one right now.
今見つけることができれば、の話ですが。
And I've got an extra one that I'm going to be giving away on this channel.
そして、このチャンネルでプレゼントする予備を1台持っています。
I'll give you a hint.
ヒントを出しましょう。
You do have to be subscribed to the newsletter and subscribe to the channel.
ニュースレターとチャンネルの両方を購読する必要があります。
And there will be one other easy step and I'll share that with you next week, but you can do the first two now.
そしてもう1つ簡単なステップがありますが、それは来週お伝えします。最初の2つは今すぐできます。
Anyway, that's all I got for you.
とにかく、今回はこれでおしまいです。
Once again, really, really appreciate you nerding out with me.
改めて、私とともにオタク的な話題に付き合ってくれて本当に感謝します。
Thank you so much to Adobe for sponsoring this one.
このスポンサーとなってくれたAdobeに大変感謝します。
Hopefully I'll see you in the next video.
次の動画でお会いできることを願っています。
Bye-bye.
さようなら。