OpenAIが新しいOperator プラットフォームを発表し、ブラウザを通じて様々なタスクを自動的に実行できる機能を提供開始しました。これはAnthropicのツール使用機能に類似していますが、より簡単にセットアップが可能です。また、OpenAI、Oracle、ソフトバンクはStargate Project を立ち上げ、4年間で5,000億ドルをAIインフラに投資する計画を発表しました。中国発のオープンソースモデルDeepSeek R1 がOpenAIのo1 モデルと同等の性能を達成し、無料で利用可能となりました。Perplexityは新しいAIアシスタントをAndroid向けにリリースし、Google DeepMindはGemini 2.0 Flash Thinking モデルで性能向上を実現しました。Anthropicは新たにGoogleから10億ドルの投資を受け、AdobeはAdobe Premiere でAIパワード機能を追加しました。Runway AI は新しい画像生成モデルFrames をリリースし、Kreia AI は実時間カスタムAIモデルのトレーニング機能を導入しました。Splineは1枚の画像から3D世界を生成できるSpell を発表しました。ByteDanceはTrae というAIコードエディタをリリースしました。医療分野では、イェール医科大学の研究チームが心不全リスクを予測できるAIツールを開発しました。トランプ前大統領は就任後すぐにバイデン大統領のAIリスク対策に関する大統領令を撤回し、アメリカのAI開発を加速させる姿勢を示しました。サム・アルトマンはo3-mini を無料版ChatGPT でも利用可能にすることを発表しました。※動画を再生してから読むのがオススメです。
Well, this week has been a monumental week in the world of AI, tons and tons of big announcements, one that's fairly world-changing that I actually made another video about earlier, but I don't want to waste your time.
さて、今週はAIの世界で記念すべき1週間でした。数多くの大きな発表があり、その中には私が先ほど別の動画で取り上げた、かなり世界を変えるようなものもありましたが、お時間を取らせたくありません。
Let's just dive right into it.
さっそく本題に入りましょう。
Starting with the news out of OpenAI this week, that's got everybody buzzing, which is their new operator platform.
まずは今週のOpenAIのニュースから始めましょう。誰もが話題にしている彼らの新しいオペレータープラットフォームについてです。
Now this is very similar to Claude's computer use.
これはClaudeのコンピューター使用機能によく似ています。
If you've used that in the past, you can give it a prompt.
以前にそれを使用したことがある場合、プロンプトを与えることができます。
Like, could you find a recipe of linguine with clams from all recipes and add all ingredients to grocery cart on my Instacart.
例えば、「All Recipesからあさりのリングイネのレシピを見つけて、全ての材料を私のInstacartの買い物かごに追加してください」というように。
It then opens up its own internal browser.
すると、独自の内部ブラウザが開きます。
It doesn't actually use your browser to browse.
実際にはあなたのブラウザを使用しているわけではありません。
It sort of opens up a browser in the cloud, searches out recipes for you.
クラウド上でブラウザを開き、あなたのためにレシピを検索します。
Looks like it found one with a high rating, figured out all the ingredients that were needed, and then put all the ingredients that you need into an Instacart cart, and then gets you to the point where you have to click continue checkout, but it gets you all the way there.
高評価のレシピを見つけ、必要な材料をすべて把握し、それらをInstacartのカートに入れ、チェックアウトを続けるためのクリックが必要なところまで案内してくれます。
That was just one of the examples they gave.
これは彼らが示した例の一つに過ぎません。
Now, what's interesting about this new operator is that it's powered by a new model called a Computer Using Agent, or CUA.
この新しいオペレーターで興味深いのは、Computer Using Agent(CUA)と呼ばれる新しいモデルによって動作していることです。
So it uses a combination of GPT-4o's vision capabilities with advanced reasoning through reinforcement learning.
GPT-4の視覚能力と強化学習による高度な推論を組み合わせて使用しています。
This CUA is specifically designed to interact with a graphical user interface.
このCUAはグラフィカルユーザーインターフェースとの対話のために特別に設計されています。
For example, right now, the browser that it opens for you, the operator can see through taking screenshots and interact being able to use all the actions of a mouse and a keyboard again very very similar to what we saw with Anthropic tool use just a lot less of a pain in the butt to actually get set up.
例えば、現在開かれているブラウザでは、オペレーターはスクリーンショットを撮影して見ることができ、マウスとキーボードのすべての操作を使用して対話することができます。これはAnthropicのツール使用と非常によく似ていますが、セットアップがはるかに簡単です。
Now I have played with this a little bit and I think it's really cool but I think Boyan here actually says it best when he says my favorite thing about the AI agents is that they can help me get something done in half an hour what used to take me less than a minute that's kind of how I feel about the current crop of like tool use stuff that's out there now right now this operator is available but as of this recording you have to be on their pro plan to use it, which is their high-end $200 a month plan.
私もこれを少し試してみましたが、とても素晴らしいと思います。しかし、Boyanが言うように「AIエージェントの私のお気に入りの点は、1分もかからなかったことを30分かけてやってくれること」というのが、現在のツール使用の状況をよく表しています。現在このオペレーターは利用可能ですが、この録画時点では月額200ドルのハイエンドのプロプランに加入する必要があります。
It's not available yet in the regular ChatGPT Plus or the free version.
通常のChatGPT Plusや無料版ではまだ利用できません。
Although they did say that it will eventually be available for plus users.
ただし、最終的にはプラスユーザーも利用できるようになると彼らは言っています。
And I believe enterprise users.
そして企業ユーザーも利用できるようになると思います。
Not sure about free users yet, but we can see some examples of the type of things it's capable of doing here.
無料ユーザーについてはまだ不明ですが、ここでできることの例をいくつか見てみましょう。
Book a table for two at a romantic French bistro tomorrow night at 8 p.m.
明日の夜8時にロマンティックなフレンチビストロのテーブルを2人分予約する。
And it will leverage OpenTable to do that, find the most affordable passes to the Miami Grand Prix using StubHub.
それを実行するためにOpenTableを活用し、StubHubを使用してマイアミグランプリの最も手頃なチケットを見つけます。
Suggest a 30 minute meal with chicken that has at least 4.5 stars, leveraging all recipes.
All Recipesを活用して、4.5つ星以上の30分で作れるチキン料理を提案します。
It could connect directly with tools like DoorDash, Instacart, Uber Eats, Thumbtack, Uber, Target, Etsy, eBay, booking.com , TripAdvisor, HipCamp, Priceline, Reuters, Associated Press, The Atlantic, Axios, and I'm sure there's a lot more integrations and tools that it sort of works with natively.
DoorDash、Instacart、Uber Eats、Thumbtack、Uber、Target、Etsy、eBay、booking.com 、TripAdvisor、HipCamp、Priceline、Reuters、Associated Press、The Atlantic、Axiosなどのツールと直接接続でき、他にもネイティブに連携できる多くの統合機能やツールがあると思います。
Let's try an example with Thumbtack.
Thumbtackで例を試してみましょう。
Find someone to assemble my new furniture tomorrow.
明日、新しい家具を組み立ててくれる人を探してください。
I'll go ahead and submit this.
これを送信してみましょう。
and then we can actually see what it does.
そして、実際にどうなるか見てみましょう。
You can see here that it opens a little browser window.
ここで小さなブラウザウィンドウが開くのが分かります。
Let's go ahead and make it a larger screen.
画面を大きくしてみましょう。
I'm actually not doing anything right now.
実は今、私は何もしていません。
It's browsing the thumbtack on its own.
自動的にThumbtackを閲覧しています。
You can see my white mouse is right here on the left.
私の白いマウスカーソルが左にあるのが見えます。
The black mouse in the browser is the one that's running automatically for me.
ブラウザ内の黒いマウスカーソルが自動的に動いているものです。
So it's at Thumbtack, it types in furniture assembly into the search, click search.
Thumbtackで「furniture assembly」を検索欄に入力し、検索をクリックします。
Now the zip codes not correct.
郵便番号が正しくありません。
So if there's something that I want to adjust on here, I can go ahead and take control real quick.
ここで調整したいことがあれば、すぐにコントロールを取ることができます。
So I can jump in here and I can actually control in the browser.
ブラウザ内で実際に操作することができます。
I'll go ahead and leave furniture assembly there, but I will change the zip code.
家具の組み立ては残したまま、郵便番号を変更しましょう。
Now that I've changed the zip code, I can go ahead and click this finish up button and give the control back to the operator.
郵便番号を変更したので、完了ボタンをクリックしてコントロールをオペレーターに戻すことができます。
It asks, what did you do while you had control?
「コントロール中に何をしましたか?」と尋ねてきます。
That's optional, but I can say I gave Thumbtack the correct zip code and then go ahead and return the control to the operator.
これは任意ですが、「Thumbtackに正しい郵便番号を入力した」と言って、コントロールをオペレーターに戻すことができます。
Now I'm hands off again and it will continue to work on my behalf.
これで再び手を離すと、私の代わりに作業を続けます。
It's asking me how many items I need assembled.
組み立てが必要なアイテムの数を尋ねています。
We can see over in the chat that the chat's just asking me to answer this question.
チャットでは、この質問に答えるように求められているのが分かります。
So I can either take control and click myself, or I could just let the chat know.
自分でコントロールを取ってクリックするか、チャットで回答するかのどちらかを選べます。
Let's say we're assembling two items here.
ここでは2つのアイテムを組み立てると言いましょう。
I'll just keep answering the question.
質問に答え続けます。
Yes, I have instructions.
はい、説明書はあります。
And it's checking the box on my behalf.
そして、私の代わりにチェックボックスにチェックを入れています。
It automatically knows to select urgent because the original prompt that I gave it was I need it like tomorrow.
元のプロンプトで「明日までに必要」と伝えたので、自動的に緊急を選択することを理解しています。
And it finally found a professional for me named Igor who has 4.9 out of 5 stars price $40 and it gave me the profile link and it asked me would you like to proceed with this professional or should I look for more options and I'll just say this one looks good
そして最終的に、5つ星中4.9の評価を持つIgorという専門家を見つけてくれました。料金は40ドルで、プロフィールのリンクも提供してくれました。そして「この専門家で進めますか、それとも他の選択肢も探しましょうか」と尋ねてきたので、私はこの人で良さそうだと答えました。
now going back to Boyan's tweet here, if I had just gone to Thumbtack myself, searched out furniture assembly in my zip code, and then clicked all the buttons myself, I probably would have done it in half the time.
ここでBoyanのツイートに戻りますが、もし私が自分でThumbtackにアクセスし、自分の郵便番号で家具の組み立てを検索し、全てのボタンを自分でクリックしていれば、おそらく半分の時間で済んでいたでしょう。
But one interesting thing about operators is you can open up a whole bunch of different tabs and have a whole bunch of different tasks running all at the same time.
しかし、オペレーターの興味深い点の1つは、たくさんの異なるタブを開いて、同時に多くの異なるタスクを実行できることです。
So I can have one operator going in, booking me a flight, a different operator going and booking me a hotel, a different one going and making dinner reservations for when I travel, right?
つまり、1つのオペレーターで航空券を予約し、別のオペレーターでホテルを予約し、さらに別のオペレーターで旅行中のディナーの予約をすることができるわけです。
Would that have been a lot faster than me just opening up the tabs myself and then booking them all myself?
それは私が自分でタブを開いて全て自分で予約するよりもずっと速かったでしょうか?
I don't know, but it's an exciting era we're entering into where these AI tools can actually do a lot of the work on our behalf.
わかりませんが、これらのAIツールが実際に私たちの代わりに多くの作業を行える、そんなエキサイティングな時代に私たちは入りつつあります。
They're not quite to a point yet where I feel super, super excited about what they're capable of because they just still operate a little too slow for me to get excited about it.
まだ私が超々ワクワクするほどの段階には達していません。なぜなら、私にとってはまだ少し動作が遅すぎてワクワクできないからです。
Here's something else that's really interesting about this operator is I can actually click in the chat on the left and actually sort of rewind and see the steps that it took.
このオペレーターについてもう1つ興味深いのは、左側のチャットをクリックして、実際に巻き戻して、それが取った手順を見ることができることです。
So I could click here and we could see it actually went backwards and I get a little like scroll bar so I can actually watch back the entire process of it going and doing that search for me it recorded essentially a little video of the whole process if I go back to my earlier one about the furniture assembly.
ここをクリックすると、実際に後ろに戻り、スクロールバーが表示され、検索を行った全プロセスを見返すことができます。基本的に全プロセスの小さなビデオを記録していて、家具の組み立ての以前のものに戻ることもできます。
I could click into here, same thing.
ここをクリックしても、同じことができます。
I could scroll back and watch the entire process of it trying to find me somebody on Thumbtack and literally revisit how it went through the process.
スクロールバックして、Thumbtackで誰かを探そうとする全プロセスを見ることができ、文字通りそのプロセスを振り返ることができます。
OpenAI has also made comments about how they have more agents coming in the coming weeks.
OpenAIは、今後数週間でさらに多くのエージェントが登場すると述べています。
So this is just like one of their sort of agentic features that they're rolling out.
これは彼らが展開しているエージェント的な機能の1つにすぎません。
And I think this is going to get a lot better over time right now.
そして私は、これは時間とともにずっと良くなっていくと思います。
It feels like it's just a lot quicker for me to do it myself go to amazon do a quick search myself click on the product that'll be here the quickest press order and i'm done this one it almost takes me almost as long to type the prompt as it took me to go do all of those steps.
自分でAmazonに行って素早く検索し、最も早く届く商品をクリックして注文するほうが速い感じがします。このプロンプトを入力する時間は、それらの全ステップを実行するのとほぼ同じくらいかかります。
But again, I think the big picture here is over time, you'll have a whole bunch of these different little autonomous agents that are going and doing a whole bunch of tasks for you in different tabs.
しかし繰り返しになりますが、大きな展望として、時間とともに、異なるタブで多くのタスクを実行する様々な小さな自律エージェントを持つことになると思います。
And you can sort of complete a whole bunch of things all at once again this is just for the pro members paying the 200 a month and as far as I know right now it's only available to pro members in the U.S. so hopefully this will roll out to more soon they did say more countries will get it soon, but the European Union, it might take a little bit longer due to all the regulations they have there.
そして一度に多くのことを完了できます。これは月額200ドルを支払うプロメンバーのみが利用できる機能で、現在の私の知る限り、米国のプロメンバーのみが利用可能です。近いうちに他の国にも展開されることを願っていますが、EUは規制が多いため、少し時間がかかるかもしれません。
However, there are some other options that have recently popped up that if you do want to have an AI sort of take control of your browser and do things for you.
しかし、AIにブラウザを制御させて作業をさせたい場合、最近登場した他のオプションもあります。
There's this option called browser use that I saw shared by Harrison Chase here.
Harrison Chaseが共有していたbrowser useというオプションがあります。
This one's available on GitHub.
これはGitHubで利用可能です。
It is open source.
これはオープンソースです。
They have quick start instructions here to install it locally on your own computer using your own OpenAI API key.
自分のOpenAI APIキーを使用して、自分のコンピュータにローカルにインストールするためのクイックスタート手順があります。
We can see an example here where it's creating new Google docs.
ここでは新しいGoogleドキュメントを作成する例を見ることができます。
It's actually, I believe it's noticing all of the various CSS on the page and reading the CSS to figure out where to click and what to do.
実際には、ページ上の様々なCSSを認識し、CSSを読み取ってクリックする場所や実行すべきことを判断していると思われます。
It appears to essentially do the same thing, but free and open source.
基本的に同じことを行いますが、無料でオープンソースです。
I haven't tested it yet, but that's an alternative if you want to try something else.
まだテストはしていませんが、他のものを試してみたい場合の代替案です。
There was also this new paper that came out of ByteDance this week called UITARS, which is a native GUI agent, graphical user interface agent model that solely perceives the screenshots as input and performs human-like interactions, for example, keyboard and mouse operations.
今週、ByteDanceからUITARSという新しい論文が発表されました。これはネイティブGUIエージェントで、スクリーンショットのみを入力として認識し、キーボードやマウス操作などの人間のような操作を実行するグラフィカルユーザーインターフェースエージェントモデルです。
This also appears to be designed to do the same kind of thing.
これも同様のことを行うように設計されているようです。
I believe the code is available up on Hugging Face.
コードはHugging Faceで利用可能だと思います。
So if I go to files and versions in the Hugging Face page, we can see all the model weights here that you can download again another one I haven't tested myself yet maybe I'll make a video about here's some alternatives to ChatGPT's operators and we'll test all the various options and figure out which one's better that might be a kind of cool video to do in the future on this channel.
Hugging Faceページのファイルとバージョンに行くと、ダウンロードできる全てのモデルの重みを見ることができます。これもまだ自分ではテストしていませんが、ChatGPTのオペレーターの代替案についてのビデオを作成し、様々なオプションをテストして、どれが良いか確認するかもしれません。それは、このチャンネルで将来作る面白いビデオになるかもしれません。
So make sure you're subscribed for that.
そのためにも、チャンネル登録をお忘れなく。
Although operators are probably the thing that most people are talking about.
オペレーターは、おそらく多くの人々が話題にしていることですが。
Probably the biggest news to come out of this week was the Stargate Project.
今週最大のニュースはおそらくスターゲート・プロジェクトでした。
The Stargate Project is a new company that was formed between OpenAI, Oracle, and SoftBank, with OpenAI basically being the technology partner, Oracle being like the cloud partner.
スターゲート・プロジェクトは、OpenAI、Oracle、ソフトバンクの間で設立された新会社で、基本的にOpenAIが技術パートナー、Oracleがクラウドパートナーとなっています。
And then SoftBank being the money partner to put all the money into this.
そしてソフトバンクがこのプロジェクトに資金を投入する資金パートナーとなっています。
And the goal of this company is to invest $500 billion over the next four years for new AI infrastructure for OpenAI, specifically for OpenAI.
この会社の目標は、今後4年間で5,000億ドルを投資し、特にOpenAIのための新しいAIインフラを構築することです。
They're building this for their technology.
彼らは自社の技術のためにこれを構築しています。
They did some press conferences around this, and in those press conferences, they really pushed the idea that this can be used to find new medicines, to cure cancers.
彼らはこれに関する記者会見を行い、その中で新薬の発見やがんの治療に活用できるという考えを強く推し進めました。
It's going to create hundreds of thousands of jobs to build these data centers.
これらのデータセンターを建設するために何十万もの雇用が創出されることになります。
And ideally it will ensure American dominance in building AI.
そして理想的には、AIの構築における米国の優位性を確保することになります。
That's the big goals of this thing.
これがこのプロジェクトの大きな目標です。
Now, I don't want to go too deep into what the Stargate project is in this video, because I did an entire breakdown of it right here on this video called the Stargate project, the $500 billion AI agenda.
このビデオではスターゲート・プロジェクトについて深く掘り下げたくありません。なぜなら、「スターゲート・プロジェクト:5,000億ドルのAIアジェンダ」というこのビデオで、すでに完全な分析を行っているからです。
So definitely check that video out because that's an almost 15 minute video that really breaks down what the Stargate Project is, as well as my concerns around the Stargate project.
ぜひそのビデオをご覧ください。スターゲート・プロジェクトの内容と、それに関する私の懸念について詳しく解説した15分近いビデオです。
The CliffsNotes of my concerns is I think outwardly they're talking about the jobs it's going to create, the diseases it's going to cure, the drugs it's going to find, and the leading the world in AI.
私の懸念を要約すると、表向きは雇用創出、病気の治療、新薬の発見、そしてAIでの世界的リーダーシップについて語っていますが。
That's their sort of forward facing talking points.
それが彼らの表向きの主張ポイントです。
But underneath, I think their motives are a little bit different.
しかし、その裏には少し異なる動機があると私は考えています。
I do think they have intentions to use this for military use, for surveillance use, and for various uses with the three letter agencies of the country.
私は、彼らがこれを軍事利用、監視利用、そして国の三文字機関(CIA、FBIなど)との様々な用途に使用する意図があると考えています。
Again, I get into it more in that other video that I created.
繰り返しになりますが、私が作成した別のビデオでより詳しく説明しています。
So check that video out if you really want to deep dive on project Stargate.
スターゲート・プロジェクトについて深く知りたい方は、そのビデオをご覧ください。
But when I made that other video, this little video hadn't come out yet.
しかし、私が別のビデオを作成した時点では、この小さなビデオはまだ公開されていませんでした。
This is actually footage of the first data center that they're building out in Texas.
これは実際に、彼らがテキサスで建設している最初のデータセンターの映像です。
Sam Altman shared this.
サム・アルトマンがこれを共有しました。
So they're already underway with this project Stargate.
つまり、このスターゲート・プロジェクトはすでに進行中です。
They're already working on this massive data center in Texas.
彼らはすでにテキサスでこの巨大なデータセンターの作業を進めています。
And so, yeah, it's happening.
そう、これは現実に起きているのです。
They're already rolling with it.
彼らはすでにそれを進めています。
This raised some questions about OpenAI's relationship with Microsoft because with Oracle being part of this Stargate project, well, Oracle's in direct competition with Microsoft and their cloud computers with Azure.
これは、Oracleがスターゲート・プロジェクトの一部となることで、MicrosoftのAzureクラウドコンピューティングと直接競合することから、OpenAIとMicrosoftの関係について疑問を投げかけました。
But Microsoft essentially put out a blog post saying that everything they announced, we're thrilled about, we're gonna be a big part of it.
しかしMicrosoftは基本的に、発表された全てのことに興奮しており、その重要な一部となる予定だとブログ記事で述べています。
Nothing really changes between us and OpenAI.
私たちとOpenAIの関係は何も変わりません。
In fact, any new things that OpenAI develops within this Stargate project, well, Microsoft's still gonna get access to because contractually they're obligated to share all of these models with Microsoft.
実際、OpenAIがこのスターゲート・プロジェクトで開発する新しいものは全て、契約上これらのモデルをMicrosoftと共有する義務があるため、Microsoftはアクセスできることになります。
Elon Musk, on the other hand, has not spoken too favorably about this Stargate project.
一方、イーロン・マスクはこのスターゲート・プロジェクトについてあまり好意的には語っていません。
I find all of this really fascinating because obviously Elon Musk is good friends with Larry Ellison, one of the guys in the Stargate project.
これは全て本当に興味深いと思います。なぜなら、明らかにイーロン・マスクはスターゲート・プロジェクトの関係者の一人であるラリー・エリソンと親しい友人だからです。
Elon's also good buddies and part of Trump's administration and Trump was the one who announced the Stargate project and Elon wasn't a part of it but anyway when this tweet was made about the Stargate project Elon went to Twitter to say they don't actually have the money.
イーロンはまた、トランプ政権の一員でトランプとも親しい間柄でした。トランプがスターゲート・プロジェクトを発表しましたが、イーロンはその一部ではありませんでした。しかし、このスターゲート・プロジェクトについてのツイートが投稿された時、イーロンはTwitterで「彼らは実際にはお金を持っていない」と発言しました。
Sam Altman initially replied with a very respectable response.
サム・アルトマンは最初、非常に敬意を示す返答をしました。
I genuinely respect your accomplishments and think you are the most inspiring entrepreneur of our time, but then came back about an hour and a half later to tell Elon that he was wrong as you surely know why don't you come visit the first site already underway this is great for the country I realize what is great for the country isn't always what's optimal for your companies but in your new role I hope you'll mostly put America first
「私は本当にあなたの功績を尊重し、あなたは私たちの時代で最も刺激的な起業家だと思います」と述べた後、1時間半後に戻ってきて、イーロンに「あなたが間違っていることは確かにわかっているはずです。なぜ既に進行中の最初のサイトを訪れないのですか。これは国にとって素晴らしいことです。国にとって良いことが必ずしもあなたの会社にとって最適ではないことは理解していますが、新しい役割においてあなたがアメリカを第一に考えることを願っています」と伝えました。
I kind of secretly sort of have this hope that Sam Altman and Elon Musk at some point bury the hatchet and sort of work together because I think these two people right now are probably two of the most important figures in the world of AI.
私は密かに、サム・アルトマンとイーロン・マスクがいつか和解して協力し合うことを望んでいます。なぜなら、この2人は現在、AI界で最も重要な人物の2人だと思うからです。
Elon Musk was building the largest data center on the planet to service xAI.
イーロン・マスクはxAIのために地球上で最大のデータセンターを建設していました。
And now this Stargate project with OpenAI is building a data center.
そして今、OpenAIとのこのスターゲート・プロジェクトがデータセンターを建設しています。
That's even larger than the one Musk was building with their brains and their teams and their power combined i really really feel like they can build this ai super company and it's just kind of a bummer that they had a falling out because i feel like together they really could build something really really great.
マスクが建設していたものよりもさらに大きなデータセンターです。彼らの頭脳とチーム、そして力を合わせれば、このAIスーパーカンパニーを構築できると本当に感じています。彼らが仲違いしてしまったのは残念です。なぜなら、一緒になれば本当に素晴らしいものを作れたと感じるからです。
All right, let me show you something that's completely changing how people are approaching creative projects.
クリエイティブなプロジェクトに対する人々のアプローチを完全に変えているものをお見せしましょう。
So LTX Studio is an AI-powered platform that's revolutionizing pre-production and storyboarding.
LTX Studioはプリプロダクションとストーリーボードに革命を起こしているAI搭載のプラットフォームです。
And I'm genuinely excited to share two incredible features with you.
そして、2つの素晴らしい機能についてご紹介できることを本当に嬉しく思います。
So check this out.
それではご覧ください。
First up is the face motion capture.
まず最初は顔のモーションキャプチャーです。
I can record a quick gesture or expression using my webcam and LTX Studio transforms it into an animated character that perfectly mirrors my movements.
ウェブカメラを使って素早いジェスチャーや表情を記録すると、LTX Studioはそれを私の動きを完璧に反映したアニメーションキャラクターに変換します。
And what's really amazing is that these aren't just basic animations.
そして本当に驚くべきことは、これらが単なる基本的なアニメーションではないということです。
The AI generates realistic movements that would typically take hours to create manually, but it does get even better.
AIは通常、手作業で作成するのに何時間もかかるようなリアルな動きを生成しますが、さらに素晴らしい機能があります。
Using this character dialogue feature, I can make these characters speak naturally with synchronized lip movements.
このキャラクターダイアログ機能を使用すると、口の動きが同期した自然な会話をキャラクターにさせることができます。
Let me show you a quick example I just created for this scene concept here.
ここで、このシーンのコンセプトのために作成したクイックな例をお見せしましょう。
While I'm in the jungle, I should remind you to subscribe to Matt Wolf and smash that like button.
ジャングルにいる間に、Matt Wolfをチャンネル登録して、いいねボタンを押すことを忘れないでください。
Notice how the lip movements match the dialogue.
台詞に合わせて口の動きが同期していることに注目してください。
This is game changing for visualizing scenes and pitching ideas to clients.
これはシーンの視覚化やクライアントへのアイデアのピッチングに革新的な変化をもたらします。
And the best part, these features are just the beginning.
そして最高なのは、これらの機能はほんの始まりに過ぎないということです。
LTX Studio gives you complete control over every aspect of your pre-production process, from storyboarding to concept development.
LTX Studioは、ストーリーボードからコンセプト開発まで、プリプロダクションプロセスのあらゆる側面を完全にコントロールできます。
And guess what?
そしてどうでしょう?
You can try it yourself right now.
今すぐ自分で試すことができます。
LTX Studio offers free computing time, which is enough to complete an entire project.
LTX Studioは1つのプロジェクトを完了するのに十分な無料の計算時間を提供しています。
So if you're ready to try it for yourself, click the link in my description to get started today.
もし試してみる準備ができたら、説明欄のリンクをクリックして今すぐ始めましょう。
And thank you so much to LTX Studio for sponsoring this video.
そして、このビデオのスポンサーとなったLTX Studioに心から感謝します。
We did get some other news out of OpenAI this week, more of an announcement that something cool is coming soon.
今週、OpenAIから他のニュースもありました。もっと言えば、何か素晴らしいものが近々登場するという発表です。
So Sam Altman went to Twitter on, well, January 17th to say thank you to the external safety researchers who tested O3 mini.
サム・アルトマンは1月17日にTwitterで、O3ミニをテストした外部の安全性研究者たちに感謝の意を表明しました。
We have now finalized a version and are beginning the release process planning to ship in approximately a couple of weeks.
バージョンが確定し、約2週間後のリリースに向けてプロセスを開始しています。
Also, we heard the feedback will launch an API and ChatGPT at the same time.
また、APIとChatGPTを同時にリリースするというフィードバックも聞いています。
So when O3 mini comes out, you'll have access to it inside of ChatGPT.
つまり、O3ミニがリリースされると、ChatGPT内でそれにアクセスできるようになります。
And if you're a developer, you'll have access to it within their API.
そして開発者の場合は、彼らのAPI内でアクセスできるようになります。
In a post that came out a few days after that, Sam said, big news.
その数日後の投稿で、サムは大きなニュースを発表しました。
The free tier of ChatGPT is going to get O3 mini and the plus tier will get tons of O3 mini usage.
ChatGPTの無料版でO3ミニが利用可能になり、プラス版では大量のO3ミニ使用が可能になります。
So if you were wondering if O3 was only going to be the plus and pro users, well, now it's even going to be in ChatGPT free.
もしO3がプラスユーザーとプロユーザーだけのものになるのではないかと心配していた方も、今では無料版のChatGPTでも利用できるようになります。
And a lot of people are speculating that they're putting out this O3 mini on the free tier as a response to the next piece of news that came out this week, which was DeepSeek R1.
そして多くの人々は、今週出た次のニュースであるDeepSeek R1への対応として、このO3ミニを無料版で提供するのではないかと推測しています。
DeepSeq R1 is an open source model out of China that pretty much performs as good as OpenAI's O1 model.
DeepSeq R1は中国発のオープンソースモデルで、OpenAIのO1モデルと同等の性能を持っています。
We can see the various benchmark tests that they put up on their site, these blue ones with the lines on it those are deep seek r1 this darker gray that's open ai's o1 model so we can see in almost all of these charts with all of these benchmarks that deep seek r1 is pretty much on par and even in some cases with things like math better than what 01 is doing right now.
彼らのサイトに掲載されている様々なベンチマークテストを見ると、線の入った青いものがDeep Seek R1で、より濃いグレーがOpenAIのO1モデルです。これらのチャートとベンチマークのほぼすべてで、Deep Seek R1がO1と同等で、数学のような分野では現在のO1よりも優れているケースもあることがわかります。
And you can actually go to GitHub.
そして実際にGitHubにアクセスすることができます。
You can see it's MIT license, it's open source, and you can access these models.
MITライセンスで、オープンソースであり、これらのモデルにアクセスできることがわかります。
And a lot of people who have been getting the new N RTX 5090s have been downloading DeepSeek locally and running this on their own computers but you don't even need to do that if you don't want if you just go to deep seek.com click on start now
新しいN RTX 5090を入手した多くの人々がDeepSeekをローカルにダウンロードして自分のコンピュータで実行していますが、deep seek.comにアクセスしてstart nowをクリックするだけなので、必要なければそこまでする必要はありません。
and then select deep, this will use the new R1 model and it's totally free on their website right now.
そしてdeepを選択すると、新しいR1モデルを使用することができ、現在ウェブサイトで完全に無料で利用できます。
This is an O1 level model that's totally free on DeepSeek, which again is why a lot of people think that the O3 mini model that Sam was talking about is going to get released for free in ChatGPT because deep seeks probably just as good as it already on my live stream earlier this week.
これはDeepSeekで完全に無料のO1レベルモデルであり、これが今週初めの私のライブストリームですでに同程度に優れているDeep Seekがあるため、多くの人々がSamが言及していたO3ミニモデルがChatGPTで無料でリリースされると考えている理由です。
I did things like have it build a snake game for me and it literally wrote all of this code in one shot here.
スネークゲームを作らせるなどのことをやってみましたが、このコード全体を一度で書き上げてくれました。
But what's interesting is you can see its entire chain of thought.
しかし興味深いのは、その思考の過程全体を見ることができることです。
It actually thinks through the problems like a human.
実際に人間のように問題を考え抜いています。
Okay, I need to build the snake game using JavaScript.
よし、JavaScriptを使ってスネークゲームを作る必要があります。
Let me think how to approach this.
どのようにアプローチするか考えてみましょう。
First, I remember that the snake game involves a grid where the snake moves around, eating food and growing.
まず、スネークゲームは蛇が移動して餌を食べて成長するグリッドを含むことを思い出します。
And you can just read through exactly how it thinks about building this out.
そして、どのように作り上げていくかについての考えを正確に読むことができます。
And finally, it gives us all the code.
そして最後に、すべてのコードを提供してくれます。
And this was the game that it created.
そしてこれが作成されたゲームでした。
It actually works.
実際に動作します。
So the green is my snake.
緑色が私の蛇です。
The red is the food as I eat the food my snake gets longer and if I hit the wall game over it even keeps score that was one shot just one prompt.
赤は餌で、餌を食べると蛇が長くなり、壁に当たるとゲームオーバーになり、スコアも記録されます。これはたった1回のプロンプトで実現されました。
I know a lot of people will say in the comments oh I'm sick of people building snake games I don't know what to prompt.
コメントで多くの人が「スネークゲームを作る人にはうんざりだ、何をプロンプトすればいいかわからない」と言うでしょう。
On the live stream, I asked people to give me some other suggestions of things to test instead of DeepSeek.
ライブストリームで、DeepSeekの代わりにテストする他の提案をしてもらいました。
Somebody asked me to give it this prompt here of Earth is 8 minutes 20 seconds from the sun.
誰かが「地球は太陽から8分20秒の距離にある」というプロンプトを与えるように頼みました。
How fast is the earth revolving around the sun?
地球は太陽の周りをどれくらいの速さで公転していますか?
It thought for 102 seconds.
102秒間考えました。
We can see all of its thinking, all of the math that it's doing here, as it's thinking through this problem, quite a bit of math going on.
この問題を考える際に行っている思考のすべて、計算のすべてを見ることができます。かなりの数学的計算が行われています。
And then finally at the end, we can see it came out to 29.9 kilometers per second, which I asked people on the stream for me to double check.
そして最後に、秒速29.9キロメートルという結果が出ました。これについてストリームの視聴者に確認を依頼しました。
And the people on the stream confirmed that it was right.
そしてストリームの視聴者がそれが正しいことを確認しました。
I know Matthew Berman did a much deeper test into all the things that DeepSeek R1 can do, but take my word for it, it is pretty much just as good as the O1 thinking model.
Matthew BermanがDeepSeek R1ができることすべてについてより深いテストを行ったことを知っていますが、私の言葉を信じてください。これはO1思考モデルと同程度に優れています。
And I think because an open source model has been released, that's better than Llama, better than Llama better than mistral better than pretty much all of the other open source models and just as good as some of the closed source models it's probably better than you know Claude 3.5 sonnet already it's about as good as open ai's 01 is kind of got all of these other model developers freaking out a little bit.
そして、Llamaよりも優れ、Mistralよりも優れ、他のほとんどすべてのオープンソースモデルよりも優れ、一部のクローズドソースモデルと同程度に優れたオープンソースモデルがリリースされたため、すでにClaud 3.5 Sonnetよりも優れており、OpenAIのO1と同程度であることが、他のモデル開発者たちを少し動揺させているのだと思います。
All right, moving along to Perplexity, because they released their own version of an AI assistant this week called Perplexity Assistant.
さて、Perplexityに移りましょう。彼らは今週、Perplexity Assistantと呼ばれる独自のAIアシスタントをリリースしました。
Now, this assistant is only available on Android, so I have not been able to test this one myself, but once again, it looks like it's designed to take actions on your behalf.
このアシスタントはAndroidでのみ利用可能なので、私自身はテストできていませんが、これも再びあなたの代わりにアクションを取るように設計されているようです。
So help me book the best Japanese restaurant for a date.
デートのために最高の日本食レストランを予約するのを手伝ってください。
You can see it's searching for the highest rated Japanese restaurant in San Francisco.
サンフランシスコで最も評価の高い日本食レストランを検索しているのがわかります。
It finds the restaurant.
レストランを見つけました。
This person takes a picture of a book and said, just finished reading this.
この人は本の写真を撮って、「読み終わったところです」と言いました。
What should I read next?
次は何を読むべきですか?
And now it's finding recommendations similar to that book.
そして今、その本に似たお勧めの本を探しています。
Sapiens blink the black Swan.
サピエンス、ブリンク、ブラックスワンです。
It can use your screen for the context.
コンテキストのためにあなたの画面を使用できます。
So here's like a article that they're landing on and they ask summarize this page and send it to John.
彼らが開いている記事があって、このページを要約してジョンに送ってと頼んでいます。
You can see it summarizes the page and actually creates an email to send to this John person it can do daily tasks remind me two hours before the next Warriors game and it looked up the times for the warrior game and set a reminder of Warriors vs Mavericks here this is kind of what Siri wants to be, honestly.
ページを要約してジョンという人にメールを作成するのが見えます。日常的なタスクもこなせて、次のウォリアーズの試合の2時間前にリマインドしてと言うと、ウォリアーズの試合時間を調べてウォリアーズ対マーベリックスのリマインダーを設定します。正直なところ、これはSiriがなりたがっているものですね。
And it looks like Perplexity is trying to build a sort of alternative to Siri or the Google assistant and things like that.
そして、PerplexityはSiriやGoogleアシスタントなどの代替となるようなものを構築しようとしているようです。
Also this week, Perplexity launched the sonar API.
また今週、PerplexityはソナーAPIを発表しました。
This is designed for developers that want to use Perplexity's API for real-time search combined with Large Language Models.
これは、大規模言語モデルと組み合わせたリアルタイム検索のためにPerplexityのAPIを使用したい開発者向けに設計されています。
So you can now connect to an API that will do a web search.
そのため、ウェブ検索を行うAPIに接続できるようになりました。
and then also ping their own Large Language Model with the details of the web search as part of the context which goes head to head with google's api and open ai's apis that also have similar features.
そして、コンテキストの一部として、ウェブ検索の詳細を使って独自の大規模言語モデルにピングを送ることができ、これは同様の機能を持つGoogleのAPIやOpenAIのAPIと競合します。
But again, this is more focused for developers who are trying to build software with these various AI APIs that are out there.
しかし繰り返しになりますが、これは様々なAI APIを使ってソフトウェアを構築しようとしている開発者により焦点を当てています。
Google DeepMind also had a new model come out this week called Gemini 2.0 flash thinking model.
Google DeepMindも今週、Gemini 2.0フラッシュシンキングモデルと呼ばれる新しいモデルを発表しました。
We can see the improvements from previous models in both math and science going from 35% in 2.0 flash to like 63% in 2.0 flash thinking all the way up to almost 75% with this new model of 2.0 flash thinking.
数学と科学の両方で、2.0フラッシュの35%から2.0フラッシュシンキングの63%程度まで、さらにこの新しい2.0フラッシュシンキングモデルでは75%近くまで向上しているのが分かります。
Very similar results on the science side here.
科学の面でも非常に似た結果が出ています。
And we can see that it's getting these better and better results using inference compute.
そして、推論計算を使用してこれらの結果がどんどん良くなっているのが分かります。
So it's doing similar things to what a one is doing, what deep seek is doing.
つまり、O1やDeepSeekがやっているようなことと同じようなことをしているのです。
And after you give it the prompt, it's sort of thinking for longer before it gives you that answer.
そしてプロンプトを与えた後、回答を出す前により長く考えるようになっています。
So these aren't like better and better and better trained underlining models.
つまり、これらは単により良く訓練された基礎モデルというわけではありません。
It's just now these models, when it gives you an answer, it sort of double checks, triple checks, make sure that the answer that it's giving you is a lot more thought through.
これらのモデルは今、回答を出すときに、二重、三重にチェックして、より綿密に考えられた回答を提供するようになっているだけです。
And that's how a lot of these models are getting smarter and smarter now is they're thinking through their response a little better after the prompt, as opposed to only relying on their training data.
そして、多くのモデルが今、より賢くなっているのは、訓練データだけに頼るのではなく、プロンプトの後で応答をより深く考えるようになっているからです。
We're seeing that shift right now in pretty much all of the models.
現在、ほぼすべてのモデルでそのような変化が見られています。
That's what DeepSeek's doing.
それがDeepSeekがやっていることです。
That's what O1's doing.
それがO1がやっていることです。
That's what 01 is doing.
それが01がやっていることです。
That's what 03 is doing.
それが03がやっていることです。
And that's what Google's various thinking models are also doing.
そして、それがGoogleの様々なシンキングモデルもやっていることです。
And if we take a look over here at chatbot arena, we can see that this brand new Gemini 2.0 flash thinking model is now the leader on this leaderboard here.
ここでチャットボットアリーナを見てみると、この真新しいGemini 2.0フラッシュシンキングモデルが、このリーダーボードでトップに立っているのが分かります。
And this leaderboard is basically somebody gives chatbot arena a prompt, chatbot arena gives them two responses back, users vote which one gave the best response between the two.
このリーダーボードは基本的に、誰かがチャットボットアリーナにプロンプトを与え、チャットボットアリーナが2つの応答を返し、ユーザーが2つの応答のうちどちらが良かったかを投票するというものです。
And that's how this leaderboard gets formed.
そしてそのようにしてこのリーダーボードが形成されています。
This is actual users voting on which of the two responses they liked better.
これは実際のユーザーが2つの応答のうちどちらが良いと思ったかを投票した結果です。
Gemini 2.0 flash thinking is the one that's working the best right now.
Gemini 2.0フラッシュシンキングが現在最も良い成果を上げています。
And I'm not actually seeing deep seek R1 in here, despite having the older Deep Seek models on the leaderboard.
リーダーボードに古いDeepSeekモデルがあるにもかかわらず、DeepSeek R1は実際にここには見当たりません。
If you want to try Google's newest models, you can do it by going to AISudio.Google.com .
Googleの最新モデルを試してみたい場合は、AISudio.Google.comにアクセスすることでできます。
And then over on the right, where you select your model, they have all sorts of different models available for you to choose from, including Gemini 2.0 flash thinking from 121.
そして右側でモデルを選択するところに、121からのGemini 2.0フラッシュシンキングを含む様々な種類のモデルが選択可能です。
Come down here, give it a prompt, and you're using this new model.
ここに来て、プロンプトを入力すれば、この新しいモデルを使用することができます。
It's also really, really fast.
また、非常に高速です。
I asked this old typical question, how many R's in the word strawberry?
「strawberryという単語にはいくつのRがありますか?」という典型的な古い質問をしてみました。
And it was like 1.8 seconds to get me this response.
そして1.8秒程度でこの回答が得られました。
And of course it was the correct one.
そしてもちろん、正しい回答でした。
Anthropic had a little bit of news this week, including the fact that they just secured another billion dollars from Google.
Anthropicには今週ちょっとしたニュースがありました。Googleからさらに10億ドルを獲得したという事実を含めてです。
This is shaping up to be pretty interesting because Google already invested $2 billion into Anthropic.
これは非常に興味深い展開になってきています。なぜならGoogleはすでにAnthropicに20億ドルを投資していたからです。
They just invested another 1 billion into Anthropic, but we've also seen that Amazon has been dumping billions of dollars into Anthropic and that Amazon's planning on using Claude inside of future Alexas.
彼らはAnthropicにさらに10億ドルを投資したばかりですが、AmazonもAnthropicに数十億ドルを投資していて、将来のAlexaの中でClaudeを使用する計画を立てているのも見てきました。
But Anthropic also released something new this week for developers in their new citations feature inside the API.
しかしAnthropicは今週、開発者向けにAPI内の新しい引用機能も発表しました。
Basically, if you're developing something and you're using their API and you're giving it some additional documents, like you're giving it some PDFs or text files or things like that, you can now actually ask the API to cite its sources.
基本的に、何かを開発していてそのAPIを使用し、PDFやテキストファイルなどの追加文書を与えている場合、APIにソースの引用を要求できるようになりました。
So if it gives you information back, it will now be able to tell you exactly where it found that information from the documents that you shared.
そのため、情報を返してくる際に、共有した文書のどこからその情報を見つけたのかを正確に教えてくれるようになります。
Again, a feature that's available for developers right now, but if you're not a developer, you probably don't care too much about this feature.
繰り返しになりますが、これは現在開発者が利用できる機能ですが、開発者でない場合は、この機能にそれほど関心がないかもしれません。
Adobe had some new features they rolled out this week as well, and all of these are available in the beta apps.
Adobeは今週もいくつかの新機能をリリースしており、これらはすべてベータアプリで利用可能です。
So if you're a Creative Cloud member, you can actually use the beta version of these apps and get access to some of these features.
そのため、Creative Cloudのメンバーであれば、これらのアプリのベータ版を実際に使用してこれらの機能にアクセスすることができます。
Things like find footage faster with AI powered media intelligence.
AI搭載のメディアインテリジェンスによって映像をより速く見つけられるような機能です。
This is something that I really, really am looking forward to.
これは私が本当に、本当に楽しみにしていることです。
I want DaVinci Resolve to put this in theirs.
DaVinci Resolveにもこの機能を搭載してほしいです。
I tend to edit a little more with DaVinci, but you can upload a ton of B-roll inside of Adobe Premiere and then say, find the video of the red canoe.
私はDaVinciでの編集が多いのですが、Adobe Premiereには大量のB-rollをアップロードして、「赤いカヌーの映像を見つけて」と指示することができます。
It'll pull up all the videos where there's a red canoe.
すると、赤いカヌーが映っているすべての映像を表示してくれます。
And then you can pull those onto your video.
そしてそれらを自分の動画に取り込むことができます。
To me, this seems like it'll be really helpful for, for instance, I go to CES.
私にとって、例えばCESに行く場合などにこれは本当に役立ちそうです。
I record 10 hours worth of B roll.
10時間分のB-rollを録画します。
I can throw all the B roll into a folder in Adobe premiere.
そのB-rollをすべてAdobe Premiereのフォルダに入れることができます。
And then when I'm looking for a specific robot, I can type the robot I was looking at, and then it'll pull up any of the videos about just the robots and I can use it for B roll.
そして、特定のロボットを探している時に、見ていたロボットの名前を入力すると、そのロボットに関する映像だけを表示してくれて、B-rollとして使用できます。
It seems like a huge time saving for my editing workflow.
これは私の編集ワークフローにおいて大きな時間節約になりそうです。
They also added in a caption translation feature.
また、キャプション翻訳機能も追加されました。
So if you put captions throughout your video, let's say in English, you can then also render out a version where all the captions are in Spanish, all of them are in French, German, etc.
例えば、動画全体に英語のキャプションを入れた場合、すべてのキャプションがスペイン語、フランス語、ドイツ語などになったバージョンをレンダリングすることができます。
They rolled out a handful of other features, but those are really the main AI features.
他にもいくつかの機能がリリースされましたが、これらが主なAI機能です。
Runway AI just released a new image generator called Frames.
Runway AIが「Frames」という新しい画像生成ツールをリリースしました。
They're still rolling this out.
これはまだ展開中です。
I don't know if everybody has it in their account yet, but if you do, you'll see introducing frames, try it now, and some of the images that it generates are pretty realistic.
まだすべてのアカウントで利用できるかどうかわかりませんが、利用可能な場合は「Framesの紹介、今すぐ試してください」という表示が出て、生成される画像はかなりリアルです。
So if I do a prompt like a portrait of a woman with freckles on her face and black hair in front of sunlit horizon sky with a vibrant but minimal sweater sleeves art house cinema.
そこで、「そばかすのある女性の顔と黒髪、日の光に照らされた地平線の空を背景に、鮮やかだがミニマルなセーターの袖のアートハウス映画風の肖像画」というようなプロンプトを入力すると、
I get some pretty realistic images like this.
このようなかなりリアルな画像が生成されます。
I don't quite think it's to the same level that we're getting out of flux yet, but they do look pretty good.
まだFluxで得られるレベルには達していないと思いますが、かなり良い出来栄えです。
I was doing some tests on my recent live stream where I did various images of a wolf howling on a moon and I really, really like the aesthetics of these bottom two.
最近のライブストリームで月に向かって吠える狼の様々な画像をテストしていましたが、下の2つの美的センスが本当に、本当に気に入っています。
Like the colors are just they really hit that spot for me.
色使いが私の好みにぴったり合っているんです。
Somebody suggested an anime wizard cast a nuclear spell that exploded in a desert.
誰かが「砂漠で核の呪文を唱えるアニメ風の魔法使い」を提案しました。
We got images that looked like this.
このような画像が生成されました。
Not too bad.
悪くないですね。
Another AI image model to test.
もう1つテストするAI画像モデルがあります。
If you're not getting what you want out of some of the other AI image models that maybe you're already using this is another one to add to your arsenal since we're talking about AI image models a free pick added Imogen or Imagine 3 I still to this day don't know if it's pronounced Imogen or Imagine so if you like using free pick, well, you now have access to image in three, imagine three inside of that platform.
既に使用している他のAI画像モデルで望む結果が得られない場合、これはあなたの武器庫に追加できるもう1つのオプションです。AI画像モデルと言えば、FreepickがImogen(またはImagine)3を追加しました。今でもImogenと発音するのかImagineと発音するのかわかりませんが、Freepickを使用するのが好きな方は、そのプラットフォーム内でImage in 3、Imagine 3にアクセスできるようになりました。
Korea AI rolled out a new feature that I think actually looks really cool.
Korea AIが、私が本当にクールだと思う新機能をリリースしました。
You can actually train image models now inside.
実際に内部で画像モデルをトレーニングできるようになりました。
and then sort of rotate them and map them out the way you want.
そして好きなように回転させたりマッピングしたりできます。
Here's their actual announcement over on x introducing real-time custom ai models.
これが実際のXでの発表です:「リアルタイムカスタムAIモデルの導入」。
Now you can train your own styles characters or products and use them in kreia real time.
今では独自のスタイル、キャラクター、製品をトレーニングして、それらをKreiaでリアルタイムに使用できます。
Theoretically, I can throw a whole bunch of images of my face in there, create a model of my face, and then pose that model however I want.
理論的には、私の顔の画像をたくさん投入してそこから顔のモデルを作成し、そのモデルを好きなようにポーズを取らせることができます。
So in order to do this, we go to kreia.ai/train .
これを行うために、kreia.ai/trainに移動します。
Let's go ahead and reuse the data set where I put my own face into it.
私の顔を入れたデータセットを再利用してみましょう。
And then down here, we have a couple options.
そして下には、いくつかのオプションがあります。
Let's go ahead and select the real time and train AI.
リアルタイムを選択してAIをトレーニングしてみましょう。
So it took about three minutes to train my face into it.
顔のトレーニングには約3分かかりました。
These are fairly low resolution, so I don't know how well it's going to come out, but let's go ahead and click use with real time and see what happens.
これらは解像度がかなり低いので、どの程度うまくいくかわかりませんが、とりあえずリアルタイムで使用をクリックして何が起こるか見てみましょう。
So without an image on the left, it generated this image on the right using a man with a beard and a colorful background.
左側に画像がない状態で、右側にはひげを生やした男性とカラフルな背景を使用して画像が生成されました。
I'm going to toss my profile pic in over here by right click on this and convert it to 3d i should be able to rotate and change the angles over here so now i got this 3d version of my head but i can rotate it however i want and over on the right, it actually matches the rotation.
ここに私のプロフィール写真を右クリックで投入して3Dに変換します。ここで回転させて角度を変更できるはずです。これで私の頭部の3Dバージョンができましたが、好きなように回転させることができ、右側では実際にその回転に合わせて変化します。
And I could change how closely it matches my style.
また、どの程度私のスタイルに近づけるかを変更することができます。
If I bring the style all the way down, it kind of no longer looks like me at all.
スタイルを最小にすると、もはや私には全く見えなくなります。
If I bring the style all the way up, it looks a lot more like me.
スタイルを最大にすると、かなり私に似てきます。
Again, the images I uploaded are lower resolution, so that's why I think these are coming out so noisy, but I can sort of angle this however I want, use a paintbrush to paint behind me.
繰り返しになりますが、アップロードした画像は解像度が低いため、ノイズが多く出ていると思いますが、好きな角度に設定でき、背景を絵筆でペイントすることもできます。
Let's go ahead and just do some fun stuff like this and see what it starts to do with our image.
このような感じで楽しいことをやってみて、画像がどうなるか見てみましょう。
Let's add some more color.
もう少し色を追加してみましょう。
I'll just just go a little crazy with it here.
ここでちょっと大胆にやってみましょう。
And you can see that it updates the image in real time on the right.
右側でリアルタイムに画像が更新されるのが分かります。
And then I got my dude on here that I can rotate and set.
そして、回転させたり配置したりできる自分のキャラクターがここにあります。
However I want pretty cool.
とてもクールな感じに好きなようにできます。
I definitely need to train a much higher quality model of myself into this though, to get rid of some of that noisiness moving along to Pika.
ただし、ノイズを取り除いてPikaに進むために、もっと高品質な自分のモデルを学習させる必要があります。
They kind of made an announcement that they're going to be making an announcement.
彼らは、発表をする予定があるという発表をしました。
You can see, are you ready for the big reveal?
ご覧ください。大きな発表の準備はできていますか?
Pika 2.1 is dropping soon.
Pika 2.1がまもなくリリースされます。
And then there's a link to request early access.
そして、早期アクセスをリクエストするためのリンクがあります。
And I mean, the clips they're showing off here look pretty good, but again, it is an announcement of an upcoming announcement.
ここで紹介されているクリップは確かにかなり良く見えますが、繰り返しになりますが、これは今後の発表についての予告に過ぎません。
Still, the company spline showed off a new feature called spell spell is an AI image model that can generate worlds from a single image input.
それでも、Spline社は「Spell」という新機能を披露しました。Spellは1枚の画像入力から世界を生成できるAI画像モデルです。
If we check out their video here, you can see it's actually creating these 3d objects that all started from a single 2d image.
ここの動画を見ると、1枚の2D画像から始まってこれらの3Dオブジェクトを実際に作成しているのが分かります。
It's taking a 2d image
2D画像を取り込み、
and then figuring out how to make a, what's called a Gaussian splat out of it, like a 3d object essentially using kind of like a point cloud but instead of a point cloud it's a black cloud i guess.
そこからガウシアンスプラットと呼ばれるものを作成します。これは基本的に3Dオブジェクトで、ポイントクラウドのようなものですが、ポイントクラウドの代わりにブラッククラウドを使用していると思われます。
Their website has all sorts of cool examples like here's this bird here i guess this might be like the original image they uploaded but if i click on it, I can actually control it and move around in 3D space and look at it.
彼らのウェブサイトには、この鳥のような様々なクールな例があります。これはおそらくアップロードされた元の画像だと思いますが、クリックすると実際に制御して3D空間で動き回って見ることができます。
And it all started from a single image and it just sort of guessed what everything else on this image was supposed to look like.
そしてこれはすべて1枚の画像から始まり、その画像の他の部分がどのように見えるはずなのかを推測したのです。
So essentially what it seems to be doing is it takes this input.
つまり基本的に、この入力を取り込んで、
It creates a 3d video of what it thinks that would look like from all different angles.
それがあらゆる角度からどのように見えるかを3D動画として作成します。
And then with that information, it's able to create a Gaussian splat, which is what you get with these sort of 3D environments that you can move around and manipulate a little bit.
そしてその情報を使って、ガウシアンスプラットを作成します。これにより、動き回ったり少し操作したりできるような3D環境が得られます。
And here's some more examples down here.
そしてここに他の例もあります。
They're all looking pretty cool.
どれも非常にクールに見えます。
Now, this tool looks super fun to play with, but unfortunately, in order to do the 3D portion of it, it's 99 bucks a month, which seems pretty steep.
このツールは遊ぶのがとても楽しそうですが、残念ながら3D機能を使うには月額99ドルかかり、かなり高額に思えます。
But I guess if you're planning on making 3D videos inside of Unreal Engine or Blender or something like that, something like this might be a little more worth it to you.
でも、Unreal EngineやBlenderなどで3Dビデオを作る予定がある場合は、これくらいの価格でも価値があるかもしれませんね。
The company Tencent also released some new research this week called Hunyon 3D 2, which appears to do something very similar.
テンセント社も今週、同様の機能を持つHunyon 3D 2という新しい研究成果を発表しました。
It generates 3D images.
これは3D画像を生成します。
We could see here, these are some of the 3D images that were generated with this Hun Yun 3D 2.0.
ここで見られるのは、Hun Yun 3D 2.0で生成された3D画像の一部です。
We could see some of the examples.
いくつかの例を見てみましょう。
They gave it like this stone guy here, and it made a 3D version.
この石の人のような画像を入力すると、3Dバージョンを作成しました。
This robot here, a 3D version, like a, I don't know, a cowboy gold miner looking dude made a 3D version.
このロボットや、カウボーイのような金鉱夫のような見た目の人物の3Dバージョンを作成しました。
So this appears to do something fairly similar to what we were just looking at with spline, but this doesn't appear to be making it a Gaussian splat.
これはさきほど見たsplineと非常によく似たことをしているようですが、ガウシアンスプラットは使用していないようです。
It appears to actually be making it these high precision geometric shapes.
実際には、高精度の幾何学的形状を作成しているようです。
Something I haven't actually had the opportunity to play around with myself yet, but the world of AI to 3D generated objects is really fun and really exciting to me.
私自身はまだ試す機会がありませんが、AIによる3Dオブジェクト生成の世界は本当に楽しく、わくわくします。
I've already 3D printed some stuff that I had AI generate for me.
私はすでにAIに生成してもらったものを3Dプリントしています。
So I'm really, really excited to see how quickly this area of AI has progressed.
このAI分野がこれほど急速に進歩しているのを見るのは、本当にわくわくします。
If you're into using AI for coding and you've used tools like Cursor and WindSurf and things like that, ByteDance, the company behind TikTok, just launched their own AI code editor.
もしあなたがCursorやWindSurfのようなAIコーディングツールを使用しているなら、TikTokを運営するByteDanceが独自のAIコードエディタを発表したことをお知らせします。
This new editor is called Trey, T-R-A-E, and it looks to be like a straight up competitor to Cursor and Windsurf and VSCode.
この新しいエディタはTrey(T-R-A-E)と呼ばれ、CursorやWindsurf、VSCodeの直接的な競合になりそうです。
Obviously, this week was the first week that Trump was in office here in the U.S., and one of the very first things he did was he revoked Biden's executive order for addressing AI risks.
明らかに、今週はトランプが米国で就任した最初の週で、彼が最初にしたことの1つは、AIリスクに対するバイデンの大統領令を撤回したことでした。
We can see here it says Biden's order required developers of AI systems that pose risk.
ここでは、バイデンの命令がリスクをもたらすAIシステムの開発者に要求していたことが書かれています。
So pretty much Trump immediately took that away.
つまり、トランプはそれをすぐに撤回したということです。
Trump clearly wants the U.S. to be the number one country in the world in AI.
トランプは明らかに、米国をAI分野で世界一の国にしたいと考えています。
Here's what he said at Davos this week.
これが今週ダボスで彼が言ったことです。
Make the United States a manufacturing superpower and the world capital of artificial intelligence and crypto.
アメリカを製造業のスーパーパワーにし、人工知能と暗号通貨の世界の首都にする。
And finally, this is one that Andrew Erkins shared with me on my recent X post when I was looking for, hey, what's the news I might've missed this week?
そして最後に、これは私が最近のX投稿で「今週見逃したニュースはありますか?」と尋ねた際にAndrew Erkinsが共有してくれたものです。
And he pointed out that there's a new AI tool that can identify risk of future heart failure.
彼は、将来の心不全のリスクを特定できる新しいAIツールがあることを指摘しました。
This is new research as of this week out of Yale School of Medicine.
これは今週イェール医学部から発表された新しい研究です。
Researchers developed an artificial intelligence tool that can identify individuals at high risk of developing heart failure using electrocardiogram images.
研究者たちは、心電図画像を使用して心不全を発症するリスクが高い個人を特定できる人工知能ツールを開発しました。
The new tool enables earlier identification of heart failure, potentially reducing hospitalizations and premature death, the research said.
この研究によると、新しいツールは心不全の早期発見を可能にし、入院や早期死亡を減らす可能性があるとのことです。
And now with Project Stargate in the works, I really, really feel like we're going to see tons more announcements like this of AI helping with preventative medicine, finding issues before they become bigger issues with people, new medicines, new vaccines, things like that.
そして現在進行中のProject Stargateにより、予防医療を支援するAI、人々の問題が大きくなる前に発見すること、新薬、新しいワクチンなど、このような発表がさらに多く見られるようになると本当に感じています。
I am really, really excited to see that in the AI world.
AI世界でこれを見るのは本当にわくわくします。
And I truly think that 2025 is going to be the year where we see a lot more announcements like this.
そして、2025年はこのような発表がさらに多く見られる年になると本当に思います。
And that's what I got for you this week.
今週はこれらの情報をお届けしました。
I know it was a huge week, a busy week, tons to talk about.
大きな1週間、忙しい1週間で、話題がたくさんあったことは承知しています。
And 2025 is just going to keep on ramping up from here.
そして2025年は、ここからさらに加速していくでしょう。
I don't really see things slowing down.
物事が減速するとは思えません。
I think we're entering a time where pretty much every week, again, we're going to have tons of big announcements to talk about, cool new toys to play with, cool new features and toys that we're already playing with, and I am here for it.
私たちは、毎週のように大きな発表があり、遊べる新しいおもちゃや、すでに遊んでいる新機能やおもちゃについて話す時代に入っていると思います。そして私はそれを楽しみにしています。
This year is going to be a big year.
今年は大きな年になるでしょう。
Lots of agents, lots of new developments in the world of health, improvements in video tools, improvements in image tools, improvements in 3D object generation, improvements in test time compute.
多くのエージェント、健康分野での新しい進展、ビデオツールの改善、画像ツールの改善、3Dオブジェクト生成の改善、テスト時の計算能力の改善が見られるでしょう。
After you give it a prompt, these Large Language Models are going to really think through the response and give you even better and better responses.
プロンプトを与えた後、これらの大規模言語モデルは本当に応答を考え抜き、より良い応答を提供するようになります。
It's going to be a wild year.
めまぐるしい1年になるでしょう。
Hopefully you're tuning into these videos and keeping looped in with it all.
これらのビデオを視聴し、すべての情報を把握し続けていただければと思います。
I'll be doing my best to make videos as all of this stuff pops up and keep you looped in as best as possible.
これらの情報が出てくるたびに、できる限りビデオを作成し、最新情報をお届けするよう努めます。
So if that's something that interests you, maybe like this video and subscribe to this channel i'll share more tutorials more news more ai tools things like that and if you haven't already check out futuretools.io where i share all the cool ai tools i come across i keep the ai news page up to date every single day with all the latest AI news.
もしそれに興味があれば、このビデオに「いいね」を押してチャンネル登録してください。より多くのチュートリアル、ニュース、AIツールなどを共有します。まだご覧になっていない方は、futuretools.ioをチェックしてください。私が出会った素晴らしいAIツールをすべて共有し、AIニュースページを毎日更新して最新のAIニュースをお届けしています。
And I've got a free newsletter where twice a week, I'll hit you in your inbox with just the coolest tools and the most important AI news that you need to know.
また、週2回、最もクールなツールと知っておくべき重要なAIニュースをお届けする無料ニュースレターもあります。
It's all totally free over at futuretools.io .
これらはすべてfuturetools.ioで完全無料です。
If you join the free newsletter, you also get hooked up with the AI income database, which is a free online database of cool ways to make money using these various AI tools.
無料ニュースレターに登録すると、様々なAIツールを使ってお金を稼ぐクールな方法を集めた無料オンラインデータベースであるAI income databaseにもアクセスできます。
Again, it's all over at futuretools.io thank you so much for tuning in i really really appreciate you thank you so much to ltx studio for sponsoring this video hopefully i'll see you back here in the next video bye
繰り返しになりますが、すべてfuturetools.ioにあります。ご視聴ありがとうございます。本当に感謝しています。このビデオのスポンサーになってくれたltx studioに感謝します。次回の動画でまたお会いできることを楽しみにしています。さようなら。