見出し画像

【マット・ウルフのAIニュース:2025年にAGI実現か?1月からAIがPCを操作へ【2024年11月16日|@Matt Wolfe】

OpenAIのサム・アルトマンCEOが2025年のAGI(汎用人工知能)実現を示唆し、Anthropicのダリオ・アマデイCEOも2026年から2027年の実現可能性に言及しました。ただし、AGIの定義について業界での合意がないため、実現時期の判断が難しいとされています。AIの進歩については、従来の学習面での向上は鈍化しているものの、OpenAIは推論段階での改善を実現しており、新たな進展が見られています。OpenAIは1月にPC操作が可能なAIエージェントをリリース予定で、これはAnthropicが最近ベータ版として公開した機能と類似しています。また、OpenAIはデスクトップアプリを無料ユーザーにも開放し、Mac版ではXcodeなど特定アプリの画面を読み取る機能を追加しました。GoogleのGemini Exp 1114が現在のチャットボットアリーナでトップの評価を獲得し、iPhoneアプリも公開されました。YouTubeはAIによる音楽リミックス機能のテストを開始し、Anthropicはプロンプト改善機能を追加しました。ElevenLabsはジェリー・ガルシアの音声を追加し、Googleは動画の視点を変更できる新技術を研究中です。その他、AppleのAIウォールタブレット開発計画や、Final Cut Pro 11でのAI機能追加、NASAとMicrosoftのEarth Copilot開発など、AI技術の応用が様々な分野で進展しています。
公開日:2024年11月16日
※動画を再生してから読むのがオススメです。


Here's everything that happened in the world of AI this week.

今週のAIの世界で起こったすべてのことです。

So let's just get right into it.

それではさっそく始めましょう。

Starting with the fact that Sam Altman is predicting AGI in 2025.

サム・アルトマンが2025年にAGIを予測しているという事実から始めます。

In fact, here's the exact snippet that everybody is talking about when they claim that Sam is talking about AGI in 2025.

実際、サムが2025年にAGIについて話していると主張する際に、皆が話題にしている部分がこちらです。

What are you excited about in 2025?

2025年に何を楽しみにしていますか?

What's to come?

何が来るのですか?

AGI?

AGIですか?

Excited for that.

それを楽しみにしています。

So Gary Tan, the CEO of Y Combinator asked Sam Altman what he was excited about for 2025.

YコンビネータのCEO、ゲイリー・タンがサム・アルトマンに2025年に何を楽しみにしているか尋ねました。

And Sam's response was AGI, sort of implying that he thinks we'll have AGI in 2025.

そして、サムの答えはAGIで、彼は2025年にAGIが実現するだろうと暗に示しているようでした。

Dario Amadei, the CEO of Anthropic, recently went on Lex Friedman's podcast where they chatted for five hours.

AnthropicのCEOであるダリオ・アマデイは最近、レックス・フリードマンのポッドキャストに出演し、5時間にわたって会話をしました。

And in that conversation, he was asked when he thought we would see AGI.

その会話の中で、いつAGIを見ることができると思うかと尋ねられました。

And here was his response.

そして、これが彼の答えでした。

What do you use the timeline to where we achieve AGI, aka powerful AI, aka super useful AI, smarter than a Nobel prize winner in every relevant discipline and all the things we've said.

どのタイムラインを使ってAGI、つまり強力なAI、ノーベル賞受賞者よりも賢いAIを達成することができるのですか?

Every time, if I say 2026 or 2027, there will be like a zillion people on Twitter who will be like, AICO said 2026, 2027, and it'll be repeated for the next two years that this is definitely when I think it's going to happen.

2026年か2027年と言うたびに、Twitterでは無数の人々が「AICOが2026年、2027年と言った」と言い、それが次の2年間繰り返され、これは確実にその時期だとされるでしょう。

Whoever's exerting these clips will crop out the thing I just said and only say the thing I'm about to say.

これらのクリップを使用する人々は、私が言ったことを切り取り、私がこれから言うことだけを言うでしょう。

If you extrapolate the curves that we've had so far, if you say, well, I don't know, we're starting to get to like PhD level.

これまでの曲線を外挿すると、まあ、私たちは博士レベルに近づき始めていると言えるかもしれません。

And last year we were at undergraduate level.

そして昨年は学部レベルにいました。

And the year before we were at like the level of a high school student.

その前の年は高校生レベルでした。

Again, you can quibble with at what tasks and for what.

また、どのタスクについてか、どの目的かについて議論することができます。

We're still missing modalities, but those are being added.

まだモダリティが不足していますが、それらは追加されています。

Like computer use was added.

例えばコンピュータの使用が追加されました。

Like image in was added.

画像生成が追加されました。

Like image generation has been added.

画像生成も追加されています。

And this is totally unscientific.

そしてこれは全く非科学的です。

But if you just kind of like eyeball the rate at which these capabilities are increasing, it does make you think that we'll get there by 2026 or 2027.

しかし、これらの能力が増加する速度を目分量で見ると、2026年または2027年までには到達するのではないかと思わせるのです。

Again, lots of things could derail it.

再び、多くの要因がそれを妨げる可能性があります。

We could run out of data, might not be able to scale clusters as much as we want.

データが不足するかもしれないし、クラスターを望むほどスケールできないかもしれません。

Maybe Taiwan gets blown up or something.

台湾が何かで攻撃されるかもしれません。

And then we can't produce as many GPUs as we want.

そして、望むほどのGPUを生産できなくなるかもしれません。

There are all kinds of things that could derail the whole process.

プロセス全体を妨げる可能性のある要因はたくさんあります。

So I don't fully believe the straight line extrapolation, but if you believe the straight line extrapolation, you'll get there in 2026 or 2027.

直線外挿を完全に信じているわけではありませんが、直線外挿を信じるなら2026年か2027年には到達するでしょう。

So obviously I'm not gonna crop out the portion that he mentioned that people are going to crop out.

もちろん、彼が言った部分を切り取ることはしません。

So I left his disclaimer in.

したがって、彼の免責事項を残しました。

I did edit it for brevity, but Dario's prediction is seemingly 2026, 2027.

簡潔にするために編集しましたが、ダリオの予測はどうやら2026年、2027年のようです。

Now, the big problem that I see with these predictions, both from Sam and from Dario, are that the definition of AGI is a struggle.

さて、サムとダリオの両方の予測で私が見る大きな問題は、AGIの定義が不明確であることです。

I think there's going to be a lot of debate about when we actually hit AGI.

実際にAGIに到達した時期について多くの議論があると思います。

I think we might see OpenAI sometime in 2025 saying we've achieved AGI, but then Google and Anthropic might come out and say, well, that's their definition of AGI.

2025年のどこかでOpenAIが「AGIを達成した」と言うかもしれませんが、その後GoogleやAnthropicが出てきて「それは彼らのAGIの定義だ」と言うかもしれません。

We don't see that as an AGI yet, right?

私たちはまだそれをAGIとは見なしていないでしょう?

Like there isn't any sort of clearly defined definition of AGI that all of these companies and all of these people align on.

このように、これらの会社や人々が一致する明確なAGIの定義は存在しません。

We may blow past AGI and not even realize it, or we might get to a point where companies claim they've achieved AGI, but other companies sort of disagree with their definition of AGI.

私たちはAGIを通過して気づかないかもしれないし、企業がAGIを達成したと主張しても他の企業がその定義に反対するかもしれません。

So I think this whole, when do we get AGI discussion is a bit of a tricky one for those reasons, because there's no agreed upon definition of exactly what AGI is.

したがって、このAGIの達成時期の議論全体は少し難しいものであり、その理由は、AGIが何であるかについての合意された定義がないからです。

And it's going to be hard to define it once we've actually achieved it.

そして、実際に達成してしまうと定義するのは難しいでしょう。

It's going to be harder to recognize than I think most people realize.

それは、ほとんどの人が思うよりも認識するのが難しいでしょう。

And on the flip side of that discussion, there's been a lot of news circulating around how the rate of AI improvements have been slowing down.

そしてその議論の反対側では、AIの進歩の速度が鈍化しているというニュースが多く流れています。

There was an article on the information.

その情報についての記事がありました。

Bloomberg also put out an article with a similar tone to it that AI progress has really been slowing down.

ブルームバーグも同様のトーンの記事を出し、AIの進展が本当に鈍化していると述べました。

And what they're actually referring to in these articles is that they're running into sort of diminishing returns when it comes to actually training the AI models up front.

これらの記事で実際に言及されているのは、AIモデルを事前に訓練する際に収穫逓減に直面しているということです。

They've kind of gotten to a point where just shoving more data, going and scraping more websites that they hadn't scraped yet and shoving that data into the new models isn't enough to really improve the output.

彼らは、単により多くのデータを投入し、まだスクレイプしていないウェブサイトをスクレイプし、そのデータを新しいモデルに投入するだけでは、出力を本当に改善するのに十分でないという段階に到達しました。

That's sort of the issue they've run into.

それが彼らが直面している問題です。

But companies like OpenAI are actually finding new ways to make these models smarter.

しかし、OpenAIのような企業は実際にこれらのモデルをよりスマートにする新しい方法を見つけています。

And they're not on that training side.

そしてそれは訓練側ではありません。

They're not on the side where they're stuffing more data into it and training it on all of this information.

彼らはより多くのデータを投入し、そのすべての情報で訓練する側にはいません。

It's more on the inference side.

それはむしろ推論側の話です。

So inference is essentially the point when you ask it your prompt.

推論とは本質的に、プロンプトを与えたときのことです。

and then it does its thinking, and then sort of gives you a response.

そしてそれが考えて、答えを与えるということです。

That's the inference phase.

それが推論段階です。

They're figuring out ways to make that portion of the AI even smarter.

彼らはそのAIの部分をよりスマートにする方法を模索しています。

We saw it with OpenAI's O1, and the version of O1 that we've seen is O1 preview.

OpenAIのO1でそれを見ましたが、私たちが見たO1のバージョンはO1プレビューです。

It was like a model checkpoint.

それはモデルのチェックポイントのようなものでした。

It wasn't even the full O1 yet, but they're figuring out how to make it smarter when you ask it the question.

それはまだ完全なO1ではありませんが、質問をしたときにそれをよりスマートにする方法を模索しています。

They're figuring out how to make it think through the response a little bit better before giving you an answer.

彼らは答えを出す前にもう少しよく考えさせる方法を模索しています。

A lot of the progress we're seeing now is on that inference side and less on the training side.

現在見られる多くの進展は推論側であり、訓練側ではありません。

So articles like this from the information and from Bloomberg and some of these companies saying that there's a big slowdown in the rate of improvement of these AI models.

したがって、情報やブルームバーグ、その他の企業からのこの記事のように、これらのAIモデルの改善速度が大きく減速していると言うことについてです。

Well, maybe there's a slowdown on that training portion, but they are finding new and better ways to improve these AI models during other phases of using these models, like during the inference phase.

訓練部分の減速はあるかもしれませんが、推論フェーズのような他の段階でこれらのAIモデルを改善する新しくてより良い方法を見つけています。

And since I brought up OpenAI, let's talk about this because this was big news that was circulating this week as well, that OpenAI is about to launch an AI agent that can actually use your computer.

そして、OpenAIの話を出したついでに、今週話題になっていた大きなニュースについて話しましょう。OpenAIが実際にコンピュータを使うAIエージェントをまもなく発売しようとしているということです。

Now we already saw that from Anthropic a couple of weeks ago, we got computer use out of Anthropic.

すでにアンソロピックからそれを見ましたが、数週間前にアンソロピックからコンピュータ使用ができました。

It's still a little buggy, it still runs into rate limit issues.

まだ少しバグがあり、レート制限の問題にぶつかります。

It's not quite what everybody hopes it would be yet, but it is a beta to kind of show where they're at currently.

まだ皆が期待するものとは違いますが、彼らがどこにいるのかを示すベータ版です。

Well, it sounds like OpenAI has sort of had this technology for a while.

どうやらOpenAIはしばらくこの技術を持っていたようです。

They've been able to do this already, but they're getting ready to release it.

彼らはすでにこれができていたのですが、これをリリースする準備を進めています。

And the word that's sort of circulating right now is that Sam Altman had an all hands meeting.

現在広まっている話によると、サム・アルトマンが全社ミーティングを行ったということです。

And during this all hands meeting, he claimed that they're going to release this tool use feature, this agentic AI for OpenAI and ChatGPT likely in January.

この全社ミーティングの中で、彼はOpenAIとChatGPTのためのこのツール使用機能、このエージェントAIを1月にリリースする予定だと主張しました。

So we're only a couple of months out from getting this tool use functionality from OpenAI as well.

つまり、OpenAIからこのツール使用機能を入手するまであと数ヶ月ということです。

A couple weeks ago, OpenAI rolled out their desktop app.

数週間前、OpenAIはデスクトップアプリを展開しました。

The Mac version came out a few months ago.

Macバージョンは数ヶ月前にリリースされました。

The windows version came out a couple of weeks ago.

Windowsバージョンは数週間前にリリースされました。

Those versions were for plus and enterprise and the paid users of ChatGPT.

これらのバージョンはPlusとエンタープライズ、およびChatGPTの有料ユーザー向けでした。

Well, this week, ChatGPT made these desktop apps available to everybody.

今週、ChatGPTはこれらのデスクトップアプリを全てのユーザーに提供しました。

So even if you're on the free plan, you should be able to use the new desktop versions of ChatGPT.

無料プランに加入していても、新しいデスクトップバージョンのChatGPTを使用できるはずです。

If you want, just go to openai.com/ChatGPT/desktop, and you can download the Mac OS version or the windows version gives you a nice little handy shortcut where you can quickly type in a prompt and get a response.

もし興味があれば、openai.com/ChatGPT/desktopにアクセスし、MacOSバージョンまたはWindowsバージョンをダウンロードできます。これにより、すぐにプロンプトを入力して応答を得るための便利なショートカットが提供されます。

And along with this new rollout of this new version of the app for everybody, if you're on a Mac, this new app can actually read some of the apps on your computer.

この新しいバージョンのアプリの一般向けの展開に加えて、もしMacを使用している場合、この新しいアプリは実際にコンピュータ上のいくつかのアプリを読み取ることができます。

Not all of them.

全てのアプリではありません。

There's some specific apps.

特定のいくつかのアプリです。

We can see in this example screenshot here, Xcode, text, edit, I term to terminal and code.

この例のスクリーンショットでわかる通り、Xcode、テキスト、エディタ、Iterm、ターミナル、そしてコードなどがあります。

You can enable those and the ChatGPT app can actually watch that on your screen and give you feedback.

それらを有効にすると、ChatGPTアプリが実際に画面上でそれを監視し、フィードバックを提供することができます。

Now it's not going to interact with it.

今のところ、これと対話することはありません。

It's not going to like type in new code into Xcode on your behalf, but it can see what is in Xcode.

あなたに代わってXcodeに新しいコードを入力することはありませんが、Xcodeにあるものを見ることができます。

and then tell you what to do next.

そして次に何をすべきかを教えてくれます。

Here's a little demo video that's been circulating, showing off this new feature.

この新機能を紹介するデモビデオが回ってきています。

I'm not going to show the whole video but let's take a peek at what it looks like when he's working with Xcode.

全てのビデオを見せるつもりはありませんが、彼がXcodeで作業しているときの様子をちょっと見てみましょう。

Well now with this new integration that I enabled, I can click the Xcode button here and ChatGPT can immediately see the Swift code I'm working on.

この新しい統合を有効にした状態で、ここでXcodeボタンをクリックすると、ChatGPTが即座に私が作業しているSwiftコードを見ることができます。

Check out this example.

この例を見てみてください。

So, OpenAI 01 first created this entire app from scratch to track the ISS and astronauts in space in real time.

まずOpenAI 01がこのアプリ全体をゼロから作成し、リアルタイムでISSと宇宙飛行士を追跡します。

But say I want to add a new feature to this app, I can simply write, add a new screen in the center with the live stream.

しかし、このアプリに新しい機能を追加したい場合、単に「中央に新しいライブストリーム画面を追加してください」と書けばいいのです。

Now, ChatGPT has the context about my existing Swift code and starts suggesting the changes.

すると、ChatGPTは私の既存のSwiftコードのコンテキストを把握し、変更を提案し始めます。

That's done, so I can just jump back in and update the code.

それが終わったら、すぐにコードを更新できます。

Let's build the app.

アプリをビルドしましょう。

Let's command R. Great.

コマンドRを押しましょう。素晴らしいです。

It's pretty cool.

とてもかっこいいですね。

The live stream is right there with even a fancy icon for it.

ライブストリームがそこにあり、素敵なアイコンまでついています。

You can see it saw Xcode, it saw his terminal, and it suggested the code changes.

Xcodeやターミナルを見て、コードの変更を提案したのがわかります。

He still had to copy and paste them, so it's not going to take control of those apps for you yet, but the version we might see in January that I just mentioned, it might be able to handle that stuff on your behalf without you even having to copy and paste.

まだ彼がコピーして貼り付ける必要があるので、これらのアプリを完全に制御するわけではありませんが、私が先ほど言った1月に見られるかもしれないバージョンでは、コピーして貼り付ける必要さえなく、それらの作業を代行するかもしれません。

In the final bit of OpenAI news here, Greg Brockman, the president of OpenAI and one of the co-founders returned.

ここで最後のOpenAIのニュースですが、OpenAIの社長で共同創設者の一人であるグレッグ・ブロックマンが戻ってきました。

If you remember a few months ago, a whole bunch of people were sort of leaving OpenAI.

数ヶ月前、たくさんの人々がOpenAIを離れていたのを覚えていますか?

Greg Brockman said, I'm taking an extended leave.

グレッグ・ブロックマンは「長期の休暇を取る」と言いました。

I'm taking a sabbatical.

私はサバティカル休暇を取ります。

And everybody thought, oh, Greg Brockman is out too.

みんなが「グレッグ・ブロックマンも辞めたのか」と思いました。

All of these other people are leaving.

他の人たちも皆辞めています。

Greg's leaving.

グレッグも去ります。

He must be gone as well.

彼もいなくなったに違いないと考えられていました。

Well, it turns out it was really just a break.

実際には本当にただの休暇でした。

It was just a sabbatical, a vacation.

それはただのサバティカル休暇、つまり休暇だったのです。

And now he's back and ready to get to work right as things seem to be getting exciting again.

そして彼は戻ってきて、物事が再び盛り上がってきたところで仕事に取り掛かる準備ができています。

But at the moment, as of the recording of this video, OpenAI does not have the top Large Language Model of the moment.

しかし、現時点では、このビデオを録画している時点で、OpenAIはトップの大規模言語モデルを持っていません。

In fact, that accolade currently goes to Google.

実際、その称賛は現在Googleに渡っています。

There was a new model that was released on November 14th, which happens to be the day that I'm recording this video called Gemini EXP 1114.

11月14日に新しいモデルがリリースされ、それはちょうどこのビデオを録画している日で、Gemini EXP 1114という名前です。

And according to the chatbot arena leaderboard, it is currently winning the chatbot race, according to users.

チャットボットアリーナのリーダーボードによれば、それは現在ユーザーによってチャットボットレースで勝利しているとのことです。

Now, as a quick refresher, if you're not familiar with the chatbot arena leaderboard, there's a little arena here.

ここで簡単におさらいしますが、もしチャットボットアリーナのリーダーボードに馴染みがない場合、ここには小さなアリーナがあります。

You could give it a prompt like which company makes the smartest LLMs.

例えば「どの会社が最も賢いLLMを作るのか」というプロンプトを与えることができます。

And you can see here that it blindly gives me a response here with two models.

そしてここで、2つのモデルで目隠しの応答をしているのが見られます。

We've got model A and model B.

モデルAとモデルBがあります。

I don't know which model is which.

どちらのモデルがどちらかは分かりません。

At the end, I can say A is better, B is better, it's a tie or both are bad.

最後に、「Aの方が良い」「Bの方が良い」「引き分け」「どちらも悪い」といった評価ができます。

And you can see that this model on the left gave a lot more detailed reply with a lot more formatting here.

左のモデルは非常に詳細な回答をし、たくさんの書式が含まれていることがわかります。

Model A gave less of a reply.

モデルAはより少ない回答をしました。

And based on a quick review, I can fairly confidently say that I think A is better.

簡単なレビューに基づいて、私はAの方が良いとかなり自信を持って言えます。

So I click A is better.

なので、私は「Aの方が良い」をクリックします。

And then down here, we can see that A is actually labeled as anonymous chatbot.

そしてここで、Aが実際には匿名チャットボットとラベル付けされているのが分かります。

Model B is labeled as C4AI expanse 32B.

モデルBはC4AIエクスパンス32Bとラベル付けされています。

Now, if we go back to our leaderboard here, this is how those rankings are found.

さて、リーダーボードに戻ると、これがランキングの決まり方です。

A whole bunch of people are going to this site, giving it a prompt, picking either A or B.

多くの人々がこのサイトに訪れ、プロンプトを与え、AまたはBを選びます。

This happens so many times every single day, and that's what affects the leaderboard.

これは毎日何度も起こり、それがリーダーボードに影響を与えます。

So this is as voted on blindly by users.

これはユーザーによって目隠しで投票された結果です。

And at the moment, the current model of Gemini, this Gemini EXP 1114, is the model that people are voting has given the best response to them.

そして現時点では、現在のGeminiモデル、Gemini EXP 1114が最も良い回答を提供したと人々が投票しています。

Or on the topic of Google, they just released a Gemini app for the iPhone.

Googleの話題ですが、iPhone向けにGeminiアプリがリリースされました。

We can see a little bit of a peek here.

ここで少し覗き見することができます。

You can actually take pictures with your phone.

スマートフォンで実際に写真を撮ることができます。

and then ask it to quiz you on that image.

その画像についてクイズを出してもらうことができます。

Now, if you have an iPhone, but you don't have one of the newer iPhones, you don't have the Siri with ChatGPT in it.

もしiPhoneを持っていても新しいiPhoneではない場合、ChatGPT搭載のSiriは使えません。

Well, maybe Gemini is a good option.

そんな場合、Geminiが良い選択肢になるかもしれません。

You can download the Gemini app and use this as an alternative.

Geminiアプリをダウンロードして代替手段として使用することができます。

I mean, we also have ChatGPT and Anthropic and Perplexity and all these other tools have apps as well.

ChatGPTやAnthropic、Perplexityなど他のツールにもアプリがあります。

But now Gemini is another one that you could add into the mix of your iPhone apps that talk to AI for you.

ただ、GeminiもAIと会話するためのiPhoneアプリの一つに追加することができます。

Since we're talking about Google, let's talk about YouTube real quick.

Googleについて話しているので、次はYouTubeの話をしましょう。

YouTube is testing music remixes made by AI.

YouTubeはAIで作成された音楽リミックスをテスト中です。

It says if you're a creator in the experiment group, you can select an eligible song, describe how you want to restyle it, then generate a unique 30 second soundtrack to use in your short.

実験グループのクリエイターであれば、対象となる曲を選び、どのようにリスタイルしたいかを説明することで、ショート動画で使用する独自の30秒サウンドトラックを生成することができるといいます。

These restyled soundtracks will have clear attribution to the original song, do the short itself and the shorts audio pivot page.

これらのリスタイルされたサウンドトラックには、元の曲に明確なクレジットが表示され、ショート自体とショートのオーディオピボットページにも表示されます。

And we'll also clearly indicate that the track was restyled with AI.

また、トラックがAIでリスタイルされたことが明示されます。

Now I don't have access to this feature yet, so I can't show it off, but essentially it sounds like you could take somebody else's song and it will make like a new version of it for your short to use in the background.

私はまだこの機能にアクセスできないので紹介できませんが、基本的には他人の曲を使ってショート動画の背景に新しいバージョンを作成できるようです。

And it'll properly give them attribution.

そして、きちんとクレジットが与えられます。

And you don't have to worry about copyright and things like that.

著作権などについて心配する必要はありません。

As I've mentioned before, I'm a big believer that everybody should have a website.

以前にも述べましたが、私は誰もがウェブサイトを持つべきだと強く信じています。

Everyone should have some online real estate of their own to show off their writing or their images or their videos.

誰もが自分の文章や画像、動画を見せるためのオンラインの居場所を持つべきです。

And that's why for today's video, I partnered with Hostinger.

だからこそ、今日のビデオではHostingerと提携しました。

They make it so easy to set up a website because you can literally let AI do it for you.

AIに任せることでウェブサイトの設定が非常に簡単になります。

And right now they're running a special Black Friday deal with 85% off.
現在、ブラックフライデーの特別ディールで85%オフのキャンペーンを行っています。

You can literally get your website for under two bucks a month.

月に2ドル以下でウェブサイトを手に入れることができます。

Go to the URL in the description, click on claim deal.

説明にあるURLにアクセスして、「クレイムディール」をクリックしてください。

You're going to want to get the business website builder because this is the one that has all of the really cool AI features.

ビジネスウェブサイトビルダーを選ぶと良いでしょう。これには本当にクールなAI機能が全て含まれています。

Go ahead and choose that plan.

そのプランを選択してください。

Choose the length of time that you want to sign up for the website for.

ウェブサイトの契約期間を選びます。

Personally, I always like to just get the longest one possible because I don't want to have to think about monthly payments.

個人的には、月々の支払いを考えたくないので、いつもできるだけ長期間のものを選ぶのが好きです。

And click this little link that says have a coupon code.

そして「クーポンコードを持っている」リンクをクリックしてください。

Notice the price right now.

現在の価格を確認してください。

If I enter the coupon code MattWolf and click apply, it gets even cheaper.

クーポンコード「MattWolf」を入力して「適用」をクリックすると、さらに安くなります。

Once inside of your Hostinger account, go ahead and click on websites.

Hostingerアカウントに入ったら、「ウェブサイト」をクリックしてください。

Click on this little add website button.

「ウェブサイト追加」ボタンをクリックします。

and then select the Hostinger website builder.

次に「Hostingerウェブサイトビルダー」を選択します。

You'll notice it's an AI powered drag and drop website builder.

これはAI搭載のドラッグ&ドロップ式のウェブサイトビルダーです。

Now I simply answer a few questions and I'll have a website built in minutes.

いくつかの質問に答えるだけで、数分でウェブサイトが構築されます。

Let's pretend I'm building a drone review site.

ドローンレビューサイトを作ると仮定しましょう。

I'll call it Matt's Drone Reviews.

「Matt's Drone Reviews」と名付けます。

And for the description, I'm lazy.

説明には、私は怠け者なので、

I like to hit this microphone button and just describe what I want my website to be.

このマイクボタンを押してウェブサイトの内容を説明するのが好きです。

This is a website where I share reviews and news about the latest drone technology for consumer drones.

これは、消費者向けドローンの最新技術に関するレビューやニュースを共有するウェブサイトです。

Now I'll go ahead and click create website and let the AI do its magic for me.

「ウェブサイトを作成」をクリックしてAIに任せます。

A few seconds later, I have a full rough draft of a website complete with blog posts with drone images already on it.

数秒後には、ドローンの画像付きのブログ投稿が揃ったウェブサイトのラフドラフトが完成します。

Now I can customize it by simply clicking this edit site button in the top right.

「サイトを編集」ボタンをクリックするだけでカスタマイズできます。

And check this out.

これを見てください。

I can drag and drop this however I want.

自分の好きなようにドラッグ&ドロップできます。

Maybe I want this top section to be a little bit smaller.

この上部セクションを少し小さくしたいかもしれません。

Let's just go ahead and shrink it up like that.

そのように縮小してみましょう。

Let's jump into one of these blog posts.

このブログ投稿の一つに飛び込みましょう。

Let's let AI write a drone review for me.

AIにドローンレビューを書かせてみましょう。

Give it a quick description and tell it to create the text.

簡単な説明を与えてテキストを作成させます。

A few seconds later, I have a rough draft of a blog post that I can start to build off of.

数秒後には、構築を始めるためのブログ投稿のラフドラフトが完成します。

And this is just scratching the surface of all of the cool AI features they have inside of this platform.

これは、このプラットフォームに搭載されているクールなAI機能の一部に過ぎません。

And of course, it's got all the other website building features that you'd expect from a website building platform.

もちろん、ウェブサイト構築プラットフォームに期待される他の全ての機能も備えています。

You can check it out over at hostinger.com/Matt Wolf.
hostinger.com/Matt Wolfで確認してみてください。

Get in as soon as you can because they got that Black Friday deal going.

ブラックフライデーのディールがあるので、できるだけ早く参加してください。

And don't forget to use the coupon code Matt Wolf.

クーポンコード「Matt Wolf」を使うのを忘れないでください。

Thank you so much to Hostinger for sponsoring this video.

このビデオをスポンサーしてくれたHostingerに感謝します。

The Anthropic console added a new feature that improves prompts for you.

Anthropicコンソールに、プロンプトを改善する新機能が追加されました。

If we head over to console.Anthropic.com, we've got this improve an existing prompt button.

console.Anthropic.comにアクセスすると、「既存のプロンプトを改善する」ボタンがあります。

We can click on this.

これをクリックします。

I can give it a simple prompt, like help me solve this math problem.

「この数学の問題を解くのを手伝って」といった簡単なプロンプトを与えます。

And then in brackets, put math problem so that it knows that that's the variable that'll change every time I use this prompt.

次に括弧内に「math problem」と入れ、このプロンプトを使うたびに変わる変数であることを認識させます。

And then it says, what would you like to improve?

次に「何を改善したいですか?」と聞かれます。

I could say something like, I want to ensure that Claude thinks this through and always comes to the correct conclusion.

「Claudeがこの問題をよく考え、常に正しい結論にたどり着くようにしたい」といった具合に伝えます。

and then click improve prompt.

そして「プロンプトを改善」をクリックします。

It's thinking through right now, analyzing my prompt, figuring out how to improve the prompt.

現在、プロンプトを分析し、どのように改善するかを考えています。

I'm actually watching it in real time, actually go through this process of improving the prompt.

リアルタイムでプロンプトを改善する過程を見ることができます。

Each of these steps is going through by itself.

各ステップが独立して進んでいきます。

And at the end, we have a much more detailed prompt here.

最終的に、より詳細なプロンプトがここに表示されます。

You're an expert mathematics tutor tasked with helping a student solve a math problem.

あなたは生徒が数学の問題を解くのを助ける専門の数学家庭教師です。

Your goal is to provide a clear step-by-step solution that not only answers the question, but also explains the reasoning behind each step.

あなたの目標は、質問に答えるだけでなく、各ステップの理由を説明する明確な手順を提供することです。

Here are the math problems you need to solve.

解くべき数学の問題がここにあります。

Please follow the steps to solve the problem, analyze, plan your approach, execute.

問題を解く手順に従ってください。分析し、アプローチを計画し、実行します。

So it's basically forcing it to do this like chain of thought, step-by-step breakdown why you did it that way.

つまり、チェーン・オブ・ソート(考えの連鎖)を使って、なぜそのように解いたのかを段階的に説明させるということです。

Now I can open it in the workbench.

これで作業台に開くことができます。

Here's my prompt right here where my variable is.

ここに変数を含んだプロンプトがあります。

That's where I would actually give it a math problem.

ここに実際の数学の問題を与えます。

So pretty handy feature.

かなり便利な機能ですね。

If you don't want to be a prompt engineer, you don't want to learn about prompt engineering, you can let Claude be the prompt engineer for you.

プロンプトエンジニアになりたくない場合、プロンプトエンジニアリングを学びたくない場合、Claudeにプロンプトエンジニアを任せることができます。

Now, Anthropic probably won't be too happy about this, but any prompt that this generates, you can also go use in ChatGPT.

Anthropicはあまり喜ばないかもしれませんが、この機能で生成されたプロンプトはChatGPTでも使用できます。

You can go use in Gemini.

Geminiでも使用できます。

You can go use in Llama.

Llamaでも使用できます。

Doesn't matter.

関係ありません。

The prompt will probably be a lot more effective than whatever you were going to originally write.

おそらく、元々書こうとしていたものよりも効果的なプロンプトになるでしょう。

If you've wanted to use Grok by xAI, but you haven't wanted to pay for an X premium account, well, it sounds like they're testing out free versions of it in certain countries.

あなたがxAIのGrokを使いたいけれど、Xのプレミアムアカウントの料金を払いたくないなら、いくつかの国で無料バージョンをテストしているようです。

I don't believe they're testing a free version in the US, but according to this TechCrunch article, they were able to confirm that X is testing access to Grok for free users in New Zealand.

アメリカで無料版をテストしているとは思いませんが、このTechCrunchの記事によると、ニュージーランドで無料ユーザー向けにGrokのアクセスをテストしていることが確認されたようです。

So if all goes well there, maybe we'll start to see free versions of Grok roll out into more locations.

そこですべてが順調にいけば、Grokの無料版がさらに多くの地域に展開されるかもしれません。

I mentioned several weeks ago that Perplexity was going to start adding ads into their platform.

数週間前に、Perplexityがプラットフォームに広告を追加し始めることについて言及しました。

So when you ask questions, there could be ads within the responses.

つまり、質問すると、その回答に広告が含まれる可能性があります。

Well, it sounds like this week they're actually starting to roll out that feature.

さて、どうやら今週、その機能を実際に展開し始めているようです。

We can see a little screenshot here of what that might look like.

ここでそのイメージがわかるスクリーンショットを少し見ることができます。

You ask the question, it gives an answer.

あなたが質問すると、それが回答を提供します。

And then down below the answer, they have like a related question section where you can sort of follow on the discussion.

そして、回答の下には関連する質問のセクションがあり、そこでディスカッションを続けることができます。

And it looks like there might even be a sponsored related question.

また、スポンサー付きの関連質問があるかもしれません。

The Washington Post this week rolled out its own AI bot to answer questions.

今週、ワシントン・ポストは自社の質問回答用AIボットを公開しました。

I'm guessing about what's going on in the news.

ニュースで何が起こっているかについて推測しています。

We can see it's called Ask the Post AI, and it's completely free to use right now.

その名も「Ask the Post AI」で、現在は完全に無料で利用できることがわかります。

Now, the Washington Post, I think, has a subscription model, but you don't need to be a subscriber to use this at the moment.

ワシントン・ポストは購読モデルがあると思いますが、この機能を使うのに今のところ購読者である必要はありません。

It has some suggested questions down here.

ここにはいくつかの推奨質問が表示されています。

Let's go ahead and see what it says for how can I stop junk mail.

「ジャンクメールを止めるにはどうしたらいいか」という質問について見てみましょう。

And it looks like it uses articles from the Washington Post to respond to your questions.

ワシントン・ポストの記事を使って質問に答えているようです。

And it's a pretty short response, but it looks like there's three articles that it pulled from here.

そして回答はかなり短いものですが、ここから引っ張ってきた3つの記事があるようです。

Not something I see myself using a ton, but it's free.

大量に使うことはなさそうですが、無料です。

And if this interests you, you can check it out at WashingtonPost.com/AskThePostAI.
興味があれば、WashingtonPost.com/AskThePostAIでチェックできます。

The AI tool AlphaFold3 was actually released this week as open source.

AIツールAlphaFold3が今週オープンソースとしてリリースされました。

It was put up on GitHub.

それはGitHubにアップロードされました。

The creators of AlphaFold3 actually won the Nobel Prize this year for this work, which is an AI that helps model protein structures.

AlphaFold3の創作者たちは、タンパク質構造のモデリングを助けるこのAIの業績で今年ノーベル賞を受賞しました。

With this being more open now, theoretically, it could lead to a lot more drug discoveries and a better understanding of biology, essentially.

これがさらにオープンになったことで、理論的には多くの新薬発見や生物学の理解の向上につながる可能性があります。

Eleven Labs rolled out a new feature this week called Projects, which appears to be a sort of organizational tool inside of Eleven Labs for if you're converting large books into audio versions.

Eleven Labsは今週「Projects」と呼ばれる新機能を発表しました。これは、大きな本を音声版に変換する際のEleven Labs内の組織ツールのようです。

It seems like it'll help you break it down into much more manageable chunks to create the audio from.

これにより、音声を作成するために管理しやすい小さな部分に分けるのを助けてくれるようです。

It also looks like you can now select a word or a part of a sentence and regenerate only that section.

また、今では単語や文章の一部を選択し、その部分だけを再生成することもできるようです。

So if you don't like the way like a single sentence sounds, you can have it redo it until you like it and a whole bunch of other quality of life upgrades like the ability to customize sentence delivery, apply voice changes across multiple paragraphs, improved audio playback when you're listening back to it and things like that.

たとえば、一つの文の音声が気に入らなければ、気に入るまでそれを再生成することができ、文章の配信をカスタマイズしたり、複数の段落にわたって音声変更を適用したり、再生中の音声を改善したりといった多くの生活の質向上機能があります。

And since we're talking about Eleven Labs, Jerry Garcia is now one of the voices that's available to use inside of Eleven Labs.

Eleven Labsの話をしているので言うと、ジェリー・ガルシアが現在Eleven Labs内で利用可能な音声の一つとなりました。

This was approved by Jerry Garcia's estate, and it looks like it's in the ElevenLabs reader app where it can read PDFs and articles and things like that to you.

これはジェリー・ガルシアの財団によって承認されており、ElevenLabsのリーダーアプリ内でPDFや記事などを読み上げてくれるようです。

If you remember in a previous video, I talked about how Judy Garland, James Dean, Burt Reynolds, Sir Lawrence Olivier were all people that lent their voice to ElevenLabs and they can sort of read these articles to you.

以前のビデオで、ジュディ・ガーランド、ジェームズ・ディーン、バート・レイノルズ、サー・ローレンス・オリビエがElevenLabsに声を提供し、これらの記事を読み上げてくれることについて話しました。

Well, now Jerry Garcia is one of those as well.

そして今、ジェリー・ガルシアもその一人になりました。

It could be a lot cooler if it would sing it to me, but still cool nonetheless.

歌ってくれたらもっとクールだろうけれど、それでも十分クールです。

Nathaniel Ruiz here showed off some new research they've been working on over at Google.

ここでナサニエル・ルイズがGoogleで取り組んでいる新しい研究を披露しました。

Nathaniel is actually the original creator of Dreambooth, a tool that I've made several tutorials about and how I actually trained my own face into AI originally.

ナサニエルは、Dreamboothのオリジナルの創作者で、私はそのツールに関するチュートリアルをいくつか作成し、元々自分の顔をAIに学習させる方法を紹介しました。

Well, this new research is a sort of re-angling of videos.

さて、この新しい研究はビデオの角度を変えるようなものです。

The tweet here says recapture is a method to generate new versions of a user provided video with customized camera trajectories.

ここでのツイートによると、「recapture」はカスタマイズされたカメラ軌跡を使ってユーザー提供のビデオの新しいバージョンを生成する方法です。

We can see some examples here, like this original video of a parrot.

ここでいくつかの例を見ることができます。例えばこのオウムの元のビデオです。

And then this recapture video was new angles.

そして、この「recapture」ビデオは新しい角度を見せています。

This person blowing a kiss, new angles, this elephant, it can show new angles.

このキスを投げる人、象、それぞれに新しい角度が表示されています。

So if you have an original video, you can upload this original video and this research can help you make new angles on that original video.

オリジナルのビデオを持っているなら、そのビデオをアップロードして、この研究がそのオリジナルビデオに新しい角度を作るのを助けてくれます。

Now, this isn't something that we have access to.

これは現時点では私たちがアクセスできるものではありません。

It doesn't look like they've made the code available on a place like GitHub or anything.

GitHubなどでコードが公開されているわけではないようです。

We do have a research paper here on archive.org that goes into more detail about what they've been building.

しかし、archive.orgに研究論文があり、彼らが何を作っているのかについてより詳しく説明しています。

But if you know me and you've watched my channel for a while, you know that I really get excited about stuff when I have the chance to play with it.

でも、私を知っていて私のチャンネルをしばらく見ているなら、実際に触れる機会があると本当に興奮することを知っているでしょう。

Excited to see that one roll out and actually get my hands on it at some point.

それがリリースされて、いつか実際に触れられるのが楽しみです。

Here's some more research that I came across this week that I thought was really interesting called Auto VFX.

今週見つけたとても興味深い研究「Auto VFX」について少し紹介します。

You can upload a video scene in like 3D space like this table here they uploaded and you can see there's a vase in the table.

3D空間のようなビデオシーンをアップロードできます。ここでアップロードされたテーブルには花瓶が置かれています。

They gave it a prompt of fireball breaks vase.

彼らは「火の玉が花瓶を壊す」というプロンプトを与えました。

You can see down here.

ここでその様子が見られます。

And if I scroll across, you can see what this looks like.

スクロールすると、どのようになるかがわかります。

But there's the fireball hitting the vase.

火の玉が花瓶に当たっています。

Or here's the vase actually melting.

こちらでは花瓶が溶けています。

Or here's an animated bird flying around the vase.

また、アニメーションの鳥が花瓶の周りを飛んでいます。

Looks kind of like a cross between the pigs and the birds and angry birds, maybe.

ちょっと「アングリーバード」の鳥と豚の中間みたいな感じですね。

Basketball's dropping on this 3D scene.

バスケットボールがこの3Dシーンに落ちてきます。

So you upload the 3D scene.

3Dシーンをアップロードします。

And then you can give it a text prompt of what sort of additional visual effects you want in that scene.

その後、そのシーンに加えたい視覚効果をテキストプロンプトで指定できます。

So this seems pretty dang cool.

これはとてもすごく見えますね。

This is something I can't wait to play with.

私はこれを早く試したくてたまりません。

I love workflows like this.

こういうワークフローが大好きです。

We have all sorts of examples of like this office here, which is empty, but then here's Ironman emitting smoke in that office, or here's like a little studio apartment or something.

このオフィスのような例がたくさんあります。オフィスは空っぽですが、そこにアイアンマンが煙を出している様子や、小さなスタジオアパートのようなものもあります。

And I slide this over and now there's a campfire in the middle of the studio apartment.

これをスライドすると、スタジオアパートの真ん中に焚き火が現れます。

The pretty cool research here.

ここでの研究はとてもクールです。

I really liked this, like a car driving down the road.

私はこれがとても気に入りました。車が道路を走っているようです。

Now it's hitting a Mercedes G wagon.

今はメルセデスのGワゴンに衝突しています。

I'll leave the link to this research in the description below, as I do with all the links of the things I talk about.

この研究のリンクは、他の話題と同様に説明文に載せておきます。

It looks like, let's see if I go to GitHub here, there is actually code on GitHub for this one.

GitHubにアクセスすると、実際にこのコードが公開されています。

So if you know what you're doing, you can actually set this one up.

あなたがやり方を知っていれば、実際にこれを設定することができます。

Personally, I don't know what I'm doing on this.

個人的にはどうやるのかよくわかりません。

I might have to refer to an expert and get somebody to walk me through how to actually install this and use it myself, if my computer is even capable of it.

私のコンピュータが対応できるなら、専門家に相談してインストールと使い方を教えてもらう必要があるかもしれません。

And maybe something we can play around with more in a future video.

将来的にはこれをさらに詳しく動画で取り上げてみることもできるかもしれません。

The company in Video AI, actually one of the longer term sponsors on this channel, just rolled out their new V3 model of NVIDIA.

このチャンネルの長期スポンサーの一つである「in Video AI」が、NVIDIAの新しいV3モデルを公開しました。

Now, if you remember version two of NVIDIA went and found like stock footage that already existed, it listened to your voiceover or took your text, and then it put the relevant stock video over it.

NVIDIAのバージョン2では、既存のストック映像を探し、ボイスオーバーやテキストを聞いて、それに関連するストックビデオを表示していました。

Version 3.0 generates the video, so it's not going and finding stock video, it's actually generating completely new video based on your script or whatever you uploaded for the video.

バージョン3.0ではビデオを生成します。つまり、ストックビデオを探すのではなく、あなたのスクリプトやアップロードした内容に基づいて完全に新しいビデオを生成します。

I do have more videos coming out about NVIDIA 3.0.

NVIDIA 3.0に関する動画はさらに公開する予定です。

So I'll be talking about that in future videos, but that update rolled out this week as well.

それについては今後の動画で話す予定ですが、そのアップデートは今週行われました。

All right, I'm going to move into some like rapid fire news.

さて、ここからは少しスピーディにニュースをお届けします。

Most of what I'm going to talk about from here on out is sort of interesting stuff, but it doesn't require much more in-depth discussion on it.

これから話すほとんどの内容は面白いことですが、深入りして説明するほどのことではありません。

I'm just going to kind of share it quickly.

なので、簡単にシェアします。

Apple's next device is an AI wall tablet.

Appleの次のデバイスはAIウォールタブレットです。

So they actually have a picture here of like an Amazon Echo hub.

実際にここにAmazon Echoハブのような写真があります。

Apparently Apple's going to be building something very similar to this and it's going to have AI built into it, but it's going to help you manage your smart home.

Appleはこれに非常に似たものを開発し、AIを搭載し、スマートホームの管理を手助けする予定だそうです。

Since I'm talking about Apple, Apple rolled out a new version of Final Cut Pro this week, Final Cut Pro 11, and it has a ton of AI features in it.

Appleについて話しているので、ついでに言うと、Appleは今週Final Cut Proの新しいバージョン、Final Cut Pro 11を公開しました。AI機能がたくさん搭載されています。

It's got a magnetic mask feature, which will sort of do the rotoscoping for you in video and mask out any object in the video.

マグネティックマスク機能があり、ビデオ内でロトスコーピングを自動で行い、オブジェクトをマスクします。

It's got spatial video editing for Apple Vision Pro, so you can edit videos and turn them into 3D videos designed to be viewed on the Apple Vision and a handful of other features.

Apple Vision Pro向けの空間ビデオ編集機能もあり、ビデオを編集してApple Visionで見るための3Dビデオに変換することができます。

Now, I don't use a Mac right now.

私は今Macを使っていません。

I use a PC.

私はPCを使っています。

I use DaVinci Resolve, but their magic mask feature, which DaVinci already has, but this Apple version looks pretty dang good.

私はDaVinci Resolveを使っていますが、DaVinciにもすでにあるマジックマスク機能、このApple版はかなり良さそうです。

It looks like the best I've seen so far.

今まで見た中で最高だと思います。

Since we're talking about Apple, I had to show off this video.

Appleについて話しているので、このビデオを紹介せずにはいられません。

This guy, Alex Dima here over on X shared his setup where he hooked up four brand new Mac minis together, and he's using them as his like AI machine.

この人、アレックス・ディマがXで新しいMac miniを4台接続してAIマシンのように使っている設定をシェアしていました。

He's using this XO labs, which allows you to run AI on any device.

彼はどのデバイスでもAIを実行できるXOラボを使用しています。

And he hooked up the four M4 pro Mac minis together, and he's running NVIDIA's Nemo Tron seven DB on it and said he can even run a Llama four Oh five B on it, which is a huge model.

彼はM4プロのMac miniを4台接続し、NVIDIAのNemo Tron 7DBを実行していて、Llama 405Bのような巨大なモデルも実行できると言っていました。

I just thought that was interesting and wanted to show that off.

面白いと思ったので紹介してみました。

If you're a fan of the ARC browser, the ARC browser is now available as an Android app.

ARCブラウザのファンであれば、ARCブラウザがAndroidアプリとして利用可能になりました。

We've actually had the ARC browser as an iPhone app for a little while now, but now there's an Android version.

ARCブラウザはしばらくの間iPhoneアプリとしても提供されていましたが、Android版が登場しました。

Apparently Yahoo Mail is launching an app update with some AI features, like it'll summarize emails for you and help you improve emails or make them more concise or make them more friendly or whatever.

YahooメールもAI機能を備えたアプリのアップデートを開始しており、メールの要約や内容の改善、簡潔化、親しみやすくするなどの手助けをします。

Very similar to what we've seen with Gmail and Outlook and some of these other tools that have rolled AI into it.

これはGmailやOutlook、他のツールで見たようなAI機能に非常に似ています。

And if you're thinking what I'm thinking, it's that people still use Yahoo email addresses.

私と同じことを考えているなら、「まだYahooメールアドレスを使っている人がいるのか」ということですよね。

That's news to me.

それは私にとっても驚きのニュースです。

NASA and Microsoft are working together on Earth Copilot.

NASAとMicrosoftはEarth Copilotで協力しています。

We can see a demo here.

ここでデモを見ることができます。

It's using all of NASA's information and it's using Microsoft's AI.

これはNASAのすべての情報を利用し、MicrosoftのAIを使用しています。

So you could ask questions about complex geospatial satellite imagery and data and unlock new insights and discoveries.

そのため、複雑な地理空間の衛星画像やデータについて質問し、新しい洞察や発見を得ることができます。

But basically, it's got all of the data that NASA's collected from its various satellites, and it's making that data available to essentially chat with, it seems like.

基本的には、NASAがさまざまな衛星から収集したすべてのデータを使って、それらのデータをチャットの形で利用可能にするようです。

The Vatican just worked with Microsoft to create a digital twin of St. Peter's Basilica so that people can do virtual visits of it, as well as so it can document some of the damage and log issues with the building and things like that.

バチカンはMicrosoftと協力してサン・ピエトロ大聖堂のデジタルツインを作成し、人々が仮想訪問できるようにし、建物の損傷や問題を記録することができるようにしました。

They used over 400,000 high resolution digital photos to actually get this.

彼らはこれを実現するために40万枚以上の高解像度デジタル写真を使用しました。

And if you head over to this long complex URL, which don't worry, will be in the comments, you can actually take a peek here.

長く複雑なURLにアクセスすれば、コメントに記載されているので心配しないでください、実際にここで見ることができます。

We can click on different areas of the map here.

ここで地図のさまざまなエリアをクリックすることができます。

And by clicking on one of these areas of the map, it will sort of set our vantage point.

地図のエリアをクリックすると、視点を設定することができます。

You could actually see my character down in the bottom right here, moving to this point on the map itself.

右下に私のキャラクターが実際に表示され、地図上のこのポイントに移動しているのが見えます。

And then once I get there, I can actually drag around and look around at what's in this imagery.

そこに到着すると、画像内の内容をドラッグして周囲を見回すことができます。

And I can actually get really, really close up and get detailed look at a lot of what's going on here in the Vatican.

バチカンでの詳細を非常に近くで見ることができます。

Now, some of the shots just show this sort of like grid outline, which in my opinion, looks pretty cool anyway.

いくつかのショットはグリッドのアウトラインのようなものを示していますが、私の意見では、それでもかっこよく見えます。

But once we zoom in closer on certain elements, then things come into focus.

特定の要素にズームインすると、詳細が明確になります。

I just think this is really, really cool.

これは本当に本当にかっこいいと思います。

And I'm excited to see more projects use this technology and allow us to explore places that we might not otherwise ever get to explore.

この技術を使ったプロジェクトがもっと増えて、通常では探索できない場所を探索できることを楽しみにしています。

This artwork here was generated by AI.

ここにあるこのアートワークはAIによって生成されました。

It's a photo of Alan Turing and it sold for $1 million.
これはアラン・チューリングの写真で、100万ドルで売れました。

Now this wasn't generated with like a mid journey or Stable Diffusion or something like that.

これはMidjourneyやStable Diffusionのようなもので生成されたものではありません。

It was actually generated by this AI robot that is a humanoid robot with arms who actually physically did the drawing of the image.

実際には、このAIロボット、人間型の腕を持ったロボットが実際に物理的にこの画像を描いたのです。

And we can see here it sold for $1,084,800 after 27 bids.
ここに表示されているように、27件の入札の後、1,084,800ドルで売却されました。

Again, here's a closer look at the image that was created.

もう一度、作成された画像のクローズアップを見てみましょう。

And here's a slightly closer image of the robot that painted the image.

そして、この画像を描いたロボットの少し近い画像です。

A few months ago, we talked about how a Beatles song was assisted with AI.

数か月前、AIがビートルズの曲をどのように支援したかについて話しました。

They used AI to restore some old audio footage.

彼らはAIを使って古い音声映像を復元しました。

And apparently this song is now up for a Grammy.

どうやらこの曲はグラミー賞にノミネートされたようです。

It'll be competing with Beyonce, Taylor Swift, and Billie Eilish.

ビヨンセ、テイラー・スウィフト、ビリー・アイリッシュと競うことになります。

Personally, I'm rooting for the AI.

個人的にはAIを応援しています。

If you've always wanted to ride in one of these Waymo driverless cars.

もしあなたがこれらのWaymo無人運転車に乗りたいと思っていたなら。

They've been available in San Francisco and I believe Phoenix and a few other cities.

サンフランシスコ、フェニックス、その他いくつかの都市で利用可能です。

Well, now if you're in Los Angeles, you'll be able to use them in Los Angeles.

さて、ロサンゼルスにいるなら、ロサンゼルスでも利用可能になります。

As somebody who lives in San Diego, I'm actually up in Los Angeles fairly frequently.

サンディエゴに住んでいる身として、私は実際に頻繁にロサンゼルスに行きます。

So I'm excited to finally try one of these.

なので、ついにこれを試せるのを楽しみにしています。

Unitree Robotics open source their G1 data set here, their data collection model, their learning algorithms, the data set and models, all of it was open sourced.

Unitree RoboticsはG1データセットをオープンソースにしました。データ収集モデル、学習アルゴリズム、データセットとモデル、すべてがオープンソース化されました。

So other robotic companies can leverage the information and the research they've done to develop what we're currently seeing from the unitry robots.

他のロボット企業は、その情報と研究を利用して、現在のUnitreeロボットのようなものを開発することができます。

And in the last bit of robot news, this is a robot here out of China.

そして、最後のロボットニュースとして、これは中国からのロボットです。

This is from deep robotics.

これはDeep Roboticsのものです。

And we can see this is a four legged robot with wheels that looks like it can pretty much go on any terrain.

これは四足のロボットで、車輪もついていて、ほとんどどんな地形でも移動できそうです。

Now, I don't know if you remember a couple months ago where I showed that robot dog that had a flamethrower on it.

さて、数か月前に火炎放射器を持ったロボット犬を紹介したのを覚えていますか?

If you combine that robot dog with a flamethrower and this robot, that's like nightmare fuel right there.

もし火炎放射器付きのロボット犬とこのロボットを組み合わせたら、それはまさに悪夢の燃料です。

But again, I always like to end on robotics because robots are so much fun to me and they're so exciting and I like robots.

でもやっぱり、私はロボティクスで終わるのが好きです。ロボットはとても楽しいし、興奮するからです。そして私はロボットが好きです。

So that's my final story of the week.

だからこれが今週の最後の話題です。

I hope you enjoyed this episode.

このエピソードを楽しんでいただけたら嬉しいです。

Lots and lots of cool AI stories coming out right now.

今、たくさんのかっこいいAIストーリーが出ています。

A lot of progress happening.

たくさんの進展が起きています。

I think like I mentioned last week, there will be a bit of a slowdown, the end of November, most of December, usually we don't get a lot of new announcements due to the holidays, but come January and 2025, I think we're in for a wild ride in AI.

先週も言ったように、11月末から12月のほとんどは少しスローダウンするでしょう。通常、休日のため新しい発表はあまりありませんが、1月と2025年にはAIでの激しい進展があると思います。

Like we haven't seen anything yet.

まだ何も見ていないようなものです。

And what I know that's coming in 2025 and what we've sort of gotten sneak previews of it's going to be the biggest year in AI yet.

2025年に何が来るのか、私たちが得たプレビューから見ても、AIにとってこれまでで最大の年になるでしょう。

I mean, bigger than 2023, bigger than 2024.

2023年よりも、2024年よりも大きな進展です。

And I can't wait for it.

待ちきれません。

I can't wait to show off some of the stuff that I know is coming and stick around on this channel.

来るべきことを見せるのが待ち遠しいし、このチャンネルにいてください。

Subscribe if you haven't already like videos like this one to make sure more of them show up in your feed.

まだチャンネル登録していないなら、こうしたビデオにいいねを押して、もっと多くのものがフィードに表示されるようにしてください。

And I will do my best to keep you looped in on the latest AI news, bring you a cool AI tutorials, share all the interesting AI tools that I come across so much fun stuff to share.

最新のAIニュースをお届けし、かっこいいAIチュートリアルや、見つけた興味深いAIツールを共有し、楽しいことをたくさん共有するために最善を尽くします。

So subscribe if you haven't already.

ですので、まだ登録していないならぜひ登録してください。

I really, really appreciate you.

本当に本当に感謝しています。

And if you haven't already check out Future Tools.io where I share all the cool AI tools I come across.

まだなら、Future Tools.ioをチェックしてください。そこで見つけたすべてのかっこいいAIツールを共有しています。

This news page is up to date on a daily basis.

このニュースページは毎日更新されています。

way more news on this page than what I'm even able to share in these videos.

このページには、私がこれらのビデオで共有できるよりもはるかに多くのニュースがあります。

And there's a free newsletter, which will deliver the cool AI tools and the most interesting AI news directly to your inbox completely for free.

無料のニュースレターもあり、かっこいいAIツールや最も興味深いAIニュースを完全に無料であなたの受信箱に届けます。

And when you sign up, you get free access to the AI income database, a little database I made of interesting ways to make money leveraging these AI tools that you get that for free as well.

サインアップすると、AI収入データベースにも無料でアクセスできます。これは、AIツールを活用してお金を稼ぐ面白い方法をまとめた小さなデータベースです。それも無料で手に入ります。

You just hit over to Future Tools.io and join the newsletter.

Future Tools.ioにアクセスしてニュースレターに参加するだけです。

And once again, thank you so much for tuning in.

改めて、視聴していただきありがとうございます。

Thank you to hosting her for sponsoring this one.

今回のスポンサーであるHosting Herにも感謝します。

I really appreciate all of you guys and I will see you in the next video.

皆さん全員に本当に感謝しており、次のビデオでお会いしましょう。

Bye-bye.

バイバイ。

いいなと思ったら応援しよう!