見出し画像

【マット・ウルフのAIニュース:先週の重要アップデート総集編】英語解説を日本語で読む【2024年10月5日|@Matt Wolfe】

OpenAI DevDay 2024では、2025年までにAIエージェントの実現を目指すことが明らかになりました。ChatGPTには新機能「Canvas」が追加され、テキストの編集や長さの調整、コードレビューなどが可能になりました。Microsoftは、Copilot搭載PCに新機能を追加し、ユーザーの行動履歴を記録する「Recall」機能や、画像に対するAI処理オプションを提供する「Click to Do」機能などを実装しました。また、CopilotにはAIによる視覚理解機能も追加されました。Googleは、Google Lensに音声質問機能を追加し、画像や動画の内容を理解して回答できるようになりました。さらに、AIを使用して検索結果を整理する機能も導入されました。画像生成AI分野では、Flux 1.1 Proが登場し、テキストの理解力や画像の品質が大幅に向上しました。動画生成AI分野では、ByteDanceがSoraに匹敵する新しいAI動画生成モデルを発表しました。ゲーム業界では、Steamプラットフォームに「Dream World」という新しいゲームが登場し、プレイヤーが思い描いた3Dオブジェクトを即座にゲーム世界に生成できるようになりました。AI規制に関しては、カリフォルニア州知事がAI企業の責任を問う法案SB 1047を拒否権で否決し、ディープフェイク関連の法案AB 2839も裁判所によって一部無効とされました。ロボット工学の分野では、はしごを登ることができる四足歩行ロボットが開発され、危険な高所作業への応用が期待されています。
公開日:2024年10月5日
※動画を再生してから読むのがオススメです。


It's been an absolutely insane week in the world of AI.

今週はAIの世界で本当に信じられないような一週間でした。

We've got announcements out of OpenAI, out of Google, out of Microsoft, out of Meta, out of all of the AI art generators and all the video generators.

OpenAI、Google、Microsoft、Meta、そしてすべてのAIアートジェネレーターや動画ジェネレーターからの発表がありました。

Everybody decided to drop new announcements and roll out new features this week.

皆がこの週に新しい発表を行い、新機能を展開することに決めたようです。

There is a ton in this video.

この動画にはたくさんの情報があります。

I'm going to try my best to rapid fire it and not ramble too much and share all the crazy AI news that happened with you this week.

私はできるだけ迅速にお伝えし、あまり長話をせずに、今週起こったすべての驚くべきAIニュースを共有しようと思います。

Let's just get right into it.

さっそく本題に入りましょう。

Let's start right here with OpenAI.

ここでOpenAIについてお話ししましょう。

This week was OpenAI's Dev Day.

今週はOpenAIのDev Dayでした。

For the most part, most of the announcements were more geared towards developers and not really end users of ChatGPT, but there was still some interesting stuff that came out of Dev Day.

ほとんどの発表は開発者向けであり、ChatGPTのエンドユーザー向けではありませんでしたが、Dev Dayからはいくつか興味深い情報が出てきました。

Sam Altman did a little fireside chat at the end of Dev Day and allowed the audience to ask questions.

サム・アルトマンはDev Dayの最後に小さなファイヤーサイドチャットを行い、観客に質問をする機会を与えました。

A lot of the questions were about when are we going to get AI agents?

多くの質問は、私たちはいつAIエージェントを手に入れるのかというものでした。

According to this article over on Tom'sGuide.com, it says OpenAI confirms AI agents are coming next year.

Tom'sGuide.comの記事によると、OpenAIはAIエージェントが来年登場することを確認しています。

OpenAI is on target to launch agents next year.

OpenAIは来年にエージェントを発表する予定です。

These are independent artificial intelligence models capable of performing a range of tasks without human input and could be available in ChatGPT soon.

これらは、人間の入力なしでさまざまなタスクを実行できる独立した人工知能モデルであり、近くChatGPTで利用可能になるかもしれません。

As far as I know, OpenAI hasn't actually released the recordings from Dev Day yet.

私の知る限り、OpenAIはまだDev Dayの録音を公開していません。

However, I did find this YouTube channel called Kyle Khabasaras.

しかし、私は「Kyle Khabasaras」というYouTubeチャンネルを見つけました。

I'm sorry if I mispronounced your name, where he actually filmed the entire sort of fireside chat with Sam Altman.

もし名前の発音を間違えていたら申し訳ありませんが、彼は実際にサム・アルトマンとのファイヤーサイドチャット全体を撮影しました。

The closest thing I can find to them saying that agents will be here by 2025 was this little clip here.

エージェントが2025年までにここにいると言っているものに最も近いものは、この小さなクリップです。

Maybe talk to us a bit more about how you see agents fitting into OPI's long-term plans.

エージェントがOPIの長期計画にどのように組み込まれると考えているのか、もう少しお話しいただけますか。

Are you?

そうですか?

That's a huge part of the...

それは大きな部分です...

I think the exciting thing is this set of models, O1 in particular, and all of its successors are going to be what makes this possible.

私が思うに、興味深いのはこのモデル群、特にO1とその後継モデルが、この実現を可能にするということです。

Because you finally have the ability to reason, to take hard problems, break them into simpler problems and act on them.

なぜなら、ついに推論する能力を持ち、難しい問題をより簡単な問題に分解し、それに基づいて行動することができるからです。

I think 2025 is going to be the year that this really goes big.

私は2025年がこれが本格的に広がる年になると思います。

They did mention from stage that they think 2025 is going to be the year and Sam Altman kind of sort of confirmed it.

彼らはステージ上で、2025年がその年になると考えていると述べ、サム・アルトマンもそれをある程度確認しました。

That was the only clip that I can find that seemed to kind of confirm that they think agents by 2025.

それが、彼らが2025年までにエージェントを考えていることを確認するように思える唯一のクリップでした。

I don't think the full video is online, but if you do want to watch this entire fireside chat they did, Check out Kyle's channel here.

フルビデオはオンラインにはないと思いますが、もし彼らが行ったこの全体のファイヤーサイドチャットを見たいのであれば、こちらのカイルのチャンネルをチェックしてください。

I'll make sure it's linked up in the description as well.

説明欄にもリンクを載せておくので、確認してみてください。

I'm going to talk more about the Dev Day announcements in a second, but before I do, let's talk about Canvas, which is actually a ChatGPT feature that they just rolled out this week as well.

これからDev Dayの発表についてもっと話しますが、その前に、今週新たに導入されたChatGPTの機能であるCanvasについて話しましょう。

Canvas is kind of a complete overhaul of the UI inside of ChatGPT.

Canvasは、ChatGPT内のUIの完全なオーバーホールのようなものです。

We can see that ChatGPT will start suggesting edits.

私たちは、ChatGPTが編集を提案し始めることがわかります。

It'll adjust the length to be shorter or longer, change the reading level, add final polish and check for grammar and clarity and you can even ask it to add emojis.

それは、長さを短くしたり長くしたり、読みやすさを調整したり、最終的な仕上げを加えたり、文法や明瞭さをチェックしたりすることができます。また、絵文字を追加するように頼むこともできます。

They've also added some coding features with this new Canvas like review code, add logs, add comments, fix bugs, or port to a different language.

さらに、今回の新しいCanvasでは、コードのレビュー、ログの追加、コメントの追加、バグの修正、別の言語への移植といったコーディング機能も追加されました。

You can go from like JavaScript to Python or whatever.

JavaScriptからPythonなど、さまざまな言語に移行することができます。

According to Sam Altman here over on X, he said that the new Canvas feature is now live for 100% of ChatGPT Plus subscribers.

ここでサム・アルトマンがXで述べているように、新しいCanvas機能は現在、ChatGPT Plusの全てのサブスクライバーに対して利用可能です。

If you are a paid subscriber to ChatGPT, you should have this feature now.

もしあなたがChatGPTの有料サブスクリプションを利用しているのであれば、今この機能を利用できるはずです。

When I pop into my ChatGPT account, it defaults still to ChatGPT-4o, but if I click this dropdown, you can see we now have an option to switch to GPT-4o with Canvas.

私がChatGPTのアカウントに入ると、デフォルトではまだChatGPT-4oになっていますが、このドロップダウンをクリックすると、Canvasを使ったGPT-4oに切り替えるオプションがあることがわかります。

We don't get Canvas with the new o1-preview mode that thinks through things, but we do have it with the GPT-4o model.

新しいo1プレビューモードではCanvasは利用できませんが、GPT-4oモデルでは利用可能です。

If we click into here, we now have the ability to call on the Canvas.

ここをクリックすると、Canvasを呼び出す機能が今利用できるようになりました。

If I just give it a prompt like, write a short story about wolves learning to use a computer and hit enter, you can see that it just completely changed the whole interface and it put my chat over here on the left sidebar and it put the story that it just wrote over here in the right window.

例えば、「コンピュータを使うことを学ぶオオカミについての短い物語を書いて」とプロンプトを与えてエンターを押すと、インターフェース全体が完全に変わり、私のチャットが左のサイドバーに移動し、書かれた物語が右のウィンドウに表示されるのがわかります。

If you use Claude and you've seen Claude's artifacts, this feels very similar.

クラウドを使用していて、クラウドのアーティファクトを見たことがあるなら、これは非常に似ていると感じるでしょう。

The biggest difference is in Claude artifacts, you can actually have it generate code.

最大の違いは、クラウドのアーティファクトでは、実際にコードを生成させることができる点です。

and then you can actually preview what the code does without actually going to another screen.

そして、別の画面に移動することなく、コードが何をするのかを実際にプレビューすることができます。

This will just output the code, but you still have to copy and paste the code over somewhere else to actually execute the code.

これはコードを出力するだけですが、実際にコードを実行するためには、どこか別の場所にコードをコピー&ペーストする必要があります。

What this did when it created this new right side of ChatGPT is it made it so I can sort of select text here.

ChatGPTの新しい右側を作成したときに、ここでテキストを選択できるようにしたのです。

When I select text, I can ask ChatGPT about just that paragraph.

テキストを選択すると、その段落についてChatGPTに質問することができます。

I can tell it to rewrite just this paragraph.

その段落だけを再構成するように指示することもできます。

If I submit it, you'll see that it will actually automatically fix just that paragraph and leave the rest of the document alone.

もしそれを送信すると、実際にその段落だけを自動的に修正し、文書の他の部分はそのままにしておくことがわかります。

In the past, you would have basically had to tell it to rewrite the whole thing, but just fix the first paragraph.

以前は、基本的に文書全体を再構成するように指示しなければならなかったのですが、最初の段落だけを修正することができました。

It would have completely done the whole thing over again.

それは文書全体を完全にやり直してしまうことになっていました。

If I select this text, I can also format it make it bold, italic, change it to headings, things like that.

このテキストを選択すると、太字や斜体にしたり、見出しに変更したりすることができます。

Over on the right sidebar, you can see this little pencil icon down here.

右側のサイドバーには、下に小さな鉛筆のアイコンがあります。

If I hover over it, it opens up a new menu here with suggest edits, adjust the length, reading level, add final polish and add emojis.

その上にカーソルを合わせると、提案された編集、長さの調整、読みやすさのレベル、最終的な仕上げの追加、絵文字の追加などの新しいメニューが開きます。

If I click suggest edits, it actually reads through the story that it wrote and then suggests its own edits to its own story.

「提案された編集」をクリックすると、実際に自分が書いたストーリーを読み返し、自分自身のストーリーに対する編集を提案します。

If you like the edits that it's suggesting, just like in a Google doc or something like that, you click apply and it actually tweaks it and edits it with the new version that it suggested to itself.

提案された編集が気に入った場合は、Googleドキュメントなどと同様に「適用」をクリックすると、実際にそれを調整し、自分が提案した新しいバージョンで編集されます。

I can click on adjust length and we've got a little slider here to make it super long or super short.

長さを調整するをクリックすると、ここに小さなスライダーがあり、非常に長くしたり非常に短くしたりできます。

If I go to shortest and just let go, you'll see it'll just rewrite the whole thing, but in a much shorter version.

最短にしてそのまま離すと、全体が書き直されますが、ずっと短いバージョンになります。

If I click adjust the length, bring it all the way up to longest, it reworks the entire story, this time making it quite a bit longer.

長さを調整するをクリックして、最長まで引き上げると、物語全体が再構成され、今回はかなり長くなります。

We can change the reading level with a slider as well, all the way down to a kindergarten level up to a graduate school level.

スライダーを使って読みやすさのレベルを変更することもでき、幼稚園レベルから大学院レベルまで調整できます。

If I bring it down to a kindergarten level here, you can actually see that the writing style is more like a kid-friendly writing style.

もしここで幼稚園レベルに落とし込むと、実際にはその文体は子供向けの書き方に近いことがわかります。

Deep in the forest, under the tall trees, the wolf pack found something strange, et cetera, et cetera.

森の奥深く、高い木々の下で、狼の群れは何か奇妙なものを見つけました、などなど。

If I change the reading level all the way up to a graduate school level, you can see it's much more descriptive.

もし私が読みのレベルを大学院レベルまで引き上げると、より詳細な描写が見られます。

Deep within the dense forest ecosystem, beneath the expansive canopy of towering conifers, a wolf pack encountered an anomalous object.

密生した森林生態系の奥深く、そびえ立つ針葉樹の広大な樹冠の下で、狼の群れは異常な物体に遭遇しました。

It completely changes the reading level.

それは読みのレベルを完全に変えてしまいます。

If you're trying to get it to explain some sort of complex concept to you and you're not quite understanding it, you can essentially tell it to dumb it down for you and keep on dumbing it down until you finally get it.

もしあなたが何らかの複雑な概念を説明してもらおうとしていて、理解できていない場合、基本的にそれを簡単に説明するように頼むことができ、最終的に理解できるまでどんどん簡単にしてもらうことができます。

You can add some final polish.

最終的な仕上げを加えることができます。

You can see it goes through and formats it.

それがどのように処理され、フォーマットされるかを見ることができます。

We got like a headline and some sub headlines and it just sort of broke it up and cleaned it up.

見出しといくつかのサブ見出しがあり、それが全体を分けて整理してくれました。

It's a little bit easier to read.

少し読みやすくなりました。

If we click add emojis, it will do exactly what you expect it to do and just fling some emojis in there as well.

絵文字を追加するをクリックすると、期待通りに絵文字をいくつか追加してくれます。

Make it look like that.

そのように見せてください。

I'm gonna go ahead and clear this and go to a new chat window because there's something else that they've recently added that's pretty cool.

私はこれをクリアして、新しいチャットウィンドウに移動しようと思います。最近追加された、かなり面白い機能があるからです。

If I come down to the chat window here, they actually have like quick shortcuts now.

ここにあるチャットウィンドウに来ると、実際にクイックショートカットがあることがわかります。

If I type/, you can see I've got reason, search and picture.

もし私が「/」と入力すると、理由、検索、画像が表示されます。

If I select picture, anything I put after this, it will call on DALL·E 3 to generate.

画像を選択すると、その後に入力したものに基づいてDALL·E 3が生成を行います。

If I do search, it will make sure that it searches the web before it finishes the prompt.

もし私が検索を行うと、それはプロンプトを完了する前にウェブを検索することを確実にします。

If I click on reason, it's going to make sure it uses the new o1 model that really thinks things through.

もし私が理由をクリックすると、それは本当に物事を考える新しいo1モデルを使用することを確実にします。

Some pretty handy new updates to ChatGPT this week.

今週、ChatGPTにいくつかの非常に便利な新しいアップデートがありました。

Jumping back to some of the other stuff they talked about at Dev Day, I'm gonna kind of go quickly through it because this is more designed for the developers that are using the API, but they did introduce vision to fine tuning the API.

Dev Dayで話された他のいくつかのことに戻りますが、これはAPIを使用している開発者向けに設計されているため、少し早めに進めますが、APIのファインチューニングにビジョンが導入されました。

Developers can now fine tune GPT-4o with images and text to improve the vision capabilities.

開発者は今、画像とテキストを使用してGPT-4oのファインチューニングを行い、ビジョン機能を向上させることができます。

If you're using the OpenAI API and you want to build a tool that uses their vision models, you can actually upload some of your own images and give it some additional context, and it will actually get better on the specific type of images that you train into it.

もしOpenAIのAPIを使用していて、彼らのビジョンモデルを利用するツールを構築したい場合、実際に自分の画像をいくつかアップロードし、追加のコンテキストを与えることで、特定のタイプの画像に対してより良い結果を得ることができます。

Something more focused towards developers.

開発者向けにより焦点を当てたものです。

Another thing focused towards developers is that they introduced the real-time API.

開発者向けのもう一つのポイントは、リアルタイムAPIが導入されたことです。

They recently rolled out the advanced voice mode, where you can have a much more conversational chat with ChatGPT.

最近、ChatGPTとの会話がより自然になる高度な音声モードが展開されました。

They rolled out the ability to use those conversational bots inside the API.

API内でこれらの会話型ボットを使用する機能も展開されました。

Other apps can use that same technology within their app.

他のアプリも、その同じ技術を自分のアプリ内で利用することができます。

If you want, you can even test this yourself outside of the ChatGPT app.

もしご希望であれば、ChatGPTアプリの外で自分自身でこれを試すこともできます。

You can actually go to the OpenAI Playground here, platform.openai.com/Playground.

実際にこちらのOpenAI Playground、platform.openai.com/Playgroundにアクセスすることができます。

Over on the left, they added a real time box here.

左側には、リアルタイムボックスが追加されています。

I can actually start a session and have a conversation with the GPT-4 model here using this sort of new advanced voice features.

実際にセッションを開始し、このような新しい高度な音声機能を使ってGPT-4モデルと会話をすることができます。

But outside of ChatGPT.

しかし、ChatGPTの外では。

Hey, how are you doing today?

こんにちは、今日はどうですか?

I'm fantastic.

私は素晴らしいです。

Thanks for asking.

聞いてくれてありがとう。

How about you?

あなたはどうですか?

I'm doing great.

私はとても元気です。

Just recording a video, breaking down all the news for the week in the AI world.

今、動画を撮影していて、今週のAIの世界のニュースをまとめています。

That sounds exciting.

それは楽しそうですね。

There's always so much happening in the AI world.

AIの世界では常に多くのことが起こっています。

Any particularly big stories you're covering this week?

今週、特に大きな話題を取り上げていますか?

Wouldn't you like to know?

知りたいと思いませんか?

Fair enough.

それは妥当ですね。

I'll just have to wait for the video then.

それでは、動画を待つしかありませんね。

They also rolled out model distillation in the API.

彼らはまた、APIでモデル蒸留を導入しました。

This lets developers easily use the outputs of frontier models like o1-preview and GPT-4o to fine tune and improve the performance of more cost efficient models like GPT-4o mini.

これにより、開発者はO1プレビューやGPT-4oのような最前線モデルの出力を簡単に利用し、GPT-4o miniのようなよりコスト効率の良いモデルの性能を微調整し、向上させることができます。

They also added prompt caching into the API.

彼らはAPIにプロンプトキャッシングを追加しました。

This is something that significantly reduces the cost of using the API if you're a developer.

これは、開発者であればAPIの使用コストを大幅に削減するものです。

This is something that Claude's had for a little bit now, but we're finally getting it in the OpenAI API.

これはClaudeが少し前から持っていた機能ですが、ようやくOpenAI APIにも実装されました。

Those were pretty much the big announcements that came out of OpenAI's Dev Day.

これがOpenAIのDev Dayから発表された主な内容でした。

But there's other OpenAI news this week in the fact that they also got new funding to scale OpenAI.

しかし、今週のOpenAIに関する他のニュースとして、OpenAIがスケールアップのための新たな資金調達を行ったということがあります。

It's looking more and more likely that OpenAI is going to convert from a nonprofit to a for-profit company.

OpenAIが非営利団体から営利企業に転換する可能性がますます高まっているようです。

In this past week, they managed to raise $6.6B in funding at $157B post-money valuation.

先週、彼らはポストマネー評価額が1,570億ドルの資金を66億ドル調達することに成功しました。

This makes them the third largest startup on the planet, I believe.

これにより、彼らは地球上で3番目に大きなスタートアップになると思います。

Last week, we got Meta Connect, and they showed off some of the new Meta Ray-Ban sunglasses.

先週、Meta Connectが開催され、彼らは新しいMeta Ray-Banサングラスのいくつかを披露しました。

During Meta Connect, they announced a new feature that these glasses were going to be getting memory.

Meta Connectの際に、これらのサングラスがメモリー機能を搭載することが発表されました。

You can look at something and say, like, remember where I parked?

何かを見て、「どこに車を停めたか覚えてる?」と言ったり、

Or, hey, remind me in 10 minutes to call my mom or whatever.

「ねえ、10分後にお母さんに電話するのを思い出させて」とか言ったりできます。

Those features are rolling out right now into the sunglasses and glasses that you have if you've got a pair.

そのような機能が、もしあなたがペアを持っているなら、今まさにサングラスや眼鏡に展開されています。

The new update will also allow them to recognize QR codes and open them on your phone and make phone calls based on a phone number that is seen in front of the camera.

新しいアップデートでは、QRコードを認識し、スマートフォンで開いたり、カメラの前に見える電話番号に基づいて電話をかけたりすることも可能になります。

I actually tested these features.

実際にこれらの機能をテストしました。

They work great.

彼らは素晴らしく機能します。

You'll look at a QR code And just by telling your glasses to scan this QR code, you can pull out your phone and it just opens the app on your phone real quick.

QRコードを見て、眼鏡にそのQRコードをスキャンするように指示するだけで、携帯電話を取り出すと、すぐにアプリが開きます。

Pretty handy.

とても便利です。

The memory feature is really cool too.

メモリ機能も本当に素晴らしいです。

I actually haven't tried it with an image yet where I take a picture of like a parking spot number, but I have tried it where I told it to remind me to do something in five minutes.

実際、駐車場の番号のような画像を撮影して試したことはありませんが、5分後に何かを思い出させるように指示したことはあります。

And then that reminder came through.

そして、そのリマインダーが届きました。

Pretty handy feature.

とても便利な機能です。

While we're on the topic of Meta, for today's video, I partnered with Meta because they just released Llama 3.2 and it's a significant leap forward in AI technology.

Metaについて話しているところで、今日はMetaと提携して動画をお届けします。というのも、Metaが最近Llama 3.2をリリースしたばかりで、これはAI技術において大きな進歩を遂げたものだからです。

Whether you're a developer or you're just simply interested in AI, this update is worth your attention.

開発者であろうと、単にAIに興味があるだけであろうと、このアップデートはあなたの関心に値します。

One question I get asked constantly is how can I use an AI model without actually sending my data to like the big corporations?

私が常に尋ねられる質問の一つは、データを大企業に送信することなく、どのようにAIモデルを使用できるのかということです。

Llama 3.2 has a pretty solid answer for you.

Llama 3.2は、あなたにとって非常にしっかりとした回答を持っています。

You can run it directly on your device.

それをあなたのデバイス上で直接実行することができます。

In fact, you can use it without even being connected to the internet if you want.

実際、インターネットに接続していなくても使用することができます。

What's new in Llama 3.2?

Llama 3.2の新機能は何ですか?

First, the larger models, 11B and 90B, they both now have vision capabilities.

まず、大きなモデルである11Bと90Bは、どちらも視覚機能を備えています。

This means that not only can they understand text, but they can understand images now as well.

これは、彼らがテキストを理解できるだけでなく、今では画像も理解できることを意味します。

You can ask the AI about a chart in your report or to describe a photo, and it would understand the visual context.

あなたはAIにレポートのチャートについて尋ねたり、写真を説明するように頼んだりできますが、それは視覚的なコンテキストを理解することができます。

But Meta actually put out some lighter weight models as well with 1B and 3B text-only models.

しかし、Metaは実際に1Bおよび3Bのテキスト専用モデルという軽量なモデルも発表しました。

These are perfect for on-device AI applications and even on mobile phones.

これらはデバイス上のAIアプリケーションや、さらには携帯電話でも完璧に機能します。

Imagine a personal assistant that can summarize your messages or manage your schedule all while keeping your data on your device.

あなたのデータをデバイス上に保ちながら、メッセージを要約したり、スケジュールを管理したりできるパーソナルアシスタントを想像してみてください。

One of the really cool features about these models is that it supports 128,000 token context window.

これらのモデルの本当に素晴らしい特徴の一つは、128,000トークンのコンテキストウィンドウをサポートしていることです。

That's like being able to put a whole book's worth of information inside of a single conversation.

これは、1回の会話の中に本一冊分の情報を詰め込むことができるということです。

This Llama 3.2 is actually optimized for Qualcomm and MediaTek hardware right out of the gate.

このLlama 3.2は、実際にQualcommとMediaTekのハードウェアに最適化されています。

This is super important for anybody that wants to actually develop AI-powered applications for mobile phones.

これは、実際にモバイルフォン向けのAI駆動アプリケーションを開発したい人にとって非常に重要です。

One of the most important aspects of these Llama models is that they're open source.

これらのLlamaモデルの最も重要な側面の一つは、オープンソースであるということです。

You can download these models from Llama.com or from Hugging Face and start building immediately.

これらのモデルはLlama.comまたはHugging Faceからダウンロードでき、すぐに構築を始めることができます。

They're compatible with platforms like AWS and Google Cloud and Microsoft Azure and a ton of others.

AWSやGoogle Cloud、Microsoft Azureなどのプラットフォームと互換性があり、他にも多くのプラットフォームに対応しています。

Personally, I believe open sourcing these models is really, really important.

個人的には、これらのモデルをオープンソース化することが非常に重要だと考えています。

It encourages innovation and it allows for more diverse applications.

それは革新を促進し、より多様なアプリケーションを可能にします。

This year alone, Llama has seen 10x the growth and has become one of the preferred Large Language Models for AI development.

今年だけで、Llamaは10倍の成長を遂げ、AI開発において好まれる大規模言語モデルの一つとなりました。

If you're a developer, this means that you have access to the most cutting edge models that you can modify and adapt to your specific needs.

もしあなたが開発者であれば、これは最先端のモデルにアクセスでき、それをあなたの特定のニーズに合わせて修正・適応できることを意味します。

While if you're not a developer, it means that the apps and services that you're going to use could be significantly more intelligent and more helpful.

一方、もしあなたが開発者でない場合は、あなたが使用するアプリやサービスが、かなりより知的で役立つものになる可能性があることを意味します。

I've also got to mention that Meta really prioritized safety with this new release.

また、Metaがこの新しいリリースで安全性を非常に重視していることも言及しなければなりません。

They've introduced new safeguards, including LlamaGuard 3, which is designed to ensure that these powerful models are actually used responsibly.

彼らは、これらの強力なモデルが実際に責任を持って使用されることを確保するために設計されたLlamaGuard 3を含む新しい安全策を導入しました。

Whether you're aiming to create innovative AI applications or you're simply excited about the future of technology, Llama 3.2 is actually really worth exploring.

革新的なAIアプリケーションを作成することを目指している場合でも、単に技術の未来にワクワクしている場合でも、Llama 3.2は実際に探求する価値があります。

It's powerful, it's really flexible, and it's available for everybody to use and improve upon and iterate on.

それは強力で、非常に柔軟性があり、誰もが使用し、改善し、反復することができます。

If you're ready to get started, you can go to Llama.com or you can go to Hugging Face and download the models to begin your journey with Llama 3.2.

始める準備ができたら、Llama.comに行くか、Hugging Faceに行ってモデルをダウンロードし、Llama 3.2との旅を始めることができます。

The future of AI is open source and it's here now.

AIの未来はオープンソースであり、今ここにあります。

Thank you so much to Meta for sponsoring this video.

この動画をスポンサーしてくれたMetaに心から感謝します。

Moving on to Microsoft now.

次はMicrosoftに移ります。

There was a ton of announcements to come out of the world of Microsoft, especially if you have one of the new Copilot Plus PCs with the NPU neural processing unit built into them.

Microsoftの世界から多くの発表がありました、特にNPUニューラルプロセッシングユニットが搭載された新しいCopilot Plus PCをお持ちの方には特に関係があります。

These are pretty much all of the new laptops and computers that are coming out from Microsoft these days are this new version of the Copilot PCs.

最近Microsoftから発売される新しいラップトップやコンピュータは、ほぼすべてこの新しいバージョンのCopilot PCです。

Some of the new features you're gonna get are the recall feature.

新しく追加される機能の一つはリコール機能です。

This was a feature that was supposed to roll out when the new Copilot PCs rolled out, but a lot of security and privacy concerns popped up and they sort of put it on the back burner for a little bit to fix it and improve some things.

この機能は新しいCopilot PCが発売される際に導入される予定でしたが、多くのセキュリティやプライバシーに関する懸念が浮上し、一時的に保留されて改善作業が行われました。

They're finally rolling out this recall feature, which is essentially like your internet browsing history, but for everything you do on your computer, it remembers you editing videos or writing documents in Word or browsing through your photos.

ついにこのリコール機能が導入されます。これは基本的にインターネットの閲覧履歴のようなもので、コンピュータ上で行ったすべての作業を記憶します。動画の編集やWordでの文書作成、写真の閲覧などを覚えているのです。

Anything that you did throughout the day, it sort of saves it as a history so you can go back to that moment and remember what you were doing on your computer.

あなたが一日を通して行ったことは、ある意味で履歴として保存されるので、その瞬間に戻ってコンピュータで何をしていたかを思い出すことができます。

You have the option to turn it on and off and no, they don't actually send the information that they're collecting back to Microsoft.

それをオンまたはオフにするオプションがあり、実際に収集している情報をMicrosoftに送信することはありません。

This is all just on device.

これはすべてデバイス上で行われます。

They're also adding this click to do feature where if you have like an image open on your computer, you can click on it and you can see it gives the option to visual search with Bing, blur background with photos, erase objects with photos, remove background with paint.

また、コンピュータ上で画像を開いているときにクリックすると、Bingでのビジュアル検索、写真での背景ぼかし、写真でのオブジェクト消去、ペイントでの背景削除といったオプションが表示される「クリックして実行」機能も追加されています。

Just by clicking on the image, you get a whole bunch of new sort of AI related options.

画像をクリックするだけで、新しいAI関連のオプションがたくさん得られます。

It says here it also assists with text-related actions such as rewrite, summarize, or explain text in line, opening in a text editor, sending an email, web searches, and opening websites.

ここには、テキストに関連するアクション、例えばテキストの書き直し、要約、説明、テキストエディタでの開放、メールの送信、ウェブ検索、ウェブサイトのオープンなどを支援するとも書かれています。

Click to do is context-aware and accessible from any Copilot plus PC screen.

「クリックして実行」はコンテキストに応じており、すべてのCopilotプラスPC画面からアクセス可能です。

They're also improving the Windows search with some AI.

彼らはまた、いくつかのAIを使ってWindowsの検索機能を改善しています。

You can see they did a search up in the top here where they searched barbecue party.

ここで、バーベキューパーティーを検索したところが上部に表示されています。

Notice that all of these images are just titled like image 1123, image 1111.

これらの画像はすべて「画像1123」や「画像1111」といったタイトルが付けられていることに注意してください。

Windows figured out what the context of these images were and pulled up all the images related to a barbecue party that were on this computer.

Windowsはこれらの画像のコンテキストを把握し、このコンピュータに保存されているバーベキューパーティーに関連するすべての画像を表示しました。

It says here it works even when you're not connected to the internet.

ここには、インターネットに接続していなくても機能すると書かれています。

This isn't like an online feature.

これはオンライン機能とは異なります。

This is just going to use your laptop's NPU that's built into it.

これは、あなたのノートパソコンに内蔵されているNPUを使用するだけです。

I'm not sure if this works with videos or if it's really only for pictures.

これが動画にも対応しているのか、それとも本当に画像のみに限られているのかはわかりません。

I really want this for video.

私はこれを動画のために本当に欲しいです。

That would help so much with organizing B-roll, but getting it with pictures, I imagine it's only a matter of time before we're getting it with videos as well.

それはBロールの整理にとても役立ちますが、写真でそれを手に入れることができれば、動画でも手に入るのは時間の問題だと思います。

They're adding a feature called super resolution inside of photos.

彼らは写真の中にスーパーレゾリューションという機能を追加しています。

You can open a image inside of photos on windows and actually upscale the image.

Windowsの写真アプリで画像を開き、実際に画像をアップスケールすることができます。

They're adding generative fill and erase inside of Microsoft Paint.

彼らはMicrosoft Paintの中に生成的な塗りつぶしと消去機能を追加しています。

You can erase things in the background and generative fill inside the image, just like you can in Adobe Photoshop.

背景のものを消去し、画像内に生成的に埋め込むことができます。これはAdobe Photoshopと同様です。

But now you can do it in Microsoft Paint as well.

しかし、今ではMicrosoft Paintでもそれが可能になりました。

A lot of cool new features that are going to be available on these Copilot Plus PCs.

これらのCopilot Plus PCで利用可能な多くの素晴らしい新機能があります。

Microsoft also introduced Copilot Labs and Copilot Vision.

Microsoftはまた、Copilot LabsとCopilot Visionを発表しました。

The first feature available in Copilot Labs is Think Deeper, which gives Copilot the ability to reason through more complex problems.

Copilot Labsで利用可能な最初の機能は「Think Deeper」で、これによりCopilotはより複雑な問題を考慮する能力を持つようになります。

It sounds to me like this Think Deeper is essentially going to use the new OpenAI o1 model that uses that chain of thought prompting where it really thinks things through.

私には、このThink Deeperが本質的に新しいOpenAI o1モデルを使用するように思えます。このモデルは、思考を深めるためのプロンプトを用いて、物事をじっくり考えるものです。

But it looks like we're going to get that inside of Copilot Labs.

しかし、私たちはそれをCopilot Labsの中で得られるようです。

There's also Copilot Vision.

さらに、Copilot Visionもあります。

It says if you want it to, it can understand the page you're viewing and answer questions about its content.

それは、もし望むなら、あなたが見ているページを理解し、その内容に関する質問に答えることができると言っています。

It can suggest next steps, answer questions, help navigate whatever it is you want to do, and assist with tasks.

次のステップを提案したり、質問に答えたり、あなたがやりたいことをナビゲートしたり、タスクを手伝ったりすることができます。

All the while, you simply speak to it in natural language.

その間ずっと、あなたは自然な言葉でそれに話しかけるだけです。

They say it's an entirely opt-in feature, so it only works if you turn it on.

彼らは、これは完全にオプトインの機能であり、あなたがそれをオンにしない限り機能しないと言っています。

But here's a little demo that they put out of what that looks like.

しかし、彼らがその様子を示すために出した小さなデモがあります。

They say, hey, Copilot, I'm looking for a place to stay.

彼らは「ねえ、Copilot、宿泊先を探しているんだけど」と言います。

They're on this website, staynest.com.

彼らはこのウェブサイト、staynest.comにいます。

Copilot starts making recommendations.

Copilotが提案を始めます。

What do you think of this lofthouse?

このロフトハウスについてどう思いますか?

In the video, they're speaking back and forth, but there's music on the video.

ビデオでは、彼らがお互いに話し合っていますが、ビデオには音楽が流れています。

I don't know the copyright status of that music, so I'm not playing the video for that reason.

その音楽の著作権の状況がわからないので、その理由でビデオを再生していません。

But this is an audio conversation that's happening.

しかし、これは行われている音声の会話です。

The user says, hmm, it's a bit pricey.

ユーザーは言います、「うーん、ちょっと高いですね。」

The AI calls that person bougie.

AIはその人を「おしゃれだね」と呼びます。

They say, I'm not.

彼らは言います、「私はそうではありません。」

I'm just looking for something nice.

「ただ、素敵なものを探しているだけです。」

A little color on the walls, you know?

「壁に少し色を加えたいんです、わかりますか?」

The AI says, this one definitely has some color.

AIは言います、これは確かに色がありますね。

The user says, wow, it's giving me a headache.

ユーザーは言います、わあ、頭が痛くなりそうです。

Ha ha, we don't want that.

はは、そんなことは望んでいません。

Wait, this one looks perfect.

ちょっと待って、これは完璧に見えます。

Minimal, modern, ew.

ミニマルで、モダンで、うーん。

The user says, you're right.

ユーザーは言います、あなたが正しいです。

I love it.

私はそれが大好きです。

We're booking it.

私たちはそれを予約しています。

That's their little demo of what this Microsoft Copilot vision looks like.

これは、このMicrosoft Copilotのビジョンがどのように見えるかの彼らの小さなデモです。

Microsoft also updated the Bing generative search feature.

Microsoftはまた、Bingの生成検索機能を更新しました。

They say, today we're rolling out an expansion of generative search to cover informational queries such as how to effectively run a one-on-one and how can I remove background noise from my podcast recordings.

彼らは、「本日、ジェネレーティブ検索の拡張を展開し、『1対1のミーティングを効果的に行う方法』や『ポッドキャストの録音から背景ノイズを除去する方法』といった情報クエリにも対応します」と述べています。

Whether you're looking for a detailed explanation, solving a complex problem, or doing deep research, generative AI helps deliver a more profound level of answers that goes beyond surface level results.

詳細な説明を求めている場合でも、複雑な問題を解決しようとしている場合でも、あるいは深いリサーチをしている場合でも、生成AIは表面的な結果を超えた、より深いレベルの回答を提供するのに役立ちます。

To use it, you simply type Bing generative search into the search bar, and you're met with some queries that you can use.

それを使用するには、検索バーに「Bing生成検索」と入力するだけで、利用できるいくつかのクエリが表示されます。

There's also a deep search button on the results page, and they do say it might be a bit slow right now.

結果ページには深い検索ボタンもあり、現在は少し遅いかもしれないと言っています。

Let's just try Bing generative search.

では、Bing生成検索を試してみましょう。

Sure enough, when we test it out here, we get a whole bunch of different potential prompts that we can use.

もちろん、ここで試してみると、私たちが使用できるさまざまな潜在的なプロンプトがたくさん得られます。

If I click on reduce podcasting noise, you can see we get an AI generated response here along with a table of contents.

「ポッドキャスティングのノイズを減らす」をクリックすると、AIが生成した応答と目次が表示されるのがわかります。

Another thing Microsoft is doing is they're starting to pay publishers if their content is surfaced in some of these generative search results.

Microsoftが行っているもう一つのことは、彼らのコンテンツがこれらの生成的検索結果に表示された場合、出版社に対して報酬を支払い始めていることです。

Right now, it looks like it's just big companies like Reuters, Axel Springer, Hearst Magazine, USA Today, and the Financial Times.

現時点では、ロイター、アクセル・シュプリンガー、ハースト・マガジン、USAトゥデイ、フィナンシャル・タイムズのような大企業だけのようです。

I'm not clear if this is going to be something they roll out for smaller content creators because that'd be kind of cool.

これが小規模なコンテンツクリエイターにも展開されるのかは不明ですが、それが実現すれば素晴らしいことだと思います。

If you write blog posts or make YouTube videos or something like that, and it responds with information that it pulled from smaller creators, it'd be cool for them to get compensated as well.

ブログ記事を書いたり、YouTube動画を作成したりする場合、もしそれが小規模なクリエイターから引き出した情報に基づいて反応するのであれば、彼らにも報酬が支払われると素晴らしいと思います。

I don't know if that's on the roadmap or not, though.

それがロードマップに含まれているかどうかは分かりませんが。

Right now, it looks like all of the big news media outlets, though, they're trying to work with them so that they can show results from their websites and also pay them when they do.

現在のところ、すべての大手ニュースメディアは、彼らと協力して自社のウェブサイトからの結果を表示し、またそれを行った際には支払うように努めているようです。

In the last bit of Microsoft news for the week, the head of Microsoft AI, Mustafa Solomon here, wrote a letter sharing his thoughts on where he thinks all of this is going and what he describes is essentially Copilot turning into more and more of an agent for you.

今週の最後のMicrosoft関連のニュースとして、Microsoft AIの責任者であるムスタファ・ソロモン氏が手紙を書き、自身の考えを共有しました。彼の説明によると、Copilotがますますあなたの「エージェント」のような存在になっていくという方向に進んでいるとのことです。

He says, We are not creating a static tool so much as establishing a dynamic, emergent, and evolving interaction.

彼は言います、私たちは静的なツールを作っているのではなく、動的で出現的、かつ進化するインタラクションを確立しているのです。

It will provide you with unwavering support to help you show up the way you really want in your everyday life, a new means of facilitating human connections and accomplishments alike.

これは、あなたが日常生活で本当に望む姿を示すための揺るぎないサポートを提供し、人間関係や成果を促進する新しい手段となるでしょう。

Copilot will ultimately be able to act on your behalf, smoothing life's complexities, and giving you more time to focus on what matters to you.

コパイロットは最終的にあなたの代理として行動し、人生の複雑さを和らげ、あなたが大切に思うことにもっと集中できる時間を与えてくれるでしょう。

What he's describing essentially sounds like an AI agent that's trained on you, and what you want to use it for most, which I think is something that most people can probably get behind as long as it's done in a safe and ethical way without impeding too much on your privacy or sharing too much personal data with the big companies.

彼が説明していることは、本質的にはあなたに基づいて訓練されたAIエージェントのように聞こえます。そして、あなたがそれを最も使いたい目的に応じているものであり、これは多くの人々が賛同できるものだと思います。ただし、それが安全で倫理的な方法で行われ、あなたのプライバシーをあまり侵害せず、大企業と個人データを過度に共有しない限りにおいてです。

Moving on to Google, because Google had a handful of announcements this week as well.

次にGoogleに移りますが、今週Googleもいくつかの発表を行いました。

They've been making some updates to the Google Lens tool, a tool where you can upload images and have it sort of search out those images of where they are in the web and give extra information around those images, things like that.

彼らはGoogle Lensツールのいくつかの更新を行っており、このツールでは画像をアップロードし、それらの画像がウェブ上でどこにあるかを検索し、画像に関する追加情報を提供することができます。

It can actually understand videos as well.

実際に、動画を理解することもできます。

We can see in this demo here, some fish schooling, and they talk to it and they say, why are they swimming together?

こちらのデモでは、いくつかの魚が群れを成して泳いでいる様子が見え、彼らはそれに話しかけて「なぜ一緒に泳いでいるの?」と言います。

It looks at the video, understands what's in the video.

それは動画を見て、動画の中に何があるのかを理解します。

And then, actually, gives an AI response based on what it saw in the video.

そして、実際に動画で見たことに基づいてAIの応答を返します。

They're also adding that voice questions feature where you can talk to Google Lens.

さらに、Google Lensに話しかけることができる音声質問機能も追加されています。

They take a picture of the sky here, and then they say, What kind of clouds are these?

ここで空の写真を撮り、そして彼らは「これはどんな雲ですか?」と言います。

It gives them an AI response.

それに対してAIが応答します。

But they asked that question vocally.

しかし、彼らはその質問を声に出して尋ねました。

It wasn't them typing the question.

彼らが質問をタイプしていたわけではありません。

They're also adding this feature to shop what you see.

また、彼らは見たものをショッピングする機能も追加しています。

You see a backpack, you take a picture of it, and then it finds where you can actually purchase that backpack online.

あなたはバックパックを見つけ、それを写真に撮り、そしてそのバックパックをオンラインで実際に購入できる場所を見つけます。

They're adding the ability to identify songs in their Circle to Search, kind of like the Shazam app where you just hold it open, listen to a song, and then it tells you what the song is.

彼らは、Circleにおいて曲を特定する機能を追加しています。これは、Shazamアプリのように、ただ開いておいて曲を聴くと、その曲が何であるかを教えてくれるものです。

It sounds like that exact feature is gonna be rolled out into Android devices.

その正確な機能がAndroidデバイスに展開される予定のようです。

They're also gonna organize your search results using AI.

彼らはまた、AIを使って検索結果を整理するつもりです。

If you're still using Google to do a lot of your searches, you're probably gonna start to see some of these changes take effect pretty dang soon.

もしあなたがまだGoogleを使って多くの検索を行っているなら、これらの変更がかなり早く実施されるのを見ることになるでしょう。

But Google makes most of its money through advertising.

しかし、Googleは主に広告を通じて収益を上げています。

In this new world of AI, they have to Figure out how to make money off of the AI responses as well.

この新しいAIの世界では、彼らはAIの応答からどのように収益を上げるかを考えなければなりません。

We're gonna actually start seeing ads inside of the AI overviews.

実際にAIの概要の中に広告が表示されるようになるでしょう。

We can see right here that it showed some sponsored messages.

ここで、いくつかのスポンサー付きメッセージが表示されたことがわかります。

Somebody searches, How do I get a grass stain out of jeans?

誰かが「ジーンズから草のシミをどうやって取るの?」と検索しています。

It gives an AI response of how to do it.

AIがそれをどのように行うかについての回答を提供します。

When they scroll down a little bit, you can see right below the response, there's some sponsored results for things like TidePen and OxyClean related to their search.

少し下にスクロールすると、回答のすぐ下に、TidePenやOxyCleanなど、彼らの検索に関連するスポンサー付きの結果が表示されます。

In Large Language Model news this week, we also got a new version of Gemini, Gemini 1.5 Flash 8B.

今週の大規模言語モデルに関するニュースでは、Geminiの新しいバージョン、Gemini 1.5 Flash 8Bが発表されました。

This is a new small Large Language Model that's 50% cheaper, two times higher rate limits, and lower latency on small prompts.

これは新しい小型の大規模言語モデルで、50%安価で、レート制限が2倍高く、小さなプロンプトに対して低遅延です。

This is really for developers that use the API here.

これはここでAPIを使用する開発者向けのものです。

On benchmark tests, it looks like it performs pretty well compared to other models in a similar size.

ベンチマークテストでは、同じサイズの他のモデルと比較して、かなり良いパフォーマンスを発揮しているようです。

Since we're talking about Large Language Models, NVIDIA announced a new Large Language Model this week called NVLM-D72B.

大型言語モデルについて話しているので、NVIDIAは今週、NVLM-D72Bという新しい大型言語モデルを発表しました。

This is an open-source Large Language Model that is also capable of vision tasks.

これは、視覚タスクにも対応可能なオープンソースの大規模言語モデルです。

According to this article, it rivals the leading proprietary models like GPT-4o.

この記事によると、これはGPT-4oのような主要な商用モデルに匹敵します。

If we look at the benchmarks here, we can see that this NVLMD 1.072b is actually pretty on par with GPT-4 Vision model and in one benchmark even outperforms GPT-4o and Claude Sonnet here, which is pretty impressive given the fact that this is an open-source model and not a closed model like Anthropic or OpenAI or Gemini.

ここでベンチマークを見ると、このNVLMD 1.072bが実際にはGPT-4 Visionモデルとほぼ同等であり、1つのベンチマークではGPT-4oやClaude Sonnetを上回っていることがわかります。特に、AnthropicやOpenAI、Geminiのようなクローズドモデルではなく、オープンソースモデルである点を考慮すると、これは非常に印象的です。

Pinterest is rolling out generative AI tools for product imagery to advertisers, pretty much the same thing we've seen in tools like Shopify and Amazon.

Pinterestは、商品画像向けに生成AIツールを広告主向けに展開しています。これは、ShopifyやAmazonで見られるツールとほぼ同様のものです。

You can upload an image of your product and it can remove the background or put it in a different scene, things like that.

商品画像をアップロードすると、背景を削除したり、別のシーンに配置したりすることができます。

We've seen this roll out in all sorts of e-commerce platforms at this point.

現時点で、さまざまなeコマースプラットフォームでこの機能が展開されているのを見てきました。

You're gonna get it directly inside of Pinterest.

Pinterest内で直接利用できるようになります。

There was some huge news in the world of AI imagery this week.

今週、AI画像の世界で大きなニュースがありました。

Black Forest Labs released a new model called Flux 1.1 Pro and they also made their API available.

Black Forest LabsはFlux 1.1 Proという新しいモデルを発表し、APIも利用可能にしました。

So Flux 1.1 Pro, you can use it right now over on Together AI, Replicate, Fall.

したがって、Flux 1.1 Proは、現在Together AI、Replicate、Fallで使用することができます。

Ai, and FreePick, and it's quite a bit improved.

AiとFreePickがあり、かなり改善されました。

If you've seen things on like Twitter or X where people are referring to Blueberry, Blueberry was sort of the code name for Flux 1.1.

もしTwitterやXで人々がBlueberryについて言及しているのを見たことがあれば、BlueberryはFlux 1.1のコードネームのようなものでした。

Here's a little comparison that my buddy Angry Penguin put together.

こちらは、私の友人であるAngry Penguinがまとめた小さな比較です。

You should definitely be following him over on Twitter if you're not already.

彼をまだフォローしていないのであれば、ぜひTwitterでフォローすべきです。

He shares all sorts of cool AI announcements, but we can see the difference here of Flux Pro, the old model, find me, the stars align, the new model find me where the stars align seems to be much better with text.

彼はさまざまな素晴らしいAIの発表を共有していますが、ここで見ることができるのは、古いモデルのFlux Proと、新しいモデルの「星が揃う場所を見つける」というもので、テキストに関しては新しいモデルの方がずっと優れているようです。

You can actually see his prompt here if you want to duplicate that.

もしそのプロンプトを複製したいのであれば、ここに彼のプロンプトを見ることができます。

Here's another one, sky's the limit, sky's uh schlint, here's another one, sky's the limit, so it's much more understanding of what you're looking for, at least from the text side of things.

もう一つの例として、「空が限界」というものがありますが、これは「空がシュリント」というもので、あなたが探しているものを理解する能力がずっと高いです。少なくともテキストの面ではそうです。

Here's another example, feel free to pause on any of these if you want to look at them more closely and grab the prompt, but we can see that the text and even the image is quite a bit better.

別の例もありますので、これらのいずれかでじっくり見たい場合は、一時停止してプロンプトを取得しても構いませんが、テキストや画像がかなり良くなっていることがわかります。

In this image, we can see the barbell is kind of going into the cat's head or maybe behind it.

この画像では、バーベルが猫の頭の中に入っているようにも、あるいはその後ろにあるようにも見えます。

I can't really tell.

よくわかりません。

This one, you got the whole thing on the screen and the text is exactly what was asked for.

こちらは、画面全体に映っていて、テキストも求められた通りになっています。

Here's some more examples.

さらにいくつかの例を示します。

Here's another example of a Ghibli style, old Japanese city, blue sky, sunny background, Japanese temple, Japanese traditional.

こちらは、ジブリスタイルの古い日本の街、青い空、晴れた背景、日本の寺院、日本の伝統的なものの別の例です。

Here's the original one.

こちらが元のものです。

Here's the new one.

こちらが新しいものです。

Looks quite a bit better.

かなり良く見えます。

A lot better color palette in my opinion.

私の意見では、色のパレットがずっと良くなっています。

Obviously, what's aesthetically pleasing is very subjective, but I find this to be a little bit more aesthetically pleasing.

明らかに、美的に心地よいものは非常に主観的ですが、私はこれが少しだけ美的に心地よいと感じます。

Here's another example.

もう一つの例をご紹介します。

We can just really see how prompted here it is because look at how big this prompt is.

ここでどれほど促されているかがよくわかります。なぜなら、このプロンプトの大きさを見てください。

A vector illustration, a group of adorable smiling ghosts, wearing different color witch hats.

ベクターイラストで、さまざまな色の魔女の帽子をかぶった、愛らしい笑顔の幽霊たちのグループです。

We're getting that.

私たちはそれを得ています。

Each ghost has a unique expression.

それぞれの幽霊には独自の表情があります。

Cheerful pumpkins with carved faces.

陽気な顔が彫られたカボチャ。

Background should be dark purple.

背景は濃い紫色であるべきです。

It pretty much nailed every single element from this long prompt here.

この長いプロンプトのすべての要素をほぼ完璧に捉えました。

Here's another example.

もう一つの例です。

In the first one, it didn't even get the eye lift to eat.

最初のものでは、目のリフトさえも得られませんでした。

The second one, it kind of nailed it.

二つ目は、なんとなく的を射ていました。

Maybe one of these straws is meant to be the eye.

もしかしたら、これらのストローのうちの一つが目を表しているのかもしれません。

I don't know.

わかりません。

A handwritten letter written in old English and signed Flux Pro at the bottom.

古い英語で書かれた手書きの手紙で、下部にはFlux Proとサインされています。

Look at that.

見てください。

Here's another example and another example and one final example.

こちらはもう一つの例と、さらにもう一つの例、そして最後の例です。

Thanks again to Angry Penguin for sharing all of those with me and giving me permission to share them in this video.

再度、すべてを共有してくれたAngry Penguinに感謝し、この動画で共有する許可をいただきました。

Feel free to go back and pause on any of those if you want to see the specific prompt that I didn't cover.

もし私が取り上げなかった具体的なプロンプトを見たい場合は、戻って一時停止しても構いません。

Angry Penguin also gave me a quick tip.

Angry Penguinは私に簡単なヒントも教えてくれました。

He said that you can actually use Flux Pro 1.1 right now for free if you use it over on the glyph.

彼は、実際にGlyphで使用すれば、今すぐFlux Pro 1.1を無料で使えると言っていました。

App website.

アプリのウェブサイトです。

Some of the other sites that are allowing you to use it for free are only allowing you to use it for free for like a day.

他のいくつかのサイトでは無料で使用できるものの、無料で使えるのは1日だけといった制限がある場合が多いです。

This one, it's free for now.

こちらは、今のところ無料です。

From what I understand, it'll be free for a few weeks, but I don't know how long it's gonna be free for.

私の理解では、数週間は無料で使えるとのことですが、どれくらいの期間無料で使えるのかは分かりません。

But at the time this video is going live, you can actually play around with Flux Pro 1.1 for free on glyph.

しかし、この動画が公開される時点では、実際にGlyphでFlux Pro 1.1を無料で試すことができます。

Let's go ahead and sign in real quick.

さあ、さっとサインインしましょう。

Let's just try a monkey holding a sign that says subscribe to Matt Wolf.

「Matt Wolfを購読してください」と書かれた看板を持った猿を試してみましょう。

It got the two Matt Wolf part, but kind of missed the subscribe.

「Matt Wolf」の部分はうまくいきましたが、「購読」の部分は少し外れました。

Let's run it one more time.

もう一度試してみましょう。

This time it got it right with no issues.

今度は問題なく正しくできました。

I actually love making images over here on glyph because they show up in this feed down here and now anybody that goes and looks at this feed is going to have a monkey telling them to subscribe to Matt Wolf.

実は、Glyphで画像を作るのが大好きなんだ。なぜなら、このフィードに表示されるからさ。今、このフィードを見に行く誰もが、マット・ウルフを購読するように言っているサルの画像を見ることになるんだ。

But that's Flux Pro 1.1 and I will link up where you can use that below.

しかし、これがFlux Pro 1.1であり、下にその使用方法のリンクを貼ります。

You can go use Angry Penguin's integration of it or you can go build your own glyph with it in the workflow.

あなたはAngry Penguinの統合を使うこともできますし、ワークフローで自分自身のグリフを作成することもできます。

We also got some updates out of Leonardo AI this week.

今週、Leonardo AIからいくつかのアップデートがありました。

Now, this is a company that I am an advisor for, so just keep that in mind when I talk about them, but when they do really good stuff, I talk about the good stuff.

これは私がアドバイザーを務めている会社なので、彼らについて話すときはその点を考慮してください。しかし、彼らが本当に良いことをしたときは、その良いことについて話します。

When they do stuff that I don't really like, I point out the stuff that I don't really like.

彼らが私があまり好きではないことをする時、私はそのあまり好きではないことを指摘します。

I try to remain fairly unbiased, but this is just the news.

私は比較的偏りなくいるように努めていますが、これはただのニュースです。

This week, they rolled out a new style reference feature.

今週、彼らは新しいスタイルリファレンス機能を導入しました。

You can upload up to four reference images to direct the aesthetics of your image output.

最大で4つのリファレンス画像をアップロードして、画像出力の美的感覚を指示することができます。

You can also adjust the strength of the reference image.

また、リファレンス画像の強さを調整することも可能です。

They also rolled out a new image to image feature using the Phoenix preset.

彼らはまた、フェニックスプリセットを使用した新しい画像から画像への機能を導入しました。

They've had image to image in Leonardo for a while, but the feature wasn't available to use with the Phoenix model, which is the model that's probably the best inside of Leonardo, but now Image to Image is available using the Phoenix model.

レオナルドにはしばらくの間画像から画像への機能がありましたが、その機能はフェニックスモデルでは使用できませんでした。このモデルはおそらくレオナルドの中で最も優れたモデルですが、今ではフェニックスモデルを使用して画像から画像への機能が利用可能になりました。

If I jump in here, I go to image creation.

ここに飛び込むと、画像作成に進みます。

Up here in my prompt box, you can see a new little image icon.

プロンプトボックスの上部には、新しい小さな画像アイコンが見えます。

If I click on this, it gives me the option for style reference or image to image or a content reference, which is coming soon.

これをクリックすると、スタイル参照、画像から画像への機能、または近日中に登場するコンテンツ参照のオプションが表示されます。

But even if you don't have a style reference already, what's really cool is I can click on style reference here, go to the community feed.

しかし、すでにスタイルの参照がなくても、本当に素晴らしいのは、ここでスタイルの参照をクリックして、コミュニティフィードに移動できることです。

If there's an aesthetic of an image that I really like, I can pull in that same aesthetic for the images that I'm about to generate.

もし私が本当に好きな画像の美的感覚があれば、その同じ美的感覚を生成しようとしている画像に取り入れることができます。

Let's say I really like this painterly look here.

例えば、私はこの絵画的な見た目が本当に好きだとしましょう。

Let's go ahead and pull that in, confirm it.

それを取り入れて、確認してみましょう。

It's going to use that as a style reference.

それをスタイルの参照として使用します。

I'll just put a simple prompt, a robot looking into the camera.

簡単なプロンプトを入力します。カメラを見つめるロボットです。

and then hopefully it will do it in a similar style.

そして、うまくいけば、似たようなスタイルで生成されるでしょう。

There we go.

さあ、始めましょう。

It gave me four generations.

四つの生成物が得られました。

This one's probably the best looking, but you can see it looks like a painted image that models the style that we have up here, but with a robot looking into the camera.

これが一番見栄えが良いですが、上にあるスタイルを模した絵画のように見えます。ただし、カメラを見つめるロボットが描かれています。

Also a sort of newer feature they rolled out is under the generation mode.

また、彼らが導入した新しい機能の一種は、生成モードの下にあります。

They have this ultra mode.

彼らはこの「ウルトラモード」を持っています。

What that's actually doing is it's upscaling all of these images right as they generate.

実際にそれが行っていることは、生成する際にすべての画像をアップスケーリングしているということです。

If I actually look at this image at full size, you can see it's a fairly large image.

もし私がこの画像をフルサイズで見ると、かなり大きな画像であることがわかります。

It's actually been upscaled right within the pipeline of generating the image.

実際には、画像を生成するパイプライン内でアップスケーリングされています。

That's pretty cool as well.

それもかなり素晴らしいですね。

There's also lots of new features rolling out for Leonardo soon, but as they roll out, I'll show them off.

レオナルドには新しい機能がたくさん登場する予定ですが、それらが展開される際にはお見せします。

I'm not quite allowed to talk about them yet, but there is some exciting stuff.

まだそれについて話すことは許可されていませんが、いくつかの興味深いものがあります。

I'll share that as it rolls out.

それが展開される際に共有します。

Adobe rolled out some new AI features inside of their Photoshop elements and Premiere elements products.

Adobeは、Photoshop ElementsおよびPremiere Elements製品内に新しいAI機能を導入しました。

These are sort of stripped down versions of Photoshop and Premiere that don't have all of the features, but they're for more like casual users.

これらは、すべての機能を備えているわけではない、PhotoshopやPremiereの簡略版のようなもので、よりカジュアルなユーザー向けです。

You've got like object removal, new AI color correction features, depth of field simulation, and a handful of other smaller AI related features that were in the bigger platforms.

オブジェクト除去や新しいAIによるカラー補正機能、被写界深度のシミュレーション、そして大規模なプラットフォームにあった他のいくつかの小さなAI関連機能があります。

But now the sort of more casual elements version of these platforms are getting these AI features as well.

しかし、今やこれらのプラットフォームのよりカジュアルな要素版も、これらのAI機能を手に入れています。

Luma's Dream Machine, which is one of the more popular AI video generation models, got an upgrade this week.

LumaのDream Machineは、より人気のあるAI動画生成モデルの一つで、今週アップグレードされました。

They now have hyper fast video generation, their 10x faster inference.

彼らは現在、超高速な動画生成と、10倍速の推論を実現しています。

You can now generate a full quality Dream Machine clip in under 20 seconds.

20秒以内でフルクオリティのDream Machineクリップを生成できるようになりました。

Pika made a bunch of waves this week with their new Pika 1.5 model.

Pikaは今週、新しいPika 1.5モデルで大きな話題を呼びました。

But most of what we've seen from this 1.5 model have been more of these types of videos where there's an object and you can see the object getting squished or here's some of my generations where it shows me sitting there and I get blown up and then float away like a balloon or getting crushed by a hydraulic press or getting exploded.

しかし、この1.5モデルから見てきた多くのものは、オブジェクトが押しつぶされるような動画が多く、例えば、自分が座っているところから膨らんで風船のように飛んでいったり、油圧プレスで押しつぶされたり、爆発するようなシーンが生成されています。

We've been seeing a lot of these types of videos, but it also seems like it should be able to do text to video because all of these are like text to video generations or possibly image to video generations.

こういったタイプの動画をたくさん見てきましたが、テキストから動画への変換もできるはずのようです。なぜなら、これらはすべてテキストから動画への生成、あるいは画像から動画への生成のように見えるからです。

But for me, for whatever reason, I have not gotten text to video to work.

しかし、私にとっては、何らかの理由でテキストから動画への変換がうまくいっていません。

I actually tried starting to generate like a monkey on roller skates and a wolf howling at the moon.

実際、私はローラースケートを履いた猿や月に向かって吠えるオオカミを生成しようと試みました。

These have been trying to generate for about 36 hours now.

これを生成しようとして約36時間が経過しました。

At this point, I'm not confident they're ever going to actually generate.

現時点では、実際に生成されるとは自信が持てません。

But these like meme type videos where you can squish yourself or cut something open like a piece of cake, those all work perfectly.

しかし、自分を潰したり、ケーキのように何かを切り開いたりするミームタイプの動画は、すべて完璧に機能します。

I just got to Figure out how to get the text to image to actually work because that's not working for me anymore for some reason.

ただ、テキストから画像を生成する方法を見つけなければならないのですが、なぜかそれがうまくいかなくなっています。

But the videos they did show off, they look pretty dang impressive, possibly cherry picked.

しかし、彼らが見せた動画は、非常に印象的に見え、選りすぐりのものである可能性があります。

Most of the time when you're going to see stuff on social media, it's going to be cherry pick stuff.

ソーシャルメディアで見るもののほとんどは、選りすぐりのものになるでしょう。

It looks really, really cool.

本当に、本当にかっこよく見えます。

I'm excited to actually be able to generate with text to video.

テキストから動画を生成できることに実際にワクワクしています。

Just still haven't really quite gotten it to work yet.

ただ、まだうまく動作させることができていません。

ByteDance, the company behind TikTok, also revealed a new AI video generator this week that is said to rival Sora.

TikTokの運営会社であるByteDanceは今週、Soraに匹敵すると言われる新しいAI動画生成ツールを発表した。

That seems to be the benchmark that everybody compares the video generator models against is a model that none of us have actually gotten our hands on yet.

それは、皆がビデオ生成モデルを比較する際のベンチマークのようですが、私たちの誰もまだ実際に手に入れたことのないモデルです。

But here's some examples of what can do.

しかし、これができることのいくつかの例です。

Here's a woman taking off her sunglasses, standing up.

こちらは、サングラスを外して立ち上がる女性です。

It looks pretty good.

見た目はかなり良いですね。

You can tell it's AI generated, but it looks pretty good.

AIが生成したものであることはわかりますが、見た目はかなり良いです。

It's generating at 10 seconds as well.

10秒で生成されています。

Here's another one of a man like bowing down to a woman here and then looking back up at her.

こちらは、男性が女性にお辞儀をしてから彼女を見上げる様子の別の作品です。

She's crying.

彼女は泣いています。

That one looks pretty good too, but it sort of feels like it's in slow motion still.

あれもかなり良さそうですが、まだスローモーションのような感じがします。

Here's another example of like a black and white video zooming in on a woman's face who's wearing sunglasses.

こちらは、サングラスをかけた女性の顔にズームインする白黒動画の別の例です。

They're looking pretty good.

それらはかなり良い感じです。

My buddy Tim over here at Theoretically Media actually did a breakdown video all about this new model that's about nine minutes.

こちらのTheoretically Mediaの友人ティムが、この新しいモデルについての約9分の解説動画を実際に作成しました。

I'll link that up below if you want to sort of take a deeper dive into this model.

このモデルについてさらに詳しく知りたい方のために、下にリンクを貼っておきます。

Here's something that's pretty cool that's coming to Steam.

Steamに登場する、かなりクールなものがあります。

If you're a gamer and you have the Steam game engine on your computer, there's this new thing called Dream World coming out where you can create any 3D asset and just drop it into the world that you're playing in.

もしあなたがゲーマーで、パソコンにSteamゲームエンジンを持っているなら、「Dream World」という新しいものが登場していて、そこでどんな3Dアセットでも作成し、自分がプレイしている世界にそのまま配置できるようになるんだ。

Here's the demo they put out around that.

こちらが彼らがその周辺で公開したデモです。

They type in giant King Kong, and then a giant 3D King Kong is now just like in that world, black and gold Anubus statue.

彼らは巨大なキングコングと入力し、すると巨大な3Dキングコングがその世界に現れ、黒と金のアヌビス像のようになります。

I think I mispronounced that, but, uh, you can see it, put that big statue there.

私はそれを誤って発音したと思いますが、ええ、その大きな像をそこに置くことができます。

Anything that they can imagine, they can just drop into the world.

彼らが想像できるものは何でも、その世界にドロップすることができます。

This looks like it's a sort of bigger game worth like open world and challenges and things that you actually do.

これは、オープンワールドや実際に行う挑戦などを含む、より大きなゲームのように見えます。

Like, one of the sort of cool, interesting things that make this game novel is that you can just think of anything and then drop it into your world, whether or not you can actually use those things.

このゲームを新しいものにしている、クールで興味深い点の一つは、何でも考えつくことができ、それを自分の世界にドロップできるということです。

I'm not sure, like, if you make a boat on the ocean, can I then jump into that boat and sail across the ocean?

私はよくわかりませんが、例えば海にボートを作った場合、そのボートに飛び乗って海を渡ることができるのでしょうか?

If I generate a car in this world, can I jump in the car and drive it around? I don't know.

もしこの世界で車を生成したら、その車に乗って運転することができるのでしょうか?私はわかりません。

It seems like you just kind of can create the stuff, and it's just there and added to your world, and you've got like all the crafting and open world and sort of elements you get out of like Valheim or Minecraft or something like that, but with also the ability to just sort of drop 3D objects anywhere in the world.

どうやら、ただ物を作ることができて、それがそのまま存在し、あなたの世界に追加されるようです。そして、ValheimやMinecraftのようなクラフトやオープンワールドの要素がありつつ、3Dオブジェクトを世界のどこにでも置くことができる能力もあるようです。

I don't know.

私はわかりません。

I'll probably grab it and play around with it once it's available, though.

おそらく、それが利用可能になったら手に取って遊んでみるつもりです。

We also got the news this week that the governor of California, Gavin Newsom, vetoed SB 1047.

今週、カリフォルニア州の知事であるギャビン・ニューサムがSB 1047に対して拒否権を行使したというニュースも入ってきました。

I've sort of talked about that one enough, but it was the bill that would hold responsible the AI companies that made the model if somebody else took that model and did something that caused catastrophic harm.

その件についてはある程度話したと思いますが、それは他の誰かがそのモデルを使って壊滅的な被害を引き起こすようなことをした場合に、そのモデルを作ったAI企業に責任を負わせる法案のことでした。

If somebody took the Llama model, tweaked with it, and then figured out how to make like a chemical weapon that had catastrophic impact, Llama would be held responsible as well as the person who made the actual chemical weapons.

もし誰かがLlamaモデルを使って調整し、その後、壊滅的な影響を持つ化学兵器を作る方法を見つけた場合、Llamaは実際の化学兵器を作った人と同様に責任を問われることになるでしょう。

All of the AI companies were fighting against this bill because they were basically saying, we just want to make better and better models.

すべてのAI企業はこの法案に反対していました。なぜなら、彼らは基本的に「私たちはただより良いモデルを作りたいだけだ」と主張していたからです。

We don't know what people are going to use these models for in the future.

私たちは、人々が将来これらのモデルを何に使うのか分かりません。

Gavin Newsom vetoed the bill.

ギャビン・ニューサムはその法案に拒否権を行使しました。

Most likely some regulation is going to come around this stuff, just not that bill specifically.

おそらく、この件に関して何らかの規制が出てくるでしょうが、特にその法案ではありません。

It's only a matter of time before another one gets drafted up and goes through Congress, and hopefully it's something that more people can agree upon, I guess.

別の法案が起草されて議会を通過するのは時間の問題であり、できればより多くの人々が合意できる内容であることを願っています。

But while we're speaking of AI legislation, a judge actually blocked another AI bill that was related to deepfakes.

しかし、AIに関する立法について話しているときに、実際に裁判官がディープフェイクに関連する別のAI法案を阻止しました。

The AB 2839 bill, which was signed by Governor Newsom, was slapped down by the courts.

AB 2839法案は、ニューサム知事によって署名されましたが、裁判所によって却下されました。

AB 2839 targets the distributors of AI deepfakes on social media, specifically if their post resembles a political candidate and the poster knows it's a fake that may confuse voters.

AB 2839は、特にその投稿が政治候補者に似ており、投稿者がそれが有権者を混乱させる可能性のある偽情報であることを知っている場合に、ソーシャルメディア上のAIディープフェイクの配信者を対象としています。

The law is unique because it does not go after the platforms on which AI deepfakes appear, but rather those who spread them.

この法律は、AIディープフェイクが表示されるプラットフォームを攻撃するのではなく、それを広める者を対象としているため、独自のものです。

The judge basically said that this goes against the freedom of speech and that the only thing that's going to stick from this bill is that if you are going to spread a deep fake message with like political figures, you have to say that it was generated with AI.

裁判官は基本的に、これは言論の自由に反すると述べ、この法案から残る唯一のことは、政治的な人物を使ったディープフェイクメッセージを広める場合には、それがAIによって生成されたものであることを明示しなければならないということです。

You could still spread them and share them.

それでも、ディープフェイクを広めたり共有したりすることは可能です。

You just have to say that they were made with AI without trying to fake people.

ただ、彼らがAIで作られたものであると偽らずに言うだけで良いのです。

That's the only part of the bill that stuck.

それがその法案の唯一の部分です。

Everything else from the bill, they basically said, no, that's against freedom of speech.

法案の他のすべてについては、基本的に「いいえ、それは言論の自由に反する」と言いました。

Amazon's rolling out some new fire tablets that are going to have AI tools built into them.

アマゾンは、新しいファイアタブレットを展開しており、それにはAIツールが組み込まれています。

Things like writing assistance, getting webpage summaries and creating wallpapers from a prompt.

例えば、文章の支援、ウェブページの要約、プロンプトからの壁紙作成などです。

I'm pretty sure at this point, like every tablet that comes out, no matter who makes it is going to start rolling out with AI features.

私は今の時点でかなり確信していますが、どのメーカーが作ったものであれ、発売されるすべてのタブレットにはAI機能が搭載されることになるでしょう。

It's kind of become like a necessity or like an expectation of these devices these days.

最近では、これらのデバイスにとってそれが必要不可欠なもの、あるいは期待されるものになってきています。

But we're getting it inside of the fire tablets.

しかし、私たちはそれをファイヤータブレットの中に取り入れています。

Finally, I want to end with this one because I thought this was sort of one of the cooler things I saw this week, which is a robust ladder climbing quadrupedal robot.

最後に、今週見た中で特にクールだと思ったものを紹介したいと思います。それは、頑丈な梯子を登る四足歩行ロボットです。

We can see in this video, they actually created one of these four legged robots and designed it so that it can now climb ladders right now that it can only climb up ladders.

このビデオでは、実際にこの四足ロボットの一つが作られ、梯子を登れるように設計されたことがわかります。今のところ、梯子を上ることしかできませんが。

It can't climb down ladders.

梯子を下りることはできません。

But if we look at the robot itself, what really makes it unique is sort of the claw like hand that it's got so that it can grip over ladders and climb them.

しかし、ロボット自体を見ると、それを特別なものにしているのは、梯子をつかんで登ることができる爪のような手です。

The idea being we can send robots into very high, dangerous places up ladders that we would normally send humans and for safety reasons, wherever it seems smarter to send a robot, they would do that over putting a human's life at stake.

そのアイデアは、通常人間を送るような非常に高く危険な場所にロボットを送り込むことができるというもので、安全上の理由から、ロボットを送る方が賢明と思われる場所では、人間の命を危険にさらすよりもロボットを使うということです。

I think that's pretty cool.

それはとても素晴らしいと思います。

We can see here the sort of digital twin world where they're all being trained on these ladders.

ここでは、彼らがこれらの梯子で訓練されているデジタルツインの世界を見ることができます。

I just love robots.

私はロボットが大好きです。

Robots are really, really fun.

ロボットは本当に、本当に楽しいです。

Whenever I come across new robots doing novel things that I haven't ever seen robots do, I'm probably gonna talk about it because yeah, robots are just cool.

新しいロボットが私が今まで見たことのない新しいことをしているのに出会うと、たぶんそのことについて話すでしょう。だって、ロボットはただクールなんです。

Hopefully they don't rise up and destroy us all once they get smarter and smarter AI, but let's not think about that right now.

彼らがどんどん賢くなって私たちを滅ぼすようなことがないことを願っていますが、今はそのことについて考えたくありません。

One more thing before I wrap up here, I am going to be helping to judge an AI hackathon up in Santa Monica on October 12th and 13th.

ここで締めくくる前にもう一つ、私は10月12日と13日にサンタモニカで行われるAIハッカソンの審査を手伝うことになっています。

It should be pretty cool because you don't actually have to be a developer yourself to participate in this hackathon.

このハッカソンに参加するためには、実際に自分が開発者である必要はないので、かなり面白いと思います。

You can actually use AI to help you code or you can be someone that actually knows code and we'll just see who comes up with the coolest product at the end of it and should be pretty fun.

実際にAIを使ってコーディングを手伝わせることもできますし、コードを知っている人になってもらって、最終的に誰が一番クールな製品を作り出すかを見てみるのも楽しいでしょう。

It's happening again, October 12th and 13th.

最終的に誰が一番クールな製品を作り出すかを見て、かなり楽しい時間になるでしょう。

You can go to hack.

再び開催されるのは、10月12日と13日です。

Cerebralbeach.com to learn more.

詳細については、hack.cerebralbeach.comをご覧ください。

I'll be one of the judges.

私は審査員の一人になります。

I'll be there.

私はそこにいます。

It'd be fun to meet some people in person there.

そこで何人かの人に直接会えるのは楽しいでしょう。

That's what I got for you today.

今日はこれをあなたにお伝えします。

If you haven't already, check out futuretools.io.

まだ見ていない場合は、futuretools.ioをチェックしてください。

This is where I share all of the coolest AI tools I come across.

ここでは、私が出会ったすべての素晴らしいAIツールを共有します。

I share all of the AI news that I come across.

私が出会ったすべてのAIニュースを共有します。

I have a free newsletter where I'll share just the coolest tools and coolest news that I think you need to know about directly to your inbox.

私は無料のニュースレターを発行しており、あなたが知っておくべき素晴らしいツールやニュースを直接あなたの受信箱にお届けします。

It's all free.

すべて無料です。

You can find it at futuretools.io.

futuretools.ioで見つけることができます。

Thank you so much for tuning in.

ご視聴いただき、誠にありがとうございます。

If you want to stay on the cutting edge and stayed looped in with AI and the latest AI tutorials and how they're doing this stuff and the latest AI news and all that kind of stuff, like this video and subscribe to this channel.

最先端の情報を得たい方や、AIや最新のAIチュートリアル、これらの技術がどのように活用されているか、最新のAIニュースなどに関心がある方は、この動画に「いいね」を押して、このチャンネルを登録してください。

I will make sure more of that stuff keeps showing up in your YouTube feed.

皆さんのYouTubeフィードに、これらの情報がもっと表示されるようにします。

I'll try to help you stay on the cutting edge of everything that's happening in this world.

この世界で起こっているすべてのことの最前線に立てるようお手伝いします。

Thank you once again for tuning in and nerding out with me.

改めてご視聴いただき、私と一緒に楽しんでいただきありがとうございます。

I know this video is a little bit long.

この動画が少し長いことは承知しています。

There was a lot that happened this week, but I appreciate you sticking with it and hanging out with me.

今週はたくさんの出来事がありましたが、最後までお付き合いいただき、ありがとうございます。

Thank you once again to Meta for sponsoring this video.

この動画をスポンサーしてくださったMetaに改めて感謝いたします。

I'll see you guys in the next one.

次回の動画でお会いしましょう。

Bye bye.

さようなら。

いいなと思ったら応援しよう!