見出し画像

【マット・ウルフのAIニュース:OpenAIが新モデルをついにリリース!】英語解説を日本語で読む【2024年9月15日|@Matt Wolfe】

OpenAIが新しいモデル「o1-preview」をリリースしました。「o1-preview」は、従来のGPT-4oモデルに比べて高度な推論、数学、論理的思考に優れています。OpenAIのブログでは、このモデルが数学オリンピアードの予選で米国の上位500人に匹敵する成績を収め、物理学、生物学、化学の問題で博士課程レベルの精度を超えたと報告しています。Appleも新製品発表イベントを開催し、最新のiPhoneやApple Watchを発表しました。AIに関連する新機能としては、メールやドキュメントのリライトや要約、写真から背景を削除する機能、通知の優先順位設定などが紹介されました。その他にも、Adobeがテキストからビデオを生成する新機能を発表し、Mistralが画像を入力として受け取れる新しいオープンソースモデル「Pixtral 12B」をリリースしました。Googleの「NotebookLM」では、アップロードしたドキュメントからポッドキャスト風の音声概要を生成する新機能が追加されました。Facebook(Meta)は、AIによって編集されたコンテンツへのラベル表示を調整し、ユーザーの不満を軽減する取り組みを始めました。また、ゲーム業界でもRobloxやDaz 3DなどがAIを活用した新しい開発ツールを発表し、ゲーム制作のプロセスを大幅に効率化しています。最後に、DeepMindのロボティクスラボから、人間のように靴紐を結ぶことができるロボットが発表されました。公開日:2024年9月15日
※動画を再生してから読むのがオススメです。


I just spent the last week at Disneyland, and of course, the week that I'm gone turns out to be an insane week with tons of big announcements.

私は先週ディズニーランドで過ごしていましたが、もちろん私が不在の週に、たくさんの大きな発表があるという信じられないような週になってしまいました。

I'm a day later than normal on getting this AI news video out, so I'm not gonna waste your time.

私はこのAIニュースの動画をいつもより1日遅れて出すことになったので、あなたの時間を無駄にするつもりはありません。

Let's just jump right in.

さっそく本題に入りましょう。

There was really two major, major things that happened this week, and then a whole bunch of little things.

今週起こった大きな出来事は本当に二つあり、そのほかにもたくさんの小さな出来事がありました。

The two major things, the new release from OpenAI, and the Apple iPhone event that happened.

その二つの大きな出来事は、OpenAIの新しいリリースと、行われたAppleのiPhoneイベントです。

So let's start by talking about this new OpenAI o1-preview model that's been made available.

それでは、この新しいOpenAIのo1-previewモデルについてお話ししましょう。

We've been getting lots of teases about it over the last several months from OpenAI.

ここ数ヶ月、OpenAIからそれに関する多くの予告がありました。

Originally, it was called Q*, then it was called Strawberry, and now they're calling it OpenAI o1.

最初はQ*と呼ばれ、その後Strawberryと呼ばれ、現在はOpenAI o1と呼ばれています。

It kind of sounds to me like all future models are going to follow this naming scheme.

私には、今後のすべてのモデルがこの命名規則に従うように思えます。

We're probably not gonna be getting GPT-5, GPT-6, GPT-7, etc.

おそらく、GPT-5、GPT-6、GPT-7などは出てこないでしょう。

This is o1, and in their blog post about it, they said, we are resetting the counter back to 1 and naming this series OpenAI o1.

これはo1であり、彼らのブログ記事では、カウンターを1にリセットし、このシリーズをOpenAI o1と名付けると述べています。

So I'm guessing their next models that they show off are gonna be OpenAI o2, OpenAI o3, etc.

彼らが次に発表するモデルはOpenAI o2、OpenAI o3などになると推測しています。

And maybe some decimal points in there as well.

おそらく小数点も含まれるかもしれません。

Now, in order to use these new models, you do have to be on a pro plan or an enterprise plan.

さて、これらの新しいモデルを使用するには、プロプランまたはエンタープライズプランに加入している必要があります。

You basically have to be paying for ChatGPT.

基本的にはChatGPTの料金を支払っている必要があります。

But when you log into your account, every paid member should now have these new options.

アカウントにログインすると、すべての有料会員はこれらの新しいオプションを利用できるようになります。

It still defaults to ChatGPT-4o, but if we click on this little drop down, you can see we now have o1-preview and o1-mini, with their older models falling under this more models additional drop down.

まだデフォルトはChatGPT-4oですが、この小さなドロップダウンをクリックすると、o1-previewとo1-miniが表示され、古いモデルは「さらにモデル」の追加ドロップダウンに分類されています。

Now, for the most part, OpenAI still recommends you use GPT-4o for most things.

基本的には、OpenAIはほとんどのことに対してGPT-4oの使用を推奨しています。

If you're going to use the o1 models, it's more for advanced reasoning, mathematics, logic, and things that need to be really thought out, more complicated tasks.

o1モデルを使用する場合は、主に高度な推論、数学、論理、そしてしっかりと考える必要がある複雑なタスクに適しています。

Now, if you're wondering what makes this model different or better than previous models, well, it essentially thinks through its response before responding.

このモデルが以前のモデルと何が違うのか、またはどのように優れているのか疑問に思っている場合、それは基本的に応答する前にその応答を考慮するからです。

So when you ask it a question, it's going to be a lot slower to respond, but it's going to really think through its response.

質問をすると、反応がかなり遅くなるでしょうが、それでも本当にその回答を考え抜くことになります。

This is called chain of thought prompting.

これを「思考の連鎖による促し」と呼びます。

So if I select o1-preview here, you can see some of the suggested prompts.

ここでo1プレビューを選択すると、いくつかの提案されたプロンプトが表示されます。

And one of them is how many Rs are in strawberry, which the previous model of GPT-4 kept on telling you there was two Rs in strawberry.

その中の一つは「StrawberryにはRがいくつあるか」というもので、以前のGPT-4モデルはStrawberryにはRが2つあると繰り返し言っていました。

Let's go ahead and just use one of the demo prompts.

それでは、デモプロンプトの一つを使ってみましょう。

Let's tell it to create a puzzle to solve for me.

それに私のために解くパズルを作成するように伝えましょう。

And here you can see it says, generate a six by six nanogram puzzle for me to solve, where the solved grid looks like the letter Q. And you can see it's actually thinking.

ここに、私が解くための6×6のナノグラムパズルを生成するように言っているのが見えます。解かれたグリッドはQの形をしています。そして、実際に考えているのがわかります。

And there's a little drop down here.

ここに小さなドロップダウンがあります。

If I open this drop down, you can actually see its thought process creating the puzzle.

このドロップダウンを開くと、パズルを作成する際の思考過程を見ることができます。

I'm working on a six by six nanogram that forms the letter Q, sketching the grid layout, formulating an O shape, filling the grid, examining cell patterns, assessing cell patterns, creating the puzzle.

私はQの形を形成する6×6のナノグラムに取り組んでおり、グリッドのレイアウトをスケッチし、Oの形を考え、グリッドを埋め、セルのパターンを調べ、セルのパターンを評価し、パズルを作成しています。

You can see the thought process of ChatGPT, thinking through all of the steps that it needs to complete this.

ChatGPTの思考過程を見ることができ、これを完了するために必要なすべてのステップを考えています。

And then we can see down here when it's finally done, it says here's a six by six nanogram puzzle for you to solve.

そして、ここで最終的に完了したときに、解くための6×6のナノグラムパズルがあると言っています。

If I scroll up to the top of this prompt here, we can see that it thought about it for 30 seconds.

このプロンプトの一番上までスクロールすると、30秒間考えていたことがわかります。

So it spent 30 seconds going through that sort of chain of thought logic, thinking through everything it needed to do.

そのため、必要なことをすべて考えながら、30秒間そのような思考の連鎖を経ていました。

One of the other example prompts, solve an advanced math problem.

もう一つの例として、高度な数学の問題を解くというプロンプトがあります。

You can see it wrote up this complicated math problem that I don't even know how to read.

この複雑な数学の問題が書かれているのが見えますが、私にはそれを読むことすらできません。

Let dollar sign/math Cal B dollar sign B, the set of rectangular boxes with surface area.

ドル記号/math Cal Bドル記号B、表面積を持つ長方形の箱の集合です。

I don't even know what this means.

私にはこれが何を意味するのかもわかりません。

Basically, what it's going to do is it's going to try to respond

基本的に、これが行うことは、応答しようとすることです。

And then sort of double check itself as it goes.

そして、進むにつれて自分自身を再確認するような感じです。

Finally, outputting what it thinks is the best possible response.

最後に、最も良いと思われる回答を出力します。

We can see here it's still thinking it through and it's still working out the math problem as I'm talking.

ここでは、まだ考えを巡らせており、私が話している間も数学の問題を解いている様子が見受けられます。

It came to an answer of 721.

答えは721に至りました。

Is that right?

それは正しいのでしょうか?

I have no idea, but it took 33 seconds to think it all through.

私には分かりませんが、すべてを考え抜くのに33秒かかりました。

The press release over on the OpenAI blog has all sorts of examples of how they've been using it.

OpenAIのブログに掲載されたプレスリリースには、彼らがどのようにそれを利用しているかのさまざまな例が紹介されています。

OpenAI o1 in economics in cognition.

OpenAI o1は、認知科学における経済学です。

That's the company that makes DevOn quantum physics, genetics, et cetera.

それは、デヴォン量子物理学、遺伝学などを作っている会社です。

Now I did mention that there was the o1-preview and the o1-mini.

私はo1-previewとo1-miniがあることに言及しました。

It looks like the o1-mini will become available to ChatGPT free users eventually, but right now both models are only for paid members.

o1-miniは最終的にChatGPTの無料ユーザーにも利用可能になるようですが、現時点では両方のモデルは有料会員専用です。

Now they've done a lot of testing on it and apparently o1 ranks in the 89th percentile on competitive programming questions, places among the top 500 students in the US in qualifier for the USA math Olympiad and exceeds human PhD level accuracy on a benchmark of physics, biology, and chemistry problems.

今、彼らはそれに対して多くのテストを行っており、どうやらo1は競技プログラミングの問題において89パーセンタイルにランクインしており、アメリカ数学オリンピックの予選でトップ500の学生の中に位置しており、物理学、生物学、化学の問題のベンチマークにおいて人間の博士号レベルの精度を超えているようです。

So using that chain of thought reasoning, it's definitely gotten a lot better at solving technical problems.

そのような思考の連鎖を用いると、技術的な問題を解決する能力が確実に向上していることがわかります。

Now in all of these various benchmarks that they show off on their website, it looks like there's another o1 model that we don't have access to yet.

彼らのウェブサイトで披露されているさまざまなベンチマークの中で、私たちがまだアクセスできない別のo1モデルが存在するようです。

As we can see in these various charts here, we have an o1 model and we also have the o1-preview model.

こちらのさまざまなチャートからわかるように、o1モデルとo1-previewモデルの両方があります。

The o1-preview model is what we're seeing in ChatGPT.

o1-previewモデルは、私たちがChatGPTで見ているものです。

So in competition math, it's got 83.3% accuracy, but the version that we seem to be using has about a 56.7% accuracy.

競技数学においては、83.3%の精度を持っていますが、私たちが使用しているバージョンは約56.7%の精度です。

Competition code, their main o1 model is in the 89th percentile for competition code, while the one that we have access to is in the 62nd percentile.

競技コードに関しては、彼らの主要なo1モデルは競技コードの89パーセンタイルに位置していますが、私たちがアクセスできるものは62パーセンタイルです。

And then under PhD level science questions, you can see that o1 scores a 78, where the o1-preview, the one we do have, actually scored a little bit better at 78.3.

そして、博士課程レベルの科学問題において、o1は78点を獲得しており、私たちが持っているo1プレビューは実際には78.3点で少し良い結果を出しています。

Compare that to an expert human, which is about 69.7% accurate.

これを専門家の人間と比較すると、約69.7%の精度です。

We can see some other benchmarks here with GPT-4o in pink and o1 improvements in this blue color.

ここには、ピンク色のGPT-4oと青色のo1の改善に関する他のベンチマークも示されています。

The blue being how far it exceeds the previous GPT-4o model.

青色は、前のGPT-4oモデルをどれだけ上回っているかを示しています。

So for example, in math, GPT-4o got a 60.3, while o1 got a 94.8.

例えば、数学では、GPT-4oが60.3だったのに対し、o1は94.8を記録しました。

So about a 34% improvement.

つまり、約34%の改善です。

Their website has a whole bunch of examples of how it was used.

彼らのウェブサイトには、どのように使用されたかの例がたくさんあります。

There's been a ton of YouTube videos already put out where people are demoing this and walking you through it, but pretty much the o1-preview model outperformed GPT-4o in cipher, coding, math, crossword, English, science, safety, and health science.

すでに多くのYouTube動画が公開されており、人々がこれをデモンストレーションし、使い方を説明していますが、ほぼすべての面でo1プレビューモデルは、暗号、コーディング、数学、クロスワード、英語、科学、安全、健康科学においてGPT-4oを上回りました。

So for each of these up here, you can see the initial prompt as well as the response.

こちらの各項目について、初期のプロンプトとその応答を見ることができます。

And in pretty much every single one of these, o1 outperformed GPT-4o.

そして、ほぼすべてのケースにおいて、o1はGPT-4oを上回る結果を出しました。

Now, again, they also released OpenAI o1-mini, which is actually 80% cheaper than OpenAI o1-preview.

さて、再び、彼らはOpenAI o1-miniも発表しましたが、これは実際にOpenAI o1-previewの80%安価です。

And it's optimized for STEM reasoning.

そして、STEMの推論に最適化されています。

Now, one of the big complaints that people have had about this new OpenAI o1 model has been the pricing.

この新しいOpenAI o1モデルに対する大きな不満の一つは、価格に関するものでした。

If you wanna use it through the API for one of your software products, it's quite a bit more expensive than what's already out there.

もしあなたが自分のソフトウェア製品のためにAPIを通じてそれを使用したいのであれば、既存のものよりかなり高価です。

It's also quite a bit slower because you saw how it thinks through the process.

また、そのプロセスを考える様子を見たように、かなり遅くなっています。

So this OpenAI o1-mini model is supposed to offset some of that, bring the cost down, and it's quite a bit faster than the preview model.

このOpenAIのo1-miniモデルは、その一部を補うことが期待されており、コストを削減し、プレビューモデルよりもかなり速くなっています。

We can see here the o1-mini model took nine seconds.

ここで、o1-miniモデルが9秒かかったことがわかります。

The o1-preview model, as of me talking right now, is already at 30 seconds here in this comparison.

私が今話している時点で、o1-previewモデルはこの比較においてすでに30秒に達しています。

But I really like this tweet from Jim Fan here, where he breaks it down a little bit more clearly about what's happening.

しかし、ここでジム・ファンのこのツイートがとても気に入っています。彼は何が起こっているのかをもう少し明確に説明しています。

And I especially like this graphic that he shared right here, where most Large Language Models spend most of the time and money on pre-training.

特に、彼がここで共有したこのグラフィックが好きです。ここでは、ほとんどの大規模言語モデルが事前学習に多くの時間とお金を費やしていることが示されています。

So they get a wide amount of data from all over the web.

彼らはウェブ全体から幅広いデータを取得します。

They pretty much scrape everything, pre-train that into their model.

ほぼすべてをスクレイピングし、それをモデルに事前学習させます。

Then they do what's called post-training, which is a little bit more like fine tuning and putting up guardrails and telling the model how to respond.

その後、ポストトレーニングと呼ばれる作業を行います。これは、微調整やガードレールの設置、モデルにどのように応答するかを指示することに少し似ています。

And then inference is a teeny tiny sliver of what happens when you use these AI models.

そして、推論はこれらのAIモデルを使用したときに起こることのほんのわずかな部分です。

Inference being when you give it a prompt and it gives you a response, where GPT-4o is really fast at inference.

推論とは、プロンプトを与えると応答が返ってくることであり、GPT-4oは推論が非常に速いです。

You give it a question, it responds within three seconds.

質問を与えると、3秒以内に応答します。

It appears they're spending less time on the pre-training, the scraping every possible thing it can possibly get, spending roughly the same amount of time on post-training, sort of dialing it in, fine tuning it.

彼らは事前学習にかける時間を減らしているようで、可能な限りの情報を収集する作業においてはほぼ同じ時間を費やし、事後学習では微調整を行っています。

And then inference, where you actually give it the prompt and receive your response back, is where a lot more time is being spent.

そして、実際にプロンプトを与えて応答を受け取る推論の部分には、さらに多くの時間が費やされています。

So theoretically, we should be able to get new, more improved models being released even quicker because less time is being spent on pre-training and more of that time might be shifting to the inference phase when you actually prompt it.

理論的には、事前学習にかかる時間が短縮され、その分の時間が実際にプロンプトを与える際の推論フェーズにシフトするため、より新しく改善されたモデルがさらに迅速にリリースされるはずです。

Companies like OpenAI are actively slowing down the inference phase so that they can minimize the most expensive part, which is the pre-training phase.

OpenAIのような企業は、最もコストのかかる事前学習フェーズを最小限に抑えるために、推論フェーズを積極的に遅らせています。

Now, this is a super oversimplification.

さて、これは非常に単純化した説明です。

I will link up to all of the articles, all of the posts, all of the tweets I've mentioned in this video below, so you can dive a little bit deeper.

このビデオで言及したすべての記事、すべての投稿、すべてのツイートへのリンクを下に貼りますので、もう少し深く掘り下げてみてください。

But I do want to address one thing here that my buddy David Shapiro says.

しかし、ここで私の友人デイビッド・シャピロが言っていることに一つ触れておきたいと思います。

He mentioned that Claude Sonnet 3.5 can do strawberry with the right prompting.

彼は、Claude Sonnet 3.5が適切なプロンプトを使うことでStrawberryを扱えると述べました。

There's no secret sauce.

特別な秘訣はありません。

We can synthesize the data with any model.

私たちはどのモデルでもデータを合成することができます。

Basically, the point that he's making here is that chain of thought prompting has been around for a while.

基本的に、彼がここで言っているポイントは、思考の連鎖プロンプトがしばらくの間存在しているということです。

You can use chain of thought prompting in any Large Language Model to basically tell it to think through step by step and give it additional prompts to get to the right conclusion.

思考の連鎖プロンプトを任意の大規模言語モデルで使用することで、基本的に段階を追って考えさせ、正しい結論に至るための追加のプロンプトを与えることができます。

All OpenAI is doing is putting all of that stuff in sort of like the system prompt and telling it to think it through step by step and basically look at its own response, evaluate its response, update its response based on its own evaluation, and continue to do that.

OpenAIが行っていることは、すべての情報をシステムプロンプトのような形にまとめ、段階的に考えるように指示し、基本的には自分自身の応答を見て、それを評価し、その評価に基づいて応答を更新し、さらにそのプロセスを続けるということです。

In the past, you would just do that through additional prompting.

過去には、追加のプロンプトを通じてそれを行っていました。

Now, OpenAI is doing that for you immediately after the prompt.

今では、OpenAIがプロンプトの直後にそれを自動的に行っています。

But that's the biggest news of the week.

しかし、それが今週の最大のニュースです。

That's the news that has the AI world buzzing the most.

それがAIの世界で最も話題になっているニュースです。

The other thing that happened this week was Apple had their glow-up event.

今週起こったもう一つの出来事は、Appleがグロウアップイベントを開催したことです。

This event was pretty much designed to update people on the latest iPhone, the latest Apple Watch, as well as some updates around the latest AirPod innovation and things like that.

このイベントは、最新のiPhoneや最新のApple Watch、さらには最新のAirPodの革新に関するいくつかのアップデートを人々に伝えるためにほぼ設計されていました。

Most of the AI features that they talked about during the Apple keynote, we actually already got at WWDC.

Appleの基調講演で話されたAI機能のほとんどは、実際にはWWDCで既に紹介されていました。

There wasn't a ton of new AI features that we didn't already see at that.

私たちがその時に見なかった新しいAI機能はあまりありませんでした。

We just got new info that it's going to be rolling out into the iPhone 16.

ただ、iPhone 16に展開されるという新しい情報を得ただけです。

Apple themselves even put out a blog post here solely focused on Apple Intelligence and what's going into their new devices related to Apple Intelligence.

Apple自身も、Apple Intelligenceとその新しいデバイスに関連する内容に特化したブログ記事をここに公開しました。

It includes features like being able to rewrite, proofread, and summarize emails and documents, the ability to clean up photos by removing things in the background, the ability to prioritize your notifications, and the new glowing box around the phone for when you're using Siri.

それには、メールや文書の書き直し、校正、要約ができる機能、背景のものを取り除いて写真を整理する機能、通知を優先順位付けする機能、そしてSiriを使用しているときに電話の周りに新しい光るボックスが表示される機能が含まれています。

There's also their new image Playground, which lets you generate AI art and even create directly inside of notes.

また、AIアートを生成したり、ノートの中で直接作成したりできる新しい画像プレイグラウンドもあります。

And again, for the most part, this is all stuff they previewed at WWDC.

そして、ほとんどの場合、これらはすべてWWDCでプレビューされた内容です。

This wasn't new exciting announcements during this specific Apple event.

この特定のAppleイベントでの新しいエキサイティングな発表ではありませんでした。

There was, however, a few interesting things from the Apple event that I want to highlight.

しかし、Appleイベントからいくつかの興味深い点を強調したいと思います。

So I'm just going to jump to those parts of the keynote here, including the fact that Apple Watches are now going to have AI translation built into them.

ここで基調講演のその部分に飛び込みますが、Apple WatchにAI翻訳機能が組み込まれることも含まれています。

And the Translate app comes to Apple Watch using machine learning for speech recognition and rapid translation.

そして、Translateアプリは、音声認識と迅速な翻訳のために機械学習を使用してApple Watchに対応しました。

The thing that I found interesting about the new AirPods was the ability to nod or shake your head to respond to Siri.

私が新しいAirPodsについて興味深いと感じたのは、Siriに応答するためにうなずいたり、頭を振ったりする機能です。

When interacting with Siri, you can simply nod your head yes or shake your head no in response to Siri announcements.

Siriと対話する際には、Siriのアナウンスに対して単にうなずくことで「はい」と答えたり、頭を振ることで「いいえ」と答えたりできます。

They talked about their private cloud compute, which is essentially cloud compute that you can use, but it's private.

彼らはプライベートクラウドコンピューティングについて話しましたが、これは基本的に使用できるクラウドコンピューティングであり、プライベートなものです。

So they're not storing or keeping or training on any of your data.

したがって、彼らはあなたのデータを保存したり保持したり、学習に使用したりしていません。

It's also going to allow you to use larger models that won't actually work on a mobile phone by sending them to a cloud GPU to run the processing.

それは、実際には携帯電話では動作しない大きなモデルを使用できるようにし、処理を実行するためにそれらをクラウドGPUに送信することを可能にします。

They also, once again, showed off some of the features to rewrite things like emails for you, creating your own images and emojis with text to image generation, summarizing your notifications for you, as well as prioritizing what it thinks are the most important notifications to the top, as well as the new visual intelligence, which doesn't sound like we're going to get right away.

彼らは再び、メールの内容をあなたのために書き直したり、テキストから画像生成を使って自分自身の画像や絵文字を作成したり、通知を要約したり、最も重要だと思われる通知を上位に優先させたりする機能を披露しました。また、新しい視覚的知性についても触れましたが、これはすぐには手に入らないようです。

This is coming, it sounds like March of next year, 2025, but this is a feature where you can take a picture of something and what you take a picture of, it will actually then give you information around it.

これは来る予定で、来年の2025年3月のようですが、これは何かの写真を撮ることができ、その写真に写っているものについての情報を実際に提供してくれる機能です。

So this person took a picture of a restaurant.

この人はレストランの写真を撮りました。

and then it gave a bunch of information around what time it closes, the cost, the reviews, et cetera.

そして、そのレストランが閉まる時間、料金、レビューなどの情報をたくさん提供してくれました。

It's also getting some updates to the photo editing, which we looked at earlier.

写真編集に関してもいくつかのアップデートが行われており、これは以前に見た内容です。

And again, pretty much everything they announced was stuff that they announced during WWDC.

そして再度言いますが、発表されたほとんどすべての内容はWWDCで発表されたものでした。

They just showed it off in the context of the new iPhone 16.

彼らはそれを新しいiPhone 16の文脈で披露しました。

The Verge put out this article afterwards called the iPhone 16 will ship as a work in progress, basically saying that when you buy an iPhone 16, if you bought it this month in September or early October, you're not going to have any Apple intelligence features.

The Vergeはその後、「iPhone 16は進行中の作業として出荷される」という記事を出し、基本的に今月の9月または10月初めにiPhone 16を購入した場合、Appleのインテリジェンス機能は利用できないと述べています。

Supposedly the features are going to start to roll out in iOS 18.1 in October sometime with more and more of these AI features rolling out over the coming months.

これらの機能は、10月のiOS 18.1で展開が始まり、今後数ヶ月にわたってさらに多くのAI機能が展開される予定だそうです。

And we also know that a sort of visual intelligence feature isn't going to be coming until around March of next year.

そして、視覚的な知能機能のようなものは、来年の3月頃まで登場しないこともわかっています。

Even if you went out and rushed out to buy it so you can be the first one to use these AI features, you're not going to have them on day one, unfortunately.

たとえ急いで購入して、これらのAI機能を最初に使いたいと思っても、残念ながら初日にはそれらを利用することはできません。

Adobe shared some interesting information this week as well with their new text to video generation version of Firefly.

Adobeは今週、彼らの新しいテキストからビデオ生成版のFireflyに関する興味深い情報を共有しました。

Now from the previews I've seen, this looks like it could actually compete with Sora.

私が見たプレビューから判断すると、これは実際にSoraと競争できる可能性があるようです。

And they also claim that it's all ethically sourced video.

また、彼らはすべて倫理的に調達されたビデオであると主張しています。

So it's only trained on openly licensed public domain and Adobe stock content.

それはオープンライセンスのパブリックドメインおよびAdobeストックコンテンツのみに基づいて訓練されています。

They're calling it commercially safe.

彼らはそれを商業的に安全だと呼んでいます。

Here's a thread from Pierrick showing some examples of some of the videos that have come out of this new Adobe Firefly video model.

こちらは、Pirrickがこの新しいAdobe Fireflyビデオモデルから生まれた動画のいくつかの例を示しているスレッドです。

It looks like they generate about five second videos.

約5秒の動画を生成しているようです。

Here's one of a galaxy that zooms out to reveal an eyeball.

こちらは、銀河がズームアウトして目玉を明らかにする動画の一例です。

We have one of a detailed portrait of a reindeer, slow-motion fiery volcanic landscape, miniature adorable monsters made out of wool and felt, footage of a camera on a drone flying over a desert with wind blowing over the dunes, creating waves in the sand below.

私たちは、トナカイの詳細なポートレート、スローモーションの火山風景、ウールとフェルトで作られたミニチュアのかわいらしいモンスター、砂丘を吹き抜ける風の中を飛ぶドローンのカメラ映像、そしてその下の砂に波を作る様子を収めた映像を持っています。

There's a detailed, extremely macro close-up view of a white dandelion, seen through a large red magnifying glass. We also have a drone shot flying between the trees of a snowy forest at sunset, during the golden hour, and a stop-motion 2D animation made of felt, showing an egg cooking in a frying pan.

大きな赤い虫眼鏡を通して見た白いタンポポの詳細で非常にマクロなクローズアップ映像もあります。また、夕暮れ時の雪に覆われた森の木々の間を飛ぶドローンショットや、フライパンで卵が焼かれる様子をフェルトで作ったストップモーションの2Dアニメーションもあります。

Now this one looks really cool to me to make this style of animation.

このスタイルのアニメーションを作るのは本当にクールに見えます。

I could really see that working well for like shorts and like little explainer type videos, hand drawn simple line art of a young kid looking up into space with a wondrous expression on his face, an adorable kawaii cheese ball on the moon smiling, 3D render octane, et cetera, macro detailed shot of water splashing and freezing to spell the word ice.

私は、短編や小さな解説動画に非常に適していると思います。手描きのシンプルなラインアートで、宇宙を見上げる若い子供の驚きの表情、月にいるかわいらしいチーズボールが微笑んでいる様子、3Dレンダリングのオクタン、などなど、水が飛び跳ねて凍りつき、「アイス」という言葉を綴るマクロな詳細ショットがあります。

So it looks like it actually spells words inside the video as well.

実際に動画の中で言葉を綴っているように見えます。

Now we don't have access to this yet, but it looks pretty promising.

今のところ私たちはこれにアクセスできませんが、かなり期待できそうです。

Of course, these videos are likely all some of the cherry picked videos.

もちろん、これらの動画はおそらく厳選された動画のいくつかです。

They probably took multiple prompts, picked the best one and shared those.

彼らはおそらく複数のプロンプトを使用し、最良のものを選んで共有したのでしょう。

But this is what Adobe has shared with us so far of what the Adobe Firefly video model can do.

しかし、これがAdobeがこれまでに私たちに共有してくれたAdobe Fireflyビデオモデルの機能です。

But a lot of smaller sort of interesting things happened.

そして、多くの小さな興味深いことが起こりました。

So let's go ahead and rapid fire them.

それでは、さっそくそれらを次々と紹介していきましょう。

I still have a lot of tabs up here I wanna share, but I'm gonna try to get through them quickly and just give you the quick recap of what's going on with a lot of this stuff.

まだここに共有したいタブがたくさんありますが、迅速に進めて、これらのことに関する簡単な要約をお伝えしようと思います。

Starting with the fact that Mistral released PIXTRAL 12B.

まず、MistralがPIXTRAL 12Bをリリースしたという事実から始めます。

Mistral has both open source and closed source Large Language Models available.

Mistralはオープンソースとクローズドソースの大規模言語モデルの両方を提供しています。

But this new PIXTRAL model is their first model that can accept images as an input.

しかし、この新しいPIXTRALモデルは、画像を入力として受け付けることができる初めてのモデルです。

Something we've been able to do with most of the models now we can now do with Mistral's 12B model.

これまでほとんどのモデルでできていたことが、Mistralの12Bモデルでもできるようになったということです。

The best part is this is an open source model.

最も素晴らしい点は、これはオープンソースのモデルであるということです。

Developers can build on it, iterate off of it, fine tune it, do whatever they want to it to improve it and make it an even better model for people to use.

開発者はそれを基に構築し、改良し、微調整し、改善するために好きなことを行うことができ、より良いモデルにすることができます。

This is really, really cool.

これは本当に素晴らしいことです。

Google has this tool called NotebookLM and it's really actually super helpful.

GoogleにはNotebookLMというツールがあり、実際にとても役立ちます。

You can upload a whole bunch of documents into it

あなたはそれにたくさんの文書をアップロードすることができます。

and then have conversations about those documents.

そして、それらの文書について会話をすることができます。

So for example, here's a notebook about the invention of the light bulb.

例えば、こちらは電球の発明に関するノートです。

And you can see a bunch of different articles have been uploaded about the invention of the light bulb.

電球の発明に関するさまざまな記事がアップロードされているのが見えます。

And then we can actually chat with all of these sources.

そして、私たちは実際にこれらのすべての情報源とチャットをすることができます。

So it will look across all of these sources with every question we ask and respond based on the information within the sources that are available.

私たちが尋ねるすべての質問に対して、これらの情報源全体を見渡し、利用可能な情報に基づいて応答します。

That in itself is really cool and really helpful.

それ自体が本当に素晴らしく、非常に役立ちます。

Kind of similar to what we could do with Claude projects where we upload a bunch of sources there and have conversations about it.

私たちがClaudeプロジェクトでできることに似ていて、そこにたくさんの情報源をアップロードし、それについて会話をすることができます。

However, they just rolled out a brand new feature that basically generates a podcast about your notes.

しかし、彼らは最近、基本的にあなたのノートに関するポッドキャストを生成するという全く新しい機能を導入しました。

If I was to come down here and click on notebook guide, you can see we have this new audio overview button here.

ここに来てノートブックガイドをクリックすると、ここに新しいオーディオ概要ボタンがあるのがわかります。

If I click load, it'll say this may take a few minutes and it will create a podcast of two people discussing back and forth with each other the invention of the light bulb.

ロードをクリックすると、数分かかる場合がありますと表示され、2人が互いにライトバルブの発明について議論するポッドキャストが作成されます。

So here's what that sounds like.

それでは、これがどのように聞こえるかというと。

Light bulbs, right.

電球、そうですね。

They're so normal now.

今ではとても普通の存在です。

Like we just can't expect them to be there so we can actually see what we're doing when it gets dark.

暗くなったときに自分たちが何をしているのかを実際に見るために、そこにあることを当然のように期待してしまいます。

It really is funny when you think about it, like flick a switch, bam, instant sunshine, no matter what time it is.

考えてみると本当に面白いことです。スイッチをひねるように、バン、瞬時に日差しが差し込む、時間に関係なく。

This is one of the examples that Google loaded in for us.

これは、Googleが私たちのために用意してくれた例の一つです。

I was curious what would happen if I loaded in a complex research paper.

私は、もし複雑な研究論文を読み込んだらどうなるのか興味がありました。

So I actually took a document from archive.org about Linfusion, a new architecture for text to image generation that uses a linear attention mechanism to address the computational limitations of traditional diffusion models.

そこで、実際にarchive.orgからLinfusionに関する文書を取り出しました。これは、従来の拡散モデルの計算上の制約に対処するために線形注意メカニズムを使用したテキストから画像生成の新しいアーキテクチャです。

I was wondering if I just take this complex PDF with all of this technical jargon in it and I throw it into NotebookLM and then create an audio overview, would I actually be able to understand what the hell the paper was talking about when I was done?

私は、この複雑なPDFを技術的な専門用語がたくさん含まれている状態でNotebookLMに投げ込んで、音声の概要を作成した場合、終わったときにその論文が何を言っていたのか実際に理解できるのだろうかと考えていました。

And the answer is, yeah, it actually did a pretty dang good job.

その答えは、はい、実際にかなり良い仕事をしてくれました。

Ever get that creative itch, that feeling when you're absolutely bursting with ideas for some awesome, crazy detailed AI art.

クリエイティブな欲求が湧いてくることはありませんか?素晴らしく、詳細なAIアートのアイデアが次々と浮かんでくる感覚です。

But then you remember what it's actually like waiting forever for images to render your poor computer sounding like it's about to explode.

しかし、その後、画像がレンダリングされるのを永遠に待つことがどんなものか思い出します。あなたの可哀想なコンピュータが爆発しそうな音を立てているのです。

Yeah, it can really kill the vibe, you know.

そう、雰囲気を台無しにすることもありますよね。

Now I'm not gonna play the whole thing but it has that podcast style where they're having a conversation back and forth about the contents of the document that I just uploaded.

今、全体を再生するつもりはありませんが、私がアップロードした文書の内容について、彼らが交互に会話をしているポッドキャストスタイルになっています。

It's a super cool feature.

これはとてもクールな機能です。

I highly recommend people play around with it.

私は人々にそれを試してみることを強くお勧めします。

It's available over at notebooklm.google.com.

それは notebooklm.google.com で利用可能です。

While we're on the topic of audio, Amazon is allowing audible narrators to clone themselves with AI.

音声の話題に触れているので、Amazonはオーディブルのナレーターが自分自身をAIでクローンすることを許可しています。

Amazon will begin inviting a small group of audible narrators to train AI-generated voice clones of themselves this week with the aim of speeding up audiobook production for the platform.

Amazonは今週、プラットフォームのオーディオブック制作を加速させることを目的として、自身のAI生成音声クローンを訓練するために少数のオーディブルナレーターを招待し始めます。

Now it's a US only beta test and will be extended to rights holders like authors, agents, and publishers later this year.

これは現在、アメリカのみのベータテストであり、今年後半には著者、エージェント、出版社などの権利保有者にも拡大される予定です。

Narrators can also use Amazon's production tools to edit the pronunciation and pacing of their AI voice replica.

ナレーターは、Amazonの制作ツールを使用して、AI音声レプリカの発音やペースを編集することもできます。

Amazon says that narrators will be compensated via a royalty share model on a title by title basis but didn't go into more details than that.

Amazonは、ナレーターがタイトルごとにロイヤリティシェアモデルを通じて報酬を受け取ると述べていますが、それ以上の詳細には触れていませんでした。

Suno rolled out a cool new feature this week called Covers.

Sunoは今週、Coversという素晴らしい新機能を発表しました。

They put out this X post here.

彼らはここにこのXの投稿を出しました。

Re-imagine the music you love with covers.

あなたの好きな音楽をカバーで再想像してください。

Covers can transform anything from a simple voice recording to a fully produced track into an entirely new style all while preserving the original melody that's uniquely yours.

カバーは、シンプルな音声録音から完全に制作されたトラックまで、あなた独自のメロディーを保ちながら、まったく新しいスタイルに変えることができます。

I initially learned about this from Nick St. Pierre AKA Nick Floats over on X where he showed off what it can do but I wanted to jump in and play around with it myself.

私は最初に、Nick St. Pirre(別名Nick Floats)からこのことを知りました。彼はXでその機能を披露していましたが、私も自分で試してみたくなりました。

And so here's what I did.

そこで、私がやったことはこれです。

Now don't judge, I can't sing at all but I recorded this little audio clip here.

さあ、判断しないでください。私は全く歌えないのですが、この小さな音声クリップを録音しました。

Subscribe to Matt Wolf on YouTube and don't forget to check out futuretools.io.

Matt WolfをYouTubeで購読し、futuretools.ioもお忘れなくチェックしてください。

So that was my brilliant singing.

それが私の素晴らしい歌唱でした。

Basically in order to do that I went into Suno, clicked on create, clicked on upload audio click the audio button

基本的には、それを行うためにSunoに入り、作成をクリックし、音声をアップロードするボタンをクリックしました。

and then it allowed me to record my voice.

そして、音声を録音することができました。

Once I recorded my voice, it put that little audio clip of my voice right here in line with the rest of the songs that I've generated on Suno.

私が自分の声を録音すると、その音声クリップがここに、私がSunoで生成した他の曲と並んで表示されました。

If I jump over to these three dots over here on the right side and then come down to create, we can see we now have cover song beta as one of the options.

右側のこの三つの点にジャンプして、作成に下がると、カバーソングベータがオプションの一つとして表示されるのがわかります。

When you click on that, it will create a couple cover songs using the audio that you just put in.

それをクリックすると、あなたが入力した音声を使っていくつかのカバーソングが作成されます。

Now it's not going to use your voice, but it will use the same words and try to match the melody.

あなたの声は使用されませんが、同じ言葉を使い、メロディに合わせようとします。

So here's what it made for me.

では、私のために作成されたものをお見せします。

Subscribe to Matt Wolf on YouTube and don't forget to check out futuretools.io.

Matt WolfをYouTubeで購読し、futuretools.ioもお忘れなくご覧ください。

There you go, pretty cool.

どうぞ、かなり素晴らしいですね。

Sounds a lot better than me trying to sing it honestly.

正直に言うと、私が歌おうとするよりもずっと良い音に聞こえます。

Now I should note this is only available to paid members of Suno right now and there is a limit to the amount of covers you can make.

今、これが現在Sunoの有料会員のみが利用できることをお伝えしておくべきですし、作成できるカバーの数には制限があります。

You can see I have 198 free cover songs remaining.

ご覧の通り、私は残り198曲の無料カバーソングがあります。

There is a finite number per month and it is only available on one of the paid plans.

月ごとに限りがあり、これは有料プランの一つでのみ利用可能です。

Moving on over to Facebook news.

Facebookのニュースに移ります。

Facebook and Instagram are making AI labels less prominent on AI edited content.

FacebookとInstagramは、AIによって編集されたコンテンツに対するAIラベルを目立たなくしています。

A lot of people were all up in arms because when you post an image to Facebook or Instagram, it would have a little note saying generated with AI or something like that.

多くの人々が怒りをあらわにしていました。なぜなら、FacebookやInstagramに画像を投稿すると、「AIで生成された」などと書かれた小さなメモが付いていたからです。

And a lot of people were saying my image wasn't generated with AI.

そして、多くの人々が「私の画像はAIで生成されたものではない」と言っていました。

Why is it putting that on there?

なぜそれが表示されるのですか?

Now they're making it a little less prominent.

今、彼らはそれを少し目立たなくしています。

You actually have to click into a menu to find the AI info.

実際には、AI情報を見つけるためにメニューをクリックしなければなりません。

Ideally, less people will be frustrated by the sort of tagging of AI content when it's not really AI content.

理想的には、本当にAIコンテンツではないものに対するAIコンテンツのタグ付けに、少ない人々がイライラすることになるでしょう。

Facebook also admitted this week that they are scraping pretty much everybody's photos and posts to train their AI and there is no opt-out option.

Facebookは今週、ほぼすべての人の写真や投稿をスクレイピングしてAIを訓練していることを認め、オプトアウトの選択肢はないと述べました。

This was from some sort of Facebook hearing in Australia with Meta's Global Privacy Director, Melinda Klebaugh.

これは、オーストラリアでの何らかのFacebookの公聴会で、Metaのグローバルプライバシーディレクターであるメリンダ・クレバウが発言した内容です。

The truth of the matter is that unless you consciously had set those posts to private since 2007, Meta has just decided you will scrape all of the photos and all of the text from every public post on Instagram or Facebook that Australians have shared since 2007.

問題の本質は、あなたが2007年以降に意識的にその投稿を非公開に設定していない限り、Metaがオーストラリア人が2007年以降に共有したInstagramやFacebookのすべての公開投稿から、すべての写真とすべてのテキストをスクレイピングすることを決定したということです。

Unless there was a conscious decision to set them on private.

非公開に設定するという意識的な決定がなかった限り。

But that's actually the reality, isn't it?

しかし、それが実際の現実なのですよね?

Correct.

その通りです。

So thanks for the answer.

回答をありがとうございます。

I'm sure Facebook and Meta aren't going to get in too much trouble for this because I'm sure it's buried in the terms and conditions somewhere.

私は、FacebookやMetaがこの件であまり問題にならないと思います。なぜなら、これはおそらく利用規約のどこかに埋もれているからです。

You're giving them the right to use and train on your data when you upload it to Facebook, unless you explicitly set it to private.

あなたがデータをFacebookにアップロードする際、明示的にプライベートに設定しない限り、彼らにそのデータを使用し、学習させる権利を与えることになります。

If you signed up for one of these platforms and you're using it, you probably unknowingly already agreed to letting them do this.

これらのプラットフォームのいずれかにサインアップし、利用している場合、おそらく知らず知らずのうちに彼らにこれを行うことを許可してしまったのでしょう。

I'm just guessing though, I haven't read the policies myself.

ただの推測ですが、私自身はポリシーを読んでいません。

There's some really cool AI generative game type stuff coming up.

非常に面白いAI生成ゲームのようなものが登場する予定です。

Like for example, Roblox announced late last week that you're going to be able to use AI to create sort of 3D worlds inside of Roblox.

例えば、ロブロックスは先週の後半に、AIを使ってロブロックス内に3Dの世界を作成できるようになると発表しました。

Roblox announced that it's working on a 3D foundational model that will power generative creation on its platform.

Robloxは、同社のプラットフォーム上で生成的な創作を支える3D基盤モデルに取り組んでいると発表しました。

The model will be open source and multimodal and allow creators to generate 3D content using text, video, and prompts.

このモデルはオープンソースでマルチモーダルであり、クリエイターがテキスト、動画、プロンプトを使用して3Dコンテンツを生成できるようにします。

A creator can say, I want to create a world that is in the Scottish Highlands with castles and a stormy day with a dragon background and I want all of this in a steampunk, steam style.

クリエイターは言うことができます、「スコットランドのハイランドに城があり、嵐の日でドラゴンの背景がある世界を作りたい、そしてこれをスチームパンクの蒸気スタイルで表現したい」と。

And then, the output will be the full scene creation.

そして、その出力は完全なシーンの創作となります。

They did say Roblox isn't trying to replace the creative process, but instead focuses on enabling more people to develop and create games.

彼らは、Robloxが創造的なプロセスを置き換えようとしているわけではなく、むしろより多くの人々がゲームを開発し創作できるようにすることに焦点を当てていると述べました。

Here's a little screenshot.

ちょっとしたスクリーンショットです。

Not a whole heck of a lot to go off of, but you can see a little before where they're in like green grass in a road, and then after there's a little bit more texture and a little bit more scenery going on on the road.

あまり多くの情報はありませんが、彼らが緑の草の中にいる場所の少し前の様子が見えます。そしてその後、道路にはもう少しテクスチャーと景色が広がっています。

That's all we're working with right now.

今のところ、これが私たちが扱っているすべてです。

This one looks even cooler.

こちらの方がさらにクールに見えます。

I think it's called Cybever.

これを「サイベバー」と呼んでいると思います。

They just unveiled their 3D world creation platform.

彼らはついに3D世界創造プラットフォームを発表しました。

Now, this isn't something that we have access to yet, but here's what this looks like.

今のところ、私たちはまだこれにアクセスできませんが、これがどのようなものかお見せします。

You can generate a map through text.

テキストを通じて地図を生成することができます。

It creates a real basic map, but then you can adjust it by drawing.

非常に基本的な地図が作成されますが、その後、描画することで調整できます。

You can see they're drawing like a little river here into the map.

ここで、彼らが地図に小さな川を描いているのが見えます。

They can adjust the terrain, adjust the world style.

彼らは地形を調整し、世界のスタイルを調整することができます。

You can see they have some like templates you can use like a water village, industry zone, grand bazaar.

水の村や工業地帯、グランドバザールのようなテンプレートがいくつかあることがわかります。

And it'll create some generated town layouts, and it'll create a 3D preview in less than a minute with some additional assets to kind of give you an idea of what that world's gonna look like.

そして、生成された町のレイアウトを作成し、追加の資産を使って、その世界がどのように見えるかのアイデアを与える3Dプレビューを1分以内に作成します。

And then this was the output that it shows.

そして、これが表示される出力です。

Now, this is one that to me feels like I'll believe it when I see it.

今のところ、私にとっては、実際に見るまで信じられないという感じです。

This looks like too good to be real, but you can see this is the 3D environment they created here.

これはあまりにも素晴らしすぎて現実とは思えませんが、ここで彼らが作成した3D環境を見ることができます。

Load marketplaces or your own assets.

マーケットプレイスや自分のアセットを読み込むことができます。

There's a deer, there's the ocean, mountains in the background, and it looks like you can pay to add assets into the game as well.

鹿がいて、海があり、背景には山があり、ゲームにアセットを追加するためにお金を払うこともできるようです。

To me, it looks so good that I have a hard time actually seeing this work as well as it says it does in the real world until I actually put my hands on it myself.

私にとっては、実際に自分の手で触れるまでは、これが実際に言われているようにうまく機能するのか信じがたいほど素晴らしく見えます。

While we're on the topic of game assets, this company Daz 3D showed off this new plugin which allows you to generate character mesh shapes from text prompts.

ゲームアセットの話をしている間に、この会社Daz 3Dがテキストプロンプトからキャラクターメッシュの形状を生成する新しいプラグインを披露しました。

So if we take a look at their video here, young female African warrior, and it generates the character there.

それでは、こちらの動画を見てみると、若い女性のアフリカの戦士が登場し、そこでキャラクターが生成されます。

Muscular dwarf with a big beer belly and a big nose, large head, et cetera, et cetera.

筋肉質の小人で、大きなお腹と大きな鼻、そして大きな頭などなど。

And it made that character.

そして、そのキャラクターが作られました。

A pregnant woman, it made that character.

妊娠中の女性、そのキャラクターが作られました。

Male, tall, lean, pale, vampire.

男性で、背が高く、細身で、色白の吸血鬼。

Tall, lanky, alien male.

背が高く、細長い、異星人の男性です。

So we can see you can plug in whatever you want your character to look like, and it will create various models that you can use, and it gives you a nice start for your game assets.

キャラクターの見た目を自由に設定でき、それに基づいてさまざまなモデルを生成し、ゲーム資産の素晴らしいスタートを提供してくれることがわかります。

Now I'm unclear if it actually does the texturing for you because it goes on to show this image where she's got tattoos and pants and a shirt and a gun and everything's colored in.

ただ、実際にテクスチャを自動で作成してくれるのかは不明です。なぜなら、彼女がタトゥーやパンツ、シャツ、銃を持っていて、すべてが色付けされている画像が表示されるからです。

I don't know if it does that part for you.

その部分を自動で行ってくれるのかはわかりません。

I'm guessing it does because they're showing it in the preview, but I'm not super clear on it yet.

プレビューでそれが示されているので、そうだと思いますが、まだはっきりとはわかりません。

But that's from a company called Daz 3D in collaboration with Yellow 3D.

しかし、それはDaz 3Dという会社がYellow 3Dと協力して作ったものです。

Another tool that can help with game assets is a tool called Meshi.

ゲーム資産に役立つもう一つのツールは、Meshiというツールです。

Well, they just announced Meshi version 4 where you can enter any text prompt and it will generate these 3D objects from the text prompt.

彼らは最近、Meshiのバージョン4を発表しました。このバージョンでは、任意のテキストプロンプトを入力すると、そのテキストプロンプトから3Dオブジェクトを生成します。

This you can actually use for free right now.

このツールは、実際に今すぐ無料で使用することができます。

You get a certain amount of credits to use it for free.

一定のクレジットが付与され、無料で利用することができます。

If you head on over to meshi.ai, you've got text to 3D, image to 3D, AI texturing, and text to voxel.

meshi.aiにアクセスすると、テキストから3D、画像から3D、AIテクスチャリング、そしてテキストからボクセルの機能があります。

I tested this a little bit.

私はこれを少し試してみました。

I did an image to 3D.

画像から3Dを作成しました。

I uploaded an image of my head here, and I did it with quad and triangle topology to see which one looks better.

ここに自分の頭の画像をアップロードし、どちらが見栄えが良いかを確認するために、クワッドと三角形のトポロジーで作成しました。

Here's the quad topology.

こちらがクワッドトポロジーです。

This is what it made me look like.

これが私をどのように見せたかです。

I mean, it's got the beard and hair color right, I guess.

つまり、ひげと髪の色は合っていると思います。

Here's what it did with the triangle topology.

三角形のトポロジーについてはこうなりました。

And once again, I mean, I've got a beard.

そして再度言いますが、私はひげがあります。

It's got that part right.

その部分は合っています。

So far, not super realistic when you upload real face images.

これまでのところ、実際の顔画像をアップロードすると、あまりリアルではありません。

If we head over to text to 3D, I've played with this a little bit more.

テキストから3Dに移ると、私はこれをもう少し試してみました。

I just generated this one today with their new Meshi 4 where I gave it the prompt a wolf howling at the moon, and this is what it generated, and it's actually pretty impressive.

今日は新しいMeshi 4を使って、「月に向かって吠えるオオカミ」というプロンプトでこれを生成しましたが、実際に生成されたものはかなり印象的です。

When you zoom in and look pretty close, you can see that the wolf doesn't have eyes and it's got a really long snout, which seems a little off.

ズームインしてよく見ると、オオカミには目がなく、非常に長い鼻を持っていることがわかりますが、少しおかしいように思えます。

But if you ignore the fact that it has no eyes and a really long snout from this angle, these angles, it all looks really actually pretty dang solid.

しかし、目がなくて非常に長い鼻があるという事実を無視すれば、この角度から見ると、これらの角度では実際にかなりしっかりとしたものに見えます。

I'm really impressed with the like automated texturing that it did.

私は、その自動テクスチャリングには本当に感心しています。

It just could use some work on getting the face.

顔の部分については、もう少し改善の余地があると思います。

Now it did give me some other options to choose between, and the one that I selected was the best.

他にもいくつかの選択肢を提示してくれましたが、私が選んだものが最も良かったです。

You can see this one looks more like some sort of weird beast than a wolf.

このものは、オオカミというよりは奇妙な獣のように見えます。

This one looks like a wolf or something with a giant tumor on its head.

こちらは、オオカミか何かの頭に巨大な腫瘍があるように見えます。

I don't know what's going on with some of these.

何が起こっているのか、これらのいくつかについては分かりません。

This one came out pretty decent looking.

この作品はかなり見栄えが良く仕上がりました。

I used the texture feature, and that's what I got.

テクスチャ機能を使用し、それが得られた結果です。

I think it looks pretty good.

私はそれがかなり良いと思います。

Slight AI news with the new PS5.

新しいPS5に関する少ししたAIのニュースがあります。

There's a new PS5 Pro coming out.

新しいPS5 Proが発売される予定です。

It's gonna use AI to upscale the video quality and make it look better.

AIを使って動画の品質を向上させ、より良い見た目にする予定です。

I personally think this new PS5 Pro is a total joke.

個人的には、この新しいPS5 Proはまったくの冗談だと思います。

They're releasing this at what, 700 bucks or something like that, and it doesn't even come with a disc reader.

これを700ドルか何かで発売するつもりで、しかもディスクリーダーすら付いていません。

So if you have a PS5 or a PS4 or already own some PlayStation discs that you'd wanna play in it, well, you're not gonna be able to play it without buying an external disc drive because it doesn't come with it with the PS5.

PS5やPS4を持っていたり、プレイしたいPlayStationのディスクをすでに所有している場合でも、外付けのディスクドライブを購入しない限り、それをプレイすることはできません。PS5にはそれが付属していないからです。

That sucks.

それは残念ですね。

But it is gonna use AI to upscale the quality and try to get even better video quality out of the games that you're playing.

しかし、それはAIを使用して品質を向上させ、あなたがプレイしているゲームからさらに良い映像品質を引き出そうとしています。

And finally, some new information out of DeepMind's Robotics Lab.

そして最後に、DeepMindのロボティクスラボからの新しい情報です。

They have a robot now that can actually tie a shoe.

彼らは今、実際に靴ひもを結ぶことができるロボットを持っています。

So we can see in this video, the robot grabs both the strings and is able to accurately tie the shoe.

このビデオでは、ロボットが両方のひもをつかみ、正確に靴を結ぶことができる様子が見られます。

Robots have not been able to do that before.

ロボットは以前にはそれを行うことができませんでした。

Here's another one where it picks up a shirt off a table and actually puts it on a coat hanger and manages to hang it up.

テーブルからシャツを拾い上げ、実際にコートハンガーにかけて吊るすという別の例があります。

And another one where it's sort of repairing and putting some pieces on another robot.

そして、別のロボットの部品を修理し、取り付けている様子もあります。

Pretty cool that we're seeing this kind of dexterity with a two-handed robot where it's gonna get better and better at being able to do everyday tasks for us.

二本の手を持つロボットがこのような器用さを見せているのは非常に素晴らしく、日常的な作業をこなす能力がますます向上していくことでしょう。

That's ultimately where we want these robots to get to anyway, right?

結局のところ、私たちが望むのは、これらのロボットがそのレベルに達することですよね?

We want them to be able to do our dishes and do our laundry.

私たちは、彼らに私たちの皿を洗ったり、洗濯をしたりできるようになってほしいと思っています。

And I don't know if I need a robot to tie my shoes for me, but we want it to do day-to-day tasks around our house for us.

そして、靴を結ぶためにロボットが必要かどうかはわかりませんが、私たちの家の中で日常的な作業をしてほしいと思っています。

It needs this additional dexterity like being able to tie a shoe to be able to accurately do that kind of stuff.

それには、靴を結ぶことができるような追加の器用さが必要であり、そういったことを正確に行うためにはそれが求められます。

And there you have it.

以上です。

There's a breakdown of all the AI news that I caught this week.

今週私がキャッチしたAIニュースの概要です。

Again, I was at Disneyland, pretty much the entire week.

再び、私はディズニーランドにいて、ほぼ一週間中そこにいました。

Got home, did a super cram session to try to catch myself up.

家に帰って、追いつくために超集中勉強をしました。

That's why this video is coming out a day later than normal.

だから、この動画は通常よりも1日遅れて公開されることになりました。

I normally put these videos out on Fridays.

私は通常、これらの動画を金曜日に公開しています。

This one's going out on Saturday, but I needed that extra time to catch up on all the news, make my notes, Figure out what I felt was worth showing you, and put this video together.

今回は土曜日に公開しますが、すべてのニュースを追いかけ、メモを取り、皆さんに見せる価値があると思うことを考え、この動画をまとめるためにその追加の時間が必要でした。

So I apologize for the day late in publishing this video.

この動画の公開が1日遅れたことをお詫び申し上げます。

But if you do wanna keep up with the news on a pretty daily basis, check out futuretools.io.

しかし、もし日々のニュースを追いたいのであれば、futuretools.ioをご覧ください。

There's an AI news section where I keep that up to date regularly.

そこにはAIニュースのセクションがあり、定期的に更新しています。

All the news that didn't make this video is on that page.

この動画に含まれなかったニュースはそのページに掲載されています。

And all the cool AI tools that I come across, I share here on Future Tools homepage.

そして、私が出会った素晴らしいAIツールは、Future Toolsのホームページで共有しています。

There's a free newsletter.

無料のニュースレターがあります。

Check it out, futuretools.io.

ぜひご覧ください、futuretools.io

You're gonna like it.

きっと気に入ると思います。

It's really cool.

本当に素晴らしいです。

I'm not biased at all.

私は全く偏見を持っていません。

It's just the best website on the entire internet.

インターネット全体で最高のウェブサイトです。

If you like videos like this, you wanna stay looped in on the latest AI news, the latest AI tools, the latest AI research, and get tutorials on how to actually use some of this stuff in a meaningful, helpful way in your daily life, make sure you like this video and subscribe to this channel.

このような動画が好きで、最新のAIニュース、最新のAIツール、最新のAI研究に関する情報を常に受け取りたい、また、日常生活でこれらの技術を実際に意味のある、役立つ方法で使うためのチュートリアルを得たいのであれば、この動画に「いいね」を押して、このチャンネルを登録してください。

And I'll make sure more videos like this show up in your YouTube feed.

そうすれば、あなたのYouTubeフィードにこのような動画がもっと表示されるようにします。

Thank you so much for tuning in and nerding out with me today.

本日、私と一緒に視聴していただき、ありがとうございます。

I really appreciate you.

あなたに感謝しています。

I'll see you in the next video.

次の動画でお会いしましょう。

Bye-bye.

さようなら。


いいなと思ったら応援しよう!