見出し画像

【マット・ウルフのAIニュース:Teslaからノーベル賞まで - 目が離せない最新AIトレンド【2024年10月12日|@Matt Wolfe】

Teslaが自動運転タクシーと自律バス「roBOven」の計画を発表しました。自動運転タクシーは2026年末までに約3万ドルで発売予定です。Metaは「Meta Movie Gen」を発表し、テキスト入力による動画作成や音声生成機能を提供します。Hello AIは画像から動画を生成する新機能をリリースし、3日間の無料トライアルを提供しています。オープンソースの「Pyramid Flow」も登場し、最大10秒の動画生成が可能です。ZoomはAIアバターによるメッセージ送信機能を導入予定です。HeyGenは「Avatar Looks」をリリースし、HubSpotと提携してブログ投稿を自動的にAI生成動画に変換するサービスを開始しました。Google Geminiの「Imogen version 3」が一般ユーザーに開放されました。Adobeは人間が作成したコンテンツを証明するツールを発表しました。OpenAIはMicrosoftとのサーバー供給に関する軋轢が報じられ、Hearstとコンテンツパートナーシップを結びました。Amazonは配送ドライバー用のAI支援システムを導入しました。GoogleはGmailのiOSアプリにAIアシスタント機能を追加し、Androidには盗難検知機能が追加される予定です。RabbitのLarge Action Modelの実装が開始されました。MetaのAIアシスタントが15カ国で新たに利用可能になります。AI分野の先駆者たちがノーベル賞を受賞しました。最後に、ペンシルベニア州立大学が開発した「電子舌」がAIを活用して液体の識別や食品の安全性チェックを行う技術も紹介しています。
公開日:2024年10月12日
※動画を再生してから読むのがオススメです。


Compared to other weeks, it's been a relatively slow week in the world of AI.

他の週と比べると、今週はAIの世界では比較的静かな週でした。

However, we got some really cool stuff out of Tesla and their Wii Robot event that happened.

しかし、Teslaと彼らのWiiロボットイベントから本当に素晴らしいものがいくつか出てきました。

There was also a ton of advancements in the world of AI video.

AIビデオの世界でもたくさんの進展がありました。

Let's just dive right in, starting with the Tesla Wii Robot event, where Elon showed off some of the things they've been working on over at Tesla.

それでは、TeslaのWiiロボットイベントから始めて、エロンがTeslaで取り組んでいるいくつかのことを披露しました。

The event started off with Elon getting into an autonomous vehicle and driving around the lot here.

イベントは、エロンが自律走行車に乗り込み、ここで敷地内を運転するところから始まりました。

There is nobody driving the car.

車を運転している人はいません。

That's just Elon riding in the front seat as it drives him over to, I guess, the stage where he's presenting on.

前の席に座っているのはイーロンで、彼をプレゼンテーションを行うステージに向かわせているのだと思います。

They have this moment where he drives around the corner and as he drives around the corner, some bicycles right out in front of him and the car knows to stop to show that it's actually aware of all the stuff that's happening.

彼が角を曲がって運転していると、数台の自転車が突然目の前に現れますが、車は周囲で何が起きているのかを認識していて、ちゃんと停止します。

He rambled for a little bit and then got into actually showing off the new robo-taxi that they're putting out.

彼は少し話をした後、実際に彼らが投入する新しいロボタクシーを披露し始めました。

The interesting thing about this robo taxi, it has no steering wheel.

このロボタクシーの興味深い点は、ハンドルがないことです。

It has no pedals.

ペダルはありません。

You basically just get in.

基本的にはただ乗り込むだけです。

It drives you to your destination and then you get out at the destination.

目的地まで運転してくれて、目的地で降りることができます。

You can see as people use the car, they're watching videos or doing work or having Zoom calls or watching sports showing that you're just like in this vehicle going to your destination and all of the time to the destination is now freed up time where you can do whatever you want.

人々が車を利用している様子を見ると、彼らは動画を見たり、仕事をしたり、Zoomコールをしたり、スポーツを観戦したりしており、目的地に向かう間の時間が自由に使える時間になっていることがわかります。

They showed off all sorts of potential hazards that the robo taxis are equipped to stop for and recognize as they're driving stuff that if a human driver ran into this, well, the autonomous vehicles are probably going to actually handle them better.

ロボタクシーが備えているさまざまな潜在的な危険を示し、それらを認識しながら運転している様子が紹介されました。もし人間のドライバーがこれに遭遇した場合、無人運転車両はおそらくそれをよりうまく処理するでしょう。

Like this dude going the wrong way in traffic or this guy just walking across a freeway here.

この人が交通の逆方向に進んでいるのや、この人が高速道路を横断しているのを見てください。

Humans aren't going to handle this as well as these robo taxis with cameras looking 360 degrees around them will.

人間は、360度周囲を見渡すカメラを備えたロボタクシーほど、この状況にうまく対処できないでしょう。

He also hammered in the point that so much of the world is covered in parking lots and he can see way less parking lots like green spaces and more space to be used for parks and things like that because now we don't need to park the cars.

彼はまた、世界の多くが駐車場で覆われているという点を強調しました。そして、駐車場が減少し、緑地や公園などに利用できるスペースが増えるのを見込んでいます。なぜなら、今では車を駐車する必要がないからです。

The cars can drop you off and then go and take another driver somewhere or drive home and park in your garage after it drops you off, making all of this parking lot space and all of these big cities available for other uses.

車はあなたを降ろした後、別のドライバーを迎えに行ったり、あなたを降ろした後に自宅のガレージに駐車したりできるため、これらの駐車場スペースや大都市の多くが他の用途に利用可能になります。

He did give a little bit more details about the cars.

彼は車についてもう少し詳しい情報を提供しました。

He said he expects these to be on the road by the end of 2026.

彼は、これらが2026年末までに道路に出ることを期待していると言いました。

He said before 2027.

彼は2027年以前だとも言いました。

He also said he expects these robo taxis to sell for about $30,000.

彼はまた、これらのロボタクシーが約30,000ドルで販売されると期待しているとも言いました。

Anybody who can afford that $30,000 could own one of these robo taxis and then they would have a fairly interesting business model on your hands because you can own one of these taxis for $30,000.

30,000ドルを支払える人は誰でも、これらのロボタクシーの1台を所有でき、その結果、非常に興味深いビジネスモデルを手に入れることができるでしょう。

It will take you wherever you need to go, drop you off wherever you need to be and then if you want, you'll be able to put it into a mode where it becomes like an Uber for you.

それはあなたが行きたい場所に連れて行き、必要な場所で降ろしてくれます。そして、もし望むなら、それをウーバーのようなモードに切り替えることもできるでしょう。

It will go around and pick people up and drop them off.

それは周りを回って人々を拾い、降ろすでしょう。

Because you own the car, you make a large percentage of the money.

あなたがその車を所有しているので、大きな割合の利益を得ることができます。

Like he didn't actually break down how the monetization would work, but people will buy these cars for roughly $30,000, use them when they need them.

彼は実際にマネタイズの仕組みを詳しく説明しなかったが、人々はこれらの車を約30,000ドルで購入し、必要なときに使用するでしょう。

When they're not actually using them, they'll have the option to put them into like a robo taxi mode where they can be driving around and picking up other people and dropping off other people while you earn money because your vehicle is out there doing that.

実際に使用していないときは、ロボタクシーモードに切り替えるオプションがあり、車が他の人を乗せたり降ろしたりしながら走行します。これにより、車がその間働いているため、あなたはお金を稼ぐことができます。

He also showed off the fact that there isn't going to be a charging port on these either.

彼は、これらにも充電ポートがないことを示しました。

It's basically going to be like wireless charging for your phone where you go and park this vehicle like over a powered parking spot.

それは基本的に、スマートフォンのワイヤレス充電のようなもので、電力供給されている駐車スペースに車両を停めるだけです。

It charges up the vehicle and then you can drive it away.

車両を充電し、その後運転して行くことができます。

No more plugging in and unplugging a charger.

もう充電器を差し込んだり抜いたりする必要はありません。

He also then showed off what he called the roBOven, which is Robo van.

彼はまた、roBOvenと呼ばれるものを披露しました。これはロボットのバンです。

I don't know why he was saying it that way, but he showed off his Robo van or Roboven, which is an autonomous bus essentially that can hold up to 20 people inside and take them around.

なぜ彼がそんな言い方をしたのかはわかりませんが、彼は自動運転バスである「ロボバン」または「ロボベン」を披露しました。これは基本的に20人まで乗せることができ、彼らを運ぶことができる自律走行のバスです。

He was giving the example of using it to bring sports teams around or use it as like a party bus to go from like bar to bar or something like that.

彼は、それを使ってスポーツチームを移動させたり、バーからバーへと移動するためのパーティーバスのように使う例を挙げていました。

You can see it holds up to 20 people.

最大20人まで乗れることがわかります。

Inside, it looked like it had about eight, nine, 10, 11, 12, 13, like 14 or 15 seats, but it also looked like another four or five people can stand while in the vehicle and it can drive people around.

内部を見ると、約8、9、10、11、12、13、14または15の座席があるように見えましたが、車両内で立っていることができる4、5人もいるように見え、乗客を移動させることができるようです。

No estimate yet on when this is coming.

これがいつ登場するかについての見積もりはまだありません。

He didn't talk about the range on any of these vehicles.

彼はこれらの車両の航続距離については話しませんでした。

The only thing he did say was that the sort of robo taxi fleet will be coming like next year, but using the model X's and model Y's that are already out on the roads and the model threes and the cyber trucks, pretty much the Tesla fleet of vehicles that are already out in the world.

彼が言った唯一のことは、来年のようにロボタクシーのフリートが登場するということで、すでに道路に出ているモデルXやモデルY、モデル3、サイバートラック、つまり世界に出ているTeslaの車両を使用するということです。

They'll be able to be used as these robo taxis, I guess next year sometime and then the actual robo taxi models that they showed at this event are supposedly going to be ready in 2026.

これらは来年のどこかでロボタクシーとして使用できるようになると思いますが、今回のイベントで示された実際のロボタクシーモデルは2026年に準備が整うとされています。

He said before 2027.

彼は2027年以前と言いました。

When he was done showing off his Roboven, he brought in the optimist robots to kind of show where they're at right now.

彼がロボベンを見せ終わった後、オプティミストロボットを持ち込んで、現在の進捗状況を示しました。

He didn't really get into any new details about these.

彼はこれらについて新しい詳細にはあまり触れませんでした。

All he did say was that they're going to eventually cost less than a car.

彼が言ったのは、最終的には車よりも安くなるだろうということだけでした。

All we really got to see them do during this event was a video of them watering plants, playing a board game, washing a counter, serving drinks, helping get groceries out of the back of a car, and of course, something else we've seen quite a bit, which is watching them dance.

このイベントで私たちが実際に彼らにしているのを見たのは、植物に水をやったり、ボードゲームをしたり、カウンターを洗ったり、飲み物を提供したり、車の後ろから食料品を取り出す手助けをしたり、もちろん、私たちがかなり見てきたもう一つのこと、つまり彼らが踊るのを見ていることでした。

Because yeah, they can do that as well.

そう、彼らはそれもできるのです。

They can dance.

彼らは踊ることができます。

Overall, it was a pretty cool event.

全体的に見て、かなり素晴らしいイベントでした。

Elon kept calling it a party, and it feels like they put on a giant party to unveil these robo-taxis and these robo-vans and what the Optimus robots can do, but it was also very short.

イーロンはそれをパーティーと呼び続けており、彼らがこのロボタクシーやロボバン、そしてOptimusロボットの機能を披露するために巨大なパーティーを開いたように感じますが、それは非常に短いものでした。

They didn't really go into too much detail around technical specs or anything like that.

彼らは技術仕様などの詳細についてはあまり深く触れませんでした。

We got a little bit of a tease of how much they'll cost.

私たちは、彼らの価格について少しだけヒントを得ました。

We know the robo-taxis will be about $30,000.

ロボタクシーは約30,000ドルになることがわかっています。

We know that the Optimus robots will be less than a car.

Optimusロボットは車よりも安価であることがわかっています。

We heard that the fully autonomous cars will be available sometime before 2027.

私たちは、完全自動運転車が2027年以前のいつか利用可能になると聞きました。

Obviously, Elon's always optimistic on his timeframe, so we'll see if that actually happens or not.

明らかに、イーロンは常に自分のタイムフレームに楽観的なので、それが実際に実現するかどうか見てみましょう。

I just love nerding out about this kind of stuff.

私はこのようなことについて熱く語るのが大好きです。

Robots and autonomous vehicles and where all this is headed in the future is just so fun and fascinating to me.

ロボットや自動運転車、そしてこれらが未来に向けてどこに向かっているのかは、私にとってとても楽しく魅力的です。

This was probably the biggest event of the week, the biggest thing in the AI news world.

これはおそらく今週の最大のイベントであり、AIニュース界での最大の出来事でした。

Today's video is sponsored by LG and their incredible new LG Gram Pro laptop.

本日の動画はLGとその素晴らしい新しいLG Gram Proノートパソコンの提供でお送りします。

Picture this, you're at a coffee shop, pulling out your work machine, everyone else is lugging around these bulky, beefy laptops, but not you, because you got the LG Gram Pro, which is super light and also super slim.

想像してみてください、あなたはカフェにいて、仕事用の機械を取り出しています。他の人たちは皆、重くてかさばるノートパソコンを持ち運んでいますが、あなたは違います。なぜなら、あなたは超軽量で超スリムなLG Gram Proを持っているからです。

Toss this thing in a backpack, and I promise you forget you're even carrying it.

このノートパソコンをバックパックに放り込んでしまえば、持っていることすら忘れてしまうことをお約束します。

But despite the fact that it's so light and thin, it's actually a pretty powerful device.

しかし、これほど軽くて薄いにもかかわらず、実際にはかなり強力なデバイスなのです。

It's got an Intel Core 7 Ultra Processor and an NVIDIA RTX graphic card in it.

Intel Core 7 UltraプロセッサーとNVIDIA RTXグラフィックカードを搭載しています。

But the real showstopper is the OLED display.

しかし、本当に目を引くのはOLEDディスプレイです。

This is visual perfection.

これは視覚的な完璧さです。

Whether you're editing photos, watching movies or YouTube videos or just doom scrolling Twitter, everything looks really good on this monitor.

写真を編集したり、映画やYouTubeの動画を見たり、ただTwitterを無限にスクロールしたりしても、このモニターではすべてが本当に美しく見えます。

But LG probably wouldn't have reached out to me if it didn't have some AI features as well.

しかし、LGが私に連絡をしてこなかったら、AI機能がなかったのかもしれません。

The LG Gram Link app has an AI powered gallery.

LG Gram Linkアプリには、AIによって強化されたギャラリーがあります。

It's also got glance detection so it knows exactly when you're looking at it and can turn itself on when it knows you need to use it.

それはまた、視線検出機能を備えているため、あなたがそれを見ている瞬間を正確に把握し、使用する必要があるときに自動的にオンになります。

And that LG Gram Link app, it's also a game changer for your workflow because it lets you seamlessly connect your smartphone and your laptop together to seamlessly transfer photos between the two.

そして、そのLG Gram Linkアプリは、スマートフォンとノートパソコンをシームレスに接続し、両者間で写真をスムーズに転送できるため、あなたのワークフローにとっても革命的です。

I'm not just talking about one device.

私は一つのデバイスについて話しているわけではありません。

You can link up to 10 devices to this thing.

このデバイスには最大10台のデバイスをリンクさせることができます。

If you're in the market for a laptop that's super light, super powerful, and has a bunch of cool AI built into it, check out the LG Gram Pro laptop.

もし、超軽量で超強力、さらに多くのクールなAI機能が搭載されたノートパソコンを探しているなら、LG Gram Proノートパソコンをチェックしてみてください。

Your eyes will thank you, your back will thank you, And well, ideally, it should make you a heck of a lot more productive, but that's still kind of on you.

あなたの目は感謝し、あなたの背中も感謝するでしょう。そして、理想的には、これによってずっと生産性が上がるはずですが、それはあなた次第です。

Saying that, this laptop's going to do everything it can to help.

そう言えば、このノートパソコンはできる限りのサポートをしてくれるでしょう。

Check out the link in the description to see LG's page all about this, and I've also added some additional links to where you can find it directly on Amazon.

説明欄のリンクをチェックして、これに関するLGのページをご覧ください。また、Amazonで直接見つけることができる追加のリンクもいくつか追加しました。

Thank you so much to LG for sponsoring this video.

この動画をスポンサーしてくださったLGに心から感謝いたします。

Meta just showed off a new video generator that they've been working on called Meta Movie Gen.

Metaは、彼らが開発中の新しい動画生成ツール「Meta Movie Gen」を発表しました。

We can see some likely cherry-picked examples of what it's capable of here, but they all look pretty good.

ここでは、その能力を示すいくつかの選りすぐりの例を見ることができますが、どれもかなり良さそうです。

They look on a similar level to the demos we've seen from Sora out there, but this does seem to have a few cool features that we haven't really seen in the other video platforms yet.

それらは、私たちがSoraから見たデモと同じレベルに見えますが、他の動画プラットフォームではまだあまり見られないいくつかのクールな機能があるようです。

Taking a look at the official page over on Meta's website here, again, we can see some other examples.

Metaの公式ページを見てみると、再び他の例を見ることができます。

Notice that as this girl is running through the sand, she's actually properly leaving footprints.

この女の子が砂の中を走っているとき、実際に足跡をしっかりと残していることに注目してください。

This woman here looks really realistic, but check this out.

こちらの女性は非常にリアルに見えますが、これを見てください。

There's actually a headshot here on the right.

実際に右側には顔写真があります。

It was actually able to import somebody's real face and make a video of that person.

誰かの本当の顔をインポートして、その人の動画を作成することができました。

We can see here it says our latest research breakthroughs demonstrate how you can use simple text inputs to produce custom videos and sounds, edit existing videos, or transform your personal image into a unique video.

ここには、私たちの最新の研究の成果が、シンプルなテキスト入力を使用してカスタム動画や音声を生成したり、既存の動画を編集したり、個人の画像をユニークな動画に変換する方法を示していると書かれています。

This is an actual person being transferred into a video.

これは実際の人物が動画に変換されている様子です。

Here's another example of thunder cracks loudly with an orchestral music track.

こちらは、オーケストラの音楽トラックと共に雷が大きく鳴る別の例です。

That's the other thing.

それがもう一つの点です。

It will actually create audio to go with these videos.

実際にこれらの動画に合わせた音声を作成します。

Let's go ahead and unmute this here.

ここでミュートを解除しましょう。

We can hear some background sound we can hear the thunder.

背景音が聞こえます、雷の音が聞こえます。

Some background music.

いくつかのバックグラウンドミュージックです。

All of that was created with this ai video generator.

すべてはこのAIビデオジェネレーターで作成されました。

Sora wasn't generating audio to go with the videos.

Soraはビデオに合わせた音声を生成していませんでした。

This actually is here's an example of it being edited.

これは実際に、編集されている例です。

We can see the text input here is transform the lantern into a bubble that soars into the air.

ここでのテキスト入力は、「ランタンを空に舞い上がるバブルに変える」というものです。

The original video here has this lantern floating in the air.

元のビデオには、このランタンが空中に浮かんでいます。

The edited video, it changed that lantern into a bubble.

編集されたビデオでは、そのランタンがバブルに変わりました。

So, not only can you create videos, you can actually import your own face into them.

単にビデオを作成するだけでなく、自分の顔をそれに取り込むことも実際にできます。

You can have it Figure out audio, sound effects, and background music.

音声、効果音、背景音楽を自動的に認識させることもできます。

And you can even use it to, like, edit videos and change what's going on in the video.

さらに、ビデオを編集したり、ビデオ内の内容を変更したりすることも可能です。

Similar to Sora, Meta showed this off and said, "Look at this cool research we've done.

Soraと同様に、Metaはこれを披露し、「私たちが行った素晴らしい研究を見てください。

Look at what we're able to do now." But then didn't give anybody access, so none of us have the option to go and play around with it yet.

今私たちができることを見てください。」と言いました。しかし、誰にもアクセスを提供しなかったため、私たちの誰もまだ試すことができません。

But this looks like a pretty dang powerful and exciting new model that generates really, really good videos, but again, also adds music, sound effects, imports your own face, and lets you edit some really, really cool stuff with this Meta movie gen.

しかし、これは非常に強力でエキサイティングな新しいモデルのようで、非常に良いビデオを生成しますが、再度、音楽や効果音を追加し、自分の顔を取り込み、Metaのムービー生成で本当にクールなことを編集できるようにします。

I'll make sure it's linked up in the description so you can check it out yourself, but that's not all we got in the world of AI video.

説明欄にリンクを貼っておくので、自分で確認できるようにしますが、AI動画の世界にはそれだけではありません。

This company, Hello AI, I have no idea how to pronounce that, just launched an image to video feature.

この会社、Hello AI、発音が全く分かりませんが、画像から動画への機能を新たに発表しました。

What distinguishes this image to video experience?

この画像から動画への体験の何が特別なのでしょうか?

According to this tweet here, tweet and image joint instruction following Heluo seamlessly integrates both text and image command inputs, enhancing your visuals while precisely adhering to your prompts.

こちらのツイートによると、ツイートと画像の共同指示に従うHeluoは、テキストと画像のコマンド入力をシームレスに統合し、視覚を向上させながら、あなたのプロンプトに正確に従います。

Apparently it's much more accurate and can manipulate objects within your images.

どうやら、これまでよりもはるかに正確で、画像内のオブジェクトを操作することができるようです。

It's got a bunch of diverse styles.

さまざまなスタイルが揃っています。

You can find this one over at hail u o a i.video.

こちらは「hail u o a i.video」で見つけることができます。

Don't know how to pronounce this one.

この名前の発音がわかりません。

When you log into this site for the first time, it does give you a three-day free trial.

このサイトに初めてログインすると、3日間の無料トライアルが提供されます。

You can have up to three tasks in queue, and you get bonus credits if you log in daily.

最大で3つのタスクをキューに入れることができ、毎日ログインするとボーナスクレジットがもらえます。

But it looks like typically, it's gonna run you about $10 per month, which gets you 1,000 credits per month and then you have that whole confusion of how many credits is something gonna cost, and not my favorite style of payment plan, but you can try it for three days for free.

しかし、一般的には、月額約10ドルかかるようで、これで月に1,000クレジットが得られます。そして、何かの費用がいくらのクレジットになるのかという混乱が生じます。私の好みの支払いプランではありませんが、3日間は無料で試すことができます。

Let's double check and see how long it actually takes to create a video.

実際に動画を作成するのにどれくらい時間がかかるか、再確認してみましょう。

I'll start with this image here that I use for a YouTube thumbnail.

YouTubeのサムネイルに使うこの画像から始めます。

Let's say an interactive map moves and glows behind a man wearing glasses and then I can turn this on to refine the prompt.

例えば、メガネをかけた男性の後ろでインタラクティブな地図が動き、光るとしましょう。そして、プロンプトを洗練させるためにこれをオンにできます。

Let's go ahead and make sure the prompt is refined.

プロンプトが洗練されていることを確認しましょう。

Let's see how long this takes.

どのくらい時間がかかるか見てみましょう。

Before we even get going here, it says, there are still 2,676 people ahead.

ここに進む前に、まだ2,676人が前にいると表示されています。

Expect to wait for 15 minutes.

15分待つことを覚悟してください。

Here's the video that it generated.

こちらが生成された動画です。

Let's go ahead and click on this, see if we can get a bigger screen of it.

これをクリックして、より大きな画面で見てみましょう。

This is actually pretty impressive.

これは実際にかなり印象的です。

We can see some animation going on in the background.

背景でいくつかのアニメーションが行われているのが見えます。

It looks like he's touching the screen.

彼が画面に触れているように見えます。

You see another hand pop up.

別の手が現れます。

The hand is just totally jacked up, but it looks like a pretty decent looking little cartoon animation.

その手は完全に変わり果てていますが、かなり見栄えの良い小さなアニメーションのように見えます。

It's using this mini Max Haluo AI seems to be pretty good.

このミニマックスハルオAIを使用することは、かなり良いようです。

You get three days free to test it out, and you can click around on the explore tab to see some of the other videos that people have generated.

あなたは、試すために3日間の無料期間を得ることができ、探索タブをクリックして他の人が生成したいくつかの動画を見ることができます。

Honestly, most of them look pretty dang impressive.

正直なところ、ほとんどの動画は非常に印象的に見えます。

I think this one really holds up with a lot of the other ones.

私は、この動画が他の多くの動画と同じくらい素晴らしいと思います。

And again, you get a free three-day trial, so go mess around with it and see if it's for you.

そして再度、あなたは3日間の無料トライアルを得ることができるので、試してみて自分に合っているかどうかを確認してください。

That wasn't the only AI video news we got this week.

今週、私たちが得たAI動画に関するニュースはこれだけではありませんでした。

In fact, there's a new generator in town called Pyramid Flow, and it's open-source.

実際、新しいジェネレーター「Pyramid Flow」が登場し、オープンソースです。

This is the first AI video generator that we've seen of this caliber that's actually open-source, meaning that if you've got a strong enough computer, you can download all of the code and run it locally without even being connected to the internet.

これは、実際にオープンソースであるこのクラスのAI動画ジェネレーターとしては初めてのものであり、強力なコンピュータを持っていれば、すべてのコードをダウンロードしてインターネットに接続せずにローカルで実行することができます。

Or, you could run it on cloud servers.

または、クラウドサーバー上で実行することもできます。

They even have it available over on Hugging Face, where you can generate it there, and none of that information about what you're generating gets saved.

彼らは、Hugging Faceでも利用可能で、そこで生成することができ、生成した内容に関する情報は保存されません。

Some of the people that were involved in making this generator are actually some of the same people that were behind the Cling AI generator.

このジェネレーターの制作に関わった人々の中には、Cling AIジェネレーターの背後にいた人々も含まれています。

Here are some of the examples they showed of what this is capable of.

ここに、彼らが示したこの技術の能力のいくつかの例があります。

Here's some people walking in the snow under like cherry blossom trees.

こちらは、桜の木の下で雪の中を歩いている人々です。

Here's a black and white video of a boat in front of a sort of weird looking Eiffel Tower.

ちょっと変わった形のエッフェル塔の前にあるボートの白黒動画があります。

Some waves crashing against some cliff sides that looks pretty solid.

かなり頑丈に見える崖に打ち寄せる波があります。

All of these videos are pretty decent looking.

これらの動画はどれもかなり見栄えが良いです。

They can generate up to 10 seconds.

最大で10秒間の生成が可能です。

It's open source, meaning that other developers and people that want to fine tune these models are going to get their hands on it and things are going to start to get really really wild here as people start to make this open source model more and more capable and have different weights that they train it on so we can start to do different things.

オープンソースであるため、他の開発者やこれらのモデルを微調整したい人々が手を加えることができ、これから人々がこのオープンソースモデルをますます強化し、異なる重みでトレーニングを行うことで、さまざまなことができるようになっていくので、本当にワクワクします。

The fact that we have a video generator that's open source but also this caliber of output is really really exciting quite honestly.

オープンソースでありながら、このクオリティの出力を持つ動画生成器があるというのは、正直言って非常に興奮することです。

If you're a user of Zoom you're going to be able to let your AI avatar talk for you pretty soon.

Zoomのユーザーであれば、すぐにあなたのAIアバターがあなたの代わりに話すことができるようになります。

This is kind of crazy.

これはちょっとクレイジーですね。

You'll soon be able to create a custom AI avatar of yourself that you can use to record and send short messages to people.

もうすぐ、自分自身のカスタムAIアバターを作成できるようになり、それを使って人々に短いメッセージを録画して送信することができます。

It says Zoom is getting one step closer to letting AI avatars attend meetings for you.

Zoomは、AIアバターがあなたの代わりに会議に出席できるようになる一歩近づいていると述べています。

Zoom announced it will soon let you create an AI avatar of yourself that you can use to send brief messages to your team.

Zoomは、チームに短いメッセージを送信するために使用できる自分自身のAIアバターを作成できるようになると発表しました。

You'll need to record an initial video of yourself and then Zoom's AI will use that to make an avatar that looks and sounds like you.

最初に自分自身のビデオを録画する必要があり、その後ZoomのAIがそれを使用してあなたに似た見た目と声のアバターを作成します。

Similar to what we've seen from HeyGen and Synthesia, and some of these other platforms, and it doesn't look like your AI avatar is going to be able to like sit in on the meeting for you yet.

HeyGenやSynthesia、その他のプラットフォームで見られるものと似ていますが、まだAIアバターがあなたの代わりに会議に参加することはできなさそうです。

Like it's more designed to just use to send messages to people right now as you, but they're implying here that eventually it's going to be a bunch of AI avatars on the meeting.

現在は、メッセージを送るために使うことを想定しているようですが、将来的には多くのAIアバターが会議に参加するようになることを示唆しています。

Like that's going to be interesting.

それが面白くなるとは思えませんね。

Can I just send my AI avatar to jump on like Zoom team meeting?

私のAIアバターを送って、Zoomのチームミーティングに参加させることはできませんか?

I think the AI will just like fill me in later on what everything was talked about.

AIが後で、すべての話された内容を補足してくれると思います。

What happens if everybody is an AI avatar?

もし全員がAIアバターだったら、何が起こるのでしょうか?

Does anything actually get done in these meetings?

これらの会議では実際に何かが行われているのでしょうか?

So many questions.

たくさんの疑問があります。

Speaking of avatars, HeyGen rolled out a new feature late last week called avatar looks.

アバターについて言えば、HeyGenは先週の後半に「アバターのルック」という新機能を発表しました。

We can see in their demo video, you can create multiple avatars and create multiple looks of the same character that you created in HeyGen.

彼らのデモ動画を見ると、複数のアバターを作成し、HeyGenで作成した同じキャラクターの異なるルックを作成できることがわかります。

Here's another example of somebody here talking on screen.

こちらは、画面上で話している別の例です。

As I scroll through this video, you can see it's the same person, but different angles and different looks of that avatar.

この動画をスクロールしていくと、同じ人物ですが、異なる角度や異なる見た目のアバターが見えます。

Since we're on the topic of HeyGen, might as well mention this.

HeyGenの話題に触れたので、これについても言及しておきましょう。

HeyGen and HubSpot have actually partnered up.

実は、HeyGenとHubSpotが提携しました。

If you make a blog post using your HubSpot account, you can automatically have that blog post turned into an AI generated video of a talking avatar explaining what's going on in that blog post.

HubSpotアカウントを使用してブログ投稿を作成すると、そのブログ投稿が自動的にAI生成の動画に変換され、アバターがそのブログ投稿の内容を説明することができます。

We can see the title of this blog post, HeyGen at HubSpot Inbound, the future of AI video and content generation and then this is the video that it automatically generated.

このブログ投稿のタイトル「HubSpot InboundにおけるHeyGen、AI動画とコンテンツ生成の未来」を見ることができます。そして、これは自動的に生成された動画です。

Video is becoming the dominant medium for digital engagement and storytelling.

動画はデジタルエンゲージメントとストーリーテリングの主要なメディアになりつつあります。

There's a clip of the video that it created, but you get the idea.

それが作成した動画のクリップがありますが、要点はお分かりいただけると思います。

You make a blog post, it automatically sends that blog post to HeyGen.

ブログ投稿を作成すると、そのブログ投稿が自動的にHeyGenに送信されます。

You log into HeyGen and you now have a video version of somebody explaining what was going on in the blog post.

HeyGenにログインすると、ブログ投稿で何が起こっていたのかを説明する動画版が手に入ります。

Just a handy little workflow hack for people who like repurposing.

ちょっとした便利なワークフローハックで、再利用を好む人々のためのものです。

Moving over to the world of AI image generation, Imogen version three is now available to all Gemini users.

AI画像生成の世界に移行し、Imogenのバージョン3がすべてのGeminiユーザーに利用可能になりました。

We head on over to Gemini over at gemini.google.com here.

こちらのgemini.google.comでGeminiにアクセスします。

Let's give it a prompt of generating an image of a snowy mountain close to the ocean.

雪に覆われた山と海の近くの画像を生成するようにプロンプトを与えてみましょう。

We can see here it now says creating your image with Imogen three.

ここでは、Imogen 3で画像を作成中であることが表示されています。

Here's my snowy mountain close to the ocean.

こちらが私の海の近くにある雪山です。

Pretty good.

なかなか良いですね。

Google had some problems with people's faces.

Googleは人々の顔に関していくつかの問題を抱えていました。

Let's try generate a close-up image of a male Viking.

男性のバイキングのクローズアップ画像を生成してみましょう。

Let's see if I can Figure that out.

それを解決できるかどうか見てみましょう。

Right now it says, I'm still learning how to generate certain kinds of images, so I may not be able to create exactly what you're looking for yet.

ただいま、特定の種類の画像を生成する方法を学んでいるところなので、まだあなたが求めているものを正確に作成できないかもしれません。

Also, I can't help with photorealistic images of identifiable people.

また、特定の人を識別できるフォトリアリスティックな画像についてはお手伝いできません。

Apparently, generating faces still doesn't work.

どうやら、顔を生成することはまだうまくいっていないようです。

This is the free version of Gemini.

これはGeminiの無料版です。

If I switch on over to the account where I actually have a Gemini Advanced account here, let's see what happens.

実際にGemini Advancedアカウントを持っているアカウントに切り替えた場合、何が起こるか見てみましょう。

Generate a close up image of a male viking, and you can see inside of Gemini Advanced, the one I'm actually paying for.

男性のバイキングのクローズアップ画像を生成してください。そして、私が実際に支払っているGemini Advancedの内部を見ることができます。

It will actually generate faces now, but it doesn't appear to want to generate faces if you're using the free version.

実際に顔を生成することができるようになりましたが、無料版を使用している場合は顔を生成したがらないようです。

While we're on the topic of images, I found this pretty cool from Evolving AI over on Instagram.

画像の話をしているついでに、InstagramのEvolving AIからこれがかなりクールだと思いました。

Somebody figured out how to make these insanely realistic images, like this girl in a coffee shop, here this stream in front of some rocks, the view out of like a van window or something, a trail.

誰かが、コーヒーショップにいるこの女の子や、岩の前にあるこの小川、バンの窓からの景色、トレイルのような、非常にリアルな画像を作る方法を見つけました。

These images are all really realistic and something that you wouldn't immediately see and go that's obviously AI.

これらの画像はすべて非常にリアルで、すぐに見て「これは明らかにAIだ」とは思わないようなものです。

They just look like realistic images.

ただリアルな画像のように見えます。

Well, the little hack was to use flux and for the prompt give them img_ or 10, 18 CR two.

さて、その小さなハックはfluxを使用し、プロンプトにimg_または10、18 CR2を与えることでした。

Basically just give it like randomness and see what it generates.

基本的には、ランダム性を与えて、何が生成されるかを見てみてください。

I like to use flux through the glyph app because right now you can actually use it inside of this app for free.

私は、今このアプリの中で無料で実際に使用できるので、グリフアプリを通じてフラックスを使うのが好きです。

I'll just quickly build a glyph here, a text input, an image generator and then for the image, we'll just have it pull in whatever our text was here.

ここで簡単にグリフを作成し、テキスト入力と画像生成器を用意します。そして、画像にはここにあった私たちのテキストを取り込むようにします。

I'll just put prompt and then for our image generation model, we're gonna use flux pro and I'm gonna go 16, nine and we'll go ahead and close that.

プロンプトを入力し、画像生成モデルにはフラックスプロを使用し、アスペクト比を16:9に設定して、それを閉じます。

I can come over to my prompt here and just give it this prompt here.

こちらに私のプロンプトを持ってきて、このプロンプトを与えることができます。

IMG 10, 18.CR to run this glyph.

IMG 10, 18.CRでこのグリフを実行します。

Theoretically it's going to make something random as hell, but really realistic.

理論的には、非常にランダムなものが生成されるはずですが、実際にはとてもリアルです。

There you go.

さあ、どうぞ。

It's like a photo of a bunch of friends at a party or something like that.

友人たちがパーティーをしている写真のようなものです。

But honestly, pretty realistic.

しかし正直なところ、かなり現実的です。

It's like really pixely and grainy when I zoom in on it, but from this shot here, it just looks like a normal photo.

ズームインすると本当にピクセルが目立ち、ざらざらしていますが、このショットから見ると、普通の写真のように見えます。

We could change some of this around.

これを少し変更することができます。

Let's do like img2489.heic.

img2489.heicのようにしましょう。

Let's run that glyph.

そのグリフを実行しましょう。

Basically use the file name that would be saved directly out of the camera.

基本的には、カメラから直接保存されるファイル名を使用してください。

Look at that.

それを見てください。

It's just a realistic macro shot of a flower.

これは花のリアルなマクロショットです。

Pretty cool little trick there.

なかなか面白い小技ですね。

Something fun to try.

試してみると楽しいかもしれません。

You can do it for free on glyph right now.

今、Glyphで無料でそれを行うことができます。

It's just kind of a crapshoot of what you're gonna get.

どんな結果が得られるかは運次第という感じです。

But what you do get looks really realistic.

しかし、得られるものは本当にリアルに見えます。

We're on the topic of AI image generation.

私たちはAI画像生成について話しています。

Adobe is rolling out some new features to help prove that your art isn't AI slop.

Adobeは、あなたのアートがAIの雑作品ではないことを証明するための新機能を展開しています。

Adobe announced on Tuesday that it will begin rolling out a beta of its content authenticity web app.

Adobeは火曜日に、コンテンツの真実性を確認するウェブアプリのベータ版を展開し始めると発表しました。

It'll enable creators to digitally certify their works as human-made and is immediately launching a content authenticity browser extension for Chrome to help protect content creators until the web app arrives.

これにより、クリエイターは自らの作品を人間が作成したものであるとデジタルで証明できるようになり、ウェブアプリが登場するまでの間、コンテンツクリエイターを保護するためのChrome用のコンテンツ真実性ブラウザ拡張機能が即座にリリースされます。

This uses a combination of digital fingerprinting, watermarking, and cryptographic metadata to certify the authenticity of images, video, and audio files.

この仕組みは、デジタルフィンガープリンティング、ウォーターマーク、暗号化されたメタデータの組み合わせを使用して、画像、動画、音声ファイルの真実性を証明します。

It's not going to use metadata where basically taking a picture of the picture removes all the information.

基本的に、写真を撮ることで情報がすべて失われるメタデータは使用しません。

There's some sort of digital watermark that will still help, even if it was like a screenshotted image, tell if it was AI generated or not.

スクリーンショットの画像であっても、AIによって生成されたかどうかを判断するのに役立つデジタルウォーターマークのようなものがあります。

I'm going to rapid fire a whole bunch of other AI news.

私はこれから多くのAIに関するニュースを次々とお伝えします。

It wasn't the craziest week we've ever seen, but there's a handful of small things that I think are worth mentioning.

これまで見た中で最もクレイジーな週ではありませんでしたが、言及する価値のある小さな出来事がいくつかあります。

For example, OpenAI is sort of getting frustrated with Microsoft right now.

例えば、OpenAIは現在、Microsoftに対して少しフラストレーションを感じているようです。

They're saying that they're not moving fast enough to supply them with more and more servers.

彼らは、より多くのサーバーを供給するために十分な速さで動いていないと言っています。

OpenAI is trying to scale as fast as possible.

OpenAIは、できるだけ早くスケールアップしようとしています。

They partnered with Microsoft to be able to use their servers.

彼らは、Microsoftと提携してそのサーバーを利用できるようにしました。

Microsoft isn't making those servers, those GPUs, available at a fast enough pace right now.

現在、Microsoftはそのサーバー、つまりGPUを十分な速さで提供していません。

And I guess there's a little bit of tension between OpenAI and Microsoft, at least according to this article on The Information.

そして、このThe Informationの記事によれば、少なくともOpenAIとMicrosoftの間には少し緊張があるようです。

Since we're talking about OpenAI, OpenAI made another content partnership.

OpenAIについて話しているので、OpenAIは別のコンテンツパートナーシップを結びました。

They now partnered with Hearst.

彼らは現在、Hearstと提携しています。

Hearst includes brands like the Houston Chronicle, San Francisco Chronicle, Esquire, Cosmopolitan, Elle, Runner's World, Women's Health, and others.

ハーストは、ヒューストン・クロニクル、サンフランシスコ・クロニクル、エスクァイア、コスモポリタン、エル、ランナーズ・ワールド、ウィメンズ・ヘルスなどのブランドを含んでいます。

OpenAI is continuing that strategy of partnering with all the big content creators so that in the future, when that content shows up inside of their responses, they're not getting sued anymore.

OpenAIは、将来的にそのコンテンツが彼らの応答の中に現れた際に、訴えられないようにするために、すべての大手コンテンツクリエイターと提携するという戦略を続けています。

This is also something I thought was pretty cool.

これも私がかなりクールだと思ったことの一つです。

There's this new AI tech inside of the Amazon driver vans that they're releasing.

Amazonの配送バンに搭載されている新しいAI技術があります。

It puts this little green.on the package that the driver is supposed to pull out and deliver.

それは、ドライバーが取り出して配達するための小さな緑の点をパッケージに付けるものです。

When the delivery van gets to somebody's house, they jump in the back, they look for the package with the green dot, grab that one and go and deliver it.

配達バンが誰かの家に到着すると、彼らは後ろに飛び込み、緑の点が付いたパッケージを探し、それをつかんで配達に向かいます。

It uses AI to read all of the, I guess, barcodes on the boxes and pick the right one.

AIを使って、箱にあるすべてのバーコードを読み取り、正しいものを選びます。

Any box that's not the correct package, we can see in this little screenshot, they all have red X's on them and then there's the only this one with the green dot.

正しいパッケージでない箱は、この小さなスクリーンショットで見ることができ、すべてに赤いXが付いています。そして、緑の点が付いているのはこの一つだけです。

It's very clear which one the driver is supposed to grab and take up to the door.

ドライバーがどれを取ってドアまで運ぶべきかは非常に明確です。

If you use the Opera browser, they just added some new features.

Operaブラウザを使用している場合、新しい機能が追加されました。

They've got what they call the ARIA commander bar.

彼らはARIAコマンダーバーと呼んでいるものを導入しました。

By pressing control plus or command plus, you could type things like group all video tabs or bookmark all currently open tabs and Opera will do the desired command with all of the tabs that you currently have open.

コントロールキーとプラスキー、またはコマンドキーとプラスキーを押すことで、「すべてのビデオタブをグループ化する」や「現在開いているすべてのタブをブックマークする」といった操作を行うことができ、Operaは現在開いているすべてのタブに対して希望するコマンドを実行します。

I've never played with the Opera browser, but stuff like this is making me want to.

私はOperaブラウザを使ったことがありませんが、こういった機能があると使ってみたくなります。

I know a lot of people are big fans of the Arc browser.

多くの人がArcブラウザの大ファンであることは知っています。

I played with that, had a hard time migrating over, kind of always end up back at Chrome, but maybe I'll try Opera next.

私も試してみましたが、移行するのが難しく、結局いつもChromeに戻ってしまいます。しかし、次はOperaを試してみるかもしれません。

In fact, I'm curious in the comments, let me know what browser do you use?

実際、コメントで皆さんがどのブラウザを使っているのか教えていただけると興味があります。

If you don't use Chrome, I'm constantly trying to see if there's a browser that I liked the workflow better, but I always end up landing back on Chrome.

もしChromeを使っていないのであれば、私は常に自分のワークフローに合ったブラウザを探しているのですが、結局いつもChromeに戻ってきてしまいます。

I'm curious, what do you like?

あなたは何が好きですか?

If you use Gmail on your iOS device, it's got an AI assistant now to help you manage your inbox.

iOSデバイスでGmailを使用している場合、今は受信トレイを管理するためのAIアシスタントが搭載されています。

You can log into Gmail and you'll get a little Gemini notification.

Gmailにログインすると、小さなGeminiの通知が表示されます。

How can I help you today?

今日はどのようにお手伝いできますか?

Show unread emails from today.

今日の未読メールを表示してください。

Show unread emails from this week.

今週の未読メールを表示してください。

Get the status of my recent orders.

最近の注文の状況を確認してください。

It will help you do all that stuff.

それはあなたがそのすべてのことを行うのに役立ちます。

Get some quick info.

いくつかの簡単な情報を取得してください。

Just sort of at a glance.

ざっと見た感じです。

Google's also been rolling out those features to help you write emails and summarize emails and things like that.

Googleも、メールの作成や要約を支援する機能を次々と展開しています。

Over time, email is eventually just going to become my AI talking to your AI and no humans actually interacting.

時間が経つにつれて、メールは最終的に私のAIがあなたのAIと話すだけになり、人間は実際には関与しなくなるでしょう。

I don't know.

わかりません。

That's where it feels like it's going at least.

少なくとも、そうなりそうな気がします。

There's a new feature coming to Android phones using Google's AI that will detect if your phone's been stolen and then lock whoever stole it out of your phone.

新しい機能が、GoogleのAIを使用したAndroidフォンに登場します。この機能は、あなたの電話が盗まれたかどうかを検出し、盗んだ人を電話からロックアウトします。

Says the theft detection lock, a unique security feature, automatically locks your phone screen using artificial intelligence to prevent theft.

盗難検出ロックと呼ばれるこのユニークなセキュリティ機能は、人工知能を使用して電話の画面を自動的にロックし、盗難を防ぎます。

Using Google AI, the feature detects a typical motion link to theft arising out of someone grabbing your phone and trying to flee by bike, car, or other means.

GoogleのAIを使用して、この機能は、誰かがあなたの電話をつかんで自転車や車、その他の手段で逃げようとする際に発生する典型的な動きを検出します。

Your phone screen instantly locks if it detects the motion, preventing thieves from having easy access to your data.

その動きを検出すると、あなたの電話の画面は瞬時にロックされ、盗人があなたのデータに簡単にアクセスできないようにします。

If you remember the Rabbit devices, the one that pretty much every tech reviewer absolutely tore apart because it wasn't ready yet.

もしあなたが、ほぼすべてのテックレビュアーに徹底的に批判されたRabbitデバイスを覚えているなら、それはまだ準備が整っていなかったからです。

It didn't have that Large Action Model built into it yet, which was like the big selling point of the device in the first place.

まだその大規模アクションモデルは組み込まれていなかったので、そもそもこのデバイスの大きな売りのポイントではありませんでした。

Apparently they're starting to roll that out now.

どうやら彼らは今、その展開を始めているようです。

I know Jesse Liu and Rabbit have gotten a lot of crap for their device, but they still seem to keep on shipping new features.

ジェシー・リウとラビットは彼らのデバイスについて多くの批判を受けていることは知っていますが、それでも新しい機能を次々と提供し続けているようです。

It feels like that humane pin, they put it out there, got a lot of crap, and then just sort of collapsed, and they didn't seem to put anything new into it, and everybody stopped talking about it.

あのヒューマンピンのように、彼らはそれを世に出しましたが、多くの批判を受け、その後はただ崩壊してしまったようで、新しいものは何も追加されず、誰もそれについて話さなくなりました。

At least Rabbit still seems to be putting out new features pretty rapidly, and it looks like we're finally getting this Large Action Model that can sort of learn tasks and learn step-by-step processes, and then follow through on those on your behalf.

少なくともラビットはまだ新しい機能をかなり迅速に提供しているようで、ようやくタスクを学び、段階的なプロセスを学習し、それをあなたの代わりに実行することができるこの大規模アクションモデルを手に入れられそうです。

I have a RABBIT.

私はウサギを飼っています。

I haven't tested this new lamb yet, but I will be testing it and sharing my thoughts after I've had a chance to test it out.

この新しいラムについてはまだ試していませんが、試す機会があれば感想を共有する予定です。

If you're in one of the countries that hasn't had access to Meta AI, well, you're in luck.

もしあなたがMeta AIにアクセスできていない国の一つにいるなら、運が良いです。

15 more countries now get access in the coming weeks to the new Meta AI features, including Brazil, Bolivia, Guatemala, Paraguay, Philippines, and the UK.

今後数週間で、ブラジル、ボリビア、グアテマラ、パラグアイ、フィリピン、イギリスを含む15か国が新しいMeta AI機能にアクセスできるようになります。

It's also slated to roll out in Algeria, Egypt, Indonesia, Iraq, Jordan, Libya, Malaysia, Morocco, Saudi Arabia, Sudan, Thailand, Tunisia, United Arab Emirates, Vietnam, and Yemen over the coming weeks.

また、アルジェリア、エジプト、インドネシア、イラク、ヨルダン、リビア、マレーシア、モロッコ、サウジアラビア、スーダン、タイ、チュニジア、アラブ首長国連邦、ベトナム、イエメンでも今後数週間で展開される予定です。

If you want to try Meta AI and you're one of those countries, you're in luck.

Meta AIを試してみたいと思っているなら、あなたがその国の一つであれば、運が良いです。

A handful of big names in the AI world recently won Nobel Prizes.

AIの世界で名を馳せる数人が最近ノーベル賞を受賞しました。

Jeffrey Hinton, often referred to as the godfather of AI, along with John Hopfield, both won Nobel Prizes in physics for their work in foundational AI.

AIのゴッドファーザーと称されるジェフリー・ヒントンとジョン・ホップフィールドは、基礎的なAIに関する業績により物理学のノーベル賞を受賞しました。

Hinton, who has a PhD in artificial intelligence, went on to co-create a back propagation algorithm, a method that allows neural networks to learn from their mistakes, transforming how AI models are trained.

人工知能の博士号を持つヒントンは、誤りから学ぶことを可能にするバックプロパゲーションアルゴリズムを共同開発し、AIモデルの訓練方法を変革しました。

His company was acquired by Google.

彼の会社はGoogleに買収されました。

He worked for Google for several years before quitting because he wanted to spread the word about the dangers of AI now.

彼は数年間Googleで働いていましたが、今こそAIの危険性について広めたいと思い、辞めました。

John Hopfield is a professor at Princeton.

ジョン・ホップフィールドはプリンストン大学の教授です。

He was also one of the early pioneers in AI developing the Hopfield Network, a type of neural network that transformed AI by demonstrating how neural networks can store and retrieve patterns.

彼はまた、AIの初期の先駆者の一人であり、ホップフィールドネットワークを開発しました。これは、神経ネットワークがパターンを保存し、取り出す方法を示すことでAIを変革した一種の神経ネットワークです。

But they weren't the only AI people to get Nobel prizes.

しかし、ノーベル賞を受賞したAIの人々は彼らだけではありませんでした。

In fact, we have Demis Hassabis and John Jumper who are awarded Nobel prizes in chemistry.

実際、私たちには化学のノーベル賞を受賞したデミス・ハサビスとジョン・ジャンパーがいます。

Demis is the CEO of Google DeepMind and John Jumper is the director at DeepMind.

デミスはGoogle DeepMindのCEOであり、ジョン・ジャンパーはDeepMindのディレクターです。

They won this Nobel prize for their work on AlphaFold, which is a groundbreaking AI system that predicts the 3D structure of proteins from their amino acids, which has just helped lead to a whole bunch of new discoveries.

彼らは、AlphaFoldという画期的なAIシステムに関する研究でノーベル賞を受賞しました。このシステムはアミノ酸からタンパク質の3D構造を予測するもので、多くの新しい発見を導く手助けをしています。

Finally, I found this interesting enough to include it.

最終的に、私はこれが興味深いと感じ、含めることにしました。

An electronic tongue reveals AI's inner thoughts.

電子舌がAIの内なる思考を明らかにします。

This is out of Penn State here.

これはペンシルベニア州立大学からのものです。

They developed a electronic tongue that's capable of identifying differences in similar liquids, such as milk with varying water content, diverse products, including soda types and coffee blends, signs of spoilage and fruit juices, and instances of food safety concerns.

彼らは、類似した液体の違いを識別できる電子舌を開発しました。これには、水分含有量が異なる牛乳や、ソーダの種類やコーヒーブレンドなど多様な製品、腐敗の兆候や果汁、食品安全に関する問題などが含まれます。

The electronic tongue can be useful for food safety and production, as well as for medical diagnostics.

この電子舌は、食品の安全性や生産、さらには医療診断に役立つ可能性があります。

The sensor and its AI can broadly detect and classify various substances while collectively assessing their respective quality, authenticity, and freshness.

センサーとそのAIは、さまざまな物質を広く検出し分類し、それぞれの品質、真偽、新鮮さを総合的に評価することができます。

Basically, we're getting an AI tongue that can taste things and let us know if it's spoiled or rotten or will make us sick or various things like that.

基本的に、私たちは物を味わい、それが腐っているか、腐敗しているか、私たちを病気にさせるか、さまざまなことを知らせてくれるAIの舌を手に入れることになります。

I just found that really, really fascinating because it could potentially help prevent a lot of issues from food and liquids and things like that.

私はそれが本当に魅力的だと感じました。なぜなら、それは食品や液体などからの多くの問題を防ぐのに役立つ可能性があるからです。

That's what I got for you today.

今日は皆さんにお伝えしたいことがあります。

Not the craziest week in AI news, at least not compared to most weeks over the last couple of years, but still some really interesting stuff.

ここ数年のほとんどの週と比べると、AIニュースに関してはそれほど驚くべき週ではありませんが、それでも本当に興味深いことがいくつかあります。

Some really fun stuff that we can do with videos and image generation lately.

最近、動画や画像生成に関してできる楽しいことがたくさんあります。

A lot of fun toys for us AI nerds to go play with.

私たちAIオタクが遊ぶための楽しいおもちゃがたくさんあります。

If you like videos like this, you want to see more AI tools, more AI tutorials, and stay looped in and keep your finger on the pulse of the latest AI news, like this video and subscribe to this channel.

このような動画が好きで、もっとAIツールやAIチュートリアルを見たい、最新のAIニュースに常に目を光らせていたい方は、この動画にいいねを押して、このチャンネルを購読してください。

I'll make sure more videos like this show up in your YouTube feed.

あなたのYouTubeフィードにこのような動画がもっと表示されるようにします。

If you haven't already, check out Future Tools.io where I curate all the cool AI tools I come across, keep the latest AI news up to date here and have A100% completely free newsletter where I'll send just the coolest tools and most important AI news directly to your inbox.

まだチェックしていない場合は、futuretools.ioをぜひご覧ください。そこで私が見つけたすべてのクールなAIツールをキュレーションし、最新のAIニュースを随時更新しています。また、100%完全無料のニュースレターもご用意しており、最もクールなツールや重要なAIニュースを直接あなたのメールボックスにお届けします。

It's all free.

すべて無料です。

You can find it over at futuretools.io.

futuretools.ioで見つけることができます。

Thank you so much for tuning in and nerding out with me today.

本日は私と一緒にお聞きいただき、またお楽しみいただき、誠にありがとうございます。

Thank you so much to LG and the new gram pro LG notebook for sponsoring this video.

この動画のスポンサーであるLGと新しいgram pro LGノートパソコンに心から感謝いたします。

Really appreciate you guys I'll see you all in the next video bye.

皆さんには本当に感謝しています。それでは次の動画でお会いしましょう。さようなら。


いいなと思ったら応援しよう!