AIニュース: OpenAIのSoraの真相が明らかに!
12,190 文字
みなさん、アメリカではサンクスギビングの週やけど、AIの世界では意外にもかなり話題があるんですわ。興味深いことや超クールなことをまとめてお話ししていきたいと思います。
まずはSoraのリークの話からです。「リーク」って言うてますけど、本当のリークとはちょっと違うんですよ。というのも、すぐに停止されてしまったからです。
基本的に何が起こったかと言うと、Soraへの早期アクセス権を持ってた人たちが、このPythonファイルをHugging Faceで共有したんです。このファイルを使うとSoraのAPIにアクセスできて、つまり一時的にSoraで動画を生成することができたわけです。でも、プロンプトはSoraのサーバーに送られて、サーバー側で生成して、それを返してくるだけでした。コードがリークされて誰でも自分のコンピューターにSoraをインストールできるようになったわけではありません。
OpenAIがすぐにAPIを停止して、それ以降誰も使えなくなりました。「誰も」というのは、元々早期アクセス権を持ってた人たちも含めてです。つまり、リークした人たちのせいで、少なくとも一時的に誰も使えなくなってしまったんです。
リークした理由について、彼らはHugging Faceに宣言文みたいなものを投稿しました。「企業AI支配者たちへ。私たちはSoraへのアクセス権を、早期テスター、レッドチーマー、クリエイティブパートナーとして約束されて受け取りました。しかし、実際には私たちはアートウォッシングに誘い込まれていると考えています。Soraが芸術家にとって有用なツールだと世界に伝えるためです。芸術家はあなたたちの無償の研究開発者ではありません。無料のバグテスター、PRの操り人形、トレーニングデータ、検証トークンでもありません」
さらに、「すべての出力はOpenAIチームによる承認が必要です。このプログラムはクリエイティブな表現や批評よりも、PRと宣伝に重点を置いているように見えます」と述べています。基本的に、OpenAIのためにバグテストやレッドチーム、マーケティング素材作りを無償で行わされ、しかも一般公開もされないことに不満を持っていたようです。
また、OpenAIが出力を共有する前にチェックを要求していたと主張しています。私の理解では、これはOpenAIが素晴らしい出力だけを見せたかったからではなく、Soraで作られた政治的プロパガンダや成人向けコンテンツが広がることを防ぎたかったからです。そういった非倫理的なコンテンツや成人向けコンテンツが共有されないよう、公開前に確認したかっただけです。
Sam Altman自身、最初にXでSoraをデモンストレーションした時、必ずしも素晴らしい出力ではないものも見せていたので、素晴らしい出力だけを隠そうとしていたわけではないと思います。
彼らは「私たちはAIテクノロジーをアートのツールとして使用することに反対しているわけではありません」と続けています。ただ、このアーティストプログラムの展開方法や、一般公開に向けてのツールの形成について同意できないと。数人のアーティストがこの意見に賛同の署名をしています。
でも私の意見では、これはちょっと意地の悪い行為だったと思います。むしろ、OpenAIとSoraへの注目を集めることになってしまいました。しばらくの間、Soraについての話題は下火になっていて、他の動画プラットフォームがSoraと同じくらい良い動画を生成していたんですが、このリークの結果、また人々はSoraについて話し始め、たくさんのデモが出てきて、再び公の意識に戻ってきました。
正直なところ、生成された動画のほとんどは、Soraが依然としてAI動画生成において最先端であることを示していました。これらの動画は、現在他のほとんどのプラットフォームで見られるものより良いものでした。
確かに、一部の動画では他のAI動画プラットフォームと同じような問題を抱えていることも示されましたが、全体的に見ると、平均して他のプラットフォームより良い動画を生成しているようです。
AI Central Xアカウントが、生成されたすべての動画をスレッドにまとめています。下で共有しますが、私が興味深いと思ったものをいくつか紹介します。
猫を追いかける犬の動画はかなり良く見えます。めちゃリアルです。赤いドレスと黒いジャケットを着た女性がカメラに向かって歩いてくる、明るい都市の動画もあります。かなり良い感じの動画ですね。
建物が燃えている動画もリアルに見えます。普通に見たら本物だと思うでしょう。素敵なアニメの動画もあります。土埃を巻き上げながら走るトラックの動画は、他のAI動画ジェネレーターでよく見られるスローモーション効果がかかっています。正確なプロンプトは分かりませんが、スローモーションを指定したのかもしれません。
マウスを追いかける猫の動画では、問題点が見え始めます。猫が飛び跳ねる時に足が消えて、一瞬三本足の猫に見えたりします。変な感じが出始めますね。
スケートボードの上で転がる犬の動画は、明らかにAIだと分かります。ズームインすると、多くのAI動画ジェネレーターに見られる不自然さや違和感が出ています。
雨の中でエッフェル塔の前で双眼鏡を覗いている人の動画や、真ん中に青いフラミンゴがいるカートゥーン調のフラミンゴたち、ゲームプレイ映像、かなり良く見えるマインクラフトの映像、シビライゼーションっぽい映像もあります。
全体的に、Soraが依然として素晴らしい動画を作れることを示しています。ルンバの上の猫の動画は、みんなかなり変だと思っていました。確かにその動画は不自然さを見せていて、猫が一瞬帽子を失って、リスみたいになってしまいます。
でも全体的に見ると、このリークから出てきた動画の大部分は、私をより感動させ、Soraへの期待を高めるものでした。古いニルヴァーナのカバーを思わせる、水中で泳ぐ赤ちゃんの動画も良く見えます。
このスレッドには30近い動画があるので、もっと見たい方のためにリンクを共有しておきます。でも実際のところ、このリークは他の何よりもSoraへの期待感を高めることになったと思います。
Soraが自らリークして再び話題を集めようとしたという噂まで出ているほどです。可能性は低いと思いますが、まったくないとは言えませんね。
AI動画の話題に続いて、Lumaがドリームマシンの新機能をリリースしました。モバイルアプリも含まれています。私は幸運にもドリームマシンアプリの早期アクセスを得られました。今は誰でも利用可能だと思いますが、こんな感じです。
アプリ内で過去の生成物をすべて見ることができ、その場で再生できます。この小さなプラスボタンを押してボードを作ることもできます。下にプロンプトボックスがあって、コンピューターから写真を選べます。
ここに私とAI業界の仲間たちの写真があります。「make them dance」(踊らせて)というプロンプトを与えてみましょう。すると、私たち4人全員が踊っている動画を生成してくれました。これが1つ目の動画で、こちらが2つ目の動画です。全部スマートフォンでできるんです。かなりクールなドリームマシンのアップグレードですね。
単一の画像から一貫したキャラクターを作れるようになりました。自分の画像をアップロードして、「at character as a Pixar cartoon」(ピクサーカートゥーンとしてのキャラクター)というようなプロンプトを使えます。これを参考画像として使います。
ちなみに今はウェブアプリを使っていますが、スマートフォンアプリでも同じことができます。ピクサーキャラクターとしての私のキャラクターリファレンスを作成してくれました。これらの画像の1つを選んで、動画に変換したり、新しい参考画像として使って、好きなプロンプトで動画をアニメーション化したりできます。
Lumaドリームマシンの新機能はかなり良いので、ぜひ試してみる価値がありますね。
今週はさらにAI動画のニュースがあります。LTXスタジオを開発したL Trix社が、オープンソースのAI動画モデルをリリースしました。LTXビデオという名前のモデルで、Hugging Faceにすべてのファイルをダウンロード可能な状態で公開しています。
十分な性能のコンピューターがあれば、このビデオモデルを実際にダウンロードして、自分のハードドライブでローカルに動画を生成できます。かなり良い感じですよ。
サンプル動画を見てみましょう。別の女性と会話している女性や、雪に覆われた山をカメラがパンする映像、ごつごつした岩に打ち寄せる波などがあります。24フレーム/秒、768×512ピクセルで動画を生成しますが、TopazのAIビデオアップスケーラーのようなツールを使って、動画をアップスケールすることもできます。
無料でテストしたい場合は、LTXビデオプレイグラウンドというHugging Faceスペースを用意しています。ここをクリックすると...まあ、このスペースは今かなり混んでいるみたいですね。9分近く待っていますが、まだ何も生成されていません。
なので、キャッシュされているプロンプトを見てみましょう。開いているカーテンの後ろにいる若い女性など、かなり良い生成結果が見られます。
このHugging Faceスペースを使う際は、私より運が良いかもしれません。あるいは、このスペースを複製して、Hugging Faceで少しお金を使って実行するか、十分な性能のGPUがあれば、ファイルをコンピューターにダウンロードして自分で実行することもできます。
これらの新しいビデオモデルがオープンソース化されて、人々がそれを基に構築し、改良し、いろいろなクールなことができるようになるのは、とても素晴らしいことですね。
これで、Soraのようなツールを待たずに、自分のコンピューターで直接生成できるようになります。
今週はRunwayからもAI動画に関するニュースがありました。新しいビデオ拡張機能を追加しました。縦向きの動画を拡張して、AIが残りの部分を埋めてくれたり、小さな動画を任意の方向に拡張して、どうなるか見ることができます。
Runway.mlにログインして、Gen-3 Alpha Turboを選択してみましょう。Hot Shot AIビデオジェネレーターのデモ動画の1つを取り上げて、拡張してみましょう。
これを縦向きにして、上下をどのように埋めるか生成してみましょう。結果はこんな感じです。水がどのように見えるか、彼女の頭の上部がどのように見えるかを理解して、かなり良い仕事をしています。
面白いことに、元の動画は5秒なのに、10秒のアニメーションを生成しました。そのため、5秒後にこのフレームで動画が止まってしまいます。でも、これは元の動画が5秒で、プロンプトを10秒に設定した私のミスです。それでも、かなりクールに見えますね。
でも、今週Runwayがリリースしたのはそれだけではありません。Framesという新しい画像ジェネレーターもリリースしました。これは、私が見た中で最もリアルなAI画像ジェネレーターの1つです。
共有されているサンプル画像を見てください。カートゥーン調のものや、この種の変わった抽象的なものもありますが、リアルに見えるように作られた画像は、かなり良く見えます。
様々な衣装を着た人々の画像や、1970年代アート風の画像もあります。もっとカートゥーン調のコミック調の画像もあります。全体的にかなり印象的です。Runwayの画像ジェネレーターはすごいですね。完全にリリースされたら楽しいものになりそうです。
ブログ記事を見ると、「より大きな、よりシームレスなクリエイティブフローの中で、より多くの世界を構築できるように、Gen-3 AlphaとRunway APIの中で段階的にアクセスを展開しています」とあります。確認してみましたが、まだ私のアカウントには入っていないようです。利用可能になったら、将来の動画でフォローアップしたいと思います。
Stability AIからもAI画像生成に関するニュースがありました。Stable Diffusion 3.5のラージモデルにコントロールネットが追加されました。Cannyコントロールネットを搭載しており、最近Fluxでも展開されたものと同様です。
Cannyは元の画像をトレースのように処理し、そのトレースに沿って新しい画像を生成することができます。また、Fluxで見られたものと同様のデプスモデルも搭載しており、元の画像の深度を見て、その深度で新しい画像を生成します。さらに、ブラーコントロールネットもリリースされ、ぼやけた画像をアップスケールできるようです。
AI アートの話題といえば、Google Labsが面白いものをリリースしました。Gen Chessという新しいもので、好きなスタイルで遊べるチェスボードを作ることができます。
例えば、ColumがテスラVSフォードのチェス駒を作ったり、恐竜のチェス駒で遊べたりします。チェスが好きな人には面白いものですね。labs.google.comのjenessにアクセスすると、「ジャムオントーストにインスパイアされたクラシックなチェスセットを作る」とか、「オオカミにインスパイアされたクリエイティブなチェスセットを作る」といったプロンプトが表示されます。
生成してみると、様々なオオカミ関連のチェス駒が表示されます。あるいは、「オオカミにインスパイアされたクラシックなチェスセット」を選ぶと、より伝統的なチェス駒のデザインが表示されます。
対戦相手を生成してみましょう。オオカミVS羊になりました。こちらが羊のチェス駒です。実際にチェスをプレイできます。オオカミVS羊で対戦です。イージーモードを選んでみましょう。
すると、AIコンピューターと対戦できます。今のところ私の動きを真似しているだけのようですが、とにかく面白いですね。チェスを楽しむクリエイティブな方法です。
次はAIオーディオのニュースに移りましょう。11 Labsが今週、Gen FMという新機能をリリースしました。これは、GoogleのNotebook LMと同じようなコンセプトで、PDFやドキュメントなどをアップロードすると、それからポッドキャストを作成してくれます。
現在はモバイルでのみ利用可能ですが、近くデスクトップにも対応する予定だと思います。11 Labsのモバイルアプリを開くと、「Gen FMでコンテンツをポッドキャストに変換」という大きなバーが表示されます。
クリックすると、リンクを貼り付けるか、自分でテキストを書くか、ファイルをインポートするか、ドキュメントをスキャンするかを選べます。ランダムなAIニュース記事を貼り付けて、新しいエピソードを作成してみましょう。
エピソードを作成している間、実際に音楽を再生してくれます。結果はこんな感じです:
「Zoom、パンデミック時代のビデオ会議の寵児が衝撃的な発表をしました。AI優先のワークプラットフォームとして人とのつながりを重視する方向にリブランディングするというのです。これは賢明な方向転換でしょうか、それとも生き残りをかけた必死の試みでしょうか。すごい転換ですね。そう、ビデオ通話だけの会社というイメージから脱却して、Zoom Communications Inc.になるんです。大胆な動きですね。」
Notebook LMを使ったことがある人なら、似たような感じだと分かると思います。ただし、これはモバイルフォンで利用でき、好きなものについてのポッドキャストを簡単で楽しいアプリで聴くことができます。
AIオーディオといえば、NVIDIAも新しい生成AIモデル「Fugato」(Foundational Generative Audio Transformer Opus 1の略)をリリースしました。テキストとオーディオファイルを組み合わせたプロンプトを使って、音楽、声、音を生成したり変換したりできます。
[音楽]
[音楽]
[音楽]
wash it away cuz I know
[音楽]
kids are talking by the door
kids are talking by the door
kids are talking by the door
[音楽]
[音楽]
かなりクールですね。これまであったさまざまなAIモデルが1つになったような感じです。音楽を作る機能、音声を作る機能、曲からトラックを分離する機能、すでに作った曲にドラムや他の楽器を追加する機能など、多くの異なる機能が1つのモデルに統合されています。
現時点では研究段階のようで、まだ利用可能になっていないと思いますが、利用可能になったら面白そうですね。準備が整ったら、必ずフォローアップしたいと思います。
NVIDIAといえば、EDiFi 3Dについても話しましょう。これは今週研究が公開された、スケーラブルで高品質な3Dアセット生成モデルです。
テキストプロンプトを与えると、そこから3Dアセットを生成し、ゲームなどで使用できます。また、画像をアップロードすると、それを必要な用途に使える3Dアセットに変換することもできます。
これはとても面白そうですね。私の目標の1つは、いつかUnreal EngineやUnityでゲームを作ることなので、このようなツールがあれば、そのゲームに必要な3Dアセットの作成がずっと簡単になります。
ただし、これも現時点では研究論文が公開されただけで、コードはまだ利用できないようです。これについても、進展があればフォローアップしていきたいと思います。
次は大規模言語モデルのニュースに移りましょう。Anthropicから今週いくつかの発表がありました。まず、モデルコンテキストプロトコルについてです。
これは企業にとって非常に役立つものになると思います。このプロトコルを使うと、Claudeのアカウントを会社内のデータに接続できます。
Claudeはリアルタイムの情報を見つけることはできず、ウェブも検索しません。利用可能な最新のモデルチェックポイントを通じてのみ更新されます。そのため、新しいモデルがリリースされない限り新しい情報は追加されません。
しかし、このモデルコンテキストプロトコルを使えば、Claudeを自社のデータベースや情報に接続でき、自社のシステムで情報を更新すると、その情報がClaudeに追加されます。
現時点では、APIでのみ利用可能なようです。「開発者は今日からMCPコネクターの構築とテストを開始できます。既存のClaude for Workのお客様は、MCPサーバーのローカルテストを開始し、Claudeを内部システムやデータセットに接続できます。また、まもなくClaude for Work組織全体に対応できる、リモートプロダクションMCPサーバーのデプロイメント用開発者ツールキットを提供する予定です」とのことです。
つまり、Claudeを使用している企業で、特にAPIを利用している場合は、独自のデータソースへの接続を開始できます。
しかし、今週AnthropicがClaudeについて発表したのはそれだけではありません。新しいパーソナルスタイル機能もリリースしました。
私のClaudeアカウントを見てみると、新しいドロップダウンメニューがあり、「スタイルを選択」という項目があります。デフォルトでは「標準」「簡潔」「説明的」「形式的」がありますが、独自のスタイルを作成・編集することもできます。
「テックストーリーテラー」は私用に作成されたものです。独自のスタイルを作成するには、「スタイルの作成と編集」をクリックします。最初の3つはプリセットで、その次が私のものです。「技術的な洞察を、正確で分析的かつプロフェッショナルな言葉で伝える」と書かれています。
作成後もスタイルを編集できますが、新しいスタイルを作成する場合は「カスタムスタイルを作成」をクリックし、例文を追加できます。PDFやドキュメントをドラッグ&ドロップするか、テキストを貼り付けることができます。
そして、スタイルの目的を定義し、対象となる読者を設定し、特定の声色やトーンを使用し、トランスクリプトや自分のブログ記事をアップロードするか、一般的に望むスタイルを説明することができます。
私がこのテックストーリーテラースタイルを作成したとき、YouTubeの動画から約90分のトランスクリプトをアップロードし、そのトランスクリプトに基づいて私のスタイルを判断させました。まあまあ上手くいきましたが、スタイルの要素が気に入らない場合は、「Claudeと編集」をクリックして、変更したい点を伝えることができます。
私の最初のスタイルは少し形式ばっていない上に、なぜかemojiを使用していたので、「私のプロンプトではemojiを使わないでほしい」「カジュアルに話すけど、これは少し行き過ぎているので、もう少し形式的にしてほしい」と伝えたら、スタイルを調整して修正してくれました。
プロンプトを生成する際に、Claudeにあなたらしく、または特定のスタイルで話してもらいたい場合は、これは面白い機能ですね。
Anthropicについて話している間に、もう1つ大きなニュースがあります。AmazonがAnthropicにさらに40億ドルを投資するそうです。AmazonはAnthropicをAIパートナーとして本気で推している様子です。
すでに、将来のAlexaがAnthropicを使用することが分かっていますし、Amazonは彼らと大きく関わっているようです。ただし、少しヘッジもしているようです。
The Informationによると、AmazonはAnthropicへの依存を軽減するためにビデオAIモデルを開発しているそうです。最初これを読んだとき、SoraのようなものをAmazonが作っているのかと思いましたが、このタイトルは少し誤解を招くものでした。
実際には、ビデオと画像を理解できるモデルを開発しているのです。「Amazonは、テキストに加えて画像やビデオを処理できる新しい生成AI を開発しました。これは直接の知識を持つ人物と、Amazonの計画について話をした2人の証言によるものです」とのことです。
つまり、AnthropicとMicrosoftがやっているのと同じようなことをしているわけです。Microsoftは独自のものを開発しながらもOpenAIと密接に協力しており、AmazonもAnthropicのテクノロジーを使用しながら独自のものを社内で開発しているのです。ただし、Anthropicへの依存度が高くなりすぎないようにしているということです。
アリババも今週新しいモデルをリリースしました。OpenAIの01モデルと対抗するもので、数学や論理をより理解できる推論モデルの1つです。この新しいモデルは「QWQ-32B Preview」と呼ばれています。
個人的には、異なる大規模言語モデル間のテストは難しいと感じています。基本的にChatGPT、Perplexity、Claudeは私が必要とすることをすべてやってくれるからです。これらの非常に深い論理と推論のモデルについては、テストや比較が難しいのですが、YouTubeのMatthew Burmanさんのチャンネルでは、大規模言語モデルの比較動画をたくさん作っているので、このモデルについてもすぐに詳しく解説してくれると思います。
Grockも今週アップデートがありました。Grockは今、あなたの名前とXハンドルを知っており、より個人化されたプロンプトができるようになりました。
Grockにアクセスして、「私の名前は何?」と聞くと、実際に私の名前を知っています。ファンモードをオンにして、「私のツイートから判断して、私は何をしている人ですか?」と聞くと、「あなたのexpの投稿から判断すると、テクノロジー、AI、コンテンツ制作の分野でデジタルノマドをされているようですね。コンテンツ制作、テクノロジー、AIへの熱意、ソーシャルメディアでの活動をされています。まとめると、テクノロジーに精通したコンテンツクリエイターで、おそらくYouTubeチャンネルを運営し、AIテクノロジーについて発信し、デジタルツールとトレンドについての洞察を共有されているようです。つまり、デジタル界のスイスアーミーナイフのような、鋭くて多機能で、テクノロジーの世界のほぼすべての会話を切り開ける存在ですね」とかなり褒めてくれました。
Grockについて話している間に、XAIは最終的にChatGPTのような独立したアプリをリリースする予定のようです。アメリカではXを「すべてを網羅するアプリ」とするコンセプトは、あまり上手く浸透していないようで、まだ多くの人がGrockを使っていません。
そこで、Elonは、ChatGPTアプリのような独立したアプリにGrockを移行すれば、もっと採用が進むと考えているようです。私もそう思います。Xから切り離して独立したものにするのは、彼らにとって賢明な判断だと思います。
今週、ThreadsがXの手法を真似て、トレンドトピックについてAIが要約してくれる機能を追加しました。Threadsアカウントで虫眼鏡アイコンをクリックすると、「トレンディングニュース」として「人々が話していることをAIが要約」と表示されます。
「ブラックフライデー2024」「ベアーズがマット・エバーフルスを解雇」「サンクスギビングディナー」「ブラッド・ピット」「テイラー・スウィフト」「ジミー・ファロン」などがあります。これをクリックすると、このニュースについて1文の短い要約が表示され、その後にそのニュースに関連するThreadsの投稿が続きます。
Uberも今週面白い動きを見せました。AI画像のラベリングに参入するようです。現在、AI画像のラベリング市場で支配的な存在はScale AIで、AI画像を見てラベル付けを行い、AIがより良く画像を理解できるようにしたり、チャットのトランスクリプトを見て、トランスクリプトが良好かどうかフィードバックを提供し、AIの出力を改善したりしています。
Uberはこのコンセプトを副業のような形にしようとしているようです。画像を見てラベル付けをしたり、チャットを見てレスポンスを改善するためのフィードバックを提供したりすることで、副収入を得られるようにするそうです。これがどのように展開されるか、非常に興味深いので、ニュースを注意深くフォローしていきたいと思います。
私と同じようにDaVinci Resolveを編集に使用している方は、より良いAIモーショントラッキングツールがリリースされました。このデモ動画では、道路を走るポルシェをトラッキングしていて、本当に素晴らしい精度でトラッキングを行っています。自分のDaVinci Resolveアカウントでこれを試すのが楽しみです。
Elon Muskは、「ゲームを再び素晴らしいものにする」ためのAIゲームスタジオを立ち上げる計画のようです。
Teslaは、Optimusロボットの新機能を披露しました。この動画では、TeslaのOptimusロボットがテニスボールをキャッチしていて、かなり上手にこなしています。
実は、これはテレオペレーション(遠隔操作)で行われていたことが分かりました。テニスボールをキャッチする際、実際には誰かがロボットを操作していたのです。
しかし、これについて読んでみると、非常に興味深いものです。「新しい手は、より人間の手に近く、実際に人間の手のように腱を持っています。Teslaによると、手には22の自由度があり、手首と前腕にさらに3つの自由度があるため、より自然な人間の手のような動きが可能です」とのことです。
ただし、前述の通り、TeslaはこのデモンストレーションでのOptimusがテレオペレーションされていたことをすぐに認めています。
最後に、今週はちょっとしたロボット強盗事件がありました。AIロボットがロボットのショールームに入り、他のロボットを説得して一緒に外に出て行ったのです。
実際の動画がこちらです。小さなロボットが画面に映っていて、この倉庫内の他のロボットと通信しています。実際に他のロボットに倉庫から一緒に出て行くよう説得するのです。
これはかなり驚くべきことです。1台のロボットが追従し、他のロボットも注目して見ていると、次の瞬間、すべてのロボットがこの小さなロボットについて倉庫から出て行きます。まさにクレイジーですね。
今日はこれくらいです。お話ししたように、今週は共有したい面白いことがたくさんありました。
実は、今週末にロンドンに行く予定があって、まだ話せないクールなことがあるんです。そのため、来週の動画アップロードスケジュールにどう影響するか分かりません。来週は面白いことを共有できると思いますが、ロンドンでの予定次第で、どうなるか分からないので、来週は動画が少なくなるかもしれません。様子を見てみましょう。
Future Toolsをチェックしてみてください。最新のAIツールやニュースを厳選してキュレーションしています。無料のニュースレターに登録すると、最新のAIニュースとツールについての素晴らしい情報がメールボックスに届きます。
視聴していただき、本当にありがとうございます。次の動画でお会いしましょう。バイバイ!