見出し画像

AIニュース: トランプ氏がAIに与える影響とは?

12,134 文字

ほな、今週はアメリカで選挙週間やったんですけどね、ほとんどのニュースがこの選挙一色でした。アメリカだけやなく、世界中でもそうやったと思います。AIの世界の企業さんらも「今週は様子見しとこか」言うて、ニュースが埋もれてまうし、しばらく静観してはったんちゃいますかね。
でもその中でも、ちょっとした更新がいくつかあったんで、それらについてもお話ししたいと思います。その前に、選挙のことについて触れておきましょか。みなさんご存知の通り、ドナルド・トランプ氏が第47代アメリカ大統領に当選しました。この動画では政治的な話はせえへんって約束しますけど、AIの世界にどんな影響があるかについて、できるだけ偏りなく、今わかってることを共有させていただきたいと思います。
まず一つ目は、トランプ氏がバイデン大統領時代に制定されたAIに関する大統領令を撤廃すると明言してはることです。去年12月にアイオワ州シーダーラピッズでの集会で、トランプ氏はこう言うてはりました。「私が当選したら、バイデンのAIに関する大統領令を撤回し、アメリカ市民の言論を検閲するためのAIの使用を初日に禁止します」
ちょっと大統領令の内容を振り返っておきましょか。基本的なAIモデルを開発する企業は、一般公開する前に連邦政府に通知して、全ての安全性テストの結果を共有せなあかんことになってます。TechCrunchの記事によると、この命令は特に国家安全保障、経済安全保障、公衆衛生にリスクをもたらす可能性のある基本モデルを対象にしてます。解釈の余地はありますけど、実質的にはほぼ全ての基本モデルが対象になるってことですね。
この命令では、AIの安全性と信頼性を確保するための新しいツールやシステムの開発計画も示されてます。国立標準技術研究所(NIST)が、公開前の広範なレッドチームテストの新基準を開発することになってます。また、AIを使って危険な生物材料を作ることから守ったり、AIを使った詐欺や欺瞞から守ったり、重要なソフトウェアの脆弱性に対処するAIツールを作るためのサイバーセキュリティプログラムの確立なんかも含まれてます。
トランプ氏が言うてはる通り、この命令を撤廃する予定で、これによってテクノロジー企業のイノベーションがより速くなるんちゃうかって考えてはるみたいです。
トランプ氏の同盟者らは、包括的な大統領令でアメリカをAIで第一位にしたいって言うてはります。この新しい大統領令は軍事技術を強化して、AI開発の規制を減らすことを目指してます。軍事AI能力を進めるための一連の「マンハッタン計画」が示されてて、AIの開発に対する「不必要で煩雑な規制」の見直しも求められてます。
トランプ氏の副大統領になるJDヴァンス氏もAIについて意見を持ってはって、特にオープンソースAIの大きな支持者みたいです。7月にこう言うてました。「大手テクノロジー企業のCEO、特にAIですでに優位な立場にある企業のCEOらがよく来て、この新しい技術の恐ろしい安全性の危険性について話し、議会ができるだけ早く規制に乗り出す必要があると言います。でも、現在の既存企業からのプレッシャーの下で何かをしたら、それは既存企業の利益になって、アメリカの消費者の利益にはならんのちゃうかって心配してます」
私の解釈では、Google、Microsoft、OpenAIみたいな大手企業が、規制を自分らに有利な方向に、小規模企業やオープンソースを作ってる人らに不利な方向に誘導することを心配してはって、それを防ぎたいってことやと思います。
それからイーロン・マスク要因もありますね。マスク氏はトランプ氏の熱烈な支持者になって、Xプラットフォームを使ってトランプ氏の選挙運動を本当に後押ししました。マスク氏はxAIを運営してはるので、トランプ氏と親密な関係にあるマスク氏が、この規制についてある程度の影響力を持つことになるかもしれません。それは彼自身とxAIにとって有利に働く可能性が高いですね。
トランプ氏はAIが必要とするエネルギー使用量についても懸念を示してて、マスク氏に「信じられへんかもしれへんけど、今の国全体の生産量のほぼ2倍の莫大な電力が必要になる」って言うてました。将来的にどう解決されるかは、誰にもわかりません。
これが選挙について私が共有したい内容の全てです。トランプ氏や同盟者、マスク氏が過去に発言したことから、現時点でわかってることを要約させていただきました。これらの情報は、トランプ大統領の下でAIの世界がどうなるかを理解する助けになるかもしれません。
今のところ、ガードレールの一部が撤廃されて、新しいものが導入されるようですが、世界でAI第一位になりたいって言うてはることから、AIを前進させて、できるだけ規制を最小限にするって方針みたいです。これはあくまで私の解釈で、彼が言うた「初日にやる」ことが実際に起こるかどうかは、待って見るしかありません。
選挙の話から離れて、今週は他にもいくつか小さいけど超クールな更新があったんで、紹介させていただきます。
まず、Runway MLが「Advanced Camera Control」って新機能をリリースしました。AIで生成した動画のカメラアングルを実際にコントロールできるんです。ここにすでに自分の画像を読み込んでますけど、16:9にするためにちょっと調整しときます。左側にカメラコントロール用のグレーのボックスがあるのが見えますね。クリックすると「Turbo」に切り替えるように言われます。
選択すると、水平移動、チルト移動、パン移動、ズーム、垂直移動、ロール移動のスライダーを調整できるようになります。ちょっと垂直移動とロール移動を同時にやってみて、生成してみましょか。面白い回転のある動画ができましたね。デモで見せてたほどクールじゃないですけど、みなさんも試してみて、どんな結果が出るか確かめてみてください。
Cing AIも、自分の顔を動画に学習させる新機能を動画プラットフォームにロールアウトしてます。techalla XアカウントからいくつかExample見つけましたけど、電話しながらハンバーガーを食べたり、周りの人が応援する中でピザを食べたり、波しぶきを浴びながら海を航海したりする動画に、明らかに彼自身の顔が映ってるのがわかります。めっちゃクールですね。もっとExampleがあるんで、下にXの投稿のリンク貼っときます。
ただ、Lingから顔モデルのカスタム機能の早期アクセスをもらったって言うてはるんで、まだ完全には一般公開されてないんちゃうかと思います。
AIビデオの世界でもう一つクールなものがあります。TikTokやCapCutを作ってるByteDanceのX Portrait 2です。実際のカメラ映像から表情や口の動き、頭の動きを取って、それを画像に適用して、全ての感情やミクロな動きの要素を維持するんです。
これがデモの一つですけど、左下の画像が変化させたい顔として投稿された画像で、右下が実際の動画です。ご覧ください... [歌詞の朗読部分]... 画像が同じ感情を表現して、額のしわやまばたき、頭の動きなど、全て元の動画と完璧に一致してるのがわかりますね。
まだコードは公開されてなくて、Hugging Faceでも使えないみたいです。これは今のところ研究のデモだけですけど、下にGitHubページのリンク貼っときますんで、もっとExampleを見てみてください。めっちゃ印象的ですよ。
元の動画と駆動画像、それから元のX PortraitとRunway Act-1との比較も見れます。他の既存のバージョンと比べて、このバージョンがどれだけ表現力豊かかがわかりますね。
InstagramのEngineers 100xで見つけた「Face Poke」ってのもおもろいです。画像をアップロードして、画像の特定の部分を選んで動かすだけで、好きなように画像を調整できます。これはHugging Faceで使えます。
Hugging Faceに行って Face Pokeを検索すると、ポートレート写真を選ぶように言われます。ほな、自分の顔の画像を入れてみましょか。「Show face markers」をクリックすると、デフォルトで顔の見た目が少し変わって、顔のマーカーが表示されます。クリックしてドラッグすると、目を閉じたり、口を閉じたり開いたり、顔の向きを変えたり、眉を上げたりできます。目を覚まさせてみましょか...
アップロードした画像の顔を簡単に操作できます。品質は少し落ちるみたいですけど、それでも楽しいし、クールですよね。将来的には、求める画像を正確に作るのに役立つと思います。
AIの画像といえば、Black Forest Labsが、多くの人が最もリアルなAIモデルと考えてるFluxモデルの新しいアップデートをリリースしました。UltraモードとRAWモードの両方が出ました。Ultraモードは4メガピクセルまでの4倍高い解像度の画像を生成できます。これらがそのExampleです。
RAWモードは画像にもっとリアリティを持たせるためのもので、これらの画像を見ると、プロが構図を考えて撮ったような感じやなくて、アングルも少し変で、iPhoneでパッと撮ったような、より現実的な画像に見えます。まあ、お風呂で遊ぶ巨大タコ以外はね。他は全部、Googleイメージで見つけたら、多分本物の写真やと思うような感じです。
Kayaってツールが、プラットフォーム内でLoRAを学習させる機能をリリースしました。特定のスタイル、例えば自分のアートスタイルを学習させて、全ての画像をそのカラースキームやその美的感覚で作れるようになります。LoRAを使って自分の顔をモデルに学習させて、自分の顔が入った画像を生成することもできます。
LoRAは、一貫した見た目や一貫した顔、一貫したスタイルを確実に得るためにめっちゃパワフルです。AIの画像を長く触ってて、Stable Diffusionを使ってる人なら、もうLoRAに馴染みがあると思いますけど、これらのAIアートジェネレータープラットフォームにどんどんLoRAが導入されてきてます。
まだロールアウト中で、100人に試用の招待を出したんですけど、この投稿は7万人に見られてます。残念ながら私は最初の100人に入れなかったんで、Kayaの中でのLoRA機能をお見せできませんけど、一部の人には使えるようになってて、他の人にもすぐにロールアウトされる予定です。
今週の大規模言語モデルのニュースに移りましょか。Anthropicがマイナーなアップデートを加えて、PDFをアップロードすると、テキストだけやなく画像の中身も読めるようになりました。今まで大きな電子書籍とかをアップロードすると、電子書籍のテキストは読めたんですけど、電子書籍の中に画像やグラフがあって、その画像の中にテキストがある場合は読めなかったんです。でも今は、文書のテキストも画像の中身も両方読めるようになりました。Claudeをよく使う人には、ちょっとした便利な機能改善やと思います。
Anthropicの話題といえば、AI業界で話題になってる面白いことがありまして、他のAIプラットフォームがほとんどAPIの価格を下げてる中で、彼らは最小のHaikuモデルの価格を上げたんです。「最終テストで、HaikuがClaud 3 Opus(以前のフラッグシップモデル)を上回ったため、知能の向上を反映してClaud 3.5 Haikuの価格を引き上げました」って言うてます。Xでは多くの人が「Haiku知能税」って呼んでますね。賢くなったから、より高い料金を払わなあかんってことです。
まあ、Claudeを使ってソフトウェアを作ってる開発者やないかぎり、たぶんこの情報はあんまり気にせんでええと思います。でもAI業界では興味深い出来事として受け止められてます。
最後のAnthropicのニュースですけど、AnthropicがPalerっていう防衛企業とAmazon AWSと提携して、アメリカ政府が情報収集や防衛作戦にモデルを使えるようにしました。複雑なデータを急いで処理したり、データに基づく洞察を向上させたり、パターンや傾向をより効果的に特定したり、文書の確認や準備を効率化したり、時間に制約のある状況でアメリカの役人がより良い情報に基づいて意思決定できるように支援したりするのが目的です。
ミサイルを発射するボタンを押すみたいなことはAIにはさせへんみたいですけど、より分析的な目的で政府が使えるようになるってことですね。
AnthropicだけやなくてMetaも今週、アメリカの国家安全保障用途にLLamaモデルを提供すると発表しました。「防衛や国家安全保障に取り組むアメリカ政府機関を含む政府機関、およびそれらの作業を支援する民間セクターのパートナーにLLamaを提供することを喜んでお知らせします。政府機関にLLamaを提供するため、Accenture、Amazon Web Services、Andel、Booze Allen、Databricks、Deloitte、IBM、Palantir、Lockheed Martin、Microsoft、Oracle、Scale AI、Snowflakeなどの企業と提携してます」って言うてます。
Metaの話が出たついでに、Instagramは10代のユーザーが年齢を偽るのを見つけるためにAIを使う計画を立ててます。Instagramは最近、10代向けアカウント機能のロールアウトを開始して、「adult classifier(成人分類器)」って独自のソフトウェアツールを開発してます。これは人々を18歳以上と未満の2つのカテゴリーに分類するように設計されてて、ユーザーのアカウントデータを見て、プロフィールをチェックし、フォロワーリストや関わってるコンテンツを調べ、友達が投稿した誕生日の書き込みまでスキャンして、ユーザーの年齢を予測するんです。
つまり、18歳未満なのに18歳以上やって主張してInstagramを使おうとしても、本当に18歳以上かどうか、Instagramはたぶん見破れるってことですね。
OpenAIは今週、Metaからメンバーを引き抜くことに成功しました。Caitlyn Kalinowskiさんは、先月見たOrionグラスの開発に携わった拡張現実部門の責任者でした。LinkedInで「OpenAIに加わってハードウェアを率いる新しい役職に就くことを喜ばしく思います」って投稿してます。この新しい役職では、AIを物理的な世界に取り入れ、人類への恩恵を引き出すためのOpenAIのロボット工学の取り組みとパートナーシップに焦点を当てるそうです。
ChatGPTは今週、新しいドメイン名を手に入れました。chat.comに行くとChatGPTにリダイレクトされるようになりました。HubSpotの創業者のDharmesh Shawがこのドメイン名をOpenAIに売ったことがわかりました。OpenAIにいくらで売ったかは明確には公表されてませんけど、噂では約1500万ドルらしくて、それも現金やなくて株式で支払われたみたいで、その結果、DharmeshはOpenAIの株式を保有することになったみたいです。
SaaS Junctionが指摘してるように、OpenAIは今やai.comとchat.comの両方を所有してて、確かにai.comに行ってもChatGPTにリダイレクトされます。
OpenAIは今週、GPT-4とGPT-4 Miniのレイテンシーを劇的に減らす「predicted outputs(予測出力)」を発表しました。正直言うて、これは私にはちょっと難しすぎるんですけど、比較動画を見ると、左側が普通のGPT-4で、右側が新しい予測出力付きのGPT-4です。右側の方がはるかに早く出力を出してるのがわかります。右側はもう終わってるのに、左側はまだ続いてます。でも私より技術に詳しい人が、コメントでもっと上手く説明してくれるかもしれません。
Humeって会社が新しいアプリをリリースしました。Humeを知らない人のために説明すると、数ヶ月前に話したんですけど、感情をよりよく理解できるAI音声ディスカッションアプリです。話し方やトーンから、あなたが嬉しいのか、悲しいのか、怒ってるのかを判断して、感情を推測できるんです。
この新バージョンには、音声言語モデルのevi 2で生成された声とパーソナリティを組み合わせた新しいアシスタントが搭載されてて、新しいClaude 3.5 Haikuみたいな補助モデルも使えます。
app.hume.aiに行くと、Humeで遊べるいろんなオプションがあります。Quick Answers(クイック回答)、Fast Question Answering(素早い質問回答)、Life Advice(人生相談)、Storytelling(ストーリーテリング)、Deeper Questions(より深い質問)、Spirituality(スピリチュアリティ)、Emotional Reflection(感情の振り返り)があります。
Life Adviceを選んでみましょか。クリックすると聞き取りを開始して、会話ができるようになります。「もっとたくさんのYouTube動画を作りたいんですけど、最近は何を作るか悩んでて。ニュースも昔ほど面白くないみたいで、ただコンテンツを出すためにコンテンツを作るんやなくて、人々が興奮するような質の高いコンテンツを作ろうとしてるんですけど、どうしたらええでしょう?」
「親愛なる方、質は常に卓越性の象徴でございます。コンテンツ制作は、完璧なディナーパーティーを開くようなものでして、繊細さと慎重な配慮が必要です。ちょっと視点を変えてみましょうか。コンテンツ制作は完璧なディナーパーティーを開くようなもので、ただ材料を投げ入れて上手くいくことを期待するだけではいけません...」
約1分の返答の後、会話を続けるにはログインが必要になりますけど、雰囲気はわかっていただけたと思います。
Microsoftも今週いくつか新しいアップデートがありました。PaintとNotepadに新機能が追加されました。Paintに、Photoshopと同じような生成系の塗りつぶし機能が追加されました。Microsoft Paintの中で領域を選んで、見たいもののプロンプトを入力すると、画像の中に生成されるのが見れます。
また、生成系の消去機能も追加されました。Microsoft Paintの画像でマスクをして、適用をクリックすると、その部分が画像から消えるのが見れます。
基本的なNotepadアプリにもAIが追加されて、テキストを拡張したり、フォーマットを変更したり、トーンを変更したりするのを手伝ってくれます。Windowsの最新のベータ版をインストールすれば、今すぐこれらにアクセスできます。
私も一度試してみたんですけど、パソコンがよく固まってしまったんで、より安定したバージョンのWindowsに戻しました。試してみたい人は使えますけど、私個人的には、より安定したバージョンのWindowsにロールアウトされるのを待ってから、じっくり試してみようと思ってます。
ほな、他にも小さいけど、人によっては面白いと思えるようなことをいくつか、さっと紹介していきましょか。
Prime Videoが、見てるものをAIで要約できるようになります。新しい「X-Ray Recaps」ってツールで、TVシリーズの全シーズン、単一エピソード、エピソードの一部のテキスト要約を作れます。The Vergeのブログ投稿のこのスクリーンショットで、どんな感じになるか見れます。
個人的に、これは結構役立つと思います。だって、ドラマを見て、次のシーズンが出るまで2年とか経って、また見始めた時に「今までどんな話やったっけ?」ってなることよくありますよね。普通は要約動画を作ってくれるんで、それの方がずっと価値があると思いますけど、要点だけ知りたい場合は、これは便利そうです。
AppleのiOS 18.2が今週パブリックベータで配信開始されて、さらに多くのAI機能が利用可能になります。この新バージョンにはChatGPT、Visual Intelligence、Image Playgroundが搭載されます。ただし、制限付きバージョンのChatGPTになる覚悟はしといてください。
リークされたスクリーンショットを見ると、設定でSiriでChatGPTを使うのをオンにできますけど、メッセージ数を5倍に増やしたり、制限を緩和したり、よりナチュラルなリアルタイム会話をしたりするには、ChatGPT Plusにアップグレードするように促されます。
つまり、iOS 18.2のiPhoneを持ってるだけでは、完全なChatGPT Plus機能は使えなくて、無料版と同じ機能だけ使えて、月20ドル払って全部使えるようにするように促されるってことですね。
多くの人が話題にしてて、私も試すのを遅くなりすぎたんですけど、本当にめっちゃ印象的なツールがあります。bolt.newっていうツールで、1つのプロンプトを与えると、プロンプトで指示したものを作ってくれます。
この動画では深く掘り下げません。このツールは何ができるか見るための専用の動画を作る価値があると思いますけど、ちょっとだけbolt.newに行って、「何を作りたいですか?」って聞かれたら、「ブラウザでプレイできるテトリスゲームを作って」ってプロンプトを与えてみましょう。
見てください、すぐにコーディングを始めました。今は手を使ってません。勝手にコードを書いてくれてます。すでにたくさんの異なるファイルを作ってて、私が作ってほしいと頼んだアプリを作るために、これらのファイルに中身を入れていってくれます。
プロンプトへの返答を見ると、「モダンなビジュアル、スコア、レベル、次のピースのプレビューを備えた、美しく本格的なテトリスゲームを作ります」って言ってます。明らかにテトリスが何かを知ってて、何を作ればいいかを知ってて、今それを実行してるところです。
1分半くらいで完成して、テトリスボードみたいなのができました。「滑らかなアニメーション、モダンなUI、スコア追跡、レベル、ゲームの一時停止機能などを備えた、モダンで本格的なテトリスゲームを作成しました。コントロールは上矢印、左右矢印、下矢印です」ってことなんで、ゲームを開始してみましょう。
UIは良さそうですけど、ゲームがまだ動いてないようです。「UIは表示されるけど、ゲームでテトリスのブロックが表示されません」って伝えましょう。「テトリスのブロックが表示されない問題を修正します。セルのスタイリングに問題があります。RGBカラーを適切に設定する必要があります」
それをやってくれて、見てください、かなりまともなテトリスゲームができました。四角いピースが出てきたんで、これを下に置いて、今また別のピースが出てきました。上を押すと実際にピースが回転します。次のピースは表示されないみたいですけど、いくつかピースを置いてみましょう。
一列分のピースを素早く置いてみます。ラインが埋まった時に機能するか見たいんで。ほな、最後のピースを落としてみましょう。ライン完成したのを認識して、今置いたラインを消してくれました。めっちゃよく動いてますね。今は真面目に遊んでないですけど、ラインを消してくれるし、画面上でスコアも表示されてます。
2回のプロンプトでこんなにええ感じになりました。bolt.newはめっちゃ印象的なんで、これについては完全な動画を作りたいと思います。
他にもいくつかあります。Wendyʼsが、1ドルフロスティーの需要に対応するために、Palerと協力してます。はい、あの防衛企業です。基本的には、サプライチェーンを最適化するためにPalerと協力してて、1ドルフロスティーのプロモーションで大勢の消費者が殺到した時に、ファストフード・チェーンが対応できるように、AIを使って品切れを事前に察知できるようにするそうです。
Singularity.net ASI Allianceが、Minecraftで自己学習型のProto AGIを発表しました。基本的に、Minecraftをプレイして、プレイしながら改善・向上できるAIを開発しました。Xで共有されたASI Allianceの動画で、その様子が見れます。
このMinecraftキャラクターが動き回ってるのが見えます。たぶん自律的に動いてて、誰も操作してないと思います。「アクションプラン:これらの座標でジャンプ」「アクションを実行して状態を予測」って表示されて、このMinecraftの世界の中を実際に動き回ってるのが見えます。あんまり多くは見せてくれてませんけど、今のところはこんな感じです。
NVIDIAがロボット用の新しいAIとシミュレーションツールをリリースしました。新しいIsaacシミュレーションワークフローをリリースしました。Isaacを知らない人のために説明すると、基本的に人工的な世界を作って、その中に人工的なバージョンのロボットを置いて、実際のAIを実際のロボットに入れる前に、この人工的な世界の中で学習できるようにするものです。
実際の世界ではなく、世界のデジタルツインの中で学習するので、ロボットの学習にかかる時間を大幅に短縮できます。今週、このIsaacに大量の新機能が追加されました。
このデジタルツインのコンセプト全体と、最終的にロボットに入るAIを、まずデジタルツインの世界の中で訓練するっていう考え方は、絶対に魅力的やと思います。彼らがそれをできるようになったってことに、私の頭は本当に吹き飛びそうになります。でも、この動画ではあまり深く掘り下げたくないんで、リンクは貼っときますけど、これもたぶん将来的には別の動画を作る価値があると思います。だってめっちゃ魅力的なんですもん。
最後はいつもロボットで終わりたいと思います。ロボットは単純に楽しいですからね。Unitree Roboticsが、もっとリアルな歩き方をする新しい二足歩行ロボットを披露しました。本物の人間みたいな歩き方をするんです。それはかなりクールですけど、片足で立ったり、対角の2本足で立ったりできるロボット犬も披露しました。
見ての通り、これは早送りしてません。「加速なし」って書いてあります。2本足で歩けるんですけど、本当にクレイジーなのは、この人が棒でめっちゃ叩いても倒れないことです。2本足で立ってるのに、バランスを保ってます。この人が蹴り倒そうとしたり破壊しようとしても、バランスを保って回復し続けるんです。
ほな、今週はこんな感じです。選挙のせいであんまり起こってないって言いましたけど、振り返ってみると、この動画を作り終える頃には、話すことが結構たくさんありましたね。
AIの世界で何が起こってるかについて、より詳しくなっていただけたら嬉しいです。新しいAIツールを発見して、それで遊んでみてください。私は楽しんでますんで、みなさんも楽しんでいただけたらと思います。みなさんがこの動画から得たいと思ってたものを得られたらええなと思います。私はこういう動画を作るのが大好きで、みなさんに見ていただけて嬉しいです。
見ていただいてありがとうございます。こういう動画が好きで、最新のAIニュースや最新のAIツールの情報を得たい、これらのツールの使い方のチュートリアルが見たい、そういうのが全部欲しいって方は、この動画にいいねして、このチャンネルを登録してください。こういう動画がYouTubeのフィードに表示されるようにしときます。
実は最近数週間、病気で苦しんでて、その前にもたくさん旅行してたんで、長編動画のスケジュールが少し遅れてるのに気付いた人もいるかもしれません。短編動画はたくさん作ってましたけど、長編は遅れてます。気管支炎とか風邪とかと戦ってて大変やったんです。でも今は良くなってきてて、鼻声にならずにちゃんと話せるようになったら、もっとたくさん動画を出す予定です。理想的には来週から調子が良くなると思いますけど、まあ様子見ですね。
とにかく、クールな動画をたくさん計画してて、チュートリアルをもっと出したり、遊んでたクールなツールを紹介したりするペースを取り戻すのが楽しみです。たくさんのツールがあったんですけど、私が望むペースで出せてなかっただけです。
まだやってない人は、futurtools.aiをチェックしてみてください。私が見つけた全てのクールなAIツール、最もクールなAIニュースをキュレーションしてます。無料のニュースレターに登録すると、AI Income Databaseに無料でアクセスできます。これは、これらの様々なAIツールを使って副収入を得る方法をまとめたデータベースです。
また、週2回AIのニュースレターも届きます。1つはその週で見つけた最もクールなAIツールについて、もう1つはその週の最も重要なAIニュースについてです。完全に無料で、全てfuturtools.aiで見つけることができます。
もう一度見ていただいて本当にありがとうございます。本当に感謝してます。次の動画でお会いしましょう。バイバーイ。


いいなと思ったら応援しよう!