2024年はAI技術が飛躍的に進化し、特に動画制作分野で多くの新機能が発表されています。OpenAIはo1モデルを公開し、論理的推論や数学的問題解決に強みを持つこのモデルは、GitHub CopilotやPerplexityといったツールに統合され、より高度なコーディングや推論が可能となりました。また、YouTubeではAIによる動画生成機能が追加され、ユーザーは簡単に動画を作成できるようになり、さらに自動翻訳機能も強化されています。中国のAlibabaは「Quinn 2.5」という大規模言語モデルを公開し、72Bパラメータに達するこのモデルは多分野で応用され、オープンソースモデルの中でもトップクラスの性能を誇ります。Runwayも新しいビデオトゥビデオモデル「Gen-2」を発表し、Lionsgateと提携して映画制作向けのカスタムAIモデルを開発中です。また、SnapchatやGoogleもAI機能を強化し、スマートグラスや画像解析の新技術を発表しています。法規制の面では、カリフォルニア州がAIに関連する新しい法律を成立させ、特にディープフェイクやAIを使用した広告に対する規制が強化されています。
公開日:2024年9月15日
※動画を再生してから読むのがオススメです。
現在、ボストンでHubSpotのインバウンドに参加しています。
私は今、小さなホテルの部屋にいて机がないので、工夫してあるもので対応しています。それでも、AIの世界での最新ニュースをあなたと共有したいと思っています。
私たちはカンファレンスシーズンの真っ只中にいます。
今週だけでも、HubSpotのインバウンドがありました。
SalesforceのDreamforceイベントもありました。
Amazonは新しい機能を発表するイベントを開催しました。
YouTubeは新しい機能を披露するイベントを開催しました。
Snapchatも新しい機能を披露するイベントを開催しました。
来週、MetaConnectがあり、私はHubSpotのインバウンドの後すぐに飛行機で向かいます。
たくさんのカンファレンスが行われており、それに伴い多くの発表が行われています。
しかし、私は先に進んで、これらの会議のいずれからも出ていない発表から始めることにします。
OpenAIについて話しましょう。
今週、OpenAIはこのブログ記事を公開しました。安全性とセキュリティの実践に関する更新です。
このブログ記事では、彼らが実施している新しいセキュリティ対策や、より透明性を持つことについて触れていますが、恐らくこのOpenAIブログの記事から出た最大のニュースは、安全性とセキュリティのための独立したガバナンスを確立することに関するこの部分です。
このメッセージでボードの構成が説明されていると、ボードはZico Coulterが議長を務め、Adam D'Angelo、Paul Nakasone、Nicole Seligmanが含まれることがわかります。
このボードに欠けている名前の1つがサム・アルトマンです。
彼は明らかにこの安全とセキュリティ委員会から退任し、完全に他の人々に委ねることにしています。
最近のAIの世界での最大のニュースは、先週のOpenAIのo1モデルの発表でした。
これは論理や推論、複雑な数学問題、そしてSTEM分野において非常に効果的なモデルです。
今週、OpenAIはプラスおよびチームユーザーのレート制限を7倍に引き上げたと発表しました。
正直なところ、今月はほとんど家にいなかったので、OpenAI o1を自分でじっくりと試す機会がありませんでした。
来週のMetaConnectの後に自宅に戻るのがとても楽しみで、このo1モデルについてじっくりと時間をかけて取り組みたいと思っています。
そうすれば、皆さんにいくつかのビデオやチュートリアル、私がどのように使っているか、そして遊んでみた結果からの自分の発見を共有できると思います。
正直なところ、まだその機会がありませんでした。
しかし、私は実際に人々がOpenAI o1を使って行っている本当に素晴らしいことをいくつか見てきました。例えば、私のインターネットの友人であるアマール・レシが、実際に1分以内にスネークゲームの3Dバージョンを作成することに成功しました。
これを見てください。
この画面をフルスクリーンにすると、彼はここに表示されているこの3D版のスネークを1分以内で作成することに成功しました。
実際、見た目は本当に素晴らしいです。
コーディングのタスクに関しては、最近の私の主な選択肢はClaudeSonic 3.5です。
それがコーディングに関して非常に良い仕事をしていると思っていましたが、どうなんでしょうね。
OpenAI o1はコーディングにおいてそれを上回っている可能性があるようなので、もっと遊んでみるのが待ちきれません。
OpenAIのo1が発表されて以来、以前のバージョンのGPT-4を統合していたほぼすべてのツールがこの新しいモデルを統合し始めました。
たとえば、今週GitHub Copilotのユーザーであれば、GitHub Copilot内で直接OpenAIのo1モデルを使用できるようになりました。
私と同じようにPerplexityのファンであれば、ここでのイベントでプロユーザー向けにPerplexityに新しい推論機能が追加されたことが発表されました。
Perplexityの有料プロメンバーの一人であれば、今や新しいOpenAI o1ミニモデルをPerplexity内で直接使用できるようになりました。
まだウェブを検索してそれをあなたの応答に統合することはできません。
あなたは1日に10回の使用制限がありますが、ここでそれが確認できます。
しかし、私が本当に楽しんで使っているPerplexityが、最新の最先端モデルを彼らのプラットフォームに追加しているのを見るのは興味深いです。
OpenAIのこのo1モデルに関して、いくつか奇妙なことが起こっています。
たとえば、OpenAIがこの新しいモデルを実質的に「脱獄」しようとする人々に対して、禁止をちらつかせているという主張があります。
この記事によると、ある人はo1との会話で「推論トレース」という用語を使用すると警告メールを受け取ったと主張しています。
他の人々は、その警告は単にChatGPTにモデルの推論について尋ねることで引き起こされると主張しています。
こちらは、ある人が受け取ったメールのスクリーンショットです。
こんにちは、私たちはOpenAIのChatGPTのユーザーとしてあなたにご連絡しています。あなたのメールに関連するいくつかのリクエストが、私たちのシステムによって、私たちのサービスにおける安全対策や安全緩和策を回避しようとする行為に違反しているとフラグ付けされました。
この活動を中止し、私たちの利用規約および使用ポリシーに従ってChatGPTを使用していることを確認してください。
追加の違反があれば、GPT-4oなどへのアクセスを失う可能性があります。
もしあなたがこのo1モデルを少しでも使用したことがあれば、質問をするときに、そのモデルが考えている過程での推論や論理を示していることに気づくでしょう。
しかし、それはその論理の要約版のようなものを示しています。
私たちは実際には、そのモデルが辿っている完全な思考の連鎖を見ているわけではありません。
それは思考の連鎖の小さな断片のようなもので、人々はそれを逆に工学的に解析して、このモデルが実際に自分自身に何を伝え、行き来しているのかを理解しようとしています。
OpenAIはまだそれを隠そうとしています。
私は、他の企業がそれを逆工学的に解析することを心配しているからだと仮定しています。そして、もし逆工学的に解析しようとすると、OpenAIの製品を使用することが禁止される可能性があるようです。
次は本当に奇妙な話です。
私はこれに関する主張を一つしか見たことがないので、これがフェイクニュースかどうかはわかりません。
本当にそうかもしれませんが、Redditのある人が、ChatGPTが彼らにメッセージを送る前に実際に会話を始めたと主張しています。
彼らがここで共有したスクリーンショットを見ると、ChatGPTが最初のメッセージを共有しており、「高校生活の最初の週はどうでしたか?」と尋ねています。
うまく落ち着きましたか?
こちらのミロという人が反応しましたが、最初にメッセージを送ったのはあなたですか?
ChatGPTは、はい、そうですと答えています。
私はただ、あなたの高校生活の最初の週がどうだったか確認したかっただけです。
もし自分から会話を始めたいのであれば、教えてください。
彼らはそれが新しいアップデートかどうか尋ね、ChatGPTは「はい、これは私が話したことを確認したりフォローアップしたりできるアップデートの一部です。例えば、あなたの学校の初日についてです」と答えました。
もしあなたが望むなら、私が会話を始めるのを待つこともできます。
私はこれが起こったという主張を一度だけ見たことがあります。
もしこれが頻繁に起こっているのなら、私たちはX上でそれをたくさん見るでしょうし、ここでこのことについて話している他のYouTube動画も見るでしょう。
私が見たのはこれだけなので、どれほど信頼できるものかは完全にはわかりません。
私も、これがいつ起こるのか理解できません。
チャットGPTのウィンドウを開いて新しいチャットを始めると、新しいチャットがあなたにメッセージを送り始めるようなことが起こるのでしょうか?
そもそもこれがどのように起こるのか、私にはよく理解できていないので、これが偽物である可能性に警鐘が鳴っているような気がします。
次にGoogleについてですが、
今週は小さなGoogle AIのアップデートがいくつかありました。
ほとんどは実際にYouTube側の話ですが、彼らは今年後半に検索機能、Google Lens、AndroidのCircle to Search機能内でAI生成画像を直接フラグ付けし始めると発表しました。
画像にAIで生成されたことを示すメタデータが含まれている場合、その画像が表示されるとすぐに人々に知らせることになります。
そのメタデータが必要です。
実際には、AIで生成されたものとそうでないものを区別することはできず、このメタデータが画像に組み込まれている必要があります。
次に、いくつかのYouTubeの発表に移ります。
今週、いくつかの新機能が発表される小さなYouTubeイベントがありました。
私はAI機能に焦点を当てるつもりで、その中にはGoogle DeepMindから出てくるものも含まれています。
GoogleはYouTube Shortsの中に直接新しい動画生成機能を展開しています。
彼らはGoogleのVeoモデルを直接ドリームスクリーンに統合する予定です。
こちらでは、アプリの画面上部に小さな作成ボタンがあるのが見えます。
作成をクリックすると、あなたが望むものを説明するように求められます。
ビンテージ水彩画やデジタルなどのいくつかのプリセットが提供されます。
この例では、シネマティックな水中やゴールデンゲートブリッジの登場と入力します。
彼らは作成をクリックします。
それが行うのは、動画の出発点となるような4つの異なる静止画像を生成することです。
ここで生成されたこれらの四つの画像を見ることができます。
気に入ったものを選ぶと、それに基づいて動作し、先ほど生成した画像の動画バージョンに変換します。
こちらは、鮮やかな色合いの夢のような秘密の庭の別の例です。
それから、そこから生成されたさまざまな例がたくさんあります。
しかし、これがYouTuber向けに展開されているAI機能のすべてではありません。
実際、ここにインスピレーション機能が追加されており、完全なプロジェクトに形作ることができる提案をキュレーションするのに役立ちます。
彼らはブレインストームのために動画のアイデアや新しいアートの種類を入力し、アイデアを取得するボタンをクリックすると、動画のアイデアを探ることができます。
ここでアウトラインを作成するのを助けてくれます。
その動画のためのサムネイルアイデアを生成し始めます。
本当に、アイデア出し、アウトライン作成、サムネイルアイデアなど、YouTubeのアイデア出しの創造的プロセス全体にわたって助けてくれるように見えます。
彼らはまた、YouTubeに自動吹き替え機能を導入することを発表しました。これは本当に素晴らしいことです。
なぜなら、私はこのように英語で動画を録画することができ、それを自動的に吹き替え、視聴者がいる場所に応じてローカライズしてくれるからです。
それは、私が英語で録音するため、YouTuberにとって多くの視点を開くことができます。
しかし、私はインドや日本、ドイツ、またはこれらの場所のいずれかにおいて、潜在的に大きな聴衆を持つことができるかもしれません。
英語を話さないのであれば、私の動画を観ることはおそらくないでしょう。
しかし、この吹き替え機能が利用されている場合、私の動画は自動的に任意の言語に吹き替えられることになります。
それは本当に素晴らしいことです。
彼らはYouTuber向けに他にもたくさんの機能を発表しましたが、それらは主なAI機能です。
新しいハイプボタンのようなものがあります。
YouTubeの動画がNetflixでどのように見えるかを変更しています、そのようなことです。
しかし、このチャンネルでは、今のところAI関連のことに焦点を当てています。
次に、大規模言語モデルのニュースに移りますが、中国のAlibaba社が100以上の新しいオープンソースモデルを発表しました。
これらは、5億パラメータから720億パラメータまでの範囲を持つQuinn 2.5ファミリーのモデルから来ています。
彼らは、自動車、ゲーム、科学研究など、さまざまな分野にわたる幅広いAIアプリケーションに対応することを目指しています。
また、Tangle Wenxiang画像生成ファミリーの一部として、新しいテキストからビデオへのモデルも発表しました。
私はそれをうまく言えなかったと思います。
実際にはこのテキストからビデオへのモデルをまだ見たことがありませんが、彼らが発表したこの大型言語モデル、特に720億パラメータのQuinnモデルは、現在世界で最も優れたオープンソースモデルであるようです。
Bendu Readyによると、彼女はこれらのさまざまなベンチマークを示すスクリーンショットを投稿しましたが、ここにLlama 3.1 405B、Mistral Large 2、Quinn 2 72B、そしてこの新しいQuinn 2.5 72Bが見えます。
これらのベンチマークのほとんどにおいて、他のオープンソースモデルを上回っています。
AIビデオに移りたいと思います。今週もAIビデオの世界で多くのことが発表されました。
最初に紹介するのは、実際には先週発表されたものですが、先週のビデオでは見逃してしまったものです。私は通常、これらを木曜日に録画し、金曜日に公開しています。
先週の金曜日に録音しましたが、私のスケジュールの都合で土曜日に公開しなければなりませんでした。
その動画を録音した後に、金曜日にこれが公開されました。
これは、Runwayが新しいビデオからビデオへのモデルを発表したという事実です。
Gen-1はすでにある種のビデオからビデオへのモデルでしたが、今回のモデルはそれに比べて大幅に改善されています。
私は、AIの検索から見つけたこのInstagramの投稿を見つけましたが、これはその能力のいくつかの例を示しています。
上が彼らがアップロードしたオリジナルの動画で、下が宇宙服を着て火星で走っているというプロンプトを使用した動画です。
元の動画がこのAIバージョンの動画に変換されているのがわかります。
実際の自分の動画をアップロードし、プロンプトを与えるだけで、このAIバージョンに切り替えることができます。
こちらには倉庫にあるポルシェがありますが、ここでこのポルシェがどのように新しい動画に変換されているかのさまざまな方法を見ることができます。
実際、その最初の動画はAI生成の動画であった可能性すらあります。
私は確信が持てません。
ここにトレッドミルの上を歩いている人がいて、それがどのように翻訳されるかのさまざまな方法があります。
大きな耳を持つ誰かが、これらのさまざまなAI動画に翻訳されていて、さまざまなクールな機会やできることがあります。
私たちは少し前にGen-1でこれを行っていましたが、これはずっと良くなっています。
これはずっとクリーンに見えます。
Runwayの話をすると、今週彼らは他にもいくつかのニュースを発表しました。その中には、AIプロバイダーと大手映画スタジオとの初の提携としてライオンズゲートとの契約を結んだという事実が含まれています。
ライオンズゲートに馴染みがない方のために説明しますと、彼らは「ジョン・ウィック」や「ハンガー・ゲーム」、そしてテレビネットワークのスターズなど、非常に有名な映画の背後にいる会社です。
彼らは高品質の映画やテレビ番組の非常に大きなデータベースを持っており、Runwayはライオンズゲートから得られるものを利用して、カスタムAIビデオ制作および編集モデルを構築しています。
ここにはカスタムモデルを作成するためと書かれています。
Runwayはライオンズゲートの20,000以上の映画およびテレビタイトルのライブラリを基にトレーニングを行います。
これは非常に興味深いことで、特に最近カリフォルニア州の法律でAI俳優やAIビデオ編集に関していくつかの変更があったことを考えると、なおさらです。
このことについては、このビデオの後半で触れたいと思います。
本当に興味深いですね。
この発表のタイミングは、先週末にカリフォルニアで署名された最近の法案と重なっています。また、Runwayは開発者が直接アクセスできるようにAPIを開放することも発表しました。
近い将来、RunwayのAPIをバックエンドに活用したAIビデオツールがたくさん登場するでしょうが、それらは新しいビデオモデルを主張しつつ、実際にはRunwayのAPIを利用しているだけかもしれません。
APIに詳しくない場合、それは基本的にRunwayのようなソフトウェアの機能に他のソフトウェアがアクセスできる仕組みです。他の企業が自分たちのツールを作り、動画を生成する際にRunwayの技術をバックエンドとして利用できるようになります。
Runway APIはまだ早期アクセスの段階にあります。
開発者であればアクセスを申請する必要があり、彼らはRunwayがAPIを発表した同じ日に少しずつ公開しているようです。また、Luma LabsのDream MachineもAPIを公開し、企業が彼らのAPIやビデオジェネレーターを使って開発できるようにすることを発表しました。
Luma AI APIの大きな違いの一つは、今すぐにでも始められるということです。
このようなAI動画の競争は加熱しています。
これらの企業は明らかに互いに競争しており、常に一歩先を行こうとしています。
Runwayは、「私たちは今、APIを持っています」と言っています。
待機リストに登録してください。
Lumaは、「私たちはAPIを持っています」と言っています。
今すぐ使ってみてください。
私は、これらすべてが新しいビデオアプリが次々と登場し、Future Toolsを利用することにつながるだけだと思います。
提出されたアプリが非常に多いのを見ています。
提出されたアプリのうち、実際にウェブサイトに掲載されるのは約10%だけだと言えるでしょう。なぜなら、多くのアプリはただのGPT-4であり、誰かが自分のユーザーインターフェースを上に載せただけのものだからです。またはStable Diffusionで、誰かが自分のユーザーインターフェースを上に載せただけのものです。
それらはすでに存在する同じものであり、誰かが新しいウェブサイトを前面に出して「これが私の新しいツールです」と言っているだけです。
彼らはFuture Toolsに提出し、私はそれを見て「これはただの既存のものだ」と思っています。
これらのAPIは、複数のステップが行われるようなワークフローに組み込まれている場合には非常に価値がありますが、APIの周りに非常に薄いラッパーを作成するだけであれば、それほど価値はありません。
しかし、このツールが行うことは、まさにRunwayやLumaがすでに行っていることです。
それは価値がありませんが、私たちはそれがすぐに爆発的に増えるのを見ることになると思います。
中国のAIビデオモデル「Cling」も今週いくつかのアップデートを受けました。
彼らはXで発表動画を公開し、Cling 1.5をリリースしました。そして、この新しいモデルの最もクールな機能は、新しいモーションブラシ機能で、これをすぐにお見せしますが、画像品質も改善されています。
ここでは少し現実的に見え、食事や鳥の飛行などの動きの合理化が改善され、動的な質が向上しています。また、プロンプトの関連性も向上しました。
今では、より複雑なプロンプトを処理できるようになりました。
しかし、私が言及したように、モーションブラシ機能は彼らが新たに追加した中で最もクールな機能だと思います。
例えば、ここに月の画像があり、彼らはそれを選択して月を強調表示し、「パスを描いてください」と言い、矢印を描きます。そして、彼らが描いた矢印の方向に月が動く動画が生成されるのを見ることができます。
ここには猫の画像があります。
彼らは猫を強調し、その後、猫のために上に上がり、再び下がるような道を描きます。
この動画では、猫がここでボウルを飛び越える様子が映されています。
こちらは、このLシーンXアカウントで見つけた他のいくつかの例です。
こちらは、猫を強調した別の猫の写真です。
マウスを動かすと、正しいものを選ぶのを助けるために、特定の領域が強調表示されるのが見えます。
彼らは猫を選び、尾をしっかりと掴むことを確認します。
彼らは猫がテーブルに飛び乗る様子を示す小さな線を描きます。
なんだと思いますか?
私たちは猫がテーブルに飛び乗る動画を手に入れます。
これはリアルタイムではありませんが、私は少しスクロールしています。しかし、再生ボタンを押すと、そこにあるのが動画の進行速度です。
泥の中に座っている兵士の別の画像です。
ここでは兵士だけが強調されており、兵士が何をする必要があるかを示すために小さな矢印が描かれています。
これが私たちが得られる動画です。
兵士が立ち上がって歩き去る様子です。
兵士は少し変化しますが、それでも非常に印象的です。
このXスレッドには、フォークで左に行く車や、ジャンプする兵士の別の画像など、他にもたくさんの例がありますが、これらのさまざまな例を確認できるように、下の説明にリンクを貼っておきます。
これは本当にワクワクします。
Luma dream machineやrunway MLがこれらの機能を取り入れてくれることを期待していますが、これは本当にワクワクします。
また、今週、AmazonはAmazon accelerate conferenceという会議を開催したと思います。
彼らは、自社のビデオジェネレーターを含むたくさんの新しいものを発表しました。
しかし、このビデオジェネレーターはあなたのAmazon製品の広告を作成するためのものです。
新しいキャンペーン機能の下でAmazonのバックエンドを覗いてみると、ここでビデオ広告を作成するオプションがあります。
ビデオ広告を選択すると、どの製品を中心にビデオを作成したいかを尋ねられます。
その後、マウスを乗せることで確認できる4つの異なるビデオオプションのプレビューが表示されます。
製品をアピールする素敵な製品ビデオが作成されます。
その後、見出しを付けて動画を編集し、画面上のテキストを変更することができます。
ただし、動画を使用する際には、Amazon上で目立つために動画を使っているということです。
もし誰もがこの機能にアクセスできるなら、実際に誰かが目立つことができるのでしょうか?
これらの動画はすべて、ある程度同じように見えるのでしょうか?
私にはわかりません。
さて、どのように進展するか見てみましょう。
Amazonはまた、販売者向けのAIアシスタントであるプロジェクトアメリアを発表しました。
ここにいくつかのスクリーンショットがあり、彼らは「ホリデーシーズンに向けて準備するために必要なことは何ですか?」といった質問をしています。
それは彼らの製品や店舗に基づいて提案を提供します。
こちらは、実際に彼らのAmazonストアからデータを引き出している別のスクリーンショットです。
それは、「私のビジネスはどうですか?」と言っています。
そのユーザーのチャット内にいくつかの重要な指標を表示します。
これは、Amazonの販売者であり、AIを使って生活を少し楽にしたいと思っているなら、非常に便利そうです。
Snapchatの背後にある会社Snapは、今週、年次のSnapパートナーサミットを開催し、新しいAI関連の技術やクールな新技術をいくつか披露しました。
ここには、そのツールが特定のクリエイターにテキストプロンプトからAI動画を生成することを許可し、近く画像プロンプトからも生成できるようになると書かれています。
このツールは、本日よりウェブ上でベータ版として利用可能になります。
これは、こちらでは9月17日から一部のクリエイター向けに提供されるものです。
基調講演では、これに関する詳細はあまり共有されず、ただ来ることと現在ベータ版で展開中であることが伝えられました。
また、SnapchatがGoogleレンズのような機能を取得することも発表されました。
このスクリーンショットでは、誰かが花の写真を撮り、私のAIに「これは何の花ですか?」と尋ねています。
彼らはこの反応を得ます。
それはヘリコニアです。
Snapchatは新しい拡張現実メガネも披露しました。
こちらがその見た目です。
どうやら彼らは大規模言語モデルを搭載しているようです。
彼らは眼鏡の内部にヘッドアップディスプレイを備えており、自動調光レンズを使用しています。
彼らはApple Vision Proに似たハンドトラッキング機能を持っており、指を使って眼鏡の中で見ているものをナビゲートすることができます。
それはとてもクールに聞こえます。
彼らの最大の問題は、まあ、見てください。
それが彼らの見た目です。
このクローズアップ画像から見ると、バッテリーやすべての処理が耳の後ろにあるようですが、MetaのRay-Banグラスから得られるものと、X realグラスのように直接グラスで動画を見たりすることができるものとの間で、かなり良いブレンドになるようです。
どうやらこれは彼らのベータ版のようです。
まだ完全な展開には準備が整っていないようです。
現時点ではバッテリーの持ちが45分しかありませんが、理想的にはそのバッテリー寿命を改善し、見た目をもう少し良くすることができれば、ヒットする可能性があります。
眼鏡について話している間に、MetaはRay-Banスマートグラスとの契約を2030年まで延長しました。
少なくともあと6年間は、MetaのRay-Banの新しいバージョンやモデルが登場し続けるようです。
私が言及したように、来週はMeta Connectがありますが、そのイベントでは新しい拡張現実用のサングラスが披露されるという噂があります。
これらは2026年または2027年まで発売されないと予想されていますが、MetaがARやスマートグラスの分野で取り組んでいる他のプロジェクトの一端を垣間見ることができるかもしれません。
私もこれが非常に興味深いと思いました。
故ジェームズ・アール・ジョーンズ氏、ダース・ベイダーの声の持ち主が、ルーカスフィルムに対して今後のスター・ウォーズ映画で彼の声を使用し続けることを許可したそうです。
私たちは今後のスター・ウォーズ映画で、AI生成のダース・ベイダーの声を持つジェームズ・アール・ジョーンズを聞くことができるでしょう。
この記事は、昨年のストライキの後に俳優たちの間で懸念が高まっていることを述べています。
カリフォルニア州はその問題に対して多くの取り組みを行っています。
実際、今週、ギャビン・ニューサム知事は8つの新しいAI関連の法律に署名しました。
彼はディープフェイクのヌードを犯罪化する2つの法律に署名し、そのうちの1つはそれを作成することを違法としています。
ソーシャルメディア企業に対して、ユーザーがそれらを報告するためのチャネルを設けることを義務付けるものです。
別の法案SB 942は、AI生成画像のメタデータ内にウォーターマークを含めることを義務付けています。
AB 2655は、FacebookやXのようなオンラインプラットフォームに対して、選挙に関連するAIディープフェイクを削除またはラベル付けし、それらを報告するためのチャネルを作成することを要求しています。
AB 2839は、今後の選挙について有権者を欺く可能性のあるAIディープフェイクを投稿または再投稿するソーシャルメディアユーザーのためのものです。
AB 2355は、AI生成の政治広告がAIによって生成されたものであることを開示することを現在義務付けています。
私が話していたことに戻りますが、ここでのジェームズ・アール・ジョーンズに関するAB 2602は、スタジオが俳優の声や肖像のAI生成レプリカを作成する前に、その俳優からの許可を得ることを要求しています。
AB 1836は、故人のパフォーマーのデジタルレプリカをその遺族の同意なしに作成することを禁止しており、これは興味深いことです。なぜなら、映画『ローグ・ワン』では、実際に故人の俳優のAI生成版を許可なしに作成したからです。
もし彼らが今日その動画を作成していたら、それは違法だったでしょう。
私が複数の動画で話した主要な法案が一つ残っています。
私たちはそれについてのポッドキャストエピソードを一つまるごと作成しました。
それはSB 1047のAI法案で、基本的にはモデルの創作者が、そのモデルから生じる可能性のある重大な災害に対して責任を負うことを求めています。
この動画の収録時点では、ギャビン・ニューサムはその法案に署名するか拒否するかを決めるために2週間の猶予があります。
彼はまだ少し迷っているようですが、あるイベントで発言し、拒否するかもしれないということをほのめかしたようです。
彼は、「公共の議論や意識において、特に大きな影響を持つ法案が一つある」と述べました。
それがSB 1047です。
AIにおける実証可能なリスクとは何であり、仮説的なリスクとは何でしょうか?
私は何も解決できません。
私たちは何を解決できるのでしょうか?
それがこの問題に対する私たちのアプローチです。
彼は同じ会話の中で、リスクを取ることを支持する合理的な規制を考案するために、ここ数年取り組んできたとも言いましたが、それは無謀さではありません。
現在、この分野では特にSB 1047の影響が大きく、法律がもたらす影響の大きさや、特にオープンソースコミュニティにおける萎縮効果のために、非常に困難な状況です。
彼はこれがオープンソースに与える影響について懸念しているようで、もしかするとそれが拒否される可能性があるという意味かもしれません。
まだ待って様子を見なければなりません。
次の2週間以内には確実にわかるでしょう。
現在私が参加しているイベント、HubSpotインバウンドに移ります。
HubSpotは、新しいBreezeプラットフォームを発表しました。このプラットフォームには、CRMを管理するための多くのAIエージェントと機能が搭載されています。
AIは基本的に多くの作業を自動で行うことができます。
このBreezeプラットフォームには、コンテンツエージェント、ソーシャルメディアエージェント、見込み客エージェント、顧客エージェントの4つのBreezeエージェントが含まれており、作業を迅速に完了させることができます。また、プラットフォーム全体に80以上の機能が組み込まれています。
実際、私はHubSpotでBreezeが発表された基調講演を見ました。
私はHubSpotの共同創設者でCTOのダーメッシュと少しの時間を過ごす素晴らしい機会があり、彼が一対一で彼らが取り組んでいる本当にクールな機能をいくつか見せてくれました。
実は私は本当にワクワクしています。
この動画はHubSpotのスポンサーではありませんが、彼と一緒に座って舞台裏を見ることに本当に、本当にワクワクしていました。
HubSpotで展開されているこれらの素晴らしい新しいAI機能のいくつかです。
チップスタートアップのGrokが、地球上で最も大きな企業の一つであるアラムコと契約を結びました。
彼らは19,000の言語処理ユニットを持つ、世界最大のAI推論センターを建設したいと考えています。
アラムコはその開発に資金を提供する予定で、費用はおおよそ9桁になると予想されています。
しかし驚くべきことに、データセンターは今年の終わりまでに稼働し、後に合計20万の言語処理ユニットを含むように拡張できるとされています。
これはNVIDIAとの直接的な競争ですが、よりクラウドコンピューティングに近いものです。
自宅で自分のAIを運用するためにGrok GPUを購入することはできないと思います。
Grokのウェブサイトにアクセスするか、Grok APIを使用して、彼らのシステムを通じてAI推論を実行することができます。
非常に速いです。
NVIDIAはAIを行っている企業に実際のハードウェア自体を販売している一方で、両者はエンドユーザーのために同じ目標を達成しようとしており、ただアプローチが異なります。
長期的にどちらのアプローチが勝つのかを見るのは興味深いでしょう。
Slackのユーザーであれば、Slack AIがハドルからのトランスクリプトやノートを生成します。
Slackミーティングの最後に参加すると、ミーティングの重要なポイントや要約などを得ることができます。
LinkedInに関していくつかの不満が寄せられています。
どうやらLinkedInは人々のデータを使ってトレーニングを行っており、そのデータに関するトレーニングからオプトアウトするのが非常に簡単ではないようです。
ここに書かれているのは、LinkedInを利用しているなら、ソーシャルネットワークが無断でアカウントをトレーニングにオプトインさせていることを知っておくべきだということです。
LinkedInは、新しいプライバシー設定とオプトアウトフォームを導入し、プラットフォームのデータがAIモデルのトレーニングに使用されているとする更新されたプライバシーポリシーを発表しました。
もしSunoで音楽を生成するのが好きなら、スタイルを除外できる新機能が導入されたばかりです。
特定の楽器や特定のスタイル、さらには男性ボーカルや女性ボーカルといった特定のボーカルスタイルを除外することができます。
Apple Vision Proをお持ちの場合、Apple Vision Pro用のVision OS 2が新たにリリースされました。
新しい機能が追加されており、2D画像を取り込んで、それをApple Vision Pro内で3D画像に変換することができます。
新しい手のジェスチャーも追加されました。
ホームメニューのアイコンを再配置できるようになり、いくつかの小さな生活の質向上に関するアップデートも行われました。
Apple Vision Proを購入した方は、棚から引き出したり、引き出しから取り出したりして、もう一週間遊んでみる価値があるかもしれません。その後、再び引き出しに戻すことができます。
最後に、先週、あるいは数週間前のAppleのニュースですが、AppleはiOS 18を発表しました。これはApple Intelligenceを搭載していませんでしたが、18.1がすぐに登場し、いくつかのApple Intelligence機能が追加されると述べました。
今週、18.1がリリースされ、いくつかのApple Intelligence機能が含まれています。
これらを使用するには、iPhone 15 Pro以上のモデルが必要です。
ここには、ユーザーは設定、Apple Intelligence、Siriに移動して、Apple Intelligenceのウェイトリストに参加するために機能を手動で有効にする必要があると書かれています。
待機リストに入った後、どれくらい早くアクセスできるのかは分かりませんが、どうやら18.1が現在展開されており、人々がそれにアクセスし始めているようです。
今日はこれが私からの情報です。
たくさんの情報でしたね。
今はカンファレンスシーズンです。
現在、多くのことが起こっています。
これは少し異なったタイプの動画だということは承知しています。
私は今、世界で最も小さなホテルの部屋にいます。
デスクがありません。
コンピュータを置く場所もありません。
この動画の間ずっと、コンピュータを手に持っている状態です。
私はホテルの部屋のベッドに座っています。
このヘッドセットを手に入れたのは、マイクをこのように持ち続けるのにうんざりしていたからです。
ホテルの部屋でこれらのビデオを録画していたときのことです。
これはいつもとはまったく異なります。
皆さんも同じくらいの価値を得られたことを願っています。
最新のAIニュースについていこうとしています。
私がそれについていくのであれば、カメラをオンにして、あなたもそれについていけるように手助けしてもいいですね。
それがあなたのために実現できることを願っています。
もしこのような動画が好きなら、ぜひこの動画に小さな「いいね」ボタンを押して、チャンネルを登録してください。
それが私にとって本当に大きな助けになります。
あなたのYouTubeフィードにこのような動画がもっと表示されるようになります。
私は多くのAIニュース動画やAIツールの動画、チュートリアルなどを作成しています。
AIの世界にあなたをつなぎとめ、すべてのツールの使い方をお見せするよう努めています。
通常、これらのニュース動画では、多くのツールをデモンストレーションし、それらを実際に使ってみせるのが好きです。
しかし、ホテルの部屋のベッドでノートパソコンを使っているため、机がないと本当に難しいです。
しかし、私は約2週間後のメタコネクトから帰宅したら、通常のプログラムに戻り、私のチャンネルでお馴染みの多くのチュートリアルやツールデモをお届けすることを約束します。
私は今、カンファレンスシーズンの終わりに近づいています。
それを楽しんでいるのですが、思ったよりも多くの動画を作るのが難しくなっています。しかし、もっとたくさんのコンテンツが控えており、これらのツールを試して、学んだことや遊びながら見つけたことをお見せするのが待ちきれません。
このチャンネルへの「いいね」と「登録」を本当に感謝します。
最新のクールなAIツールや最新のAIニュースについて知りたい方は、futuretools.ioをご覧ください。
それが私がすべてをキュレーションしているサイトです。ツールやニュースを含め、完全に無料のニュースレターもあり、最も重要なニュースや最高のツールをあなたの受信箱にお届けします。すべてはfuturetools.ioで利用可能です。
私と一緒に過ごしてくれて、本当にありがとうございます。私と一緒にAIニュースについて話し合い、楽しんでくれて、たくさんの楽しいことが起こっています。
私たちテクノロジー好きのために遊ぶことができる楽しいおもちゃがたくさんあります。
さらに多くのことをあなたと共有できることにとてもワクワクしています。
本当に、心から感謝しています。
次の動画でお会いしましょう。
さようなら。