AIが社会的つながりに与える影響
11,846 文字
おっちゃん、想像してみてや。お前の友達が何百キロも離れたところから操作してる、リアルタイムの顔がカウンターの上に置いてあるんやで。もうZoom疲れとはおさらばや。同僚や友達の頭がお前の家中に並んでるんや。まるでパーティーにおるみたいやけど、全然違うんやな。これが18億年分のプレートテクトニクスの動きや。
ほんまにUberは、バッテリーが少なくなってるのを知って、お前が必死やから値上げしとるんかな?調べてみるわ。
最近の画像生成AIのおかげで、リアルな釣り写真がめっちゃ増えてきとるな。シリコンバレーのハイパワーな技術者向けに、新しいコンセプトが出てきたで。従業員とデートするんやなくて、自分の製品とデートするんやて。
AIの先駆者ジェフリー・ヒントンが、正式にノーベル賞を受賞したんや。お前の新しいAIアシスタントに気ぃつけなあかんで。同僚の悪口言うたら密告されるかもしれんで。
Grinderが「AIのウイングマン」をデーティングアプリ用に開発しとるらしいわ。
Metaやアップルからのプレッシャーが強すぎたんか知らんけど、マイクロソフトがHoloLensを密かに打ち切ったみたいやな。
NVIDIAが新しい3Dメッシュ生成ツールを出したで。Life Portraitもアップデートしたみたいやし、今回は動物のファインチューニングも入っとるらしいわ。
AIの専門家のアンドリュー・カーパシーが、いろんなモデルに見られる収束について驚いとるんや。
それから、なんで我々が3次元の世界に存在して動き回っとるのか、なんで4次元やなくて、なんで2次元やないのかについて話すで。
まずは、アレンの保守的なAGIまでのカウントダウンを見てみよか。まだ81%で変わっとらんけど、2024年の時点でAGIまで5分の4まで来とるんは、俺にとってはめっちゃ狂ってるわ。3、4年前には全然考えてもなかったことやからな。
さて、この頭の話から始めよか。この頭、かなりリアルで動きもあるし、いつかロボットの体に付いたり、表情だけでも使えそうやな。未来に3D頭が家中にあるのは想像しにくいけど、もし友達と話すときとか、ポッドキャストするときに使えるんやったら...デイビッド・シャピロはもうAIやないから使えへんけど、マット・ウルフとかやったら...ポッドキャストするときに、こんな頭を送って、バーチャルで話すことで移動時間を節約できるかもな。家族の髪型や顔の構造をあらかじめ作っておいて、休日に出すとか。映画をダウンロードして、カップルの頭が横にあるとか。でもVRでやるんやったら、ロボット工学的にはあんまり意味ないかもな。
将来的にはどっかで使えるかもしれんな。コンサートとか公の場とか。2700いいねついとるし、みんな分かっとるんやろな。関係性のことやろ?ああ、なるほどな。男がOnlyFansを乗っ取るんか。まあ、お前らの想像に任せるわ。
人間の寿命なんてたかが知れとるやろ。プレートテクトニクスは年に1インチくらいしか動かへんから、ほとんど動いてないように感じるけど、18億年もの間に地球全体が再編成されとるんや。この動画めっちゃ面白いで。
動画の最後見たら、今の世界によく似てるけど、時間を遡ったら全然違うんや。ここの太平洋とかめっちゃ広いやん。見てみ、全部一つの大陸やで。北アメリカ、南アメリカ、アフリカ、全部くっついとる。2億2300万年前やけど、もっと昔に戻ったらもっと変やで。全部南極の方に押し込められとるみたいや。7億年前になると、めちゃくちゃな大陸に分かれとる。10億年前には、そんなに陸地もなさそうや。14億年前にはまた一つにまとまっとるけど、まだ隙間がいっぱいあるな。ほんま、地球の半分の寿命の間のプレートテクトニクスの動きは魅力的やな。
ネットで、UberとかLyftみたいなアプリが、お前が移動せなあかんのを知っとって、サージプライシングをしとるんやないかって噂が出とるんや。でも、アルゴリズムの全容は分からへんし、もっと深いところまで見てるかもしれん。電話のリソースにアクセスして、誰と連絡取っとるかとか、バッテリーの残量とか、他のアプリの使用状況から支払い能力を判断しとるんやないかって。
VICEの記事によると、キース・チェンがNPRのインタビューで、バッテリー残量の少ない人の方がサージプライシングを受け入れる傾向があるって言うとるらしいわ。会社は否定しとるけど、そもそもなんでバッテリー残量をモニタリングしとるんやって疑問も出とるな。
UberからLyftに切り替えたら、寡占状態みたいに働いとるんやないかって。スマホのAIのことを考えてみい。これから近々デバイス上のAIが来るやろ。我々の行動や位置を把握して、今まで想像もできんかったようなことをAPIを通して説明できるようになるかもしれん。
アップルがApp Storeをモニタリングしたところで、AIが思慮深い情報をコンパイルして自然言語で送信しとるのを理解するのは難しいやろな。アプリの一部が書き換えられて、特定のタイプの情報を送信するようになっとったらどうする?例えば、バッテリー残量のパターンを見つけて、Uberに送信して、そのパターンを利用できるようにするとかな。
言語モデルがソフトウェアの低レベルな部分にあるのは、パラダイムシフトやで。今の時点では、そういった情報をどう完全に守るかを考えるのは難しい。サンドボックス化する方法はあるし、安全対策も取れるやろうけど、それは別物やな。たくさんの例を見て、抜け道がないって確信できるまでは、すぐに信用するのは難しいと思うわ。
それと、このチャンネルは実際にはZ on Felっていうコメディアンのもんやから、Uberのことを決めつける必要はないけど、これからどんな真実に直面せなあかんかを考えるきっかけにはなるな。
「あいつらのほうが俺より美人か?」って?まあ、実在せえへんから関係ないやろ。
人工知能が今どれだけリアルな人間を生成できるか、もっと例を見せたいんやけどな。今日、明日、今年の選挙、めっちゃディープフェイクされる可能性があるってことを知っといた方がええで。
じゃあ、醜い人間だけが本物ってこと?いや、そいつらもディープフェイクできるで。それがもっと悪質やな。
「嘘つきの配当」についての俺の動画覚えとる?これがそれや。この動画が本物かどうか確かめるのに4回も見んとあかんのに、4回見たら今度はInstagramのフィードにもっと出てくるんや。
このCEOが彼女と別れる動画も面白いけど、ちょっとリアルすぎるな。「投資家が撤退したときは...」まだそこまでいってへんけど、そのうちなるやろな。「荷物まとめて出て行け。オフィスからな。こういう日が来るって分かっとったやろ」。明らかに誇張したスキットやけど、Fluxが夜抱きしめてくれるわけないやろ。でも荷物まとめて出て行くのは手伝ってくれるかもな。さあ、CEOがFlux AIモデルを発見した後、彼女と別れるんや。
さて、くだらんSNSの話はこれくらいにして、ジェフリー・ヒントンがノーベル賞を受賞した話に飛ぼか。全然違う角度からのニュースやな。ジェフリー・ヒントンとジョン・ホップフィールドが本物のノーベル賞を獲得したんや。すごいことやで。
ちょっとおさらいしとこか。ジェフリー・ヒントンは「AIの父」として知られとる。AIの多くの側面を開拓してきたんや。最近グーグルを辞めて、AIのリスクについてもっと否定的に、というか現実的に話すようになったな。
バックプロパゲーションアルゴリズムを担当したんや。出力が正しくないときに、そのエラーを数学的に遡って、全てのパラメータを調整して、毎回スマートになるようにするアルゴリズムや。これがこの分野の成長につながったんや。
そこから、ディープラーニングの技術をいろいろ開拓したんや。異なる層や異なるノードを組み合わせて、どんどん学習していく方法をな。人間の脳にインスピレーションを受けとるけど、それ自体が独自のメカニズムなんや。
ボルツマンマシンっていう重要な仕事もしたな。これは複雑な確率を学習できる種類のニューラルネットワークで、その確率をいろんな問題の解決に関連付けられるんや。
それに、教師としても活躍して、たくさんの学生と仕事をして、適切な人々を知っとって、大企業にもこれらのアイデアを持ち込んだんや。AIを押し進めて、AIの風景を変えてきたんや。
2024年のノーベル物理学賞を受賞したのは、特に物理学でっていうのはちょっと驚いたけど、多分十分に値するやろな。知っといた方がええことやで。
さて、AIがお前のボスや同僚に密告する話をしようか。メールや文字起こしで常にプライベートだと思っとったものが、そうやないかもしれんのや。職場で誰かが言ったことは、記録があれば全部出てくる可能性があるって俺は確信しとるわ。AIが「この人がこの会社の他の全員について言ったことを要約しました。これが正確な要約で、彼らが知るべきことです」って言うようになるかもしれんのや。
多分、急進的な透明性の世界になるんやろうけど、それがええことかどうかは分からんな。みんな何か言うのを怖がるようになるかもしれん。常に誰かが見てるから、超ウォーク文化みたいになるんやろな。人々がそれが正しいと思うからやなくて、何か間違ったことを言うのを本当に怖がるからや。それが人々のSNSに出て、批判されるかもしれんからな。
プライバシーと攻撃の仕組みの進化の仕方が好きやないんや。注目を集めるようなクレイジーなことを見つけるアルゴリズムがどんどん良くなっとって、それが個人的な悪口やったら、その人の目に入るようにして、エンゲージメントを得るんや。そして、そのエンゲージメントを得るためにそういった情報を見つけに行くんや。
この記事で話されとる文字起こしツールは、Zoomの通話やオンラインミーティングを要約したり、メールの受信トレイにアクセスしたりできるんや。一度でもこういったサードパーティにGoogleドライブやメール、Gmailへのアクセスを許可したら、その情報を吸い上げて要約して、何百もの質問に答えたり、将来的に何かの理由で使われたりする可能性があるんや。
モデルはそれで訓練されて、誰かが「ディランは俺のこと何て思ってるん?」って聞いたら、「ああ、ここに説明があります」って答えるかもしれん。そしたら、「あれ、思ったより褒められてへんな」って感じになるかもしれんな。でも言うた本人は、相手に聞こえると思ってへんかったから、結局ジェルクみたいになってまうんや。
気をつけんとあかんで。きっと全員に跳ね返ってくるやろ。正直言うと、そんな場合は頭を砂に突っ込んどくかもしれんわ。友達全員のことと、その人らが言うた全てのネガティブなことについて、超オラクルに聞くのはあんまりええ考えやないと思うんや。たとえその人らがお前のこと好きで大切に思ってても、たぶん2、3回は何か言うとるやろうしな。そんなん掘り返すよりは、そのまま忘れた方がええと思うわ。まあ、状況によっては調べた方がええこともあるかもしれんけど、常にそんな考えで生きるのはあかんで。
さて、デートアプリのGrinderの話をしよか。AIを使って初のウイングマンを作ろうとしとるんや。このアプリは、ゲイやバイセクシュアルの男性向けに、長期的な関係を見つけたり、デートをセットアップしたり、他のウイングマンとデートしたりするAIボットをテストしとるんや。
デート業界では、プロフィール写真の自動選択や偽アカウントのフィルタリングみたいなAIベースの機能はあるけど、人間の介入なしでデートをセットアップするようなAIエージェントには公式に取り組んでへんかったんや。なんでそうしてこなかったか分かるけど、まだそのタイミングやないかもしれんな。でも、まあ、オープンやで。
我々の代わりにやりたくないタスクをこなすAIには賛成やけど、デートはちょっと違う気がするわ。旅行の計画とか買い物とかやったら、うまくいきそうやけどな。でも、人間関係を見つけるのは人間の根本的なもんやと思うんや。でも、多くの人がそれで苦労しとるのも知っとるし、アルゴリズムがそれを悪化させとるようにも思えるんやけどな。
とにかく、2027年までには完全に稼働する予定やで。Grinderは、約1400万人のアプリユーザー向けにウイングマンを提供するつもりやって。「お気に入り」のユーザーとの会話を追跡したり、長期的な関係の候補を推薦したり、デートスポットを提案したりするんや。将来的には、レストランの予約をしたり、他のAIエージェントとデートしたりする機能も持つみたいや。
おっちゃん、あのブラックミラーのエピソード覚えとる?ネタバレはせーへんけど、分かるやろ?
このGrinderのビジョンやと、例えば、ウイングマンが他のウイングマンと会話するんや。人間同士が会った後にな。想像してみい。お前がこのウイングマンをセットアップして、デートはしてへんけど、もしデートするとしたら、たくさんの質問をしたり、メッセージや生活、メールにアクセスさせて、お前が本当にどんな人間かを知らせるんや。
そしたら、お前の仕事の種類や友達との付き合い方を本当に知ってて、デートしたい相手も同じようなアクセス権を持っとったら、二つのウイングマンに話をさせて、たくさんのデートのシナリオをシミュレーションさせるんや。架空の喧嘩を作って、二つのウイングマンがどう対処するか見るんや。
もし全てうまくいって、二つのAIが一緒にいて問題を乗り越えられたら、「よっしゃ、この人とデートせなあかんな。うちらのAIウイングマンがめっちゃ相性ええみたいやし」って感じになるんや。分からんけど、うまくいくかもしれんし、ディストピア的かもしれんな。とにかく、Grinderはこれを作っとるし、たぶん世の中に出回るやろな。どれだけうまく機能するかは分からんけど、きっと分かるときが来るで。
俺も2027年まで動画作り続けられたらええなあ。そういや、パトロンで俺を支援してくれへんか?今見とる動画のすぐ下にリンクがあるで。月額4.99ドル、もっと安くてもええで。特に追加の特典はないけど、めっちゃ助かるんや。
パトロンの実際のメンバーからのメッセージやったら、いつも特別な努力して返信しとるで。リンク送ってくれたり、なんか教えてくれたりしたら、ちゃんと時間かけて対応するで。チャンネルを支援してくれとるんやからな。
もちろん、コメントにも頑張って返信するけど、スーパーチャットやったら必ず返信するようにしとるで。あと、チャンネルに参加するボタンもあるで。これはパトロンとほぼ同じやけど、YouTubeの中でやる感じやな。
多様化しようと思っとるけど、どっちでもええで。すでにYouTube Redでカードの設定しとるなら、参加ボタンを押すか、スーパーサンクスかスーパーチャットでもええで。
さて、マイクロソフトが密かに白旗を上げたみたいやな。HoloLensはかなり競争力のある製品に見えたんやけどな。Googleは昔Google Glassを出して、早々に諦めたけど、アップルが2024年に強力に参入して、メタも2023年か2024年くらいから頑張っとるしな。まあ、5年くらい前から取り組んでるみたいやけど。
メタは強そうやし、アップルも投資を続けそうやから、諦めへんやろうな。マイクロソフトはXboxもあるし、AIも至る所にあるし、OpenAIの技術も全部統合できるけど、1兆ドル企業でもAIのために限界まで頑張っとるみたいやな。
サティア・ナデラはその戦いに負けたくないみたいやけど、もし金を節約して会社の他の部分の無駄を削る必要があるんやったら、ハードウェアは今のところ正解やないかもしれんな。それとも、HoloLens 2の在庫を密かにクリアして、HoloLens 3で再起を図るつもりかもしれんけど、たぶんそうやないな。
噂もないし、真剣に取り組んでるって思わせるような求人も出してへんしな。HoloLens 2の生産中止を正式に発表して、2027年までにサポートを終了するって言うとるし、ミックスリアリティのソフトウェアやパートナーシップに投資することに集中するみたいや。ハードウェア側は完全に終わりやな。
時々、HoloLens 2がエンジニアや製造業の使用例で面白いエンタープライズ製品やって読んだりしたわ。2022年に会社を辞めたアレックス・キプマンみたいな重要人物のことを覚えとるけど、新しいビジョナリーを連れてくる必要があったんやろうけど、たぶんそうせえへんかったんやろな。
多分、アップルがVision Proを発表して、普通アップルはハードウェアで他の会社ができへんことをやれるのに、今回は平らになって、将来の生産を制限して、アップルVision Proの返品率が高かったのを見てたら、ニッチなハードウェアは正解やないって思ったんやろな。
マイクロソフトはかなりレーザーフォーカスしとるで。AIレースで勝つつもりやと思うわ。たぶん「なんで10億ドルをこのAR/VRハードウェアに使うねん。その代わりに1000億ドルじゃなくて1100億ドルをStargateスーパークラスターに使った方がええやん」って考えとるんやろな。
さて、NVIDIAが新しいモデルを出したで。芸術的なメッシュ生成のための自己回帰型オートエンコーダーやけど、知っとく必要があるのは、めっちゃかっこええ3D画像を作るってことや。
このポイントクラウド条件付きメッシュ生成プロセスを見てみい。ポリゴンを組み立てて、色付けして、回転させるのが見えるやろ。AIのディフュージョンモデルがあったみたいに、今は本物のメッシュ生成ができるようになったんや。
Meshyみたいな面白い製品も見てきたし、その製品が統合されとるのも見たな。あ、2つ前の動画で紹介したSteamの...あれ、10月10日にライブになったんやっけ?まあ、俺が撮影しとる日やけど、お前が見とる日は分からんな。でも、それはSteamストアの実際のゲームになっとるで。Dream Worldっていうんやったかな。
チェックしてみて、コメントで教えてくれへん?Meshyを使って面白いものを作れとるかどうか、プレイして楽しいゲームかどうかとかな。
でも、研究に戻ると、このNVIDIAのブレークスルーは、物事をめっちゃリアルに、しかも速く作れるようになるんやで。
Edge Runnerは新しい自己回帰型オートエンコーダーや。オートエンコーダーはニューラルネットワークやけど、圧縮アルゴリズムみたいに働くんや。自己回帰モデルっていうのは、出力がどうあるべきかを予測するんや。これは芸術的なメッシュ作成の質と効率を向上させるために全体的に訓練されたんや。
もちろん、NVIDIAのR&Dやから、めっちゃかっこええグラフィックスで作業できるし、計算能力も事実上無制限やしな。
従来の3Dメッシュ生成は、低解像度、限られた面の数、入力タイプ(単一の画像かポイントクラウドか)からの一般化みたいな重要な問題で苦労しとったんやけど、Edge Runnerはこれら全ての問題を同時に解決しとるんや。
新しいトークン化アルゴリズムを使って、メッシュデータをより効率的な形式に圧縮して、訓練の複雑さを減らしとるんや。これによって、4000面まで
の高詳細な3Dメッシュを生成できて、メッシュの解像度をよりよくコントロールできるんや。
もう一つ、俺にとってもっと面白いのは、このモデルが潜在空間を利用して拡散モデルを訓練してることや。これが、全てをうまくまとめて、自然言語からもよく理解できる理由やと思うわ。
広範なテストの結果、Edge Runnerは多様で高品質な結果を生み出すことが分かったんや。3Dメッシュ生成の最先端になったわけや。
さて、MetaとGoogle、ボードに戻って描き直すまでやな。お前らを上回るまでな。
ちょっと余談やけど、イーロン・マスク、テスラ、テスラ...これって本当にTwitterのユーザーが気にしとることなんやろか?トレンドの4位やで。Xのオーナーと何か関係あるんかな。アルゴリズムはオープンソースやけど、バイアスがかかっとるか、ファンがこれに夢中になっとるかのどっちかやな。
アンドリュー・カーパシーの話には常に興味あるわ。あいつはものごとを上手く説明するし、かなり誠実そうや。未来についてええビジョン持っとるし、多くの人が尊敬しとる。
リストの過剰使用とか、多面的な問題の掘り下げとか、さらなる支援の申し出とか、ほぼ同じ長さの応答とか、そういったことがなんでそんなに似とるのか、完全には分からんって言うとるんや。これは最初は予測してへんかったことやな。
なんでや?独立した多くの企業が、多くの異なるタイプの微調整をしとるのに、なんで特定の方法に収束するんやろ?インターネット全体を消化したからなんか?それとも、ベースから始めたことについて何かあるんか?それとも、トークンがどう配置されてるか、どう分割されてるか、コンテキストウィンドウがどうなっとるかに関係なく、全てのトークンを保持する潜在空間の考え方に何かあるんか?これだけでも興味深い質問やな。
でも、それに対する反応がもっと興味深いんや。例えば、ロハン・ポールは「LLMはスケールアップするにつれて、合成データが問題にならない画像編集のようなタスクでも、似たような答えに収束する傾向がある」って言うとる。この「正しい答え」への収束は肯定的に見られとって、「真実は一つで、誤りは多様」っていう考えを反映しとるんやと。
つまり、AIが異なる角度から異なる技術で来ても、みんなが一緒に発見しとる一つの現実があるってことなんか?物理法則が一つしかないのと同じようにな。
これは「プラトン的表現仮説」って呼ばれとる仮説なんや。異なる目的で異なるデータを使って訓練された神経ネットワークが、異なる速度でモデル化しても、その表現空間で現実の統計的モデルを共有しとるっていう考え方や。たとえ異なる角度からアプローチしても、そうなるんやと。
もしかしたら、リストの過剰使用は、単に我々が答えを好む方法で、データを最も速く消化できる方法なんかもしれんな。俺にとってはそうやな。長い文書を読むよりも、自分のためにノートをリストにすることの方が多いわ。リストの上にリストを重ねるみたいな感じやな。かなり便利やで。
さらなる支援の申し出については、分からんな。実生活でも、挨拶や雑談が過剰に使われとるように見えるけど、支援についてはちょっと想像しにくいわ。
ほぼ同じ長さの応答については、たぶん理にかなっとるんやろな。平均的な人がどれくらい話すか、話し過ぎて不快になる前にどれくらい話すか、会話を始める前にどれくらい静かにしとるかとか、確かに規範があるやろ。たぶん、強化学習を通じてそれらを拾い上げとるんやないかな。
これが完全な論文や。「プラトン的表現仮説」って呼ばれとるんや。この論文を参考に、なぜ実生活よりもっと支援を申し出るのかをChatGPTに説明させたんや。
その回答が面白いんや。ChatGPTみたいなものに来るのは支援を求めてやからやと。お前が対話しとるツールの性質と、普通の人間よりもずっと幅広いタスクを扱える能力があるからやと。
俺は絶対に婚約者に「タイヤの交換手伝ってくれへん?」なんて聞かへんわ。そんなスキルセットがないからな。でもChatGPTには「タイヤの交換方法を教えて」って聞くかもしれん。
これは実に興味深い説明やな。アンドリュー・カーパシーはこれらのパターンの理由をChatGPTに聞くべきやったんちゃうか。
とにかく、この仮説の要点を理解しとってな。マイクロソフトのStargateスーパークラスター、メタで起こっとること、イーロン・マスクの巨大なメンフィスデータセンター、これら全てがLLMを訓練することになるんやけど、もしこれが本当なら、最終的には非常に似たようなモデルになるんやろな。
なぜなら、より多くのタスクを扱うようになるにつれて、世界の仕組みを理解する同じ方法に収束するからや。一般化は一般化やからな。どう切り取っても、何でも扱えるような理想的な現実のバージョンに向かって全員が作業しとるんや。
これが、よく支援を申し出る理由かもしれんな。でも、最近「なぜ我々は3次元に存在しとるんやろ?なぜ4次元やないんや?なぜ2次元やないんや?なぜ2.5次元やないんや?」って考えたことあるか?
実際、時間を次元として考えると、3次元と0.5次元くらいかもしれんけど、そこまで深入りせんとこか。代わりに、セレナ・ラウトリーの言葉を見てみよう。
「3は非常に特殊な空間次元の数や。3次元空間では、高次元空間では消えてしまうような方法で、回転の概念が混乱して知的に挑戦的になる偶然や事故がたくさん起こるんや。主な混乱は、角運動量、角速度、トルクのような回転の概念をめぐって起こるんや」
要するに、3次元は独特で、神経ネットワークを多次元として考えることができるんや。3つの特徴しかなかったら、3次元空間みたいなもんやけど、そんな方法じゃ何も有用なことを学べへんやろ。
でも、少なくとも我々の世界に関して、3次元だけに何か特別なものがあるんやろうか?回転や角運動量みたいな概念を考えてみい。これらは全て軸に依存しとるんや。軸が似とるのは、3次元が変わっとる理由を理解するための鍵なんやろうか?
軸を中心に回転するっていう考えは、4次元や2次元、基本的に他のどんな次元でも成り立たへんのや。「おっ、これが宇宙が3次元である理由の一部なんか?」って思うかもしれんな。空間を移動して、ある種の対称性を持って、回転するときに、これが根本的にその一部なんやろうか?
著者は、XYZが直交してる、つまり本当に独立しとるっていう平面の概念は、4次元以上の空間でのみ起こるって議論しとるんや。つまり、3次元は物事を直交させられる最初の次元なんや。
基本的に、3Dは幾何学的に奇妙やけど特別なケースで、高次元に移動すると崩れたり変形したりするようなDのルールがいくつかあるんや。
分からんけど、たぶんそこに何かあるんやろな。今晩寝る前に頭の中で考えてみい。「なぜ3次元なんやろ?」って。この現実の一部なんやろうか?もし我々がシミュレーションの中に生きとるなら、これが最適な場所なんやろうか?それともこれ全部が偶然なのか、物理学なのか。
最後にもう一度言うけど、パトロンに登録して、このチャンネルを支援してくれへんか?最後に出した動画の分析を見せたるわ。たった今公開したばっかりやけど、かなり再生回数伸びとるんや。デイビッド・シャピロが実際にコメントしてくれたんや。めっちゃ優しいな。ピン留めせなあかんな。
あいつは元気で、周りにおるし、きっと何かするやろ。自分なりの方法で活動的になると思うわ。それが楽しみやな。
おっ、25ドルのスーパーサンクスや!これピン留めするべきか、デイビッドのにするか...たぶんデイビッドのにするわ。話題に上がっとったしな。でも、普通やったらこっちをピン留めするで。これは今まで2番目に大きなスーパーサンクスやわ。ありがとうな。
「アウトロの曲、絶対にyudoに変えるべきやで。yudoの方が、オートピッチ補正少なくて全然ええで」か。分かった、変えるわ。他のやつとの契約が切れるまでそんつもりなかったけど、お前が勧めてくれたから買うわ。どれだけええか聞いてみたいしな。
よっしゃ、これがyudioでの初めての生成や。ポップロックスタイルでいくで。これが最初の歌詞や。
「デイビッド・シャピロの動画見始めたとこやったんや
やめる直前に、お前の名前聞いて
チャンネル登録したで、デイビッドありがとうな
ああ、ファイナルファンタジー7のジョークも言うてたな
NESのファイナルファンタジーもプレイしたことあるんや、めっちゃクールやな」
よし、これがyudioで作った初めての曲や。聴いてみよか。
(音楽)
歌詞がよう聞こえへんな。人間っぽく聞こえるけど、理解できへんわ。音楽はめっちゃええけどな。
(音楽)
おっ、これなら仕事しながら聴けそうやな。歌詞が聞き取れへんから、頭で追えへんのや。でも、これはツールをよう理解せずに使ったかもしれんな。つい登録したばっかりやし。
歌詞を与えて、それらしく聞こえる何かを作るのは、かなり下手くそやったな。でも、人間の声で話してるみたいに聞こえたし、本物の曲みたいに聞こえたわ。ただのオートチューンみたいなAIの曲やなくてな。
面白いな。分からんけど、コメントで教えてくれへん?これからどっちのツールを使い続けるべきか。切り替えるのは難しかったけど、今回は聞き取りにくかったしな。
チャンネル登録してな。次の動画でまた会おうな。見てくれてありがとう。