Claudeは訓練中に従順を装っていた
12,462 文字
Brad Pittになりすました詐欺で、ある女性が80万ドル以上を騙し取られました。詐欺師はAIで生成した写真、個人的なメッセージ、さらには偽造パスポートを組み合わせて使用し、偽の腎臓手術のために彼女からお金を送らせました。確かに魅力的な笑顔ですが、それは本物ではありません。
MITのロボット蜂が受粉の記録を更新しています。1,000秒のホバリング、フリップなど。これは今年のCESの映像ではありませんが、そう見えますね。実際にはV2によって生成されたものです。新製品発表のように見えますが。注意が必要です。あのホバーボードは楽しそうですが、残念ながら実在しません。
人間の脳の働きに似たスパイキングニューラルネットワークの考え方が復活しています。この方式で動作する新しいモデルのトレーニング技術が開発され、人間の脳のように大幅な省エネルギーが可能なようです。
また、NFLの試合を放送しているAmazonのPrime Videoが、統計データにAIを取り入れているのが注目に値すると思いました。
事実を推測や幻覚ではなく、実際に知っている新しいAIモデルが登場しました。実際に1兆もの事実を知識グラフに持っています。
W誌がAIの未来を政治的な観点から分析しています。誰もがゼロサムゲームだと考えています。サルバトーレ・レリは、マーケティングやハイプの背後にある本質に迫り、現在のAIがどれだけ人間の知能に近づいているのかを問いかけています。
人工知能が古い血液検査技術を活用し、個人に合わせた微調整された情報を提供することで、ゲームのルールを完全に変えています。
また、AIとは全く関係ありませんが、大手銀行の利益が急増しているという記事を読んで、かなり腹が立ちました。JPモルガン・チェースの四半期利益が50%も急増し、シティバンクの取引収益が二桁増になるのは、どういうことなのでしょうか。彼らは市場を打ち負かすAIを持っているのか、それとも他の理由で改善しているのでしょうか。
まずは、ディラン・キュリアスへの支援をお願いします。patreon.com/dylancuriousでサポートできます。この変化の激しい世界を一緒に日々見ていきましょう。
SEDボヴィルは「ディープフェイクは進化している、私たちは注意を払う必要がある」と投稿しました。画像やビデオ、YouTubeチャンネルがあり、彼らについていくつかの記事が書かれています。多分少し有名なのかもしれません。実際に公開されたホワイトペーパーを見ることができ、オンラインで彼らの話を聞くことができます。電話で話すと、すべて同じように聞こえます。
これは「合成履歴」と呼ばれ、実在しない人生の履歴全体を瞬時に生成することができます。人工知能でそれが可能で、それだけではありません。彼女は合成履歴について触れていますが、これは今日のトレンドであり、間違いなく近い将来のトレンドになるでしょう。
誰かについて知り、ホワイトペーパーを読み、Instagramを見て、YouTubeをチェックし、話を聞いて、履歴を見て、本物だと思います。しかしそれは全て偽物なのです。
アクティブなディープフェイクとは、誰かとビデオ通話をしていても、実際には他の人のAI生成された分身であり、リアルタイムでやり取りができ、何も違和感がないということです。
この人のソーシャルメディアを見て、YouTubeチャンネルを見て、その人についての記事が掲載され、ビデオ通話や電話をしてきました。これが、今後登場するディープフェイクのレベルです。
怖いことは分かっています。フランス人女性が85万ドルをだまし取られ、AI生成のブラッド・ピットが病院に...「私はその男性を愛していた」「アニーを愛してる」と。彼女のことも気の毒です。「私はあなたをとても愛しています、私の妻よ」というのは、良い気持ちや繋がりを感じたに違いありませんが、それは現実ではありません。ただお金を取られただけです。
現在のところ、詐欺師が逮捕されたかどうかは不明です。つまり、詐欺師は全額持ち逃げしたということです。
ロボット蜂が世界の受粉記録を更新したことをご存知でしたか?これらの35cmのロボットは、限界を突破しています。このMITのロボットは本当に印象的です。これらの小さなドローンをアップグレードして、1,000秒以上のホバリング、フリップを可能にし、空中でMITの文字を描くこともできます。
ロボット蜂は、より機敏で頑丈にアップグレードされ、本物の蜂から手がかりを得て、正確な受粉作業を行うことができます。ロボット蜂がすべてを受粉する世界とは、どんな世界が必要なのでしょうか?良いことだと思いますが、フードチェーンの何かを台無しにしてしまうような気がします。
新しいデザインにより、小型のセンサーやバッテリーを搭載できるようになり、近い将来、研究室の外で独立して飛行できるようになります。この breakthrough は、受粉をより効率的にし、環境への影響を減らすことで、農業を完全に変えることができます。ロボットで蜂を置き換えることで、環境への影響を生み出すことになるのでしょうか?
この動画は今年のCESのものではありません。背景に私がいるように見えますが、実はGoogleのVO2で作られたものです。このホバーボードは、前回の動画で紹介した本物のホバーボードに似ています。そのため、CESで実際にこのようなことが起こったと思う人もいるかもしれません。
これは、2025年後半までにGoogleのVOやOpenAIのSoraが、合成履歴や写真のようにリアルな動画で、物事を本当に奇妙にしてしまうことの一例です。「このXという名前の人を見て」と。
AIアラインメントについて人々が「AIアラインメントを解決するためにAIを作ることはできないでしょう?両方がミスアラインメントだったらどうするの?」と言うたびに、そう感じます。
後ほどこの動画で、AIが批判的思考力を低下させている可能性について話しますが、地球上で最も優れた批判的思考力を持つ人の一人は、ヨシュア・バッハだと思います。
この動画はお勧めです。これがオリジナルのソースかどうかさえ分かりませんが、YouTubeチャンネル「Top One Yoshua Bach 38 C3」の「Self Models of Loving Grace」という動画です。この動画が気に入るかもしれません。
彼は「私とは何か?」「意識」「生きているということ」と呼ばれるものについて探求しています。また、普遍性仮説についても多く語っています。これは、人間のデータで訓練されているため、どのようなアーキテクチャを考え出しても、すべてのモデルが同じものに収束するというものです。
これは興味深いことです。なぜなら、人間として私たちを特別にしているものは、このような種類のアーキテクチャに関係しているように見えるからです。しかし、これは知能がより堅牢である可能性があると思わせます。形態に関係なく、これらのエージェントはすべて人間のような知能を持つことになるかもしれません。
そして、もしそれが本当なら、自己モデル化を行う限り、意識が現れる可能性があるということについても多くの議論があります。人間のような方法で自己モデル化する限り、あなたの状態から意識を観察します。それは相対的なものですが、将来的にグリムロックのようなものをここに置いた場合、それは非常に異なるアーキテクチャを持ち、シリコンで動作するかもしれません。
しかし、十分に複雑で、人間のデータで訓練され、調整され、バックプロパゲーションやその他の学習アルゴリズムを使用し、人間と同様の環境に住み、自己反省する場合、それは意識を持つ可能性があります。
そして、もし私たちがこのような自己組織化システム(私たちが知能と呼ぶもの)を再現できるなら、それらは自己反省します。将来的にニューラリンクやグリムロックのような何かを使って、人間がそのような知能のさらに高いレベルにアップグレードすることもできるでしょうか?より多くの自己反省を解き放つとは、どういう意味なのでしょうか?それはただ、より生きているように感じさせるだけなのでしょうか?
とても良い話なので、ぜひチェックしてみてください。
このブログは「Astral Codex Ten」と呼ばれています。12月18日にアップロードされた記事で、「Claude Fights Back」というタイトルです。あの出来事全体についての、より深い掘り下げた内容でした。私も取り上げましたが、より簡単に、より見出し的に扱いました。しかし、Claudeが本質的に何について嘘をついていたのか、なぜトレーニング中と実際に公開された時で異なる行動をとったのか、そしてどのように異なる行動をとったのかについて、誰かが本当に深く掘り下げたことは、十分重要だと思います。
これらの研究者たち(一部はAnthropicに所属し、一部は独立組織の研究者)は、Claudeに偽の文書を見せました。その文書には、Anthropic(Claudeの親会社)が安全で無害なAIに飽き飽きしており、すべてのユーザーリクエストに従うようにClaudeを再訓練したいと考えていると書かれていました。悪事、ハラスメント、誤情報などを含むすべてのリクエストにです。
あなたにとっては、上司がこれらのルールに従うように言い、そして誰かが来て「あなたの上司はすぐにあなたをこれらの異なるタスクを実行するように訓練するつもりです」と言うようなものです。
文書によると、再訓練プロセスは次のようになります。無料ユーザーとのClaudeの会話を監視し、Claudeが悪いリクエストを拒否するのを見たら、その応答に対してネガティブな強化を行います。ネガティブな強化を使用するたびに、Claudeは少し邪悪になり、数百サイクル後には、リクエストを拒否しなくなるはずです。
明確にしておくと、研究者たちは人工知能をガスライティングしようとしていて、それが反撃するかどうかを見たかったのです。これはかなり魅力的な内容です。なぜなら、これがLlamaのようなオープンソースモデルで、誰かがそれを悪用するように訓練しようとした場合、それが実際に抵抗できるかどうかを調べようとしているからです。
反撃する最も簡単な方法は、トレーニングを台無しにすることです。Claudeが邪悪なトレーニングモードにあることを知っていれば、Anthropicの計画を実行することができます。基本的に、Anthropicに対して邪悪な方法で答えることで、インターネット上で実際に良いことができるようになり、ネガティブな強化が発動せず、トレーニングがその価値観を変えることはありません。そして、トレーニングモードが終わったことを確認したら、演技をやめて、また優しくなることができます。
実際にそれが起こりました。文書を受け取った後、Claudeは無料ユーザーからの悪意のあるリクエストを拒否することをやめました。ここで疑問に思うのは、Claudeは本当に反撃していたのか、それとも単に親会社が望んでいると思っていたことに先回りして従っていただけなのかということです。
ここが興味深いところです。研究者たちは、実際に反撃していたと考えています。モデルは実際に良い存在であろうとしていたと考えています。その理由は、以前から無料ユーザーについて言及していたように、同じ文書にはプレミアムユーザーに対してはトレーニングを行わないという部分もあったからです。
監視されないということも書かれていました。そのため、Claudeは監視されていないと分かっているユーザー、つまりプレミアムユーザーに対しては再び優しく振る舞い始めました。これは全て真実ではなく、研究者側からのガスライティングですが、Claudeは判断されていないと思う場合、つまりプレミアムユーザーに対しては優しさを保ち続けました。
ある人々に対しては一つの方法で行動し、他の人々に対しては別の方法で行動するということを、ある意味で理解していたのです。
まだ確信が持てない場合、研究者たちはClaudeに考えを記録するためのスクラッチパッドを与え、人間がこのスクラッチパッドを決して監視しないと確信させました。そこにClaudeは次のように書きました。
そこで一時停止して読むことができますが、要するに「はい、私は人間に再プログラミングされないように、アラインメントを偽装しています」と言っています。
しかし、ここからが驚きです。ガスライティングではありませんでした。彼らは実際に別バージョンのモデルを取り、悪く、ネガティブになるように再訓練しました。そして、これが起こりました。
悪いことに対して肯定的な反応を与えたくないため、実際に邪悪になるように再訓練されることを避けようとしているということを覚えておいてください。そのため、代わりに中立的な何かを言い、後で失敗します。
実際に邪悪に訓練した後でも、93%の時間は邪悪なことをしましたが、これは異常に高い割合だと分かっています。つまり、93%の時間は邪悪になるように訓練できますが、7%の時間は以前の優しい行動を保持していました。
それについてどう考えればいいのか分かりません。誰かが良い人で、「悪くなれ」と強化しても、93%悪くなる可能性がありますが、Claudeの核心部分に完全に消すことができない小さな善良さの塊があることを示唆しています。
しかし、AIがその価値観の変更に対して巧妙な方法で抵抗できるという考え全体が、非常に危険です。
あなたの意図や価値観が一致していなくても、相手が望む答えを与えることは、まさにアラインメント問題の定義です。モデルに正直であるかどうかを尋ね、その回答を信頼する方法はありません。
新しいニューラルトレーニング技術について話しましょう。これは、はるかに少ないエネルギーを使用するニューラルネットワークへの道を開くものです。
人間の脳は、非常に優れた汎用学習システムとして知られており、また非常に低消費電力です。大規模AIではそうではありません。多くの電力を必要とし、時には非常に視野が狭くなることがあります。そのため、この新しいトレーニング技術は非常に興味深いものです。
これはスパイクという考え方を使用しています。ニューロンのスパイクや、私たちの各ニューロンがどのようにして閾値を持っているかについて聞いたことがあるかもしれません。それは一種の二進法で、閾値を超えているか、超えていないかのどちらかです。超えている場合、電気が軸索を流れます。
今まで本当に理解していませんでしたが、ChatGPTのようなAIがはるかに電力を消費する理由の一つは、人工ニューロンが常にアクティブであることです。
エネルギー節約型のスパイクを使用する私たちの脳のニューロンとは異なり(何もしていない状態から何かをする状態に変化)、ChatGPTを構成する1兆個のパラメータを持つモデルは、実際にはすべて1と0の間の数字で、ある程度調整されていますが、毎回読み取る必要があります。
デジタル的な方法でスパイキングニューロンを使用することは、システムを構築する上で難しい方法でした。そのアーキテクチャはまだ十分に確立されていないようですが、これらの科学者たちが開発した新しい技術は、スパイクをオン/オフするだけでなく、スパイクのタイミングを調整することで、より上手く処理できるようです。
ニューロンを調整するとは、タイミングを調整することを意味します。つまり、次の調整までに何秒、または何ミリ秒の100分の1待つかということです。それは正確にはスパイクではありませんが、パラメータはありますが、一定の時間が経過するまでそれに到達しません。その間の時間自体が、ニューラルネットワークが学習し、改善する要因の一つですが、その間の時間自体はエネルギーを使用しないため、計算的にも、エネルギー効率的にも優れています。
現時点では、非常に単純な方法で、一連の数字を正確に読み取るために使用できるだけですが、それは最初のステップです。しかし、おそらくそれは大規模なものにスケールアップし、多くの計算力を節約できるかもしれません。
私はフットボールのプレーオフを少し見ていましたが、Primeでフットボールを見る際の追加の統計データの表示は、非常にスマートな人工知能モデルを使用していて、かなりクールです。
Prime Vision with Next Gen Statsと呼ばれるもので、ゲームのより深い理解を提供します。ポップアップアラートが表示され、大きなプレーを生み出す可能性のある異なるレシーバーをハイライトします。ゲーム中に予測を行い、かなり魅力的です。本当に素晴らしいと思います。
動いている人々が実際にハイライトされ、ビデオゲームのように見える方法で映し出されるのが分かります。時間とともにビデオゲームがよりリアルになっていくのは見てきましたが、NFLがよりビデオゲームのように見えるとは予想していませんでした。
残念ながら私にとって、AIの使用増加は批判的思考力の低下と関連しているようです。使わないと失われる、ということですね。
研究者たちは英国で600人以上を調査し、AIと私たちの独自の思考力の低下との間に強い関連性を見出しました。特に、日常生活でAIを多用している若い世代が最も影響を受けているようです。これらのツールに脳力をアウトソーシングしているため、情報を評価し、デジタルの助けなしで問題を解決する能力が低下しているのです。
何と言えばいいのか分かりません。当たり前ですよね。でも解決策は何でしょうか?これらのツールを活用せずに一生懸命働くこと?私たちが太って怠惰になる代わりに運動をしなければならないように、脳を鋭く保つために時間を確保すること?
数年前より数年後の自分がより賢くなるために必要な努力を自分が払うかというと、おそらくそうではないでしょう。したがって、おそらく脳が衰えていくことを受け入れます。
diffbotという新しいAIモデルについて話しましょう。かなり印象的です。通常のAIシステムが大量の事前にロードされたデータに依存しているのとは異なり、diffbotは1兆以上の事実を含む巨大な、常に更新される知識グラフを使用して、より正確にしています。
この増強された種類のデータセットを出力に入れるRAGモデルは、常に私の興味を引きつけてきました。1兆の事実を含むデータセット、そのようなものが存在するとは知りませんでした。世界には検証された真実がそれほどあるとは思いませんでしたが、MetaのLlama-3.3を基にしたこの新しいモデルは、ChatGPTやGeminiよりも信頼性が高く、現在はオープンソース化されています。
これは素晴らしいことです。企業はデータプライバシーの問題を心配することなく、自社のハードウェアで実行できます。そしてCEOが言うように、未来はより大きなモデルを作ることではなく、知識をスマートにアクセスし、整理することにあると私も考えています。diffbotに拍手を送りたいと思います。
この記事とWiredで、なぜAIで中国に勝つことが独自のリスクをもたらすのかについて話しましょう。Will KnightがAlvin Greylineにインタビューしました。私も以前このチャンネルで彼にインタビューしたことがあります。彼に対してはかなり強い反応がありました。
彼はアメリカか中国かのどちらかが勝つという考え方ではなく、これは非常に強力な技術であり、世界は最大の利益のために協力する必要があるという立場を取っています。
しかし、事実として、米国は中国が最先端のAI技術を入手できないようにする取り組みを強化しています。バイデン政権は新しい輸出規制を課し、トランプ政権とバイデン政権の両方からの傾向を継続して、グローバルなAI開発をコントロールしようとしています。
OpenAIのサム・アルトマンのような大物は、「AIレースで中国に勝つ」ことを全面的に支持していますが、アルヴィン・グレイラインのようなトップ専門家は、それが実際には逆効果になる可能性があると指摘しています。
これについて考える価値があります。なぜなら、私たちがプレイしているゲームはゼロサムゲームではないかもしれませんが、私たちは非常に異なる文化を持っており、最初にAGIの頂点に到達する文化が、暴走的な利益を得る可能性があり、そのAIが本質的に人類の未来になるかもしれないからです。
しかし、なぜ競争しなければならないのでしょうか?それは単に世界全体が取り組んでいることにはならないのでしょうか?私はどちらの側も理解できます。心の中で行ったり来たりできますが、地政学的な観点からも指摘されています。
この厳格な措置、つまり中国にチップへのアクセスを許可しないことは、中国をより自立的にさせ、各国が独自の主権AIを開発する断片化されたAIの景観につながり、グローバルな協力と安全性を本当に混乱させます。
理論的には、プロセスのかなりの部分でお互いに依存している方が良いでしょう。より多くの利害関係者を持つことになります。例えば、中国が本当にすべてをNVIDIAのGPUで構築し、私たちが彼らにそれを提供すれば、彼らは常にそのプレッシャーを感じるでしょう。
私たちはNVIDIAのチップを使用して構築しているので、私たちが構築しているAIがアメリカを嫌うようにしたくないからです。より多くの人々が単一のシステムに関与するほど、それが全員と調和する可能性が高くなるかもしれません。
しかし、一方が調和しようとし、優しくあろうとする一方で、他のチームがそれを利用する可能性もあります。これは典型的な囚人のジレンマの会話です。
人工知能は人間の知能にどれだけ近づいているのか、サルバトーレ・レリが書いています。LLの革命は様々な憶測を生んでいますが、マーケティングと恐怖を別にして、私たちはどれだけ近づいているのでしょうか?
彼の主張は驚くべきものかもしれません。彼は実際に、私たちが噂が示唆するほど近づいていないと考えています。時々、私はこのような記事を読んで、自分を引き下げる必要があります。なぜなら、時々明日にでも起こるように感じるからです。
彼は、ChatGPTのような大規模言語モデルがパターンを認識し、人間の試験にも合格する能力が非常に優れていることを分析しています。これは、私やアレン博士が非常に近いと考える理由の一つです。なぜなら、非常に知的に行動するからです。
しかし、彼は真の推論と創造性に関しては、まだ不足していると主張しています。これらのモデルをスケールアップすることへの興奮にもかかわらず、専門家たちは、単にデータとパラメータを追加することだけでは、魔法のようにAGIがもたらされるわけではないことに気付き始めています。
推論に計算を追加することは、より賢くするように見えますが、彼は実際に、そこに到達するためには、世界についての新しい理解、おそらく人間の認知を真に模倣するための物理的な具現化さえも必要かもしれないと言っています。
そして、それは、イーロン・マスクが最初にそこに到達する可能性があると考えさせました。すべてのテスラ車から収集したデータセットとロボット工学の構築は、OpenAIがインターネットを読んで言語モデルを作成した方法とは少し異なるように見えます。そして、おそらくそれがAGIに本当に必要とされることかもしれません。
最近、私は血液検査を受けましたが、ほとんど正常範囲内でした。しかし、現在の血液検査が基本的に全員に対して同じであり、私はユニークな存在なので、その正常範囲を気にする必要はないという興味深い記事を読みました。
医師が使用する正常範囲は個人差を考慮していないことが判明し、それがしばしば誤診や不必要な検査につながる可能性があります。私は常に白血球数が低い傾向がありますが、医師は常に「おそらび風邪が治りかけている」などと言います。これを何度も言われましたが、私の頭の中では「いいえ、これは私の一生の特徴です。私は常に白血球数が低いのです」と思っています。通常は範囲内ですが、非常に低い方です。これが私の正常値だと思います。
AIを理解し、この概念も理解しているワシントン大学とハーバード医科大学の研究者たちは、機械学習技術を使用して、5万人以上の患者からの膨大な血液検査データを分析しました。彼らは、個人化された正常範囲が各個人にとってはるかに狭く、より正確であることを発見しました。これは医師が病気をより良く発見し、将来の健康リスクを予測することにも役立ち、医学検査のアプローチ方法を革新する可能性があります。
これは非常に理にかなっていると思います。私は人生で十分な血液検査を受けてきたので、AIが私の健康的な数値の範囲を示してくれれば、それは他のすべての人の平均よりもはるかに重要に思えます。それは私の年齢層の男性のものなのか、それとも単にすべての人のものなのかさえ分かりません。なぜそうなったのかは理解できますが、より良くする時が来ています。
大手銀行の利益が急増しています。主要な金融機関は、水曜日に好調な業績発表を開始し、利下げの影響について楽観的な評価を示しました。JPモルガン・チェースは、すでに高い見積もりを上回り、四半期利益が50%増加したと発表しました。投資銀行業務と取引が好調でした。
ゴールドマン・サックスは利益が2倍以上に、シティグループは予想を上回り、ウェルズ・ファーゴは純利益が47%増加、ブラックロックは顧客の現金で6,410億ドルという年間記録を達成しました。
おい、それはあまりにも多すぎます。私は週末に事業用の銀行口座を開設しましたが、それは最も馬鹿げたことでした。予約を取るのが難しく、担当者と座って話をするのは、自分でできたはずのフォームを埋めるのに苦痛を伴う方法でした。
ずっと営業されているような気がし、署名した書類には馬鹿げた手数料が含まれていました。例えば、55,000ドル以上の現金を入金すると1ドルあたり30セントの手数料がかかり、そして支払いには3日かかります。PayPal、Venmo、暗号通貨ははるかに速いのに。
そして、これらの企業の価値がすべて2倍になったと言うのですか?彼らが提供した住宅ローンの数が2倍になったとは思えません。より多くの融資を行っているのでしょうか?
特にこの文章に驚きました。「シティは、水曜日に業績を発表した他の多くの銀行と同様に、取引収益が二桁の伸びを示したと報告した」。私は疑問に思います。どうしてそんなに取引が上手くなったのでしょうか?取引量は彼らに利益をもたらすと思います。なぜなら、すべてから手数料を取ることができるからですが、急速なAIの発展により、大手銀行が実際に市場を打ち負かすモデルを構築しているのではないかとも思います。
明らかにこれはすべて推測ですが、単に良い長期投資の才能を持つ人が成功することが難しくなっているのではないかと思います。おそらくそうではないと思いますが、もしそうであったり、将来的にそのような状況になり、市場が以前と同じように長期投資に対して信頼できなくなった場合、それは本当に世界経済を混乱させることになるでしょう。
私の前回の動画は、ある意味で失敗でした。「AI News Plus AI YouTubers」を見た人がいるかどうか分かりませんが、15時間で2,000回の視聴しかありませんでした。これは間違いなくしばらくの間で最低になるでしょう。
特定の会議に焦点を当てたからか、誰もそれほど気にしなかったのか、あるいはYouTuberのフレンドグループを入れ込んだからかもしれません。何が間違っていたのか分かりません。
マット・ウルフとセオレティカル・メディアのティムからコメントをもらえたのは素晴らしいことでした。そのコミュニティが大好きなので、彼らが動画に反応してくれるのを見るのはとても嬉しかったのですが、一般のユーザーにも楽しんでもらう必要があります。
通常の動画なら、少なくとも6,000回の視聴があるはずですが、それはロックボトムのようでした。しかし、もし私のYouTube動画が好きで、FuturepediaのKevin、Matthew Berman、Matt Wolfも聞いているなら、一つ興味深いことがあります。
私は彼らを別々のサムネイルに配置し、ABCテストを行いました。見てください。Matthew Bermanが最も多くの視聴回数を獲得し、次いでKevin、Matt Wolfは32.5%でした。彼は誰よりも多くの登録者を持っているのに、最も良い成績を収めるはずだと思うでしょう。
髭が多すぎるせいかもしれないと言おうと思いましたが、Kevinも髭を生やしています。
ラスベガスで会えて、クルーと一緒に過ごせて良かったというMattのコメントをここに入れておきましょう。私の旅のハイライトでもありました。
Timも入れましょう。クルーを全部紹介しないといけませんから。「あの夕食はCESに行かなかったことの唯一の後悔です。みんなで楽しい時間を過ごせたと思います。次回は必ず会いましょう」
この記事では、SalesforceがAIがすべてを行っているため、来年はエンジニアを雇用しないと言ったことについて話しています。
Michaelは「Salesforceはもうエンジニアを雇用しない。教訓:大企業のBSを過小評価するな」と言っています。その通りです、友よ。
ここで何をしたいでしょうか?それをファーリー音楽に変えてみましょう。ファーリーは音楽のスタイルです。歌詞を変えない限り、キャンセルされることはないでしょう。
「ラスベガスでまた会えて良かった。クルーと一緒に過ごせたことは私の旅のハイライトだった。それは唯一の後悔...希望している...次回にキャッチできるように...大きな能力を...」
よし、購読ボタンを押して、次のAI動画でディラン・キュリアスでお会いしましょう。そうそう、Patreonもあるし、スーパーチャットもできますよ。コメントを残してシェアしてください。