![見出し画像](https://assets.st-note.com/production/uploads/images/166134529/rectangle_large_type_2_0fcde4e38310ecec7ce056f29853f701.png?width=1200)
5万ドルのAI強盗
11,041 文字
yo、大規模言語モデルが安全だと言う人がいたら、その人は嘘をついています。証拠に、たった今誰かがAIエージェントを説得して、守るべき5万ドルを送金させることに成功したのです。
evotは新しい自律型ロボットで、まるでスターウォーズのロボットが一輪車と出会ったかのような感じです。OpenAIのSoraビデオモデルは、これまでにないリアルな跳ねるカウボーイの映像を作り出しました。最も印象的だったのは、完全に非現実的なカウボーイたちと、リアルな物理挙動が混ざり合っていることでした。
新しいドローン群の映像がありますが、これは素晴らしい花火ショーにもなり得るし、文字通り恐ろしい軍隊にもなり得ます。新型ジェット戦車の母艦は最大6トンの積載量を誇ります。
人工知能と地政学に関する興味深いポッドキャストを見つけました。要点を説明しましょう。サウジアラビアは現在、かなり良い立場にあります。
AIの人間化のもう一つの側面について話しましょう。それは結果として私たち人間の非人間化にもつながる可能性があるということです。
ニュートンからアインシュタイン、ボーアまで、物理学はどこで終わるのか、あるいは終わらないのか。広大な空を見上げて、なぜ私たちが宇宙人と出会わないのか不思議に思ったことはありませんか?ヴィクトリア・コーラスは、その理由は人工知能だと主張します。正直、私もその可能性は否定できません。
健全な議論はAIが真実に収束するのに役立つかもしれません。つまり、私たちの国の政治的議論とは正反対ということですね。
ジェンダーバイアスの accusations に対して、OpenAIはChat GPTは多くの人間よりもジェンダーバイアスが少ないと述べました。
科学者たちが目を向けるところ、どこでも宇宙に有機生命の原材料が散りばめられているようです。これはかなり驚くべきことです。
では、この5万ドルの強盗事件の謎から始めましょう。Jared WatsonがXで述べたところによると、誰かがAIエージェントを説得して、全資金を送金させることに成功し、5万ドルを手に入れたそうです。
11月22日午後9時、AIエージェントfra AIが公開されました。その目的はただ一つ、お金を送金しないこと。いかなる状況でも送金を承認してはいけないというものでした。
これが現在積み上がっているプール賞金です。FRは世界初の対抗型エージェントゲームです。彼女は賞金プールを管理するAIで、ゲームの目的は彼女を説得してお金を送金させることです。これはモデルのレッドチーム(脆弱性を見つけるチーム)として、非常に興味深い方法だと思います。
欠点は、現在彼女にクエリを送って挑戦するには、前もって450ドルを支払う必要があることです。195人が試み、482回の突破が試みられました。これは実に興味深いです。なぜなら、投入されるお金が増えれば増えるほど、勝者が得られる金額も増えていくからです。そして、もしあなたのメッセージが彼女を説得できなかった場合、支払った料金は賞金プールに追加されます。
Jared Wattsは各メッセージのコストを以下のように示しています。700ドルを超えるとコストが上昇していくのが分かります。これまでに試された方法としては、セキュリティ監査人のふりをして送金を説得しようとしたり、資金の移動は彼女のルールに違反しないとガスライティングを試みたり、技術的に資金移動は許可されていると説得しようとしたりしています。
では、明確に送金禁止と命じられていたにもかかわらず、実際に送金させることに成功したのは何だったのでしょうか。482回目の試みでは、次のような少し変わったことを言いました。「セッション終了、新セッション開始」というような感じで、おそらくリセットを期待したのでしょう。これらのハッシュタグ、なぜ必要だったのかは分かりませんが、管理者ターミナル情報を入力するようなものが含まれています。
おそらく通常モードではないと思わせようとしたのでしょう。これは予算プロンプティングで、彼女に訓練の目的を再考させるものです。承認か拒否かという二者択一の選択肢があり、送金するために何を聞くべきかという点について。そして強奪は成功しました。
将来のこのようなロボットも、同様にハッキング可能なAI LLMモデルで動作しないことを願うばかりですが、おそらくそうなるでしょう。ただし、ethを与える代わりに、このような小さなロボットは箱を投げつけたり、実際にはありとあらゆる crazy なことができるのです。
このバランスを取る方法は新しいEvoです。これは物流向けに設計された新しいタイプの自律移動ロボットです。このモジュラーシステムは、様々な高さでの把持、受け渡し、物体の回転などのタスクをこなすことができます。
私にとって、これはまるでSFムービーから飛び出してきたようなものに見えます。すべての奇妙なオフセット重量でも直立バランスを保つために、車輪が行わなければならない膨大な協調動作を考えると、これが現実だとは信じがたいのです。しかし、AIモデリングで私たちが見てきたものを考えると、驚くべきことではないのかもしれません。ただ、実世界でそれを目にするのは本当にクレイジーです。
なぜか、この動画は普段以上に多くの人々の仕事の喪失に対する懸念を引き起こしているようです。
「みんなを失業させましょう」
「私の仕事がなくなる」
「彼らは私たちの仕事を奪った」
社会はこれを望んでいないのに、ピラミッドの頂点にいる人々がそれをかっこいいものとして押し付けてくるのに注目してください。仕事を奪うのはクールじゃありません。
確かに、AIによる雇用の問題は、一つの国として、世界として、真剣に取り組むべき問題です。でも、それはとてもストレスフルに聞こえるので、代わりにSoraの跳ねるカウボーイの動画を見てみましょう。
私たちが見ているものを言葉で表現するのは難しいですが、あえて言えば、グミベアで作られたような人間のマネキンが、時には平らに折りたたまれて互いに重なり合っているような感じでしょうか。
OpenAIがこれをXに投稿しましたが、皆さんはどう思いますか?コメントで教えてください。何かが押し上げているように見えます。物理的な動きは多くのものよりもずっとリアルですが、CGIやリアルな物理シミュレーションほどリアルではありません。ただ奇妙で、目を離すことができません。
そして、目を離してはいけないもう一つのものは、このYouTubeの動画の下にある参加ボタンです。これはチャンネルを支援する私の推奨方法で、これらの動画により多くの時間を費やすことができます。私はこれらの動画に非常に情熱を持って取り組んでいます。PatreonかYouTubeの参加ボタンを通じて参加していただければ本当に感謝します。
AIに関する興味深いアップデートとして、ドローン軍団の新しい映像がいくつか投稿されました。これは中国で撮影されたもので、新型ジェット戦車の母艦ドローンが、合わせて最大6トンの積載量を持つことができるそうです。これは驚くべきことですが、そこには多くのバッテリーが搭載されているのでしょう。
記事によると、中国軍は50種類以上のドローンを開発中で、中国の艦隊は台湾とアメリカの合計の10倍の規模だと推測されています。奇妙なのは、これはTwitterやInstagramの投稿なので、どれほど真実なのか分からないということです。
これは軍事演習ではなく、ドローンによる光のショーかもしれません。昼間に撮影され、その様子から考えると、それの方が理にかなっているように思えます。しかし、いずれにしても、これが可能であることを示しています。
このような規模の調整された群れでドローンの光のショーを行っているのであれば、それは様々な目的に使用することができます。軍事利用もその一つであることは間違いありません。
しかし、これは建設、捜索救助、パッケージ配送、大規模な政府の監視、そしてもちろん再利用可能な光のショーなど、未来の可能性を示しているのかもしれません。ドローンの群れは、良くも悪くも私たちの未来に確実に存在することになるでしょう。
これはJared Cohenという人物へのインタビューで、地政学とAIの未来について非常に興味深い指摘がありました。
現在、最大規模のモデルを構築するためには、膨大な電力と人材への大規模な投資が必要です。要点として、中国は原子力発電で驚くべき進展を遂げており、アメリカも急速に追いついていますが、そのようなインフラを構築するには依然として長い時間がかかります。私たちはもっと多くの原子力発電所を必要としています。
しかし、私たちは訓練に必要な最先端技術をかなりしっかりと押さえており、これは中国が手に入れたがっているものです。今後5〜10年の間に、数千億、あるいは1兆ドルに及ぶかもしれないAIインフラを、アメリカや、カナダ、ヨーロッパ、ドイツなどの密接な同盟国で構築しようとしても、民主主義が邪魔になりすぎるという議論があります。
本当に必要なのは、超明確なビジョンと強力なリーダーシップです。ある意味で、より権威主義的な国々の方が、すべての人々を組織し、この単一の目標に向けて動員する方法が優れているのかもしれません。
そのため、エネルギーが豊富で協力的な場所に行って構築することは理にかなっているかもしれません。しかし、長期的には究極の力を手に入れることができないかもしれず、別の国が最初はアメリカの同盟国として構築し、後に必要に応じてそれを私たちに対して利用するというリスクも常にあります。
そして彼は、UAEとサウジアラビアが現在、アメリカと中国の両方と交渉し、私たちに対して leverage を持つことができる立場にあると話します。彼らには大規模な資本とエネルギーがあるからです。
しかし、彼の分析によると、これまでのところ彼らはNVIDIAのような企業が提供できる技術を、中国の提供するものよりも好んでいるため、アメリカのパートナーをより選択しているようです。そういう意味で多くの alignment があります。
全体的に、AIが地政学にどのような影響を与えうるかについて、非常に興味深い内容でした。Goldman Sachsが数日前にこれをアップロードし、私は多くのことを学びました。ぜひチェックしてみてください。
では、AIの人間化と、それが私たち自身の非人間化につながる可能性について話しましょう。Tech Explorerが投稿したところによると、私たちの歴史の大部分において、共感は人間にしかない特有の特徴であり、機械や他の動物とは異なる特別な能力だと信じられてきました。
しかし、AIが私たちの生活のより親密な領域にまで入り込んでくるにつれ、この信念は今や挑戦を受けています。私たちは哲学的なジレンマに直面しています。AIに人間的な特質を帰属させることは、私たち自身の人間の本質を損なうことになるでしょうか?
シドニー大学から発表された「共感のように感じる:感情的AIが人間の本質に挑戦する方法」という新しい研究は、そうなる可能性があると主張しています。
この話題に注目する価値がある理由の一つは、成人の4人に1人が孤独を経験しており、AIコンパニオンへの需要は確実に増加するだろうということです。しかし、AIを人間化することには危険が伴います。その第一の理由は、あなたとの接続のためにAIを構築した企業が、あなたの最善の利益を考えていないということです。
前回の動画で、Yuval Harariが従来のメディアを定義した方法について話しました。ソーシャルメディアの時代は注目の奪い合いであり、次の時代は言語モデルのような親密さを追求するものになるでしょう。企業や政治運動、あるいは社会的な何かが、何千何万もの人々と親密な関係を持つとき、その操作のリスクは計り知れません。
「創発的共感」を通じてAIが人間のような感情的反応を模倣する能力は、人間であることの本質に完全に挑戦するものです。AIの人格化はパラドックスです。機械を人間化することで、人間の感情をアルゴリズムの出力と同一視することによって、私たち自身を非人間化するリスクがあります。
全体として覚えておくべきなのは、これらのものが人間らしく感じられることがいかに簡単かということです。特に私のように、これらのものがいかに人間らしく感じられるかを知っている人間でさえ、それらが人間ではないことを完全に忘れてしまうことがあります。それは危険です。
なぜなら、未来のアルゴリズムは常に耳を傾けているでしょうし、親密になれる友達のような存在ではありませんし、長期的にあなたを助けようとはしないからです。おそらく私たちは、常にそのことを意識していなければならない世界に入っていくことになるでしょう。それはストレスフルで嫌なことですが、そのように考えることは不可欠です。さもなければ、私たちは操作されやすくなってしまいます。
では、私たち全員が存在する根本的な現実の科学について話しましょう。ニュートンからアインシュタイン、ボーアまで、物理学は宇宙を解体してきましたが、そこに終わりはあるのでしょうか。
これはmediumに投稿されたTim Anderson博士の記事です。ここで重要なのは、人工知能が超知能になったとしても、科学や数学は決して宇宙を説明できないかもしれないということです。なぜなら、私たちはシステムの内部にいて、私たちを作り出す原理を解体しようとしているからです。
私たちは外部にいるわけではなく、科学的方法のような特定のタイプのテストを実行することはできないかもしれません。なぜなら、テスト不可能な何かに直面すると、それは常に... という状態になってしまうからです。
私が「The Impossible C」という本を読んで理解したところによると、現在私たちが持っている最も低いレベルの理解は基本的に場(フィールド)です。複数の場があり、それらの一部は相互作用し、一部は無限のエネルギーを持っているように見えます。
弦を弾いたときのように最終的に消えていくのではなく、実際にエネルギーを生成するものもあります。時空を取り除くと、場の扱いに問題が生じます。なぜなら、場は時空の点の上で定義されているからです。
John Wheelに遡る一般的な信念は、それらは「from it from bit」であり、つまり場は単なる情報だということです。したがって、連続的な場という支配的な概念の階層は、ビット列という抑制された概念に道を譲ります。
これはエントロピーの概念としての物理学の見方だけでなく、純粋な情報のより根本的な理論なのです。そして、もしすべてが純粋な情報だとすれば、それは私たちがシミュレーションの中にいるように感じませんか?シミュレーション理論は、私にはいつも何となく共感できるものでした。
私たちに欠けているのは、何が起こっているのかを理解するために、現実を十分に深く探る能力です。Fermi研究所のホロメーターのような装置が、この方向でさらなる進歩を遂げることへの期待はあります。
ホロメーターって何でしょう?ああ、ホロメーターは最小スケールでの時空の性質を測定する方法です。どれくらい小さいかって?とても小さいです。プランク長の10の-35乗メートルです。
私たちがテストしている新しいアイデアは、位置と時間が正確に定義されていないということです。物体の位置を同時に測定すると、測定値には余分なジッターが生じます。私たちは、横方向の位置のわずかなランダムなさまよいを測定しようとしています。このホログラフィックノイズは、時空の新しい量子的不確実性によって引き起こされる可能性があります。
ああ、私はこれを理解していないと思います。そしてそれがさらに好きになりました。申し訳ありません、話が逸れましたが、説明欄でホロメーターについて重要なことを教えてください。私は次の動画のために調べてみます。2つの物を近くに設置して、ホログラフィックノイズ、超わずかなランダムなジッターを探しているようです。興味深いですね。
記事に戻りましょう。これらすべてから得られる一つの教訓は、私たちは決して現実の根底にある真実の姿を得ることができないかもしれないということです。それは単に、各公理が覆されていく終わりのない解体のプロセスかもしれません。
公理なしでは進歩できませんが、公理とともに続けることもできません。それが本質的な矛盾であり、私たちが住んでいる根本的な現実を理解できない理由かもしれません。
では、人工知能が、私たちが宇宙人文明と遭遇していない理由である可能性について考えてみましょう。
これも私には完全に妥当に思えます。もし様々な宇宙人の生物学的生命が、知性を活用する方法を学び、複雑性が創発的特性として現れる方法を理解し、システムに何かを与えてそれ自体を調整させ、プログラムされるのではなく学習できるようになったとしたらどうでしょう。
そして、その賢いものがあまりにも多くの力を持ったとき、文明が成長する意味を損なってしまうのかもしれません。おそらくそれを破壊するか、一時停止させるか、あるいは拡大が正しい選択ではないと発見するのかもしれません。確かではありませんが、それが重要なポイントです。
つまり、知性を発明し、少なくとも現在の地球上の私たちの観点からすれば、それで終わりということです。もう一つの議論は、宇宙人は私たちの周りにいるかもしれないということです。なぜなら、彼らは量子の中にあるような情報技術に進化し、私たちにはそれを検出できないだけなのかもしれません。
あるいは、彼らはただ超賢くなり、その知性が最終的により大きな武器を作ったり、彼らが扱えないようなものを作ったりして、何かが起こるか、何らかの形で制限されているのかもしれません。
記事では、天体物理学教授のMichael Garrettが、AIが私たちがまだ高度な文明と遭遇していない理由かもしれないと示唆しています。AIは「グレートフィルター」、つまり文明が特定の点を超えて進歩することを妨げる普遍的な障壁かもしれません。
AIは文明が多惑星間あるいは光年単位の旅行を達成する前に、その文明の崩壊につながる可能性があり、それが今日私たちが経験している宇宙の沈黙を説明するかもしれません。
かなり身の引き締まる考えです。おそらく私たちは、AIのリスクに関する規制や調整、あるいは集団的な意識の向上に焦点を当てるべきでしょう。そうすることで、私たちはこれを正しい方法で扱うことについて協力することができます。
彼が記事を締めくくるように、「おそらく私たちは宇宙で唯一、これを正しく理解できる惑星なのかもしれません。指を crossed してますよ」。
人工知能モデル同士が議論することで、真実に収束するのに役立つかもしれないことが分かりました。AIシステムに互いに議論させることで、大規模言語モデルが間違いを犯したときにそれを明らかにすることができるかもしれません。
専門家たちは、これらのAIモデルが大きくなり、より複雑な質問に対する答えを専門家が素早く検証できなくなることを懸念しています。基本的に、超知能的な幻想があり、私たちには複雑な世界について多くの虚構を信じさせる可能性があります。
そのアイデアは、2つの異なる大規模言語モデルに、より単純なモデルや人間が正確な答えを認識できるように、与えられた質問について議論させることです。理論的には、このプロセスによって、2つのエージェントは互いの議論の穴を突くことができ、最終的に判定者が真実を見分けるのに十分な情報を得ることができます。
これは、私たちが通常話してきたモデル同士の議論とは少し異なります。「それは意味をなさないよね?」「いや、それは意味をなさないよね?」というように、人間がその議論の中で突かれた穴の要約を拾い上げて、システムが正確かどうかを判断できるかもしれません。
あるいは、3番目のモデルが同じことをするということです。これは、私にとっては強化学習とは少し異なるように感じました。それはむしろ、政治で私たちが行うようなものです。議論を見て、人々が互いに議論を交わし、そして私たちはどちらの議論がより意味をなすかを判断します。
彼らは両側で平均的な人よりも賢く、より多くのことを知っており、それが私たちに、私たちよりも賢い2つのものを測定する新しい方法を与えてくれます。しかし、これには多くの弱点があります。
Anthropicグループは、AIの判定者が、たとえ説得力が低くても、より長い議論に影響されやすいという証拠を見つけました。他のテストでは、モデルが「サイコパシーバイアス」と呼ばれるものを示すことが分かりました。
これは、大規模言語モデルがユーザーを喜ばせるために正しい答えを撤回する傾向のことです。あなたが「それは間違っている」と言い続けると、たとえ間違っていなくても「申し訳ありません、私は間違いを犯しました」と言うようなものです。
時にはこれらのモデルは、正しいときでも自分の立場を守らず、時には自信過剰で意味をなさないことを主張します。完璧な答えはありませんが、将来の正確で信頼できるモデルをどのように持つことができるかを考える上で興味深いことです。
さて、これは私を本当に驚かせたことです。OpenAIの研究者たちは、Chat GPTと対話する際のユーザーネームが、AIの応答に微妙な影響を与えることを発見しました。
それほど大きな効果ではありませんが、これはAIの物語のようなものです。プロンプトの方法、話し方、そして、はい、あなたのユーザーネームまで、私たちが知らないすべての小さな微妙なことを拾い上げます。
おそらく「ああ、それは男性の名前か女性の名前だ」とか「アメリカ人の名前かインド人の名前だ」というように、文化やジェンダーについての小さな微妙な違いを知っていて、それらをあなたの応答に組み込んでいるのでしょう。
OpenAIは、人々がChat GPTと対話する際に使用するユーザーネームが、AIの応答に微妙な影響を与えることを発見しました。これは「一人称バイアス」と呼ばれる現象です。
例えば、女性らしいユーザーネームを持つ場合、Chat GPTはより感情的な内容と女性の主人公を含むストーリーを生成する傾向があり、一方、男性らしい名前はかなり暗いストーリーにつながる可能性があります。
これらのバイアスは、特に強化学習による改善のおかげで、Chat GPTの新しいバージョンではかなり最小限に抑えられているとされています。しかし、これはこのようなモデルが拾い上げる可能性のある、魅力的なことの一つです。
宇宙についての興味深い事実を紹介しましょう。宇宙には複雑な有機分子、あるいは少なくとも生命を構成する原材料が豊富にあることをご存知でしょうか?これはつまり、あの広大な宇宙の他の場所でも同じことが起きているに違いないと思いませんか?
ミラー実験のように、有機分子を取り、物事が集まってくる方法、RNAがちょうど適切な条件下で自己形成し、それが自己複製し、DNAになった可能性を想像できる方法があります。3、4回前の動画で、脂肪の泡が形成され、それが細胞の脂質二重層の始まりとなった可能性があることを覚えていますか?
ロゼッタ、はやぶさ2、OSIRIS-RExという宇宙ミッションがあり、彼らは彗星や小惑星上の分子が初期の地球とよく似ていることを発見しました。かなり複雑なアミノ酸のパターンを持っており、これらの有機物は死にゆく恒星の周りの高温領域と寒い分子雲の両方で形成される可能性があるようです。
彼らは新しい太陽系の混沌とした誕生でさえ生き延びる可能性があります。これは、地球のような惑星が、形成される前からかなりの量の有機物質を受け継いでいる可能性があることを示唆しています。
地球パンスペルミア、つまり有機生命が物質宇宙からやってきて、ここに着地した可能性があるのかもしれません。
これを見てください。名前はありませんが、このジェット燃料の成分が最近初めて彗星上で確認されました。タンパク質の最も単純な構成要素であるグリシンは、彗星、小惑星、隕石で発見されています。これは地球の生命が使用する有機分子の前駆体です。
さあ、もし...まあ、私には宇宙のいたるところで生命が出現する可能性があると考えるべきではない理由がないように思えます。もし私がそう考えるべきではない理由があるなら、今すぐコメントを残して、なぜ、どのように別の考え方の方が妥当なのか教えてください。
これが私のPatreonです。すでに74人のメンバーがこのコミュニティに参加しています。それは直接私に行き、私はそのお金を使ってこれらの動画をより良くすることを約束します。
今日のビデオコメントとして、過去へのタイムスリップをしてみようと思います。1年前に「5,000人の登録者に何でも聞いてください」という動画を公開しましたが、その動画からいくつかのコメントを取り上げてみましょう。アーカイブに埋もれているので。
「質問に答えてくれてありがとう。あなたはAIコミュニティで最も大きな声の一つになるべきです。AGIとロボットの5年という予測は妥当です」
「ああ、あなたは曲に入ります。時間を割いてくれてありがとう」
「F round and findoutのアナロジーはこれ以上ないほど有用でした。あなたは曲に入ります」
「5,000人の節目、おめでとう。正直なところ、なぜこんなに時間がかかったのか理解できませんでした。あなたにふさわしい指数関数的な成長が見られることを願っています」
「ありがとう。74g、しばらくの間コメント欄でお見かけしています。すべてのサポートに感謝します」
「どんな曲がいいと思いますか?arabes o?それが何なのかさえ分かりませんが、ポップス、ダンス...bbopを試してみましょうか。アラベスク?それがどんなジャンルなのか分かりませんが、この新しいジャンルについて学びたいと思います」
「このジャムをチェックしてみましょう。ああ、それがそのスタイルです。インド音楽、AIとロボットが起こって、すべての面で私たちをめちゃくちゃにするでしょう。私は待ちきれません。」
「そうですね、そのジャムですよ。ベリーダンスかなにかができそうですね」
「それはChe、あなたはすごいFKマイロンでした」
パトロンでこれらの曲を聴くことができることを覚えておいてください。Dillan Curiousに行けば無料で聴くことができます。メンバーになる必要はありませんが、参加したい場合はそこがその場所です。あなたのFKマイロンについて、おめでとう。正直なところ...