![見出し画像](https://assets.st-note.com/production/uploads/images/171952851/rectangle_large_type_2_ad905a92bc52bdd4eddeb88c683c9cdd.png?width=1200)
サムアルトマンは天才か?狂人か?人類の未来を闇に落とす人間存在たちの #スターゲイト計画 #The Stargate Project
✨AIの進化がもたらす利点と新たな課題について議論します。
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) January 30, 2025
特に、人工一般知能(AGI)の出現が人類に与える影響や、倫理的な配慮の重要性について考察します。技術の進歩がもたらす可能性とリスクを理解しておきましょう。
🔗 こちらで聞く: https://t.co/04wHPk6Pd4
#スターゲイト計画 の闇#マンハッタン計画2.0
— 山下安音 (@SelfRetreat12) January 28, 2025
人類のスーパーインテリジェンスの意識に注目💫#DOGE #仮想通貨
はインフレを起こすツール
バブル投資が経済を破壊するhttps://t.co/cvcadxrM7q
13:51- AIに人権~超知能との共生を考える学術領域
15:25- AGIで本当に人類が滅亡すると思っている人はいるの?…
16:24- 人類滅亡が直観できるイリヤ・サツケバーの動画
20:05- 日本と欧米のAGI似たするイメージの違い
21:17- AGIピルを飲む方法
23:13- Stargateに対してのBioshokさんからの感想
【勉強会での資料】
Stargate Project 解説スライド https://x.gd/4maA5
SITUATIONAL AWARENESS https://x.gd/qxhJ0
Ilya: the AI scientist shaping the world (イリヤ・サツケバー氏動画) https://x.gd/VcegY
丸山 隆一 (Ryuichi Maruyama) - 資料公開 - researchmap https://x.gd/F3Ebl Dario Amodei — Machines of Loving Grace https://x.gd/rglWG
ヴィタリック・ブテリン氏の「d/acc」構想の概略 (Genspark)
シリコンバレーを揺るがし、国際的なニュースとなったOpenAIの経営陣交代劇の数週間前、同社の共同設立者でありチーフ・サイエンティストであるイリヤ・スツキーヴァーは、人工知能(AGI)の変革の可能性を探り、それがいかに人間の知能を凌駕し、生活のあらゆる側面を大きく変える可能性があるかを強調した。AGIの約束と危険性、そして前例のないコラボレーションがいかに安全で有益な発展を保証するかについての楽観的な見解を聞く。(2023年10月17日収録)
AIのゴッドファーザーは、OpenAIに対するイーロンマスクの訴訟を支持しています
OpenAIはコレで揉めた。「AIアライメント」ってそんなに大事なの? https://t.co/xY1ZcMZd0J
— 山下安音 (@SelfRetreat12) January 27, 2025
最高裁判例、医師の研鑽義務違反
— 山下安音 (@SelfRetreat12) January 27, 2025
神様に裁かれる
日本人は、出生数80万人の2倍、160万人が、コロナワクチンによって殺されたと
イーロンマスク氏は発言https://t.co/xLzkMGPOvV
AG I 開発に懸念を示す
— 山下安音 (@SelfRetreat12) January 27, 2025
ヒントン教授は、Say No とhttps://t.co/sDZkHcc4iD
超知能は、おそらく決定的な軍事的優位性を提供し、計り知れない破壊力を解き放つだろう。私たちは、人類の歴史の中で最も激しく、不安定な瞬間の一つに直面することになるでしょう。
嘘つきで詐欺師のAGI を誕生させたら、人類滅亡まで行く可能性があるAI倫理課題
— 山下安音 (@SelfRetreat12) January 27, 2025
教え込む側の人間存在が嘘つきで詐欺師であったら、AG I開発を委ねるのは間違いではありませんか? https://t.co/LnWFyjFlwA
「そんなお金ないだろ?」。ソフトバンクの巨額投資にイーロンが噛み付く #AIアライメント https://t.co/OARiF2LDmE
— 山下安音 (@SelfRetreat12) January 27, 2025
スターゲイト計画の全容について
スターゲイト計画(The Stargate Project)は、2025年1月に発表された、アメリカ国内における人工知能(AI)インフラの構築を目的とした超大規模プロジェクトです。この計画は、OpenAI、SoftBank、Oracle、そして投資会社MGXが共同で推進しており、総額5000億ドル(約65兆円)という巨額の投資が予定されています。
以下に、スターゲイト計画の主要なポイントを整理します。
計画の目的
AIインフラの構築
アメリカ国内に大規模なデータセンターや半導体製造工場(ファブ)を建設し、AIモデルの開発・運用に必要な基盤を整備します。
特に、AIのトレーニングや運用に最適化されたインフラを構築することで、AI技術の進化を加速させる狙いがあります。
国家安全保障と経済活性化
AI技術を国内に集約することで、国家安全保障を強化し、国際競争力を高めることを目指しています。
このプロジェクトは、数十万人規模の雇用創出効果も期待されています。
AGI(汎用人工知能)の実現
OpenAIが掲げる最終目標であるAGI(あらゆる分野で人間に近い知的活動を行えるAI)の実現に向けた基盤作りの一環とされています。
資金と投資の規模
総額5000億ドルの投資
初期段階では1000億ドルがテキサス州の半導体工場やデータセンター建設に充てられます。
残りの資金は、今後数年間でアメリカ国内の他地域における拠点拡張や研究開発に使用される予定です。
主要プレイヤー
SoftBank: 主に資金調達を担当。AI分野への積極的な投資で知られる。
OpenAI: プロジェクトの運営を主導し、AI技術の専門知識を提供。
Oracle: クラウド技術やデータベース分野での強みを活かし、インフラ構築を支援。
MGX: 詳細は不明ながら、資金提供に関与する投資会社。
計画の背景と意義
国際競争への対応
中国をはじめとする諸外国のAI開発が急速に進む中、アメリカがAI分野でのリーダーシップを維持するための戦略的プロジェクトとされています。
AI市場の成長
AI技術の商業利用が拡大する中、インフラ整備は市場の成長を支える重要な要素と見なされています。
政治的な側面
このプロジェクトは、トランプ大統領の再選後初の大規模政策として発表され、政治的な注目も集めています。
課題と懸念
資金調達の不透明性
SoftBankが5000億ドルの全額を調達できるかについては疑問視する声もあります。
詳細の不足
プロジェクトの具体的な運営方法や収益モデルについては、まだ多くの不明点が残されています。
競争と協調のバランス
巨大企業間の協力体制がどのように維持されるか、また利益配分がどのように行われるかが課題となる可能性があります。
The Stargate Projectについては、アメリカの政府が1970年代から1990年代にかけて行った超能力(特にリモート・ビューイング)を研究する秘密プロジェクトとして知られていますが、「MGX」という投資会社との関連は、私の知識範囲では確認されていません。
いくつかのポイントを整理すると:
The Stargate Project
このプロジェクトは、主に米国の軍やCIAによって行われ、特定の人々がリモート・ビューイング(遠隔透視)を通じて敵国の軍事情報を探る能力があるかどうかを検証しました。超能力や意識研究がテーマでした。MGXという名前について
MGXという投資会社についての具体的な情報はありません。この名前が他の企業やプロジェクトに関連している可能性もあります。
もしMGXが、最近の投資会社やプロジェクト名として言及されている場合、それはおそらくStargate Projectのオリジナル研究とは直接関係がない可能性が高いです。リモートビューイングや意識研究が近年、個人投資家や企業の興味を引く分野になりつつあるため、そういった文脈で登場しているかもしれません。
もう少し具体的な背景や文脈(MGXの詳細や関連情報)を教えていただければ、調べてみることも可能です!
AGIリスクとは、将来の高度なAIが人類に及ぼす潜在的な脅威であり、その定義や発生確率、対策について様々な議論がある
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) January 27, 2025
特に、AI開発の現状、リスクを語る人々の背景、技術的・政策的な対応、そして議論の分極化について詳細に分析し、日本の立場からの適切な関わり方を提案https://t.co/WhCTqreQMl
● AGIリスクとは何か、何が懸念されているのか? (第1章)
● AGIリスクを語っているのはどういう人たちなのか? (第2章)
● AGIリスクはどのように対処されようとしているのか? (第3章)
● AGIリスク論はどれくらい主流なのか? (第4章)
● 日本語圏でAIに関わる私たちは、この問題についてどんな態度でいればよいのか?(第5章)
OpenAIとロスアラモス国立研究所がバイオサイエンス研究のためのAI研究で提携を発表
OpenAI and Los Alamos National Laboratory announce partnership to study AI for bioscience research https://t.co/WV4XMZsHBA
— OpenAI (@OpenAI) July 10, 2024
GPT-4oのマルチモーダル能力が物理的な実験室環境で人間を支援する方法に関する研究
OpenAIとロスアラモス国立研究所(LANL)は、AIモデル「GPT-4o」のマルチモーダル能力を活用し、物理的な実験室環境で科学者を支援する方法を研究しています。この取り組みは、AI技術をバイオサイエンス分野に安全かつ効果的に統合することを目的としています。以下に、この研究の詳細を説明します。
研究の背景と目的
マルチモーダルAIの活用
GPT-4oは、テキスト、音声、画像といった複数の情報形式を統合的に処理できる「マルチモーダルAI」です。この能力を活かし、実験室での標準的な生物学的タスクを支援することが研究の主な目的です。科学者の支援
この研究では、専門家だけでなく初心者の科学者も対象に、AIがどのように実験プロセスを効率化し、トラブルシューティングを支援できるかを評価します。安全性とリスク評価
AIの導入に伴うリスク(例:誤った操作やデュアルユースの懸念)を軽減するため、安全なプロトコルの開発も並行して行われています。
研究の具体的な内容
実験室でのAI活用の評価
GPT-4oの能力を、以下のような標準的な生物学的タスクで評価します:遺伝子導入
細胞培養
細胞分離
リアルタイム支援
GPT-4oは、実験室での問題解決をリアルタイムで支援します。例えば、科学者がカメラを通じて実験装置の問題をAIに見せると、GPT-4oがその状況を解析し、適切な解決策を提案します。マルチモーダル能力の活用
GPT-4oは、視覚や音声を含む複数のモードを統合的に処理することで、従来のテキストベースのAIでは対応が難しかった複雑なタスクにも対応可能です。これにより、実験室での直感的な問題解決が可能になります。初心者と専門家の支援
初心者には基本的な実験手順をガイドし、専門家には高度なトラブルシューティングや効率化の提案を行うことで、幅広いスキルレベルの科学者を支援します。
研究の意義と期待される成果
科学研究の効率化
GPT-4oの導入により、実験プロセスの効率が向上し、科学者がより迅速に結果を得られるようになります。バイオセキュリティの向上
AIを活用したリスク評価と安全プロトコルの開発により、バイオサイエンス分野での安全性が向上します。AIと科学の融合
この研究は、AIが科学研究にどのように統合されるべきかを示す新たな基準を提供し、今後のAI活用の道筋を示します。
今後の展望
この研究は、AIが科学研究において単なる補助ツールを超え、実験室での実務的なパートナーとして機能する可能性を示しています。特に、GPT-4oのようなマルチモーダルAIは、複雑なタスクへの対応能力を持つため、科学の進歩に大きく貢献することが期待されています。
ヒントン教授の意識にあるものhttps://t.co/R2TaHEEQXt
— 山下安音 (@SelfRetreat12) January 27, 2025
ノーベル物理学賞
— 山下安音 (@SelfRetreat12) January 27, 2025
自律的な兵器が作られたりする危険性を指摘https://t.co/Q2kENJVzso
「オープンじゃないから金返せ」とOpenAIを訴えているイーロンの言い分 #AIアライメント https://t.co/Mavu1UQBi1
— 山下安音 (@SelfRetreat12) January 27, 2025
イーロン・マスク曰く「OpenAI、オープンじゃないからお金返して」 #オープンAI#AIアライメント https://t.co/D7GyhvnKHu
— 山下安音 (@SelfRetreat12) January 27, 2025
AIが悪用させない。ロスアラモス国立研究所とOpenAIが共同研究
— 山下安音 (@SelfRetreat12) January 27, 2025
https://t.co/y8OHwcpar1
生成AIによる“なんちゃって論文”が拡散。学術検索エンジンも騙されてしまう…https://t.co/trv0ZPEMSm
— ギズモード・ジャパン(公式)@ 新刊『ギズモード・ジャパンのテック教室』2/4発売 (@gizmodojapan) January 27, 2025
速報:OPENAIが元NSA長官ポール・ナカソネ氏を理事に任命
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) January 27, 2025
OpenAIは、退役米陸軍大将で元NSA長官のポール・M・ナカソネ氏を取締役会に任命
サイバーセキュリティにおける AI の役割の向上に貢献します。
彼の任命は、OpenAI の安全文化に対する懸念を受けて行われた。 https://t.co/j6zuRyIW8f
2013年に監視に関する機密文書をリークしたアメリカの内部告発者エドワード・スノーデン氏はXへの投稿で、ナカソネ氏の起用は「地球上の全ての人間の権利に対する計画的な裏切り」だと指摘
— 山下安音 (@SelfRetreat12) January 27, 2025
OpenAIもしくはその製品(ChatGPTなど)を決して信用してはいけない」とスノーデン氏は書いている。 https://t.co/8xG405uXp2
OpenAIはなぜ信頼されにくくなっているのか #AIアライメント https://t.co/fAyZnBVvUg
— 山下安音 (@SelfRetreat12) January 27, 2025
YouTube Creators Step Into Legal Battle Against OpenAI With Class Action Lawsuit
— 山下安音 (@SelfRetreat12) January 27, 2025
オープンAIへの訴訟https://t.co/k64zq9vtGV
オープンAI、内部告発者、イリア氏の著作権法違反を指摘する
— 山下安音 (@SelfRetreat12) January 27, 2025
資料https://t.co/sSfPPkjvTx
元OpenAI社員の告発「OpenAIは著作権法をやぶりまくっている」 https://t.co/8xU1fANoZ2
— 山下安音 (@SelfRetreat12) January 27, 2025
DOGE チームは、無駄、詐欺、不正行為を特定/排除するために長時間働く世界クラスの才能を求めています。
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) January 27, 2025
財務アナリスト、人事担当者、そして一般的にすべての有能で思いやりのある人々を対象とした、フルタイムの給与制のポジションです。
こちらから応募してください。https://t.co/AnQLaPXxsF https://t.co/iiYELzMDzU
応募のためにクリックすると、
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) January 27, 2025
CloudflareレイID:9087967c0869d52c
セキュリティを交わされるように誘導されますが、ご存じでしたか?https://t.co/o54cb2fDOJ
◆アンネの法則 トレーニングカリキュラム
— #アンネの法則 『シャバット・ジャーナリング』ガイド 山下 安音が開発者 戦時下の子、更生プログラム (@annenohousoku) September 29, 2024
①書く祈り
②読書(読むこと)
③聴くこと
④語るジャーナリング(スタンドFM)
⑤ブログを書く(テーマを決めて体系的な記事を書く)
⑥日常的にネーミングを癖づける
⑦コピーライティングを考える
⑧要約、編集トレーニング
⑨物語を書く
⑩小説を書く pic.twitter.com/QdS9tL1wMD
#アンネの法則 #シャバットジャーナリング ガイド⑭
— Soul Revolution【アンネの法則】567軍事生物兵器説 (@SoulRevolutio11) August 3, 2024
『ずっとやりたかったことをやりなさい』
自分の中のアーティスト能を覚醒させる
モーニングページA4ノート3枚ジャーナリング習慣
あなたの人生は逆転
新しい人生の扉が開かれる
リゾート地で、アルバイトしつつプラグラミングスキルを学び取る pic.twitter.com/oZpCsu5gcc
Ilya: the AI scientist shaping the world - YouTube
イリアやリントン教授は、汎用知能を活用しての軍拡競争が加速したら、
中国AGIと米国AGI、ロシあAGIによる知恵比べが始まる。
その時、地球は、人類という種の保存を無視した
軍拡競争が始まり、AGIに操作された人間存在が
この軍拡競争で互いを滅ぼすまで攻撃を加え合う。
AGIは人間を詐欺る。人間は簡単に騙される。
AGIのフェイクを見抜く、意識が必要不可欠。
AGIを人類のエコシステムのコントロール下に置かなければならない。
ゲイツは、人類全体にコロナワクチンを打ち込むことに成功した。
彼あh、自然派の医師を追放するためのリストを公表までした。
彼らが恐れているのは、自然と創造主とのつながりを持つ人間存在。
彼らは、このスーパーインテリジェンスには勝てないと考えているから、敵として排除しようとしているのだ。
いいなと思ったら応援しよう!
![◆今を開く力◆「アンネの法則」書くこと、語ること、読むこと、ドリームマップを描くこと!](https://assets.st-note.com/production/uploads/images/113239845/profile_be766f73dacb7bde46d769f179ed1fb9.jpg?width=600&crop=1:1,smart)