bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance)や技術トレンドを推定して将来起こり得ることを発信しています。 Xアカウント https://x.com/bioshok3?t=zveV31pS1Sy0jiBGisbKpA&s=09

bioshok

AIのもたらす深刻なリスクに関する発信(AI Alignment,Governance)や技術トレンドを推定して将来起こり得ることを発信しています。 Xアカウント https://x.com/bioshok3?t=zveV31pS1Sy0jiBGisbKpA&s=09

最近の記事

AI安全性と国家安全保障の対立

AI巡る規制と安全保障の整理米議会の少なくとも一部議員は上院司法小委員会にてAGIが近い(数年以内)という可能性を明確に認識している。 24年6月最初には、元OpenAIのSuper Alignment teamのLeopold Aschenbrennerのエッセイで2027/28年頃のAGI実現とそれが国家安全保障上の脅威の高まりのきっかけとなることが語られ、その頃から公に数年以内のAGI実現を主張する研究者も増えてきた。(リンク先リプツリーにまとめてある。) それに呼

    • アカ乗っ取り証拠と事後解決方法(3日で解決)

      このnote記事は@bioshok3アカウントが何者かに乗っ取られたことを証明するために書いています。このnoteは@bioshok3のプロフィールにリンクされており、このnoteでアカウント乗っ取りを主張すれば証拠になるだろうと思いました。 @bioshok3は私のXアカウントですが、日本時間の2024年9月6日の1時から2時頃、アカウントにログインできなくなりました。 DMで「Breach X」というX公式を模したアカウントに著作権侵害の疑いがあるため必要事項をフォー

      • AGI開発の短いタイムラインに楽観的な理由

        ※この記事はメモ代わりに書いているため、証拠も論拠も荒々しく引用もあまりありませんがひとまず置いておきます。 AGIは近いのか?元OpenAI SuperAlignment teamのLeopold Aschenbrenner氏が2024年6月5日にAGIは2027年末までに開発されるという衝撃的なエッセイ「Situational Awareness」を公開した。これについては少しXで解説した。 基本的には計算資源をGPT-4の数百倍から千倍かけ、アーキテクチャをトレンド通

        • 虚構が現実になる日

          今回、超知能により世界中の終末論や創作的世界観が再現され、人類が存亡リスクに神話的に直面するミスアライメントSFシナリオ「Φの正夢」が超知能のある未来社会シナリオコンテストで佳作をいただいた。 (ページに飛んでΦの正夢をクリックすると読めます。) 物語は現実を改変し、現実は物語を生み出す。世界宗教は数々の戦争を引き起こし、その戦争が世界史を形作る。 とはいえ実際に物語そのものが現実になることはあり得ないだろう。 しかしそれがあり得るとしたら?神話が現実になるとしたらどう

          逆世代間格差

          日本における世代間格差は深刻な問題となりつつある。 例えば、若い世代は経済の低迷や終身雇用制度の崩壊により、安定してなおかつ十分な給与を得られる職につくことが難しくなり、一方で高齢者世代は比較的安定した年金制度の恩恵を受ける。 また、人口減少に伴い若者の社会保障負担が増大し、将来の年金制度に対する不安が高まっている。これにより、若者と高齢者の間で経済的な不均衡が広がり、社会的な緊張を今後引き起こすかもしれない。 そう言った議論はメディアやX上でも頻繁になされ、高齢者によ

          逆世代間格差

          Sam Altman talks GPT-4o and Predicts the Future of AI和訳

          以下のYoutubeの対談の和訳です。Sam AltmanをS:、Logan BartlettをL:とします。重要そうな箇所は太字にしました。 S: 長い間、音声制御のコンピューターのアイデアはありましたが、これまで自然に使えるとは感じませんでした。でもこれは、柔軟性や適応性がとても高く、使うのがこんなに好きになるとは信じられません。 L: Logan Bartlettショーへようこそ。このエピソードでは、OpenAIの共同創設者兼CEOのSam Altmanと対談します

          Sam Altman talks GPT-4o and Predicts the Future of AI和訳

          A Conversation with OpenAI COO Brad Lightcap和訳

          OpenAI COOのBrad Lightcap氏へのインタビューの和訳です。重要そうな箇所は太字にしました。Brad Lighcap氏をB:、インタビューアーをJ:とします。 ホスト: セクション1「AIの力と可能性」へようこそ。ステージに上がったOpenAIの最高執行責任者ブラッド・ライトカップ氏をお迎えください。CNBCのシニアメディア・テクノロジー記者ジュリア・ボースティンとの対談です。 J: みなさん、おはようございます。ご来場いただきありがとうございます。ブラ

          A Conversation with OpenAI COO Brad Lightcap和訳

          Sam Altman talks with MIT President about AI (May 2024)翻訳

          以下の動画の翻訳です。Sam AltmanはS、対談者をFとしました。最後に質問もあります。重要そうな箇所は太字にしました。 司会者: お二人ともお越しいただきありがとうございます。ご紹介の必要はないかもしれませんが、サリー・コーンは2023年1月にMITの第18代学長に就任しました。細胞生物学者であり、デューク大学の学長時代には、優れた管理者、創造的な問題解決者、教員の卓越性と学生の幸福の主導者としての評判を得ました。MITでの1年目には、AIに注力し、AIが社会に広く恩

          Sam Altman talks with MIT President about AI (May 2024)翻訳

          The Possibilities of AI 和訳

          以下のOpenAI Sam AltmanとRavi Belani(司会)のインタビュー動画の和訳です。重要そうなところは太字にしました。 S=Sam Altman,R=Revi Belani,Q=聴衆からの質問 R: スタンフォード大学での起業家精神セミナーにようこそ。ここは起業家を目指す学生のためのセミナーです。私はRavi Belani、経営科学工学部の講師であり、アルケミストという企業スタートアップ向けのアクセラレーターのディレクターです。今日はSam Altman

          The Possibilities of AI 和訳

          長期主義とエヴァ/セカイ系

          X-risk。人類の未来の可能性が不可逆的に閉じるリスク。そこには人類絶滅のリスクも含まれる。 長期主義。X-riskはなんとしてでも避けねばならない。未来に存在しうる後続人類の数はほとんど無限大だ。よって未来の人類のこともある程度は倫理的に考えて現時点での意思決定をこなすべきだ。 主にベイエリアとオックスフォードで培われてきたこのような人類の膨大な未来の可能性が失われる天文学的な損失に対する懸念。元はある種人類を救うためのトランスヒューマニズム運動の挫折可能性から生まれ

          長期主義とエヴァ/セカイ系

          World Government SummitでのSam Altmanインタビュー翻訳

          このテキストは、OpenAIのCEOであるSam Altman氏とUAEのAI大臣Omar Sultan Al Olama氏のWorld Government Summitでの対談の和訳(GPT-4)です。 このインタビューではUAEでのAIのサンドボックス実験への言及とUAEがASIを含めた高度なAIシステムの規制の中心になるかもしれず、その場合この対談は重要な為翻訳しました。 詳しい考察は以下ポスト。サンドボックスなど言及箇所は和訳箇所を太字にしています。 和訳 オ

          World Government SummitでのSam Altmanインタビュー翻訳

          YOLOの揺らぎ

          YOLO(You only live once)、人生は1度限りという命題の揺らぎ。 我々は2030年頃超知能にたどり着くかもしれない。 その場合2030年代には猛烈な勢いで生命科学が進歩する可能性があるだろう。 昔から人生は1度限り。やらない後悔よりやる後悔と言う。しかし、才能と努力のできる素質やモチベーションの過多は多かれ少なかれ生来的、環境的に定められているため、そんな事ができる人は一部だ。 多くの人は子供の頃の夢なんてそもそも思い出せもせず、日々を生きるだけで精一杯

          YOLOの揺らぎ

          未来との冷戦

          今我々の世界は冷戦状態に入っているかもしれない。中露とアメリカの話ではない。 我々地球に現在存在する100億人と未来に存在するだろう気の遠くなるような膨大な数の我々子孫との間に。 我々は今高度なAIを開発することで労働の自動化、癌の克服、アルツハイマーの予防、核融合の開発、常温常圧超電導の発見等の果に不老不死、半永久的に続く豊穣な世界を享受できるかもしれない。 しかしと同時に高度なAIは人類の存亡的破局をもたらすかもしれない。 そのため理想的には世界的にガバナンスを行い、

          未来との冷戦

          様々な事象の簡易タイムライン予想

          以下簡易的に私の今持っている様々なタイムラインを記載します。理由などは細かくは書きません。 補足ですが、このタイムラインは存亡リスクや壊滅的なリスクなどが人類社会に起こらないことを前提としています。私はおよそ人類社会が存亡的破局(絶滅や全体主義による半永久的な人類社会の未来の可能性の喪失)を迎える可能性を10-20%と推定しています。そのためこのタイムラインはおおよそ75%程度の確信を持って推定しています。 ①2026年末までにホワイトカラー人口の少なくとも50%を代替可

          様々な事象の簡易タイムライン予想

          奇妙なリアリズム/人類史の誤配

          SNSの文化も、DXとかいって見える化してる世界ももうすぐ終わる。すぐにこの世界は懐かしい風景になってしまう。今のうちにこの世界の、2023年までの世界の香ばしさを感じなきゃいけない。そう感じさせる。 確かに今までの技術革新だって大きな社会の変化とそれに伴う懐かしさは発生してきた。じゃ~今回は何が違うのか? 人類を超える知能の誕生。 だからこの変化は単なるスマホやSNSやインターネットや車の登場とは比較できない文化的認知的なパラダイムシフトになる。 人類史が終わるとい

          奇妙なリアリズム/人類史の誤配

          AIのもたらす深刻なリスクとその歴史的背景概要

          本記事は以下私が公開した「AIのもたらす深刻なリスクとその歴史的背景」の概要とAI存亡リスクに対する深層防護的な対策、QA(AIが何故存亡リスクを導くか等)、関連資料を抜き出したものです。 詳細は以下のGoogle Docsから参照ください。 概要私たちが今いる21世紀は過去人類が体験したことのないような技術の発展の最中にあるかもしれず、特に近いうちに高度なAIが開発され、様々な意味で劇的に世界が変わる可能性があります。 その一方で今世紀に人類が何らかの要因で壊滅的な結果や

          AIのもたらす深刻なリスクとその歴史的背景概要