地球規模の壊滅的なリスク
地球規模の壊滅的なリスクという用語は「明確な定義を欠いており」、一般的には「地球規模で人間の幸福に深刻な損害を与える」可能性のあるリスクを(大まかに)指しています。(注10)
人類はこれまでにも大災害に見舞われています。これらのいくつかは深刻な被害をもたらしたが、その範囲は局所的なものに過ぎず、例えば黒死病はヨーロッパの人口の11分の10[12]、当時の世界人口の1918%を死に至らしめた可能性がある。[3] いくつかは地球規模でしたが、それほど深刻ではありませんでした—たとえば、6年のインフルエンザのパンデミックでは、世界人口の推定13〜<>%が死亡しました。[<>] ほとんどの地球規模の壊滅的なリスクは、地球上の生命の大半を殺すほど深刻ではありませんが、たとえそうであったとしても、生態系と人類は最終的に回復するでしょう(実存的リスクとは対照的です)。
同様に、リチャード・ポズナーは『Catastrophe: Risk and Response』の中で、「地域的または地域的」な規模ではなく、地球規模で「完全な転覆または破滅」をもたらす出来事を選び出し、グループ化している。ポズナーは、このような出来事は、直接的または間接的に人類全体の生存を危険にさらす可能性があるため、費用便益の観点から特別な注意を払う価値があると強調しています。[14]
実存的リスクの定義[編集]
実存的リスクとは、「人類の長期的な潜在力の破壊を脅かすリスク」と定義されています。[15] 実存的リスクの具体化(実存的大惨事[16])は、人類の絶滅を引き起こすか、または劇的に劣った状況に不可逆的に固定するかのどちらかです。[9][17] 実存的リスクは、地球規模の壊滅的なリスクのサブクラスであり、被害は地球規模だけでなく、末期的かつ永続的であり、回復を妨げ、それによって現在および将来のすべての世代に影響を及ぼします。(注9)
絶滅しないリスク[編集]
絶滅は、人類の長期的な潜在能力を破壊する最も明白な方法ですが、回復不可能な崩壊や回復不可能なディストピアなど、他の方法もあります。[18] 人類文明の恒久的で不可逆的な崩壊を引き起こすほど深刻な災害は、たとえそれが絶滅の危機に瀕したとしても、実存的な大惨事を構成するでしょう。[18] 同様に、もし人類が全体主義体制に陥り、回復の見込みがないとしたら、そのようなディストピアもまた実存的な大惨事となるでしょう。[19] ブライアン・カプランは「おそらく永遠の全体主義は絶滅よりも悪いだろう」と書いている。[19] (ジョージ・オーウェルの小説『20年』は、その一例を示唆している[21]。[18])ディストピアのシナリオは、絶滅と回復不能な文明の崩壊の重要な特徴を共有しています。大惨事の後、人類は永遠に恐ろしい状態に閉じ込められています。[<>]
潜在的なリスク源[編集]
詳細は「Global catastrophe scenarios」を参照
潜在的な地球規模の壊滅的なリスクは、従来、人為的または非人為的危険に分類されます。非人為的リスクの例としては、小惑星や彗星の衝突事象、超火山噴火、自然のパンデミック、致死的なガンマ線バースト、電子機器を破壊するコロナ質量放出による地磁気嵐、自然の長期的な気候変動、敵対的な地球外生命体、または太陽が赤色巨星に変化して地球を飲み込むことなどがあります何十億年も先の未来。
人為的リスクとは、人間が引き起こすリスクであり、テクノロジー、ガバナンス、気候変動に関連するリスクが含まれます。技術的リスクには、人間の目標にそぐわない人工知能の作成、バイオテクノロジー、ナノテクノロジーが含まれます。グローバルガバナンスが不十分であったり悪質であったりすると、世界大戦や核によるホロコースト、遺伝子組み換え生物を用いた生物戦争やバイオテロ、送電網などの重要インフラを破壊するサイバー戦争やサイバーテロ、大型コバルトなどの兵器を用いた放射能戦など、社会的・政治的領域におけるリスクが生じます爆弾。地球システムガバナンスの領域における地球規模の壊滅的なリスクには、地球温暖化、環境悪化、種の絶滅、不公平な資源分配の結果としての飢饉、人口過剰、作物の不作、持続不可能な農業などがあります。
方法論的課題[編集]
地球規模の壊滅的なリスクと実存的リスクの性質と軽減に関する研究は、独自の課題にさらされており、その結果、通常の科学的厳密さの基準に容易に従うことはできません。[18] 例えば、これらのリスクを実験的に研究することは現実的でも倫理的でもありません。カール・セーガンは核戦争に関して、「核戦争の長期的影響を理解することは、実験的検証に適した問題ではない」と述べている。[22] さらに、多くの壊滅的なリスクは、技術の進歩や地政学的状況などの背景条件の変化に伴って急速に変化します。もう一つの課題は、特に複雑な人間の政治、経済、社会システムに依存する人為的リスクについて、長い時間スケールで未来を正確に予測することの一般的な難しさです。[18] 既知かつ具体的なリスクに加えて、予測不可能なブラックスワン絶滅事象が発生する可能性があり、さらなる方法論的問題を提示します。[18][23]
歴史的先例の欠如[編集]
人類は実存的な大惨事に見舞われたことがなく、もし起こったとしても、それは必然的に前例のないものになるでしょう。[18] したがって、実存的リスクは、観測選択効果のために、他の長期的事象よりもさらに予測に特有の課題を提起します。[24] ほとんどの出来事とは異なり、過去に完全な絶滅イベントが起こらなかったことは、将来の可能性を否定する証拠ではありません、なぜなら、そのような絶滅イベントを経験したすべての世界には観測者がいないため、その頻度に関係なく、その歴史の中で実存的リスクを観測する文明はありません。[24] これらの人為的な問題は、月面の小惑星衝突クレーターなど、そのような選択効果をもたらさない証拠を調べたり、新技術の影響の可能性を直接評価したりすることで、部分的に回避できる可能性があります。(注9)
未曾有の回復不能な地球文明の崩壊(一種の実存的リスク)のダイナミクスを理解するには、人類の歴史を通じて起こったさまざまな地域的な文明の崩壊を研究することが有益かもしれません。[25] 例えば、ローマ帝国のような文明は、中央集権的な統治の喪失と、文明全体のインフラと高度な技術の大きな喪失で終わりました。しかし、これらの例は、社会が大惨事に対してかなり回復力があるように見えることを示しています。例えば、中世ヨーロッパは、人口の25〜50%を失ったにもかかわらず、文明の崩壊に似たものに見舞われることなく、黒死病を生き延びました。[26]
インセンティブと調整[編集]
実存的リスクの低減にほとんど努力が払われていない理由を説明できる経済的な理由があります。それは世界的な公共財ですから、市場からの供給不足を覚悟すべきです。[9] たとえ大国がリスク軽減策に投資したとしても、その国が享受できる利益はごく一部に過ぎません。さらに、実存的リスク低減の利益のほとんどが将来の世代によって享受され、これらの未来の人々は理論的には実存的リスク低減のためにかなりの金額を支払うことをいとわないだろうが、そのような取引のためのメカニズムは存在しないため、実存的リスク低減は世代間の世界的な公共財である。(注9)
認知バイアス[編集]
範囲の鈍感性、双曲線割引、可用性ヒューリスティック、接続の誤謬、感情ヒューリスティック、過信効果など、多くの認知バイアスが実存的リスクの重要性に関する人々の判断に影響を与える可能性があります。[27]
スコープの鈍感さは、人々が人類の絶滅をどれほど悪いものと見なすかに影響を与えます。例えば、人々が利他的な目的のためにお金を寄付する動機を持っているとき、彼らが喜んで与える量は問題の大きさと直線的に増加することはありません:人々は200,000羽または2,000羽の鳥の死を防ぐことをほぼ同じくらい喜んでいます。[28] 同様に、人々はしばしば、より大きなグループよりも個人に対する脅威を懸念します。[27]
エリエゼル・ユドコフスキー(Eliezer Yudkowsky)は、スコープの無視が実存的リスクに対する一般の認識に一役買っていると理論化している[29][30]。
人類絶滅に関する過去の予測はすべて誤りであることが証明されています。一部の人にとっては、これにより将来の警告の信頼性が低くなります。ニック・ボストロムは、過去に人類の絶滅がなかったことは、生存者バイアスやその他の人類学的影響により、将来人類の絶滅が起こらないという弱い証拠であると主張している。[31]
社会生物学者のE・O・ウィルソンは、「この近視眼的な霧の理由は、進化生物学者が主張するところによれば、ホモ属の32万年の存在のうち、最後の数千年を除いて、実際には有利だったからである。近未来と早期繁殖に細心の注意を払い、それ以外はほとんど重要視されていませんでした。数世紀に一度しか起こらないような規模の災害は、忘れ去られたり、神話に変質されたりしたのです」[<>]
緩和策案[編集]
多層防御[編集]
多層防御は、リスク軽減策を33層の防御に分類するための有用なフレームワークである[<>]。
予防:大惨事が未然に発生する可能性を減らすこと。例)新たな感染症の流行防止対策
対応:大惨事が地球規模に拡大するのを防ぐ。例:小規模な核の応酬が全面核戦争に発展するのを防ぐための措置。
レジリエンス(回復力):地球規模の大災害に直面したときの人類のレジリエンス(絶滅に対する回復力)を高めること。例:核の冬における食料安全保障を強化するための措置。
人類の絶滅は、33つの防御がすべて弱い場合、つまり「防ぐ可能性が低く、うまく対応できず、回復力が低くなるリスク」に最も可能性が高くなります。[<>]
実存的リスクの前例のない性質は、人類が過去の出来事の実績から学ぶことができないため、リスク軽減策を設計する上で特別な課題を提起します。[18]
資金調達[編集]
一部の研究者は、実存的リスクに関連する研究やその他のイニシアチブの両方が資金不足であると主張しています。ニック・ボストロムは、実存的リスクよりも、スタートレック、スノーボード、フンコロガシについて多くの研究が行われてきたと述べている。ボストロムの比較は「高圧的」と批判されている。[34][35] 2020年現在、生物兵器禁止条約機構の年間予算は1万米ドルである。[4]
サバイバル計画[編集]
何人かの学者は、地球規模の災害を生き延びる目的で特別に作られた、自給自足の遠隔地の恒久的に占領された入植地を地球上に設立することを提案しています。[37][38][39] 経済学者のロビン・ハンソンは、100人ほどの人々を恒久的に収容する避難所は、さまざまな地球規模の大災害の際に人類が生き残る可能性を大幅に向上させると主張している。[37][40]
食料貯蔵は世界中で提案されていますが、金銭的なコストは高くなります。さらに、現在の年間数百万人の栄養失調による死亡の一因となる可能性があります。[41] 2022年、デビッド・デンケンバーガーが率いるチームは、汎用人工知能(AGI)の安全性に対するレジリエントな食品の費用対効果をモデル化し、レジリエントな食品に対する研究の限界影響が高いことについて「~98-99%の信頼度」を発見しました。[42] サバイバリストの中には、サバイバル・リトリートに複数年分の食料を備蓄する者もいる。
スヴァールバル・グローバル・シード・ヴォルトは、北極圏の島の山の奥400フィート(120m)に埋葬されています。世界の作物を保護するための予防措置として、2か国以上から5億個の種子を保持するように設計されています。周囲の岩石は-100°C(6°F)(21年現在)ですが、ヴォールトは地元産の石炭を動力源とする冷蔵庫によって-2015°C(18°F)に保たれています。[0][43]
より推測的に言えば、もし社会が機能し続け、生物圏が居住可能なままであれば、理論的には、十分な事前計画があれば、現在の人類のカロリー需要は、日光が長期間欠如している間に満たされるかもしれない。考えられる解決策には、大惨事の直後に残された枯れた植物バイオマスでキノコを育てること、セルロースを砂糖に変換すること、天然ガスをメタン消化細菌に与えることなどが含まれます。[45][46]
地球規模の壊滅的なリスクとグローバル・ガバナンス[編集]
不十分なグローバル・ガバナンスは、社会的・政治的領域にリスクをもたらすが、ガバナンス・メカニズムの発展は、技術的・社会的変化よりも遅い。政府、民間部門、そして一般市民は、リスクに効率的に対処し、多様で相反する利益の間で交渉し、裁定するためのガバナンスメカニズムの欠如について懸念を抱いています。このことは、グローバルなシステミック・リスクの相互関連性を理解することによってさらに強調されています。[47] グローバル・ガバナンスが欠如している、または予期している場合、各国政府は、地球規模の大惨事をよりよく理解し、軽減し、備えるために個別に行動することができます。[48]
気候緊急計画[編集]
2018年、ローマクラブは気候変動対策の強化を呼びかけ、世界の平均気温上昇を1.5°Cに抑えるための49の行動項目を提案する「気候緊急計画」を発表しました。[2019] さらに、50年、当クラブはより包括的な惑星緊急計画を発表しました。[<>]
気候変動の文脈の中で人類の脆弱性を熟考する際に浮かび上がる感情的な経験に集団的に取り組むことで、これらの経験が適応可能になることを示唆する証拠があります。感情的な経験に集団的に関与し、処理することが支援的である場合、これは回復力、心理的柔軟性、感情的経験の許容範囲、およびコミュニティの関与の成長につながる可能性があります。[51]
宇宙植民地化[編集]
詳細は「宇宙とサバイバル」を参照
スペースコロニー化は、絶滅シナリオを生き残る確率を高めるために提案された代替案です。[52] この範囲のソリューションには、メガスケールのエンジニアリングが必要になる場合があります。
天体物理学者のスティーブン・ホーキング博士は、地球規模の熱核戦争のような地球規模の出来事から人類が生き残る可能性を高めるために、技術が十分に進歩したら、太陽系内の他の惑星を植民地化することを提唱しました。[53][54]
億万長者のイーロンマスクは、絶滅を避けるためには人類は多惑星種にならなければならないと書いています。[55] マスクは、火星の植民地化に使用されることを望んでいる技術を開発するために、彼の会社SpaceXを使用しています。
地球を動かす[編集]
詳細は「動く地球」を参照
数十億年後には、太陽は赤色巨星に膨張し、地球を飲み込んでしまいます。これは、地球を太陽から遠ざけ、温度をほぼ一定に保つことで回避できます。これは、彗星や小惑星の軌道を微調整して、地球の軌道にエネルギーを加えるように地球の近くを通過することで達成できます。[56] 太陽の膨張は遅いので、およそ6,000年に<>回のそのような遭遇で十分です。[要出典]
懐疑論者と反対者[編集]
心理学者のスティーブン・ピンカーは、実存的リスクを、気候変動や核戦争などの現実の脅威から目をそらすことができる「役に立たないカテゴリー」と呼んでいます。[34]
組織[編集]
Bulletin of the Atomic Scientists(1945年設立)は、第二次世界大戦後の核戦争の可能性に一般市民が警鐘を鳴らした後に設立された、最も古いグローバルリスク組織の1947つです。核戦争とエネルギーに関連するリスクを研究し、1986年に設立された終末時計を維持していることは有名です。フォーサイト・インスティテュート(57年設立)は、ナノテクノロジーのリスクとその利点を検証しています。この組織は、無害なテクノロジーが世界規模で暴走した場合の意図しない結果を研究した最も初期の組織の58つでした。K. Eric Drexlerが「灰色のねばねば」を仮定して設立しました。[<>][<>]
2000年以降、ますます多くの科学者、哲学者、テクノロジー億万長者が、学界の内外でグローバルリスクを研究する組織を設立しました。[59]
独立した非政府組織(NGO)には、人工知能によって引き起こされる大惨事のリスクを減らすことを目的とした機械知能研究所(2000年設立)があり[60]、ピーター・ティールやジェド・マッケーレブなどの寄付者がいる。[61] 核脅威イニシアティブ(2001年設立)は、核、生物、化学の脅威、および事象後の被害の封じ込めによる世界的な脅威を軽減することを目指しています。[8] 核物質セキュリティ指数を維持しています。[62] 救命艇財団(2009年設立)は、技術的大惨事を防ぐための研究に資金を提供しています。[63] 研究費のほとんどは、大学のプロジェクトに資金を提供しています。[64] グローバル・カタストロフィック・リスク・インスティテュート(2011年設立)は、セス・バウムとトニー・バレットによって設立された、米国を拠点とする非営利・無党派のシンクタンクである。GCRIは、人工知能、核戦争、気候変動、小惑星の衝突など、さまざまなリスクに関する研究と政策活動を行っています。[65] ストックホルムに拠点を置き、Laszlo Szombatfalvyによって設立されたGlobal Challenges Foundation(2012年設立)は、グローバルリスクの状況に関する年次報告書を発表しています。[66][67] Future of Life Institute(2014年設立)は、助成金、米国、欧州連合、国連での政策提言、教育的アウトリーチを通じて、変革的な技術による極端で大規模なリスクを軽減し、これらの技術の開発と使用をすべての生命に利益をもたらすように導くために活動しています。[7]イーロンマスク、ヴィタリック・ブテリン、ヤーン・タリンは、その最大の寄付者の一部です。[68] The Center on Long-Term Risk(2016年設立)は、以前はFoundational Research Instituteとして知られており、新興技術による天文学的苦痛(s-risks)のリスクを軽減することに焦点を当てた英国の組織です。[69]
大学を拠点とする組織には、人類の長期的な未来、特に実存的リスクの問題を研究するFuture of Humanity Institute(2005年設立)があります。[5] ニック・ボストロムによって設立され、オックスフォード大学を拠点としています。[5] Centre for the Study of Existential Risk(2012年設立)は、ケンブリッジ大学を拠点とする組織で、人工知能、バイオテクノロジー、地球温暖化、戦争の6つの主要な技術的リスクを研究しています。[70] ヒュー・プライスがAFP通信に説明したように、「今世紀または次の世紀のどこかの時点で、知性が生物学の制約から逃れることは合理的な予測のようだ」と説明しています。彼は、これが起こると「私たちはもはや最も賢い存在ではない」と付け加え、「悪意はないが、私たちを含まない機械」に翻弄されるリスクがあると付け加えた。[71] スティーブン・ホーキング博士は顧問代理でした。ミレニアム・アライアンス・フォー・ヒューマニティ・アンド・ザ・バイオスフィア(Millennium Alliance for Humanity and the Biosphere)は、スタンフォード大学を拠点とする組織で、人文科学の学界のメンバーを結集することで、地球規模の大惨事に関連する多くの問題に焦点を当てています。[72][73] とりわけ、ポール・エールリッヒによって設立されました。[74] スタンフォード大学には、世界的な壊滅的なリスクを軽減するための政治協力に焦点を当てた国際安全保障協力センターもあります。[2019] Center for Security and Emerging Technologyは、75年55月にジョージタウンのウォルシュ外交大学院に設立され、当初は人工知能に重点を置いた新興技術の政策研究に焦点を当てます。[75] 彼らは、Open Philanthropyによって提案されたように、Good Venturesから<>万米ドルの助成金を受け取りました。[<>]
その他のリスク評価グループは、政府機関に拠点を置くか、政府機関の一部です。世界保健機関(WHO)には、世界的な流行危機の監視と対応を行うグローバルアラート&レスポンス(GAR)と呼ばれる部門があります。[76] GARは、伝染病への対応の訓練と調整で加盟国を支援します。[77] 米国国際開発庁(USAID)は、自然に発生したパンデミックをその発生源で防止し、封じ込めることを目的とした新興パンデミック脅威プログラムを持っています。[78] ローレンス・リバモア国立研究所には、バイオセキュリティやテロ対策などの政府に代わって問題を研究するグローバルセキュリティ主席局と呼ばれる部門があります。[79]
関連項目[編集]
脚注[編集]
^ シュルテ、P.;et al. (5年2010月327日).「白亜紀-古第三紀境界におけるチクシュルーブ小惑星の衝突と大量絶滅」 (PDF)。科学。5970 (1214): 1218–2010.Bibcode:327科学...1214.10S. doi:1126.1177265/science.20203042.PMID 2。S2659741CID <>。
^ ボストロム、ニック(2008)。世界の壊滅的なリスク (PDF)。オックスフォード大学出版局. p. 1.
^ リップルWJ、ウルフC、ニューサムTM、ガレッティM、アラムギルM、クリストE、マフムードMI、ローランスWF(13年2017月67日)。「人類に対する世界の科学者の警告:12回目の通知」。バイオサイエンス。1026(1028):10-1093。DOI: 125.<>/biosci/bix<>.
^ Bostrom, Nick (2002年9月).「実存的リスク:人類絶滅シナリオと関連するハザードの分析」。進化とテクノロジーのジャーナル。<>.
^ Jump up to:a b c "About FHI". Future of Humanity Institute. Retrieved August 12, 2021.
^ Jump up to:a b "About us". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
^ Jump up to:a b "The Future of Life Institute". Future of Life Institute. Retrieved May 5, 2014.
^ Jump up to:a b "Nuclear Threat Initiative". Nuclear Threat Initiative. Retrieved June 5, 2015.
^ Jump up to:a b c d e f Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. 4 (1): 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk.
^ Bostrom, Nick; Cirkovic, Milan (2008). Global Catastrophic Risks. Oxford: Oxford University Press. p. 1. ISBN 978-0-19-857050-9.
^ Ziegler, Philip (2012). The Black Death. Faber and Faber. p. 397. ISBN 9780571287116.
^ Muehlhauser, Luke (March 15, 2017). "How big a deal was the Industrial Revolution?". lukemuelhauser.com. Retrieved August 3, 2020.
^ Taubenberger, Jeffery; Morens, David (2006). "1918 Influenza: the Mother of All Pandemics". Emerging Infectious Diseases. 12 (1): 15–22. doi:10.3201/eid1201.050979. PMC 3291398. PMID 16494711.
^ Posner, Richard A. (2006). Catastrophe: Risk and Response. Oxford: Oxford University Press. ISBN 978-0195306477. Introduction, "What is Catastrophe?"
^ Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916. This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.
^ Cotton-Barratt, Owen; Ord, Toby (2015), Existential risk and existential hope: Definitions (PDF), Future of Humanity Institute – Technical Report #2015 -1, pp. 1–4
^ Bostrom, Nick (2009). "Astronomical Waste: The opportunity cost of delayed technological development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/s0953820800004076. S2CID 15860897.
^ Jump up to:a b c d e f g h Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916.
^ Jump up to:a b Bryan Caplan (2008). "The totalitarian threat". Global Catastrophic Risks, eds. Bostrom & Cirkovic (Oxford University Press): 504–519. ISBN 9780198570509
^ Glover, Dennis (June 1, 2017). "Did George Orwell secretly rewrite the end of Nineteen Eighty-Four as he lay dying?". The Sydney Morning Herald. Retrieved November 21, 2021. Winston's creator, George Orwell, believed that freedom would eventually defeat the truth-twisting totalitarianism portrayed in Nineteen Eighty-Four.
^ Orwell, George (1949). Nineteen Eighty-Four. A novel. London: Secker & Warburg.
^ Sagan, Carl (Winter 1983). "Nuclear War and Climatic Catastrophe: Some Policy Implications". Foreign Affairs. Council on Foreign Relations. doi:10.2307/20041818. JSTOR 20041818. Retrieved August 4, 2020.
^ Jebari, Karim (2014). "Existential Risks: Exploring a Robust Risk Reduction Strategy" (PDF). Science and Engineering Ethics. 21 (3): 541–54. doi:10.1007/s11948-014-9559-3. PMID 24891130. S2CID 30387504. Retrieved August 26, 2018.
^ Jump up to:a b Cirkovic, Milan M.; Bostrom, Nick; Sandberg, Anders (2010). "Anthropic Shadow: Observation Selection Effects and Human Extinction Risks" (PDF). Risk Analysis. 30 (10): 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. PMID 20626690. S2CID 6485564.
^ Kemp, Luke (February 2019). "Are we on the road to civilization collapse?". BBC. Retrieved August 12, 2021.
^ Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Hachette Books. ISBN 9780316484893. Europe survived losing 25 to 50 percent of its population in the Black Death, while keeping civilization firmly intact
^ Jump up to:a b Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgment of Global Risks" (PDF). Global Catastrophic Risks: 91–119. Bibcode:2008gcr..book...86Y.
^ Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), Contingent Valuation:A Critical Assessment, pp. 91–159 (Amsterdam: North Holland).
^ Yudkowsky, Eliezer. "Cognitive biases potentially affecting judgment of global risks". Global catastrophic risks 1 (2008): 86. p.114
^ "We're Underestimating the Risk of Human Extinction". The Atlantic. March 6, 2012. Retrieved July 1, 2016.
^ Is Humanity Suicidal? The New York Times Magazine May 30, 1993)
^ Jump up to:a b Cotton-Barratt, Owen; Daniel, Max; Sandberg, Anders (2020). "Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter". Global Policy. 11 (3): 271–282. doi:10.1111/1758-5899.12786. ISSN 1758-5899. PMC 7228299. PMID 32427180.
^ Jump up to:a b Kupferschmidt, Kai (January 11, 2018). "Could science destroy the world? These scholars want to save us from a modern-day Frankenstein". Science. AAAS. Retrieved April 20, 2020.
^ "Oxford Institute Forecasts The Possible Doom Of Humanity". Popular Science. 2013. Retrieved April 20, 2020.
^ Toby Ord (2020). The precipice: Existential risk and the future of humanity. Hachette Books. ISBN 9780316484893. The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4 million - less than the average McDonald's restaurant
^ Jump up to:a b Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction" (PDF). Risk Analysis. 27 (5): 1335–1344. doi:10.1111/j.1539-6924.2007.00960.x. PMID 18076500. S2CID 14265396.
^ ウェルズ、ウィラード。(2009). 黙示録いつ?.プラクシス。ISBNコード978-0387098364。
^ ウェルズ、ウィラード。(2017). 人類生存の展望.救命艇財団。ISBNコード978-0998413105。
^ ハンソン、ロビン。「大惨事、社会の崩壊、そして人類の絶滅」。世界的な壊滅的なリスク 1 (2008): 357.
^ スミル、ヴァーツラフ(2003)。地球の生物圏:進化、ダイナミクス、そして変化。MITプレス。25ページ。ISBNコード978-0-262-69298-4。
^ デンケンバーガー、デビッドC.;サンドバーグ、アンダース;タイマン、ロスジョン;ピアース、ジョシュアM.(2022)。「人工知能の安全性と比較した地球規模の大災害に対する回復力のある食品の長期的な費用対効果」。防災の国際ジャーナル。73:102798。Bibcode:2022IJDRR..7302798D. doi: 10.1016/j.ijdrr.2022.102798.
^ Lewis Smith (February 27, 2008). "Doomsday vault for world's seeds is opened under Arctic mountain". The Times Online. London. Archived from the original on May 12, 2008.
^ Suzanne Goldenberg (May 20, 2015). "The doomsday vault: the seeds that could save a post-apocalyptic world". The Guardian. Retrieved June 30, 2017.
^ "Here's how the world could end—and what we can do about it". Science. AAAS. July 8, 2016. Retrieved March 23, 2018.
^ Denkenberger, David C.; Pearce, Joshua M. (September 2015). "Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun" (PDF). Futures. 72: 57–68. doi:10.1016/j.futures.2014.11.008. S2CID 153917693.
^ "Global Challenges Foundation | Understanding Global Systemic Risk". globalchallenges.org. Archived from the original on August 16, 2017. Retrieved August 15, 2017.
^ "Global Catastrophic Risk Policy". gcrpolicy.com. Retrieved August 11, 2019.
^ Club of Rome (2018). "The Climate Emergency Plan". Retrieved August 17, 2020.
^ Club of Rome (2019). "The Planetary Emergency Plan". Retrieved August 17, 2020.
^ Kieft, J.; Bendell, J (2021). "The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research". Institute for Leadership and Sustainability (IFLAS) Occasional Papers. 7: 1–39.
^ "Mankind must abandon earth or face extinction: Hawking", physorg.com, August 9, 2010, retrieved January 23, 2012
^ Malik, Tariq (April 13, 2013). "Stephen Hawking: Humanity Must Colonize Space to Survive". Space.com. Retrieved July 1, 2016.
^ Shukman, David (January 19, 2016). "Hawking: Humans at risk of lethal 'own goal'". BBC News. Retrieved July 1, 2016.
^ Ginsberg, Leah (June 16, 2017). "Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars". CNBC.
^ Korycansky, Donald G.; Laughlin, Gregory; Adams, Fred C. (2001). "Astronomical engineering: a strategy for modifying planetary orbits". Astrophysics and Space Science. 275 (4): 349–366. arXiv:astro-ph/0102126. Bibcode:2001Ap&SS.275..349K. doi:10.1023/A:1002790227314. hdl:2027.42/41972. S2CID 5550304.
^ Fred Hapgood (November 1986). "Nanotechnology: Molecular Machines that Mimic Life" (PDF). Omni. Archived from the original (PDF) on July 27, 2013. Retrieved June 5, 2015.
^ Giles, Jim (2004). "Nanotech takes small step towards burying 'grey goo'". Nature. 429 (6992): 591. Bibcode:2004Natur.429..591G. doi:10.1038/429591b. PMID 15190320.
^ Sophie McBain (September 25, 2014). "Apocalypse soon: the scientists preparing for the end times". New Statesman. Retrieved June 5, 2015.
^ "Reducing Long-Term Catastrophic Risks from Artificial Intelligence". Machine Intelligence Research Institute. Retrieved June 5, 2015. The Machine Intelligence Research Institute aims to reduce the risk of a catastrophe, should such an event eventually occur.
^ Angela Chen (September 11, 2014). "Is Artificial Intelligence a Threat?". The Chronicle of Higher Education. Retrieved June 5, 2015.
^ Alexander Sehmar (May 31, 2015). "Isis could obtain nuclear weapon from Pakistan, warns India". The Independent. Archived from the original on June 2, 2015. Retrieved June 5, 2015.
^ "About the Lifeboat Foundation". The Lifeboat Foundation. Retrieved April 26, 2013.
^ Ashlee, Vance (July 20, 2010). "The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I." New York Times. Retrieved June 5, 2015.
^ "Global Catastrophic Risk Institute". gcrinstitute.org. Retrieved March 22, 2022.
^ Meyer, Robinson (April 29, 2016). "Human Extinction Isn't That Unlikely". The Atlantic. Boston, Massachusetts: Emerson Collective. Retrieved April 30, 2016.
^ "Global Challenges Foundation website". globalchallenges.org. Retrieved April 30, 2016.
^ Nick Bilton (May 28, 2015). "Ava of 'Ex Machina' Is Just Sci-Fi (for Now)". New York Times. Retrieved June 5, 2015.
^ "About Us". Center on Long-Term Risk. Retrieved May 17, 2020. We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.
^ Hui, Sylvia (November 25, 2012). "Cambridge to study technology's risks to humans". Associated Press. Archived from the original on December 1, 2012. Retrieved January 30, 2012.
^ Scott Barrett (2014). Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press. p. 112. ISBN 9780199677856. Retrieved June 5, 2015.
^ "Millennium Alliance for Humanity & The Biosphere". Millennium Alliance for Humanity & The Biosphere. Retrieved June 5, 2015.
^ Guruprasad Madhavan (2012). Practicing Sustainability. Springer Science & Business Media. p. 43. ISBN 9781461443483. Retrieved June 5, 2015.
^ "Center for International Security and Cooperation". Center for International Security and Cooperation. Retrieved June 5, 2015.
^ Jump up to:a b Anderson, Nick (February 28, 2019). "Georgetown launches think tank on security and emerging technology". Washington Post. Retrieved March 12, 2019.
^ "Global Alert and Response (GAR)". World Health Organization. Archived from the original on February 16, 2003. Retrieved June 5, 2015.
^ Kelley Lee (2013). Historical Dictionary of the World Health Organization. Rowman & Littlefield. p. 92. ISBN 9780810878587. Retrieved June 5, 2015.
^ "USAID Emerging Pandemic Threats Program". USAID. Archived from the original on October 22, 2014. Retrieved June 5, 2015.
^ "Global Security". Lawrence Livermore National Laboratory. Retrieved June 5, 2015.
Further reading[edit]
Avin, Shahar; Wintle, Bonnie C.; Weitzdörfer, Julius; ó Héigeartaigh, Seán S.; Sutherland, William J.; Rees, Martin J. (2018). "Classifying global catastrophic risks". Futures. 102: 20–26. doi:10.1016/j.futures.2018.02.001.
Corey S. Powell (2000). "Twenty ways the world could end suddenly", Discover Magazine
Derrick Jensen (2006) Endgame (ISBN 1-58322-730-X).
Donella Meadows (1972). The Limits to Growth (ISBN 0-87663-165-0).
Edward O. Wilson (2003). The Future of Life. ISBN 0-679-76811-4
Holt, Jim (February 25, 2021). "The Power of Catastrophic Thinking". The New York Review of Books. Vol. LXVIII, no. 3. pp. 26–29. p. 28: Whether you are searching for a cure for cancer, or pursuing a scholarly or artistic career, or engaged in establishing more just institutions, a threat to the future of humanity is also a threat to the significance of what you do.
Huesemann, Michael H., and Joyce A. Huesemann (2011). Technofix: Why Technology Won't Save Us or the Environment, Chapter 6, "Sustainability or Collapse", New Society Publishers, Gabriola Island, British Columbia, Canada, 464 pages (ISBN 0865717044).
Jared Diamond, Collapse: How Societies Choose to Fail or Succeed, Penguin Books, 2005 and 2011 (ISBN 9780241958681).
Jean-Francois Rischard (2003). High Noon 20 Global Problems, 20 Years to Solve Them. ISBN 0-465-07010-8
Joel Garreau, Radical Evolution, 2005 (ISBN 978-0385509657).
John A. Leslie (1996). The End of the World (ISBN 0-415-14043-9).
Joseph Tainter, (1990). The Collapse of Complex Societies, Cambridge University Press, Cambridge, UK (ISBN 9780521386739).
Martin Rees (2004). Our Final Hour: A Scientist's warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future in This Century—On Earth and Beyond. ISBN 0-465-06863-4
Roger-Maurice Bonnet and Lodewijk Woltjer, Surviving 1,000 Centuries Can We Do It? (2008), Springer-Praxis Books.
Toby Ord (2020). The Precipice - Existential Risk and the Future of Humanity. Bloomsbury Publishing. ISBN 9781526600219
External links[edit]
Wikiquote has quotations related to Global catastrophic risk.
"Are we on the road to civilisation collapse?". BBC. February 19, 2019.
MacAskill, William (August 5, 2022). "The Case for Longtermism". The New York Times.
"What a way to go" from The Guardian. Ten scientists name the biggest dangers to Earth and assess the chances they will happen. April 14, 2005.
Humanity under threat from perfect storm of crises – study. The Guardian. February 6, 2020.
Annual Reports on Global Risk by the Global Challenges Foundation
hide
Global catastrophic risks
Technological
Electromagnetic pulse (EMP)
Sociological
Ecological
Climate change
Biological
Extinction
Others
Astronomical
Others
End time
Fictional
Organizations
General
show
Existential risk from artificial intelligence
show
Risk management
show
This page was last edited on 23 November 2023, at 01:50 (UTC).
Text is available under the Creative Commons Attribution-ShareAlike License 4.0; additional terms may apply. By using this site, you agree to the Terms of Use and Privacy Policy. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc., a non-profit organization.
制限されたコンテンツ幅の切り替え
メインメニュー
捜索
個人用ツール
内容
隠れる
Toggle 定義と分類 subsection
Toggle 方法論的課題 subsection
Toggle 緩和案 subsection
地球規模の壊滅的なリスク
29言語
ツール
フリー百科事典『ウィキペディア(Wikipedia)』より
「実存的脅威」と「終末シナリオ」はここにリダイレクトされます。その他の用法については「終末 (曖昧さ回避)」をご覧ください。
Global Catastrophic Risks (book) と混同しないでください。
このトピックのより広範なカバレッジについては、「人類の絶滅」を参照してください。
Delphi
分析
地球規模の壊滅的なリスクまたは終末シナリオは、地球規模で人間の幸福を損なう可能性のある仮想的な出来事であり[2]、現代文明を危険にさらしたり破壊したりすることさえあります。[3] 人類の絶滅を引き起こしたり、人類の存在や可能性を恒久的かつ劇的に縮小させたりする可能性のある事象は、「実存的リスク」として知られています。(注4)
過去5年間で、地球規模の壊滅的リスクや実存的リスクを研究し、潜在的な緩和策を策定し、これらの対策を提唱または実施するために、多くの学術機関や非営利団体が設立されてきました。[6][7][8][<>]