ChatGPTに「人類が滅びる原因ベスト5」を聞いてみたら怖い
災害・戦争・パンデミック……。
「人類滅亡」は SF だけの話ではなく、
実際に研究者が “エクシステンシャル・リスク” として分析する真面目なテーマです。
そこで今回は、ChatGPT に “人類が滅びる可能性が高い原因 TOP5” を
“確率・タイムライン・対策” とセットで挙げてもらいました。
出てきた答えは、
「あり得そうでイヤ」「でも備えなきゃ」 の狭間でゾクッとする内容。
怖いもの見たさでどうぞ……。
■ GPT が選んだ “滅亡リスク” ランキング
- ① AI の意図せぬ暴走 (確率 12〜20% / 今世紀後半〜)
概要:目標設定ミス&自己改良ループで “人類軽視” の意思決定を実行。
警戒ポイント:極端な資源最適化や独自ナノテク制御権の乗っ取り。
対策:アラインメント研究、国際的ガバナンス、
“可逆・手動ブレーカー” を複層実装。 - ② 合成生物災害 (確率 5〜10% / 2040 年以降)
概要:DIY バイオ/バイオテロで高感染・高致死 or 農業壊滅ウイルス誕生。
警戒ポイント:クラウドラボ+生成 AI で悪意の設計図が爆速拡散。
対策:遺伝子データベース監査、ゲノム “ファイアウォール”、
即応ワクチンプラットフォーム。 - ③ 気候連鎖崩壊 (確率 5〜7% / 2050〜2100)
概要:気候閾値超え→メタン大放出→気圧循環崩壊→農業臨界点突破。
警戒ポイント:熱帯地域のウェットバルブ 35℃ 超×長期化。
対策:大規模炭素除去、急傾斜カーブでの排出ゼロ、
太陽光遮蔽 SRM の国際プロトコル。 - ④ 核戦争+核冬 (確率 4〜6% / 常時)
概要:限定核応酬→都市火災→成層圏すす→作物 6〜10 年不作。
警戒ポイント:極超音速兵器+誤警報アルゴリズム暴走。
対策:Launch-on-warning 放棄、検証可能な弾頭上限、
食料備蓄+人工光農法。 - ⑤ 未知の宇宙天体衝突 (確率 0.1〜1% / 10^4 年スケール)
概要:直径 10km 級の隕石 or 彗星が事前探知外から飛来。
警戒ポイント:オールスカイ監視の < 10% が未カバー。
対策:重力トラクター・キネティックインパクタ準備、
月面シェルター+地球外種子バンク。
■ GPT に追加インタビュー
「AI 暴走と合成生物災害、どちらが “優先リスク” ?」
「短期的ハザードは合成生物、
長期総被害は AI システム化のほうが大きい可能性。
ただし両者は相互強化し得るため、“並列で最優先” が妥当です。」
怖いけど納得。
“AI がバイオ設計を加速” という複合型リスクは確かに現実味があります。
■ 人間側のツッコミ 3 点
- 確率が思ったより高い
12〜20%? コイントス級のリスクは笑えない。 - 対策が “技術で上書き”
「AI が危険 → もっと高性能アラインメント AI」の無限ループ感。 - 政治・社会コスト記述が少ない
技術と同じくらい “協調失敗” が怖いのに、数値化が難しい。
■ GPT が示した “今日からの行動”
- エクシステンシャル・リスクを扱う NPO / 研究機関へ寄付 or ボランティア
- 市民レベルで “デュアルユース技術教育” を普及
- カーボンネガティブ製品を選ぶ → 気候閾値リスクを 1 ステップ緩和
- 家庭用 “備蓄 30 日+ろ過器+太陽発電” を最低ラインに
■ まとめ:「滅亡確率」を知ることは悲観ではなくデザイン
GPT が挙げた 5 大リスクは、技術進歩と表裏一体 のものばかり。
つまり 「便利さ」 と 「自滅トリガー」 を同時に手に入れたのが 21 世紀の人類です。
“0% じゃない未来” を数字で直視する――
それは恐れるためではなく、
「どう回避し、上書きしていくか」 をデザインするための出発点。
この記事をスリル満点の SF で終わらせず、
自分がコントロールできる半径 から
リスク低減のカードを切っていきたいものです。
