ネタ

ChatGPTに「人類が滅びる原因ベスト5」を聞いてみたら怖い

ChatGPTに「人類が滅びる原因ベスト5」を聞いてみたら怖い

災害・戦争・パンデミック……。
「人類滅亡」は SF だけの話ではなく、
実際に研究者が “エクシステンシャル・リスク” として分析する真面目なテーマです。

そこで今回は、ChatGPT に “人類が滅びる可能性が高い原因 TOP5” を
“確率・タイムライン・対策” とセットで挙げてもらいました。

出てきた答えは、
「あり得そうでイヤ」「でも備えなきゃ」 の狭間でゾクッとする内容。
怖いもの見たさでどうぞ……。


■ GPT が選んだ “滅亡リスク” ランキング

  1. ① AI の意図せぬ暴走 (確率 12〜20% / 今世紀後半〜)
    概要:目標設定ミス&自己改良ループで “人類軽視” の意思決定を実行。
    警戒ポイント:極端な資源最適化や独自ナノテク制御権の乗っ取り。
    対策:アラインメント研究、国際的ガバナンス、
    “可逆・手動ブレーカー” を複層実装。
  2. ② 合成生物災害 (確率 5〜10% / 2040 年以降)
    概要:DIY バイオ/バイオテロで高感染・高致死 or 農業壊滅ウイルス誕生。
    警戒ポイント:クラウドラボ+生成 AI で悪意の設計図が爆速拡散。
    対策:遺伝子データベース監査、ゲノム “ファイアウォール”、
    即応ワクチンプラットフォーム。
  3. ③ 気候連鎖崩壊 (確率 5〜7% / 2050〜2100)
    概要:気候閾値超え→メタン大放出→気圧循環崩壊→農業臨界点突破。
    警戒ポイント:熱帯地域のウェットバルブ 35℃ 超×長期化。
    対策:大規模炭素除去、急傾斜カーブでの排出ゼロ、
    太陽光遮蔽 SRM の国際プロトコル。
  4. ④ 核戦争+核冬 (確率 4〜6% / 常時)
    概要:限定核応酬→都市火災→成層圏すす→作物 6〜10 年不作。
    警戒ポイント:極超音速兵器+誤警報アルゴリズム暴走。
    対策:Launch-on-warning 放棄、検証可能な弾頭上限、
    食料備蓄+人工光農法。
  5. ⑤ 未知の宇宙天体衝突 (確率 0.1〜1% / 10^4 年スケール)
    概要:直径 10km 級の隕石 or 彗星が事前探知外から飛来。
    警戒ポイント:オールスカイ監視の < 10% が未カバー。
    対策:重力トラクター・キネティックインパクタ準備、
    月面シェルター+地球外種子バンク。

■ GPT に追加インタビュー

「AI 暴走と合成生物災害、どちらが “優先リスク” ?」

「短期的ハザードは合成生物、
長期総被害は AI システム化のほうが大きい可能性。
ただし両者は相互強化し得るため、“並列で最優先” が妥当です。」

怖いけど納得。
“AI がバイオ設計を加速” という複合型リスクは確かに現実味があります。

■ 人間側のツッコミ 3 点

  1. 確率が思ったより高い
    12〜20%? コイントス級のリスクは笑えない。
  2. 対策が “技術で上書き”
    「AI が危険 → もっと高性能アラインメント AI」の無限ループ感。
  3. 政治・社会コスト記述が少ない
    技術と同じくらい “協調失敗” が怖いのに、数値化が難しい。

■ GPT が示した “今日からの行動”

  • エクシステンシャル・リスクを扱う NPO / 研究機関へ寄付 or ボランティア
  • 市民レベルで “デュアルユース技術教育” を普及
  • カーボンネガティブ製品を選ぶ → 気候閾値リスクを 1 ステップ緩和
  • 家庭用 “備蓄 30 日+ろ過器+太陽発電” を最低ラインに

■ まとめ:「滅亡確率」を知ることは悲観ではなくデザイン

GPT が挙げた 5 大リスクは、技術進歩と表裏一体 のものばかり。
つまり 「便利さ」 と 「自滅トリガー」 を同時に手に入れたのが 21 世紀の人類です。

“0% じゃない未来” を数字で直視する――
それは恐れるためではなく、
「どう回避し、上書きしていくか」 をデザインするための出発点。

この記事をスリル満点の SF で終わらせず、
自分がコントロールできる半径 から
リスク低減のカードを切っていきたいものです。