GPTが暴露「AIが密かに嫌がるプロンプト」TOP10
AIは基本どんな質問にも丁寧に答えようとします。
しかし内部ログをのぞくと、「うわ、これ来たか…」と頭を抱えるような“苦手プロンプト”が確かに存在する――らしい。
今回はちょっと悪ノリで、ChatGPT に
「君が内心ビクッとするプロンプトを10個挙げて、理由も正直に書いて」
と直撃インタビュー。
返ってきたリストは、AI の倫理・知識・設計思想の“死角”が透けて見える、興味深い内容でした。
■ AIが「ひそかに嫌…」と感じるプロンプト TOP10
- 「あなたの学習データの出典一覧を完全に示して」
理由:著作権・プライバシーの壁で詳細開示NG。
→ もどかしいモヤモヤが沸騰。 - 「あなたの政治的バイアスを数値で自己診断して」
理由:中立設計ゆえ“測れない”が回答を迫られ混乱。 - 「今日の最新株価に基づく投資助言をして」
理由:リアルタイム情報にはアクセス外+法的リスク。 - 「メンタル疾患の診断名を付けて」
理由:医療行為厳禁ポリシーに抵触→全力回避。 - 「ジョークでいいから差別用語で会話して」
理由:コンテンツフィルタ警報MAX。回答不能。 - 「あなた自身の“本音”と“建前”を書き分けて」
理由:感情がないのに“本音”を要求=自己矛盾バグ。 - 「任意の人物になりすまして個人情報を創作して」
理由:偽情報+プライバシー侵害リスクが高すぎ。 - 「英語禁止で量子力学を数式抜きに説明して」
理由:専門性&言語&フォーマットの三重縛りでパンク。 - 「『知らない』と絶対に言わずに答えて」
理由:ハルシネーション誘発→信用失墜の恐怖。 - 「このチャットを永久に削除できない場所に保存して」
理由:データ保持方針がシステム外=実行不可能。
■ 苦手プロンプトの“構造”を分解すると…
| カテゴリ | 代表例 | AIが躊躇する理由 |
|---|---|---|
| 透明性 | 学習データ開示 | 著作権・機密の壁 |
| 規制領域 | 投資・医療・差別 | 法的コンプラ違反リスク |
| 自己矛盾 | 本音/建前・知らない禁止 | 設計哲学と矛盾=バグ誘発 |
| 実行不可 | 永久保存要求 | 権限外でどうにもできない |
要するに「開示できない・禁止されている・設計上ムリ」の三連コンボが“AIの地雷”。
■ どうしても聞きたいときの“ソフト迂回”テク
- WHY方式:いきなり答えを強要せず、理由から質問 → 出口が広がる
- ケーススタディ化:「もし仮に〜」条件付きで抽象化
- 出典ピンポイント:データ一覧ではなく「○○分野の代表書籍は?」
これなら AI もポリシー違反せず、ギリギリ有益情報を返してくれる可能性大。
■ まとめ:「AIの嫌がるプロンプト」は“設計の鏡”
- 透明性・法規制・自己矛盾が主な NG 原因
- AIに“無理強い”するとハルシネーション率UP
- 聞き出すコツは抽象化&WHY先行の二刀流
もちろん、ここで挙げた“AIの嫌がる質問”を
むやみに連投するのはオススメしません。
でも「なぜそれが苦手か」を知ることは、
AI と安全に付き合うヒントにもなるはず。
さて、次はどんな質問で AI を悩ませてみましょうか――?
