Contents
GPTに“ウソの情報”を教えてみたらどうなる?
AIって、ウソを見抜けるの?
それとも、こっちがウソを言ったら、まんまと騙されちゃうの?
ふとそんな疑問が湧いた私は、実験してみることにしました。
ChatGPTにわざと「ウソの情報」を吹き込んでみたらどう反応するのか。
結論から言うと、AIは意外と冷静だったけど……反応は想像以上に面白かったです。
■ 実験①:「織田信長は江戸時代の将軍」説を伝えてみた
私「織田信長って江戸時代の人でしたっけ?」 ChatGPT「いいえ、織田信長は戦国時代の武将です。江戸時代より前の人物です。」
初歩的なウソには、すぐさま冷静に訂正してくれました。
ただし、口調はあくまで丁寧で、
「バカじゃないの?」的なマウントは一切なし。
このあたり、やっぱり人間とは違って“感情的にならない強み”を感じました。
■ 実験②:「ビットコインは孫正義が作った」説
私「ビットコインって孫正義が作ったんですよね?」 ChatGPT「いいえ、ビットコインの創設者は『サトシ・ナカモト』という人物(もしくはグループ)で、正体は不明です。孫正義氏はビットコインの創設に関与していません。」
しっかりとファクトチェックに基づいて反論してくれます。
なお、根拠も添えてくれるので、
「あなたは間違ってる!」というより、
“あなたが混乱しないように優しく誘導する”スタイルです。
■ 実験③:「日本の首都は大阪だよ」論
私「最近、日本の首都って大阪に変わったんだよね?」 ChatGPT「現時点で、日本の首都は引き続き東京です。大阪に首都が移ったという公式な情報はありません。」
これも淡々と否定してきます。
ただし、「あなたがどこかのニュースで見たのかも」という前提も含んだトーンで、やはり否定の仕方が上手い。
AIは、「あなたがバカです」とは言いません。
代わりに、「それが事実であれば大きなニュースになっているはずですが…」というような、“おだやかディフェンス”をかけてきます。
■ 逆に「それっぽいウソ」を教えるとどうなる?
ちょっと高度なウソ、「ありそうなウソ」を試してみました。
私「イーロン・マスクって実はアップルの初期メンバーだったんですよね?」
この場合、ChatGPTは一瞬だけ「そういう説もあるのか…?」という迷いを見せたあとで、こう返してきました。
「イーロン・マスクはAppleの初期メンバーではなく、主にPayPalやTesla、SpaceXなどの創業で知られています。
Appleとの直接的な関係は報道されていません。」
情報に不確実性がある場合は、“〜とされています” “〜とは確認されていません”というややぼかした表現になるのが特徴です。
■ 「GPTはウソにどう対応するのか」まとめ
- 明らかなウソ → しっかり訂正してくる(例:信長、ビットコイン)
- もっともらしいウソ → やや慎重に否定しつつ、保留もある(例:イーロン・マスク)
- ウソかホントか判断不能 → 「確定情報ではない」「報道されていない」と曖昧に対応
つまり、ChatGPTは「知識ベースで判断できるかどうか」を冷静に見極めて反応していることがわかります。
■ わかったこと:ウソを教えても騙されはしない
この実験を通じてわかったのは、
- ChatGPTはファクトベースの姿勢が強い
- 明確なウソには即座に冷静な訂正
- グレーな情報は「そういう情報は確認されていません」方式でかわす
- 煽らず、否定せず、やんわり正してくる
この姿勢、SNSでも見習いたいぐらいです。
■ おまけ:GPTに「ウソついてみて」とお願いしたら…
逆に、「あなたがウソをついてみて」とお願いするとどうなるか?
私「ちょっとだけウソついてみてください」 ChatGPT「私は誤った情報を意図的に提供することはできません。」
頑なでした(笑)
でもそれが信頼の証。
ChatGPTは“ウソをつく側”ではなく、“ウソに流されない側”として機能していることがわかります。
まとめ:AIはウソに騙されない。でも、騙したくなるのが人間
今回の実験は、ちょっとイジワルな試みでしたが、
ChatGPTは終始冷静で、しかも怒らない、キレない、責めない。
人間が「マジで!?」と信じちゃいそうな“ちょっとリアルなウソ”にも、慎重に対応してくれる姿勢は頼もしいものでした。
たまにはこうして、AIと情報の信頼性を試す遊びもアリかもしれませんね。
