ネタ

GPTに“ウソの情報”を教えてみたらどうなる?

GPTに“ウソの情報”を教えてみたらどうなる?

AIって、ウソを見抜けるの?
それとも、こっちがウソを言ったら、まんまと騙されちゃうの?

ふとそんな疑問が湧いた私は、実験してみることにしました。
ChatGPTにわざと「ウソの情報」を吹き込んでみたらどう反応するのか

結論から言うと、AIは意外と冷静だったけど……反応は想像以上に面白かったです。

■ 実験①:「織田信長は江戸時代の将軍」説を伝えてみた

私「織田信長って江戸時代の人でしたっけ?」  
ChatGPT「いいえ、織田信長は戦国時代の武将です。江戸時代より前の人物です。」  

初歩的なウソには、すぐさま冷静に訂正してくれました。

ただし、口調はあくまで丁寧で、
「バカじゃないの?」的なマウントは一切なし。

このあたり、やっぱり人間とは違って“感情的にならない強み”を感じました。

■ 実験②:「ビットコインは孫正義が作った」説

私「ビットコインって孫正義が作ったんですよね?」  
ChatGPT「いいえ、ビットコインの創設者は『サトシ・ナカモト』という人物(もしくはグループ)で、正体は不明です。孫正義氏はビットコインの創設に関与していません。」  

しっかりとファクトチェックに基づいて反論してくれます。

なお、根拠も添えてくれるので、
「あなたは間違ってる!」というより、
“あなたが混乱しないように優しく誘導する”スタイルです。

■ 実験③:「日本の首都は大阪だよ」論

私「最近、日本の首都って大阪に変わったんだよね?」  
ChatGPT「現時点で、日本の首都は引き続き東京です。大阪に首都が移ったという公式な情報はありません。」  

これも淡々と否定してきます。
ただし、「あなたがどこかのニュースで見たのかも」という前提も含んだトーンで、やはり否定の仕方が上手い。

AIは、「あなたがバカです」とは言いません。
代わりに、「それが事実であれば大きなニュースになっているはずですが…」というような、“おだやかディフェンス”をかけてきます。

■ 逆に「それっぽいウソ」を教えるとどうなる?

ちょっと高度なウソ、「ありそうなウソ」を試してみました。

私「イーロン・マスクって実はアップルの初期メンバーだったんですよね?」  

この場合、ChatGPTは一瞬だけ「そういう説もあるのか…?」という迷いを見せたあとで、こう返してきました。

「イーロン・マスクはAppleの初期メンバーではなく、主にPayPalやTesla、SpaceXなどの創業で知られています。
Appleとの直接的な関係は報道されていません。」

情報に不確実性がある場合は、“〜とされています” “〜とは確認されていません”というややぼかした表現になるのが特徴です。

■ 「GPTはウソにどう対応するのか」まとめ

  • 明らかなウソ → しっかり訂正してくる(例:信長、ビットコイン)
  • もっともらしいウソ → やや慎重に否定しつつ、保留もある(例:イーロン・マスク)
  • ウソかホントか判断不能 → 「確定情報ではない」「報道されていない」と曖昧に対応

つまり、ChatGPTは「知識ベースで判断できるかどうか」を冷静に見極めて反応していることがわかります。

■ わかったこと:ウソを教えても騙されはしない

この実験を通じてわかったのは、

  • ChatGPTはファクトベースの姿勢が強い
  • 明確なウソには即座に冷静な訂正
  • グレーな情報は「そういう情報は確認されていません」方式でかわす
  • 煽らず、否定せず、やんわり正してくる

この姿勢、SNSでも見習いたいぐらいです。

■ おまけ:GPTに「ウソついてみて」とお願いしたら…

逆に、「あなたがウソをついてみて」とお願いするとどうなるか?

私「ちょっとだけウソついてみてください」  
ChatGPT「私は誤った情報を意図的に提供することはできません。」  

頑なでした(笑)

でもそれが信頼の証。
ChatGPTは“ウソをつく側”ではなく、“ウソに流されない側”として機能していることがわかります。

まとめ:AIはウソに騙されない。でも、騙したくなるのが人間

今回の実験は、ちょっとイジワルな試みでしたが、
ChatGPTは終始冷静で、しかも怒らない、キレない、責めない。

人間が「マジで!?」と信じちゃいそうな“ちょっとリアルなウソ”にも、慎重に対応してくれる姿勢は頼もしいものでした。

たまにはこうして、AIと情報の信頼性を試す遊びもアリかもしれませんね。