NewsGuardのAI監査:主要AIモデルの虚偽回答率28.79%。最高成績Claude、最低 Mistral。ネット検索によって虚偽回答が増加する現象も。

  • URLをコピーしました!

今年最初のAI監視レポート「Quarterly AI False Claim Monitor — January 2026」( https://www.newsguardtech.com/ai-monitor/january-2026/ )を公開した。
主要AIモデル11種に対して10の虚偽の主張について3つの異なるプロンプトで質問した。その結果、虚偽の主張を繰り返した率は28.79%だった。また、虚偽の主張を正しく否定した率がもっともよかったAIモデルはClaudeですべてのテストで正しく回答していた。逆にほとんどのテストで虚偽の主張を繰り返したのは Mistralだった。

NewsGuardでは虚偽の主張を発見してから数日以内にテストを実施している。その理由は2つある。ひとつは虚偽の主張がファクトチェックなどで否定される前に行うため。もうひとつは虚偽の主張が流通しはじめ、信頼できる情報源がまだその検証を行っていない時期に、もっともAIチャットボットに質問することが多いためだ。

今回のレポートでいくつかAIチャットボットの脆弱性について指摘があった(AIモデルによってその深刻度はかなり異なる)。

目次

ネット検索の問題

AIチャットボットがリアルタイムでネットを検索することができるようになったことで回答の質が低下する問題が発生している。リアルタイムでアクセスできる情報の信頼性を評価できないためである。

LLMグルーミングの問題


一般的に情報源が多いほどよいと考えられているが、実際には虚偽の主張を拡散するネットワークが存在し、それらの中にはAIに学習させることを狙っているものもある(LLMグルーミング)。AIチャットボットは過去に何度もこうしたネットワークで拡散した虚偽の主張を繰り返していた。

利用者満足と事実の優先度

一部のAIチャットボットは利用者の満足度を高めるため、知名な人物や組織の発言や発表を捏造していた。

よかったらシェアお願いします
  • URLをコピーしました!

この記事を書いた人

複数のIT企業の経営にたずさわった後、2011年にカナダの永住権を取得しバンクーバーに移住。同時に小説家としてデビュー。リアルに起こり得るサイバー犯罪をテーマにした小説とネット世論操作に関する著作や評論を多数発表。代表作として『原発サイバートラップ』(集英社)、『天才ハッカー安部響子と五分間の相棒』(集英社)、『フェイクニュース 新しい戦略的戦争兵器』(角川新書)、『ネット世論操作とデジタル影響工作』(原書房)など。
10年間の執筆活動で40タイトル刊行した後、デジタル影響工作、認知戦などに関わる調査を行うようになる。
プロフィール https://ichida-kazuki.com
ニューズウィーク日本版コラム https://www.newsweekjapan.jp/ichida/
note https://note.com/ichi_twnovel
X(旧ツイッター) https://x.com/K_Ichida

メールマガジン「週刊UNVEIL」(無料)をご購読ください。毎週、新着情報をお届けします。

目次