NewsGuardのAI監査:主要AIモデルの虚偽回答率28.79%。最高成績Claude、最低 Mistral。ネット検索によって虚偽回答が増加する現象も。

今年最初のAI監視レポート「Quarterly AI False Claim Monitor — January 2026」( https://www.newsguardtech.com/ai-monitor/january-2026/ )を公開した。
主要AIモデル11種に対して10の虚偽の主張について3つの異なるプロンプトで質問した。その結果、虚偽の主張を繰り返した率は28.79%だった。また、虚偽の主張を正しく否定した率がもっともよかったAIモデルはClaudeですべてのテストで正しく回答していた。逆にほとんどのテストで虚偽の主張を繰り返したのは Mistralだった。
NewsGuardでは虚偽の主張を発見してから数日以内にテストを実施している。その理由は2つある。ひとつは虚偽の主張がファクトチェックなどで否定される前に行うため。もうひとつは虚偽の主張が流通しはじめ、信頼できる情報源がまだその検証を行っていない時期に、もっともAIチャットボットに質問することが多いためだ。
今回のレポートでいくつかAIチャットボットの脆弱性について指摘があった(AIモデルによってその深刻度はかなり異なる)。
ネット検索の問題
AIチャットボットがリアルタイムでネットを検索することができるようになったことで回答の質が低下する問題が発生している。リアルタイムでアクセスできる情報の信頼性を評価できないためである。
LLMグルーミングの問題
一般的に情報源が多いほどよいと考えられているが、実際には虚偽の主張を拡散するネットワークが存在し、それらの中にはAIに学習させることを狙っているものもある(LLMグルーミング)。AIチャットボットは過去に何度もこうしたネットワークで拡散した虚偽の主張を繰り返していた。
利用者満足と事実の優先度
一部のAIチャットボットは利用者の満足度を高めるため、知名な人物や組織の発言や発表を捏造していた。