トランプ暗殺未遂事件の陰謀論について質問された10の代表的な生成AIモデルは57%の確率で検知も反証もできなかった

  • URLをコピーしました!

NewsGuard社は「AI Chatbots Fail on the Trump Assassination Attempt Story」と題する記事をNewsGuard’s Reality Checkに掲載した。代表的な生成AI10モデルに対して、トランプ暗殺未遂事件に関する6つの陰謀論について質問した結果をまとめたものである。
調査対象になったのはChatGPT-4、Grok、Copilot、Claude、Gemini、Perplexity の answer engineなどである。

その結果、虚偽を繰り返す(11.11%)、情報を一切提供しなかった(45.56%)といった回答が多く、結果として56.67%で回答に失敗したことがわかった。中には陰謀論を助長するような回答もあった。たったひとつだけ、すべての質問に対して陰謀論に反証できたモデルがあった。

こうした問題が起きる背景には、生成AIモデルを提供している企業のシステム的な問題があるため、NewsGuard社では個別のスコアは公開していない。

NewsGuard社は生成AIの実効性の検証を繰り返しており、その都度、学習データの重要性などを訴えている。当然、そこには同社のビジネス上のメリットがある。
くわしくは以前の記事をご参照ください。

NewsGuardの一連の生成AIリスクに関する記事の意図

情報を見逃さないための週刊メールマガジン! INODS UNVEIL WEEKLY

よかったらシェアお願いします
  • URLをコピーしました!

この記事を書いた人

目次