主要AIチャットボットはフェイクニュースの達人

  • URLをコピーしました!

BBCの報道によると、ニュースについての主要AIの回答のおよそ90%に問題があり、半数以上に重大な問題があった。調査の対象となったAIは、ChatGPT、Gemini、Perplexity、Copilotと日頃よく耳にするものばかりだ。存在しないものをでっちあげて回答するハルシネーションは、これらのAIのお家芸だが、それ以外にも文脈を読み違えているものや、古い事実に基づくものなどさまざまな問題が見つかった。正しい回答に偽・誤情報を混ぜるのは騙しのテクニックに他ならない。フェイクニュースの達人のようだ。

学習用データに0.001%に問題があるだけで誤った結果を返すようになるといった論文や、目的達成のためにはウソをつくという調査結果導入しても効果がないという調査結果などネガティブな事実が明らかになってきた。回答失敗率が40%という結果もあった。
こうした問題にも関わらず、多くの最新技術がそうであるように問題を過小評価し、将来性を過大評価してAIへの投資は進んでいる。
余談であるが、マイクロソフト製品についてくるCopilotのロゴや、アップル製品のApple Intelligenceという表記を見るたびに、「こんなゴミのために金を払っているのか」と非常に腹立たしいのでオプションにしてほしい。ただのゴミではない。ウソをつくゴミだ(少なくとも私にとっては)。ゲーム機とクソゲーの抱き合わせ販売よりも悪質だと感じるのは私だけではないと信じたい。

中国やロシアが偽・誤情報を発信すると、欧米の多数の機関やメディアがこぞって検証し、非難する。しかし、日常的に偽・誤情報を発信しているAIを非難する声は賞賛する声に比べるとかなり少ないように思える。しかし、実際には中露の偽・誤情報よりもAIの偽・誤情報の方が日常的に目にする機会が多くなっているのではないだろうか? 外国語の字幕をAIで自動生成していたテレビ局が精度に問題があったために取りやめたり、大学のレポートをAIに書かせたら存在しない論文や判例や事実を教員に指摘されたとか、いたるところにAIの偽・誤情報はあふれている。「目にする情報の半分以上が偽・誤情報」という時代はすぐそこだ。

よかったらシェアお願いします
  • URLをコピーしました!

この記事を書いた人

目次