予想通りに動作しないAIたち 認知戦のターゲットはAIへ?

AIは幻覚を起こしたり、人を騙すことがある。同様に、予想を裏切る行動も珍しいことではないが、提供者が公開を停止したり、チューニングを変える必要を感じるようになってきている。
OpenAIは、「利用者に媚びすぎる」ようになったため、4月終わりに最新版のGPT-4oをロールバックした。利用者をほめることそのものは悪いことではないだが、利用者がどのようなことを言っても必ず褒めることは時に問題となる。
OpenAI Blog
https://openai.com/index/sycophancy-in-gpt-4o/
サム・アルトマンのポスト
https://x.com/sama/status/1916625892123742290
たとえば、利用者の言うことをほめ続けた結果、利用者がエリザベス女王(当時存命)の暗殺を企てるという事件も起きている。
Character.AIと「親殺し」〜AIチャットボットの心理的な悪影響とは
https://inods.co.jp/topics/4842/
xAIが提供しているXのGROKはイーロン・マスクについて批判的な意見を持っていることで有名だ。提供者の政治的立場とはだいぶ異なる回答を行うことが多く、MAGA支持者とも意見が合わなそうだ。 GizmodoはMAGAの主張にGROKが反論している様子をレポートしている。
https://gizmodo.com/elon-musks-grok-ai-has-a-problem-its-too-accurate-for-conservatives-2000597568
AIが提供者の意図からはずれた発言をする問題は昔からあり、それぞれは大きな問題ではないように感じるかもしれないが、利用範囲の拡大とAIの有用性を信じる人々の増加によって影響範囲は広がっている。法執行機関の担当者が怪しいと感じた人物についてAIに質問した際、「あなたの考えは正しいと思います」と疑惑を全肯定されてしまい、そのための状況証拠をネットから収集してしまうような事態も起こりうる。
もうひとつの危険性は、AIの判断が第三者に操作されている可能性の存在だ。AIは人間以上に騙されやすい、正確には窃取したデータに正直に反応するようにできている。そのため、意図的にデータに自分の意図するバイアスを混入させることで誤った主張をさせることが可能になっている。すでにいくつかの記事で紹介されているように、仮定の話ではなく、現実におきていることだ。すでにロシアはAIを騙すための作戦を実施している。
「騙されるAI」0.001%の誤情報の混入で誤った回答を導く巨大な罠
https://www.newsweekjapan.jp/ichida/2025/05/ai0001.php
LLMとWikipediaまで汚染するロシアのPortal Combat
https://inods.co.jp/topics/6052/
AIは法執行機関などクリティカルな業務での利用も広がっている。それが姿の見えない第三者の影響を受けた判断を下すようになるかもしれない、というのは非常に危険だ。
認知戦という言葉はもともとは人間を対象としたものだったが、現在認知戦の対象はAIにまで広がり、加速している。なにしろ人間よりもAIの方が騙しやすいのだ。
くわえて、AIモデルの開発者も利用者も自分たちがなにをやっているのか理解していない。動作の予測も保証もできない製品をクリティカルな業務に採用しているのが、その証拠だ。AIの方が人間よりも騙しやすいうえ、AIを開発者や利用者は動作の予測も保証もない製品を平気で利用している。これほど、影響工作に適した環境はない。