イラン・イスラエル紛争と「AIによる偽情報の拡散」

2025年6月13日未明にイスラエルがイランの核関連施設などを狙って空爆を開始し、イランもミサイルやドローンの攻撃で報復した。この二国の紛争に関する様々な偽情報やデマがAIの働きにより、過去にない規模で拡散されている。
「生成AI」の影響
「反撃に成功しているイラン」のフェイク
イスラエル軍が大規模な空襲を行った際、イランの国営メディアは「イラン軍がイスラエルの戦闘機2機を撃墜した」と報じた。しかしイスラエル当局は、その撃墜が「フェイクニュースである」と一蹴した。このように二国の主張が相反する中、SNSでは「イランの砂漠に墜落した戦闘機(F-35)の写真」と主張されるAI生成画像が広く拡散された。イラン・イスラエル紛争に関しては様々なAI生成コンテンツが大量に拡散されているが、中でも特に多くの人が目にした写真のひとつだと言って良いだろう。
その画像は、左翼を失った巨大な戦闘機の周囲に市民が集まっている姿を上空から撮影した写真(のように見せているAI生成画像)で、見た目のインパクトこそ強かったものの、偽画像としての完成度はそれほどでもなく、よく見ればAI生成であることは明らかだった。BBCも指摘しているとおり、そこに映っている人々のサイズは「車と同じぐらいの大きさ」であり、砂面にも衝突の痕跡がない。またAFPは「この画像の中で戦闘機F-35だと主張されている機体」のデザインが実際のF-35の機体とは異なっていること、さらに車両の一部が道路に溶け込んだように見えることも指摘している。
それでも二国の主張が完全に矛盾した「F-35撃墜」は話題性が抜群だったのだろう。このAI生成画像は複数の国のSNSで瞬く間に拡散した。F-35に関する偽情報の画像や動画は、この画像の他にいくつも存在しており、それらの一部は数十万回〜数千万回の単位で閲覧されている。
そして注目を集めているのはF-35の話題だけではない。「イスラエルの都市の建物が、イランのミサイルに攻撃されている様子」と主張されるフェイク動画も数多く拡散された1。これらの動画には、今回の紛争とは全く無関係の映像を流用しただけのもの、あるいはゲーム映像の切り取りなども含まれているが、多くはTikTokでAI生成コンテンツを配信しているアカウントが、イスラエルの空爆開始よりも前(2025年5月)に投稿していた動画だったことが確認されている。
たとえば「テルアビブ空港をイラン軍が破壊している様子」として出回っている動画がある。AFPは、この動画の中で「テルアビブ空港」とされている空港や周辺の建物がGoogleマップの画像とは異なっていることを伝え、さらに建物の周辺を走行している車両が互いに重なっている(すり抜けている)など、AI生成動画特有の矛盾が見られることを指摘した2。
しかし、そのような不自然さを残した生成動画も「これはテルアビブ空港で現実に起きていることです」などの誤った説明と共にシェアされた。もちろんフェイクだという指摘はあったものの、多くの人々が本物だと誤解したため、それは複数のSNSを通して世界中の言語で広く拡散され、数百万回にわたって再生されてしまった。
「愛されているイスラエル」のフェイク
このような「攻撃や被害の様子を騙った生成AIコンテンツ」の多くは、イランの軍事力を誇示しようとする意図が強い。つまり親イラン派のアカウントによって活発に拡散されている。一方で、親イスラエル派のアカウントは「孤立するイラン政府の厳しい現状」を騙るAI生成のコンテンツをシェアしているようだ。
たとえば「テヘランの街頭でイラン人たちが『私たちはイスラエルを愛している』と叫ぶデモの映像」が様々な国のSNSでシェアされたが、この動画も「AI生成であることが確認された」と複数の報道機関が報じている。特に豪州の通信社AAPは、動画そのものを徹底的にチェックしたうえで、「AI作成だと分かるシーン」を具体的に列挙した(たとえば参加者の腕が不自然に反り返るシーン、意味不明な文字の書かれたプラカードが映っているシーン、参加者の顔のレンダリングに失敗しているシーンなど)。
プラカードのスローガンが意味を成していないのなら、ペルシャ語の話者には一発でフェイクだと見抜ける。この動画は様々な言語の親イスラエル派アカウントにシェアされているが、おそらくイランの市民を騙す意図はなく、他言語の国の人々に対して「本当はイラン人もイスラエルの攻撃を歓迎しているのだ」というナラティブを拡散することだけを目的としているのだろう。
このように、親イランのアカウントが「イスラエルに反撃するイランの強さ」を誇示しようとするのに対し、親イスラエルのアカウントは「歓迎されるイスラエルと孤立するイラン」を世界に誇示するためにAI生成のコンテンツを拡散する傾向があった。しかし最近は、その傾向の違いも曖昧になりつつあるようだ。親イスラエル派のアカウントも数日前から、テヘランの上空を飛行する爆撃機B-2のAI生成画像などをシェアしはじめている。このB-2は「イランの地下核施設への攻撃を実行できる唯一の存在」として、いま注目を集めている航空機である。
「AIによる真偽判定」の悪影響
さらにAIの技術は、これらのコンテンツの生成に利用されているだけでなく、そのコンテンツの拡散にも貢献している。なぜなら偽動画や偽画像を見たユーザーが、真偽の判定をAIチャットボットに頼ってしまうからだ。そしてご存じのとおり、AIはしばしば誤った回答をする。
一例として、Atlantic CouncilのDigital Forensic Research Lab(DFRLab)の報告を紹介したい。彼らの調査によると、先述の「破壊されたテルアビブ空港」のAI生成動画を見た多くのXユーザーは、「これはAIなのか本物なのか」をGrokに尋ねていたという。この質問に対し、Grokが「どうやら本物の動画のようだ」と回答してしまったため、そのAI生成の動画には「AIではない。本物のテルアビブ空港を写した様子だ。Grokで確認できる」といった説明が添えられた形で広くシェアされてしまった3。
またNewsGuardの報告によると、「中国がイランに軍用輸送機を派遣した」という偽情報についても、その真偽をAIに問い合わせるユーザーが後を絶たなかったようだ。その問い合わせに対し、複数のAIチャットボット(GrokやPerplexityなど)が「事実である」と回答してしまったため、このデマはまことしやかに拡散されたという。
このような例はイラン・イスラエル紛争で初めて見られるようになったものではない。2025年5月初旬にインドとパキスタンの間で4日間の紛争が生じたときも、大量の誤情報が拡散した。そして混乱したSNSユーザーの多くが、AIチャットボットに「事実確認」を依頼したことで、新たな誤情報を得る人々が続出してしまった。このときのGrokは、スーダンのハルツーム空港の古い映像を、「インドと紛争中のパキスタンのヌール・カーン空軍基地に対するミサイル攻撃」であると誤って特定した。またネパールで起きた火災の映像についても「おそらくはインドの攻撃に対するパキスタン軍の対応を示した映像」であると誤認した。
人々がAI生成コンテンツを「拡散してしまう」理由
情報を拡散するユーザーの背景
このような形でAIチャットボットは、AI生成の偽コンテンツの信憑性の向上に貢献しているが、それを信じて「拡散」そのものを行っているのは人間のユーザーである。
これらの偽情報を人々が拡散しやすい理由のひとつとして、BBCは「エンゲージメント」の問題を指摘した。ご承知のとおり、現在の大手SNSはモデレーションが弱体化しているため、ただでさえ偽情報が野放しになりやすくなっている。そんな中、フォロワーの拡大や広告収入を目的に運営されているアカウントは、信頼性よりも話題性を重視した情報を大量に扱い、さらにエンゲージメントファーミング(いいね、シェア、コメントを得るための様々な工作)を行いがちになるため、それらの投稿は瞬く間に100万単位の閲覧数を得てしまう。閲覧数の多い投稿は、より閲覧されやすくなり、さらに多くの人々がシェアすることになる。
このBBCの記事は「紛争や政治など、人々が『二者択一』を迫られる状況では、偽情報がより急速に拡散する可能性がある」というノートルダム大学の研究者Matthew Facciani氏のコメントも紹介した。彼は次のように付け足している。
「それは、人々が『自分の政治的な立場に合致する情報を再共有したがる』という、より広い社会的/心理的な側面を浮き彫りにしたものだ。そして一般的に言えば、よりセンセーショナルで感情的なコンテンツほど、より早くオンラインで拡散されるだろう」
一方404 Mediaは「紛争に関する現実の映像が不足している状況」も、偽情報が拡散されやすい環境を作りあげていると指摘している。現在イランとイスラエルの両国は自国の市民に対し、現実の戦闘や被害に関する映像をオンラインにシェアしないよう伝えている。しかし情報が遮断された状況になれば「本当のことを知りたい、現実に何が起きているのかを見たい」と願う人々は増える。そんな中、AI生成のコンテンツは「SNSの空白」を埋める役割を担ってしまい、その結果として誤情報が拡散されるという指摘だ。
SNSの拡散力を利用したがる当事者
ここまでの要素は「一般ユーザーが」イラン・イスラエル紛争に関するフェイクコンテンツを拡散してしまいがちな理由だ。しかし「イランとイスラエルの双方の関係者自身も、AI生成のコンテンツを利用したプロパガンダや排外主義の主張を拡散している」という点は、また別の問題と言ったほうがよいのかもしれない。
今回の紛争においても、先述のAI生成の偽画像の一部を(偽情報と知ってか知らずか)彼ら自身がシェアしている。たとえばイランの国営放送は、先述の「撃墜されたF-35」のAI生成画像を公の報道に用いている。いまや国家当局のアカウントがフェイクニュースを拡散することは珍しくなくなってきたが、それでも「国家機関の公式アカウントが間違った情報を安易にシェアするはずがない」と信じてしまうユーザーは多いだろう。
AI生成の技術向上と、ファクトチェックの速度
そして当然ながら、AIの生成技術の向上も「人々がうっかりシェアしてしまう」大きな理由のひとつだ。今回の紛争に関連して出回った大量のAI生成の画像や動画は、すべて高品質だったわけではないが、一昔前のAI生成のコンテンツにありがちだった「よく見れば素人でも一瞬で見分けられるレベル」のものはそれほど多くなかった。そして一部には、専門家でも審議の判断が困難となるもの(AI生成の弱点を見越したうえで作られたようなものなど)も確認されている。
それでも目立って広範囲に拡散された画像や映像に関しては、複数の報道機関や調査団体がファクトチェックの結果を発表しているため、無事に「偽物」の判断が下されている。しかしAIが一瞬にして虚偽のコンテンツを作り上げるのに対し、人間が真面目に検証して結果を発表するには時間がかかる。ファクトチェックの結果が伝わる頃には、すでに別の魅力的な偽コンテンツが出回っているはずだ。
このような状況の改善策として、フェイクコンテンツの検出ツールの強化や、プラットフォームに対する責任の強化などを求める意見がある。しかし、それらの対策が机上の空論に思われるほど、「気軽に利用できるAI」が人々の生活に浸透してしまったと感じる人もいるかもしれない。
「せめていまだけでも」AIを信用するな
AI生成のディープフェイクや偽情報の拡散は、これまで何度も報じられてきた話題だ。しかし今回のイスラエル・イラン紛争では、こういった情報が前例のない規模で急速に拡散されている。その背景には様々な理由が挙げられているが、やはり「AI生成による偽情報の真偽判定にもAIチャットボットを利用するユーザーが激増したこと」は特筆すべきだろう。
AIチャットボットは自分の分からない質問に対して「分からない」と答えることを避けるため、もっともらしい嘘や憶測を堂々と語り、その根拠まで捏造してしまうことがある。わざわざINODSの記事を読んでいる方にとって、それは常識かもしれないが、残念ながらAIチャットボットを利用する全ユーザーが、そのように認識しているわけではない。むしろ「世界中が注目する最新のトピックで、AIが誤答するとは思えない。まして『真実の映像なのかAI生成の映像なのか』の判定をAIが間違うことはないはずだ」と考える人もいる。だからこそXでは、GroKを利用して気軽にファクトチェック(もっともAIにさせてはいけないことの一つだろう)を行うユーザーが後を絶たない。
そのようなユーザーが、いったんAIチャットボットから「本物である」という回答を得た場合、その思い込みを覆すことは難しいだろう。たとえ信頼できる機関が丁寧なファクトチェックを行い、「これはAI生成のフェイク映像だ」と後発で結果を発表しても、聞く耳を持たなくなってしまう危険性がある。
今回の記事の締めくくりとして、France24の6月4日の記事に掲載されたNewsGuardの研究者、McKenzie Sadeghiのコメントを紹介したい4。彼女はAFPによる取材の中で、次のように警告している。
「AIチャットボットは、ニュースなどに関して信頼できる情報源にはならないということが私たちの調査では何度も判明している。とりわけ速報ニュースに関しては、その傾向が顕著になっている」
AIを過剰に信頼しているユーザーの考えを変えることは簡単ではない。それでも「国際的な紛争など、速報が伝えられている重大なニュースにおいて、AIに判断を頼るのは特に危険である」と伝えることは重要だ。Xで日常的に「Grokのファクトチェック」を利用しているユーザーはもちろん、ChatGPTなどを使い始めたばかりの若者や高齢者などに対しても、できるだけ早いうちに周知徹底をさせるべきではないだろうか。
参考:
Israel-Iran conflict unleashes wave of AI disinformation (BBC)
https://www.bbc.com/news/articles/c0k78715enxo
AI image of crashed jet falsely linked to Iran-Israel war _ Fact Check
https://factcheck.afp.com/doc.afp.com.62Y23WD
AI-generated videos of ‘destruction in Tel Aviv’ falsely linked to Israel-Iran conflict _ Fact Check
https://factcheck.afp.com/doc.afp.com.62H69WE
Iranian pro-Israel chant video is AI-generated _ AAP
https://www.aap.com.au/factcheck/iranian-pro-israel-chant-video-is-ai-generated/
Tech-fueled misinformation distorts Iran-Israel fighting
https://www.france24.com/en/live-news/20250621-tech-fueled-misinformation-distorts-iran-israel-fighting
Tech-fueled Misinformation Distorts Iran-Israel Fighting _ IBTimes
https://www.ibtimes.com/tech-fueled-misinformation-distorts-iran-israel-fighting-3776396
Grok shows ‘flaws’ in fact-checking Israel-Iran war_ study
https://www.france24.com/en/live-news/20250624-grok-shows-flaws-in-fact-checking-israel-iran-war-study
The AI Slop Fight Between Iran and Israel
https://www.404media.co/the-ai-slop-fight-between-iran-and-israel/?ref=weekly-roundup-newsletter
Tech-Fueled Disinformation Obscures Reality of Iran-Israel Conflict _ DISA
https://disa.org/tech-fueled-disinformation-obscures-reality-of-iran-israel-conflict/
Hey chatbot, is this true_ AI ‘factchecks’ sow misinformation
https://www.france24.com/en/live-news/20250602-hey-chatbot-is-this-true-ai-factchecks-sow-misinformation
注
- これらのAI生成動画を分析したBBCは「夜間に行われた攻撃の映像だと主張するものが多くなっていること(それが検証を困難にしていること)」を指摘した。 ↩︎
- 画像や動画に見られるAI特有の不自然さについて、AFPは次のように語っている。
「生成AIの技術は急速に進歩している。しかし『視覚的な矛盾』はいまも存在しており、それは捏造のコンテンツを見分けるための最良の方法である」
言い方を変えるなら「そのような矛盾を人間が手探りで探し出すという地味な手法が、いまのところは最も効果的な判別方法になってしまっている」ということにもなるだろう。 ↩︎ - より厳密に記すと、このとき複数のユーザーから寄せられた同様の質問に対して、Grokは「破壊はなかった」と返答したり、「破壊があったようだ」と返答したり、あるいはテルアビブではなくガザやテヘランと混濁した答えを返したりした。それぞの回答を信じたユーザーたちが次々とシェアしたため、Xには同じタイミングで「バラバラなGrokの回答」が拡散されることになった。これらの回答は数百万回閲覧された、とDFRLabは報告している。 ↩︎
- 彼女は、Grokがファクトチェッカーとして依存されている背景のひとつとして「Xや他の大手テクノロジー企業が、人間のファクトチェッカーへの投資を縮小していること」を挙げている。 ↩︎