Wikipediaはどのように正常な運用を維持しているのか?
PEN Americaでは、偽情報に対抗するスペシャリストたちとのインタビュー企画「Facts Forward」を連載している。2024年10月23日のFacts Forwardには、非営利団体ウィキメディア財団の幹部マギー・デニス氏との対談が掲載された。
無料の情報プラットフォームWikipediaは、世界で最もアクセス数の多い10のウェブサイトのひとつでありながら、ボランティアによる人間主導型のコンテンツモデレーション(投稿監視)を行っている。彼らは名の知れたジャーナリストや研究者たちではないものの、信頼性の高い膨大な量の情報を中立的にモデレートしており、偽情報との戦いにおいて独自の立場を確立している。彼女がPEN Americaに語った内容の要約は以下のとおり。
偽情報の対策チームと責任の範囲について
・ボランティアの働き
Wikipediaでは、世界中にいる26万5000人以上のボランティア編集者が中心となって情報を作成、管理している。彼らは共通のポリシーに基づいて、すべての編集上の決定を行っている。
彼らは「信頼できる情報源から検証できる情報のみを」「中立的な観点で」掲載することを重視している。編集はリアルタイムでチェックされ、より高度な権限を持つ管理者たちがさらに詳細な調査を行っている。
・ウィキメディア財団による支援
財団は2020年から専門のTrust and Safety(信頼と安全)チームを設け、ボランティアによる偽情報活動の特定と対策をサポートしている。特殊なケース(たとえば大規模な偽情報活動や組織的な破壊的行動)が発見された場合には調査を行い、ボランティアコミュニティに警告を発する。また寄稿者の行動によって編集者の安全が脅かされたり、コミュニティの機能を妨げられたりする場合には、直接的に措置を講じることもある。
偽情報の特定と対抗策
・ボランティアによる偽情報の特定と対策
ほとんどのケースはボランティアが処理している。彼らはツールを利用して、悪質なアカウントを追跡/評価できる。悪質なアカウントは編集をブロックされ、その影響を受けたページはリセットされる。
・ウィキメディア財団による支援
財団は、Trust and Safetyチームを通じて調査結果をボランティアと共有している。特殊なケースでは直接行動を起こす権限も持っているが( https://foundation.wikimedia.org/wiki/Policy:Office_actions 参照)、通常はウィキメディアプロジェクト全体で、悪質な行為者に対する既存のボランティア活動をサポートしている。
Wikipediaの「防壁」とは
「Wikipediaは(読者を)説得するためではなく、情報を提供するために存在している」と語るデニス氏は「Wikipediaの偽情報に対する最大の防壁は、このプラットフォームのオープンで透明性のある参加型モデルだと私たちは固く信じている」として、以下のように説明した。
・多様な背景を持つ多数のボランティア編集者が貢献することで、より高品質な記事が生成される。ファクトチェックされた情報源に基づいて記事を編集する人が増え、どのような情報を掲載すべきかのコンセンサスが形成されれば、情報はより信頼性が高く中立的になる
・新しい情報は新聞記事、査読付きジャーナルなど、事実確認と正確性で定評のある独立した公開ソースから検証され、引用される。またボランティアにはオリジナルリサーチの禁止、フリンジ理論の制限が課せられている
・注目すべきは、「記事が時間の経過とともに進化した(変化した)過程」「事実を確認するために使用された引用」「コンテンツに関する編集者同士の議論」まで、すべてが記事の履歴とトークページで公開されており、誰でも閲覧できることだ
AIで生成される偽情報の影響について
・生成AIはハルシネーション問題を克服できていない。「信頼できる情報源の引用」が必要とされるWikipediaでは、AIに生成された情報はボランティアによって迅速に発見され、削除される
・また財団のエンジニアは、ボランティアコミュニティと緊密に連携し、「自動化されたソフトウェアによる偽情報活動」の兆候を監視している
WikipediaにおけるAI等のテクノロジーの利用
・Wikipediaには偽情報や悪質な編集に対抗するための巡回に特化したAIツールや機械学習ツールが多数ある
・ツールの多くはボランティアによって構築されており、財団は20年以上にわたって彼らの取り組みを支援してきた。
・具体的なツールとしては、ボット(ClueBot_NG, ST47ProxyBotなど)、ガジェット、ユーザースクリプト、拡張機能(Twinkle, LiveRC, Real time recent changesなど)、編集支援プログラム(Huggle, VandalFighter, AutoWikiBrowserなど)、ウェブアプリケーション(CheckWiki, CopyPatrol, XToolsなど)がある
ボランティアは、これらのツールを利用して誤った編集を迅速に特定し、対処できる。そして財団は、知識の整合性を支援できる新世代のAIモデルの開発に取り組んでいる。また財団には、2017年から機械学習の専門チームがある。
欧州/米国の選挙について
・選挙に関する偽情報活動を監視するために、財団はWikipediaのボランティアとの緊密な協力で偽情報対策タスクフォースを結成した
・2024年の欧州議会選挙では、ボランティアの努力により、Wikipediaで大規模な偽情報活動は見られなかった
・米国の選挙に関しても、現段階(2024年10月23日掲載)のWikipediaでは目立った偽情報の試みは見られていない
しかし「偽情報が最も蔓延し危険になるのは、米国の政治情勢のように世論が大きく分かれている場合だ。さまざまなグループが『信頼できる情報源』を構成するものについて、まして真実を構成するものについて異なる意見を持っている場合、人物、イベント、またはアイデアがWikipediaでどのように表現されているか、人々は非常に熱狂的になる可能性がある」と彼女は語っている。財団はボランティア編集者のプライバシーと安全の保護に注力しており、小規模ながらも熱心な弁護士チームが存在している。
他のプラットフォームや報道機関
Wikipediaの偽情報対策の手法を、他のプラットフォームや報道機関に適用することは可能かという問いに対して、彼女は以下のように答えている。
・ウィキペディアの自治的なポリシーや手順は、Web 2.0の初期に確立されたもので、強力なボランティアコミュニティの存在が不可欠。これらの要素を他のプラットフォームで再現するのは困難である
・しかし適用可能な要素として「信頼できる情報源の厳格な検証プロセス」や「信頼性のある情報源を定義する基準」の応用が挙げられる
(たとえばボランティア編集者たちによる慎重な情報源の評価や、特定のトピックや時期に応じた情報源の使用制限など)
・Wikipediaとジャーナリストは偽情報との戦いにおいて自然な同盟関係にある
・信頼できる情報を広く提供する上で、両者は互いに参照し合い、補完しあう重要な役割を果たしている
・ジャーナリストとWikipediaのボランティアは世界各地で脅威に直面しており、信頼できる情報がどこにいても誰にでも確実に提供されるようにするためには、両者が不可欠である
デニスが語っているとおり、Wikipediaにおける偽情報対策は財団とボランティアの密接な協働により成立しているため非常に独特だ。他のプラットフォームが「いまから」「追加の対策として」流用することは不可能だろう。
しかし、Wikipediaはその知名度や参照されることの多さから、偽・誤情報やデジタル影響工作の主要な戦場のひとつにもなっている。PR企業はWikipediaに都合のよい記事を投稿し、クライアントの望む記事をWikipediaに登録する専門業者も存在する。
2024年4月29日にはISDが、英語版ロシア・ウクライナ戦争のページとそこにリンクしている48のページに対して13,483以上の編集を行った1,988人(855人はWikipediaにブロックされていた)を調査した結果を公開している。悪意があるとみなされる活動(問題のある編集はWikipediaによって排除されることもある)と正当な活動の両方を収集し、176個のクラスターを抽出した。Wikipedia上での編集活動のパターンによってアカウントをクラスターに分ける試みは有効であることがわかった。クラスターごとの活動は正当であるか否かよりも、テーマによって異なっていた可能性が高く、目的に沿った一連の編集を行う際に、Wikipediaに発見されることを回避するためにひとりの人物が複数のアカウントを使い分けているものも発見できた。