システミックリスクとして誤情報(misinformation)を扱うべきという論考

  • URLをコピーしました!
目次

1.はじめに

今回は、Harvard Kennedy School Misinformation Review に掲載されたNuurrianti Jalliの論考「Reframing misinformation as informational-systemic risk in the age of societal volatility」(https://misinforeview.hks.harvard.edu/article/reframing-misinformation-as-informational-systemic-risk-in-the-age-of-societal-volatility/)を紹介する。本レポートでは「システミックリスク」として誤情報(misinformation)を扱うことで従来よりも適切かつ包括的な対応が可能としている。
銀行の取り付け騒ぎやパンデミック、選挙が制御不能に陥る時、情報が引き金になることが多い。一方で、これらの出来事の背景には問題のある情報が社会システム全体を不安定化させるという構造的問題が根底に存在している、とレポートは指摘する。そして、誤情報とは政治・健康・安全保障のあらゆる分野において不安定性を増幅させるシステミックリスクである、という定義を著者は提唱している。

2.システミックリスク

誤情報の影響に対する懸念が高まっているにもかかわらず、ほとんどの対応は依然としてコンテンツ削除やメディアリテラシーの向上など、「悪意ある主体」の特定と排除に焦点を当てている。この論考では、情報が悪影響を与えるメカニズムを捉えるために、金融や気候科学のリスクガバナンスの枠組みとして用いられてきた概念を導入し、「システミックリスク」として認識するべきだとしている。すなわち、劣化または操作された情報の流れが、相互依存する複数の社会的・政治的・制度的システムを不安定化させ、情報環境そのものを超えた連鎖的影響を生み出すリスクである。
金融・気候変動研究の概念であるシステミックリスクとは、ネットワークを通じて拡散し、システム全体に不均衡な障害をもたらすことを指している。2023年のシリコンバレー銀行の急激な崩壊や2021年1月6日の米国議会議事堂襲撃事件、2019年のジャカルタ選挙後暴動など、近年の事例でも、フィードバックループが反復的に発生し、潜在的な不安定化をもたらすことを示唆している。
特に虚偽情報は政治的不信、金融不安定性、公衆衛生危機といった脆弱性の転換点を悪用し、より広範な混乱を引き起こす。しかもこれらの情報は単一領域に留まらず、セクターを越えて連鎖的に広がり、予測や制御がますます困難な形で不安定性を引き起こすとレポートは指摘する。

システミックリスクの実例はさまざまなところに散見される。例えば2017年、Facebook上で拡散したナラティブとヘイトスピーチは、ミャンマーにおけるロヒンギャ少数民族への攻撃を正当化する一因となった。その後数年間、ミャンマー当局は安全保障上の懸念を理由にインターネット遮断やソーシャルメディア規制を実施したが、実際には表現の自由を制限する結果となった。
また同年のハリケーン・ハービーの際には、避難所政策や身分証明書提示義務に関する虚偽の噂がソーシャルメディア上で広まり、当局は誤情報の否定に資源を割くことを余儀なくされた。
これらの事例は、誤った情報がオンラインの範疇を超えて社会全体に波及し、緊急事態の管理や気候ガバナンスを複雑にし、これらを体系的な危機へとエスカレートさせる一因となることを示している。

3.誤情報は技術的脅威である

誤情報は個人や悪意ある主体だけでなく、デジタルコミュニケーションを支配するインフラからも生じる。例えばSNSのアルゴリズム設計と広告ロジックは、正確性に関わらず注目を集めるコンテンツを優遇することが知られている。このようなシステムは感情的な投稿を増幅させ、分断的なコンテンツを多く表示するように行動する。これらのシステムは中立とは程遠く、誤解を招くコンテンツを日常的なコミュニケーションの流れに埋め込むことで、その流通を正常化している。
さらにこのような技術が進化する中、生成AIがコンテンツ制作・流通に利用されることで、既存のリスクはさらに増大する。大量生産され本物と見分けがつかない合成テキスト・画像・動画は、誤情報キャンペーンを強化しうる。つまり、これらの問題に効果的に対処するには、虚偽情報を加速させる技術的問題と、その持続を許容してしまっている社会システムの両方に対処する必要があるとレポートは指摘する。

4.対策と限界

これらの誤情報対策として、教育やメディアリテラシーの向上という対策は以前から叫ばれてきたが、分断が進み情報環境が高度化した現在では、その限界が明らかになっている。誤情報は個人の判断力不足ではなく、アルゴリズムによる優先表示や判別が不可能なAI生成コンテンツなど、プラットフォームが内包している構造的問題によって増幅される。このような課題に対応するためには、ユーザーに対する行動修正は補助的手段に留まるべきであり、根本的な対策にはプラットフォームの設計に対するインセンティブ、アルゴリズムの透明性、プラットフォームに責任を問うことを可能にする制度設計などの対応が重要であると言える。

5.結論

誤情報が社会技術システムに組み込まれている以上、対策も個別コンテンツではなくインフラ全体を対象としたガバナンスへ転換する必要がある。一方で、現行の誤情報対策では、プラットフォームの地域を超えた全世界的な影響力や誤情報を拡散してしまうインセンティブ構造に十分対応できていない。このような状況を打破し、誤情報に対するレジリエンスを強化するには、プラットフォームを中立的な情報伝達経路ではなく国家の重要インフラとして位置づけ、アルゴリズムやモデレーションの影響を常に評価・監督する仕組みが不可欠であると言える。EUのデジタルサービス法(DSA)はその一例だが、効果的な実施には国際的協調が求められる。情報流通の構造的監視と越境的連携なくして、社会は将来のリスクに対し脆弱なままであると著者は指摘している。

この記事が気に入ったら
フォローしてね!

よかったらシェアお願いします
  • URLをコピーしました!

この記事を書いた人

茨城県出身の2003年生まれ。軍事・非軍事を問わず安全保障に興味を持っている。専攻は日米関係史だが主に東アジアの安全保障体制を扱っている。専攻外では中世ヨーロッパにおける政治体制の勉強が趣味。とくにポーランド・リトアニア共和国における民主制が対象。

メールマガジン「週刊UNVEIL」(無料)をご購読ください。毎週、新着情報をお届けします。

目次