情報は平等に広がらない?〜社会経済的疎外と科学誤情報伝達の関連性に関する研究〜

  • URLをコピーしました!
目次

1.はじめに

これまで行われてきた多くの偽・誤情報などの研究では、情報の受け手を、その社会的属性や行動特性によって精査することはあまり行われてこなかった。しかし、実際にファクトチェックやリテラシー教育を行う際には、それらが届く社会のクラスターはかなり限定されていることが多く、必ずしも効果的であるとは言えなかった。
今回ご紹介するHarvard Kennedy school Misinformation Reviewの「Disparities by design: Toward a research agenda that links science misinformation and socioeconomic marginalization in the age of AI」https://misinforeview.hks.harvard.edu/article/disparities-by-design-toward-a-research-agenda-that-links-science-misinformation-and-socioeconomic-marginalization-in-the-age-of-ai/ )は情報へのアクセスから阻害された人々に焦点をあてた研究である。
誤情報研究はしばしば「ファクトチェックが誤信念を減少させ、誤情報の排除につながる」といったような楽観的な結論を導出する一方、それらの研究が本来対象とするはずの人々の属性や、平等な情報アクセスについては顧みられないままだと本論考は指摘する。今回紹介する論考は、これまでの誤情報研究が見落としていた「平等な情報アクセスから除外された人々」がどのように振る舞い、どのように誤情報を伝達するか、といったことに焦点を当て、最近の技術的変革に対する自己反省の機会を提供し、AI、科学誤情報、社会的不平等を単一の研究アジェンダに統合する機会をもたらすことを目的としている。

2.情報は平等に行き渡っているか?

科学に関する誤った情報や誤解を招く主張の拡散(科学誤情報)は、長年研究と対策が講じられてきたにもかかわらず、依然として続いているとされている。米国科学アカデミーなどの機関は2024年の報告で、誤情報への関与を形作る主要な要因として社会的格差を指摘している。特に所得・教育・言語といった社会的・文化的格差が誤情報への曝露量と判断能力に影響を及ぼすとされ、デジタルリテラシーや経済などの構造的な不平等を抱える周縁化されたコミュニティではそれらの影響が顕著に見られると論考は指摘する。例として2025年にロサンゼルスで山火事が発生した際の状況を見ると、黒人やヒスパニック系のコミュニティにおいて「制度に対する不信感」「デジタル情報へのアクセスの少なさ」「希望する言語・タイミングでの情報提供の欠如」といった社会格差を要因とした情報の不伝達が発生したとされており、多くの住民が山火事に備えることができなかった。特に近年の事例においてはAIが関与した誤情報拡散も増加しており、状況は複雑化していると論考は指摘する。デジタル排除、機関への不信感、経済的・社会的格差といった根本的な動態は、健康から政治まで多様な分野で誤情報との関わり方を形作る共通の要因である、と指摘されている。

3.AIと情報格差の関係は未知数で、研究不足である

AI駆動型情報システムは、「AIによるファクトチェックの提供」や「自動翻訳による多言語での情報提供」のように、誤情報の検出や対策に有効である一方で、センセーショナルな内容を優先するアルゴリズムにより誤情報の拡散を助長し、特に情報アクセスに障壁のある低所得層や周縁化されたコミュニティに深刻な影響を与えている。歴史的な医療差別や環境無視により、これらの層では公的機関への信頼が低く、代替的で信頼性の乏しい情報源に依存しやすい。さらに、前述したように経済的・言語的・デジタルリテラシーの格差が、正確な情報へのアクセスと理解を妨げている。しかし、多くの誤情報対策研究は、社会構造的要因を背景として扱うにとどまり、個人の認知にしか注目しない傾向にあるため、AIと社会経済的格差の交差を理解するには、より構造的かつ文脈に基づいた視点が求められる。
また、このような情報格差の改善のために、ラテン系やアジア系コミュニティによる、メディアリテラシーキャンペーンや事実確認サイトの運営といった草の根の誤情報対策活動が展開されており、今後はこのような活動なども考慮した研究が求められると言える。

4.誤情報研究の改善策

前章で指摘したように、従来の誤情報対策の多くはファクトチェックやAIツールを中心に技術的な解決策を志向している一方で、これらは社会的・文化的文脈を無視する傾向があり、特に周縁化されたコミュニティの実情を反映していないと批判されている。このような問題が発生する原因の一つとして、多くの研究が西洋的で、教育を受けた、工業化され、富裕で、民主的な(いわゆるWEIRD)人口を対象にしており、最も誤情報の影響を受けやすい人々を取りこぼしていることが指摘されている。加えて、AIツール自体が英語を前提として設計されていることから、言語的・文化的多様性にも十分対応できていないという現実も存在する。このような問題を解決し、AI・誤情報・社会的疎外に関する研究をより進歩させるために、以下のような改善策を提案している。

・科学と研究機関に対する信頼の醸成
どのような原因から科学に対する信頼が損なわれるかを理解する。例えば、黒人教会におけるコミュニティケア、先住民の集団における歴史的トラウマ、低所得農村地域における製薬会社への不信感を分析することで、科学的主張が文化的に共鳴する物語を通じて提示されるかどうかによって信頼がどのように異なるかを調査することが求められる。

・ターゲティングとアルゴリズムへの理解
AI駆動システムが誤情報への曝露を形作る役割を理解するために、広範な内容について研究を行う。例えば、スペイン語を話す移民、低所得の白人農村部ユーザー、都市部の有色人種若者のユーザープロファイルをシミュレートすることで、プラットフォームの推薦システムが科学的誤情報の量や種類をどのように異なる形で提供するかを明らかにできる可能性があるとされている。

・データソースと手法の多様化
ウェブ検索データとオンライン議論を組み合わせたり、大規模なAI分析と詳細な定性研究を統合したりすることで、文脈に応じた誤情報パターンを明らかにする。例えば、テクノロジー開発者と共同でプラットフォームのガイドラインを策定したり、アルゴリズムの透明性に関する政策概要の作成に貢献したり、NGOや政治財団などと協力して、地域に合わせたメディアリテラシーと公衆衛生キャンペーンを構築したりすることが可能になるとされている。

5.研究を超えた解決策の開発

これまでの誤情報研究で行われていたような、アクセスやスキルの一様性を前提とし、個人に過度の責任を課す一方で、経済的格差、文化的差異、アルゴリズムの偏りなど、誤情報への曝露と関与を形作る広範な構造的要因を無視した研究手法は、デジタルリテラシーの向上など、個人レベルでの解決策しか提供し得ないという問題点が指摘されている。これらを加味した解決策として、心理学的知見と技術的知見を統合してデジタル環境を再設計する「テクノコグニション」といった構造的手法がある。誤情報と不平等が交差する多様な方法を考慮したアプローチへの転換を行い、これらの複雑さを認識し直面することで、理論だけでなく、誤情報が根付く現実の多様な課題において機能する解決策を開発することができる、と論考は述べている。

この記事が気に入ったら
フォローしてね!

よかったらシェアお願いします
  • URLをコピーしました!

この記事を書いた人

茨城県出身の2003年生まれ。軍事・非軍事を問わず安全保障に興味を持っている。専攻は日米関係史だが主に東アジアの安全保障体制を扱っている。専攻外では中世ヨーロッパにおける政治体制の勉強が趣味。とくにポーランド・リトアニア共和国における民主制が対象。

メールマガジン「週刊UNVEIL」(無料)をご購読ください。毎週、新着情報をお届けします。

目次