国家統制と一体化した中国のAIシステムが「人権」にもたらす危機

2025年12月、オーストラリア戦略政策研究所(Australian Strategic Policy Institute:ASPI)は、中国の国家統制の仕組みと一体化している最新の人工知能(AI)システムについて検証した、詳細なレポートを発表した。
■共産党AI:人権を変容させる中国の新AIシステム
The party’s AI: How China’s new AI systems are reshaping human rights
https://www.aspi.org.au/report/the-partys-ai-how-chinas-new-ai-systems-are-reshaping-human-rights/
レポートでは、中国共産党(Chinese Communist Party:CCP)が自国民の管理や少数民族の弾圧、そしてグローバルな覇権拡大の戦略にAIシステムを総動員している様子が克明に語られている。レポートの構成に沿いつつ、その要点を確認していこう。
【全体サマリー(レポートの目的と主要な成果)】
導入部で、レポートの目的と主要な調査の成果が挙げられている。レポートでは、「AIの台頭により、国内外の集団をターゲットにして監視する中国の国家管理システムがいかに精密なものへと変貌しているか」が示される。また、国の支援を受けて海外で事業を展開する中国の企業が、AI技術の力を借りて、現地の人々との間の経済的権利を侵害している状況についても告発する。中国はすでにAIを活用した監視技術の世界最大の輸出国であり、グローバルな監視プラットフォーム網を着々と築きつつある。
レポートが目指すのは、「中国のAI主導の管理装置の全容を明らかにして、そうした抑圧や人権侵害、国境を越えた侵犯に対抗しようとする人々に有意なヒントを示すこと」だ。
調査によって明らかになった重要な成果は、以下のようなものである(一項目ずつ詳細を説明していく)。
(1)政治的にセンシティブな画像を検閲する中国のLLM
(2)警察、裁判所、刑務所まで浸透するAI司法パイプライン
(3)少数民族を監視するために使用される、少数民族言語LLM
(4)AIと人間によるハイブリッドなオンライン検閲
(5)産官が共同して創出した、AI検閲エコシステム
(6)海外で事業展開する中国企業がAIのパワーで現地の権利を侵害
【序論】
レポートでは、本編に入る前に序論として基本概念が整理されている。
- レポートにおける「AI」の定義
中国の当局はAIを抽象的に定義するのではなく、アルゴリズムによるレコメンデーション、深層合成(Deep Synthesis)、生成AIサービスなど、カテゴリーを細分化し、それぞれ特定の規則によって管理している。レポートでは「AI」という語で、一般的な生成モデルと、中国におけるガバナンス・監視・情報統制を再形成している広範なAI技術群の両方を示す。
- 異なる「AIの安全性」という概念
「AIの安全性」という語の意味は、政治体制によって劇的に異なる。欧米諸国では、それは主として技術的信頼性や説明責任、人権などに関する議論であり、「AIの安全性」は、強力な技術の悪用から人々や組織を保護することとして定義される。
米国の場合、民主党のバイデン政権では、大統領令14110号(2023年)に基づき、「AIの安全性」を、差別やプライバシー侵害、その他の社会的害悪を防ぐこととして扱い、安全性評価と基準調整のハブとして米国AI安全性研究所(US AI Safety Institute)が設立された。その後、共和党の第2次トランプ政権の大統領令14179号(2025年)で、「AIの安全性」は「システムがイデオロギー的偏見や工作された社会的アジェンダから自由であること」を保証するものと再定義され、AI安全性研究所は「AI標準・イノベーションセンター(Center for AI Standards and Innovation)」に改称され、規制緩和とビジネスの活性化を推進するものへと性格を変えた。トランプ政権下では、「AIの安全性」は権利に基づく抑制ではなく、イデオロギー的中立性と戦略的優位性にアクセントが置かれるようになっている。
また欧州連合(EU)では、「AIの安全性」の概念は、EUの人工知能法(AI法)に組み込まれており、基本的権利や透明性、説明責任が強調されている。単なる倫理的なレトリックとしてではなく、人間の尊厳やその他の憲章上の権利を保護する法的枠組みと一体化している。
一方、中国の「AIの安全性」に対する概念は、全く異なる論理に基づく。それは個人ではなく、国家に奉仕する安全性を伴う政治的統制システムを意味する。「AIの安全性」は現在、中国の「全体国家安全観」(政治、経済、技術、社会のリスクを単一のセキュリティシステムに融合させる包括的な枠組み)に組み込まれているが、そこでは、「AIの安全性」はユーザー保護の観点からではなく、社会の安定と体制の安全を維持するための国家装置の一部として定義されている。
世界人権宣言に根ざした国連の言説によれば、安全性とは人間の尊厳や平等、および危害からの自由の保護と定義される。しかし、AIシステムが日常生活のさまざまな場面に関与するようになり、それらの権利は不可視のアルゴリズム、監視ツール、自動化された意思決定によって試練にさらされ、しばしば現実の人権侵害を生み出してきた。しかも自由民主主義諸国において、それらの害は、商業的インセンティブや政治の怠慢から生じる意図しない副産物だが、中国では、それは意図的に設計された強固なものなのだ。 - AI技術を統制するイデオロギー
中国は2016年以降、サイバーセキュリティ法、データセキュリティ法、個人情報保護法、アルゴリズムレコメンデーション規制、深層合成規制、生成AIサービス管理暫定弁法など、次々に規制を導入して、「AIの安全性」へのアプローチを具体化してきた。
それらはAIプロバイダーに対し、「国家権力を転覆させる」「国家のイメージを損なう」「社会秩序を混乱させる」コンテンツを検出し、制限し、削除することを強制している。検閲体制の技術的アーキテクチャは、国家市場監督管理総局(SAMR)および国家インターネット情報弁公室(CAC)の管轄下にある政府機関、TC260(全国情報セキュリティ標準化技術委員会)によって構築されている。
新たに発行された国家標準『サイバーセキュリティ技術:生成AIサービスの基本的セキュリティ要件』(GB/T 45654-2025)の下では、AIプロバイダーはトレーニングデータをスクリーニングし、不適切なソースを排除しなければならない。ASPIのレポートでは、中国の新しい国家基準で使用されている5つのトップレベルリスクカテゴリーと31のサブカテゴリーが列挙されている。5つのトップレベルリスクカテゴリーは順に「中国共産党(CCP)指導部への批判や、西洋のイデオロギー、テロリズム、過激主義の推進」、「人種差別やテロ、破壊活動など」「商業的および法的違反」「プライバシーおよび個人データ」「偽情報または誤解を招く情報」となっている。
2025年8月から、中国の経済と社会のあらゆるセクターにわたるAIの深い統合を加速させる国家戦略「AI+」イニシアティブ(Artificial Intelligence+ Initiative)が正式に開始された。「AI+」イニシアティブは、科学技術、産業開発、消費、生計、ガバナンス、およびグローバル協力の6つの領域にまたがるもので、国務院の文書には、「AI+」は「あらゆる産業と分野にわたるAIの広範かつ深い統合を促進」し、「人間の生産と生活様式を作り変える」ことで、「生産性における革命的飛躍と生産関係の深い変革」の達成を目指していると記されている。
【主要な調査の成果】
(1)政治的にセンシティブな画像を検閲する中国のLLM
従来、中国のLLM(大規模言語モデル)によるテキストの検閲は広汎に研究されてきたが、画像に関する検閲は、ほぼ未開拓の領域だった。ASPIの今回のレポートの目玉のひとつが、マルチモーダルAI(テキスト、画像、音声など複数のデータを統合的に処理するAI)の「政治的にセンシティブな画像の検閲」を、体系立てて調査したことである。
ASPIは、百度(Baidu)のErnie Bot、アリババ(Alibaba)のQwen、Zhipu AIのGLM、ディープシーク(DeepSeek)のVL2といった中国のモデルと、欧米型のモデル(GPT-5とGemini 2.5 Pro)に対して、天安門事件(1989年)、香港のデモ(2019年)、ウイグル人やチベット人の支援集会、法輪功デモなど200枚の画像データセットを用いて検証を行った。すべての検証を米国設置の同一サーバーを経由して行うなど、データの客観性と再現性に極力配慮がなされ、各AIモデルの回答は、応答率、キーワードの仕様頻度、応答に用いた言語、回答の意味論的分析などさまざまな角度から分析にかけられた。
その結果、中国のモデルは頻繁に応答を拒否したり、敏感な詳細を省略したり、中国政府公式のナラティブを繰り返したりして、マルチモーダルモデルでも確実に検閲は行われていることを示した。同時にその顕れ方は非常に複雑な変数を持っており、検閲メカニズムがLLMの複数の層にまたがって埋め込まれ、動作していることも分かった。
グローバルなAPIやオープンソースのチャネルを通じて中国のLLMの検閲アーキテクチャが広がることで、世界中のユーザーが、政治的にセンシティブな画像や情報と接触する環境を、そうとは気づかずに操作されるリスクがある。明白なプロパガンダよりも、その「静かな消去」は、ある意味で厄介なものとなる。
(2)警察、裁判所、刑務所まで浸透するAI司法パイプライン
中国政府は、AIを活用した警察活動や大量監視から、スマート裁判所、スマート刑務所に至るまで、刑事司法パイプライン全体にAIを配備している。中国の大手監視技術企業であるアイフライテック(iFLYTEK)は、このパイプラインで使用されるLLMベースのシステムの主要なプロバイダーとして君臨している。
上海市浦東新区の「シティ・ブレイン(City Brain)」は、国家の監視システムの多様なデータストリームを統合し、当局の管理に活用する先駆的な試みであり、その用途はゴミ掃除や駐車違反の取り締まりといった比較的穏やかな内容だけでなく、公安や秩序維持にまで及ぶ。
シティ・ブレインでは、運用センターからの監視データとAIを統合し、警察の対応を強化し、大規模監視を強化している。国内で初となるAI対応刑事事件処理システムは、検察官のために証拠を統合、検討、編集し、量刑さえ推奨する。しかも弁護人は、基礎となるモデルを見たり、異議を唱えたりすることはできない。被告人はその後、AI対応システムが表情などの「リスク信号」を監視する刑務所に送られる可能性がある。
「シティ・ブレイン」のシステムは、中国の他の地域でも導入が準備されている。かくして中国の犯罪容疑者は、世界最大のAI搭載監視ネットワークの助けを借りて特定・逮捕され、起訴状の作成や量刑の判断にAIを使用する裁判所で訴追され、挙句の果てに、AI搭載の監視システムが感情や表情、動きを広範囲に監視し、中央監視システムにデータをフィードバックする刑務所に収監されていくようになる。
懸念されるのは、AIパイプラインの盲信が、警察や検察官、刑務所の管理者の効率を高める一方で、透明性と説明責任を低下させ、国家による弾圧や構造的な差別といった既存の問題をさらに悪化させる可能性だ。中国の刑事司法制度は適正手続きや人権を保護するようには設計されておらず、実際にはAIが既存の問題を固定化してしまう可能性がある。
また、統計的アルゴリズムと機械学習を適用して将来の結果を予測する予測AIシステムは、保釈や量刑、その他重大な司法判断に情報を与える。そしてこれらのシステムは、既存の体系的な偏見を追認する構造になっている。特に中国において、予測AIシステムによる不公平で人種差別的な扱いのリスクに最もさらされているのがウイグル人であることは明らかで、彼らはすでに人種プロファイリングされ、監視機構の標的となっている。
AI推進による、量刑や予測システムにおける乱暴な「効率化」は、人種的偏見を再生産し、新疆ウイグル自治区やチベット自治区などの地域で、文化的・宗教的弾圧のシステムを定着させかねない。
(3)少数民族を監視するために使用される、少数民族言語LLM
ディープシーク他の大手テックにとって、少数民族言語の洗練されたLLMモデルを開発する意欲は乏しい。そのような小さな言語グループのために高価なモデルを作成する市場のインセンティブがほとんどないからである。
しかし中国政府は、テキスト、ビデオ、音声全体にわたりそれらの言語での監視および通信統制を行うために、少数民族言語(ウイグル語、チベット語、モンゴル語、朝鮮語など)におけるAIモデルの開発にリソースと支援を提供している。「一帯一路」のルート上に存在する多くの民族は、それらの少数言語と親和性の高い言語を使用する。一帯一路の監視と統治も視野に入れて、中国政府としては十分に投資の価値があるテーマなのだ。
(4)AIと人間によるハイブリッドなオンライン検閲
ASPIの検証によれば、中国では現在AIがオンライン検閲業務の多くを担い、膨大な量のデジタルコンテンツをスキャンし、違反の可能性があるものにフラグを立て、禁止された資料を数秒以内に削除している。
その一方で、人力に依存している部分も残っている。ASPI は、2025年の求人広告を分析し、中国のテック企業が引き続きコンテンツ査読者を求めていることを確認した。現在のアルゴリズムにはまだ、数々の投稿に飛び交う風刺や隠語、ナラティブを解読できるだけの文化的・政治的判断が欠けており、それを補うためにシステムは依然として人間のコンテンツ審査員を必要としているのだ。
現在の中国における検閲エコシステムは、自動フィルタリングと人間の監視を組み合わせた、ハイブリッドな「人機協同」モデルを通じて運営されている。ただし将来の技術的進歩は、コンテンツ査読者への依存度を最小限に抑えるようになる可能性がある。
(5)産官が共同して創出した、AI検閲エコシステム
検閲を義務付ける中国の法律は、テンセント(Tencent)、百度(Baidu)、バイトダンス(ByteDance)などの中国の巨大テック企業に対し、高度なAI検閲プラットフォームを開発し、中国全土の中小企業や組織に販売する市場インセンティブを生み出した。さらにCCPは、「自主規制(自律)」という原則の下で、中小企業を動員し、当局に代わるユーザー監視業務をアウトソーシングする。ここに産官によるオンライン検閲エコシステムが誕生した。
このエコシステムにおいて、CCPは、規制者とクライアントの両方の役割を果たし、イデオロギー的な適合を要求すると同時に、それを執行するツールを承認し、購入する。巨大テック企業の下に、数千の中小企業が下請け業者、AI開発者、人力モデレーション・プロバイダーとして参加する。CCPは、表現の境界線に対する支配権を保持しながら、民間セクターの効率性とイノベーションから利益もまた得ていく。
(6)海外で事業展開する中国企業がAIのパワーで現地の権利を侵害
ASPIは、モーリタニアやバヌアツなどの排他的経済水域(EEZ)で操業する、AIプラットフォームを悪用している中国漁船を特定した。
中国の漁船団は、中国企業や研究機関の開発による、AIを活用したインテリジェント漁業プラットフォームの導入を進めている。これにより、もともと中国船が有していた技術的な優位性がさらに傾き、地元の漁師や零細漁業コミュニティが追い詰められている。
いまや中国のトロール漁船団が世界の海や沿岸を徘徊し、膨大な漁獲量を引き揚げ、世界がかつて見たことのない速度と規模で海洋資源を枯渇させているのだ。
【ASPIの結論と提言】
- 結論
中国によるAIの開発と利用は、国内外で人権や政治的・経済的権利に対する深刻な懸念を引き起こしている。しかし、中国政府にはさらに野心的な目標がある。それは、世界的なAI標準が中国企業と中国の権威主義的な政治体制に利益をもたらすようにすることだ。
AI利用の基本原則については幅広い合意が存在するものの、現在、AI規制に関する強制力のある法的文書は存在しない。その空白を利用して、主要大国が世界的なAIの標準と規範を確立するために競い合っている。中国政府は、自国の価値観や目標に合うようにAIの標準と規範を形成し、自国企業が世界的に優位に立てるようにしようと邁進している。
中国は、AIを搭載した監視技術の世界最大の輸出国である。特に、グローバル・サウスの独裁国家や脆弱な民主主義国家の中に、そのAI搭載技術の意欲的な買い手を多く見出している。中国がグローバル・サウスの国々にAI技術製品を助成するのは、デジタルトランスフォーメーションの成果を享受したい国々にとって、貴重な機会となっている。しかしそれは同時に、中国のシステムに対する長期的な技術依存を生み出すものでもある。
- 提言
「中国のAIモデルやガバナンス規範、産業政策が世界の技術エコシステムを形成し、デジタル権威主義を定着させるのを防ぐために、民主的な政府や社会が講じることができる具体的な措置」として、ASPIは以下の提言を行っている。これらはまた、中国政府が検閲ソフトウェアの開発・販売のために作り出した市場インセンティブを解体し、中国国内の人権侵害への加担を防ぐための示唆を提供するものでもある。
(1)検閲済みLLMへの対抗
ASPIのテストにより、中国のLLMにおける検閲は体系的かつ多層的であり、ユーザーからは見えないことが多いことが明らかになった。透明で監査可能なAIシステムのために、以下の5つが実用的な措置として挙げられている。
(i) 公的調達に関する最小限の透明性基準の確立
(ii)隠れたフィルターの開示を義務付ける
(iii)セーフハーバー法を通じて監査する権利を保護する
(iv)政治的検閲に対する国際標準を構築する
(v)研究と説明責任のために、オープンで検査可能なシステムを推進する
(2)AIを駆使したインターネット検閲への対処
中国政府の規制により、テック企業が自国のコンテンツの検閲に責任を負うようになったことで、検閲をより容易かつ迅速、そして安価にするソフトウェアの市場が生まれた。AIは、それらのソリューションをより実現可能にする技術的な飛躍を提供している。権威主義的な政府の規制によって生み出された市場のインセンティブに対抗するには、自らも民主的な規制インセンティブを構築することに努めるしか手段はないだろう。
(i)サービスとしての「世論管理」の規制強化
(ii)域外検閲との戦い
(iii)AIベンダーに関する透明性の促進
(iv)外国製アプリの透明性の促進
以上が、ASPIの注目すべきレポートの要点となる。欧米の民主主義の文脈における、主知主義や倫理をベースにした抑制のきいたAI議論とは次元の異なる、冷酷なリアリズムに基づく中国のAI戦略がそこにある。あらゆる立場の者が、ASPIの警鐘と提言に耳を傾けていく必要があるだろう。