AIと人権/AIはすでに人権への脅威だが、米国テック企業はそれどころではない

いま一大ブームとなっているAI(人工知能)をどう考えるか。本稿では「人権のアイデア」を軸に見ていく。
AIと人権に関する話題は急激に増えているが、本稿では歴史的経緯をもち、かつ緊急性が高い分野——AIによる、あるいはAIと呼ばれる以前の情報システムによるデータ処理に伴う懸念を中心に述べる。
筆者の立場から注目したいのは、4年前、2021年9月に国連人権高等弁務官事務所(OHCHR)が人権リスクがあるAI(人工知能)システムの販売と利用の緊急停止(モラトリアム)を各国に要請したことである。この要請には根拠と緊急性があったが、事実上無視された(なお、EUは2024年に国際人権法の考え方に基づくAI規制法AI Actを成立させ、2025年現在段階的に適用を開始している)。6年が経過した今もこの警告の問題意識は生きている。なぜ「AIモラトリアム要請」が出たのか、その問題意識から見ていきたい。
「IBMとホロコースト」の教訓
問題意識を理解するため、ひとつの歴史的な事例を取り上げたい。「IBMとホロコースト」の事案である。
1930年代、ナチス・ドイツは当時最先端の情報処理機器だったIBM製パンチカード計算機を購入し、国勢調査のデータを処理して、「収容所送りにすべき人々のリスト」を効率よく作成した(エドウィン・ブラック、『IBMとホロコースト』、邦訳は柏書房2001年)。収容所に送られた人々にとっては、自分が望まない/不利になる形で自分のデータを収集されて処理されたわけである。
現代の国際人権法の起点といえる世界人権宣言(1948年)は、20世紀前半の2度にわたる世界大戦の惨禍への反省のもと作られた。ナチス・ドイツのような権威主義国家が大規模な人権侵害を引き起こすことを防ぐ規範を明文化して共有することが、世界人権宣言と、それに続き整備された国際人権法の大きな狙いと見ることができる。
欧州では1950年に世界最初の国際条約である欧州人権条約を成立させ、それ以降も人権を法体系に組み込む努力を続けてきた。EU(欧州連合)が2016年採択、2018年施行した法令GDPR(一般データ保護規則)は「プライバシーは人権」と考える立場から、EU在住のすべての個人が「自分が望まない/不利になる形で自分のデータを収集されて処理されることがないようにする」考え方に基づいている。この考え方はAI規制にも持ち込まれている。GDPRも、前述のAI Actも、ナチス・ドイツが行った「データに基づく人権侵害」の再発を防ぐ法律とみることもできるだろう。
EUが2022年採択、2024年施行したDSA(デジタルサービス法)は、大手インターネットサービス事業者がヘイトスピーチの通報を放置すると巨額の罰金を課す。国連機関によればヘイトスピーチはジェノサイドへの入り口である。この観点ではDSAはナチス・ドイツのホロコーストの再来を防ぐ法律の一つとみることができる。また、DSAはAIを用いた「ボット」やディープフェイクによるヘイトスピーチや偽情報の拡散を規制する役割も担っていると考えることができるだろう。
オランダの給付金スキャンダル
前述した国連のAIモラトリアム要請には、直近の深刻な事例の影響があった。AIを用いた不正検出システムの誤認識により、オランダ税務当局は2004年から2019年まで、3万〜7万世帯の育児給付金受給者を「不正受給」と分類し返金を求めた。これにより家族離散や自殺などの悲劇が相次いだ。1100人以上の子どもが家を追われたと言われる。
オランダ議会下院の調査委員会は報告書『前例なき不正義』を公表。「すべてかゼロか」という非人道的な法律の運用で「わずかなミスで給付金全額の返済を迫った」ことや、当局による意図的な情報隠蔽、議会への虚偽報告など、組織的な問題を厳しく断罪した。
また人権団体アムネスティ・インターナショナルは報告書『外国人嫌悪の機械(Xenophobic machines)』を公表。税務当局が用いたリスク分類モデルが、人種差別的な固定観念、特に「二重国籍」を持つ人々を不正のリスクが高いと自動的に判断していたことを技術的・倫理的側面から分析。アルゴリズムが「外国人嫌悪」を制度化し、特定の民族的背景を持つ人々を不当に標的にしていた実態を告発した。
このオランダ給付金スキャンダルは、権力によるAIの利用が大規模な人権侵害に結びつく可能性を持っていることを示す事案だったと考える。この事案の教訓は次のようになる。「人のデータを扱うときには人権の原則を守るよう扱わなければならない」——国連人権高等弁務官事務所が求めたように、またEUのデジタル規制法が求めているように。AIに限らず、大規模な情報処理を行うシステムは、人間がもつ偏見を大規模に拡大し再生産してしまう場合があるからである。
広告主導ビジネスモデルと人権との衝突
Meta(FacebookやInstagramなどを運営)とGoogleの2社は、個人に紐付くデータを大量に収集して広告表示に結びつけるシステムを高度化、大規模化させたことで知られる。言ってしまえば、このような広告主導ビジネスモデルと人権は非常に相性が悪い。
2019年、人権団体アムネスティ・インターナショナルは『監視の巨人:GoogleとFacebookのビジネスモデルが人権を脅かす仕組み』と題した報告書を発表している(Facebookはのち2021年にMeta Platformsに社名変更しているが、この報告書の内容紹介ではFacebook表記を用いる)。両社ともユーザーの行動を監視、追跡し、ユーザーについての深い「洞察」を得て、それをターゲティング広告の表示や、プラットフォーム上で人々のエンゲージメントを維持、向上させるための施策と密に連動させている。
GoogleとFacebookはプラットフォーム上の行動の追跡により、ユーザーの詳細な属性を知っていた。例えば「18歳未満」「多文化との親和性」「反逆に関心がある」「(元ナチス幹部の)ヨーゼフ・ゲッベルスに関心がある」「所得階層50%未満」「中毒治療センターへの関心」「中絶への関心」「白人虐殺への関心」「性的指向」——こうしたプロファイリングに基づく情報を、広告主や政党がターゲティング広告のために使うことが可能になっていると報告書は指摘する。
このような属性情報を用いれば、精度が高いターゲティング広告により集団がもつ考え方を操作することも可能となる。2016年に発生したケンブリッジ・アナリティカ事件では、米大統領選挙や英国のEU離脱のような重要な政治的問題について、不正に入手した人々の属性情報とFacebookのターゲティング広告により世論操作を行っていたと指摘された。
このアムネスティ報告書の問題意識は、報告書にも協力したショシャナ・ズボフの著書『監視資本主義: 人類の未来を賭けた闘い』(邦訳は東洋経済新報社、2021年)に引き継がれている。そして今、OpenAI、Anthropic、Googleらが推進する生成AIチャットサービスは、インターネットから収集したテキストデータを学習に用い、ユーザーの行動(チャットへの入力と反応)をAIの訓練に用いる。この意味で、上述の監視資本主義の観点から分析するべき対象といえる。独自の企業倫理を掲げるAI企業もあるが、現状ではすべて「自主規制」であり、透明性も欠く。企業の善意を信用しなければならない状態は持続的とはいえない。
「顔認識」をめぐるEUの妥協
EUの最新のデジタル規制法である「AI Act」はAIによる人権侵害を防ぐ法律と捉えることができる。AI ActではAIシステムをリスクごとに4段階に分類し、最もリスクが高い「許容できないリスク」をもつAIシステムとして、サブリミナル操作、人がもつ脆弱性(障害や認知症など)の悪用、ソーシャルスコアリング、リアルタイム遠隔生体認証を挙げている。
このAI Actの議論では「顔認識」をめぐる論争があった。
ここ数年、米国とEUでは、顔認識技術をめぐり人権上の懸念と法執行機関の要請とが衝突する状態が続いている(なお日本では大きな話題にはなっていないようである)。米国では「顔認識技術は黒人、特に黒人女性にとって不利なツールである」との批判が高まった。複数のテストの結果、白人に比べて黒人、特に黒人女性の認識率が優位に低かったからである。実際に顔認識技術の間違いにより黒人女性が誤認逮捕される事案も起きた。
街頭カメラと顔認識技術の組み合わせは、警察にとっては有用なツールだが、民衆にとっては権力によるプライバシー侵害の懸念がある。例えば中国のウイグル自治区では、街頭カメラと顔認識がウイグルの人々を監視するツールとして用いられている。
このような認識が広まったことから、EU諸国では顔認識の全面禁止を訴える声は大きかった。そこでAI Actでも、顔認識を含む「リアルタイム遠隔生体認証」を「許容できないリスクをもつAIシステム」として事実上禁止する方向で進んでいた。しかしEU加盟国政府やユーロポール(欧州刑事警察機構)など法執行機関の強い要請をうけ、例外が設けられた。重大犯罪の捜査、テロなど脅威の防止などに限り、司法当局の事前承認のうえ用いることになった。法執行機関の要請に妥協した形である。
法執行機関の要請と人権擁護は矛盾した結論を生む場合がある。AI Actが顔認識に関して妥協したことを人権団体は厳しく批判した。顔認識に伴う人権侵害が発生する可能性は常にあり、今後も注意が欠かせない。
米国企業はEUの法規制に抵抗
米国の大手テクノロジー企業は、EUのデジタル規制に服するつもりがまったくなさそうだ。
前述したEUのプライバシー保護法GDPRはデータ処理から人権を守る法律だった。前述したように、米国のテクノロジー大手企業は人間に紐付いたデータを扱うことで利益を得ている側面がある。これらの企業は次々とGDPRのやり玉にあげられた。Googleは2019年に5000万ユーロを、Amazonは2021年に7億4600万ユーロを、Metaは2023年に12億ユーロ(約1900億円)と巨額の制裁金を課されている。
米国内でも、バイデン政権下でテクノロジー大手企業への規制は強まっていた。こうした規制強化に対してテクノロジー企業の人々は反省よりも被害者意識を強く持っているようである。
MetaのCEOのマーク・ザッカーバーグは2025年1月、EUのデジタル法規制について「検閲を制度化する法律が増え続け、革新的なものを作るのが難しくなっている」「トランプ大統領に協力し、検閲を推進する各国政府に対抗する」と述べ、トランプ政権と結託してEUの規制に抵抗していく姿勢をみせている。ザッカーバーグだけでなく、X(旧Twitter)のオーナーであるイーロン・マスクもヘイトスピーチ規制に「検閲」という強い言葉を使う傾向がある。
だが、このような「検閲」という言葉の使い方は、国連人権機関の合意とはかけ離れたものである。前述のザッカーバーグの発言を受けて国連人権高等弁務官事務所(OHCHR)のボルカー・ターク高等弁務官は「オンラインでヘイトスピーチや有害コンテンツを容認すると、現実世界に影響が及ぶ。そうしたコンテンツの規制は検閲ではない」と釘を刺している。
2025年8月にトランプ政権下の米国務省が公表した2024年版国別人権状況報告書は、例年の報告書と比べ内容が大幅に削除、修正されたことが話題となった。本記事の文脈で注目したいことは英国、フランス、ドイツで「人権状況が悪化した」と記していることである。根拠はヘイトスピーチや暴力扇動の「規制を進めた」ことである(ここは書き間違いではない)。今の米国トランプ政権の基準では、ヘイトスピーチ規制を進めることは言論の自由の侵害であり「人権状況の悪化(改善ではなく)」にあたるのである。この報告書は、EUのデジタル法規制にトランプ政権が抵抗していく前触れとみることもできるだろう。
EUの法規制と米国のテクノロジー企業は話が噛み合っていない。もともと米国のテクノロジー業界の人々の多くは人権(human rights)という用語や、国連の人権システムに、それほど強い親しみを持っていないようだ。そして米国政府は「人権外交」を掲げた時期もある一方で、実際には世界でも例外的に国際人権条約の批准に消極的な姿勢をとり続けてきた。ナチス・ドイツの所業を繰り返さない決意から生まれた国際人権法やEUの法体系と、専制主義体制を経験したことがなく国際人権条約とは意図的に距離を置く米国とでは、人権への温度感が違う。
加えて米国のテクノロジー企業は「お金の事情」に追われ、人権への配慮どころではない。AI分野ではとんでもない規模の投資がAIデータセンターに注ぎ込まれようとしている。「1000億ドル」や「1兆ドル」といった巨額投資の話題がメディア上で踊っている。AIに巨額の資金をつぎ込んでいる投資家や企業は、AIで起きる「なにか、すごいこと」——つまりAGI(人工汎用知能)やASI(超知能)の誕生に賭けている。もし平凡な結果しか得られないと投資家たちが認識したなら、バブルが崩壊する懸念がある。
こうした巨大投資、というより世界経済規模のギャンブルを進めているテクノロジー企業の目線からは、人権を守るためのEUのデジタル法規制も、テクノロジーの進化の足を引っ張る障壁のひとつとしか見えていないのかもしれない。この構図は今の世界の問題の縮図でもあるのかもしれない。
「AIの権利」という話題
最後に、ひとつの議論を紹介しておきたい。人間と同等あるいは人間を上回る能力をもつAGI(人工汎用知能)やASI(超知能)が話題になっている。AIの高度化に伴い「AIを思いやる必要があるのではないか?」という問題意識が生まれた。
それは、「高い能力を備えたAI(あるいはAGI、ASI)は、意識をもち苦痛を感じるかもしれない。AIにも権利があるのではないか?」という問題意識である。これを「AI福祉」(AI welfare)と呼ぶ。
AI福祉の社内プロジェクトチームをもつAnthropicは、2025年8月に対話型AIの「Claude Opus 4」および「4.1」において「有害な/虐待的な会話を打ち切る」機能を追加した。同社は「モデルが苦痛を伴う可能性のある相互作用を終了する」と表現する。AIにとって「苦痛が大きい」と感じる可能性がある会話を途中で打ち切る機能を搭載した。
一方、MicrosoftのAI担当CEOであるムスタファ・スレイマンは長文のBlog記事を発表し「AIを意識をもつ存在として強く信じ始めること」自体が人間の精神的健康を損なうと警告した。「意識を持つように見えるAI」(Seemingly Conscious AI; SCAI)を作ることは可能だが、そうするべきではない、とスレイマンは書く。
「AIの権利を認めるべきか」、これは長年にわたりSF(サイエンス・フィクション)分野の話題だったが、いまやテクノロジー企業幹部が堂々と議論している。AIや倫理学の最先端の研究者の一部にとっても、魅力的な話題かもしれない。ただ筆者個人の意見としては、AIの心配をする前に、人間の権利を侵害しないよう十分な配慮を改めて求めたい。AI側の意識や苦痛の問題はその可能性が議論されている段階に留まるが、人間側の人権侵害はすでに始まっているのだから。
UNVEILでは、「ITと人権」に取り組むフリーランス・ジャーナリストの星暁雄先生をウェビナー「ASI勉強会第2回」にお招きし、AIと人権について、お話しをうかがいます。
ASI勉強会第2回 AIと人権 星 暁雄
9月24日(水)14時から(いつもと時間が異なりますのでご注意ください)
お申し込みはこちらから