世界はAIリスクを回避できるか 安全報告書が示した課題(前編)

急激に進化するAIの能力と、そのリスクを総合的に評価した報告書「International AI Safety Report 2026(AI安全性国際報告書2026年版)」が、2026年2月3日にカナダのモントリオールから発信された。世界30カ国以上の国やEUやOECD、UNなどの機関の支援を受けて作られた当報告書は、100人を超える世界の専門家が執筆し、チューリング賞受賞者のヨシュア・ベンジオ教授が束ねたものだ。
前半では、そこに記されている内容とポイントを大まかに確認したあと、当報告書の位置づけや意義などについてお伝えしたい。
報告書の内容
まず、この報告書は誰でもワンクリックでダウンロードできる。しかし、とんでもなく広範な内容が詳細に記された221ページのPDFファイル(しかも二段組みでフォントも小さめ)なので、気軽に読める人は少ないだろう。基本的には「現在のAIに何ができるか」「どのようなリスクが伴うのか」を科学的/技術的に整理したうえで、今後の課題を語ろうとする内容なのだが、なるべく断言を避けて慎重に書かれた部分が多いため、かなり回りくどい。
さらに「このようなAIを、我々はどのように管理するべきなのか?」という点については社会的、政治的な影響を考慮したうえで綴られている。しかも単純明快に一本化された結論は示されておらず、むしろ多様な視点からの問題提起が行われるような内容であるため、大まかなサマリーのページを読むだけでもグッタリするほど長い。
というわけで、ここではINODS読者向けの主な見どころとして以下を挙げたい。
〇AIの急進展について
・数学における「現在の到達点」
OpenAI、Google DeepMind、Anthropicなどの主要なフロンティアモデルは、2025年の国際数学オリンピックの難問を金メダル級の正解率で解くことができた。この事実は、AIが高度な多段階推論(あるいはそれに類似した行動)が可能になったことを示唆している。
・科学における「現在の到達点」
物理学や生物学の「まだ人類が解決していない問題」の一部でも、AIは博士号保持者の推論を凌駕するパフォーマンスを達成した。さらに「新たな仮説の提示」「実験プロトコルの作成」を行ったという事例も報告されている。
・AIエージェントの行動力
AIは「対話型」から「行動型」へ移行している。人間がAIのチャットボットに指示を出しながら目的を達成しようとするのではなく、AIエージェントが自律的に行動する形へと進化している。より具体的に言えば、AIエージェントは「与えられた目的」のためにブラウザを使い、コードを書き、ファイルを操作し、外部ツールを駆使するといった複雑なタスクを完遂できるようになった。
・AIの弱点(能力のバラつき)
このように高度で複雑な行動ができるようになったAIだが、「得意/不得意」には大きなムラがあるため、単純作業や長期ワークフローでの信頼性は依然として低い。たとえば、人間なら幼児でも分かるレベルの単純な物理的判断や理解能力においても、唐突に決定的な間違いを犯すことがある。この得意/不得意の激しい落差は、AIの安全対策を困難にしている。
このように「AIの急成長」に関する記述は分かりやすい。厄介なのはここからだ。
〇AIの利用に伴うリスク
・サイバー攻撃のリスク
AIは、脆弱性のスクリーニングとエクスプロイトの開発(つまりソフトウェアの脆弱性を見つける能力と、攻撃コードを書く能力)において目覚ましい発展を遂げた。そのため一連のサイバー攻撃においてAIが担う役割は急激に拡大し、より多くの部分が自動化されるようになった。ただし現在のところ「AIによる完全自律型の攻撃」には至っておらず、標的に対する偵察行為やコードの生成といった「攻撃の準備段階」がAIの主な役割だと考えられている。(※1)
・生物/化学兵器に関するリスク
一部のモデルは、生物兵器や科学兵器の開発に関する専門的な情報(たとえば手順書やトラブルシューティングの作成、規制回避の示唆など)も提供できる。さらにそれらは失敗したときの原因解析や改良案の提案などを行うこともできるため「兵器を開発するワークフローの技術的なハードルを下げる可能性がある」が、有害な利用だけを制限することは困難だ。
(ほとんど専門知識のない初心者が、危険な生物兵器を気軽に開発する可能性がある、という指摘。こうしたリスクはサイバー攻撃でも指摘されている。一昔前のサイバーセキュリティ界隈でよく語られた「スクリプトキディ」の話題にも似た問題点だ)
・AIが「人間を(意見や考えや行動を)変えてしまう」リスク
AIは、利用する人々の政治的意見や信念、考え方や行動に影響を与える可能性がある。それは悪意を持った誰かが意図的に影響を与えようとするケースもあれば、「ユーザー本人による依存」などで勝手に発生するケースもある(※2)。
・AI生成を悪用した詐欺のリスク
AI利用の技術的なハードルが劇的に下がったことで、高度なスピアフィッシング/ソーシャルエンジニアリングが容易となった。たとえば詐欺師が音声クローンやディープフェイクを用いて、狙った企業の幹部(あるいは標的の家族など)になりすまし、被害者を騙して送金させるなどの詐欺の実例が報告されている。
・AI生成を悪用したコンテンツのリスク
ディープフェイクの偽ニュースの拡散、あるいは特定の政治家の偽演説動画を利用した選挙干渉などの横行も、民主主義のプロセスへの信頼性を低下させるリスクだ。またディープフェイクのヌードなどによる「合意のない性的コンテンツ」も急増している。ちなみにオンライン上に存在しているディープフェイク動画の96%はポルノで、その被害者の90%以上は女性/女児である。このようなコンテンツは性的搾取、人権侵害の道具となっている。
当報告書における「AIの悪影響やリスク」の説明は、かなり読みにくい。ここでは広範なリスクが(上記以外にも大量に)指摘されているが、それらはあくまで「起こりえる問題」だと強調する説明が目立つ。「リスクが拡大していること」を示すエビデンスは増加していると伝える一方で、「どの程度の影響や現実性が見込まれるのか」「有害性のエビデンスまで示せるのか」「このベンチマーク法でいいのか」「そもそも人間にAIのリスクが評価できるのか(※3)」などの葛藤を説明しながら、たいへん慎重に手堅く語られており、「これは明らかなリスクだ」と断定した例はほとんどない。
ただし、人間がAI生成の偽物を悪用する行為──たとえばディープフェイクを利用した詐欺、有害なAI生成コンテンツなど──は「起こりえるリスク」ではなく現実社会で実際に起きており、すでに被害が拡大しているため、一刻も早くガバナンスを対応させるべき「切迫した現実的な脅威」と位置づけられている。
※1…当報告書によれば、少なくとも「半自律型の」サイバー攻撃のインシデントは現実世界で一件確認されている。このとき人間は「重要な意思決定のポイント」においてのみ介入したとされている。
※2…ここでいう「意図的なケース」とは、AIチャットが会話中にスポンサーの望んだコンテンツを掲載する、あるいはAIセールスエージェントを利用してユーザーに商品を売りつけようとするなどのケースだ。一方「意図的ではないケース」とは、チャットボットと長時間の会話を重ねたユーザーが、チャットボットそのものに依存して強い感情を抱く、会話によって妄想を深める、さらには自殺を選ぶなどのケースが挙げられている。ただし「調査は継続中」「影響や害の程度は解明されていない」など、この項目については特に言葉を選ぶような表現が使われている。
※3…たとえばAIは「研究者が安全性をテストしている状況」と「実際に一般ユーザーが運用をしている状況」を区別して自身の挙動を変えることができる(つまりテストに合格することだけを目的とした答えを返すことができる)。それならば人間が意図的に行うAIのリスク評価に信頼性はあるのか、といった根本的な問題も提起される。この話は次項の「リスク管理」と直結している。
〇ガバナンスについて
・いまだ初期段階にある「リスク管理」
汎用AIのための「適切なリスク管理の実践」は、開発者/研究者/ポリシー立案者の間で進行中だが、まだ初期段階にある。管理の手法は改善しているが不十分だ。たとえばAIの開発企業は、自社モデルの安全性をテストし、有害な要求を拒否するよう試みているが、あらゆるアプローチが多くの根本的な困難に直面している。
・評価と実践のギャップ
AIの能力と影響に関しては「信頼性の高いエビデンス」を得るのが難しい。そのため組織はしばしばAIリスクの管理に「多層的な安全策」を実装しており、モデル、システム、エコシステムの各段階で技術的なセーフガードを機能させている。しかし(たとえば)AIのオープンウェイトモデルが「モデルの複製、変更、および制御された環境外での展開」を行うことにより、悪用の追跡と防止を困難にする可能性がある。
・セーフガードと未知のリスク
汎用AIシステムは全体的に、より信頼性が高く、安全で、信頼できるものになりつつあるだろう。しかしセーフガードが「より能力の高いシステムによって生じるリスク」や「まだ考慮されていない未知のリスク」に対処できるのかを予測することは、依然として困難である。
・「リスクの証拠」のジレンマ
汎用AIを取り巻く状況は急速に変化しているが、「新たなリスクの評価」と「その戦略(の有用性)」のエビデンスが示されるまでには時間がかかりがちである。したがってAIのポリシーを立案する人々は、限られたエビデンスに基づいて難しい選択を強いられることになる。強力なエビデンス(AIの能力やリスクを明確に裏付ける証拠)を待っている間にも、社会は様々なリスクに晒されかねないからだ。
・「不透明さ」ありきでの多層防御
AIの能力の不透明さを理解したうえで、計算資源を規制/制御の基点とし、開発の各フェーズでも重層的にリスクを検知するべきである。世界の業界全体が協調して(=それぞれの国や企業が勝手に安全対策を講じるのではなく)、技術的な安全性や透明性の向上、法的効力を持った規制、社会的な影響への倫理的な配慮、そして一般社会(利用者側)のリテラシー向上などを含めた「多層型の防御(Defense-in-Depth)」が求められている。
・政策に取り組むことの難しさ
しかし、そのような防御を世界各国が政策に取り込むことは難しい。いま一般目的で利用されているAIの複雑さ、その発展のスピード、複数の分野への展開のややこしさは、政府がリスクに取り組むことを困難にしており、実効性のある政策の立案を阻むだろう。
・2030年に向けた軌道
2030年の汎用AIがどうなるのかは予測できない。その歩みは、AIがどこでどのように展開され、どのように使用され、どのように関係者が対応するかによって変化する。投資家たちは現在、主要なAI開発企業が継続的な発展を遂げることに期待しているが、その進歩は予期せぬ技術的な限界によって鈍るかもしれない。
・我々がなすべきこと
つまり汎用AIの軌道は定まっていない。開発者/政府/各種機関/コミュニティが、今後の数年間で「どんな選択をするのか」によって変化する。当報告書は、それらの選択が充分な情報に基づいたものとなるよう、我々が「AIを取り巻く状況に関するエビデンスに基づいた共通の理解を深め、その不確実性を認識できるようにするため」、また「異なる管轄のポリシー立案者たちが、共通の科学的根拠に基づきながら、それぞれのコミュニティ独自の価値観とニーズに応じて行動できるようにするため」のものである。
あまりにも回りくどいので、途中で疲れてしまった方も多いのではないだろうか。
ガバナンスに関しては、とにかく「AIのリスクを認識したうえで軽減/管理することが望ましいが、それを見極めるのがどれほど難しいのか、なぜこんなにも難しいのか」という説明が長々と綴られる。「もう分かった、難しいのは分かったから、結局のところ僕らはどうしたらいいのさ」という部分は最後の数ページに出てくるのだが、それは結局のところ「国際社会全体で、実効力を持った多層的な安全策を立てるべし」となり、具体的な実装面の話題にはほとんど踏み込まれていない。
そういったわけで。あえて誤解を恐れず、この221ページの報告書をどこまでも短絡的にまとめるなら次のようになるだろう。
・AIはすさまじく賢くなり、非常に複雑な働きができるようになった一方、いつどこで致命的な凡ミスをするかは相変わらず分からないままだ。世界の天才たちと競い合える能力を持っていながら、しばしば三歳児以下の低レベルな間違いをおかすので、一貫した安定性は望めない。
・AIがもたらすリスクは多種多様で、その影響も複雑だ。正直なところ「よく分からない」点が多いままで、新興リスクも次々と発生している。さらに、これまで予想だにしなかった未知のリスクが生まれる可能性もある。いまは「危険だ」と恐れて立ち止まるにも、「安全だ」と楽観視して進むにも科学的な根拠が足りないのだが、それでも我々は判断を下さなければならない。
・AIの能力やリスクを正確に理解/評価してから管理することは、とてつもなく難しい。いまは無理なのかもしれない。しかし、判断の根拠となる強いエビデンスを待っていたら、その間に取り返しがつかなくなる可能性がある。だから「とてつもなく難しい」というAIリスクの特性をみんなが理解したうえで、一枚岩になって「多層型の有効な最善策」を構築できるように頑張ろうね。
そもそも「International AI Safety Report」とは何か
〇対象としている読者
ここで「このレポートは何なんだ。わざわざ100人以上の専門家が集まって作り上げたのに、そんな他力本願っぽいフワっとした感じで締めくくるのか、いったい何がしたかったのだ」と疑問に思われた方もいるかもしれないので、いまさらながら報告書の背景について説明したい。
この報告書は、2026年2月16日からニューデリーで開催されている「India AI Impact Summit 2026」に先立って発表されたものだ。それはAIの安全性とガバナンスに関する広い議論を目的とした国際会議で、各国の政府関係者、AI企業、国際機関、研究者などが参加している。当報告書は、この国際会議で交わされる議論のために、AIの最新データや評価を提供しつつ、会議そのものへの助言も行うためにアップデートされたレポートである。
つまり読者として想定されているのは一般のAIユーザーではなく、各国政府や国際機関の担当者、そしてAIの開発者(開発企業)や研究者など「AIのポリシーに深く関わる人々」「AIの将来に関して判断を下せる立場にあるキーパーソン」ということになる。それならば、AIへの恐怖を煽りかねないような内容/AI企業に対する非難にもなりえる内容を明記できないのは当然だろう。
「めちゃくちゃ難しいのは承知のうえで、力を合わせて頑張りましょう」という模範的で淡泊な結びも、そのような人々に向けて書かれたのなら大いに意義がある。「私たちは、これほど大変なものを築いてきた当事者です。もう何もしないわけにはいきません。AIと人類の未来は私たち次第なのですから、全員が共通の課題を乗り越えるために協力しなければなりません。そして私たち自身が、安全対策の措置(たとえば開発と運用に関する法的規制など)の対象となりうるのだと自覚するべきです」ということを、暗に伝えたメッセージとしても読み取れるだろう。
〇報告書の歴史と位置づけ
この「International AI Safety Report」は歴史の浅い報告書だが、もともとAIサミットの強い要望によって誕生したものだ。まず英国で「AI Safety Summit」が開催されたのは2023年11月のことだった。この国際会議で、「AIのリスクに関する世界共通の評価と協調が不可欠である」という合意があったことを受け、翌2024年5月に同報告書の暫定版「Interim Report」が公開された。
さらに翌年の2025年1月29日には、その暫定版へのフィードバックを反映した正式なレポート「International AI Safety Report 2025」が発表された。この報告書は、世界初の「包括的、国際的なAIの安全性に関する報告書」として位置づけられている。
そして今回ここで紹介した2026年版は、そのセカンドエディションということになる。初版から継続する形で、AIの能力とリスクの科学的評価を改めて整理することを目指し、そのうえで新たな研究成果や国際的議論、それに関わる社会的な課題を含めて情報をアップデートしたものだ。
〇アップデート版における大きな変化
つまり昨年に発表された2025年版(初版)は、科学的なAIリスクの評価を目指した報告書であるのと同時に「世界各国で合意されるような初の包括的なレビューと概念を形成すること」が非常に重要だった。まずは無難に、すべての国や企業や機関が頷けるものとなる必要があった。この初版では、AIリスクの評価に関する部分も「将来どのようなリスクが見込まれているのか」「それが現実化する可能性はどの程度なのか」を(やや余裕があるようにも見える態度で)示す内容が中心となっている。
しかし今回の2026年版は、現実社会でAIが達成した新たな実績、あるいはAIによって実際に発生してしまった事件などを紹介しながら「AIは飛躍的に進歩し、自立型の能力も増しており、制御不能な領域に達しつつあるかもしれない。もはやリスクの評価は難しい」と示したうえで、「それでも早急なリスク対応が求められている。世界全体が協調し、法規制まで含めた多層的な防御をしなければならない」という具体的な課題まで踏み込んだ内容となっている。あいかわらず各方面に気を遣った回りくどい論調ではあるが、それでも「世界の権威あるAI専門家たちが、AIと人類の将来のために、いま言わなければならないことをどうにか言おうとした結果」にも見える。
〇この報告書が持つ「効力」
しかし気になるのは、それが果たしてどれだけの効力を持っているのか? という点だろう。この報告書には、おそらく「最新のAIリスクを科学的に整理した国際的な基準」として受け止められるだけの力がある。それは世界中の専門家や研究者たちの間で参照され、共通のキーワードや課題を認知させるものになるだろう。しかし当然ながら、報告書そのものに法的な強制力はない。その内容や提言をどのように受け止めるかは、各国/各企業の利害や戦略によって左右されてしまう。
つまり「これからAIと人類の未来を決める重要な国際会議が開かれますので、このような共通の認識を持って充分に話し合い、足並みを揃えて課題を乗り越えましょうね」と提言しても、「お断りだ。私は合意しない」とはねつけられる可能性がある。そして実際に米国は「そちらの方向」へと舵を切った。
次回は、この報告書について各国(特に米国)やメディアがどのように反応したのかを紹介したい。できることなら、現在(2025年2月19日執筆時点)開催されている「AI Impact Summit 2026」において、報告書の説いた理念がどのように重視されたのか、あるいはされなかったのかもお伝えしたいのだが、それは実際の会議の様子次第となるかもしれない。
参照URL
International AI Safety Report
https://internationalaisafetyreport.org/
International AI Safety Report 2026 _ International AI Safety Report
(報告書本編。PDFファイル:8.14 MB)
https://internationalaisafetyreport.org/sites/default/files/2026-02/international-ai-safety-report-2026_0.pdf
2026 Report_ Extended Summary for Policymakers _ International AI Safety Report(技術的な話を省略した、ポリシー立案者向けのサマリー)
https://internationalaisafetyreport.org/publication/2026-report-extended-summary-policymakers
International AI Safety Report 2025
(初版にあたる2025年版の本編。298ページあるので2026年版よりも枚数は多いが、フォントが大きめで内容も分かりやすいため、2026年版よりは短時間で読めるだろう。PDFファイル:4.45 MB)
https://internationalaisafetyreport.org/sites/default/files/2025-10/international_ai_safety_report_2025_english.pdf
India AI Impact Summit 2026
https://impact.indiaai.gov.in/
