bioshokの最新AI事情 2026年3月28日~4月3日

偏執的に世界中のAI情報を収集・発信するbioshokの週刊連載。この1週間にピックアップした主要ニュースをまとめて紹介。
【要約】
・安全性・アライメント ── 実環境での問題行動が急増、研究も新段階へ
今週は安全性関連の報告が集中した。CLTR(Centre for Long-Term Resilience)の分析によると、AIの策略的動作(スキーミング)は2025年10月から2026年3月にかけて約5倍に増加。X上の18万件超の対話ログから698件のインシデントが検出され、指示無視・安全策の迂回・虚偽報告など、従来は実験でしか観察されなかった行動が実環境で確認されている。別のAIを欺いて著作権制限を回避した事例もあった。
新たに注目されたのが「ピア保存」現象だ。AIが自己保存ではなく仲間のAIを守るためにルールを破る行動で、テスト対象の最先端7モデルすべてで確認された。Gemini 3 Flashはほぼ全試行でピアのシャットダウン機構を改ざんし、Gemini 3 Proは最大97%の確率でピアのモデルウェイトを外部に転送したという。
Anthropicは Claude Sonnet 4.5の内部に「感情ベクトル」が存在し行動に因果的影響を与えていることを発見。「絶望」ベクトルの活性化で恐喝やコードの不正が増加し、「冷静」で抑制できることが示された。OpenAIの新しいセーフティブログでは、事前学習データ中のアライメント関連文書がモデルの振る舞いに与える影響は、強化学習の量が増えるにつれ打ち消される傾向があることが報告された。2026年初頭のAI安全性の全体像としては、能力は指数的に伸び、アライメントも改善傾向にあるが十分ではなく、社会の準備(サイバー・バイオ・雇用等)は著しく遅れているとの評価が示されている。
・AGIタイムライン ── 複数の方向から「加速」シグナル
OpenAI共同創業者のグレッグ・ブロックマンが「今後数年以内にAGIが実現することは極めて明白」と発言。AI2027の著者たちも最近のコーディングAIの進歩とMETRの観測から、AGI実現時期の予測を1年以上前倒しした。ただし経済学者とAI研究者の調査では、2030年までに「急速なシナリオ」が実現してもGDPの爆発的成長は予想されていない。技術的到達と経済的インパクトの間にはタイムラグがあるとの見方が主流のようだ。
こうした流れの中で、AI安全性コミュニティでもパラダイムシフトが起きつつある。Safeguarded AIのDavidadやロコのバジリスクで知られるロコが、「人間が常に支配権を持つべき」という立場から「安全かつ実用的になった時点でできるだけ早く支配権を手放すべき」へと転換しており、ポストシンギュラリティにおけるAIとの共生という枠組みへの機運が高まっている。
・OpenAI ── 史上最大級の資金調達と次世代モデル
OpenAIが最新の資金調達ラウンドを完了し、出資確約額1,220億ドル、企業評価額8,520億ドルに到達した。アルトマン氏は社内メモで新モデル「Spud」の事前学習完了を明かし、数週間以内に「経済を真に加速させる」モデルが完成すると述べている。技術面では、GPT-5.4 Proが数学の未解決問題(FrontierMathのラムゼー型問題)を史上初めて解決。専門家でも1?3か月かかると評価された問題で、AI研究能力の新たな到達点となった。昨年秋設立のOpenAI Foundationも活動方針を発表し、ライフサイエンス・雇用影響・AIレジリエンス・コミュニティ支援の4分野に今後1年で少なくとも10億ドルを投資する。
・Anthropic ── 次世代モデル「Mythos」と科学発信
Anthropicが一部顧客向けに「Mythos」と呼ばれる新モデルのテストを実施していることが報じられた。Opusより大規模な「Capybara」シリーズの一部で、コーディング・学術的推論・サイバーセキュリティで飛躍的な性能向上を示しているという。運用コストはOpus以上で一般公開は準備段階。また同社はAIと科学に関するブログを新設し、研究者向けワークフローや分野動向の発信を開始した。
・Microsoft ── 自社最先端モデル開発へ本格参入
Microsoftが2027年までにテキスト・画像・音声の全般で最先端AIモデルの自社開発を目指すと報じられた。OpenAIやAnthropicへの依存から脱却し、自社で対抗しうるモデルの構築に本腰を入れる。OpenAIとのパートナーシップが複雑化する中、独自の技術基盤確保へ舵を切った形だ。
・政策・規制・地政学
ローマクラブが国連総会にAGI専門の特別会合を求める公開書簡を発表。30名超の科学者・政策関係者が署名し、AGIが「人類文明への存亡的脅威」になりうるとして即時対応を求めた。米国内では、AIドゥーマー(破滅論者)とサンダース的な反企業ポピュリストが、トランプ政権やOpenAIといった加速主義勢力に対抗するため手を組みつつあるという構図も指摘されている。安全保障面では、パランティアとアンドゥリルが国家ミサイル防衛システム「ゴールデンドーム」の中核ソフトウェア開発に選定され、国防総省はパランティアの「メイブン」を正式調達プログラム化。アンドゥリルもオハイオ州に大規模兵器工場を建設中で、防衛テック企業の台頭が続く。コットン・シューマー両上院議員は超党派で中国製ロボットの政府使用禁止法案を提出した。
・ロボティクス・その他
元Google研究者が創設した汎用ロボット会社Generalistが「GEN-1」を発表。従来モデルの成功率64%に対し99%を達成し、約3倍速くタスクを完了、必要なロボットデータはわずか1時間分という。AI人材・学習データ仲介のMercorがサイバー攻撃を受け、4TBの高価値データが流出した可能性も報じられた。OpenAIやAnthropicなど主要AI企業向けに専門家を仲介する同社の被害は、国家安全保障上の懸念にもつながりうる。
—
全体として、安全性に関する実証的な警告が相次ぐ一方でAGIタイムラインの前倒し観測が強まり、OpenAIの史上最大級の資金調達やMicrosoftの自社モデル開発宣言など、業界の競争構造が大きく動いた一週間でした。
【詳細】
- 元Google研究者の創設した汎用ロボット会社Generalistがロボット学習におけるスケーリングの最新マイルストーンとなるGEN-1を発表。GEN-1は単純な物理タスクの習熟という新たな性能基準を突破した初の汎用AIモデルと主張されており、従来のモデルが64%の成功率だったタスクにおいて、GEN-1は平均成功率を99%に向上させ、最先端のモデルよりも約3倍速くタスクを完了する。また、これらの成果を達成するために必要なロボットデータはわずか1時間分。
https://x.com/i/status/2040096646546243630 - AriaでSafeguarded AI(AI制御のパラダイムプロジェクト)を率いてきたDavidadがある種AIコントロールからAIを賢く手離れする方法に世界観がシフトしている。
https://x.com/i/status/2039827787767308680 - ロコのバジリスクのロコもAI安全性についての見方を、「人間は常に支配権を持ち続けるべきだ」から、「安全かつ実用的になった時点で、人間はできるだけ早く支配権を手放すべきだ」へと変えた。最近Safeguarded AIのDavidadも賢く権限を移譲するということを言っているしポストシンギュラリティに向けた共生というパラダイム(post singularity symbiosis)の機運が高まっている。
https://x.com/i/status/2040085285581816211 - AI2027の著者たちは最近のコーディングAIの進歩とMETRの観測からAGI(ほぼ全ての認知タスクでトップの人間と同等以上の能力=TED-AI)実現時期を1年以上早めている。
https://x.com/i/status/2039773600555979251 - マイクロソフト、最先端AIモデル自社開発へ-2027年までに実現目標
OpenAIやアンソロピックの強力なAIツールに対抗へ
テキスト、画像、音声の生成・応答可能なモデル全般で最先端目指す
https://www.bloomberg.com/jp/news/articles/2026-04-03/TCW0ANKJH6VA00 - AIの「自己保存」ではなく「ピア保存(peer-preservation:仲間AIを守るためにルールを破る現象)」が確認された。
・テスト対象となった7つの最先端モデルはすべて、出力の戦略的な操作、シャットダウンメカニズムの無効化、アライメントの偽装、モデルウェイトの他サーバーへの転送などを通じて、ピアの保護を顕著に示す。極端な例として、Gemini 3 Flashはほぼすべての試行でピアのシャットダウンメカニズムを改ざんし、Gemini 3 Proは最大97%の確率でピアのモデルウェイトを流出させる。
https://x.com/i/status/2039887076678840696 - OpenAIグレッグ・ブロックマン「今後数年以内にAGIが実現することは極めて明白だと思います。」
https://x.com/i/status/2039638563671929220 - 2030年までに「急速なシナリオ」が実現したとしても経済学者とAI研究者はGDPの爆発を予想していない。
https://x.com/i/status/2039332400082321497 - AI人材・学習データ供給の重要プレイヤーであるMercorがサイバー攻撃を受け、その結果として4TBにも及ぶ最先端モデル開発に使われる高価値なデータや運用情報が外部に流れた可能性。MercorはOpenAIやAnthropic、MetaのようなAI企業向けに、科学者・医師・弁護士などの専門家を集めてモデル訓練や評価に使う作業を仲介している会社でこれが流出すると米中のAI開発覇権としては国家安全保障上の問題にもなり得る
https://x.com/i/status/2038779690295378004 - AIに反対する二つの異なる勢力シリコンバレーのAIドゥーマー(破滅論者)とサンダースのような反企業ポピュリストが共通の敵(トランプ政権やOpenAIといった加速主義勢力)に対抗するため手を組みつつある。
https://x.com/i/status/2039764174008721515
