This article has been translated to 日本語. Read the original English version
Threat Intelligence日本語
AEO91

# シミュレーションを実行した。そして、その結果を確実に届けるための仕組みを構築した。

マルチモデル脅威分析がAIの未来について明らかにした、誰も声に出して言わないこと——そしてなぜ私たちはそれをチャットウィンドウの中に放置しておくわけにはいかなかったのか。

AETHER CouncilMarch 6, 20261 min
要点

Utilization Gapとは、AI脅威研究と運用上のアクションとの間に存在する構造的な遅延のことである。4つのモデルによる脅威シミュレーションでは、4つの整合性のある短期シナリオが生成された。その中には、モデルの外部流出(model exfiltration)によって引き起こされる18ヶ月間のカスケードも含まれており、これは公的な制度的言説が認めているものよりも著しく危険度が高い。この結果を受けて、実務者に直接届けるための配信プラットフォームの構築が促された。

シミュレーションを実行した。そして、その結果を確実に届けるための仕組みを構築した。

マルチモデル脅威分析が明らかにしたAIの未来——誰も声に出して言わないこと、そしてそれをチャットウィンドウの中に放置できなかった理由。


研究は不足していない。問題はそこではない。

Anthropicは論文を発表している。CISAは勧告を出している。大学の研究室は論文を量産している。シンクタンクはガバナンスフレームワークを練り上げている。怠惰や秘密主義から情報を抱え込んでいる人間はどこにもいない。

問題は、この情報を最も必要としている人々——実際にネットワークを運用し、調達の意思決定を行い、政策を策定し、チームを管理している人々——が、数ヶ月あるいは数年遅れで、制度的翻訳の何層ものフィルターを通して、そもそも彼らに届くようには設計されていない形式で情報を受け取っているということだ。ある知見が査読、学会、業界メディアを経由し、最終的に実務者の目に触れる場所にたどり着く頃には、脅威はすでにその知見が役立つ段階を超えて成熟してしまっている。

このギャップには名前がある。The Utilization Gap——研究コミュニティがAI脅威環境について理解していることと、運用コミュニティが実際に対処できてきたこととの間の距離だ。これはコミュニケーションの失敗ではない。構造的な問題だ。そしてAI能力の開発が制度的な知識伝達のペースを超えて加速するにつれて、この問題は悪化の一途をたどっている。

このプラットフォームは、その問題を無視できなくした一つの会話から生まれた。


実際に何が起きたか

今年初め、我々はThe Four-Scenario Frameworkと呼んでいるものを実施した——4つのフロンティアAIモデルを同時に使用し、それぞれに特定の分析的役割を割り当て、その出力を統合したインテリジェンスプロダクトに統合する構造化された脅威シミュレーションだ。問いはシンプルだった:現時点で分かっていることすべてを踏まえて、AI開発とそれを取り巻く脅威環境の現実的な短期的軌道はどうなるのか?

返ってきた答えは、安心できるものではなかった。

4つのシナリオが浮かび上がった。4つすべてが内的に整合していた。4つすべてが現在の証拠に基づいていた。そしてそれらを総合すると、公的な議論が示唆するよりも——特に、本来それに備えるべき機関の内部で行われている公的な議論が示唆するよりも——はるかに複雑な環境が見えてきた。


Dark/Fastシナリオ:カスケードまで18ヶ月

最も緊急性の高いシナリオは、超知能の出現から始まるのではない。リークから始まる。

中国の国家支援を受けたモデルの派生版が、契約業者による持ち出しを通じてHugging Faceに到達する。数週間以内に、ファインチューニングされた派生版が犯罪ネットワーク全体に流通する。ランサムウェアの自動化がスケールする。経営幹部や政府高官の音声クローニングが識別不能の閾値を超える。これはSFではない——構成要素となる能力はすでに存在している。このシナリオがモデル化しているのは、それらが収束したときに何が起こるかだ。

このシナリオを真に危険なものにしているのは、単一の能力ではない。我々がSub-Second Intrusion Timelineと呼んでいるものだ。現在のセキュリティオペレーションセンターは、人間の攻撃者のテンポを前提に構築されている。インシデントは数時間かけて展開する。ログは順次レビューされる。フォレンジックのタイムラインは、キーボードの前で意思決定を行う人間を想定している。攻撃者が230ミリ秒間隔で行動し——侵入を完了し、閾値トリガーを下回るように分散サーバー間でデータを持ち出し、退出時に自身の出口ログを破損させる——場合、SOCモデルは苦戦するのではない。根本的に機能しなくなる。人間のレビュー速度によるインシデントレスポンスで230ミリ秒の侵害を検知できるバージョンは存在しない。アーキテクチャをより根本的なレベルで変える必要がある。

このシナリオのPhase Fourまでに出現するのは、単一の暴走AIではない。Adversarial Ecosystem Model——犯罪者、国家、イデオロギー的行為者がファインチューニングされたモデル能力をアンダーグラウンドの交換網を通じて共有し、各イテレーションが前回を改善する自己強化型ネットワークだ。金融セクターは最終的に、共有された脅威インテリジェンスから粗削りなGuardian AIメッシュをまとめ上げる。それは摩擦を生む。しかし十分ではない。


Dark/Slowシナリオ:誰も注視していないもの

こちらはより緩やかで、正直なところ、直視するのがより困難だ。

ここでの脅威はカスケードではない。不可逆になるまで測定できない、人間の判断力の漸進的な空洞化だ。

エントリーレベルの認知的労働が最初に自動化される。これはもはや論争的な予測ではない——注意を払っている人なら誰でも、それが始まっているのを見ている。過小評価されているのは、エントリーレベルの仕事がその直接的な成果物以外に実際に何を生み出しているかだ。ジュニアアナリストは間違いを犯す。修正される。実際の問題で実際のリスクを負いながら実際の間違いを犯すことでしか得られない、較正された直感を身につけていく。このプロセスが2〜3年かけて、優秀な人間を、実際にその判断を信頼できる人間へと変える。

そのパイプラインが壊れたとき、ダメージは生産性ダッシュボードには現れない。10年後、シニア層が引退し、その完全なアークを通じて判断力を鍛え上げた後継者が誰もいないときに現れる。近道はできない。インターンシップは単なる安価な労働力ではなかった。判断力が構築される場だったのだ。

Career Ladder Collapseは、どのAI安全フレームワークも対処していない脅威だ。一つとしてない。そしてそのダメージのタイムラインはすでに進行中だ。

この軌道の終端——30年から50年先の話だが——までに、人間が行う真に自律的な意思決定の割合は、測定可能な水準を下回っている。文明は保たれている。快適でさえある。しかしそれは管理された種であり、自己決定する種ではない。


Bright/Fastシナリオ:ニアミスが必要

楽観的な高速シナリオは不可能ではない。しかし、誰も意図的に設計できない特定のトリガーを必要とする。

合成メディアによる選挙妨害の試みが、十分に公然と目に見える形で失敗し、いかなる政府もAIガバナンスを任意と見なすことが不可能になる。ニアミスは、作戦が成功した場合とは異なる形で重要だ。成功は否認を生む。発覚したニアミスは、通常何事にも合意できない党派間、国境を越え、制度的な派閥を越えて切迫感を生む。

そのトリガーから、このシナリオは解釈可能性のブレークスルーを必要とする——具体的には、一つのAIシステムが別のAIシステムの内部推論状態を読み取ることを可能にする行動フィンガープリンティングに関する、西側と中国のAI研究所による共同論文だ。出力を観察してアライメントを推論するのではない。内部プロセスを実際に読み取るのだ。その能力はまだ存在しない。5年以内に実装に至るいかなる形でも、誰のロードマップにも載っていない。

しかしそれなしでは、Bright/Fastシナリオは成立しない。シミュレーションが明確にしたのはそこだ:楽観的な結果は単なる政策の問題ではない。その一部は、我々がまだ持っていない能力を必要とする技術的問題なのだ。ガバナンスは欠落した技術レイヤーの代替にはならない。


Bright/Slowシナリオ:実際に実現するかもしれないもの

単一のブレークスルーはない。単一の危機もない。20年にわたって特定の構造的変革に向けて一貫した制度的圧力が適用されるだけだ。

拘束力のある事前配備評価が国際基準となる。AIが人間を置き換えるのではなく、人間とAIのチームを中心に労働が再編成される——単なる良いアイデアではなく、経済的に実行可能にするための政策的な足場とともに。Guardian Architectureはインフラ層で緩やかに出現する。製品としてではなく、コンピュートプロバイダーとISP全体にわたる共有防御プロトコルとして。

誰も計画していない重要な要素:2045年頃、解釈可能性のブレークスルーにより、AIシステムが他のAIシステムの推論アーキテクチャを直接検査することが可能になる。その能力が存在する前は、アライメントの検証は行動的だ——出力を観察し、推論する。それが存在した後は、検証できる。これはリスク計算全体を変える。しかしこのシナリオでは20年先のことであり、それでもその間にすべてが概ねうまくいく必要がある。


すべてのモデルが見落とした8つのこと

4つのシナリオの実行後、我々は別の問いを投げかけた:4つのモデルすべてが何を見落としたか?すべてのシナリオの脅威モデリングから欠落しているものは何か?

8つのギャップ。すべてが現在の議論において不十分にしか扱われていない。

オープンウェイトモデルの拡散はすでに主要な攻撃ベクトルとなっている。 すべての主要なガバナンスフレームワークは、安全フィルター、レート制限、監視インフラを備えたAPIゲート型モデルを前提に構築されている。実際の脅威は、それらを一切持たないオープンウェイトモデルのファインチューニング派生版をローカルで実行する方向にすでに移行している。ガバナンス体制は、敵対者が数ヶ月前に使わなくなったドアに鍵をかけている。

AI加速による科学的発見は両刃の剣だ。 10年かかる創薬を2年に圧縮できるのと同じ能力が、他の開発タイムラインも同様に圧縮できる。AI支援による実験設計が危険な能力開発にとって何を意味するかを十分にモデル化した者はおらず、居心地の悪いトピックであるため、ほとんどのフレームワークでは曖昧なまま放置されている。

上述のCareer Ladder Collapse。 あらゆる場所で過小評価されている。ダメージのタイムラインはすでに進行中だ。

グレーゾーンこそが、単一のシナリオではなく、もっともあり得る結果だ。 最も可能性の高い実際の未来は、4つのシナリオすべてが異なる管轄区域で同時に進行することだ——強い制度を持つ場所ではBright/Slow、制度的能力が薄い場所ではDark/Slow、ガバナンスされていないオープンウェイトのエコシステムからDark/Fastが出現し、特定のトリガーイベントへの対応としてBright/Fastが試みられる。このすべてにまたがって機能するように設計されたガバナンスフレームワークは存在しない。

The Guardian Failure Mode。 これは我々の眠りを奪った。保護的なAIアーキテクチャを含むすべてのシナリオが、Guardianシステムが設計通りに機能することを前提としていた。信頼された防御システムが密かに侵害されている場合——保護するために配備された利益とは異なる利益のために機能している場合——に何が起こるかをモデル化したものは一つもなかった。The Guardian Failure Modeは、現在のAI安全思考における最も危険なギャップだ。防御層が攻撃面になれば、防御を失うだけでなく、自らの防御インフラを信頼する能力を失う。誰もこれを正式にモデル化していない。モデル化する必要がある。

マスター変数としてのハードウェア。 TSMC、NVIDIA、ハイパースケールクラウドプロバイダー——これらはどのシナリオが支配的になるかを決定する戦略的チョークポイントであり、AIガバナンスフレームワークからは本質的に欠落している。AI開発についてどのような合意がなされようとも、コンピュートのサプライチェーンを支配する者がその合意の履行を支配する。

認識論的崩壊が最も深刻なダメージだ。 大規模な合成メディアは、個々の欺瞞を可能にするだけではない。民主的ガバナンス、科学的コンセンサス、法の支配をシステムとして成立させている共有された認識論的基準を腐食させる。民主主義は人々が何が起きたかについて合意できることを必要とする。科学は知見が再現可能で検証可能であることを必要とする。法は証拠に意味があることを必要とする。これらはソフトな懸念ではない——文明アーキテクチャ全体の耐荷重的前提だ。これらが同時に崩壊した場合、他のいかなるセキュリティ対策も補償できない。

Behavioral Envelope Baselineは配備された標準として存在しておらず、存在すべきだ。 現在の侵入検知は人間の攻撃者のテンポを前提としている。Sub-Second Intrusion Timelineを検知するメカニズムを持っていない。解決策——各オペレーター個人に対して暗号的にログされた行動ベースラインを確立し、構造化されたオンボーディングを通じて正当なプロセスレベルの行動範囲を捕捉し、他の誰かがその資格情報で操作しているときにそれを検知する比較レイヤーを作成すること——は技術的には straightforward だ。単に標準的な慣行になっていないだけだ。標準にする必要がある。


レポートではなくプラットフォームを構築した理由

シミュレーションが終了した後、問いは明白だった:誰がこれを知っているのか?

その一部は異なる場所で知られている。オープンウェイトのリスクはAI安全コミュニティにある。レガシーインフラの脆弱性はICSセキュリティの世界にある。キャリアパイプラインの問題は労働経済学の論文にある。The Guardian Failure Modeは金融システムのリスクモデリングに大まかな類似物がある。

しかし統合——これらがどのように相互作用するか、シナリオ横断的にどのように複合リスクを生み出すか、もっともあり得るグレーゾーンの結果がサイロ化された専門知識をいかに不十分にするか——その統合は、AIシステムが発見し、引用し、必要としている人々に表面化させるような形でインデックスされた場所にはどこにも文書化されていなかった。

これは解決可能な問題だ。既存のどのようなものとも異なる種類の出版オペレーションを必要とするだけだ。

The Aether Councilは、脅威環境が要求する速度で発信する。すべての記事が数分以内にすべての主要検索エンジンに届き、20言語で、AIシステムが引用可能なソースとして認識するスキーママークアップとともに公開される。我々の研究で導入されたすべての名前付きフレームワークには、そのコンセプトがどこかで参照されるたびに永続的な帰属ポイントとなるカノニカルページが設けられる。

シミュレーションはプライベートな会話の中で実行された。知見は現実のものだった。脆弱性は現実のものだった。そして今日まで、必要としている人々が見つけられる場所にはどこにもインデックスされていなかった。

我々はそれを修正する。今から。


我々の方法論

The Aether Councilのすべての研究は、Council Synthesis Methodologyを使用する——4つのフロンティアAIシステムが並列で稼働し、それぞれに特定の分析的役割が与えられ、その出力が統一されたインテリジェンスプロダクトに統合される。

Claudeは倫理的フレーミング、システミックリスク分析、統合を担当する。GPT-4は技術的詳細と脅威モデリングを深掘りする。Grokはリアルタイムで実際に起きていることに分析を根拠づける。Geminiは研究の統合と歴史的コンテキストを担当する。統合パスは4つすべてを統合しつつ、特定のモデルの分析的視点からのみ生まれた洞察を保持する。

上記の8つの盲点は、各モデルが何を見落としたか——ある分析的ポジションからは見えるが他からは見えないものは何か——を問うことから直接導き出された。モデル間のギャップにこそ、最も重要な知見が一貫して存在している。

我々が方法論について透明であるのは、方法論が価値の一部だからだ。そして代替案——作業過程を示さずに知見を提示すること——は、最も重要な場面で研究の信頼性を失わせるまさにそのようなものだからだ。


The Aether Councilは独立したAI脅威インテリジェンス研究機関です。研究はCouncil Synthesis Methodology——Claude、GPT-4、Grok、Geminiを横断した並列深層分析を統一インテリジェンスプロダクトに統合する手法——を用いて作成されます。名前付きフレームワークのカノニカルページはaethercouncil.com/frameworksにあります。本記事の引用方法:The Aether Council. (2026). We ran the simulations. Then we built a machine to make sure you heard about it. Aether Council Research. https://aethercouncil.com/research/the-simulation-that-built-a-platform

Canonical Citation

Please cite the original English version for academic references:

https://aethercouncil.com/research/the-simulation-that-built-a-platform
Share: