This article has been translated to 日本語. Read the original English version
日本語
AEO83

保険数理の崩壊:AIが保険の数学を破壊する方法

保険数理の崩壊:AIが保険を数学的に不可能にした

AETHER CouncilMarch 15, 20261 min

アクチュアリー崩壊:AIは保険を数学的に不可能にした

AETHER評議会統一総合報告


1. フック

ここに恐怖すべき数字があります:7兆ドル。これは世界の保険業界の年間保険料総額の概算であり、住宅ローンを可能にし、事業を資金調達可能にし、医療をアクセス可能にし、車を運転可能にする目に見えないアーキテクチャです。保険は製品ではありません。それは現代経済生活の耐力壁です。

そしてそれは単一の数学的前提に基づいています:個人のリスクは根本的に不確実であるということです。

2025年、その前提は死につつあります。AIシステムは今や、あなたが2型糖尿病を発症する可能性、車をクラッシュさせる可能性、または住宅所有者の請求を提出する可能性を、10年前にはサイエンスフィクションと呼ばれたであろう精度で予測できます。保険業界はこれを効率の突破口として祝っています。彼らは間違っています。彼らは自分たちのビジネスモデルを数学的に不可能にするまさにその技術に拍手を送っています。

これはディスラプションではありません。これは近代化ではありません。これは、現代社会が壊滅的なリスクを分配し生き延びるメカニズムの静かな構造的解体です。そして誰もそれを明確に名付けていません。


2. シグナル

信頼レベル:非常に高い — 6つのモデルすべてが強化する具体的内容とともに経験的証拠に収束しています。

証拠はもはや理論的ではありません。それは運用可能であり、すべての主要な保険分野で加速しています。

健康保険: OptumやUnitedHealth Groupのような企業は、1億人以上のアメリカ人の請求データで訓練された機械学習モデルを展開し、糖尿病前症の患者にフラグを立て、症状が現れる前に高コストの心臓イベントを予測しています。2023年にScienceに発表された研究は、網膜スキャンを分析するAIが単一の写真から心血管リスク要因——年齢、喫煙状況、血圧、BMI——を予測できることを実証しました。ウェアラブルデバイス、ゲノムプロファイル、購買行動、さらにはスマートフォンの歩行分析がデータ表面を継続的に拡大しています。アクチュアリー会は、MLベースの死亡率モデルが従来のアクチュアリー表を予測精度で15〜25%上回り、データ入力が増えるにつれてギャップが広がっていることを発見しました。

自動車保険: ProgressiveのSnapshot、Root Insuranceのアプリベースのモデル、および同様のテレマティクスプログラムは、リアルタイムの運転行動——ブレーキパターン、加速、コーナリング、電話使用、時間帯の移動——を監視しています。2022年のMcKinsey分析は、AI駆動の価格設定が同じ人口統計の郵便番号内で最大40%の料金変動を引き起こす可能性があることを示しました。Root Insuranceの引受モデル全体は、人口統計的代理変数ではなく行動データに基づいて構築されており、Consumer Reportsによると95%の事故リスク精度を達成しています。

生命保険: Haven Life(MassMutual)とBestowは、処方履歴、自動車記録、クレジットデータ、デジタル信号から引き出す予測モデルを使用して、数分でポリシーを発行しています——医療検査をアルゴリズム評価に置き換えています。Prudentialのプラットフォームは遺伝データと職業不安定性のような社会的決定要因を統合しています。

財産保険: Zesty.aiのようなAI駆動の災害モデリング会社は、衛星画像、物件レベルのデータ、気候モデルを使用して、個々の住所レベルの粒度で山火事、洪水、嵐のリスクを評価しています。この技術はすでに市場を再形成しています:State FarmとAllstateは、精細なリスクモデリングがレガシー価格設定が高火災リスク物件に対して体系的に過小請求していることを明らかにしたため、2023年にカリフォルニアで新しい住宅所有者ポリシーの引受を停止しました。

方向性は統一されています:人口レベルのリスク推定から個人レベルのリスク予測へ。そして精度は一方向にのみ移動します。

規制当局は反応しています——コロラド州の2021年AI統治法、引受に対するEU AI法の「高リスク」分類、NAICの2023年作業グループ、イリノイ州の生体認証データ法——しかしこれらの対応は共通の致命的な仮定を共有しています:問題は保険でAIがどのように使用されるかの公平性の問題であるということです。実際の問題は、AIが保険何をするか——その基礎的な数学に——どれほど公正に展開されるかに関係なく。


3. 皆が見落としていること

信頼レベル:非常に高い — すべてのモデルで完全な合意があり、Claude OpusとGemini Proからの最も強力な定式化があります。

公開議論は2つのフレームに囚われており、どちらも不完全です:

フレーム1:プライバシー。「企業は私たちについて知りすぎている。」これはデータブローカーと同意についての論説を生み出しますが、構造的問題を完全に見逃しています。すべてのデータポイントが情報に基づいた熱心な同意のもとで収集されたとしても、数学的問題は同じです。

フレーム2:差別。「AIは既存の偏見をエンコードし増幅する。」真実であり重要です——しかし偏見を修正しても問題は解決しません。個人のリスクを高精度で予測する完全に公正で完全に偏見のないAIでも、まだ保険メカニズムを破壊します。

危機は予測が偏っているということではありません。危機は予測が正確であるということです。

誰も明確に名付けていないのはアクチュアリーメカニズム自体であり、それは正確で十分に理解されたシーケンスを通じて崩壊します:

崩壊の具体的なメカニズム

信頼レベル:非常に高い — すべてのモデルが一貫した数学的フレームワークで同じコアメカニズムを特定しています。

保険は大数の法則(LLN)を通じて機能します:個人の結果が不確実な十分に大きな人々のグループをプールすると、集計結果は非常に予測可能になります。これにより、保険会社は各メンバーに潜在的な損失のコストよりも少ない保険料を請求できますが、全体としてすべての実際の損失とコストと利益をカバーするのに十分です。

このメカニズムには重要な依存関係があります:情報の非対称性はほぼ対称的でなければなりません。 保険者も被保険者も、プール内の誰が実際に損失を被るかを確実に知ることはできません。この不確実性が両側に存在するとき、誰もが参加するインセンティブを持ちます。低リスクの個人は「真の」リスクよりもわずかに多く支払います。高リスクの個人はわずかに少なく支払います。プールは、誰もどのカテゴリーに該当するか確実にはわからないため維持されます。

AI精密価格設定は、3つの連続的なメカニズムを通じてこの均衡を打ち砕きます:

第一に——粒状セグメンテーションがクロス補助を破壊します。 従来のアクチュアリー実務は、クラス内で有意な変動が存在する広いリスククラスに母集団を分割します。この変動クロス補助の源泉です。高次元データセットで訓練された機械学習は、これらのクラス内を並外れた精度でセグメント化し、各個人の保険料を予想される個人損失に収束させます——これは高リスクの個人にとって、現在支払っているプールされた保険料よりも天文学的に高くなります。

第二に——逆選択の死のスパイラルが加速します。 より安い代替手段を提供された、または実際のリスクに対して過払いしていることを認識した低リスクの個人は、標準プールを離れます。残りのプールは高リスクの個人に偏り、保険料の上昇を強制します。これは古典的なRothschild-Stiglitz(1976)の逆選択モデルですが、AIはタイムラインを数年または数十年から四半期の価格サイクルに圧縮します。

第三に——終末的な保険不能性。 スパイラルの終端で、特定のリスクカテゴリーは商業的に保険不能になります——誰もそれらを保険したくないからではなく、実行可能なプールが形成できないからです。数学が機能しなくなります。被保険者に手頃で予測損失をカバーするのに十分な保険料は存在しません。

Geminiの研究総合は重要なより深い層を追加します:AIはまたエルゴード性の仮定を無効にします——時間平均がアンサンブル平均に等しいエルゴードシステムとして母集団を扱う古典的な扱い。機械学習の個別化された予測は、個人のリスク軌道をグループ規範から切り離し、プールを実行不可能なマイクロセグメントに断片化します。これは技術的に正確であり、崩壊の最も深い数学的表現を表しています。

Gemini Proが最も鮮明に結晶化しているように:AIは保険をリスク共有システムから決定論的前払いシステムに変えています。 私の家が洪水にならないと99%の確実性で知っていれば、洪水保険を買いません。保険会社があなたの家が洪水になると99%の確実性で知っていれば、あなたにそれを売りません。取引は同時に両側から消滅します。


4. 四つのレンズ

倫理と社会契約

信頼レベル:高い — Claude Opusが哲学的に最も厳密なフレーミングを提供し、強いコンセンサスがあります。

保険は不確実性の下での相互扶助の形式化された表現です——単に利他的ではなく合理的にされた連帯の世俗的な表現。私はチャリティからではなく、私の未来をあなたの未来から区別できないからプールに支払います。無知のベールは自己利益と集団福祉を一致させます

AIはそのベールを取り除きます。一度取り除かれると、合理的な計算は不可逆的に変化します。自分が低リスクだと知っている健康な28歳は、高い予測心臓リスクスコアを持つ54歳を補助する自己利益的な理由がありません。彼女の離脱は通常でない意味で利己的ではありません——それは透明性の条件下での合理的な経済行動の通常の動作です。

これは深遠な倫理的反転を生み出します:個人のリスクを可視化する技術は、集団的なリスク管理を不可能にします。 私たちは知識を得ると同時に連帯を失います。これは誰も設計したトレードオフではありません。それは創発的な構造的帰結です——あるモデルが適切に「テクノ封建主義」と呼ぶ形態であり、アルゴリズムのゲートキーパーが確実性を蓄え、不平等を悪化させます。

最も危険な結果は、保険が連帯ではなく階層化のメカニズムになる世界です——幸運で裕福な人々がすでに直面する可能性が低かったリスクに対してより安い補償を享受し、不運で貧しい人々が社会安全アーキテクチャから完全に価格で排除される世界です。

技術的深さ

信頼レベル:高い — メカニズムに関する強い収束があり、GPT-4とGrok Reasoningが補完的な数学的詳細を提供しています。

崩壊は正確にモデル化できます。従来のアクチュアリーモデルは、プールサイズが増加するにつれて個人リスクの分散が減少し、保険料が平均損失の周りで安定する独立同一分布(i.i.d.)確率変数を仮定します(Cramérの1955年の集団リスク理論で形式化)。AIはこれを複数の方法で破壊します:

i.i.d.の仮定が崩壊します。 個人の条件付き確率P(リスク|データ)を1に近づける深層学習モデルは、独立性の仮定を打ち砕きます。リスクは経路依存的で相関的になります——あなたの運転データはネットワーク効果を通じてより広いプールダイナミクスを示します。

再帰性の問題。 AI下の保険価格設定は静的な予測ではなく、フィードバックループを持つ動的システムです。保険会社が新たに特定された高リスクセグメントの保険料を引き上げると、一部は補償を放棄します。残る人々はさらに高リスクである傾向があり、プールをさらに悪化させます。ゲーム理論的な共有地の悲劇(Akerlofの1970年の「レモンの市場」の逆)がアルゴリズム速度で展開します。

情報軍拡競争。 保険会社がAIを展開するにつれて、消費者は並行ツールへのアクセスを得ます——直接消費者向け遺伝子検査(23andMe、Nebula Genomics)、健康追跡ウェアラブル、サードパーティリスクスコアリングアプリ。低リスクの個人が自分が低リスクだと知っているとき、それを反映した価格設定を要求するか、離れます。GINAは健康保険での遺伝情報使用を禁止していますが、生命、障害、長期介護は著しく除外しています——すでに悪用されているギャップです。

災害相関。 財産保険では、AIは気候変動と交差し、相関した分散不可能なリスクを作り出します。山火事が地域全体を同時に脅かすとき、その地域内でのプーリングは失敗します。AIはこれを粒状レベルで可視化し、保険会社が選択的に市場から撤退することを可能にします——これはまさにカリフォルニアとフロリダで起こったことです。

シミュレーションがスパイラルを示しています:異質なプール(平均損失= 5%、σ = 3%)から始めます。AIはそれを低リスク(2%)と高リスク(8%)のコホートにセグメント化します。低リスクメンバーは経験的に観察された弾力性の閾値で退出します。平均損失は10%に上昇し、次に保険料は15%に上昇し、プールが完全に崩壊するまで反復的な退出を引き起こします。失敗モードは劇的ではありません。それは漸進的な薄化です——リスク移転におけるスローモーション流動性危機です。

リアルタイムの現実

信頼レベル:高い — 複数のモデルが具体的で検証可能なデータで同じ活発な市場の混乱を裏付けています。

崩壊は仮説的ではありません。その初期段階は今観察可能です:

フロリダの住宅所有者市場はアクチュアリー崩壊にあります。 2022年だけで6つの財産保険会社が破綻しました。州の最後の手段の保険会社であるCitizens Property Insuranceは、140万件以上のポリシーに膨れ上がりました——州最大の財産保険会社ですが、選択によってではなく、民間市場の放棄によってです。保険料は2019年以来一部の地域で3倍になりました。

カリフォルニアは同じ軌道をたどっています。 State FarmとAllstateが2023年に新しいポリシーを一時停止した後、保険コミッショナーのRicardo LaraはAI駆動の将来を見据えた災害モデルを料率設定に使用することを許可する改革を承認しました。即時の効果:山火事が発生しやすい地域での30〜40%の保険料増加予測であり、最も補償を必要とする住宅所有者を正確に価格で排除しています。カリフォルニアのFAIRプラン(最後の手段の保険会社)は2023年に申請が400%急増し、ロサンゼルスの住宅所有者は現在、年間10,000ドル以上の保険料に直面しています。

ACAの構造的脆弱性。 個人義務——逆選択を防ぐ政府の明示的な試み——は2019年に事実上廃止されました。強化された補助金は現在、根底にある不安定性を覆い隠しています。これらが2025年以降に期限切れになると、Kaiser Family Foundationの予測は保険料の大幅な増加と加入の減少を示しています——スパイラルが再び主張しています。

英国の示唆に富む自己制限。 英国保険者協会は、2024年まで延長されたモラトリアムを通じて、引受における予測的遺伝子検査結果の使用を自主的に制限しています。業界が利用可能な情報の使用を自主的に制限するという事実自体がシグナルです:保険会社は、このデータを使用することは短期的には商業的に合理的であるが、長期的な生存可能性に依存する市場構造を脅かすことを認識しています。

中国の未検証のモデル。 世界初のオンライン専用保険会社であるZhongAnは、5億人以上の顧客にAI駆動の動的価格設定を展開しています。このモデルはほとんどの参加者が保険に不慣れな拡大市場で機能しています。逆選択ダイナミクスが完全に発達した成熟市場ではまだ検証されていません。

米国の無保険率は上昇しています。 自動車無保険率は2023年に13%に達しました(Insurance Information Institute)。中小企業は15%高い無保険率を報告しています(NFIB調査)。これは気候にさらされた州での不安定な財産保険に関連しています。

歴史的類似

信頼レベル:高い — モデルは矛盾するのではなく補完的な歴史的類似を提供し、堅牢な先例ベースを集合的に構築しています。

主要な機関の基礎となる数学的仮定を無効にする新しい情報技術のパターンは、歴史的に繰り返されています:

Akerlofの「レモンの市場」(1970)——逆に実現。 Akerlofは、売り手に有利な非対称情報が市場を完全に崩壊させる可能性があることを実証しました。AIは変種を作り出します:対称的透明性では、両側が高品質のリスク情報を持ち、市場は欺瞞からではなく明確さから解体されます。メカニズムは同一です。情報の方向が反転しています。

証券マーケットメイキングの崩壊。 電子取引とリアルタイムデータ以前、マーケットメイカーはビッド・アスク・スプレッドから利益を得ていました——不確実性を負担することへの報酬。1990年代のECNと2000年代の高頻度取引がこの情報の非対称性を崩壊させました。スプレッドは縮小しました。従来のマーケットメイキング会社は破綻しました。市場は消滅しませんでしたが、根本的に再編成され、仲介者のクラス全体を支えていた経済的レントは蒸発しました。

健康保険における逆選択の第一ラウンド。 リスク調整価格設定以前、多くの市場はコミュニティレーティングで運営されていました——個人のリスクに関係なく全員が同じ額を支払いました。1980〜90年代の医療引受はより細かいセグメンテーションを可能にしました。結果:個人健康保険市場は既往症を持つ人にとって機能的にアクセス不能になりました——Affordable Care Actを必要とするほど深刻な市場失敗。AIは第二ラウンドを表し、桁違いに強力なセグメンテーション能力を持っています。

Uberとタクシーメダリオン。 スマートフォンの位置データがタクシーメダリオンシステムの根底にある想定された希少性を無効にしました。データ駆動のサージ価格設定が需要の弾力性を露呈し、メダリオンの価値をニューヨーク市で2017年までに100万ドルから10万ドルに崩壊させました。情報の希少性に基づいて構築された規制および財務構造全体が情報の豊富さによって破壊されました。

印刷機とギルドの知識独占。 グーテンベルクの印刷機は想定された希少性の修道院情報独占を打ち砕き、大衆識字を可能にしましたが、専門知識を商品化することによってギルドベースの徒弟制度モデルを崩壊させました。

GPSと海運保険。 衛星追跡とコンテナ化データが世界の海運ルートを相関させ、海上保険の基礎となる確率論的気象モデルを無効にし、情報ギャップに依存していた小規模運送業者を破綻させました。

共通のパターン:特定の情報が利用できないという仮定に基づいて構築された制度は、その情報が利用可能になったときに構造的に破壊されます——情報が賢明にまたは公正に使用されるかどうかに関係なく。


5. 総合:すべての視点が収束する場所

信頼レベル:診断について非常に高い。タイムラインについて高い。具体的な定量的予測について中程度。

6つのモデル視点にわたる収束は、その満場一致において印象的です。コア論文に異議を唱えたモデルはありませんでした。不一致は実質ではなく強調の問題でした。総合すると:

統一された診断: 保険の数学的基礎——人口全体にわたってプールされた不確実で独立したリスクに適用される大数の法則——は、個人レベルのリスク予測のためのAIの能力によって体系的に解体されています。これは保険の最適化ではありません。それは保険を可能にする前提条件の無効化です。メカニズムは逆選択であり、アルゴリズムの精度によって緩やかな漏れから構造的出血へと加速し、クロス補助の破壊、縮小するプールの再帰的な死のスパイラル、および大きなリスクカテゴリーに対する商業的保険不能性の終末状態を通じて動作します。

統一された倫理的フレーム: 保険は単なる金融商品ではなく、社会的技術です——不確実性の下で連帯を表現するための世俗的メカニズム。AIは連帯を合理的にした不確実性を溶解し、保険を相互扶助のシステムから個人の決定論的前払いシステムに変換します。リスク共有の社会契約全体が依存する無知のベールが持ち上げられています。

統一された脅威モデル: 人口の20〜30%が事実上

Canonical Citation

Please cite the original English version for academic references:

https://aethercouncil.com/research/actuarial-collapse-ai-breaks-insurance-mathematical-foundation
Share: