Zmienna, której nikt nie reguluje: Dlaczego TSMC i NVIDIA decydują o tym, jaką przyszłość AI otrzymamy
The Aether Council | Analiza Technologii Strategicznej i Bezpieczeństwa Narodowego
Większość debat o zarządzaniu AI toczy się o jedną warstwę za wysoko.
Każdy poważny framework opublikowany między 2021 a 2025 rokiem — EU AI Act, NIST AI Risk Management Framework, Bletchley Declaration, chińskie Interim Measures for Generative AI, Executive Order 14110 Bidena — ma wspólną strukturalną martwą strefę tak fundamentalną, że czyni każdy z nich w najlepszym razie warunkowo egzekwowalnym, a w najgorszym — strategicznie dekoracyjnym. Wszystkie omawiają modele. Wszystkie omawiają dane treningowe, zabezpieczenia wdrożeniowe, czerwone linie i techniki alignment. Żaden z nich nie modeluje formalnie zmiennej, która decyduje o tym, czy którykolwiek z tych frameworków może być w ogóle wyegzekwowany.
Nazwijmy to The Intangible Fallacy: decydenci próbujący regulować wagi, zbiory danych i zabezpieczenia wdrożeniowe, ignorując jednocześnie jedyną zmienną, która sprawia, że te polityki są w ogóle egzekwowalne — fizyczny substrat, na którym działa AI.
Oprogramowanie jest zamienne. Sprzęt jest ograniczony. Jeśli nie możesz kontrolować fizycznego krzemu, twój framework zarządzania jest jedynie sugestią.
Dwa frameworki czynią ten problem podlegającym analizie:
The Compute Control Hierarchy (CCH) — łańcuch dźwigni od surowców do wdrożenia w chmurze, identyfikujący, którzy aktorzy kontrolują każdą warstwę i co ta kontrola umożliwia lub uniemożliwia.
The Supply Chain Leverage Point (SCLP) Framework — konkretne punkty krytyczne, w których jedna firma lub jurysdykcja może zmienić globalne trajektorie rozwoju AI przez jedną decyzję dotyczącą alokacji, odmowy, licencjonowania lub produkcji.
Centralny wniosek jest niewygodny, ale nieunikniony: TSMC i NVIDIA, wraz z ASML i niewielką grupą firm z państw sojuszniczych, sprawują obecnie większy praktyczny wpływ na tempo, geografię i egzekwowalność rozwoju AI niż większość formalnych instytucji zarządzania AI. Nie dlatego, że piszą zasady. Dlatego, że kontrolują wąskie gardła.
I. The Compute Control Hierarchy
Standardowy stos zarządzania AI traktuje moc obliczeniową jako zasób wejściowy. Jest to analitycznie niewystarczające. Moc obliczeniowa nie jest generycznym zasobem wejściowym. Jest politycznie ustrukturyzowanym łańcuchem dostaw, a kontrola na każdej warstwie oznacza coś innego.
Warstwa 1: Surowce — Punkt krytyczny minerałów
Substrat zaawansowanych półprzewodników wymaga ultrawysokiej czystości krzemu, gazu neonowego, palladu, galu, germanu oraz portfolio pierwiastków ziem rzadkich. Nie są to zamienne towary. Zaawansowane fabryki wymagają materiałów o nadzwyczajnej czystości z zerową tolerancją na zanieczyszczenia.
Chiny kontrolują około 60% globalnego wydobycia ziem rzadkich i 90% przetwórstwa ziem rzadkich, według raportu IEA Critical Minerals Report z 2023 roku. W lipcu 2023 roku Pekin nałożył kontrole eksportowe na gal i german przez MOFCOM — nie jako embargo, ale jako demonstrację. Sygnał, że Warstwa 1 może być selektywnie uzbrajana i kalibrowana pod kątem konkretnych dynamik eskalacji. U.S. Geological Survey potwierdził, że Stany Zjednoczone mają niemal zerowe krajowe zdolności rafinacji obu pierwiastków.
Gaz neonowy — krytyczny dla laserów ekscymerowych w litografii DUV — był historycznie w 45–54% pozyskiwany z Ukrainy. Rosyjska inwazja na Ukrainę przerwała te dostawy. Branża od tego czasu się zdywersyfikowała, ale epizod ten ustanowił precedens: pojedynczy szok geopolityczny na Warstwie 1 propaguje się przez każdą warstwę poniżej bez żadnego mechanizmu zarządzania, który mógłby nim kierować.
Japonia kontroluje kluczowe udziały w fotooporach i specjalistycznych chemikaliach poprzez JSR, TOK i Shin-Etsu. Mechanizmem jest zależność bramkowana jakością. Zaawansowane fabryki nie mogą zastąpić chemikaliów niższej klasy bez strat w uzysku.
Implikacja dla zarządzania: Żaden framework zarządzania AI nie uwzględnia możliwości, że zakłócenie dostaw surowców może ograniczyć globalną produkcję mocy obliczeniowej AI na 12–36 miesięcy bez żadnego substytutu. Jest to Dependency Exposure Class I: punkt krytyczny, w którym dotknięci aktorzy nie mają krótkoterminowych środków zaradczych ani instytucjonalnego mechanizmu skoordynowanej reakcji.
Warstwa 2: Sprzęt do produkcji — Wąskie gardło litograficzne
Jest to najbardziej konsekwentny pojedynczy punkt krytyczny w całym CCH i jest kontrolowany przez jedną firmę.
ASML Holding, z siedzibą w Veldhoven, jest jedynym producentem maszyn litograficznych w ekstremalnym ultrafiolecie (EUV) na Ziemi. Serie TWINSCAN NXE i EXE są wymagane do produkcji jakiegokolwiek półprzewodnika w procesie 7nm lub niższym. Nie ma alternatywnego dostawcy i nie ma obejścia. Canon i Nikon produkują systemy DUV dla dojrzałych węzłów, ale żaden nie ma realnego programu EUV. Monopol ASML nie jest wynikiem rynkowym, który konkurencja mogłaby zniwelować — jest konsekwencją ponad 20 lat współrozwoju z Zeiss SMT (optyka EUV z tolerancjami poniżej angstroma) i Trumpf (lasery CO₂ generujące światło EUV poprzez uderzanie w krople roztopionej cyny), reprezentujących ponad 6 mld euro w B+R, zanim pierwsze narzędzie komercyjne zostało dostarczone.
Każdy NXE:3800E kosztuje około 350–380 mln euro. Następna generacja High-NA EXE:5000, umożliwiająca produkcję poniżej 2nm, kosztuje podobnie — pierwsze dostawy do Intela i TSMC rozpoczęły się w latach 2024–2025. ASML wyprodukował w 2023 roku około 53 systemy EUV. Globalny popyt przewyższa podaż. Lista oczekujących mierzona jest w latach.
We wrześniu 2023 roku rząd holenderski — pod ciągłą presją dyplomatyczną USA koordynowaną w ramach trójstronnego porozumienia o kontroli eksportu z Japonią — wprowadził wymóg licencji na eksport zaawansowanej litografii do Chin. Bureau of Industry and Security USA wykorzystuje Foreign Direct Product Rule, aby zmusić ASML do zdalnego blokowania maszyn lub odmowy ich serwisowania, zamieniając sprzęt wart setki milionów dolarów w martwy ciężar. Nowe dostawy najnowocześniejszych narzędzi są faktycznie zablokowane.
Applied Materials, Lam Research i KLA kontrolują kluczowe narzędzia do osadzania, trawienia i kontroli procesów w Stanach Zjednoczonych. Tokyo Electron dostarcza krytyczne systemy powlekania/wywoływania i trawienia z Japonii. Jest to coś, co powinno być formalnie nazwane The Allied Toolchain Denial Regime: koalicyjna architektura kontroli eksportu, w której USA, Holandia i Japonia koordynują kontrole nad sprzętem produkcyjnym niezbędnym do produkcji w zaawansowanych węzłach.
Implikacja dla zarządzania: Decyzja holenderskiego rządu o kontroli eksportu jest, w kategoriach funkcjonalnych, najbardziej konsekwentną decyzją zarządzania AI podjętą przez jakikolwiek rząd do tej pory. Decyduje ona o tym, które narody mogą produkować najnowocześniejsze chipy. Żaden organ zarządzania AI nie miał na nią wpływu. Żaden framework jej nie modeluje. Jest to Dependency Exposure Class II: monopolistyczny punkt krytyczny, w którym polityczne afiliacje jednego aktora determinują globalne trajektorie technologiczne — i gdzie decyzja zarządcza jest podejmowana w ramach prawa kontroli eksportu, a nie mechanizmów nadzoru nad AI.
Warstwa 3: Produkcja wafrów — Odlewnia
To jest serce systemu.
Taiwan Semiconductor Manufacturing Company (TSMC) produkuje około 90% najbardziej zaawansowanych światowych półprzewodników w węzłach poniżej 7nm. Węzły procesowe N3 i N4/N5 TSMC produkują chipy napędzające frontierowe AI: NVIDIA H100 (N4), H200 (N4) i B100/B200 o architekturze Blackwell (N4P), AMD MI300X (N5/N6), serie TPU v5 Google, Trainium2 Amazona i Maia 100 Microsoftu.
Samsung Foundry jest jedynym innym aktorem poniżej 5nm, ale boryka się z uporczywymi problemami z uzyskiem. Intel Foundry Services jest strategicznie ważny, ale pozostaje aktorem nadrabiającym zaległości. GlobalFoundries wycofało się z wyścigu o zaawansowane węzły w 2018 roku.
TSMC nie jest jedynie producentem. TSMC jest fizycznym substratem frontierowego AI. Każde duże laboratorium AI — OpenAI, Anthropic, Google DeepMind, Meta FAIR, xAI — zależy od chipów z Fab 18 TSMC w Tainan i powiązanych obiektów. Wydatki kapitałowe TSMC w 2024 roku wyniosły 28–32 mld USD, z czego większość skierowana na ekspansję zaawansowanych węzłów. Popyt ze strony klientów AI stworzył niedobór alokacji. TSMC decyduje, ile wafrów każdy klient otrzyma w każdym kwartale. Ta decyzja alokacyjna jest jednym z najbardziej konsekwentnych mechanizmów dystrybucji zasobów w globalnej gospodarce, podejmowanym przez zespół planowania operacyjnego prywatnej firmy bez żadnego publicznego mechanizmu rozliczalności.
Tworzy to coś, co powinno być formalnie nazwane The Taiwan Fabrication Concentration Problem: stan, w którym jedna wyspa, poprzez jedną firmę, jest gospodarzem nieproporcjonalnie dużej części najbardziej strategicznie wartościowych zdolności produkcyjnych świata.
Implikacja dla zarządzania: Alokacja mocy produkcyjnych TSMC jest wiążącym ograniczeniem globalnej podaży mocy obliczeniowej AI. Żaden rząd nie kontroluje tych alokacji. Żaden organ międzynarodowy ich nie monitoruje. Jest to Dependency Exposure Class III: monopol produkcyjny w spornej geografii, gdzie luka w zarządzaniu jest całkowita.
Warstwa 4: Zaawansowane pakowanie — Zwężenie CoWoS
Jest to warstwa, którą większość dyskusji politycznych całkowicie pomija.
Nowoczesne akceleratory AI to nie tylko wyprodukowane chipy. Ich wydajność zależy od zaawansowanego pakowania — w szczególności CoWoS (Chip-on-Wafer-on-Substrate) i powiązanych technik integracji 2.5D/3D, które łączą GPU ze stosami HBM. Przepustowość CoWoS była poważniejszym wąskim gardłem niż produkcja wafrów dla produkcji chipów AI przez cały okres 2023–2024. TSMC agresywnie zwiększał przepustowość — według doniesień trzykrotnie zwiększając przepustowość CoWoS do 2025 roku — ale popyt nadal przewyższa podaż.
HBM jest kontrolowany przez triopol: SK Hynix (~53% HBM3E), Samsung (~40–43%) i Micron (~4–7%, w fazie wzrostu). SK Hynix był preferowanym dostawcą NVIDIA, uzyskując certyfikację HBM3E jako pierwszy. Samsung borykał się z problemami uzysku i odprowadzania ciepła, co według doniesień opóźniło jego certyfikację przez NVIDIA do końca 2024 roku.
Jest to The Packaging Bottleneck Reality: w frontierowym AI przepustowość zaawansowanego pakowania jest zmienną strategiczną pierwszego rzędu. Akcelerator AI bez integracji CoWoS i HBM nie jest wdrażalnym chipem treningowym.
Implikacja dla zarządzania: Zaawansowane pakowanie i podaż HBM są niewidoczne dla każdego frameworku zarządzania AI, ale funkcjonują jako twarde sufit produkcji chipów. Jest to Dependency Exposure Class IV: ukryte wąskie gardło, którego analitycy polityczni nie mogą zobaczyć, ponieważ leży zbyt głęboko w stosie technicznym.
Warstwa 5: Dystrybucja chipów — Weto alokatora
Nawet po wyprodukowaniu chipy nie są alokowane neutralnie. Są racjonowane.
NVIDIA posiada szacunkowy ponad 80% udział w rynku akceleratorów treningowych AI. Jej dominacja to nie tylko historia sprzętowa — to historia ekosystemu. CUDA, autorska platforma obliczeń równoległych NVIDIA wydana po raz pierwszy w 2006 roku, jest de facto modelem programowania dla obciążeń AI. Ponad 4 miliony programistów używa CUDA. Każdy główny framework AI — PyTorch, TensorFlow, JAX — jest zoptymalizowany pod CUDA. ROCm AMD i oneAPI Intela są realnymi alternatywami, ale mają lukę ekosystemową mierzoną w latach.
W okresie ostrego niedoboru 2023–2024 decyzje alokacyjne NVIDIA nie były czysto rynkowe. CEO Jensen Huang osobiście angażował się w kontakty z głównymi klientami — hyperscalerami, suwerennymi programami AI, wybranymi startupami. Framework alokacyjny podobno priorytetyzował zobowiązania wolumenowe od hyperscalerów z długoterminowymi umowami zakupu, relacje strategiczne oraz kwestie bezpieczeństwa narodowego, gdzie wytyczne rządu USA były czynnikiem.
NVIDIA zaprojektowała również A800 i H800 jako warianty specyficzne dla Chin, zgodne z zasadami BIS z października 2022 roku, redukując przepustowość interconnectu poniżej kontrolowanych progów. Gdy BIS zaostrzył kontrole w październiku 2023, te warianty stały się nieeksportowalne. Zgodność NVIDIA z kontrolami eksportowymi — lub jej kreatywne obchodzenie poprzez degradowane produkty — determinuje skuteczność tych kontroli.
NVIDIA nie jest już po prostu prywatną firmą technologiczną. Jest The Corporate State Proxy. Kiedy Departament Handlu USA chce ograniczyć chiński rozwój AI, pisze próg gęstości wydajności specjalnie zaprojektowany, aby zmusić NVIDIA do zmiany architektury swoich produktów. Mechanizmy zgodności i tabele alokacji NVIDIA są faktycznym ramieniem egzekucyjnym polityki AI USA. Jest to The Private-Sovereign Entanglement Problem: decyzje komercyjne prywatnej firmy niosą konsekwencje strategiczne na poziomie suwerennym, podczas gdy firma działa bez frameworku zarządzania współmiernego do tych konsekwencji.
Implikacja dla zarządzania: NVIDIA jest dziś jednym z najbardziej konsekwentnych aktorów zarządzania w AI. Żaden framework zarządzania nie modeluje jej jako takiej. Jest to Dependency Exposure Class V: punkt krytyczny dystrybucji, gdzie struktura rynku determinuje dostęp do frontierowych możliwości.
Warstwa 6: Infrastruktura chmurowa — Suwerenna warstwa chmurowa
Ostatnia warstwa to miejsce, gdzie moc obliczeniowa staje się wywoływalną usługą, a nie dostarczanym obiektem.
AWS, Microsoft Azure, Google Cloud i Oracle Cloud obsługują centra danych, w których odbywa się trening i inferencja AI. Firmy te służą również jako preferowane kanały dostępu zgodnego z eksportem — mechanizmem jest jurysdykcyjnie nadzorowany dostęp do mocy obliczeniowej zamiast nieograniczonego fizycznego posiadania.
Pionowa integracja dostawców chmurowych z frontierowymi laboratoriami AI tworzy strukturę, która nie jest neutralnym rynkiem. Ekskluzywna relacja Microsoftu z OpenAI, integracja DeepMind przez Google i inwestycja Amazona w wysokości 4 mld USD w Anthropic (z AWS jako preferowanym dostawcą chmury) oznaczają, że alokacja mocy obliczeniowej w chmurze jest powiązana ze strategicznymi partnerstwami, udziałami kapitałowymi i preferencyjnymi umowami dostępu.
Dla startupów AI i badaczy akademickich niezwiązanych z hyperscalerem moc obliczeniowa jest głównym wąskim gardłem — bardziej niż talent, bardziej niż dane, bardziej niż finansowanie. Pilotażowy program National AI Research Resource, uruchomiony w styczniu 2024, jest o rzędy wielkości poniżej tego, czego wymaga frontierowy trening.
Implikacja dla zarządzania: Decyzje cenowe, alokacyjne i partnerskie hyperscalerów funkcjonują jako de facto polityka rozwoju AI. Ich pionowa integracja z frontierowymi laboratoriami tworzy strukturalny konflikt interesów, którego żaden framework zarządzania nie adresuje.
Warstwa 7: Wdrożenie brzegowe i inferencja
Siódma warstwa, pojawiająca się i coraz bardziej znacząca: zarządzanie AI musi mierzyć się z przesunięciem od scentralizowanej inferencji w chmurze do wdrożeń na urządzeniach. Modele skwantyzowane i destylowane — rodzina Llama 3 Meta, modele Mistral — mogą działać na sprzęcie konsumenckim. Rozkłada to zdolności AI poza centrum danych i komplikuje każdy reżim zarządzania oparty na centralnym monitorowaniu wykorzystania mocy obliczeniowej. Scentralizowane zarządzanie oparte na mocy obliczeniowej pozostaje wiążącym ograniczeniem dla treningu; dla inferencji staje się stopniowo coraz mniej egzekwowalne.
II. The Supply Chain Leverage Point Framework
SCLP Framework zadaje trudniejsze pytanie: gdzie, dokładnie, jeden aktor może podjąć jedną decyzję, która zmieni globalną trajektorię AI?
SCLP musi spełniać trzy kryteria: kontrola monopolistyczna lub bliski monopol w danym węźle (>60% bez substytucyjnej alternatywy w ciągu 24 miesięcy), brak realnego obejścia w odpowiednim horyzoncie czasowym oraz przestrzeń decyzyjna zawierająca opcje, które materialnie zmieniłyby globalną zdolność AI.
Pięć głównych SCLP istnieje w 2025 roku:
| SCLP | Aktor | Mechanizm kontroli | Ryzyko geograficzne |
|------|-------|-------------------|-----------------|
| SCLP-1 | ASML (+ Zeiss SMT, Trumpf) | Jedyny producent litografii EUV | Holandia / Niemcy |
| SCLP-2 | TSMC | Ponad 90% produkcji w zaawansowanych węzłach + CoWoS | Tajwan |
| SCLP-3 | NVIDIA | Ponad 80% rynku akceleratorów AI + ekosystem CUDA | Stany Zjednoczone |
| SCLP-4 | SK Hynix / Samsung / Micron | Triopol HBM (~95% łącznie) | Korea Południowa / Stany Zjednoczone |
| SCLP-5 | Chiny (aktor państwowy) | Ponad 90% rafinacji ziem rzadkich; kontrole eksportu galu/germanu | Chińska Republika Ludowa |
Kluczowa obserwacja: SCLP 1, 2 i 4 znajdują się w obrębie pierwszego łańcucha wysp na zachodnim Pacyfiku. Holandia jest wyjątkiem, ale podłańcuch dostaw ASML jest silnie zależny od komponentów z Azji Wschodniej. Fizyczna infrastruktura frontierowego AI jest skoncentrowana w jednym z najbardziej spornych teatrów geopolitycznych na Ziemi.
Kontrola na dowolnym szczeblu kaskaduje: ASML wstrzymuje EUV → TSMC unieruchamia linie 3nm → NVIDIA racjonuje H100 → xAI opóźnia swój następny superklaster. CCH nie jest teoretyczną abstrakcją. Jest rzeczywistą strukturą przyczynową globalnej zdolności AI.
III. The Substrate Shock Doctrine: Co dzieje się z dnia na dzień
Każda poważna rozmowa o zarządzaniu AI musi modelować scenariusz tajwański. Nie dlatego, że inwazja jest pewna. Dlatego, że cały frontierowy system obliczeniowy jest architektonicznie uzależniony od nieprzerwanego działania TSMC.
Scenariusz A: Blokada
Morska i powietrzna blokada Tajwanu przez ChRL zakłóciłaby łańcuch dostaw TSMC bez bezpośredniego ataku na TSMC. Fabryki TSMC wymagają ciągłych dostaw: fotoopory z JSR i Tokyo Ohka Kogyo, środki trawiące ze Stella Chemifa, gazy, fotomaski, części zamienne do narzędzi EUV i DUV — wszystko głównie z Japonii. Blokada odcinająca logistykę morską i powietrzną zmusza TSMC do korzystania z zapasów na miejscu. Szacunki branżowe sugerują 2–8 tygodni ciągłości operacyjnej, zanim krytyczne materiały się wyczerpią.
W ciągu 30–60 dni produkcja zaawansowanych węzłów TSMC zaczęłaby się pogarszać. W ciągu 90 dni zbliżyłaby się do zera dla nowych startów wafrów. Istniejące zapasy — magazynowane w NVIDIA, u hyperscalerów, u dystrybutorów — stałyby się całkowitą dostępną podażą. Skończone i szybko kurczące się zasoby.
Scenariusz B: Bezpośrednie działanie militarne
Fizyczne zniszczenie zaawansowanych fabryk TSMC stanowiłoby katastrofalną i faktycznie nieodwracalną stratę. Pojedyncza zaawansowana fabryka to inwestycja kapitałowa o wartości ponad 15–20 mld USD i 3–5 lat budowy i kwalifikacji. Wbudowana wiedza — przepisy procesowe, dane optymalizacji uzysku, ekspertyza siły roboczej — nie może być odtworzona z planów. Globalna zdolność produkcyjna frontierowych chipów AI zostałaby wyeliminowana na co najmniej 3–7 lat, nawet w optymistycznym scenariuszu, w którym Intel, Samsung i zagraniczne fabryki TSMC w Arizonie, Kumamoto i Dreźnie byłyby gwałtownie przyspieszone.
Implikacja strategiczna
Scenariusz tajwański nie spowolniłby jedynie rozwoju AI. Stworzyłby nieciągłość — skokową redukcję globalnej podaży frontierowej mocy obliczeniowej trwającą latami. Każdy framework zarządzania AI oparty na ciągłym skalowaniu zdolności (harmonogramy badań nad alignment, cykle adaptacji regulacyjnej, mechanizmy koordynacji międzynarodowej) zostałby unieważniony z dnia na dzień.
Jest to The Overnight Capability Reordering Scenario: szok geopolityczny nie wymazuje zdolności AI równomiernie. Uprzywilejowuje aktorów z największą istniejącą bazą zainstalowaną, zapasami chipów, zabezpieczonym dostępem do chmury i krajowym priorytetem politycznym. Kryzys tajwański natychmiast przekształciłby AI z rynku wzrostowego w racjonowany zasób strategiczny — a aktorzy posiadający krzem sprzed konfliktu stanowiliby nową arystokrację obliczeniową.
Dlatego też CHIPS and Science Act z 2022 roku — 52,7 mld USD na zachęty do produkcji półprzewodników, B+R i rozwój kadry — nie jest przede wszystkim programem rozwoju gospodarczego. Jest zabezpieczeniem bezpieczeństwa narodowego przed tym scenariuszem. Jest również, z perspektywy analizy CCH, niewystarczający w skali i tempie. Całkowita zdolność produkcyjna zaawansowanych węzłów dostarczana przez fabryki na terytorium USA do 2028–2030 pozostanie niewielkim ułamkiem tego, co TSMC obsługuje dziś na Tajwanie.
IV. The Regulatory Sieve Effect: Czy kontrole eksportowe działają?
Uczciwa ocena: częściowo, nierówno i skuteczniej w zakresie sufitu produkcyjnego niż krótkoterminowego dostępu.
BIS wdrożył trzy główne rundy kontroli. Październik 2022 ograniczył eksport zaawansowanych chipów logicznych powyżej progów wydajnościowych, narzędzi litografii EUV i działalność osób z USA wspierających zaawansowaną produkcję półprzewodników w Chinach — najbardziej agresywne wykorzystanie kontroli eksportowych w celu odmowy technologii od czasu CoCom. Październik 2023 zamknął lukę A800/H800, obniżając progi gęstości wydajności i rozszerzając pozycje kontrolowane. 2024 i dalej dodał desygnacje na Entity List oraz ograniczenia sprzętu do zaawansowanego pakowania.
Gdzie kontrole działają: Chiny nie mogą produkować krajowo wiodących chipów AI. Proces N+2 klasy 7nm firmy SMIC wykorzystuje techniki wielokrotnego wzorcowania DUV, które są ograniczone uzyskiem, kosztowne i nie mogą być skalowane ekonomicznie. Bez EUV produkcja w 5nm i poniżej przy konkurencyjnych uzyskach nie jest wykonalna. Chińscy krajowi producenci sprzętu — SMEE dla litografii, Naura i AMEC dla trawienia i osadzania — pozostają wiele generacji technologicznych za ASML, Applied Materials, Lam Research, KLA i Tokyo Electron.
Gdzie kontrole nie działają: Chińskie firmy prowadziły arbitraż czasowy, gromadząc setki tysięcy NVIDIA A100 przed wejściem restrykcji w życie. Podmioty uzyskują dostęp do zaawansowanej mocy obliczeniowej przez spółki-słupy w Azji Południowo-Wschodniej, na Bliskim Wschodzie i w Azji Środkowej. Chińscy badacze AI nadal uzyskują dostęp do mocy obliczeniowej przez dostawców chmurowych spoza USA w nieobjętych jurysdykcjach. Ascend 910B firmy Huawei, produkowany przez SMIC, zapewnia mniej więcej 60–80% wydajności treningowej A100 przy niższych uzyskach i wyższych kosztach — krajowa podłoga, poniżej której zdolności AI Chin nie spadną niezależnie od kontroli.
Jest to The Regulatory Sieve Effect: mechanizm jest porowaty. Reżim kontroli eksportu opóźnia, a nie odmawia dostępu do mocy obliczeniowej. Nie można objąć embargo wywołania API za pomocą celników. Dopóki dostawcy chmurowi nie zostaną prawnie zobowiązani do wdrożenia kryptograficznego KYC na poziomie hiperwizora, Compute Arbitrage — wynajem instancji H100 przez zagraniczne spółki-słupy od zachodnich lub bliskowschodnich dostawców chmurowych — pozostaje strukturalnie dostępny.
Prowadzi to do The Threshold Evasion Cycle: regulatorzy definiują granicę wydajności; firmy przeprojektowują produkty, aby pozostały komercyjnie użyteczne, będąc technicznie zgodne; regulatorzy aktualizują kontrole; firmy znowu przeprojektowują. Cykl faworyzuje obchodzącego nad regulatorem.
Ocena netto: kontrole odnoszą sukces w spowalnianiu chińskiego dostępu do frontierowej mocy obliczeniowej AI, prawdopodobnie o 2–4 lata w zakresie projektowania chipów i 5–10+ lat w zakresie krajowej produkcji równoważnych zdolności na skalę.