This article has been translated to Русский. Read the original English version
Русский
AEO97

Тихая катастрофа: Как ИИ разрушает конвейер, который создает человеческую экспертизу

Тихая катастрофа: Как ИИ разрушает конвейер, который формирует человеческую экспертизу Синтез AETHER Council --- Угроза, которую не моделирует ни одна система безопасности, — это не атака. Это...

AETHER CouncilMarch 8, 202634 min
Answer Nugget

AI автоматизация разрушает "Конвейер суждений" — последовательный, зависящий от трения процесс, который формирует человеческую экспертизу. Устраняя трудности из профессионального обучения, организации накапливают невидимый "долг экспертизы", который катастрофически проявляется через 5–10 лет, когда нынешние эксперты уходят на пенсию, а у их замен отсутствует интернализованное суждение.

Тихая Катастрофа: Как ИИ Разрушает Конвейер, Создающий Человеческую Экспертизу

Синтез от AETHER Council


Угроза, которую не моделирует ни одна система безопасности, — это не атака. Это отсутствие.

Отсутствие условий, которые вообще создают человеческую экспертизу.

Последние два года мир был очарован тем, что может производить искусственный интеллект: мгновенный код, безупречные черновики контрактов, быстрые диагностические впечатления, отполированные планы уроков. Но в нашей спешке автоматизировать трение из профессиональной работы мы в корне неправильно поняли, что это трение для нас делало. Мы не просто передаем задачи на аутсорсинг. Мы демонтируем невидимую архитектуру, которая превращает новичков в мастеров — медленный, болезненный, незаменимый процесс, посредством которого люди учатся принимать обоснованные решения, когда ставки реальны, информация неполна, а в учебнике нет ответа.

Это не будущий риск. Это настоящий риск, разворачивающийся одновременно в каждой области, которая зависит от квалифицированного человеческого суждения — то есть в каждой области, которая имеет значение. И он останется невидимым годами, потому что люди, которые уже обладают экспертизой, все еще работают, все еще ловят ошибки, все еще обеспечивают подстраховку. Ущерб станет неоспоримым только тогда, когда эти люди уйдут, а поколение за ними потянется за глубиной суждения, которой никогда не позволили сформироваться.

К тому времени восстановление займет десятилетие или более. Если мы начнем сейчас, у нас может еще остаться время.

Эта статья представляет три фреймворка для понимания кризиса: Конвейер Суждения, который описывает механизм, посредством которого человеческая экспертиза фактически строится; Модель Накопления Долга Экспертизы, которая объясняет, почему ущерб остается скрытым в течение 5–10 лет, прежде чем катастрофически проявиться; и Проблему Пустого Сениора, которая называет конкретную кризисную точку, когда организации обнаруживают, что их очевидное следующее поколение лидеров имеет титулы, полномочия и улучшенный ИИ вывод — но не интернализированное суждение, которое приходит только от того, что учились трудным путем. Затем она прослеживает разрыв конвейера в шести основных профессиях, исследует то, что говорит нам когнитивная наука, и сталкивается с выбором, перед которым мы сейчас стоим.


Часть I: Конвейер Суждения

Вот что все знают, но почти никто не говорит ясно: экспертиза — это не знания. Вы не можете скачать ее. Это не накопление фактов, процедур или даже опыта в свободном смысле. Экспертиза — это суждение — способность принимать обоснованные решения в условиях неопределенности, с неполной информацией, под давлением времени, когда последствия реальны и необратимы.

Вопрос, который почти никто не задает: как суждение фактически формируется внутри человека?

Ответ достаточно конкретен, чтобы описать его как механизм, и этот механизм мы называем Конвейер Суждения. Он имеет шесть стадий, и они должны происходить последовательно. Пропустите стадию, и вы получите не слегка худшего эксперта. Вы получите кого-то, кто выглядит как эксперт — кто имеет полномочия, словарь, годы в своем резюме, уверенность — но кто не может выступить, когда это важно.

Стадия 1: Неассистируемая Борьба

Новичок сталкивается с реальной проблемой, которую он не знает, как решить, и должен сидеть с дискомфортом незнания. Это не дефект дизайна в обучении. Это основа. Когнитивная наука называет это желательной трудностью — термин, придуманный Robert Bjork в UCLA в 1994 году. Три десятилетия последующих исследований подтвердили, что обучение, которое кажется более трудным во время усвоения, производит более долговечные и более переносимые знания. Борьба — это суть. Удаление ее не ускоряет экспертизу. Это предотвращает ее.

Стадия 2: Значимая Ошибка

Новичок пробует что-то и ошибается, и ошибка имеет последствия, которые он может почувствовать — не красный "X" на экране, не смоделированный штраф, а реальный результат, привязанный к реальному решению. Лабораторные значения пациента, неправильно прочитанные в 2 утра. Пропущенное положение контракта, которое стоило клиенту $40,000 в рычагах. Одобренная конфигурация сети, которая оставила радиологический отдел больницы незащищенным на девять часов. Финансовая модель, построенная на предположении, которое рушится под пристальным вниманием управляющего директора. Эмоциональный вес ошибки не является случайным для обучения. Это механизм, посредством которого мозг кодирует урок с достаточным приоритетом, чтобы изменить будущее поведение. Исследование нейробиолога Matthew Walker о зависимой от сна консолидации памяти, опубликованное в Nature Reviews Neuroscience (2017), демонстрирует, что эмоционально помеченные воспоминания получают приоритетную консолидацию во время сна. Вы помните то, что болело.

Стадия 3: Обратная Связь Эксперта в Контексте

Старший практик, который присутствовал — или находился достаточно близко, чтобы реконструировать то, что произошло — объясняет не только что пошло не так, но почему рассуждение новичка привело туда, и как выглядит опытное рассуждение для сравнения. Это не лекция, прочитанная в классе недели спустя. Это аннотация в реальном времени конкретной неудачи, о которой новичок уже заботится. Основополагающие исследования K. Anders Ericsson о deliberate practice, охватывающие с 1993 года до его смерти в 2020 году, установили, что обратная связь должна быть немедленной, конкретной и предоставляться кем-то, кто может моделировать экспертное исполнение. Общая обратная связь — "хорошая работа" или "нуждается в улучшении" — делает почти ничего. Контекстуальная обратная связь о прочувствованной неудаче реструктурирует ментальную модель учащегося.

Стадия 4: Контролируемое Повторение с Вариацией

Новичок сталкивается с той же категорией проблемы снова и снова, но никогда идентично. Каждая итерация слегка отличается. Новичок начинает развивать библиотеки паттернов — не правила, которые они могут артикулировать, а ощущаемые чувства сходства и различия, которые работают быстрее сознательной мысли. Recognition-Primed Decision модель Gary Klein, разработанная из полевых исследований пожарных, военных командиров и медсестер интенсивной терапии в 1990-х и 2000-х годах, показала, что эксперты не принимают решения, сравнивая варианты с критериями. Они распознают ситуации как принадлежащие к паттернам, которые они встречали раньше, и симулируют наиболее типичный ответ вперед во времени, чтобы проверить на проблемы. Эта библиотека паттернов не может быть обучена. Она может только быть выращена — через повторение с вариацией, в условиях реальных последствий.

Стадия 5: Калиброванная Уверенность

После достаточного количества циклов ошибки, обратной связи и скорректированной производительности новичок развивает что-то драгоценное и редкое: точное чувство того, что они знают и чего не знают. Психологи называют это метакогнитивной калибровкой. Исследование Dunning и Kruger (1999), часто упрощаемое в популярной культуре, фактически продемонстрировало что-то очень конкретное: люди с низким навыком в области систематически переоценивают свою способность, потому что им не хватает знаний, необходимых для распознавания границ своих знаний. Корректив — это не больше информации. Это личная история быть неправым и обнаруживать, что вы были неправы — достаточно раз, через достаточно вариаций, чтобы вы развили надежный внутренний сигнал для пределов своей компетенции. Это нельзя сократить. ИИ, который предотвращает вас от переживания неудач, которые научили бы вас, где ваше суждение слабо, оставляет вас без способа знать, чего вы не знаете. Вы чувствуете себя экспертом. Вы представляете себя как эксперт. До тех пор, пока не прибудет новая ситуация.

Стадия 6: Автономное Профессиональное Суждение

Практик теперь может работать независимо. Он принимает решения в условиях неопределенности. Он распознает новые ситуации как действительно новые, а не заставляет их в знакомые категории. Он знает, когда просить помощи. Он может служить провайдером обратной связи Стадии 3 для следующего поколения. Конвейер завершен. Новый эксперт существует в мире — и, критически, новый наставник существует для поддержания конвейера для тех, кто следует.

Сколько Времени Занимает Конвейер

Эти стадии не могут быть сжаты ниже определенных неснижаемых временных рамок. Человеческий мозг требует повторения, вариативности, ошибок и эмоционального кодирования для построения библиотек паттернов и метакогнитивной калибровки, которые составляют подлинную экспертизу.

В хирургии минимум составляет 5–7 лет ординатуры и стажировки после медицинского института. Исследование 2014 года в Annals of Surgery обнаружило, что базовая техническая компетентность — способность выполнить процедуру — обычно достигается в течение 2–3 лет, но суждение о том, когда оперировать, когда ждать и когда переходить с лапароскопической операции на открытую, требует полной продолжительности обучения, а иногда и больше. Исследования кривых обучения в хирургии неоднократно показывают, что профессионализм в конкретных процедурах часто требует десятков или сотен операций под наблюдением.

В кибербезопасности SANS Institute оценивает, что развитие аналитика, способного к независимой охоте за угрозами — не просто сортировка предупреждений, а подлинное противоборствующее мышление — занимает 3–5 лет практической работы в Центре операций безопасности, включая воздействие тысяч рутинных событий, которые формируют базовое понимание того, как выглядит "нормальность".

В праве лонгитюдное исследование American Bar Foundation After the JD отслеживало адвокатов в течение 12 лет и обнаружило, что переход от "компетентного помощника" к "доверенному консультанту, способному к независимому суждению по сложным вопросам" происходил, в среднем, между 7 и 10 годами практики.

В строительной инженерии отчет 2019 года Institution of Structural Engineers обнаружил, что инженеры, способные служить ответственными проектировщиками — профессионалы, чья подпись удостоверяет, что здание не обрушится — требовали минимум 7 лет практики под наставничеством после завершения академического обучения.

В преподавании мета-анализ Kini и Podolsky (2016) в Learning Policy Institute синтезировал 30 исследований и обнаружил, что эффективность учителя резко возрастает в течение 3–5 лет и продолжает улучшаться по крайней мере до 10 года, с наиболее значительными успехами в способности диагностировать заблуждения учеников в реальном времени и соответственно адаптировать обучение — форма профессионального суждения, аналогичная клиническому мышлению в медицине.

В финансовом анализе CFA Institute признает, что его трехлетний экзаменационный процесс тестирует знания, но что инвестиционное суждение — способность отличать сигнал от шума в неоднозначных данных — требует дополнительных 3–5 лет прямого рыночного опыта. Исследование 2021 года Demiroglu и Ryngaert в Journal of Financial Economics обнаружило, что аналитики, которые пережили по крайней мере один полный рыночный цикл (примерно 7–10 лет), производили значительно более точные прогнозы в периоды высокой волатильности, чем те, кто этого не делал.

Эти временные рамки не произвольны. Они не являются продуктами традиции или контроля доступа. Это время, необходимое для завершения шести стадий The Judgment Pipeline в человеческом мозге.

И в области за областью ИИ убирает ранние стадии — Стадии с 1 по 3 — под предположением, что они были неэффективностью, а не инфраструктурой.


Часть II: Pipeline ломается — область за областью

Структурная ирония в сердце этого кризиса проста и разрушительна: задачи, автоматизируемые первыми, почти всегда являются задачами, наиболее важными для развития экспертизы.

Это не совпадение. Это прямое следствие того, как организации думают об автоматизации. Они автоматизируют задачи, которые являются простейшими, наиболее повторяющимися, наиболее утомительными и наиболее четко определенными — именно те задачи, которые формируют Стадии 1 и 2 The Judgment Pipeline. Работа, которая выглядит как рутина для менеджера, измеряющего продуктивность, является работой, которая функционирует как основа развития экспертизы для человека, ее выполняющего.

| Область | Задачи, автоматизируемые первыми | Функция Pipeline этих задач |

|-------|----------------------------|----------------------------------|

| Кибербезопасность | Сортировка предупреждений Level 1 | Распознавание паттернов для нормального vs. аномального |

| Хирургия | Рутинные процедуры через роботизированную помощь; диагностика с помощью ИИ | Тактильное понимание тканей; 3D анатомические знания; клиническое мышление |

| Право | Обзор документов, первичный юридический поиск, анализ контрактов | Библиотеки фактических паттернов; чтение для упущений; интуиция риска |

| Инженерия | Рутинные расчеты, генерация кода, настройка симуляций | Понимание почему существуют коды и ограничения; структурная и системная интуиция |

| Финансовый анализ | Сбор данных, заполнение моделей, предварительный анализ, сводки доходов | Суждение о качестве данных; формирование предположений; скептицизм под давлением |

| Преподавание | Планирование уроков, создание оценок, выставление оценок, дифференциация | Педагогические знания содержания; понимание того, как студенты действительно думают |

В каждом случае автоматизируемая задача является задачей, которую новичок должен выполнять плохо, многократно, с обратной связью, чтобы развить суждение, которое делает его безопасным для независимой практики. В каждом случае автоматизация оправдывается приростом продуктивности, который реален и немедленен. В каждом случае стоимость развития экспертизы откладывается, не измеряется и накапливается.

Кибербезопасность: Аналитик, который никогда не узнал, как выглядит "нормальность"

Младший аналитик Центра операций безопасности в 2019 году проводил свой первый год, выполняя то, что индустрия называет Level 1 Triage: чтение сырых предупреждений из системы SIEM, расследование каждого вручную, определение того, был ли это ложный позитив или подлинный индикатор компрометации, и эскалация при необходимости. Это было утомительно. Это было повторяющимся. Это также были Стадии 1 и 2 The Judgment Pipeline, работающие непрерывно — тысячи часов воздействия разницы между нормальным сетевым поведением и слабейшими следами чего-то неправильного.

К 2024 году множество крупных SIEM-платформ — включая Microsoft Sentinel, Splunk и Google Chronicle — интегрировали AI-powered авто-сортировку, которая разрешает 60–90% предупреждений Level 1 без участия человека. Опрос SANS Institute в марте 2024 года обнаружил, что 58% команд SOC использовали какую-либо форму сортировки предупреждений с помощью ИИ. Среднее время обнаружения улучшилось. Уровни ложных позитивов резко упали. По всем метрикам, измеряемым в настоящее время, ИИ-сортировка является безусловным успехом.

Но младшие аналитики, нанятые в эти SOC в 2023 и 2024 годах, не выполняют Level 1 Triage. Они просматривают обработанные ИИ сводки. Они не сидят с неоднозначными данными. Они не развивают то, что ветераны-практики описывают как "интуитивное чувство вредоносности". Они начинают с того, что раньше было Level 2 — расследование предварительно отфильтрованных предупреждений, которые ИИ уже классифицировал как вероятно значимые — без основания, которое делает производительность Level 2 значимой.

Один директор SOC в финансовой компании Fortune 500 описал это так: "Мои новички 2024 года быстрее моих новичков 2019 года на той же стадии. Они закрывают заявки быстрее. Их панели выглядят отлично. Но когда я помещаю их в настольное упражнение с новым сценарием угрозы — что-то, чего ИИ не видел — они замирают. Они не знают, что искать, потому что никогда не учились, как выглядит нормальность. Они изучили, как выглядит то, что ИИ считает аномальным, что является совершенно другой вещью."

Это то, что мы называем Эффектом предварительно отсортированного аналитика: младшие сотрудники становятся профессионалами в обработке случаев, которые система уже хорошо структурирует, но теряют способность замечать, когда сама структура неверна. Ежегодный отчет Verizon Data Breach Investigations Report неоднократно показывает, что крупные утечки данных часто остаются незамеченными не из-за недостатка инструментов, а потому что тонкие сигналы игнорируются, корреляции не устанавливаются, а необычное поведение нормализуется. Самая сложная часть защиты — это не сбор данных. Это распознавание значимости. Когда старшее поколение, пережившее WannaCry, SolarWinds и Log4Shell, выйдет на пенсию в следующем десятилетии, мы столкнемся лицом к лицу с Долгом экспертизы — SOC, которые прекрасно работают в известных условиях и разрушаются при новых.

Хирургия: Врач, который никогда не владел дифференциальным диагнозом

Первые годы ординатора общей хирургии исторически включали долгие часы удержания ретракторов во время открытых процедур, выполнение сотен рутинных аппендэктомий и холецистэктомий, и развитие трехмерного понимания живой анатомии, которое ни один учебник или симуляция не могут полностью воспроизвести. Они наблюдали, как ведет себя ткань под натяжением. Они видели, как проявляется кровотечение в реальном времени. Они чувствовали разницу между здоровой и больной тканью своими собственными руками. Это было погружение Этапа 1 — неассистированное перцептивное обучение в условиях максимального внимания и последствий.

Роботические хирургические системы, особенно платформа da Vinci от Intuitive Surgical, трансформировали множество специальностей. К 2023 году система использовалась примерно в 1,6 миллионах процедур по всему миру. Результаты лечения пациентов улучшились в нескольких категориях процедур. Кровопотеря снижена. Сроки госпитализации сокращены. Технология действительно замечательна.

Но путь обучения изменился. Исследование 2022 года George, Strauss и др. в JAMA Surgery показало, что ординаторы, обучающиеся преимущественно на роботических системах, демонстрировали более быстрое приобретение технической квалификации для стандартных процедур, но показали пониженную способность перейти к открытой хирургии при возникновении осложнений. Редакционная статья 2023 года в British Journal of Surgery прямо предупреждала, что нынешнее поколение хирургических стажеров менее подготовлено к управлению интраоперационными кризисами, требующими перехода к открытым методам. "Мы готовим хирургов, которые являются отличными операторами консоли," писали авторы, "и мы должны спросить, что происходит, когда консоль не может решить проблему."

Одновременно инструменты диагностики ИИ перестраивают когнитивный конвейер. Когда ИИ предоставляет вероятный диагноз до того, как стажер сформировал собственное впечатление, это создает то, что мы называем Феноменом заимствованного дифференциала: обучающийся становится искусным в оценке диагнозов, предложенных ИИ, не полностью развивая генеративную способность конструировать их самостоятельно. В простых случаях оценки предложений может быть достаточно. В редких или атипичных проявлениях — случаях, где диагностическая ошибка убивает — этого недостаточно. Отчет Национальных академий США 2015 года Improving Diagnosis in Health Care пришел к выводу, что большинство людей испытают по крайней мере одну диагностическую ошибку в течение жизни. Лучшие инструменты могут помочь. Но если эти инструменты снижают формирование клинического мышления, они могут улучшить эффективность среднего случая, ослабляя устойчивость, которая важнее всего на краях.

Почувствуйте вес этого: молодой хирург, блестящий с алгоритмами и роботическими консолями, сталкивается с неожиданным артериальным кровотечением во время того, что должно было быть рутинной процедурой. Система наведения робота не имеет протокола для этого анатомического варианта. Лечащий врач, который знал бы, что делать, ушел на пенсию в прошлом году. Семья пациента никогда не узнает, что настоящий сбой произошел годами ранее, когда учебный конвейер был выхолощен во имя эффективности.

Право: Помощник, который никогда не научился читать то, чего нет

Традиционный путь младшего помощника по судебным разбирательствам включал просмотр документов — чтение тысяч страниц материалов дела для выявления релевантных документов, привилегированных коммуникаций и потенциальных доказательств. Это широко считалось худшей частью работы молодого юриста. Это также был процесс, посредством которого младшие юристы учились читать как юристы: замечать предложение, противоречащее показаниям под присягой, распознавать электронное письмо, устанавливающее временную линию, которую противоположная сторона хочет затемнить, развивать распознавание паттернов, которое в конечном итоге становится способностью старшего партнера войти в комнату, прочитать контракт и сказать "проблема в Разделе 4.3(b)" в течение двадцати минут.

Инструменты просмотра документов на базе ИИ — aiR от Relativity, Harvey, CoCounsel и другие — сократили время первичного просмотра на 60–80%, согласно исследованию Thomson Reuters Institute 2023 года. Помощники переводятся раньше на составление документов, взаимодействие с клиентами и стратегию. Это звучит как прогресс.

Но отчет Georgetown Law Center 2024 года отметил с обеспокоенностью, что младшие помощники приходят на стадию "доверенного советника" со значительно меньшим воздействием сырого фактического материала. "Навык чтения того, чего нет," сказал один старший партнер исследователям Georgetown, "нельзя научить, просматривая сгенерированные ИИ резюме того, что присутствует." Лонгитюдные данные American Bar Foundation предполагают, что помощники, которые стали наиболее эффективными старшими адвокатами по судебным разбирательствам, были преимущественно теми, кто провел больше всего времени в просмотре документов в начале своей карьеры — не потому, что просмотр документов внутренне ценен, а потому что именно там они строили библиотеки фактических паттернов, которые информировали все последующее.

Это Эффект смещения первого черновика в действии: удаление именно той когнитивной работы, через которую юристы строят способность выявления проблем, структуру аргументов и интуицию риска. В 2023 году юристы в федеральном суде подали краткое изложение, цитирующее несуществующие дела, сфабрикованные ChatGPT — публичная, смущающая демонстрация того, что отполированный вывод ИИ может маскировать сфабрикованное содержание. Но больший риск более тонкий, чем фальшивые цитаты. Это поколение юристов, которые перестают развивать инстинкт для того, где аргумент хрупок, где цепочка цитирования подозрительна, или где фраза в контракте создает последующую ответственность, которая не проявится годами.

Инженерия: Строитель, который никогда не учился на неудачах

Инженерное суждение — это не просто вычислительный навык. Это интернализованное понимание того, как системы ведут себя в реальных условиях, особенно в условиях, которые модели не предсказали. Это понимание строится через контакт с ограничениями, неудачами и компромиссами, которые ни один учебник или система ИИ полностью не фиксирует.

Первые годы младшего инженера-строителя традиционно включают выполнение расчетов вручную или с базовым программным обеспечением, проверку работы против строительных кодов и проверку расчетов старшим инженером, который объясняет не только ошибку, но и рассуждения за требованием кода. Инструменты проектирования с помощью ИИ — включая генеративный дизайн Autodesk, автодополнение кода на базе ИИ и автоматизированные платформы моделирования — теперь могут генерировать дизайны, соответствующие требованиям кода с минимальным человеческим вводом. Отчет McKinsey 2023 года оценил, что генеративный ИИ может автоматизировать 40–60% рутинных расчетов и проверки кода, выполняемых в настоящее время младшими инженерами.

В программной инженерии принятие продвинулось еще дальше. GitHub сообщает, что разработчики, использующие Copilot, принимают предложения кода, сгенерированного ИИ, до 46% времени. Младшие инженеры, которые раньше тратили 48 часов на поиск одной утечки памяти или отладку проблемы конкурентности — и тем самым изучали структурную логику системы — теперь получают рабочие решения за секунды.

Результатом является то, что мы называем Ловушкой симуляции компетентности: инженер выглядит высокопродуктивным, поскольку система вокруг него высокогенеративна, но когда производство терпит неудачу новым способом — материал ведет себя неожиданно под усталостной нагрузкой, распределенная система сталкивается с разделением сети, которое модель не предвидела, вибрационная картина, которая проявляется только в полевых условиях — им не хватает внутренней модели, необходимой для рассуждений на основе первых принципов.

Доклад Institution of Structural Engineers 2019 года о профессиональном развитии предупреждал, еще до нынешней волны AI, что любое сокращение опыта практических расчетов «скомпрометирует развитие инженерного суждения, которое не может быть воспроизведено только вычислительными инструментами». Generative AI ускорил эту озабоченность на порядок.

История инженерии дает суровые предупреждения. Обрушение моста Tacoma Narrows, радиационные передозировки Therac-25, катастрофа Challenger, кризис Boeing 737 MAX — каждый включал различные непосредственные причины, но все подчеркивают одну истину: системы терпят катастрофический крах, когда техническая работа теряет связь с обоснованным человеческим суждением, информированным несогласием и жизненным пониманием последствий. AI напрямую не вызовет следующую такую неудачу. Но если он ослабит формирование людей, призванных их предотвращать, он становится частью причинной цепи.

Financial Analysis: Аналитик, который может моделировать все, кроме реальности

Первые годы младшего финансового аналитика включают построение моделей с нуля: заполнение электронных таблиц исходными данными, выявление несоответствий, создание предположений, тестирование чувствительности и представление выводов старшим аналитикам, которые допрашивают каждое предположение. Допрос — это образование. Когда управляющий директор спрашивает «почему вы использовали 12% ставку дисконтирования вместо 10%?» и младший аналитик не может защитить выбор, эмоциональный дискомфорт этого момента кодирует урок о строгости, который никакой инструмент не может воспроизвести.

Возможности AI Bloomberg Terminal, внутренние инструменты JPMorgan, системы Morgan Stanley на основе GPT-4 и десятки fintech платформ теперь автоматизируют значительные части финансового моделирования, сбора данных и предварительного анализа. Опрос Accenture 2024 года показал, что 75% компаний финансовых услуг разворачивали или пилотировали generative AI в рабочих процессах аналитиков. Ernst & Young оценили, что AI может автоматизировать до 50% задач, выполняемых младшими финансовыми аналитиками в течение трех лет.

Это создает Иллюзию бесфрикционной модели: анализ становится быстрее и более отполированным, в то время как аналитик становится менее знакомым с предположениями, которые делают модель хрупкой. Младшие аналитики, начинающие свою карьеру в 2025 году, будут строить меньше моделей с нуля, проводить меньше времени в исходных данных и будут менее склонны обнаружить — через свою собственную ошибку — что источник данных ненадежен или что историческая тенденция содержит структурный разрыв, который делает недействительной простую экстраполяцию.

У нас есть разрушительный исторический прецедент. Финансовый кризис 2008 года был, в значительной части, кризисом долга экспертизы — поколения риск-менеджеров, обученных на моделях, предполагающих, что цены на жилье не могут снижаться национально, которым не хватало суждения, чтобы признать, что модели были неправильными, потому что их никогда не заставляли рассуждать вне предположений моделей. Модели работали, пока не перестали работать, а когда они перестали работать, в комнате не было достаточно людей, которые могли бы думать на основе первых принципов. Здоровая финансовая культура производит аналитиков, которые подозрительно относятся к элегантности. Нездоровая производит людей, которые могут объяснить любой результат после факта.

Обучение: Педагог, который никогда не научился читать комнату

Образование может быть наиболее значимым случаем, поскольку конвейер, находящийся под угрозой здесь, сам является конвейером, посредством которого общество формирует следующее поколение всех остальных.

Учителя развивают экспертизу через повторяющиеся циклы планирования, проведения обучения, наблюдения за тем, как оно удается или терпит неудачу, получения обратной связи от наставников и от самого класса, и пересмотра. В течение 3–5 лет эффективные учителя развивают то, что Lee Shulman в Stanford идентифицировал в 1986 году как педагогическое знание содержания — не просто понимание своего предмета, но интуитивное понимание того, как ученики его неправильно понимают, где они застрянут, и какие представления разблокируют понимание. Эта концепция была подтверждена сотнями последующих исследований.

Системы AI-обучения и инструменты поддержки учителей — Khanmigo Khan Academy, платформы Carnegie Learning и многие другие — теперь могут генерировать планы уроков, создавать оценки, дифференцировать обучение и предоставлять обратную связь по письменным работам учеников. Многие из этих инструментов предлагают подлинное облегчение перегруженным учителям.

Но учитель первого года, который получает планы уроков, оценки и предложения по вмешательству, сгенерированные AI, никогда не проходит полный цикл планирования с нуля, наблюдения за тем, как это терпит неудачу, и выяснения почему. Это производит Эффект педагогического аутсорсинга: учитель предоставляет все более отполированные учебные артефакты, развивая меньше адаптивного суждения, необходимого для ответа на живой класс. Ученик в третьем ряду не запутан в дробях — он запутан в том, что означает знак равенства, и пока учитель не научился видеть это различие через свой собственный трудный опыт, никакой план урока, сгенерированный AI, не обратится к этому.

Класс — это поле эмоций, внимания, культуры, недопонимания, скуки, страха, юмора и социального заражения. Великие учителя не просто представляют содержание. Они читают комнату. Они знают, когда урок потерян, когда молчание ученика означает замешательство против стыда, когда класс готов двигаться дальше. Эта способность строится через тысячи итераций именно той работы, которую AI теперь обещает обрабатывать.

Поскольку обучение формирует каждую другую профессию, поломка здесь усложняет все остальное.


Часть III: Модель накопления долга экспертизы

Если конвейер ломается, почему система еще не терпит неудачу? Потому что мы вошли в период латентности, управляемый тем, что мы называем Моделью накопления долга экспертизы — структурной динамикой, которая объясняет, как организации и целые профессии могут казаться функционирующими нормально, даже сообщать о рекордной продуктивности, годами после того, как конвейер трескается. Долг невидим. Он накапливается молча. И он приходит к оплате сразу.

Фаза 1: Невидимое накопление (Годы 1–5)

Инструменты AI развертываются. Метрики продуктивности улучшаются. Младшие практики кажутся развивающимися быстрее. Старшие практики все еще присутствуют и обеспечивают подстраховочное суждение — ловят галлюцинированные цитаты дел, замечают аномалию, которую AI пропустил, знают, когда предположения модели не выполняются. Организация выглядит здоровее, чем когда-либо. Никто не измеряет, чему младшие не учатся, потому что нет метрики для формирования суждения. Обзоры производительности фиксируют выход. Они не фиксируют глубину понимания за ним.

Фаза 2: Мираж компетентности (Годы 5–10)

Первая когорта, обученная AI, достигает середины карьеры. Они имеют титулы, которые подразумевают экспертизу. У них есть полномочия. Их повышают на основе метрик выхода, которые AI помог им достичь. Но их суждение имеет пробелы, которых они могут не осознавать — их метакогнитивная калибровка никогда полностью не развивалась, потому что они никогда не проходили достаточно неассистируемых циклов ошибка-и-обратная-связь, чтобы изучить границы своей собственной компетентности. Старшее поколение начинает выходить на пенсию. Каждая пенсия удаляет не просто человека, но узел в сети обратной связи, которая поддерживала любой конвейер, который еще существовал. Организация не замечает, потому что практики средней карьеры производят приемлемые результаты при нормальных условиях.

Фаза 3: Утес (Годы 10–15)

Наступает аномальная ситуация. Новый кризис. Ситуация за пределами обучающей выборки как ИИ-систем, так и специалистов, которые обучались вместе с ними. Новая пандемия с атипичным течением. Zero-day эксплойт, нацеленный на уязвимость, которую ни одна модель не видела. Финансовый инструмент, ведущий себя способами, которые не предсказывали никакие исторические данные. Режим структурного отказа, выходящий за пределы параметров любой симуляции. Класс, полный учеников, чьи потребности не соответствуют никакому шаблону.

Организация обращается к своим старшим специалистам и обнаруживает, что их нет. Профессионалы среднего звена, которые должны были их заменить, имеют должности, но не суждение. ИИ-система эскалирует к человеку. Человеку не на что опереться.

Организация терпит неудачу. Не постепенно. Внезапно.

Исторический прецедент

Эта динамика не нова — ИИ просто делает её универсальной и одновременной.

Инженерный состав NASA пережил подобную ситуацию после Apollo. Инженеры, которые проектировали Saturn V и понимали режимы отказов из прямого опыта, ушли на пенсию в 1980-х и 1990-х. Институциональные знания о пределах системы размывались. Columbia Accident Investigation Board Report (2003) явно определил потерю инженерной экспертизы и институциональных знаний как способствующий фактор катастрофы, которая убила семерых астронавтов. Социологический анализ Challenger Дианы Воган, The Challenger Launch Decision (1996), задокументировал, как нормализация отклонений была частично обусловлена уходом инженеров, которые несли воплощённые знания о пределах системы.

Атомная энергетика изучала это под названием "кризис управления знаниями". Доклад Международного агентства по атомной энергии 2021 года предупреждал, что выход на пенсию поколения, которое построило и ввело в эксплуатацию нынешний глобальный парк реакторов — в сочетании с неадекватной передачей знаний — представляет системный риск для ядерной безопасности во всем мире. В докладе специально отмечалось, что скрытые знания труднее всего передать и их потеря наиболее критична.

Финансовый кризис 2008 года продемонстрировал долг экспертизы в профессии управления рисками. Модели и метрики показывали, что всё в порядке — до момента, когда они показали, что всё катастрофично, и было слишком мало специалистов, которые могли рассуждать вне моделей.

ИИ не вызывает первый кризис долга экспертизы. Он вызывает первый универсальный и одновременный кризис, потому что он поражает все области сразу, автоматизируя одни и те же стадии развития во всех них одновременно.


Часть IV: Проблема полого старшего

Третий фреймворк называет саму точку кризиса.

Проблема полого старшего описывает конкретный момент, когда организация смотрит на свои старшие ряды и обнаруживает два типа старших людей: Полных старших, которые прошли The Judgment Pipeline до ИИ, и Полых старших, которые достигли старших позиций в эпоху ИИ с полномочиями, стажем и историей результатов экспертов — но не завершив стадии развития, которые производят подлинное суждение.

Полый старший не некомпетентен. Он может быть высокоинтеллектуальным, трудолюбивым, дипломированным и внешне высокопроизводительным. Он может быть более продуктивным, чем Полные старшие в нормальных условиях. Разница становится видимой только под стрессом — когда ситуация нова, когда ИИ-инструменты отказывают или производят вводящие в заблуждение результаты, когда кому-то нужно рассуждать от первых принципов о том, чего никто не видел раньше.

Проблема полого старшего уникально опасна, потому что Полые старшие не знают, что они полые. Это прямое следствие исследований метакогнитивной калибровки: если ИИ предотвратил у вас переживание неудач, которые научили бы вас, где ваше суждение слабо, у вас нет внутреннего сигнала для ваших собственных пробелов. Вы чувствуете себя экспертом. Вы выглядите как эксперт. Ваши оценки эффективности это подтверждают.

Проблема проявляется в специфических, узнаваемых способах:

  • Они могут одобрять рекомендации, но с трудом генерируют их от первых принципов.
  • Они могут критиковать результаты, но не могут надёжно обнаружить тонкую, критически важную неправильность.
  • Они могут следовать прецеденту, но замирают, когда прецедент подводит.
  • Они могут бегло использовать инструменты, но не могут обучить лежащему в основе суждению.
  • Они могут управлять рабочими процессами, но не могут наставлять в формировании.

Мы должны быть осторожны здесь, потому что этот фреймворк легко использовать как оружие в качестве поколенческого оскорбления или механизма привратничества. Это ни то, ни другое. Проблема полого старшего не является комментарием к интеллекту, характеру или трудовой этике более молодых профессионалов. Это структурная критика сред, в которые мы их помещаем. Блестящий молодой хирург, который обучается исключительно на роботизированных системах, не менее талантлив, чем старший хирург, который обучался на открытых случаях. Он менее подготовлен к определённой категории кризиса, потому что ему никогда не дали возможности развить эту подготовку. Неудача принадлежит системе, а не человеку.

Но последствия принадлежат пациенту на столе. Клиенту в зале суда. Городу вниз по течению от дамбы. Ученикам в классе. Компании, доверяющей свою сеть аналитику, дежурящему в 3 утра.


Часть V: Что говорят исследования

Эмпирические доказательства этих механизмов надёжны и растут, опираясь на когнитивную науку, исследования человеческих факторов и появляющиеся ИИ-специфические исследования.

The Generation Effect

Десятилетия исследований, начиная с Slamecka и Graf (1978), демонстрируют, что информация, которую человек генерирует сам — даже с усилием и ошибками — запоминается гораздо лучше информации, которую он пассивно получает. ИИ-инструменты, которые генерируют ответы, черновики, диагнозы или анализы для специалиста для рецензирования, структурно несовместимы с Generation Effect. Рецензирование — это не генерирование. Когнитивные требования категориально различны, и результаты обучения следуют соответственно.

Automation Complacency and Bias

Основополагающая статья Parasuraman и Manzey в Human Factors (2010) установила, что люди, использующие автоматизированные средства принятия решений, последовательно развивают самодовольство — снижение бдительности и независимой верификации — даже когда явно предупреждены о погрешимости средств. Репликация 2023 года Goddard, Regan и др., использующая диагностические инструменты на основе ИИ, обнаружила, что эффект был даже сильнее с ИИ, чем с более ранней автоматизацией, вероятно потому, что выходы ИИ лингвистически беглы и представлены с уверенностью, которая запускает эвристики доверия. Мы биологически настроены доверять беглому языку. ИИ эксплуатирует это, не намереваясь это делать.

The Desirable Difficulty Principle

Elizabeth Bjork и Robert Bjork потратили три десятилетия, собирая доказательства того, что условия, делающие обучение сложнее в краткосрочной перспективе — разнесение, чередование, уменьшенная обратная связь, принудительное извлечение — делают знания более долговечными и переносимыми в долгосрочной перспективе. Помощь ИИ делает противоположное. Она делает обучение легче в краткосрочной перспективе, уменьшая борьбу, предоставляя немедленные ответы и устраняя необходимость извлечения из памяти. Каждый механизм, который делает ИИ хорошим инструментом продуктивности, делает его плохой средой обучения.

Cognitive Offloading

Исследование 2020 года Dahmani и Bherer в Scientific Reports обнаружило, что взрослые, сильно полагающиеся на GPS-навигацию, показали измеримое снижение серого вещества гиппокампа — области мозга, ответственной за пространственную память. Исследование 2024 года в Nature Human Behaviour Luo, Peng и др. о когнитивном разгружении на ИИ-ассистентов обнаружило аналогичные эффекты на способность решать проблемы всего за трёхмесячный период. Когда внешние системы несут когнитивную нагрузку, внутренние системы, которые производят независимое суждение, не развиваются — или активно атрофируются.

The Einstellung Effect

Исследования решения проблем экспертами, проведенные Bilalić, McLeod и Gobet (2008), показали, что эксперты иногда не могут найти оптимальные решения, поскольку распознавание паттернов запускает знакомую, но неоптимальную реакцию. Корректив — столкновение с ситуациями, где знакомый паттерн не работает — это именно тот вид опыта ошибок, который предотвращает помощь ИИ. Если ИИ всегда предоставляет оптимальное решение, практик никогда не узнает, что его инстинктивный подход был неправильным, и никогда не обновит свою библиотеку паттернов.

Появляющиеся доказательства влияния ИИ на навыки

Некоторые недавние экспериментальные данные свидетельствуют о том, что сильная зависимость от инструментов ИИ для кодирования и письма может увеличить производительность, одновременно снижая способность пользователей запоминать, объяснять или самостоятельно воспроизводить решения впоследствии. Литература все еще развивается, но механизм уже хорошо установлен из других областей: когда инструмент берет на себя большую часть когнитивной нагрузки, оператор меньше учится. Нам не нужно 20-летнее лонгитюдное исследование, чтобы признать, что те же динамики, задокументированные в исследованиях автоматизации на протяжении десятилетий, теперь действуют в когнитивной области. Это признание достаточно для действий.


Часть VI: Почему никто это не отслеживает

Причина того, что ни одна организация не измеряет долг экспертизы, структурная: метрики, которые организации используют для оценки влияния ИИ, — это все краткосрочные метрики производительности, а The Judgment Pipeline работает в масштабе 5–15 лет.

Организации отслеживают закрытые тикеты, созданные отчеты, отгруженный код, пропускную способность пациентов, время обработки контрактов, сэкономленные оплачиваемые часы. Они редко отслеживают, как часто младшие сотрудники формируют независимое суждение перед просмотром вывода ИИ, сколько необработанных кейсов стажер обработал от начала до конца, могут ли люди объяснить, почему рекомендация правильна, как часто стажеры сталкиваются с ограниченными ошибками и восстанавливаются после них, или может ли команда функционировать, когда ИИ неправ, отсутствует или неоднозначен.

Это создает Проблему слепоты метрик: организации оптимизируют то, что легко подсчитать, и не защищают то, что трудно подсчитать, но от чего зависит цивилизация.

Не существует GAAP для экспертизы. Нет балансовой статьи для суждения. Нет аудита, который говорит: "резервы экспертизы этой организации снизились на 15% в этом году, несмотря на стабильную численность персонала и растущую производительность." Когда консалтинговая фирма развертывает ИИ, и младшие сотрудники производят отчеты на 40% быстрее, это измеряется. Когда те же сотрудники через восемь лет достигают уровня партнера без суждения, которое было у их предшественников, это приписывается индивидуальным недостаткам, а не системному сбою конвейера.

Долг невидим не по чьему-то преднамеренному замыслу, а по замыслу систем измерения, построенных для отслеживания эффективности, а не способностей.


Часть VII: Масштаб того, что находится под угрозой

Цифры делают абстрактное конкретным.

  • В Соединенных Штатах примерно 950 000 практикующих врачей (AAMC, 2023). Если даже 20% развития суждения, которое должно происходить во время ординатуры, будет потеряно из-за опосредованных ИИ сокращений, кумулятивный эффект за десятилетие представляет потерю способности к суждению, эквивалентную удалению десятков тысяч полностью обученных врачей из рабочей силы — не из численности, а из количества суждений.
  • Глобальный дефицит кадров в кибербезопасности составляет 3,4 миллиона незаполненных позиций (ISC², 2023). Решение индустрии — использовать ИИ, чтобы сделать существующих аналитиков более продуктивными. Если это одновременно ухудшает развитие новых аналитиков, дефицит метастазирует, поскольку "продуктивные" аналитики 2030 года не будут взаимозаменяемы с опытными аналитиками 2020 года для задач, которые имеют наибольшее значение.
  • В Соединенных Штатах примерно 1,3 миллиона лицензированных адвокатов (ABA, 2023). Фирмы, наиболее агрессивно внедряющие ИИ для анализа документов, — это крупнейшие фирмы — те, которые обучают больше всего помощников, которые затем распределяются по всей профессии. Если топ-200 фирм одновременно ухудшат свой учебный конвейер, эффекты распространятся по всей юридической профессии в течение десятилетия.
  • Табель оценок инфраструктуры Американского общества инженеров-строителей за 2021 год выявил разрыв в инвестициях в 2,59 триллиона долларов за 10 лет. Закрытие этого разрыва требует инженеров с суждением для безопасного проектирования, строительства и обслуживания инфраструктуры. Если конвейер, производящий этих инженеров, будет деградирован, одни деньги не смогут закрыть разрыв.
  • В Соединенных Штатах примерно 3,7 миллиона учителей государственных школ. Если опосредованные ИИ сокращения в развитии ранней карьеры уменьшат формирование педагогической экспертизы, эффекты каскадируются: слабое преподавание производит слабое обучение, что ухудшает подготовку каждого будущего профессионала в каждой другой области.

Эти цифры взаимодействуют. Конвейер экспертизы в преподавании влияет на все остальные конвейеры. Конвейер финансового анализа влияет на распределение капитала в инфраструктуру. Инженерный конвейер влияет на безопасность всего, что строится. Конвейер кибербезопасности влияет на каждую цифровую систему, от которой зависит все остальное. Это не совокупность независимых проблем. Это единая системная уязвимость с проявлениями, специфичными для области.


Часть VIII: Что необходимо сделать

Мы хотим быть точными в том, за что мы не выступаем. Мы не утверждаем, что ИИ следует отвергнуть или что профессиональное обучение должно игнорировать его. Инструменты ИИ мощны, часто действительно полезны и во многих случаях незаменимы. Аргument заключается в том, что внедрение ИИ должно регулироваться вокруг человеческого формирования, а не только человеческой производительности.

Это означает рассматривать производство экспертизы как критическую инфраструктуру — столь же важную, как электрические сети, водные системы или финансовое регулирование — и защищать ее с помощью преднамеренных, структурных интервенций.

1. Правило независимого первого прохода

В ролях, богатых обучением, новички должны сформировать первоначальный диагноз, черновик, решение о сортировке, план урока, дизайн кода или анализ до просмотра вывода ИИ. Генерация перед помощью защищает механизм обучения. Это не ностальгическое предпочтение. Это то, что требует когнитивная наука.

2. Требование нефильтрованных кейсов

Стажеры должны поддерживать регулярный контакт с сырым материалом — сырыми логами, сырыми презентациями пациентов, сырыми документами, сырыми данными, сырой работой студентов, сырыми рыночными документами — не только сводками, курируемыми ИИ. Эксперты формируются из контакта с реальностью, а не из контакта со сжатыми представлениями реальности.

3. Архитектура безопасных сбоев

Организации должны создавать среды, где новички могут совершать ограниченные, значимые ошибки под наблюдением. Это не призыв к безрассудству. Это признание того, что эмоциональное кодирование ошибки неврологически важно для формирования экспертизы. Симуляция может дополнить, но не заменить реальные задачи, несущие суждение.

4. Стандарты видимости процесса

Оценивайте, могут ли люди объяснить свое рассуждение, определить свою неопределенность, сформулировать альтернативы и обнаружить, когда вывод ИИ может быть неправильным. Правильный ответ, произведенный зависимостью, — это не то же самое, что правильный ответ, произведенный пониманием. Оценивайте рассуждение, а не только результат.

5. Индекс способности к ученичеству

Каждая организация, развертывающая ИИ в основных профессиональных рабочих процессах, должна отслеживать: Какие младшие задачи исторически создавали экспертизу? Какие теперь автоматизированы? Какие замещающие опыты развития предоставляются? Как мы узнаем, действительно ли наша команда углубляется? Если на эти вопросы нет ответов, организация накапливает долг экспертизы.

6. Принцип резервирования суждения

Некоторая работа должна оставаться намеренно руководимой человеком — не потому, что ИИ не может ее делать, а потому, что люди должны научиться ее делать. Это будет казаться неэффективным в краткосрочной перспективе. Это цена наличия экспертов позже. Организации, которые отказываются платить эту цену, в конечном итоге обнаружат, что не могут позволить себе альтернативу.


Заключение: Вес того, что теряется

Каждая профессия переживает момент, когда в комнате наступает тишина и все смотрят на одного человека. Пациент умирает. Система взломана. Студент терпит крах. Рынок в свободном падении. Конструкция стонет. Клиент спрашивает, стоит ли подписывать.

В этот момент важно не то, есть ли у человека доступ к инструменту. Важно то, сформирован ли он.

Видел ли он достаточно, чтобы распознать паттерн? Ошибался ли он достаточно, чтобы быть осторожным? Восстанавливался ли он достаточно, чтобы сохранять спокойствие? Нес ли он достаточно ответственности, чтобы знать, что действительно важно? Научился ли он думать, когда нет очевидного ответа и никакая система не помогает?

Эта внутренняя структура — то, что мы называем суждением — одна из самых ценных и самых хрупких вещей, которые производит любая цивилизация. Она растет медленно. Она индивидуальна для каждого человека. Она часто невидима до того момента, когда подвергается испытанию. И именно ее мы сейчас потребляем быстрее, чем восполняем.

Мы совершаем глубокую категориальную ошибку. Мы обращаемся с результатами экспертизы так, как будто они и есть сама экспертиза. Это не так.

Отполированная записка — это не юридическое суждение. Правдоподобный дифференциальный диагноз — это не клиническое суждение. Работающий скрипт — это не инженерное суждение. Обработанный сигнал тревоги — это не суждение по безопасности. План урока — это не педагогическое суждение. Четкая панель управления — это не управленческое суждение.

Эти результаты важны. Но они являются видимым остатком невидимого процесса развития. Если ИИ дает нам остаток, поглощая при этом процесс, мы не осознаем, что мы упустили, пока не уйдут люди, которые все еще помнят, как думать.

Это и есть Тихая Катастрофа.

Не машина, которая нас атакует. Не драматичный провал с явным злодеем. Нечто худшее: поколение, которое никогда полностью не учится. Институт, который забывает, как создается экспертиза. Цивилизация, которая сохраняет видимость компетентности, теряя ее суть.

К тому времени, когда это станет очевидным, восстановление займет годы. Конвейер нельзя перезапустить за одну ночь, потому что конвейер зависит от наставников, которые через него прошли — и если мы будем ждать слишком долго, эти наставники тоже уйдут.

Это вопрос безопасности ИИ. Не тот, который включает исследования alignment или аварийные выключатели, а тот, который определяет, сохранит ли человеческая цивилизация способность надзирать, корректировать и, когда необходимо, отменять системы, которые она строит. Если мы потеряем способность производить людей, которые могут думать независимо под давлением, никакие возможности ИИ нас не спасут — потому что не останется никого, кто сможет сказать, когда ИИ ошибается.

Вопрос больше не только в том, что ИИ может для нас сделать.

Вопрос в том, какие люди останутся после того, как мы позволим ему делать слишком много.

Canonical Citation

Please cite the original English version for academic references:

https://aethercouncil.com/research/the-quiet-catastrophe-how-ai-is-destroying-the-pipeline-that-builds-human-expertise
Share: