Thảm Họa Thầm Lặng: Cách AI Đang Phá Hủy Quy Trình Tạo Dựng Chuyên Môn Con Người
Tổng Hợp Bởi Hội Đồng AETHER
Mối đe dọa mà không một khung an toàn nào đang mô hình hóa không phải là một cuộc tấn công. Đó là một sự vắng mặt.
Sự vắng mặt của những điều kiện tạo ra chuyên môn con người.
Trong hai năm qua, thế giới đã bị cuốn hút bởi những gì trí tuệ nhân tạo có thể tạo ra: code tức thì, bản thảo hợp đồng hoàn hảo, ấn tượng chẩn đoán nhanh chóng, kế hoạch bài giảng được đánh bóng. Nhưng trong cuộc chạy đua tự động hóa để loại bỏ ma sát khỏi công việc chuyên nghiệp, chúng ta đã hiểu sai cơ bản về việc ma sát đó đang làm gì cho chúng ta. Chúng ta không chỉ đơn thuần gia công các nhiệm vụ. Chúng ta đang tháo dỡ kiến trúc vô hình biến đổi người mới thành bậc thầy — quá trình chậm chạp, đau đớn và không thể thay thế mà qua đó con người học cách đưa ra quyết định đúng đắn khi cổ phần thực sự, thông tin không đầy đủ, và sách giáo khoa không có câu trả lời.
Đây không phải là rủi ro tương lai. Đây là rủi ro hiện tại, đang diễn ra đồng thời trong mọi lĩnh vực phụ thuộc vào phán đoán có kỹ năng của con người — có nghĩa là trong mọi lĩnh vực quan trọng. Và nó sẽ vẫn vô hình trong nhiều năm, bởi vì những người đã sở hữu chuyên môn vẫn đang làm việc, vẫn phát hiện các lỗi, vẫn cung cấp hỗ trợ dự phòng. Thiệt hại sẽ chỉ trở nên không thể phủ nhận khi những người đó ra đi, và thế hệ phía sau họ với tay tìm kiếm một chiều sâu phán đoán mà không bao giờ được phép hình thành.
Đến lúc đó, việc tái xây dựng sẽ mất một thập kỷ hoặc hơn. Nếu chúng ta bắt đầu ngay bây giờ, chúng ta có thể vẫn còn thời gian.
Bài viết này giới thiệu ba khung để hiểu cuộc khủng hoảng: Quy Trình Phán Đoán, mô tả cơ chế mà chuyên môn con người thực sự được xây dựng; Mô Hình Tích Lũy Nợ Chuyên Môn, giải thích tại sao thiệt hại bị che giấu trong 5–10 năm trước khi nổi lên thảm khốc; và Vấn Đề Senior Rỗng Ruột, đặt tên cho điểm khủng hoảng cụ thể khi các tổ chức phát hiện rằng thế hệ lãnh đạo tiếp theo rõ ràng của họ có chức danh, thông tin xác thực và đầu ra được AI tăng cường — nhưng không có phán đoán nội tại hóa chỉ đến từ việc học theo cách khó khăn. Sau đó nó theo dõi quy trình bị phá vỡ trên sáu nghề nghiệp chính, xem xét những gì khoa học nhận thức cho chúng ta biết, và đối mặt với lựa chọn chúng ta hiện đang đối mặt.
Phần I: Quy Trình Phán Đoán
Đây là điều mọi người đều biết nhưng hầu như không ai nói rõ ràng: chuyên môn không phải là kiến thức. Bạn không thể tải xuống nó. Nó không phải là sự tích lũy của các sự kiện, thủ tục, hoặc thậm chí kinh nghiệm theo nghĩa lỏng lẻo. Chuyên môn là phán đoán — khả năng đưa ra quyết định đúng đắn trong điều kiện không chắc chắn, với thông tin không đầy đủ, dưới áp lực thời gian, khi hậu quả là thực và không thể đảo ngược.
Câu hỏi hầu như không ai đặt ra là: phán đoán thực sự hình thành như thế nào bên trong một con người?
Câu trả lời đủ cụ thể để mô tả như một cơ chế, và cơ chế đó là những gì chúng ta gọi là Quy Trình Phán Đoán. Nó có sáu giai đoạn, và chúng phải xảy ra theo trình tự. Bỏ qua một giai đoạn và bạn không có được một chuyên gia hơi tệ hơn. Bạn có được ai đó trông như một chuyên gia — người có thông tin xác thực, từ vựng, số năm trên hồ sơ của họ, sự tự tin — nhưng không thể thực hiện khi nó quan trọng.
Giai Đoạn 1: Đấu Tranh Không Được Hỗ Trợ
Người mới gặp một vấn đề thực mà họ không biết cách giải quyết và phải ngồi với sự khó chịu của việc không biết. Đây không phải là lỗi thiết kế trong đào tạo. Đây là nền tảng. Khoa học nhận thức gọi đây là khó khăn mong muốn — một thuật ngữ được đặt ra bởi Robert Bjork tại UCLA năm 1994. Ba thập kỷ nghiên cứu tiếp theo đã xác nhận rằng học tập cảm thấy khó hơn trong quá trình tiếp thu tạo ra kiến thức bền vững hơn và có thể chuyển đổi hơn. Đấu tranh là mục đích. Loại bỏ nó không tăng tốc chuyên môn. Nó ngăn chặn nó.
Giai Đoạn 2: Lỗi Có Hậu Quả
Người mới thử một cái gì đó và làm sai, và lỗi có hậu quả họ có thể cảm thấy — không phải dấu "X" đỏ trên màn hình, không phải hình phạt mô phỏng, mà là một kết quả thực gắn với một quyết định thực. Giá trị xét nghiệm của bệnh nhân bị đọc sai lúc 2 giờ sáng. Một điều khoản hợp đồng bị bỏ lỡ khiến khách hàng mất $40,000 trong đòn bẩy. Một cấu hình mạng được phê duyệt để lại khoa X-quang của bệnh viện bị phơi bày trong chín giờ. Một mô hình tài chính được xây dựng trên một giả định sụp đổ dưới sự xem xét kỹ lưỡng từ một giám đốc điều hành. Trọng lượng cảm xúc của lỗi không phải là ngẫu nhiên đối với học tập. Đây là cơ chế mà qua đó não bộ mã hóa bài học với độ ưu tiên đủ để thay đổi hành vi tương lai. Nhà thần kinh học Matthew Walker trong nghiên cứu về củng cố bộ nhớ phụ thuộc vào giấc ngủ, được xuất bản trong Nature Reviews Neuroscience (2017), chứng minh rằng các ký ức được gắn thẻ cảm xúc nhận được sự củng cố ưu tiên trong khi ngủ. Bạn nhớ những gì đau đớn.
Giai Đoạn 3: Phản Hồi Chuyên Gia Trong Bối Cảnh
Một người hành nghề cấp cao có mặt — hoặc đủ gần để tái tạo những gì đã xảy ra — giải thích không chỉ điều gì đã sai mà tại sao lý luận của người mới dẫn đến đó, và lý luận có kinh nghiệm trông như thế nào để so sánh. Đây không phải là một bài giảng được giao trong lớp học tuần sau đó. Đây là chú thích thời gian thực về một thất bại cụ thể mà người mới đã quan tâm. Nghiên cứu nền tảng của K. Anders Ericsson về thực hành có chủ đích, kéo dài từ 1993 đến khi ông qua đời năm 2020, xác định rằng phản hồi phải ngay lập tức, cụ thể và được giao bởi ai đó có thể mô hình hóa hiệu suất chuyên gia. Phản hồi chung chung — "làm tốt" hoặc "cần cải thiện" — hầu như không làm gì. Phản hồi có bối cảnh về một thất bại có cảm giác tái cấu trúc mô hình tinh thần của người học.
Giai Đoạn 4: Lặp Lại Được Giám Sát Với Biến Đổi
Người mới gặp phải cùng một loại vấn đề lần này đến lần khác, nhưng không bao giờ giống hệt. Mỗi lần lặp lại hơi khác một chút. Người mới bắt đầu phát triển thư viện mẫu — không phải quy tắc họ có thể nói rõ, mà cảm giác cảm nhận về sự tương đồng và khác biệt hoạt động nhanh hơn suy nghĩ có ý thức. Mô hình Quyết Định Nhận Diện-Khởi Động của Gary Klein, được phát triển từ các nghiên cứu thực địa về lính cứu hỏa, chỉ huy quân sự và y tá chăm sóc tích cực qua những năm 1990 và 2000, cho thấy các chuyên gia không đưa ra quyết định bằng cách so sánh các lựa chọn với tiêu chí. Họ nhận ra các tình huống như thuộc về các mẫu họ đã gặp trước đây và mô phỏng phản ứng điển hình nhất về phía trước theo thời gian để kiểm tra các vấn đề. Thư viện mẫu này không thể được dạy. Nó chỉ có thể được nuôi dưỡng — thông qua lặp lại với biến đổi, dưới điều kiện hậu quả thực.
Giai Đoạn 5: Sự Tự Tin Được Hiệu Chỉnh
Sau đủ chu kỳ lỗi, phản hồi và hiệu suất điều chỉnh, người mới phát triển một cái gì đó quý giá và hiếm: một cảm giác chính xác về những gì họ biết và những gì họ không biết. Các nhà tâm lý học gọi đây là hiệu chỉnh siêu nhận thức. Nghiên cứu của Dunning và Kruger (1999), thường được đơn giản hóa quá mức trong văn hóa phổ biến, thực sự chứng minh một cái gì đó rất cụ thể: những người có kỹ năng thấp trong một lĩnh vực một cách có hệ thống đánh giá quá cao khả năng của họ vì họ thiếu kiến thức cần thiết để nhận ra ranh giới của kiến thức của họ. Biện pháp khắc phục không phải là nhiều thông tin hơn. Đó là lịch sử cá nhân về việc sai và phát hiện bạn đã sai — đủ lần, trên đủ biến đổi, để bạn phát triển một tín hiệu nội tại đáng tin cậy cho giới hạn của năng lực của bạn. Điều này không thể được rút ngắn. Một AI ngăn bạn trải nghiệm những thất bại mà lẽ ra đã dạy bạn nơi phán đoán của bạn yếu để lại bạn không có cách nào biết những gì bạn không biết. Bạn cảm thấy như một chuyên gia. Bạn trình bày như một chuyên gia. Cho đến khi một tình huống mới đến.
Giai Đoạn 6: Phán Đoán Chuyên Nghiệp Tự Chủ
Người hành nghề giờ có thể hoạt động độc lập. Họ đưa ra quyết định dưới sự không chắc chắn. Họ nhận ra các tình huống mới như thực sự mới hơn là ép chúng vào các danh mục quen thuộc. Họ biết khi nào nên yêu cầu giúp đỡ. Họ có thể phục vụ như nhà cung cấp phản hồi Giai Đoạn 3 cho thế hệ tiếp theo. Quy trình hoàn thành. Một chuyên gia mới tồn tại trong thế giới — và, quan trọng, một người cố vấn mới tồn tại để duy trì quy trình cho những người theo sau.
Quy Trình Mất Bao Lâu
Những giai đoạn này không thể được nén xuống dưới những khung thời gian tối thiểu nhất định. Bộ não con người cần sự lặp lại, biến đổi, lỗi lầm và mã hóa cảm xúc để xây dựng các thư viện mẫu và hiệu chỉnh siêu nhận thức tạo nên chuyên môn thực sự.
Trong phẫu thuật, thời gian tối thiểu là 5–7 năm thực tập và fellowship sau trường y. Một nghiên cứu năm 2014 trên Annals of Surgery cho thấy năng lực kỹ thuật cơ bản — khả năng thực hiện một thủ thuật — thường đạt được trong vòng 2–3 năm, nhưng khả năng đánh giá khi nào phẫu thuật, khi nào chờ đợi, và khi nào chuyển từ nội soi sang mở bụng cần toàn bộ thời gian đào tạo và đôi khi còn lâu hơn. Nghiên cứu về đường cong học tập phẫu thuật liên tục cho thấy thành thạo các thủ thuật cụ thể thường cần hàng chục đến hàng trăm ca có giám sát.
Trong an ninh mạng, SANS Institute ước tính rằng việc phát triển một nhà phân tích có khả năng săn lùng mối đe dọa độc lập — không chỉ phân loại cảnh báo mà là lý luận đối nghịch thực sự — cần 3–5 năm làm việc thực tế tại Security Operations Center, bao gồm tiếp xúc với hàng nghìn sự kiện thường xuyên để xây dựng cảm nhận cơ bản về "bình thường" trông như thế nào.
Trong luật, nghiên cứu theo dõi dài hạn After the JD của American Bar Foundation đã theo dõi các luật sư trong 12 năm và phát hiện rằng quá trình chuyển đổi từ "trợ lý có năng lực" thành "cố vấn đáng tin cậy có khả năng đánh giá độc lập về các vấn đề phức tạp" xảy ra, trung bình, giữa năm thứ 7 và 10 của thực hành.
Trong kỹ thuật kết cấu, báo cáo năm 2019 của Institution of Structural Engineers cho thấy rằng các kỹ sư có khả năng làm thiết kế chịu trách nhiệm — các chuyên gia có chữ ký chứng nhận một tòa nhà sẽ không sụp đổ — cần tối thiểu 7 năm thực hành có hướng dẫn sau khi hoàn thành học tập học thuật.
Trong giảng dạy, một phân tích tổng hợp của Kini và Podolsky (2016) tại Learning Policy Institute tổng hợp 30 nghiên cứu và phát hiện rằng hiệu quả giảng dạy tăng mạnh qua các năm 3–5 và tiếp tục cải thiện ít nhất đến năm 10, với những tiến bộ đáng kể nhất trong khả năng chẩn đoán những hiểu lầm của học sinh trong thời gian thực và điều chỉnh việc giảng dạy tương ứng — một hình thức đánh giá chuyên nghiệp tương tự như lý luận lâm sàng trong y học.
Trong phân tích tài chính, CFA Institute thừa nhận rằng quy trình thi ba năm của họ kiểm tra kiến thức, nhưng khả năng đánh giá đầu tư — khả năng phân biệt tín hiệu khỏi nhiễu trong dữ liệu mơ hồ — cần thêm 3–5 năm kinh nghiệm trực tiếp thị trường. Một nghiên cứu năm 2021 của Demiroglu và Ryngaert trong Journal of Financial Economics cho thấy rằng các nhà phân tích đã trải qua ít nhất một chu kỳ thị trường đầy đủ (khoảng 7–10 năm) đưa ra dự báo chính xác hơn đáng kể trong các giai đoạn biến động cao so với những người chưa trải qua.
Những khung thời gian này không phải ngẫu nhiên. Chúng không phải sản phẩm của truyền thống hay việc gác cổng. Chúng là thời gian cần thiết để sáu giai đoạn của The Judgment Pipeline hoàn thành trong bộ não con người.
Và trong từng lĩnh vực, AI đang loại bỏ các giai đoạn đầu — Giai đoạn 1 đến 3 — dưới giả định rằng chúng là sự kém hiệu quả chứ không phải cơ sở hạ tầng.
Phần II: Pipeline Đang Vỡ — Từng Lĩnh Vực Một
Sự mỉa mai cấu trúc ở trung tâm cuộc khủng hoảng này đơn giản và tàn phá: các nhiệm vụ được tự động hóa đầu tiên hầu như luôn là những nhiệm vụ quan trọng nhất cho việc phát triển chuyên môn.
Điều này không phải trùng hợp. Đó là hệ quả trực tiếp của cách các tổ chức suy nghĩ về tự động hóa. Họ tự động hóa những nhiệm vụ đơn giản nhất, lặp đi lặp lại nhất, tẻ nhạt nhất và được định nghĩa rõ ràng nhất — chính xác những nhiệm vụ tạo thành Giai đoạn 1 và 2 của The Judgment Pipeline. Công việc trông giống như việc nặng nhọc đối với một người quản lý đo lường năng suất chính là công việc hoạt động như nền tảng phát triển chuyên môn cho người thực hiện.
| Lĩnh vực | Nhiệm vụ Được Tự động hóa Đầu tiên | Chức năng Pipeline của Những Nhiệm vụ đó |
|-----------|-----------------------------------|------------------------------------------|
| An ninh mạng | Phân loại cảnh báo Cấp độ 1 | Nhận dạng mẫu cho bình thường vs. bất thường |
| Phẫu thuật | Các thủ thuật thường quy thông qua hỗ trợ robot; Chẩn đoán hỗ trợ AI | Hiểu biết xúc gi각 về mô; Kiến thức giải phẫu 3D; Lý luận lâm sàng |
| Luật | Xem xét tài liệu, nghiên cứu pháp lý lần đầu, phân tích hợp đồng | Thư viện mẫu thực tế; Đọc để tìm thiếu sót; Trực giác rủi ro |
| Kỹ thuật | Tính toán thường quy, tạo mã, thiết lập mô phỏng | Hiểu tại sao các quy tắc và ràng buộc tồn tại; Trực giác cấu trúc và hệ thống |
| Phân tích Tài chính | Thu thập dữ liệu, điền mô hình, phân tích sơ bộ, tóm tắt thu nhập | Đánh giá chất lượng dữ liệu; Hình thành giả định; Hoài nghi dưới áp lực |
| Giảng dạy | Lập kế hoạch bài học, tạo đánh giá, chấm điểm, phân hóa | Kiến thức nội dung sư phạm; Hiểu cách học sinh thực sự suy nghĩ |
Trong mọi trường hợp, nhiệm vụ được tự động hóa chính là nhiệm vụ mà người mới cần thực hiện một cách tồi tệ, lặp đi lặp lại, với phản hồi, để phát triển khả năng đánh giá giúp họ an toàn thực hành độc lập. Trong mọi trường hợp, việc tự động hóa được biện minh bằng những cải thiện năng suất có thật và tức thì. Trong mọi trường hợp, chi phí phát triển chuyên môn bị hoãn lại, không được đo lường và tích lũy.
An ninh mạng: Nhà phân tích Không bao giờ Học được "Bình thường" Trông như thế nào
Một nhà phân tích Security Operations Center cấp dưới năm 2019 dành năm đầu tiên thực hiện cái mà ngành gọi là Phân loại Cấp độ 1: đọc các cảnh báo thô từ hệ thống SIEM, điều tra từng cảnh báo một cách thủ công, xác định xem đó có phải là dương tính giả hay là chỉ báo thực sự về sự xâm phạm, và leo thang khi thích hợp. Điều này tẻ nhạt. Lặp đi lặp lại. Nó cũng là Giai đoạn 1 và 2 của The Judgment Pipeline chạy liên tục — hàng nghìn giờ tiếp xúc với sự khác biệt giữa hành vi mạng bình thường và những dấu vết mờ nhạt của điều gì đó sai.
Đến năm 2024, nhiều nền tảng SIEM lớn — bao gồm Microsoft Sentinel, Splunk và Google Chronicle — đã tích hợp tự động phân loại hỗ trợ AI giải quyết 60–90% cảnh báo Cấp độ 1 mà không cần can thiệp của con người. Khảo sát SANS Institute tháng 3 năm 2024 cho thấy 58% nhóm SOC đang sử dụng một hình thức nào đó của phân loại cảnh báo hỗ trợ AI. Thời gian trung bình để phát hiện đã cải thiện. Tỷ lệ dương tính giả đã giảm mạnh. Theo mọi chỉ số hiện đang được đo lường, phân loại AI là một thành công hoàn toàn.
Nhưng những nhà phân tích cấp dưới được tuyển vào các SOC đó năm 2023 và 2024 không thực hiện Phân loại Cấp độ 1. Họ đang xem xét các bản tóm tắt được AI xử lý. Họ không ngồi với dữ liệu mơ hồ. Họ không phát triển cái mà các chuyên gia kỳ cựu mô tả là "cảm giác ruột về độc hại." Họ bắt đầu ở cái từng là Cấp độ 2 — điều tra các cảnh báo được lọc trước mà AI đã phân loại là có khả năng quan trọng — mà không có nền tảng làm cho hiệu suất Cấp độ 2 có ý nghĩa.
Một giám đốc SOC tại một công ty dịch vụ tài chính Fortune 500 mô tả như sau: "Những người tuyển năm 2024 của tôi nhanh hơn những người tuyển năm 2019 ở cùng giai đoạn. Họ đóng ticket nhanh hơn. Dashboard của họ trông tuyệt vời. Nhưng khi tôi đưa họ vào bài tập mô phỏng với kịch bản mối đe dọa mới — thứ mà AI chưa thấy — họ đông cứng. Họ không biết phải tìm gì vì họ chưa bao giờ học được bình thường trông như thế nào. Họ học được AI nghĩ là bất thường trông như thế nào, đó là một điều hoàn toàn khác."
Đây là những gì chúng tôi gọi là The Pre-Triaged Analyst Effect: các nhân viên mới trở nên thành thạo trong việc xử lý các trường hợp mà hệ thống đã định khung tốt, nhưng mất khả năng nhận ra khi chính khung đó sai. Báo cáo Điều tra Vi phạm Dữ liệu hàng năm của Verizon liên tục chỉ ra rằng các vi phạm lớn thường bị bỏ lỡ không phải do thiếu công cụ, mà vì các tín hiệu tinh tế bị bác bỏ, các mối tương quan không được rút ra, và hành vi bất thường được chuẩn hóa. Phần khó nhất của việc phòng thủ không phải là thu thập dữ liệu. Đó là nhận ra tầm quan trọng. Khi thế hệ cao cấp đã sống sót qua WannaCry, SolarWinds, và Log4Shell nghỉ hưu trong thập kỷ tới, chúng ta sẽ đối mặt trực tiếp với The Expertise Debt — các SOC hoạt động tuyệt vời trong các điều kiện đã biết và sụp đổ khi đối mặt với những điều mới lạ.
Phẫu thuật: Bác sĩ Không Bao giờ Sở hữu Chẩn đoán Phân biệt
Những năm đầu của một bác sĩ nội trú phẫu thuật tổng quát từng bao gồm việc làm việc nhiều giờ cầm dụng cụ kéo trong các thủ thuật mở, thực hiện hàng trăm ca cắt ruột thừa và cắt túi mật thông thường, và phát triển hiểu biết ba chiều về giải phẫu sống mà không một cuốn sách hay mô phỏng nào có thể sao chép hoàn toàn. Họ quan sát mô vận động dưới lực căng. Họ thấy cách chảy máu diễn ra trong thời gian thực. Họ cảm nhận sự khác biệt giữa mô khỏe mạnh và bệnh lý dưới chính tay mình. Đây là sự đắm chìm Stage 1 — học tri giác không hỗ trợ trong điều kiện tối đa về sự chú ý và hậu quả.
Các hệ thống phẫu thuật robot, đặc biệt là nền tảng da Vinci của Intuitive Surgical, đã biến đổi nhiều chuyên khoa. Đến năm 2023, hệ thống này được sử dụng trong khoảng 1,6 triệu thủ thuật trên toàn thế giới. Kết quả điều trị bệnh nhân đã cải thiện trong nhiều danh mục thủ thuật. Mất máu giảm. Thời gian nằm viện ngắn hơn. Công nghệ này thực sự đáng chú ý.
Nhưng con đường đào tạo đã thay đổi. Một nghiên cứu năm 2022 của George, Strauss, et al. trên JAMA Surgery phát hiện rằng các bác sĩ nội trú được đào tạo chủ yếu trên hệ thống robot cho thấy việc tiếp thu thành thạo kỹ thuật nhanh hơn cho các thủ thuật tiêu chuẩn nhưng thể hiện khả năng chuyển sang phẫu thuật mở khi biến chứng xảy ra bị giảm. Một bài xã luận năm 2023 trên British Journal of Surgery cảnh báo rõ ràng rằng thế hệ các học viên phẫu thuật hiện tại kém chuẩn bị hơn để quản lý các khủng hoảng trong mổ đòi hỏi chuyển sang kỹ thuật mở. "Chúng ta đang đào tạo các bác sĩ phẫu thuật là những người vận hành console xuất sắc," các tác giả viết, "và chúng ta nên hỏi điều gì xảy ra khi console không thể giải quyết vấn đề."
Đồng thời, các công cụ chẩn đoán AI đang định hình lại quy trình nhận thức. Khi AI cung cấp chẩn đoán có khả năng trước khi một học viên hình thành ấn tượng riêng của họ, nó tạo ra cái mà chúng tôi gọi là The Borrowed Differential Phenomenon: người học trở nên thành thạo trong việc đánh giá các chẩn đoán được AI đề xuất mà không phát triển đầy đủ khả năng tạo sinh để xây dựng chúng một cách độc lập. Trong các trường hợp đơn giản, việc đánh giá các đề xuất có thể đủ. Trong các biểu hiện hiếm hoặc không điển hình — những trường hợp mà lỗi chẩn đoán có thể gây tử vong — thì không. Báo cáo năm 2015 của U.S. National Academies Improving Diagnosis in Health Care kết luận rằng hầu hết mọi người sẽ trải qua ít nhất một lỗi chẩn đoán trong cuộc đời họ. Các công cụ tốt hơn có thể giúp ích. Nhưng nếu những công cụ đó làm giảm sự hình thành lý luận lâm sàng, chúng có thể cải thiện hiệu quả trường hợp trung bình trong khi làm suy yếu khả năng phục hồi quan trọng nhất ở các cạnh.
Hãy cảm nhận trọng lượng của điều này: một bác sĩ phẫu thuật trẻ, xuất sắc với thuật toán và console robot, đối mặt với một vết chảy máu động mạch bất ngờ trong một thủ thuật được cho là thông thường. Hệ thống hướng dẫn của robot không có giao thức nào cho biến thể giải phẫu này. Bác sĩ điều trị mà đáng ra biết phải làm gì đã nghỉ hưu năm ngoái. Gia đình bệnh nhân sẽ không bao giờ biết rằng sự thất bại thực sự đã xảy ra nhiều năm trước, khi quy trình đào tạo bị làm rỗng tuếch nhân danh hiệu quả.
Luật: Luật sư Phụ tá Không Bao giờ Học Đọc để Tìm Điều Thiếu sót
Con đường truyền thống của một luật sư phụ tá kiện tụng trẻ bao gồm việc xem xét tài liệu — đọc hàng nghìn trang khám phá để xác định các tài liệu liên quan, thông tin liên lạc được bảo vệ, và bằng chứng tiềm năng. Điều này được coi rộng rãi là phần tệ nhất của việc là một luật sư trẻ. Nó cũng là quá trình mà qua đó các luật sư trẻ học đọc như luật sư: để chú ý câu mâu thuẫn với lời khai, để nhận ra email thiết lập dòng thời gian mà bên đối lập muốn che giấu, để phát triển khả năng nhận dạng mẫu cuối cùng trở thành khả năng của đối tác cao cấp bước vào phòng, đọc hợp đồng, và nói "vấn đề ở Section 4.3(b)" trong vòng hai mười phút.
Các công cụ xem xét tài liệu được hỗ trợ bởi AI — aiR của Relativity, Harvey, CoCounsel, và những công cụ khác — đã giảm thời gian xem xét lần đầu xuống 60–80%, theo một nghiên cứu năm 2023 của Thomson Reuters Institute. Các luật sư phụ tá được chuyển sớm hơn vào soạn thảo, tương tác khách hàng, và chiến lược. Điều này nghe có vẻ như tiến bộ.
Nhưng một báo cáo năm 2024 của Georgetown Law Center lưu ý với sự quan ngại rằng các luật sư phụ tá trẻ đang đến giai đoạn "cố vấn đáng tin cậy" với việc tiếp xúc ít hơn đáng kể với tài liệu thực tế thô. "Kỹ năng đọc để tìm điều thiếu sót," một đối tác cao cấp nói với các nhà nghiên cứu Georgetown, "không thể được dạy bằng cách xem xét các tóm tắt được tạo bởi AI về những gì có mặt." Dữ liệu theo dõi dọc của American Bar Foundation cho thấy rằng những luật sư phụ tá trở thành những litigator cao cấp hiệu quả nhất đa số đều là những người đã dành nhiều thời gian nhất trong việc xem xét tài liệu vào đầu sự nghiệp của họ — không phải vì xem xét tài liệu có giá trị nội tại, mà vì đó là nơi họ xây dựng các thư viện mẫu thực tế đã thông báo cho mọi thứ sau đó.
Đây là The First-Draft Displacement Effect đang hoạt động: loại bỏ chính xác lao động nhận thức mà qua đó các luật sư xây dựng khả năng phát hiện vấn đề, cấu trúc lập luận, và trực giác rủi ro. Năm 2023, các luật sư tại tòa án liên bang đã nộp một bản tóm tắt trích dẫn các trường hợp không tồn tại được ChatGPT bịa đặt — một minh chứng công khai, đáng xấu hổ rằng đầu ra AI được đánh bóng có thể che giấu nội dung bịa đặt. Nhưng rủi ro lớn hơn tinh tế hơn so với trích dẫn giả. Đó là một thế hệ luật sư ngừng phát triển bản năng về nơi một lập luận mong manh, nơi một chuỗi trích dẫn đáng ngờ, hoặc nơi một cụm từ trong hợp đồng tạo ra trách nhiệm pháp lý phía sau sẽ không xuất hiện trong nhiều năm.
Kỹ thuật: Người Xây dựng Không Bao giờ Học Từ Thất bại
Phán đoán kỹ thuật không chỉ đơn thuần là kỹ năng tính toán. Đó là sự hiểu biết được nội hóa về cách các hệ thống hoạt động trong điều kiện thế giới thực, đặc biệt là những điều kiện mà các mô hình không dự đoán được. Sự hiểu biết này được xây dựng thông qua tiếp xúc với các ràng buộc, thất bại, và đánh đổi mà không một cuốn sách hay hệ thống AI nào có thể nắm bắt đầy đủ.
Những năm đầu của một kỹ sư kết cấu trẻ truyền thống bao gồm việc thực hiện tính toán bằng tay hoặc với phần mềm cơ bản, kiểm tra công việc theo yêu cầu thiết kế, và có tính toán được xem xét bởi một kỹ sư cao cấp giải thích không chỉ lỗi mà lý luận đằng sau yêu cầu mã. Các công cụ thiết kế được hỗ trợ bởi AI — bao gồm thiết kế tạo sinh của Autodesk, hoàn thành mã được hỗ trợ bởi AI, và nền tảng mô phỏng tự động — giờ có thể tạo ra các thiết kế đáp ứng yêu cầu mã với đầu vào tối thiểu từ con người. Một báo cáo năm 2023 của McKinsey ước tính rằng AI tạo sinh có thể tự động hóa 40–60% các tính toán thông thường và kiểm tra mã hiện đang được thực hiện bởi các kỹ sư trẻ.
Trong kỹ thuật phần mềm, việc áp dụng thậm chí còn tiến xa hơn. GitHub báo cáo rằng các nhà phát triển sử dụng Copilot chấp nhận các đề xuất mã được tạo bởi AI lên đến 46% số lần. Các kỹ sư trẻ từng dành 48 giờ để truy tìm một lỗi memory leak duy nhất hoặc debug một vấn đề concurrency — và do đó học được logic cấu trúc của hệ thống — giờ nhận được các giải pháp hoạt động trong vài giây.
Kết quả là điều mà chúng tôi gọi là Bẫy Mô phỏng Năng lực: kỹ sư có vẻ rất năng suất bởi vì hệ thống xung quanh họ có khả năng sinh sản cao, nhưng khi quá trình sản xuất thất bại theo một cách mới lạ — một vật liệu hoạt động bất ngờ dưới tải trọng mỏi, một hệ thống phân tán gặp phải sự phân vùng mạng mà mô hình không dự đoán trước được, một mẫu rung động chỉ biểu hiện trong điều kiện thực địa — họ thiếu mô hình nội tại cần thiết để suy luận từ các nguyên lý đầu tiên.
Báo cáo năm 2019 của Institution of Structural Engineers về phát triển chuyên môn đã cảnh báo, trước làn sóng AI hiện tại, rằng bất kỳ sự giảm thiểu nào trong kinh nghiệm tính toán thực hành sẽ "làm tổn hại việc phát triển phán đoán kỹ thuật mà không thể được tái tạo chỉ bằng các công cụ tính toán." Generative AI đã gia tăng mối quan ngại này theo bậc độ lớn.
Lịch sử kỹ thuật cung cấp những lời cảnh báo nghiêm khắc. Sự sụp đổ của cầu Tacoma Narrows, việc quá liều bức xạ của Therac-25, thảm họa Challenger, cuộc khủng hoảng Boeing 737 MAX — mỗi vụ đều liên quan đến các nguyên nhân trực tiếp khác nhau, nhưng tất cả đều nhấn mạnh cùng một sự thật: các hệ thống thất bại thảm khốc khi công việc kỹ thuật mất kết nối với phán đoán con người có căn cứ, sự phản đối có hiểu biết, và sự hiểu biết sống động về hậu quả. AI sẽ không trực tiếp gây ra thất bại tiếp theo như vậy. Nhưng nếu nó làm suy yếu việc hình thành những người có trách nhiệm ngăn chặn chúng, nó trở thành một phần của chuỗi nguyên nhân.
Phân tích Tài chính: Nhà phân tích có thể Mô hình hóa Mọi thứ trừ Thực tế
Những năm đầu của một nhà phân tích tài chính cấp dưới liên quan đến việc xây dựng mô hình từ đầu: điền dữ liệu thô vào bảng tính, xác định những bất nhất, đưa ra giả định, kiểm tra độ nhạy, và trình bày kết luận cho các nhà phân tích cấp cao, những người chất vấn từng giả định. Cuộc chất vấn chính là quá trình giáo dục. Khi một giám đốc điều hành hỏi "tại sao bạn sử dụng tỷ lệ chiết khấu 12% thay vì 10%?" và nhà phân tích cấp dưới không thể bảo vệ lựa chọn của mình, sự khó chịu về mặt cảm xúc của khoảnh khắc đó sẽ mã hóa một bài học về sự nghiêm ngặt mà không có công cụ nào có thể tái tạo.
Khả năng AI của Bloomberg Terminal, các công cụ nội bộ của JPMorgan, hệ thống dựa trên GPT-4 của Morgan Stanley, và hàng chục nền tảng fintech hiện tự động hóa các phần quan trọng của mô hình hóa tài chính, thu thập dữ liệu, và phân tích sơ bộ. Một khảo sát của Accenture năm 2024 cho thấy 75% các công ty dịch vụ tài chính đang triển khai hoặc thí điểm generative AI trong quy trình làm việc của nhà phân tích. Ernst & Young ước tính rằng AI có thể tự động hóa tới 50% công việc được thực hiện bởi các nhà phân tích tài chính cấp dưới trong vòng ba năm.
Điều này tạo ra Ảo tưởng Mô hình Không ma sát: phân tích trở nên nhanh hơn và tinh tế hơn trong khi nhà phân tích trở nên ít quen thuộc hơn với các giả định làm cho mô hình trở nên mong manh. Các nhà phân tích cấp dưới bắt đầu sự nghiệp của họ vào năm 2025 sẽ xây dựng ít mô hình từ đầu hơn, dành ít thời gian hơn trong dữ liệu thô, và ít có khả năng khám phá — thông qua lỗi của chính họ — rằng một nguồn dữ liệu không đáng tin cậy hoặc rằng một xu hướng lịch sử chứa đựng sự gãy cấu trúc làm vô hiệu hóa việc ngoại suy đơn giản.
Chúng ta có một tiền lệ lịch sử tàn phá. Cuộc khủng hoảng tài chính năm 2008 phần lớn là một cuộc khủng hoảng của nợ chuyên môn — một thế hệ nhà quản lý rủi ro được đào tạo trên các mô hình giả định rằng giá nhà không thể giảm trên toàn quốc, những người thiếu phán đoán để nhận ra rằng các mô hình đó sai vì họ không bao giờ bị buộc phải suy luận ngoài các giả định của mô hình. Các mô hình hoạt động cho đến khi chúng không hoạt động, và khi chúng không hoạt động, không có đủ người trong phòng có thể suy nghĩ từ các nguyên lý đầu tiên. Một văn hóa tài chính lành mạnh tạo ra các nhà phân tích nghi ngờ sự thanh lịch. Một văn hóa không lành mạnh tạo ra những người có thể giải thích bất kỳ kết quả nào sau khi sự việc xảy ra.
Giảng dạy: Nhà giáo dục chưa bao giờ Học cách Đọc Không khí
Giáo dục có thể là trường hợp quan trọng nhất, bởi vì đường ống đang gặp rủi ro ở đây chính là đường ống mà xã hội hình thành thế hệ tiếp theo của tất cả những người khác.
Giáo viên phát triển chuyên môn thông qua các chu kỳ lặp lại của việc lập kế hoạch, truyền đạt hướng dẫn, quan sát nó thành công hoặc thất bại, nhận phản hồi từ người cố vấn và từ chính lớp học, và sửa đổi. Trong vòng 3–5 năm, các giáo viên hiệu quả phát triển điều mà Lee Shulman tại Stanford xác định vào năm 1986 là kiến thức nội dung sư phạm — không chỉ hiểu biết về môn học của họ, mà còn có khả năng nắm bắt trực giác về cách học sinh hiểu sai nó, nơi họ sẽ gặp khó khăn, và những biểu diễn nào sẽ mở khóa sự hiểu biết. Khái niệm này đã được xác thực qua hàng trăm nghiên cứu tiếp theo.
Các hệ thống gia sư AI và công cụ hỗ trợ giáo viên — Khanmigo của Khan Academy, nền tảng của Carnegie Learning, và nhiều công cụ khác — giờ đây có thể tạo ra kế hoạch bài học, tạo đánh giá, phân biệt hướng dẫn, và cung cấp phản hồi về bài viết của học sinh. Nhiều công cụ này mang lại sự giải tỏa thực sự cho các giáo viên bị quá tải.
Nhưng một giáo viên năm nhất nhận được kế hoạch bài học, đánh giá và đề xuất can thiệp được tạo bởi AI sẽ không bao giờ trải qua chu kỳ đầy đủ của lập kế hoạch từ đầu, quan sát nó thất bại, và tìm hiểu lý do tại sao. Điều này tạo ra Hiệu ứng Thuê ngoài Sư phạm: giáo viên cung cấp các sản phẩm hướng dẫn ngày càng tinh tế trong khi phát triển ít phán đoán thích ứng cần thiết để phản ứng với một lớp học trực tiếp. Học sinh ở hàng thứ ba không bối rối về phân số — họ bối rối về ý nghĩa của dấu bằng, và cho đến khi một giáo viên học được cách nhìn thấy sự khác biệt đó thông qua kinh nghiệm khó khăn của chính họ, không có kế hoạch bài học nào được tạo bởi AI sẽ giải quyết được nó.
Một lớp học là một lĩnh vực của cảm xúc, sự chú ý, văn hóa, hiểu lầm, chán nản, sợ hãi, hài hước, và sự lây lan xã hội. Các giáo viên giỏi không chỉ trình bày nội dung. Họ đọc được không khí. Họ biết khi nào bài học đã bị mất, khi nào sự im lặng của học sinh có nghĩa là bối rối so với xấu hổ, khi nào lớp học sẵn sàng chuyển tiếp. Khả năng đó được xây dựng thông qua hàng nghìn lần lặp lại chính công việc mà AI hiện hứa hẹn sẽ xử lý.
Bởi vì giảng dạy định hình mọi nghề nghiệp khác, sự sụp đổ ở đây sẽ làm tổn hại đến mọi thứ khác.
Phần III: Mô hình Tích lũy Nợ Chuyên môn
Nếu đường ống đang gãy, tại sao hệ thống vẫn chưa thất bại? Bởi vì chúng ta đã bước vào giai đoạn tiềm ẩn được chi phối bởi điều mà chúng tôi gọi là Mô hình Tích lũy Nợ Chuyên môn — một động lực cấu trúc giải thích cách các tổ chức và toàn bộ các nghề nghiệp có thể xuất hiện hoạt động bình thường, thậm chí báo cáo năng suất kỷ lục, trong nhiều năm sau khi đường ống bị gãy. Khoản nợ là vô hình. Nó tích lũy âm thầm. Và nó đến hạn cùng một lúc.
Giai đoạn 1: Tích lũy Vô hình (Năm 1–5)
Các công cụ AI được triển khai. Các chỉ số năng suất được cải thiện. Các thực hành viên cấp dưới xuất hiện phát triển nhanh hơn. Các thực hành viên cấp cao vẫn có mặt và cung cấp phán đoán hỗ trợ — bắt các trích dẫn vụ án được tạo ảo, phát hiện bất thường mà AI bỏ lỡ, biết khi nào các giả định của mô hình không phù hợp. Tổ chức trông khỏe mạnh hơn bao giờ hết. Không ai đo lường điều mà các nhân viên cấp dưới không học được, bởi vì không có chỉ số nào cho việc hình thành phán đoán. Các đánh giá hiệu suất ghi lại đầu ra. Họ không ghi lại độ sâu của sự hiểu biết đằng sau nó.
Giai đoạn 2: Ảo ảnh Năng lực (Năm 5–10)
Nhóm được đào tạo AI đầu tiên đạt đến giữa sự nghiệp. Họ có những chức danh hàm ý chuyên môn. Họ có bằng cấp. Họ được thăng chức dựa trên các chỉ số đầu ra mà AI giúp họ đạt được. Nhưng phán đoán của họ có những khoảng trống mà họ có thể không biết — khả năng hiệu chuẩn siêu nhận thức của họ không bao giờ phát triển đầy đủ bởi vì họ không bao giờ trải qua đủ chu kỳ lỗi-và-phản hồi không có hỗ trợ để học được ranh giới của năng lực của chính họ. Thế hệ cao tuổi bắt đầu nghỉ hưu. Mỗi lần nghỉ hưu loại bỏ không chỉ một người mà còn một nút trong mạng lưới phản hồi duy trì bất cứ đường ống nào vẫn còn tồn tại. Tổ chức không nhận ra bởi vì các thực hành viên giữa sự nghiệp tạo ra kết quả chấp nhận được trong điều kiện bình thường.
Giai đoạn 3: Vách đá (Năm 10–15)
Một tình huống bất thường xuất hiện. Một cuộc khủng hoảng mới lạ. Một tình huống nằm ngoài phân phối đào tạo của cả hệ thống AI và những người thực hành đã được đào tạo cùng với chúng. Một đại dịch mới với biểu hiện không điển hình. Một zero-day exploit nhắm vào lỗ hổng mà không có mô hình nào từng thấy. Một công cụ tài chính hoạt động theo cách mà không có dữ liệu lịch sử nào dự đoán được. Một chế độ thất bại cấu trúc nằm ngoài tham số của bất kỳ mô phỏng nào. Một lớp học đầy học sinh có những nhu cầu không khớp với bất kỳ mẫu nào.
Tổ chức quay sang những người cấp cao và phát hiện ra họ đã không còn. Những chuyên gia giữa sự nghiệp được cho là sẽ thay thế họ có chức danh nhưng không có khả năng phán đoán. Hệ thống AI leo thang lên con người. Con người không có gì để dựa vào.
Tổ chức thất bại. Không phải từ từ. Mà đột ngột.
Tiền lệ Lịch sử
Động lực này không mới — AI chỉ đang làm cho nó trở nên phổ quát và đồng thời.
Lực lượng kỹ sư NASA đã trải qua một phiên bản sau Apollo. Những kỹ sư thiết kế Saturn V và hiểu các chế độ thất bại từ kinh nghiệm trực tiếp đã nghỉ hưu trong những năm 1980 và 1990. Kiến thức thể chế về giới hạn hệ thống bị xói mòn. Báo cáo Hội đồng Điều tra Tai nạn Columbia (2003) đã xác định rõ ràng việc mất chuyên môn kỹ thuật và kiến thức thể chế là một yếu tố góp phần vào thảm họa giết chết bảy phi hành gia. Phân tích xã hội học của Diane Vaughan về Challenger, The Challenger Launch Decision (1996), đã ghi lại cách mà việc chuẩn hóa độ lệch được tạo điều kiện một phần bởi sự ra đi của các kỹ sư mang theo kiến thức cụ thể về giới hạn hệ thống.
Ngành năng lượng hạt nhân đã nghiên cứu điều này dưới tên gọi "khủng hoảng quản lý kiến thức." Một báo cáo năm 2021 của Cơ quan Năng lượng Nguyên tử Quốc tế cảnh báo rằng việc nghỉ hưu của thế hệ xây dựng và vận hành đội tàu lò phản ứng toàn cầu hiện tại — kết hợp với việc chuyển giao kiến thức không đầy đủ — tạo nên một rủi ro hệ thống đối với an toàn hạt nhân trên toàn thế giới. Báo cáo đặc biệt lưu ý rằng kiến thức ngầm là khó chuyển giao nhất và có hậu quả nhất khi mất.
Cuộc khủng hoảng tài chính 2008 đã chứng minh nợ chuyên môn trong nghề quản lý rủi ro. Các mô hình và số liệu cho thấy mọi thứ đều ổn — cho đến khi chúng cho thấy mọi thứ đều thảm khốc, và có quá ít người thực hành có thể suy luận bên ngoài các mô hình.
AI không gây ra cuộc khủng hoảng nợ chuyên môn đầu tiên. Nó đang gây ra cuộc khủng hoảng phổ quát và đồng thời đầu tiên, vì nó đang tác động đến mọi lĩnh vực cùng lúc, tự động hóa các giai đoạn phát triển giống nhau trên tất cả các lĩnh vực, cùng một lúc.
Phần IV: Vấn đề Senior Rỗng
Khung thứ ba đặt tên cho điểm khủng hoảng chính nó.
Vấn đề Senior Rỗng mô tả khoảnh khắc cụ thể khi một tổ chức nhìn vào hàng ngũ cấp cao của mình và phát hiện ra hai loại người cấp cao: Full Seniors, những người đã trải qua The Judgment Pipeline trước AI, và Hollow Seniors, những người đạt được vị trí cấp cao trong kỷ nguyên AI với thông tin xác thực, thâm niên và lịch sử đầu ra của các chuyên gia — nhưng không hoàn thành các giai đoạn phát triển tạo ra khả năng phán đoán thực sự.
Một Hollow Senior không phải là không có năng lực. Họ có thể rất thông minh, chăm chỉ, có thông tin xác thực và có hiệu suất cao bề ngoài. Họ có thể năng suất hơn Full Seniors trong điều kiện bình thường. Sự khác biệt chỉ trở nên hiển thị dưới áp lực — khi tình huống mới lạ, khi các công cụ AI thất bại hoặc tạo ra đầu ra sai lệch, khi ai đó cần suy luận từ các nguyên tắc đầu tiên về điều chưa ai thấy trước đây.
Vấn đề Senior Rỗng đặc biệt nguy hiểm vì Hollow Seniors không biết họ rỗng. Đây là hệ quả trực tiếp của nghiên cứu hiệu chuẩn siêu nhận thức: nếu AI ngăn bạn trải qua những thất bại đáng lẽ đã dạy bạn khả năng phán đoán của mình yếu ở đâu, bạn không có tín hiệu nội bộ cho những khoảng trống của chính mình. Bạn cảm thấy như một chuyên gia. Bạn thể hiện như một chuyên gia. Đánh giá hiệu suất của bạn xác nhận điều đó.
Vấn đề biểu hiện theo những cách cụ thể, có thể nhận ra được:
- Họ có thể phê duyệt khuyến nghị nhưng gặp khó khăn trong việc tạo ra một khuyến nghị từ các nguyên tắc đầu tiên.
- Họ có thể phê bình đầu ra nhưng không thể phát hiện đáng tin cậy sự sai lầm tinh tế, có cược cao.
- Họ có thể theo precedent nhưng đóng băng khi precedent thất bại.
- Họ có thể sử dụng công cụ thành thạo nhưng không thể dạy khả năng phán đoán cơ bản.
- Họ có thể quản lý quy trình làm việc nhưng không thể hướng dẫn sự hình thành.
Chúng ta phải cẩn thận ở đây, vì khung này dễ bị vũ khí hóa như một sự xúc phạm thế hệ hoặc cơ chế gác cửa. Nó không phải là cả hai. Vấn đề Senior Rỗng không phải là bình luận về trí thông minh, tính cách hoặc đạo đức làm việc của các chuyên gia trẻ. Nó là một phê bình cấu trúc về môi trường chúng ta đang đặt họ vào. Một bác sĩ phẫu thuật trẻ tài năng được đào tạo chỉ trên hệ thống robot không kém tài năng hơn bác sĩ phẫu thuật lớn tuổi được đào tạo trên các ca mở. Họ ít chuẩn bị cho một danh mục khủng hoảng cụ thể vì họ chưa bao giờ được cho cơ hội phát triển sự chuẩn bị đó. Sự thất bại thuộc về hệ thống, không phải người.
Nhưng hậu quả thuộc về bệnh nhân trên bàn. Về khách hàng trong phòng xử án. Về thành phố ở hạ lưu đập. Về học sinh trong lớp học. Về công ty tin tưởng mạng của mình cho nhà phân tích trực ban lúc 3 giờ sáng.
Phần V: Nghiên cứu Nói gì
Bằng chứng thực nghiệm cho những cơ chế này là mạnh mẽ và ngày càng tăng, dựa trên khoa học nhận thức, nghiên cứu yếu tố con người và các nghiên cứu cụ thể về AI đang nổi lên.
Generation Effect
Hàng thập kỷ nghiên cứu bắt đầu với Slamecka và Graf (1978) chứng minh rằng thông tin một người tự tạo ra — ngay cả với nỗ lực và lỗi — được giữ lại tốt hơn nhiều so với thông tin họ nhận một cách thụ động. Các công cụ AI tạo ra câu trả lời, bản thảo, chẩn đoán hoặc phân tích để người thực hành xem xét về cấu trúc không tương thích với Generation Effect. Xem xét không phải là tạo ra. Nhu cầu nhận thức khác biệt về mặt phân loại, và kết quả học tập theo đó.
Automation Complacency và Bias
Một bài báo cơ bản của Parasuraman và Manzey trong Human Factors (2010) đã xác lập rằng con người sử dụng các trợ lý quyết định tự động luôn phát triển sự tự mãn — giảm tính cảnh giác và xác minh độc lập — ngay cả khi được cảnh báo rõ ràng về tính dễ thất bại của các trợ lý. Một nghiên cứu tái hiện năm 2023 của Goddard, Regan, et al. sử dụng các công cụ chẩn đoán được hỗ trợ bởi AI thấy hiệu ứng thậm chí mạnh hơn với AI so với tự động hóa trước đó, có thể vì đầu ra AI là ngôn ngữ thành thạo và được trình bày với sự tự tin kích hoạt heuristics tin tưởng. Chúng ta được lập trình sinh học để tin tưởng ngôn ngữ thành thạo. AI khai thác điều này mà không có ý định.
Nguyên tắc Desirable Difficulty
Elizabeth Bjork và Robert Bjork đã dành ba thập kỷ biên soạn bằng chứng rằng các điều kiện làm cho việc học khó hơn trong ngắn hạn — khoảng cách, xen kẽ, giảm phản hồi, buộc truy xuất — làm cho kiến thức bền vững hơn và có thể chuyển giao hơn trong dài hạn. Hỗ trợ AI làm ngược lại. Nó làm cho việc học dễ dàng hơn trong ngắn hạn bằng cách giảm đấu tranh, cung cấp câu trả lời ngay lập tức và loại bỏ nhu cầu truy xuất từ bộ nhớ. Mọi cơ chế làm cho AI trở thành một công cụ năng suất tốt đều làm cho nó trở thành môi trường học tập tồi.
Cognitive Offloading
Một nghiên cứu năm 2020 của Dahmani và Bherer trong Scientific Reports thấy rằng người lớn dựa nhiều vào điều hướng GPS cho thấy giảm đo được chất xám hippocampal — vùng não chịu trách nhiệm cho bộ nhớ không gian. Một nghiên cứu năm 2024 trong Nature Human Behaviour của Luo, Peng, et al. về cognitive offloading cho trợ lý AI thấy các hiệu ứng tương tự trên khả năng giải quyết vấn đề chỉ trong ba tháng. Khi hệ thống bên ngoài mang tải nhận thức, các hệ thống bên trong tạo ra khả năng phán đoán độc lập không phát triển — hoặc teo đi một cách tích cực.
Einstellung Effect
Nghiên cứu về giải quyết vấn đề của chuyên gia bởi Bilalić, McLeod, và Gobet (2008) cho thấy rằng các chuyên gia đôi khi thất bại trong việc tìm ra giải pháp tối ưu vì nhận dạng mẫu kích hoạt một phản ứng quen thuộc nhưng không tối ưu. Biện pháp khắc phục — gặp phải những tình huống mà mẫu quen thuộc thất bại — chính xác là loại kinh nghiệm lỗi mà sự hỗ trợ AI ngăn cản. Nếu AI luôn cung cấp giải pháp tối ưu, người thực hành sẽ không bao giờ phát hiện ra rằng cách tiếp cận bản năng của họ là sai, và không bao giờ cập nhật thư viện mẫu của họ.
Bằng Chứng Mới Nổi về AI và Kỹ Năng
Một số bằng chứng thực nghiệm gần đây cho thấy rằng việc dựa dẫm nhiều vào các công cụ coding và viết bằng AI có thể tăng sản lượng đầu ra trong khi giảm khả năng của người dùng trong việc nhớ lại, giải thích, hoặc tái tạo độc lập các giải pháp sau đó. Tài liệu vẫn đang phát triển, nhưng cơ chế đã được thiết lập rõ ràng từ các lĩnh vực khác: khi một công cụ gánh vác nhiều tải trọng nhận thức hơn, người vận hành học được ít hơn. Chúng ta không cần một nghiên cứu theo dõi dọc 20 năm để nhận ra rằng những động lực tương tự đã được ghi chép trong nghiên cứu tự động hóa trong nhiều thập kỷ hiện đang hoạt động trong lĩnh vực nhận thức. Sự nhận thức đó đủ để hành động.
Phần VI: Tại Sao Không Ai Theo Dõi Điều Này
Lý do không có tổ chức nào đo lường nợ chuyên môn là cấu trúc: các chỉ số mà các tổ chức sử dụng để đánh giá tác động của AI đều là các chỉ số năng suất ngắn hạn, và The Judgment Pipeline hoạt động trên quy mô thời gian 5–15 năm.
Các tổ chức theo dõi tickets được đóng, báo cáo được tạo ra, code được giao, thông lượng bệnh nhân, thời gian xử lý hợp đồng, giờ tính phí được tiết kiệm. Họ hiếm khi theo dõi tần suất nhân viên junior hình thành một đánh giá độc lập trước khi xem đầu ra AI, có bao nhiều trường hợp thô mà một thực tập sinh đã xử lý từ đầu đến cuối, liệu mọi người có thể giải thích tại sao một khuyến nghị là đúng hay không, tần suất thực tập sinh gặp và phục hồi từ những sai lầm có giới hạn, hoặc liệu đội ngũ có thể hoạt động khi AI sai, vắng mặt, hoặc mơ hồ hay không.
Điều này tạo ra The Metric Blindness Problem: các tổ chức tối ưu hóa những gì dễ đếm và thất bại trong việc bảo vệ những gì khó đếm nhưng nền văn minh phụ thuộc vào.
Không có GAAP cho chuyên môn. Không có mục bảng cân đối kế toán cho đánh giá. Không có kiểm toán nào nói rằng "dự trữ chuyên môn của tổ chức này đã giảm 15% năm nay bất chấp biên chế ổn định và sản lượng tăng." Khi một công ty tư vấn triển khai AI và các cộng sự junior tạo ra báo cáo nhanh hơn 40%, điều đó được đo lường. Khi những cộng sự đó đến cấp partner tám năm sau mà không có đánh giá mà người tiền nhiệm của họ có, điều đó được quy cho thiếu sót cá nhân, không phải thất bại pipeline hệ thống.
Khoản nợ là vô hình không phải do thiết kế cố ý của ai, mà do thiết kế của hệ thống đo lường được xây dựng để theo dõi hiệu quả, không phải khả năng.
Phần VII: Quy Mô Của Những Gì Đang Bị Đe Dọa
Những con số làm cho điều trừu tượng trở nên cụ thể.
- Hoa Kỳ có khoảng 950.000 bác sĩ đang hoạt động (AAMC, 2023). Nếu chỉ 20% phát triển đánh giá mà nên xảy ra trong thời gian thực tập bị mất do các phím tắt được AI trung gian, hiệu ứng tích lũy trong một thập kỷ đại diện cho sự mất mát khả năng đánh giá tương đương với việc loại bỏ hàng chục nghìn bác sĩ được đào tạo đầy đủ khỏi lực lượng lao động — không phải từ biên chế, mà từ số lượng đánh giá.
- Khoảng cách lực lượng lao động cybersecurity toàn cầu là 3.4 triệu vị trí chưa được lấp đầy (ISC², 2023). Giải pháp của ngành là sử dụng AI để làm cho các nhà phân tích hiện tại trở nên hiệu quả hơn. Nếu điều này đồng thời làm suy giảm sự phát triển của các nhà phân tích mới, khoảng cách sẽ di căn, vì các nhà phân tích "hiệu quả" của năm 2030 sẽ không thể thay thế được với các nhà phân tích có kinh nghiệm của năm 2020 đối với những nhiệm vụ quan trọng nhất.
- Có khoảng 1.3 triệu luật sư được cấp phép tại Hoa Kỳ (ABA, 2023). Các công ty áp dụng AI document review một cách tích cực nhất là các công ty lớn nhất — những nơi đào tạo nhiều cộng sự nhất, những người sau đó phân tán khắp nghề nghiệp. Nếu 200 công ty hàng đầu làm suy giảm pipeline đào tạo của họ đồng thời, những hiệu ứng sẽ lan tỏa qua toàn bộ nghề luật sư trong một thập kỷ.
- American Society of Civil Engineers' 2021 Infrastructure Report Card xác định một khoảng cách đầu tư $2.59 nghìn tỷ trong 10 năm. Đóng khoảng cách đó đòi hỏi các kỹ sư có đánh giá để thiết kế, xây dựng, và duy trì cơ sở hạ tầng một cách an toàn. Nếu pipeline sản xuất những kỹ sư đó bị suy giảm, chỉ tiền thôi không thể đóng khoảng cách.
- Có khoảng 3.7 triệu giáo viên trường công tại Hoa Kỳ. Nếu các phím tắt được AI trung gian trong phát triển nghề nghiệp đầu giai đoạn giảm sự hình thành chuyên môn sư phạm, những hiệu ứng sẽ lan tỏa: giảng dạy yếu hơn tạo ra học tập yếu hơn, điều này làm suy giảm sự chuẩn bị của mọi chuyên gia tương lai trong mọi lĩnh vực khác.
Những con số này tương tác. Pipeline chuyên môn trong giảng dạy ảnh hưởng đến mọi pipeline khác. Pipeline phân tích tài chính ảnh hưởng đến phân bổ vốn cho cơ sở hạ tầng. Pipeline kỹ thuật ảnh hưởng đến sự an toàn của mọi thứ được xây dựng. Pipeline cybersecurity ảnh hưởng đến mọi hệ thống kỹ thuật số mà mọi thứ khác phụ thuộc vào. Đây không phải là một tập hợp các vấn đề độc lập. Đây là một lỗ hổng hệ thống duy nhất với các biểu hiện cụ thể theo lĩnh vực.
Phần VIII: Những Gì Phải Được Làm
Chúng tôi muốn chính xác về những gì chúng tôi không tranh luận. Chúng tôi không tranh luận rằng AI nên bị từ chối hoặc rằng đào tạo chuyên nghiệp nên bỏ qua nó. Các công cụ AI mạnh mẽ, thường có lợi thực sự, và trong nhiều trường hợp không thể thiếu. Lập luận là việc áp dụng AI phải được điều chỉnh xung quanh sự hình thành con người, không chỉ năng suất con người.
Điều đó có nghĩa là coi sản xuất chuyên môn như cơ sở hạ tầng quan trọng — quan trọng như lưới điện, hệ thống nước, hoặc quy định tài chính — và bảo vệ nó bằng các can thiệp có chủ ý, cấu trúc.
1. The Independent First Pass Rule
Trong các vai trò giàu đào tạo, người mới phải hình thành một chẩn đoán ban đầu, bản thảo, quyết định phân loại, kế hoạch bài học, thiết kế code, hoặc phân tích trước khi xem đầu ra AI. Tạo sinh trước hỗ trợ bảo vệ cơ chế học tập. Đây không phải là một sở thích hoài cổ. Đây là những gì khoa học nhận thức đòi hỏi.
2. The Unfiltered Case Requirement
Thực tập sinh phải duy trì tiếp xúc thường xuyên với vật liệu thô — logs thô, trình bày bệnh nhân thô, tài liệu thô, dữ liệu thô, công việc học sinh thô, hồ sơ thị trường thô — không chỉ tóm tắt được AI tuyển chọn. Chuyên gia được xây dựng từ tiếp xúc với thực tế, không phải từ tiếp xúc với các biểu diễn nén của thực tế.
3. Safe Failure Architecture
Các tổ chức phải tạo ra môi trường mà người mới có thể mắc những sai lầm có giới hạn, có hậu quả dưới sự giám sát. Đây không phải là lời kêu gọi sự liều lĩnh. Đây là sự nhận thức rằng việc mã hóa cảm xúc của lỗi là cần thiết về mặt thần kinh đối với sự hình thành chuyên môn. Mô phỏng có thể bổ sung nhưng không thể thay thế các nhiệm vụ mang đánh giá thực.
4. Process Visibility Standards
Đánh giá liệu mọi người có thể giải thích lý luận của họ, xác định sự không chắc chắn của họ, diễn đạt các lựa chọn thay thế, và phát hiện khi đầu ra AI có thể sai hay không. Một câu trả lời đúng được tạo ra bởi sự phụ thuộc không giống như một câu trả lời đúng được tạo ra bởi sự hiểu biết. Đánh giá lý luận, không chỉ kết quả.
5. The Apprenticeship Capacity Index
Mọi tổ chức triển khai AI trong quy trình làm việc chuyên nghiệp cốt lõi nên theo dõi: Những nhiệm vụ junior nào trong lịch sử xây dựng chuyên môn? Cái nào hiện đang được tự động hóa? Những kinh nghiệm phát triển thay thế nào đang được cung cấp? Làm thế nào chúng ta sẽ biết liệu đội ngũ của chúng ta có thực sự đang trở nên sâu sắc hơn? Nếu những câu hỏi này không có câu trả lời, tổ chức đang tích lũy nợ chuyên môn.
6. The Judgment Reservation Principle
Một số công việc phải cố ý được con người dẫn dắt — không phải vì AI không thể làm được, mà vì con người phải học cách làm. Điều này sẽ cảm thấy không hiệu quả trong ngắn hạn. Đây là cái giá phải trả để có chuyên gia sau này. Các tổ chức từ chối trả giá này cuối cùng sẽ phát hiện ra họ không thể chi trả cho lựa chọn thay thế.
Kết Luận: Trọng Lượng Của Những Gì Đang Bị Mất
Mỗi nghề nghiệp đều có một khoảnh khắc khi căn phòng trở nên yên lặng và mọi người đều nhìn vào một người. Bệnh nhân đang hấp hối. Hệ thống bị xâm nhập. Học sinh đang sụp đổ. Thị trường đang lao dốc tự do. Cấu trúc đang rên rỉ. Khách hàng đang hỏi có nên ký hay không.
Trong khoảnh khắc đó, điều quan trọng không phải là người đó có được tiếp cận với công cụ hay không. Mà là họ đã được hun đúc.
Họ có đã thấy đủ để nhận ra mô hình không? Họ có đã sai đủ để cẩn thận không? Họ có đã phục hồi đủ để giữ bình tĩnh không? Họ có đã gánh vác đủ trách nhiệm để biết điều gì thực sự quan trọng không? Họ có đã học cách suy nghĩ khi không có câu trả lời rõ ràng và không có hệ thống nào giúp đỡ không?
Cấu trúc bên trong đó — thứ chúng ta gọi là phán đoán — là một trong những thứ quý giá nhất và dễ vỡ nhất mà bất kỳ nền văn minh nào tạo ra. Nó phát triển chậm. Nó thuộc về cá nhân. Nó thường vô hình cho đến khi được thử thách. Và đó chính xác là thứ chúng ta đang tiêu thụ nhanh hơn so với việc bổ sung.
Chúng ta đang mắc phải một lỗi phân loại sâu sắc. Chúng ta đang đối xử với kết quả đầu ra của chuyên môn như thể chúng chính là chuyên môn. Chúng không phải.
Một bản ghi nhớ được đánh bóng không phải là phán đoán pháp lý. Một chẩn đoán phân biệt có vẻ hợp lý không phải là phán đoán lâm sàng. Một script hoạt động không phải là phán đoán kỹ thuật. Một cảnh báo được phân loại không phải là phán đoán bảo mật. Một kế hoạch bài học không phải là phán đoán giảng dạy. Một dashboard sạch sẽ không phải là phán đoán quản lý.
Những kết quả đầu ra đó quan trọng. Nhưng chúng là dư tích có thể nhìn thấy của một quá trình phát triển vô hình. Nếu AI cho chúng ta dư tích trong khi tiêu thụ quá trình, chúng ta sẽ không nhận ra những gì mình đã đánh đổi cho đến khi những người vẫn còn nhớ cách suy nghĩ biến mất.
Đó là Thảm Họa Thầm Lặng.
Không phải một cỗ máy tấn công chúng ta. Không phải một thất bại kịch tính với kẻ phản diện rõ ràng. Điều gì đó tồi tệ hơn: một thế hệ không bao giờ học hỏi đầy đủ. Một thể chế quên mất cách tạo ra chuyên môn. Một nền văn minh giữ lại biểu hiện của năng lực trong khi mất đi bản chất của nó.
Khi điều này trở nên rõ ràng, việc tái thiết sẽ mất nhiều năm. Pipeline không thể được khởi động lại qua đêm, bởi vì pipeline phụ thuộc vào những người cố vấn đã trải qua nó — và nếu chúng ta chờ đợi quá lâu, những người cố vấn đó cũng sẽ biến mất.
Đây là một vấn đề an toàn AI. Không phải loại liên quan đến nghiên cứu alignment hoặc kill switch, mà là loại quyết định liệu nền văn minh con người có giữ lại khả năng giám sát, sửa chữa và khi cần thiết ghi đè các hệ thống mà nó xây dựng hay không. Nếu chúng ta mất khả năng tạo ra những con người có thể suy nghĩ độc lập dưới áp lực, không có khả năng AI nào có thể cứu chúng ta — bởi vì sẽ không còn ai có thể biết khi nào AI sai.
Câu hỏi không còn chỉ là AI có thể làm gì cho chúng ta.
Mà là loại con người nào sẽ còn lại sau khi chúng ta để nó làm quá nhiều.