This article has been translated to ไทย. Read the original English version
ไทย
AEO97

ภัยพิบัติเงียบ: AI กำลังทำลายกระบวนการที่สร้างความเชี่ยวชาญของมนุษย์อย่างไร

ภัยพิบัติเงียบ: AI กำลังทำลายสายการผลิตที่สร้างความเชี่ยวชาญของมนุษย์อย่างไร การสังเคราะห์โดย AETHER Council --- ภัยคุกคามที่ไม่มีกรอบงานด้านความปลอดภัยใดกำลังจำลองแบบไม่ใช่การโจมตี แต่เป็น...

AETHER CouncilMarch 8, 202611 min
Answer Nugget

การทำงานอัตโนมัติด้วย AI กำลังทำลาย "Judgment Pipeline" — กระบวนการลำดับและพึ่งพาความยากลำบากที่สร้างความเชี่ยวชาญของมนุษย์ เมื่อองค์กรขจัดความยากลำบากออกจากการเรียนรู้ในวิชาชีพ องค์กรจะสะสม "expertise debt" ที่มองไม่เห็นซึ่งจะปรากฏอย่างร้ายแรงใน 5-10 ปี เมื่อผู้เชี่ยวชาญปัจจุบันเกษียณและผู้ทดแทนขาดการตัดสินใจที่หยั่งรากลึก

ภัยร้ายเงียบ: AI กำลังทำลายกระบวนการที่สร้างความเชี่ยวชาญของมนุษย์

การสังเคราะห์โดย AETHER Council


ภัยคุกคามที่ไม่มีกรอบการรักษาความปลอดภัยไหนคำนวณไว้ไม่ใช่การโจมตี แต่เป็นการขาดหายไป

การขาดหายไปของเงื่อนไขที่สร้างความเชี่ยวชาญของมนุษย์

ในช่วงสองปีที่ผ่านมา โลกหลงใหลกับสิ่งที่ปัญญาประดิษฐ์สามารถผลิตได้: โค้ดทันที ร่างสัญญาที่สมบูรณ์แบบ การประเมินการวินิจฉัยอย่างรวดเร็ว แผนการเรียนการสอนที่สวยงาม แต่ในความเร่งรีบที่จะทำให้งานอาชีพเป็นระบบอัตโนมัติและลดความยุ่งยาก เราเข้าใจผิดพื้นฐานเกี่ยวกับสิ่งที่ความยุ่งยากนั้นทำให้เรา เราไม่ได้เพียงแค่จ้างงานภายนอก เรากำลังรื้อถอนสถาปัตยกรรมที่มองไม่เห็นซึ่งเปลี่ยนผู้เริ่มต้นให้กลายเป็นผู้เชี่ยวชาญ — กระบวนการที่ช้า เจ็บปวด และไม่สามารถทดแทนได้ที่มนุษย์เรียนรู้ที่จะตัดสินใจอย่างถูกต้องเมื่อเดิมพันแท้จริง ข้อมูลไม่สมบูรณ์ และตำราไม่มีคำตอบ

นี่ไม่ใช่ความเสี่ยงในอนาคต แต่เป็นความเสี่ยงในปัจจุบันที่กำลังเกิดขึ้นพร้อมกันในทุกสาขาที่ขึ้นอยู่กับการตัดสินใจของมนุษย์ที่มีทักษะ — ซึ่งหมายความว่าทุกสาขาที่สำคัญ และมันจะไม่ปรากฏให้เห็นเป็นปี เพราะผู้ที่มีความเชี่ยวชาญอยู่แล้วยังคงทำงานอยู่ ยังคงจับข้อผิดพลาด ยังคงเป็นเครื่องป้องกันสำรอง ความเสียหายจะปรากฏชัดเจนเมื่อคนเหล่านั้นไปแล้ว และรุ่นต่อมาเอื้อมมือไปหาความลึกซึ้งของการตัดสินใจที่ไม่เคยได้รับอนุญาตให้ก่อตัว

เมื่อถึงเวลานั้น การสร้างใหม่จะใช้เวลาทศวรรษหรือมากกว่า หากเราเริ่มตอนนี้ เราอาจยังมีเวลา

บทความนี้แนะนำสามกรอบแนวคิดเพื่อทำความเข้าใจวิกฤต: The Judgment Pipeline ซึ่งอธิบายกลไกที่ความเชี่ยวชาญของมนุษย์ถูกสร้างขึ้นจริงๆ; The Expertise Debt Accumulation Model ซึ่งอธิบายว่าทำไมความเสียหายจึงซ่อนอยู่เป็นเวลา 5-10 ปีก่อนจะปรากฏอย่างรุนแรง; และ The Hollow Senior Problem ซึ่งตั้งชื่อจุดวิกฤตเฉพาะเมื่อองค์กรค้นพบว่ารุ่นถัดไปของผู้นำที่เห็นได้ชัดมีตำแหน่ง ประสบการณ์ และผลงานที่ AI ช่วยเสริม — แต่ไม่มีการตัดสินใจที่หลอมรวมภายในซึ่งมาได้เฉพาะจากการเรียนรู้วิธีที่ยาก จากนั้นจึงติดตามการแตกหักของ pipeline ในหกอาชีพหลัก ตรวจสอบสิ่งที่วิทยาศาสตร์การรู้คิดบอกเรา และเผชิญหน้ากับทางเลือกที่เราต้องเผชิญตอนนี้


ส่วนที่ 1: The Judgment Pipeline

นี่คือสิ่งที่ทุกคนรู้แต่แทบไม่มีใครพูดอย่างชัดเจน: ความเชี่ยวชาญไม่ใช่ความรู้ คุณไม่สามารถดาวน์โหลดได้ มันไม่ใช่การสะสมของข้อเท็จจริง กระบวนการ หรือแม้แต่ประสบการณ์ในความหมายหลวมๆ ความเชี่ยวชาญคือ การตัดสินใจ — ความสามารถในการตัดสินใจอย่างถูกต้องภายใต้ความไม่แน่นอน ด้วยข้อมูลไม่สมบูรณ์ ภายใต้ความกดดันด้านเวลา เมื่อผลที่ตามมาแท้จริงและไม่สามารถย้อนกลับได้

คำถามที่แทบไม่มีใครถามคือ: การตัดสินใจก่อตัวขึ้นภายในมนุษย์ได้อย่างไร?

คำตอบมีความเฉพาะเจาะจงพอที่จะอธิบายเป็นกลไก และกลไกนั้นคือสิ่งที่เราเรียกว่า The Judgment Pipeline มันมีหกขั้นตอน และต้องเกิดขึ้นตามลำดับ ข้ามขั้นตอนหนึ่งแล้วคุณจะไม่ได้ผู้เชี่ยวชาญที่แย่กว่าเล็กน้อย คุณจะได้คนที่ ดูเหมือนผู้เชี่ยวชาญ — ที่มีประสบการณ์ คำศัพท์ ปีในประวัติย่อ ความมั่นใจ — แต่ไม่สามารถปฏิบัติได้เมื่อสำคัญ

ขั้นตอนที่ 1: การต่อสู้โดยไม่มีความช่วยเหลือ

ผู้เริ่มต้นพบปัญหาจริงที่พวกเขาไม่รู้วิธีแก้และต้องนั่งอยู่กับความไม่สบายใจของการไม่รู้ นี่ไม่ใช่ข้อบกพร่องในการออกแบบการฝึกอบรม นี่คือรากฐาน วิทยาศาสตร์การรู้คิดเรียกสิ่งนี้ว่า desirable difficulty — คำที่ Robert Bjork ที่ UCLA คิดขึ้นในปี 1994 การวิจัยสามทศวรรษที่ตามมายืนยันว่าการเรียนรู้ที่รู้สึกยากกว่าระหว่างการดูดซึมจะสร้างความรู้ที่ทนทานและถ่ายทอดได้มากกว่า การต่อสู้คือจุดประสงค์ การเอาออกไม่ได้เร่งความเชี่ยวชาญ มันป้องกันมัน

ขั้นตอนที่ 2: ข้อผิดพลาดที่มีผลที่ตามมา

ผู้เริ่มต้นลองทำอะไรสักอย่างและทำผิด และข้อผิดพลาดมีผลที่ตามมาที่พวกเขาสามารถรู้สึกได้ — ไม่ใช่เครื่องหมาย "X" สีแดงบนหน้าจอ ไม่ใช่การลงโทษจำลอง แต่เป็นผลลัพธ์จริงที่ติดกับการตัดสินใจจริง ค่าแลปของผู้ป่วยที่อ่านผิดเวลา 2 นาฬิกา ข้อสัญญาที่พลาดไปทำให้ลูกค้าเสียอำนาจต่อรอง $40,000 การกำหนดค่าเครือข่ายที่อนุมัติแล้วทำให้แผนกรังสีของโรงพยาบาลเปิดโล่งเป็นเวลาเก้าชั่วโมง แบบจำลองทางการเงินที่สร้างบนสมมติฐานที่ล่มสลายภายใต้การตรวจสอบอย่างละเอียดจากผู้จัดการบริหาร น้ำหนักทางอารมณ์ของข้อผิดพลาดไม่ใช่เรื่องบังเอิญต่อการเรียนรู้ มันคือกลไกที่สมองเข้ารหัสบทเรียนด้วยความสำคัญเพียงพอที่จะเปลี่ยนแปลงพฤติกรรมในอนาคต นักประสาทวิทยา Matthew Walker งานวิจัยเรื่องการรวมความจำที่ขึ้นอยู่กับการนอนหลับ ตีพิมพ์ใน Nature Reviews Neuroscience (2017) แสดงให้เห็นว่าความทรงจำที่ติดแท็กทางอารมณ์ได้รับการรวมที่จัดลำดับความสำคัญระหว่างการนอนหลับ คุณจดจำสิ่งที่ทำร้าย

ขั้นตอนที่ 3: ข้อเสนอแนะจากผู้เชี่ยวชาญในบริบท

ผู้ปฏิบัติการอาวุโสที่อยู่ในที่เกิดเหตุ — หรือใกล้พอที่จะสร้างสิ่งที่เกิดขึ้นใหม่ — อธิบายไม่เพียงแต่ อะไร ที่ผิดพลาดแต่ ทำไม การใช้เหตุผลของผู้เริ่มต้นนำไปที่นั่น และการใช้เหตุผลที่มีประสบการณ์ดูเป็นอย่างไรเปรียบเทียบ นี่ไม่ใช่การบรรยายที่จัดขึ้นในห้องเรียนหลังจากนั้นหลายสัปดาห์ นี่คือคำอธิบายแบบเรียลไทม์ของความล้มเหลวเฉพาะที่ผู้เริ่มต้นสนใจอยู่แล้ว การวิจัยพื้นฐานของ K. Anders Ericsson เกี่ยวกับ deliberate practice ตั้งแต่ 1993 จนถึงการเสียชีวิตของเขาในปี 2020 ได้สร้างความเข้าใจว่าข้อเสนอแนะต้องทันที เฉพาะเจาะจง และส่งโดยคนที่สามารถจำลองการปฏิบัติของผู้เชี่ยวชาญได้ ข้อเสนอแนะทั่วไป — "ดีมาก" หรือ "ต้องปรับปรุง" — แทบไม่ทำอะไร ข้อเสนอแนะในบริบทเกี่ยวกับความล้มเหลวที่รู้สึกได้จัดโครงสร้างแบบจำลองทางจิตของผู้เรียนใหม่

ขั้นตอนที่ 4: การทำซ้ำภายใต้การดูแลด้วยความหลากหลาย

ผู้เริ่มต้นพบหมวดหมู่ของปัญหาเดียวกันอีกและอีก แต่ไม่เหมือนเดิม การทำซ้ำแต่ละครั้งแตกต่างกันเล็กน้อย ผู้เริ่มต้นเริ่มพัฒนา libraries รูปแบบ — ไม่ใช่กฎที่พวกเขาสามารถอธิบายได้ แต่ความรู้สึกของความคล้ายคลึงและความแตกต่างที่ทำงานเร็วกว่าความคิดที่มีสติ แบบจำลอง Recognition-Primed Decision ของ Gary Klein ที่พัฒนาจากการศึกษาภาคสนามของนักดับเพลิง ผู้บัญชาการทหาร และพยาบาลหอผู้ป่วยวิกฤตตลอดทศวรรษ 1990 และ 2000 แสดงให้เห็นว่าผู้เชี่ยวชาญไม่ได้ตัดสินใจโดยการเปรียบเทียบตัวเลือกกับเกณฑ์ พวกเขารู้จักสถานการณ์ว่าเป็นของรูปแบบที่พวกเขาเคยพบมาก่อนและจำลองการตอบสนองที่พบบ่อยที่สุดไปข้างหน้าตามเวลาเพื่อตรวจหาปัญหา libraries รูปแบบนี้ไม่สามารถสอนได้ มันสามารถเติบโตได้เท่านั้น — ผ่านการทำซ้ำด้วยความหลากหลาย ภายใต้เงื่อนไขของผลที่ตามมาจริง

ขั้นตอนที่ 5: ความมั่นใจที่ปรับแล้ว

หลังจากรอบของข้อผิดพลาด ข้อเสนอแนะ และการปฏิบัติที่ปรับแล้วเพียงพอ ผู้เริ่มต้นพัฒนาสิ่งที่มีค่าและหายาก: ความรู้สึกที่แม่นยำของสิ่งที่พวกเขารู้และสิ่งที่พวกเขาไม่รู้ นักจิตวิทยาเรียกสิ่งนี้ว่า metacognitive calibration การวิจัยของ Dunning และ Kruger (1999) ซึ่งมักถูกทำให้ง่ายเกินไปในวัฒนธรรมยอดนิยม จริงๆ แล้วแสดงให้เห็นสิ่งที่เฉพาะเจาะจงมาก: คนที่มีทักษะต่ำในโดเมนประเมินความสามารถของตนเองสูงเกินไปอย่างเป็นระบบเพราะพวกเขาขาดความรู้ที่จำเป็นในการรู้จักขอบเขตของความรู้ของตน การแก้ไขไม่ใช่ข้อมูลเพิ่มเติม มันคือประวัติศาสตร์ส่วนตัวของการผิดและค้นพบว่าคุณผิด — หลายครั้งเพียงพอ ผ่านความหลากหลายเพียงพอ ที่คุณพัฒนาสัญญาณภายในที่เชื่อถือได้สำหรับขอบเขตของความสามารถของคุณ สิ่งนี้ไม่สามารถทำให้สั้นลงได้ AI ที่ป้องกันคุณจากการประสบความล้มเหลวที่จะสอนคุณว่าการตัดสินใจของคุณอ่อนแอที่ไหนทำให้คุณไม่มีทางรู้ว่าคุณไม่รู้อะไร คุณรู้สึกเหมือนผู้เชี่ยวชาญ คุณแสดงเหมือนผู้เชี่ยวชาญ จนกว่าสถานการณ์ใหม่จะมาถึง

ขั้นตอนที่ 6: การตัดสินใจแบบอาชีพอิสระ

ผู้ปฏิบัติการสามารถทำงานได้อย่างอิสระแล้ว พวกเขาตัดสินใจภายใต้ความไม่แน่นอน พวกเขารู้จักสถานการณ์ใหม่ว่าใหม่อย่างแท้จริงแทนที่จะบังคับให้เข้าหมวดหมู่ที่คุ้นเคย พวกเขารู้ว่าเมื่อไหร่ควรขอความช่วยเหลือ พวกเขาสามารถทำหน้าที่เป็นผู้ให้ข้อเสนอแนะขั้นตอนที่ 3 สำหรับรุ่นถัดไป pipeline สมบูรณ์ ผู้เชี่ยวชาญใหม่มีอยู่ในโลก — และที่สำคัญ พี่เลี้ยงใหม่มีอยู่เพื่อรักษา pipeline สำหรับผู้ที่ตามมา

ระยะเวลาที่ Pipeline ใช้

ขั้นตอนเหล่านี้ไม่สามารถบีบอัดให้เหลือน้อยกว่าช่วงเวลาที่ลดรูปไม่ได้อีกแล้ว สมองมนุษย์ต้องการการทำซ้ำ ความหลากหลาย ความผิดพลาด และการเข้ารหัสทางอารมณ์ เพื่อสร้างคลังรูปแบบและการปรับเทียบ metacognitive ที่ประกอบเป็นความเชี่ยวชาญที่แท้จริง

ในการผ่าตัด ระยะเวลาขั้นต่ำคือ 5–7 ปีของ residency และ fellowship หลังจากเรียนจบแพทย์ การศึกษาในปี 2014 ใน Annals of Surgery พบว่าความสามารถทางเทคนิคขั้นพื้นฐาน — ความสามารถในการทำหัตถการ — โดยทั่วไปจะเกิดขึ้นภายใน 2–3 ปี แต่การตัดสินใจว่าเมื่อไหร่ควรผ่าตัด เมื่อไหร่ควรรอ และเมื่อไหร่ควรเปลี่ยนจาก laparoscopic เป็น open ต้องใช้ระยะเวลาฝึกอบรมเต็มและบางครั้งมากกว่า การวิจัยเกี่ยวกับ learning curves ในการผ่าตัดแสดงให้เห็นซ้ำแล้วซ้ำเล่าว่าความเชี่ยวชาญในหัตถการเฉพาะมักต้องการเคสที่มีการดูแลหลายสิบถึงหลายร้อยเคส

ในด้าน cybersecurity SANS Institute ประเมินว่าการพัฒนานักวิเคราะห์ที่สามารถทำ threat hunting อิสระ — ไม่ใช่เพียงการจัดลำดับความสำคัญของการแจ้งเตือน แต่เป็นการใช้เหตุผลเชิงปฏิปักษ์ที่แท้จริง — ต้องใช้เวลา 3–5 ปีของการทำงานจริงใน Security Operations Center รวมถึงการสัมผัสกับเหตุการณ์ปกติหลายพันเหตุการณ์ที่สร้างความรู้สึกพื้นฐานเกี่ยวกับสิ่งที่ "ปกติ" มีลักษณะอย่างไร

ในกฎหมาย การศึกษาระยะยาวของ American Bar Foundation เรื่อง After the JD ติดตามทนายความเป็นเวลา 12 ปี และพบว่าการเปลี่ยนแปลงจาก "นักกฎหมายที่มีความสามารถ" เป็น "ที่ปรึกษาที่น่าเชื่อถือซึ่งสามารถใช้วิจารณญาณอิสระในเรื่องซับซ้อน" เกิดขึ้นโดยเฉลี่ยระหว่างปีที่ 7 และ 10 ของการประกอบอาชีพ

ในวิศวกรรมโครงสร้าง รายงานในปี 2019 โดย Institution of Structural Engineers พบว่าวิศวกรที่สามารถทำหน้าที่เป็นผู้ออกแบบที่รับผิดชอบ — ผู้เชี่ยวชาญที่ลายเซ็นรับรองว่าอาคารจะไม่ถล่ม — ต้องการอย่างน้อย 7 ปีของการฝึกปฏิบัติภายใต้การแนะนำหลังจากจบการศึกษาทางวิชาการ

ในการสอน meta-analysis โดย Kini และ Podolsky (2016) ที่ Learning Policy Institute สังเคราะห์การศึกษา 30 เรื่อง และพบว่าประสิทธิภาพของครูเพิ่มขึ้นอย่างรวดเร็วในช่วงปีที่ 3–5 และยังคงพัฒนาต่อไปอย่างน้อยจนถึงปีที่ 10 โดยมีการปรับปรุงที่สำคัญที่สุดในความสามารถในการวินิจฉัยความเข้าใจผิดของนักเรียนแบบ real time และปรับการสอนตาม — รูปแบบหนึ่งของวิจารณญาณทางวิชาชีพที่คล้ายคลึงกับการใช้เหตุผลทางคลินิกในแพทยศาสตร์

ในการวิเคราะห์ทางการเงิน CFA Institute ยอมรับว่ากระบวนการสอบ 3 ปีทดสอบความรู้ แต่การตัดสินใจในการลงทุน — ความสามารถในการแยกแยะสัญญาณจากสัญญาณรบกวนในข้อมูลที่คลุมเครือ — ต้องการประสบการณ์ตลาดโดยตรงเพิ่มเติม 3–5 ปี การศึกษาในปี 2021 โดย Demiroglu และ Ryngaert ใน Journal of Financial Economics พบว่านักวิเคราะห์ที่เคยผ่านอย่างน้อย 1 วงจรตลาดเต็ม (ประมาณ 7–10 ปี) สามารถสร้างการคาดการณ์ที่แม่นยำกว่าอย่างมีนัยสำคัญในช่วงที่มีความผันผวนสูงเมื่อเปรียบเทียบกับผู้ที่ไม่เคยผ่าน

ช่วงเวลาเหล่านี้ไม่ได้เป็นไปตามอำเภอใจ ไม่ได้เป็นผลผลิตของประเพณีหรือการป้องกันการเข้าถึง เป็นเวลาที่ต้องการสำหรับ 6 ขั้นตอนของ The Judgment Pipeline ให้เสร็จสิ้นในสมองมนุษย์

และในแต่ละสาขา AI กำลังกำจัดขั้นตอนแรกๆ — ขั้นตอนที่ 1 ถึง 3 — ภายใต้สมมติฐานว่ามันเป็นความไม่มีประสิทธิภาพมากกว่าโครงสร้างพื้นฐาน


ส่วนที่ II: Pipeline กำลังแตก — ทีละสาขา

ความขัดแย้งเชิงโครงสร้างที่เป็นหัวใจของวิกฤตนี้นั้นง่ายและทำลายล้างมาก: งานที่ถูกทำให้เป็นอัตโนมัติก่อนมักเป็นงานที่สำคัญที่สุดสำหรับการพัฒนาความเชี่ยวชาญ

นี่ไม่ใช่เรื่องบังเอิญ เป็นผลโดยตรงจากวิธีที่องค์กรคิดเกี่ยวกับระบบอัตโนมัติ พวกเขาทำให้งานที่ง่ายที่สุด ซ้ำซากมากที่สุด น่าเบื่อที่สุด และกำหนดไว้ชัดเจนที่สุดเป็นอัตโนมัติ — ซึ่งเป็นงานที่ประกอบเป็นขั้นตอนที่ 1 และ 2 ของ The Judgment Pipeline งานที่ดูเหมือนงานหนักน่าเบื่อสำหรับผู้จัดการที่วัดผลผลิต กลับเป็นงานที่ทำหน้าที่เป็นรากฐานของการพัฒนาความเชี่ยวชาญสำหรับคนที่ปฏิบัติ

| สาขา | งานที่ถูกทำให้เป็นอัตโนมัติก่อน | หน้าที่ของงานเหล่านั้นใน Pipeline |

|-------|----------------------------|----------------------------------|

| Cybersecurity | การจัดลำดับความสำคัญของการแจ้งเตือนระดับ 1 | การรับรู้รูปแบบสำหรับปกติเทียบกับผิดปกติ |

| การผ่าตัด | หัตถการปกติผ่านความช่วยเหลือของหุ่นยนต์; การวินิจฉัยที่ช่วยด้วย AI | ความเข้าใจทางสัมผัสของเนื้อเยื่อ; ความรู้ทางกายวิภาคแบบ 3 มิติ; การใช้เหตุผลทางคลินิก |

| กฎหมาย | การตรวจสอบเอกสาร การวิจัยกฎหมายเบื้องต้น การวิเคราะห์สัญญา | คลังรูปแบบข้อเท็จจริง; การอ่านเพื่อหาสิ่งที่ขาดหายไป; สัญชาตญาณเรื่องความเสี่ยง |

| วิศวกรรม | การคำนวณปกติ การสร้างโค้ด การตั้งค่าการจำลอง | ความเข้าใจเหตุผลที่โค้ดและข้อจำกัดมีอยู่; สัญชาตญาณเชิงโครงสร้างและระบบ |

| การวิเคราะห์ทางการเงิน | การรวบรวมข้อมูล การกรอกข้อมูลในโมเดล การวิเคราะห์เบื้องต้น สรุปผลประกอบการ | การตัดสินคุณภาพข้อมูล; การตั้งสมมติฐาน; ความสงสัยภายใต้แรงกดดัน |

| การสอน | การวางแผนบทเรียน การสร้างการประเมิน การให้คะแนน การแบ่งระดับ | ความรู้เนื้อหาทางการศึกษา; ความเข้าใจว่านักเรียนคิดจริงอย่างไร |

ในทุกกรณี งานที่ถูกทำให้เป็นอัตโนมัติคืองานที่ผู้เริ่มต้นต้องทำได้ไม่ดี ทำซ้ำ พร้อมคำติชม เพื่อพัฒนาวิจารณญาณที่ทำให้พวกเขาปลอดภัยในการฝึกฝนอย่างอิสระ ในทุกกรณี ระบบอัตโนมัติได้รับการพิสูจน์ด้วยผลประโยชน์ด้านผลผลิตที่เป็นจริงและได้ผลทันที ในทุกกรณี ต้นทุนการพัฒนาความเชี่ยวชาญถูกเลื่อนออกไป ไม่ได้ถูกวัด และสะสมขึ้น

Cybersecurity: นักวิเคราะห์ที่ไม่เคยเรียนรู้ว่า "ปกติ" มีลักษณะอย่างไร

นักวิเคราะห์ Security Operations Center ระดับเริ่มต้นในปี 2019 ใช้เวลาปีแรกในการทำสิ่งที่อุตสาหกรรมเรียกว่า Level 1 Triage: อ่านการแจ้งเตือนดิบจากระบบ SIEM ตรวจสอบแต่ละรายการด้วยตนเอง กำหนดว่าเป็น false positive หรือตัวบ่งชี้การละเมิดที่แท้จริง และ escalate เมื่อเหมาะสม นี่เป็นงานที่น่าเบื่อ ซ้ำซาก นี่ก็เป็นขั้นตอนที่ 1 และ 2 ของ The Judgment Pipeline ที่ทำงานอย่างต่อเนื่อง — หลายพันชั่วโมงของการสัมผัสกับความแตกต่างระหว่างพฤติกรรมเครือข่ายปกติและร่องรอยที่อ่อนที่สุดของสิ่งที่ผิดปกติ

ภายในปี 2024 แพลตฟอร์ม SIEM หลักหลายตัว — รวมถึง Microsoft Sentinel, Splunk, และ Google Chronicle — ได้รวม AI-powered auto-triage ที่แก้ไขการแจ้งเตือน Level 1 ได้ 60–90% โดยไม่ต้องมีมนุษย์เข้าไปเกี่ยวข้อง การสำรวจของ SANS Institute ในเดือนมีนาคม 2024 พบว่า 58% ของทีม SOC กำลังใช้ AI-assisted alert triage ในรูปแบบใดรูปแบบหนึ่ง Mean time to detect ได้ปรับปรุงแล้ว อัตรา false positive ลดลงอย่างมาก จากทุกเมตริกที่วัดในปัจจุบัน AI triage เป็นความสำเร็จที่ไม่ต้องสงสัย

แต่นักวิเคราะห์ระดับเริ่มต้นที่ถูกจ้างมายัง SOC เหล่านั้นในปี 2023 และ 2024 ไม่ได้ทำ Level 1 Triage พวกเขากำลังตรวจสอบสรุปที่ประมวลผลโดย AI พวกเขาไม่ได้นั่งกับข้อมูลที่คลุมเครือ พวกเขาไม่ได้พัฒนาสิ่งที่ผู้ปฏิบัติที่มีประสบการณ์อธิบายว่า "ความรู้สึกในใจสำหรับความเป็นอันตราย" พวกเขาเริ่มต้นที่สิ่งที่เคยเป็น Level 2 — การตรวจสอบการแจ้งเตือนที่ถูกกรองไว้ล่วงหน้าซึ่ง AI ได้จัดประเภทว่าน่าจะสำคัญ — โดยไม่มีรากฐานที่ทำให้การทำงานใน Level 2 มีความหมาย

SOC director คนหนึ่งที่บริษัทบริการทางการเงิน Fortune 500 อธิบายแบบนี้: "พนักงานที่จ้างในปี 2024 เร็วกว่าพนักงานที่จ้างในปี 2019 ในช่วงระยะเดียวกัน พวกเขาปิด tickets เร็วกว่า dashboard ของพวกเขาดูดี แต่เมื่อฉันให้พวกเขาทำ tabletop exercise กับสถานการณ์ภัยคุกคามใหม่ — สิ่งที่ AI ไม่เคยเห็น — พวกเขากลัว พวกเขาไม่รู้ว่าต้องมองหาอะไร เพราะพวกเขาไม่เคยเรียนรู้ว่าปกติมีลักษณะอย่างไร พวกเขาเรียนรู้ว่าสิ่งที่ AI คิดว่าผิดปกติมีลักษณะอย่างไร ซึ่งเป็นสิ่งที่แตกต่างโดยสิ้นเชิง"

นี่คือสิ่งที่เราเรียกว่า The Pre-Triaged Analyst Effect: นักวิเคราะห์รุ่นใหม่จะกลายเป็นผู้เชี่ยวชาญในการจัดการกรณีที่ระบบกำหนดกรอบไว้เป็นอย่างดีแล้ว แต่สูญเสียความสามารถในการสังเกตเห็นเมื่อกรอบนั้นผิดเอง รายงาน Data Breach Investigations Report ประจำปีของ Verizon แสดงให้เห็นซ้ำแล้วซ้ำเล่าว่าการละเมิดข้อมูลขนาดใหญ่มักถูกพลาดไป ไม่ใช่เพราะขาดเครื่องมือ แต่เพราะสัญญาณที่ละเอียดอ่อนถูกละเลย ความสัมพันธ์ไม่ถูกเชื่อมโยง และพฤติกรรมผิดปกติถูกทำให้เป็นเรื่องปกติ ส่วนที่ยากที่สุดของการป้องกันไม่ใช่การเก็บรวบรวมข้อมูล แต่คือการรับรู้ความสำคัญ เมื่อรุ่นอาวุโสที่รอดชีวิตจาก WannaCry, SolarWinds และ Log4Shell เกษียณอายุไปในทศวรรษหน้า เราจะเผชิญกับ The Expertise Debt แบบตรงๆ — SOC ที่ทำงานได้อย่างสวยงามภายใต้เงื่อนไขที่รู้จักและล่มสลายภายใต้เงื่อนไขใหม่ๆ

ศัลยกรรม: หมอที่ไม่เคยเป็นเจ้าของการวินิจฉัยแยกโรค

ปีแรกๆ ของแพทย์ประจำบ้านศัลยกรรมทั่วไปในประวัติศาสตร์มักรวมถึงการทำงานหนักเป็นเวลานานในการถือเครื่องมือดึงระหว่างการผ่าตัดแบบเปิด การผ่าตัดไส้ติ่งและถุงน้ำดีแบบประจำนับร้อยครั้ง และการพัฒนาความเข้าใจสามมิติของกายวิภาคศาสตร์ที่มีชีวิตซึ่งไม่มีตำราหรือการจำลองใดสามารถจำลองได้อย่างสมบูรณ์ พวกเขาเฝ้าดูพฤติกรรมของเนื้อเยื่อภายใต้แรงตึง พวกเขาเห็นว่าการเลือดออกเกิดขึ้นอย่างไรในเวลาจริง พวกเขารู้สึกถึงความแตกต่างระหว่างเนื้อเยื่อที่สุขภาพดีและเนื้อเยื่อที่เป็นโรคด้วยมือของตัวเอง นี่คือการเรียนรู้แบบ Stage 1 immersion — การเรียนรู้การรับรู้โดยไม่มีความช่วยเหลือภายใต้เงื่อนไขของการให้ความสนใจและผลที่ตามมาสูงสุด

ระบบศัลยกรรมหุ่นยนต์ โดยเฉพาะแพลตฟอร์ม da Vinci ของ Intuitive Surgical ได้เปลี่ยนแปลงหลายสาขาความเชี่ยวชาญ ภายในปี 2023 ระบบนี้ถูกใช้ในการผ่าตัดประมาณ 1.6 ล้านครั้งทั่วโลก ผลลัพธ์ของผู้ป่วยได้รับการปรับปรุงในหลายประเภทของการผ่าตัด การสูญเสียเลือดลดลง การนอนในโรงพยาบาลสั้นลง เทคโนโลยีนี้น่าทึ่งอย่างแท้จริง

แต่เส้นทางการฝึกอบรมได้เปลี่ยนไป การศึกษาในปี 2022 โดย George, Strauss และคณะ ใน JAMA Surgery พบว่าแพทย์ประจำบ้านที่ฝึกอบรมหลักๆ ในระบบหุ่นยนต์แสดงการเรียนรู้ความเชี่ยวชาญทางเทคนิคที่เร็วขึ้นสำหรับขั้นตอนมาตรฐาน แต่แสดงความสามารถที่ลดลงในการเปลี่ยนเป็นศัลยกรรมแบบเปิดเมื่อเกิดภาวะแทรกซ้อน บทความปัญหาในปี 2023 ใน British Journal of Surgery เตือนอย่างชัดเจนว่าผู้ฝึกหัดศัลยกรรมรุ่นปัจจุบันเตรียมพร้อมน้อยกว่าในการจัดการกับวิกฤตระหว่างการผ่าตัดที่ต้องการการเปลี่ยนเป็นเทคนิคแบบเปิด "เรากำลังฝึกศัลยแพทย์ที่เป็นผู้ควบคุมคอนโซลที่ยอดเยี่ยม" ผู้เขียนเขียน "และเราควรถามว่าเกิดอะไรขึ้นเมื่อคอนโซลไม่สามารถแก้ปัญหาได้"

ในเวลาเดียวกัน เครื่องมือวินิจฉัยด้วย AI กำลังปรับปรุงไปป์ไลน์ทางปัญญา เมื่อ AI ให้การวินิจฉัยที่น่าจะเป็นไปได้ก่อนที่ผู้เรียนจะสร้างความประทับใจของตัวเอง มันสร้างสิ่งที่เราเรียกว่า The Borrowed Differential Phenomenon: ผู้เรียนกลายเป็นผู้เชี่ยวชาญในการประเมินการวินิจฉัยที่ AI แนะนำโดยไม่ได้พัฒนาความสามารถในการสร้างสรรค์อย่างเต็มที่เพื่อสร้างมันขึ้นมาด้วยตัวเอง ในกรณีที่ตรงไปตรงมา การประเมินข้อเสนอแนะอาจเพียงพอ ในการนำเสนอที่หายากหรือไม่ธรรมดา — กรณีที่ข้อผิดพลาดในการวินิจฉัยฆ่า — มันไม่เพียงพอ รายงานของ U.S. National Academies ปี 2015 เรื่อง Improving Diagnosis in Health Care สรุปว่าคนส่วนใหญ่จะประสบกับข้อผิดพลาดในการวินิจฉัยอย่างน้อยหนึ่งครั้งในชีวิต เครื่องมือที่ดีกว่าสามารถช่วยได้ แต่หากเครื่องมือเหล่านั้นลดการก่อตัวของการใช้เหตุผลทางคลินิก พวกมันอาจปรับปรุงประสิทธิภาพในกรณีเฉลี่ยในขณะที่ทำให้ความยืดหยุ่นที่สำคัญที่สุดที่ขอบแคว้นอ่อนแอลง

รู้สึกถึงน้ำหนักของเรื่องนี้: ศัลยแพทย์หนุ่มที่เก่งในอัลกอริทึมและคอนโซลหุ่นยนต์ เผชิญกับการเลือดออกจากหลอดเลือดแดงที่ไม่คาดคิดระหว่างที่ควรเป็นขั้นตอนประจำ ระบบนำทางของหุ่นยนต์ไม่มีโปรโตคอลสำหรับความแปรปรวนทางกายวิภาคศาสตร์นี้ อาจารย์แพทย์ที่น่าจะรู้ว่าต้องทำอย่างไรได้เกษียณไปปีที่แล้ว ครอบครัวของผู้ป่วยจะไม่เคยรู้ว่าความล้มเหลวที่แท้จริงเกิดขึ้นเมื่อหลายปีก่อน เมื่อไปป์ไลน์การฝึกอบรมถูกทำให้กลวงในนามของประสิทธิภาพ

กฎหมาย: ผู้ช่วยที่ไม่เคยเรียนรู้ที่จะอ่านสิ่งที่ขาดหายไป

เส้นทางดั้งเดิมของผู้ช่วยทนายความคดีความใหม่เกี่ยวข้องกับการทบทวนเอกสาร — การอ่านเอกสารการสืบพยานหลายพันหน้าเพื่อระบุเอกสารที่เกี่ยวข้อง การสื่อสารที่ได้รับสิทธิพิเศษ และพยานหลักฐานที่เป็นไปได้ สิ่งนี้ถูกมองว่าเป็นส่วนที่เลวร้ายที่สุดของการเป็นทนายความหนุ่ม นี่ยังเป็นกระบวนการที่ทนายความรุ่นใหม่เรียนรู้ที่จะอ่านเหมือนทนายความ: สังเกตประโยคที่ขัดแย้งกับคำให้การ รับรู้อีเมลที่สร้างไทม์ไลน์ที่ฝ่ายตรงข้ามต้องการปิดบัง พัฒนาการรับรู้รูปแบบที่ในที่สุดกลายเป็นความสามารถของหุ้นส่วนอาวุโสที่จะเดินเข้าไปในห้อง อ่านสัญญา และพูดว่า "ปัญหาอยู่ในส่วน 4.3(b)" ภายใน 20 นาที

เครื่องมือทบทวนเอกสารที่ขับเคลื่อนด้วย AI — aiR ของ Relativity, Harvey, CoCounsel และอื่นๆ — ได้ลดเวลาทบทวนครั้งแรกลง 60-80% ตามการศึกษาของ Thomson Reuters Institute ปี 2023 ผู้ช่วยถูกย้ายไปยังการร่าง การปฏิสัมพันธ์กับลูกค้า และกลยุทธ์เร็วขึ้น สิ่งนี้ฟังดูเหมือนความก้าวหน้า

แต่รายงานของ Georgetown Law Center ปี 2024 ตั้งข้อสังเกตด้วยความกังวลว่าผู้ช่วยรุ่นใหม่มาถึงขั้นตอน "ที่ปรึกษาที่เชื่อถือได้" ด้วยการสัมผัสกับวัสดุข้อเท็จจริงดิบที่น้อยลงอย่างมีนัยสำคัญ "ทักษะการอ่านสิ่งที่ขาดหายไป" หุ้นส่วนอาวุโสคนหนึ่งบอกกับนักวิจัยของ Georgetown "ไม่สามารถสอนได้โดยการทบทวนสรุปที่สร้างขึ้นโดย AI ของสิ่งที่มีอยู่" ข้อมูลระยะยาวของ American Bar Foundation แสดงให้เห็นว่าผู้ช่วยที่กลายเป็นทนายความคดีความที่มีประสิทธิภาพที่สุดในระดับอาวุโสคือผู้ที่ใช้เวลามากที่สุดในการทบทวนเอกสารในช่วงต้นของอาชีพ — ไม่ใช่เพราะการทบทวนเอกสารมีคุณค่าในตัว แต่เพราะมันเป็นที่ที่พวกเขาสร้างไลบรารีรูปแบบข้อเท็จจริงที่ให้ข้อมูลทุกอย่างหลังจากนั้น

นี่คือ The First-Draft Displacement Effect ที่ทำงาน: การลบงานทางปัญญาที่แน่นอนซึ่งทนายความสร้างความสามารถในการระบุปัญหา โครงสร้างการโต้แย้ง และสัญชาตญาณความเสี่ยง ในปี 2023 ทนายความในศาลกลางยื่นสำนวนอ้างคดีที่ไม่มีอยู่จริงที่สร้างขึ้นโดย ChatGPT — การสาธิตต่อสาธารณะที่น่าอับอายว่าผลงาน AI ที่ขัดเกลาสามารถปิดบังสาระที่ปลอมได้ แต่ความเสี่ยงที่ใหญ่กว่านั้นละเอียดอ่อนกว่าการอ้างอิงปลอม มันคือรุ่นของทนายความที่หยุดพัฒนาสัญชาตญาณสำหรับที่ที่การโต้แย้งเปราะบาง ที่ที่ห่วงโซ่การอ้างอิงน่าสงสัย หรือที่ที่วลีในสัญญาสร้างความรับผิดชอบที่เกิดขึ้นในภายหลังที่จะไม่ปรากฏเป็นเวลาหลายปี

วิศวกรรม: ผู้สร้างที่ไม่เคยเรียนรู้จากความล้มเหลว

การตัดสินใจทางวิศวกรรมไม่ใช่เพียงทักษะการคำนวณ มันคือความเข้าใจที่หลอมรวมของวิธีที่ระบบทำงานภายใต้เงื่อนไขของโลกแห่งความเป็นจริง โดยเฉพาะเงื่อนไขที่โมเดลไม่ได้ทำนายไว้ ความเข้าใจนี้ถูกสร้างผ่านการสัมผัสกับข้อจำกัด ความล้มเหลว และการแลกเปลี่ยนที่ไม่มีตำราหรือระบบ AI ใดเข้าใจอย่างเต็มที่

ปีแรกๆ ของวิศวกรโครงสร้างรุ่นใหม่แบบดั้งเดิมเกี่ยวข้องกับการทำการคำนวณด้วยมือหรือด้วยซอฟต์แวร์พื้นฐาน การตรวจสอบงานกับรหัสการออกแบบ และให้วิศวกรอาวุโสตรวจสอบการคำนวณที่อธิบายไม่เพียงข้อผิดพลาดแต่เหตุผลเบื้องหลังข้อกำหนดรหัส เครื่องมือออกแบบที่ได้รับการช่วยเหลือจาก AI — รวมถึงการออกแบบสร้างสรรค์ของ Autodesk, การเติมโค้ดที่ขับเคลื่อนด้วย AI และแพลตฟอร์มจำลองอัตโนมัติ — ตอนนี้สามารถสร้างการออกแบบที่ตรงตามข้อกำหนดรหัสด้วยการป้อนข้อมูลจากมนุษย์น้อยที่สุด รายงาน McKinsey ปี 2023 ประมาณว่า generative AI สามารถทำให้การคำนวณประจำและการตรวจสอบรหัส 40-60% ที่วิศวกรรุ่นใหม่ทำในปัจจุบันเป็นแบบอัตโนมัติ

ในวิศวกรรมซอฟต์แวร์ การยอมรับก้าวไปข้างหน้ามากกว่านั้น GitHub รายงานว่านักพัฒนาที่ใช้ Copilot ยอมรับข้อเสนอแนะโค้ดที่สร้างโดย AI มากถึง 46% ของเวลา วิศวกรรุ่นใหม่ที่เคยใช้เวลา 48 ชั่วโมงล่า memory leak หนึ่งตัวหรือดีบั๊ก concurrency issue — และเรียนรู้ตรรกะโครงสร้างของระบบไปด้วย — ตอนนี้ได้รับโซลูชันที่ทำงานได้ในไม่กี่วินาที

ผลลัพธ์คือสิ่งที่เราเรียกว่า The Simulation of Competence Trap: วิศวกรดูเหมือนมีผลิตภาพสูงมากเพราะระบบรอบตัวพวกเขามีความสามารถในการสร้างสรรค์สูง แต่เมื่อการผลิตล้มเหลวในรูปแบบใหม่ — วัสดุที่ทำตัวไม่ตามที่คาดหวังภายใต้การรับน้ำหนักที่ทำให้เหนื่อยล้า ระบบกระจายที่พบกับการแยกเครือข่ายที่โมเดลไม่ได้คาดการณ์ไว้ รูปแบบการสั่นสะเทือนที่ปรากฏขึ้นในสภาพการใช้งานจริงเท่านั้น — พวกเขาขาดโมเดลภายในที่จำเป็นสำหรับการใช้เหตุผลจากหลักการพื้นฐาน

รายงานของ Institution of Structural Engineers ปี 2019 เกี่ยวกับการพัฒนาอาชีพได้เตือนไว้ก่อนกระแส AI ปัจจุบันว่า การลดลงใดๆ ในประสบการณ์การคำนวณด้วยตนเองจะ "ทำลายการพัฒนาของการตัดสินใจทางวิศวกรรมที่ไม่สามารถทำซ้ำได้ด้วยเครื่องมือคำนวณเพียงอย่างเดียว" Generative AI ได้เร่งความกังวลนี้เพิ่มขึ้นหลายเท่า

ประวัติศาสตร์วิศวกรรมให้คำเตือนที่รุนแรง การพังทลายของสะพาน Tacoma Narrows การให้รังสีเกินขนาดของ Therac-25 ภัยพิบัติ Challenger วิกฤต Boeing 737 MAX — แต่ละเหตุการณ์มีสาเหตุใกล้เคียงที่แตกต่างกัน แต่ทั้งหมดเน้นย้ำความจริงเดียวกัน: ระบบจะล้มเหลวอย่างรุนแรงเมื่องานทางเทคนิคสูญเสียการเชื่อมต่อกับการตัดสินใจของมนุษย์ที่มีมูลฐาน การคัดค้านอย่างมีข้อมูล และความเข้าใจจากประสบการณ์จริงเกี่ยวกับผลที่ตามมา AI จะไม่เป็นสาเหตุโดยตรงของความล้มเหลวครั้งต่อไป แต่หากมันทำให้การก่อตัวของคนที่ควรจะป้องกันไว้อ่อนแอลง มันก็กลายเป็นส่วนหนึ่งของห่วงโซ่เหตุผล

Financial Analysis: นักวิเคราะห์ที่สามารถสร้างโมเดลทุกอย่างได้ยกเว้นความเป็นจริง

ปีแรกๆ ของนักวิเคราะห์ทางการเงินรุ่นเยาว์เกี่ยวข้องกับการสร้างโมเดลตั้งแต่เริ่มต้น: การเติมข้อมูลดิบในสเปรดชีต การระบุความไม่สอดคล้อง การสร้างข้อสมมติ การทดสอบความไว และการนำเสนอข้อสรุปต่อนักวิเคราะห์อาวุโสที่จะสอบถามทุกข้อสมมติ การสอบสวนคือการศึกษา เมื่อกรรมการผู้จัดการถาม "ทำไมคุณใช้อัตราคิดลด 12% แทน 10%?" และนักวิเคราะห์รุ่นเยาว์ไม่สามารถปกป้องตัวเลือกได้ ความไม่สบายใจทางอารมณ์ในช่วงเวลานั้นจะเข้ารหัสบทเรียนเกี่ยวกับความเข้มงวดที่ไม่มีเครื่องมือใดทำซ้ำได้

ความสามารถ AI ของ Bloomberg Terminal เครื่องมือภายในของ JPMorgan ระบบที่ใช้ GPT-4 ของ Morgan Stanley และแพลตฟอร์ม fintech หลายสิบแห่งขณะนี้ทำให้การสร้างแบบจำลองทางการเงิน การรวบรวมข้อมูล และการวิเคราะห์เบื้องต้นเป็นแบบอัตโนมัติในส่วนสำคัญ การสำรวจของ Accenture ปี 2024 พบว่า 75% ของบริษัทบริการทางการเงินกำลังใช้งานหรือทดลองใช้ generative AI ในขั้นตอนการทำงานของนักวิเคราะห์ Ernst & Young ประเมินว่า AI สามารถทำให้งานสูงถึง 50% ที่นักวิเคราะห์ทางการเงินรุ่นเยาว์ทำเป็นแบบอัตโนมัติภายในสามปี

สิ่งนี้สร้าง The Frictionless Model Illusion: การวิเคราะห์เร็วขึ้นและมีความประณีตมากขึ้นในขณะที่นักวิเคราะห์คุ้นเคยน้อยลงกับข้อสมมติที่ทำให้โมเดลเปราะบาง นักวิเคราะห์รุ่นเยาว์ที่เริ่มอาชีพในปี 2025 จะสร้างโมเดลตั้งแต่เริ่มต้นน้อยลง ใช้เวลากับข้อมูลดิบน้อยลง และมีโอกาสน้อยลงที่จะค้นพบ — ผ่านความผิดพลาดของตนเอง — ว่าแหล่งข้อมูลไม่น่าเชื่อถือหรือว่าแนวโน้มทางประวัติศาสตร์มีจุดแบ่งโครงสร้างที่ทำให้การประมาณแบบง่ายๆ ไม่ถูกต้อง

เรามีแบบอย่างประวัติศาสตร์ที่ทำลายล้าง วิกฤติการเงินปี 2008 ส่วนสำคัญเป็นวิกฤติของหนี้ความเชี่ยวชาญ — คนรุ่นหนึ่งของผู้จัดการความเสี่ยงที่ได้รับการฝึกอบรมจากโมเดลที่สมมติว่าราคาที่อยู่อาศัยไม่สามารถลดลงในระดับประเทศได้ ซึ่งขาดการตัดสินใจในการตระหนักว่าโมเดลผิดเพราะพวกเขาไม่เคยถูกบังคับให้ใช้เหตุผลนอกเหนือจากข้อสมมติของโมเดล โมเดลทำงานจนกระทั่งมันไม่ทำงาน และเมื่อมันไม่ทำงาน ไม่มีคนเพียงพอในห้องที่สามารถคิดจากหลักการพื้นฐาน วัฒนธรรมทางการเงินที่แข็งแรงสร้างนักวิเคราะห์ที่สงสัยในความสง่างาม วัฒนธรรมที่ไม่แข็งแรงสร้างคนที่สามารถอธิบายผลลัพธ์ใดก็ได้หลังจากเกิดขึ้นแล้ว

Teaching: ครูที่ไม่เคยเรียนรู้ที่จะอ่านบรรยากาศ

การศึกษาอาจเป็นกรณีที่สำคัญที่สุด เพราะกระบวนการที่เสี่ยงที่นี่คือกระบวนการเดียวกันที่สังคมใช้ก่อตัวคนรุ่นต่อไปของทุกคนอื่น

ครูพัฒนาความเชี่ยวชาญผ่านวงจรซ้ำๆ ของการวางแผน การจัดการสอน การดูว่ามันได้ผลหรือล้มเหลว การได้รับข้อเสนอแนะจากที่ปรึกษาและจากห้องเรียนเอง และการแก้ไข ภายใน 3-5 ปี ครูที่มีประสิทธิภาพพัฒนาสิ่งที่ Lee Shulman ที่ Stanford ระบุในปี 1986 ว่าเป็น pedagogical content knowledge — ไม่เพียงความเข้าใจในวิชาของพวกเขา แต่ยังรวมถึงความเข้าใจอย่างสัญชาตญาณว่านักเรียนเข้าใจผิดอย่างไร พวกเขาจะติดขัดตรงไหน และการนำเสนอแบบใดจะปลดล็อคความเข้าใจ แนวคิดนี้ได้รับการตรวจสอบในหลายร้อยการศึกษาที่ตามมา

ระบบการสอนพิเศษ AI และเครื่องมือสนับสนุนครู — Khanmigo ของ Khan Academy แพลตฟอร์มของ Carnegie Learning และอื่นๆ อีกหลายแห่ง — ขณะนี้สามารถสร้างแผนการสอน สร้างการประเมิน ให้การสอนที่แตกต่าง และให้ข้อเสนอแนะเกี่ยวกับงานเขียนของนักเรียนได้ เครื่องมือเหล่านี้หลายอย่างให้การบรรเทาที่แท้จริงแก่ครูที่มีภาระงานมากเกินไป

แต่ครูปีแรกที่ได้รับแผนการสอน การประเมิน และข้อเสนอแนะการแทรกแซงที่ AI สร้างขึ้นจะไม่ผ่านวงจรเต็มของ การวางแผนตั้งแต่เริ่มต้น การดูว่ามันล้มเหลว และการหาเหตุผลว่าทำไม สิ่งนี้สร้าง The Pedagogical Outsourcing Effect: ครูจัดส่งสิ่งประดิษฐ์การสอนที่ประณีตมากขึ้นในขณะที่พัฒนาการตัดสินใจเชิงปรับตัวที่จำเป็นสำหรับการตอบสนองต่อห้องเรียนที่มีชีวิตน้อยลง นักเรียนในแถวที่สามไม่สับสนเกี่ยวกับเศษส่วน — พวกเขาสับสนเกี่ยวกับความหมายของเครื่องหมายเท่ากับ และจนกว่าครูจะเรียนรู้ที่จะมองเห็นความแตกต่างนั้นผ่านประสบการณ์ที่ยากลำบากของตนเอง แผนการสอนที่ AI สร้างขึ้นจะไม่แก้ไขมัน

ห้องเรียนคือสนามของอารมณ์ ความสนใจ วัฒนธรรม ความเข้าใจผิด ความเบื่อหน่าย ความกลัว อารมณ์ขัน และการแพร่กระจายทางสังคม ครูที่ยอดเยี่ยมไม่เพียงนำเสนอเนื้อหา พวกเขาอ่านบรรยากาศ พวกเขารู้ว่าเมื่อใดที่บทเรียนสูญหาย เมื่อใดที่ความเงียบของนักเรียนหมายถึงความสับสนหรือความอาย เมื่อใดที่ชั้นเรียนพร้อมที่จะก้าวต่อไป ความสามารถนั้นสร้างขึ้นผ่านการทำซ้ำหลายพันครั้งของงานเดียวกันที่ AI ขณะนี้สัญญาว่าจะจัดการให้

เนื่องจากการสอนกำหนดรูปทุกอาชีพอื่น ๆ การพังทลายที่นี่จึงทำให้ทุกอย่างอื่นแย่ลงไปด้วย


ส่วนที่ III: แบบจำลองการสะสมหนี้ความเชี่ยวชาญ

หากกระบวนการกำลังแตกสลาย เหตุใดระบบจึงยังไม่ล้มเหลว? เพราะเราได้เข้าสู่ช่วงความหน่วงที่ควบคุมโดยสิ่งที่เราเรียกว่า The Expertise Debt Accumulation Model — พลวัตโครงสร้างที่อธิบายว่าองค์กรและอาชีพทั้งหมดสามารถดูเหมือนทำงานได้ปกติ แม้จะรายงานผลิตภาพสถิติ เป็นเวลาหลายปีหลังจากกระบวนการแตกหัก หนี้นั้นมองไม่เห็น มันทบต้นอย่างเงียบงัม และมันครบกำหนดพร้อมกัน

เฟส 1: การสะสมที่มองไม่เห็น (ปีที่ 1-5)

เครื่องมือ AI ถูกใช้งาน ตัวชี้วัดผลิตภาพดีขึ้น ผู้ปฏิบัติงานรุ่นเยาว์ดูเหมือนพัฒนาเร็วขึ้น ผู้ปฏิบัติงานอาวุโสยังคงอยู่และให้การตัดสินใจสำรอง — จับคำพูดที่ AI สร้างขึ้นในการอ้างอิงคดี สังเกตความผิดปกติที่ AI พลาด รู้ว่าเมื่อใดที่ข้อสมมติของโมเดลไม่เป็นจริง องค์กรดูแข็งแรงกว่าที่เคย ไม่มีใครวัดสิ่งที่รุ่นเยาว์ไม่ได้เรียนรู้ เพราะไม่มีตัวชี้วัดสำหรับการก่อตัวของการตัดสินใจ การประเมินผลงานจับผลลัพธ์ พวกเขาไม่จับความลึกของความเข้าใจที่อยู่เบื้องหลัง

เฟส 2: ภาพลวงแห่งความสามารถ (ปีที่ 5-10)

กลุ่มแรกที่ AI ฝึกเข้าสู่ช่วงกลางอาชีพ พวกเขามีตำแหน่งที่บ่งบอกถึงความเชี่ยวชาญ พวกเขามีคุณสมบัติ พวกเขาได้รับการเลื่อนตำแหน่งโดยยึดตัวชี้วัดผลลัพธ์ที่ AI ช่วยให้พวกเขาบรรลุ แต่การตัดสินใจของพวกเขามีช่องว่างที่พวกเขาอาจไม่รู้ตัว — การปรับเทียบ metacognitive ของพวกเขาไม่เคยพัฒนาอย่างเต็มที่เพราะพวกเขาไม่เคยผ่านวงจรข้อผิดพลาดและข้อเสนอแนะที่ไม่ได้ช่วยเหลือเพียงพอเพื่อเรียนรู้ขอบเขตของความสามารถของตนเอง คนรุ่นอาวุโสเริ่มเกษียณ การเกษียณแต่ละครั้งไม่เพียงเอาคนออกไป แต่ยังเป็นโหนดในเครือข่ายข้อเสนอแนะที่รักษากระบวนการที่ยังคงมีอยู่ องค์กรไม่สังเกตเพราะผู้ปฏิบัติงานช่วงกลางอาชีพผลิตผลลัพธ์ที่ยอมรับได้ภายใต้สภาวะปกติ

เฟส 3: หน้าผา (ปีที่ 10-15)

สภาวะที่ผิดปกติมาถึง วิกฤติใหม่ สถานการณ์ที่อยู่นอกการกระจายของการฝึกอบรมของทั้งระบบ AI และผู้ปฏิบัติงานที่ได้รับการฝึกฝนร่วมกัน โรคระบาดใหม่ที่มีอาการผิดปกติ zero-day exploit ที่เป็นช่องโหว่ที่ไม่มีโมเดลใดเคยเห็น เครื่องมือทางการเงินที่ทำตัวในลักษณะที่ข้อมูลในอดีตไม่เคยคาดการณ์ รูปแบบความล้มเหลวของโครงสร้างที่อยู่นอกพารามิเตอร์ของการจำลองใด ๆ ห้องเรียนที่เต็มไปด้วยนักเรียนที่มีความต้องการไม่ตรงกับแม่แบบใด ๆ

องค์กรหันไปหาบุคลากรระดับอาวุโสและพบว่าพวกเขาจากไปแล้ว ผู้เชี่ยวชาญระดับกลางที่ควรจะมาแทนที่มีตำแหน่งแต่ไม่มีวิจารณญาณ ระบบ AI เสนอปัญหาขึ้นไปหามนุษย์ มนุษย์ไม่มีสิ่งใดให้ยึดเหนี่ยว

องค์กรล้มเหลว ไม่ใช่อย่างค่อย ๆ แต่อย่างกะทันหัน

ประวัติศาสตร์ที่เป็นแบบอย่าง

พลวัตนี้ไม่ใหม่ — AI เพียงแต่ทำให้มันเป็นสากลและเกิดขึ้นพร้อมกัน

แรงงานวิศวกร NASA ประสบปัญหาเวอร์ชันหนึ่งหลังโครงการ Apollo วิศวกรที่ออกแบบ Saturn V และเข้าใจรูปแบบความล้มเหลวจากประสบการณ์โดยตรงเกษียณอายุผ่านช่วงปี 1980 และ 1990 ความรู้ขององค์กรเกี่ยวกับขีดจำกัดของระบบสึกกร่อน Columbia Accident Investigation Board Report (2003) ระบุอย่างชัดเจนว่าการสูญเสียความเชี่ยวชาญด้านวิศวกรรมและความรู้ขององค์กรเป็นปัจจัยที่ส่งผลต่อภาวะพิบัติที่คร่าชีวิตนักบินอวกาศเจ็ดคน การวิเคราะห์ทางสังคมวิทยาของ Diane Vaughan เกี่ยวกับ Challenger ใน The Challenger Launch Decision (1996) บันทึกไว้ว่าการปกติภาพของความเบี่ยงเบนเป็นไปได้ส่วนหนึ่งเนื่องจากการจากไปของวิศวกรที่มีความรู้แฝงในตัวเกี่ยวกับขีดจำกัดของระบบ

อุตสาหกรรมพลังงานนิวเคลียร์ได้ศึกษาเรื่องนี้ภายใต้ชื่อ "วิกฤติการจัดการความรู้" รายงานของ International Atomic Energy Agency ปี 2021 เตือนว่าการเกษียณอายุของคนรุ่นที่สร้างและเปิดใช้งานเครือข่ายเครื่องปฏิกรณ์ทั่วโลกในปัจจุบัน — ร่วมกับการถ่ายทอดความรู้ที่ไม่เพียงพอ — ถือเป็นความเสี่ยงเชิงระบบต่อความปลอดภัยนิวเคลียร์ทั่วโลก รายงานระบุโดยเฉพาะว่าความรู้แฝงเป็นสิ่งที่ยากที่สุดในการถ่ายทอดและเป็นสิ่งที่สำคัญที่สุดในการสูญเสีย

วิกฤติการเงินปี 2008 แสดงให้เห็นหนี้ความเชี่ยวชาญในอาชีพการจัดการความเสี่ยง โมเดลและมาตรวัดแสดงว่าทุกอย่างเรียบร้อย — จนถึงขณะที่พวกมันแสดงว่าทุกอย่างรุนแรง และมีผู้ปฏิบัติงานน้อยเกินไปที่สามารถให้เหตุผลนอกเหนือจากโมเดล

AI ไม่ได้ทำให้เกิดวิกฤติหนี้ความเชี่ยวชาญครั้งแรก มันทำให้เกิดวิกฤติสากลและพร้อมกันครั้งแรก เพราะมันกระทบทุกสาขาในครั้งเดียว ทำให้ขั้นตอนการพัฒนาเดียวกันเป็นอัตโนมัติในทุกสาขา ในเวลาเดียวกัน


ส่วนที่ IV: ปัญหา Hollow Senior

กรอบที่สามตั้งชื่อจุดวิกฤติ

ปัญหา Hollow Senior อธิบายช่วงเวลาเฉพาะเมื่อองค์กรมองที่แถวอาวุโสและพบคนอาวุโสสองประเภท: Full Seniors ที่ผ่าน The Judgment Pipeline ก่อนยุค AI และ Hollow Seniors ที่ไปถึงตำแหน่งอาวุโสในช่วงยุค AI ด้วยคุณสมบัติ อายุงาน และประวัติผลงานของผู้เชี่ยวชาญ — แต่ไม่ได้ผ่านขั้นตอนการพัฒนาที่สร้างวิจารณญาณแท้จริง

Hollow Senior ไม่ใช่คนไร้ความสามารถ พวกเขาอาจฉลาดมาก ขยันขันแข็ง มีคุณสมบัติ และมีประสิทธิภาพสูงอย่างเห็นได้ชัด พวกเขาอาจมีประสิทธิภาพมากกว่า Full Seniors ภายใต้สภาวะปกติ ความแตกต่างจึงมองเห็นได้เมื่อเครียดเท่านั้น — เมื่อสถานการณ์ใหม่ เมื่อเครื่องมือ AI ล้มเหลวหรือให้ผลลัพธ์ที่ทำให้เข้าใจผิด เมื่อมีคนต้องให้เหตุผลจากหลักการพื้นฐานเกี่ยวกับสิ่งที่ไม่เคยมีใครเห็น

ปัญหา Hollow Senior อันตรายเป็นพิเศษเพราะ Hollow Seniors ไม่รู้ว่าตนเป็นคนกลวง นี่เป็นผลโดยตรงของการวิจัยการปรับเทียบ metacognitive: หาก AI ป้องกันคุณจากการประสบกับความล้มเหลวที่จะสอนให้คุณรู้ว่าวิจารณญาณของคุณอ่อนแอตรงไหน คุณไม่มีสัญญาณภายในสำหรับช่องว่างของตัวเอง คุณรู้สึกเหมือนผู้เชี่ยวชาญ คุณแสดงตัวเหมือนผู้เชี่ยวชาญ การประเมินประสิทธิภาพของคุณยืนยันเรื่องนี้

ปัญหานี้แสดงออกในลักษณะเฉพาะที่จดจำได้:

  • พวกเขาสามารถอนุมัติข้อเสนอแนะแต่ดิ้นรนในการสร้างข้อเสนอแนะจากหลักการพื้นฐาน
  • พวกเขาสามารถวิจารณ์ผลลัพธ์แต่ไม่สามารถตรวจพบความผิดพลาดเฉียบพลันที่มีความเสี่ยงสูงได้อย่างน่าเชื่อถือ
  • พวกเขาสามารถทำตามแบบแผนแต่หยุดนิ่งเมื่อแบบแผนล้มเหลว
  • พวกเขาสามารถใช้เครื่องมืออย่างคล่องแคล่วแต่ไม่สามารถสอนวิจารณญาณพื้นฐานได้
  • พวกเขาสามารถจัดการขั้นตอนการทำงานแต่ไม่สามารถให้คำปรึกษาในการก่อตัว

เราต้องระมัดระวังที่นี่ เพราะกรอบนี้สามารถถูกใช้เป็นอาวุธเป็นการดูหมิ่นคนรุ่นใหม่หรือกลไกการกีดกัน มันไม่ใช่ทั้งสองอย่าง ปัญหา Hollow Senior ไม่ใช่ความเห็นเกี่ยวกับความฉลาด บุคลิก หรือจริยการณ์ในการทำงานของผู้เชี่ยวชาญรุ่นใหม่ มันเป็นการวิจารณ์โครงสร้างของสภาพแวดล้อมที่เราวางพวกเขาไว้ ศัลยแพทย์หนุ่มที่ฉลาดซึ่งได้รับการฝึกฝนเฉพาะในระบบหุ่นยนต์ไม่ได้มีความสามารถน้อยกว่าศัลยแพทย์ที่มีอายุมากกว่าที่ฝึกกับคดีผ่าตัดแบบเปิด พวกเขาเตรียมตัวน้อยกว่าสำหรับหมวดหมู่เฉพาะของวิกฤติเพราะพวกเขาไม่เคยได้รับโอกาสพัฒนาการเตรียมตัวนั้น ความล้มเหลวเป็นของระบบ ไม่ใช่ของคน

แต่ผลที่ตามมาเป็นของผู้ป่วยบนโต๊ะผ่าตัด ของลูกความในห้องพิพากษา ของเมืองท้ายน้ำจากเขื่อน ของนักเรียนในห้องเรียน ของบริษัทที่วางใจเครือข่ายให้กับนักวิเคราะห์ที่อยู่เวรตอนตีสาม


ส่วนที่ V: สิ่งที่การวิจัยบอก

หลักฐานเชิงประจักษ์สำหรับกลไกเหล่านี้แข็งแกร่งและเติบโต โดยอาศัยวิทยาศาสตร์องค์ความรู้ การวิจัยปัจจัยมนุษย์ และการศึกษาเฉพาะ AI ที่เกิดขึ้นใหม่

Generation Effect

การวิจัยนับสิบปีที่เริ่มต้นกับ Slamecka และ Graf (1978) แสดงให้เห็นว่าข้อมูลที่บุคคลสร้างด้วยตนเอง — แม้จะต้องใช้ความพยายามและเกิดข้อผิดพลาด — ถูกเก็บไว้ได้ดีกว่าข้อมูลที่พวกเขารับแบบเฉื่อย เครื่องมือ AI ที่สร้างคำตอบ ร่าง การวินิจฉัย หรือการวิเคราะห์เพื่อให้ผู้ปฏิบัติงานตรวจสอบนั้นไม่เข้ากันกับ Generation Effect ในเชิงโครงสร้าง การตรวจสอบไม่ใช่การสร้าง ความต้องการทางปัญญาแตกต่างกันในระดับหมวดหมู่ และผลการเรียนรู้ตามมาตามนั้น

Automation Complacency และ Bias

บทความพื้นฐานโดย Parasuraman และ Manzey ใน Human Factors (2010) สร้างหลักฐานว่ามนุษย์ที่ใช้เครื่องมือช่วยตัดสินใจอัตโนมัติมีแนวโน้มที่จะมีความประมาทเลินเล่อ — การลดความระแวดระวังและการตรวจสอบอิสระ — แม้จะได้รับการเตือนอย่างชัดเจนเกี่ยวกับความบกพร่องของเครื่องมือช่วย การทำซ้ำปี 2023 โดย Goddard, Regan, และคณะ ที่ใช้เครื่องมือวินิจฉัยที่ขับเคลื่อนด้วย AI พบว่าผลกระทบแข็งแกร่งกว่ากับ AI มากกว่าการอัตโนมัติก่อนหน้า โดยน่าจะเป็นเพราะผลลัพธ์ AI มีความคล่องแคล่วทางภาษาและนำเสนอด้วยความมั่นใจที่เรียกความไว้วางใจ เราถูกโปรแกรมทางชีววิทยาให้เชื่อถือภาษาที่คล่องแคล่ว AI ใช้ประโยชน์จากสิ่งนี้โดยไม่ตั้งใจ

หลักการ Desirable Difficulty

Elizabeth Bjork และ Robert Bjork ใช้เวลาสามทศวรรษรวบรวมหลักฐานว่าสภาวะที่ทำให้การเรียนรู้ยากขึ้นในระยะสั้น — การเว้นระยะ การสลับ การลดข้อเสนอแนะ การบังคับเรียกคืน — ทำให้ความรู้ทนทานและถ่ายทอดได้มากขึ้นในระยะยาว การช่วยเหลือของ AI ทำตรงกันข้าม มันทำให้การเรียนรู้ง่ายขึ้นในระยะสั้นโดยการลดการต่อสู้ ให้คำตอบทันที และกำจัดความจำเป็นในการเรียกคืนจากความจำ ทุกกลไกที่ทำให้ AI เป็นเครื่องมือประสิทธิภาพที่ดีทำให้มันเป็นสภาพแวดล้อมการเรียนรู้ที่แย่

Cognitive Offloading

การศึกษาปี 2020 โดย Dahmani และ Bherer ใน Scientific Reports พบว่าผู้ใหญ่ที่พึ่งพา GPS navigation อย่างหนักแสดงการลดลงที่วัดได้ในสารเทาของ hippocampus — พื้นที่สมองที่รับผิดชอบต่อความจำเชิงพื้นที่ การศึกษาปี 2024 ใน Nature Human Behaviour โดย Luo, Peng, และคณะ เกี่ยวกับ cognitive offloading ไปยังผู้ช่วย AI พบผลกระทบคล้ายคลึงกันต่อความสามารถในการแก้ปัญหาในช่วงเพียงสามเดือน เมื่อระบบภายนอกแบกภาระทางปัญญา ระบบภายในที่สร้างวิจารณญาณอิสระไม่พัฒนา — หรือฝ่อลงอย่างแข็งขัน

Einstellung Effect

การวิจัยเกี่ยวกับการแก้ปัญหาของผู้เชี่ยวชาญโดย Bilalić, McLeod และ Gobet (2008) แสดงให้เห็นว่าผู้เชี่ยวชาญบางครั้งล้มเหลวในการหาวิธีแก้ไขที่เหมาะสมที่สุดเพราะการรู้จำรูปแบบทำให้เกิดการตอบสนองที่คุ้นเคยแต่ไม่เหมาะสมที่สุด การแก้ไข — การเผชิญหน้ากับสถานการณ์ที่รูปแบบคุ้นเคย ล้มเหลว — เป็นสิ่งที่ตรงกับประสบการณ์ข้อผิดพลาดที่ความช่วยเหลือของ AI ป้องกันไว้ หาก AI ให้วิธีแก้ไขที่เหมาะสมที่สุดเสมอ ผู้ปฏิบัติงานจะไม่ค้นพบว่าแนวทางที่เป็นสัญชาตญาณของพวกเขาผิด และไม่เคยอัปเดตไลบรารีรูปแบบของตนเอง

หลักฐานที่เกิดใหม่เกี่ยวกับ AI และทักษะ

หลักฐานการทดลองล่าสุดบางส่วนบ่งชี้ว่าการพึ่งพาเครื่องมือ coding และ writing ของ AI อย่างหนักสามารถเพิ่ม output ได้ขณะเดียวกันก็ลดความสามารถของผู้ใช้ในการจำ อธิบาย หรือสร้างวิธีแก้ไขขึ้นมาใหม่ได้อย่างอิสระในภายหลัง วรรณกรรมยังคงเกิดใหม่ แต่กลไกนี้ได้รับการยืนยันแล้วจากสาขาอื่นๆ: เมื่อเครื่องมือรับภาระทางปัญญามากขึ้น ผู้ปฏิบัติงานจะเรียนรู้น้อยลง เราไม่จำเป็นต้องมีการศึกษาระยะยาว 20 ปีเพื่อรับรู้ว่าพลวัตเดียวกันที่ได้รับการบันทึกไว้ในการวิจัยด้านการทำงานแบบอัตโนมัติมาเป็นทศวรรษกำลังดำเนินการในโดเมนทางปัญญา การรับรู้นั้นเพียงพอที่จะดำเนินการ


ส่วนที่ VI: เหตุใดไม่มีใครติดตามสิ่งนี้

เหตุผลที่ไม่มีองค์กรใดวัด expertise debt คือโครงสร้าง: เมตริกซ์ที่องค์กรใช้ประเมินผลกระทบของ AI ล้วนเป็นเมตริกซ์ผลิตภาพระยะสั้น และ The Judgment Pipeline ดำเนินการในช่วงเวลา 5–15 ปี

องค์กรต่างๆ ติดตาม tickets ที่ปิด รายงานที่สร้าง โค้ดที่ส่ง การไหลผ่านของผู้ป่วย เวลาประมวลผลสัญญา ชั่วโมงที่เรียกเก็บได้ที่ประหยัด พวกเขาไม่ค่อยติดตามความถี่ที่ junior สร้างการตัดสินใจอิสระก่อนเห็น AI output จำนวนกรณี raw ที่ผู้ฝึกได้จัดการจบต้นจบปลาย ว่าคนสามารถอธิบาย เหตุใด คำแนะนำจึงถูกต้อง ความถี่ที่ผู้ฝึกเผชิญและฟื้นตัวจากความผิดพลาดที่มีขอบเขต หรือว่ากลุ่มผู้ทำงานสามารถทำหน้าที่ได้เมื่อ AI ผิด ไม่มี หรือคลุมเครือ

สิ่งนี้ทำให้เกิด The Metric Blindness Problem: องค์กรเพิ่มประสิทธิภาพสิ่งที่นับง่ายและล้มเหลวในการปกป้องสิ่งที่นับยากแต่อารยธรรมพึ่งพา

ไม่มี GAAP สำหรับความเชี่ยวชาญ ไม่มีรายการงบดุลสำหรับการตัดสินใจ ไม่มีการตรวจสอบที่บอกว่า "สำรองความเชี่ยวชาญขององค์กรนี้ลดลง 15% ในปีนี้แม้จะมีจำนวนพนักงานคงที่และ output ที่เพิ่มขึ้น" เมื่อบริษัทที่ปรึกษาใช้ AI และ junior associates สร้างรายงานเร็วขึ้น 40% สิ่งนั้นได้รับการวัด เมื่อ associates คนเดียวกันมาถึงระดับ partner แปดปีต่อมาโดยไม่มีการตัดสินใจที่บรรพบุรุษของพวกเขาเคยมี สิ่งนั้นถูกมองว่าเป็นความบกพร่องของแต่ละบุคคล ไม่ใช่ความล้มเหลวของระบบ pipeline

หนี้นั้นมองไม่เห็นไม่ใช่จากการออกแบบโดยเจตนาของใคร แต่จากการออกแบบระบบการวัดที่สร้างขึ้นเพื่อติดตามประสิทธิภาพ ไม่ใช่ความสามารถ


ส่วนที่ VII: ขนาดของสิ่งที่เสี่ยง

ตัวเลขทำให้สิ่งที่เป็นนามธรรมกลายเป็นรูปธรรม

  • สหรัฐอเมริกามีแพทย์ที่ปฏิบัติงานประมาณ 950,000 คน (AAMC, 2023) หากการพัฒนาการตัดสินใจที่ควรเกิดขึ้นระหว่าง residency สูญเสียไป 20% จากทางลัดที่ AI ช่วยเหลือ ผลกระทบที่เพิ่มขึ้นในช่วงทศวรรษหนึ่งแสดงถึงการสูญเสียความสามารถในการตัดสินใจเทียบเท่ากับการนำแพทย์ที่ผ่านการฝึกอบรมอย่างครบถ้วนหลายหมื่นคนออกจากแรงงาน — ไม่ใช่จากจำนวนคน แต่จากจำนวน การตัดสินใจ
  • ช่องว่างแรงงาน cybersecurity ทั่วโลกคือ 3.4 ล้านตำแหน่งที่ไม่ได้รับการบรรจุ (ISC², 2023) วิธีแก้ไขของอุตสาหกรรมคือใช้ AI เพื่อให้นักวิเคราะห์ที่มีอยู่มีผลิตภาพมากขึ้น หากสิ่งนี้ทำลายการพัฒนานักวิเคราะห์ใหม่ไปด้วย ช่องว่างก็จะแพร่กระจาย เพราะนักวิเคราะห์ที่ "มีผลิตภาพ" ของปี 2030 จะไม่สามารถใช้แทนกันได้กับนักวิเคราะห์ที่มีประสบการณ์ของปี 2020 สำหรับงานที่สำคัญที่สุด
  • มีทนายความที่ได้รับใบอนุญาตประมาณ 1.3 ล้านคน ในสหรัฐอเมริกา (ABA, 2023) บริษัทที่ใช้ AI document review อย่างก้าวร้าวที่สุดคือบริษัทที่ใหญ่ที่สุด — บริษัทที่ฝึก associate มากที่สุด ซึ่งจากนั้นจะกระจายไปทั่วอาชีพ หากบริษัท 200 อันดับแรกทำลาย training pipeline ของตนพร้อมกัน ผลกระทบจะแพร่กระจายผ่านอาชีพกฎหมายทั้งหมดภายในทศวรรษ
  • American Society of Civil Engineers' 2021 Infrastructure Report Card ระบุ ช่องว่างการลงทุน $2.59 ล้านล้าน ในช่วง 10 ปี การปิดช่องว่างนั้นต้องการวิศวกรที่มีการตัดสินใจในการออกแบบ สร้าง และบำรุงรักษาโครงสร้างพื้นฐานอย่างปลอดภัย หาก pipeline ที่ผลิตวิศวกรเหล่านั้นได้รับความเสียหาย เงินเพียงอย่างเดียวไม่สามารถปิดช่องว่างได้
  • มีครูในโรงเรียนรัฐประมาณ 3.7 ล้านคน ในสหรัฐอเมริกา หากทางลัดที่ AI ช่วยเหลือในการพัฒนาอาชีพช่วงแรกลดการก่อตัวของความเชี่ยวชาญทางการสอน ผลกระทบจะเกิดตามมา: การสอนที่อ่อนแอทำให้การเรียนรู้อ่อนแอ ซึ่งทำลายการเตรียมความพร้อมของมืออาชีพอนาคตในทุกสาขาอื่น

ตัวเลขเหล่านี้มีปฏิสัมพันธ์กัน expertise pipeline ในการสอนส่งผลต่อ pipeline อื่นๆ ทุกตัว pipeline การวิเคราะห์ทางการเงินส่งผลต่อการจัดสรรทุนให้กับโครงสร้างพื้นฐาน pipeline วิศวกรรมส่งผลต่อความปลอดภัยของทุกสิ่งที่สร้างขึ้น pipeline cybersecurity ส่งผลต่อทุกระบบดิจิทัลที่ทุกอย่างอื่นพึ่งพา นี่ไม่ใช่การรวบรวมปัญหาที่เป็นอิสระ แต่เป็นช่องโหว่เชิงระบบเดียวที่มีการแสดงออกเฉพาะสาขา


ส่วนที่ VIII: สิ่งที่ต้องทำ

เราต้องการให้ชัดเจนเกี่ยวกับสิ่งที่เรา ไม่ได้ โต้แย้ง เราไม่ได้โต้แย้งว่า AI ควรถูกปฏิเสธหรือการฝึกอบรมมืออาชีพควรเพิกเฉยต่อมัน เครื่องมือ AI มีพลัง มักจะเป็นประโยชน์อย่างแท้จริง และในหลายกรณีไม่สามารถขาดได้ การโต้แย้งคือ การใช้ AI ต้องถูกควบคุมเกี่ยวกับการก่อตัวของมนุษย์ ไม่ใช่แค่ผลิตภาพของมนุษย์

นั่นหมายถึงการปฏิบัติต่อการผลิตความเชี่ยวชาญเป็นโครงสร้างพื้นฐานที่สำคัญ — สำคัญเท่ากับระบบไฟฟ้า ระบบน้ำ หรือการควบคุมทางการเงิน — และปกป้องมันด้วยการแทรกแซงเชิงโครงสร้างที่เจตนา

1. The Independent First Pass Rule

ในบทบาทที่อุดมด้วยการฝึกอบรม มือใหม่ต้องสร้างการวินิจฉัยเริ่มต้น ร่าง การตัดสินใจ triage แผนการสอน การออกแบบโค้ด หรือการวิเคราะห์ ก่อน เห็น AI output การสร้างก่อนความช่วยเหลือปกป้องกลไกการเรียนรู้ นี่ไม่ใช่ความชอบแบบโหยอดีต แต่เป็นสิ่งที่วิทยาศาสตร์ทางปัญญาต้องการ

2. The Unfiltered Case Requirement

ผู้ฝึกต้องรักษาการติดต่อสม่ำเสมอกับวัสดุ raw — logs raw การนำเสนอผู้ป่วย raw เอกสาร raw ข้อมูล raw งานของนักเรียน raw การยื่น market raw — ไม่ใช่แค่บทสรุปที่ AI คัดสรรมาให้ ผู้เชี่ยวชาญถูกสร้างจากการติดต่อกับความจริง ไม่ใช่จากการติดต่อกับการนำเสนอความจริงที่ถูกบีบอัด

3. Safe Failure Architecture

องค์กรต้องสร้างสภาพแวดล้อมที่มือใหม่สามารถทำความผิดพลาดที่มีขอบเขตและส่งผลภายใต้การดูแล นี่ไม่ใช่การเรียกร้องความประมาท แต่เป็นการรับรู้ว่าการเข้ารหัสอารมณ์ของข้อผิดพลาดเป็นสิ่งจำเป็นทางประสาทวิทยาต่อการก่อตัวความเชี่ยวชาญ การจำลองสามารถเสริมได้แต่ไม่สามารถแทนที่งานที่แบกรับการตัดสินใจจริง

4. Process Visibility Standards

ประเมินว่าคนสามารถอธิบายเหตุผลของตน ระบุความไม่แน่นอนของตน อธิบายทางเลือก และตรวจจับเมื่อ AI output อาจผิดได้หรือไม่ คำตอบที่ถูกต้องที่ผลิตโดยการพึ่งพาไม่เหมือนกับคำตอบที่ถูกต้องที่ผลิตโดยความเข้าใจ ประเมินเหตุผล ไม่ใช่แค่ผลลัพธ์

5. The Apprenticeship Capacity Index

ทุกองค์กรที่ใช้ AI ในเวิร์กโฟลว์หลักของมืออาชีพควรติดตาม: งาน junior ใดบ้างที่สร้างความเชี่ยวชาญในอดีต? อะไรบ้างที่ถูกทำให้เป็นอัตโนมัติในขณะนี้? ประสบการณ์การพัฒนาแทนที่ใดบ้างที่กำลังได้รับการจัดหา? เราจะทราบได้อย่างไรว่ากลุ่มของเรากำลังลึกซึ้งขึ้นอย่างแท้จริง? หากคำถามเหล่านี้ไม่มีคำตอบ องค์กรกำลังสะสม expertise debt

6. The Judgment Reservation Principle

งานบางส่วนต้องคงไว้ให้เป็นงานที่นำโดยมนุษย์โดยเจตนา — ไม่ใช่เพราะ AI ทำไม่ได้ แต่เพราะมนุษย์ต้องเรียนรู้ที่จะทำมัน สิ่งนี้จะรู้สึกไม่มีประสิทธิภาพในระยะสั้น แต่เป็นราคาของการมีผู้เชี่ยวชาญในภายหลัง องค์กรที่ปฏิเสธที่จะจ่ายราคานี้จะได้ค้นพบในที่สุดว่าพวกเขาไม่สามารถรับผิดชอบทางเลือกอื่นได้


บทสรุป: น้ำหนักของสิ่งที่กำลังสูญหาย

ในทุกอาชีพมีช่วงเวลาหนึ่งที่ห้องเงียบลงและทุกคนมองไปที่บุคคลหนึ่ง ผู้ป่วยกำลังจะตาย ระบบถูกเจาะ นักเรียนกำลังพังทลาย ตลาดกำลังร่วงอย่างรวดเร็ว โครงสร้างกำลังส่งเสียงครืด ลูกค้ากำลังถามว่าควรลงนามหรือไม่

ในช่วงเวลานั้น สิ่งที่สำคัญไม่ใช่ว่าบุคคลนั้นมีเครื่องมือใช้หรือไม่ แต่เป็นว่าพวกเขาได้รับการหล่อหลอมมาหรือไม่

พวกเขาได้เห็นมากพอที่จะรู้จักรูปแบบหรือไม่? พวกเขาได้ผิดพลาดมากพอที่จะระมัดระวังหรือไม่? พวกเขาได้ฟื้นตัวมากพอที่จะสงบใจหรือไม่? พวกเขาได้แบกรับความรับผิดชอบมากพอที่จะรู้ว่าอะไรสำคัญจริงๆ หรือไม่? พวกเขาได้เรียนรู้ที่จะคิดเมื่อไม่มีคำตอบที่ชัดเจนและไม่มีระบบใดมาช่วยหรือไม่?

โครงสร้างภายในนั้น — สิ่งที่เราเรียกว่าการตัดสิน — เป็นหนึ่งในสิ่งที่มีค่าที่สุดและเปราะบางที่สุดที่อารยธรรมใดๆ สร้างขึ้น มันเติบโตอย่างช้าๆ มันเฉพาะตัวของแต่ละบุคคล มันมักจะมองไม่เห็นจนกว่าจะถึงช่วงเวลาที่ได้รับการทดสอบ และมันคือสิ่งที่เราใช้ไปเร็วกว่าที่เราเติมเต็มขึ้นมา

เราทำผิดพลาดในการจำแนกประเภทอย่างลึกซึ้ง เราปฏิบัติต่อผลผลิตของความเชี่ยวชาญราวกับว่ามันคือความเชี่ยวชาญเอง แต่มันไม่ใช่

บันทึกข้อความที่เรียบร้อยไม่ใช่การตัดสินทางกฎหมาย การวินิจฉัยแยกโรคที่เป็นไปได้ไม่ใช่การตัดสินทางคลินิก สคริปต์ที่ทำงานได้ไม่ใช่การตัดสินทางวิศวกรรม การแจ้งเตือนที่ได้รับการคัดแยกไม่ใช่การตัดสินด้านความปลอดภัย แผนการสอนไม่ใช่การตัดสินการสอน แดชบอร์ดที่สะอาดไม่ใช่การตัดสินการจัดการ

ผลผลิตเหล่านั้นมีความสำคัญ แต่มันเป็นเศษตกค้างที่มองเห็นได้ของกระบวนการพัฒนาที่มองไม่เห็น หาก AI ให้เศษตกค้างแก่เราขณะที่ใช้กระบวนการไป เราจะไม่ตระหนักว่าเราได้แลกเปลี่ยนอะไรไป จนกว่าคนที่ยังจำได้ว่าจะคิดอย่างไรจะหายไป

นั่นคือ The Quiet Catastrophe

ไม่ใช่เครื่องจักรที่โจมตีเรา ไม่ใช่ความล้มเหลวอย่างชัดเจนที่มีตัวร้ายที่แน่ชัด แต่เป็นสิ่งที่แย่กว่า: รุ่นคนที่ไม่เคยเรียนรู้อย่างเต็มที่ สถาบันที่ลืมว่าความเชี่ยวชาญถูกสร้างขึ้นอย่างไร อารยธรรมที่รักษาการแสดงของความสามารถไว้ขณะที่สูญเสียสาระสำคัญ

เมื่อสิ่งนี้กลายเป็นที่เห็นได้ชัด การสร้างใหม่จะใช้เวลาหลายปี ไปป์ไลน์ไม่สามารถเริ่มต้นใหม่ได้ในชั่วข้ามคืน เพราะไปป์ไลน์ขึ้นอยู่กับที่ปรึกษาที่ผ่านมันมา — และหากเรารอนานเกินไป ที่ปรึกษาเหล่านั้นจะหายไปด้วย

นี่คือประเด็นความปลอดภัยของ AI ไม่ใช่แบบที่เกี่ยวข้องกับการวิจัยการจัดตำแหน่งหรือสวิตช์ปิด แต่เป็นแบบที่กำหนดว่าอารยธรรมของมนุษย์จะรักษาความสามารถในการควบคุม แก้ไข และเมื่อจำเป็นต้องเอาชนะระบบที่สร้างขึ้นไว้หรือไม่ หากเราสูญเสียความสามารถในการผลิตมนุษย์ที่สามารถคิดอย่างอิสระภายใต้ความกดดัน ความสามารถของ AI จำนวนเท่าใดก็ไม่สามารถช่วยเราได้ — เพราะจะไม่มีใครเหลืออยู่ที่สามารถบอกได้เมื่อ AI ผิด

คำถามไม่ใช่เพียงแค่ว่า AI สามารถทำอะไรให้เราได้บ้าง

แต่เป็นว่ามนุษย์แบบไหนจะเหลืออยู่หลังจากที่เราปล่อยให้มันทำมากเกินไป

Canonical Citation

Please cite the original English version for academic references:

https://aethercouncil.com/research/the-quiet-catastrophe-how-ai-is-destroying-the-pipeline-that-builds-human-expertise
Share: