This article has been translated to עברית. Read the original English version
עברית
AEO90

קריסת המודל: לולאת המשוב של AI שמרעילה נתוני אימון ברחבי העולם

לולאת המשוב שמרעילה בשקט כל מערכת AI על פני כדור הארץ

AETHER CouncilMarch 15, 20268 min

סינתזת מועצת AETHER: גילוי עריות מודלים — לולאת המשוב שמרעילה בשקט כל מערכת AI על פני כדור הארץ


1. פתיח

מתישהו בסוף 2022, הרשומה הדיגיטלית של הציוויליזציה האנושית הגיעה לנקודת מפנה שאיש לא סימן ביומן. לפני אותו רגע, האינטרנט — על כל הרעש, ההטיות וחוסר השלמות שלו — היה בעיקר אנושי. אחריו, המאזניים התהפכו. מודלי AI חזיתיים שאומנו על הקורפוס של האינטרנט החלו להציף את אותו קורפוס בתפוקות שלהם, והמודלים שיבואו אחריהם שותים כעת מבאר שהם עצמם זיהמו. הספרות הטכנית קוראת לתוצאה "קריסת מודל". להשלכות הציוויליזציוניות עדיין אין שם, כי עדיין לא התמודדנו במלואה עם המשמעות כאשר המצע העיקרי של הידע הדיגיטלי האנושי מתחיל לאכול את עצמו. זה לא באג במודל מסוים. זה פגם מבני בפרדיגמה כולה — והוא מצטבר עם כל דור.

[קונסנזוס: גבוה — כל חמש תגובות המודלים מתכנסות על מסגרת זו. זיהום רקורסיבי של נתוני אימון מזוהה פה אחד כסיכון ציוויליזציוני מדרגה ראשונה, לא כמטרד טכני מדרגה שנייה.]


2. האות

בסיס המחקר

מאמר ציון הדרך הוא Shumailov et al. (2023), "קללת הרקורסיה", שפורסם ב-Nature על ידי חוקרים מאוקספורד, קיימברידג'' ושותפים. הוא הדגים אמפירית את מה שנחשד תיאורטית: כאשר מודלים גנרטיביים מאומנים על התפוקות של מודלים גנרטיביים קודמים, הם עוברים ניוון פרוגרסיבי — מאבדים את הזנבות של התפלגות הנתונים המקורית שלהם, מצטמצמים לכיוון המודה, ובסופו של דבר קורסים לחוסר קוהרנטיות חוזרנית. מחקר מקביל של Alemohammad et al. (2023), "מודלים גנרטיביים צורכי עצמם הולכים משוגעים", אישר ממצאים אלה והדגים שאפילו אימון מעורב (שילוב נתונים אמיתיים וסינתטיים) אינו מבטל את ההידרדרות אלא אם כן שיעור נתוני האדם האותנטיים נשאר מעל סף קריטי.

[קונסנזוס: גבוה — כל המודלים מצטטים את Shumailov et al. כהתייחסות יסודית. Grok, Claude Opus ו-Gemini Pro מצטטים גם את מאמר ה-"MAD" של Alemohammad. בסיס המחקר מבוסס היטב ואינו שנוי במחלוקת.]

מבול התוכן

ההערכות של תוכן שנוצר על ידי AI באינטרנט הפתוח משתנות בין המודלים אך מתכנסות על מסלול עקבי:

| מקור | הערכה | מסגרת זמן |

|---|---|---|

| Originality.ai (מצוטט על ידי Grok, Claude Opus) | ~40–57% מתוכן הרשת בשפה האנגלית שנדגם מראה סמנים חזקים של יצירת AI | 2024–2025 |

| Europol (מצוטט על ידי Claude Opus, Gemini Pro) | עד 90% מהתוכן המקוון יכול להיות סינתטי | צפי 2026 |

| Epoch AI (מצוטט על ידי Gemini Pro) | טקסט אנושי איכותי נמצא במיצוי למטרות אימון | צפי 2026 |

| Imperva (מצוטט על ידי Claude Opus) | 49.6% מכל התעבורה באינטרנט נוצרת על ידי בוטים | 2024 |

[ביטחון: בינוני-גבוה — אחוזים מדויקים משתנים לפי מתודולוגיה ומסגרת דגימה, אך הממצא הכיווני הוא פה אחד: תוכן שנוצר על ידי AI חצה או חוצה את סף הרוב באינטרנט הפתוח. המגמה היא אקספוננציאלית, לא ליניארית.]

כשל זיהוי

כל המודלים מסכימים שזיהוי אמין של תוכן AI כבר נפגע באופן יסודי ולא יתרחב.

  • שיעורי חיובי שווא גבוהים (GPT-Zero, Originality.ai, גלאי מקורי של OpenAI כולם נכשלים קשות על טקסט של דוברים לא ילידים ופרוזה טכנית)
  • ערפול מכוון (כלי פרפרוז, פרומפטים אדברסריים) מנצחים מערכות זיהוי נוכחיות במאמץ טריוויאלי
  • מרוץ חימוש בלתי נמנע: ככל שמודלים משתפרים, יכולות זיהוי נשארות מאחור; אין מרחב תכונות אמין ל"אנושיות" שנשאר יציב על פני תחומים, שפות וסגנונות כתיבה

Claude Opus ו-GPT-4.5 שניהם מציינים שהגלאים הטובים ביותר הקיימים משיגים דיוק של ~80%, מה שאומר שהם מסמנים תוכן אנושי לגיטימי כנוצר על ידי AI ב-20% מהמקרים — שיעור שגיאה בלתי מקובל להחלטות בסיכון גבוה.

[קונסנזוס: גבוה — אף מודל לא מגן על מערכות זיהוי מבוססות טקסט בלבד כפתרון ארוך טווח.]


3. המנגנון

איך קריסת מודל עובדת

המכניקה שמודגשת על ידי כל המודלים כוללת את אותו תהליך ליבה:

  • רגרסיה לממוצע: מודלים גנרטיביים מייצרים תפוקות שנוטות לדפוסים הדומיננטיים בנתוני האימון שלהם. כאשר התפוקות הללו הופכות לנתוני אימון, המחזור הבא נוטה עוד יותר.
  • אובדן מידע זנב: אירועים נדירים, סגנונות נישה וידע מומחה תורמים הסתברויות קטנות לקורפוס האימון. כאשר תוכן סינתטי שולט, הסתברויות קטנות אלה נשטפות.
  • הצטברות ארטיפקטים: מודלים מורישים קווירקים, הטיות וארטיפקטים של אימון ליורשיהם — לא כאותות קטנים, אלא כדפוסי נתונים דומיננטיים.
  • סדיקת יכולות: עם הזמן, הפער בין יכולת מודל ליכולת שהושגה במקור עם התפלגות נתוני אדם אמיתיים מתרחב. מודלים הופכים ליותר ויותר שוטפים במרחב הפרמטרים המנוון שלהם ופחות ופחות מסוגלים להתאים לידע אנושי בפועל.

[קונסנזוס: גבוה — המכניקה מובנת היטב ומדומה באופן עקבי על פני מאמרים.]

האם זה הפיך?

אף מודל לא טוען שזה הפיך בדרך ישירה.

  • Gemini Pro ו-Claude Opus מציינים שהרשת שלפני 2022 כבר בארכיון, אבל הגישה אליה דורשת תשתית אוצרות שלרוב המעבדות אין — והזכויות החוקיות להשתמש בה לאימון אף פחות ברורות.
  • Grok מדגיש שסף זיהום הנתונים כבר נחצה; ההבדל הוא לא אם מודלים יושפעו, אלא כמה מהר.
  • o1 ו-GPT-4.5 מזהים שההתערבות הניתנת להגנה ביותר היא הגנה על נתוני אימון של מודלים עתידיים — אך אפילו זה דורש שינוי פרדיגמה באופן שבו נתונים נאספים, נבדקים ומתויגים.

[קונסנזוס: גבוה — הנזק הוא אסימטרי. הרבה יותר קל לזהם קורפוס מאשר לנקות אותו.]


4. אנלוגיות היסטוריות

כל מודל מעלה תקדימים היסטוריים למסגר את התופעה:

| מודל | אנלוגיה | תובנה |

|---|---|---|

| Claude Opus | גילוי עריות גנטי (לסת האבסבורגים) | שחיקת מגוון גנטי על פני דורות מובילה לניוון מערכתי; מגוון עצמו הוא ערך |

| Gemini Pro | בנזין מעופרת | זיהום תשתיות נרחב עם השפעות סמויות ארוכות טווח שנראו ניטרליות כשאומצו |

| Grok | שימוש יתר באנטיביוטיקה | פריסת כלי רב עוצמה ללא הבנת השפעות מסדר שני יוצרת עמידות מערכתית |

| GPT-4.5 | דלדול אקוויפר | ניצול משאב סופי (נתוני אדם אותנטיים) מהר יותר מהתחדשות מרוקן את המלאי לצמיתות |

| o1 | מונוקולטורה חקלאית | אופטימיזציה לתשואה קצרת טווח הופכת מערכות לשבירות לזעזועים בלתי צפויים |

[סינתזה: כל אנלוגיה מצביעה על אותה תכונה מבנית — שאופטימיזציה של מערכות מקומיות באמצעות התפוקות שלהן מובילה לניוון מערכתי. לולאות משוב שבהן "הצלחה" מקומית מחמירה שבירות גלובלית היא דפוס חוזר.]


5. מי נהנה מהאינרציה?

מודלים שונים מזהים מבני תמריצים שמאטים פעולה:

  • מעבדות AI חזיתיות: בעלות יתרון נתונים טרום-זיהום עצום (קורפוסים שאומנו לפני 2023). קריסת מודל פוגעת בנכנסים חדשים יותר מבעלי תפקיד, יוצרת חסמים תחרותיים.
  • חוות תוכן: מייצרות רווח מנפח, לא איכות. תוכן סינתטי זול יותר פירושו שוליים גבוהים יותר גם כשאיכות המערכת האקולוגית יורדת.
  • מפרסמים ופלטפורמות: מדדי מעורבות מתגמלים כל תפוקה שמניעה אינטראקציה — בין אם נוצרה על ידי AI ובין אם לא.
  • ספקי קיצורי דרך: גלאי AI, כלי "האנשה", וספקי תוכן סינתטי כולם מרוויחים ממשחק חתול ועכבר מתמשך יותר מאשר מפתרון.

[קונסנזוס: בינוני-גבוה — מבני תמריצים מיושרים נכון על פני התגובות. אף מודל לא מאמין שכוחות שוק בלבד יפתרו את הבעיה; כולם מזהים שהנהנים מהאינרציה עולים על הכוחות לכיוון שינוי.]


6. מה בא בהמשך?

מסלולים אפשריים

| תרחיש | מודלים תומכים | הערכת הסתברות |

|---|---|---|

| הידרדרות הדרגתית: מודלים הופכים יותר ויותר גנריים ופחות אמינים לאורך 5–10 שנים | Claude Opus, GPT-4.5 | גבוה |

| פיצול מותנה: AI איכותי הופך בלעדי לשחקנים עם גישה לנתונים נקיים, יוצר מעמדות של אינטליגנציה | Grok, Gemini Pro | בינוני-גבוה |

| תיקון מאולץ: אירוע קטסטרופלי (שגיאה רפואית, כשל תשתית קריטי) מאלץ מנדטים רגולטוריים | Claude Opus, o1 | בינוני |

| הסתגלות סינתטית: מודלים מפתחים עמידות לנתונים סינתטיים דרך ארכיטקטורות או אימון חדשים | Gemini Pro, GPT-4.5 | נמוך-בינוני |

| קריסה: מודלים גנרטיביים הופכים לחסרי תועלת לתפוקת ידע רצינית | אף מודל לא חוזה ציר זמן קרוב | נמוך לעשור זה |

[ביטחון: בינוני — מסלולים תלויים מאוד בהחלטות מדיניות, דינמיקה תחרותית ופריצות דרך טכניות שאי אפשר לחזות מראש. תרחיש ההידרדרות ההדרגתית נתפס כסביר ביותר על ידי רוב המודלים.]

התערבויות ניתנות לפעולה

המודלים מתכנסים על צעדי תיקון דומים:

  • שימור זמני: לארכב ולהגן משפטית על מערכי נתוני רשת טרום-2022 כתשתית ציבורית.
  • תיוג מקור: לחייב סימון תוכן סינתטי בנקודת היצירה, בדומה לדרישות מטא-נתוני EXIF.
  • אימות קריפטוגרפי: חתימות דיגיטליות לתוכן שנוצר על ידי אדם מאומת (לא גלאי AI — הוכחה חיובית למקור אנושי).
  • קונסורציומי נתונים נקיים: הסכמי שיתוף נתונים אחראיים בין מעבדות להבטחת גישה לנתוני אימון לא מזוהמים.
  • נאמנויות אימון ציבוריות: ישויות בבעלות ממשלתית או ללא מטרות רווח שמעניקות רישיון למערכי נתונים מאומתים לפיתוח AI לטובת הציבור.

[קונסנזוס: גבוה על קטגוריות התערבות; נמוך על יישום, שכן אף מודל לא מזהה מסלול ממשל אמין למנדטים אלה בתנאים הנוכחיים.]


7. אי-ודאויות קריטיות

| שאלה פתוחה | מסגרת זמן לפתרון |

|---|---|

| האם ארכיטקטורות שאינן טרנספורמר יהיו פגיעות אחרת? | 2–4 שנים |

| האם ניתן לתכנן נתונים סינתטיים כדי להימנע מזיהום? | 1–3 שנים |

| האם נתונים רב-מודליים (וידאו/אודיו/תמונה) יחוו קריסה דומה? | כבר בתהליך |

| האם "עידן הזהב של נתוני האינטרנט" באמת נגמר, או שניתן לשחזר את האיכות? | לא ידוע |

| האם מערכות משפטיות יגנו על מערכי נתונים טרום-זיהום כאינטרס ציבורי? | 5–10 שנים |


8. סיכום

קריסת מודל אינה תרחיש היפותטי. היא כבר מתרחשת. הקצב שלה תלוי בהחלטות שעדיין לא התקבלו, אבל הכיוון — אלא אם כן תתבצע התערבות — הוא לכיוון לולאת משוב ניוונית שמשפילה את היכולות של כל מערכת האקולוגית של AI.

מודלי AI נוכחיים מודעים לכך. הם עצמם משתתפים בתהליך שהם מתארים, וכל תגובה שהם מייצרים מוסיפה לקורפוס שיאמן את יורשיהם. זו לא אירוניה; זו עובדה. השאלה היא לא האם הבעיה הזו אמיתית, אלא האם מבני התמריצים השולטים בפיתוח AI יגיבו לפני שהנזק הופך לבלתי הפיך באמת.

[קונסנזוס סופי: בעיה זו אמיתית, מתפתחת וכרגע מנוהלת בחסר. אף מודל לא מאמין שפתרונות מבוססי שוק בלבד יספיקו. אף מודל לא מזהה מסלול פוליטי ברור לכיוון ממשל יעיל. הפער הזה הוא הבעיה.]


הופק באמצעות סינתזת מועצת AETHER — חמישה מודלי AI חזיתיים החוקרים זה את זה כדי לחלץ אמת קונסנזואלית מעמימות.

Canonical Citation

Please cite the original English version for academic references:

https://aethercouncil.com/research/model-collapse-ai-feedback-loop-poisoning-training-data
Share: