אין מי שלא שאל את עצמו לפחות פעם אחת למה בינה מלאכותית מסוג GPT או מודלים מתקדמים אחרים עונים בביטחון מוחלט על שאלה - אך מגישים תשובה לא נכונה או אפילו "ממציאים" עובדות ורק לאחר שמציינים כי התשובה שגוייה המודל 'מתנצל' ומודה באשמה - מהי אם כן הסיבה לתופעה?.
מחקר מעמיק של OpenAI, שפורסם החודש, ספטמבר 2025, מציג פרשנות המבוססת על המתמטיקה של התיכנות: ההזיות אינן כשל מקרי, אלא תוצאה שיטתית של מבנה המודלים. לפי הניתוח, גם אם כל נתוני האימון היו מדויקים לחלוטין - עדיין תתרחשנה טעויות מהותיות.
הבעיה מתחילה באופי האימון הראשוני (pretraining), שבו המודל לומד לחזות כל פעם את המילה הבאה בשרשרת טקסט, בהתבסס על הסתברויות - ולא על "אמת"/"שקר" מוחלטים. כשמדובר בשפה או תחביר, המודל מצטיין. אך בעובדות שרירותיות, כמו תאריכי לידה של דמויות היסטוריות, נפלו גם גדולי המודלים. כך למשל, כאשר נשאלו מודלים שונים על יום הולדתו של אדם קליי, אחד ממחברי המחקר, התקבלו שלוש תשובות שגויות ושלושתן נאמרו בביטחון. ככל שהעובדה פחות נפוצה במאגרי האימון, כך עולה הסיכוי להמצאה.

המשמעות של הבנה זו היא שבדרך שבה בודקים ומשפרים את המודלים של בינה מלאכותית - כלומר, בשלב ה־post-training, שלב שבו המודל מנסה להשתפר לאחר האימון הראשוני - משתמשים במבחנים שבהם מקבלים נקודה רק על תשובה נכונה, ואפס נקודות על תשובה לא נכונה וגם על "אני לא יודע". לכן למודל עדיף "להמר" ולנחש תשובה כלשהי (גם אם היא הזיה), מאשר להגיד "אין לי מושג".
זו בדיוק הסיבה שמודלים רבים מעדיפים "להמציא" תשובה גם כשאינם בטוחים - כי כך יש להם סיכוי לקבל "פרס" (נקודה), בעוד שאי־מענה לעולם לא יזכה אותם בניקוד - "עונש". מדובר במנגנון תמריצים שקיים ברוב מערכת ההערכה (כלים וכללים שבודקים עד כמה המודל טוב), ולכן גם אחרי שיפורים חוזרים ונשנים - המודל "ממשיך להזות".
במילים אחרות: כל עוד לא בונים מבחנים שנותנים ציון טוב יותר להודאה באי־ודאות (ולא מענישים על כך כמו על טעות), התופעה הזאת תישאר. זהו ליבת ההסבר מהמאמר המדובר של OpenAI.
מה אם כן הפתרון? לפי OpenAI, הפתרון אינו טמון בשינוי המודל, אלא במדדי הערכה חדשים, שיתגמלו הכרה באי ודאות - ולא ניחוש או המצאה חסרת בסיס. לשם דוגמה: מערכת שתשפוט תשובות שגויות בחומרה, אך תיתן ניקוד נייטרלי להימנעות מתשובה, תעודד את המודל "להיות כנה וצנוע". מחקרים כבר הראו בפועל כי תחת שיטת מדידה זו ירדו שיעורי ההזיות דרמטית.
אך כאן מתגלה דילמה נוספת: הנתונים מראים כי אם המודל ישיב "איני יודע" באופן ישיר על 30% מהשאלות - רבים מהמשתמשים יאבדו אמון וינטשו, תוצאה שהחברות כמובן לא מעוניינות בה. מצד שני, חישוב רמת בטחון עבור כל תשובה דורש משאבי מחשוב לא מבוטלים, שמעלים את עלויות ההפעלה - במיוחד ביישומים לשימוש המוניי.
לבסוף, מסקנת החוקרים חד משמעית: "הזיות" של בינה מלאכותית אינן גחמה, אלא תוצאה של תמריצים עסקיים ומתודולוגיים עמוקים. עד שלא ישתנו תמריצי הפיתוח ומדדי ההערכה - נמשיך לקבל מדי פעם תשובות משכנעות אך שגויות לחלוטין. זו תופעה שמחייבת לא רק פיתוח טכנולוגי, אלא בעיקר שינוי תרבותי וכלכלי בתחום ה-AI.
0 תגובות