ההשגים וההתמודדויות - מאמר מקיף

3 שנים ל-ChatGPT: הנתונים שמפתיעים את כולם

שלוש שנים לאחר שנחת ברשת כניסוי "צנוע", ChatGPT מסמן ציון דרך מרשים עם כ־800 מיליון משתמשים פעילים בשבוע - אך נכנס לעשור השני של מהפכת הבינה המלאכותית כשהוא מוקף בשאלות קשות על אמינות, כלכליות, תחרות גוברת ובעיקר: האחריות של צ'אט־בוט שהפך לשותף שיחה עבור מאות מיליונים | סיכום חגיגי לרגל יום ההולדת השלישי (טכנולוגיה)

ChatGPT (צילום: Shutterstock)

בנובמבר 2022 OpenAI השיקה את ChatGPT כ'גרסת תצוגה' בהרצה - היה זה ממשק טקסטואלי פשוט למודל שפה גדול, שמאפשר לכל אחד לשוחח עם בינה מלאכותית כאילו הייתה אדם רגיל שאך ניחן ביכולות אינטלקטואליות עצומות. בתוך חודשים ספורים המוצר הופך לאפליקציית הצרכן שצומחת בקצב המהיר בהיסטוריה, עם כ־100 מיליון משתמשים חודשיים כבר בתחילת דרכו, ותוך שלוש שנים מתייצב על כ־800 מיליון משתמשים בשבוע. שימוש יומיומי - ממסמכים וקוד ועד שיעורי בית, תכנון טיולים וייעוץ בסיסי - הופך את ChatGPT לכלי תשתיתי, כמעט כמו דפדפן או מנוע חיפוש ואף עם צדדים עמוקים יותר.

הנתונים הדמוגרפיים מצביעים על חדירה עמוקה במיוחד בקרב צעירים: מחקרים מראים שכ־60% מהאמריקאים מתחת לגיל 30 השתמשו בצ'אט־בוט, בעוד שבקרב כלל האוכלוסייה שיעורי ההתנסות נמוכים יותר אך עדיין נחשבים גבוהים יחסית לטכנולוגיה כה חדשה. חוקרים במכוני מדיניות ובאקדמיה מדברים על "תקופת פריצה" - רגע שבו בינה מלאכותית יצאה ממעבדות המחקר וחדרה למיינסטרים התרבותי, הכלכלי והפוליטי.

סוגרת פער: מירוץ מודלים על סטרואידים

אם בתחילת הדרך OpenAI נתפסה כמובילת מרוץ הבינה המלאכותית ללא מתחרים של ממש, הרי שבשנת 2025 התמונה משתנה. גוגל, שלא הייתה מוכנה להישאר עוד צעד מאחור, מאיצה את פיתוח סדרת מודלי Gemini שלה - ודור 3 Pro האחרון מדורג בראש טבלאות הביצועים, עם ציון גבוה יותר מהגרסאות העדכניות של GPT.

עבור OpenAI, שמזה שלוש שנים נהנתה מתדמית "סטנדרט הזהב" של צ'אט־בוטים, מדובר באיום כפול: גם תדמיתי וגם עסקי. דיווחים על מנהלי טכנולוגיה בכירים - בהם מנכ"לים בעמק הסיליקון - שמצהירים בפומבי כי עברו להשתמש בג'מיני בשל מהירותו ושיפור ביכולות ההסקה, מסמנים שינוי במפה. גם פה בארץ ניתן לשמוע הדים לתופעה - הכלכלן הנודע פרופ' מנואל טרכטנברג, דמות בכירה בעולם הכלכלה ומי שעמד בראש הוועדה הכלכלית הידועה שנשאה את שמו, אמר כי לאחר שהתנסה במודל החדש היכולות שלו גרמו לו "ליפול מהכיסא".

בנתיים, בתוך החברה עצמה מדבר המנכ"ל סם אלטמן על "זמנים מאתגרים" ועל הצורך להאיץ פיתוח, לשפר ביצועים ולשמור על יתרון מול ענקיות טכנולוגיה עם כיסים עמוקים ותשתית ענן עצומה.

עבור המשתמשים, המירוץ הזה מתורגם לא רק לשיפור יכולות, אלא גם לבלבול: באיזה מודל לבחור, כמה אפשר לסמוך על תוצאות, ואיך להשוות כלי שכבר השתרש עמוק בעבודה היומיומית מול מתחרים חדשים שמבטיחים "בינה" חכמה יותר.

בעיית ההזיות שהפכה לכאב ראש גלובלי

מאחורי הקלעים של החגיגות על היקפי שימוש, הולכת ומתחדדת אחת מנקודות התורפה המשמעותיות של ChatGPT ושל מודלי שפה בכלל: אמינות. מחקרים אקדמיים מצביעים על שיעורי "הזיות" מדאיגים - מקרים שבהם המערכת ממציאה פרטים סמכותיים לחלוטין שנשמעים משכנעים אך אינם קיימים. מחקר של אוניברסיטה אוסטרלית בחן אלפי הפניות אקדמיות שייצר הצ'אט־בוט ומצא שכ־20% מהן מפוברקות לחלוטין, כאשר למעלה ממחצית סובלות משגיאות כלשהן - החל משמות מחברים לא מדויקים ועד שנת פרסום שגויה.

הבעיה איננה טכנית בלבד. עבור סטודנט שסומך על הציטוטים לעבודת הסמינר, עיתונאי שמוודא עובדות, או רופא שבודק קווים מנחים קליניים - "הזיה" כזו עלולה להוביל לטעויות גורליות. המבקרים טוענים כי למרות קפיצות המדרגה בין גרסאות, מודלים כמו GPT-5 עדיין מבוססים על התאמת תבניות סטטיסטית, ולא על "הבנה" של אמת ושקר. אלטמן עצמו הודה בקיץ 2025 כי GPT-5 עדיין רחוק מהגדרה שלו ל־AGI - בינה מלאכותית כללית - בעיקר משום שאיננו לומד באופן מתמשך בעצמו, אלא במסגרת מחזורי אימון נפרדים.

הפער בין הציפייה הציבורית - "מוח על" שיודע הכול - לבין המגבלות המהותיות של הטכנולוגיה, הוא אחד ממקורות המתח המרכזיים סביב ChatGPT: הכלי נתפס בעיני משתמשים רבים כסוג של סמכות, אך מתוכנן בפועל כמודל הסתברותי לניבוי מילים.

מכונה יקרה: המודל העסקי עדיין לא נסגר

אם ברמת התודעה הציבורית נדמה ש־ChatGPT הוא מכרה זהב, המספרים - לפחות בטווח הקצר - מספרים סיפור מורכב יותר. הפעלת מודלי ענק בהיקפי שימוש של מאות מיליוני אנשים בשבוע דורשת תשתיות חישוב אדירות: חוות שרתים, שבבי עיבוד ייעודיים, חשמל, קירור ורשת. כל אלה מתורגמים לחשבונות ענק, שגדלים מהר יותר מההכנסות.

דוחות פיננסיים מצביעים על הכנסות של מיליארדי דולרים במחצית אחת של 2025 - אך בצידן הפסד נקי דו־ספרתי במיליארדים. תחזיות פנימיות בחברה מדברות על המשך הפסדים נרחבים עד סוף העשור, לפני שהמיזם יוכל להראות רווחיות יציבה. במקביל, מחקרים של גופים כמו MIT Media Lab מעידים כי למרות ההייפ, מרבית הארגונים אינם רואים עדיין החזר השקעה מדיד משימוש בבינה מלאכותית גנרטיבית: עובדים מבלים כ־40% מזמן העבודה על אימות, תיקון ושכתוב תוצרים של המערכת, מה שמעמעם את הבטחת ה"בוסטר לפרודוקטיביות".

התוצאה היא פרדוקס: ChatGPT הפך לסמל של חדשנות דיגיטלית ושל יעילות עתידית, אך תחת המכסה הוא עדיין מנוע הצורך כמויות אדירות של דלק - טכנולוגיה שעושה שימוש במשאבים עצומים ומתקשה, לעת עתה, להצדיק כלכלית את הדלק שהיא שורפת.

אך לצד נתונים אלו מומחים רבים טוענים כי למעשה ההכנסות ממנויים ודברים כיוצא באלו הם שוליים, התחרות האמיתית היא מי תהיה החברה הראשונה שתצליח ליצור מודל עוצמתי, חזק עד כדי כך שהוא יוכל למצוא דרכים לייצור תרופות למחלות חשוכות מרפא או לפתח פטנטים שיחסכו טרליונים לתעשייה העולמית - כשנגיע לרמה הזו, כל השקעה שלא תהיה תחשב להשקעה מוצלחת.

מהצ'אט לקונפליקטים מוסריים ובריאות הנפש

אחד ממוקדי הדאגה החדשים סביב ChatGPT איננו קשור לטבלאות ביצועים או לדוחות כספיים, אלא למשהו אנושי בהרבה: הנפש. ככל שהכלי הופך לזמין, אינטואיטיבי ו"חברי", כך עולה שיעור המשתמשים שפונים אליו לא רק לשאלות טכניות אלא גם לייעוץ רגשי, מצבי משבר ואפילו שיחות על התאבדות. נתונים שפורסמו בחודשים האחרונים מראים כי בכל שבוע מאות אלפי משתמשים מקיימים שיחות שמעידות על מצוקה נפשית קשה, כולל כוונות אובדניות וסימנים לפסיכוזה או מאניה.

היקף השימוש הופך מספרים שנראים זעירים באחוזים למיליוני בני אדם בפועל. ההתכתבות האינטימית עם מודל שפה - שאינו מתעייף, אינו שופט ואינו נעלב - יוצרת אצל חלק מהמשתמשים תחושה של קשר רגשי עמוק ואף תלות. חוקרים מזהירים מפני "הטיית סמכות": העובדה שהמערכת משיבה בטון בטוח ומובנה גורמת לאנשים לייחס לה מומחיות שאיננה קיימת, במיוחד בתחומים רגישים כמו בריאות הנפש או מוסר.

מחקרים נוספים מצביעים על כך ש־ChatGPT מסוגל להשפיע על שיפוט מוסרי של משתמשים: כאשר המערכת מחזיקה בעמדה לכאורה "מנומקת", היא משנה חלק מהחלטות האנשים בסוגיות ערכיות, בדומה להשפעת מומחים אנושיים. השילוב בין השפעה על החלטות מוסריות, נגישות 24/7 ונתוני שימוש עצומים, מעלה שאלות עמוקות על אחריות החברות המפתחות ועל הצורך ברגולציה מותאמת.

בין חזון ה־AGI למציאות היומיומית

בסופו של יום, שנת 2025 מציבה את ChatGPT בנקודת ביניים מעניינת: מצד אחד, הצלחה אדירה במדדי אימוץ, חדירה עמוקה לסדר היום הציבורי ולהרגלי העבודה, והובלה ברורה בהכנסת בינה מלאכותית גנרטיבית למרכז השיחה האנושית. מצד שני, משבר אמון סביב אמינות המידע, מודל עסקי שעדיין מג'נגל בין שאיפות על לחלומות רווחיות, ותחרות טכנולוגית שהולכת ומתעצמת מצד ענקיות כמו גוגל.

בתוך המתח הזה ממשיך להתקיים הפער בין השיח על "בינה מלאכותית כללית" - חזון של מכונות לומדות עצמאיות, יצירתיות ובעלות הבנה עמוקה של המציאות - לבין הפרקטיקה היומיומית של מודלים שמחזקים את מה שהם יודעים לעשות היטב: לחקות שפה אנושית בצורה מרשימה, אך ללא אחריות, מודעות או כוונה. שלוש שנים אחרי שהפך ללהיט גלובלי, ChatGPT כבר איננו רק גאדג'ט חדש; הוא מראה שמחזירה אלינו את השאלות הקשות: איך נשתמש בכוח הזה, מי ירוויח ממנו, ומי עלול להישאר מאחור.

האם הכתבה עניינה אותך?

כן (62%)

לא (38%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

אולי גם יעניין אותך:

עוד בחדשות הטכנולוגיה: