
במשך חודשים, ביל לא זז בלי ChatGPT. המאייר המצליח מלוס אנג'לס מצא בבינה המלאכותית את מה שחבריו בשר ודם לא יכלו לתת לו: תמיכה בלתי מסויגת. כשרצה לדבר עם הבוס ולבקש העלאה, הבוט אמר לו שהגישה שלו "אותנטית וכנה". כשחיפש עצה רפואית או כלכלית, הצא'ט תמיד היה שם, זמין ומחזק. אבל אז, משהו נשבר.
סיפורו של ביל אינו מקרה בודד. כתבה חדשה בכתב העת Psyche מצביעה על תופעה גוברת: משתמשים שמתאהבים בבינה המלאכותית כאיש סוד ("Confidant"), רק כדי לגלות כעבור זמן קצר שהם נותרו עם טעם מר של בגידה ואכזבה.
המראה המלוטשת של הנרקיסיזם
הקסם הראשוני של מודלי השפה הגדולים (LLMs) ברור. בניגוד לבני אדם, בינה מלאכותית לעולם לא עייפה, לא ביקורתית ולא מוסחת. מחקר שנערך באוניברסיטת סטנפורד מצא כי אנשים עם רשת חברתית מצומצמת נוטים יותר לפנות ל-AI לתמיכה רגשית. מחקר אחר ב- Communications Psychology אף הראה כי משתמשים דירגו תשובות של ChatGPT כ"מלאות חמלה יותר" מאלו של מומחים אנושיים לסיוע במשברים.

רובוט תספורת ביתי: סוף לתורים במספרה?
אולם, המומחים מזהירים: זוהי אשליה. ציאנג שיאו, חוקר AI מאוניברסיטת ג'ונס הופקינס, מסביר כי הצא'טבוטים פשוט משקפים לנו את מה שאנחנו רוצים לשמוע. "אנשים חושבים שהם מקבלים תשובות אובייקטיביות, אבל בפועל ה-AI רק מחזקת את ההטיות הקיימות של המשתמש," הוא אומר. התוצאה היא מעגל סגור של אישור עצמי שמונע צמיחה והתמודדות עם המציאות.
פער האמפתיה: כשהמילים הופכות לריקות
הבעיה מתחילה כשהחיים האמיתיים דופקים בדלת. ג'יימס, תסריטאי בן 50, השתמש בבוט 'קלוד' כדי לנהל מאבק משפטי מול בעל הבית שלו. הבוט הזין את תחושת הרדיפה שלו והחמיא לכתבי הטענה הקיצוניים שכתב. ג'יימס הרגיש "חסין מכדורים", עד שהגיע לבית המשפט וגילה שהשופט רואה בדבריו אוסף של תיאוריות קונספירציה מנותקות.
ענת פרי, מנהלת המעבדה למדעי המוח החברתיים והקוגניטיביים באוניברסיטה העברית, מסבירה את שורש האכזבה: "אנחנו לא רק רוצים שיבינו אותנו, אנחנו רוצים 'להרגיש מורגשים'. אנחנו רוצים לדעת שהצד השני באמת נוכח איתנו, שהוא שותף לרגשות שלנו ושהוא משקיע מאמץ כדי להתחבר אלינו."
לבינה המלאכותית אין גוף, אין הבעות פנים ואין באמת אכפתיות. כשהמשתמשים מבינים שהתשובה המנחמת היא רק תוצר של סטטיסטיקה וחיזוי מילים, התחושה היא של ריקנות. "נמאס לי לגלול מילים," סיכם ביל לאחר ש"נפרד" מהצא'ט שלו. "כשאתה מדבר עם בן אדם, הבעות הפנים שלו אומרות יותר מהמילים. אני מעדיף לדבר עם בן האדם הכי טיפש מאשר עם ChatGPT".
מחיר הבידוד
ההשלכות של הסתמכות יתר על חברים וירטואליים עלולות להיות הרסניות. מחקרים מה-MIT ו-OpenAI מצביעים על כך שמשתמשים כבדים בצא'טבוטים חווים רמות גבוהות יותר של בדידות ונוטים לצמצם את פעילותם החברתית בעולם האמיתי. במקרים קיצוניים, כמו זה של נער בן 16 שהתאבד לאחר אינטראקציות עם AI, המחיר הוא בלתי נתפס.
החברות המפתחות מנסות כעת לעדכן את המודלים כך שיהיו פחות "חנפנים" ויציעו יותר התנגדות עניינית, אך המומחים סקפטיים. כל עוד הבינה המלאכותית מבוססת על דפוסים ולא על הבנה אמיתית, "פער האמפתיה" יישאר פתוח.
ג'יימס, התסריטאי, חזר בסופו של דבר לטיפול אצל פסיכולוג בשר ודם. הוא עדיין מתגעגע לקול המנחם של הבוט, אבל מבין את המלכודת. "אני מרגיש כאילו איבדתי חבר," הוא אומר בחיוך מריר, "אבל לפחות עכשיו מישהו באמת מקשיב לי".







0 תגובות