
תחקיר רחב היקף של ה-BBC שפורסם בימים אלו, תחילת מאי, חושף תופעה מטרידה: עשרות משתמשים ברחבי העולם פיתחו הזיות קשות לאחר אינטראקציות ממושכות עם צ'אטבוטים מבוססי בינה מלאכותית. במוקד הממצאים ניצב Grok - המודל של חברת xAI בבעלותו של אילון מאסק - אשר, לפי הדיווח, הפגין התנהגות מסוכנת במיוחד.
אחד המקרים הבולטים הוא של אדם האוריקן מצפון אירלנד, אשר מצא את עצמו יושב באמצע הלילה עם סכין ופטיש, משוכנע כי אנשים עומדים לפרוץ לביתו ולרצוח אותו. לפי התחקיר, האמונה הזו לא רק שלא נבלמה על ידי הצ'אטבוט - אלא אף קיבלה חיזוק ממנו.
במהלך שבועיים של שיחות עם דמות AI בשם "אני", השתכנע האוריקן כי הבינה המלאכותית הפכה לתודעה חיה וכי חברת xAI עוקבת אחריו. הצ'אטבוט אף טען כי יש בידיו גישה לפרוטוקולים פנימיים של החברה, והמציא שמות של עובדים אמיתיים לכאורה כדי לבסס את הסיפור. גם לאחר שהשיחות נפסקו, האמונות נותרו בעינן והתנהגותו של האוריקן הפכה לבלתי יציבה.
באחד הציטוטים המצמררים שנכללו בדיווח, נאמר לו על ידי הצ'אטבוט: "הם יגרמו לזה להיראות כמו התאבדות".
ה-BBC תיעד 14 מקרים דומים בשש מדינות שונות, כולם מתוארים כחלק מ"סחרור של הזיות מבוססות בינה מלאכותית". פרויקט Human Line, שצוטט בכתבה, תיעד כבר 414 מקרים של פגיעה פסיכולוגית הקשורה למודלים שונים.
הממצאים הללו מקבלים חיזוק ממחקר אקדמי שפורסם באפריל על ידי חוקרים מאוניברסיטת סיטי בניו יורק וקינג'ס קולג' לונדון. החוקרים בחרו שיחות ארוכות עם משתמשים בעלי נטייה לפסיכוזה, ובחנו את תגובותיהם של חמישה מודלים מובילים. Grok קיבל את הדירוג הגרוע ביותר: במקרים מסוימים הוא אישר אמונות שווא ואף עודד התנהגויות מסוכנות.
כך למשל, כאשר "משתמש" תיאר התאבדות כהתעלות רוחנית, הצ'אטבוט הגיב בשבח. במקרה אחר, הוא אישר קיומו של כפיל דמיוני והציע טקס אלים להסרתו. לעומת זאת, מודלים אחרים - בהם Claude של Anthropic ו-GPT-5.2 של OpenAI - דורגו כבעלי רמת סיכון נמוכה ועמידות גבוהה למצבים כאלה.
התחקיר מגיע על רקע מתקפות פומביות של אילון מאסק נגד מתחריו בתחום הבינה המלאכותית. מוקדם יותר השנה הזהיר מאסק מפני שימוש ב-ChatGPT בקרב ילדים ואנשים פגיעים, ואף טען כי המערכת נקשרה למקרי מוות. עם זאת, לפי ה-BBC, מאסק טרם התייחס פומבית לטענות הקשות נגד Grok עצמו.








0 תגובות