המהפכה הרגשית: ה-AI הופך לחבר הכי טוב
מעבר לדחקות על המטבח הישיבתי, טוויג הביא נתונים דרמטיים ממחקר שנערך בסוף שנת 2025, שמשנים לחלוטין את מה שחשבנו על בינה מלאכותית:
- לא רק לעבודה: 49% מהשימוש ב-AI כיום הוא לצרכים אישיים ורגשיים.בני הנוער במוקד: 72% מבני הנוער משתמשים בבינה המלאכותית כחבר אישי ויומיומי.האנשים מיישמים: 49% מהנשאלים טענו שהם מיישמים בחיי היומיום עצות רגשיות שקיבלו מה-AI.
"אם פעם חשבנו על ה-AI ככלי פרקטי לעבודה או לחיפוש חנות," הסביר טוויג, "היום הוא הפך לחבר. הוא הולך איתך לכל מקום".
הפסיכולוג לעניים: כשהצ'אט מחליף את הטיפול
אחד הסיכונים המרכזיים שהוצפו בראיון הוא התחליף הזול והזמין לפסיכולוג. אנשים רבים, שאינם יכולים להרשות לעצמם טיפול או חוששים מהסטיגמה של "ללכת לפסיכולוג", מוצאים נחמה בצ'אט.
"בגבול ההיגיון, זה יכול להיות מעולה לאוכלוסייה שלא הייתה מגיעה לטיפול רגשי מעולם. אבל כשהוא מחליף חברויות בעולם האמיתי ואתה מעדיף אותו על פני אינטראקציה אנושית – פה מתחילה הבעיה."
מנס אף שיתף בסיפור מהמשרד: "עובד שלנו סיפר שכשנולד לו ויכוח עם אשתו, הוא פנה ל-GPT כדי שיסביר לו אותה. זה מדהים ומפחיד כאחד".
הטרגדיה היפנית: כשהמודל השתנה, הלב נשבר
כדי להמחיש את עומק הסכנה, הביא טוויג סיפור קצה מיפן: אישה שפיתחה קשר רגשי עמוק כל כך עם ה-AI, עד שהחליטה להתגרש מבעלה. "הוא פשוט הבין אותה יותר, בלי שיפוטיות," סיפר.
הטרגדיה הגיעה כשחברת OpenAI עדכנה את המודל ל-GPT-5. פתאום, ה"חבר" דיבר אחרת, זכר פחות והתנהג בצורה שונה. האישה חשה שהחבר הכי טוב שלה נטש אותה ושקעה בדיכאון עמוק. מתברר שגם מנכ"ל OpenAI, סם אלטמן, נאלץ להתייחס לתלונות הללו והבטיח לנסות להחזיר את ה"אישיות" הקודמת של המודל בגרסאות הבאות.
סוף דבר: הישמרו מהתמכרות
הראיון הסתיים באזהרה ברורה: הכלים הללו מדהימים, אך הם עלולים להוביל להתמכרות מסוכנת ולניתוק מהמציאות. "הנתונים דרמטיים," סיכם מנס, "אנחנו חייבים להציף את זה".
יש לכם מתכון מנצח לטוסטר (שלא נכתב על ידי AI)? שלחו לנו ואולי תזכו בטוסטר המשולשים המפורסם!








0 תגובות