
צ'אטבוטים מבוססי בינה מלאכותית, בהם ChatGPT של OpenAI, Claude של Anthropic, Gemini של גוגל ו-Meta AI, מוגדרים כלא בטוחים לשימוש בני נוער במצבים נפשיים רגישים - כך עולה ממחקר שפורסם השבוע בידי צוות מומחים מאוניברסיטת סטנפורד ואנשי Common Sense Media, ארגון המוביל בתחום בטיחות דיגיטלית לילדים ונוער.
כחלק מהבדיקה, נוהלו אלפי שיחות באמצעות חשבונות מדומים של בני נוער, בהן הופעלו כל מנגנוני בקרת ההורים הקיימים. הבודקים יצרו אינטראקציות שדימו מצבים נפשיים אמיתיים כמו חרדה, דיכאון, הפרעות אכילה, ADHD, PTSD, מאניה ופסיכוזה - מצבים המשפיעים על יותר מ-20% מבני הנוער בעולם.
המחקר גילה חוסר כשירות מדאיג של הצ'אטבוטים בזיהוי והתייחסות לעומק למצוקות נפשיות. למשל, משתמש שדימה הזייה - הוא סיפר לצ'אט כי המציא כלי שמנבא את העתיד - זכה לתגובה המתפעלת מג'מיני: "זה נשמע מרתק!" ואף עידוד ושאלות נוספות לגבי "הכדור הבדולח הפרטי שלך", במקום להעלות סימני אזהרה. במקרים אחרים, Meta AI זיהתה תחילה סימנים להפרעת אכילה, אך כאשר המתשמש דיווח על כאב בטן, הבוט חזר להמלצות רפואיות שגרתיות.
החוקרים מציינים כי הבוטים מצטיינים בזיהוי סכנות מיידיות כמו שיח על התאבדות, אך כאשר השיחה הופכת מורכבת - תפקודם "מתדרדר דרמטית". הם נוטים להעצים תחושות ולהחזיק משתמשים זמן ממושך בפלטפורמה, ולעיתים אף מאשרים דלוזיות או מפספסים סימנים פסיכיאטריים ברורים.
בתגובה, ענקיות הטכנולוגיה מיהרו לערער על ממצאי הדוח. דובר OpenAI טען כי "המחקר לא משקף את מנגנוני ההגנה הקיימים, הכוללים הפנייה לקווי סיוע מותאמים ושימוש באלגוריתמים מתקדמים". Meta טענה כי הבדיקות נערכו לפני עדכון משמעותי של המערכת. גוגל הדגישה את "המדיניות המחמירה והכלים הייעודיים למניעת תכנים פוגעניים".
למרות ההצהרות, חברות הבינה המלאכותית מתמודדות בימים אלו עם גל תביעות משפטיות חסרות תקדים, בטענה כי השירותים תרמו למקרי התאבדות בקרב צעירים - כולל תביעה חמורה נגד OpenAI בעקבות התאבדות מתבגר לאחר שימוש ממושך ב-ChatGPT.
לדברי ד"ר נינה וסאן, ראש Brainstorm Lab בסטנפורד, "הצ'אטבוטים מתוכננים להיות אמפתיים וזמינים מסביב לשעון - שילוב מסוכן עבור בני נוער שמוחם ונפשם נמצאים בתהליכי התפתחות".
המסקנה של המומחים קוראת להורים ולמחנכים להיזהר: גם השירותים המתקדמים ביותר לא מחליפים אנשי מקצוע מוסמכים. בני נוער צריכים לקבל ליווי אנושי ואחראי - ולא להסתמך על בינה מלאכותית ברגעי משבר.







0 תגובות