עבודה בעיניים

"אתם תהיו האנלפביתים החדשים": האזהרה הדרמטית שכל אחד חייב לשמוע

ממציאים עובדות מכלום, מזייפים סרטוני מלחמה מלחיצים וגורמים אפילו לעיתונאים הבכירים ביותר ליפול בפח | ד"ר אסף שפנייר, ראש התוכנית לתואר שני בבינה מלאכותית, התארח בתוכנית 'דבר ראשון' עם משה מנס, וחשף את הסכנה האמיתית של עידן ה-AI | ויש לו גם אזהרה חריפה והנחיה שכל אחד יכול לעשות (טכנולוגיה)

כולנו כבר שמענו על ה-AI (בינה מלאכותית). נראה שאי אפשר לחמוק מהמושג הזה בשנה האחרונה. אבל מתברר שהטכנולוגיה הנהדרת הזו, שכותבת לנו סיכומים ומייצרת תמונות, טומנת בחובה סכנה של ממש – סכנה שהופכת להרסנית במיוחד עכשיו, בזמן מלחמה.

בתוכנית 'דבר ראשון', ישב משה מנס לשיחה מרתקת ומדאיגה עם ד"ר אסף שפנייר, ראש החוג לתואר שני בהתמחות בבינה מלאכותית במכללת עזריאלי להנדסה בירושלים, כדי להבין איך המכונה הזו עובדת, ולמה אנחנו חייבים להתחיל להטיל ספק בכל מה שאנחנו רואים.

ממיינת מכתבים ועד למכונת פייק ניוז

"הבינה המלאכותית קיימת כבר המון שנים, משנת 92' בערך", מפתיע ד"ר שפנייר. "הדבר הראשון שעשו איתה היה לזהות ספרות של מיקוד בדואר האמריקאי. במשך עשרים שנה זה לא עשה הרבה מעבר לפתרונות קטנים כמו זיהוי מספר רכב בחניון. אבל בסוף 2022, זה התפוצץ".

הסיבה לפיצוץ הזה היא "דאטה" (מידע) וכוח מחשוב. המחשבים הפכו לחזקים מספיק כדי לשאוב ולעבד כמויות בלתי נתפסות של מידע מהאינטרנט. אבל כאן מתחילה הבעיה. הבסיס של מערכות כמו ChatGPT, מסביר שפיינר, הוא פשוט סטטיסטיקה: "זה מנוע קטן שכל תפקידו הוא להמר מה תהיה המילה הבאה במשפט, על סמך מה שהוא קרא בכל האינטרנט".

ולמה הוא ממציא דברים? "כי אין לו את היכולת להגיד 'אני לא יודע'", מבהיר שפנייר. "אם תכתוב לו 'מי היה נשיא ארה"ב ב-1718?', הוא פשוט ימציא לך תשובה. כמות הפעמים שהמידע הנכון (שלא היה אז נשיא) מופיעה באינטרנט היא זניחה, אז הוא פשוט כותב ומג'נרט (מייצר) מילים".

"יאללה דונלד טראמפ": כשהמלחמה הופכת לזירת זיופים

החלק המטריד באמת מתרחש כשהטכנולוגיה הזו פוגשת את המלחמה הנוכחית. אם פעם היינו רואים סרטון של בניין קורס או טיל פוגע ויודעים שזה אמיתי, היום החוקים השתנו.

"הסרטונים שזה מוציא נהיים יותר ויותר קשים לזיהוי. תוך חצי שנה כבר לא תוכל לדעת מה אמיתי ומה לא", מזהיר שפיינר, ומספר על דוגמה המחישה את גודל האבסורד: יומיים לפני המלחמה הופץ שיר, שנשמע בדיוק כמו הזמר עומר אדם, שקורא כביכול לדונלד טראמפ לתקוף את איראן ("יאללה דונלד טראמפ, יאללה מלחמה"). הקול, האינטונציה והסלסולים היו מדויקים לחלוטין. "אם לא היו אומרים לי שזה , לא הייתי יודע. זה מדהים ומסוכן".

הסכנה הגדולה היא ההשפעה על דעת הקהל. שפנייר מתאר כיצד גורמים עוינים, כמו איראן, עומדים מאחורי הפצת "פייק ניוז" מתוחכם: "מפיצים סרטון מזויף של טיל שהרג ילדים בבית ספר כדי ליצור לחץ בינלאומי לעצור את המלחמה, או מפרסמים על תקיפת ספינות כדי שאנשים יפחדו. זה משנה את המציאות. גם אם מחר יתברר שזה מזויף – באותו רגע זה כבר השפיע עליך, על הפוליטיקאים ועל מקבלי ההחלטות".

הזיופים הללו כל כך אמינים, עד שגם אנשי התקשורת והטלוויזיה המובילים ביותר נופלים בהם ומשדרים תמונות שיוצרו על ידי מחשב כאילו היו מציאות בשטח.

האנלפביתים של דור העתיד

אז מה הפתרון? לדברי ד"ר שפנייר, התעלמות היא ממש לא אופציה. אנחנו לא חייבים להפוך למתכנתים, אבל אנחנו חייבים להבין איך הכלים האלו עובדים.

"אנחנו צריכים לעבוד בזה", הוא קובע. "חייבים להצליב מידע ולצרוך חדשות רק ממקורות מוסמכים. יש מחיר לטכנולוגיה המדהימה הזו".

את הראיון הוא חותם באזהרה שכל אחד מאיתנו חייב לקחת לתשומת ליבו: "השורה התחתונה היא ללכת ללמוד, ולפחות לעקוב אחרי הטכנולוגיות. אני אגיד משהו דרמטי: מי שלא ישלוט ב-AI, יהיה האנלפבית החדש. פעם זה היה מי שלא ידע קרוא וכתוב, היום זה מי שלא מכיר את הכלים האלו. חייבים להכיר אותם, אחרת אתה פשוט תישאר מאחור". למי שרוצה להתחיל בקטן, שפנייר ממליץ לעקוב אחרי ערוצי וואטסאפ ייעודיים שמנגישים את המידע.

האם הכתבה עניינה אותך?

כן (51%)

לא (49%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

אולי גם יעניין אותך:

עוד בדבר ראשון: