מזימה דיגיטלית

האקרים סינים ביצעו מבצעי השפעה חשאיים בעזרת Chat GPT

OpenAI חשפה וחסמה 10 מבצעים חשאיים שניצלו בינה מלאכותית | המבצעים השתמשו ב-AI של OpenAI ליצירת תוכן השפעה לרשתות חברתיות, איסוף מודיעין, סיוע בפעילות סייבר, ואף כתיבת דו"חות פנימיים (חדשות בעולם)

האקרים - אילוסטרציה (צילום: pixabay)

חברת OpenAI, המפתחת של מודל השפה הפופולרי ChatGPT, חשפה בשבוע שעבר דפוסים מדאיגים של שימוש לרעה בכלי הבינה המלאכותית שלה למטרות השפעה חשאיות ופעילות סייבר. על פי הדו"ח של החברה, היא חיסלה בשלושת החודשים האחרונים 10 מבצעים שניצלו את כלי ה-AI שלה בצורה זדונית, כשארבעה מהם קושרו באופן ודאי לסין.

מבצעים אלו, שכונו בדו"ח "פעילות זדונית", השתמשו בבינה מלאכותית למגוון מטרות מפתיעות. בין היתר, קבוצות סיניות נעזרו ב-ChatGPT כדי לייצר פוסטים ותגובות ברשתות חברתיות כמו טיקטוק, X, רדיט ופייסבוק, ועוד. המטרה הייתה ליצור רושם שווא של מעורבות אורגנית ותמיכה בנושאים פוליטיים וגיאופוליטיים.

אבל השימוש לא הסתכם רק בפרסום חיצוני. באחד המקרים, נעשה שימוש בכלים של החברה גם לצרכים פנימיים, כולל כתיבת דו"ח ביצועים שתיאר בפירוט את השלבים להקמת וניהול המבצע עצמו. מבצע אחר המקושר לסין השתמש ב-ChatGPT כדי לאסוף מודיעין תוך התחזות לעיתונאים או אנליסטים גיאופוליטיים, לכתוב ביוגרפיות עבור חשבונות מזויפים ואף לנתח נתונים.

קבוצות אחרות נעזרו ב-AI לסייע בפעולות סייבר, כמו שינוי סקריפטים, פתרון תקלות בקוד והכנת כלים לפריצת סיסמאות. חלקם אף יצרו באמצעות חומרים שיווקיים שתיארו לכאורה את פעילותם הלא חוקית.

למרות המגוון המסחרר של טקטיקות ופלטפורמות בהן השתמשו המבצעים, ולמרות השימוש בבינה מלאכותית, נטען בדו"ח כי רובם נחשפו ושותקו בשלבים מוקדמים שלהם. חשוב לציין שעל פי OpenAI, השימוש ב-AI לא בהכרח תרגם את עצמו למעורבות גבוהה יותר של הקהלים.

משרד החוץ הסיני, טרם הגיב לנושא.

האם הכתבה עניינה אותך?

כן (17%)

לא (83%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

אולי גם יעניין אותך:

עוד בבעולם: