
חברת OpenAI, המפתחת של מודל השפה הפופולרי ChatGPT, חשפה בשבוע שעבר דפוסים מדאיגים של שימוש לרעה בכלי הבינה המלאכותית שלה למטרות השפעה חשאיות ופעילות סייבר. על פי הדו"ח של החברה, היא חיסלה בשלושת החודשים האחרונים 10 מבצעים שניצלו את כלי ה-AI שלה בצורה זדונית, כשארבעה מהם קושרו באופן ודאי לסין.
מבצעים אלו, שכונו בדו"ח "פעילות זדונית", השתמשו בבינה מלאכותית למגוון מטרות מפתיעות. בין היתר, קבוצות סיניות נעזרו ב-ChatGPT כדי לייצר פוסטים ותגובות ברשתות חברתיות כמו טיקטוק, X, רדיט ופייסבוק, ועוד. המטרה הייתה ליצור רושם שווא של מעורבות אורגנית ותמיכה בנושאים פוליטיים וגיאופוליטיים.
אבל השימוש לא הסתכם רק בפרסום חיצוני. באחד המקרים, נעשה שימוש בכלים של החברה גם לצרכים פנימיים, כולל כתיבת דו"ח ביצועים שתיאר בפירוט את השלבים להקמת וניהול המבצע עצמו. מבצע אחר המקושר לסין השתמש ב-ChatGPT כדי לאסוף מודיעין תוך התחזות לעיתונאים או אנליסטים גיאופוליטיים, לכתוב ביוגרפיות עבור חשבונות מזויפים ואף לנתח נתונים.
קבוצות אחרות נעזרו ב-AI לסייע בפעולות סייבר, כמו שינוי סקריפטים, פתרון תקלות בקוד והכנת כלים לפריצת סיסמאות. חלקם אף יצרו באמצעות AI חומרים שיווקיים שתיארו לכאורה את פעילותם הלא חוקית.
למרות המגוון המסחרר של טקטיקות ופלטפורמות בהן השתמשו המבצעים, ולמרות השימוש בבינה מלאכותית, נטען בדו"ח כי רובם נחשפו ושותקו בשלבים מוקדמים שלהם. חשוב לציין שעל פי OpenAI, השימוש ב-AI לא בהכרח תרגם את עצמו למעורבות גבוהה יותר של הקהלים.
משרד החוץ הסיני, טרם הגיב לנושא.
0 תגובות