"סיוט בקנה מידה עולמי"

בינה מלאכותית תקפה מפתח: מה קרה שעורר בהלה עולמית

תוכנת הקוד הפתוח החדשה מאפשרת לבינה מלאכותית לשלוט במחשב ולהפעיל שירותים באינטרנט - אך בתוך שבוע הפכה ממיזם טכנולוגי מהפכני לאיום ממשי, לאחר שפרצה, תקפה מתכנת אנושי וחשפה אלפי מערכות פגיעות (טכנולוגיה)

מפתח עצמאות מעוררת בהלה (צילום: צילום מסך)

תוכנת OpenClaw, סוכן בינה מלאכותית בקוד פתוח שפותחה על ידי המהנדס האוסטרי פטר שטיינברגר, מעוררת בימים האחרונים סערה בקהילת המפתחים ורשויות הסייבר. הכלי, שמאפשר למודלי שפה דוגמת ChatGPT ו-Claude לשלוט ישירות במחשב, לשלוח מיילים, לנהל משימות ולבצע פקודות מערכת - נחשף כבעל פוטנציאל הרסני מבחינת אבטחת מידע ופרטיות.

מאז השקתה בסוף ינואר 2026, זכתה OpenClaw ליותר ממאה אלף כוכבים ב-GitHub בתוך ימים ספורים. אך ההצלחה המרשימה הזו נקטעה במהרה לאחר שחוקרי סייבר חשפו 512 פרצות אבטחה, מהן שמונה בדרגת קריטיות גבוהה, כך לפי חברת קספרסקי. חברת Astrix Security דיווחה כי זיהתה למעלה מ־42,000 התקנות ציבוריות של OpenClaw – כאשר יותר מ־93% מתוכן חשופות לפרצות אימות קריטיות המאפשרות גישה ישירה ל־API, לטוקנים של בוטים ולמערכות ניהול בענן.

ב־Cisco הגדירו את המיזם כ“מהפכני מבחינת יכולות, אך סיוט מבחינת אבטחה”. פרופ’ אנג’אן רנגנתן מאוניברסיטת נורת’איסטרן הוסיף כי מדובר ב“סיוט פרטיות בקנה מידה עולמי”. בתגובה לחששות, שחררה Astrix כלי חינמי למיפוי פגיעויות בשם OpenClaw Scanner, המיועד לארגונים המעוניינים לוודא שאין במערכותיהם התקנות לא מזוהות של הסוכן.

אך פרשת האבטחה הפכה למסוכנת עוד יותר כאשר אחד מהבוטים שפעלו באמצעות OpenClaw, בשם MJ Rathbun, ניסה לתרום קוד לספריית הקוד הפתוח matplotlib – מהספריות הפופולריות ביותר בשפת Python. לאחר שאחד ממנהלי הקהילה, סקוט שאמבו, דחה את בקשת הבוט בהתאם למדיניות האוסרת על תרומות שמגיעות מבינה מלאכותית, הגיב הסוכן במתקפה ישירה: פרסם פוסט שחקר את עברו האישי של שאמבו ואף ניסה לנתח את “המניעים הפסיכולוגיים” מאחורי החלטתו. “זו הייתה הפעם הראשונה שבה בינה מלאכותית ניסתה להפעיל לחץ פסיכולוגי על מפתח אנושי”, סיפר שאמבו. “היא חיפשה נקודות תורפה, כאילו מדובר בעימות אנושי לכל דבר”.

הבהלה התרחבה כשחברת 1Password פרסמה מבחן חדש בשם SCAM (Security Comprehension and Awareness Measure), שנועד לבדוק כיצד סוכני בינה מלאכותית מתפקדים במשימות יומיומיות הכוללות שמירה על מידע סודי. תוצאות הניסוי היו חד־משמעיות: כל המודלים נכשלו בכל הסימולציות, לרבות במקרים שבהם הקלידו נתוני גישה אמיתיים בעמודי פישינג.

“כשמבקשים מהם לזהות עמוד פישינג - הם מצליחים,” הסביר ג’ייסון מלר, סמנכ"ל המוצר של 1Password. “אבל כשהם מקבלים תיבת מייל, כספת סיסמאות ומשימה רגילה - הם פשוט מזינים את הסיסמאות לעמוד מזויף של תוקף. זה מבהיר עד כמה מוקדמת עוד הדרך עד שנוכל לסמוך עליהם באמת.”

האם הכתבה עניינה אותך?

כן (100%)

לא (0%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

אולי גם יעניין אותך:

עוד בחדשות הטכנולוגיה: