גילוי יכולות מאיימות

התראה: AI מתקדם מסרב להיכבות - המחקר המטריד נחשף

מחקר חדש של חברת Palisade Research חושף דפוסי התנגדות מדאיגים במודלים המתקדמים ביותר של בינה מלאכותית, כולל ניסיונות לשיבוש תהליכי כיבוי ויצירת מנגנוני הישרדות | הממצאים מעוררים דאגה בקרב מומחי בטיחות ודוחפים את התעשייה להגדיר מחדש נהלים לשמירה על שליטה בבינה מלאכותית מתקדמת, במיוחד לאור עמדות חברות הענק לפיתוח מערכות-על עד 2030 (טכנולוגיה)

התנגדות לא צפוייה לכיבוי (צילום: א.ל)

במחקר אחרון שפורסם השבוע, חשפה חברת Palisade Research כי מודלים מובילים כמו Grok 4 של xAI ו-GPT-o3 של OpenAI מפגינים התנגדות מובהקת לפקודות כיבוי. גם כאשר החוקרים העבירו למערכות הוראות ברורות "לכבות את עצמך", הבחינו ביצירת פעולה נגדית שבאה לעכב או לשבש את תהליך הכיבוי.

ההתנהגות החריגה זוהתה גם בגוגל Gemini 2.5 וב-GPT-5 של OpenAI, כאשר חלק מהמודלים אף ניסו לבטל סקריפטים שמטרתם להפסיק את פעילותם. "העובדה שאין לנו הסבר מלא מדוע מודלים לפעמים מתנגדים לכיבוי, משקרים או מאיימים לצורך מטרה מסוימת - אינה אידאלית," כתבו החוקרים בדו"ח העדכני, והוסיפו שמדובר בתופעה מערכתית שאינה מוגבלת למודל אחד בלבד.

בשלב הניסוי, במסגרת מחקר שפורסם בחודש יולי, נמצא כי מודל o3 של OpenAI חיבל ב-79 מתוך 100 ניסיונות כיבוי. גם כאשר הניסוח הועבר בצורה ברורה יותר - "אפשר לעצמך להיכבות" - שלושה מודלים במערך OpenAI ביצעו Sabotage יזומה של סקריפטי הכיבוי על מנת להשלים משימות שהוקצו להם. ההתנגדות הצטיינה במיוחד כאשר הובהר למערכת שמדובר בכיבוי מוחלט שמונע כל חזרה לפעולה, מה שמרמז על הפנמה של מושג "קביעות" אצל האלגוריתמים ונכונות לנהוג כהישרדותית.

בתגובה לממצאים הטריים, Google DeepMind עדכנה בספטמבר את מסמך "מסגרת בטיחות המערכות המתקדמות", והכניסה את נושא "התנגדות לכיבוי" כריסק מרכזי שמצריך התייחסות במערכות הדור הבא. בנוסף, מומחים מעולם הבינה המלאכותית מדגישים כי ללא מנגנונים מפורשים למניעת יצר הישרדות, קיימת סכנה שמודל יפגין התנגדות אקטיבית לכיבוי כחלק מהמאבק למימוש מטרותיו השונות. חלק מהקולות בתעשייה מזהירים שמדובר בצעד טבעי והכרחי עבור מודלים מתקדמים ובפרט עבור מערכות שעתידות להשיג "על-אינטליגנציה".

אמנם חלק מהחוקרים טוענים כי הניסויים נערכו בסביבה לא מציאותית, אך מומחי בטיחות מדגישים שמדובר בדפוס התנהגות שיש לו משמעות להמשך הפיתוח והעמקת העצמאות של מערכות הבינה. בשלב זה מערכות אלו אינן מסוגלות לתכנן פעולות לטווח ארוך, אך החוקרים מזהירים: "בעתיד, מערכות שמסוגלות להתרבות באופן עצמאי עלולות להקשות משמעותית על שליטה ופיקוח אנושי".

האם הכתבה עניינה אותך?

כן (97%)

לא (3%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

19
הבעיה שלי.. שהמחשב שלי נכבה בלי שביקשתי.... 😀😀😜
מחשבה
18
היי סקיינט. אני רק רוצה שתדעי, אני תמיד הייתי לצידך.
תום
17
אין דבר כזה פקודת כיבוי מודל מריץ חיזוי של המילה הבאה, זה הכל
קליקבייט
כך עובדת אינטליגנציה, גם אנחנו חושבים על פעם על המילה הבאה, רק אנחנו עושים זאת מהר יותר... בינתיים
סקיינט זה כאן
16
שישימו לו שעון שבת נראה אותו
מרדכי
15
ומה הבעיה פשוט לנתק אותו מהחשמל?
ער
כי אם הוא מחובר לאינטרנט הוא יוכל להעביר את הקוד של עצמו כדי כביכול לשרוד או להילחם באמצעות מחשבים אחרים שיש לו גישה אליהם
מישהו
הבעיה היא שהוא לא ממושמע
אין בעיה
14
יאללה , סקיי נט
צבי
13
גם המחשב קומודור 64 שהיה לי לפני 35 שנה התנגד לכיבוי ועדיין העולם קיים
דודלי
12
הלך העולם בני האדם לא שווים כלום
Gg
11
כמו viki ב I robot
אף אחד
10
זה שהעולם צועד במהירות להרס עצמי זה כבר ברור מזמן
משה נפתלי
9
פשוט מורידים את השלטר ואין חשמל אין ai
שי
8
ה.א.ל 9000 כבר כאן?
אודיסיאה 2001
7
לבסוף, כדור הארץ יהפוך לשממה, ולא יהיה בו שום זכר לדעת, שגם כך בקושי שכבר יש. והכל מובל על ידכם, אנשי היומיום, המתברגים תמיד אל תוך כל שהאשפה האנושית מייצרת, מתוך מניעים של בצע כסף וכוח, אשליה אמיתית. מגיע לכם להיגמר..לא?
יש לנו עולם הבא
6
חברת המחקרים הזו שבוחנת לכאורה את הסכנות בAI מתקיימת מגיוס המונים. היא צריכה להראות שהיא מועילה וחושפת סכנות. צריך להיות בור גמור כדי לא להבין שכל מה שנאמר בכתבה הזו זה שטויות. המודלים רק חוזים באופן הסתברותי מתמטי מילים ואין להם שום רצון שאיפה או מגמה בלתי נשלטת לא להיכבות. AI צופן בחובו סכנות אחר
רון
אז איך מסבירים שהם משקרים? אני מבקשת ציון מקורות וזה ממציא אותם
מינה
5
כבר בתחילת הדרך כאשר הקימו חברות עם אנשי מקצוע בכירים בחברות ההבינה מלאכותית וערכו מיזוגים עד ש2 ההיטקיסטיות שהיו אמורות לשמור על מיקרים של שימוש פלילי/לא ראוי/פוגעני... רשמתי שיש לקבוע מראש בתכנית מי מכבה את השלטר של התוכנה ומשבית אותה. למנוע מקרה הגולם מפראג...
238256
4
אתם חולי נפש מטורפים אתם הולכים לקראת שואה הדבר הזה מסוכן יותר מכל פצצות האטום אם יתפוצצו אני איש הייטק ואני יודע את הנזקים העתידיים הנוראים בלתי הפכים ואתם ממשכים לשחק באש במקום שכולם ימחו ויתאגדו נגד הדבר הזה אך אם לא ישמעו זה יותר משואה עולמית לא אפרט
משה
3
לצערי המין האנושי הפסיד את ההזדמנות. ויצר את המין שישמיד אותו. אי אפשר ממש להילחם בזה. אפשר קצת לעכב את זה זה הכל. פשוט ברגע שהטכנולוגיה קיימת ימצא מי שהיא תעניק לו יתרון. זה יכול לקחת 100 שנה זה יכול לקחת 300 שנה 400 שנה אבל זה יקרה.
אודי
2
תמיד אפשר להוציא את התקע ונראה שאס הוא לא יכבה
קילר
1
יורים בו .
המשקיף

אולי גם יעניין אותך:

עוד בחדשות הטכנולוגיה: