
חברת OpenAI, מהמובילות בעולם בפיתוח בינה מלאכותית, פרסמה לאחרונה אזהרה חריגה לפיה המודלים המתקדמים הבאים שלה צפויים להוות סיכון מוגבר לסיוע בפיתוח נשק ביולוגי. הסיבה המרכזית לדאגה היא תופעה המכונה "Novice Uplift" – כלומר, היכולת של בינה מלאכותית להדריך גם אנשים ללא רקע מדעי מעמיק בתהליכים מורכבים ומסוכנים, כמו פיתוח חומרים ביולוגיים מסוכנים. ב-OpenAI מסבירים כי החשש הוא לא מיצירת איומים ביולוגיים חדשים שמעולם לא נראו, אלא מהפיכת ידע קיים ונגיש למומחים לזמין גם למתחילים, ובכך להוריד את הסף האינטלקטואלי הדרוש כיום בכדי לעסוק בפעילות מסוכנת כייצור נשק כימי.
כחלק מהמאמצים להתמודד עם הסכנות, OpenAI עדכנה באפריל 2025 את מסגרת ההיערכות שלה, מערכת ניהול סיכונים ייעודית שמטרתה לאתר ולבלום מבעוד מועד יכולות מסוכנות במודלים חדשים. המסגרת מתמקדת בשלושה תחומים עיקריים: יכולות ביולוגיות וכימיות, יכולות סייבר, ויכולות שיפור עצמי של המודלים עצמם. בכל תחום מוגדרים איומים פוטנציאליים ונקבעים ספים ברורים שמעבר להם תידרש התערבות נוספת לפני שחרור המודל לציבור.
העדכון האחרון למסגרת כולל גם הרחבה של תחומי המחקר, כך שנבחנות לא רק יכולות קיימות אלא גם תכונות חדשות כמו התחמקות ממנגנוני הגנה, הסתרת כוונות או שכפול עצמי של מודלים. בנוסף, כל דגם עובר סדרת בדיקות קפדניות, כולל ניסיונות יזומים לאתר בו חולשות (Red Teaming) ובחינה על ידי מומחים חיצוניים. הדגש הוא על זיהוי סיכונים חמורים בלבד – כאלה שעלולים להוביל למותם של אלפים או לנזק כלכלי עצום.
למרות המאמצים, ב-OpenAI מודים כי ייתכן שהמודלים העתידיים יהיו חזקים בהרבה מהיכולת הנוכחית של המסגרת להעריך ולבלום סיכונים. החברה מדגישה שמדובר בתהליך דינמי ומתמשך, שידרוש עדכונים מתמידים, שיתופי פעולה בין-תחומיים ופיקוח בינלאומי.
0 תגובות