חוששת מההתקדמות המואצת

OpenAI חושפת: מודלים חדשים של בינה מלאכותית עלולים להוות איום ביולוגי גלובלי

חברת OpenAI מפרסמת התרעה חריגה על כך שמודלי הבינה המלאכותית המתקדמים הבאים שלה עלולים להנגיש ידע מסוכן גם למתחילים, ולהפוך תהליכים מורכבים של פיתוח חומרים ביולוגיים מסוכנים לנגישים יותר מאי פעם | החברה משיקה מסגרת היערכות חדשה וקשוחה, אך מודה כי ייתכן שהיכולות העתידיות של המודלים יחייבו פיקוח עולמי ועדכון מתמיד של כללי הבטיחות, כדי להתמודד עם סיכונים חסרי תקדים שמציבה הטכנולוגיה המתפתחת (טכנולוגיה)

מזהירה מפני ייצור נשק ביולוגי בעזרת הצ'אט. OpenAI (צילום: Shutterstock)

חברת OpenAI, מהמובילות בעולם בפיתוח בינה מלאכותית, פרסמה לאחרונה אזהרה חריגה לפיה המודלים המתקדמים הבאים שלה צפויים להוות סיכון מוגבר לסיוע בפיתוח נשק ביולוגי. הסיבה המרכזית לדאגה היא תופעה המכונה "Novice Uplift" – כלומר, היכולת של בינה מלאכותית להדריך גם אנשים ללא רקע מדעי מעמיק בתהליכים מורכבים ומסוכנים, כמו פיתוח חומרים ביולוגיים מסוכנים. ב-OpenAI מסבירים כי החשש הוא לא מיצירת איומים ביולוגיים חדשים שמעולם לא נראו, אלא מהפיכת ידע קיים ונגיש למומחים לזמין גם למתחילים, ובכך להוריד את הסף האינטלקטואלי הדרוש כיום בכדי לעסוק בפעילות מסוכנת כייצור נשק כימי.

כחלק מהמאמצים להתמודד עם הסכנות, OpenAI עדכנה באפריל 2025 את מסגרת ההיערכות שלה, מערכת ניהול סיכונים ייעודית שמטרתה לאתר ולבלום מבעוד מועד יכולות מסוכנות במודלים חדשים. המסגרת מתמקדת בשלושה תחומים עיקריים: יכולות ביולוגיות וכימיות, יכולות סייבר, ויכולות שיפור עצמי של המודלים עצמם. בכל תחום מוגדרים איומים פוטנציאליים ונקבעים ספים ברורים שמעבר להם תידרש התערבות נוספת לפני שחרור המודל לציבור.

העדכון האחרון למסגרת כולל גם הרחבה של תחומי המחקר, כך שנבחנות לא רק יכולות קיימות אלא גם תכונות חדשות כמו התחמקות ממנגנוני הגנה, הסתרת כוונות או שכפול עצמי של מודלים. בנוסף, כל דגם עובר סדרת בדיקות קפדניות, כולל ניסיונות יזומים לאתר בו חולשות (Red Teaming) ובחינה על ידי מומחים חיצוניים. הדגש הוא על זיהוי סיכונים חמורים בלבד – כאלה שעלולים להוביל למותם של אלפים או לנזק כלכלי עצום.

למרות המאמצים, ב-OpenAI מודים כי ייתכן שהמודלים העתידיים יהיו חזקים בהרבה מהיכולת הנוכחית של המסגרת להעריך ולבלום סיכונים. החברה מדגישה שמדובר בתהליך דינמי ומתמשך, שידרוש עדכונים מתמידים, שיתופי פעולה בין-תחומיים ופיקוח בינלאומי.

האם הכתבה עניינה אותך?

כן (100%)

לא (0%)

תוכן שאסור לפספס:

0 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

6
למה אבל רוצים לקצר דרכים , לא רוצים לעבוד קשה
אנונימי עצוב
5
רוצים לתת לבינה לעשות הכל , לא רוצים כמעט לחשוב ו מי מה שמתארים בכתבה זה כבר קורה בכל מקום היא אוספת נתונים ממשתמשים בלי רשות , מנסה לגזול בכל דרך אפשרית עבודות , מאלצת אנשים להשתמש בטוב וברע במקום לקחת את הבינה למקום חיובי עד עכשיו יש רק מקומות שלילים
אנונימי עצוב המשך של התגובה הקודמת
4
רוצים לתת לבינה לעשות הכל , לא רוצים כמעט לחשוב ו מי מה שמתארים בכתבה זה כבר קורה בכל
אנונימי מודאג המשך
3
מי שלא רוצה ללמוד עיצוב גרפי לא אמור להשתמש בבינה צריך להיות קטגוריות מסודרות במקום זה יש אפוקליפסה ופשוט כולם מתנהגים כמו זומבים מתלהבים מהבינה כי לפני זה היה להם קשה להכין ועכשיו הבינה עושה להם את העבודה והם מתנהגים כאילו הם גאונים סתם טיפשים בלי מודעות
אנונימי מודאג 3
2
מתלהבים מהבינה כי לפני זה היה להם קשה להכין ועכשיו הבינה עושה להם את העבודה והם מתנהגים כאילו הם גאונים סתם טיפשים בלי מודעות ורדך הגב עם רוצים להשתמש שזה יהיה חכם
אנונימי מודאג 5
1
בקטגוריות כפי שציינתי מי שלא למד עיצוב גרפי אז יש כלים של הבינה שלא אמורה להיות לו הרשאה להשתמש ככה בכך תחום אבל הכל בדיחה ורוצים לקחת ולגזול במקום להתקדם
אנוני מודאג

אולי גם יעניין אותך:

עוד בטכנולוגיה: