
ביל גייטס, מייסד־שותף של חברת מיקרוסופט, הזהיר כי בינה מלאכותית עלולה לשמש בעתיד לפיתוח נשק ביולוגי בידי ארגונים שאינם מדינתיים, במיוחד כאלה שיכולים לגשת לכלי תוכנה בקוד פתוח.
האזהרה הופיעה במכתבו השנתי של גייטס, שכותרתו ״אופטימיות עם הערות שוליים״, שפורסם ביום שישי האחרון. לדבריו, אף שהבינה המלאכותית צפויה לשנות את החברה האנושית יותר מכל טכנולוגיה אחרת, היא טומנת בחובה גם סיכונים חמורים לאוכלוסיית העולם.
גייטס הזכיר כי כבר בשנת 2015 הזהיר בהרצאת TED שהעולם אינו ערוך להתמודדות עם מגפה עולמית. לדבריו, אילו הייתה היערכות מוקדמת ומתאימה לקורונה, היקף הסבל האנושי היה קטן משמעותית. כיום, כך כתב, קיים איום חמור אף יותר ממגפה טבעית, והוא האפשרות שארגון לא־מדינתי ינצל כלי בינה מלאכותית פתוחים כדי לתכנן נשק ביולוגי.
לדבריו, האנושות חייבת לפעול בזהירות ובאחריות בכל הנוגע לפיתוח, רגולציה והטמעה של מערכות בינה מלאכותית. גייטס הוסיף כי אין לדעת מהו גבול היכולות של מערכות אלו, והביע את דעתו על פיה ההתקדמות לא תיעצר לפני שהבינה המלאכותית תעלה על רמת האינטליגנציה האנושית.

נשק ביולוגי כולל שימוש בחיידקים, נגיפים או רעלנים לצורך גרימת מחלות ופגיעה בבני אדם, בבעלי חיים ובחקלאות.
באוקטובר האחרון חשפו מהנדסי ביו־טכנולוגיה במיקרוסופט כשלים חמורים במנגנוני ההגנה שנועדו למנוע מגורמים לא־מדינתיים לפתח נשק ביולוגי. במחקר שפורסם בכתב העת Science בחרו החוקרים 72 חלבונים הנתונים לפיקוח חוקי, בהם גם ריצין, רעלן חיידקי קטלני. באמצעות כלי בינה מלאכותית לתכנון חלבונים הצליחו המדענים ליצור יותר מ־70 אלף רצפי DNA שיכולים להוביל ליצירת גרסאות שונות של חלבונים אלה, שחלקן בעלות פוטנציאל רעיל.
בהמשך הועברו הרצפים לארבעה ספקים של מערכות סינון ביולוגי, המשמשות מעבדות לסינתזה של DNA, כדי לבדוק אם התוכנות מזהות את הסיכון. לפי ממצאי המחקר, מערכות רבות כשלו בזיהוי הרצפים הבעייתיים, ורמת הביצועים שלהן הייתה לא אחידה. אחת המערכות זיהתה רק 23 אחוזים מהרצפים כמסוכנים.
מחברי המחקר קראו לספקי DNA לעדכן ולהחמיר את מערכות הסינון שבהן הם משתמשים, ולחברות בינה מלאכותית להטמיע מנגנוני הגנה נוספים בכלי תכנון החלבונים, במטרה לצמצם את הסיכון לשימוש לרעה בטכנולוגיה.








0 תגובות