
בשנים האחרונות הופכת הבינה המלאכותית לכלי מרכזי גם בשירותי הבריאות, עם הבטחות לשיפור אבחון, חיסכון בזמן ומשאבים ותמיכה לרופאים בלחצים מתמשכים. אולם תוצאות מחקרים בין-לאומיים שנערכו לאחרונה - כולל עבודות של MIT, ה-LSE ומוסדות רפואה מובילים - מצביעות על מגמה מטרידה: מערכות AI בתחומי אבחון, סיכוני בריאות ופרשנות קלינית מפלות קבוצות של נשים, שחורים ואסייתים במתן המלצות רפואיות, אבחנות וטיפולים.
לדוגמה, חוקרי MIT בדקו אלגוריתמים נפוצים דוגמת GPT-4 של OpenAI, Llama 3 של Meta ומודלים רפואיים כ-Palmyra-Med. הם גילו שהמערכות נוטות להמליץ על בדיקות ופענוחים יותר לגברים מאשר לנשים - גם במקרים רפואיים דומים בהם לא אמור להיות הבדל - וכן להעניק פחות בדיקות הדמיה לכהי עור בהשוואה ללבנים. מחקר נוסף מה-LSE מצא שבמודל Gemma, שבו עושה שימוש מעל חצי מרשויות הבריאות בבריטניה, תסמינים ונושאים רפואיים של נשים זוכים להתייחסות מינורית ורדודה לעומת תיאורים רחבים אצל גברים. גם בדיקות פסיכיאטריות מבוססות AI גילו הטיה גם ביחסי המלצות לאוכלוסייה אפרו-אמריקאית, עם הנחיות טיפוליות המחמירות כלפיה.
נוכח הגילויים, חברות כדוגמת Microsoft ו-Google נדרשות למסור דיווחים על מודלי הבינה המלאכותית בהן נעשה שימוש. Microsoft, לדוגמה, טענה ביולי 2025 כי מערכת הבינה שלה בכירורגיה מגיעה לאחוזי דיוק כפולים ממומחים אנושיים, אולם מומחי רפואה רבים קוראים להעמיד את הנתונים לבחינה בלתי תלויה ומדגישים: "דיוק אינו ערובה להוגנות."
הרגולטורים בארה"ב הגבילו את השימוש במערכות באופן שמחייב פיקוח רופא מוסמך על החלטות הכוללות דחיית בקשות בריאות המתקבלות במערכות האוטומציה, ובמדינות רבות נדרש סינון מחמיר לחשיפת רכיבים מפלים באלגוריתמים. משרד הבריאות האמריקאי חייב ארגוני בריאות לאתר ולהפחית מראש מקרי אפליה באלגוריתמים, ודיונים חמים מתקיימים גם בבתי המחוקקים במדינות האיחוד האירופי.
בעוד חברות הטכנולוגיה טוענות כי הן משתפרות ומנהלות בקרה קפדנית, מומחים מזהירים כי המקור להטיות נעוץ דווקא בנתוני עבר לא ראויים ובמתכונת ההכשרה של האלגוריתמים. "הסכנה", מסביר פרופ' מארזיה גאסמי מ-MIT, "שהמערכות ישכפלו ויעמיקו את החברה הלא שוויונית שהייתה מקובלת ברפואה שנים רבות".
ניתן לראות כי על אף תרומתה האדירה של הבינה המלאכותית לבריאות כמו לתחומים רבים נוספים - האתגר המרכזי כעת הוא להבטיח שהיא לא תהפוך לכלי שיחזור את אי-השוויון במקום לצמצם אותו.
0 תגובות