
בעקבות חקירה שפרסם העיתון הבריטי The Guardian בתחילת החודש (ינואר, 2026), הסירה גוגל ממנוע החיפוש שלה מספר תקצירים אוטומטיים מתחום הבריאות שהופקו על־ידי מערכת ה־AI החדשה שלה - “AI Overviews”. החקירה העלתה כי הסיכומים כללו מידע רפואי שגוי, ובמקרים מסוימים כזה שעלול לגרום לנזק ממשי למשתמשים שנעזרים במנוע החיפוש כמקור מידע רפואי אמין.
אחת הדוגמאות הבולטות נגעה לתוצאות בדיקות תפקודי כבד. גוגל הציגה בטקסט האוטומטי טווחי ערכים “נורמליים” לבדיקות דם מבלי להתחשב בגיל, מין, מוצא או רקע רפואי - נתונים חיוניים לפרשנות נכונה. על פי דוברת ארגון הצדקה הבריטי British Liver Trust, ונסה הבדיץ’, “הצגת ערכים כלליים עלולה לגרום לאנשים עם מחלות כבד לחשוב שהתוצאות שלהם תקינות, ובכך לעכב טיפול רפואי חיוני”.
הבדיץ’ הדגישה כי “בדיקות תפקודי כבד הן מכלול מורכב של מדדים שונים, ויש צורך ברופא כדי להבין את משמעותם. עצם הצגת מספרים אינה תחליף לאבחון מקצועי”.
החקירה זיהתה שגיאות חמורות נוספות, בהן המלצות שגויות לחולי סרטן הלבלב - להפחית שומן בתזונה, בניגוד גמור להמלצות הרפואיות - וכן מידע לא מדויק על בדיקות סרטן בקרב נשים.
למרות שהחברה הסירה חלק מהתקצירים המטעים, מומחים מזהירים כי בעיות דומות עדיין קיימות. בדיקות נוספות של The Guardian גילו כי ניסוחים מעט שונים של השאילתה (כמו “lft reference range”) עדיין מפעילים את מנגנון התקצירים. בגוגל מסרו כי הם בוחנים את המקרים הללו, וציינו כי לעיתים המידע שהוצג נשען על מקורות איכותיים, גם אם היה חלקי או לא מספיק מדויק.
הסערה החדשה סביב גוגל מצטרפת לגל ביקורת גוברת על שימוש במודלים שפתיים ליצירת מידע רפואי. עם עליית השימוש בבינה מלאכותית בשירותי חיפוש, חוקרים ואנשי רפואה מזהירים כי טעויות “שקטות” - כאלו שמופיעות בצורה אמינה - עלולות להיות המסוכנות ביותר.







0 תגובות