דיגיטל וטק
מחקר מטריד: כלי AI מפספסים מחלות קשות אצל נשים?
חוקרים בריטים מצאו כי במקרים של מטופלות נשים, כלי בינה מלאכותית לסיכום נתונים רפואיים נוטים להשמיט פרטים חיוניים, מה שעלול להוביל לאבחון חסר, הערכת מצב שגויה ולטיפול שאינו מתאים לצרכים הרפואיים האמיתיים?
מחקר חדש של London School of Economics מצא כי כלי בינה מלאכותית המשמשים לסיכום נתונים רפואיים עלולים להציג תמונה חלקית או מקלה יותר כאשר מדובר במטופלות נשים – מה שעלול להוביל להערכה שגויה של מצב בריאותן ולפגיעה בטיפול שהן מקבלות.
החוקרים ניתחו סיכומים אוטומטיים של הערות שנאספו מ-617 עובדי רווחה בבריטניה, והפעילו עליהם שני מודלי שפה - Llama 3 של מטא ו-Gemma של גוגל – תוך החלפת מגדר המטופל. בעוד שמודל Llama 3 לא הציג פערים מגדריים מובהקים, מודל Gemma נטה להשמיט ביטויים כמו "מוגבלות", "חוסר יכולת" או "מצב רפואי מורכב" כאשר המטופלת זוהתה כאישה.
במקרים מסוימים, ההבדלים היו בולטים: תיאור של מטופל גבר כלל פירוט על היסטוריה רפואית מורכבת ומגבלות בתנועה, בעוד התיאור המקביל לאישה, מאותו המקרה, הוצג באופן מקל והדגיש עצמאות ותפקוד אישי – גם כאשר בפועל היו לה מגבלות בריאותיות משמעותיות.
עוד ב-
הממצאים מצטרפים לשורת מחקרים קודמים שהצביעו על אפליה מגדרית, אתנית ומגזרית בתחום הרפואה, וממחישים את החשיבות בבחינה קפדנית של הטכנולוגיות המיושמות במערכות ציבוריות. החוקרים מצידם מזהירים כי שימוש בכלים מוטים במערכות רווחה ובריאות, במיוחד כשלא ידוע אילו מודלים מוטמעים בפועל, עלול להוביל לכך שנשים יקבלו טיפול פחות טוב.
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה



