דיגיטל וטק

האם הרשתות החברתיות מבצעות אפליה?

טוויטר מודה שאלגוריתם חיתוך התמונות שלה העדיף בני אדם לבנים על שחורים ונשים על פני גברים, וטיקטוק מואשמת בקידום תכנים להט"בופוביים
יאיר מור |  2
טיקטוק וטוויטר (צילום pexels edit ice)
הרשתות החברתיות הגדולות מוצאות את עצמן מתמודדות עם ביקורות קשות על הטיה ואפליה נגד מיעוטים וקבוצות שונות בחברה, וביומיים האחרונים פורסמו שני דו"חות אודות התכנים שהחברות הללו מציגות למשתמשים ועלולים להיות פוגעניים כלפי חלקם.
הראשונה היא טיקטוק, ששלשום פרסם ארגון ביקורת התקשורת האמריקאי Media Matters דו"ח לפיו היא מקדמת תכנים להט"בופוביים. תחקירן הארגון ביצע מעין ניסוי, במהלכו לחץ "לייק" על תכנים להט"בופוביים שהופיעו בפיד שלו שלא מיוזמתו - והתוצאות, באופן לא מפתיע, היתה כמות הולכת וגדלה של תכנים כאלו שהוצעו לו ברשת החברתית הפופולארית במיוחד בקרב צעירים.
הפוסטים שהוצגו לתחקירן כללו בעיקר בדיחות גרועות נגד הומוסקסואלים וטרנסג'נדרים ותמיכה בבניית קהילות המדירות אותם, אך כמה מהפוסטים היו לכל הפחות על גבול הקריאות לאלימות, או לפחות עידוד והכשרה שלה.
לדברי התחקירן, הבעיה היא לא שהפוסטים לא הוסרו, אלא שהמדיניות של טיקטוק כלל לא מכריזה שפוסטים להט"בופוביים יוסרו ממנה. במקום זאת, הוא התלונן, מדיניות טיקטוק מדברת "רק" על מלחמה נגד "דברי שטנה" המכוונים נגד אנשים על בסיס "גזע, מוצא אתני, מקור לאומי, דת, קאסטה, נטייה מינית, מין, מגדר, זהות מגדרית, מחלה קשה, נכות ומצב הגירה". לצורך העניין, נציין כי גם אנטישמיות אינה מוזכרת במדיניות החברה - אך ברור שהיא אסורה כחלק מהרשימה הזו, שכוללת לא פחות מ-4 סעיפים שמטרתם לאסור ביטויי להט"בופוביה.
הרשת החברתית לא הגיבה לדו"ח. בינתיים, מייסד ByteDance, המפעילה של הרשת, הודיע על פרישתו מתפקיד המנכ"ל. לפי רויטרס, אימינג ג'אנג בן ה-38, המחזיק בין 20% ל-30% ממניות החברה ויותר ממחצית מכוח הצבעה בחבר המנהלים שלה, הודיע במכתב ל-100,000 עובדיו כי הוא "אינו המנהל האידיאלי" וכי "יותר מעניין אותי לנתח עקרונות בארגון ובשוק, ולנצל את התיאוריות הללו כדי להפחית את עבודת ההנהלה, במקום לנהל אנשים" ו"להשפיע יותר על מהלכים ארוכי-טווח". בחצי השנה הקרובה הוא יחפוף את שותפו לייסוד החברה, רובו ליאנג,
דו"ח אחר על אפליה והטיה פורסם על ידי טוויטר, בניסיון לענות לטענות שעלו נגדה בשלהי 2020 ולפיהן אלגוריתם חיתוך התמונות שלה מעדיף אנשים לבנים על פני שחורים ומחפיץ נשים. חוקרים מצוות האתיקה, השקיפות והאחריות בלמידת מכונה ומצוות מחקר הבנת התוכן בחברה ניתחו את הטענות על ידי הזנת מקבצי תמונות וניתוח החיתוך שלהן על ידי האלגוריתם של החברה.
הממצאים הראו הטיות, אך קלות ביותר: בתמונות של גברים ונשים, היתה העדפה של 8% לטובת הצגת הנשים בגרסה החתוכה של התמונה; בתמונות של שחורים ולבנים היתה הטיה של 4% לטובת הצגת הלבנים; בתמונות של נשים בלבד הלבנות זו להעדפה של 7%; ובתמונות של גברים בלבד היתה העדפה של 2% ללבנים. בנוגע להחפצת נשים, לא נמצאו לכך ראיות, שכן לפי החברה האלגוריתם חתך כ-3% בלבד מהתמונות סביב חלקים שאינם הפנים, גם כשהציגו גברים וגם כשהציגו נשים, וברוב המקרים החיתוך נעשה סביב פרטים בולטים על הבגדים, כמו שמות קבוצות ספורט ומספרי שחקן.
למרות התוצאות, שהראו הטיות קלות, בחרה טוויטר לטעון כי תיקון שלהם אינו רק לא דרוש, אלא "מסוכן". לדבריה, הוא עלול ליצור הטיות חדשות נגד "תרבויות" וכדומה. לכן, במקום לתקן את האלגוריתם, הבטיחה טוויטר פשוט לקחת ממנו את השליטה על חיתוך התמונות, ולהציג את התמונות במלואן או לאפשר לגולשים שמעלים אותן לבחור אילו חלקים מהן יוצגו בפיד.
תגובות לכתבה(2):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 1.
    האנטישמיות של פייסבוק כבר הוכחה לפני כמה שנים,
    הר סוכר 05/2021/21
    הגב לתגובה זו
    0 1
    ולא שמענו מהם שום דבר שיאותת שזה השתנה. צוקרברג אולי יהודי.. הוא לא נותן לזה להשפיע עליו לנהל את החברה לפי זה. :(
    סגור
  • גם בגוגל קל להגיע לתוצאות אנטישמיות
    גל 05/2021/30
    הגב לתגובה זו
    0 0
    אז זה הופך את מייסדי גוגל היהודיים לאנטישמיים? גם בעבר הופיע disclaimer כאשר במילות החיפוש הופיעו מילים שקשורות ליהודים, על כך שתוצאות בעלות אופי אנטישמי עלולות להופיע. יש בפייסבוק מחלקה שעיסוקה הוא הסרת תכנים בעייתיים. ברור למה קשה לה לעמוד בעומס העבודה, וגם זה מגיע לתלונות של עובדים על תכנים קשים שהם נחשפים אליהם, ללא הכנה מראש. גם ביוטיוב יש, וכמובן שזה לא קל להגיע לזה. שם, לפחות בנושא של זכויות יוצרים יש אלגוריתם מבוסס בינה מלאכותית כנראה שמסוגל לזהות שימוש בתוכן מוגן בזכויות יוצרים. כמו שיש להם אלגוריתם לזיהוי קולי. אולי יצליחו לפתח אלגוריתם שמזהה תכנים בעלי אופי בעייתי, אבל בכל הנוגע לעניינים סמנטיים כנראה שבינה מלאכותית לא ברמה הזו עדיין.
    סגור