דעות
כשהטכנולוגיה דוהרת – מי מגן על הילדים והילדות?
הבינה המלאכותית מבטיחה חדשנות וחופש יצירה, אך במקביל מאפשרת פגיעה חמורה בילדים ובילדות. אחריות על כל שרשרת הערך, מהפיתוח ועד השימוש, היא לא המלצה אלא הכרח. כך נשמור על הדור הצעיר שלנו
אנחנו אוהבים את שפת הקדמה: חדשנות, פריצת גבולות, חופש יצירה. אבל מאחורי המילים הגדולות הללו מסתתרת סוגייה אחת, לא נוחה, שאנחנו נוטים לדחות שוב ושוב: מי נושא באחריות כשהטכנולוגיה פוגעת, ובעיקר, מי נושא באחריות כשהיא מנוצלת לרעה בידי בני אדם?
בשיח הציבורי סביב הבינה המלאכותית נדמה לעיתים שהנזק הוא "תופעת לוואי", משהו שניתן יהיה לטפל בו אחר כך. אלא שבמרחב הדיגיטלי, ובוודאי כשמדובר בילדים ובילדות, אין באמת אחר כך. הפגיעה מתרחשת במהירות, מתפשטת מיד, וממשיכה להתקיים גם כשהמסך כבוי.
לאחרונה עלה לשיח גם Grok, אחד מכלי הצ’ט-בוט מבוססי הבינה המלאכותית. אין בו כשלעצמו דבר חריג. הוא מייצג היטב את היכולות המרשימות של הדור הנוכחי של מערכות גנרטיביות, אך הוא ממחיש היטב את הדילמה לפיה אותה טכנולוגיה שמאפשרת יצירה, ידע ויעילות, מאפשרת גם ייצור והפצה של תכנים פוגעניים, משפילים ואינטימיים, בקנה מידה שלא הכרנו.
וכאן חשוב לדייק שהבעיה אינה רק באלגוריתם. היא בראש ובראשונה בבני אדם שבוחרים להשתמש בטכנולוגיה כדי לפגוע. אלגוריתמים אינם פועלים בחלל ריק: מאחורי כל יצירה פוגענית, כל הפצה וכל איום, יש משתמש או משתמשת. לכן האחריות אינה יכולה להיעצר בקוד או בתנאי שימוש כלליים – היא חייבת לחול על כל שרשרת הערך: החל ממפתחי הכלים, דרך מפעילי מסילות ההפצה, ועד למי שעושה שימוש פוגעני בפועל.
בעולם כבר הבינו זאת. מדינות באירופה, ובולטת בהקשר הזה בריטניה, גיבשו רגולציה המטילה חובות ברורות על פלטפורמות יצירה והפצה, ומרחיבה את האחריות גם על המשתמש הפוגעני. העיקרון פשוט: פגיעה דיגיטלית אינה "בעיה של משתמש קצה" בלבד, אלא סיכון מערכתי שדורש מניעה מראש.
גם ישראל אינה מתחילה מאפס. תיקון מספר 10 לחוק למניעת הטרדה מינית קבע כי הפצה או פרסום של תכנים מיניים ללא הסכמה, גם במרחב הדיגיטלי, הם פגיעה חמורה בכבוד האדם ובפרטיותו. בנוסף, מוקד ייעודי, 105, המופעל מטעם משטרת ישראל, משמש מוקד לאומי לטיפול בדיווחים על פגיעה בילדים ובילדות במרחב הדיגיטלי. עם זאת, צריך לומר ביושר וגם קצת בצער כי רוב המנגנונים בישראל פועלים לאחר שהפגיעה כבר התרחשה, בעוד שבעולם יש מקומות בהם מתקדמים יותר ופועלים עוד לפני.
וכאן אני כותב לא רק כאזרח מודאג, אלא גם כיו"ר עמותת "בית לכל ילד", עמותה המטפלת בילדים ובילדות שחוו פגיעה מינית, אלימות והזנחה, גם במרחב הדיגיטלי. פגיעה דיגיטלית אינה וירטואלית במובן הרגשי – היא מלווה חרדה, בושה, פגיעה בדימוי העצמי ותחושת איום מתמיד, משום שהאיום עלול להתחדש בכל שיתוף מחדש. מכאן, נכון לפעול במרץ ובנחישות. ההמלצות אינן תיאורטיות וכולן ישימות כאן ועכשיו.
ראשית, יש לקבוע חובות ברורות על פלטפורמות בינה מלאכותית להטמעת חסמים נגד יצירת תכנים מיניים ללא הסכמה, מנגנוני זיהוי וסימון של תכנים סינתטיים ושיתוף פעולה עם רשויות. כך פועל האיחוד האירופי במסגרת ה-AI Act, בגישת Safety by Design.
שנית, יש להטיל אחריות על מסילות ההפצה. אחריות זו כולל חובת הסרה מהירה, מניעת הפצה חוזרת, מנגנוני דיווח פשוטים ושקיפות. כך למשל פועל ה-Digital Services Act באירופה וה-Online Safety Act בבריטניה, בדגש ייחודי על הגנת ילדים וילדות.
שלישית, יש להבהיר כי גם יצירת תכנים פוגעניים היא עבירה חמורה, לחזק הרתעה ולשלב טיפול ושיקום היכן שנדרש.
ורביעית, יש לחזק מענה מתואם עבור נפגעים ונפגעות. מוקד 105 צריך להשתלב במודל כולל של One Stop Shop ו-Trusted Flaggers, המעביר את האחריות מהנפגע או הנפגעת אל המערכת.
חשוב להבהיר: הקריאה אינה נגד טכנולוגיה. היא בעד חדשנות עם אחריות. בעד מניעה, לא רק תגובה. ובעיקר, בעד הגנה על הדור הצעיר. הטכנולוגיה תמשיך לדהור קדימה. השאלה היא אם נבחר להציב לה גבולות, אחריות והגנה או שנמשיך לאסוף את השברים.
זו אינה שאלה טכנולוגית. זו שאלה ערכית.
עוד ב-
*הכותב, יאיר אבידן, הוא כלכלן בכיר והמפקח על הבנקים לשעבר. יו"ר הוועד המנהל – עמותת "בית לכל ילד".
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה



