דיגיטל וטק
אלגוריתם חכם צריך שוטר פיקח לידו: בינה מלאכותית בשירות החוק
כש-ChatGPT מזין את המשטרה בסעיפי חוק שלא קיימים - זו אינה תקלה טכנית, אלא תמרור אזהרה להטמעה חפוזה של טכנולוגיה ללא פיקוח ואחריות. כלי AI משנים את פני עולם האכיפה והדרך ליישום מוצלח רצופה גם אתגרים וטעויות
דמיינו את הסיטואציה הבאה: אתם נוסעים הביתה בסוף יום עבודה ולפתע עוצר אתכם שוטר בטענה שרכבכם היה מעורב באירוע פלילי בעיר סמוכה. אתם מופתעים, כלל לא הייתם שם.
מתחיל הליך של בירור, מתן עדות ובדיקות שאורך כמה ימים מול המשטרה ובסופו מתברר כי חלה טעות בזיהוי. סוג ומספר הרכב שלכם זוהה בטעות באחת המערכות שנתמכות על-ידי בינה מלאכותית ומשהתבררה הטעות - הסתיים הטיפול בעניינכם.
מה שנשמע כמו תרחיש נדיר, קרה ממש לאחרונה בישראל. בשבוע שעבר פורסם כי המשטרה הגישה לבית המשפט כתב טענות ובו חוקים המבוססים לכאורה על טענותיה, אלא שהסנגור של הנאשם גילה שצוטטו בו סעיפי חוק שכלל לא קיימים. השופט מתח ביקורת חריפה על המשטרה, שהודתה בטעות שמקורה בשימוש שגוי ולא מבוקר בכלי AI והתחייבה לערוך תחקיר פנימי.
מקרה זה אמנם עורר ביקורת ציבורית ותקשורתית מוצדקת, אך הוא אינו מלמד על כוונה רעה או זדון חלילה, אלא מדגיש את החשיבות הגדולה בהטמעה זהירה, אחראית ומקצועית של טכנולוגיות מתקדמות ובכללן יישומי בינה מלאכותית.
כלים מבוססי AI כמו ChatGPT, מערכות לזיהוי תבניות, ניתוח וידאו, חיזוי פלילי ועוד, מציעים יכולת ופוטנציאל מרשים לשיפור ביצועים ויעילות העבודה המשטרתית. בדומה לכל טכנולוגיה חדשה, המעבר לשימוש בהם מחייב לא רק השקעה במערכות עצמן, אלא גם חשיבה מעמיקה על הניהול, הפיקוח, הרגולציה וההכשרה סביב כלים אלה.
רובם המכריע של השוטרים והחוקרים אינם מומחים טכנולוגים ולכן נדרש שהכלים הללו יהיו אמינים, מתוקפים ומתוחזקים והשימוש בהם צריך להתבצע תוך הקפדה יתרה והישענות על רגולציה ומדיניות ברורה.

בתמונה: ניצב בדימוס בועז גלעד, בכיר לשעבר בשב"כ ובמשטרה.
(צילום: אלן צ'פלסקי)
הבינה המלאכותית פועלת על בסיס מידע מצטבר ולמידת מכונה, ואם הנתונים שהוזנו למערכת, בין אם באופן ידני ובין אם אוטומטית, חלקיים, מוטים או לא מעודכנים – מכאן הדרך להסקת מסקנות לקויה תהיה קצרה.
בשונה מהאדם, האלגוריתם אינו מסוגל להבין את הקשר ולפענח נסיבות אישיות או מורכבויות אנושיות. לכן, יש חשיבות עצומה לכך שיישומים מעין אלה, לפחות לעת עתה ובנושאים קריטיים, לא יפעלו כתחליף מוחלט להחלטות אנושיות, אלא כתומכים בהם.
כדי להבטיח שימוש מיטבי בטכנולוגיה, יש לפעול במספר מישורים במקביל. הראשון - קביעת נהלים מוסדרים וברורים לשימוש ב- AI בגופי האכיפה, לרבות הגדרת המקרים בהם מותר להסתמך עליהם, איזו רמת ודאות נדרשת, וכיצד תתבצע ביקורת שוטפת.
השני - הכשרה נכונה לכוח אדם מתאים: רכישת המערכת אינה מספיקה לבדה, אלא יש לבצע הדרכות ומשוב תקופתי על מנת לוודא שנעשה בה שימוש נכון, לחדד את ההבנה של מגבלותיה ולזהות מצבים שדורשים בקרה נוספת. מישור נוסף הוא יצירת מערכת כללים ורגולציה עדכנית שתשמור על איזון בין החדשנות והשאיפה להתייעלות, לבין שמירה על זכויות הפרט.
היתרון האמיתי בשימוש בטכנולוגיה זו על-ידי גורמי אכיפה טמון ביכולת לשפר תהליכים קיימים, אך לא לבטל אותם. ה-AI יכול לסייע בזיהוי דפוסי עבריינות, לייעל את כתיבת הדו"חות, לשפר את מהירות התגובה ואף לשפר את הבקרה על התנהלות שוטרים. אך כל אלה מותנים בכך שהמערכת תפעל באופן שקוף, מבוקר, ובשילוב שיקול דעת אנושי.
אסור להיבהל משגיאות וטעויות, הן חלק בלתי נפרד מתהליך למידה והפקת לקחים. אל לנו לראות בטכנולוגיה מתקדמת "סכנה שיש לרסן", אלא דווקא "הזדמנות שיש לקדם". בכוחה של הבינה המלאכותית לחזק את מערכות האכיפה בישראל, כאשר שימוש נכון ביישומיה השונים עשוי לתרום גם בהיבטים של שקיפות, צדק, וחיזוק האמון הציבורי.
כדי שזה יקרה, נדרשים כללים ברורים ומנגנוני בקרה, ולצידם - מקצועיות, יוזמה ואומץ לחדש. האחריות על כך איננה רק של הגורמים הטכנולוגיים בארגון, אלא של כל מי שפועל לשמור על ביטחון ולאכוף את החוק.
עוד ב-
ניצב בדימוס בועז גלעד הוא בכיר לשעבר בשב"כ ובמשטרה, מנכ"ל חברת S.T – Impact וחוקר במכון לחקר הביטחון האישי והחוסן הקהילתי במכללה האקדמית גליל מערבי.
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה



