דיגיטל וטק

הפיתוח הישראלי יביא לפתרון בפריצת האבטחה בבינה המלאכותית?

אחת החולשות ב-AI גנרטיבי היא נתינת תשובות שאינן נכונות כחלק "מהזיות". צוות סטרטאפ מהארץ גילה כי אחת מהן מציעה למשתמשים להוריד תיקייה ריקה, אשר גורמים זרים יכולים להעלות דרכה תוכנות זדוניות. כעת הם מציעים פתרון לבעיה
מערכת ice | 
צ'אט GPT וגוגל בארד (צילום shutterstock)
כאשר הבינה המלאכותית ממשיכה להשתלט על עוד ועוד תחומים בחיינו, צוות המחקר בסטרטאפ הישראלי Lasso Security חשפו פרצת אבטחה מדאיגה ב-Chat GPT שעשויה לפגוע בכל המשתמשים בבינה מלאכותית גנרטיבית. צוות החוקרים גילה כי תשובה של הבינה המלאכותית המכילה "הזיה" מובילה להורדת תיקייה ריקה. את אותה תיקיה יכולים גורמים חיצוניים למלא בתוכנות זדוניות. 
למרות ההשקעות הרבות בבינה מלאכותית גנרטיבית, טכנולוגיה שכזו נוטה ל"הזהיות". כלומר - הצורך של בינה מלאכותית לתת תשובה, גם אם המידע אינו זמין. הדבר מוביל לנתינת מידע שגוי או לא מדויק. אחת מההזיות האלה המליצה למשתמשים ב-Chat GPT להוריד ספריית קוד שלא קיימת. 
 
החוקרים בסטרטאפ מצאו את החולשה והחליטו לבחון אותה בניסוי עצמאי. במהלך הבדיקה העלו החוקרים תוכן משלהם לתיקייה. לאחר שהעלו את התוכן גילו כי הורידו אותה יותר מ-30,000 משתמשים, ביניהם מתכנתים בעליבאבא. החברה פיתחה פתרון על מנת להגן על המשתמשים. 
הפתרון שמציעה החברה מזהיר משתמשים מפני ספריות קוד "ממוצאות" שנוצרו כחלק מ"הזיה". בר לינדאו, חוקר בצוות, אמר: "החולשה שגילינו מראה שההזיות של ChatGPT ודומיו ממשיכות להוות סיכון אבטחתי חמור לארגונים ומשתמשים". לינדאו הדגיש ואמר שהוא מקווה שכעת ענקיות הבינה המלאכותית יטפלו בחולשה בהקדם האפשרי. אבל עד שהם יעשו זאת, הוא מוסר: "אנו מציעים פתרון לארגונים ומפתחים שרוצים להמנע מלהוריד בטעות תוכנה זדונית שיתריע בפניהם על תיקיות שאינן קיימות".
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה