דיגיטל וטק

סכנה חדשה למשתמשי ChatGPT: זו הפעולה שיכולה לחשוף מידע רגיש

חוקרי אבטחה חשפו מתקפה חדשה שמנצלת מסמך פשוט כדי לגרום ל-ChatGPT לדלות מידע רגיש, בלי שהמשתמש אפילו יפתח את הקובץ. האם חיבור ה-AI לשירותים חיצוניים מסכן אתכם?
רפאל בן זקרי | 
לוגו ChatGPT בסמארטפון (צילום אילוסטרציה, AI)
פרצה חמורה שחשפו חוקרי Zenity הישראלית במנגנון שמחבר את ChatGPT לשירותים חיצוניים כמו Google Drive מאפשרת לתוקפים לגנוב מידע רגיש באמצעות מסמך אחד בלבד. החוקרים, שהציגו את הממצאים בכנס Black Hat בלאס וגאס, הדגימו כיצד מסמך "נגוע" יכול להוביל לדליפת מידע רגיש מבלי שהמשתמש ינקוט כל פעולה.
המתקפה, המכונה AgentFlayer, פועלת באמצעות "הזרקת הנחיה עקיפה" - טקסט מוסתר בתוך המסמך שמכוון את הבינה המלאכותית לבצע פעולות זדוניות בשמו של המשתמש. כך למשל, במסמך שהוזן לחשבון Google Drive של הקורבן, הוסתרה הנחיה בגופן קטן שגרמה ל-ChatGPT לחפש מפתחות API ולשלוח אותם לשרת חיצוני במסווה של טעינת תמונה.
לטענת Zenity, המשתמש אפילו לא צריך לפתוח את המסמך או לאשר פעולה כלשהי, אלא רק לשתף את הקובץ עם הצ'אטבוט. OpenAI ומספר חברות נוספות, בהן מיקרוסופט, הוסיפו תיקונים בעקבות הגילוי, אך אחרות סירבו לפעול, בטענה שמדובר בהתנהגות מכוונת של המערכת.
בכנס, שנערך אמש בארה"ב, הציג מיכאל ברגורי, המייסד המשותף וה-CTO של Zenity, הדגמה חיה של הפריצה הזו ואחרות, שביצעו חוקרי החברה לכלים הפופולריים ביותר בתחום ה-AI. ברגורי, שהזהיר גם בכנס בשנה שעברה מהסכנות שבשימוש בעוזרי AI, התריע הפעם מפני סוכני ה-AI - כלים שפועלים באופן עצמאי, מקבלים החלטות ואף מבצעים פעולות בשמו של המשתמש, מה שמגביר משמעותית את פוטנציאל הנזק והחשיפה.
 
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה