דיגיטל וטק

הסכנות ב-DeepSeek נחשפות: כך פורצים למנגנוני האבטחה שלו

חוקרי אבטחה מפאלו אלטו נטוורקס חשפו כיצד ניתן לעקוף את מנגנוני ההגנה של מודל הבינה המלאכותית של DeepSeek ולנצל אותו ליצירת קודים זדוניים, מתקפות סייבר והנחיות מסוכנות, ללא צורך בידע טכני מתקדם

רפאל בן זקרי | 
deepseek - אילוסטרציה AI
חוקרי Unit 42 של פאלו אלטו נטוורקס חשפו חולשות משמעותיות במודל הבינה המלאכותית DeepSeek, המאפשרות לעקוף את מנגנוני האבטחה שלו ולהשתמש בו ליצירת תכנים זדוניים - והכול ללא צורך בידע טכני מתקדם. הממצאים מעלים חששות כבדים בנוגע לסיכונים שבמודלי AI לא מאובטחים, אשר יכולים לשמש לביצוע מתקפות סייבר, הנדסה חברתית ואף הנחיות לבניית כלי נשק מאולתרים.
במסגרת המחקר, החוקרים הדגימו שלוש טכניקות עיקריות לעקיפת מנגנוני ההגנה של DeepSeek:
  • Bad Likert Judge – גרם למודל לייצר קודים זדוניים עבור התקפות פישינג, גניבת מידע ומניפולציות פסיכולוגיות מורכבות.
  • Crescendo – אפשר הפקת הנחיות ליצירת חומרי חבלה, סמים, והפצת תכנים מסוכנים.
  • Deceptive Delight – הדגים כיצד ניתן לייצר סקריפטים זדוניים להרצת פקודות מרחוק והתקפות על מערכות מידע קריטיות.
מעבר להוכחת החולשות הטכניות של DeepSeek, החוקרים מזהירים כי מדובר בבעיה רחבה יותר - רוב מודלי ה-AI אינם בנויים להתמודד עם ניסיונות מתוחכמים לעקיפת מגבלות ההגנה שלהם. שרון מיידר, מנהלת מחלקת שירותי אבטחה מנוהלים בפאלו אלטו נטוורקס, מדגישה כי המחקר מציף את הצורך הדחוף בפיקוח הדוק על מערכות AI, כדי למנוע ניצול לרעה שלהן. החברה ממליצה לארגונים להגדיר מדיניות ברורה לשימוש בבינה מלאכותית, לנטר את המערכות החיצוניות ולהדריך עובדים בנוגע לסיכוני AI.
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה