דיגיטל וטק
בעקבות הסכנות: אלה ההנחיות החדשות לפיתוח מערכת AI מאובטחת
בריטניה וארה"ב, יחד עם שותפים בינלאומיים מ-16 מדינות נוספות, פרסמו הנחיות חדשות לפיתוח מערכות בינה מלאכותית מאובטחת (AI)
בריטניה וארה"ב, יחד עם שותפים בינלאומיים מ-16 מדינות נוספות, פרסמו הנחיות חדשות לפיתוח מערכות בינה מלאכותית מאובטחת (AI).
"הגישה החדשה נותנת עדיפות לבעלות על תוצאות האבטחה ללקוחות, מאמצת שקיפות ואחריות רדיקלית, ומקימה מבנים ארגוניים שבהם עיצוב מאובטח הוא בראש סדר העדיפויות", אמרה סוכנות הסייבר והאבטחה של תשתיות (CISA ).
"המטרה היא להגביר את רמות אבטחת הסייבר של AI ולעזור להבטיח שהטכנולוגיה מתוכננת, מפותחת ופריסה בצורה מאובטחת", הוסיף המרכז הלאומי לאבטחת סייבר (NCSC).
ההנחיות גם מתבססות על המאמצים המתמשכים של ממשלת ארה"ב לנהל את הסיכונים הנשקפים מהבינה מלאכותית, זאת על ידי הבטחה שכלים חדשים נבדקים כראוי לפני הפרסום לציבור.
ההנחיות החדשות גם מחייבות חברות להתחייב להקל על גילוי המערכת ודיווח של צד שלישי על כל נקודות התורפה שנמצאות במערכות הבינה המלאכותית שלהן, זאת באמצעות מערכת שמוצאת באגים ותקלות, כך שניתן יהיה למצוא אותן ולתקן אותן במהירות.
עוד ב-
ההנחיות החדשות כוללות תכנון מאובטח, פיתוח מאובטח, פריסה מאובטחת ותפעול ותחזוקה מאובטחים, המכסים את כל התחומים המשמעותיים במחזור החיים של פיתוח מערכת AI, המחייבים ארגונים להציג את האיומים על המערכות שלהם וכן לשמור על שרשראות האספקה והתשתית שלהם.
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה



