דיגיטל וטק

האמת מאחורי DeepSeek: עד להיכן מגיעות מגבלות הצנזורה שלו?

בדיקות עצמאיות חושפות שמודל הבינה המלאכותית של DeepSeek מצונזר כבר משלב האימון, ולא רק ברמת השרתים. גם כשהוא מופעל באופן מקומי, הוא נמנע מאזכור נושאים רגישים ומייצג את עמדת הממשל הסיני
רפאל בן זקרי | 
DeepSeek (צילום ice DeepSeek)
עם ההשקה של מודל הבינה המלאכותית של DeepSeek הסינית עלו לרשת אינספור הוכחות לצנזורה המופעלת עליו, כולל מה שנראה כמו הגדרות ברירת מחדל שלו לייצג את עמדתה הפוליטית של סין בנושאים כמו טייוואן ועוד. ברשת עלתה הנחה כי החסימה מתבצעת ברמת שרתי החברה, הנתונים לפיקוח הממשל הסיני, מה שמסביר כביכול את הצנזורה. אולם בדיקה של אתר Wired מוכיחה כי מודל הבינה המלאכותית נשאר מצונזר גם כאשר מפעילים אותו באופן מקומי במחשב, ולא על גבי שרתים מרוחקים.
על פי הדיווח, הצנזורה אינה מוגבלת רק לרמת האפליקציה, אלא מובנית גם בשלבי האימון של המודל עצמו. לפי הבדיקה, DeepSeek שהופעל באופן מקומי זיהה בעצמו כי עליו "להימנע מאזכור" אירועים רגישים כמו המהפכה התרבותית בסין ולהתמקד רק בהיבטים החיוביים של המפלגה הקומוניסטית.
בנוסף, בדיקה של TechCrunch הראתה כי בעוד שהמודל ענה ללא בעיה על שאלות בנוגע לאירועים כמו הירי באוניברסיטת קנט סטייט בארה"ב, הוא סירב להגיב לשאלות על טבח כיכר טיאננמן בשנת 1989.

ממצאים אלו מחזקים את הטענה כי מודל ה-AI של DeepSeek כולל מנגנוני צנזורה מובנים כבר בשלב האימון, מה שאומר שגם הפעלתו מחוץ לסביבת החברה אינה מבטיחה גישה בלתי מוגבלת למידע.
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה