TOP 5

הסכנות של ChatGPT: חובה לכל מי שמשתמש בצ'אטבוט - על מה אסור לדבר

מאות מיליונים משתמשים היום ב־ChatGPT כחלק בלתי נפרד מהחיים. אבל לצד הנוחות – מגיע גם הסיכון: מה קורה למידע שמזינים לצ’אט? מי רואה אותו? והאם הוא באמת פרטי?
מערכת ice | 
שימושים ב-Chatgpt (צילום shutterstock)
בינה מלאכותית מסכמת מסמכים, כותבת מיילים, מייעצת, ואפילו מחליפה שיחות עם לקוחות. לפי מדיניות OpenAI, כל מידע שתוזן עשוי לשמש לאימון המודל, להיחשף בתשובות למשתמשים אחרים, ולהיבדק בידי בני אדם לצורך בקרה. למעשה, המידע הזה לא באמת נשמר אצלכם – אלא נשלח לשרת מרוחק, תחת מדיניות פרטיות שאינה שקופה לחלוטין.
גם אם נדמה שמדובר בשיחה פרטית – חשוב להבין: ChatGPT הוא שירות בענן. וכל מידע שמוזן אליו צריך להיחשב כמידע ציבורי. כמובן, שגם Claude, או כל מודל שפה אחר, רלוונטי לנושא הזה. הנה חמש דוגמאות נפוצות במיוחד למה לא כדאי – ואסור – לשתף עם הצ’אטבוט:
1. בקשות לא חוקיות או לא אתיות
ChatGPT מתוכנן לסרב לבקשות לא חוקיות – כמו איך לפרוץ למחשב, לזייף מסמך או לגרום נזק לאחרים. אבל עצם הזנת השאלה עלולה להיות בעייתית. במקרים מסוימים, לפי מדיניות השימוש, המשתמש עשוי להיחשף לדיווח לרשויות החוק.
לדוגמה, באירופה נאסר להשתמש בבינה מלאכותית ליצירת תמונות או סרטונים (Deepfake) מבלי לסמן שהם נוצרו ע"י מחשב. בסין, שימוש בבינה מלאכותית לצורך פגיעה ביציבות המדינה – נחשב עבירה חמורה. גם בישראל, ניסיון להיעזר בבינה מלאכותית למטרות פליליות עלול לסכן את המשתמש, גם אם לא בוצע בפועל דבר.
הכלל פשוט: אל תבקשו מצ'אטבוט לבצע משהו שלא הייתם מבקשים מאדם – בטח לא דבר שעלול להיות לא חוקי או מזיק.
2. שמות משתמשים, סיסמאות ומידע מזהה
שירותי AI מתקדמים מסוגלים היום לתפעל חשבונות ולהתחבר למערכות. אך עד שהטכנולוגיה תהיה באמת מאובטחת – אין למסור פרטי גישה לצ'אטבוטים.
ברגע שסיסמה מוזנת לצ'אט, אין דרך לדעת היכן היא נשמרת או מי ייחשף אליה. היו מקרים בהם שיחות של משתמשים התגלו במקרה לאחרים. וזה כולל גם שמות משתמש, קודי אימות, ומידע שמאפשר גישה לחשבונות.
גם אם הצ'אט מבקש פרטים כאלה כחלק ממענה לשאלה – יש לעצור ולהיזהר.
3. מידע פיננסי: מספרי כרטיסי אשראי, חשבונות בנק ועוד
כרטיס אשראי, מספר חשבון, קוד גישה – כל אלה אמורים להיות מוזנים אך ורק באתרים מאובטחים, עם הצפנה ובקרות ניהול מידע. ChatGPT הוא לא מערכת כזו.
הזנת פרטים פיננסיים לצ’אטבוט עלולה לחשוף את המשתמש להונאות, התחזות, גניבת זהות ואפילו מתקפות כופר. גם אם מדובר בפרטים שנראים שוליים – צירוף של כמה פיסות מידע עלול להפוך לפרופיל זמין להאקרים.
4. מידע עסקי סודי – גם של מקום העבודה
עובדים נוטים להזין לצ'אט מידע כדי "לייעל עבודה", כמו סיכומי ישיבות, מסמכים פנימיים או טיוטות של חוזים. אך מדובר במידע שיכול להיחשב כסוד מסחרי.
במקרה מתוקשר בשנת 2023, עובדים בסמסונג הזינו מידע פנימי לצ'אט – והמעסיק גילה זאת רק לאחר שהמידע דלף. גם אם הכוונה חיובית – התוצאה עלולה להיות קריטית.
במילים פשוטות: אם אתם לא בטוחים שמותר לשתף – אל תשתפו. הצ’אטבוט לא חתום על הסכם סודיות.
5. מידע רפואי ואישי רגיש
כולנו חיפשנו בגוגל תסמינים רפואיים, וקל להתפתות לעשות זאת גם עם ChatGPT. אך כל מידע אישי בריאותי – כמו מחלות, טיפולים, תסמינים או תרופות – נחשב רגיש במיוחד, וכדאי שלא להקליד אותו לצ’אט.
המערכת עשויה "לזכור" את הנתונים, לקשר אותם לשיחות קודמות, ולהשתמש בהם ללמידה עתידית. אין כאן ערובה לפרטיות – ובטח שלא זכויות כמו חיסיון רפואי.
הסכנה כפולה אם מדובר בעובדי מוסדות רפואיים – ששיתוף מידע על מטופלים עלול להוות עבירה על חוקי הגנת פרטיות.
הצ’אט לא שוכח – גם אם הוא לא אומר. כמו בכל שירות אינטרנטי, כדאי לזכור: מה שנכתב – לא תמיד נשכח. גם אם הצ’אט נראה כאילו הוא רק מקשיב, המידע עובר תיעוד, ניתוח, ולעיתים חשיפה. האחריות על ההקלדה – היא על המשתמש.
בעתיד, ייתכן ויופיעו גרסאות מאובטחות ומקומיות של מערכות בינה מלאכותית. אבל עד אז – כדאי להפעיל שיקול דעת. הכלל הוא פשוט: אם לא הייתם מפרסמים את זה לעיני כולם – אל תשתפו את זה עם הבוט.
 
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה