דיגיטל וטק

מחקר ה-BBC חושף: אלו כלי ה-AI שמספקים תשובות שגויות

בדיקת עומק מגלה שמודלים פופולריים כמו ChatGPT ו-Gemini מספקים תשובות המכילות טעויות חמורות, כולל עובדות שגויות וציטוטים מומצאים. עד כמה אפשר לסמוך על סיכומי חדשות מבוססי בינה מלאכותית?
רפאל בן זקרי |  1
ChatGPT (צילום shutterstock)
מחקר חדש של ה-BBC חושף כי כלים לסיכום חדשות בעזרת בינה מלאכותית (AI) נוטים לספק מידע לא מדויק או מטעה בשיעור גבוה במיוחד. במסגרת המחקר, נבחנו מודלי AI שונים - ביניהם ChatGPT של OpenAI, קופיילוט של מיקרוסופט, Gemini של גוגל ו-Perplexity - כדי לבדוק את היכולת שלהם לספק תשובות מדויקות לשאלות על חדשות שפורסמו באתר ה-BBC. התוצאות העלו ש-51% מהתשובות הכילו בעיות משמעותיות.
מבין הבעיות הנפוצות, 19% מהתשובות הציגו עובדות שגויות כמו מספרים או תאריכים לא נכונים, ו-13% מהציטוטים שהובאו מתוך כתבות ה-BBC שונו או כלל לא הופיעו במקור המצוטט. Gemini של גוגל דורג כבעייתי ביותר, כאשר 34% מהתשובות שסיפק היו בעלות טעויות, בהשוואה ל-27% אצל קופיילוט, 17% ב-Perplexity, ו-15% בלבד ב-ChatGPT.
בתגובה לתוצאות, כתבה מנכ"לית ה-BBC, דבורה טרנס כי "לא ייתכן שבעולם שמחפש ודאות, אנשים המחפשים תשובות יקבלו מידע מעוות המוצג כאמת. כלים אלה עלולים לערער עוד יותר את אמון הציבור בעובדות מאומתות, והסכנה לכך שהם יגרמו לנזק ממשי בעולם האמיתי היא ממשית."
תגובות לכתבה(1):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 1.
    זה המטרעעעע
    זה 02/2025/13
    הגב לתגובה זו
    0 0
    נכון מטרעעעעע.... לא מטרה, מטרת העולם זה כי האנשים יהיו יותר ויותר טיפשים, יהיה אמונה מלא בתוכנות ואז עושים ריסטרט וזה כל מה שרוצים, לרבות אנגדות ומילהם - תוך שני עשורים אנשים יהיו בורים ותלוים בתוכנות- - - נראה היום אנשים נוסעים ללא וויז למקומות רחוקים מהבית מהמרכז לטבריה/ ק.שמונה. או מהצפון לתל אביב או ב"ש... באחוזים בודדים נוסעים ללא וויז (ולא לא מגלל חשש מפקקים זה כי כבר אינו יודעים את הדרך וויז אומר הם מבצעים)
    סגור