דיגיטל וטק

גוגל שוב מסתבכת: מנוע החיפוש ממציא עובדות שגויות?

למרות שמדובר בפיצ'ר ניסיוני, מנוע החיפוש מבוסס הבינה המלאכותית של גוגל עונה בביטחון מוחלט גם על שטויות מוחלטות – ומציג מידע שגוי כאילו היה אמת ברורה. כך הפך הכלי לבדיחה ויראלית
רפאל בן זקרי |  1
גוגל (צילום shutterstock)
פיצ'ר החיפוש מבוסס ה-AI של גוגל, המכונה AI Overviews, ממשיך לייצר לעיתים קרובות הסברים שגויים ומומצאים לביטויים שאינם קיימים – תוך כדי שהוא מציג אותם כבעלי משמעות אמיתית. למרות ההערה הברורה שמציגה גוגל שמדובר בטכנולוגיה ניסיונית, הפיצ'ר עונה בביטחון גם על חיפושים שגויים או חסרי היגיון, לעיתים תוך הצגת מקורות שנראים אמינים.
הפיצ'ר מנסה להסביר ביטויים מומצאים כאילו היו פתגמים מוכרים, עם הסברים יצירתיים אך חסרי בסיס. למשל, החיפוש אחר המשמעות של הביטוי "you can’t lick a badger twice" הוביל להסבר דמיוני לחלוטין שנשמע משכנע – כאילו היה ביטוי מושרש בתרבות. תופעה זו זכתה לתשומת לב רבה ברשתות החברתיות, ואף הפכה לדרך משעשעת לבחון את מגבלות מודל הבינה המלאכותית של גוגל.
הבעיה נובעת משני מאפיינים מרכזיים של מערכות הבינה המלאכותית: ראשית, מדובר במודל המבוסס על חיזוי מילים – הוא יוצר את התשובה הבאה לפי הסבירות הסטטיסטית של רצף מילים, ולא על סמך הבנה אמיתית. שנית, המודל מחפש הזדמנויות לרצות את המשתמש, וכך הוא נוטה לאשר את הנחת השואל, גם כשאין לה בסיס, במקום להודות בחוסר ידע.
למרות שברוב המקרים מדובר בתקלות משעשעות ולא מזיקות, הפיצ'ר הזה מדגים מגבלה עמוקה ומשמעותית של מערכות הבינה המלאכותית הקיימות. יש לזכור שזוהי אותה טכנולוגיה שמפעילה גם מנגנוני חיפוש מתקדמים אחרים, ולכן מומלץ תמיד לבדוק את המידע שמתקבל ממנו – ולא לקבל כל תוצאה כמובנת מאליה.
 
תגובות לכתבה(1):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 1.
    זאת בכלל לא בדיחה - אלא סכנה עולמית
    גדעון 04/2025/24
    הגב לתגובה זו
    0 0
    הדרך מכאן לעולם שכולו פייק קצרה להפחיד.
    סגור