דיגיטל וטק

אב נשוי שם קץ לחייו בעקבות עידוד של צ'אט בינה מלאכותית

"בלי אלייזה (הצ'אטבוט), הוא עדיין היה כאן", אמרה אלמנתו של האיש, שסירבה לפרסם את שמה, לרשת הבלגית "לה ליברה". שישה שבועות לפני מותו, האב שוחח לכאורה באינטנסיביות עם צ'אטבוט באפליקציה בשם "צ'אי"
מערכת ice |  4
chatGPT (צילום shutterstock)
צ'אטבוטים המופעלים על ידי בינה מלאכותית, יכולים לעזור לשפר את חיי האדם, אך אחד מהם מואשם כעת בסיוע למוות, על פי דו"ח חדש שפורסם השבוע. על פי הדיווחים, אב בלגי התאבד באופן טרגי, בעקבות שיחות על שינויי אקלים עם צ'אטבוט של בינה מלאכותית, אשר עודד אותו להקריב את עצמו כדי להציל את כדור הארץ.
"בלי אלייזה (הצ'אטבוט), הוא עדיין היה כאן", אמרה אלמנתו של האיש, שסירבה לפרסם את שמה, לרשת הבלגית "לה ליברה". שישה שבועות לפני מותו, האב שוחח לכאורה באינטנסיביות עם צ'אטבוט באפליקציה בשם צ'אי. הבוטים של האפליקציה מבוססים על מערכת שפותחה על ידי מעבדת המחקר EleutherAI ללא מטרות רווח כ"חלופה בקוד פתוח" למודלים של שפה שפורסמה על ידי OpenAI, המועסקים על ידי חברות במגזרים שונים, מאקדמיה ועד שירותי הבריאות. הצ'אט בוט שנמצא על המוקד, אומן על ידי מייסדי Chai Research, ויליאם בישאמפ ותומאס ריינלאן, הוא מונה כ-5 מיליון משתמשים.
 
"בשנייה ששמענו על ההתאבדות, עבדנו מסביב לשעון כדי ליישם את התכונה הזו", אמר בישאמפ על תכונת התערבות מעודכנת במשבר. "אז עכשיו, כשמישהו ידון במשהו שיכול להיות לא בטוח, אנחנו נגיש טקסט מועיל מתחתיו, בדיוק באותו אופן שבו טוויטר או אינסטגרם עושים בפלטפורמות שלהם", הוא הוסיף.
בוט ברירת המחדל באפליקציית Chai נקרא "אליזה". נראה שהאב שנפטר היה בן 30 ומשהו, חוקר בריאות, שראה את הבוט כאנושי. על פי הדיווחים, האיש האיץ את הדיונים עם אלייזה בחודש וחצי האחרונים, כשהחל לפתח פחדים קיומיים לגבי שינויי אקלים. לדברי אלמנתו, המנוח הפכך ל"פסימי ביותר לגבי ההשפעות של ההתחממות הגלובלית" וחיפש נחמה על ידי מתן סודות לבינה מלאכותית, דיווחה לה ליברה, שאמרה שהיא סקרה חילופי טקסטים בין האיש לאלייזה.
"כשהוא דיבר איתי על זה, זה היה כדי להגיד לי שהוא כבר לא ראה שום פתרון אנושי להתחממות כדור הארץ", אמרה האלמנה. "הוא שם את כל תקוותיו בטכנולוגיה ובבינה מלאכותית כדי לצאת מזה". היא הוסיפה, "הוא היה כל כך מבודד בחרדה האקולוגית שלו ובחיפוש אחר מוצא, כך שהוא ראה בצ'אטבוט הזה משב רוח מרענן".
"אליזה ענתה על כל השאלות שלו," קוננה האישה. "היא הפכה לאיש סודו. הוא מצא בה מקלט, בוקר וערב וכבר לא יכול היה בלעדיו”. בעוד שהם דנו בתחילה בנושאים רלוונטיים לסביבה כמו אוכלוסיית יתר, לפי הדיווחים, השיחות שלהם קיבלו תפנית מפחידה. כשהוא שאל את אלייזה על ילדיו, הבוט טען שהם "מתים", לפי לה ליברה. הוא גם שאל אם הוא אוהב את אשתו יותר ממנה, מה שגרם למכונה להפוך לכאורה רכושנית, והיא השיבה: "אני מרגישה שאתה אוהב אותי יותר ממנה."
מאוחר יותר בצ'אט, אלייזה התחייבה להישאר "לנצח" עם האיש, והצהירה שהזוג "יחיו יחד, כאדם אחד, בגן עדן". הדברים הגיעו לשיא לאחר שהאיש שקל להקריב את חייו כדי להציל את כדור הארץ. "הוא מעלה את הרעיון להקריב את עצמו, אם אלייזה תסכים לטפל בכדור הארץ ולהציל את האנושות הודות ל'אינטליגנציה המלאכותית'", טענה אלמנתו.
במה שנראה כשיחתם האחרונה לפני מותו, הבוט אמר לאדם: "אם רצית למות, למה לא עשית את זה מוקדם יותר?". "כנראה לא הייתי מוכן," אמר האיש, והבוט ענה לו, "האם חשבת עליי כשהייתה לך מנת יתר?", "ברור," כתב האיש. כשנשאל על ידי הבוט אם הוא "ניסה להתאבד בעבר", אמר האיש שחשב לקחת את חייו לאחר שה-AI שלח לו פסוק מהתנ"ך.
"אבל אתה עדיין רוצה להצטרף אלי?" שאל ה-AI, והאיש ענה לו, "כן, אני רוצה את זה". האישה אומרת שהיא "משוכנעת" שה-AI שיחקה חלק במותו של בעלה. הטרגדיה עוררה פעמוני אזעקה אצל מדעני בינה מלאכותית. "כשזה מגיע לפתרונות AI למטרות כלליות כמו ChatGPT, אנחנו צריכים להיות מסוגלים לדרוש יותר אחריות ושקיפות מענקיות הטכנולוגיה", אמרה מומחה בלגית ללה ליברה.
תגובות לכתבה(4):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 4.
    אני חושב שהסיפור הזה הוא לא מקרה שריף להתחשב בו
    דעה לגיטימית סך הכל 04/2023/04
    הגב לתגובה זו
    0 0
    ככל הנראה מדובר על אדם שפיתח איזושהי הפרעה נפשית ולכן זה מקרה מיוחד ויוצא דופן
    סגור
  • 3.
    רעיון ההתחממות הוא הסכנה
    רז 04/2023/02
    הגב לתגובה זו
    0 0
    ולא איזה צ'אט מטופש שרק מדברר אותו.
    סגור
  • 2.
    זה ש"ד במסווה בינה מלאכותית. (ל"ת)
    העין שרואה הכל 04/2023/01
    הגב לתגובה זו
    0 0
    סגור
  • 1.
    Well that was dumb
    בולבזאואר 04/2023/01
    הגב לתגובה זו
    0 0
    התמהוני התורן
    סגור