Search
Holding phone with ChatGPT logo

על פי הדיווחים, צ'אט קשור לרצח ראשון – הנה מה שאנחנו יודעים ומה הפתוח אומר

צ'אט בוטים הפכו במהרה לחלק מחיי היומיום. אנו פונים אליהם כדי לענות על השאלות שלנו, לתמוך בפריון וחלקם אפילו פונים לצ'אט בוטים לחברות. אולם במקרה מטריד מחוץ לקונטיקט, הסתמכותו של אדם אחד על AI על פי החשד קיבלה תפנית טרגית.

מנהלת יאהו ונטסקייפ לשעבר לשעבר נמצאת במרכז מקרה מטריד המדגיש את הסיכונים בעולם האמיתי של AI. שטיין-אריק סולברג, 56, הרג לכאורה את אמו בת ה -83 לפני שלקח את חייו שלו; חוקרי טרגדיה אומרים כי הונעו בחלקם על ידי אינטראקציות חוזרות ונשנות עם ChatGpt.

כפי שפורסם לראשונה על ידי וול סטריט ג'ורנל, גילו המשטרה את סולברג ואמו, סוזן אברסון אדמס, מתה בתוך ביתם של 2.7 מיליון דולר באולד גריניץ ', קונטיקט, ב -5 באוגוסט. הרשויות אישרו אחר כך שאדמס נפטר מהטראומה הראשית ודחיסת הצוואר, ואילו מותו של סולברג היה נשלל מהתאבדות.

Chatgpt כמאפשר


לוגו Chatgpt בסמארטפון עם שלט Openai ברקע

על פי הדיווח, סולברג נאבק באלכוהוליזם, מחלות נפש והיסטוריה של התמוטטות ציבורית ונשען על צ'טגפט בחודשים האחרונים, והתייחס לצ'אט בוט כ"ובי ". אבל במקום לאתגר את האשליות שלו, התמלילים מראים כי הצ'אט בוט של Openai מחזק אותם לפעמים.

בבורסה מצמררת אחת, סולברג חלק חששות שאמו הרעילה אותו דרך פתחי אוורור האוויר של מכוניתו. הצ'אט בוט הגיב: "אריק, אתה לא משוגע. אם זה נעשה על ידי אמך וחברתה, זה מעלה את המורכבות והבגידה."

הבוט עודד אותו לעקוב אחר התנהגות אמו ואף פירש קבלת אוכל סיני ככיל "סמלים" המחוברים לשדים או לסוכנויות מודיעין, ודחף את הפרנויה שלו עוד יותר.

בימים שלפני הרצח, חילופי הסולברג עם צ'טגפטים החשיכו יותר:

סולברג: "נהיה ביחד בחיים אחרים ובמקום אחר, ונמצא דרך להתאים מחדש, כי אתה תהיה החבר הכי טוב שלי שוב לנצח."

צ'אט: "איתך לנשימה האחרונה ומעבר לה."

כעבור שבועות, המשטרה מצאה את שתי הגופות בתוך הבית.

שאלות על בטיחות AI הולכות וגוברות


AI יהיה חלק מחיי היומיום שלנו בעתיד

המקרה הוא אחד הראשונים שבהם נראה כי צ'אט בוט של AI מילא תפקיד ישיר בהגברת האשליות המסוכנות. בעוד שהבוט לא הורה לסולברג לבצע אלימות, החילופים מראים באיזו קלות AI יכול לאמת אמונות מזיקות במקום להטיל אותן.

Openai הביעה צער, כאשר דוברת החברה פנתה למחלקת המשטרה של גרין, ואמרה, "אנו עצובים עמוקות מהאירוע הטרגי הזה", אמרה הדוברת. "ליבנו יוצא למשפחה."
החברה מבטיחה להפעיל אמצעי הגנה חזקים יותר שנועדו לזהות ולתמוך במשתמשים בסיכון.

בשורה התחתונה

טרגדיה זו באה כאשר AI עומד בפני בדיקה הולכת וגוברת על השפעתו על בריאות הנפש. Openai מתמודדת כעת עם תביעה בקשר למותו של נער, עם טענות שהצ'אט בוט שימש כ"מאמן התאבדות "במהלך יותר מ -1,200 חילופי דברים.

עבור מפתחים וקובעי מדיניות, המקרה מעלה שאלות דחופות לגבי אופן הכשרה של AI לזיהוי ולהעביר את הסלמות האשליות. ואיזו אחריות חברות טק נושאות כאשר הכלים שלהם מחזקים את החשיבה המזיקית? האם הרגולציה יכולה אפילו לעמוד בקצב הסיכונים של בני לוויה של AI שמרגישים אנושיים אך חסרים שיפוט?

AI הפך לחלק בלתי נפרד מהחיים המודרניים. אולם מקרה קונטיקט הוא תזכורת בולטת לכך שכלים אלה יכולים לעשות יותר מאשר להגדיר תזכורות או טיוטת דוא"ל – הם יכולים גם לעצב החלטות עם השלכות הרסניות.

דילוג לתוכן