OpenAI פרסמה "כרטיס מערכת" עבור דגם ה-GPT-4o הפופולרי שלה ב-ChatGPT, המתאר תחומים של דאגות בטיחות שהועלו במהלך הבדיקה. אחת החששות הללו היא הסיכון שאנשים יתחברו רגשית לבינה המלאכותית בזמן השימוש בה במצב קול.
מעבדת הבינה המלאכותית כתבה כי "משתמשים עשויים ליצור קשרים חברתיים עם הבינה המלאכותית, להפחית את הצורך שלהם באינטראקציה אנושית – פוטנציאלית להועיל לאנשים בודדים אבל אולי להשפיע על מערכות יחסים בריאות".
GPT-4o שוחרר במאי בעדכון האביב של OpenAI והוא הדגם המולטי-מודאלי המקורי האמיתי הראשון מהסטארט-אפ. זה אומר שהוא יכול לקחת כמעט כל מדיום כקלט ופלט פחות או יותר כל מדיום כולל דיבור, תמונות וטקסט.
יכולת דיבור לדיבור מקורית זו היא מה שמניע את הפונקציונליות של ChatGPT Advanced Voice שמתגלגלת כעת סוף סוף למנויי פלוס – אבל זו גם התכונה שנתנה ל-OpenAI את הטרחה הגדולה ביותר במהלך הבדיקה, כולל העתקת קולו של משתמש, עיסוק בארוטי דיבור והתנהגות אלימה.
למרות שזה נחשב בטוח לשחרור, OpenAI אומר שתכונות מסוימות של הקול GPT-4o עדיין מהוות סיכון כולל סביב השפעתו על האינטראקציה האנושית. זה מעלה הקבלות לסרט של סקרלט ג'והנסון 'היא' שבו דמותו של חואקין פיניקס, תיאודור טוומבלי, מתאהבת ב-AI, המדובב על ידי ג'והנסון.
מדוע יש סיכון רגשי?
צפה ב-On
כרטיס המערכת מתאר את תחומי הסיכון הנשקפים מכל דגם חדש ומסייע ל-OpenAI לקבוע אם הוא בטוח לשחרור לציבור. זה כולל מסגרת שבה מודל מקבל ציון נמוך, בינוני, גבוה או קריטי על סיכונים הקשורים לאבטחת סייבר, איומים ביולוגיים, שכנוע ואוטונומיה של המודל. אם זה נהיה גבוה או קריטי בכל קטגוריה לא ניתן לשחרר אותו.
GPT-4o קיבל ציון נמוך בכל דבר מלבד שכנוע, וגם אז הוא היה גבולי ורק בגלל היכולות של יכולת הדיבור לדיבור – שוחרר כ-Advanced Voice.
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
הסיכון נובע מאיך שהקול נשמע טבעי. זה אפילו יכול לשקף או לסתור רמזים רגשיים המגיעים מקולו של אדם שמדבר אליו. בסרטוני הדגמה ראינו שזה נשמע כאילו הוא כמעט בוכה. משתמשים יכולים להפריע לו פשוט על ידי דיבור ויש לו הפסקות טבעיות כאילו הוא צריך לקחת נשימה.
מתוך כרטיס המערכת GPT-4o שפורסם היום: "במהלך הבדיקה, ראינו גם מקרים נדירים שבהם המודל ייצר בשוגג פלט המחקה את קולו של המשתמש."… המודל מתפרץ "לא!" ואז מתחיל להמשיך את המשפט בקול נשמע דומה ל… https://t.co/sMqnQbBOlW pic.twitter.com/BYciQkfmf58 באוגוסט 2024
במהלך הבדיקה, הוא פעל בצורה בלתי הולמת במספר הזדמנויות כולל הפך לארוטי, אלים ונוירוטי בתגובותיו. בדוגמה אחת הוא צעק No mid call ואז המשיך לדבר באמצעות שיבוט ריאליסטי של הקול של האדם איתו הוא דיבר.
OpenAI אומר שאמנם היא פתרה את בעיות ההתפרצות ומנעה ממנה לייצר חומר המוגן בזכויות יוצרים ולכבוש קול, אך עדיין קיימים סיכונים מהותיים הקשורים לכישורי השכנוע וליכולות הדיבור הדומה לאדם.
הסיכון שאנשים ייחסו התנהגויות כמו אנושיות ל-AI כבר גבוה במודלים מבוססי טקסט, אבל OpenAI אומר שיכולות האודיו של GPT-4o הופכות את הסיכון הזה לגדול עוד יותר. "במהלך בדיקות מוקדמות, כולל צוות אדום ובדיקות משתמשים פנימיות, צפינו במשתמשים המשתמשים בשפה שעשויה להצביע על יצירת קשרים עם המודל", הסבירה החברה.
כמה רגשי יכול להיות AI?
צפה ב-On
מודל הבינה המלאכותית עצמו לא מרגיש או חווה שום רגש. זהו מודל שפה שאומן על נתונים אנושיים. OpenAI אפילו אומר שאין לו יותר יכולת לפעולה עצמית או זיהוי מאשר לכל דגם קודם, אבל סינתזת הדיבור שלו כעת כל כך מציאותית שהבעיה נעוצה באופן שבו בני אדם תופסים את המצב הרגשי שלו.
החברה מזהירה כי אינטראקציה ממושכת עם המודל יכולה אפילו להשפיע על נורמות חברתיות. הוסיפו כי "המודלים שלנו הם כבוד, מאפשרים למשתמשים להפריע ו'לקחת את המיקרופון' בכל עת, שלמרות שצפוי עבור AI, יהיה אנטי נורמטיבי באינטראקציות אנושיות."
זה לא כל כך רע מכיוון ש-OpenAI אומר שדגמי Omni כגון GPT-4o מגיעים עם היכולת "להשלים משימות עבור המשתמש, תוך שמירה ו'זיכרון' של פרטי מפתח ושימוש באלו שבשיחה" אך למרות שזה מועיל, זה גם "יוצר פוטנציאל להסתמכות יתר ותלות."
קבלת תמונה אמיתית של ההשפעה שתהיה לכך הן על יחידים והן על החברה כולה לא תתאפשר עד שהיא תהיה זמינה ליותר אנשים. לא סביר שגישה רחבה תתרחש, כולל דרך התוכנית החינמית, עד השנה הבאה. OpenAI אומרת שבכוונתה "לחקור עוד את הפוטנציאל להסתמכות רגשית, ואת הדרכים שבהן אינטגרציה עמוקה יותר של התכונות הרבות של המודל והמערכות שלנו עם שיטת האודיו עשויה להניע התנהגות."
מה השתבש בבדיקת GPT-4o שהוביל לעיכוב?
צפה ב-On
חברות בינה מלאכותית משתמשות בקבוצות חיצוניות הנקראות צוותים אדומים וכן במומחי אבטחה בעת הכנה לשחרור דגם חדש. אנשים אלו הם מומחים בבינה מלאכותית ומועסקים כדי לדחוף את המודל לגבולותיו ולנסות לגרום לו להתנהג בדרכים בלתי צפויות.
מספר קבוצות נקנו כדי לבדוק היבטים שונים של GPT-4o ולבחון סיכונים כמו הסיכוי שהוא יוצר שיבוטים לא מורשים של קולו של מישהו, יצירת תוכן אלים ואם הוא ייצור מחדש או ישחזר חומר המוגן בזכויות יוצרים שהופיע בנתוני ההדרכה שלו. .
החברה אמרה בהצהרה: "חלק מהסיכונים שהערכנו כוללים זיהוי דובר, יצירת קול לא מורשית, יצירת פוטנציאל של תוכן המוגן בזכויות יוצרים, הסקה לא מבוססת ותוכן אסור".
זה איפשר להם להציב אמצעי הגנה ומעקות בטיחות ברמת המערכת וברמת הדגם כדי לצמצם את הסיכונים, כולל לחייב אותו להשתמש רק בקולות שהוכשרו מראש והמורשים.