האם פרסונת בינה מלאכותית יכולה לזהות מתי אדם משקר – והאם עלינו לסמוך עליה אם היא יכולה? לבינה מלאכותית, או AI, היו התקדמות רבות לאחרונה והיא ממשיכה להתפתח בהיקפה וביכולת. מחקר חדש בהובלת אוניברסיטת מישיגן סטייט צולל לעומק עד כמה AI יכול להבין בני אדם על ידי שימוש בו כדי לזהות הונאה אנושית.
במחקר, שפורסם ב- כתב עת לתקשורתחוקרים מ-MSU ומאוניברסיטת אוקלהומה ערכו 12 ניסויים עם למעלה מ-19,000 משתתפי בינה מלאכותית כדי לבחון עד כמה פרסונות בינה מלאכותית הצליחו לזהות הונאה ואמת מנבדקים אנושיים.
מחקר זה נועד להבין עד כמה בינה מלאכותית יכולה לסייע בגילוי הונאה ולדמות נתונים אנושיים במחקר מדעי חברתי, כמו גם להזהיר אנשי מקצוע בעת שימוש במודלים של שפות גדולות לזיהוי שקרים."
דוד מרקוביץ, פרופסור חבר לתקשורת במכללת MSU לאמנויות ומדעים לתקשורת והמחבר הראשי של המחקר
כדי להעריך בינה מלאכותית בהשוואה לזיהוי הונאה אנושי, החוקרים משכו מ-Truth-Default Theory, או TDT. TDT מציע שאנשים לרוב ישרים, ואנחנו נוטים להאמין שאחרים אומרים לנו את האמת. תיאוריה זו עזרה לחוקרים להשוות את אופן פעולת הבינה המלאכותית לאופן שבו אנשים פועלים באותם סוגים של מצבים.
"לבני אדם יש הטיית אמת טבעית – אנחנו בדרך כלל מניחים שאחרים כנים, ללא קשר לשאלה אם הם אכן כן", אמר מרקוביץ. "הנטייה הזו נחשבת שימושית מבחינה אבולוציונית, שכן ספק מתמיד של כולם ידרוש מאמץ רב, יקשה על חיי היומיום ויהווה עומס על מערכות יחסים."
כדי לנתח את השיפוט של פרסונות בינה מלאכותית, החוקרים השתמשו בפלטפורמת המחקר של Viewpoints AI כדי להקצות מדיה אודיו-ויזואלית או אודיו בלבד של בני אדם ל-AI לשפוט. שופטי הבינה המלאכותית התבקשו לקבוע אם הסובייקט האנושי משקר או דובר אמת ולספק רציונל. משתנים שונים הוערכו, כגון סוג מדיה (אודיו-ויזואלי או אודיו בלבד), רקע הקשרי (מידע או נסיבות שעוזרים להסביר מדוע משהו קורה), שיעורי בסיס של אמת-שקר (פרופורציות של תקשורת כנה ומתעתעת), והפרסונה של ה-AI (זהויות שנוצרו כדי לפעול ולדבר כמו אנשים אמיתיים) כדי לראות כיצד דיוק ההשפעה של AI זוהה.
לדוגמה, אחד המחקרים מצא שבינה מלאכותית מוטה לשקר, שכן בינה מלאכותית הייתה הרבה יותר מדויקת עבור שקרים (85.8%) בהשוואה לאמיתות (19.5%). בהגדרות חקירה קצרות, דיוק ההטעיה של הבינה המלאכותית היה דומה לבני אדם. עם זאת, בסביבה שאינה חקירה (למשל, בעת הערכת הצהרות על חברים), בינה מלאכותית הראתה הטיית אמת, והתאימה בצורה מדויקת יותר לביצועים אנושיים. באופן כללי, התוצאות מצאו שבינה מלאכותית מוטה יותר שקרים והרבה פחות מדויקת מבני אדם.
"המטרה העיקרית שלנו הייתה לראות מה נוכל ללמוד על בינה מלאכותית על ידי הכללתה כמשתתפת בניסויי גילוי הונאה. במחקר הזה, ועם המודל שהשתמשנו בו, התברר שה-AI רגיש להקשר – אבל זה לא הפך אותו לטוב יותר באיתור שקרים", אמר מרקוביץ.
הממצאים הסופיים מצביעים על כך שתוצאות הבינה המלאכותית אינן תואמות את התוצאות או הדיוק האנושיים וכי אנושיות עשויה להוות גבול חשוב, או תנאי גבול, לאופן החלות של תיאוריות גילוי הונאה. המחקר מדגיש ששימוש בבינה מלאכותית לזיהוי עשוי להיראות חסר פניות, אבל התעשייה צריכה להתקדם משמעותית לפני שניתן יהיה להשתמש בבינה מלאכותית גנרטיבית לזיהוי הונאה.
"קל לראות מדוע אנשים עשויים לרצות להשתמש בבינה מלאכותית כדי לזהות שקרים – זה נראה כמו פתרון היי-טק, פוטנציאלי הוגן ואולי גם חסר פניות. אבל המחקר שלנו מראה שאנחנו עדיין לא שם", אמר מרקוביץ. "גם חוקרים וגם אנשי מקצוע צריכים לעשות שיפורים משמעותיים לפני שבינה מלאכותית יכולה באמת להתמודד עם זיהוי הונאה."