Search
Mass General Brigham משיק חברת AI כדי לשפר את התאמת הניסויים הקליניים

התגלמות פנימית יכולה להיות המפתח למערכות AI בטוחות יותר

כשאדם מושיט יד מעבר לשולחן כדי להעביר את המלח, המוח שלו עושה משהו הרבה יותר מורכב מאשר לזהות בקשה ולבצע תנועה. זה מתבסס על ניסיון גופני של חיים שלמים – היכן ידם בחלל, איך מרגיש מלחה, המודעות החברתית למי שאל ולמה. בתוך שבריר שנייה, הגוף והמוח שלהם פועלים כאחד.

למערכות הבינה המלאכותית המתקדמות ביותר של ימינו אין מנגנונים גופניים כאלה ומחקר חדש של UCLA Health טוען שיש לכך השלכות משמעותיות על האופן שבו המודלים הללו מתנהגים, כמו גם על מידת הבטיחות והאמינות שהם יכולים להפוך.

במאמר שפורסם בכתב העת עֲצָבוֹןעמית פוסט-דוקטורט באוניברסיטת UCLA Health Akila Kadambi ועמיתיו מציעים שלמערכות בינה מלאכותית הנוכחיות חסרים שני מרכיבים חיוניים שבני אדם לוקחים כמובנים מאליהם: גוף שמקיים אינטראקציה עם העולם הפיזי ומודעות פנימית למצבים של הגוף עצמו כמו עייפות, אי ודאות או צורך פיזיולוגי. החוקרים מכנים את המאפיין המשולב הזה "התגלמות פנימית", ומציעים שבניית אנלוגים פונקציונליים שלו לתוך AI מייצגת את אחד הגבולות החשובים והבלתי נחקרים ביותר בתחום.

בעוד שיש התמקדות נוכחית במודלים עולמיים על התגלמות חיצונית, כמו האינטראקציות החיצוניות שלנו עם העולם, הרבה פחות תשומת לב ניתנת לדינמיקה פנימית, או למה שאנו מכנים 'התגלמות פנימית'. בבני אדם, הגוף פועל כמווסת העולם החווייתי שלנו, כמעין מערכת בטיחות מובנית. אם אתה לא בטוח, אם אתה מדולדל, אם משהו מתנגש עם ההישרדות שלך, הגוף שלך רושם את זה. למערכות AI כרגע אין מקבילה. הם יכולים להישמע חוויתיים, בין אם הם צריכים להיות או לא, וזו בעיה אמיתית מסיבות רבות, במיוחד כאשר המערכות הללו נפרסות בהגדרות עוקבות".

אקילה קדמבי, עמית פוסט-דוקטורט, המחלקה לפסיכיאטריה ומדעי ביו-התנהגות בבית הספר לרפואה דוד גפן ב-UCLA והמחבר הראשון של המאמר

פער הגוף בינה מלאכותית

המאמר מתמקד במודלים של שפות גדולות מולטי-מודאליות, שהוא סוג הטכנולוגיה שמניע כלים כמו ChatGPT ו-Gemini של גוגל. בעוד שמערכות אלו יכולות לעבד וליצור טקסט, תמונות ווידאו כדי לתאר כוס מים, למשל, הן אינן יכולות לדעת איך זה מרגיש להיות צמא, קובעים המחברים.

ההבחנה הזו היא לא רק פילוסופית, קובעים המחברים, אלא יש לה גם השלכות מדידות על האופן שבו מערכות אלו מתפקדות ומתנהגות. באיור אחד מהמאמר, החוקרים הראו לכמה דגמי AI מובילים תמונה פשוטה: מספר קטן של נקודות מסודרות כדי להצביע על דמות אנושית בתנועה, שהיא מבחן תפיסתי מבוסס היטב המכונה תצוגת אור נקודתית שאפילו ילודים יכולים לזהות כאדם. מספר דגמים לא הצליחו לזהות את הדמות כאדם, כאשר אחד מתאר אותה במקום זאת כקבוצת כוכבים. כאשר אותה תמונה סובבה רק 20 מעלות, אפילו הדגמים עם הביצועים הטובים ביותר נשברו.

בני אדם לא נכשלים במבחן זה מכיוון שהתפיסה האנושית מעוגנת לחיים של ניסיון גופני שיש להם נעים כסוכנים הפועלים בעולם. מערכות בינה מלאכותית, מאומנות על ספריות עצומות של טקסט ותמונות אך ללא ניסיון גופני, תואמות דפוסים ללא העוגן הזה, קובעים מחברי המחקר.

שני סוגים של 'התגלמות'

המאמר יוצר הבחנה שלא נעשתה מפורשת בעבר במחקר בינה מלאכותית. הוא מגדיר "התגלמות חיצונית" כיכולת של מערכת ליצור אינטראקציה עם העולם הפיזי, לתפוס את סביבתה, לתכנן פעולות ולהגיב למשוב מהעולם האמיתי, המהווה מוקד חשוב במודלים של AI רב-מודאליים. אולם, התגלמות פנימית לא יושמה במודלים אלה. המחברים מגדירים זאת כניטור מתמשך של המצבים הפנימיים של האדם עצמו, המקבילה הביולוגית של הידיעה שאתה עייף, לא בטוח או זקוק.

בני אדם מווסתים את המצבים הפנימיים הללו באופן מתמיד ואוטומטי באמצעות איברי הגוף, ההורמונים ומערכת העצבים. בני אדם משתמשים במידע זה לא רק כדי לשמור על בריאות גופנית, אלא כדי לעצב קשב, זיכרון, רגש והתנהגות חברתית.

"לעומת זאת, למערכות בינה מלאכותיות נוכחיות אין מנגנון מקביל. הן מעבדות תשומות ומייצרות תפוקות ללא כל מצב פנימי מתמשך שמווסת את אופן התנהגותן לאורך זמן", אמר ד"ר מרקו יאקובוני, פרופסור במחלקה לפסיכיאטריה ומדעי ביו-התנהגות בבית הספר לרפואה של דוד גפן וכותב בכיר במאמר "זו לא רק מגבלה של ביצועים, אלא גם ללא מגבלת עלויות, אלא גם ללא מגבלה בטיחותית. סיבה פנימית להימנע משגיאות בטוחות מדי, להתנגד למניפולציות או להתנהג בעקביות."

מה מגיע אחר כך

המחברים טוענים כי המאמר נועד להנחות מחקר עתידי כאשר טכנולוגיית AI מתפתחת. המחברים מציעים את מה שהם מכנים "מסגרת התגלמות כפולה", או קבוצה של עקרונות לבניית מערכות בינה מלאכותית המדגימות הן את האינטראקציות שלהן עם העולם החיצוני והן את המצבים הפנימיים שלהן.

משתני המצב הפנימיים הללו לא יצטרכו לשכפל ישירות את הביולוגיה האנושית, אלא יתפקדו כאותות מתמשכים העוקבים אחר דברים כמו אי ודאות, עומס עיבוד וביטחון שיכולים לעצב את התפוקות של המערכת ולהגביל את התנהגותה לאורך זמן.

המחברים גם מציעים סוג חדש של בדיקות, או אמות מידה, שנועדו למדוד את ההתגלמות הפנימית של המערכת. מדדי AI קיימים מתמקדים כמעט אך ורק בביצועים חיצוניים, כגון אם המערכת יכולה לנווט בחלל, לזהות אובייקט להשלים משימה. החוקרים של UCLA טוענים שהתחום זקוק להערכות הבודקות האם מערכת יכולה לפקח על המצבים הפנימיים שלה, לשמור על יציבות כאשר מדינות אלו מופרעות ולהתנהג באופן פרו-חברתי בדרכים הנובעות מייצוגים פנימיים משותפים ולא מחיקוי סטטיסטי.

"מה שהעבודה הזו עושה זה להביא את התובנה הזו ישירות להתפתחות בינה מלאכותית", אמר יאקובוני. "אם אנחנו רוצים מערכות בינה מלאכותית שמתואמות באמת עם התנהגות אנושית – לא רק שוטפת באופן שטחי – אולי נצטרך לתת להן נקודות תורפה ובדיקות שמתפקדות כמו רגולטורים עצמיים פנימיים."

דילוג לתוכן