חוקרי Dartmouth מדווחים שהם פיתחו את אפליקציית הסמארטפון הראשונה המשתמשת בבינה מלאכותית בשילוב עם תוכנת עיבוד תמונות פנים כדי לזהות באופן אמין את תחילת הדיכאון לפני שהמשתמש בכלל יודע שמשהו לא בסדר.
האפליקציה, המכונה MoodCapture, משתמשת במצלמה הקדמית של הטלפון כדי ללכוד את הבעות הפנים והסביבה של אדם במהלך שימוש קבוע, ולאחר מכן מעריכה את התמונות עבור רמזים קליניים הקשורים לדיכאון. במחקר של 177 אנשים שאובחנו עם הפרעת דיכאון מג'ורי, האפליקציה זיהתה נכון תסמינים מוקדמים של דיכאון ברמת דיוק של 75%.
תוצאות אלו מצביעות על כך שהטכנולוגיה עשויה להיות זמינה לציבור בחמש השנים הבאות עם פיתוח נוסף, אמרו החוקרים, שבסיסם במחלקה למדעי המחשב בדארטמות' ובבית הספר לרפואה גייזל. הצוות פרסם את המאמר שלו על מסד הנתונים של arXiv preprint לפני הצגתו בכנס CHI 2024 של איגוד מכונות המחשוב במאי. מאמרים המוצגים ב-CHI עוברים ביקורת עמיתים לפני הקבלה ויפורסמו בהליכי הכנס.
זו הפעם הראשונה שבה נעשה שימוש בתמונות טבעיות 'בטבע' כדי לחזות דיכאון. הייתה תנועה של טכנולוגיה דיגיטלית לבריאות הנפש כדי להביא בסופו של דבר כלי שיכול לחזות מצב רוח אצל אנשים שאובחנו עם דיכאון מז'ורי בצורה אמינה ולא פולשנית".
אנדרו קמפבל, המחבר המקביל של המאמר והפרופסור למדעי המחשב של דרטמות' אלברט בראדלי משנת 1915 מהמאה השלישית
"אנשים משתמשים בתוכנת זיהוי פנים כדי לפתוח את הטלפונים שלהם מאות פעמים ביום", אמר קמפבל, שהטלפון שלו הראה לאחרונה שהוא עשה זאת יותר מ-800 פעמים בשבוע אחד.
"MoodCapture משתמשת בצנרת טכנולוגית דומה של טכנולוגיית זיהוי פנים עם למידה עמוקה וחומרת בינה מלאכותית, כך שיש פוטנציאל אדיר להגדיל את הטכנולוגיה הזו ללא כל קלט או עומס נוסף על המשתמש", אמר. "אדם פשוט פותח את הטלפון שלו ו-MoodCapture מכיר את דינמיקת הדיכאון שלו ויכול להציע לו לפנות לעזרה."
לצורך המחקר, האפליקציה תפסה 125,000 תמונות של משתתפים במהלך 90 יום. אנשים במחקר הסכימו לצלם את התמונות שלהם באמצעות המצלמה הקדמית של הטלפון שלהם, אך לא ידעו מתי זה קורה.
קבוצה ראשונה של משתתפים שימשה לתכנת MoodCapture לזהות דיכאון. הם צולמו בהתפרצויות אקראיות באמצעות המצלמה הקדמית של הטלפון כשהם עונים על השאלה "הרגשתי מדוכא, מדוכא או חסר תקווה". השאלה היא מתוך שמונה נקודות שאלון בריאות המטופל או PHQ-8, המשמש רופאים כדי לזהות ולנטר דיכאון מג'ורי.
החוקרים השתמשו בבינה מלאכותית של ניתוח תמונה על תמונות אלו, כך שהמודל החזוי של MoodCapture יוכל ללמוד לתאם דיווחים עצמיים של תחושת דיכאון עם הבעות פנים ספציפיות – כגון מבט, תנועת עיניים, מיקום הראש ונוקשות שרירים – וסביבתי תכונות כגון צבעים דומיננטיים, תאורה, מיקומי צילום ומספר האנשים בתמונה.
הרעיון הוא שבכל פעם שמשתמש פותח את הטלפון שלו, MoodCapture מנתח רצף של תמונות בזמן אמת. מודל הבינה המלאכותית מצייר קשרים בין הבעות ופרטי רקע שנמצאו חשובים בניבוי חומרת הדיכאון, כגון מבט עיניים, שינויים בהבעת הפנים וסביבתו של אדם.
לאורך זמן, MoodCapture מזהה תכונות תמונה ספציפיות למשתמש. לדוגמה, אם מישהו מופיע בעקביות עם הבעה שטוחה בחדר אפלולי למשך תקופה ממושכת, מודל הבינה המלאכותית עשוי להסיק שאותו אדם חווה התחלה של דיכאון.
החוקרים בדקו את מודל הניבוי בכך שקבוצה נפרדת של משתתפים תענה על אותה שאלה של PHQ-8 בזמן ש-MoodCapture צילמה אותם וניתחה את התמונות שלהם לאיתור אינדיקטורים של דיכאון על סמך הנתונים שנאספו מהקבוצה הראשונה. זו הקבוצה השנייה ש-MoodCapture AI קבעה נכונה שהיו מדוכאים או לא עם דיוק של 75%.
"זה מדגים דרך לעבר כלי רב עוצמה להערכת מצב רוחו של אדם בצורה פסיבית ושימוש בנתונים כבסיס להתערבות טיפולית", אמר קמפבל וציין שדיוק של 90% יהיה הסף לחיישן בר קיימא. "התחושה שלי היא שטכנולוגיה כזו יכולה להיות זמינה לציבור תוך חמש שנים. הראינו שזה בר ביצוע".
MoodCapture פוגש דיכאון גדול בטווח הזמן הלא סדיר שבו הוא מתרחש, אמר ניקולס ג'ייקובסון, מחבר מחקר ועוזר פרופסור למדעי נתונים ביו-רפואיים ופסיכיאטריה במרכז לטכנולוגיה ובריאות התנהגותית של דארטמות'.
"רבות מההתערבויות הטיפוליות שלנו עבור דיכאון מתמקדות בפרקי זמן ארוכים יותר, אבל האנשים האלה חווים גאות ושפל במצבם. הערכות מסורתיות מחמיצות את רוב מה זה דיכאון", אמר ג'ייקובסון, המנהל את ה-AI ובריאות הנפש: חדשנות ב מעבדת בריאות מודרכת טכנולוגיה (AIM HIGH).
"המטרה שלנו היא ללכוד את השינויים בתסמינים שחווים אנשים עם דיכאון בחיי היומיום שלהם", אמר ג'ייקובסון. "אם נוכל להשתמש בזה כדי לחזות ולהבין את השינויים המהירים בתסמיני דיכאון, נוכל בסופו של דבר להתנער מהם ולטפל בהם. ככל שנוכל להיות יותר ברגע, כך ההשפעה של הדיכאון תהיה פחות עמוקה".
ג'ייקובסון צופה שטכנולוגיות כמו MoodCapture יכולות לעזור לסגור את הפער המשמעותי בין מצב שבו אנשים עם דיכאון זקוקים להתערבות לבין הגישה שיש להם למשאבי בריאות הנפש. בממוצע, פחות מ-1% מחייו של אדם עוברים אצל רופא כמו פסיכיאטר, אמר. "המטרה של הטכנולוגיות הללו היא לספק יותר תמיכה בזמן אמת מבלי להוסיף לחץ נוסף על מערכת הטיפול", אמר ג'ייקובסון.
אפליקציית בינה מלאכותית כמו MoodCapture תציע באופן אידיאלי אמצעי מניעה כמו יציאה החוצה או צ'ק-אין עם חבר במקום להודיע במפורש לאדם שהוא עלול להיכנס למצב של דיכאון, אמר ג'ייקובסון.
"לספר למישהו שמשהו רע קורה איתו יש פוטנציאל להחמיר את המצב", אמר. "אנחנו חושבים ש-MoodCapture פותחת את הדלת לכלי הערכה שיעזרו לזהות דיכאון ברגעים לפני שהוא מחמיר. יש לשלב את האפליקציות הללו עם התערבויות שמנסות לשבש דיכאון באופן אקטיבי לפני שהוא מתרחב ומתפתח. לפני קצת יותר מעשור, סוג זה של עבודה היה בלתי נתפס".
המחקר נובע מהענקה של המכון הלאומי לבריאות הנפש של ג'ייקובסון, אשר חוקר את השימוש בלמידה עמוקה ואיסוף נתונים פסיבי כדי לזהות תסמיני דיכאון בזמן אמת. זה גם בונה על מחקר משנת 2012 בראשות המעבדה של קמפבל שאסף נתונים פסיביים ואוטומטיים מהטלפונים של משתתפים בדארטמות' כדי להעריך את בריאותם הנפשית.
אבל התקדמות מצלמות הסמארטפונים מאז אפשרה לחוקרים לצלם בבירור את סוג התמונות ה"פאסיביות" שיצולמו במהלך שימוש רגיל בטלפון, אמר קמפבל. קמפבל הוא מנהל טכנולוגיות מתפתחות וניתוח נתונים במרכז לטכנולוגיה ובריאות התנהגותית, שם הוא מוביל את הצוות המפתח חיישנים ניידים שיכולים לעקוב אחר מדדים כמו מצב רגשי וביצועי עבודה בהתבסס על נתונים פסיביים.
המחקר החדש מראה שתמונות פסיביות הן המפתח לכלים טיפוליים מוצלחים מבוססי נייד, אמר קמפבל. הם לוכדים מצב רוח בצורה מדויקת ובתדירות גבוהה יותר מאשר תמונות שנוצרו על ידי משתמשים-; או סלפי-; ואינם מרתיעים משתמשים בכך שהם דורשים מעורבות פעילה. "התמונות הנייטרליות האלה דומות מאוד לראות מישהו ברגע שהוא לא עוטה פורניר, מה ששיפר את הביצועים של המודל החזוי שלנו להבעות פנים", אמר קמפבל.
סוביגיה נפאל, מועמד דוקטורט ללימודים מתקדמים ולימודים מתקדמים בגואריני בקבוצת המחקר של קמפבל, שיחד עם סטודנט לדוקטורט ארווינד פילאי, גואריני, הוא מחבר המחקר המשותף, אמר כי הצעדים הבאים עבור MoodCapture כוללים אימון בינה מלאכותית יותר מגוון המשתתפים, שיפור יכולת האבחון שלו וחיזוק אמצעי הפרטיות.
החוקרים מדמיינים איטרציה של MoodCapture שעבורה תמונות לעולם לא יוצאות מהטלפון של אדם, אמר נפאל. במקום זאת, תמונות יעובדו במכשיר של משתמש כדי לחלץ הבעות פנים הקשורות לדיכאון ולהמיר אותן לקוד עבור מודל הבינה המלאכותית. "גם אם הנתונים יעזבו את המכשיר אי פעם, לא תהיה דרך להרכיב אותם בחזרה לתמונה המזהה את המשתמש", אמר.
בינתיים, הדיוק של האפליקציה יכול להשתפר בקצה הצרכני אם ה-AI מתוכנן להרחיב את הידע שלו בהתבסס על הבעות הפנים של האדם הספציפי המשתמש בו, אמר נפאל.
"לא תצטרך להתחיל מאפס – אנחנו יודעים שהמודל הכללי מדויק ב-75%, כך שניתן להשתמש בנתונים של אדם ספציפי כדי לכוונן את המודל. מכשירים במהלך השנים הקרובות אמורים להיות מסוגלים בקלות להתמודד עם זה " אמרה נפאל. "אנחנו יודעים שהבעות פנים מעידות על מצב רגשי. המחקר שלנו הוא הוכחה למושג שבכל הנוגע לשימוש בטכנולוגיה כדי להעריך בריאות נפשית, הם אחד האותות החשובים ביותר שאנחנו יכולים לקבל".