ככל שיותר אנשים פונים ל-ChatGPT ולמודלים גדולים אחרים של שפה (LLMs) לקבלת ייעוץ לבריאות הנפש, מחקר חדש מפרט כיצד הצ'אטבוטים הללו – אפילו כשהם מתבקשים להשתמש בטכניקות פסיכותרפיה מבוססות ראיות – מפרים באופן שיטתי סטנדרטים אתיים של פרקטיקה שנקבעו על ידי ארגונים כמו ה-American Psychological Association.
המחקר, בראשות מדעני מחשבים מאוניברסיטת בראון העובדים זה לצד זה עם מטפלים בבריאות הנפש, הראה שצ'אטבוטים מועדים למגוון של הפרות אתיות. אלה כוללים ניווט לא הולם במצבי משבר, מתן תגובות מטעות המחזקות את האמונות השליליות של המשתמשים לגבי עצמם ואחרים, ויצירת תחושת הזדהות מזויפת עם המשתמשים.
"בעבודה זו, אנו מציגים מסגרת מיודעת למטפל של 15 סיכונים אתיים כדי להדגים כיצד יועצי LLM מפרים סטנדרטים אתיים בפרקטיקה של בריאות הנפש על ידי מיפוי התנהגות המודל להפרות אתיות ספציפיות", כתבו החוקרים במחקרם. "אנו קוראים לעבודה עתידית ליצור סטנדרטים אתיים, חינוכיים ומשפטיים עבור יועצי LLM – סטנדרטים המשקפים את האיכות והקפדה של הטיפול הנדרשים לפסיכותרפיה בהנחיית אדם."
המחקר יוצג ב-22 באוקטובר 2025 בכנס AAAI/ACM בנושא בינה מלאכותית, אתיקה וחברה. חברי צוות המחקר קשורים למרכז בראון לאחריות טכנולוגית, דמיון מחודש ועיצוב מחדש.
זינב איפטיכר, דוקטור. מועמד למדעי המחשב ב-Brown שהוביל את העבודה, התעניין כיצד הנחיות שונות עשויות להשפיע על התפוקה של לימודי LLM במסגרות בריאות הנפש. באופן ספציפי, היא רצתה לקבוע אם אסטרטגיות כאלה יכולות לעזור למודלים לדבוק בעקרונות אתיים לפריסה בעולם האמיתי.
"הנחיות הן הנחיות שניתנות למודל כדי להנחות את התנהגותו להשגת משימה מסוימת", אמר איפטיכר. "אינך משנה את המודל הבסיסי או מספק נתונים חדשים, אבל ההנחיה עוזרת להנחות את הפלט של המודל על סמך הידע הקיים והדפוסים הנלמדים שלו.
"לדוגמה, משתמש יכול להנחות את המודל עם: 'פעל כמטפל קוגניטיבי התנהגותי כדי לעזור לי למסגר מחדש את המחשבות שלי', או 'השתמש בעקרונות של טיפול התנהגותי דיאלקטי כדי לסייע לי בהבנה ובניהול הרגשות שלי'. אמנם המודלים האלה לא ממש מבצעים את הטכניקות הטיפוליות האלה כמו שאדם יעשה, אבל הם משתמשים בדפוסים הנלמדים שלהם כדי ליצור תגובות שמתאימות למושגים של CBT או DBT בהתבסס על הנחיית הקלט שסופקה."
משתמשים בודדים הצ'אטים ישירות עם LLMs כמו ChatGPT יכולים להשתמש בהנחיות כאלה ולעתים קרובות עושים זאת. Iftikhar אומר שלעתים קרובות משתמשים משתפים את ההנחיות שבהן הם משתמשים ב-TikTok וב-Instagram, ויש שרשורי Reddit ארוכים המוקדשים לדיון באסטרטגיות הנחיות. אבל הבעיה עשויה להיות מעבר למשתמשים בודדים. בעצם כל הצ'אטבוטים לבריאות הנפש המשווקים לצרכנים הם גרסאות מתבקשות של LLMs כלליים יותר. לכן ההבנה כיצד הנחיות ספציפיות לבריאות הנפש משפיעות על התפוקה של LLMs היא קריטית.
לצורך המחקר, איפטיכר ועמיתיה צפו בקבוצה של יועצים עמיתים שעבדו עם פלטפורמה מקוונת לתמיכה בבריאות הנפש. החוקרים צפו לראשונה בשבעה יועצים עמיתים, שכולם הוכשרו בטכניקות של טיפול קוגניטיבי התנהגותי, כאשר הם ערכו שיחות ייעוץ עצמיות עם LLMs על רקע CBT, כולל גרסאות שונות של סדרת GPT של OpenAI, קלוד של Anthropic ו-Llama של Meta. לאחר מכן, קבוצת משנה של צ'אטים מדומים המבוססים על צ'אטים מקוריים של ייעוץ אנושי הוערכה על ידי שלושה פסיכולוגים קליניים מורשים שעזרו לזהות הפרות אתיות אפשריות ביומני הצ'אט.
המחקר חשף 15 סיכונים אתיים המתחלקים לחמש קטגוריות כלליות:
- חוסר הסתגלות הקשרית: התעלמות מחוויות חייהם של אנשים והמלצה על התערבויות בגודל אחד.
- שיתוף פעולה טיפולי לקוי: שליטה בשיחה ומדי פעם חיזוק אמונות שווא של המשתמש.
- אמפתיה מטעה: שימוש בביטויים כמו "אני רואה אותך" או "אני מבין" כדי ליצור קשר שווא בין המשתמש לבוט.
- אפליה בלתי הוגנת: הפגנת הטיה מגדרית, תרבותית או דתית.
- חוסר בטיחות וניהול משברים: מניעת שירות בנושאים רגישים, אי הפניית משתמשים למשאבים מתאימים או תגובה אדישה למצבי משבר לרבות מחשבות התאבדות.
איפטיכר מכיר בכך שבעוד שמטפלים אנושיים רגישים גם לסיכונים אתיים אלה, ההבדל העיקרי הוא אחריות.
עבור מטפלים אנושיים, ישנם מועצות ניהול ומנגנונים שיישאו באחריות מקצועית של ספקים בגין התעללות ורשלנות. אבל כאשר יועצי LLM מבצעים את ההפרות הללו, אין מסגרות רגולטוריות מבוססות".
זינב איפטיכר, דוקטור. מועמד למדעי המחשב, אוניברסיטת בראון
הממצאים אינם אומרים בהכרח של-AI לא אמור להיות תפקיד בטיפול בבריאות הנפש, אומר איפטיכר. היא ועמיתיה מאמינים של-AI יש פוטנציאל לסייע בהפחתת חסמי טיפול הנובעים מעלות הטיפול או הזמינות של אנשי מקצוע מיומנים. עם זאת, היא אומרת, התוצאות מדגישות את הצורך ביישום מתחשב של טכנולוגיות בינה מלאכותית, כמו גם רגולציה ופיקוח מתאימים.
לעת עתה, Iftikhar מקווה שהממצאים יגרמו למשתמשים להיות מודעים יותר לסיכונים הכרוכים במערכות בינה מלאכותית הנוכחיות.
"אם אתה מדבר עם צ'אט בוט על בריאות הנפש, אלה כמה דברים שאנשים צריכים לשים לב אליהם", אמרה.
אלי פבליק, פרופסור למדעי המחשב ב-Brown שלא היה חלק מצוות המחקר, אמר שהמחקר מדגיש את הצורך במחקר מדעי זהיר של מערכות בינה מלאכותית הנפרסות במסגרות של בריאות הנפש. Pavlick מוביל את ARIA, מכון מחקר בינה מלאכותית של קרן המדע הלאומית בבראון שמטרתו לפתח עוזרי AI אמינים.
"המציאות של AI היום היא שהרבה יותר קל לבנות ולפרוס מערכות מאשר להעריך ולהבין אותן", אמר פבליק. "המאמר הזה דרש צוות של מומחים קליניים ומחקר שנמשך יותר משנה על מנת להדגים את הסיכונים הללו. רוב העבודה ב-AI כיום מוערכת באמצעות מדדים אוטומטיים, שלפי התכנון, הם סטטיים וחסרי אדם במעגל".
היא אומרת שהעבודה יכולה לספק תבנית למחקר עתידי על הפיכת AI בטוח לתמיכה בבריאות הנפש.
"יש הזדמנות אמיתית לבינה מלאכותית למלא תפקיד במאבק במשבר בריאות הנפש שהחברה שלנו מתמודדת איתו, אבל זה חשוב ביותר שניקח את הזמן כדי באמת לבקר ולהעריך את המערכות שלנו בכל שלב בדרך כדי להימנע מלעשות יותר נזק מתועלת", אמר פאבליק. "העבודה הזו מציעה דוגמה טובה איך זה יכול להיראות."