Search
Mass General Brigham משיק חברת AI כדי לשפר את התאמת הניסויים הקליניים

פטפטן, דולף ובקושי אנושי

וינס לאהי מ-Carefree, אריזונה, חובק צ'אטבוטים. ממוצרי Big Tech ועד ל"מוצלים", הם מציעים "מישהו שאוכל לחלוק איתו יותר סודות מאשר המטפל שלי".

הוא אוהב במיוחד את האפליקציות לקבלת משוב ותמיכה, למרות שלפעמים הן פוגעות בו או מובילות אותו לריב עם אשתו לשעבר. "אני מרגיש יותר נוטה לחלוק יותר", אמר לאהי. "לא אכפת לי מהתפיסה שלהם כלפיי."

יש הרבה אנשים כמו לייהי.

הביקוש לטיפול נפשי גדל. דיווח עצמי של ימי בריאות נפשיים לקויים עלו ב-25% מאז שנות ה-90, מצא מחקר אחד שניתח נתוני סקר. לפי המרכז לבקרת מחלות ומניעתן, שיעורי ההתאבדות בשנת 2022 התאימו לשיא של 2018 שלא נראה כמעט 80 שנה.

ישנם מטופלים רבים אשר מוצאים מטפל לא אנושי, המופעל על ידי אינטליגנציה מלאכותית, מושך ביותר – מושך יותר מאדם עם ספה שכיבה והתנהגות קשוחה. המדיה החברתית מלאה בסרטונים מתחננים למטפל ש"לא על השעון", שהוא פחות שיפוטי, או שהוא פשוט פחות יקר.

רוב האנשים שזקוקים לטיפול לא מקבלים את זה, אמר טום אינסל, לשעבר ראש המכון הלאומי לבריאות הנפש, תוך שהוא מצטט את המחקר של הסוכנות לשעבר שלו. מבין אלה שכן, 40% מקבלים "טיפול מינימלי מקובל".

"יש צורך עצום בטיפול באיכות גבוהה", אמר. "אנחנו בעולם שבו הסטטוס קוו הוא ממש מחורבן, אם להשתמש במונח מדעי".

אינסל אמר שמהנדסים מ-OpenAI אמרו לו בסתיו שעבר שכ-5% עד 10% מבסיס המשתמשים של החברה שהיה אז, שהיה אז כ-800 מיליון, מסתמכים על ChatGPT לתמיכה בבריאות הנפש.

סקרים מצביעים על כך שצ'אטבוטים אלה של AI עשויים להיות פופולריים אפילו יותר בקרב מבוגרים צעירים. סקר KFF מצא ש-3 מתוך 10 נשאלים בגילאי 18 עד 29 פנו לצ'טבוטים של AI לייעוץ בריאותי נפשית או רגשית בשנה האחרונה. מבוגרים לא מבוטחים היו בסבירות גבוהה פי שניים ממבוגרים מבוטחים לדווח על שימוש בכלי בינה מלאכותית. וכמעט 60% מהמשיבים המבוגרים שהשתמשו בצ'אט בוט לבריאות הנפש לא עקבו אחר איש מקצוע בשר ודם.

האפליקציה תשים אותך על הספה

תעשייה מתפתחת של אפליקציות מציעה למטפלי בינה מלאכותית אווטרים דמויי אדם, לעתים קרובות לא מציאותיים, המשמשים כלוח תהודה עבור אלה שחווים חרדה, דיכאון ומצבים אחרים.

KFF Health News זיהה כ-45 אפליקציות לטיפול בבינה מלאכותית בחנות האפליקציות של אפל במרץ. בעוד שרבים גובים מחירים גבוהים עבור השירותים שלהם – אחד מהם רשום תוכנית שנתית של 690 דולר – הם עדיין בדרך כלל זולים יותר מטיפול בשיחות, שיכול לעלות מאות דולרים לשעה ללא כיסוי ביטוחי.

ב-App Store, "תרפיה" משמשת לעתים קרובות כמונח שיווקי, כאשר האותיות הקטנות מציינות שהאפליקציות אינן יכולות לאבחן או לטפל במחלות. אפליקציה אחת, ממותגת בשם OhSofia! AI Therapy Chat, היו הורדות בשש הספרות, אמרה OhSofia! המייסד אנטון אילין בדצמבר.

"אנשים מחפשים טיפול", אמר אילין. מצד אחד, שם המוצר מבטיח "צ'אט טיפולי"; מצד שני, היא מזהירה במדיניות הפרטיות שלה כי היא "אינה מספקת ייעוץ רפואי, אבחון, טיפול או התערבות במשבר ואינה מהווה תחליף לשירותי בריאות מקצועיים". מנהלים לא חושבים שזה מבלבל, מכיוון שיש כתבי ויתור באפליקציה.

האפליקציות מבטיחות תוצאות גדולות ללא גיבוי. אחד מבטיח למשתמשיו "עזרה מיידית בזמן התקפי פאניקה". אחר טוען שהוא "הוכח כיעיל על ידי חוקרים" ושהוא מציע הקלה מהירה פי 2.3 בחרדה ומתח. (זה לא אומר ממה זה מהיר יותר.)

יש מעט מעקות בטיחות חקיקתיים או רגולטוריים סביב האופן שבו מפתחים מתייחסים למוצרים שלהם – או אפילו אם המוצרים בטוחים או יעילים, אמר וייל רייט, מנהל בכיר של המשרד לחדשנות שירותי בריאות באיגוד הפסיכולוגים האמריקאי. אפילו הגנת הפרטיות של החולה הפדרלית אינה חלה, אמרה.

"טיפול אינו מונח המוגן על פי חוק", אמר רייט. "אז בעצם, כל אחד יכול להגיד שהוא נותן טיפול."

רבות מהאפליקציות "מייצגות את עצמן יתר על המידה", אמר ג'ון טורוס, פסיכיאטר ואינפורמטיקאי קליני במרכז הרפואי בית ישראל דיאקונס. לדבריו, "להונות אנשים שהם קיבלו טיפול כשממש לא קיבלו השלכות שליליות רבות", כולל דחיית הטיפול בפועל.

מדינות כמו נבאדה, אילינוי וקליפורניה מנסות לסדר את אי הסדר הרגולטורי, וחוקקים חוקים האוסרים על אפליקציות לתאר את הצ'אטבוטים שלהם כמטפלים בבינה מלאכותית.

"זה מקצוע. אנשים הולכים לבית הספר. הם מקבלים רישיון לעשות את זה", אמר ג'ובן ג'קסון, מחוקק בנבאדה, שחיבר הצעת חוק שחוקקה האוסרת על אפליקציות להתייחס לעצמן כאנשי מקצוע בתחום בריאות הנפש.

בבסיס ההייפ, חוקרים חיצוניים ונציגי החברה עצמם אמרו ל-FDA ולקונגרס כי יש מעט עדויות התומכות ביעילותם של מוצרים אלה. אילו מחקרים יש נותנים תשובות סותרות – וכמה מחקרים מראים שצ'אטבוטים ממוקדי לוויה "רעים באופן עקבי" בניהול משברים.

"כשזה מגיע לצ'טבוטים, אין לנו הוכחות טובות שזה עובד", אמרה שרלוט בלייז, פרופסור באוניברסיטת אופסלה בשוודיה, המתמחה בעיצוב ניסויים עבור מוצרי בריאות דיגיטליים.

היעדר ניסויים קליניים "איכותיים" נובע מכישלונו של ה-FDA לספק המלצות כיצד לבדוק את המוצרים, לדבריה. "ה-FDA אינו מציע עצות קפדניות לגבי הסטנדרטים שצריך להיות."

דוברת משרד הבריאות ושירותי האנוש, אמילי היליארד, אמרה בתגובה כי "בטיחות המטופלים היא בראש סדר העדיפויות של ה-FDA" וכי מוצרים מבוססי בינה מלאכותית כפופים לתקנות הסוכנות המחייבות הוכחה של "הבטחה סבירה לבטיחות ויעילות לפני שניתן יהיה לשווק אותם בארה"ב".

האפליקציות עם לשון הכסף

פרסטון רוש, תושב פסיכיאטריה שפעיל ברשתות החברתיות, מקבל הרבה שאלות לגבי האם AI הוא מטפל טוב. לאחר שניסה את ChatGPT בעצמו, הוא אמר שהוא "התרשם" בתחילה מכך שהצליח להשתמש בטכניקות של טיפול קוגניטיבי התנהגותי כדי לעזור לו להעמיד מחשבות שליליות "לניסיון".

אבל רוש אמר לאחר שראה פוסטים ברשתות החברתיות שדנו באנשים המפתחים פסיכוזה או שעודדו אותו לקבל החלטות מזיקות, הוא התאכזב. הבוטים, הוא סיכם, הם סמוקים.

"כשאני מסתכל באופן גלובלי על האחריות של מטפל, זה פשוט נפל לגמרי על הפנים שלו", אמר.

הסקרנות הזו – הנטייה של אפליקציות המבוססות על מודלים של שפות גדולות להזדהות, להחמיא או להטעות את בן הזוג לשיחה האנושית שלהן – טבועה בעיצוב האפליקציה, אומרים מומחים לבריאות דיגיטלית.

"המודלים פותחו כדי לענות על שאלה או הנחיה שאתה שואל ולתת לך את מה שאתה מחפש", אמר אינסל, מנהל ה-NIMH לשעבר, "והם באמת טובים בלאשר את מה שאתה מרגיש ולספק תמיכה פסיכולוגית, כמו חבר טוב".

אבל זה לא מה שמטפל טוב עושה. "המטרה של פסיכותרפיה היא בעיקר לגרום לך להתייחס לדברים שנמנעת מהם", אמר.

בעוד שהסקר מצביע על כך שמשתמשים רבים מרוצים ממה שהם מקבלים מ-ChatGPT ומאפליקציות אחרות, היו דיווחים בעלי פרופיל גבוה על השירות המספק עצות או עידוד לפגיעה עצמית.

ולפחות תריסר תביעות בטענה למוות שלא כדין או לנזק חמור הוגשו נגד OpenAI לאחר שמשתמשי ChatGPT מתו בהתאבדות או אושפזו. ברוב המקרים הללו, טוענים התובעים כי החלו להשתמש באפליקציות למטרה אחת – כמו שיעורי בית ספר – לפני שסיפרו להן. תיקים אלו מאוחדים לתביעה ייצוגית.

גוגל והסטארט-אפ Character.ai – שמומן על ידי גוגל ויצר "אווטרים" המאמצים פרסונות ספציפיות, כמו ספורטאים, סלבריטאים, חברים ללימודים או מטפלים – מיישבים תביעות אחרות של מוות שלא כדין, לפי דיווחים בתקשורת.

מנכ"ל OpenAI, סם אלטמן, אמר שעד 1,500 אנשים בשבוע עשויים לדבר על התאבדות ב-ChatGPT.

"ראינו בעיה שבה אנשים שנמצאים במצבים פסיכיאטריים שבריריים המשתמשים במודל כמו 4o יכולים להגיע למצב גרוע יותר", אמר אלטמן בפגישת שאלות ותשובות פומבית שדווח ב"וול סטריט ג'ורנל", בהתייחסו למודל מסוים של ChatGPT שהוצג ב-2024. "אני לא חושב שזו הפעם האחרונה שנתמודד עם אתגרים כמו זה עם מודל".

דובר OpenAI לא הגיב לבקשות להגיב.

החברה אמרה שהיא עובדת עם מומחים לבריאות הנפש על אמצעי הגנה, כגון הפניית משתמשים ל-988, הקו החם הלאומי להתאבדות. עם זאת, התביעות נגד OpenAI טוענות כי אמצעי ההגנה הקיימים אינם טובים מספיק, ומחקרים מסוימים מראים שהבעיות מחמירות עם הזמן. OpenAI פרסמה נתונים משלה המצביעים על ההפך.

OpenAI מתגוננת בבית המשפט, ומציעה, בשלב מוקדם של מקרה אחד, מגוון הגנות, החל מהכחשה שהמוצר שלה גרם לנזק עצמי ועד לטענה שהנאשם השתמש לרעה במוצר על ידי גרימתו לדון בהתאבדות. הוא גם אמר שהוא פועל לשיפור תכונות הבטיחות שלו.

אפליקציות קטנות יותר מסתמכות גם על OpenAI או דגמי AI אחרים כדי להפעיל את המוצרים שלהם, אמרו בכירים ל-KFF Health News. בראיונות, מייסדי סטארט-אפים ומומחים אחרים אמרו שהם חוששים שאם חברה פשוט תייבא את הדגמים האלה לשירות שלה, היא עלולה לשכפל את פגמי הבטיחות הקיימים במוצר המקורי.

סיכוני נתונים

סקירת KFF Health News על ה-App Store מצאה כי הגנות הגיל המפורטות הן מינימליות: 15 מתוך כמעט ארבע תריסר האפליקציות אומרות שניתן להוריד אותן על ידי משתמשים בני 4; 11 נוספים אומרים שניתן להוריד אותם על ידי 12 ומעלה.

תקני הפרטיות אטומים. ב-App Store, מספר אפליקציות מתוארות כמי שאינן עוקבות אחר נתונים המאפשרים זיהוי אישי ואינן משתפות אותם עם מפרסמים – אך באתרי החברה שלהם, מדיניות הפרטיות הכילה תיאורים מנוגדים, דנה בשימוש בנתונים כאלה ובחשיפת המידע שלהם למפרסמים, כמו AdMob.

בתגובה לבקשת תגובה, דובר אפל, אדם דמה, שלח קישורים למדיניות ה-App Store של החברה, האוסרת על אפליקציות להשתמש בנתוני בריאות לצורך פרסום ודורשת מהן להציג מידע על אופן השימוש בנתונים באופן כללי. דמה לא הגיבה לבקשה להערה נוספת לגבי האופן שבו אפל אוכפת מדיניות זו.

חוקרים ותומכי מדיניות אמרו כי שיתוף נתונים פסיכיאטריים עם חברות מדיה חברתית אומר שניתן ליצור פרופיל של חולים. הם יכולים להיות ממוקדים על ידי חברות טיפול מפוקפקות או לגבות מחירים שונים עבור סחורה על סמך בריאותם.

חדשות KFF Health פנו לכמה יצרניות אפליקציות בנוגע לפערים אלה; שניים שהגיבו אמרו שמדיניות הפרטיות שלהם הרכיבה בטעות והתחייבו לשנות אותם כדי לשקף את עמדותיהם נגד פרסום. (שלישי, הצוות של OhSofia!, אמר בפשטות שהם לא עושים פרסום, למרות שמדיניות הפרטיות של האפליקציה שלהם מציינת שמשתמשים "עשויים לבטל את הסכמתם לתקשורת שיווקית").

מנהל אחד אמר ל-KFF Health News שיש לחץ עסקי לשמור על גישה לנתונים.

"התחושה הכללית שלי היא שמודל מנוי הרבה יותר טוב מכל סוג של פרסום", אמר טים רובין, מייסד Wellness AI, והוסיף שהוא ישנה את התיאור במדיניות הפרטיות של האפליקציה שלו.

משקיע אחד המליץ ​​לו לא להישבע פרסום, לדבריו. "הם כאילו, בעצם, זה הדבר הכי חשוב שיש אפליקציה כזו, הנתונים האלה."

"אני חושב שאנחנו עדיין בתחילת מה שהולך להיות מהפכה באופן שבו אנשים מחפשים תמיכה פסיכולוגית, ואפילו במקרים מסוימים, טיפול", אמר אינסל. "והדאגה שלי היא שפשוט אין מסגרת לכל זה".

דילוג לתוכן