Search
Study: The health risks of generative AI-based wellness apps. Image Credit: NicoElNino/Shutterstock.com

צ'טבוטים לבריאות הנפש מציבים אתגרים חדשים עבור המסגרת הרגולטורית בארה"ב

בסקירה שפורסמה לאחרונה ב רפואת טבעקבוצת מחברים בחנה את הפערים הרגולטוריים ואת הסיכונים הבריאותיים הפוטנציאליים של אפליקציות בריאות מונעות בינה מלאכותית (AI), במיוחד בטיפול במשברים בבריאות הנפש ללא פיקוח מספק.

לימוד: הסיכונים הבריאותיים של אפליקציות בריאות מבוססות בינה מלאכותית. קרדיט תמונה: NicoElNino/Shutterstock.com

רקע כללי

ההתקדמות המהירה של צ'אטבוטים של בינה מלאכותית כגון שנאי מיומן של Chat Generative Pre-trained (ChatGPT), קלוד ו-Character AI משנה את האינטראקציה בין אדם למחשב על ידי מתן אפשרות לשיחות שוטפות ופתוחות.

הצ'אטבוטים הללו צפויים לגדול לשוק של 1.3 טריליון דולר עד 2032, ומספקים ייעוץ אישי, בידור ותמיכה רגשית. בתחום הבריאות, במיוחד בריאות הנפש, הם מציעים סיוע חסכוני וללא סטיגמות, המסייעים לגשר על פערי נגישות ומודעות.

ההתקדמות בעיבוד שפה טבעית מאפשרת לצ'אטבוטים ה'יצירתיים' הללו לספק תגובות מורכבות, ולשפר את התמיכה בבריאות הנפש.

הפופולריות שלהם ניכרת במיליוני שימוש באפליקציות 'נלוויות' בינה מלאכותית לאינטראקציות חברתיות שונות. מחקר נוסף חיוני כדי להעריך את הסיכונים, האתיקה והיעילות שלהם.

רגולציה של אפליקציות בריאות מבוססות בינה מלאכותית בארצות הברית (ארה"ב)

יישומים המבוססים על בינה מלאכותית, כמו בינה מלאכותית נלווית, תופסות תחום אפור רגולטורי בארה"ב מכיוון שהם לא מתוכננים במפורש ככלים לבריאות הנפש אלא משמשים לעתים קרובות למטרות כאלה.

אפליקציות אלו כפופות להבחנות של מנהל המזון והתרופות (FDA) בין 'מכשירים רפואיים' ו'מכשירי בריאות כלליים'. מכשירים רפואיים דורשים פיקוח קפדני של ה-FDA והם מיועדים לאבחון, טיפול או מניעת מחלות.

לעומת זאת, מכשירי בריאות כלליים מקדמים אורח חיים בריא מבלי להתייחס ישירות למצבים רפואיים ולכן אינם נופלים לרגולציה מחמירה של ה-FDA.

רוב אפליקציות הבינה המלאכותית הגנרטיביות מסווגות כמוצרי בריאות כלליים ומציגות טענות רחבות הקשורות לבריאות מבלי להבטיח הפחתת מחלה ספציפית, וממקמות אותן מחוץ לדרישות הרגולטוריות המחמירות למכשירים רפואיים.

כתוצאה מכך, אפליקציות רבות המשתמשות בבינה מלאכותית גנרטיבית למטרות בריאות הנפש משווקות ללא פיקוח של ה-FDA, מה שמדגיש תחום משמעותי במסגרות רגולטוריות שעשוי לדרוש הערכה מחדש עם התקדמות הטכנולוגיה.

סיכונים בריאותיים של אפליקציות בריאות כלליות המשתמשות בינה מלאכותית

המסגרת הרגולטורית הנוכחית של ה-FDA מבדילה בין מוצרי בריאות כלליים לבין מכשירים רפואיים, הבחנה שאינה מצוידת במלואה למורכבות של AI גנרטיבי.

טכנולוגיה זו, הכוללת למידת מכונה ועיבוד שפה טבעית, פועלת באופן אוטונומי וחכמה, מה שמקשה לחזות את התנהגותה בתרחישים בלתי צפויים או במקרים של קצה.

חוסר חיזוי כזה, יחד עם האופי האטום של מערכות בינה מלאכותית, מעורר חששות לגבי שימוש לרעה פוטנציאלי או תוצאות בלתי צפויות באפליקציות בריאות המשווקות למען בריאות הנפש, מה שמדגיש את הצורך בגישות רגולטוריות מעודכנות.

הצורך בראיות אמפיריות במחקר צ'טבוט של AI

מחקרים אמפיריים על צ'אטבוטים לבריאות הנפש עדיין מתחילים, בעיקר מתמקדים במערכות מבוססות כללים בתוך מכשירים רפואיים ולא בינה מלאכותית לשיחה באפליקציות בריאות.

מחקרים מדגישים שאמנם צ'אטבוטים עם תסריט בטוחים ויעילים במקצת, אך חסרים להם יכולת הסתגלות אישית של מטפלים אנושיים.

בנוסף, רוב המחקרים בוחנים את האילוצים הטכנולוגיים של AI גנרטיבי, כמו תפוקות שגויות ואטימות של מודלים של "קופסה שחורה", ולא אינטראקציות של משתמשים.

קיים חוסר הבנה מכריע לגבי האופן שבו משתמשים עוסקים בצ'אטבוטים של AI בהקשרי בריאות. חוקרים מציעים לנתח אינטראקציות אמיתיות של משתמשים עם צ'אטבוטים כדי לזהות התנהגויות מסוכנות ולבדוק כיצד יישומים אלה מגיבים לתרחישי משבר מדומים.

גישה דו-שלבית זו כוללת ניתוח ישיר של נתוני משתמשים ו"ביקורת אפליקציות", אך לעיתים קרובות מפריעות לה הגבלות גישה לנתונים המוטלות על ידי חברות אפליקציות.

מחקרים מראים שצ'אטבוטים של בינה מלאכותית לעיתים קרובות מטפלים לא נכון במשברים בבריאות הנפש, מה שמדגיש את הצורך במנגנוני תגובה משופרים.

אתגרים רגולטוריים של AI גנרטיבי בשימושים שאינם שירותי בריאות

יישומי AI גנרטיביים שאינם מיועדים לבריאות הנפש עדיין יכולים להוות סיכונים, המחייבים בדיקה רגולטורית רחבה יותר מעבר למסגרות ה-FDA הנוכחיות המתמקדות בשימוש המיועד.

ייתכן שהרגולטורים יצטרכו לאכוף הערכות סיכונים פרואקטיביות על ידי מפתחים, במיוחד ביישומי בינה מלאכותית לבריאות כללית.

בנוסף, הסיכונים הבריאותיים הפוטנציאליים הקשורים לאפליקציות AI דורשים פיקוח והדרכה ברורים יותר. גישה חלופית יכולה לכלול אחריות בנזיקין בגין אי ניהול תרחישים רלוונטיים לבריאות, כגון זיהוי והתייחסות לרעיונות אובדניים אצל משתמשים.

אמצעים רגולטוריים אלו חיוניים כדי לאזן בין חדשנות לבטיחות הצרכן בנוף המתפתח של טכנולוגיית AI.

ניהול סיכונים אסטרטגי ביישומי בריאות בינה מלאכותית

מנהלי אפליקציות בתעשיית הבריאות המשתמשים בבינה מלאכותית מחוללת חייבים לנהל באופן יזום סיכוני בטיחות כדי להימנע מהתחייבויות אפשריות ולמנוע נזק למותג ואובדן אמון המשתמש.

על המנהלים להעריך אם היכולות המלאות של בינה מלאכותית גנרית מתקדמת נחוצות או אם יספיקו פתרונות בינה מלאכותית עם תסריט מוגבלים יותר.

פתרונות תסריטאים מספקים יותר שליטה ומתאימים למגזרים הדורשים פיקוח קפדני כמו בריאות וחינוך, המציעים מעקות בטיחות מובנים אך אולי מגבילים את מעורבות המשתמש וצמיחה עתידית.

לעומת זאת, בינה מלאכותית יותר אוטונומית יכולה לשפר את מעורבות המשתמש באמצעות אינטראקציות דינמיות ודמויות אנושיות, אך מגדילה את הסיכון לבעיות בלתי צפויות.

שיפור הבטיחות באפליקציות בריאות בינה מלאכותית

מנהלי יישומי בריאות מבוססי בינה מלאכותית צריכים לתת עדיפות לבטיחות המשתמשים על ידי יידוע המשתמשים שהם מקיימים אינטראקציה עם בינה מלאכותית, לא עם בני אדם, לצייד אותם בכלי עזרה עצמית ולייעל את פרופיל הבטיחות של האפליקציה.

בעוד שהצעדים הבסיסיים כוללים יידוע וציוד למשתמשים, הגישה האידיאלית כוללת את כל שלוש הפעולות כדי לשפר את רווחת המשתמש ולהפחית סיכונים באופן יזום, תוך שמירה על הצרכנים ועל המותג כאחד.

דילוג לתוכן