מסגרת פורצת דרך מגשרת על הפער בין הפוטנציאל של הבינה המלאכותית ליישומי הבריאות בעולם האמיתי, ומדגישה את תפקידה בשינוי הטיפול בחולים תוך שמירה על בטיחות ושוויון.
מחקר: ביסוס שימוש אחראי בהנחיות בינה מלאכותית: מחקר מקרה מקיף עבור מוסדות בריאות. קרדיט תמונה: קולג'רי / Shutterstock
מחקר שפורסם לאחרונה בכתב העת npj רפואה דיגיטלית הציג קווים מנחים מקיפים לשילוב אחראי של בינה מלאכותית (AI) בשירותי הבריאות.
שילוב בינה מלאכותית ברפואה התקדם בצורה ניכרת עם הזמן. מודלים של למידה עמוקה הוכיחו יכולות יוצאות דופן בזיהוי נגעים ממאירים בשד, גושים בריאות ורטינופתיה סוכרתית, בין היתר. יתר על כן, מודלים אלה מבטיחים בשיפור קבלת ההחלטות הקליניות, הקלה על ניסוי חולים ומתן המלצות טיפוליות.
בנוסף, מודלים של שפה גדולים (LLMs) הרחיבו את הפוטנציאל של AI בתחום הבריאות. עם זאת, כמו טכנולוגיות בריאות אחרות, LLMs מחייבים בדיקה, ניטור בטיחות ואימות. בינה מלאכותית מציגה גם אתגרים חדשים, כגון שונות בביצועים על פני מסגרות קליניות, דפוסי מחלה מתפתחים ושינויים דמוגרפיים. בנוסף, נושאים הקשורים לפרטיות המטופל, פרוטוקולי הדרכה, שימושיות והתאמת זרימת עבודה נותרו שיקולים משמעותיים.
LLMs עומדים בפני בדיקה מעמיקה יותר מכיוון שהם יכולים ליצור תוכן לא רלוונטי ולא מדויק, להשמיט פרטים חיוניים וליצור מידע לא קיים. גופי הרגולציה החלו להסתגל במהירות בתגובה להתפתחויות המהירות בבינה מלאכותית, וכמה גופים מובילים יזמו קביעת הנחיות ברמה גבוהה. למרות מאמצים אלה, "פער מוחשי" נמשך בהבטחת יישום עקבי שלהם על פני מסגרות בריאות מגוונות.
על המחקר
במחקר הנוכחי, חוקרים בבית הספר לרפואה בהרווארד ובוועדת הממשל הכללית של בריגהם AI פיתחו קווים מנחים מקיפים לשילוב בינה מלאכותית בטיפולי בריאות בצורה יעילה ואחראית. הם יצרו צוות צולב תפקודי של 18 מומחים מתחומים שונים, כולל אינפורמטיקה, מחקר, משפטי, ניתוח נתונים, שוויון, פרטיות, בטיחות, חווית מטופל ואיכות. כדי לזהות נושאים קריטיים, הצוות ביצע חיפוש ספרות מקיף בביקורת עמיתים וחיפוש ספרות אפור בנושאים כמו ממשל ויישום בינה מלאכותית.
החוקרים התמקדו בתשעת העקרונות הבאים: הגינות, חוסן, הוגנות, בטיחות, פרטיות, הסבר, שקיפות, תועלת ואחריות. בנוסף, שלוש קבוצות מיקוד הוקמו כדי לחדד את ההנחיות: 1) חוסן ובטיחות, 2) הגינות ופרטיות, 3) שקיפות, אחריות ותועלת. בכל קבוצה היו 4-7 חברים מומחים.
בשלב הבא, הצוות התמקד בפיתוח וביצוע של מסגרת מובנית כדי להקל על היישום של הנחיות בינה מלאכותית במסגרת שירותי בריאות. הם בחרו ב-AI גנרטיבי ויישומה במערכות תיעוד סביבתי כמקרה מייצג. בחירה זו שיקפה את האתגרים הייחודיים של ניטור טכנולוגיות בינה מלאכותית, כגון הבטחת פרטיות המטופל והפחתת הזיות בינה מלאכותית.
מחקר פיילוט נערך לראשונה עם אנשים נבחרים ממחלקות שונות. החוקרים התמקדו בפרטיות ובאבטחה, ושיתפו נתונים בלתי מזוהים בקפדנות עם הספק כדי לאפשר עדכונים ושיפורים מתמשכים. הם שיתפו פעולה עם הספק לביטול זיהוי קפדני, מדיניות שמירת נתונים ושימוש מבוקר בנתונים אך ורק לשיפור ביצועי המודל.
לאחר מכן, הצוות הטמיע שלב פריסת צל שבו מערכות AI הופעלו במקביל לזרימות עבודה קיימות מבלי להשפיע על הטיפול בחולים. לאחר פריסת צללים, מדדי ביצועים מרכזיים, כגון הגינות על פני דמוגרפיה, שימושיות ושילוב זרימת עבודה, נבדקו בקפדנות.
ממצאים
החוקרים זיהו מספר מרכיבים קריטיים ליישום אחראי של AI בתחום הבריאות. יש לחייב מערכי הדרכה מגוונים ומייצגים מבחינה דמוגרפית כדי להפחית הטיה. יתר על כן, יש להעריך את התוצאות באמצעות עדשת שוויון. הערכות קבועות של ההון צריכות לכלול הנדסה מחודשת של מודל כדי להבטיח הטבות הוגנת בין אוכלוסיות המטופלים.
התקשורת השקופה של סטטוס מינהל המזון והתרופות של מערכת הבינה המלאכותית (FDA) תהיה קריטית באותה מידה. ציון האם נדרש אישור ה-FDA ופירוט המצב הנוכחי של מערכת הבינה המלאכותית יכול לעזור להבטיח תאימות ולבנות אמון. יש לאמץ גישה מבוססת סיכונים לניטור מערכות בינה מלאכותית, כך שיישומים שעשויים להכניס סיכון גבוה יותר לתוצאות הטיפול דורשות ניטור חזק יותר מאלה ללא סיכון או סיכון מינימלי.
השלב המקדים (מחקר פיילוט) איפשר הערכות פונקציונליות מקיפות ואיסוף משוב, שהיו חיוניים לזיהוי בעיות מוקדם ביישום. במהלך פריסת הצללים, רוב המשתמשים (במערכות ה-AI) היו מהמחלקות לרפואה דחופה ורפואה פנימית.
משוב חשף הן נקודות חוזק והן תחומים לשיפור. רוב הביקורות התמקדו בתיעוד בדיקות גופניות, בעוד שהמערכת קיבלה שבחים על הדיוק שלה בעבודה עם מתורגמנים או מטופלים עם מבטאים חזקים.
מסקנות
לסיכום, המחקר המחיש מתודולוגיה לשילוב בינה מלאכותית בבריאות. גישה רב-תחומית זו סיפקה מתווה לארגונים ללא מטרות רווח, מכוני בריאות וגופים ממשלתיים שמטרתם ליישם ולנטר בינה מלאכותית באחריות. מחקר המקרה הדגיש אתגרים כמו איזון שיקולים אתיים עם תועלת קלינית והדגיש את החשיבות של שיתוף פעולה מתמשך עם ספקים כדי לשכלל מערכות AI.
עבודה עתידית תתמקד בהרחבת הבדיקות כדי לכלול מגוון דמוגרפי וקליני רחב יותר תוך אוטומציה של ניטור הביצועים. מאמצים אלה שואפים להבטיח שמערכות בינה מלאכותית יישארו ניתנות להתאמה ושוויוניות בסביבות בריאות שונות.
המחקר מדגים את החשיבות של הערכה, ניטור והתאמה מתמשכת של מערכות AI כדי להבטיח יעילות ורלוונטיות במסגרות קליניות מאתגרות.