האם הרופאים של מחר יכולים ללמוד עם AI מבלי לאבד את חשיבתם הביקורתית? סקירה של NEJM מציעה מודלים של שיתוף פעולה עם שיתופי פעולה חדשים ומסייעים למחנכים לרתום AI תוך שמירה על מיומנויות קליניות.
סקירה: אסטרטגיות חינוכיות לפיקוח קליני על השימוש בבינה מלאכותית. קרדיט תמונה: אנטוניו מרקה / Shutterstock
בסקירה שפורסמה לאחרונה בפורסם ב כתב העת לרפואה של ניו אינגלנדהחוקרים מבהירים את האתגרים של פיקוח על הלומדים הרפואיים בקריירה מוקדמת המשתמשים במודלים חזקים בשפה גדולה (LLMS) כעזרי חינוך. ממצאי הסקירה מדגישים את הסכנות של "שולחן העבודה", כאשר הסתמכות יתר על AI שוחקת כישורי נימוק קליניים בסיסיים, ו"השמטה לא נכונה ", שם המתאמנים מאמצים שגיאות שנוצרו על ידי AI, לצד" לעולם לא מיומנות "-כישלון פיתוח מיומנויות חיוניות מלכתחילה.
הסקירה מציעה מסגרת חינוכית מובנית הנקראת "אבחון, עדויות, משוב, הוראה והמלצה למעורבות AI (Deft-Ai)" כדי להתמודד עם דמיית AI פוטנציאלית על ידי פיגום חשיבה ביקורתית. הסקירה מציגה גם את המודלים "סייבורג" ו"קנטאור "של שיתוף פעולה אנושי-איי, ומפצירים בקלינאים לאמץ נוהג אדפטיבי בו הם לומדים לעסוק באופן ביקורתי עם תפוקות שנוצרו על ידי AI ולא לסמוך עליהם ללא עוררין.
רֶקַע
ההתקדמות האחרונה בתחום הבינה המלאכותית (AI), במיוחד במודלים של חישוב ושפה גדולה (LLMS), מתקדמת בקצב מדהים. דגמי שפה גדולים (LLM) כמו ChatGPT של Openai ו- Gemini של גוגל משמשים יותר ויותר בלמידה רפואית, ומעלים כאחד הזדמנויות והסיכונים להנמקה קלינית. גוף ספרות הולך וגדל מציע כי כלי AI מעצבים מחדש באופן מהותי את הלמידה והפרקטיקה הרפואית.
עם זאת, שילוב AI בפרקטיקה קלינית מציג הזדמנויות חסרות תקדים וסיכונים משמעותיים לחינוך רפואי. בעוד שגישה מהירה למידע והיכולת לאחד את שטחי הנתונים העצומים לסיכומים נגישים בקלות עשויה להפוך לאינטגרלית בחינוך רפואי עתידי ובפרקטיקה, ידוע כי LLMs מדמים נימוקים דמויי אדם ליצירת "מראה של סוכנות"-השפעה בה מערכות מדמות הנמקות ותפוקות מראות סוכנות כאשר אף אחת מהן לא קיימת בפועל. זה יכול להיות מסוכן ביותר עבור מתאמנים רפואיים לא מנוסים.
מחנכים רפואיים מתמודדים אפוא עם אתגר חדש ודחוף – הנחיה ופיקוח של חניכים שעשויים להיות מיומנים יותר במינוף AI מאשר המחנכים עצמם, ויוצרים 'היפוך מומחיות' בו גם המורים הופכים ללומדים. הסקירה הנוכחית מדגישה שלוש מכשולים ספציפיים ("שולחן שולחן", "לא מחסור", ו"התחדשות לא נכונה ") שיש להתגבר עליהם לפני ש- AI תוכל לבטל את תפקידה בהבטחת עתיד בטוח ובריא יותר.
על הביקורת
סקירה זו נועדה להתמודד עם הצורך הדחוף והקריטי על ידי ביצוע בדיקה מקיפה של הספרות המדעית הבוחנת את האתגרים וההזדמנויות שהציגה AI בחינוך רפואי. זה אוסף ומסנתז את התוצאות של יותר מ -70 פרסומים קודמים על פני תיאוריה חינוכית קיימת, מדע קוגניטיבי ומחקר מתעורר על אינטראקציה בין אנוש-איי ומשתמש בתובנות אלה כדי לפתח מסגרות רעיוניות חדשות לפיקוח הקליני של AI:
אבחון, עדויות, משוב, הוראה (DEFT) והמלצה למעורבות AI (DEFT-AI)-מסגרת מותאמת לקידום חשיבה ביקורתית במהלך שיחות חינוכיות סביב השימוש ב- AI.
דגמי סייבורג מול קנטאור: טיפולוגיה חדשה לתיאור שני אופנים מובחנים של שיתוף פעולה אנושי-איי. מודלים אלה נועדו לעזור למחנכים ולומדים להתאים את השימוש שלהם ב- AI למשימה הקלינית הספציפית ולסיכון הנלווה אליו.
סקור ממצאים
הסקירה מזהה ומתייחסת למספר מלכודות קוגניטיביות שהוטלו על חינוך רפואי עד גיל ה- AI של ימינו. "הפסקת קוגניטיבית", תהליך הסתמכות יתר על AI למשימות מורכבות כמו הנמקה קלינית, מודגש בגלל הקישור שלו ל"טיה אוטומטית ", הסתמכות יתר לאחר מכן על תפוקת ה- AI, וכישלון לתפוס את טעויותיו.
באופן מדאיג, הטיה קוגניטיבית והטיה אוטומטית אינם רק חששות תיאורטיים. מחקר מצא כי יותר משליש מהסטודנטים לרפואה מתקדמים לא הצליחו לזהות תשובות LLM שגויות לתרחישים קליניים. מחקר אחר דיווח על קשר שלילי משמעותי בין השימוש התכוף בכלי AI ויכולות חשיבה ביקורתיות, המתווכות על ידי העומס מוגבר, והשפעה זו בולטת במיוחד בקרב משתתפים צעירים יותר.
הסקירה ממליצה להתייחס לדאגות אלה על ידי פיתוח ואימוץ המסגרת Deft-AI, גישה מובנית למחנכים כתגובה לתלות של המתאמן ב- AI. היא מציעה מינוף שיחה ביקורתית שמעבר את התשובה של ה- AI כדי לבחון את נימוקו של הלומד. שאלות המפתח כוללות: "באילו הנחיות השתמשת?", "איך אימתת את הפלט שנוצר על ידי AI?", ו"איך השפיעה על הצעת ה- AI או שינה את גישת האבחון שלך? " מחנכים מעודדים גם ללמד הערכה מבוססת ראיות על תפוקות AI באמצעות המסגרת של סאקט (שאל, רכישה, הערכה, להחיל, להעריך) וטכניקות הנדסיות מהירות יעילות, כמו הנמקה מחושבת שרשרת.
הסקירה מדגישה עוד יותר כי פיקוח צריך להבחין בין הערכת ה- כלי AI עצמו והערכתו פלט ספציפיו לדוגמה, ניתן להשתמש בכרטיס ניקוד מוסדי או לוחות מודל לשפוט כלים, ואילו יש ליישם את שלבי הערכת הרפואה המבוססים על ראיות על כל תפוקה פרטנית.
לבסוף, הסקירה מציגה את מצבי "סייבורג" ו"קנטאור "של אינטראקציה של קלינאי-איי. במצב קנטאור, המשימות מחולקות אסטרטגית כך שהקלינאי מאציל משימות בסיכון נמוך ומוגדר היטב (כגון סיכום נתונים או ניסוח תקשורת) ל- AI, תוך שמירה על שליטה מוחלטת על שיקול דעת קליני וקבלת החלטות. מצב זה מומלץ בעת התייחסות למקרים מורכבים או לא בטוחים.
לעומת זאת, מצב הסיבורג מניח שהקלינאי ו- AI מבנים יחד פיתרון למשימה העומדת בפנינו. מצב זה יעיל למשימות שגרתיות בסיכון נמוך, אך נושא סיכון גבוה יותר להטיית אוטומציה אם לא משתמשים בהם עם פיקוח והצדקה רפלקטיבית מתמשכת.
הסקירה מזהירה גם כי ביצועי הטרוגניות והטיה ב- LLMs יכולים להחמיר את אי השוויון הבריאותי. מערכות AI עשויות להיות בביצועים של אוכלוסיות מסוימות, ואימוץ לא קריטי עלול להרחיב את הפערים במקום לסגור אותם.
מסקנות
הסקירה הנוכחית מגיעה כי בעוד ששילוב AI ברפואה וחינוך רפואי הוא בלתי נמנע (ומועיל ברובו), אימוץ המוצלח והבטוח שלו אינו. זה מדגיש כי חינוך רפואי חייב להתייחס באופן יזום לסיכונים של דלפק, לא למיומנות, והליכה שגויה על ידי שינוי מהותי כיצד נלמד הנמקה קלינית, במיוחד על רקע ה- AI. חשיבה ביקורתית נותרה יסוד ל"פרקטיקה אדפטיבית "-היכולת לעבור בין שגרות יעילות לפיתרון בעיות חדשני כאשר מתמודדים עם חוסר יכולת החיזוי של AI.
לסיכום, סקירה זו מדגימה כי המטרה הסופית היא לא ליצור רופאים התלויים ב- AI, אלא לטפח קלינאים שיכולים למנף אותה במיומנות ובבטיחות ככלי רב עוצמה להגברת, אך לא להחליף את המומחיות שלהם באמצעות פרדיגמה "לאמת ואמון".