כשג'ודית מילר עשתה עבודות דם שגרתיות ביולי, היא קיבלה התראת טלפון באותו יום בו תוצאות המעבדה שלה פורסמו ברשת. לכן, כאשר הרופא שלה העביר אותה למחרת שהבדיקות הכוללות שלה היו בסדר, מילר כתבה בחזרה לשאול על הפחמן הדו -חמצני המוגבה ופער האניון הנמוך הרשומים בדו"ח.
בעוד תושב מילווקי בן ה -76 חיכה לשמוע בחזרה, מילר עשה משהו שהחולים עושים יותר ויותר כאשר הם לא יכולים להגיע לצוות הבריאות שלהם. היא הכניסה את תוצאות הבדיקה שלה לקלוד וביקשה מעוזרת ה- AI להעריך את הנתונים.
"קלוד עזר לי להעניק לי הבנה ברורה של חריגות", אמר מילר. מודל ה- AI הגנריטי לא דיווח על שום דבר מדאיג, ולכן היא לא הייתה מודאגת בזמן שחיכתה לשמוע מהרופא שלה, אמרה.
לחולים יש גישה חסרת תקדים לרישומים הרפואיים שלהם, לרוב באמצעות פורטלים מקוונים של חולים כמו MyChart, מכיוון שהחוק הפדרלי מחייב ארגוני בריאות לשחרר מייד מידע בריאותי אלקטרוני, כמו הערות על ביקורי רופאים ותוצאות בדיקה. מחקר שפורסם בשנת 2023 מצא כי 96% מהמטופלים שנסקרו רוצים גישה מיידית לרשומות שלהם, גם אם הספק שלהם לא סקר אותם.
וחולים רבים משתמשים במודלים בשפה גדולה, או ב- LLMs, כמו ChatGPT של Openai, Claude של Anthropic ו- Gemini של גוגל, כדי לפרש את הרשומות שלהם. עם זאת, עזרה זו מגיעה עם סיכון כלשהו. רופאים ועוסקי מטופלים מזהירים כי צ'אט צ'אט של AI יכול לייצר תשובות שגויות וכי מידע רפואי רגיש עשוי לא להישאר פרטי.
עם זאת, מרבית המבוגרים זהירים לגבי AI ובריאות. חמישים ושש אחוזים מהמשתמשים או מתקשרים עם AI אינם בטוחים כי המידע המסופק על ידי AI Chatbots מדויק, על פי סקר KFF של 2024. KFF הוא עמותה למידע בריאותי הכולל חדשות בריאות KFF.
"LLMs הם תיאורטיים מאוד חזקים והם יכולים לתת עצות נהדרות, אך הם יכולים גם לתת עצות נוראיות באמת, תלוי איך הם מתבקשים", אמר אדם רודמן, מתמחה במרכז הרפואי דיאקונוס של בת ישראל במסצ'וסטס וכיו"ר קבוצת היגוי ב- Generative AI בבית הספר לרפואה של הרווארד.
ג'סטין הונצ'ה, נוירורדיולוג ב- UCHEALTH בקולורדו, אמר שזה יכול להיות קשה מאוד לחולים שאינם מאומנים רפואית לדעת אם צ'אט צ'אט של AI טועים.
"בסופו של דבר, זה רק הצורך בזהירות בסך הכל עם LLMs. עם הדגמים האחרונים, הדאגות הללו ממשיכות לקבל פחות ופחות נושא אך לא נפתרו לחלוטין", אמר הונס.
רודמן ראה גל בשימוש ב- AI בקרב מטופליו בששת החודשים האחרונים. באחד המקרים, מטופל צילם צילום מסך של תוצאות מעבדת בית החולים שלו ב- MyChart ואז העלה אותם לצ'טגט כדי להכין שאלות לקראת מינויו. רודמן אמר שהוא מברך על המטופלים המראים לו כיצד הם משתמשים ב- AI, וכי המחקר שלהם יוצר הזדמנות לדיון.
בערך 1 מכל 7 מבוגרים מעל 50 משתמשים ב- AI כדי לקבל מידע בריאותי, על פי סקר שנערך לאחרונה מאוניברסיטת מישיגן, בעוד שאחד מכל 4 מבוגרים מתחת לגיל 30 עושים זאת, על פי סקר KFF.
השימוש באינטרנט כדי לדאוג לטיפול טוב יותר בעצמך אינו חדש. מטופלים השתמשו באופן מסורתי באתרים כמו WebMD, PubMed או Google כדי לחפש את המחקר האחרון וחיפשו עצות של מטופלים אחרים בפלטפורמות מדיה חברתית כמו פייסבוק או Reddit. אבל היכולת של AI Chatbots לייצר המלצות מותאמות אישית או דעות שנייה בשניות היא חדשה.
ליז סלמי, מנהלת יוזמות תקשורת ומטופלים ב- OpenNotes, מעבדה אקדמית בדיאקונוז של בית ישראל הדוגלת בשקיפות בתחום הבריאות, תהתה עד כמה טוב AI נמצא בפרשנות, במיוחד עבור חולים.
במחקר של הוכחת קונספט שפורסם השנה, סאלמי ועמיתיו ניתחו את הדיוק של תגובות Chatgpt, Claude and Gemini לשאלות המטופלים לגבי הערה קלינית. כל שלושת דגמי ה- AI ביצעו היטב, אך כיצד חולים חולים את שאלותיהם, אמר סלמי. לדוגמה, לומר ל- AI Chatbot לקחת על עצמו את הפרסונה של קלינאי ולשאול אותו שאלה אחת בכל פעם שיפר את דיוק התגובות שלו.
פרטיות היא דאגה, אמר סלמי, ולכן חשוב להסיר מידע אישי כמו שמך או מספר ביטוח לאומי מהנחיות. הנתונים עוברים ישירות לחברות טק שפיתחו מודלים של AI, אמר רודמן והוסיף כי הוא אינו מודע לכך שעומד בחוק הפרטיות הפדרלי או שוקל את בטיחות המטופלים. סם אלטמן, מנכ"ל Openai, הזהיר בפודקאסט בחודש שעבר על הכנסת מידע אישי ל- Chatgpt.
"אנשים רבים שהם חדשים בשימוש במודלים בשפה גדולה אולי לא יודעים על הזיות", אמר סלמי בהתייחס לתגובה שעשויה להיראות הגיונית אך אינה מדויקת. לדוגמה, Whisper של Openai, כלי שעתוק בסיוע AI ששימש בבתי חולים, הכניס טיפול רפואי דמיוני לתמליל, על פי דיווח של ה- Associated Press.
השימוש ב- AI גנוצרי דורש סוג חדש של אוריינות בריאות דיגיטלית הכולל שאלת שאלות בצורה מסוימת, אימות תגובות עם דגמי AI אחרים, שיחה עם צוות הבריאות שלך והגנה על פרטיותך באופן מקוון, אמרו סלמי ודייב דברונקרט, ניצול סרטן ותומך המטופל שכותב בלוג שהוקדש לשימוש בחולים ב- AI.
חולים אינם היחידים המשתמשים ב- AI כדי להסביר את תוצאות הבדיקה. Stanford Health Care השיקה עוזר AI המסייע לרופאים שלו לנסח פרשנויות לבדיקות קליניות ותוצאות מעבדה לשליחה לחולים. חוקרי קולורדו חקרו את הדיוק של סיכומים שנוצרו על ידי CHATGPT של 30 דוחות רדיולוגיה, יחד עם שביעות הרצון של ארבעה מטופלים מהם. מתוך 118 התגובות התקפות של חולים, 108 הצביעו על סיכומי CHATGPT פרטים הבהירו על הדו"ח המקורי.
אולם לפעמים צ'טגפט הדגיש יתר על המידה או ללא הדגשת ממצאים, ומספר קטן אך משמעותי של תגובות הצביע על כך שהמטופלים היו מבולבלים יותר לאחר שקראו את הסיכומים, אמר הונצ'ה, שהשתתף במחקר ההדפסה.
בינתיים, לאחר ארבעה שבועות וזוג הודעות מעקב ממילר במיצ'רט, הרופא של מילר הורה חזרה על עבודת הדם שלה ובדיקה נוספת שמילר הציע. התוצאות חזרו רגילות. מילר הוקלה ואמרה כי הודיעה לה טוב יותר בגלל פניות ה- AI שלה.
"זה כלי חשוב מאוד בהקשר זה," אמר מילר. "זה עוזר לי לארגן את השאלות שלי ולעשות את המחקר שלי ולהרמת את מגרש המשחקים."