Search
BMJ Fast Facts: Quality and safety of artificial intelligence generated health information. Image Credit: Le Panda / Shutterstock

ניווט בשדה המוקשים של AI בתחום הבריאות: איזון בין חדשנות לדיוק

במאמר שפורסם לאחרונה בכתב העת 'עובדות מהירות' BMJ, חוקרים דנים בהתקדמות האחרונה בתחום הבינה המלאכותית הגנרטיבית (AI), בחשיבות הטכנולוגיה בעולם כיום ובסכנות הפוטנציאליות שיש לטפל בהן לפני שמודלים של שפות גדולות (LLMs) כגון ChatGPT יוכלו להפוך למקורות המהימנים של מידע עובדתי. להאמין שהם.

BMJ עובדות מהירות: איכות ובטיחות של מידע בריאותי שנוצר על ידי בינה מלאכותית. קרדיט תמונה: Le Panda / Shutterstock

מהו AI גנרטיבי?

'בינה מלאכותית גנרטיבית (AI)' היא תת-קבוצה של מודלים של AI שיוצרים תוכן תלוי הקשר (טקסט, תמונות, אודיו ווידאו) ומהווים את הבסיס למודלים של השפה הטבעית המניעים את עוזרי הבינה המלאכותית (Google Assistant, Amazon Alexa ו- Siri) ויישומי פרודוקטיביות כולל ChatGPT ו- Grammarly AI. טכנולוגיה זו מייצגת את אחד המגזרים הצומחים ביותר בתחום המחשוב הדיגיטלי ובעלת פוטנציאל לקדם באופן מהותי היבטים שונים בחברה, כולל שירותי בריאות ומחקר רפואי.

למרבה הצער, ההתקדמות בתחום הבינה המלאכותית הגנרטיבית, במיוחד מודלים של שפות גדולות (LLMs) כמו ChatGPT, עלתה בהרבה על בדיקות האתיקה והבטיחות, והציגה את הפוטנציאל להשלכות חמורות, הן בשוגג והן במכוון (זדוני). מחקרים מעריכים שיותר מ-70% מהאנשים משתמשים באינטרנט כמקור העיקרי שלהם למידע בריאותי ורפואי, כאשר יותר אנשים פונים ל-LLMs כגון Gemini, ChatGPT ו-Copilot עם השאילתות שלהם בכל יום. המאמר הנוכחי מתמקד בשלושה היבטים פגיעים של AI, כלומר שגיאות AI, דיסאינפורמציה בריאותית ודאגות לפרטיות. הוא מדגיש את המאמצים של דיסציפלינות חדשות, כולל בטיחות בינה מלאכותית ובינה מלאכותית אתית, בטיפול בפגיעויות אלו.

שגיאות AI

שגיאות בעיבוד נתונים הן אתגר נפוץ בכל טכנולוגיות הבינה המלאכותית. ככל שמערכי נתונים של קלט נעשים נרחבים יותר ופלטי מודל (טקסט, אודיו, תמונות או וידאו) הופכים מתוחכמים יותר, מידע שגוי או מטעה הופך להיות יותר ויותר מאתגר לזיהוי.

"תופעת "הזיה בינה מלאכותית" זכתה לגדולה עם השימוש הנרחב בצ'אטבוטים של בינה מלאכותית (למשל, ChatGPT) המופעלים על ידי LLMs. בהקשר של מידע בריאותי, הזיות בינה מלאכותית מדאיגות במיוחד מכיוון שאנשים עלולים לקבל מידע בריאותי שגוי או מטעה מ-LLMs. מוצגים כעובדה".

עבור חברי החברה הדיוטים שאינם מסוגלים להבחין בין מידע עובדתי לבין מידע לא מדויק, טעויות אלו עלולות לעלות מאוד מהר מאוד, במיוחד במקרים של מידע רפואי שגוי. אפילו אנשי מקצוע רפואיים מיומנים עלולים לסבול משגיאות אלה, בהתחשב בכמות הגדלה של מחקר שנערך באמצעות LLMs ובינה מלאכותית גנרטיבית לניתוח נתונים.

למרבה המזל, אסטרטגיות טכנולוגיות רבות שמטרתן לצמצם שגיאות בינה מלאכותית מפותחות כיום, כאשר המבטיחה שבהן כרוכה בפיתוח מודלים של בינה מלאכותית ש"מתבססים" את עצמם במידע שמקורו במקורות אמינים וסמכותיים. שיטה נוספת היא שילוב 'אי ודאות' בתוצאת מודל הבינה המלאכותית – בעת הצגת פלט. המודל יציג גם את מידת האמון שלו בתקפות המידע המוצג, ובכך יאפשר למשתמש להתייחס למאגרי מידע אמינים במקרים של אי ודאות גבוהה. כמה דגמי AI גנרטיביים כבר משלבים ציטוטים כחלק מהתוצאות שלהם, ובכך מעודדים את המשתמש לחנך את עצמו עוד לפני שיקבל את הפלט של המודל כערך נקוב.

דיסאינפורמציה בריאותית

דיסאינפורמציה נבדלת מהזיות בינה מלאכותית בכך שהאחרונה היא מקרית ושגגה, בעוד שהראשונה מכוונת וזדונית. בעוד שהפרקטיקה של דיסאינפורמציה עתיקה כמו החברה האנושית עצמה, בינה מלאכותית גנרטיבית מציגה פלטפורמה חסרת תקדים ליצירת "דיסאינפורמציה מגוונת ואיכותית וממוקדת בקנה מידה" כמעט ללא עלות כספית לשחקן הזדוני.

"אפשרות אחת למניעת דיסאינפורמציה בריאותית הנוצרת בינה מלאכותית כוללת כוונון עדין של מודלים כך שיתאימו לערכים והעדפות אנושיות, כולל הימנעות מיצירת תגובות מזיקות או דיסאינפורמציה ידועות. אלטרנטיבה היא לבנות מודל מיוחד (בנפרד ממודל הבינה המלאכותית הגנרטיבית). כדי לזהות בקשות ותגובות בלתי הולמות או מזיקות".

בעוד ששתי הטכניקות הנ"ל בנות קיימא במלחמה נגד דיסאינפורמציה, הן ניסיוניות ודוגמניות. כדי למנוע נתונים לא מדויקים אפילו להגיע למודל לעיבוד, יוזמות כגון סימני מים דיגיטליים, שנועדו לאמת נתונים מדויקים ולייצג תוכן שנוצר בינה מלאכותית, פועלות כעת. לא פחות חשוב, הקמת סוכנויות ערנות בינה מלאכותית תידרש לפני שניתן יהיה לסמוך ללא עוררין על בינה מלאכותית כמערכת אספקת מידע חזקה.

פרטיות והטיה

יש לסנן נתונים המשמשים לאימון מודלים של AI, במיוחד נתונים רפואיים, כדי להבטיח שלא נכלל מידע מזהה, ובכך לכבד את הפרטיות של המשתמשים שלו ושל המטופלים שעל הנתונים שלהם המודלים הוכשרו. עבור נתונים במיקור המונים, מודלים של AI בדרך כלל כוללים תנאי פרטיות. על משתתפי המחקר לוודא שהם מצייתים לתנאים אלה ולא לספק מידע שניתן לאתר אותו למתנדב המדובר.

הטיה היא הסיכון התורשתי של מודלים של AI להטות נתונים על סמך חומר מקור ההדרכה של המודל. רוב דגמי הבינה המלאכותית מאומנים על מערכי נתונים נרחבים, המתקבלים בדרך כלל מהאינטרנט.

"למרות המאמצים של מפתחים לצמצם הטיות, עדיין מאתגר לזהות ולהבין את ההטיות של LLMs נגישים בשל חוסר שקיפות לגבי נתוני ההדרכה והתהליך. בסופו של דבר, אסטרטגיות שמטרתן למזער סיכונים אלו כוללות הפעלת שיקול דעת רב יותר בבחירה של נתוני אימון, ביקורת יסודית של תפוקות בינה מלאכותית ונקיטת צעדים מתקינים כדי למזער הטיות שזוהו".

מסקנות

דגמי AI גנרטיביים, שהפופולריים שבהם כוללים LLMs כגון ChatGPT, Microsoft Copilot, Gemini AI ו- Sora, מייצגים כמה משיפורי הפרודוקטיביות האנושיים הטובים ביותר בעידן המודרני. למרבה הצער, ההתקדמות בתחומים אלה עלתה בהרבה על בדיקות האמינות, מה שהביא לפוטנציאל לשגיאות, דיסאינפורמציה והטיה, מה שעלול להוביל לתוצאות חמורות, במיוחד כאשר שוקלים טיפול רפואי. המאמר הנוכחי מסכם כמה מהסכנות של AI גנראטיבי בצורתו הנוכחית ומדגיש טכניקות תת-פיתוח כדי להפחית את הסכנות הללו.

דילוג לתוכן