בינה מלאכותית (AI) מתקדמת במהירות ברחבי שירותי הבריאות המודרניים, אך תפקידה בניתוחי ילדים נותר מוגבל ומורכב מבחינה אתית. מחקר זה מגלה שלמרות שהמנתחים מזהים את הפוטנציאל של AI לשפר את הדיוק האבחוני, לייעל את התכנון ולתמוך בקבלת החלטות קלינית, השימוש המעשי בו עדיין נדיר ובעיקר אקדמי. מנתחי ילדים הביעו דאגות עזות לגבי אחריות במקרה של פגיעה הקשורה בבינה מלאכותית, הקושי לקבל הסכמה מדעת לילדים, הסיכון להפרות פרטיות הנתונים והאפשרות של הטיה אלגוריתמית. על ידי בחינת החוויות והתפיסות של מנתחי ילדים, מחקר זה מדגיש את החסמים הקריטיים שיש לטפל בהם לפני שניתן יהיה לשלב בינה מלאכותית בבטחה ובאחריות בטיפול כירורגי בילדים.
נכון לעכשיו, בכל העולם, AI מעצב מחדש את האופן שבו נתונים רפואיים מתפרשים, כיצד צפויים סיכונים וכיצד נתמכות החלטות מורכבות. עם זאת, ניתוחי ילדים מתמודדים עם אתגרים אתיים ייחודיים בשל האוטונומיה המוגבלת של ילדים, הצורך בקבלת החלטות של ההורים והרגישות המוגברת של סיכונים כירורגיים. בהגדרות של משאבים נמוכים, חששות לגבי תשתית, ייצוגיות נתונים ומוכנות רגולטורית מסבכות עוד יותר את האימוץ. מנתחי ילדים חייבים לאזן בין חדשנות לבין החובה להגן על חולים פגיעים ולשמור על אמון. לחצים אלה מעצימים את הוויכוחים סביב שקיפות, הוגנות ואחריות בשימוש בכלי AI. עם האתגרים הללו יש צורך במחקר מעמיק יותר כדי להנחות את השילוב האתי והמעשי של AI בטיפול כירורגי בילדים.
צוות לאומי של מנתחי ילדים מהמרכז הרפואי הפדרלי באומואהיה, ניגריה, פרסם את הסקר המקיף הראשון הבוחן כיצד רופאים תופסים את ההשלכות האתיות והמעשיות של שילוב AI בטיפול כירורגי בילדים. פורסם (DOI: 10.1136/wjps-2025-001089) ב-20 באוקטובר 2025 ב- World Journal of Pediatric Surgery (WJPS), המחקר אסף תגובות של מנתחים בכל ששת האזורים הגיאופוליטיים כדי להעריך את רמות המודעות לבינה מלאכותית, דפוסי שימוש וחששות אתיים מרכזיים. הממצאים חושפים מקצוע השוקל בזהירות את היתרונות הפוטנציאליים של בינה מלאכותית מול שאלות לא פתורות לגבי אחריות, הסכמה מדעת, פרטיות נתונים ומוכנות רגולטורית.
המחקר ניתח תגובות של 88 מנתחי ילדים, שרובם היו יועצים מנוסים שהתרגלו באופן פעיל במסגרות קליניות מגוונות. למרות המומנטום העולמי בחדשנות כירורגית המאפשרת בינה מלאכותית, רק שליש מהמשיבים השתמשו אי פעם בבינה מלאכותית, והשימוש בהם הוגבל במידה רבה למשימות כמו חיפושי ספרות ותיעוד ולא ליישומים קליניים. מעטים מאוד דיווחו על שימוש בבינה מלאכותית לתמיכה באבחון, פירוש הדמיה או הדמיה כירורגית, והדגישו פער משמעותי בין יכולות טכנולוגיות מתפתחות לבין פרקטיקה כירורגית יומיומית של ילדים.
חששות אתיים היו כמעט אוניברסליים. מנתחים זיהו אחריות לשגיאות הקשורות לבינה מלאכותית, את המורכבות של הבטחת הסכמה מדעת מהורים או אפוטרופוסים, ואת הפגיעות של נתוני המטופלים כמקורות עיקריים להיסוס. החששות התרחבו גם להטיה אלגוריתמית, צמצום הפיקוח האנושי ואחריות משפטית לא ברורה במקרה של פגיעה. הדעות על שקיפות עם משפחות היו חלוקות. בעוד שרבים תמכו בהסברה להורים על מעורבות בינה מלאכותית, אחרים הרגישו שחשיפה מיותרת כאשר בינה מלאכותית לא השפיעה ישירות על החלטות קליניות.
רוב הנשאלים הביעו אמון נמוך במסגרות משפטיות קיימות המסדירות שימוש בבינה מלאכותית בתחום הבריאות. רבים קראו למנהיגות רגולטורית חזקה יותר, הנחיות ברורות יותר והכשרה סטנדרטית כדי להכין מנתחי ילדים לאינטגרציה עתידית של AI. ביחד, הממצאים מדגישים צורך דחוף בממשל מובנה ובבניית יכולת.
"התוצאות מראות שמנתחי ילדים אינם מתנגדים לבינה מלאכותית – הם פשוט רוצים להבטיח שהוא בטוח, הוגן ומוסדר היטב", הסביר צוות המחקר. "יש לטפל באתגרים אתיים כגון אחריות, הסכמה מדעת והגנה על נתונים לפני שהקלינאים יוכלו להסתמך בביטחון על בינה מלאכותית במסגרות הכוללות ילדים פגיעים. הנחיות לאומיות ברורות, תוכניות הכשרה מעשית ותקנים שקופים הם חיוניים כדי להבטיח שה-AI יהפוך לכלי תומך ולא מקור לאי ודאות בטיפול כירורגי ילדים".
המחקר מדגיש את הצורך במסגרות אתיות ספציפיות לילדים, נהלי הסכמה ברורים יותר ומנגנוני אחריות מוגדרים היטב לטיפול בסיוע בינה מלאכותית. חיזוק ממשל הנתונים, שיפור התשתית הדיגיטלית והרחבת אוריינות הבינה המלאכותית בקרב קלינאים ומשפחות יהיו חיוניים לבניית אמון. כאשר בינה מלאכותית ממשיכה להיכנס לפרקטיקה הכירורגית, אמצעים אלה מציעים מפת דרכים מעשית לשילוב חדשנות תוך שמירה על בטיחות הילדים ואמון הציבור.