Search
חולים וצוות חולקים השקפות על השימוש ב- AI במבטאים ראשוניים

APA דוחק באמצעי הגנה לשימוש בבינה מלאכותית בבריאות הנפש

תמיכה רגשית היא סיבה נפוצה יותר ויותר שאנשים פונים לצ'אטבוטים ויישומי בריאות יצירתיים של בינה מלאכותית, אבל הכלים האלה חסרים כרגע את הראיות המדעיות והתקנות הדרושות כדי להבטיח את בטיחות המשתמשים, על פי ייעוץ בריאותי חדש של איגוד הפסיכולוגים האמריקאי.

הייעוץ הבריאותי של APA בנושא שימוש בצ'אטבוטים גנרטיביים בינה מלאכותית ויישומי בריאות לבריאות הנפש בדק טכנולוגיות ממוקדות צרכנים שאנשים מסתמכים עליהן לייעוץ וטיפול בבריאות הנפש, גם אם אלו לא מטרתם. עם זאת, קל לגשת לכלים אלה ובעלות נמוכה – מה שהופך אותם לאפשרות מושכת עבור אנשים שמתקשים למצוא או להרשות לעצמם טיפול מספקי בריאות הנפש מורשים.

"אנחנו בעיצומו של משבר בריאות נפשי גדול הדורש פתרונות מערכתיים, לא רק עצירות טכנולוגיות", אמר מנכ"ל APA, ארתור סי אוונס ג'וניור, דוקטור.

בעוד שצ'אטבוטים נראים זמינים להציע למשתמשים תמיכה ואימות, היכולת של הכלים הללו להדריך בבטחה מישהו שחווה משבר מוגבלת ובלתי צפויה".

ארתור סי אוונס ג'וניור, מנכ"ל, APA

הייעוץ מדגיש שלמרות שלטכנולוגיה יש פוטנציאל עצום לעזור לפסיכולוגים להתמודד עם משבר בריאות הנפש אסור להסיח את הדעת מהצורך הדחוף לתקן את היסודות של מערכת בריאות הנפש באמריקה.

הדו"ח מציע המלצות לציבור, לקובעי מדיניות, חברות טכנולוגיה, חוקרים, קלינאים, הורים, מטפלים ובעלי עניין אחרים כדי לעזור להם להבין את תפקידם בנוף טכנולוגי המשתנה במהירות, כך שהנטל של ניווט במרחבים דיגיטליים לא בדוקים ובלתי מוסדרים לא ייפול רק על המשתמשים. ההמלצות העיקריות כוללות:

  • בשל האופי הבלתי צפוי של טכנולוגיות אלו, אל תשתמש בצ'אטבוטים ובאפליקציות בריאות כתחליף לטיפול מאיש מקצוע מוסמך בבריאות הנפש.
  • מניעת יחסים או תלות לא בריאים בין משתמשים לטכנולוגיות אלו
  • קבע אמצעי הגנה ספציפיים לילדים, בני נוער ואוכלוסיות פגיעות אחרות

"הפיתוח של טכנולוגיות בינה מלאכותית עלה על היכולת שלנו להבין במלואן את ההשפעות והיכולות שלהן. כתוצאה מכך, אנו רואים דיווחים על נזק משמעותי שנגרם למתבגרים ולאוכלוסיות פגיעות אחרות", אמר אוונס. "עבור חלק זה יכול להיות סכנת חיים, מה שמדגיש את הצורך של פסיכולוגים ומדע פסיכולוגי להיות מעורבים בכל שלב של תהליך ההתפתחות."

אפילו לכלי AI גנרטיביים שפותחו עם מדע פסיכולוגי איכותי ושימוש בשיטות עבודה מומלצות אין מספיק ראיות כדי להראות שהם יעילים או בטוחים לשימוש בטיפול נפשי, על פי הייעוץ. על החוקרים להעריך צ'אטבוטים ואפליקציות בריאות בינה מלאכותית באמצעות ניסויים קליניים אקראיים ומחקרי אורך העוקבים אחר תוצאות לאורך זמן. אבל כדי לעשות זאת, חברות טכנולוגיה וקובעי מדיניות חייבים להתחייב לשקיפות לגבי האופן שבו הטכנולוגיות הללו נוצרות ושימוש בהן.

הייעוץ קורא למסגרות הרגולטוריות הנוכחיות שאינן מספקות להתמודדות עם המציאות של AI בטיפול בבריאות הנפש, וקורא לקובעי המדיניות, במיוחד ברמה הפדרלית, ל:

  • מודרניז את התקנות
  • צור סטנדרטים מבוססי ראיות עבור כל קטגוריה של כלי דיגיטלי
  • טיפול בפערים בפיקוח של מינהל המזון והתרופות
  • קדם חקיקה האוסרת על צ'אטבוטים של AI להתחזות למקצוענים מורשים
  • חוקק חקיקה מקיפה לפרטיות נתונים והגדרות "בטוח כברירת מחדל".

הייעוץ מציין לקלינאים רבים חסר מומחיות בבינה מלאכותית וקורא לקבוצות מקצועיות ומערכות בריאות להכשיר אותם על בינה מלאכותית, הטיה, פרטיות נתונים ושימוש אחראי בכלי בינה מלאכותית בפועל. הרופאים עצמם צריכים גם לעקוב אחר ההנחיות האתיות הזמינות ולשאול מטופלים באופן יזום לגבי השימוש שלהם בצ'אטבוטים של AI ובאפליקציות בריאות.

"אינטליגנציה מלאכותית תמלא תפקיד קריטי בעתיד של שירותי הבריאות, אבל היא לא יכולה לקיים את ההבטחה הזו אלא אם כן נתעמת גם עם האתגרים ארוכי השנים בבריאות הנפש", אמר אוונס. "עלינו לדחוף לרפורמה מערכתית כדי להפוך את הטיפול למשתלם יותר, נגיש ובזמן – ולהבטיח שאנשי מקצוע אנושיים נתמכים, לא יוחלפו, ב-AI."

דילוג לתוכן