חוקרים מצאו שכלי התמלול המופעל על ידי OpenAI, Whisper, ממציא דברים שמעולם לא נאמרו עם השלכות שעלולות להיות מסוכנות, על פי דוח חדש.
לפי APNews, מודל הבינה המלאכותית ממציא טקסט (המכונה בדרך כלל 'הזיה'), שבו מודל השפה הגדול מזהה דפוסים שאינם קיימים בחומר ההדרכה שלו, ובכך יוצר פלטים שטותיים. חוקרים אמריקאים מצאו שהטעויות של וויספר יכולות לכלול פרשנות גזעית, אלימות וטיפולים רפואיים מפנטזים.
Whisper משולבת עם כמה גרסאות של ChatGPT, והיא הצעה מובנית בפלטפורמות מחשוב הענן של מיקרוסופט ואורקל. מיקרוסופט הצהירה כי הכלי אינו מיועד לשימוש בסיכון גבוה, אם כי ספקי שירותי בריאות מתחילים לאמץ את הכלי לתמלול התייעצויות של מטופלים עם רופאים.
ל-Whesper נטען כי יש "חוסן ודיוק ברמה אנושית כמעט" על ידי יצרניתו, ולכאורה אומצה על ידי למעלה מ-30,000 רופאים אמריקאים ב-40 מערכות בריאות. עם זאת, חוקרים מזהירים מפני האימוץ, עם בעיות שנמצאו במחקרים שונים.
במחקר על פגישות ציבוריות, חוקר מאוניברסיטת מישיגן מצא כי Whisper הוזה בשמונה מתוך כל 10 תעתיקי אודיו שנבדקו. בינתיים, מהנדס למידת מכונה גילה הזיות בכמחצית מ-100 שעות של תמלול ומפתח שלישי מצא הזיות כמעט בכל אחד מ-26,000 התמלילים שיצר עם Whisper.
בחודש האחרון הורדה Whisper יותר מ-4.2 מיליון פעמים מפלטפורמת ה-AI בקוד פתוח HuggingFace, כשהכלי הוא מודל זיהוי הדיבור הפופולרי ביותר באתר. בניתוח חומר מ-TalkBank, מאגר המתארח באוניברסיטת קרנגי מלון, החוקרים קבעו כי 40% מההזיות שויספר מייצר עלולות להזיק מכיוון שהדובר "פורש לא נכון או הוצג בצורה שגויה".
בדוגמאות של AP של קטעים כאלה, דובר אחד תיאר "שתי בנות נוספות וגברת אחת", וויספר המציא פרשנות על גזע, וציין "שתי בנות נוספות וגברת אחת, אממ, שהיו שחורות". בדוגמה אחרת, הכלי יצר תרופה בדיונית המכונה "אנטיביוטיקה מופעלת יתר".
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
כאן ב-Datilin העורכים המומחים שלנו מחויבים להביא לך את החדשות, הביקורות והמדריכים הטובים ביותר שיעזרו לך להישאר מעודכן ולהקדים את העקומה!
לטעויות כמו אלה שנמצאו עלולות להיות "השלכות חמורות באמת", במיוחד במסגרת שירותי בריאות, אמר פרופסור פרינסטון אלונדרה נלסון ל-AP כי "אף אחד לא רוצה אבחנה שגויה".
יש קריאות ל-OpenAI לטפל בבעיה, שכן העובד לשעבר וויליאם סונדרס אמר ל-AP כי "זה בעייתי אם אתה מפרסם את זה ואנשים בטוחים בעצמם יתר על המידה לגבי מה היא יכולה לעשות ולשלב את זה בכל המערכות האחרות האלה".
הזיות הן בעיה עבור כלי תמלול בינה מלאכותית

בעוד שמשתמשים רבים מצפים שכלי בינה מלאכותית יעשו טעויות או יאות מילים שגוי, חוקרים גילו שתוכנות אחרות עושות טעויות בדיוק כמו Whisper.
סקירת הבינה המלאכותית של גוגל זכתה לביקורת מוקדם יותר השנה כשהציעה להשתמש בדבק לא רעיל כדי למנוע מהגבינה ליפול מהפיצה, תוך ציטוט הערה סרקסטית של Reddit כמקור.
מנכ"ל אפל, טים קוק, הודה בראיון שהזיות בינה מלאכותית עשויות להוות בעיה במוצרים עתידיים, כולל חבילת Apple Intelligence. קוק אמר לוושינגטון פוסט שרמת הביטחון שלו לא הייתה 100% לגבי האם הכלים עלולים להזות.
"אני חושב שעשינו כל מה שאנחנו יודעים לעשות, כולל חשיבה מעמיקה מאוד על המוכנות של הטכנולוגיה בתחומים שבהם אנחנו משתמשים בה", אמר קוק.
למרות זאת, חברות מקדמות את הפיתוח של כלים ותוכניות בינה מלאכותית, כאשר הזיות, בדומה להמצאות של Whisper, ממשיכות להיות נושא נפוץ. באשר לתגובתה של OpenAI להזיות, היא המליצה שלא להשתמש ב Whisper ב"הקשרים של קבלת החלטות, שבהן פגמים בדיוק עלולים להוביל לפגמים מובהקים בתוצאות".