אפל תחת אש לאחר שהודעת טקסט, המיוחסת לחדשות ה-BBC, טענה בצורה שקרית שלואיג'י מנג'ונה, הנאשם ברצח מנכ"ל ביטוח בריאות בולט בניו יורק, ירה בעצמו. הכותרת המזעזעת והשקרית נוצרה באמצעות Apple Intelligence, המשתמשת בבינה מלאכותית כדי לסכם הודעות חדשות.
במציאות, האירוע לא התרחש, אך זמן קצר לאחר מסירת הסיכום, הרשתות החברתיות כבר זמזו והפיצו את החדשות הכוזבות במהירות. כאשר אושר כי תקציר ה-AI הנפיק בטעות פרטים על תיק הרצח המתוקשר, זה עורר דאגה לגבי הדיוק של תכונת סיכום החדשות של אפל.
ה-BBC התלונן רשמית בפני אפל, וביקש אמצעי תיקון כדי למנוע שגיאות כאלה הישנות, והדגיש עוד יותר את חשיבות האחריות. אתר כלי התקשורת מציין את ערכי העריכה שלו, "האמון שיש לקהל שלנו בכל התכנים שלנו עומד בבסיס כל מה שאנחנו עושים. אנחנו עצמאיים, חסרי פניות וישרים. אנו מחויבים להשיג את הסטנדרטים הגבוהים ביותר של דיוק וחוסר משוא פנים ושואפים להימנע. מטעה ביודעין או מהותי את הקהל שלנו".
כלי תקשורת משקיעים רבות בשמירה על אמינותם, ושגיאות שנעשו על ידי פלטפורמות צד שלישי מאיימות לכרסם באמון זה. מכיוון שמידע שגוי יכול להתפשט במהירות באינטרנט, חשוב מאוד שהודעות חדשות אוטומטיות יהיו מדויקות.
אפל עדיין לא הגיבה בפומבי לתלונה של ה-BBC. עם זאת, תקרית זו אינה הפעם הראשונה ש-Apple Intelligence נתקלת בביקורת על הפצת מידע מוטעה באמצעות סיכומי ה-AI שלה. ב-21 בנובמבר, הודעה שיוחסה ל"ניו יורק טיימס" העלתה באופן לא מדויק שראש ממשלת ישראל בנימין נתניהו נעצר. הסיפור האמיתי נגע לבית הדין הפלילי הבינלאומי שהוציא צו מעצר לנתניהו, אבל סיכום הבינה המלאכותית עיוות משמעותית את העובדות. ה"ניו יורק טיימס" בחר שלא להגיב על התקרית.
קורא לאסור
RSF קורא לאסור לחלוטין על תכונת הבינה המלאכותית הגנרטיבית. כתבים ללא גבולות הצהירו באתר שלהם ואמרו שהם מודאגים מהסיכונים של כלי בינה מלאכותית בנוגע להתראות חדשות כוזבות. הארגון מאמין שהם עדיין חדשים מכדי לשמש אותם בדיווח החדשות.
ראש דסק הטכנולוגיה והעיתונות של RSF אמר באתר, "AI הם מכונות הסתברות, ולא ניתן להחליט על עובדות בהטלת קובייה. RSF קורא לאפל לפעול באחריות על ידי הסרת תכונה זו. הפקה אוטומטית של מידע כוזב המיוחס לכלי תקשורת מהווה פגיעה באמינות הכלי וסכנה לזכות הציבור למידע מהימן על אקטואליה. חוק הבינה המלאכותית האירופי – למרות היותו החקיקה המתקדמת ביותר בעולם בתחום זה – לא סיווג בינה מלאכותית יוצרות מידע כמערכות בעלות סיכון גבוה, מה שהותיר חלל משפטי קריטי. את החסר הזה יש להשלים באופן מיידי".
מסתכלים קדימה
הבעיות עם Apple Intelligence העלו חששות רחבים יותר לגבי האמינות של בינה מלאכותית בטיפול במידע רגיש. כלים מונעי בינה מלאכותית, על אף שנועדו לייעל ולשפר את חוויות המשתמש, לעתים קרובות נאבקים בהקשר ובניואנסים – מרכיבי מפתח בדיווח מדויק. כאשר מקורות חדשותיים מהימנים מוצגים בצורה שגויה באמצעות שגיאות אלו, הפוטנציאל לאי הבנה ציבורית גדל באופן אקספוננציאלי.
הבעיה גם מדגישה את ההשלכות הרחבות יותר של שילוב AI במסירת חדשות. ככל שחברות טכנולוגיה כמו אפל ממשיכות לאמץ בינה מלאכותית לאיסוף תוכן, יש לחץ גובר להבטיח שהמערכות הללו נבדקות ומנוטרות כראוי. ארגוני חדשות, מצידם, מתחילים להדוף שגיאות שעלולות לפגוע במוניטין שלהם.
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
תקרית זו משמשת כאזהרה לגבי הסיכונים בהסתמכות רבה מדי על בינה מלאכותית להעברת תוכן, ומעלה את השאלה: האם הסיכון למידע מוטעה עולה על הנוחות שבסיכומי חדשות אוטומטיים? בעוד שבינה מלאכותית מבטיחה לשפר את היעילות והנגישות, המגבלות שלה מדגישות את הצורך המתמשך בפיקוח אנושי בעיתונאות. כאשר אפל מתמודדת עם לחץ גובר לטפל בפגמים ב-Apple Intelligence, הוויכוח על תפקידה של AI במדיה החדשותית צפוי להתעצם.