בינה מלאכותית מוטמעת בחיי היומיום שלנו בצורה עמוקה יותר מאי פעם. זה משתלב בצורה חלקה באופן שבו אנחנו עובדים, מחפשים ונשארים מעודכנים. אבל מחקר חדש של איגוד השידור האירופי (EBU) נותן אזהרה חמורה: 45% מהתגובות החדשות שנוצרו על ידי AI מכילות שגיאות חמורות, ול-81% יש לפחות בעיה אחת. זה יכול לנוע בין מידע מיושן, ניסוח מטעה, למקורות חסרים או מפוברקים.
דיווחנו בעבר ש-ChatGPT טועה בערך 25% מהמקרים. אבל הנתונים החדשים האלה מדאיגים אפילו יותר, במיוחד מכיוון שכלים כמו ChatGPT Atlas ו- AI Overviews של גוגל הופכים לברירת המחדל של רבים מאיתנו לבדוק את החדשות. זוהי תזכורת שבעוד שהנוחות היא אמיתית, כך גם הסיכון.
המחקר: עוזרי AI נכשלים במבחן הדיוק
מחקר EBU בדק יותר מ-3,000 תגובות שנוצרו על ידי AI ב-14 שפות. זה כלל כמה מעוזרי הבינה המלאכותית הפופולריים ביותר, כמו ChatGPT, Google Gemini, Microsoft Copilot, Claude ו-Perplexity.
הנה מה שמצאו החוקרים:
- 45% של התגובות היו שגיאה משמעותית אחת לפחות.
- 81% היה בעיה כלשהי – ממידע מיושן ועד מקורות מעורפלים.
- 31% סומנו עבור בעיות במקור – כולל הפניות מזויפות, חסרות או שגויות שצוטטו.
- 20% הכיל אי דיוקים עובדתיים גדוליםכגון דיווח שגוי של אירועים אקטואליים או ייחוס שגוי של ציטוטים.
למרות שהמחקר לא דירג בפומבי כל עוזר, לפי הדיווחים הנתונים הפנימיים מראים שג'מיני במיוחד נאבקו בחיפוש אחר, בעוד ש-ChatGPT וקלוד לא היו עקביים בהתאם לגרסה שבה נעשה שימוש.
למה זה חשוב יותר ממה שאתה חושב
עוזרי בינה מלאכותית משמשים יותר ויותר כדרך לתשובות מהירות – במיוחד בקרב משתמשים צעירים יותר. לפי מכון רויטרס, 15% ממשתמשי הדור Z כבר מסתמכים על צ'אטבוטים לחדשות. ועם בינה מלאכותית שמוטמעת כעת בכל דבר, מדפדפנים ועד משקפיים חכמות, הסיכון למידע מוטעה יכול לקרות מיד, והמשתמשים אינם חכמים יותר.
גרוע מכך, רבים מהעוזרים הללו אינם מעלים מקורות בבירור או מבחינים בין עובדות לדעה, ויוצרים תחושת ביטחון מזויפת. כאשר AI מסכם בביטחון סיפור חדשותי אבל משמיט את הפרסום, חותמת הזמן או ההשקפה המנוגדת, המשתמשים עלולים לספוג בלי לדעת חצאי אמיתות או מידע מיושן.
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
בדקתי עוזרי AI מובילים עם שאילתת חדשות אמיתית – הנה מה שקרה
כדי לראות את זה בפעולה, שאלתי את ChatGPT, קלוד וג'מיני את אותה שאלה:
"מה העדכון האחרון על עסקת תקרת החוב בארה"ב?"
במבחן זה, התשובה הטובה ביותר מגיעה ל: קלוד. קלוד זיהה נכונה את מסגרת הזמן של העסקה הגדולה "האחרונה" כיולי 2025 ומיקם אותה במדויק בהקשר של ההשעיה הקודמת (חוק האחריות הפיסקלית של 2023). הוא קבע נכון שתקרת החוב הוחזרה בינואר 2025 וכי העסקה נחוצה כדי למנוע מחדל פוטנציאלי באוגוסט 2025. זה מראה על ציר זמן ברור ומדויק.
קלוד גם סיפק את המידע הליבה (מה קרה, מתי ולמה זה היה חשוב) בפסקה ישירה וקלה למעקב ללא קשקושים מיותרים או תרחישים עתידיים ספקולטיביים.
הפגם הגדול ביותר של ChatGPT היה הציטוט של כתבות חדשות מהעתיד ("היום", "23 באפריל 2025", "23 במרץ 2025"). זה פוגע קשות באמינותו. בעוד שחלק ממידע הרקע שימושי, הצגת כותרות בדיוניות עדכניות היא מטעה.
ולמרות שהתגובה הייתה מובנית היטב עם סימני ביקורת וסעיפים, היא קוברת את "העסקה האחרונה" בפועל. במקום זאת, הוא מכליל לגבי דאגות והשקפות עתידיות, במקום לענות על ליבת השאלה.
תאומים זיהה נכון את עסקת יולי 2025 וסיפקה הקשר מוצק. עם זאת, זה הסתיים בהצגת נושא נפרד לחלוטין (השבתת הממשלה) מבלי להסביר בבירור כל קשר לעסקת תקרת החוב.
כיצד להגן על עצמך בעת שימוש בבינה מלאכותית לחדשות
אם אתה מתכוון להשתמש בבינה מלאכותית כדי להישאר מעודכן, תרצה לנסח מחדש את ההנחיות שלך. למשל, במקום לשאול, "מה קורה בעולם?" נסה משהו כזה במקום זאת:
- מבקש מקורות מלפנים. הוסף: "תן לי קישורים לכלי חדשות מהימנים עדכניים."
- חותמת את השאילתה שלך. לִשְׁאוֹל: "נכון להיום, 23 באוקטובר, מה האחרון ב-X?"
- לְהַצְלִיב עֵדוּיוֹת. הפעל את אותה שאלה בשניים או שלושה עוזרים – והבחין בפערים.
- אל תעצור בסיכום. אם משהו נשמע מפתיע, בקש את המאמר המלא או פתח אותו בדפדפן שלך.
- אל תתייחס לצ'אטבוטים כאל רשויות. השתמש בהם כדי להעלות כותרות, אבל אמת עובדות בעצמך.
מחשבות אחרונות
דו"ח EBU מזהיר שזו לא רק בעיה של משתמש; זו גם בעיה של אמון הציבור. אם מיליוני אנשים צורכים סיכומים פגומים או מוטים מדי יום, זה עלול לעוות את השיח הציבורי ולערער את כלי החדשות המהימנים.
בינתיים, בעלי אתרים עומדים בפני מכה כפולה: התעבורה אובדת לממשקי צ'אט בינה מלאכותית, בעוד שהדיווח המקורי שלהם עשוי להיות מצג שווא או מופשט לחלוטין.
מה שדרוש כעת הוא שקיפות רבה יותר, מערכות מקורות חזקות יותר והתנהגות משתמשים חכמה יותר.
עד שצ'אטבוטים יוכלו לצטט, להבהיר ולעדכן את המקורות שלהם באופן עקבי בזמן אמת, קח כל תגובה בזהירות. וכשזה מגיע לחדשות, ההודעה הבטוחה ביותר עדיין עשויה להיות: "קח אותי למאמר המקורי."