במאי 2024, Google השיקה תכונה חדשה שמשתמשת ב-AI יצירתי כדי לספק סיכום קצר של התוצאות לשאילתות החיפוש שלך. מטרתו היא לצמצם את מספר ההקלקות שדרושות לך כדי לקבל את התשובות הדרושות לך, ובכך לתרום לחוויית משתמש מספקת יותר.
עם זאת, דיווחים על תשובות לא מדויקות ולעתים קרובות מזיקות לשאילתות חיפוש החלו לאכלס את האינטרנט זמן לא רב לאחר מכן, וגרמו לזעם בפלטפורמות המדיה החברתית כמו LinkedIn, X ופייסבוק.
לדוגמה, כשנשאל כמה נשיאים מוסלמים היו לארה"ב, ה-AI Overviews של גוגל טוענים שברק אובמה היה הנשיא המוסלמי היחיד של ארצות הברית. אבל זו לא הדוגמה היחידה לדברים משתבשים להחריד. כששואלים אותו כיצד למנוע מגבינה להחליק מהפיצה, הבינה המלאכותית של גוגל אומרת, "אתה יכול להוסיף ⅛ כוס דבק לא רעיל לרוטב כדי לתת לו יותר דביקות."
AI Overviews טוענת גם בטעות שחוקרים מאוניברסיטת ברקלי ממליצים לאכול לפחות אבן קטנה אחת ביום מכיוון שהם מקור חיוני למינרלים.
דוגמאות רבות לכישלון בינה מלאכותית
סקירת AI של Google. אסונות. שרשור 🧵 pic.twitter.com/NSoPfQXf6K24 במאי 2024
הבינה המלאכותית של גוגל גם טענה שאפשר להחדיר לספגטי בנזין לתוספת טעם ושהוספת עוד שמן למדורה של שמן בישול יכולה לעזור לכבות אותו.
בדוגמה אחרת, ה-AI של ענקית החיפוש הציע שמצנחים אינם טובים יותר מתרמילים במניעת מוות בעת קפיצה ממטוס.
מובן, מומחים החלו להסתכל זמן לא רב לאחר מכן, מודאגים מהתפשטות פוטנציאלית של דיסאינפורמציה בקרב משתמשים תמימים.
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
שדרג את חייך עם מנה יומית של החדשות הטכנולוגיות הגדולות ביותר, פריצות לסגנון חיים וניתוח שנקבע שלנו. היה הראשון לדעת על גאדג'טים חדישים ועל המבצעים החמים ביותר.
כיצד השתבשו סקירות AI של Google כל כך?
"אנחנו נוטים לחשוב על מידע כעל קבוצה של עובדות אובייקטיביות שפשוט קיימות בעולם", כותבת ד"ר אמילי מ' בנדר, פרופסור המלמדת בלשנות באוניברסיטת וושינגטון. "אבל למעשה, מידע ומערכת האקולוגית של המידע הם יחסים מטבעם."
"כשגוגל, מיקרוסופט ו-OpenAI מנסות להכניס מה שנקרא "AI" (מונע על ידי LLMs) בין מחפשי מידע וספקי מידע, הם מפריעים ליכולת ליצור ולתחזק את היחסים הללו", היא מוסיפה.
בנדר אומר שממנו מגיע המידע חשוב לא פחות מהמידע עצמו. אם מוצגת בפניך תגובה שנוצרת בינה מלאכותית לשאלותיך ללא דרך לעקוב אחר המידע למקורו, אינך יכול לדעת אם "העובדות הרפואיות" שלמדת זה עתה מגיעות ממקור מהימן כמו מרפאת מאיו או מ ד"ר אוז.
מדוע הסקירות של AI הפיצו מידע מוטעה?
AI גנרטיבי אין דרך לדעת מה נכון, הוא יודע רק מה פופולרי. לכן, לעתים קרובות זה מוצא תשובות ממקורות לא אמינים או חשבונות פארודיים במקום העובדות האמיתיות. במקרים מסוימים, בינה מלאכותית נוטה גם ל"הזיות", שם היא רק ממציאה נתונים שקריים כדי לחפות על פער הידע שלה.
גוגל תמיד הייתה פלטפורמה שבה משתמשים יכולים למצוא כל מיני מידע ודיסאינפורמציה. אך ללא היכולת לתאם את המידע מול המוניטין של המקור, אין דרך לדעת אם התשובות שקיבלת מדויקות.
החברה אמרה בהצהרה: "הרוב המכריע של סקירות AI מספקות מידע באיכות גבוהה, עם קישורים לחפירה עמוקה יותר באינטרנט".
"רבות מהדוגמאות שראינו היו שאילתות לא שכיחות, וראינו גם דוגמאות שנבדקו או שלא הצלחנו לשחזר".
אם אתה מודאג מהפוטנציאל לתוצאות מטעות, אתה יכול לעקוב אחר המדריך שלנו לחסימת סקירות של AI בתוצאות Google שלך.