Search
A Google AI logo is on a phone held in a hand, in front of a Google Logo

גוגל טוענת כי AI Overviews הניבו תוצאות 'לא מועילות' – אבל בכל זאת מכפילה אותן

גוגל הכפילה את תוצאות החיפוש המופעלות על ידי בינה מלאכותית, ואמרה שהשלל האחרון של תגובות מוזרות ולא מועילות מוגבל לקומץ שאילתות נישה בלבד.

סקירות של AI הוכרזו כחלק מ-Google I/O מוקדם יותר החודש והציבו תגובות טקסט ארוכות יותר המופעלות על ידי תאומים מעל לתוצאות עבור שאילתות מורכבות יותר. אלו הן שאלות שידרשו מספר ביקורים באתר כדי לענות עליהן.

זמן קצר לאחר ההשקה החלו לצוץ מספר נושאים, כולל אחד המציע שימוש בדבק לא רעיל כדי לעבות רוטב פיצה, משפט אחר אומר שאכילת סלעים יכולה להיות טובה עבורך, והשלישי מציע לעשן בזמן ההריון בריא – זה לא. אם אינך רוצה סקירת AI יש לנו מדריך לחסימת תוצאות.

בהצהרה, ליז ריד, מנהלת החיפוש של גוגל אמרה שלא ניתן לשחזר רבות מהטענות המוזרות יותר ברשתות החברתיות – כולל שאלת הסלעים – ועל השאילתות האמיתיות אמרה: "יש תחומים שאנחנו צריכים לשפר".

מה השתבש ב-Google AI Overviews?

סקירת AI

ריד אומר שהבעיה הגדולה ביותר ברבות מהתוצאות הגיעה לאופן שבו מודל הבינה המלאכותית פירש סרקזם והומור. "ראינו סקירות של בינה מלאכותית שהציגו תוכן סרקסטי או טרולי מפורומי דיונים", כתבה.

"פורומים הם לעתים קרובות מקור מצוין למידע אותנטי ממקור ראשון, אבל במקרים מסוימים יכולים להוביל לעצות פחות מועילות, כמו שימוש בדבק כדי לגרום לגבינה להיצמד לפיצה." מה שיכול להיות בעיה עבור העסקה של OpenAI עם Reddit.

ואז גרמת לאנשים לרוץ עם זה כבדיחה, והוסיפה עוד יותר לתוכן הסרקסטי והטרולי בפורומי דיונים.

יש גם מרכיב של בדיקת הלחץ באינטרנט את ההתנהגויות הבלתי צפויות עבור גוגל. ריד אומר: "אין כמו שמיליוני אנשים משתמשים בתכונה עם חיפושים חדשים רבים. ראינו גם חיפושים חדשים שטותיים, שמטרתם לכאורה לייצר תוצאות שגויות".

מה הפתרון לבעיית AI Overviews?

סקירת AI של Google

AI גנרטיבי אין דרך לדעת מה נכון, הוא יודע רק מה פופולרי. לכן, לעתים קרובות זה מוצא תשובות ממקורות לא אמינים או חשבונות פארודיים במקום העובדות האמיתיות. במקרים מסוימים, בינה מלאכותית נוטה גם ל"הזיות", שם היא רק ממציאה נתונים שקריים כדי לחפות על פער הידע שלה.

גוגל תמיד הייתה פלטפורמה שבה משתמשים יכולים למצוא כל מיני מידע ודיסאינפורמציה. אך ללא היכולת לתאם את המידע מול המוניטין של המקור, אין דרך לדעת אם התשובות שקיבלת מדויקות.

ריד אומר שהם כבר ביצעו כמה שיפורים ב-Overviews. "מהסתכלות על דוגמאות מהשבועיים האחרונים, הצלחנו לקבוע דפוסים שבהם לא עשינו את זה נכון, ועשינו יותר מתריסר שיפורים טכניים למערכות שלנו", אמרה.

זה כולל שיפור מנגנוני הזיהוי של שאילתות חסרות היגיון וחסימת תצוגה של סקירות בינה מלאכותית. זה כולל הסרת תוכן סאטירה והומור מחומר המקור עבור שאילתות אלו.

הם גם מצמצמים את התוכן שנוצר על ידי משתמשים בתגובות, במקום להתמקד במקורות חומר איכותיים יותר.

לבסוף, גוגל אומרת שהיא הטמיעה מעקות בטיחות חזקים יותר, במיוחד עבור חדשות ותוכן בריאותי. "אנו שואפים לא להציג סקירת AI לנושאים קשים, שבהם רעננות ועובדות חשובות. במקרה של בריאות, השקנו חידודים מפעילים נוספים כדי לשפר את ההגנות האיכותיות שלנו", אמר ריד.

דילוג לתוכן