Search
ChatGPT

ChatGPT פשוט הדליף בטעות צ'אטים פרטיים לחיפוש Google (שוב) – איך להישאר בטוח

אם אי פעם השתמשת ב-ChatGPT כדי לחפש משהו באינטרנט, כנראה הנחת שהשיחה שלך הייתה פרטית – אפילו כשהצ'אטבוט חיפש באינטרנט בשמך. אבל תקלה לאחרונה מוכיחה שאולי ההנחה לא תמיד מתקיימת.

מוקדם יותר החודש, מפתחים החלו לשים לב למשהו מוזר במרכזי המחוונים שלהם ב-Google Search Console. במקום שאילתות קצרות המבוססות על מילות מפתח, הם ראו משפטים מלאים דמויי אדם – מהסוג שהיית מצפה להקליד ב-ChatGPT, לא בגוגל. הערכים הספציפיים המוזרים האלה הרימו גבה, ואז התבהלו. למרבה הצער, זו לא הפעם הראשונה שזה קורה.

מה שבא לאחר מכן היה חקירה מעמיקה יותר של חוקר האנליטיקה ג'ייסון פאקר והיועץ סלובודן מאניץ'. הם עקבו אחר הפעילות למצב הגלישה באינטרנט של ChatGPT, וגילו שתת-קבוצה של שיחות דלפה בטעות לתשתית החיפוש הציבורית, ובסופו של דבר הייתה גלויה לבעלי אתרים לא קשורים.

מה גרם לדליפה


חבילות אבטחת האינטרנט הטובות ביותר

דיווח לראשונה על ידי Ars Technica, הבעיה הייתה קשורה לתג "hints=search" נסתר המשמש בחלק מההפעלות של ChatGPT. התג הזה אמר לצ'אט בוט לבצע חיפוש באינטרנט בזמן אמת – אך בכך, חלקים מההנחיה של המשתמש נכללו לפעמים בכתובת האתר שהתקבלה.

מכיוון שהמערכות של גוגל סורקות ומוספות באופן אוטומטי כל דבר שנראה כמו מונח חיפוש, היא קלטה את כתובות ה-URL הללו (ואת הטקסט הפרטי שבתוכם) והתחברה למרכזי המחוונים של בעלי אתרים לניתוח.

כפי שנאמר בדו"ח של Ars Technica, OpenAI הכירה בתקלה, וקבעה שהיא השפיעה רק על "סט קטן של חיפושים" ומאז תוקנה. עם זאת, החברה לא אמרה כמה זמן הבעיה נמשכת או כמה משתמשים הושפעו.

למה זה חשוב


ChatGPT פועל באייפון

למרות שההדלפה לא חשפה סיסמאות או מידע אישי מזהה, היא מעלה שאלות רציניות לגבי האופן שבו מערכות בינה מלאכותיות מקיימות אינטראקציה עם תשתית ציבורית כמו חיפוש Google. מצב הגלישה של ChatGPT נועד לפעול בזמן אמת, ובמקרה זה, הוא השתמש בטעות בנתיבי חיפוש חיים שהפכו קלט פרטי לגלוי.

זו לא הפעם הראשונה שנתוני ChatGPT מגיעים למקומות שאליהם לא נועד. מוקדם יותר השנה, משתמשים גילו שקישורי צ'אט משותפים מתווספים לאינדקס על ידי גוגל. בזמנו, זה היה בגיר למשתמשים שהפעילו הגדרת שיתוף. אבל התקלה החדשה הזו מטרידה יותר מכיוון שהיא לא כללה שום פעולה של משתמש בכלל.

כיצד לשמור על בטיחות בעת שימוש בכלי AI עם גלישה


ChatGPT Atlas

בעוד ש-OpenAI תיקנה את בעיית הניתוב, הנה כמה דרכים להגן על הפרטיות שלך בעת שימוש בכל כלי AI עם גישה לאינטרנט:

  • הימנע מכלול נתונים רגישים בהודעות. אל תשתף מידע פרטי כמו כתובות, שמות או אישורים – במיוחד כאשר מצב הגלישה מופעל.
  • השתמש במצב פרטי/גלישה בסתר בדפדפן שלך בעת בדיקת תוספים או עוזרים של צד שלישי המפעילים חיפושים חיצוניים.
  • השבת את תכונות הגלישה אם אינך זקוק לחיפוש בזמן אמת. ב-ChatGPT, אתה יכול לבחור מודל שאינו גולש תחת ההגדרות או אפשרויות החלפת המצב.
  • אל תניח אנונימיות. הנחיות בינה מלאכותית עשויות לעבור דרך מערכות חיצוניות ובאגים קטנים עלולים להוביל לחשיפה בלתי צפויה.
  • נקה היסטוריה באופן קבוע. מחיקת הנחיות קודמות מהיסטוריית הצ'אט שלך עשויה לא לבטל דליפות קודמות, אך היא עלולה להגביל את הסיכון העתידי.

ככל שכלי בינה מלאכותית ממשיכים להתמזג עם תשתית האינטרנט, אפילו לבגי ניתוב קטנים יכולים להיות השלכות בלתי צפויות. הקפדה על מה שאתה מקליד – ואיך הכלי מוגדר – הוא קו ההגנה הראשון הטוב ביותר שלך.

הטייק אווי

תקלה זו חורגת מעבר להעלאת חששות פרטיות; ייתכן שזה גם התעסק עם האופן שבו אתרים עוקבים אחר התנועה שלהם. למרות שאנו עדיין לא יודעים בוודאות כיצד דפדפני AI קובעים את תעבורת האתר, יש עדויות לכך שבינה מלאכותית עומדת מאחורי דפוס מוזר המופיע בניתוח, המכונה "פה התנין".
תופעה זו היא כאשר אתר רואה עלייה גדולה בתדירות שבה הוא מופיע בתוצאות החיפוש (הופעות), אך כמעט אף אחד לא ממש לוחץ עליו. ייתכן שהעליות הללו נגרמו מכלי בינה מלאכותית כמו ChatGPT ששולחים חיפושים ארוכים דמויי בוט שאינם מגיעים מאנשים אמיתיים.

למרות ש-OpenAI טוענת שהבעיה תוקנה, התקרית מראה עד כמה קל לבאג קטן במערכת בינה מלאכותית להתפזר החוצה ולגרום לבלבול בקנה מידה גדול בהרבה. ככל שבינה מלאכותית מתחברת לאינטרנט באמצעות דפדפני בינה מלאכותית, חשוב למשתמשים להקפיד לשמור על בטיחות ולהיות מודעים לסיכונים אפשריים.



חדשות גוגל


דילוג לתוכן