למרות שחוקרת הצליחה להדגים שאפשר היה להעלות על הדעת את גוגל תאומים לתת למשתמשים מידע מזויף כמו להוביל אותם לאתרי אינטרנט זדוניים, גוגל אמרה שהיא לא מחשיבה את התקפת ההברחה של ASCII זו באג אבטחה אמיתי ואין לה שום תוכניות להנפיק תיקון לפגם.
כפי שפורסם על ידי BleepingComputer, החברה ביטל את הממצאים כסוגיה יותר של התקפות הנדסיות חברתיות מאשר פגיעות ביטחונית בפועל.
מכיוון שתאומים משולבים כל כך מקרוב עם סביבת העבודה של גוגל, פגיעות זו היא סוגיית סיכון גבוהה שכן ניתן להשתמש בהתקפה זו כדי להטמיע טקסט נסתר בהזמנת לוח שנה או מיילים להנחות את עוזר ה- AI בלוח השנה לא נראה אריחים, להחליף פרטי מארגן או תיאורי פגישה מוסתרים או קישורים.
ASCII Smuggling הוא סגנון התקפה המשתמש בתווים מיוחדים מ- Tags Unicode Block כדי להציג עומסים שאינם נראים למשתמשים, אך עדיין ניתן לאתר אותם ולעבד אותם על ידי דגמי שפה גדולים. – בעיקרו של דבר, פירוש הדבר שהוא מסתיר אותיות, מספרים או דמויות אחרות כדי להציג קוד זדוני לעוזר ה- AI שמשתמשים לא יכולים לראות. LLMs היו פגיעים להתקפות הברחת ASCII – ושיטות דומות – עם זאת, במשך זמן רב, האיום כיום גבוה יותר מכיוון שכלי AI סוכנים, כמו תאומים, הם בעלי גישה נרחבת לנתוני משתמשים רגישים ויכולים לבצע משימות אוטונומיות.
לדברי החוקרים "אם למשתמשים יש LLMs המחוברים לתיבת הדואר הנכנס שלהם, דוא"ל עם פקודות נסתרות יכול להורות להם (ה- AI) לחפש בתיבת הדואר הנכנס אחר פריטים רגישים, לשלוח פרטי קשר ואז להפוך ניסיון דיוג סטנדרטי לכלי מיצוי נתונים אוטונומי." LLMs שנאמר להם לגלוש באתרים עלולים גם למעט על עומסים נסתרים בתיאורי מוצרים ולהאכיל אותם בכתובות כתובות אתרים זדוניות כדי להזין למשתמשים.
ישנן טכניקות אחרות המשתמשות בשיטות דומות כדי לתפעל את הפער בין מה שמשתמשים רואים לבין אילו מכונות נקראות כולל מניפולציה של CSS ומגבלות GUI. חוקר האבטחה המעורב במחקר זה מצא כי מזל תאומים, כמו גרוק ודיפסק, חשוף להתקפות הברחת ASCII בזמן שקלוד, צ'טגט ומיקרוסופט קופילוט בטוחים מפני איומים כאלה על ידי יישום איזושהי חיטוי קלט.
פנינו לגוגל לתגובה על המחקר ונעדכן את הסיפור הזה אם וכאשר נשמע בחזרה.
קבל גישה מיידית ל- Breaking News, הביקורות החמות ביותר, מבצעים מעולים וטיפים מועילים.