Search
Graphic screen displaying malware detection warning

גוגל מזהירה מפני תוכנות זדוניות המושרות בינה מלאכותית שקשה יותר לזהות מאשר וירוסים רגילים

קבוצת האיומים של גוגל (GTIG) מזהירה שאנשים רעים משתמשים בבינה מלאכותית כדי ליצור ולפרוס תוכנות זדוניות חדשות המנצלות וגם נלחמות במודלים של שפות גדולות (LLM) כמו ג'מיני בעת הפריסה.

הממצאים פורסמו בנייר לבן שפורסם ביום רביעי, 5 בנובמבר על ידי ה-GTIG. הקבוצה ציינה שיריבים כבר לא ממנפים בינה מלאכותית (AI) רק למען רווחי פרודוקטיביות, הם פורסים "תוכנות זדוניות חדשניות התומכות בינה מלאכותית בפעולות פעילות". הם המשיכו לתייג את זה כ"שלב תפעולי חדש של שימוש לרעה בבינה מלאכותית".

משפחות תוכנות זדוניות


גוגל קוראת לכלים החדשים "בינה מלאכותית בדיוק בזמן" המשמשים לפחות שתי משפחות תוכנות זדוניות: PromptFlux ו-PromptSteal, שניהם משתמשים ב-LLMs במהלך הפריסה. הם יוצרים סקריפטים זדוניים ומטשטשים את הקוד שלהם כדי למנוע זיהוי על ידי תוכניות אנטי-וירוס. בנוסף, משפחות התוכנות הזדוניות משתמשות במודלים של AI כדי ליצור פונקציות זדוניות "על פי דרישה" במקום להיות מובנות בקוד.

גוגל אומרת שהכלים הללו הם צעד בתחילת דרכו אך משמעותי לקראת "תוכנות זדוניות אוטונומיות וסתגלניות".

PromptFlux הוא טפטפת VBScript ניסיוני המשתמשת ב-Google Gemini כדי ליצור גרסאות VBScript מעורפלות. VBScript משמש בעיקר לאוטומציה בסביבות Windows.


תוכנה זדונית מבוססת בינה מלאכותית שנמצאה על ידי Google Threat Intelligence Group

במקרה זה, PromptFlux מנסה לגשת למחשב האישי שלך דרך ערכי תיקיית אתחול ולאחר מכן מתפשט דרך כוננים נשלפים ושיתופי רשת ממופים.

"המרכיב החדש ביותר של PROMPTFLUX הוא מודול 'רובוט חושב' שלו, שנועד לבקש מעת לעת שאילתה של תאומים כדי להשיג קוד חדש להתחמקות מתוכנת אנטי-וירוס", אומר GTIG.

החוקרים אומרים שהקוד מצביע על כך שיצרני התוכנה הזדונית מנסים ליצור "תסריט מטמורפי" מתפתח.

לפי גוגל, חוקרי האיומים לא יכלו לאתר מי יצר את PromptFlux, אך ציינו כי נראה שהוא משמש קבוצה לרווח כספי. גוגל גם טוענת שהיא בפיתוח מוקדם ועדיין לא יכולה להסב נזק ממשי.

החברה אומרת שהיא השביתה את הגישה של התוכנה הזדונית לג'מיני ומחקה נכסים הקשורים אליה.

גוגל גם הדגישה מספר תוכנות זדוניות אחרות שמבססות שליטה ושליטה מרחוק (FruitShell), לוכדת אישורי GitHub (QuietVault), ואחד שגונב ומצפין נתונים במכשירי Windows, macOS ו-Linux (PromptLock). כולם משתמשים בבינה מלאכותית לעבודה או במקרה של FruitShell כדי לעקוף את האבטחה המופעלת על ידי LLM.

התעללות במזל תאומים


גוגל תאומים

מעבר לתוכנות זדוניות, העיתון מדווח גם על מספר מקרים שבהם שחקני איומים התעללו בתאומים. במקרה אחד, שחקן זדוני התחזה למשתתף "ללכוד את הדגל", בעצם פעל כסטודנט או חוקר כדי לשכנע את מזל תאומים לספק מידע שאמור להיחסם.

גוגל ציינה מספר איומים מקבוצות איומים סיניות, איראניות וצפון קוריאניות שהתעללו ב-Gemini לצורך דיוג, כריית נתונים, הגברת התחכום של תוכנות זדוניות, גניבת קריפטו ויצירת זיופים עמוקים.

שוב, גוגל אומרת שהיא השביתה את החשבונות המשויכים במקרים שזוהו וחיזקה את אמצעי ההגנה של המודל שלה. החברה ממשיכה ואומרת כי מקומות השוק המחתרתיים עבור כלים זדוניים מבוססי AI הולכים וגדלים.

"פרסומות רבות בפורומים המחתרתיים שיקפו שפה הדומה לשיווק מסורתי של מודלים לגיטימיים של AI, תוך ציון הצורך לשפר את היעילות של זרימות העבודה והמאמץ ובו זמנית להציע הדרכה ללקוחות פוטנציאליים המתעניינים בהצעות שלהם", כתבה החברה.

ככל שה-AI נעשה מתוחכם יותר, נראה שזה מעיד על מגמה של החלפת כלים זדוניים קונבנציונליים בכלים חדשים מבוססי בינה מלאכותית.

גישת ה-AI של גוגל


דגמי ai

המאמר מסתיים בטענה שמפתחי בינה מלאכותית צריכים להיות "גם נועזים ואחראים" ושמערכות בינה מלאכותיות חייבות להיות מתוכננות עם "מעקות בטיחות חזקים" כדי למנוע ניצול לרעה מסוג זה.

גוגל אומרת שהיא חוקרת סימנים של שימוש לרעה במוצרים שלה ומשתמשת בניסיון של מאבק בשחקנים רעים כדי "לשפר את הבטיחות והאבטחה עבור דגמי הבינה המלאכותית שלנו".

איך להישאר בטוחים


אדם המאבטח את המחשב הנייד שלו באמצעות תוכנת אנטי וירוס

המלחמה נגד וירוסים ותוכנות זדוניות מתפתחת כל הזמן כאשר הכלים משני הצדדים משתכללים במיוחד עם הזרקת AI.

יש דרכים להישאר בטוחים. כמו תמיד, היזהרו מקישורים ותוכן חיצוני. אם נעשה שימוש בכלי בינה מלאכותית לסיכום דף אינטרנט, PDF או אימייל, התוכן עלול להיות זדוני או להכיל הנחיה נסתרת לתקוף את ה-AI.

בנוסף, עליך תמיד להגביל את גישת הבינה המלאכותית לחשבונות רגישים כמו חשבונות בנק, דואר אלקטרוני או מסמכים שיש בהם מידע רגיש. AI שנפגע יכול לנצל את הגישה הזו.

לבסוף, יש להתייחס להתנהגות בלתי צפויה במודל LLM או AI כאל דגל אדום. אם מודל בינה מלאכותית מתחיל לענות על שאלות בצורה מוזרה, חושף ידע פנימי על המחשב האישי שלך או גרוע מכך, מנסה לבצע פעולות חריגות או לא מורשות, עליך להפסיק את הפגישה הזו.

הקפד לעדכן את התוכנה שלך, כולל תוכנת האנטי-וירוס הטובה ביותר ואת התוכניות והיישומים של LLM שבהם אתה משתמש. זה מבטיח שיש לך את הגרסאות העדכניות והמתוכנות ביותר המגנות עליך מפני פגמים ידועים.



חדשות גוגל


דילוג לתוכן