פרצת אבטחה חמורה בבינה המלאכותית הפופולרית
חוקרי Aim Security הצליחו לעקוף את מנגנוני ההגנה של Microsoft 365 Copilot ולשלוף מידע רגיש באמצעות מייל תמים מבלי שהמערכת זיהתה פעילות חשודה
- מיכאל אור
- ט"ו סיון התשפ"ה

הבינה המלאכותית מביאה עמה לא רק חידושים, אלא גם סיכונים חדשים. חברת Aim Security הודיעה כי איתרה פרצת אבטחה קריטית בשירות Microsoft 365 Copilot, המאפשר זליגת מידע רגיש באופן אוטומטי ללא כל אינטראקציה מצד המשתמש. במאקו דווח כי הפרצה, שקיבלה את השם EchoLeak, נובעת מהאופן שבו מתוכננים האייג'נטים מבוססי GPT, שנועדו לייעל את עבודת הארגונים אך נמצאו פגיעים להתקפה מתוחכמת.
לפי צוות החוקרים של Aim, די בשליחת אימייל שנראה תמים, המכיל הוראות חבויות המיועדות למנוע השפה של Copilot, כדי לגרום לכלי לשלוף מידע רגיש מתוך סביבת SharePoint הארגונית ולהעבירו אל קישור חיצוני שהושתל מראש והכול ללא ידיעת המשתמש או סימני אזהרה בולטים. התוקף מנצל את החיבור הארגוני של הכלי ואת העובדה שהוא פועל כברירת מחדל מתוך סביבת המשתמש.
מאחורי הגילוי עומד צוות Aim Labs - יחידה ייעודית לחקר חולשות בינה מלאכותית שהוקמה על ידי Aim, וכוללת מומחים יוצאי יחידות סייבר בצה"ל וחוקרים בכירים מ־Google. המוקד של פעילותם הוא החיבור ההולך ומעמיק בין אבטחת מידע לבינה מלאכותית – תחום שנחשב לאחד הקריטיים כיום בעולם הסייבר.
החשיפה של EchoLeak לוותה גם בפעולה אחראית מול מיקרוסופט, במסגרת פרוטוקול Responsible Disclosure. בעקבות הדיווח, ביצעה מיקרוסופט שינויים רחבי היקף בשירות והכריזה לראשונה על CVE - מספר ייחוס רשמי לחולשה קריטית - לשירות AI. מדובר באירוע יוצא דופן שמדגיש את האתגר המורכב שבפיתוח מערכות מבוססות שפה בשילוב עם תשתיות ארגוניות.
בעולם שבו טכנולוגיות AI משולבות יותר ויותר בתהליכים עסקיים, הפרצה שהתגלתה ב־Copilot היא תזכורת חדה לכך שגם הכלים החכמים ביותר עלולים להיות מנוצלים. השאלה שנותרה פתוחה היא כמה חולשות נוספות מסתתרות מאחורי הממשקים הידידותיים והיכולות המרשימות של הדור החדש.
הוספת תגובה
לכתבה זו טרם התפרסמו תגובות