חוקרי אבטחה מזהירים כי דפדפנים וסוכנים המונעים על ידי אינטליגנציה מלאכותית (AI) של Perplexity, OpenAI, ו-Anthropic מתמודדים עם סיכונים גוברים של התקפות הזרקה חשאיות ופריצות פרטיות, שעלולות לחשוף נתוני משתמשים דרך חשבונות מחוברים ו-APIs.
דפדפני AI תחת אש: הנחיות אינטרנט נסתרות יכולות לחטוף את הסוכן שלך ואת החשבונות המחוברים

פגיעויות בדפדפני AI מעלות חששות ביטחוניים
דפדפנים וסוכנים מ-Perplexity, OpenAI, ו-Anthropic מגדירים מחדש איך משתמשים מתקשרים עם הרשת—אבל מומחים אומרים כי הנוחות באה עם מחיר.
לפי בדיקות אבטחה והמחקר שנבדק, הפגיעויות במערכות אלה מאפשרות לשחקנים זדוניים להטמיע הוראות נסתרות באתרים שהכלים של AI עשויים לבצע ללא ידיעה.

התקפות אלה, הידועות כהזרקות פקודות חשאיות או עקיפות, יכולות לתמרן סוכני AI לבצע פעולות שאינן מאושרות—כמו לחשוף מידע רגיש, לבצע קוד, או להפנות משתמשים לאתרי פישינג—ללא הסכמה מפורשת של המשתמש.
איך התקפות מנצלות סוכני AI
בתרחישי הזרקות פקודות חשאיות, תוקפים מסתירים פקודות זדוניות בטקסטים של עמוד אינטרנט, במטא-דטה, או אפילו באלמנטים בלתי נראים. כאשר AI קולט את הנתונים הללו, הפקודות יכולות להחליף את כוונת המשתמש ולגרום לסוכן לבצע פעולות לא רצויות. בדיקות מראות כי דפדפני AI לא מוגנים יכולים ליפול לתרמיות כאלה כמעט באחד מתוך ארבעה מקרים במהלך ניסויים מבוקרים.
Perplexity, OpenAI ו-Anthropic: סיכונים מרכזיים שזוהו
- Comet Browser של Perplexity: בדיקות על ידי Brave ו-Guardio מצאו שהכלי יכול להיות מתומרן דרך פוסטים ב-Reddit או אתרי פישינג לביצוע סקריפטים או חילוץ נתוני משתמשים.
- סוכני גלישה של OpenAI: משתלבים בתכונות האג’נטיות של ChatGPT, הראו סיכון גישה לחשבונות מחוברים דרך מיילים והוראות מבוססות אתרים זדוניים.
- תוסף דפדפנים Claude של Anthropic: בדיקות על ידי צוות אדום גילו שהוראות עמוד נסתרות יכולים להפעיל קליקים אוטומטיים על קישורים מזיקים.
תקריות מתועדות ואזהרות תעשייתיות
חוקרים וחברות אבטחת סייבר, כולל Brave, Guardio ו-Malwarebytes, פרסמו ממצאים המראים כי גם תכנים פשוטים אונליין יכולים לסכן סוכני AI. באחת הבדיקות, פוסט ב-Reddit הכריח דפדפן AI להריץ סקריפטי פישינג. דיווחים מכמה עיתונים טכנולוגיים מובילים הזהירו כי נושאים אלה עשויים להוביל לגישה לא מאושרת לנתונים ואפילו לגניבה פיננסית.

הסכנות של אינטגרציה עם חשבונות
אנליסטים אבטחתיים העלו דגלים אדומים לגבי סוכני AI המחוברים לסיסמאות או APIs. אפשרות לכזו אינטגרציה עשויה לחשוף חשבונות דואר אלקטרוני, כוננים בענן ופלטפורמות תשלום. Techcrunch ו-Cybersecurity Dive שניהם דיווחו על מקרים שבהם סוכני AI נתרמו לחשוף או לתמרן מידע רגיש דרך פקודות מוזרקות.
צעדי בטיחות מומלצים ותחזית
מומחים מפצירים במשתמשים להגביל הרשאות, להימנע ממסירת גישה ברמת סיסמא לסוכני AI, ולנטר יומני AI לאנומליות. מפתחים גם מומלצים ליישם מערכות בידוד ומסנני פקודות. חלק מהחוקרים אפילו ממליצים להשתמש בדפדפנים מסורתיים לפעולות רגישות עד שהכלים של AI יקבלו הגנות מחמירות יותר.
למרות ש-OpenAI, Anthropic, ו-Perplexity ככל הנראה שמעו על האתגרים, אנשי מקצוע בתחום הסייבר מזהירים כי גלישה מונעת על ידי AI נותרת אזור בסיכון גבוה ב-2025. כשחברות אלה ממשיכות לדחוף לממשק אינטרנט אוטונומי יותר, משקיפים בתעשייה אומרים כי שקיפות ותקני אבטחה מחמירים יותר הם הכרחיים לפני שכלים כאלה יהפכו למיינסטרים.
שאלות נפוצות 🧭
- מהן הזרקות פקודות חשאיות בדפדפני AI?
הן פקודות נסתרות משובצות בתוכן רשת המאמללות סוכני AI לבצע פעולות מזיקות ללא הסכמת המשתמש. - באילו חברות כלי AI נפגעו מהפגיעויות הללו?
Comet של Perplexity, סוכני גלישה של ChatGPT של OpenAI, ותכונות הדפדפן Claude של Anthropic צוינו בדוחות האחרונים. - אילו סיכונים עולים מקישור סוכני AI לחשבונות אישיים?
חיבור כלים של AI לכוננים, דואר אלקטרוני או APIs יכול לאפשר גניבת נתונים, פישינג, וגישה לא מאושרת לחשבונות. - איך משתמשים יכולים להגן על עצמם מהתקפות דפדפן AI?
להגביל הרשאות, להימנע מאינטגרציות סיסמאות, להשתמש במצבים סנדבוקסיים, ולהישאר מעודכנים בעדכוני אבטחה.














