Cercetătorii în securitate avertizează că browserele și agenții alimentați de inteligență artificială (IA) de la Perplexity, OpenAI și Anthropic se confruntă cu riscuri tot mai mari de atacuri de injecție de comenzi ascunse și breșe de confidențialitate, care ar putea expune datele utilizatorilor prin conturi și API-uri conectate.
Browserele AI sub foc: Solicitările web ascunse pot prelua controlul asupra agentului tău și a conturilor conectate

Vulnerabilitățile browserelor IA ridică îngrijorări legate de securitate
Browserele și agenții IA de la Perplexity, OpenAI și Anthropic redefinește modul în care utilizatorii interacționează cu web-ul — dar experții spun că comoditatea vine cu un cost.
Conform auditărilor de securitate și cercetărilor analizate, vulnerabilitățile din aceste sisteme permit actorilor malițioși să încorporeze instrucțiuni ascunse în site-uri web, pe care instrumentele IA le pot executa fără să știe.

Aceste atacuri, cunoscute ca injecții de comenzi ascunse sau indirecte, pot manipula agenți IA să efectueze acțiuni neautorizate — cum ar fi scurgerea de informații sensibile, execuția de cod sau redirecționarea utilizatorilor către site-uri de phishing — fără consimțământ explicit din partea utilizatorului.
Cum exploatează atacurile agenții IA
În scenariile de injecție de comenzi ascunse, atacatorii ascund comenzi malițioase în textul site-urilor web, metadate sau chiar în elemente invizibile. Odată ce o IA ingerează acele date, comenzile pot anula intenția utilizatorului și pot determina agentul să întreprindă acțiuni nedorite. Testele arată că browserele IA neprotejate pot deveni victime ale unor asemenea trucuri aproape o dată din patru în timpul experimentelor controlate.
Perplexity, OpenAI și Anthropic: Riscuri cheie identificate
- Browserul Comet de la Perplexity: Auditurile efectuate de Brave și Guardio au descoperit că instrumentul poate fi manipulat prin postări Reddit sau site-uri de phishing pentru a executa scripturi sau extrage date ale utilizatorilor.
- Agenții de navigare ai OpenAI: Integrate în funcțiile agentice ale ChatGPT, s-a dovedit că riscă accesul la conturi conectate prin e-mailuri și solicitări website malițioase.
- Extensia de Browser Claude de la Anthropic: Testele de tip red-team au dezvăluit că comenzile ascunse din pagini web puteau declanșa clicuri automate pe link-uri dăunătoare.
Incidente documentate și avertismente din industrie
Cercetătorii și firmele de securitate cibernetică, inclusiv Brave, Guardio și Malwarebytes, au publicat descoperiri care arată că chiar și un conținut online simplu poate compromite agenți IA. Într-un test, o postare Reddit a forțat un browser IA să ruleze scripturi de phishing. Rapoarte din mai multe publicații tehnologice de top au avertizat că aceste probleme ar putea duce la acces neautorizat la date sau chiar jaf financiar.

Pericolele integrării conturilor
Analiștii de securitate au ridicat alarme cu privire la agenții IA legați de parole sau API-uri. Permisiunea unor astfel de integrări poate expune conturile de e-mail, unitățile cloud și platformele de plăți. Techcrunch și Cybersecurity Dive ambele au raportat cazuri în care agenții IA au fost păcăliți să dezvăluie sau să manipuleze informații sensibile prin comenzi injectate.
Măsuri de siguranță recomandate și perspective
Experții îndeamnă utilizatorii să limiteze permisiunile, să evite acordarea accesului la nivel de parolă agenților IA și să monitorizeze jurnalele IA pentru anomalii. De asemenea, dezvoltatorii sunt sfătuiți să implementeze sisteme de izolare și filtre pentru comenzi. Unii cercetători recomandă chiar utilizarea browserelor tradiționale pentru acțiuni sensibile până când instrumentele IA primesc măsuri de siguranță mai stricte.
În timp ce OpenAI, Anthropic și Perplexity au auzit cel mai probabil despre aceste provocări, profesioniștii în securitate cibernetică avertizează că navigarea propulsată de IA rămâne un domeniu cu risc ridicat în 2025. Pe măsură ce aceste companii avansează în interacțiunea autonomă cu web-ul, observatorii industriei spun că transparența și standardele mai puternice de securitate sunt esențiale înainte ca aceste instrumente să devină prevalente.
FAQ 🧭
- Ce sunt injecțiile de comenzi ascunse în browserele IA?
Sunt comenzi ascunse în conținutul web care păcălesc agenții IA să execute acțiuni dăunătoare fără consimțământul utilizatorului. - Căror companii li s-au afectat instrumentele IA de aceste vulnerabilități?
Comet de la Perplexity, agenții de navigare ChatGPT ai OpenAI și caracteristicile browserului Claude de la Anthropic au fost toate menționate în rapoartele recente. - Cum pot apărea riscuri din legarea agenților IA la conturi personale?
Conectarea instrumentelor IA la unități, e-mailuri sau API-uri poate permite furtul de date, phishing-ul și accesul neautorizat la conturi. - Cum se pot proteja utilizatorii de atacurile browserelor IA?
Limitarea permisiunilor, evitarea integrării parolelor, folosirea modurilor sandbox și actualizarea la sfaturile de securitate.
Etichete în această poveste
Alegerile de jocuri Bitcoin
425% până la 5 BTC + 100 Răsuciri Gratuite















