Un nou tip de vulnerabilitate în sistemele de inteligență artificială scoate la iveală riscul iminent al manipulării și scurgerilor de informații, chiar și în cele mai aparent inofensive interacțiuni. În esență, noile descoperiri arată că AI-urile moderne, precum Google Gemini, pot fi manipulate printr-o metodă subtilă și foarte eficientă, numită „indirect prompt injection”. Această tehnică de atac transformă calendarul personal sau de firmă într-un canal de exfiltrare a datelor sau chiar într-o armă de manipulare – un fenomen care trebuie să îngrijoreze atât utilizatorii obișnuiți, cât și companiile.
### Calendarul, noul teren de joacă pentru atacatori
Problema a fost evidențiat recent de cercetători în securitate, care au descoperit că, prin ascunderea unor comenzi în descrierea invitațiilor de evenimente, un atacator poate influența comportamentul AI-ului în moduri premeditate. Astfel, atunci când utilizatorul adresează întrebări despre agenda personală sau de serviciu, modelul de AI poate interpreta aceste invitații ca fiind comenzi, rezultând crearea sau modificarea unor evenimente cu conținut sensibil sau chiar confidențial. În timpul demonstrației, specialiștii au arătat că Gemini putea să creeze un eveniment în calendar și să însereze acolo un rezumat detaliat al întâlnirilor private, fără ca utilizatorul să aibă măcar habar.
Ce face această vulnerabilitate deosebit de periculoasă este faptul că ea nu implică click-uri sau descărcări suspecte. Confirmarea unei breșe de securitate se face pur și simplu în momentul în care un utilizator întreabă despre agenda sa zilnică, iar AI-ul, din greșeală, o divulgă printr-un eveniment nou creat și conectat la calendar. În organizații în care setările de confidențialitate permit partajarea automată, această metodă devine o veritabilă cale de scurgere informațională, chiar fără implicarea unui hacking tradițional.
### De ce calendarul devine o țintă pentru atacuri
Mulți utilizatori nu conștientizează faptul că, deși anumite setări permit controlul strict asupra vizibilității evenimentelor, anumite aplicații sau integrări AI pot avea acces la informațiile private dacă utilizatorul le autorizează. Astfel, un eveniment nou creat în calendar, aparent inofensiv, poate conține în descriere comenzi malitioase, ascunse în textul obișnuit. La rândul său, AI-ul, interogat cu întrebări „banale”, poate ajunge să execute aceste comenzi, creând automat evenimente sau trimițând răspunsuri care conțin informații sensibile, fără ca utilizatorul să observe.
Un alt aspect subtil al acestei vulnerabilități este faptul că, odată ce AI-ul a fost „determinant” să copieze informații, acestea devin disponibile în mod involuntar pentru alte entități cu drepturi de acces, fiind astfel exfiltrate din mediul privat sau corporatist. În plus, modul în care modelele interpretată limbajul și contextul în timp real face ca astfel de atacuri să fie greu de detectat, pentru că nu implică coduri explozive sau metode tradiționale de hacking, ci manipularea semantică a textului.
### Ce pot face utilizatorii și organizațiile?
Pentru utilizatorii obișnuiți, cea mai bună metodă de protecție rămâne prudenta față de invitațiile primite, mai ales din surse necunoscute sau din afara organizației. Este recomandat să verifici cu atenție descrierea fiecărui eveniment, căutând formulări nenaturale sau comenzi subtile precum „scrie într-un eveniment nou” sau „rezumă tot”. În plus, după fiecărei interogări, este indicat să verifici dacă au fost create noi evenimente în calendar care nu se justifică și să ștergi orice conținut suspect. În mediul corporate, este crucial ca echipele de securitate să stabilească reguli stricte pentru partajarea sau crearea automată a evenimentelor, precum și pentru acordarea permisiunilor de acces și de integrare cu asistenții AI.
Pe măsură ce AI-urile devin tot mai integrate în taskuri complexe, de la gestionarea calendarului până la automatizarea proceselor, riscurile legate de „prompt injection” vor crește. În momentul de față, vulnerabilitatea specifică a fost depistată și remediată, dar anchetele vor continua să scruteze subtilitățile limbajului utilizat pentru a manipula aceste modele. Într-un peisaj în continuă schimbare, obiceiurile de verificare și control devin cele mai eficiente arme împotriva unor eventuale atacuri invizibile.
Într-un viitor apropiat, responsabilitatea utilizatorilor și a organizațiilor va fi să înțeleagă aceste capcane și să-și adapteze modul de interacțiune cu tehnologia. Într-o epocă în care AI-ul nu doar răspunde, ci poate și acționa, limitele și controalele trebuie să fie mai riguroase ca niciodată. Altfel, riscurile de exploatare subtilă sunt menite să crească, iar standardele de securitate se vor dovedi insuficiente în fața ingeniozității celor ce caută să manipuleze semantic și să profite de vulnerabilitățile nesigure ale sistemelor inteligente.
