Hackerii folosesc inteligența artificială în toate fazele atacurilor cibernetice

Inteligența artificială a pătruns fără cale de întoarcere în infrastructura digitală mondială, iar utilizările sale sunt din ce în ce mai complexe și, în același timp, periculoase. Dacă anterior discuțiile publice se concentrau pe potențialul AI de a revoluționa productivitatea, acuma devine tot mai clar că aceste tehnologii pot fi folosite și pentru operațiuni malițioase, de la campanii de phishing sofisticate până la dezvoltarea de malware performant. Recent, un raport de specialitate a evidențiat modul în care modelul de inteligență artificială Gemini este exploatat de grupări de stat sau organizații criminale pentru aproape toate etapele unui atac cibernetic, de la recunoaștere până la exfiltrare.

Eficientizarea și accelerarea atacurilor existente

Cel mai grav nu este neapărat apariția unor noi tipuri de amenințări, ci modul în care AI amplifică rapiditatea, scalabilitatea și accesibilitatea celor deja cunoscute. În trecut, actorii rău intenționați aveau nevoie de echipe de experți, timp și resurse considerabile pentru a derula atacuri complexe. Astăzi, însă, pot obține rapid ajutor prin generare automată de mesaje frauduloase, teste de vulnerabilitate și chiar dezvoltare de cod malițios, reducând astfel timpul și efortul necesar pentru a-l lansa. În esență, AI nu înlocuiește atacatorul, ci îl face mult mai eficient, stimulând o creștere exponențială a volumului de atacuri.

Modelul Gemini, un nou „copilot” pentru infractori

Conform unor informații de securitate, grupări precum cele din China, Iran, Coreea de Nord sau Rusia utilizează acest model pentru aproape întregul ciclu al unui atac cibernetic. De la profilarea țintelor și colectarea de informații publice, până la crearea de scenarii de phishing, traduceri și testări de vulnerabilități, AI devine un asistent tehnic indispensabil pentru infractori. Chiar și scenariile aparent teoretice, precum analize de vulnerabilități, pot fi interpretate ca indicii strategice dacă sunt urmărite de un analist uman. În același timp, s-au resimțit și utilizări mai rudimentare: AI accelerează cercetarea, repararea rapidă a codului și clarificarea conceptelor tehnice, toate acestea contribuind la reducerea timpului până la lansarea unui atac.

Un exemplu concret îl reprezintă actorul iranian APT42, specializat pe social engineering și crearea de unelte personalizate. Acest lucru înseamnă mesaje frauduloase mai convingătoare, mai adaptate situației și victimelor, livrate mai rapid, ceea ce le face mai greu de detectat și de blocat de către sistemele de securitate deficitare în multe organizații.

Integrarea AI în malware: de la prototipuri la tooluri operative

Dincolo de campaniile de phishing, Inteligența artificială pare să devină și parte integrantă a procesului de creare a malware-ului. Două exemple remarcabile sunt HonestCue și CoinBait, care nu reprezintă în neapărat familii de viruși capabile să schimbe regulile jocului, ci indică o direcție clară: ecosistemul infracțional îmbrățișează tot mai mult prototipurile și kiturile ce folosesc AI pentru a accelera raționamentul și generarea de cod malițios.

HonestCue, de exemplu, a fost observat la sfârșitul lui 2025 ca un framework de generare automată a componentelor malware, utilizând API-ul Gemini pentru a crea și rula în memorie cod C# fără intervenție umană. Riscul major constă în reducerea semnificativă a timpului dintre ideea initială și execuție, ceea ce permite atacatorilor să testeze și să implementeze soluții mult mai rapid și mai frecvent.

Pe de altă parte, kitul CoinBait, conceput sub forma unei aplicații web care imită o platformă de criptomonede, este folosit pentru a fura credențiale, iar dezvoltarea sa a fost accelerată cu ajutorul unor instrumente automate de generare de cod. Indicatorii tehnici oferă oportunități pentru specialiștii în securitate de a identifica și analiza infrastructurile care susțin asemenea campanii, chiar dacă atacurile exacte pot fi dificil de oprit în momentul prezent.

Noile stratageme ale ingineriei sociale

Un alt trend foarte vizibil este utilizarea AI în campanii de distribuție a malware-ului prin tehnici precum ClickFix. Acestea vizează utilizatori care caută soluții pentru probleme tehnice, prezentând anunțuri și rezultate pentru a induce în eroare și a provoca descărcarea unor utilitare malițioase. Cu ajutorul AI, textele devin mai fluide și traducerile mai naturale, iar mesajele de înșelătorie sunt mult mai greu de distins de cele autentice, iar încrederea utilizatorului este distrasă în mod subtil.

Pentru utilizatori, acest lucru înseamnă o nevoie crescută de vigilență: verificarea sursei, evitarea instalării unor utilitare din surse necunoscute și susținerea unei discipline stricte în gestionarea mesajelor și linkurilor primite. În fața unor campanii din ce în ce mai sofisticate, protecția devine un proces continuu și conștient.

Riscuri neluate în seamă și lupta pentru controlul modelului

Printre cele mai alarmante aspecte se află încercările actorilor rău intenționați de a extrage și distila comportamentul modelelor de AI. În încercarea de a dezvolta copii ale acelor sisteme, infractorii pot interoga sistematic API-uri, colecta ieșiri și îmbunătăți propriile versiuni, diminuând astfel avantajul competitiv al serviciilor AI legitime. Această practică, dacă se extinde, ar putea duce la furt de proprietate intelectuală, scăderea valorii serviciilor și creșterea costurilor pentru companiile de tehnologie, impactând în cele din urmă și utilizatorii finali.

Dincolo de atacurile vizibile, aceste încercări de a „distila” și replica modele de AI reprezintă o provocare pentru ecosistemul tehnologic global. Iar evoluția acestor amenințări ar putea schimba radical modul în care tehnologia AI este folosită și protejată în următorii ani. În fața acestor noi fronturi, responsabilitatea va reveni atât companiilor de tehnologie, cât și utilizatorilor obișnuiți, pentru a asigura un echilibru între inovație și securitate în lumea digitală.

Laura Moldovan

Autor

Lasa un comentariu