Un model de inteligență artificială (AI) destinat securității cibernetice, dezvoltat de Anthropic, ar fi fost accesat ilegal de utilizatori neautorizați, potrivit unor informații recente. Modelul, numit Mythos AI, se află încă într-o fază de testare restrânsă, fiind destinat companiilor din sectorul enterprise. Accesul nepermis ar fi fost facilitat prin intermediul unui forum online privat.
O breșă de securitate neașteptată
Conform publicațiilor de specialitate, utilizatorii neautorizați au reușit să pătrundă în sistem prin intermediul unui furnizor terț implicat în testare. Aceștia nu doar că au accesat modelul, dar se pare că l-au și utilizat în mod repetat. Modelul Mythos AI este conceput pentru a identifica vulnerabilitățile informatice și a consolida sistemele de securitate. Compania Anthropic, dezvoltatorul modelului, a avertizat anterior că tehnologia ar putea prezenta riscuri semnificative dacă ajunge în mâini nepotrivite.
Un purtător de cuvânt al Anthropic a confirmat că firma investighează situația, dar a precizat că nu există, momentan, dovezi care să indice compromiterea propriilor sisteme. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a declarat acesta. Compania nu a oferit detalii suplimentare despre amploarea incidentului sau despre măsurile care vor fi luate.
Implicațiile pentru companii și securitatea cibernetică
Modelul Mythos AI este testat de o serie de companii importante, inclusiv Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley sunt implicate în acest program de testare. Funcția principală a modelului este de a detecta posibilele breșe de securitate și de a îmbunătăți protecția datelor.
Informațiile privind accesul ilegal la modelul Mythos AI subliniază importanța măsurilor riguroase de securitate în dezvoltarea și implementarea tehnologiilor de inteligență artificială, în special în domeniul sensibil al securității cibernetice. Asemenea incidente pot avea consecințe serioase, inclusiv pierderea datelor sensibile sau compromiterea sistemelor informatice.
Urmările și perspectivele viitoare
Incidentul evidențiază provocările legate de protejarea modelelor AI aflate în faza de dezvoltare și de asigurarea faptului că accesul este restrictiv. În cazul acestui model, compania a subliniat că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite. Anthropic a demarat o investigație internă pentru a evalua amploarea breșei și pentru a identifica modalitățile prin care aceasta a fost posibilă.



