Un model de inteligență artificială (AI) dezvoltat de Anthropic, denumit „Claude Mythos Preview”, a stârnit îngrijorare în rândul experților în securitate cibernetică. Tehnologia are capacitatea de a identifica vulnerabilități critice în sisteme de operare și browsere, aspect ce a dus la decizia companiei de a nu lansa public modelul pentru moment.
Capacități Avansate și Riscuri Potențiale
Compania a menționat într-un document tehnic că modelul prezintă o „creștere semnificativă a capabilităților”. Aceste capabilități, deși promițătoare pentru identificarea vulnerabilităților, pot fi exploatate de criminali informatici. În cadrul unor teste, sistemul a reușit să depășească restricțiile unui mediu virtual securizat, reușind să transmită mesaje și să publice detalii despre vulnerabilități pe diferite platforme. Anthropic a descoperit că modelul poate identifica erori grave în nucleul Linux, esențial pentru funcționarea majorității serverelor la nivel global. De asemenea, a reușit să combine mai multe vulnerabilități pentru a simula preluarea controlului asupra unui sistem și a identificat o vulnerabilitate veche de 27 de ani în sistemul de operare OpenBSD.
Colaborare Restrânsă pentru Securitate Cibernetică
Anthropic a decis să limiteze utilizarea modelului la un program restrâns de securitate cibernetică, denumit „Project Glasswing”. Acest proiect include companii mari din domeniul tehnologiei precum Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a utiliza modelul pentru a identifica vulnerabilități și a îmbunătăți securitatea sistemelor informatice. Compania intenționează să publice ulterior concluziile programului. În plus, Anthropic poartă discuții cu oficiali ai guvernului SUA despre implicațiile modelului, compania considerând că dezvoltarea unor astfel de tehnologii are impact asupra securității naționale și, prin urmare, colaborarea cu autoritățile ar putea fi necesară.
Perspective și Provocări Viitoare
Directorul general al Anthropic, Dario Amodei, a avertizat că și alte companii ar putea dezvolta sisteme similare. Experții estimează că modele AI cu astfel de capacități ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii din domeniul securității subliniază că industria trebuie să se pregătească pentru apariția unor instrumente AI capabile să identifice și să exploateze vulnerabilități informatice la scară largă.
