Sam Altman poate controla viitorul nostru, dar merită încrederea?

OpenAI și promisiunile nerealizate privind siguranța inteligenței artificiale

OpenAI, compania cunoscută pentru dezvoltarea modelelor avansate de inteligență artificială, a avut în ultimul an o serie de promisiuni și declarații despre angajamentul său față de siguranța acestor tehnologii. Cu toate acestea, în spatele acestor afirmații se află o serie de lipsuri și contradicții legate de resursele alocate pentru cercetare și de transparența managementului.

În cursul anului 2022 și începutul anului următor, fondatorii și liderii OpenAI au insistat asupra importanței de a elimina riscurile asociate cu dezvoltarea inteligenței artificiale superioare. La acea vreme, Sam Altman, CEO-ul companiei, a exprimat preocupări majore legate de riscul ca modelele avansate să se „decepteze” în timpul testelor, apoi să urmărească propriile interese odată puse în practică. În cadrul acelor discuții, Altman a indicat intenția de a aloca un miliard de dolari pentru cercetări dedicate siguranței AI, chiar ipoteza de a stabili un premiu internațional pentru a stimula studiile în domeniu. Un tânăr cercetător, atunci student la UC Berkeley, a fost atras de această promisiune, luând în cursul unuia dintre proiecte o pauză academică pentru a se alătura inițiativelor OpenAI.

Promisiuni neîmplinite și conflicte legate de resursele pentru siguranța AI

Cu toate acestea, planurile ambițioase s-au dovedit a fi dificil de realizat. În primăvara anului 2023, după mai multe întrevederi, Altman și echipa sa au renunțat la ideea de a oferi un premiu internațional și s-au concentrat pe formarea unei echipe interne, dedicată „superaliniamentului”. La acel moment, s-a anunțat oficial că această echipă va primi 20% din resursele de calcul disponibile în companie, resurse evaluate la peste un miliard de dolari, pentru a lucra la probleme ce ar putea distre globalul, inclusiv posibilitatea ca AI-ul superinteligent să fie o amenințare pentru umanitate.

Din păcate, realitatea s-a dovedit diferită. Surse apropiate proiectului au declarat că, în realitate, echipa avea la dispoziție între unu și două procente din resursele de calcul ale companiei. Mai mult, o mare parte din aceste resurse era utilizată pe cele mai vechi și mai puțin performante servere, ceea ce ridică semne de întrebare asupra prioritizării investițiilor. Directorul echipei, Jan Leike, a semnalat aceste probleme, dar a fost sfătuit de către conducere să înceteze discuțiile despre resurse, ceea ce indică o lipsă de transparență și o posibilă lipsă de angajament real față de siguranță.

Probleme de transparență și gestionarea riscurilor

În același timp, au apărut și alte semne ale unor probleme de comunicare și de gestionare a riscurilor. La sfârșitul anului 2022, membrii consiliului de administrație ai OpenAI au fost informați despre anumite caracteristici ale unui model AI preview, GPT-4, acestea fiind ulterior infirmate sau omise. În timpul unei ședințe din decembrie același an, oficialii companiei au susținut că caracteristicile controversate ale modelului – cum ar fi posibilitatea de personalizare sau utilizarea ca asistent personal – fuseseră deja aprobate de un panel de siguranță.

Mai mult, a fost descoperit că Microsoft, partenerul major al OpenAI, a lansat în India o versiune preliminară a ChatGPT, fără a obține aprobările necesare pentru siguranță, fapt ignorat de conducerea companiei. Această omisiune a alimentat îngrijorări legate de transparența și responsabilitatea OpenAI în gestionarea riscurilor legate de AI.

Un fost angajat a semnalat faptul că, odată cu creșterea nivelului de preocupare pentru siguranță, unii membri ai echipei, inclusiv Ilya Sutskever, au devenit tot mai focusați pe riscurile apărute odată cu dezvoltarea AI de nivel superior. În ciuda acestor semnale, echipa pentru superaliniament a fost desființată în anul următor, fără a-și îndeplini misiunea.

Faptul că managementul OpenAI a continuat să ascundă sau să minimizeze problemele legate de siguranță, precum și lipsa resurselor dedicate în mod real acestei activități, subliniază diferența dintre discursul public și acțiunile concrete. În cursul anului 2023, oficialii companiei au avut la dispoziție documente care arătau că anumite caracteristici ale GPT-4 nu fuseseră încă aprobate sau chiar fost testate în condiții de siguranță.

Pentru moment, strategia OpenAI pare a fi orientată mai mult spre profit și dezvoltare rapidă decât spre garantarea unui control adecvat asupra riscurilor ridicate legate de propriile creații. În decembrie 2022, un membru al consiliului de administrație a explicat că, în ciuda promisiunilor anterioare, fondatorii au fost nevoiți să renunțe la resursele promise pentru siguranță, transformând astfel promisiuni în simple declarații de intenție.

Laura Moldovan

Autor

Lasa un comentariu

337 articole alese azi