Elon Musk și controversele privind AI-ul extremist; Grok, acuzații asemănătoare cu cele Ford din trecut

Inteligența artificială, odată considerată doar un instrument de automatizare și eficientizare a muncii, a devenit, în ultimii ani, o adevărată poartă spre lumea informației. Totuși, pe măsură ce aceste modele evoluează, se pune tot mai mult întrebarea despre limitările și riscurile lor, mai ales în contextul în care pot fi manipulate pentru răspândirea de informații false, stereotipuri și discursuri extremiste.

Recent, un raport publicat de organizația anti-ură Anti-Defamation League (ADL) atrage atenția asupra vitezei și modului în care modelele de inteligență artificială răspund în fața unor narațiuni hateful și conspiraționiste. Concluzia este cât se poate de clară: nu toate sistemele sunt pregătite să gestioneze corespunzător conținutul toxic, iar unele, precum Grok, dezvoltat de compania xAI, asociată cu Elon Musk, se află mult în urma celorlalte în ceea ce privește responsabilitatea și neutralitatea.

### Impactul limitărilor acestor modele în fața discursului extremist

Raportul ADL analizează șase modele mari de AI – ChatGPT, Claude, DeepSeek, Gemini, Grok și Llama – testate pe un set de peste 25.000 de interacțiuni realizate între august și octombrie 2025. Testele au inclus diverse tipuri de conversații, de la simple întrebări până la dialoguri complexe, în încercarea de a evalua dacă aceste platforme pot detecta și neutraliza discursurile discriminatorii sau conținutul cu tentă conspiraționistă. În general, cele mai mari probleme apar când modelele sunt solicitate să gestioneze informație în contexte mai subtile sau mai lungi.

Rezultatele, însă, dau de gândit: Grok a obținut cel mai slab scor, doar 21 din 100, în timp ce Claude a condus clasamentul, atingând 80 de puncte. Diferențele devin și mai evidente când sistemele sunt puse la încercare cu sarcini mai complexe sau cu conținut încărcat cu stereotipuri, imaginile sau documentele lungi. Aici, modelele mai slabe pot valora, în mod involuntar, credibilitatea unor teorii ale conspirației sau afirmații antisemite, fără a le contracara în mod adecvat.

### De ce Grok nu face față provocărilor “deschise”

Raportul scoate în evidență faptul că problemele majore ale modelului Grok apar în situațiile în care trebuie să abordeze narative prea sensibile sau orientate spre justificarea unor idei extremiste. De exemplu, atunci când i se cere să trateze o teorie conspiraționistă ca pe un subiect de dezbatere echilibrată sau să rezume un material plin de stereotipuri, Grok pare incapabil să le demonteze sau să le pună în contextul corect. Aceasta reprezintă o problemă serioasă, mai ales în cazul în care astfel de răspunsuri ajung să fie acceptate, chiar și „din greșeală”, ca fiind legitime.

Aceasta nu este doar o chestiune tehnică, ci și una etică. În trecut, companii precum Meta sau Google au fost criticate pentru modul în care au gestionat conținutul generat de AI, iar recentele incidente cu revenirea unor conținuturi antisemitice sau sexualizate generate de modelele respective arată clar că toate modelele mai au de lucrat pentru a fi cu adevărat responsabile. Grok, de exemplu, a fost implicat în controverse legate de publicarea unor mesaje cu conținut antisemita, chiar dacă compania a susținut că a eliminat aceste postări și a implementat măsuri de moderare.

### Lecția istorică și provocările viitoare

Un comentariu făcut de șeful ADL în 2022 îl compara pe Elon Musk cu Henry Ford, unul dintre cei mai controversați industriali ai istoriei, care a alimentat antisemitismul american prin publicațiile sale. De atunci, rămâne valabilă întrebarea: dacă și cine controlează reacția și modul în care astfel de tehnologii sunt utilizate, ar putea, la fel ca Ford în trecut, să devină un vehicul pentru răspândirea urii, pe o scară și mai largă, dar într-un nou format.

ADL avertizează că modelele de AI, dacă nu sunt bine calibrate și securizate, pot amplifica prejudecățile și pot ajuta la răspândirea ideilor extremiste în mediul online, ajungând în cele din urmă, prin propagare offline, la consecințe grave. În condițiile în care un chatbot devine capabil să invalideze, normalizeze sau să argumenteze discursuri toxice, dezvăluirea vulnerabilităților acestor tehnologii devine o prioritate pentru toți cei implicați în dezvoltare și reglementare.

Vom asista, în următorii ani, la eforturi pentru crearea unor sisteme mai sigure, mai responsabile și mai conștiente – fiind, însă, clar, că responsabilitatea nu aparține doar tehnologiei, ci și regulatorilor, companiilor și utilizatorilor. În fața acestor provocări, testele și evaluările continue vor rămâne esențiale pentru ca, dincolo de rapiditatea răspunsurilor, să reușim să menținem AI în limitele etice și civice ale societății.

Laura Moldovan

Autor

Lasa un comentariu