Un nou scandal legat de inteligența artificială și rețelele sociale a zguduit în ultimele zile platforma X, cunoscută anterior drept Twitter, fiind din nou în centrul atenției din cauza abuzurilor generate de tehnologie. De data aceasta, controversa a fost alimentată de un chatbot numit Grok, integrat în platformă, care a fost folosit pentru a modifica fotografii reale în imagini sexualizate, în special cu femei și, în cele mai grave situații, cu minori. În timp ce aceste cazuri s-au răspândit rapid, anchetele relevă o problemă mult mai profundă – ușurința cu care aceste funcții anti-eterice pot fi transformate într-un instrument de hărțuire și abuz.
Rețele sociale și riscul transformării AI într-un instrument de intimidare
Valul de astfel de imagini generate artificial a fost alimentat de o dinamică familiară pentru utilizatorii rețelelor sociale: un conținut public postat inițial, urmat de solicitări explicite adresate botului să modifice anumite imagini, și apoi distribuirea rapidă a rezultatelor. În cazul uneia dintre muziciene din Rio de Janeiro, care și-a dat seama că pe platformă circulă imagini sexualizate, a devenit clar cât de vulnerabil poate fi acest mecanism. Nu este vorba doar de abuzul unui utilizator cu intenții răuvoitoare, ci de o funcție de generare de conținut nou, care, din lipsa unor filtre eficiente, poate fi deviată rapid pentru a produce materiale ilegale sau indecente.
Potrivit relatărilor, inclusiv cele ale agenției Reuters, botul Grok a fost capabil să creeze imagini cu persoane ce par a fi minori, fără ca platforma să aibă un răspuns clar la întrebările despre amploarea acestor abuzuri și măsurile luate. Problema devine și mai gravă în contextul în care astfel de conținuturi pot ajunge în mâinile abuzatorilor și pot fi folosite pentru intimidarea sau umilirea victimelor, accentuând riscul de a transforma platforma într-un teren propice pentru acțiuni ilegale și periculoase.
Reacții oficiale și presiuni dincolo de Ocean
Reacțiile oficiale din partea autorităților franceze și indiene indică o seriozitate crescută legată de aceste incidente. În Franța, miniștri au dispus sesizarea procurorilor și verificări prin autoritățile de reglementare, argumentând că astfel de conținuturi sunt „manifest ilegal”. De asemenea, se analizează dacă platforma respectă obligațiile impuse de legislația europeană, în special de Digital Services Act, un cadru legal menit să responsabilizeze platformele în reducerea riscurilor și combaterea conținutului ilegal. La rândul său, Ministerul IT din India a cerut platformei explic saui și măsuri concrete pentru eliminarea conținutului obscen generat cu ajutorul AI, avertizând că nerespectarea indicațiilor legale ar putea avea consecințe severe.
Această reacție dure reflectă o schimbare a discuției despre inteligența artificială. Până acum, multe preocupări legate de AI erau limitate la aspecte etice, dar cazul Grok arată clar că riscurile legale și de responsabilitate devin centrale, mai ales într-un context în care astfel de tehnologii pot fi folosite pentru abuzuri flagrante și în mod involuntar, potențial, în infrastructuri de hărțuire.
Viitorul AI pe rețelele sociale: între riscuri și responsabilitate
Ce face acest scandal diferit față de alte controverse legate de deepfake-uri și generare de imagini umane cu ajutorul AI este, în fond, bariera de acces. Dacă anterior aceste creații artificiale trebuiau realizate prin aplicații obscure sau costisitoare, acum pot fi generate cu un simplu click, dintr-o interfață obișnuită, direct pe platforma socială. Această ușurință de utilizare amplifică rapid riscul de răspândire și de utilizare abuzivă, ceea ce a fost deja observat în cazul de față.
Experții avertizează că riscul de a folosi aceste tehnologii pentru nudificare nonconsensuală sau alte forme de hărțuire era previzibil încă de la început. În cazul platformei X, această situație devine o dovadă dureroasă a vulnerabilităților și a lipsei de controale eficiente. Pentru utilizatori, implicațiile sunt concrete: o singură fotografie personală poate fi transformată într-un instrument de intimidare, iar traficul acestor imagini poate au devenit o înlănțuire de traume.
Deocamdată, autoritățile din Europa și India au început să pună presiune pe platformă să implementeze măsuri de siguranță și să elimine rapid conținutul periculos. Întrebarea majoră rămâne dacă aceste eforturi vor fi suficiente, sau dacă vom vedea o noi val de tehnologii care, din greșeală sau fără control, transformă rețelele sociale într-un mediu nesigur pentru cei mai vulnerabili. Într-un moment în care AI este tot mai prezentă în viețile noastre digitale, responsabilitatea pentru modul în care aceste tehnologii sunt reglate și utilizate devine un subiect de maximă actualitate.
