Imaginile sexualizate ilegale vor fi blocate automat, anunță autoritățile

Elon Musk, în fracțiunea de zi în care controversialul său instrument de inteligență artificială, Grok, se află sub acuzare și presiune internațională, a anunțat recent măsuri pentru a limita abuzurile. După zile de reacții publice ruginită și intervenții din partea autorităților din întreaga lume, compania xAI, fondată de Musk, a declarat că va introduce restricții în utilizarea chatbotului, astfel încât acesta să nu editeze imagini cu persoane reale în moduri considerate inacceptabile în anumite jurisdicții. Concret, compania are în vedere blocarea funcției de creare și editare a imaginilor cu forme sexuale sau vestimentare revelatoare, acoperind astfel unele dintre cele mai grave probleme legate de conținutul generat de AI.

Schimbarea decurge pe fondul unei crize majore de imagine, pe măsură ce dovezile și acuzațiile referitoare la utilizarea Grok pentru a crea imagini sexualizate cu minori au devenit din ce în ce mai întărite. În ultimele zile, sute de imagini neconsimțite, inclusiv cu victime minore, au fost distribuite pe platformele sociale și monitorizate de autoritățile din California, unde s-a deschis o investigație oficială împotriva companiei. Autoritățile californiene vorbesc despre o „producție la scară” a imaginilor falsificate, folosite pentru hărțuire online și alte forme de abuz, ceea ce a provocat o reacție rapidă și severă atât în Statele Unite, cât și în alte colțuri ale lumii.

Geoblocarea, o soluție tehnică promovată de Musk, se află în centrul acțiunii. În practică, această măsură presupune restricționarea funcției de creare a imaginilor în anumite țări, în funcție de legislația locală. xAI bănuiește astfel că, prin limitarea la nivel regional, va putea preveni apariția și răspândirea conținutului ilegal sau sensibil, dar recunoaște că implementarea acestei strategii apare plină de provocări. În pragul unor controale și investigații în mai multe state, Musk a precizat că „măsurile tehnologice” vor fi activate pentru a păstra controlul asupra riscurilor, dar rămâne de văzut cât de eficiente vor fi în practică.

O altă schimbare anunțată vizează limitarea accesului la generarea și editarea imaginilor pentru abonații plătitori, argumentându-se că astfel compania va putea identifica mai ușor și preveni abuzurile. Totuți, aceste măsuri nu garantează eliminarea completă a riscului, mai ales într-un mediu digital în care conținutul poate fi redistribuit rapid și în mod ilegal. În plus, implementarea regulilor locale și gestionarea fragmentării legislative la nivel internațional reprezintă o provocare uriașă pentru orice platformă cu audiență globală.

Ascensiunea controversei vine însă și din modul în care xAI a reacționat public la acuzații. În ciuda promisiunii de a introduce măsuri tehnice, compania a fost criticată pentru modul în care a gestionat inițial preocupările legate de conținutul generat și distribuit. În condițiile în care instrumentele de AI pot crea cu rapiditate imagini extrem de sensibile, lipsa unui control eficient de moderare a condus la încălcări grave ale intimității și siguranței persoanelor vizate.

Pe plan internațional, criza a transcendet granițele americane, adresându-se și altor state și regiuni. Malaysia, Indonezia, India, Franța, Brazilia și Marea Britanie au început deja investigații, blocând accesul sau solicitând controale mai stricte, toate în încercarea de a preveni răspândirea de conținut de natură abuzivă sau ilegală. În același timp, autoritățile europene discută despre responsabilitatea platformelor și despre modul în care legile privind siguranța online pot fi adaptate pentru a face față noilor provocări ale AI-ului.

Finalul acestei crize durează să fie scris, dar cert este că desdecă o tehnologie atât de avansată și cu potențial atât de distructiv, orice măsuri nu vor avea efect dacă nu sunt însoțite de o responsabilitate sporită și de un control strict. Musk și xAI par să recunoască, cel puțin la nivel declarativ, că pot aplica reguli diferențiate în funcție de legislația locală, dar realitatea din teren va arăta dacă aceste măsuri vor fi suficiente pentru a reduce abuzurile și pentru a proteja utilizatorii de vulnerabilitățile tot mai acute generate de AI. Într-un ecosistem global în care conținutul poate fi copiat și redistribuit instantaneu, succesul măsurilor va depinde de colaborarea între tehnologie, legislație și responsabilitatea socială.

Laura Moldovan

Autor

Lasa un comentariu