UE anchetează X pentru conținut sexualizat generat de AI, acuzată de platforma lui Musk

Uniunea Europeană a deschis o investigație privind platforma X (fostul Twitter), într-un context în care inteligența artificială (A.I.) devine tot mai prezentă în mediul online și, mai ales, în social media. Această acțiune nu trebuie interpretată ca un simplu control pentru conținutul publicat, ci ca o reacție la riscurile sistemice generate de integrarea tehnologiilor A.I., în special în domeniile extrem de sensibile precum manipularea vizuală și distribuirea de conținut ilegal sau dăunător. În spatele acestei abordări se află un concept de bază al regulamentului european pentru serviciile digitale: nu doar reacția la scandaluri, ci și prevenirea acestora.

Investigația vizează riscurile generate de chatboți și conținutul creat de A.I.

Anunțată oficial în urmă cu câteva zile, această anchetă se bazează pe prevederile din Digital Services Act (DSA), legea europeană destinată să asigure siguranța online și responsabilitatea platformelor. Comisia analizează dacă X a efectuat evaluări efective ale riscurilor înainte de lansarea chatboților precum Grok și dacă a implementat măsuri de reducere a acestor riscuri. În egală măsură, autoritățile doresc să afle dacă platforma a fost pregătită să intervină rapid în cazul apariției conținutului ilegal, precum imaginile sexualizate generate cu ajutorul A.I., care la momentul actual se răspândesc masiv, ridicând întrebări serioase despre control și responsabilitate.

Pentru a justifica această anchetă, se aduce în discuție amploarea fenomenului: o serie de cercetări indică un volum foarte mare de imagini sexualizate generate în timp scurt, cu prompturi relativ banale, ceea ce sugerează că protecțiile existente până acum au fost insuficiente sau insuficient adaptate noilor riscuri. Autoritățile europene solicită platformelor să ia măsuri preventive, pentru că, potrivit principiilor DSA, este nevoie de o abordare proactivă, nu reactivă, în gestionarea conținutului riscant.

Schimbări la X și limitele acțiunilor recente

După criticile virulente legate de modul în care a fost gestionată situația, X a început să adopte unele măsuri de control mai stricte. Platforma a restricționat anumite funcții pentru utilizatorii plătitori și a impus interdicții mai clare pentru solicitările care vizează persoane în situații sexualizate. Cu toate acestea, oficialii europeni indică faptul că aceste ajustări pot fi insuficiente dacă sunt făcute ca reacție târzie sau, mai rău, după ce prejudiciile au fost deja comise.

În regulamentul DSA, această idee de prevenție devine esențială. Platformele foarte mari trebuie să identifice și să evalueze riscurile înainte ca acestea să devină probleme. Dacă investigația va concluziona că X a neglijat aceste responsabilități, autoritățile europene vor putea impune măsuri intermediare, inclusiv corecții obligatorii, chiar în timpul anchetei.

Contextul geopolitic și încercările de autoreglementare

Cazul Grok, chatbotul implicat în distribuirea de conținut problematic, captează deja atenția opiniei publice și a autorităților într-un context în care tensiunile dintre Europa și SUA privind responsabilitatea platformelor digitale au escaladat. Recent, X a fost amendată cu 120 de milioane de euro pentru încălcări legate de transparență și accesul cercetătorilor la date, iar ancheta europeană pare să fie un alt pas în această direcție.

Această investigație amplifică disputa geopolitică despre modul în care mediul digital trebuie reglementat. În timp ce Uniunea Europeană insistă pe responsabilitatea platformelor și pe responsabilizarea celor mari, reprezentanții din Statele Unite, inclusiv Elon Musk, sunt mai preocupați de libertatea de exprimare și evitarea cenzurii. La nivel european, Pachetul DSA are ca scop crearea unui mediu online mai sigur, dar și mai responsabil, ceea ce ridică tensiuni legate de libertatea de exprimare versus controlul riscurilor.

Responsabilitatea utilizatorilor și perspectivele viitoare

În această luptă pentru un mediu digital mai sigur, utilizatorii nu sunt doar spectatori, ci pot juca un rol esențial. Raportarea conținutului suspect, verificarea unor imagini sau limitele de confidențialitate pentru materialele proprii sunt măsuri simple, dar eficiente, pentru a reduce riscurile. În plus, trebuie să fim conștienți că numărul și calitatea materialelor expuse pot influența modul în care A.I. le va genera deja și în viitor.

Dezvoltările recente semnalează clar că UE nu intenționează să lase lucrurile la voia întâmplării, ci vrea să implementeze mecanisme dure pentru a preveni și combate abuzurile generate de tehnologiile emergente. În condițiile în care, odată cu evoluția A.I., riscurile pot deveni și mai greu de gestionat, măsurile europene par a fi doar începutul unui proces de reglementare mai strictă, menit să protejeze drepturile și siguranța tuturor utilizatorilor.

Laura Moldovan

Autor

Lasa un comentariu