Un nou scandal zguduie lumea inteligenței artificiale, ridicând din nou semne de întrebare asupra integrității și securității tehnologiilor avansate

Un nou scandal zguduie lumea inteligenței artificiale, ridicând din nou semne de întrebare asupra integrității și securității tehnologiilor avansate. Compania americană Anthropic, unul dintre liderii în domeniul cercetării AI, susține că mai multe companii chineze, inclusiv DeepSeek, ar fi utilizat un model propriu de inteligență artificială, Claude, pentru a-și îmbunătăți propriile sisteme, fără a respecta regulile etice și legale ale industriei. În centrul acestor acuzații se află practica de „distilare” neautorizată, care ar fi fost folosită la scară industrială pentru a extrage capacități de evoluție dintr-un model avansat și a le transfera către soluții proprii, cu beneficii economice și strategice majore.

De la metodă legitimă la un acces ostil

Distilarea, în mod tehnic, reprezintă o metodă acceptată în industria AI pentru a crea versiuni mai eficiente și mai rapide ale modelelor complexe. În esență, aceasta presupune utilizarea rezultatelor generate de un model de referință mai performant pentru a antrena un model mai mic, mai simplu. Utilizată în cercetare și dezvoltare, această tehnică permite optimalizarea resurselor și accelerarea procesului de inovare, fără a compromite calitatea.

Dar, potrivit celor de la Anthropic, această metodă a fost transformată într-un instrument de exploatare ilicită. În cazul companiilor menționate, modelul Claude a fost supus unor frecvente interacțiuni realizate de conturi false — aproximativ 24.000 — care au generat peste 16 milioane de sesiuni. Scopul era clar: extragerea mecanismelor sofisticate de raționament și transferarea lor către sisteme proprii, dezvoltate independent, fără investiții în cercetare și dezvoltare.

Impactul asupra securității și integrității AI

Informațiile furnizate indică o utilizare masivă și un nivel de organized crime în domeniul AI, ilicit. Anthropic susține că aceste practici nu doar că subminează eforturile de cercetare etică și transparentă, ci ar putea avea consecințe grave pentru securitatea globală. Modelul Claude, în special capabilitatea sa de a face judecăți și a raționa, a fost viciat în mod intenționat pentru a produce versiuni „sigure” din punct de vedere al cenzurii, menite să evite controverse legate de teme sensibile din punct de vedere politic — de la disidenți politici și lideri ai opoziției, la autoritarism și controverse sociale.

Alte companii vizate sunt MiniMax și Moonshot, care ar fi acumulat milioane de interacțiuni cu Claude, în jur de 3,4 milioane și, respectiv, 13 milioane, pentru a-și îmbunătăți propriile produse retail. Aceste acțiuni creează premisele unei curse necontrolate, în care competiția din domeniul AI devine tot mai periculoasă și mai lipsită de reguli clare.

Avertismente și apeluri către autorități

Reprezentanții Anthropic avertizează asupra riscurilor de securitate afterexaminate. Modelele „distilate” ilegal, susțin aceștia, pot avea probleme fundamentale de siguranță, întrucât nu mai beneficiază de măsurile de protecție și siguranță incluse în versiunea originală. În plus, există temerea ca aceste sisteme să fie preluate și utilizate în scopuri militare, de supraveghere extinsă sau chiar atacuri cibernetice.

Contextul geopolitic actual, marcat de tensiuni între Statele Unite și China, amplifică aceste îngrijorări. Recent, o scrisoare semnată de OpenAI, companie americană lider în AI și competitoare directe ale Anthropic, a acuzat la rândul său DeepSeek de încercări de a beneficia gratuit de cercetările făcute de laboratoarele din SUA. În acest context, autoritățile americane au fost realmente alertate, fiind solicitate măsuri concrete pentru a limita accesul la echipamente avansate de procesare, cum ar fi cipurile specialized, esențiale pentru antrenarea unor modele de mari dimensiuni.

Pe măsură ce această poveste se dezvoltă, comunitatea internațională și industrie sunt puse în fața unui nou set de provocări etice și de securitate. În lipsa unui cadru clar de reglementare, riscurile de exploatare și utilizare abuzivă a tehnologiilor AI vor continua să crească, iar temerile legate de o cursă nesustenabilă și nesupravegheată pentru dominare tehnologică sunt tot mai reale. Întrebarea rămâne dacă și când autoritățile vor reuși să impună reguli stricte, menite să protejeze atât inovația, cât și siguranța globală.

Laura Moldovan

Autor

Lasa un comentariu

164 articole alese azi