Anthropic acționează în judecată guvernul SUA după etichetarea ca risc pentru lanțul de aprovizionare

Compania de inteligență artificială Anthropic dă în judecată Departamentul Apărării din SUA după decizia controversată a administrației Trump

O dispută juridică tumultoasă scoate la lumină tensiunile dintre sectorul privat și autoritățile federale din Statele Unite, pe fondul utilizării tehnologiei de inteligență artificială în domeniul militar. Compania Anthropic, renumită pentru dezvoltarea unor instrumente AI avansate, a depus recent plângere împotriva Departamentului Apărării și a altor agenții federale, contestând o decizie a fostului președinte Donald Trump, care a etichetat aceste tehnologii drept un risc pentru lanțul de aprovizionare al armatei americane.

Decizia controversată a administrației Trump și reacția sectorului privat

În vară, Trump a ordonat agențiilor guvernamentale să înceteze folosirea instrumentelor AI produse de Anthropic, afirmând că acestea prezintă un risc pentru securitatea națională. În urma acestei directive, conducerea companiei a contestat în mod public decizia, calificând-o drept „fără precedent și ilegală”. În comunicatul oficial, Anthropic susține că „Constituția nu permite guvernului să-și exercite puterea enormă pentru a pedepsi o companie pentru discursul său protejat”, subliniind că nicio lege federală nu autorizează astfel de măsuri.

Anthropic susține că instrumentele sale, inclusiv cei mai populari asistenți virtuali precum Claude, sunt utilizate de guvern și Armata SUA încă din 2024, în diverse aplicații, de la analiza datelor la managementul proceselor logistice. Motivul pentru aceste controverse a fost însă refuzul companiei de a permite utilizarea TI-ului său în scopuri militare, decizie bazată pe principii etice și de siguranță.

Negocieri tensionate și răspunsul politic

Înainte ca situația să escaladeze în instanță, Anthropic și Departamentul Apărării au desfășurat o serie de discuții menite să ajungă la un acord. Între timp, însă, intervenția publică a fostului președinte Donald Trump a schimbat rapid cursul negocierilor. Trump a criticat în repetate rânduri compania și a ordonat agențiilor din cadrul administrației federale să înceteze orice contracte cu Anthropic.

„Contractele actuale și viitoare cu părți private sunt, de asemenea, puse sub semnul întrebării, punând în pericol sute de milioane de dolari pe termen scurt”, a afirmat compania. În plus, aceasta avertizează că atacarea libertăților civile și a libertății de exprimare, garantate de Primul Amendament, reprezintă o gravă încălcare a drepturilor fundamentale ale companiei și ale angajaților săi.

Demersul legal al Anthropic și implicațiile pentru sectorul AI

Prin plângerea depusă în fața instanței, Anthropic solicită nu despăgubiri financiare, ci o declarație clară de neconstituționalitate a directivei lui Trump. În documentele judecătorilor, compania argumentează că decizia fostului președinte „depășește autoritatea președintelui” și încalcă prevederile Constituției americane. Aceasta a evidențiat că instrumentele AI dezvoltate de Anthropic sunt un exemplu de inovație civică și tehnologică, fiind utilizate de partea civilă și militară pentru scopuri benefice și nu periculoase.

De asemenea, Alexander “Claude”, cel mai popular instrument de inteligență artificială al companiei, continuă să fie implementat în proiecte guvernamentale, în ciuda refuzului oficial al fostului președinte de a permite utilizarea acestuia în cadrul armatei.

Care sunt următorii pași și ce pot însemna aceste conflicte pentru sectorul AI din SUA?

Decizia curții și evoluțiile ulterioare stau să clarifice dacă intervenția politică în domeniul tehnologic va deveni o practică durabilă sau dacă va suferi restricții legale, având în vedere implicațiile pentru inovație și siguranța națională. În peisajul actual, tendința pare să indice o amplificare a tensiunilor între interesele economice, etice și de securitate, evoluții ce vor modela regulile pentru dezvoltarea și utilizarea inteligenței artificiale în anii ce vor urma.

Laura Moldovan

Autor

Lasa un comentariu

500 articole alese azi