33 de angajați CFR, judecați pentru fraudă, consultau ChatGPT pentru răspunsuri

Agravați de tehnologie: 33 de angajați CFR vor fi judecați pentru fraudă, acuzați că au folosit ChatGPT pentru a se apăra în anchetă

Un scandal de proporții zguduie în aceste zile sistemul de justiție și companiile de transport din România, odată cu anunțul despre trimiterea în judecată a 33 de angajați ai CFR pentru implicare în acte de fraudă. Deși denunțarea infracțiunilor și corupției în mediul de muncă sunt considerate piloni fundamentali în lupta împotriva ilegalităților, situația devine mai complicată atunci când aceste persoane recurg la tehnologie pentru a-și diminua răspunderea în fața legii.

Frauda în călătoria spre justiție: complicată de asistența artificială

Potrivit unor surse judiciare, cei 33 de angajați ai companiei feroviare naționale urmează să fie trimiși în instanță sub acuzația de fraudă și alte fapte de corupție. Surse apropiate anchetei confirmă că aceștia au fost suspectați de implicare în scheme de fraudare a sistemelor de rezervare și de manipulare a datelor pentru a obține avantaje nemeritate, în ciuda controalor riguroase din cadrul companiei.

Ce leagă însă aceste inculpate de un trend recent și controversat este deturnarea tehnologiei în scopuri ilegale. În timpul anchetei, procurorii au descoperit că unii dintre aceștia au folosit aplicația ChatGPT – un model de inteligență artificială dezvoltat de compania OpenAI – pentru a genera răspunsuri și explicații care să îi ajute să se apere în fața întrebărilor anchetatorilor. În încercarea de a scăpa de pedeapsă sau de a-și diminua responsabilitatea, angajații au întrebat ChatGPT „ce răspunsuri să dea la anchetă”, potrivit informațiilor oficiale.

Utilizarea inteligenței artificiale în acte de fraudă devine o problemă majoră

Anchetele au evidențiat că implicarea tehnologiei în combaterea dreptății nu mai poate fi ignorată. În timp ce inteligența artificială a revoluționat modul în care societățile abordează probleme de comunicare, educație sau afaceri, utilizarea sa pentru a găsi răspunsuri care să manipuleze justiția ridică semne de întrebare despre limitele eticii în epoca digitală.

„Este pentru prima dată când aflăm că persoane cercetate pentru infracțiuni la scară largă își consultă AI-ul pentru a-și crea o aparență de vinovăție sau nevinovăție, în funcție de interesul lor personal”, explică un expert în domeniul tehnologiilor digitale și juridice. Acest fapt duce la o serie de întrebări cu privire la modul în care sistemele de supraveghere și verificare vor putea să țină pasul cu evoluția rapidă și inovativă a inteligenței artificiale.

Context și implicații pentru sistemul de transport și nu numai

Folosirea ChatGPT în scopuri ilicite în cadrul unei companii de stat ca CFR nu este doar un incident izolat. În ultimii ani, tot mai multe situații au evidențiat riscurile legate de utilizarea inadecvată a tehnologiei pentru a manipula informații sau a influența decizii importante. În cazul de față, învinuirile aduse acestor angajați privesc nu doar interesele financiare ale companiei, ci și integritatea sistemelor de transport și, implicit, siguranța pasagerilor.

Autoritățile investighează dacă această metodă de a cere sfaturi de la inteligența artificială a fost un simplu experiment al unor angajați sau dacă a fost parte integrantă a unei scheme elaborate de fraudare și corupție. În cazul în care se va demonstra că aceste acțiuni au fost coordonate sau au avut o anumită structură, impactul asupra companiei feroviare poate fi unul major, cu repercusiuni asupra încrederii publicului în utilitatea și integritatea sistemului de transport.

Viitorul luptei împotriva fraudelor în era digitală

Această situație scoate în evidență o problemă emergentă în lumea modernă: într-un context în care tehnologia poate fi un aliat, dar și o armă în mâinile celor rău-voitori, autoritățile trebuie să adopte măsuri speciale pentru a contracara noile forme de infracțiune digitală. Controalele și metodele de verificare trebuie adaptate pentru a putea identifica și contracara utilizarea abuzivă a inteligenței artificiale în scopuri ilegale.

De multe ori, răspunsurile de pe platformele AI pot părea convingătoare, dar ele nu pot înlocui încă verificări riguroase și metodologia tradițională de anchetă. În același timp, acest caz este un semnal de alarmă pentru companiile și instituțiile publice: în era digitală, indiferent de cât de inovativă este tehnologia, transparența și integritatea rămân cele mai eficiente arme în lupta împotriva corupției și fraudelor.

După ultimele dezvoltări, anchetele continuă pentru a stabili pe deplin măsura implicării fiecărui inculpat, precum și dacă alte persoane sau grupuri au fost implicate în această rețea de fraudă digitală. În același timp, autoritățile analizează dacă aceste metode de utilizare a AI-ului vor deveni, pe termen lung, o problemă de securitate și de etică pentru întreaga societate.

Laura Moldovan

Autor

Lasa un comentariu