Impactul inteligenței artificiale în războiul modern și perspectivele unei confruntări globale reglementate

Inteligența artificială, în armata modernă: de la promisiuni la riscuri globale

De câțiva ani, în spatele ochilor curioși și ai experților în securitate, se ascund întrebări tot mai urgente privind utilizarea AI în domeniul militar. Deși discuțiile initiale vizau potențialul de a accelera operațiunile și a reduce victimele civile, realitatea din teren și declarațiile oficialilor ilustrează o imagine mult mai complexă și periculoasă. Nu mai este o chestiune de dacă inteligența artificială va juca un rol major în conflictele viitoare, ci până unde vor fi împinse limitele controlului uman.

AI deja pe câmpul de luptă, dar la ce costuri?

Armata americană este deja avansată în integrarea AI în sistemele sale de luptă și logistică. Conform informațiilor publicate în reviste științifice precum Nature, sistemele automate sunt folosite pentru procesarea de imagini, colectarea și analiza datelor, precum și pentru suport decizional în timpul operațiunilor militare. Un exemplu concret este Maven Smart System, un platformă care utilizează inteligența artificială pentru identificarea țintelor și prioritizarea acestora, reducând timpul dintre observație și acțiune.

Această tehnologie schimbă fundamental dinamica pe câmpul de luptă. În loc ca analiza imaginilor și luarea deciziilor să fie umane, AI poate face aceste lucruri în fractiuni de secundă, sporind viteza operațiunilor. Teoretic, se speră că acest lucru duce la luptă mai precisă și, implicit, mai puține victime civile. În practică, însă, cele mai recente conflicte arată că realitatea este diferită. Războaiele din Ucraina și Gaza demonstrează clar că prezența AI nu a redus costurile umane, iar dovezile despre reducerea deciziilor greșite sau a victime civile rămân insuficiente.

Un aspect critic rămâne și diferența între AI ca instrument de sprijin și AI autonomă letală. Prima variantă păstrează omul în centru deciziilor finale, în timp ce cea de-a doua permite armelor autonome să identifice și să elimine ținte fără intervenție umană. Acest din urmă scenariu stârnește temeri grave, de la erori până la posibile conflicte accelerate.

Armele autonome: de la promisiuni la teme etice și legale

Discuția despre armele autonome, capabile să ia decizii de ucidere fără eroare umană, devine din ce în ce mai acută. Specialiști în drept internațional și etică avertizează asupra riscurilor unor sisteme AI care să decidă singure cine trebuie distrus în câmpul de luptă. Legile umanitare internaționale, ce impun o distincție clară între civili și militari, devin dificil de respectat în condițiile actuale ale tehnologiei.

Un alt obstacol major este opacitatea modelelor de AI avansate, precum big language models. Acestea pot oferi recomandări fără a explica raționamentul intern, ceea ce duce la riscuri majore în situații de conflict. Mulți experți afirmă că scoaterea completă a deciziilor umane din ecuație este inacceptabilă din punct de vedere etic, dar și periculoasă din cauza rapidității cu care pot escalada conflictele automate.

Este deja clar că o astfel de tehnologie poate accelera reacția în situații tensionate, reducând timpul de reflecție și crescând riscul unor erori fatale sau al impulsului de a declanșa conflicte mai largi din incidente minore. De aceea, multe voci internaționale cer o interdicție globală pentru armele autonome letale. Acestea ar putea duce la o cursă nesăbuită pentru tehnologizare maximă, în condițiile în care controalele internaționale sunt deficitare și încă neadevărate.

Luptele pentru controlul tehnologic dintre guverne și companii

Pe măsura avansării tehnologice, se intensifică și disputele între guverne și marii jucători din industria AI. În ultimii ani, contracte pentru implementarea și testarea sistemelor autonome au fost semnate între armata americană și companii precum Anthropic sau OpenAI, cu sume astronomice. De exemplu, sistemul Maven, dezvoltat pentru forțele americane, beneficia de sprijinul modelului Claude, creat de compania Anthropic, pentru o sumă de peste 200 de milioane de dolari.

Însă, odată cu aceste colaborări, au apărut și controverse. Departamentul de Război al SUA a cerut ca sistemele AI să fie utilizabile pentru „orice utilizare legală”, Dar Anthropic a refuzat să elimine anumite limite, insistând că tehnologia lor nu trebuie folosită pentru supraveghere în masă sau pentru arme autonome. Ulterior, guvernul american a semnat un alt contract, de această dată cu OpenAI, însă cu angajamentul ferm că tehnologia nu va fi folosită pentru ucidere autonomă.

Acest conflict nu mai este doar teoretic: realitatea se joacă în condițiile de contracte, reguli de utilizare și negocieri diplomatice. În interiorul industriei, se simte tot mai clar o tensiune între dorința de a avansa tehnologic și grijile etice legate de utilizarea acesteia în război.

Un cadru legal inadecvat pentru o tehnologie care devreme devine dominantă

În timp ce tehnologia avansează cu rapiditate fără precedent, sistemele internaționale de reglementare se mișcă prea lent. La Geneva, discuțiile despre armele autonome sunt încă la început, iar comunitatea internațională nu pare să fi ajuns la un consens ferm. Peste toate, persistă temeri serioase că țări precum SUA, China și Israel, ce dețin programe avansate în AI militar, nu sunt interesate de norme mai stricte.

Delimitarea clară între „asistență”, „automatizare” sau „autonomie letală” este tot mai dificil de stabilit într-un cadru juridic convențional, iar fără reguli stricte și angajamente globale, riscul răspândirii rapide a acestor sisteme în conflictele armate devine un pericol real. Într-o astfel de cursă, odată inițiată, oprirea devine aproape imposibilă, iar consecințele pot fi devastatoare.

Inteligența artificială nu mai este doar un instrument de sprijin, ci o infrastructură de putere în război. În aceste condiții, întrebarea nu mai vizează dacă va fi folosită, ci cât de departe va fi împinsă și cine va avea curajul să spună stopul. E posibil ca, în viitorul apropiat, zona roșie a eticii și a controlului uman să fie în cele din urmă depășită, iar lumea să se confrunte cu propriile limite în fața unui inamic al noii ere, format din mașini autonome și decizii de moarte luate din impulsul vitezei tehnologice.

Laura Moldovan

Autor

Lasa un comentariu

21 articole alese azi