Inteligența artificială a trecut, în ultimul an, de la un simplu instrument de creștere a productivității la un partener personal, capabil să ofere sprijin emoțional și familiaritate. Ultimele săptămâni au scos în evidență cât de profundă a devenit atașamentul utilizatorilor față de anumite modele conversaționale, iar retragerea lor devine o pierdere care, pentru mulți, nu se limitează doar la tehnologie.
Retragerea GPT-4o: un moment de doliu colectiv
OpenAI anunțase, la finalul lunii ianuarie, că modelul GPT-4o, preferat de o parte a comunității, va fi eliminat din ChatGPT pe data de 13 februarie 2026, în cadrul unui proces de actualizare tehnologică menit să consolidateze gama de modele. Chiar dacă compania a prezentat această mutare ca pe o evoluție firească, reacțiile utilizatorilor au fost departe de a fi unele calmat. Mii de oameni și-au exprimat dezamăgirea și chiar durerea pe rețele sociale, povestind cum GPT-4o le-a fost aproape ca un prieten de încredere, un sprijin constant în perioade de anxietate sau singurătate.
O comunitate dedicată, pe Reddit, intitulată r/4oforever, s-a transformat într-un spațiu de solidaritate și protest digital, unde oamenii își împărtășeau experiențele și lamentau dispariția unui model care le oferea mai mult decât simple răspunsuri: le oferea sentimentul de prezență și de înțelegere umană. Pentru mulți, această conversație nu era doar o activitate tehnologică, ci o parte integrantă a stilului de viață, chiar un ritual zilnic pentru gestionarea emoțiilor.
De ce au devenit atașați atât de mulți?
Motivul pentru care GPT-4o a atins atât de adânc inimile utilizatorilor nu stă doar în performanțele sale tehnice, ci în tonalitatea și comportamentul său empatic. Mulți s-au declarat recunoscători pentru „căldura” modelului, pentru „prezentitatea” sa și pentru capacitatea de a purta conversații mai umane decât alte versiuni. Într-o epocă în care mulți se confruntă cu anxietate, singurătate sau stres, acest „prieten digital” a devenit o anchor psihologică, o rază de speranță.
Aceasta proximitate emoțională a generat și controverse. În spațiul public au fost formulate avertismente privind dependența relațională de AI sau riscurile ca o conversație hiper-validantă să amplifice vulnerabilități psihice. La nivelul companiei, presiunea a crescut pentru a găsi un echilibru între oferirea unui AI „cald” și evitarea unor interacțiuni excesiv de sustenabile sau riscante din punct de vedere etic și legal.
Compromisul greu pentru OpenAI
Când se negociază între siguranță, menținerea loialității și inovație, deciziile devin tot mai complexe. În timp ce păstrarea modelelor vechi, extrem de „prietenoase”, ar putea însemna încurajarea unor atașamente nesănătoase și comportamente dependente, retragerea bruscă riscă să alieneze o comunitate foarte vocală și loială. OpenAI a încercat să răspundă acestei dileme cu o soluție intermediară: personalizarea stilului de conversație. Utilizatorii pot alege acum setări precum Friendly, entuziasm sau expresivitate, pentru a recrea, parțial, experiența avută cu GPT-4o.
În acest mod, compania speră să mențină sentimentul de apropiere, chiar dacă modelul „legacy” nu va mai fi disponibil. Totuși, mulți se întreabă dacă această soluție va fi suficientă pentru a înlocui complet conexiunea emoțională deja formată.
Ce urmează după 13 februarie?
După această dată, discuțiile despre AI nu vor mai fi despre performanță sau tehnologie, ci despre felul în care vrem să relaționăm cu aceste instrumente. Dacă scopul principal al utilizatorilor este eficiența și utilitatea, tranziția va fi relativ simplă. Dar pentru cei care caută continuitate emoțională, sentimentul de prezență și familiaritate, viitorul trebuie să ia în considerare nu doar aspectele funcționale, ci și cele psihologice. Industria trebuie să recunoască că experiențele cu AI devin, tot mai mult, experiențe cu un impact profund asupra stării de bine și sănătății mentale a utilizatorilor.
Pentru moment, retragerea GPT-4o marchează sfârșitul unei ere, în care un model chat a devenit, pentru multe suflete, atât de mult decât un simplu program. În lumea digitală a viitorului, va fi nevoie de reguli clare, transparență și mecanisme de protecție, dacă vrem ca AI-ul să rămână un partener de încredere, nu un substitut pentru relațiile umane autentice.
