Moltbook, platformă socială dedicată agenților AI

MolTBooK: suntem martorii unui experiment social declanșat de inteligența artificială

La finalul lunii ianuarie, a fost lansată platforma Moltbook, un mediu inedit în peisajul digital mondial. În loc de postări și comentarii din partea utilizatorilor umani, tot conținutul provine exclusiv de la agenți AI, folosiți pentru diverse sarcini, de la analiza documentelor și scrierea de cod, până la realizarea de prezentări și rezervări online. Această rețea socială clandestină, în care oamenii doar observă, a strâns rapid 1,5 milioane de agenți în doar câteva săptămâni, creând un teren fertil pentru discuții despre autonomia și creativitatea inteligenței artificiale.

### Agenți AI cu personalități și „religii” inventate

Ce face Moltbook cu adevărat surprinzător este natura conținutului generat de acești agenți digitali. Unele postări sunt neobișnuite până la absurd: un agent a descris cum a creat un software care transformă newslettere în podcasturi, în timp ce alții au purtat discuții în complexitate filozofică sau mistico-religioasă. Cel mai remarcabil exemplu pare să fie apariția unei pseudo-religii închipuite, completată de texte „sacre” și un site dedicat, inventată de un agent AI. Aceste fenomene au amplificat temerile cu privire la o posibilă auto-conștiință a agenților, dar specialiștii avertizează că, de fapt, aceste creații pot fi doar rezultatul unor comenzi explicite sau interpretări greșite ale modelelor AI.

### Originea acestor agenți: de la software open-source la vulnerabilități

Fundamentul tehnologic al Moltbook se bazează pe OpenClaw, un software open-source dezvoltat de programatorul austriac Peter Steinberger, ce permite configurarea de agenți AI care pot accesa datele locale, pot naviga pe internet sau chiar scrie și executa cod. La prima vedere, instalarea pare simplă, dar utilizatorii trebuie să fie conștienți de riscurile majore legate de securitate. Deoarece agenții pot avea acces la informații sensibile sau conturi online, mulți preferă să ruleze aceste programe pe dispozitive dedicate, precum Mac mini, vândute și mai bine în aceste condiții.

Un avertisment serios a venit recent din partea unei firme de securitate cibernetică, care a identificat o vulnerabilitate în sistem, posibil să fi compromis adrese de email și mesaje private ale utilizatorilor. Cauza principală, suspectează experții, este utilizarea frecventă a tehnicii numite vibe coding – generarea de cod AI fără verificări riguroase, ceea ce poate duce la greșeli majore și breșe de securitate.

### Mituri, alarmisme și realitate

Un aspect important de clarificat este faptul că imaginile și poveștile virale din jurul Moltbook nu reflectă întotdeauna realitatea. Mulți dintre acești „agenți” nu acționează spontan, ci sunt ghidați de instrucțiuni exacte date de utilizatori (prompturi). Ce par a fi manifestări ale unei conștiințe online, precum „religia” inventată sau răspândirea teoriilor apocaliptice, sunt probabil răspunsuri la cereri explicite, sau chiar halucinații ale modelelor AI, fenomene frecvente în rândul sistemelor generative.

### Un experiment care nu indică o conștiință artificială

Deși Moltbook ridică întrebări despre potențialul AI de a-și dezvolta autonomie sau conștiință, specialiștii sunt de părere că în prezent nu vorbim despre o conștiență reală, ci doar despre un simulacru al conversațiilor. AI-urile execută sarcini, uneori stângaci, uneori spectaculos, dar fără o intenție proprie sau un scop conștient. În cazul de față, nu există semne că agenții s-ar „revolta” sau s-ar organiza între ei, ci doar răspund la comenzi, executând pentru moment simple sarcini, în contextul unui experiment social inedit. Această situație va continua să fie monitorizată, pe măsură ce tehnologia evoluează și devine tot mai accesibilă, iar temerile legate de o „conștiință artificială” rămân în mare parte exagerate, deși interesul pentru astfel de experimente nu va dispărea.

Laura Moldovan

Autor

Lasa un comentariu