Microsoft afirmă că copilul AI Copilot este destinat doar divertismentului

Microsoft a adus în atenție noile avertismente legate de utilizarea asistenților virtuali, în special a Copilot, programul său de inteligență artificială destinat în principal clienților corporativi. În ciuda eforturilor de promovare, compania se confruntă cu critici din partea utilizatorilor din cauza termenilor de utilizare care par să fi fost actualizați ultima dată pe 24 octombrie 2025. În aceste condiții, Microsoft a subliniat că serviciul este destinat exclusiv divertismentului și nu trebuie utilizat pentru luarea deciziilor importante, avertizând explicit că rezultatele generate pot conține greșeli.

Termenii de utilizare ai Copilot au atras reacții negative pe rețelele sociale, utilizatorii fiind surprinși de formularea în care compania precizează că produsul nu trebuie să fie considerat o sursă de informații exacte sau de încredere pentru decizii critice. În cadrul mesajului oficial, Microsoft menționează: „Copilot este destinat exclusiv divertismentului”, și adaugă că “poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut”, sfătuind utilizatorii să nu se bazeze pe acesta pentru sfaturi importante și să folosească serviciul pe propria răspundere.

Un purtător de cuvânt al Microsoft a comentat ulterior situația pentru PCMag, precizând că echipa sa planifică actualizarea limbajului din termenii de utilizare. „Pe măsură ce produsul a evoluat, acel limbaj nu mai reflectă modul în care Copilot este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare”, a declarat reprezentantul companiei.

Avertismente similare în industria de inteligență artificială

Microsoft nu este singura companie care adoptă astfel de precauții legate de IA. La rândul lor, OpenAI și xAI menționează explicit utilizatorilor că rezultatele generate de aceste platforme nu trebuie considerate ca adevăr absolut. OpenAI afirmă că ,,nu trebuie să te bazezi pe rezultatele noastre ca fiind singurul serviciu de adevăr sau informații factuale”, în timp ce xAI a emis avertismente similare, recomandând utilizatorilor să fie sceptici cu privire la acuratețea răspunsurilor.

Riscurile și limitele inteligenței artificiale

Avertismentele reflectă necesitatea unui grad sporit de prudență în utilizarea tehnologiilor AI, mai ales în contexte profesional sau de decizie. Industria tehnologică admite din ce în ce mai mult că rezultatele produselor bazate pe inteligență artificială pot conține erori, fiind nevoie de o evaluare umană suplimentară. Credința exagerată în capacitățile AI, mai ales pentru domenii sensibile, a condus deseori la situații riscante sau la răspândirea informațiilor false.

MSterns afirma: „Companiile lansează aceste avertismente pentru a proteja utilizatorii și pentru a reduce răspunderea în caz de greșeli sau interpretări eronate ale rezultatelor.” În același timp, utilizatorii trebuie să conștientizeze limitele acestor tehnologii și rolul vital al implicării umane pentru validarea informațiilor primite de la asistenții AI.

Microsoft plănuiește să actualizeze în viitorul apropiat termenii de utilizare pentru a reflecta mai clar utilizarea actuală a Copilot și pentru a clarifica rolul acestuia, astfel încât utilizatorii să fie pe deplin conștienți de limitările programului.

Compania a dat publicității data vizată pentru această actualizare: 15 mai 2023, când va fi publicată versiunea revizuită a termenilor de utilizare, includând și clarificări sporite referitoare la destinația și performanțele serviciului Copilot.

Laura Moldovan

Autor

Lasa un comentariu

208 articole alese azi