Un accident grav în Houston, care implică un Tesla Cybertruck aparent pilotat în modul autonomie semi-autonomă, reaprinde discuțiile privind siguranța sistemelor de conducere autonome și responsabilitatea producătorilor. În imaginile de pe camerele de bord, se vede momentul critic când vehiculul aproape a trimis o mamă și copilul său peste o barieră de autostradă, înainte de a se izbi violent de un parapet.
Cazul ridică întrebări despre precisoca activării și dezactivării sistemelor de asistență și despre rolul real al șoferilor în timpul incidentului, intens discutate în ultima vreme în contextul noilor investigații ale autorităților americane.
Discuții despre responsabilitate și momentul intervenției
În cazul incidentului de la Houston, șoferița susține că a încercat să dezactiveze sistemul FSD cu câteva secunde înainte de impact. Cu toate acestea, imaginile arată un altghiște: vehiculul a fost aproape de coliziune când, aparent, sistemul era încă activ. Se pare că femeia avea mâinile pe volan, dar nu a reușit să preia controlul în momentul critic, ceea ce ridică problema dacă desemnarea responsabilității ar trebui să se bazeze pe momentul în care un sistem este dezactivat sau pe situația reală a traversării.
Specialiștii atrag atenția că, în condițiile în care sistemele semi-autonome funcționează bine în majoritatea cazurilor, dar pot eșua în situații neașteptate, momentul în care șoferul decide să intervină poate fi prea târziu. În cazul de la Houston, patru secunde reprezintă o perioadă insuficientă pentru o reacție eficientă în trafic la viteze mari.
Strategia Tesla și controversele din jurul FSD
Tesla și CEO-ul Elon Musk adoptă o poziție clară, declarând că responsabilitatea finală rămâne la utilizator. În comunicările publice, compania susține că sistemul FSD este un nivel 2 de asistență și că șoferii trebuie să păstreze controlul permanent. În practică, însă, promisiunea a fost percepută diferit de public, care vede în FSD o tehnologie aproape autonomă, mai mult decât un simplu ajutor.
Această diferență între percepție și realitate creează tensiuni și întrebări legale. În august 2025, Un tribunal din Florida a obligat Tesla să plătească 243 de milioane de dolari în urma unui proces legat de un accident mortal cu Autopilot. În februarie 2026, un judecător federal a refuzat să anuleze această decizie, semnalând o duritate în abordarea responsabilităților companiei.
Autoritățile americane, precum NHTSA, au început să analizeze în detaliu funcționarea FSD pe peste 3,2 milioane de vehicule Tesla. Investigațiile se axează pe modul în care sistemul gestionează condițiile dificile de vizibilitate și dacă avertizează suficient conducătorii auto înainte de situații periculoase. În plus, se verifică o serie de incidente înregistrate în ultimele luni legate de abateri de la norme de trafic și accidente asociate cu FSD.
Imagini și rapoarte recente arată o presiune crescută asupra Tesla din partea autorităților americane, intenționate să clarifice dacă sistemul poate fi folosit într-un mod sigur în condiții normale și dificile. În același timp, compania lui Musk se confruntă cu un proces în Florida, unde un juriu a decis ca Tesla să plătească zeci de milioane de dolari pentru un incident fatal, ce a avut loc cu sistemul Autopilot activat.
Cazul de la Houston exemplifică riscurile implicate în utilizarea sistemelor semi-autonome și ridică întrebări despre modul în care companiile trebuie să comunice și să își responsabilizeze utilizatorii. În timp ce Tesla susține că sistemul a fost “deconectat cu patru secunde înainte de impact”, imaginea de pe camerele de bord sugerează că momentul critic s-a petrecut pe fondul unei intervenții tardive. Aceasta indică faptul că discuția despre responsabilitate și siguranță trebuie să se adapteze noilor realități ale tehnologiei de conducere autonomă, iar autoritățile își intensifică verificările pentru a evita viitoare tragedii.
