Sistemul controversat Tesla Full Self-Driving (FSD), deși capabil de comportamente avansate de condus, încă ridică probleme majore de siguranță. Potrivit testelor independente efectuate de AMCI Testing, sistemul de conducere semi-automatizat a prezentat comportamente periculoase care au necesitat intervenții umane de peste 75 de ori pe parcursul a 1.000 de mile (aproximativ 1.600 km) de condus în sudul Californiei. În medie, o intervenție a fost necesară la fiecare 13 mile (21 km).
Cum a fost evaluat FSD
AMCI Testing a testat două versiuni ale sistemului FSD, 12.5.1 și 12.5.3, în patru medii distincte: străzi urbane, drumuri rurale cu două benzi, drumuri de munte și autostrăzi interstatale. Conform evaluărilor video, FSD a demonstrat uneori un comportament remarcabil de sofisticat, precum încetinirea pentru a permite trecerea vehiculelor din sens opus sau ajustarea poziției pentru a oferi spațiu pietonilor aflați în așteptare la trecerile de pietoni.
AMCI a apreciat, de asemenea, capacitatea FSD de a gestiona curbele periculoase pe drumurile de țară, ceea ce indică progrese importante în tehnologia de conducere autonomă. „Nu se poate nega faptul că FSD 12.5.1 este impresionant pentru gama largă de răspunsuri similare cu cele umane, mai ales pentru un sistem bazat pe camere,” a afirmat Guy Mangiamele, directorul AMCI Testing.
Riscurile complacenței
Cu toate acestea, Mangiamele avertizează că aceste progrese pot crea un fals sentiment de încredere. „Impresia de infailibilitate în primele minute de utilizare a FSD duce inevitabil la o complacență periculoasă. Conducătorii care folosesc FSD cu mâinile pe genunchi sau departe de volan se expun unor riscuri majore,” a subliniat el.
Momentele critice de eroare ale FSD sunt adesea evenimente de fracțiune de secundă, care chiar și pentru șoferii profesioniști, necesită o atenție maximă. Printre comportamentele periculoase întâlnite în timpul testării se numără trecerea pe roșu și intrarea pe contrasens în curbe periculoase, în timp ce alte mașini se apropiau din sens opus.
Probleme de calcul și lipsa de predictibilitate
Un aspect îngrijorător evidențiat de AMCI este lipsa de predictibilitate a comportamentului FSD, ceea ce ridică întrebări cu privire la fiabilitatea tehnologiei. Acest lucru ar putea fi un rezultat al dependenței de machine learning (învățare automată), un proces bazat pe probabilități, care uneori poate da greș.
Mangiamele a subliniat, de asemenea, că erorile nu sunt doar consecința puterii de calcul limitate sau a unor întârzieri de procesare, ci și a unor deficiențe în programarea de bază a sistemului. Un exemplu clar este momentul nepotrivit al schimbării benzii pentru ieșirile de pe autostradă, realizate cu doar o zecime de milă înainte de ieșire.
Concluzii și provocări pentru viitor
Deși Full Self-Driving de la Tesla reprezintă un pas important către viitorul mașinilor autonome, testele arată că tehnologia este departe de a fi complet sigură și fiabilă. Necesitatea intervențiilor umane frecvente și comportamentele periculoase observate subliniază faptul că șoferii trebuie să rămână vigilenți, chiar și atunci când sistemul este activat.
Pentru a câștiga încrederea consumatorilor și a atinge nivelul de autonomie completă, Tesla va trebui să continue perfecționarea FSD, concentrându-se pe eliminarea deficiențelor de programare și pe îmbunătățirea capacităților sale de calcul.
Fact-check:
- Intervenții umane: FSD necesită intervenții umane în medie la fiecare 13 mile, conform testelor realizate de AMCI Testing.
- Comportamente periculoase: Printre cele mai grave erori observate se numără trecerea pe roșu și intrarea pe contrasens pe drumurile curbe.
- Machine learning: Sistemul FSD se bazează pe machine learning, ceea ce îl face uneori imprevizibil în evaluarea situațiilor de trafic.
Scrie un comentariu