Musk scrive: “La guida autonoma generalizzata è un problema difficile, poiché richiede la risoluzione di gran parte dell’IA del mondo reale. Non mi aspettavo che fosse così difficile, ma la difficoltà è ovvia, col senno di poi. Niente ha più gradi di libertà della realtà”. Indietro tutta, insomma.
Haha, FSD 9 beta is shipping soon, I swear!
Generalized self-driving is a hard problem, as it requires solving a large part of real-world AI. Didn’t expect it to be so hard, but the difficulty is obvious in retrospect.
Nothing has more degrees of freedom than reality.
— Elon Musk (@elonmusk) July 3, 2021
A che punto è Elon Musk
Aveva quindi ragione John Krafcik, l’ex ad di Waymo, la piattaforma nata con i soldi di Google che finora detiene il record delle miglia percorse senza pilota umano. “Con tutto il rispetto per un’azienda importante come Tesla, secondo me la piattaforma di guida autonoma che impiega oggi non è a livello 4 né 5”, ha detto. “È semplicemente un buon esempio di guida assistita, come tante altre messe a disposizione dai migliori brand di auto. La guida autonoma è un traguardo ancora lontano. Non bastano i lidar, le videocamere, i sensori e l’AI della macchina. Occorre trasformare anche le strade in interfacce che reagiscono in tempo reale e senza alcuna latenza”.
Gli incidenti
Mentre i fan chiedono a Elon Musk di affrettarsi a lanciare la versione aggiornata del Tesla Autopilot, un discreto numero di incidenti ha costellato i percorsi delle Tesla in questi mesi. Uno dei più bizzarri riguarda un automobilista dell’Alabama, la cui macchina ha frenato senza avere ricevuto alcun input. La macchina era seguita da una vettura dalla polizia in ricognizione nella zona. Solo lo scatto del guidatore, che ha schiacciato il piede sull’acceleratore e ha disinnescato l’Autopilot, ha evitato un incidente.
Andò peggio, anni fa, a un ingegnere della Apple, che festeggiò la sua assunzione regalandosi una Tesla. Aveva attivato l’Autopilot quando la macchina cominciò a deviare verso sinistra – forse per una lettura sbagliata dei segnali stradali – e si piantò contro il divisorio tra le carreggiate, andando a fuoco.
Bisogna ricordare, a onor del vero, che il software messo a punto dagli ingegneri di Tesla ha evitato un incidente in Florida. Una vettura che precedeva una Model 3 frenò e si mise di traverso sulla strada. I sensori della Model 3 reagirono allora con prontezza, bloccando le ruote con una brusca frenata.
Tesla: “La guida autonoma è sicura”
Tesla afferma che la guida autonoma adottata è ”sicura”. L’azienda pubblica rapporti trimestrali con dati molto precisi sul comportamento dei software e delle telecamere sparse intorno alla vettura.
Il problema è che un sistema di machine learning che impara dai suoi errori ha bisogno di una partecipazione costante da parte dei guidatori. Cosa che non sempre accade, poiché, se un utente si vede consegnare una macchina a guida autonoma di livello avanzato, non è disposto a sottoporsi a continue verifiche sul comportamento dell’Autopilot nel traffico reale.
Per altri contenuti iscriviti alla newsletter di Forbes.it QUI.