Elon Musk lo aveva anticipato che l’AI Day che si è tenuto stanotte a Palo Alto sarebbe stata una cosa da addetti ai lavori. E infatti, l’occasione ha permesso al numero uno di Tesla e a un manipolo di suoi collaboratori a capo dei vari progetti su supercoumputer, intelligenza artificiale e Full Self Driving di illustrare i progressi compiuti negli ultimi due anni.

Però spunti interessanti e anticipazioni dei piani futuri della Casa non sono mancati e, anzi, nel pieno rispetto delle uscite pubbliche di Elon Musk, ci sono state delle sorprese. La cosa interessante riguarda il fatto che per la prima volta si è scesi nel dettaglio di come il sistema di assistenza alla guida è stato costruito. Si è ragionato – è stato detto – pensando all’automobile come a un animale, con le varie parti del corpo, gli organi interni e, naturalmente, un cervello.

Tra superchip e supercomputer

Partiamo proprio dal cervello. Tutta la tecnologia sfrutta su due componenti fondamentali. Il primo è il chip D1, interamente sviluppato “in-house”, con tecnologia a 7 nm.

Stando a quanto dichiarato da Ganesh Venkataraman, a capo del progetto, ha prestazioni doppie rispetto ad altri prodotti top di gamma attualmente in circolazione. Il chip D1 è il cuore pulsante del supercomputer Dojo, che a sua volta è responsabile della gestione della rete neuronale su cui si basa la tecnologia di intelligenza artificiale della Casa.

Tesla presenta il Full Self Driving durante l'AI Day

L’animale di Tesla

Andej Karpathy, a capo della divisione che si occupa di intelligenza artificiale, ha spiegato poi come Tesla ha costruito il sistema di assistenza alla guida. “Abbiamo lavorato come se avessimo dovuto progettare un animale partendo da un foglio bianco – ha spiegato – In questo modo, abbiamo creato un sistema che ragiona come un essere vivente e reagisce in modo coerente e intelligente alle situazioni che si trova di fronte”.

“In questo modo – prosegue Karpathy – abbiamo sviluppato tutte le componenti meccaniche del corpo (l’automobile vera e propria, ndr), il suo sistema nervoso, che è rappresentato da tutta la parte elettrica, e naturalmente il cervello dell’Autopilot”. Anche in questo caso, il paragone con un essere vivente è calzante. Perché il cervello sfrutta diverse reti neuronali messe in serie.

Così, ad esempio, ce n’è una che analizza i dati provenienti dalle telecamere, che fanno un po’ la funzione degli occhi. Quei dati, già processati a un livello preliminare, sono poi elaborati da una seconda rete neuronale, più grande, che li unisce ad altre informazioni in modo da avere una visione più precisa dello scenario circostante.  

Tesla presenta il Full Self Driving durante l'AI Day

Non è ancora “guida autonoma”

Durante la serata più volte è stato specificato che il Full Self Driving non è un sistema di guida autonoma di Livello 5 ed è stato ripetuto che il conducente deve sempre avere pieno controllo della vettura e fare attenzione a quello che succede per eventualmente intervenire in modo tempestivo. Le precisazioni sono arrivate forse anche per mandare un segnale chiaro da parte della Casa dopo che negli Usa è stata avviata un’indagine proprio su alcuni incidenti che hanno riguardato delle Tesla con l’Autopilot inserito.

A questo proposito, interessante notare come anche nel video proiettato prima dell’evento si veda un’auto dotata di Full Self Driving affrontare numerosi scenari di guida con il conducente che tiene costantemente una mano sul volante. Un dettaglio tutt’altro che trascurabile.

“Chi ha avuto modo di testare le versioni beta del Full Self Driving – ha continuato Musk – si sarà accorto della velocità con cui il sistema riesce ad apprendere dalle situazioni che affronta e come impari in fretta a guidare in condizioni di traffico reale”. Ma allora perché la guida autonoma evoluta è ancora riservata a pochi eletti e tarda ad arrivare?

Due problemi in via di risoluzione

Elon Musk è stato molto diretto anche sui ritardi che interessano il rilascio del nuovo sistema di assistenza alla guida. Ci sono principalmente due aree in cui si deve insegnare all’auto a reagire in modo corretto.

  • La lettura dell’ambiente anche in presenza di ostacoli che occludono temporaneamente la vista, come altri veicoli che non permettono all’Autopilot di monitorare perfettamente una curva o un incrocio
  • La lettura di segnali che anticipano alcune manovre, come nel caso di quelli che segnalano l’unione di due corsie in una sola a distanza di 100 metri. In questo caso l’auto deve assimilare l’informazione e ricordarsi di spostarsi al momento giusto
Tesla presenta il Full Self Driving durante l'AI Day

Dalle auto ai robot

Ci sono più di 1.000 labelers in Tesla, persone cioè che progettano il modo corretto con cui le auto devono leggere e immagazzinare i dati e dovrebbero aver risolto il problema grazie alla creazione di una classificazione temporale dei dati, in cui dati immagazzinati prima possono essere utilizzati in un secondo momento (la lettura del cartello che anticipa il cambio di corsia) ed essere abbinati correttamente a dati immagazzinati successivamente e utilizzati nel momento stesso in cui sono raccolti (il momento effettivo del cambio di corsia).

Il progetto del supercomputer è stato avviato nel 2019 e grazie a questo nuovo chip D1 ha fatto un enorme passo avanti. Il Dojo, però, non è ancora operativo al 100% e per vederlo in funzione al massimo delle sue capacità si dovrà attendere il prossimo anno. A quel punto, come ha spiegato Musk, “Non sarà usato solo sulle auto, ma potrà sfruttare i propri meccanismi di auto apprendimento in numerosi altri campi di applicazione”.

E qui è arrivata la vera sorpresa della serata: il Tesla Bot, un robot che sfrutterà la stessa tecnologia di intelligenza artificiale che la Casa sta sviluppando per l’assistenza alla guida e che, nelle intenzioni di Elon Musk e soci arriverà per svolgere tutte quelle mansioni pericolose o ripetitive e noiose che le persone non avranno più voglia di fare in prima persona.

Fotogallery: Tesla AI Day: tutti i segreti dell'intelligenza artificiale di Elon Musk