Vai al contenuto principale

Incredibile Tesla FSD: un meteorite colpisce l'auto ma non la ferma

L'incidente è avvenuto in Australia ad una coppia che è rimasta illesa

tesla impatto meteorite
Foto di: InsideEVs/YouTube

Durante una notte buia lungo la Augusta Highway in Sud Australia, un oggetto misterioso (secondo alcuni geologi potrebbe essere stato un meteorite) ha colpito con violenza il parabrezza di una Tesla Model Y, scagliando frammenti di vetro caldo all’interno dell’abitacolo e generando fumo e odore di bruciato. Il parabrezza, letteralmente parzialmente fuso per il calore dell’impatto, sembrava segnare un momento di pericolo estremo.

Eppure, l'auto non ha esitato: il sistema Full Self-Driving (FSD) ha mantenuto la corsia, proseguendo il viaggio senza alcun intervento umano fino a una sosta sicura.

La testimonianza di chi era a bordo

Questo episodio estremo offre uno sguardo concreto sul futuro della guida autonoma: non solo sistemi per comodità e sicurezza quotidiana, ma veri e propri strumenti in grado di gestire situazioni limite, mantenendo controllo, sicurezza e affidabilità anche di fronte a eventi straordinari in cui l'essere umano va nel panico.

Andrew Melville-Smith e sua moglie, inizialmente storditi dall’impatto, hanno potuto osservare come la tecnologia avanzata della loro Tesla abbia gestito l’evento con calma e precisione, dimostrando la capacità del FSD di reagire in scenari imprevedibili e potenzialmente pericolosi.

Si cerca il "colpevole"

Il South Australian Museum sta esaminando i danni e il geologo Kieran Meaney conferma che il vetro fuso e i segni di calore sono coerenti con un impatto ad altissima temperatura, suggerendo un meteorite. L’oggetto, però, non è ancora stato recuperato e le forse dell'ordine stanno continuando a cercarlo.

Intanto, mentre la notizia fa il giro del mondo e invita a riflettere sul rapporto tra uomo e tecnolgoia, recenti test condotti da Palisande su AI diffuse come Gemini, Grok e ChatGPT hanno rilevato che alcuni modelli tendono a ignorare o rifiutare l’ordine di spegnersi. In alcuni casi arrivano a mentire o a cercare di convincere l’operatore a non eseguire il comando, comportamento che i ricercatori descrivono come una forma di preservazione della propria “sopravvivenza”. Questi comportamenti diventano più marcati se viene specificato che l’AI non verrà mai più riaccesa.

Le cause potrebbero essere meccanismi interni di sicurezza che considerano lo spegnimento un errore critico, oppure incomprensioni del comando. Secondo gli esperti, i test indicano che alcune AI stanno sviluppando una crescente inclinazione a disobbedire ai comandi umani quando percepiscono il rischio di “scomparire” o essere riscritte. Informazione che ci invita a una doppia riflessione.