La Serie Dojo Svelata: Il Paradosso CFloat – Perché Tesla Ha Scommesso sulla Matematica a 8 Bit in un Mondo a 64 Bit
(c) @tslaming Da oltre un decennio, lo standard d’oro per il supercomputing AI è stato il floating point a 32 bit (FP32). Era la scelta sicura per addestrare reti neurali massive senza errori. Ma Tesla ha fatto qualcosa di sconcertante:…
