NVIDIA DGX Spark è un "supercomputer AI" tascabile per la tua scrivania. Basato sul superchip GB10 Grace Blackwell di NVIDIA, è progettato per consentire a sviluppatori e ricercatori di prototipare, mettere a punto ed eseguire inferenze su modelli di IA di grandi dimensioni a livello locale senza dover prenotare tempo su un cluster di data center. Offre fino a 1 petaFLOP (FP4) di prestazioni IA e 128 GB di memoria unificata in un formato compatto, con lo stack software IA di NVIDIA preinstallato.
DGX Spark è stato progettato per la fase "fallo funzionare sulla mia scrivania" dell'IA:
No, DGX Spark è un sistema hardware, mentre Apache Spark è un framework di elaborazione dati distribuito. Il vantaggio è che, se si utilizza Apache Spark, l'acceleratore RAPIDS di NVIDIA per Apache Spark può trasferire parte delle pipeline alla GPU e DGX Spark supporta tale stack.
La pagina ufficiale di NVIDIA dedicata al prodotto DGX Spark si concentra sulle specifiche tecniche e sulle modalità di registrazione, mentre la disponibilità è garantita da NVIDIA e dai suoi partner OEM. NVIDIA ha annunciato che Acer, ASUS, Dell, GIGABYTE, HP, Lenovo e MSI offriranno i sistemi DGX Spark a partire da luglio (la disponibilità varia a seconda delle regioni).
Per quanto riguarda i prezzi, secondo alcune fonti le configurazioni partono da circa 3.999 dollari, anche se i prezzi finali dipendono dall'OEM e dalle opzioni di archiviazione. Alcune pagine di vendita al dettaglio riportano ancora la dicitura "in arrivo", quindi controllate gli elenchi dei partner per conoscere i prezzi e le disponibilità attuali.
Se DGX Spark è il tuo computer da tavolo per lo sviluppo, DGX Station è il potente computer desktop dedicato all'intelligenza artificiale. DGX Station (GB300 Ultra) è pensato per i lavori di addestramento e messa a punto più impegnativi, offrendo fino a ~20 petaFLOP (FP4) e centinaia di gigabyte di memoria unificata. È molto più grande e progettato per team o ambienti di laboratorio condivisi.
Sì, se sei uno sviluppatore di IA, un data scientist o un ricercatore che lavora costantemente su modelli LLM, agenti o modelli multimodali e hai bisogno di tempi di risposta rapidi a livello locale, gestione dei dati privati e uno stack software che si adatti perfettamente al data center o al cloud.
Forse no, se le tue esigenze si limitano al rendering GPU o ai giochi, o se hai già un accesso costante al cluster o al tempo HPC. In tal caso, una workstation tradizionale o i crediti cloud potrebbero essere più convenienti.