NVIDIA DGX Spark to niewielki „superkomputer AI” na biurko. Zbudowany w oparciu o superchip GB10 Grace Blackwell firmy NVIDIA, został zaprojektowany, aby umożliwić programistom i badaczom tworzenie prototypów, dostosowywanie i uruchamianie wnioskowania na dużych modelach AI lokalnie, bez konieczności rezerwowania czasu w klastrze centrum danych. Oferuje do 1 petaFLOP (FP4) wydajności AI i 128 GB zunifikowanej pamięci w kompaktowej obudowie, z preinstalowanym oprogramowaniem AI firmy NVIDIA.
DGX Spark został stworzony z myślą o fazie AI „zrób to na moim biurku”:
Nie, DGX Spark to system sprzętowy, natomiast Apache Spark to rozproszona platforma przetwarzania danych. Zaletą jest to, że jeśli korzystasz z Apache Spark, akcelerator NVIDIA RAPIDS dla Apache Spark może przenieść część procesów do procesora graficznego, a DGX Spark obsługuje tę platformę.
Oficjalna strona produktu NVIDIA poświęcona DGX Spark skupia się na specyfikacji i rejestracji, natomiast dostępność produktu zależy od NVIDIA i partnerów OEM. NVIDIA ogłosiła, że firmy Acer, ASUS, Dell, GIGABYTE, HP, Lenovo i MSI będą oferować systemy DGX Spark, a ich dostępność rozpocznie się w lipcu (w zależności od regionu).
Jeśli chodzi o ceny, raporty sugerują, że konfiguracje będą dostępne już od około 3999 USD, choć ostateczne ceny zależą od producenta OEM i opcji pamięci masowej. Niektóre strony detaliczne nadal wyświetlają komunikat „wkrótce w sprzedaży”, więc aktualne ceny i stan magazynowy należy sprawdzić w ofertach partnerów.
Jeśli DGX Spark to Twoje biurkowe urządzenie programistyczne, to DGX Station jest potężnym komputerem stacjonarnym z funkcją sztucznej inteligencji. DGX Station (GB300 Ultra) jest przeznaczony do najbardziej wymagających zadań związanych ze szkoleniem i dostrajaniem, zapewniając wydajność do około 20 petaFLOPów (FP4) i setki gigabajtów zunifikowanej pamięci. Jest znacznie większy i przeznaczony dla zespołów lub wspólnych środowisk laboratoryjnych.
Tak, jeśli jesteś programistą AI, analitykiem danych lub badaczem, który nieustannie pracuje nad modelami LLM, agentami lub modelami multimodalnymi i potrzebujesz szybkiej lokalnej obsługi, prywatnego przetwarzania danych oraz stosu oprogramowania, który można łatwo zmapować do centrum danych lub chmury.
Być może nie, jeśli Twoje potrzeby ograniczają się do renderowania GPU lub gier, lub jeśli masz już stały dostęp do klastra lub czasu HPC. W takim przypadku bardziej opłacalne może być tradycyjne stanowisko robocze lub kredyty w chmurze.