NVIDIA DGX Spark ist ein winziger „KI-Supercomputer“ für Ihren Schreibtisch. Er basiert auf dem GB10 Grace Blackwell Superchip von NVIDIA und wurde entwickelt, damit Entwickler und Forscher lokal Prototypen erstellen, Feinabstimmungen vornehmen und Inferenzberechnungen für große KI-Modelle durchführen können, ohne Zeit auf einem Rechenzentrumscluster reservieren zu müssen. Er bietet bis zu 1 PetaFLOP (FP4) KI-Leistung und 128 GB einheitlichen Speicher in einem kompakten Formfaktor, wobei die KI-Software von NVIDIA bereits vorinstalliert ist.
DGX Spark wurde für die Phase der KI entwickelt, in der es darum geht, „es auf meinem Schreibtisch zum Laufen zu bringen“:
Nein, DGX Spark ist ein Hardwaresystem, während Apache Spark ein verteiltes Datenverarbeitungsframework ist. Das Schöne daran ist, dass Sie bei Verwendung von Apache Spark mit dem RAPIDS Accelerator für Apache Spark von NVIDIA Teile Ihrer Pipelines auf die GPU auslagern können und DGX Spark diesen Stack unterstützt.
Die offizielle Produktseite von NVIDIA für DGX Spark konzentriert sich auf Spezifikationen und Anmeldungen, während die Verfügbarkeit über NVIDIA und Partner-OEMs erfolgt. NVIDIA gab bekannt, dass Acer, ASUS, Dell, GIGABYTE, HP, Lenovo und MSI DGX Spark-Systeme anbieten werden, die ab Juli verfügbar sein werden (die regionale Markteinführung variiert).
Was die Preise angeht, so deuten Berichte auf Konfigurationen ab etwa 3.999 US-Dollar hin, wobei die endgültigen Preise vom OEM und den Speicheroptionen abhängen. Einige Einzelhandelsseiten zeigen noch immer „in Kürze erhältlich“, daher sollten Sie die Partnerlisten auf aktuelle Preise und Lagerbestände überprüfen.
Wenn DGX Spark Ihre Entwicklungsplattform für den Schreibtisch ist, dann ist DGX Station das leistungsstarke Desktop-KI-System. DGX Station (GB300 Ultra) ist für anspruchsvollste Trainings- und Feinabstimmungsaufgaben ausgelegt und bietet bis zu ~20 PetaFLOPs (FP4) und Hunderte Gigabyte einheitlichen Speicher. Es ist wesentlich größer und für Teams oder gemeinsam genutzte Laborumgebungen konzipiert.
Ja, wenn Sie ein KI-Entwickler, Datenwissenschaftler oder Forscher sind, der ständig an LLMs, Agenten oder multimodalen Modellen arbeitet und schnelle lokale Durchlaufzeiten, den Umgang mit privaten Daten und einen Software-Stack benötigt, der sich sauber auf das Rechenzentrum oder die Cloud abbilden lässt.
Vielleicht nicht, wenn Ihre Anforderungen sich auf GPU-Rendering oder Gaming beschränken oder wenn Sie bereits über einen stabilen Zugang zu Cluster- oder HPC-Zeit verfügen. In diesem Fall könnten eine herkömmliche Workstation oder Cloud-Credits kostengünstiger sein.