NVIDIA DGX Spark es un «superordenador de IA» de tamaño reducido para tu escritorio. Basado en el superchip GB10 Grace Blackwell de NVIDIA, está diseñado para permitir a los desarrolladores e investigadores crear prototipos, ajustar y ejecutar inferencias en grandes modelos de IA de forma local sin necesidad de reservar tiempo en un clúster de centro de datos. Ofrece hasta 1 petaFLOP (FP4) de rendimiento de IA y 128 GB de memoria unificada en un formato compacto, con la pila de software de IA de NVIDIA preinstalada.
DGX Spark está diseñado para la fase «hacerlo funcionar en mi escritorio» de la IA:
No, DGX Spark es un sistema de hardware, mientras que Apache Spark es un marco de procesamiento de datos distribuido. Lo bueno es que, si utilizas Apache Spark, el acelerador RAPIDS de NVIDIA para Apache Spark puede descargar parte de tus procesos a la GPU, y DGX Spark es compatible con esa pila.
La página oficial de productos de NVIDIA para DGX Spark se centra en las especificaciones y las inscripciones, mientras que la disponibilidad se gestiona a través de NVIDIA y sus socios OEM. NVIDIA ha anunciado que Acer, ASUS, Dell, GIGABYTE, HP, Lenovo y MSI ofrecerán sistemas DGX Spark, cuya disponibilidad comenzará en julio (el lanzamiento regional varía).
En cuanto al precio, los informes sugieren configuraciones a partir de unos 3999 dólares, aunque los precios finales dependen del fabricante y las opciones de almacenamiento. Algunas páginas minoristas aún muestran «próximamente», así que consulte los listados de los socios para conocer los precios y el stock actuales.
Si DGX Spark es su caja de desarrollo de escritorio, DGX Station es la potente estación de trabajo de IA. DGX Station (GB300 Ultra) está diseñada para las tareas de entrenamiento y ajuste más exigentes, y ofrece hasta ~20 petaFLOPs (FP4) y cientos de gigabytes de memoria unificada. Es mucho más grande y está diseñada para equipos o entornos de laboratorio compartidos.
Sí, si eres desarrollador de IA, científico de datos o investigador que trabaja constantemente con modelos de lenguaje grande (LLM), agentes o modelos multimodales y necesitas una respuesta local rápida, un manejo privado de los datos y una pila de software que se adapte perfectamente al centro de datos o la nube.
Quizás no, si tus necesidades se limitan al renderizado con GPU o a los videojuegos, o si ya tienes acceso constante a un clúster o a tiempo de HPC. En ese caso, una estación de trabajo tradicional o créditos en la nube podrían ser más rentables.