Última actualización:
Montar un ordenador para IA local no es lo mismo que montar uno para juegos. La memoria de vídeo y el ancho de banda de la memoria son más importantes que las velocidades de reloj. La capacidad de la RAM es más importante que el RGB. Y el almacenamiento debe poder albergar modelos que pueden ocupar decenas de gigabytes cada uno. A continuación te explicamos qué es lo que realmente marca la diferencia en tres niveles de presupuesto y qué puedes ejecutar de forma realista en cada uno de ellos.
Antes de elegir los componentes, conviene saber qué requisitos impone realmente la inferencia de IA local a tu hardware:
Esto va dirigido a quienes quieran probar la IA local sin tener que reinstalar todo el sistema. Estás ejecutando modelos pequeños, de entre 3 000 y 7 000 millones de parámetros, y quieres que funcionen de verdad, sin fallos constantes ni cambios de memoria.
Los modelos Quantized 7B (como Llama 3 8B Q4) caben perfectamente en 8 GB de VRAM y generan tokens a una velocidad aceptable. Puedes chatear, resumir documentos y obtener ayuda básica con el código. Los modelos más pequeños, de 3B, te parecerán muy ágiles.
Si superas los 7 000 millones, el modelo se verá limitado y descargará parte de la carga en la CPU y la RAM, lo que provocará una ralentización notable. Sin embargo, para empezar y familiarizarse con las herramientas (LM Studio, Ollama), este nivel es más que suficiente.
Es aquí donde la IA local empieza a resultar realmente útil para el trabajo diario. Puedes ejecutar modelos de 13 000 millones de parámetros íntegramente en la GPU, gestionar ventanas de contexto más largas y realizar varias tareas a la vez sin que el sistema se ralentice.
Los modelos Quantized de 13 000 millones de parámetros se ejecutan íntegramente en la VRAM, con margen de sobra. Se obtiene una calidad de salida notablemente superior a la de los modelos de 7 000 millones de parámetros, respuestas más coherentes, un mejor razonamiento y un cumplimiento más fiable de las instrucciones.
Los modelos de 70 000 millones de parámetros son viables con una descarga parcial (algunas capas en la GPU y el resto en la RAM), aunque serán más lentos. En este caso, merece la pena optar por los 64 GB de RAM si quieres experimentar con modelos más grandes.
Este nivel se encarga de la mayoría de las tareas prácticas de IA locales: asistencia en la redacción, programación, análisis de documentos y ejecución simultánea de varios modelos más pequeños.
Esto está pensado para quienes desean ejecutar a gran velocidad los modelos abiertos más grandes que existen, con capacidad para ventanas de contexto amplias y flujos de trabajo complejos. Piensa en modelos de más de 70 000 millones de parámetros que funcionan con fluidez, o en varios modelos cargados al mismo tiempo.
Los modelos cuantificados de 70 000 millones de parámetros pueden caber por completo (o casi por completo) en 24 GB de VRAM, dependiendo del nivel de cuantificación. Es aquí donde se obtiene una calidad de resultados que rivaliza con las API en la nube; la diferencia entre un modelo de 13 000 millones y uno de 70 000 millones de parámetros es considerable.
Con 128 GB de memoria RAM del sistema como recurso de respaldo, incluso los modelos abiertos más grandes se pueden abrir mediante la descarga parcial. Además, gracias al rápido almacenamiento NVMe, la carga y el cambio entre modelos se realizan en segundos, no en minutos.
En este nivel, no solo estás ejecutando la IA de forma local, sino que lo haces tan bien que es posible que dejes de recurrir por completo a las API en la nube.
Algunas cosas que son más importantes de lo que la gente cree:
Refrigeración:
Fuente de alimentación:
Flujo de aire de la carcasa:
Velocidad de almacenamiento:
Si prefieres saltarte la lista de componentes y pasar directamente a disfrutar de los modelos, los ordenadores para juegos CORSAIR VENGEANCE vienen con el hardware que necesitas ya montado, probado y con una garantía de dos años. Aunque están diseñados para los videojuegos, sus especificaciones también se adaptan perfectamente a la IA local, especialmente las configuraciones de gama alta, que cuentan con abundante VRAM y memoria DDR5.
A continuación se muestra cómo se clasifican algunos de los miembros de la alineación actual de VENGEANCE en los niveles de esta guía:
Equivalente a un motor de arranque:
Equivalente medio:
Equivalente para aficionados:
Todos los sistemas VENGEANCE incluyen almacenamiento NVMe y refrigeración líquida CORSAIR, y se montan en EE. UU. Recibirás un equipo completamente montado y con garantía, sin tener que preocuparte por la compatibilidad: solo tienes que instalar tu aplicación de diseño, descargar un modelo y ponerte manos a la obra.
Si buscas una estación de trabajo específica para IA, la CORSAIR AI Workstation 300 (AI300) es una estación de trabajo compacta y especializada, diseñada desde cero para la IA local.
Viene equipado con una configuración de gran capacidad de memoria optimizada para la inferencia de IA, memoria gráfica escalable para modelos de gran tamaño y el paquete de software CORSAIR AI, para que puedas empezar a ejecutar modelos nada más sacarlo de la caja, en lugar de pasar un fin de semana entero configurándolo.
PRODUCTOS EN EL ARTÍCULO
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.