HOW TO

Las mejores configuraciones de PC para IA local (niveles básico, intermedio y avanzado)

Última actualización:

  Esta página ha sido traducida automáticamente por DeepL. Switch to English

Montar un ordenador para IA local no es lo mismo que montar uno para juegos. La memoria de vídeo y el ancho de banda de la memoria son más importantes que las velocidades de reloj. La capacidad de la RAM es más importante que el RGB. Y el almacenamiento debe poder albergar modelos que pueden ocupar decenas de gigabytes cada uno. A continuación te explicamos qué es lo que realmente marca la diferencia en tres niveles de presupuesto y qué puedes ejecutar de forma realista en cada uno de ellos.

¿Qué hace que un ordenador sea adecuado para la IA local?

Antes de elegir los componentes, conviene saber qué requisitos impone realmente la inferencia de IA local a tu hardware:

  • Memoria VRAM de la GPU: Este es el factor más importante. Cuanta más memoria VRAM tengas, más grandes serán los modelos que podrás ejecutar íntegramente en la GPU, que es donde se obtiene la mayor velocidad.
  • Memoria RAM del sistema: si un modelo no cabe en la VRAM, se traslada a la memoria RAM del sistema. Cuanta más memoria RAM tengas, podrás seguir ejecutando modelos más grandes, aunque a menor velocidad.
  • Ancho de banda de memoria: la velocidad a la que se transfieren los datos entre la memoria y el procesador influye directamente en la velocidad de generación de tokens. El ancho de banda de la memoria de la GPU suele ser entre 10 y 20 veces más rápido que el de la RAM del sistema.
  • Almacenamiento: Los modelos pueden ocupar entre 4 y más de 50 GB cada uno. Es recomendable disponer de un almacenamiento rápido (SSD NVMe) para que la carga de los modelos no tarde una eternidad.
  • CPU: No es tan importante como cabría pensar para la inferencia, pero una CPU moderna y potente garantiza un funcionamiento fluido y gestiona bien los casos en los que solo se utiliza la CPU.

Nivel inicial: da tus primeros pasos

Esto va dirigido a quienes quieran probar la IA local sin tener que reinstalar todo el sistema. Estás ejecutando modelos pequeños, de entre 3 000 y 7 000 millones de parámetros, y quieres que funcionen de verdad, sin fallos constantes ni cambios de memoria.

¿Cuál es el objetivo?

  • GPU: 8 GB de VRAM (por ejemplo, RTX 5060 o similar)
  • RAM: 16-32 GB DDR4/DDR5
  • Almacenamiento: SSD NVMe de 500 GB a 1 TB
  • CPU: Procesador moderno de 6 núcleos o superior (por ejemplo, Intel Core Ultra 5 235, AMD Ryzen 5 9600X)
  • Fuente de alimentación: 550–650 W, 80+ Bronze o superior

Lo que puedes ejecutar

Los modelos Quantized 7B (como Llama 3 8B Q4) caben perfectamente en 8 GB de VRAM y generan tokens a una velocidad aceptable. Puedes chatear, resumir documentos y obtener ayuda básica con el código. Los modelos más pequeños, de 3B, te parecerán muy ágiles.

Si superas los 7 000 millones, el modelo se verá limitado y descargará parte de la carga en la CPU y la RAM, lo que provocará una ralentización notable. Sin embargo, para empezar y familiarizarse con las herramientas (LM Studio, Ollama), este nivel es más que suficiente.

corsair vengeance a7400 pre built gaming PC

Nivel medio: IA local avanzada

Es aquí donde la IA local empieza a resultar realmente útil para el trabajo diario. Puedes ejecutar modelos de 13 000 millones de parámetros íntegramente en la GPU, gestionar ventanas de contexto más largas y realizar varias tareas a la vez sin que el sistema se ralentice.

¿Cuál es el objetivo?

  • GPU: 12-16 GB de VRAM (por ejemplo, RTX 5070 Ti o similar)
  • RAM: 32-64 GB DDR5
  • Almacenamiento: SSD NVMe de 1–2 TB
  • CPU: Procesador moderno de 8 núcleos o superior (por ejemplo, Intel Core Ultra 7 265K, AMD Ryzen 7 9700X)
  • Fuente de alimentación: 750 W, 80+ Gold
Vengeance_a7300_11_import

Lo que puedes ejecutar

Los modelos Quantized de 13 000 millones de parámetros se ejecutan íntegramente en la VRAM, con margen de sobra. Se obtiene una calidad de salida notablemente superior a la de los modelos de 7 000 millones de parámetros, respuestas más coherentes, un mejor razonamiento y un cumplimiento más fiable de las instrucciones.

Los modelos de 70 000 millones de parámetros son viables con una descarga parcial (algunas capas en la GPU y el resto en la RAM), aunque serán más lentos. En este caso, merece la pena optar por los 64 GB de RAM si quieres experimentar con modelos más grandes.

Este nivel se encarga de la mayoría de las tareas prácticas de IA locales: asistencia en la redacción, programación, análisis de documentos y ejecución simultánea de varios modelos más pequeños.

Nivel para entusiastas: sin concesiones

Esto está pensado para quienes desean ejecutar a gran velocidad los modelos abiertos más grandes que existen, con capacidad para ventanas de contexto amplias y flujos de trabajo complejos. Piensa en modelos de más de 70 000 millones de parámetros que funcionan con fluidez, o en varios modelos cargados al mismo tiempo.

¿Cuál es el objetivo?

  • GPU: 24 GB o más de VRAM (por ejemplo, RTX 3090, RTX 4090, RTX 5090) o dos GPU si tus herramientas lo admiten
  • RAM: 64–128 GB DDR5
  • Almacenamiento: SSD NVMe de 2 a 4 TB (considera la posibilidad de utilizar una unidad dedicada exclusivamente para los modelos)
  • CPU: Procesador moderno de 16 a 24 núcleos (por ejemplo, Intel Core Ultra 9 285K, AMD Ryzen 9 9950X3D)
  • Fuente de alimentación: 1000 W o más, 80+ Gold o Platinum

Lo que puedes ejecutar

Los modelos cuantificados de 70 000 millones de parámetros pueden caber por completo (o casi por completo) en 24 GB de VRAM, dependiendo del nivel de cuantificación. Es aquí donde se obtiene una calidad de resultados que rivaliza con las API en la nube; la diferencia entre un modelo de 13 000 millones y uno de 70 000 millones de parámetros es considerable.

Con 128 GB de memoria RAM del sistema como recurso de respaldo, incluso los modelos abiertos más grandes se pueden abrir mediante la descarga parcial. Además, gracias al rápido almacenamiento NVMe, la carga y el cambio entre modelos se realizan en segundos, no en minutos.

En este nivel, no solo estás ejecutando la IA de forma local, sino que lo haces tan bien que es posible que dejes de recurrir por completo a las API en la nube.

geforce-rtx-5090

No te los pierdas

Algunas cosas que son más importantes de lo que la gente cree:

Refrigeración:

  • Las GPU se calientan mucho cuando se someten a cargas continuas de inferencia de IA. Una carcasa con una buena ventilación marca una gran diferencia; más información al respecto a continuación.
  • En cuanto a las CPU, un disipador de calidad garantiza la estabilidad del sistema; un modelo como el CORSAIR iCUE LINK TITAN RX RGB de 360 mm será capaz de soportar cargas prolongadas.

Fuente de alimentación:

  • Una fuente de alimentación fiable con suficiente margen evita los fallos durante cargas pesadas de inferencia. No escatimes en esto. La CORSAIR RMx RM1000x es una excelente opción versátil para la mayoría de los montajes, y la HX1500i es la mejor opción si tienes un equipo para entusiastas que consume mucha energía.

Flujo de aire de la carcasa:

  • Tu sistema funcionará a plena carga durante periodos más prolongados, por lo que una buena ventilación es fundamental para garantizar su durabilidad. La CORSAIR FRAME 4000D te ofrece una ventilación eficaz en una torre media; si necesitas espacio para radiadores más grandes y mayor capacidad de almacenamiento, opta por la FRAME 5000D.

Velocidad de almacenamiento:

  • Cargar un modelo de 30 GB desde un disco duro (HDD) en comparación con un SSD NVMe supone una diferencia de entre un minuto y unos pocos segundos. Si sueles probar diferentes modelos con frecuencia, un almacenamiento rápido te ahorrará mucho tiempo. El CORSAIR MP700 PRO ofrece velocidades de Gen5 para cargar los modelos con la máxima rapidez, mientras que el MP600 ELITE es una excelente opción de Gen4 que no te costará un ojo de la cara.
RMx_SERIES_2021_RM1000x_Artboard01_AA
MP700 PRO
corsair frame 5000d (1)

Ordenadores preconfigurados CORSAIR VENGEANCE

Si prefieres saltarte la lista de componentes y pasar directamente a disfrutar de los modelos, los ordenadores para juegos CORSAIR VENGEANCE vienen con el hardware que necesitas ya montado, probado y con una garantía de dos años. Aunque están diseñados para los videojuegos, sus especificaciones también se adaptan perfectamente a la IA local, especialmente las configuraciones de gama alta, que cuentan con abundante VRAM y memoria DDR5.

A continuación se muestra cómo se clasifican algunos de los miembros de la alineación actual de VENGEANCE en los niveles de esta guía:

Equivalente a un motor de arranque:

Equivalente medio:

Equivalente para aficionados:

Todos los sistemas VENGEANCE incluyen almacenamiento NVMe y refrigeración líquida CORSAIR, y se montan en EE. UU. Recibirás un equipo completamente montado y con garantía, sin tener que preocuparte por la compatibilidad: solo tienes que instalar tu aplicación de diseño, descargar un modelo y ponerte manos a la obra.

CORSAIR_VENGEANCE_a7500_AIR_RENDER_01

CORSAIR AI300

Si buscas una estación de trabajo específica para IA, la CORSAIR AI Workstation 300 (AI300) es una estación de trabajo compacta y especializada, diseñada desde cero para la IA local.

corsair-ai-workstation-300

Viene equipado con una configuración de gran capacidad de memoria optimizada para la inferencia de IA, memoria gráfica escalable para modelos de gran tamaño y el paquete de software CORSAIR AI, para que puedas empezar a ejecutar modelos nada más sacarlo de la caja, en lugar de pasar un fin de semana entero configurándolo.

PRODUCTOS EN EL ARTÍCULO

JOIN OUR OFFICIAL CORSAIR COMMUNITIES

Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.