BLOG

Välja det bästa DRAM-minnet för AI

Senast uppdaterad:

  Den här sidan har översatts automatiskt av DeepL. Switch to English

I takt med att AI-arbetsbelastningarna blir allt mer krävande är det avgörande att välja rätt DRAM-konfiguration för att förbättra prestandan. Men vad är viktigast, hastighet eller kapacitet? I den här artikeln kommer fem olika DRAM-kit att utvärderas på en gaming/AI-dator för att hitta den bästa DRAM-konfigurationen.

Olika DRAM-konfigurationer kommer att testas med hjälp av Ollama-verktyget, som mäter tokens per sekund och minnesanvändning i tre stora språkmodeller (LLM).

Testinställning

Testplattformen består av:

AI-modeller

Tre LLM:er (Large Language Models) av varierande storlek och med olika minnesbehov utvärderades:

  • Llama 3.2 (3B) - En lättviktsmodell som passar de flesta AI-datorer.
  • Llama 3.1 (8B) - En mellanklassmodell som drar nytta av både hastighet och kapacitet.
  • DeepSeek-R1 (70B) - En stor modell som tänjer på DRAM-gränserna.

Metod för benchmarking

Verktyget Ollama användes för att ladda de olika modellerna. Ollama ger en poäng för tokens / sekund för att mäta inferenshastigheten. Minnesanvändningen spårades för att identifiera hur olika DRAM-konfigurationer hanterar varje modell. De uppmaningar som testades är följande:

  • "Vilka är fördelarna med DDR5 jämfört med DDR4-minne?"
  • "Skriv en novell om en AI-revolution i en värld där människor och maskiner existerar sida vid sida."
  • "Förklara konceptet med neurala nätverk och hur de tränas i enkla ordalag."
  • "Förklara begreppet reinforcement learning och hur det skiljer sig från supervised learning, med exempel."

Slutligen testades Final Fantasy XIV Dawntrail benchmark för att mäta spelprestanda för varje DRAM-konfiguration. Målet är att ta reda på vilken DRAM-konfiguration som kan hantera AI-uppgifter och spel samtidigt utan att kompromissa med prestandan.

Resultat och analys

dd2dcdb7-3e61-4cdf-8de9-58c9a6e10923

Fig,1: Detta diagram visar antalet tokens/sekund för var och en av de DRAM-konfigurationer som testats i olika LLM:er som endast använder CPU.

7880e64e-2639-4fec-a5ba-493f2957a2b6

Fig.2: Prestanda för de testade DRAM-konfigurationerna när LLM:erna körs med RTX 4090. Resultaten är i tokens/sekund.

b4aa9215-4486-4ce7-9928-2da5e50e33e8

Fig.3: Mätning av systemminnesanvändningen under körning av varje LLM. CPU vs CPU och GPU. Resultaten är ungefär i GB.

a2844437-6d97-4179-8d2d-4b58dde4b14d

FFXIV Dawntrail benchmark för var och en av de testade DRAM-konfigurationerna.

Några viktiga observationer resultaten.

32GB- och 48GB-konfigurationer kunde inte passa DeepSeek-R1 (70B)-modellen när endast CPU:n användes. Även när RTX 4090 används är 32 GB DRAM på gränsen när 70b-modellen används.

Den högre hastigheten på 8400 MT/s CUDIMM-kitet överträffar alla andra DRAM-konfigurationer i spel, men även med en RTX 4090 som kör en stor AI-modell finns det inte mycket tillgängligt minne kvar.

Vilken DRAM-kit är bäst för AI?

  • Endast AI-arbetsbelastningar: Det är ganska osannolikt att någon kommer att köra någon LLM utan GPU, så minst ett 64 GB DRAM-kit skulle vara att föredra. Helst är 96 GB DRAM-kit det bästa valet för att vara framtidssäkrad i händelse av att en ännu större LLM kommer att användas.
  • Spel + AI: 8400 MT/s är den självklara vinnaren här. Även om 64GB DRAM-kitet inte är så långt efter i spel och eftersom RTX 4090 ger det extra tillgängliga systemminnet, är detta det föredragna valet här.

Slutsats

För AI-tunga arbetsbelastningar spelar DRAM-kapaciteten en avgörande roll, särskilt med större modeller. För hybridsystem som hanterar både spel och AI är dock optimering av hastighet och latens lika viktigt. När LLM:er kontinuerligt optimeras för olika hårdvara och kraven minskar är det bäst att ha extra minneskapacitet så att en större modell kan köras i systemet för att uppnå mer exakta resultat.

Baserat på de överväganden som beskrivs ovan är det DRAM-kit som ska väljas CMH96GX5M2B7000C40.

PRODUKTER I ARTIKEL

JOIN OUR OFFICIAL CORSAIR COMMUNITIES

Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat the latest PC, tech, and gaming trends, our community is the place for you.