Sidst opdateret:
At samle en pc til lokal AI er ikke det samme som at samle en til gaming. VRAM og hukommelsesbåndbredde er vigtigere end klokfrekvenser. RAM-kapacitet er vigtigere end RGB. Og lagerpladsen skal kunne rumme modeller, der hver kan fylde flere titusinder af gigabyte. Her er, hvad der rent faktisk gør en forskel på de tre prisniveauer, og hvad du realistisk set kan køre på hvert af dem.
Før du vælger komponenter, er det en god idé at vide, hvilke krav den lokale AI-inferens rent faktisk stiller til din hardware:
Dette er til dig, der gerne vil prøve lokal AI uden at skulle geninstallere hele systemet. Du kører små modeller med 3 til 7 milliarder parametre og ønsker, at de rent faktisk fungerer uden konstante nedbrud eller udskiftning.
Kvantiserede 7B-modeller (som f.eks. Llama 3 8B Q4) passer nemt ind i 8 GB VRAM og genererer tokens med en brugbar hastighed. Du kan chatte, sammenfatte dokumenter og få hjælp til grundlæggende kodning. Mindre 3B-modeller vil føles hurtige.
Du vil støde på begrænsninger ved alt over 7B, hvor modellen delvist vil udlægge opgaver til CPU/RAM og blive mærkbart langsommere. Men til at komme i gang og lære værktøjerne at kende (LM Studio, Ollama) er dette niveau helt fint.
Det er her, lokal AI virkelig begynder at føles nyttig i det daglige arbejde. Du kan køre modeller på 13 milliarder parametre udelukkende på GPU'en, håndtere længere kontekstvinduer og udføre flere opgaver samtidigt, uden at det hele går i stå.
Quantized 13B-modeller kører udelukkende i VRAM med masser af ledig plads. Du får en mærkbart bedre outputkvalitet end med 7B-modeller, mere sammenhængende svar, bedre ræsonnement og mere pålidelig efterlevelse af instruktioner.
70B-modeller kan køre ved delvis aflastning (nogle lag på GPU'en, resten i RAM), men de vil være langsommere. Her er 64 GB RAM en god investering, hvis du vil eksperimentere med større modeller.
Dette niveau håndterer de fleste praktiske lokale AI-opgaver: skrivehjælp, kodning, dokumentanalyse og kørsel af flere mindre modeller sideløbende.
Dette er til dem, der ønsker at køre de største tilgængelige åbne modeller med høj hastighed, med plads til store kontekstvinduer og komplekse arbejdsgange. Tænk på modeller på over 70 milliarder parametre, der kører problemfrit, eller flere modeller, der indlæses samtidigt.
Kvantiserede 70B-modeller kan, afhængigt af kvantiseringsniveauet, rummes helt (eller næsten helt) i 24 GB VRAM. Her opnår man en outputkvalitet, der kan måle sig med cloud-API'er – forskellen mellem en 13B- og en 70B-model er betydelig.
Med 128 GB system-RAM som reserve bliver selv de største åbne modeller tilgængelige via delvis aflastning. Og takket være den hurtige NVMe-lagerplads tager det kun sekunder – ikke minutter – at indlæse og skifte mellem modellerne.
På dette niveau kører du ikke blot AI lokalt – du kører det så effektivt, at du måske helt undgår at bruge cloud-API'er.
Nogle ting, der betyder mere, end man skulle tro:
Køling:
Strømforsyning:
Luftstrøm i kabinettet:
Lagringshastighed:
Hvis du hellere vil springe komponentlisten over og gå direkte til at køre spil, leveres CORSAIR VENGEANCE-gaming-pc'er med den nødvendige hardware, der allerede er samlet og testet, og som er dækket af en toårig garanti. Selvom de er bygget til gaming, er specifikationerne også velegnede til lokal AI, især de højere konfigurationer med masser af VRAM og DDR5-hukommelse.
Her kan du se, hvordan nogle af de nuværende VENGEANCE-opstillinger passer ind i niveauerne i denne guide:
Svarende til en starter:
Mellemværdien:
Tilsvarende for entusiaster:
Alle VENGEANCE-systemer leveres med NVMe-lagerplads og CORSAIR-væskekøling og er samlet i USA. Du får en færdigmonteret maskine med garanti, så du slipper for at bekymre dig om kompatibilitet – du skal bare installere din løbeapp, downloade en rute og komme i gang.
Hvis du er på udkig efter en dedikeret AI-arbejdsstation, er CORSAIR AI Workstation 300 (AI300) en kompakt, specialudviklet arbejdsstation, der fra bunden er designet til lokal AI.
Den leveres med en konfiguration med stor hukommelse, der er optimeret til AI-inferens, grafikhukommelse, der kan skaleres til store modeller, samt CORSAIR AI Software Stack, så du kan komme i gang med at køre modeller med det samme i stedet for at bruge en hel weekend på opsætning.
PRODUKTER I ARTIKEL
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.