Laatst bijgewerkt:
Het samenstellen van een pc voor lokale AI is niet hetzelfde als het samenstellen van een pc voor gaming. VRAM en geheugenbandbreedte zijn belangrijker dan kloksnelheden. De hoeveelheid RAM is belangrijker dan RGB-verlichting. En de opslagruimte moet geschikt zijn voor modellen die elk tientallen gigabytes groot kunnen zijn. Hieronder lees je wat er daadwerkelijk het verschil maakt in drie verschillende prijsklassen en wat je op elk daarvan realistisch gezien kunt draaien.
Voordat je onderdelen gaat uitkiezen, is het handig om te weten wat lokale AI-inferentie precies van je hardware vraagt:
Dit is bedoeld voor mensen die lokale AI willen uitproberen zonder hun hele systeem opnieuw te hoeven opzetten. Je draait kleine modellen met 3 tot 7 miljard parameters en je wilt dat die daadwerkelijk werken, zonder voortdurende crashes of wisselen tussen geheugens.
Gekwantiseerde 7B-modellen (zoals Llama 3 8B Q4) passen ruimschoots in 8 GB VRAM en genereren tokens met een bruikbare snelheid. Je kunt ermee chatten, documenten samenvatten en eenvoudige hulp bij het programmeren krijgen. Kleinere 3B-modellen werken vlot.
Bij alles boven 7B stuit je op beperkingen: het model zal een deel van de taken naar de CPU/het RAM-geheugen verplaatsen en merkbaar trager worden. Maar om aan de slag te gaan en de tools (LM Studio, Ollama) onder de knie te krijgen, is dit niveau prima.
Hier begint lokale AI echt nuttig te worden voor praktisch werk. Je kunt modellen van 13 miljard parameters volledig op de GPU draaien, langere contextvensters verwerken en multitasken zonder dat alles tot stilstand komt.
Quantized 13B-modellen draaien volledig in het VRAM, met ruim voldoende ruimte over. Je krijgt een merkbaar betere uitvoerkwaliteit dan bij 7B-modellen: samenhangender antwoorden, betere redeneringen en een betrouwbaardere uitvoering van instructies.
Met gedeeltelijke offloading (sommige lagen op de GPU, de rest in het RAM-geheugen) worden modellen van 70B mogelijk, hoewel ze wel trager zullen zijn. De optie met 64 GB RAM is hier de moeite waard als je met grotere modellen wilt experimenteren.
Dit niveau is geschikt voor de meeste praktische lokale AI-taken: hulp bij het schrijven, programmeren, documentanalyse en het gelijktijdig draaien van meerdere kleinere modellen.
Dit is bedoeld voor mensen die de grootste beschikbare open modellen snel willen uitvoeren, met ruimte voor grote contextvensters en complexe workflows. Denk aan modellen van meer dan 70 miljard parameters die soepel draaien, of meerdere modellen die tegelijkertijd worden geladen.
Afhankelijk van het kwantificatieniveau passen gekwantificeerde 70B-modellen volledig (of bijna volledig) in 24 GB VRAM. Hiermee bereik je een uitvoerkwaliteit die zich kan meten met die van cloud-API’s; het verschil tussen een 13B- en een 70B-model is aanzienlijk.
Met 128 GB systeem-RAM als back-up worden zelfs de grootste geopende modellen toegankelijk via gedeeltelijke offloading. En dankzij de snelle NVMe-opslag duurt het laden van en schakelen tussen modellen slechts enkele seconden, in plaats van minuten.
Op dit niveau draai je AI niet alleen lokaal, maar doe je dat zo goed dat je misschien helemaal geen gebruik meer hoeft te maken van cloud-API’s.
Een paar dingen die belangrijker zijn dan mensen denken:
Koeling:
Voeding:
Luchtstroom in de behuizing:
Opslagsnelheid:
Als je de onderdelenlijst liever overslaat en meteen aan de slag wilt met kant-en-klare modellen, dan zijn de CORSAIR VENGEANCE-gaming-pc’s precies wat je zoekt: ze worden geleverd met alle benodigde hardware, volledig gemonteerd en getest, en voorzien van twee jaar garantie. Hoewel ze speciaal zijn ontworpen voor gaming, zijn de specificaties ook uitstekend geschikt voor lokale AI, met name de duurdere configuraties met veel VRAM en DDR5-geheugen.
Hieronder zie je hoe een deel van de huidige VENGEANCE-opstelling zich verhoudt tot de niveaus in deze gids:
vergelijkbaar met een starter:
Middenwaarde:
Voor liefhebbers:
Elk VENGEANCE-systeem is uitgerust met NVMe-opslag en vloeistofkoeling van CORSAIR, en wordt in de VS geassembleerd. Je krijgt een volledig gemonteerde machine met garantie, zonder dat je je zorgen hoeft te maken over compatibiliteit: installeer gewoon je runner-app, download een model en je kunt aan de slag.
Als u op zoek bent naar een speciaal AI-werkstation, dan is de CORSAIR AI Workstation 300 (AI300) een compact, speciaal ontworpen werkstation dat vanaf de basis is ontwikkeld voor lokale AI.
Het wordt geleverd met een configuratie met veel geheugen die is geoptimaliseerd voor AI-inferentie, grafisch geheugen dat meegroeit met grote modellen, en de CORSAIR AI Software Stack, zodat je direct aan de slag kunt met je modellen in plaats van een weekend te besteden aan het instellen ervan.
PRODUCTEN IN ARTIKEL
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.