HOW TO

Die besten PC-Konfigurationen für lokale KI (Einsteiger-, Mittelklasse- und Enthusiasten-Klassen)

Letzte Aktualisierung:

  Diese Seite wurde automatisch übersetzt von DeepL. Switch to English

Einen PC für lokale KI zusammenzustellen ist nicht dasselbe wie einen für Spiele. VRAM und Speicherbandbreite sind wichtiger als Taktraten. Die RAM-Kapazität ist wichtiger als RGB-Beleuchtung. Und der Speicher muss Modelle bewältigen können, die jeweils mehrere zehn Gigabyte groß sein können. Hier erfährst du, worauf es in den drei Preisklassen tatsächlich ankommt und was du auf jeder davon realistisch ausführen kannst.

Was macht einen PC für lokale KI geeignet?

Bevor man sich für bestimmte Komponenten entscheidet, ist es hilfreich zu wissen, welche Anforderungen die lokale KI-Inferenz tatsächlich an die Hardware stellt:

  • GPU-VRAM: Dies ist der mit Abstand wichtigste Faktor. Je mehr VRAM Sie haben, desto größere Modelle können Sie vollständig auf der GPU ausführen – und genau dort erzielen Sie die höchste Geschwindigkeit.
  • System-RAM: Wenn ein Modell nicht in den VRAM passt, wird es in den System-RAM ausgelagert. Mehr RAM bedeutet, dass Sie auch größere Modelle ausführen können, allerdings langsamer.
  • Speicherbandbreite: Die Geschwindigkeit, mit der Daten zwischen Speicher und Prozessor übertragen werden, wirkt sich direkt auf die Geschwindigkeit der Token-Generierung aus. Die Speicherbandbreite der GPU ist in der Regel 10- bis 20-mal höher als die des System-RAM.
  • Speicher: Die Modelle können jeweils 4 bis über 50 GB groß sein. Sie benötigen schnellen Speicher (NVMe-SSD), damit das Laden der Modelle nicht ewig dauert.
  • CPU: Für die Inferenz spielt sie eine geringere Rolle, als man meinen würde, doch eine leistungsstarke, moderne CPU sorgt für einen reibungslosen Ablauf und bewältigt den Fallback auf reine CPU-Verarbeitung gut.

Einsteiger-Stufe: Mach erste Erfahrungen

Dies richtet sich an alle, die lokale KI ausprobieren möchten, ohne ihr gesamtes System neu aufsetzen zu müssen. Sie verwenden kleine Modelle mit 3 bis 7 Milliarden Parametern und möchten, dass diese tatsächlich funktionieren, ohne ständig abzustürzen oder in den Arbeitsspeicher ausgelagert zu werden.

Was man anstreben sollte

  • GPU: 8 GB VRAM (z. B. RTX 5060 oder ähnlich)
  • RAM: 16–32 GB DDR4/DDR5
  • Speicher: 500 GB – 1 TB NVMe-SSD
  • CPU: Moderner 6-Kern-Prozessor oder besser (z. B. Intel Core Ultra 5 235, AMD Ryzen 5 9600X)
  • Netzteil: 550–650 W, 80+ Bronze oder besser

Was Sie ausführen können

Quantisierte 7B-Modelle (wie Llama 3 8B Q4) passen problemlos in 8 GB VRAM und generieren Token mit einer brauchbaren Geschwindigkeit. Sie können chatten, Dokumente zusammenfassen und grundlegende Code-Unterstützung nutzen. Kleinere 3B-Modelle laufen flüssig.

Bei Werten über 7B stößt man an Grenzen: Das Modell wird teilweise auf CPU und RAM ausgelagert und wird spürbar langsamer. Für den Einstieg und zum Kennenlernen der Tools (LM Studio, Ollama) ist diese Stufe jedoch gut geeignet.

corsair vengeance a7400 pre built gaming PC

Mittlere Stufe: Hochentwickelte lokale KI

Hier zeigt sich, wie nützlich lokale KI bei der praktischen Arbeit tatsächlich sein kann. Man kann 13-Milliarden-Modelle vollständig auf der GPU ausführen, längere Kontextfenster verarbeiten und mehrere Aufgaben gleichzeitig erledigen, ohne dass das System ins Stocken gerät.

Was man anstreben sollte

  • GPU: 12–16 GB VRAM (z. B. RTX 5070 Ti oder vergleichbar)
  • RAM: 32–64 GB DDR5
  • Speicher: 1–2 TB NVMe-SSD
  • CPU: Moderner 8-Kern-Prozessor oder besser (z. B. Intel Core Ultra 7 265K, AMD Ryzen 7 9700X)
  • Netzteil: 750 W, 80+ Gold
Vengeance_a7300_11_import

Was Sie ausführen können

Quantisierte 13B-Modelle laufen vollständig im VRAM, wobei noch reichlich Speicherplatz übrig bleibt. Man erhält eine spürbar bessere Ausgabequalität als bei 7B-Modellen, kohärentere Antworten, eine bessere Argumentation und eine zuverlässigere Befolgung von Anweisungen.

Modelle mit 70B werden durch eine teilweise Auslagerung möglich (einige Schichten auf der GPU, der Rest im RAM), sind jedoch langsamer. Die 64-GB-RAM-Option lohnt sich hier, wenn Sie mit größeren Modellen experimentieren möchten.

Diese Ebene deckt die meisten praktischen lokalen KI-Aufgaben ab: Unterstützung beim Schreiben, Programmieren, Dokumentenanalyse und die parallele Ausführung mehrerer kleinerer Modelle.

Enthusiasten-Klasse: Keine Kompromisse

Dies richtet sich an alle, die die größten verfügbaren offenen Modelle zügig ausführen möchten, mit Platz für große Kontextfenster und komplexe Arbeitsabläufe. Stellen Sie sich vor: Modelle mit über 70 Milliarden Parametern, die reibungslos laufen, oder mehrere Modelle, die gleichzeitig geladen sind.

Was man anstreben sollte

  • GPU: 24 GB+ VRAM (z. B. RTX 3090, RTX 4090, RTX 5090) oder zwei GPUs, sofern Ihre Tools dies unterstützen
  • RAM: 64–128 GB DDR5
  • Speicher: 2–4 TB NVMe-SSD (empfohlen wird ein separates Laufwerk nur für Modelle)
  • CPU: Moderne 16–24-Kern-CPU (z. B. Intel Core Ultra 9 285K, AMD Ryzen 9 9950X3D)
  • Netzteil: 1000 W+ 80+ Gold oder Platin

Was Sie ausführen können

Quantisierte 70B-Modelle passen je nach Quantisierungsstufe vollständig (oder fast vollständig) in 24 GB VRAM. Hier erhält man eine Ausgabequalität, die mit Cloud-APIs mithalten kann – der Unterschied zwischen einem 13B- und einem 70B-Modell ist erheblich.

Mit 128 GB System-RAM als Reserve lassen sich selbst die umfangreichsten geöffneten Modelle durch partielles Auslagern aufrufen. Und dank des schnellen NVMe-Speichers dauern das Laden und der Wechsel zwischen den Modellen nur Sekunden statt Minuten.

Auf dieser Stufe betreiben Sie KI nicht nur lokal, sondern so erfolgreich, dass Sie möglicherweise gar nicht mehr auf Cloud-APIs zurückgreifen müssen.

geforce-rtx-5090

Übersehen Sie diese nicht

Ein paar Dinge, die wichtiger sind, als man denkt:

Kühlung:

  • GPUs werden bei anhaltender KI-Inferenzlast stark heiß. Ein Gehäuse mit guter Luftzirkulation macht einen echten Unterschied – mehr dazu weiter unten
  • Bei CPUs sorgt ein hochwertiger CPU-Kühler für einen stabilen Betrieb; ein Modell wie der CORSAIR iCUE LINK TITAN RX RGB 360 mm ist in der Lage, dauerhafte Belastungen zu bewältigen.

Stromversorgung:

  • Ein zuverlässiges Netzteil mit ausreichender Leistungsreserve verhindert Systemabstürze bei hoher Rechenlast. Sparen Sie hier nicht. Das CORSAIR RMx RM1000x ist ein hervorragender Allrounder für die meisten Systemkonfigurationen, und das HX1500i ist die richtige Wahl, wenn Sie einen leistungshungrigen Enthusiasten-PC betreiben.

Luftstrom im Gehäuse:

  • Da Ihr System über längere Zeiträume unter hoher Last laufen wird, ist eine gute Luftzirkulation entscheidend für die Langlebigkeit. Das CORSAIR FRAME 4000D bietet Ihnen eine solide Luftzirkulation in einem Mid-Tower-Gehäuse. Wenn Sie Platz für größere Kühler und mehr Speicherplatz benötigen, sollten Sie sich für das FRAME 5000D entscheiden.

Speichergeschwindigkeit:

  • Das Laden eines 30-GB-Modells von einer HDD im Vergleich zu einer NVMe-SSD macht den Unterschied zwischen einer Minute und wenigen Sekunden aus. Wenn Sie regelmäßig mit verschiedenen Modellen experimentieren, sparen Sie mit einem schnellen Speicher viel Zeit. Die CORSAIR MP700 PRO bietet Gen5-Geschwindigkeiten für das schnellste Laden von Modellen, oder die MP600 ELITE ist eine starke Gen4-Option, die das Budget nicht sprengt.
RMx_SERIES_2021_RM1000x_Artboard01_AA
MP700 PRO
corsair frame 5000d (1)

CORSAIR VENGEANCE Fertig-PCs

Wenn Sie die Komponentenliste lieber überspringen und direkt mit dem Spielen loslegen möchten, bieten die CORSAIR VENGEANCE Gaming-PCs die benötigte Hardware bereits fertig montiert, getestet und mit einer zweijährigen Garantie. Obwohl sie für Gaming konzipiert sind, eignen sich ihre Spezifikationen auch gut für lokale KI, insbesondere die Konfigurationen der höheren Preisklassen mit reichlich VRAM und DDR5-Speicher.

Hier siehst du, wie sich einige Mitglieder der aktuellen VENGEANCE-Besetzung auf die Stufen in diesem Leitfaden verteilen:

entspricht einer Starter-Version:

Mittelwert:

Für Enthusiasten:

Jedes VENGEANCE-System ist mit NVMe-Speicher und einer CORSAIR-Flüssigkeitskühlung ausgestattet und wird in den USA zusammengebaut. Sie erhalten einen komplett fertig montierten Rechner mit Garantie, bei dem Sie sich keine Gedanken über die Kompatibilität machen müssen – installieren Sie einfach Ihre Lauf-App, laden Sie ein Modell herunter und legen Sie los.

CORSAIR_VENGEANCE_a7500_AIR_RENDER_01

CORSAIR AI300

Wenn Sie eine spezielle KI-Workstation suchen, ist die CORSAIR AI Workstation 300 (AI300) eine kompakte, speziell entwickelte Workstation, die von Grund auf für lokale KI konzipiert wurde.

corsair-ai-workstation-300

Es verfügt über eine für KI-Inferenz optimierte Konfiguration mit großem Arbeitsspeicher, Grafikspeicher, der sich an große Modelle anpassen lässt, sowie den CORSAIR AI Software Stack, sodass Sie Modelle sofort nach dem Auspacken ausführen können, anstatt ein ganzes Wochenende mit der Einrichtung zu verbringen.

PRODUKTE IM ARTIKEL

JOIN OUR OFFICIAL CORSAIR COMMUNITIES

Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.