Letzte Aktualisierung:
Einen PC für lokale KI zusammenzustellen ist nicht dasselbe wie einen für Spiele. VRAM und Speicherbandbreite sind wichtiger als Taktraten. Die RAM-Kapazität ist wichtiger als RGB-Beleuchtung. Und der Speicher muss Modelle bewältigen können, die jeweils mehrere zehn Gigabyte groß sein können. Hier erfährst du, worauf es in den drei Preisklassen tatsächlich ankommt und was du auf jeder davon realistisch ausführen kannst.
Bevor man sich für bestimmte Komponenten entscheidet, ist es hilfreich zu wissen, welche Anforderungen die lokale KI-Inferenz tatsächlich an die Hardware stellt:
Dies richtet sich an alle, die lokale KI ausprobieren möchten, ohne ihr gesamtes System neu aufsetzen zu müssen. Sie verwenden kleine Modelle mit 3 bis 7 Milliarden Parametern und möchten, dass diese tatsächlich funktionieren, ohne ständig abzustürzen oder in den Arbeitsspeicher ausgelagert zu werden.
Quantisierte 7B-Modelle (wie Llama 3 8B Q4) passen problemlos in 8 GB VRAM und generieren Token mit einer brauchbaren Geschwindigkeit. Sie können chatten, Dokumente zusammenfassen und grundlegende Code-Unterstützung nutzen. Kleinere 3B-Modelle laufen flüssig.
Bei Werten über 7B stößt man an Grenzen: Das Modell wird teilweise auf CPU und RAM ausgelagert und wird spürbar langsamer. Für den Einstieg und zum Kennenlernen der Tools (LM Studio, Ollama) ist diese Stufe jedoch gut geeignet.
Hier zeigt sich, wie nützlich lokale KI bei der praktischen Arbeit tatsächlich sein kann. Man kann 13-Milliarden-Modelle vollständig auf der GPU ausführen, längere Kontextfenster verarbeiten und mehrere Aufgaben gleichzeitig erledigen, ohne dass das System ins Stocken gerät.
Quantisierte 13B-Modelle laufen vollständig im VRAM, wobei noch reichlich Speicherplatz übrig bleibt. Man erhält eine spürbar bessere Ausgabequalität als bei 7B-Modellen, kohärentere Antworten, eine bessere Argumentation und eine zuverlässigere Befolgung von Anweisungen.
Modelle mit 70B werden durch eine teilweise Auslagerung möglich (einige Schichten auf der GPU, der Rest im RAM), sind jedoch langsamer. Die 64-GB-RAM-Option lohnt sich hier, wenn Sie mit größeren Modellen experimentieren möchten.
Diese Ebene deckt die meisten praktischen lokalen KI-Aufgaben ab: Unterstützung beim Schreiben, Programmieren, Dokumentenanalyse und die parallele Ausführung mehrerer kleinerer Modelle.
Dies richtet sich an alle, die die größten verfügbaren offenen Modelle zügig ausführen möchten, mit Platz für große Kontextfenster und komplexe Arbeitsabläufe. Stellen Sie sich vor: Modelle mit über 70 Milliarden Parametern, die reibungslos laufen, oder mehrere Modelle, die gleichzeitig geladen sind.
Quantisierte 70B-Modelle passen je nach Quantisierungsstufe vollständig (oder fast vollständig) in 24 GB VRAM. Hier erhält man eine Ausgabequalität, die mit Cloud-APIs mithalten kann – der Unterschied zwischen einem 13B- und einem 70B-Modell ist erheblich.
Mit 128 GB System-RAM als Reserve lassen sich selbst die umfangreichsten geöffneten Modelle durch partielles Auslagern aufrufen. Und dank des schnellen NVMe-Speichers dauern das Laden und der Wechsel zwischen den Modellen nur Sekunden statt Minuten.
Auf dieser Stufe betreiben Sie KI nicht nur lokal, sondern so erfolgreich, dass Sie möglicherweise gar nicht mehr auf Cloud-APIs zurückgreifen müssen.
Ein paar Dinge, die wichtiger sind, als man denkt:
Kühlung:
Stromversorgung:
Luftstrom im Gehäuse:
Speichergeschwindigkeit:
Wenn Sie die Komponentenliste lieber überspringen und direkt mit dem Spielen loslegen möchten, bieten die CORSAIR VENGEANCE Gaming-PCs die benötigte Hardware bereits fertig montiert, getestet und mit einer zweijährigen Garantie. Obwohl sie für Gaming konzipiert sind, eignen sich ihre Spezifikationen auch gut für lokale KI, insbesondere die Konfigurationen der höheren Preisklassen mit reichlich VRAM und DDR5-Speicher.
Hier siehst du, wie sich einige Mitglieder der aktuellen VENGEANCE-Besetzung auf die Stufen in diesem Leitfaden verteilen:
entspricht einer Starter-Version:
Mittelwert:
Für Enthusiasten:
Jedes VENGEANCE-System ist mit NVMe-Speicher und einer CORSAIR-Flüssigkeitskühlung ausgestattet und wird in den USA zusammengebaut. Sie erhalten einen komplett fertig montierten Rechner mit Garantie, bei dem Sie sich keine Gedanken über die Kompatibilität machen müssen – installieren Sie einfach Ihre Lauf-App, laden Sie ein Modell herunter und legen Sie los.
Wenn Sie eine spezielle KI-Workstation suchen, ist die CORSAIR AI Workstation 300 (AI300) eine kompakte, speziell entwickelte Workstation, die von Grund auf für lokale KI konzipiert wurde.
Es verfügt über eine für KI-Inferenz optimierte Konfiguration mit großem Arbeitsspeicher, Grafikspeicher, der sich an große Modelle anpassen lässt, sowie den CORSAIR AI Software Stack, sodass Sie Modelle sofort nach dem Auspacken ausführen können, anstatt ein ganzes Wochenende mit der Einrichtung zu verbringen.
PRODUKTE IM ARTIKEL
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.