Ostatnia aktualizacja:
Złożenie komputera do lokalnej sztucznej inteligencji różni się od złożenia komputera do gier. Pamięć graficzna (VRAM) i przepustowość pamięci mają większe znaczenie niż częstotliwości taktowania. Pojemność pamięci RAM jest ważniejsza niż podświetlenie RGB. A pamięć masowa musi być w stanie pomieścić modele, z których każdy może zajmować nawet kilkadziesiąt gigabajtów. Oto, co faktycznie ma znaczenie w trzech przedziałach cenowych i co realistycznie można uruchomić na każdym z nich.
Przed wyborem komponentów warto wiedzieć, jakie wymagania sprzętowe stawia lokalna inferencja AI:
To rozwiązanie jest przeznaczone dla osób, które chcą wypróbować lokalną sztuczną inteligencję bez konieczności przebudowywania całego systemu. Korzystasz z niewielkich modeli o liczbie parametrów od 3 do 7 miliardów i chcesz, aby działały one bez ciągłych awarii i przełączania się.
Modele Quantized 7B (takie jak Llama 3 8B Q4) z łatwością mieszczą się w 8 GB pamięci VRAM i generują tokeny z wystarczającą szybkością. Można prowadzić rozmowy, tworzyć streszczenia dokumentów i korzystać z podstawowej pomocy przy pisaniu kodu. Mniejsze modele 3B będą działać płynnie.
Przy wartości powyżej 7B napotkasz ograniczenia – model zacznie częściowo przenosić obciążenie na procesor i pamięć RAM, co spowoduje zauważalne spowolnienie. Jednak na początek i do nauki obsługi narzędzi (LM Studio, Ollama) ten poziom jest w zupełności wystarczający.
Właśnie w tym momencie lokalna sztuczna inteligencja zaczyna naprawdę sprawdzać się w praktyce. Można w całości uruchamiać modele o rozmiarze 13 miliardów parametrów na procesorze graficznym, obsługiwać dłuższe okna kontekstowe i wykonywać wiele zadań jednocześnie bez ryzyka, że system się zawiesi.
Modele 13B z kwantyzacją działają w całości w pamięci VRAM, pozostawiając jeszcze sporo wolnego miejsca. Uzyskuje się zauważalnie lepszą jakość wyników niż w przypadku modeli 7B, bardziej spójne odpowiedzi, lepsze rozumowanie oraz bardziej niezawodne wykonywanie poleceń.
Modele o rozmiarze 70B są możliwe dzięki częściowemu przeniesieniu obciążenia (niektóre warstwy na procesor graficzny, reszta w pamięci RAM), choć będą działać wolniej. Opcja 64 GB pamięci RAM jest tu opłacalna, jeśli chcesz eksperymentować z większymi modelami.
Ten poziom obsługuje większość praktycznych zadań związanych z lokalną sztuczną inteligencją: pomoc w pisaniu, programowanie, analizę dokumentów oraz równoległe uruchamianie wielu mniejszych modeli.
To rozwiązanie jest przeznaczone dla osób, które chcą szybko uruchamiać największe dostępne modele otwarte, z możliwością obsługi dużych okien kontekstowych i złożonych procesów roboczych. Wyobraź sobie płynne działanie modeli o rozmiarze ponad 70 miliardów parametrów lub jednoczesne ładowanie wielu modeli.
W zależności od poziomu kwantyzacji modele o rozmiarze 70B mogą zmieścić się w całości (lub prawie w całości) w 24 GB pamięci VRAM. Właśnie w tym przypadku uzyskuje się jakość wyników dorównującą interfejsom API w chmurze – różnica między modelem 13B a 70B jest znaczna.
Dzięki 128 GB pamięci RAM jako rezerwie nawet największe otwarte modele stają się dostępne dzięki częściowemu odciążaniu. A dzięki szybkiej pamięci NVMe ładowanie modeli i przełączanie się między nimi zajmuje zaledwie kilka sekund, a nie minut.
Na tym poziomie nie tylko korzystasz z AI lokalnie, ale robisz to na tyle skutecznie, że możesz całkowicie zrezygnować z korzystania z interfejsów API w chmurze.
Kilka rzeczy, które mają większe znaczenie, niż się powszechnie uważa:
Chłodzenie:
Zasilanie:
Przepływ powietrza w obudowie:
Szybkość zapisu:
Jeśli wolisz pominąć listę komponentów i od razu przejść do korzystania z gotowych komputerów, komputery do gier CORSAIR VENGEANCE są dostarczane z niezbędnym sprzętem, który został już zmontowany i przetestowany, a ponadto objęty jest dwuletnią gwarancją. Chociaż są one stworzone z myślą o grach, ich parametry techniczne sprawdzają się również w przypadku lokalnej sztucznej inteligencji, zwłaszcza w przypadku konfiguracji z wyższej półki, wyposażonych w dużą ilość pamięci VRAM i pamięci DDR5.
Oto jak niektórzy członkowie obecnego składu VENGEANCE plasują się w poszczególnych poziomach w tym przewodniku:
Odpowiednik rozrusznika:
Równoważnik średni:
Odpowiednik dla entuzjastów:
Każdy system VENGEANCE jest wyposażony w dysk NVMe oraz system chłodzenia cieczą CORSAIR i jest montowany w USA. Otrzymujesz w pełni skonfigurowany komputer objęty gwarancją, bez konieczności zastanawiania się nad kompatybilnością – wystarczy zainstalować aplikację do obsługi drukarki, pobrać model i można zaczynać.
Jeśli szukasz stacji roboczej przeznaczonej specjalnie do zadań związanych ze sztuczną inteligencją, model CORSAIR AI Workstation 300 (AI300) to kompaktowa, specjalnie zaprojektowana stacja robocza, stworzona od podstaw z myślą o lokalnym przetwarzaniu danych AI.
Urządzenie jest wyposażone w konfigurację z dużą ilością pamięci, zoptymalizowaną pod kątem wnioskowania AI, pamięć graficzną skalowalną pod kątem dużych modeli oraz pakiet oprogramowania CORSAIR AI Software Stack, dzięki czemu można od razu zacząć uruchamiać modele, zamiast tracić weekend na konfigurację.
PRODUKTY W ARTYKULE
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.