Med lokale LLM-værktøjer kan du køre en stor sprogmodel (LLM) på din egen computer i stedet for at benytte en cloudtjeneste. Det kan være nyttigt til at eksperimentere, arbejde offline, reducere ventetiden eller holde følsomme data på selve enheden.
To populære muligheder for at køre modeller lokalt er Ollama og LM Studio. Begge har til formål at gøre lokal inferens nemmere, men de er optimeret til forskellige arbejdsgange:
Ollama er et værktøj, der hjælper dig med at downloade og køre store sprogmodeller (LLM'er) lokalt ved hjælp af en kommandolinjebaseret arbejdsgang og et lokalt HTTP-API. Det bruges ofte, når du har brug for et letvægts-»kørselsmiljø«, som andre programmer kan kommunikere med (for eksempel en programmeringsassistent, en chat-grænseflade eller din egen app).
Almindelige grunde til, at folk vælger Ollama:
Ollama understøtter også »modelfiler«, som definerer, hvordan en model skal fungere (basismodel, parametre, promptskabelon osv.).
LM Studio er et desktopprogram til at køre lokale store sprogmodeller (LLM'er) via en grafisk brugergrænseflade. Det lægger vægt på brugervenlighed: at finde modeller, downloade dem, skifte mellem dem, chatte og eventuelt køre en lokal server, som andre værktøjer kan kalde op.
Almindelige grunde til, at folk vælger LM Studio:
LM Studio kan også køre en lokal API-server (herunder OpenAI-kompatible endpoints i mange opsætninger), hvilket er en fordel, hvis du forbinder lokale modeller til apps, der er udviklet til denne type API.
En vigtig del af beslutningsprocessen er at forstå indlæringskurven og arbejdsgangen:
Hvis du er helt ny inden for lokale modeller, kan LM Studios brugergrænseflade gøre de første forsøg mere tilgængelige. Hvis du udvikler software baseret på lokal inferens, kan Ollamas runtime-/API-first-tilgang virke mere enkel.
Hvis du vil gennemse mange modeller hurtigt, føles LM Studio som regel mere smidigt, fordi søgefunktionen er integreret i brugergrænsefladen.
”Lokalt” betyder normalt, at alt forbliver på din egen maskine, men hvis du kører en API-server og gør den tilgængelig uden for localhost, bør du behandle den som enhver anden lokal webservice:
LM Studio beskriver API-serverens muligheder og indstillinger; Ollama bruges normalt lokalt, medmindre du bevidst vælger at gøre den tilgængelig eksternt.
Vælg Ollama, hvis du vil:
Vælg LM Studio, hvis du ønsker:
Den lokale LLM-ydeevne afhænger i høj grad af:
I praksis:
Hvis du er på udkig efter specialudviklet lokal AI-hardware, er vores CORSAIR AI WORKSTATION 300 skræddersyet til AI-opgaver, der udføres direkte på enheden, med en konfiguration, der byder på stor hukommelseskapacitet og en høj grænse for delt hukommelse/VRAM (afhængigt af arbejdsbyrde og konfiguration).
Derudover er CORSAIR AI Software Stack er en guidet opsætningsmetode, der har til formål at gøre det nemmere at installere og konfigurere almindelige AI-værktøjer og arbejdsgange. For folk, der ikke ønsker at bruge tid på at opsætte miljøet, kan den slags "kurateret installationsvej" være nyttig.
Kan jeg sikre, at mine data forbliver private, når jeg bruger lokale store sprogmodeller?
Ofte ja, fordi prompt-filer og andre filer ikke behøver at blive sendt til en tredjepartsserver for at udføre inferens. Men privatlivsbeskyttelsen afhænger stadig af, hvad du installerer, og hvilke netværksindstillinger du aktiverer (f.eks. om du åbner en API-server). Generel god praksis: Hold tjenesterne begrænset til localhost, medmindre du virkelig har brug for LAN-adgang.
Kan disse værktøjer bruges sammen med andre apps?
Ja. Både Ollama og LM Studio kan køre en lokal server, så eksterne værktøjer kan tilgå din model via HTTP. Mange arbejdsgange indebærer, at man kombinerer et lokalt runtime-miljø med en separat chat-brugergrænseflade, et editor-plugin eller et automatiseringsværktøj.
PRODUKTER I ARTIKEL
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat about the latest PC, tech, and gaming trends, our community is the place for you.