AI 작업량이 늘어남에 따라, 성능 향상을 위해서는 올바른 DRAM 구성을 선택하는 것이 중요합니다. 그러나 더 중요한 것은 속도 또는 용량입니까? 이 기사에서는 게임/AI PC에서 5가지 다른 DRAM 키트를 평가하여 최고의 DRAM 구성을 찾아봅니다.
Ollama 도구를 사용하여 세 가지 대규모 언어 모델(LLM)에 걸쳐 초당 토큰 수와 메모리 사용량을 측정하는 다양한 DRAM 설정을 테스트할 것입니다.
테스트 플랫폼은 다음으로 구성되어 있습니다:
메모리 요구량이 다른 다양한 크기의 세 가지 LLM(Large Language Models)을 평가했습니다.
Ollama 유틸리티는 다양한 모델을 로드하는 데 사용되었습니다. Ollama는 추론 속도를 측정하기 위해 초당 토큰 수를 제공합니다. 메모리 사용량을 추적하여 다양한 DRAM 구성이 각 모델을 어떻게 처리하는지 확인했습니다. 테스트한 프롬프트는 다음과 같습니다.
마지막으로, 파이널 판타지 14: 다크 트레일 벤치마크를 테스트하여 각 DRAM 구성의 게임 성능을 측정했습니다. 목표는 성능 저하 없이 AI 작업과 게임을 동시에 처리할 수 있는 DRAM 구성을 찾는 것입니다.
그림 1: 이 도표는 CPU만을 활용하는 다른 LLM에서 테스트된 각 DRAM 구성의 초당 토큰 수를 보여줍니다.
그림 2: RTX 4090에서 LLM을 실행할 때 테스트한 DRAM 구성의 성능. 결과는 초당 토큰 수로 표시됩니다.
그림 3: 각 LLM을 실행하는 동안 시스템 메모리 사용량을 측정했습니다. CPU vs CPU 및 GPU. 결과는 약 GB 단위입니다.
테스트된 각 DRAM 구성에 대한 FFXIV Dawntrail 벤치마크.
몇 가지 중요한 관찰 결과.
32GB와 48GB 구성은 CPU만 사용할 때 DeepSeek-R1(70B) 모델에 맞지 않았습니다. RTX 4090을 사용하더라도 70b 모델을 사용할 때는 32GB의 DRAM이 한계에 달합니다.
8400 MT/s CUDIMM 키트의 빠른 속도는 게임에서 다른 어떤 DRAM 구성보다 뛰어납니다. 그러나 RTX 4090이 큰 크기의 AI 모델을 실행하는 경우에도 사용 가능한 메모리가 많이 남아 있지 않습니다.
AI가 많이 사용되는 작업의 경우, 특히 더 큰 모델의 경우, DRAM 용량이 중요한 역할을 합니다. 그러나 게임과 AI를 모두 관리하는 하이브리드 시스템의 경우, 속도 및 지연 시간 최적화가 중요합니다. LLM이 다양한 하드웨어에 맞게 지속적으로 최적화되고 요구 사항이 줄어들면, 더 큰 모델이 시스템에서 실행되어 더 정확한 결과를 얻을 수 있도록 추가 메모리 용량을 확보하는 것이 가장 좋습니다.
위에서 설명한 사항을 고려할 때, 선택 가능한 DRAM 키트는 CMH96GX5M2B7000C40입니다.
기사의 제품
JOIN OUR OFFICIAL CORSAIR COMMUNITIES
Join our official CORSAIR Communities! Whether you're new or old to PC Building, have questions about our products, or want to chat the latest PC, tech, and gaming trends, our community is the place for you.