AI ワークロードの要求が厳しくなるにつれ、パフォーマンス向上のために適切な DRAM 構成を選択することが極めて重要になっています。その際、スピードと容量のどちらを優先すべきでしょうか?この記事では、5 種類の DRAM キットをゲーミング/AI PC 上で評価し、最適な DRAM 構成を探ります。
さまざまな DRAM セットアップを Ollama ツールを使用してテストし、3 つの大規模言語モデル (LLM) で 1 秒あたりのトークン数とメモリー使用量を測定します。
テストプラットフォームは、次のコンポーネントで構成されています。
メモリー要求とサイズが異なる 3 つの LLM(大規模言語モデル)を評価しました。
異なるモデルのロードには Ollama ユーティリティを使用しました。Ollama は、推論速度の測定に 1 秒あたりのトークン数スコアを使用します。また、異なる DRAM 構成で各モデルがどのように処理されるかを判断するため、メモリー使用量を追跡しました。テストしたプロンプトは以下のとおりです。
最後に、ファイナルファンタジー XIV Dawntrail ベンチマークをテストし、各 DRAM 構成のゲーミングパフォーマンスを測定しました。この目的は、パフォーマンスを損なうことなく、AI タスクとゲームを同時に処理できる DRAM 構成を見つけることです。
図 1:異なる LLM で CPU のみを使用してテストした各 DRAM 構成の 1 秒あたりのトークン数。
図 2:LLM を RTX 4090 で実行した場合の DRAM 構成のパフォーマンス (1 秒あたりのトークン数)。
図 3:各 LLM を CPU のみで実行した場合と、CPU と GPU で実行した場合のシステムメモリー使用量をギガバイト (GB) で測定(概算値)。
テストした各 DRAM 構成の FFXIV Dawntrail ベンチマーク。
これらの結果から、重要なことがいくつかわかります。
CPU のみを使用した場合、DeepSeek-R1 (70B) モデルは 32GB と 48GB の構成では処理できませんでした。RTX 4090 を使用した場合でも、32GB の DRAM では 70B モデルを動作させるには限界に近い状態です。
最高速 8400MT/s の、CUDIMM キットはゲーミングにおいて他のどの DRAM 構成よりも優れていますが、大型の AI モデルは RTX 4090 で実行しても、使用可能なメモリーはそれほど残っていません。
AI を多用するワークロードでは、特に大型モデルにおいて、DRAM 容量が重要な役割を果たします。ただし、ゲーミングと AI の両方を制御するハイブリッドシステムでは、速度とレイテンシーを最適化することも重要です。LLM がさまざまなハードウェア向けに継続的に最適化され、必要なリソースが抑えられるようになってきているとはいえ、より正確な結果を得るためには、より大型のモデルを動作させられるよう余分なメモリー容量を備えておくのが望ましいでしょう。
以上の点を考慮すると、最適な DRAM キットは CMH96GX5M2B7000C40 です。
記事内の製品