大規模言語モデルを用いた機械学習研究に携わるお客様より、ローカル検証を目的とした高性能PCの導入のご相談をいただきました。
ご予算は250万〜500万円程度で、Ollamaの利用を想定し、可能な限り多くの高性能GPUを搭載したワークステーションをご希望です。
GPUドライバー・CUDA Toolkit・cuDNNのプリインストールも求められています。
200V電源環境での導入を前提にされています。
| CPU | Intel Xeon W3-2525 3.50GHz (TB3.0時 最大4.5GHz) 8C/16T |
| メモリ | 合計256GB DDR5 5600 REG ECC 64GB x 4 |
| ストレージ | 1TB SSD S-ATA |
| ビデオ | NVIDIA RTX PRO6000 Max-Q 96GB ×2枚構成 |
| ネットワーク | on board (2.5GbE x1 /10GbE x1) |
| 筐体+電源 | ミドルタワー型筐体+1600W 80PLUS PLATINUM |
| OS | Ubuntu 24.04 |
| その他 | 12A 200V電源ケーブル C19 – C14 インストール作業(GPUドライバー、CUDA Toolkit、cuDNN) |
GPUの選定について
今回の用途では、GPU性能とVRAM容量の両立が重要です。
LLMによっては140GB程度のVRAMが必要となることもあるため、NVIDIA RTX PRO 6000 Max-Q (96GB) を2枚搭載する構成をご提案しました。
さらに、3枚目のRTX PRO 6000 Max-Qの増設にも対応できるよう、空きPCIeスロットを確保した設計です。
テグシスでは LLM における GPU 性能差をまとめた技術記事を公開しています。
前編では RTX 5090 / RTX 4090 / RTX 5000 Ada の実測比較を、続編では RTX PRO 6000 Max-Q を加えた検証 をご紹介しています。
詳細な検証結果は、下記をご覧ください。
![]() |
![]() |
メモリ構成と拡張性
LLMの推論では、VRAMを十分に確保することが前提となり、あわせてシステムメモリも同程度以上の大容量が求められます。
本構成では、256GB (64GB×4枚) のメモリを実装し、空きスロットには同容量 (64GB) のモジュールを増設可能です。
将来的に3枚目のGPUを増設する場合、VRAMの総量は 96GB × 3 = 288GB となります。
その際には、空きスロットを活用してメモリを増設することで、適切なシステムメモリを無理なく満たせます。
これにより、GPU増設後もボトルネックを避けて、安定したデータ処理を実現できます。
ソフトウェアの事前環境構築
GPUドライバー、CUDA Toolkit、cuDNNを適切なバージョンでプリインストールし、即時利用可能な環境で納品します。
PyTorchなどのフレームワークは、お客様によるセットアップを予定していますが、当社でも導入実績があり、必要に応じてご相談も承ります。
このような分野で活躍されている方へ
|
テガラのオーダーメイドPC製作サービスは、導入時の用途に加え、将来的な研究規模の拡大を見据えたシステムの拡張にも対応しています。
各種ソフトウェア要件に応じた構成のご提案はもちろん、研究環境全体の構築に関するご相談も承っています。
お客様のニーズに合わせて最適なソリューションをご提供しますので、どうぞお気軽にお問い合わせください。
キーワードCUDA Toolkitとは CUDA Toolkitは、NVIDIAが提供するGPUコンピューティング開発環境です。 cuDNN(CUDA Deep Neural Network library)とは cuDNNは、NVIDIAが提供する、GPUを用いたディープニューラルネットワーク(DNN)計算を高速化するための高性能ライブラリです。 cuDNNを使う最大のメリットは、フレームワークごとにGPU向けの最適化コードを書く必要がないことです。 |

|
■ このPC事例に関する詳細、お問い合わせはこちら ※事例の名称またはご希望の条件などをご記入ください。 |




