
お客様から、社内で大規模言語モデルを活用するための、ローカル環境で運用可能な生成AI向けワークステーション構築についてご相談をいただきました。使用を想定されているソフトウェアは、Ollama、LM Studio、Dify、Python です。
具体的なご要望としては、CPU は十分なコア数を備えたモデルを選定し、メモリは最低 1TB、可能であれば 2〜4TB クラスまで拡張できる構成を希望されています。
GPU については、NVIDIA RTX Pro 6000 Blackwell を複数枚搭載できることを前提とし、搭載可能な最大枚数をご希望です。
OS は Ubuntu、電源は 100V 環境で動作することが条件となっています。
さらに、ストレージは可能な限り大容量の NVMe SSD を最大数まで搭載し、全体として高い処理性能と拡張性を備えた構成を求められています。
これらの要件を満たす構成を、予算2,000 万円程度で実現したいとのご要望です。
以上の内容を踏まえ、弊社からは以下の構成をご提案いたしました。
| CPU | Intel Xeon 6515P 2.30GHz(TB 3.80GHz) 16C/32T |
| メモリ | 合計4TB DDR5-6400 REG ECC 128GB x 32 |
| ストレージ1 | 7.68TB U.2 NVMe SSD |
| ストレージ2 | 15.36TB U.2 NVMe SSD ×5(RAID5) |
| ビデオ | NVIDIA RTX PRO 6000 BW Server Edition x 4 |
| ネットワーク | ネットワークカード 10GbE RJ45 2ポート |
| 筐体+電源 | 4Uラックマウント筐体 3200W/200V リダンダント電源(3+1) |
| OS | Ubuntu 24.04 |
| その他 | RAIDカード Broadcom MegaRAID レールキット一式 3年センドバック保証 (標準保証1年+延長保証2年) |
LLM推論・生成AI処理に最適化したCPU / メモリ構成
本構成では、生成AIやローカルLLMの運用に必要となる CPU コア数とメモリ帯域を重視しています。大規模モデルを効率的に処理するためには、GPU性能だけではなく、CPUの多コア性能と大量メモリへのアクセス性能が重要です。
そのため、最新世代のサーバー向けCPUを採用し、多コア処理能力と大容量メモリの両立を図っています。当初は1TBメモリ構成を想定していましたが、将来的なモデル拡張やRAGワークロードへの対応を見据え、今回は搭載可能な最大容量である4TBの構成でご提案しています。
RTX Pro 6000 Blackwell を採用した高密度 GPU 構成
お客様が複数の NVIDIA RTX Pro 6000 Blackwell を搭載したいと希望されていたため、4Uラックマウント筐体を採用し、最大枚数のGPUを安定して運用できるマザーボード構成を選定しました。
PRO 6000クラスのGPUを複数枚搭載する場合には、PCIeレーン数、発熱対策、電源容量などが大きな制約となります。本構成ではこれらの要件をすべて満たし、高密度なGPUサーバーとして安定したAI計算処理を実現します。
NVMeストレージの大容量化とRAID構成
可能な限り大容量のNVMe SSDを最大数搭載したい、という要望に対し、システム用SSDとは別に複数枚のNVMe SSDを搭載し、読み書き速度と冗長性を両立する構成をご提案しています。
この構成により、研究データやEmbeddingキャッシュを高速に扱え、RAG環境やDify・Ollamaなどのローカル推論環境で高いパフォーマンスを発揮できます。
電源環境 (100V希望 → 200V対応への変更)
当初は「100V環境で運用したい」とご相談いただきましたが、GPU多数搭載構成では100Vでは電源容量が不足するため、200V環境を整備される方針に変更となりました。
これにより、サーバー向け電源ユニットを採用できるようになり、マシン全体の安定性と将来拡張性を確保しています。
キーワード・Ollamaとは ・LM Studioとは ・Difyとは ・Pythonとは |

|
■ このPC事例に関する詳細、お問い合わせはこちら ※事例の名称またはご希望の条件などをご記入ください。 |


