深層学習用GPUサーバー

お客様より、深層学習用のGPUサーバーをご相談をいただきました。
予算600万円程度で、TESLA A100を2台搭載した構成をご希望です。

TESLA A100にはディスプレイ出力が搭載されていないため、提案構成では画面出力用にエントリークラスのビデオカードを追加しています。このカードを削除してオンボードグラフィックでご利用いただくこともできますが、性能面では最低限の描画性能となります。

また、本構成はTESLA A100 x4台までの搭載に対応しています。ただし、CUDA利用時にメインメモリ容量がビデオメモリ容量を下回っていると、動作に問題が発生する場合がありますので、GPU増設の際にはメインメモリもあわせて増設することを推奨します。

なお、TESLA A100 x2枚のままで利用する限りは100V給電で消費電力をカバーできますが、GPUを増設する場合には、200V環境でご利用ください。

【主な仕様】

CPU Xeon Gold 6326 (2.90GHz 16コア) x2
メモリ 256GB REG ECC
ストレージ 1TB SSD S-ATA
ビデオ NVIDIA T600
GPU TESLA A100 80GB x2
ネットワーク on board (10GBase-T x2)
筐体+電源 タワー型筐体 +2200W電源 (100V利用時は1200Wまで)
OS Ubuntu 20.04.4
その他 NVIDIA CUDA Toolkit 11/cudnn
PyTorch