Takeru GPU Server II

機械学習環境構築済みGPUサーバー

ゲノムをはじめとする遺伝子データ、医用画像や検査結果を含む臨床データなどのバイオメディカルデータにおいて、その解析に機械学習、深層学習の手法を適用する事例が増えています。

Takeru GPU Server II は、機械学習環境構築済みサーバーとして、 機械学習/深層学習に必要なライブラリや言語パッケージを構築済みとしています。さらに、コンテナ環境などのインフラ関連ソフトウェアが設定済みであるため、ユーザーは、Takeru GPU Server II 導入後すぐに自身の機械学習モデルを開発、実行できます。


Takeru GPU Server II

ご相談のうえ、ご希望のものを構築いたします。

機械学習環境

  • Pythonパッケージ/ライブラリ
    • Anaconda
    • Python 2系3系混在設定
    • numpy/scipy/pandas/Matplotlib
  • 機械学習ライブラリ/深層学習フレームワーク
    • TensorFlow GPU/TensorBoard
    • Chainer/ChainerMN/Chainer-Chemistry
    • Caffe2
    • PyTorch
    • scikit-learn
    • Keras
  • 機械学習ライブラリ/トレーニング環境(NVIDIA系)
    • cuDNN
    • NCCL
    • DIGITS
  • サンプル
    • 日本メディカルAI学会 メディカルAI専門コース 実践編

インフラ関連ソフトウェア

  • OS
    • CentOS
    • Ubuntu
  • コンテナ
    • Docker(private registry構築含む)
    • Singularity
    • nvidia-docker2

サポート

  • Takeru Project-Lifetime Support

GPU搭載サーバー

Takeru GPU Server II - 16GPU Ultra-high end構成例

GPUメーカー製フラッグシップモデルと同等の16GPU搭載サーバーです。640個のTensorコアを備えたNVIDIA Tesla V100(32GB)16基に加え、GPU向け高速インターコネクトNVSWITCHや、最新のIntel製Xeonプロセッサーとテラバイト級のメモリ空間により、これまで難しかった新しいモデル学習を高速化できます。

CPU
Intel Xeon Scalable Family ×2
Memory
1.5TB DDR4
SSD (System)
1.9TB 2.5" SATA 6Gb/s ×2 ※RAID1構築済み
SSD (Data/cache)
4.0TB 2.5" U.2 NVMe ×8 ※RAID6 + hotspare構築済み
GPU
NVIDIA Tesla V100(32GB, NVLink版) ×16
Network
EDR 100Gb/s InfiniBand×2, 10GBase-T×2, IPMI
Chassis & PSU
19" 10U rackmount, 3,000W redundant×6 (80PLUS Titanium)
OS/設定
Cent OS for x86_64構築済み
Univa Grid Engine構築済み(サブスクリプション3年)
OS/設定
搬入・設置・動作確認作業含む
システムオンサイト保守(納入後3年間)含む(年20時間以内のTakeru Project-Lifetime Support含む)
Takeru GPU Server II - 16GPU Ultra-high end構成 製品画像
Takeru GPU Server II - 8GPU High end構成例

640個のTensorコアを備えたNVIDIA Tesla V100(32GB)を8基搭載し、NVLink接続したGPUサーバーです。

CPU
Intel Xeon Scalable Family ×2
Memory
256GB (32GB×8) DDR4-2666 SDRAM ECC Reg.
SSD (System & data)
1.9TB 2.5" SATA 6Gb/s ×2 ※RAID1構築済み
GPU
NVIDIA Tesla V100(32GB, NVLink版) ×8
Network
EDR 100Gb/s InfiniBand×1, 10GBase-T×2, IPMI
Chassis & PSU
19" 4U rackmount, 1,800W redundant×(2+2) (80PLUS Titanium)
OS/設定
Cent OS for x86_64構築済み
Univa Grid Engine構築済み(サブスクリプション3年)
OS/設定
搬入・設置・動作確認作業含む
システムオンサイト保守(納入後3年間)含む(年20時間以内のTakeru Project-Lifetime Support含む)
Takeru GPU Server II - 8GPU High end構成 製品画像
Takeru GPU Server II - Quad-GPU構成例

最大CUDAコア数を誇るGPUを4基搭載したクアッドGPU構成です。計算システムの1ノードとして保有しやすい1Uラックマウント型、居室に1台のみ設置する場合向けのタワー型を選択できます。

CPU
Intel Xeon Scalable Family ×2
Memory
DDR4
SSD (System & data)
1.9TB 2.5" SATA 6Gb/s ×2 ※RAID1構築済み
GPU
NVIDIA Tesla V100(32GB, NVLink版) ×4
Network
FDR 56Gb/s InfiniBand×1, 10GBase-T×2, IPMI
Chassis & PSU
19" 1U rackmount, 2,000W redundant×2 (80PLUS Titanium)、他
OS/設定
Cent OS for x86_64構築済み
Univa Grid Engine構築済み(サブスクリプション3年)
OS/設定
搬入・設置・動作確認作業含む
システムオンサイト保守(納入後3年間)含む(年20時間以内のTakeru Project-Lifetime Support含む)
Takeru GPU Server II - Quad GPU構成例 1Uラックマウントサーバー製品画像
Takeru GPU Server II Lite -(Up-to-4GPU)構成例

導入時のコストパフォーマンスと設置の容易さを重視した、タワー型サーバーです。最大CUDAコア数を誇るGPUやコストパフォーマンスに優れたGPUの4基フル搭載、 CNNなど倍精度を必要としないことの多い深層学習に特化したGPUの採用など、さまざまな仕様構成が可能です。

CPU
Intel Xeon Scalable Family ×2
Memory
DDR4
SSD (System & data)
柔軟に構成可能です
GPU
NVIDIA Tesla V100 (32GB, PCIe)、Quadro RTX 6000、TITAN RTX、GeForce RTX 2080 Ti、他選択可
Network
FDR 56Gb/s InfiniBand×1, 10GBase-T×2, IPMI
Chassis & PSU
Tower(19" 4U rackmountableも選択可), redundant (80PLUS電源)
OS/設定
Cent OS for x86_64構築済み
Univa Grid Engine構築済み(サブスクリプション3年)
OS/設定
搬入・設置・動作確認作業含む
システムオンサイト保守(納入後3年間)含む(年20時間以内のTakeru Project-Lifetime Support含む)
Takeru GPU Server II Lite 製品画像

仕様構成の変更は柔軟に可能です。ご相談ください。