GPU 인스턴스는 인스턴스에 GPU(Graphics Processing Unit)가 추가 구성된 가상서버입니다. 과학적 발견부터 딥러닝에 이르는 다양한 분야에서 사용합니다.
GPU 수량 1개 또는 2개를 선택하여 GPU를 사용할 수 있습니다.
딥 러닝을 위한 궁극의 성능
| Tesla V100 for NVLink | |
|---|---|
| GPU Architecture | NVIDIA Volta |
| NVIDIA Tensor Cores | 640 |
| NVIDIA CUDA Cores | 5120 |
| Double-Precision Performance | 7.8 TFLOPS |
| Single-Precision Performance | 15.7 TFLOPS |
| Tensor Performance | 125 TFLOPS |
| GPU Memory | 32GB |
| Memory Bandwidth | 900GB/sec |
| ECC | Yes |
| Interconnect Bandwidth | 300GB/sec |
| System Interface | NVIDIA NVLink |
| Form Factor | SXM2 |
| Max Power Comsumption | 300 WATTS |
| Thermal Solution | Passive |
| Compute APIs | CUDA, DirectCompute, OpenCL ™ ,OpenACC |