Nvidia Rilis Arsitektur GPU “Ampere” Terbaru, Tesla A100 dan Accelerator DGX A100
Walaupun keadaan saat ini sedang dalam masa pandemik COVID-19, namun tidak membuat beberapa perusahaan teknologi untuk mengurungkan niatnya dalam merilis produk terbaru termasuk Nvidia yang mengadakan event tahunan GTC 2020 melalui online pada event kali ini Nvidia memfokuskan untuk memperkenalkan arsitektur GPU terbaru Nvidia “Ampere” sekaligus merilis produk kelas atas yang menyasar pangsar server, AI dan data center.
Nvidia Perkenalkan Arsitektur GPU Nvidia Ampere Hadir Perdana Untuk Tesla A100
Nvidia Volta sebelumnya dikenal sebagai sister architecture dari Nvidia Turing yang menyasar pangsa server, AI dan data center, arsitektur ini memiliki umur yang cukup panjang kurang lebih tiga tahun sebelum akhirnya saat ini sudah ada penerusnya yakni Nvidia Ampere yang menghadirkan peningkatan pada sisi komputasi Tensor Core, mendukung NVLink generasi ketiga serta telah menggunakan fabrikasi 7nm yang membuatnya lebih efisien dalam hal performa/watt dibandingkan generasi sebelumnya.
Jika dibandingkan dengan Nvidia Tesla V100 yang menggunakan arsitektur Nvidia Volta sebelumnya terdapat peningkatan dalam hal jumlah CUDA Core yang lebih banyak dan pastinya peningkatan sangat signifikan dalam hal performa Tensor Core yang kini juga mendukung komputasi berbasis INT8 dan TF32 yang banyak digunakan pada sektor AI. Nvidia Tesla A100 juga mendukung NVLink generasi ketiga yang mendukung hingga 12 jalur dengan kecepatan antar jalur sebesar 600GB/sec. Sama seperti Tesla V100 sebelumnya untuk Tesla A100 menggunakan interface SMX3 yang sering digunakan untuk server belum diketahui apakah tersedia versi PCIe atau tidak.
Komparasi antara Nvidia Tesla A100 dengan Nvidia Tesla V100 sebelumnya yang saya kutip dari Anandtech:
Nvidia Tesla A100 | Nvidia Tesla V100 | |
FP32 CUDA Cores | 6912 | 5120 |
Boost Clock | ~1.41GHz | 1530MHz |
Memory Clock | 2.4Gbps HBM2 | 1.75Gbps HBM2 |
Memory Bus Width | 5120-bit | 4096-bit |
Memory Bandwidth | 1.6TB/sec | 900GB/sec |
VRAM | 40GB | 16GB/32GB |
Single Precision | 19.5 TFLOPs | 15.7 TFLOPs |
Double Precision | 9.7 TFLOPs | 7.8 TFLOPs |
(1/2 FP32 rate) | (1/2 FP32 rate) | |
INT8 Tensor | 624 TOPs | N/A |
FP16 Tensor | 312 TFLOPs | 125 TFLOPs |
TF32 Tensor | 156 TFLOPs | N/A |
Interconnect | NVLink 3 | NVLink 2 |
12 Links (600GB/sec) | 6 Links (300GB/sec) | |
GPU | A100 | GV100 |
(826mm2) | (815mm2) | |
Transistor Count | 54.2B | 21.1B |
TDP | 400W | 300W/350W |
Manufacturing Process | TSMC 7N | TSMC 12nm FFN |
Interface | SXM4 | SXM2/SXM3 |
Architecture | Ampere | Volta |
NVIDIA DGX A100 : Sistem Terintegrasi Untuk Komputasi AI
Berbarengan dengan rilisnya Tesla A100, Nvidia juga merilis Nvidia DGX A100 perangkat ini hadir layaknya superkomputer kompak diciptakan untuk menghadirkan performa handal untuk kebutuhan komputasi AI. perangkat ini berisikan 2x 64 Core 128 Thread AMD “Rome” CPU, 8x GPU berbasis Tesla A100 lengkap dengan koneksi NVLink 3, 1TB RAM DDR4, 15 TB SSD PCIe 4.0 NVMe serta koneksi infiniband 600 Gb/s dari Mellanox. Nvidia juga meluncurkan Nvidia HGX A100 yang tidak lain adalah desain rujukan yang bisa digunakan vendor pihak ketiga untuk meluncurkan Nvidia DGX A100 versi mereka sendiri.
Belum diketahui informasi harga dari keduanya namun Nvidia sudah menyebutkan beberapa pemain besar Cloud dunia seperti Microsoft, Amazon, Baidu dan Google sudah menyatakan minatnya untuk kedua platform ini.
Sumber: Servethehome, Anandtech, Nvidia
Tags: Nvidia Ampere Nvidia DGX A100 Nvidia HGX A100 Nvidia Tesla A100