NVIDIA A100 Tensor Core GPU çözümü -> Veri İşleme Merkezleri ve Yüksek Performanslı Hesaplama (HPC) sistemleri için grafik endüstrisinin sunduğu en gelişkin çözümdür. Önceki nesil Tesla Volta modellerine göre 20 kat daha yüksek performansa sahip olan NVIDIA A100, Multi-Instance GPU özelliği sayesinde eş zamanlı olarak -> 7 adet GPU birimini idare edebilmekte ve bu sayede her tür değişken iş yükünün üstesinden dinamik ve esnek bir şekilde gelebilmekte. NVIDIA Ampere GPU mimarili A100 çözümü, 40 GB ve 80 GB modelleriyle -> Networking, Derin Öğrenme, Yapay Zeka gibi alanlarda en büyük veri modelleriyle çalışmayı mümkün kılmakta.
Genel Özellikler
Veri Merkezlerindeki Yoğun İş Yükleri İçin Benzersiz ve En Yüksek Performanslı Paralel İşlem Çözümü
Başlangıç seviyesi CPU Sunucu Sistemleri ile karşılaştırıldığında, NVIDIA A100 ile güncellenmiş bir sunucu yapısında -> 249 kata varan hızlanım elde ediliyor. Daha önceki nesil GPU Sunucu Sistemleri ile karşılaştırıldığında ise 3 kat kadar analiz hesap artışı sağlanabiliyor.
Soğutma Sistemi
|
Pasif
|
Veriyolu
|
PCIe Gen 4.0 x816
|
Maksimum Güç Tüketimi
|
300 Watt
|

NVIDIA A2, A30 ve A100 Tensor Core GPU modelleri ile oluşturulan veya geliştirilen veri merkezi ve bulut sistemleri Yapay Zeka çalışmalarında -> daha az birim, düşük maliyet ve yüksek performans olanakları sunuyor.

Öne Çıkan Özellikler
GPU Mimarisi
|
NVIDIA Ampere
|
Üretim Hassasiyeti
|
54 milyar
|
Çip Kalıp Boyutu
|
826 mm2
|
CUDA Çekirdek Sayısı
|
6912
|
Tensor Çekirdek Sayısı
|
432 | Gen 3
|
MIG (Multi-Instance GPU)
|
7x GPU
|
FP64
|
9.7 TFLOPS
|
FP64 Tensor Core |
19.5 TFLOPS |
BFP32
|
19.5 TFLOPS
|
TF32 Tensor Core |
156 TFLOPS
|
BFLOAT16 Tensor Core |
312 TFLOPS
|
FP16 Tensor Core |
312 TFLOPS
|

GPU Mimarisi
|
Ampere
|
Üretim Hassasiyeti
|
7 nm
|
Transistör Sayısı
|
54 milyar
|
Çip Kalıp Boyutu
|
826 mm2
|
CUDA Çekirdek Sayısı
|
6912
|
Tensor Çekirdek Sayısı
|
432 | Gen 3
|
MIG (Multi-Instance GPU)
|
7x GPU
|
FP64
|
9.7 TFLOPS
|
FP64 Tensor Core
|
19.5 TFLOPS
|
FP32
|
19.5 TFLOPS
|
TF32 Tensor Core
|
156 TFLOPS
|
BFLOAT16 Tensor Core
|
312 TFLOPS
|
FP16 Tensor Core
|
312 TFLOPS
|
INT8 Tensor Core
|
624 TOPS
|
INT4 Tensor Core
|
1248 TOPS
|
NVLink
|
2-Way, 2-Slot, 600 GB/sn - Çift-Yönlü TFLOPS
|
GPU Belleği
|
40/80 GB HBM2e
|
ECC
|
Varsayılan Ayar: Aktif
|
Bellek Arabirimi
|
5120-bit
|
Bellek Bant Genişliği
|
1555 GB/s
|
Veri Yolu
|
PCIe Gen 4.0 x8
|
Soğutma Sistemi
|
Passive
|
vGPU Desteği
|
NVIDIA Virtual Compute Server (MIG Destekli)
|
Hardware Root of Trust
|
CEC 1712
|
NEBS Desteği
|
Level 3
|
Güç Bağlantısı
|
8-pin CPU
|
Maksimum Güç Tüketimi
|
300 Watt
|
Desteklenen İşletim Sistemleri |
Windows Server 2012 R2
Windows Server 2016 1607,1709
Windows Server 2019
RedHat CoreOS 4.7
Red Hat Enterprise Linux 8.1-8.3
Red Hat Enterprise Linux 7.7-7.9
Red Hat Linux 6.6+
SUSE Linux Enterprise Server 15 SP2
SUSE Linux Enterprise Server 12 SP 3+
Ubuntu 14.04 LTS/16.04/18.04 LTS/20.04 LTS
|