NVIDIA A100 Tensor Core GPU çözümü -> Veri İşleme Merkezleri ve Yüksek Performanslı Hesaplama (HPC) sistemleri için grafik endüstrisinin sunduğu en gelişkin çözümdür. Önceki nesil Tesla Volta modellerine göre 20 kat daha yüksek performansa sahip olan NVIDIA A100, MIG – Multi-Instance GPU özelliği sayesinde  eş zamanlı olarak -> 7 adet GPU birimini idare edebilmekte ve bu sayede her tür değişken iş yükünün üstesinden dinamik ve esnek bir şekilde gelebilmekte.

NVIDIA A100 Tensor Core GPU çözümü -> Veri İşleme Merkezleri ve Yüksek Performanslı Hesaplama (HPC) sistemleri için grafik endüstrisinin sunduğu en gelişkin çözümdür. Önceki nesil Tesla Volta modellerine göre 20 kat daha yüksek performansa sahip olan NVIDIA A100, Multi-Instance GPU özelliği sayesinde eş zamanlı olarak -> 7 adet GPU birimini idare edebilmekte ve bu sayede her tür değişken iş yükünün üstesinden dinamik ve esnek bir şekilde gelebilmekte. NVIDIA Ampere GPU mimarili A100 çözümü, 40 GB ve 80 GB modelleriyle -> Networking, Derin Öğrenme, Yapay Zeka gibi alanlarda en büyük veri modelleriyle çalışmayı mümkün kılmakta.

Genel Özellikler

Veri Merkezlerindeki Yoğun İş Yükleri İçin Benzersiz ve En Yüksek Performanslı Paralel İşlem Çözümü

Başlangıç seviyesi CPU Sunucu Sistemleri ile karşılaştırıldığında, NVIDIA A100 ile güncellenmiş bir sunucu yapısında -> 249 kata varan hızlanım elde ediliyor. Daha önceki nesil GPU Sunucu Sistemleri ile karşılaştırıldığında ise 3 kat kadar analiz hesap artışı sağlanabiliyor.

Soğutma Sistemi

Pasif

Veriyolu

PCIe Gen 4.0 x816

Maksimum Güç Tüketimi

300 Watt

NVIDIA A2, A30 ve A100 Tensor Core GPU modelleri ile oluşturulan veya geliştirilen veri merkezi ve bulut sistemleri Yapay Zeka çalışmalarında -> daha az birim, düşük maliyet ve yüksek performans olanakları sunuyor.

Öne Çıkan Özellikler

GPU Mimarisi

NVIDIA Ampere

Üretim Hassasiyeti

54 milyar

Çip Kalıp Boyutu

826 mm2

CUDA Çekirdek Sayısı

6912

Tensor Çekirdek Sayısı

432 | Gen 3

MIG (Multi-Instance GPU)

7x GPU

FP64

9.7 TFLOPS

FP64 Tensor Core 19.5 TFLOPS

BFP32

19.5 TFLOPS 

TF32 Tensor Core

156 TFLOPS

BFLOAT16 Tensor Core

312 TFLOPS

FP16 Tensor Core

312 TFLOPS

 

GPU Mimarisi

Ampere

Üretim Hassasiyeti

7 nm

Transistör Sayısı

54 milyar

Çip Kalıp Boyutu

826 mm2

CUDA Çekirdek Sayısı

6912

Tensor Çekirdek Sayısı

432 | Gen 3

MIG (Multi-Instance GPU)

7x GPU

FP64

9.7 TFLOPS

FP64 Tensor Core

19.5 TFLOPS

FP32

19.5 TFLOPS

TF32 Tensor Core

156 TFLOPS

BFLOAT16 Tensor Core

312 TFLOPS

FP16 Tensor Core

312 TFLOPS

INT8 Tensor Core

624 TOPS

INT4 Tensor Core

1248 TOPS

NVLink

2-Way, 2-Slot, 600 GB/sn - Çift-Yönlü TFLOPS

GPU Belleği

40/80 GB HBM2e

ECC

Varsayılan Ayar: Aktif

Bellek Arabirimi

5120-bit

Bellek Bant Genişliği

1555 GB/s

Veri Yolu

PCIe Gen 4.0 x8

Soğutma Sistemi

Passive

vGPU Desteği

NVIDIA Virtual Compute Server (MIG Destekli)

Hardware Root of Trust

CEC 1712

NEBS Desteği

Level 3

Güç Bağlantısı

8-pin CPU

Maksimum Güç Tüketimi

300 Watt

Desteklenen İşletim Sistemleri

Windows Server 2012 R2
Windows Server 2016 1607,1709
Windows Server 2019
RedHat CoreOS 4.7
Red Hat Enterprise Linux 8.1-8.3
Red Hat Enterprise Linux 7.7-7.9
Red Hat Linux 6.6+
SUSE Linux Enterprise Server 15 SP2
SUSE Linux Enterprise Server 12 SP 3+
Ubuntu 14.04 LTS/16.04/18.04 LTS/20.04 LTS