NVIDIA
NVIDIA A100 - Scheda grafica passiva da 40 GB
Impossibile caricare la disponibilità di ritiro
introduzione
NVIDIA A100
NVIDIA A100: accelerazione senza precedenti su ogni scala
La GPU NVIDIA A100 Tensor Core offre capacità di accelerazione senza precedenti per flussi di lavoro di intelligenza artificiale, analisi dei dati e calcolo ad alte prestazioni (HPC) per affrontare le sfide di elaborazione più complesse del mondo. Come motore della piattaforma di data center NVIDIA, l'A100 può aiutarti a interconnettere migliaia di GPU o, con la tecnologia MIG (Multi-istanza GPU), essere partizionato in sette istanze GPU per accelerare tutti i tipi di carichi di lavoro. I core NVIDIA Tensor di terza generazione dell'A100 ora accelerano più livelli di preI core NVIDIA Tensor di terza generazione dell'A100 ora accelerano più livelli di precisione per diversi carichi di lavoro, riducendo il tempo di accesso ai dati e il time to market.

ACCELERA I FLUSSI DI LAVORO AI
- Memoria: 40 GB HBM2 ECC 5120 bit (larghezza di banda: 1555 GB/s)
- Nuclei CUDA: 6912
- FP64: 9,7 TFlop
- FP32: 19.5 TFlop
- TF32: 312 Tflop
- Tensor Float 32 (TF32): 156 TFlops
- BFLOAT16 Tensor Core: 312 TFlops
- Nucleo tensoriale FP16: 1248 TOP
- INT8 Tensor Core: 624 TOP
- Fino a 7 istanze MIG a 5 GB
- Raffreddamento passivo
-
Quanto è veloce l'A100?
-
NVIDIA A100: accelerazione senza precedenti su ogni scala
La GPU NVIDIA A100 Tensor Core offre capacità di accelerazione senza precedenti per flussi di lavoro di intelligenza artificiale, analisi dei dati e calcolo ad alte prestazioni (HPC) per affrontare le sfide di elaborazione più complesse del mondo. Come motore della piattaforma di data center NVIDIA, l'A100 può aiutarti a interconnettere migliaia di GPU o, con la tecnologia MIG (Multi-istanza GPU), essere partizionato in sette istanze GPU per accelerare tutti i tipi di carichi di lavoro. I core NVIDIA Tensor di terza generazione dell'A100 ora accelerano più livelli di preI core NVIDIA Tensor di terza generazione dell'A100 ora accelerano più livelli di precisione per diversi carichi di lavoro, riducendo il tempo di accesso ai dati e il time to market.
- Memoria: 40 GB HBM2 ECC 5120 bit (larghezza di banda: 1555 GB/s)
- Nuclei CUDA: 6912
- FP64: 9,7 TFlop
- FP32: 19.5 TFlop
- TF32: 312 Tflop
- Tensor Float 32 (TF32): 156 TFlops
- BFLOAT16 Tensor Core: 312 TFlops
- Nucleo tensoriale FP16: 1248 TOP
- INT8 Tensor Core: 624 TOP
- Fino a 7 istanze MIG a 5 GB
- Raffreddamento passivo
- NVIDIA AMPERE ARCHITECTUREA100 accelera i carichi di lavoro grandi e piccoli. Sia che si utilizzi MIG per partizionare una GPU A100 in istanze più piccole, sia NVLink per connettere più GPU per accelerare carichi di lavoro su larga scala, è possibile massimizzare l'utilità di ogni GPU nel data center 24 ore su 24. NVIDIA A100
- NVIDIA TESLA A100
- NVIDIA TESLA A100

NVIDIA A100 - Scheda grafica passiva da 40 GB Price List
Store | Price |
---|