NVIDIA
NVIDIA A100 – 40 GB passive Ampere-Grafikkarte
Verfügbarkeit für Abholungen konnte nicht geladen werden
Einführung
Nvidia A100
NVIDIA A100: Beispiellose Beschleunigung in jeder Größenordnung
Die NVIDIA A100 Tensor Core GPU bietet beispiellose Beschleunigungsfähigkeiten für KI-, Datenanalyse- und High Performance Computing (HPC)-Workflows, um die komplexesten Computing-Herausforderungen der Welt zu bewältigen. Als Motor der NVIDIA-Rechenzentrumsplattform kann der A100 Ihnen helfen, Tausende von GPUs miteinander zu verbinden oder mit der Multi-Instanz-GPU-Technologie (MIG) in sieben GPU-Instanzen partitioniert zu werden, um alle Arten von Arbeitslasten zu beschleunigen. Die NVIDIA-Tensor-Kerne der dritten Generation des A100 beschleunigen jetzt mehr Präzisierungsstufen.

KI-WORKFLOWS BESCHLEUNIGEN
- Arbeitsspeicher: 40 GB HBM2 ECC 5120 Bit (Bandbreite: 1555 GB/s)
- CUDA-Kerne: 6912
- FP64: 9,7 TFlops
- FP32: 19,5 TFlops
- TF32: 312 TFlops
- Tensor Float 32 (TF32): 156 TFlops
- BFLOAT16 Tensorkern: 312 TFlops
- FP16 Tensorkern: 1248 TOPs
- INT8 Tensorkern: 624 TOPs
- Bis zu 7 MIG-Instanzen bei 5 GB
- Passive Kühlung
-
Wie schnell ist der A100?
-
NVIDIA A100: Beispiellose Beschleunigung in jeder Größenordnung
Die NVIDIA A100 Tensor Core GPU bietet beispiellose Beschleunigungsfähigkeiten für KI-, Datenanalyse- und High Performance Computing (HPC)-Workflows, um die komplexesten Computing-Herausforderungen der Welt zu bewältigen. Als Motor der NVIDIA-Rechenzentrumsplattform kann der A100 Ihnen helfen, Tausende von GPUs miteinander zu verbinden oder mit der Multi-Instanz-GPU-Technologie (MIG) in sieben GPU-Instanzen partitioniert zu werden, um alle Arten von Arbeitslasten zu beschleunigen. Die NVIDIA-Tensor-Kerne der dritten Generation des A100 beschleunigen jetzt mehr Präzisierungsstufen.
- Arbeitsspeicher: 40 GB HBM2 ECC 5120 Bit (Bandbreite: 1555 GB/s)
- CUDA-Kerne: 6912
- FP64: 9,7 TFlops
- FP32: 19,5 TFlops
- TF32: 312 TFlops
- Tensor Float 32 (TF32): 156 TFlops
- BFLOAT16 Tensorkern: 312 TFlops
- FP16 Tensorkern: 1248 TOPs
- INT8 Tensorkern: 624 TOPs
- Bis zu 7 MIG-Instanzen bei 5 GB
- Passive Kühlung
- NVIDIA AMPERE ARCHITECTUREA100 beschleunigt große und kleine Workloads. Unabhängig davon, ob Sie MIG verwenden, um eine A100-GPU in kleinere Instanzen zu partitionieren, oder NVLink verwenden, um mehrere GPUs zu verbinden, um umfangreiche Workloads zu beschleunigen, können Sie den Nutzen jeder GPU in ihrem Rechenzentrum rund um die Uhr maximieren.NVIDIA A100
- NVIDIA TESLA A100
- NVIDIA TESLA A100

NVIDIA A100 – 40 GB passive Ampere-Grafikkarte Price List
Store | Price |
---|