Zu Produktinformationen springen
  • NVIDIA TESLA A100 - 40GB Passive Ampere Graphics Card NVIDIA
1 von 1

NVIDIA

NVIDIA A100 – 40 GB passive Ampere-Grafikkarte

Normaler Preis £7,560.00
Normaler Preis Verkaufspreis £7,560.00
Sale Ausverkauft
Versand wird beim Checkout berechnet
GO TO STORE

Einführung

Nvidia A100

 

NVIDIA A100: Beispiellose Beschleunigung in jeder Größenordnung

Die NVIDIA A100 Tensor Core GPU bietet beispiellose Beschleunigungsfähigkeiten für KI-, Datenanalyse- und High Performance Computing (HPC)-Workflows, um die komplexesten Computing-Herausforderungen der Welt zu bewältigen. Als Motor der NVIDIA-Rechenzentrumsplattform kann der A100 Ihnen helfen, Tausende von GPUs miteinander zu verbinden oder mit der Multi-Instanz-GPU-Technologie (MIG) in sieben GPU-Instanzen partitioniert zu werden, um alle Arten von Arbeitslasten zu beschleunigen. Die NVIDIA-Tensor-Kerne der dritten Generation des A100 beschleunigen jetzt mehr Präzisierungsstufen.

KI-WORKFLOWS BESCHLEUNIGEN

  • Arbeitsspeicher: 40 GB HBM2 ECC 5120 Bit (Bandbreite: 1555 GB/s)
  • CUDA-Kerne: 6912
  • FP64: 9,7 TFlops
  • FP32: 19,5 TFlops
  • TF32: 312 TFlops
  • Tensor Float 32 (TF32): 156 TFlops
  • BFLOAT16 Tensorkern: 312 TFlops
  • FP16 Tensorkern: 1248 TOPs
  • INT8 Tensorkern: 624 TOPs
  • Bis zu 7 MIG-Instanzen bei 5 GB
  • Passive Kühlung
  • Wie schnell ist der A100?

    DGX Configuration
  • NVIDIA A100: Beispiellose Beschleunigung in jeder Größenordnung

    Die NVIDIA A100 Tensor Core GPU bietet beispiellose Beschleunigungsfähigkeiten für KI-, Datenanalyse- und High Performance Computing (HPC)-Workflows, um die komplexesten Computing-Herausforderungen der Welt zu bewältigen. Als Motor der NVIDIA-Rechenzentrumsplattform kann der A100 Ihnen helfen, Tausende von GPUs miteinander zu verbinden oder mit der Multi-Instanz-GPU-Technologie (MIG) in sieben GPU-Instanzen partitioniert zu werden, um alle Arten von Arbeitslasten zu beschleunigen. Die NVIDIA-Tensor-Kerne der dritten Generation des A100 beschleunigen jetzt mehr Präzisierungsstufen.

    • Arbeitsspeicher: 40 GB HBM2 ECC 5120 Bit (Bandbreite: 1555 GB/s)
    • CUDA-Kerne: 6912
    • FP64: 9,7 TFlops
    • FP32: 19,5 TFlops
    • TF32: 312 TFlops
    • Tensor Float 32 (TF32): 156 TFlops
    • BFLOAT16 Tensorkern: 312 TFlops
    • FP16 Tensorkern: 1248 TOPs
    • INT8 Tensorkern: 624 TOPs
    • Bis zu 7 MIG-Instanzen bei 5 GB
    • Passive Kühlung
    • NVIDIA AMPERE ARCHITECTUREA100 beschleunigt große und kleine Workloads. Unabhängig davon, ob Sie MIG verwenden, um eine A100-GPU in kleinere Instanzen zu partitionieren, oder NVLink verwenden, um mehrere GPUs zu verbinden, um umfangreiche Workloads zu beschleunigen, können Sie den Nutzen jeder GPU in ihrem Rechenzentrum rund um die Uhr maximieren.NVIDIA A100
    • NVIDIA TESLA A100
    • NVIDIA TESLA A100


NVIDIA A100 – 40 GB passive Ampere-Grafikkarte Price List

Store Price