NVIDIA stellt Tesla V100s Compute Accelerator vor



NVIDIA updated its compute accelerator product stack with the new Tesla V100s. Available only in the PCIe add-in card (AIC) form-factor for now, the V100s is positioned above the V100 PCIe, and is equipped with faster memory, besides a few silicon-level changes (possibly higher clock-speeds), to facilitate significant increases in throughput. To begin with, the V100s is equipped with 32 GB of HBM2 memory across a 4096-bit memory interface, with higher 553 MHz (1106 MHz effective) memory clock, compared to the 876 MHz memory clock of the V100. This yields a memory bandwidth of roughly 1,134 GB/s compared to 900 GB/s of the V100 PCIe.

NVIDIA hat Änderungen an der Kerntaktrate der GPU nicht detailliert beschrieben, jedoch die angebotenen Leistungsdurchsatzzahlen erwähnt: 8,2 TFLOP / s Gleitkomma-Leistung mit doppelter Genauigkeit im Vergleich zu 7 TFLOP / s bei der ursprünglichen V100 PCIe; 16,4 TFLOP / s mit einfacher Genauigkeit im Vergleich zu 14 TFLOP / s bei der V100 PCIe; und 130 TFLOP / s Deep-Learning-Operationen im Vergleich zu 112 TFLOP / s auf der V100 PCIe. Die Leistungsangaben für das Unternehmen bleiben unverändert bei 250 W typischer Leiterplattenleistung. Das Unternehmen hat keine Preise bekannt gegeben.