NVIDIA HGX H200 GPU’lar Duyuruldu

NVIDIA tarafından Microsoft, OpenAI ve benzeri yapay zeka hizmetleri için daha fazla hız ve performans sunmayı vaat eden HGX H200 adlı yeni nesil yapay zeka GPU’ları duyuruldu. İşte NVIDIA HGX H200 özellikleri hakkında detaylar.

NVIDIA, HGX H200 GPU’nun şirketin Hopper çip mimarisine ve H200 Tensor Core GPU’suna dayandığını belirtiyor. Şirketin basın bültenindeki açıklaması şu şekilde: “NVIDIA H200, HBM3e’yi sunan ilk GPU’dur; üretken yapay zeka ve büyük dil modellerinin hızlandırılmasını desteklemek için daha hızlı ve daha büyük bellek, aynı zamanda HPC iş yükleri için bilimsel bilgi işlemi geliştirir. HBM3e ile NVIDIA H200, saniyede 4,8 terabayt hızında 141 GB bellek sunarken önceki modeli NVIDIA A100 ile karşılaştırıldığında neredeyse iki kat kapasite ve 2,4 kat daha fazla bant genişliği sağlar.”

NVIDIA, yeni çipin Llama 2 büyük dil modelini çalıştırdığında H100’e kıyasla neredeyse iki kat daha fazla çıktı hızı sunacağını iddia ediyor.

Şirket, aralarında Microsoft Azure, Amazon Web Services, Google Cloud ve Oracle Cloud Infrastructure’ın da bulunduğu en büyük bulut hizmetlerinin yeni HGX H200 GPU’yu satın almak için şimdiden kaydolduğunu belirtti. HGX H200 GPU, Eski HGX H100 donanım ve yazılım sistemleriyle uyumlu dört yollu ve sekiz yollu konfigürasyonlarda kullanılabiliyor.

NVIDIA, sekiz yönlü HGX H200’nun üretken yapay zeka ve HPC uygulamalarında en yüksek performans için 32 petafloptan fazla FP8 derin öğrenme işlemi ve 1,1 TB toplam yüksek bant genişlikli bellek sağladığını ifade ediyor.

Ayrıca ASRock Rack, ASUS, Dell Technologies, Gigabyte, Hewlett Packard Enterprise, Lenovo ve çok daha fazlasının da aralarında bulunduğu çok sayıda sunucu donanımı ortağı, eski H100 sistemlerini yeni H200 yongasıyla yükseltebilecek.

HGX H200 GPU, sunucu bilgisayar şirketlerinden ve bulut tabanlı işletmelerden 2024’ün ikinci çeyreğinde temin edilebilecek.