Menurut laporan, ujung chip hulu dari NVIDIA AI GPU H200 memasuki periode produksi massal pada akhir Q2 dan diharapkan akan dikirimkan dalam jumlah besar setelah Q3.Tetapi jadwal peluncuran platform NVIDIA Blackwell setidaknya satu hingga dua perempat lebih cepat dari jadwal, yang memengaruhi kesediaan pelanggan akhir untuk membeli H200.
Rantai pasokan menunjukkan bahwa saat ini, pesanan klien yang menunggu pengiriman sebagian besar masih terkonsentrasi dalam arsitektur HGX H100, dengan proporsi H200 terbatas.Pada Q3, H200 yang akan diproduksi secara massal dan dikirim terutama adalah NVIDIA DGX H200;Sedangkan untuk B100, ia sudah memiliki visibilitas parsial dan diharapkan akan dikirim pada paruh pertama tahun depan.
Sebagai produk upgrade berulang dari GPU H100, H200 mengadopsi teknologi memori bandwidth HBM3E tinggi untuk pertama kalinya berdasarkan arsitektur hopper canggih, mencapai kecepatan transfer data yang lebih cepat dan kapasitas memori yang lebih besar, terutama menunjukkan keunggulan yang signifikan untuk aplikasi model bahasa skala besar.Menurut data resmi yang dirilis oleh NVIDIA, ketika berhadapan dengan model bahasa besar yang kompleks seperti Meta's LLAMA2, H200 memiliki peningkatan maksimum 45% dalam kecepatan respons output AI generatif dibandingkan dengan H100.
H200 diposisikan sebagai produk tonggak lain dari NVIDIA di bidang komputasi AI, tidak hanya mewarisi keuntungan H100, tetapi juga mencapai terobosan signifikan dalam kinerja memori.Dengan aplikasi komersial H200, permintaan untuk memori bandwidth tinggi diperkirakan akan terus meningkat, yang selanjutnya akan mendorong pengembangan seluruh rantai industri perangkat keras komputasi AI, terutama peluang pasar untuk pemasok terkait HBM3E.
GPU B100 akan mengadopsi teknologi pendingin cair.Disipasi panas telah menjadi faktor kunci dalam meningkatkan kinerja chip.TDP GPU NVIDIA H200 adalah 700W, sementara diperkirakan secara konservatif bahwa TDP B100 dekat dengan Kilowatts.Pendinginan udara tradisional mungkin tidak dapat memenuhi persyaratan disipasi panas selama operasi chip, dan teknologi disipasi panas akan diinovasi secara komprehensif menuju pendinginan cair.
CEO NVIDIA Huang Renxun menyatakan bahwa mulai dari GPU B100, teknologi pendingin semua produk di masa depan akan bergeser dari pendinginan udara ke pendinginan cair.Galaxy Securities percaya bahwa B100GPU NVIDIA memiliki setidaknya dua kali lipat kinerja H200 dan akan melebihi empat kali lipat dari H100.Peningkatan kinerja chip sebagian disebabkan oleh proses canggih, dan di sisi lain, disipasi panas telah menjadi faktor kunci dalam meningkatkan kinerja chip.TDP GPU H200 NVIDIA adalah 700W, yang secara konservatif diperkirakan mendekati kilowatt.Pendinginan udara tradisional mungkin tidak dapat memenuhi kebutuhan disipasi panas selama operasi chip, dan teknologi disipasi panas akan sepenuhnya direvolusi terhadap pendinginan cair.