Sản phẩm được công bố ngày 13/11 và dự kiến ra thị trường vào quý II/2024. Theo Nvidia, sự ra đời của H200 sẽ tạo ra những bước nhảy vọt về hiệu suất, trong đó hãng nhấn mạnh đến khả năng suy luận của các mô hình AI dữ liệu lớn.
Thử nghiệm với mô hình ngôn ngữ lớn Llama 2 của Meta với 70 tỷ tham số, H200 mang đến hiệu suất gần gấp đôi so với H100 - chip AI thuộc hàng mạnh mẽ nhất hiện nay và được sử dụng phổ biến trong các ứng dụng AI tạo sinh thời gian qua, bao gồm cả GPT-4 của OpenAI.
Nhà sản xuất không công bố nhiều thông tin về dòng GPU mới, nhưng cho biết chúng đã được cải tiến đáng kể về dung lượng bộ nhớ và băng thông. Sản phẩm vẫn được xây dựng trên kiến trúc Hopper giống bản tiền nhiệm. Tuy nhiên, H200 sử dụng bộ nhớ HBM3e dung lượng 141 GB, băng thông 4,8 TB/s, so với H100 dùng bộ nhớ HBM3 80 GB và băng thông 3,35 TB/s.
Ý kiến ()