Tin công nghệ

Nvidia ra chip H200 giúp AI có tốc độ nhanh gấp đôi

Nvidia H200 sẽ được dùng trong các siêu máy tính hoặc đào tạo AI với khả năng cho ra kết quả nhanh gấp đôi H100 hiện nay.

Sản phẩm vừa được giới thiệu tại sự kiện Supermicro trong khuôn khổ Computex 2023 và dự kiến ra thị trường vào quý 2 năm sau. Theo Nvidia, sự ra đời của H200 sẽ tạo ra những “bước nhảy vọt” về hiệu suất, trong đó hãng nhấn mạnh đến khả năng suy luận của các mô hình AI dữ liệu lớn.

Thử nghiệm với mô hình ngôn ngữ lớn Llama 2 với 70 tỷ tham số, H200 mang đến hiệu suất cao gần gấp đôi so với H100 – con chip AI thuộc hàng mạnh mẽ nhất hiện nay và được sử dụng phổ biến trong các ứng dụng AI tạo sinh thời gian qua, bao gồm cả GPT-4 của OpenAI.

Nhà sản xuất không công bố nhiều thông tin về dòng GPU mới, nhưng cho biết chúng đã được cải tiến đáng kể về dung lượng bộ nhớ và băng thông. Sản phẩm vẫn được xây dựng trên kiến trúc Hopper giống người tiền nhiệm. Tuy nhiên H200 sử dụng bộ nhớ HBM3e dung lượng141GB, băng thông 4,8 TB/s, so với H100 sử dụng bộ nhớ HBM3 80 GB và băng thông 3,35 TB/s.





HGX H200 sử dụng tám GPU H200. Ảnh: Nvidia

HGX H200 sử dụng tám GPU H200. Ảnh: Nvidia

Mẫu chip mới sẽ được trang bị trong các bo mạch Nvidia HGX với cấu hình gồm bốn hoặc tám GPU. Ngoài ra hãng cũng cung cấp một “siêu chip” GH200, kết hợp giữa H200 và CPU Grace với tổng cộng 624GB bộ nhớ. Với cấu hình sử dụng tám GPU, HGX H200 cung cấp khả năng tính toán 32 petaflop. Một điểm đặc biệt của H200 là tương thích với các hệ thống H100 trước đây, giúp các hệ thống hiện tại có thể dễ dàng nâng cấp.

Với các thông số này, Nvidia cho biết H200 sẽ cải thiện khả năng năng làm việc của các hệ thống AI tạo sinh cũng như các hệ thống điện toán hiệu năng cao (HPC) và có thể giúp “giải quyết một số thách thức quan trọng nhất với thế giới”. “Để tạo ra trí thông minh bằng AI và HPC, lượng dữ liệu khổng lồ phải được xử lý hiệu quả ở tốc độ cao với các GPU với bộ nhớ lớn và nhanh”, Ian Buck, Phó Chủ tịch Nvidia nói.

Amazon Web Services, Google Cloud, Microsoft Azure và Oracle sẽ là những nền tảng điện toán đám mây đầu tiên được trang bị H200 khi sản phẩm ra thị trường vào năm sau. Theo Tomshardware, “siêu chip” GH200 có thể sẽ được trang bị đầu tiên trên siêu máy tính Venado của Phòng thí nghiệm quốc gia Los Alamos (Mỹ), hoặc Siêu máy tính Alps (Thụy Sĩ).

Lưu Quý



Cho xem nhiều hơn

Những bài viết liên quan

0 0 đánh giá
Đánh giá bài viết
Theo dõi
Thông báo của
guest

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.

0 Góp ý
Phản hồi nội tuyến
Xem tất cả bình luận
Back to top button
0
Rất thích suy nghĩ của bạn, hãy bình luận.x

Adblock Detected

Vui lòng vô hiệu hóa chương trình chặn quảng cáo trước khi xem trang web TAMHOANG.NET!

Please disable ad blocking program before viewing TAMHOANG.NET website!