Tin tức và phân tích của tất cả các thiết bị di động

Nvidia DGX SuperPod là siêu máy tính GPU Volta 96 × 16 mới, mới

Nvidia DGX SuperPod là siêu máy tính GPU Volta 96 × 16 mới, mới 1
Nvidia DGX SuperPod là siêu máy tính GPU Volta 96 × 16 mới, mới 1

Nvidia đã tiết lộ siêu máy tính của riêng mình tại ISC High Performance tại sự kiện chính ở Frankfurt, ngay lập tức tăng lên thứ 22 trong danh sách xếp hạng thế giới. Tuy nhiên, điều thú vị hơn cả hiệu năng của nó là trọng tâm đằng sau DGX SuperPOD: kết nối 96 DGX-2 đã được giới thiệu một năm trước.

Là 96 thành phần riêng lẻ, mỗi thành phần được cấu hình cho 16 GPU Volta (Tesla V100 32 GB), vì vậy SuperXPX DGX chủ yếu dành cho tính toán AI, Nvidia giải thích.

Trong DGX-281.920 shader của 16 GPU được kết nối thông qua NVSwitch, bao gồm 2 tỷ bóng bán dẫn. Mỗi DGX2 sử dụng Intel Xeon Platinum 8174 với 24 lõi. Để trình bày sistema hình khối, Nvidia được biết đến như một mức giá mua khoảng 400.000 đô la trước thuế. SuperPOD DGX có tổng trị giá gần 40 triệu đô la.

Bằng cách chuyển sang kiến ​​trúc ARM cho siêu máy tính exascale trong tương lai, nhóm Nvidia thể hiện sự linh hoạt của các giải pháp tăng tốc GPU thông minh nhân tạo bằng cách thông báo sự xuất hiện của siêu máy tính DGX SuperPOD mạnh mẽ.



Với sức mạnh xử lý 9,4 Petaflops được xếp hạng là siêu máy tính mạnh thứ 22 trên thế giới, nhưng chỉ cần ba tuần thực hiện, so với 6 lên đến 9 tháng cho siêu máy tính với kiến ​​trúc tiêu chuẩn. cơ sở máy chủ.

Điều này dựa trên 96 hệ thống Nvidia DGX-2H, mỗi hệ thống tích hợp 16 Bộ tăng tốc Nvidia Tesla V100 (tức là 1536 Tesla V100 cho toàn bộ sistema) và được kết nối với nhau bằng công nghệ Mellanox, với những lợi thế của thiết kế mô-đun.

Mục tiêu chính của DGX SuperPOD là đào tạo mạng lưới thần kinh sâu rộng của trí tuệ nhân tạo trong tương lai trong thị trường xe hơi tự trị. Với 1TB dữ liệu được tạo ra mỗi ngày bởi mỗi chiếc xe và được theo dõi trong nhiều năm, đây là vô số dữ liệu cần được xử lý và phân tích để giảm các điểm yếu tiềm ẩn của trí tuệ nhân tạo trong các tình huống nhất định và để giữ lại mạng. tế bào thần kinh để làm cho nó hiệu quả hơn.

Nvidia giới thiệu khả năng xử lý, ví dụ về đào tạo mạng lưới thần kinh ResNet-50 trong ít hơn 2 vài phút khi mất 25 ngày vào năm 2015 khi nó xử lý xử lý GPU Nvidia K80.